banner

Nachricht

Oct 05, 2023

Der neue KI-Chef von Google Cloud studiert militärische KI mit dem Gründer von Project Maven

Als Google Cloud-Chefin Diane Greene ankündigte, dass Andrew Moore später in diesem Jahr Fei-Fei Li als Leiter für künstliche Intelligenz bei Google Cloud ersetzen würde, erwähnte sie, dass er Dekan der Fakultät für Informatik an der Carnegie Mellon University sei und früher bei Google gearbeitet habe .

Was Greene nicht erwähnte, war, dass Moore auch Co-Vorsitzender einer KI-Task Force ist, die vom Center for a New American Security (CNAS) gegründet wurde, einer Denkfabrik mit engen Verbindungen zum US-Militär. Moores Co-Vorsitzender der Task Force ist Robert Work, ein ehemaliger stellvertretender Verteidigungsminister, den die New York Times als „die treibende Kraft hinter der Gründung von Project Maven“ bezeichnete, dem Versuch des US-Militärs, Daten wie Drohnenaufnahmen zu analysieren , mit KI.

Googles Beteiligung am Project Maven sorgte Anfang des Jahres für große Gegenreaktionen innerhalb des Unternehmens und zwang CEO Sundar Pichai zu der Zusage, dass Google niemals an KI-gestützten Waffen arbeiten würde.

Die Einstellung von Moore wird mit Sicherheit die Debatte über Googles Engagement in bestimmten Märkten für künstliche Intelligenz – einem der heißesten Technologiebereiche mit enormem Geschäftspotenzial – und die Beziehungen des Unternehmens zum Militär neu entfachen.

Während seiner Amtszeit bei Carnegie Mellon hat Moore häufig die Rolle der KI in defensiven und militärischen Anwendungen diskutiert, beispielsweise in seinem Vortrag 2017 über künstliche Intelligenz und globale Sicherheit:

„Wir könnten es uns leisten, wenn wir wollten und müssten, so ziemlich die ganze Welt mit autonomen Drohnen verschiedener Art zu überwachen“, sagte Moore. „Ich sage nicht, dass wir das tun würden, aber es gibt dort keine Technologielücke, bei der ich denke, dass es eigentlich zu schwierig wäre. Das ist jetzt praktikabel.“

CNAS, die Organisation, die die Task Force gebildet hat, deren Co-Vorsitzender Moore ist, konzentriert sich auf Fragen der nationalen Sicherheit und ihre erklärte Mission besteht darin, „starke, pragmatische und prinzipielle nationale Sicherheits- und Verteidigungspolitiken zu entwickeln, die amerikanische Interessen und Werte fördern und schützen“.

Die Entscheidung von Google, Moore einzustellen, wurde von mindestens einem ehemaligen Google-Mitarbeiter, der Einwände gegen Project Maven hatte, mit Unmut aufgenommen.

„Nach dem weit verbreiteten internen Dissens gegen Maven ist es besorgniserregend festzustellen, dass Google Andrew Moore einstellen würde“, sagte ein ehemaliger Google-Mitarbeiter. „Google-Mitarbeiter wollen weniger und nicht mehr auf die Anbindung an den militärisch-industriellen Komplex. Diese Einstellung ist wie ein Schlag ins Gesicht für die über 4.000 Google-Mitarbeiter, die den Cancel Maven-Brief unterzeichnet haben.“

Ein Google-Sprecher lehnte eine Stellungnahme ab.

Moore, der im Vereinigten Königreich geboren wurde, aber inzwischen US-amerikanischer Staatsbürger geworden ist, hat häufig darauf hingewiesen, dass bei der Einführung von KI aus dem Labor in die reale Welt Vorsicht geboten sei. Als die CNAS-Task Force im März angekündigt wurde, betonte Moore, wie wichtig es sei, „sicherzustellen, dass solche Systeme mit Menschen auf eine Weise zusammenarbeiten, die den Menschen stärkt, nicht ersetzt, und die letztendliche Entscheidungsbefugnis beim Menschen behält.“

Und in einem aktuellen CNAS-Podcast beschrieb er, was er seine „konservative“ Sicht auf KI in der realen Welt nannte: „Selbst wenn ich wüsste, dass beispielsweise die Einführung einer Flotte autonomer Fahrzeuge in einer Stadt die Zahl der Todesfälle um 50 % reduzieren würde, würde ich es tun.“ „Ich möchte es nicht starten, bis ich einige formelle Beweise für die Richtigkeit gefunden habe, die mir zeigten, dass es absolut nicht zu unnötigen Todesfällen führen würde.“

Dennoch hat er den Umgang mit dem Militärsektor nicht gescheut.

Moores Carnegie Mellon-Biografie erwähnt frühere Arbeiten zur „Erkennung und Überwachung von Terrorbedrohungen“ und er wird als Sachbearbeiter in einem Beratungsbericht zur Marineforschung vom September 2017 zum Thema „Autonome und unbemannte Systeme im Marineministerium“ aufgeführt.

Weiterlesen: Ein angespanntes internes Treffen zwischen Google-CEO Sundar Pichai und Mitarbeitern verlief schief, als Führungskräfte Gerüchte über die China-Pläne des Unternehmens ansprachen

Während des Vortrags über globale Sicherheit im Jahr 2017 erwähnte er die Möglichkeit, digitale persönliche Assistenten, wie sie in Verbrauchergeräten von Google und Amazon verwendet werden, in militärische Anwendungen zu integrieren. „Es ist eine offene Frage, ob und wann und wie wir persönliche Assistenten für Kriegskämpfer und Kommandeure entwickeln können, um über den vollständigen Satz an Informationen zu verfügen, die dabei helfen, den ‚Nebel des Krieges‘ zu beseitigen, ohne ihnen mit zu vielen Informationen in die Quere zu kommen.“ er sagte.

Google beauftragte Moore mit der Überwachung der KI-Bemühungen innerhalb von Google Cloud, der Einheit, die Googles beliebte Cloud-Computing-Dienste wie Datenspeicherung, Computer und maschinelles Lernen anbietet. Er ersetzt Li, die auf ihre Professur in Stanford zurückgekehrt ist.

Mit seiner Einstellung versucht Google, die Kontroverse zu überwinden, die ausbrach, als die Beteiligung des Unternehmens an Project Maven bekannt wurde.

Als Anfang dieses Jahres bekannt wurde, dass Google das Militär bei der Analyse von Drohnenaufnahmen unterstützt, unterzeichneten Tausende von Google-Mitarbeitern eine Petition, in der sie das Management aufforderten, die Beteiligung des Unternehmens zu beenden. Andere weigerten sich, an dem Projekt zu arbeiten oder gaben den Reportern Dokumente zugespielt, die sich für das Management als peinlich erwiesen. Etwa ein Dutzend Mitarbeiter traten aus Protest zurück.

Im Juni schien Google-Chef Pichai ihren Forderungen nachzugeben. Er veröffentlichte eine Liste mit sieben Prinzipien, die die Entwicklung von KI durch das Unternehmen leiten würden. Dazu gehörte, niemals KI-gestützte Waffen zu bauen und sicherzustellen, dass KI für Anwendungen eingesetzt wird, die gesellschaftlich nützlich und sicher sind und keine unfairen Vorurteile hervorrufen. Das Unternehmen schloss eine Zusammenarbeit mit dem Militär bei Diensten, die nicht gegen die Grundsätze verstoßen, wie beispielsweise E-Mail oder Datenspeicherung, nicht aus.

Viele Maven-Gegner bei Google waren der Meinung, dass das Unternehmen in keiner Weise mit dem Militär zusammenarbeiten sollte. Und zumindest für einige der Google-Mitarbeiter, die am Maven-Protest teilgenommen haben – sowie für ehemalige Mitarbeiter, die mit ihrer Sache sympathisieren – wird Moores Einstellung Fragen über Googles Engagement für diese KI-Prinzipien aufwerfen.

Moore selbst hat die potenziellen Gefahren einer bewaffneten KI erkannt.

„So wie es gut ist, dass wir KI so schnell umsetzen können“, sagte er während des Vortrags 2017, ist KI auch eine „Bedrohung“.

„So wie einem unserer genialen Doktoranden schnell etwas einfallen kann, kann das auch jemand weniger Begehrenswertem tun. Und darauf müssen wir bei dem, was wir tun, vorbereitet sein“, sagte er.

Ausgewählte Artikel zu Drohnen: - Drohnengesetze und FAA-Vorschriften - Verwendung von Drohnentechnologie - Top-Drohnenhersteller und -bestände, in die man investieren kann - Drohnen-Lieferdienste - So starten Sie ein Drohnengeschäft - Kommerzielle UAV-Marktanalyse - Smart Farming und landwirtschaftliche Drohnen

Lesen Sie weiter

Lesen Sie weiter

Weiterlesen: Ein angespanntes internes Treffen zwischen Google-CEO Sundar Pichai und Mitarbeitern verlief schief, als Führungskräfte Gerüchte über die China-Pläne des Unternehmens ansprachen
AKTIE