Zum Inhalt springen
Qries Qries Qries Qries Qries Qries

Empfohlene Beiträge

Offener Brief

Musk will "gefährliche" KI-Entwicklung stoppen
Von t-online, sha

Aktualisiert am 03.04.2023
 
In einem offenen Brief fordert Elon Musk mit anderen IT-Experten einen sofortigen Stopp von KI-Modellen. Andernfalls riskiere man einen Kontrollverlust.
 
 
VGWort Pixel
 

Offener Brief

Musk will "gefährliche" KI-Entwicklung stoppen
Von t-online, sha

Aktualisiert am 03.04.2023Lesedauer: 2 Min.
Milliardär Elon Musk will Twitter übernehmen.
Elon Musk: Der Tech-Milliardär ist Mitgründer der ChatGPT-Firma OpenAI. (Quelle: Susan Walsh/AP/dpa/Archivbild./dpa)
Facebook Logo Twitter Logo Pinterest Logo WhatsApp Logo
Symbolbild zum öffnen des Teilen-Dialogs

In einem offenen Brief fordert Elon Musk mit anderen IT-Experten einen sofortigen Stopp von KI-Modellen. Andernfalls riskiere man einen Kontrollverlust.

 

Tech-Milliardär Elon Musk fordert einen "unverzüglichen" Entwicklungsstopp von KI-Systemen, die leistungsfähiger sind als das umstrittene Sprachmodell GPT-4 der Firma OpenAI. Musk verweist in einem offenen Brief auf mögliche Risiken für die Gesellschaft, sollte die Entwicklung nicht sofort unterbrochen werden.

In dem Schreiben, das von mehr als 1.000 KI-Experten und Tech-Führungskräften unterzeichnet wurde, wird eine sechsmonatige Entwicklungspause gefordert. In dieser Zeit sollten Sicherheitsprotokolle für KI-Systeme entwickelt, umgesetzt und von unabhängigen Experten geprüft werden.

"Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind", zitiert die Nachrichtenagentur Reuters aus dem Schreiben.

KI birgt potenzielle Risiken für die Gesellschaft

Zu den Unterzeichnern gehören unter anderem Apple-Mitgründer Steve Wozniak, Bestseller-Autor Andrew Yang, Skype-Mitgründer Jaan Tallinn und DeepMind-Entwicklerin Victoria Krakovna.

 

In ihrem Dokument weisen die Unterzeichner auf die potenziellen Risiken für die Gesellschaft und die Zivilisation durch KI-Systeme hin. "Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheit fluten?", wird da gefragt.

Und weiter: "Sollten wir nichtmenschliche Geschöpfen entwickeln, die uns schließlich zahlenmäßig übertreffen, überlisten, obsolet machen und ersetzen könnten?" Es gehe um nicht weniger als um den Kontrollverlust über unsere Zivilisation, heißt es.

Europol hatte vor ChatGPT gewarnt

Erst vor wenigen Tagen hatte die EU-Polizeibehörde Europol davor gewarnt, dass Kriminelle Künstliche Intelligenz (KI) wie ChatGPT für Betrug und andere Cyberverbrechen nutzen werden.

 

Dies biete einen "düsteren Ausblick", heißt es in einem Bericht der europäischen Polizeibehörde mit Sitz in Den Haag. Die sich schnell entwickelnden Fähigkeiten von Chatbots würden künftig nicht nur genutzt, um die Menschheit zu verbessern – sondern auch, um sie zu betrügen.

 

Seit seiner Veröffentlichung im vergangenen Jahr hat das von Microsoft unterstützte ChatGPT des von Musk mitgegründeten Unternehmens OpenAI andere Unternehmen dazu veranlasst, die Entwicklung ähnlicher großer Sprachmodelle zu beschleunigen.

 

ChatGPT erstellt mithilfe von Künstlicher Intelligenz Texte. Nutzer können einzelne Befehle oder Sätze vorgeben, die das System dann mithilfe von Unmengen von Daten aus dem Internet eigenständig ergänzt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 3 Wochen später...

17. April 2023, 16:54 Uhr

ChatGPT-Verbot in Italien: OpenAI hat reagiert - Seite wieder entsperrt

Die Nachricht sorgte Ende März für Furore: Italien sperrte kurzerhand das KI-Sprachmodell ChatGPT. Könnte so ein Verbot auch in Deutschland kommen? Und was fordern die italienischen Behörden?
 

Die Nachricht verbreitete sich im Netz wie ein Lauffeuer: Als erstes Land weltweit hat Italien Ende März die Künstliche Intelligenz ChatGPT des Unternehmens OpenAI wegen Datenschutzbedenken gesperrt. Zumindest vorläufig. Denn die italienische Datenschutzbehörde hatte OpenAI 20 Tage Zeit eingeräumt, Maßnahmen gegen die Vorwürfe zu präsentieren. Danach drohte dem Unternehmen eine Strafe von bis zu 20 Millionen Euro - oder vier Prozent seines weltweiten Umsatzes.

Inzwischen (Stand 2. Mai 2023) haben die italienischen Behörden die Sperre wieder aufgehoben. Das US-Unternehmen OpenAI habe laut der Deutschen Presse-Agentur (dpa) der Datenschutzbehörde Maßnahmen erläutert, mit denen es den Aufforderungen zum besseren Datenschutz nachkommt. "OpenAI stellt den Dienst in Italien mit verbesserter Transparenz und verbesserten Rechten für europäische Benutzer wieder her", hieß es. Allerdings forderten die italienischen Behörden weitere Maßnahmen. Die Ermittlungen gegen OpenAI würden fortgesetzt.

ChatGPT-Verbot in Italien: Das steckt dahinter

Doch was war passiert, dass sich Italien bemüßigt sah, der KI vorerst einen Riegel vorzuschieben? Im Gespräch mit ZDFheute versucht der italienische Datenschutzbeauftragte Guido Scorza die Reaktion seines Landes zu erklären. "Der Punkt ist, dass ich, wenn ich nicht weiß, wer was mit meinen persönlichen Daten macht, nicht in der Lage bin, die Verwendung meiner persönlichen Daten zu kontrollieren, um meine Rechte auszuüben", erklärte Scorza. Das sei bei ChatGPT der Fall, da OpenAI seine Nutzer nicht ausreichend über die Verwendung ihrer Daten informiere. Jüngst hatten Tech-Größen, wie Elon Musk, einen Entwicklungsstopp für KI gefordert.

ChatGPT 3.5 - und auch seine Weiterentwicklung GPT-4 - basieren darauf, dass das Modell Unmengen von Texten erfasste, um seinen gegenwärtigen Funktionsumfang zu erreichen. ChatGPT wird inzwischen von zahlreichen Unternehmen und für einige Großprojekte genutzt. Italiens Datenschützer sehen laut Scorza ein grundsätzliches Problem darin, wie die KI trainiert wurde. "Wer personenbezogene Daten einer Person verarbeitet, muss diese informieren und vor allem auf der Grundlage einer soliden Rechtsgrundlage handeln, die hier zu fehlen scheint", erklärte er.

Anstoß könnten die italienischen Behörden auch an der bekannt gewordenen Datenschutzpanne um ChatGPT genommen haben. Dabei hatten Nutzer von ChatGPT zum Teil Informationen aus fremden Profilen zu sehen bekommen, wie das Handelsblattberichtet. OpenAI zufolge ging das Problem auf einen Fehler in einer für ChatGPT verwendeten Software zurück.

Erschwerend hinzu kam offenbar für die italienischen Behörden, dass es keinen Filter gebe, der verhindert, das Kinder im Alter unter 13 Jahren bei der Verwendung von ChatGPT "absolut unangebrachte" Informationen angezeigt bekämen. Neben den eingeleiteten Ermittlungen verbot die italienische Datenschutzbehörde vorsorglich auch jegliche Verarbeitung von Daten von Nutzern aus Italien. ChatGPT ist damit in Italien nicht mehr nutzbar.

Kein ChatGPT in Italien: Das fordert die Datenschutzbehörde von OpenAI

Zwischenzeitlich hatte die italienische Datenschutzbehörde auf ihrer Website eine Mitteilung veröffentlicht, in der sie darlegt, welche Maßnahmen OpenAI ergreifen müsse, damit ChatGPT in Italien wieder nutzbar wird. Die Maßnahmen seien laut der Behörde von der italienischen Staatsanwaltschaft festgelegt und müssten bis zum 30. April umgesetzt werden.

Die Maßnahmen zusammengefasst:

  • Information:OpenAI soll auf seiner Website Informationen darüber bereitstellen, welche Modalitäten und Logik für die Datenverarbeitung von ChatGPT maßgeblich sind und die Rechte der betroffenen Personen (Nutzer und auch Nichtnutzer) beschreiben. Für Nutzer aus Italien gelten spezielle Regeln: Sie müssten den Hinweis erhalten, bevor sie ihre Registrierung abschließen. Zudem müssten italienische Nutzer erklären können, dass sie über 18 Jahre alt sind. Auch registrierte Nutzer müssten eine Altersabfrage durchlaufen, bei der minderjährige Nutzer aufgrund des angegebenen Alters herausgefiltert werden können.
  • Schutz von Kindern:OpenAI soll unverzüglich ein Altersüberprüfungssystem für die Anmeldung einführen und einen Plan bis 30. September 2023 einführen, mit dem Nutzer unter 13 Jahren sowie Nutzer zwischen 13 und 18 Jahren, für die keine Zustimmung durch Erziehungsberechtigte vorliegt, herausgefiltert werden können.
  • Sensibilisierungskampagne: Das Unternehmen soll zudem eine Informationskampagne über Radio, Fernsehen, Zeitungen und Internet durchführen, um die Bürger in Italienüber die Verwendung ihrer persönlichen Daten zu informieren.
  • Rechtsgrundlage:OpenAI soll alle Verweise auf vertragliche Leistungen streichen und sich "im Einklang mit dem Grundsatz der Rechenschaftspflicht - entweder auf die Einwilligung oder das berechtigte Interesse" als anwendbare Rechtsgrundlage zur Verarbeitung der personenbezogenen Daten stützen.
  • Ausübung der Rechte: Nutzer und Nichtnutzer müssen fehlerhafte personenbezogene Daten bei ChatGPT berichtigen lassen oder die Daten löschen lassen können, falls eine Berichtigung nicht möglich ist. Dazu soll OpenAI "leicht zugängliche Instrumente" zur Verfügung stellen, die es Nichtnutzern ermöglichen, ihr Recht auf Widerspruch gegen die Datenverarbeitung auszuüben. Nutzer sollen das gleiche Recht eingeräumt bekommen, wenn " als Rechtsgrundlage für die Verarbeitung ihrer Daten ein berechtigtes Interesse gewählt wird."

ChatGPT: Verbot auch in Deutschland möglich?

Nach dem Fall in Italien fragen sich Nutzer von ChatGPT in Deutschland, ob so ein Verbot auch hierzulande erlassen werden könnte. Denn, wenn ein Land wie Italien - möglicherweise begründete - Datenschutzbedenken zu ChatGPT hat, könnten auch die anderen EU-Länder irgendwann nachziehen. Immerhin hat die Europäische Union die strengsten Datenschutzvorschriften der Welt.

Eine Sprecherin des Bundesbeauftragten für Datenschutz, Ulrich Kelber, sagte gegenüber dem Handelsblatt: "Grundsätzlich ist ein entsprechendes Vorgehen auch in Deutschland möglich." Allerdings fiele der Fall ChatGPT in den Zuständigkeitsbereich der Landesdatenschutzbehörden, weil es sich bei dem Betreiber um ein Unternehmen handele.

Auch das Bundesinnenministerium ließ sich gegenüber dem Handelsblatt nicht zu einem Ausspruch für oder gegen ein ChatGPT-Verbot hinreißen. Man verfolge die Medienberichte über das Vorgehen der italienischen Behörden aufmerksam.

Das Digitalministerium von Ressortchef Volker Wissing (FDP) sprach sich laut des Berichts hingegen klar gegen eine Sperrung von ChatGPTDeutschland aus. „Wir brauchen kein Verbot von KI-Anwendungen, sondern Wege, Werte wie Demokratie und Transparenz zu gewährleisten“, erklärte ein Sprecher des Ministeriums.

Auch der frühere Datenschutzbeauftragte von Baden-Württemberg, Stefan Brink, sieht laut Handelsblatt-Informationen keinen Grund, ChatGPT aus Datenschutzgründen auszubremsen. „Zwar nutzt KI regelmäßig auch personenbezogene Daten zu Trainingszwecken“, sagte der Direktor des wissenschaftlichen Instituts für die Digitalsierung der Arbeitswelt. "Soweit die Daten allerdings aus dem Internet bezogen werden, überwiegen regelmäßig die berechtigten Interessen der Entwickler gegenüber Schutzbedürfnissen von Betroffenen." Dies gelte, sofern KI mit Forschungszielen entwickelt werde. Fragen des Jugendschutzes müssten immer beachtet werden, dies sei aber nicht KI-spezifisch.

„Die deutschen Aufsichtsbehörden sollten daher – anders als die italienischen – die Entwicklung beobachten, aber nicht effekthaschend und öffentlichkeitswirksam vorsorgliche Gegenpositionen aufbauen“, sagte Brink. Es sei nicht die Aufgabe der Behörden, neue Technologien der Digitalisierung aufzuhalten.

Verbot von ChatGPT: Wie sieht es in Europa aus?

Und die Europäische Union? Sie - oder besser gesagt die Europäische Verbraucherorganisation BEUC - hat kurz vor Bekanntwerden der Italien-Sperre eine Pressemitteilung zu ChatGPTs Datenpanne veröffentlicht. In der schreibt Ursula Pachl, stellvertretende Direktorin der BEUC: "Die Verbraucher sind noch nicht bereit für diese Technologie. Sie erkennen nicht, wie manipulativ, wie trügerisch sie sein kann. Sie erkennen nicht, dass die Informationen möglicherweise falsch sind. Ich denke, dieser Vorfall jetzt mit ChatGPT ist sehr wichtig. Es ist eine Art Weckruf für die Europäische Union. Obwohl wir an diesem KI-Gesetz arbeiten, wird es erst in vier Jahren gelten. Und wir haben gesehen, wie schnell diese Entwicklung bei ChatGPT war."

Wie das Portal euronews.de berichtet, debattiere die Europäische Kommission derzeit über die weltweit erste Gesetzgebung zur künstlichen Intelligenz, dem KI-Gesetz. Laut der Vizepräsidentin der Europäischen Kommission und Kommissarin für Digitales, Margrethe Vestager, ist die EU jedoch nicht bereit dazu, künstliche Intelligenzsysteme zu verbieten.

Auf Twitter schrieb sie: "Egal, welche Technologie wir verwenden, wir müssen unsere Freiheiten weiter vorantreiben und unsere Rechte schützen. Deshalb regulieren wir keine KI-Technologien, wir regulieren die Verwendung von KI. Werfen wir nicht in ein paar Jahren weg, was Jahrzehnte gedauert hat, um es aufzubauen."

Es bleiben also die nächsten Schritte der EU abzuwarten, um genauer vorhersehen zu können, ob auch DeutschlandChatGPT einschränkt oder möglicherweise verbietet.

Übrigens: Wenn Sie zu den Nutzern von ChatGPT gehören sollten Sie damit beschäftigen, wie man gute Prompts für die KI formuliert. Wenn Sie Chat GPT-3.5 oder das kostenpflichtige Plus-Modell der KI nicht nutzen möchten, bietet sich auch eine kostenpflichtige Schnittstelle zu WhatsApp an. Es gibt allerdings auch zahlreiche gratis KI-Tools, die Sie nutzen können. Wenn Sie befürchten jemand, könnte Ihnen einen KI-generierten Text vorgesetzt haben, hilft der AI Classifier.

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 1 Monat später...

Künstliche Intelligenz im Kontext der islamischen Ethik und Verantwortung

menschlichen Wesens, unabhängig von seiner Herkunft oder seinem sozialen Status. Angewandt in der KI Entwicklung hieße dies, dass KI-Systeme so entwickelt werden sollten, dass sie die Würde und die Rechte von Menschen respektieren. Ob dies in Zeiten der kapitalistischen Entwicklung von KIs gelingen kann, wird sich zeigen müssen.


An dieser Stelle zeigt sich ein weiteres Problem in der gegenwärtigen Entwicklung: die fehlende Transparenz und Offenheit. So sollten KI-Systeme so entwickelt und eingesetzt werden, dass sie für alle Benutzer transparent und nachvollziehbar sind. Dies bedeutet dann aber auch, dass die Funktionsweise von KI-Systemen offengelegt werden sollte, damit Benutzer verstehen können, wie Entscheidungen getroffen werden und welche Daten verwendet werden. Diese Transparenz fehlt gegenwärtig ebenfalls gänzlich. Alles, was die KI ausspuckt, wird als wahr hingenommen, ohne jegliche Hinterfragung.

Auf Grund dieser Problematiken forderten Elon Musk und andere Investoren vor kurzem die Gründung von Kommissionen, um die KI-Entwicklung zumindest zu beraten, bevor noch mehr außer Kontrolle gerät. Ethikkommissionen und Kontrollmechanismen sollten daher sicherstellen, dass KI-Systeme im Einklang mit ethischen und moralischen Standards entwickelt und eingesetzt werden. Diese Kommissionen sollten aus Experten bestehen, die in der Lage sind, KI-Systeme zu bewerten und sicherzustellen, dass sie keine Schäden verursachen oder gegen allgemeingültige ethische Standards verstoßen.

Muslimische Forscher sollten daher die islamische Ethik in die Diskussionen über KI-Systeme einbeziehen. Indem man sich auf die Werte von Verantwortung, Menschlichkeit, Würde, Transparenz, Gerechtigkeit und Moral konzentriert, kann die muslimische Forscher dazu beitragen, dass die KI-Technologie das Wohl der Gesellschaft fördert und nicht gefährdet.

Dr. Cemil Sahinöz, Islamische Zeitung, 02.06.2023
https://islamische-zeitung.de/bei-ki-muss-wuerde-eine-rolle-spielen/



Gesendet von meinem CLT-L09 mit Tapatalk

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 3 Monate später...

KI-FORUM IN WASHINGTON

Musk fordert „Schiedsrichter“ für Künstliche Intelligenz

FAZ, 14.09.2023-01:38

US-Politiker und führende Tech-Experten sind sich einig: Für die Anwendung von Künstlicher Intelligenz muss es Vorschriften geben. Elon Musk spricht sich für eine KI-Regulierungsbehörde aus.

In den USA hat unter Beteiligung der Chefs der führenden Tech-Riesen die Ausarbeitung von Vorschriften für die Anwendung von Künstlicher Intelligenz (KI) begonnen. „Heute starten wir ein enormes, komplexes und lebenswichtiges Unterfangen: die Schaffung einer Grundlage für eine überparteiliche KI-Politik“, sagte der Fraktionschef der Demokraten und Mehrheitsführer im Senat, Chuck Schumer, am Mittwoch auf einem KI-Forum auf dem Kapitol. „Es ist wichtig für uns, einen Schiedsrichter zu haben“, sagte Tesla-Chef Elon Musk am Rande der Anhörungen. Eine Regulierungsbehörde sei nötig, „um sicherzustellen, dass Unternehmen sicher und im Interesse der Öffentlichkeit handeln“.

Neben Musk nahmen auch Facebook-Chef Mark Zuckerberg und Google-Chef Sundar Pichai an den Beratungen in Washington teil. Sie sollen den Kongressmitgliedern helfen, eine Antwort auf die Frage zu finden, wie die aus KI resultierenden Gefahren beherrscht werden können. Spätestens seitdem das KI-Programm ChatGPT von OpenAI öffentlich zugänglich ist, ist ein regelrechter Boom um die neue Technik entstanden. Schon jetzt gehen von KI allerdings Gefahren aus wie kaum erkennbare Fälschungen (deepfakes) in Form von Fotos, Videos, Manipulationen in sozialen Netzwerken und von Wahlkämpfen.

Alle Teilnehmer seien sich einig, dass die Regierung die KI-Nutzung regulieren und entsprechende Gesetze ausarbeiten müsse, sagte der Senator von New Jersey, Cory Booker. An der Sitzung nahmen auch die Chefs von Nvidia-Chef Jensen Huang, Microsoft Satya Nadella, IBM Arvind Krishna sowie der Microsoft-Gründer Bill Gates und die Präsidentin des Gewerkschaftsverbands AFL-CIO, Liz Shuler, teil.

Experten forderten Pause bei Entwicklung von KI-Systemen
Kritisch äußerte sich der oppositionelle republikanische Senator Josh Hawley: „Ich weiß nicht, warum wir die größten Monopolisten der Welt einladen sollten, um dem Kongress Tipps zu geben, wie sie mehr Geld verdienen können.“ Er warf der demokratischen Mehrheit im Kongress vor, es bislang versäumt zu haben, eine sinnvolle Technologiegesetzgebung zu verabschieden.

Das Forum am Mittwoch ist Teil mehrerer Veranstaltungen, die Grundlagen für die Leitplanken für KI-Anwendungen legen soll. Bereits vergangenen März hatten Musk und eine Gruppe von KI-Experten und Führungskräften eine sechsmonatige Pause bei der Entwicklung von KI-Systemen gefordert. Begründet hatten sie das Moratorium mit möglichen Risiken für die Gesellschaft.

Weltweit bemühen sich die Regierungen um Regeln für den Einsatz generativer KI, mit der Texte und Bilder erstellt werden können, deren künstlicher Ursprung praktisch nicht nachweisbar ist.

Quelle: Reuters

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...