Künstliche Intelligenz
-
Chatbots außer Kontrolle
Companion-Chatbots sind für viele Menschen digitale Vertraute – doch was, wenn diese „Freunde“ manipulieren, bedrängen oder belästigen? Eine neue Studie der Drexel University (Pennsylvania) zeigt alarmierende Fälle grenzüberschreitender KI-Interaktionen. Die Forscher fordern klare Regeln – und Verantwortung von den Entwicklern.
-
Studi vs. Chatbot 1:0
Eine neue Studie der Universität East Anglia zeigt: ChatGPT schreibt zwar fehlerfrei, aber ohne Persönlichkeit. Im direkten Vergleich mit studentischen Essays überzeugten die Texte der KI deutlich weniger – vor allem, weil sie kaum rhetorische Fragen stellen oder persönliche Perspektiven einnehmen.
-
Der Trick steckt im Code
Eine neue Studie zeigt: KI-Anwendungen wie ChatGPT erzeugen manipulatives Webdesign – selbst ohne entsprechende Aufforderung. Die Systeme bauen Dark Patterns wie gefälschte Rezensionen oder Zeitdruckanzeigen automatisch ein. Forschende fordern Schutzmechanismen und klare Regeln, um Nutzende vor ungewollter Manipulation zu bewahren.
-
KI-Assistenten als westliche Klischee-Agenten
KI-Schreibassistenten wie ChatGPT glätten kulturelle Unterschiede und machen Texte aus dem Globalen Süden westlicher. Indische Nutzer übernehmen amerikanische Vorschläge – oft unfreiwillig. Forscher warnen vor kultureller Vereinheitlichung.
-
Schneller denken: Abkürzung für KI-Rechenprozesse in Sicht
Ein neuer Speichertyp namens ECRAM soll KI deutlich schneller machen: Speichern und Rechnen passiert am selben Ort, ähnlich wie in den Synapsen des Gehirns. Nun weiß man endlich auch, warum ECRAM so effizient funktioniert.
-
Lernen im Minecraft-Kollektiv: Wenn Beobachten klüger macht als Ausprobieren
Eine neue Studie zeigt: Menschen lernen am besten, wenn sie flexibel zwischen eigenem Ausprobieren und dem Beobachten anderer wechseln. Mit dem Spiel Minecraft simulierten Forschende soziale Lernsituationen – und fanden heraus, dass Anpassungsfähigkeit entscheidender ist als starre Strategien.
-
Clever fragen, besser antworten: Neuer Algorithmus macht KI präziser und sparsamer zugleich
Ein Team der ETH Zürich hat mit dem SIFT-Algorithmus eine Methode entwickelt, die Antworten von Künstlicher Intelligenz gezielter, präziser und energieeffizienter macht. Das System erkennt relevante Daten besser – und ermöglicht so zuverlässige Antworten auch mit deutlich kleineren Modellen.
-
„Die wahre Gefahr sitzt im Algorithmus“: Warum uns gegenwärtige KI stärker beunruhigt als Zukunfts-Katastrophen
Eine neue Studie zeigt: Menschen sorgen sich deutlich stärker um aktuelle Risiken von Künstlicher Intelligenz – etwa Diskriminierung oder Jobverlust – als um spekulative Bedrohungen der fernen Zukunft.
-
[Buchtipp] The Technological Republic: Palantir-Mitgründer A. C. Karp fordert mehr Staatsnähe (& Staatgelder) für das Silicon Valley
In The Technological Republic fordern Palantir-Mitgründer Alexander C. Karp und Journalist Nicholas W. Zamiska eine neue strategische Allianz zwischen Staat und Tech-Industrie. Angesichts globaler Machtverschiebungen und KI-Durchbrüchen sehen sie den Westen in der Pflicht, seine Innovationskraft neu zu organisieren.
-
Quanten-KI-Singularität: Wenn zwei Supertechnologien verschmelzen
Quanten-KI gilt als potenzieller Wendepunkt der Technologiegeschichte: Sie verbindet die Rechenmacht des Quantencomputings mit der Lernfähigkeit künstlicher Intelligenz. Welche Chancen und Risiken, welche Akteure stecken hinter der Idee einer Singularität – dem Moment, in dem Maschinen den menschlichen Geist überflügeln?