ForschungInnovation

[Update] Microsoft experimentiert mit Chat-Bot Tay

Microsoft (Bild: Microsoft)
1 0 Keine Kommentare

Ziel ist es, die Kommunikation zwischen jungen Menschen zu erforschen. Insbesondere geht es dabei um die Interaktion über mobile soziale Chat-Dienste. Dazu nutzt MIcrosofts Tay Sowohl künstliche Intelligenz als auch anonymisierte öffentliche Daten um zu lernen. Binnen weniger Stunden wurde Tay damit von Twitter-Nutzern zum Rassisten “geschult”.

Zusammen mit dem für die Suchmaschine Bing zuständigen Team hat Microsoft Research den auf künstlicher Intelligenz basierenden Chat-Bot Tay vorgestellt. Er ist in erster Linie auf Interaktion mit Personen zwischen 18- und 24 Jahren ausgerichtet. Microsoft sieht sie als die “dominante Nutzer von mobilen sozialen Chat-Diensten in den USA”. In diesem Umfeld soll Tay zum Einsatz kommen.

Mensch und Roboter (Bild: Shutterstock/Willyam Bradberry

Wichtigste Informationsquelle sind für Tay anonymisierte öffentliche Daten. Dazu gehören Daten, die Nutzer von Microsofts Suchmaschine durch eine Anfrage liefern ebenso wie Daten, die Nutzer mit Tay ausgetauscht haben, indem sie ein Profil anlegen. Laut Microsoft werden diese Daten bis zu einem Jahr vorgehalten, um Tay damit zu verbessern. Ein Profil für Tay umfasse neben einem Nutzernamen das Geschlecht, das Lieblingsessen, die Postleitzahl und den Beziehungsstatus. Anwender können ihr Profil über das Kontaktformular auf Tay.ai löschen lassen.

Der Chat-Bot soll mit Nutzern kommunizieren und sie dabei unterhalten: “Je mehr Sie mit Tay chatten, desto klüger wird sie.” Derzeit ist Tay unter anderem auf Twitter, Snapchat, Facebook und Instagram vertreten.

Update 24. März 17:35: Das Experiment auf Twitter wurde aber inzwischen ab- oder zumindest unterbrochen. Wie die Beobachter von SocialHax und Guardian bemerkt haben, hatte Tay zumindest auf Twitter offenbar die falschen “Lehrer”. Denn umso mehr diese mit Tay chatteten, umso ausfälliger wurde diese. Unter anderem ließ sie sich dadurch zu rassistischen Bemerkungen hinreißen. Diese Tweets wurden inzwischen offenbar gelöscht. Auch das gefällt nicht allen Nutzern: Sie fordern, auch die unbequemen Tweets öffentlich einsehbar zu lassen, um so auch die Gefahren künstlicher Intelligenz zu dokumentieren.

2014 entwickelte Microsoft einen ähnlichen Chat-Bot bereits für Nutzer in China. Den Xiaolce genannten Bot bezeichneten Vertreter des Unternehmens damals als “Cortanas kleine Schwester”. Unklar ist, inwieweit Tay auch mittelfristig als Maschine erkennbar bleiben soll. In der Vergangenheit war es bereits Ziel vieler Chat-Bots, sich möglichst so zu verhalten, dass sie von einem menschlichen Kommunikationspartner nicht mehr zu unterscheiden sind. Als Maßstab dafür, ob ihnen das gelingt, gilt der sogenannte Turing-Test.

Den hatte – zumindest in den Augen der Jury – im Sommer 2014 erstmals ein Programm bestanden, dass Wissenschaftler aus Sankt Petersburg entwickelt hatten. Die Software “Eugene Goostman” gab sich einem Drittel der Jury gegenüber erfolgreich als 13-Jähriger aus der Ukraine aus. Allerdings gab es auch Kritik an dem zum 60. Todestag des britischen Informatikpioniers Alan Turing durchgeführten Wettbewerbs. Gary Marcus, Professor an der Universität New York, erklärte etwa, der sei nicht als Test im Sinne Alan Turings anzusehen: “Eugene Goostman ist ein Beweis für die Macht der Täuschung. Er stellt vielleicht eine Glanzleistung in Sachen ‘clevere Technologie’ dar, aber er ist noch ein ganzes Stück von wahrer Intelligenz entfernt.”

Inwieweit die Täuschung gelingt, hängt offenbar auch vom Zusammenhang ab. 2008 schaffte es bei dem Wettbewerb der Universität Reading jede der fünf teilnehmenden, sogenannten Artificial Entities zumindest einen der menschlichen Gegenüber davon zu überzeugen, auch ein Mensch zu sein. Allerdings wurde bereits im Jahr zuvor davon gesprochen, dass ein russischer Chat-Bot das Ziel des Wettbewerbs erreicht habe, ohne überhaupt daran teilzunehmen: Ein russischer Chat-Bot gab sich damals erfolgreich als etwas nymphoman veranlagte junge Dame aus und konnte den Gesprächspartnern persönliche Daten entlocken. In dem Fall muss aber davon ausgegangen werden, dass das Urteilsvermögen der menschlichen Kommunikationspartner durch andere Interessen getrübt war.

[mit Material von Stefan Beiersmann, ZDNet.de]

Tipp: Der britische Wissenschaftler Alan Turing gilt als einer der Wegbereiter für die moderne Informations- und Computertechnologie. Die Turing-Maschine ist eines der Fundamente der theoretischen Informatik. Überprüfen Sie Wissen dazu im Quiz bei silicon.de.

Journalist, Chefredakteur von ITespresso.de. Sucht immer nach Möglichkeiten und Wegen, wie auch kleine Firmen vom rasanten Fortschritt in der IT profitieren können. Oder nach Geschäftsmodellen, die IT benutzen, um die Welt zu verbessern - wenigstens ein bisschen.

Folgen