KI mit Gefühlen: Microsoft Japan präsentiert Bot-Freundin Rinna

Wie viele andere Unternehmen auch arbeitet und forscht Microsoft intensiv an einer möglichst „menschlichen“ künstlichen Intelligenz, die natürliche Sprache versteht und sich so verhält, dass der Nutzer beinahe vergisst, es mit einer künstlichen Intelligenz zu tun zu haben.

In diesem Zusammenhang hat man das „Empathy Vision Model“ entwickelt, es ist in gewisser Weise eine Fortführung der „Seeing AI“, die Microsoft auf der Build 2016 erstmals vorgeführt hatte. Vielleicht erinnert sich der Eine oder Andere noch an den blinden Microsoft-Mitarbeiter, der damals die Hauptrolle spielte – wenn nicht, schaut hier: BUILD 2016 Keynote: Warum ich geweint habe.

Das Empathy Vision Model geht über die Erkennung von Objekten in einem Bild hinaus, sondern beschreibt die Inhalte mit „menschlichen Regungen“. Als Beispiel wird das folgende Bild gezeigt:

Empathy Vision Model

Eine „klassische“ Bilderkennung würde sagen: „Ich sehe einen Hund, einen Mann, ein Kind und ein Auto“. Das Empathy Vision Model hingegen könnte sagen: „Oh, was für eine nette Familie. Genießt ihr etwa das Wochenende? Da hinten kommt ein Auto, passt auf!“.

Microsoft Japan hat die Technologie in den Chatbot „Rinna“ integriert und diesen in eine Smartphone-App verpackt. Diese „beobachtet“ gemeinsam mit dem Nutzer die Umgebung, kommentiert Ereignisse, gibt Ratschläge und macht sogar flotte Sprüche. Das folgende Video vermittelt einen kleinen Eindruck – keine Sorge, falls euer Japanisch ein wenig eingerostet ist, das Video hat Untertitel.

Technisch in jedem Fall faszinierend. Ob ich das in dieser Form haben wollte, überlege ich mir allerdings besser später.

Leave a Reply