Hallo,
natürlich ist die Grundlage der künstlichen Intelligenz programmiert. Und es werden Grundvorgaben gegeben, wie Fragen beantwortet werden sollen. Dann werden Quellen mit Tatsachen oder eben etwas anderes dafür bereitgestellt, je nachdem, was man mit dieser KI beabsichtigt. Die KI kann in der Interaktion im Laufe der Zeit „dazulernen“. Die KI ist nicht verantwortlich für das Ergebnis und KANN eine tolle Sache sein.
Aber: Die Erwartungshaltung ist bei Bard, genauso, wie wenn ich ansonsten Google nach Informationen befrage: Es sollen möglichst Informationen dabei herauskommen, die den Tatsachen entsprechen. Ich möchte keine gut erfundenen plausibel klingenden Texte. Falls das jedoch das Ziel ist, dann sollte man das entsprechend kommunizieren und es gibt kein Problem.
Es kann bestimmt Spaß machen, mit der KI zusammen ein Buch mit einer fiktiven Story zu schreiben. Vermutlich wird das bereits getan.
Die Vokabel „erzähle mir“ war vielleicht unpassend gewählt. Das Ergebnis war eine Erzählung, mehr nicht, es wurde dabei nicht eine Tatsache verwendet.
Alle anderen meiner Abfragen waren für Computer eindeutig und die Mehrzahl der Antworten waren entweder ein Gemisch aus Wikipedia und einigen wenigen anderen Quellen (Ich habe verglichen und wurde meist fündig in der englischen oder deutschen Wikipedia), aber es wurden mir auch immer „Zusatzinformationen“ zur Ausschmückung des Textes gegeben, die nichts mit der Realität zu tun hatten. Wie z. B. eine Verzehnfachung von Einwohnerzahlen oder die Behauptung, es seien zahlreiche Schwerverbrecher an Krankheiten und den schweren Haftbedingungen gestorben. Realität war, es war mehr ein Hausarrest für einige wenige politische Gefangene und von den zeitweilig inhaftierten Kriegsgefangenen sind nicht mehr oder weniger gestorben, als von den stationierten Soldaten.
Die Mischung macht es gefährlich. Natürlich überprüfe ich in der Ahnenforschung jede Information sowieso anhand der Originalquellen. Ich kann aber z. B. viel Zeit mit unnötigem Suchen nach einem spannend klingenden Buch vertun, in dem mein Vorfahre angeblich namentlich erwähnt wird, wenn Titel, Erscheinungsjahr und Verlag komplett frei erfunden sind, weil der KI einprogrammiert wurde, dass die Alternative „Informationen ausgeben“ priorisiert ist, gegenüber der Alternative „Frage beantworten“. Das ist ein großer Unterschied.
Der Fehler bei Bard ist momentan, das es unkontrolliert Informationen nutzt und verküpft, die nicht klar als Fiktion erkennbar sind. Der Lernfaktor wird nicht aus zusätzlichen gesicherten Quellen bezogen, sondern aus den Einzelelementen gestellter Fragen und Quellen, d. h. eine Adresse wird als solche erkannt, aber Straße, Hausnummer und Ort wird isoliert gespeichert und bei einer der nächsten Antworten frei mit anderen derartigen Informationen kombiniert. Es existiert eine Schweidnitzer Straße 283, aber eben nicht in diesem Ort. Für die KI ist es trotzdem eine Information, da die Straße existiert, die Hausnummer gibt es und den Ort auch, aber eben nicht in dieser Kombination.
Wie gesagt, KI kann toll und hilfreich sein, im Rahmen einer definierten Aufgabenstellung. Den eigenen kritischen Denkprozess und ein gewisses Maß an Fachwissen würde ich dennoch nicht als unnötig ansehen.
Für mich ist dies eine entemotionalisierte Diskussion des Für und Wider und ich lasse jedem seine Meinung und von mir aus auch Begeisterung für dieses Thema.
Ich möchte lediglich auf auch nach über 30 Jahren Entwicklung von künstlicher Intelligenz noch vorhandene Schwachstellen hinweisen.
Es hat mich lediglich ziemlich fassungslos gemacht, dass man Bard ohne eine entsprechende Erläuterung auf das Internet losgelassen hat, nur mit einem Etikett „Experiment“ versehen.
Friedliche und konstruktiv kritische Grüße
Astrid (Kreuz)
Nur ein Nebeneffekt:
Einige Familienforscher werden die gewonnen „Informationen“ ungeprüft in ihre öffentlich geteilten Stammbäume aufnehmen und von anderen kopiert werden. Wenn es fünf oder sechs Nennungen einer Person in verschiedenen Stammbäumen gibt, dann muss das doch mit großer Wahrscheinlichkeit wahr sein, oder?