KI in der Ahnenforschung - mit dem Risiko der Erfindung von Tatsachen

Hallo zusammen,

kürzlich bin ich auf nachfolgende Information zum Einsatz von künstlicher Intelligenz (KI) in der Ahnenforschung aufmerksam geworden. ChatGPT kann nach einigem Training offensichtlich gedcom-Dateien erstellen (ChatGPT "spricht" GEDCOM - Revolutionäre Möglichkeiten für die Genealogie • Verein für Computergenealogie e.V. (CompGen)).

Die Seite des dazu von Herrn Hartenthaler erstellten Diskussionsforums, in welchem Chancen und Risiken dieser neuen Technik diskutiert werden können, finden Sie hier (ChatGPT "spricht" GEDCOM - Revolutionäre Möglichkeiten für die Genealogie).

Dieses Thema abrundend können sie hier einen ersten (missglückten) Einsatz von ChatGPT eines Anwaltes im Vorfeld einer Gerichtsverhandlung einsehen (ChatGPT erfindet Gerichtsakten: Golem.de: IT-News für Profis).

Ein erholsames Pfingstwochenende wünscht Ihnen
X

Hallo,

das trifft genau meine Befürchtung: https://www.comdirect.de/inf/news/detail.html?ID_NEWS=1111123553&NEWS_CATEGORY=TOP_NEWS_ALL&NEWS_HASH=e88a9ecdb40a16aefa44e25e4198ac72ce364e&RANGE=

Viele Grüße

Dieter

Guten Tag, hallo allerseits,

das „Risiko der Erfindung von Tatsachen“ haben Sie in der Familienforschung immer, nicht erst seit ChatGPT. Mitunter lassen sich aber die „erfundenen“ Tatsachen von den „gefundenen Tatsachen“ erst auf den zweiten Blick unterscheiden. Ich habe in MyHeritage-Zusammenstellungen schon bemerkenswerte Falschschreibungen gefunden. Nämlich solche, die dann zu den Falschschreibungen in den Geburtsnachweisen passten. Sie glauben gar nicht, wie unterschiedlich man Eckert oder Zirkgiebel schreiben kann. (Ein Zirkgiebel ist ein Rundgiebel. Auch Name für einen Zimmermann, runde Giebel zimmern kann. Und nicht nur spitze Giebel.)

Besten Gruß aus Hamburg-Hamm – Wolfgang Zimmermann

Hallo,

schaut mal in diesen Threat:

Da wurden Literaturquellen für einen GenWiki-Artikel erfunden; der
Artikeltext wurde inzwischen gelöscht

Schöne Grüße,
Renate

1 „Gefällt mir“

Hallo zusammen.

Mit Genealogie in Hessen hat dieses Thema nun nicht wirklich etwas zu tun.

Seit kurzem gibt es hier eine neue Kategorie/Liste, in der über KI diskutiert werden kann.

Ich werde dieses Thema dorthin verschieben.

Wer sich für KI interessiert, kann diese Kategorie künftig beobachten oder auf 1. Beitrag beobachten stellen.

Alle anderen forschen weiter in Hessen :wink:

Herzliche Grüße,

Susanne (Nicola)

Danke, Susanne,

ich hab nicht gewusst, dass es diese Kategorie gibt - die anderen in
Hessen sicher auch nicht. Aber sie wird wohl gebraucht, wie man sieht.

Schöne Grüße,
Renate

Ein Beitrag wurde in ein neues Thema verschoben: Was ist hier geschützt und was nicht?

Also wenn die Geschichte mit dem Anwalt stimmt, der von einer KI erfundene Rechtsfälle zitiert hat, die es gar nicht gibt, dann hat er jetzt zurecht ein Problem. Das ist absolut nicht professionell.

Ein ähnlicher Quatsch wäre es, wenn ich ChatGPT fragen würde „Wer war die Frau von Martin Luther und wer waren ihre Vorfahren?“. Natürlich bekomme ich da eine Antwort, aber die spiegelt nicht im mindesten die unklare Abstammung der Katharina von Bora wieder. ChatGPT kann man nicht nach Fakten fragen. Aber man kann diese KI hervorragend verwenden, um Texte analysieren und erzeugen zu lassen. Wenn ich einen Hammer verwende um eine Dose zu öffnen, dann darf ich mich über das Ergebnis nicht wundern. Bitte erst einmal verstehen, was man da vor sich hat, bevor man es völlig falsch benutzt!

Ja, da hat anscheinend ein Autor zwei GenWiki-Artikel von einer KI schreiben lassen. Die Artikel sind nicht wirklich gut, aber auch nicht schlechter als so mancher andere Artikel im GenWiki. Allerdings haben beide Artikel eine längere Literaturliste. Und mir ist es nicht gelungen auch nur eine einzige dort aufgeführte Quelle zu finden. Anscheinend waren beide Literaturlisten komplett erfunden, so wie es eine solche KI eben macht, wenn man sie auffordert, eine Literaturliste zu einem Thema zu produzieren. Das tut sie indem sie sich etwas zurecht fantasiert. So ein Vorgehen des Autors ist aus meiner Sicht absolut inakzeptabel. Deshalb habe ich sofort Löschanträge für diese beiden GenWiki-Artikel gestellt.

PS: meine Versuche mit dem Autor in Kontakt zu kommen waren bislang erfolglos.

Frage an die KI: Wer war die Frau von Martin Luther und wer waren ihre Vorfahren?
Antwort der KI: Die Frau von Martin Luther hieß Katharina von Bora. Sie wurde um 1499 als Tochter eines adligen Pächters in Meissen geboren. Ihre Eltern starben früh und Katharina kam in ein Kloster, wo sie später Nonne wurde. 1523 flüchtete sie mit einigen anderen Nonnen aus dem Kloster und fand bei Martin Luther und seinen Bekannten eine Unterkunft. 1525 heirateten Katharina und Martin Luther. Zusammen hatten sie sechs Kinder.

Die Antwort ist auf jeden Fall lesenswert.
Gruß
Henning

Diese erfundenen Literaturlisten halte ich für ein ziemliches Eigentor der KI-Anwendung. Damit diskreditiert sie sich für jede halbwegs wissentschaftliche Anwendung. Dazu gehört dann auch die Ahnenforschung.
Aber immerhin lässt sich die KI-Nutzung damit für uns einfach nachweisen.

Unser KI-Autor hat übrigens in den letzten Wochen auch zahlreiche andere Genwiki-Artikel erweitert, auch mit Literaturangaben. Da dürfte noch so einiges KI-Märchengut dabei sein.

Sorry - hätte hier nicht ankommen sollen.

Viele Grüße
Walter

Ich denke Du liegst hier falsch. Du unterstellst einer KI ein zielgerichtetes Handeln („Tor erzielen“). Soweit sind wir aber (noch) nicht. Die hier wohl verwendete KI ChatGPT kann deshalb auch kein Eigentor schießen. Das Eigentor hat der Autor der GenWiki-Artikel geschossen, der einfach halluzinierte Texte von ChatGPT in ein wiki kopiert hat, das das Ziel hat korrekte Fakten zu beschreiben. Das ist weder wissenschaftlich, noch sorgfältig, das ist Vandalismus.

ChatGPT ist sehr wohl geeignet in wissenschaftlichen Arbeiten verwendet zu werden, aber nicht in der Art „ich frage etwas, ChatGPT antwortet, ich glaube es und verkaufe das als Wissenschaft“. ChatGPT ist eine rein textbasierte KI; sie hat extrem viel gelesen und dabei vor allem etwas über Sprache gelernt. ChatGPT (ohne inzwischen verfügbare PlugIns) weiß aber überhaupt nichts über den Unterschied von Fiktion und Fakten, sie weiß nichts über die „wirkliche“ Welt. Hätte man diese KI nur mit Science Fiction, Fantasy und Märchen trainiert, dann würde sie sich völlig in dieser Welt bewegen.

Es macht also keinen Sinn ChatGPT nach einer Literaturliste zu fragen: „Bitte erstelle mir eine Literaturliste zu GOV.“. Natürlich beantwortet ChatGPT jede Frage und hier lieferte sie eben eine Literaturliste zu GOV, die genau so aussieht wie eine GOV-Literaturliste aussehen könnte. Frage beantwortet. Aber leider hat der Fragende nicht gefordert, dass die zitierte Literatur auch tatsächlich existieren soll. Er hat sich noch nicht einmal die Mühe gemacht ein einziges Zitat zu prüfen. Das Problem sitzt immer vor dem PC!

Wenn man dieses Werkzeug „KI“ richtig nutzt, kann man damit erhebliche Effizienzvorteile erzielen, kann gute Ergebnisse erreichen, kann die eigene Kreativität steigern, kann damit wissenschaftlich arbeiten. Aber es ist ein Werkzeug, das man verstehen muss, es ist kein gleichberechtigter Gesprächspartner. Natürlich kann es auch Spaß machen mit einer KI über Kochrezepte und Gott und die Welt zu plaudern, aber Wissenschaft ist das dann nicht, das ist Unterhaltung auf durchaus hohem Niveau. Für das bayrische Abitur hat es wohl nicht ganz gereicht, aber einzelne Prüfungen im Medizin- und Jurastudium schafft ChatGPT mit seiner eloquenten Sprachkenntnis durchaus.

Hallo,

bei einem Computersystem erwarte ich, dass es ausspuckt, was sie
gespeichert hat. Nicht, dass es was erfindet (wozu ja auch eine gewisse
Kreativität erforderlich ist, oder zumindest die Fähigkeit zum
geschickten Nachahmen).

Wie kommt es also, dass ChatGPT was erfindet oder halluziniert, wie es
manchmal heißt? Hat man vergessen, so was wie „ich weiß es nicht“
einzuspeichern und vor allem, dass es eben nur tatsächlich als Fakten
gespeichertes ausspuckt?

Schöne Grüße,
Renate

Hallo Renate,

bei einem Computersystem erwarte ich, dass es ausspuckt, was sie
gespeichert hat. Nicht, dass es was erfindet (wozu ja auch
eine gewisse
Kreativität erforderlich ist, oder zumindest die Fähigkeit zum
geschickten Nachahmen).

Einem durch Algorithmus entstandenen Text spreche ich
Kreativität ab. Ich erinnere mich an eine
Gedichtinterpretation in der Oberstufe mit vielen
Überlegungen, was der Verfasser wohl ausdrücken wollte -
letztendlich war das ganze ein per Zufallsgenerator
Aneinanderreihen von geschickt vorgegebenen Wörtern. Das ist
jetzt mehr als ein halbes Jahrhundert her.

Wie kommt es also, dass ChatGPT was erfindet oder
halluziniert, wie es
manchmal heißt? Hat man vergessen, so was wie „ich weiß es
nicht“
einzuspeichern und vor allem, dass es eben nur tatsächlich
als Fakten
gespeichertes ausspuckt?

Das Problem sitzt natürlich vor dem Computer in Form der
Auftraggeber und Programmierer. Welche Interessen dahinter
stehen, kann nur vermutet werden. Dass diese alle lauter
sind, bezweifle ich.

Dass es auch anders geht, zeigte mein Versuch mit bing. Hier
wurde auf eine Frage festgestellt, dass es keine gesicherten
Fakten gibt. Ein möglicher Hinweis konnte relativ leicht als
Fehlinterpretation (Personenname mit Ortsnamen
gleichgesetzt) festgestellt werden, da es jeweils einen
Verweis auf die Herkunft einer Information gab.

Die zur Zeit grassierende Euphorie teile ich nicht. Sicher
wird sich in den nächsten Jahren oder Jahrzehnten hier noch
so manches ergeben. Es fühlt sich aber genauso an, wie bei
der Entwicklung der bemannten Raumfahrt. Nach den Prognosen
in meiner Kindheit gibt es seit der Jahrtausendwende ständig
bemannte Stationen auf dem Mond und einen regelmäßigen
Pendelverkehr und auch der Mars wurde bereits von einer
bemannten Raumkapsel erreicht. Die Wirklichkeit sieht anders
aus.

Es ist leider zu befürchten, dass in einer Zeit, in der die
Grenzen zwischen realer und virtuelle Welt, zwischen Fakten
und Fakes verschwimmen oder bewusst im Graubereich gelassen
werden, auch KI dazu beitragen wird, dies zu forcieren.

Auf der anderen Seite mag KI sicher auch zum Wohl eingesetzt
werden. Das muss aber bewusst gewollt sein!

Herzliche Grüße
Ernst-Peter (Winter)

Deine Fragen, Renate, treffen die wesentlichen Punkte sehr gut, daher möchte ich ein wenig ausholen.

Bei einem deterministisch programmierten Computersystem ist das auch so (mal von der Zufallsfunktion abgesehen, die @EWinter erwähnt hat). Man kann aber auch ganz anders vorgehen und „neuronale Netze“ nutzen, d.h. Mechanismen, die den Mechanismen in unserem Gehirn sehr ähnlich sind. Dann lernt ein solches neuronales Netz, das hinter einer KI steckt, ganz ähnlich wie wir Menschen. So hat ChatGPT zig Sprachen und Inhalte zu allen Fragen gelernt, zu denen es frei verfügbare Texte gibt. Die Kreativität von ChatGPT besteht darin, dass diese KI zu allem was sie bereits gesagt hat, was man mit ihr in einem Chat diskutiert hat, eine Wahrscheinlichkeit berechnen kann, welches Wort am Besten als nächstes erzeugt werden soll. Das basiert auf dem Vortraining mit sehr vielen Texten und einem nachfolgendem Schritt in dem Menschen der KI beigebracht haben, was eine gute Antwort ist und was eine schlechte Antwort ist. Dadurch hat die KI die Fähigkeit erworben, gute Dialoge zu führen. Sie kann Gedichte schreiben und Witze erfinden. Im Prinzip das, was wir von der Wortvervollständigung auf unseren Smartphones kennen, nur auf einem höheren Niveau.

Und man hat der KI ChatGPT beigebracht, dass sie auf jede Frage etwas antworten soll. Nur ganz selten, sagt sie „Das weiß ich nicht“. Das geschieht nur dann, wenn es offensichtlich ist, dass die KI etwas nicht wissen kann. Zum Beispiel, wenn man sie nach Dingen fragt, die nach dem Abschluss des Trainings der KI geschehen sind oder in der Zukunft liegen. Das Halluzinieren ist das Grundprinzip einer solchen KI wie ChatGPT; in den allermeisten Fällen kommt da was richtiges bei raus, manchmal ist es aber auch nur ein Märchen. Da die KI nicht weiß, was Fakt ist und was Fiktion (sie hat kein fundiertes Wissen über die Realität), kann sie einen da auch nicht warnen oder vorher aufhören. Ein wenig anders ist das Bing gelöst; Bing baut auf ChatGPT auf, verbindet das aber mit der alten Funktion einer Internet-Suchmaschine. Und Bing kennt den Fall, dass z.B. bei einer konkreten Frage kaum brauchbare Treffer im Internet zu finden sind, und kann das dann entsprechend einschätzen.

Es gibt nun mehrere Wege, um aus diesem Dilemma rauszukommen:

  • man kann die KI mehrmals hintereinander das gleiche fragen; wenn jedes mal etwas anderes rauskommt, ist die Wahrscheinlichkeit groß, das sie es eben nicht richtig weiß.
  • man kann mehrere KIs vom Typ ChatGPT das gleiche fragen; wenn sie nicht übereinstimmende Antworten haben, dann kann man die KIs dazu bringen, dass sie sich darüber unterhalten und zu einem gemeinsamen Ergebnis kommen. Wenn sie einen Konsens finden, dann ist die Wahrscheinlichkeit größer, dass das Ergebnis stimmt als zuvor, wie gerade Wissenschaftler vom MIT zeigen konnten.
  • man kann der KI Wissen über die reale Welt beibringen, also das was wir z.B. in der Schule im Mathematik-, Physik-, Biologieunterricht lernen, also Wissen über Modelle zur Beschreibung der Welt; das kann z.B. eine KI anderen Typs sehr gut, die sich Wolfram Alpha nennt und schon seit Jahren genutzt werden kann. Nun kann man seit ein paar Tagen Wolfram Alpha als PlugIn in ChatGPT einklinken und dann „weiß“ ChatGPT alles, was Wolfram Alpha über die Welt weiß.
  • man kann der KI Alltagswissen beibringen, das was wir u.a. als kleine Kinder beim Spielen gelernt haben. Etwa: wenn ein Glas runterfällt, kann es kaputt gehen; der umgekehrte Weg, dass sich Scherben von alleine zu einem Glas formen, ist unwahrscheinlich. Oder wie man kooperativ zusammenarbeitet. Dazu alle Konzepte, die sich um Ethik drehen. Das hat man den KIs wie ChatGPT in einem letzten Konditionierungsschritt beigebracht, indem man ihnen verboten hat zu erklären, wie man eine Bombe baut oder dass es nicht erlaubt ist unzüchtige Wörter zu verwenden. Allerdings ist diese letzte Schulung nicht wirklich überzeugend gelungen, denn man kann als Nutzer durch ein geschicktes Szenario diese Begrenzungen auch umgehen.

Wohl und Wehe, beides ist möglich. Anders als Ernst-Peter bin ich aber der Meinung, dass die Entwicklung rasant weiter gehen wird. Die Entwicklung der KI ist 50 Jahre lang nur schleppend voran gegangen. Was wir nun gerade erleben, ist ein völlig überraschender Durchbruch.

1 „Gefällt mir“

Danke für die ausführliche Erläuterung, Hermann. Sie bereichert das Archiv der Kategorie.

Schöne Grüße,
Renate