KI? Bei bestimmten Themen eine Katastophe _

  • Ich hab mal Perplexity + Chatgtp in einem Gebiet getestet von dem ich etwas verstehe. Die Ergebnisse sind ein einziges Desaster. Jemanden, der von der Materie nichts versteht und die Ergebnisse glaubt würde in den meisten Fällen in sein Verderben rennen.

    So hab ich die beiden mal zum Wettbewerbsrecht in Spanien befragt, welches sich vom deutschen erheblich unterscheidet. Die Antworten im Tenor: Ist wie in Deutschland. Dabei wurden z. B. Links auf e-recht24 hinzugefügt.

    Einwand: Du schilderst mir hier das deutsche Wettbewerbsrecht, ich hab aber explizit nach dem spanischen gefragt.

    Antwort: Diese deutschen Webseiten befassen sich auch mit dem spanischen Wettbewerbsrecht.

    Tun sie nicht.

    Antwort: Stimmt, tun sie nicht.

    Kannst Du in deutschen Texten nicht erkennen, wenn da spanische Begriffe zum Wettbewerbsrecht drin sind, dass die relevanter für das spanische Wettbewerbsrecht sein könnten?

    Antwort: Ja, es gibt deutsche Texte mit spanischen Begriffen zum Recht.

    Und warum zeigst Du mir solche Seiten nicht in den Links an? Warum lieferst Du mir nur Links zu deutschen Seiten, mit rein deutschen Texten, die sich nur auf das deutsche Wettbewerbsrecht beziehen?

    Und und und.

    ___


    So, dann wirklich ganz einfach: Nenn mir bitte die billigste Anwaltshotline.

    Antwort: DIESE. Die Nummer eins bei Google.

    DAS ist die teuerste. Ich hab Dich nach der billigsten Anwaltshotline gefragt.

    Antwort: Wieder DIESE. Aber diesmal mit dem Hinweis die hätten Preise zwischen 1,99 und 2,99 Euro.

    (Richtig ist, die hatten mal den Preis von 1,99, jetzt kostet es 2,99, seit einem Jahr)

    DAS ist wieder falsch. Die haben nur einen Preis und der beträgt 2,99 Euro.

    Antwort: Larifari. Versicherungen, Unis etc.

    Danach habe ich nicht gefragt. Wenn Du mir die billigste nicht nennen kannst nenn mir wenigstens andere Anwaltshotlines.

    Wieder nur Blabla.

    Weisst Du überhaupt was unter Anwaltshotline zu verstehen ist? Was eine Anwaltshotline ist?

    Wissen sie halbwegs.

    Gut, dann gehen wir mal anders dran. Gibt es Anbieter die Anwaltshotline als Domain haben, anwaltshotline.de, anwaltshotline.org, .net, .info, anwaltshotline.com zum Beispiel. Bei denen kann ja davon ausgegangen werden, dass es auch tatsächlich Anwaltshotlines sind.

    Antwort: anwaltshotline.jetzt

    Es gibt da aber auch welche mit .org, .net, info. Kennst Du die nicht?

    Antwort: Ja, anwaltshotline.org gibt es.

    Und warum nennst Du mir die nicht, wenn ich nach allen frage?

    __________

    Fazit: Es macht einem die Nerven kaputt. Die Antworten sind unbefriedigend. Jemand ohne das entsprechende Wissen ist hoffungslos verloren. Auch gibt es für exakt dieselben Fragestellung meist unterschiedliche Antworten. Wenn diese als brauchbar gesehen werden, wieder ins Internet eingestellt und dann von der KI wiederum als Grundlage genommen werden, stimmt irgendwann gar nichts mehr.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Nee. Es geht auch anders. Man muss da schon etwas .. naja die richtigen Prompts führen zum Ziel. Da gibt es ein paar Tricks

    Schau es dir einmal genauer an. Eben nicht. Woher auch? Gerade im Rechtsbereich haben Anwälte und Seitenbetreiber in Sachen KI wirklich schlau agiert. Sie haben das Internet nicht mit relevanten Inhalten gefüttert, sondern immer nur Andeutungen gemacht. Das kommt ihnen jetzt zugute. Chapeau.

    Einmal editiert, zuletzt von Frank-L (25. September 2025 um 12:40)

  • Richtige Promps, kann man ja so interpretieren: Versuch zu verstehen, was die KI nicht verstehen oder anders interpretieren könnte als von Dir beabsichtigt. Aber wie sollte ein Prompt: Nenn mir bitte den günstigsten Anbierter von xxxx" zu verbessern sein? Erzähl mal Alex.

    Ein simples Beispiel, warum die KI mit menschlicher Intelligenz nicht mithalten findet sich z. B. bei der KI, die Google jetzt seinen Usern um die Ohren haut. Dort wird in dem von mir getesteten Bereich faktisch nur noch ein Anbieter bevorzugt genannt und aus deren Kontent zitiert. Die anderen sind faktisch unsichtbar. Dabei werden auch die Hotlinenummern genannt. Aber, ohne die Preise zu nennen. Das ist aber nach deutschem, auch europäischen Normen, zwingend vorgeschrieben. Mit der Nummer muss auch der Preis genannt werden und zwar so, dass mit der Nummer auch sofort der Preis erkennbar ist. Und schon schafft die KI ein Problem, welches es ohne sie nicht gäbe und wofür sie natürlich keine Lösung kennt; wer ist dafür verantwortlich, dass bestehenden Normen eingehalten werden? Die KI hat auch keinerlei Verständnis zum Urheberrecht, handelt und schreibt, als gäbe es ein solches gar nicht. Probleme ergeben sich daraus für den, der von der KI gelieferte Texte wiederverwendet.

    Ein Mensch, der das weiss, erkennt das sofort. Die KI weiss es auch, wenn man sie danach fragt, kann aber die gedankliche Verbindung nicht nachvollziehen: Wenn ich die Nummer veröffentliche muss ich auch den Preis nennen. Die KI erkennt die Konsequenzen auf sonstige Bereiche nicht die sich aus irgendetwas ergeben.

    Wenn da einfachtes, feststehendes Wissen runtergerattert werden kann, wie z. B. bei Deiner Site zum 3. Oktober, Alex, ist das kein Problem, da reicht es WIKItexte umzuschreiben. Aber, da ist z. B. auch ein Fehler drin: 16,4 Millionen DDR-Bürger wurden Deutsche. DAS waren sie vorher auch, aber halt Ostdeutsche.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

    Einmal editiert, zuletzt von cura (25. September 2025 um 16:10)

  • Frank-L

    Das ist auch meiner Sicht nur teilweise richtig. Es ist wie mit den Übersetzern. Ich benutze die auch, um mir Texte in Deutsche übersetzen zu lassen, um eigene Texte übersetzen zu lassen. Rein aus Bequemlichkeit. Ohne sich lächerlich zu machen kann man diese Übersetzer, auch Deepl, nicht nutzen, wenn man nicht von den zu übersetzenden Sprachen zumindest so gute Kenntnisse, dass man erkennt "Also DAS ist völliger Mist."

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Frank-L

    Das ist auch meiner Sicht nur teilweise richtig. Es ist wie mit den Übersetzern. Ich benutze die auch, um mir Texte in Deutsche übersetzen zu lassen, um eigene Texte übersetzen zu lassen. Rein aus Bequemlichkeit. Ohne sich lächerlich zu machen kann man diese Übersetzer, auch Deepl, nicht nutzen, wenn man nicht von den zu übersetzenden Sprachen zumindest so gute Kenntnisse, dass man erkennt "Also DAS ist völliger Mist."

    Nein. Die Funktionsweise der aktuellen generativen KI-Modelle (wie z.B. ChatGPT oder Midjourney) beruht fundamental auf statistischen Mustern und Wahrscheinlichkeiten, nicht auf einem echten Verständnis oder kausaler Logik.
    Große Sprachmodelle (Large Language Models, LLMs) wie GPT arbeiten auf Basis der prädiktiven Vervollständigung von Sequenzen. Sie sind darauf trainiert, das wahrscheinlichste nächste Wort in einer Sequenz vorherzusagen.


    Ein Satz wie "Ich esse Eis." muss nicht zwingend exakt so im Trainingsdatensatz gestanden haben. Die KI hat gelernt, dass nach den Wörtern "Ich esse" die Kombinationen mit "Eis", "Pizza" oder "Apfel" statistisch signifikant wahrscheinlicher sind als z.B. "Ich esse Baum". Sie generiert Text durch die Rekombination von Mustern aus Milliarden von Texten.


    Wahrheit vs. Muster: Die KI kann sehr wohl einfache Arithmetik wie 1+1=2 korrekt ausführen, da diese Information regelmäßig und konsistent in den Trainingsdaten vorkommt. Sie weiß aber nicht, warum es zwei ist, basierend auf mathematischen Axiomen, sondern dass die Ziffernsequenz "2" die mit Abstand wahrscheinlichste und korrekte Fortsetzung der Eingabe "1+1=" darstellt.


    Modelle zur Bildgenerierung (wie Stable Diffusion oder DALL-E) arbeiten ähnlich, indem sie statistische Beziehungen zwischen Text-Prompts und visuellen Pixelmustern gelernt haben. Das Uhren-Beispiel: Das ist ein perfektes Beispiel für die Grenzen der Mustererkennung. Wenn die KI angewiesen wird, ein Zifferblatt zu zeichnen, generiert sie ein Bild, das dem häufigsten oder prominentesten visuellen Muster in ihren Trainingsdaten entspricht. Da viele Stockfotos und Beispielbilder von Uhren im Internet rein ästhetisch auf 10:10 Uhr oder 10:15 Uhr stehen, reproduziert das Modell dieses Muster. Es versteht nicht das Konzept einer Uhrzeit oder die Funktion eines Ziffernblatts als Darstellung variabler Zeit. Es weiß nur, wie ein Bild mit der Beschreibung „Uhr“ statistisch gesehen am häufigsten aussieht.


    Existiert kein passender oder konsistenter Content (oder wenn der Prompt sehr komplex/spezifisch ist), greift das Modell auf die statistisch nächstbesten, aber faktisch falschen oder unsinnigen Muster zurück. Diesen Vorgang nennt man Halluzination. Die KI füllt die Lücke mit plausibel klingendem, aber erfundenem Output, um die Aufforderung zu erfüllen und eine kohärente Sequenz zu erzeugen – selbst wenn die Datenbasis dafür fehlt.
    Aktuelle KI ist ein leistungsstarkes statistisches Werkzeug zur Mustererkennung und -reproduktion, aber sie verfügt nicht über menschliches Denkvermögen, kausales Verständnis oder Bewusstsein. Ihre "Intelligenz" ist rein datengesteuert.

  • Gut erklärt. Und gutes Beispiel mit der Uhr. Mir ist das schon klar, dass alles auf Wahrscheinlichkeiten und Häufungen basiert. Mich stört schon immer der Begriff "Intelligenz". Bei Deepl zum Beispiel bemerke ich, dass die eigentlich statt besser immer schlechter werden. Bei denen ist auch sehr gut zu erkennen, dass die Software immer versucht zu erkennen was als nächstes kommen könnte. Aber genau das ist auch das Problem, wenn das Erwartete nicht kommt kommt die Software ins Schleudern.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Da hat aber jemand völlig falsche Vorstellungen von ki. Der Computer weiß die Antwort nicht und kennt auch keine Zusammenhänge, er gibt dir nur die statisch wahrscheinlichsten Antworten.

    Leute haben immer noch die Vorstellung das ki ein Denkendes, unfehlbares Wesen ist.

  • Meinste jetzt mich?

    Ich rege mich lediglich darüber auf, dass jetzt wieder eine Sau durchs Dorf getrieben wird, die lediglich ein Meerschwein ist. Etikettenschwindel betrieben wird, auf den jetzt jeder aufspringt. Mittlerweile kann ich es schon nicht mehr hören: KI, AI, IA. Jede popelige Software mutiert mittlerweile zu KI.

    Wenn eine Software schon mit intelligent bezeichnet wird erwarte ich doch zumindest, dass, wenn ich sage "Nenn mir den billigsten Preis von yxz, dass sie das auch hinkriegt was jede Preisvergleichssoftware hinkriegt. Stattdessen nennt sie mir nur einen Anbieter und das ist auch noch der teuerste.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Meinste jetzt mich?

    Ich rege mich lediglich darüber auf, dass jetzt wieder eine Sau durchs Dorf getrieben wird, die lediglich ein Meerschwein ist. Etikettenschwindel betrieben wird, auf den jetzt jeder aufspringt. Mittlerweile kann ich es schon nicht mehr hören: KI, AI, IA. Jede popelige Software mutiert mittlerweile zu KI.

    Wenn eine Software schon mit intelligent bezeichnet wird erwarte ich doch zumindest, dass, wenn ich sage "Nenn mir den billigsten Preis von yxz, dass sie das auch hinkriegt was jede Preisvergleichssoftware hinkriegt. Stattdessen nennt sie mir nur einen Anbieter und das ist auch noch der teuerste.

    Es ist wie mit Elektroautos: Gib ihnen Zeit und irgendwann werden sie gut. Für einzelne Anwendungen sind sie heute schon zu gebrauchen, bei Elektroautos zum Beispiel für Distanzen bis 100 km und bei der KI für bestimmte Bereiche.

    Alles, was mit Anleitungen (How-tos), Programmierung oder „Do it yourself“ (DIY) zu tun hat, kann die KI schon heute gut, weil all diese Informationen bereits im Netz verfügbar sind.

    Gerade im Rechtsbereich ist es anders. Hier benötigt die KI die Erlaubnis, Gesetzesbücher einzulesen. Solche Bücher finden sich aber kaum in illegalen Online-Bibliotheken, da der Bedarf zu gering ist. Folglich haben die Trainingsprogramme auf diese Inhalte keinen Zugriff. Und letztlich solltest du froh darüber sein. Problem wird sein, sobald die Angestellten ihre Texte über KI korrigieren lassen, gelangt der Content mittelfristig auch in die Trainingsdaten.

  • Einer solchen Erlaubnis bedarf es nicht. Gesetzestexte unterliegen keinem Urheberrecht, weil sie für jedermann zugänglich sein müssen. Sie dürfen also kopiert, gespeichert und veröffentlicht werden. Und so ziemlich alles was es an Gesetzen gibt ist auch im Internet zu finden und abrufbar. Etwas anderes ist es mit den Kommentaren dazu, die fallen unter das Urheberrecht. Und diese Kommentare sind auch das Einzige was für Nichtjuristen halbwegs verständlich ist. Und aus denen bedient sich die KI, wobei sie allerdings alles zu einem Brei verarbeitet. Bildlich gesprochen könnte man formulieren: Ein Blinder versucht einem anderen Blinden Farben zu erklären.

    Wenn eine alte Information mit einer neuen vermischt und nicht erkannt wird, dass die neue die alte abgelöst hat, wird daraus nicht eine gute oder bessere Information, sondern eine falsche.

    Und genau das wird auch bereits gemacht und damit Probleme geschaffen, die es vorher nicht gab. Google, wie andere, beschränkten sich mal darauf Usern die Quellen für Wissen zu nennen und waren damit aus der Verantwortung. Und dabei hätten sie es auch belassen sollen.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Langfristig wird die KI bereits von Juristen trainiert und maßgeblich weiterentwickelt werden. Man prophezeit, dass gerade in diesem Bereich in Zukunft viele standardisierte Beratungsleistungen (wie Vertragsprüfungen, Due Diligence oder die Recherche von Präzedenzfällen) durch KI-Systeme ersetzt werden.


  • Wenn eine Software schon mit intelligent bezeichnet wird erwarte ich doch zumindest, dass, wenn ich sage "Nenn mir den billigsten Preis von yxz, dass sie das auch hinkriegt was jede Preisvergleichssoftware hinkriegt. Stattdessen nennt sie mir nur einen Anbieter und das ist auch noch der teuerste.

    Dazu ist KI aber voellig ungeeignet, weil du dafuer strukturierte und vergleichbare daten brauchst. Das ist eine aufgabe ist die jeder computer schon seit Datenbanken, Excel seit den 1960ern mit einem promille der rechenleistund und zeit loesen kann.

    KI versagt hier logischerweise, weil die trainingsaten wahrscheinlich um monate veraltet sind, sie zum loesen dieser aufgabe wahrscheinlich erstmal 100 haendler kennen und wissen muesste wie man deren webseiten durchsucht, und sie wahrscheinlich biased ist weil in den trainingsdaten ungeprueft massenweise werbeversprechen "XYZ ist am billigsten!" mit eingeflossen sind.

  • Jo, klar, die KI versagt in vielen Bereichen. Ich weiss nicht in welchen, weil es (mir) nicht kommuniziert wird, weil so getan wird als wäre sie ein Alleskönner. Und genau das glauben auch die meisten.

    Wer nach etwas fragt landet meist bei dem was bei Google aus Pos1 steht. Das dahinter findet schon keine Beachtung mehr.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Was halt alle KI gemeinsam haben (und gpt ganz besonders) ist, dass sie Dir eine Antwort liefern wollen.
    Unbedingt. Auf biegen und brechen.
    Genauso, wie man auf der Folterbank ALLES sagen würde: egal, ob es nur geraten oder zusammenhalluziniert ist.
    Und die verprechen Dir buchstäblich alles und schwören jeden Eid drauf, das das absolut wahr ist.

    Denn darauf sind die trainiert: Liefere ne Antwort. Punkt.

    Du kannst denen auch sagen: Antworte nur, wenn Du Dir absolut sicher bist. Rate nicht. Reime Dir das nicht zusammen.

    Und dann halluziniert er Dir wieder Scheisse zusammen. ... Da kommst nicht gegen an.

    Wer zuerst "Datenschutz" sagt, hat verloren.