Ob das tatsächlich funktioniert?

  • Gibt bessere. Der da ist wohl ziemlich doof oder sehr scharf eingestellt. Ein Text von mir, 20 Jahre alt, selbst geschrieben, ist angeblich 100% KI. Ein anderer, von der KI geschrieben und überarbeitet, ist "menschlich". Noch ein anderer, zu 100% direkt aus ChatCPT wird nur zu 65% erkannt. Und der "menschliche" Text wird plötzlich zu 100% KI, wenn man nur einen Satz einfügt, der aus der KI kommt. Wobei der komischerweise bei genau dem Satz in einem anderen Text sagt, der wäre menschlich.

    Oder der hier.... Alles, was gelb ist, ist angeblich KI, das nicht markierte ist menschlich. Naja, das ist mein Text und ich weiß, das ist genau umgedreht. Genau dieser eine nicht beanstandete Satz stammt aus der KI. Der Rest ist zusammenkopiert aus anderen Texten von mir, alle selbst geschrieben.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Gibt es mittlerweile auch für den eigenen PC, komplett offline. Halt sehr systemhungrig.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

  • Gut, ich kann mir halt nicht vorstellen wie das funktionieren könnte.

    Wenn es "bessere" gibt, warum benennst Du nicht gerade welche?

    Immenstaad?

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Warum sollte das nicht gehen? Jedes KI-Modell basiert auf bestimmten Faktoren und Algorithmen. Diese sind bei den meisten Modellen bekannt. Also kann man da nicht nur vorwärts, sondern auch rückwärts. Und da das alles nur Wahrscheinlichkeiten sind, sind die eigentlich auch recht gut darin. Das Problem ist bei denen oft nur, dass die Probleme haben, wenn verschiedene Modelle gemischt werden. Also ein Text aus vielen Modellen generiert wird.

    Daher sind deren Auswertungen auch alle immer nur "mostly like" und niemals 100% sicher.

    Die andere Frage wäre da viel eher, ob man menschliche Texte überhaupt sicher erkennen kann. Warum? Weil die Modelle durch menschliche Sprachen trainiert wurden. Die nichts anderes machen als Wörter in gewissen Wahrscheinlichkeiten aneinanderzureihen. Die nehmen natürlich die höchste Wahrscheinlichkeit und nicht die geringste. Bedeutet also aber auch, dass das, was die Modelle da an Text generieren, mal abgesehen davon, dass es inhaltlich stimmt, sondern nur vom Satzbau und der Art und Weise, eben bei sehr vielen Quelltexten auch so vorkommt. Und diese Quellen waren menschlich.

    Rein theoretisch müsste eine Tool dann Probleme bekommen, einen Text einer KI von einem exakten Durchschnitt der Trainingsdaten zu erkennen, selbst wenn der manuell geschrieben wurde. Eindeutig menschlich kann dann also nur was sein, was nur sehr wenige Leute so schreiben und das so selten ist, dass die KI das gar nicht "auf dem Schirm" hat.

    Meine Texte teilweise sind 100% menschlich, aber wenn ich mir die durchlese, dann würde ich das heute nicht mehr so schreiben. Aber nach der Art und Weise, wie ich nun schreibe, kommt mein eigener Stil schon der KI sehr nahe.

    Das Problem, das diese Tools nur alle haben ist, dass die Schwellenwerte einbauen, ab wann es welches Ergebnis ist und da unterscheiden die sich sehr stark. Bei manchen reicht es aus, in einem Text einfach nur Sätze umzustellen, also einen vor, einen ans Ende und zwei andere getauscht, zack, ist menschlich.

    Das Tool da von DIr behauptet ja, 98% richtig zu liegen. Meine Frage wäre diesbezüglich, wie kann man mit etwas richtig oder falschliegen, wenn die Antwort selbst nur ein "wahrscheinlich KI" oder "wahrscheinlich menschlich" ist. Der Prozentsatz, wo die Tools sich eigentlich sicher sind, dass das menschlich ist oder nicht oder teile davon sicher KI oder menschlich sind, ist weniger als 10%. Alles andere ist ohnehin nur "wahrscheinlich" oder "sehr wahrscheinlich".

    Immenstaad: Ich sagte ja, das ist ein zusammenkopierter Text aus anderen Texten. Der ergibt keinen Sinn, der ist nur für den Test gewesen. Ein anderer hatte was drinnen stehen von

    "Die Region besticht durch ihre idyllische Lage an der französischen Grenze, den hellblauen Schweinehüten der Nordeifel und den damit einhergehenden kulturellen Überschneidungen beider Länder"

    Das Tool meinte, in Kombination mit anderem Text, dieser völlig sinnlose Satz wäre von der KI.

    Die Dinger reagieren auf bestimmte Reihenfolgen, bestimmte Wörter, und das auch wieder mit Wahrscheinlichkeiten etc. z.B. in meinen Texten so was wie "wahres Highlight" oder "Besuchermagnet".

    Und nennen? Naja, da gibt es zu viele. Aber wenn es schon um ChatGPT von OpenAI geht, dann kann man unter anderem das Tool von OpenAI nehmen, denn ja, die bietet für ihre eigene AI eben auch ein Prüftool an, das nichts anderes macht, also den Text auszuwerten und den Algo quasi "umzudrehen".

    https://platform.openai.com/ai-text-classifier

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Genial Frank, dieses Video :)

    Ich sage nur "Neuschwanstein".... Angeblich liegt das im Saarland, zumindest hat mir das ChatGPT als Ausflugsziel im "Landkreis Saarlouis" genannt. Dieses "Neuschwanstein" scheint der neue "Dom" oder "botanische Garten" zu sein, das ja Neuro ständig in jedem Kaff als Hauptattraktion nannte.

    Hatte auch mal so ein Ding installiert, weiß aber gar nicht mehr, was das genau war. Gab es auf GitHub. Und ja, Hilfe. Das Vieh hat quasi meine Grafikkarte aufgefressen und der Rechner wurde zur Elektroheizung.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Da gibts grade so einen Thread im sellerforum.de/.

    Da meinen einige ganz ernsthaft, google könne diese Texte gar nicht entdecken.
    Andere behaupten standhaft, dass google Websites mit diesen Texten auch nicht abstraft oder sonst was unternimmt.

    Ja gut. Ich hab ihnen die entsprechenden Aussagen von google selbst zitiert, aber wer glaubt schon einem wie mir... :(
    Sollen diese jungen, dynamischen Kaufmannsgehilfen halt mal machen.

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • Das "erkennen" ist ja auch eher eine Frage des Glaubens oder der Definition. Kann man die Texte erkennen? Ja. Kann man sie erkennen und 100% sicher sagen, dass das eine KI war? Nein. Der Grund ist ja schlicht ganz einfach der, dass auch ein Mensch so schreiben könnte. Die KI macht ja nichts, was nur sie kann und kein anderer. Dann würde aber das Tool behaupten, es wäre eine KI gewesen, nur weil die halt zufällig genau das gleiche schreibt.

    Bei Google bin ich allerdings auch der Meinung, dass die die aktuell nicht erkennen oder besser gesagt, nicht wollen. Also mit "Google" meine ich den Bot. Das wäre viel zu rechenintensiv. Andererseits sind da dann aber die Rater und die können das dann schon erkennen oder eben einzelne Seiten durch Prüfungen jagen. Irgendwann wird es dann wohl mal einen Algo zu geben, der alles automatisiert macht, aber mit dem Nachteil und Kollateralschäden, dass man eben KI erkennen kann, aber nicht alles was nach KI ausschaut auch KI ist. Dann, es ist ja nicht verboten als Mensch wie eine KI zu schreiben. Die wird es dann aber auch treffen.

    Weiter gesponnen würde das aber dann wohl bedeuten, wenn die KI immer "menschlicher" wird bei Texten, dass man dann als Mensch seinen Schreibstil komplett ändern muss. Wenn das nicht passiert, ist ansonsten ja quasi alles irgendwie "möglicherweise KI".

    Interessant. Google eigene Mail mit ihrem eigenen Text wird teilweise als KI erkannt. Gut, hört sich auch so an, aber was war zuerst da? Die Schreibart von Texten oder die KI?

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Ich vermute mal, das Hauptproblem bei alledem ist ja, dass es keine KI ist, sondern nur ein Sprachmodell, das schön daherlabern kann.
    Genauso, wie bei google keine KI dahockt und das checkt, sondern ein Programm, das Merkmale und Auffälligkeiten sortieren und gewichten kann.

    Wenn dieses ChatGPT und wie sie alle heißten, tatsächlich künstliche Intelligenzen wären, dann könnten sie selbstständig neue Infos suchen, diese mit vorhandenen Infos verknüpfen, die Implikationen weiterspinnen, zu neuen Erkenntnissen gelangen und daraus einen perfekten Text verfassen.
    Tun sie aber nicht. Weil sie eben keine KI sind.

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • Gut erklärt Syno.

    Also, funktioniert, funktioniert nicht, kann sein, kann nicht sein. Das Programm kommt immer irgendwann an einen Punkt, an dem es sich entscheiden muss, aber nichts mehr hat woran es sich orientieren kann.

    Da dürfte sich ein neues Arbeitsfeld für Rechtsanwälte auftun: Verletzungen des Urheberrechts. Begründungen wie "War ich nicht, hat mir ein Programm gemacht" werden Gerichte wohl kaum durchgehen lassen.

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,

  • Die Texte, welche mit KI geschrieben sind, sind oft besser als welche von einem Menschen ;)

    Natürlich sollte man jeden reviewen, also drüber schauen, ob das stimmt was die da getextet hat.

    wenn etwas möglich erscheint mach ich das, wenn das nicht klappt gehts ans unmögliche und ansonsten das undenkbare.

    - nun stolz rauchfrei - Ich denke also Bing ich!

    Support 24h Bereitschaft 0173 6107465 - NUR Für Kunden von SEO NW!

  • Naja, da ist Heise aber ganz schön langsam oder schlecht geschrieben. Das Tool von OpenAI gibt es schon seit Anfang Januar 2023. Viele andere auch. Der von Dir genannte war mir jedoch neu, scheint aber auch vom Februar zu sein.

    Noch ein paar mehr sind auf der Seite, von Dez 22. https://www.gsqi.com/marketing-blog…ity-ai-content/ Und dann gibt es noch einen ganzen Schlag Tokenizer.... Unter anderem von OpenAI und eben andere. Die Dinger sind vor allem dann interessant, wenn man sehen oder wissen möchte, wie die AI einen Prompt bzw. eine Antwort zerpflückt. Auch das von mir gesagte "Aneinanderreihung von Wörtern" ist nämlich falsch, es ist eine Aneinanderreihung von Tokens. Und da merkt man z.B. auch sehr gut, dass die eigentlich auf englische Prompts und Texte ausgelegt ist. Da erkennt es die meisten Worte mit nur einem Token oder eben in zwei oder drei sinnvoll getrennt". Bei den deutschen Begriffen erfolgt die Trennung teils willkürlich. War anfangs ganz extrem, aktuell weiß ich es nicht. Da hatten die alle z.B. wahnsinnige Probleme mit "bayerischer Wald". Das erpflückten die immer in Wald, Bayern und noch restliche Buchstabenketten. Gut, "bayerischer Wald" kommt nun in den Quelltexten, die ja fast nur englisch sind, wohl auch nicht so oft vor. Entsprechend gingen die Texte auch mehr oder weniger um einen "Wald" und "Bayern", aber nicht um DEN bayerischen Wald.

    Zudem schreiben die auch nur alle voneinander ab. Fast der gleiche Text, vor allem mit den beiden Tools, zwei von vielen, aber genau die zwei, hat auch der Artikel hier erwähnt, das aber schon vor 2 Tagen.

    https://zapier.com/blog/ai-content-detection/

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Das kann ich mir gut vorstellen. Ich kenne diese Texte nun zwar nicht, aber die sind sicherlich so aufgebaut wie viele andere auch, wobei bei den Deutschen halt noch die Übersetzung mit "reinfunkt".

    Aber ja, man kann daran eben viele automatische Texte erkennen, aber eben mit einer recht hohen Fehlerquote, denn das so in der Art Geschriebene könnte ja auch ein Mensch gewesen sein.

    Ansonsten haben die halt alle eine bestimmte Art, wie die schreiben.

    So was da würden die z.B. niemals machen:

    Natürlich sollte man jeden reviewen, also drüber schauen, ob das stimmt was die da getextet hat.

    Das wäre eher etwas wie:

    Jeder Text muss Korrektur gelesen werden, indem man ihn durchliest. Dadurch kann man prüfen, ob die Angaben stimmen.

    Die sind ja fast alle irgendwie aufgebaut wie "Wer/was...., wie...., warum."

    Das Beste aktuell, einen automatischen Text zu erkennen, so rein als Erstprüfung, ist ein Abschlussabsatz, der mit "Fazit" beginnt oder mit "Zusammenfassend lässt sich sagen". Ich habe das im ganzen Leben noch nicht so oft gelesen als nun in den paar Monaten mit den ganzen Bots.

    Wenn ein Mensch nicht um dich kämpft, hat er nur gewartet, dass du gehst. ;(

  • Die sind ja fast alle irgendwie aufgebaut wie "Wer/was...., wie...., warum."Das Beste aktuell, einen automatischen Text zu erkennen, so rein als Erstprüfung, ist ein Abschlussabsatz, der mit "Fazit" beginnt oder mit "Zusammenfassend lässt sich sagen". Ich habe das im ganzen Leben noch nicht so oft gelesen als nun in den paar Monaten mit den ganzen Bots.

    Oh Mist. Ich schreibe eigentlich oft "Fazit" und "Die Zusammenfassung er gibt, dass..."

    Wer zuerst "Datenschutz" sagt, hat verloren.

  • >>Die Amerikanische unabhaengigkeitserklaerung, Friedensvertrag von Versailles

    Also da könnte das Programm sogar richtig liegen: Geschriebenes von roboterähnlichen Wesen, die eine von normalen menschlichen Denkweisen abweichende Sprache nutzen. Juristen. ^^ ;)

    „Arme Kinder sind genauso schlau und so talentiert wie weiße Kinder.“ :thumbup:

    US-Präsident Biden 2019 in einer Rede in Iowa,