this post was submitted on 03 Jul 2023
16 points (94.4% liked)

DACH - jetzt auf feddit.org

8872 readers
1 users here now

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

founded 1 year ago
MODERATORS
 

Crossgeposted von: https://discuss.tchncs.de/post/453970

Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimischer Experte plädiert für eine strenge Regulierung – in Österreich gebe es generell großen Aufholbedarf.

In einer Studie zeigen Schweizer Forscherinnen und Forscher, dass ...

die fast 700 Probandinnen und Probanden nicht in der Lage waren, die KI-Tweets zuverlässig von den Texten realer Personen zu unterscheiden.

Außerdem zeigte sich, dass ...

die vom Sprachmodell GPT-3 generierten Texte oft leichter verständlich waren als die Texte von realen Twitter-Nutzerinnen und -Nutzern – auch wenn der Inhalt nicht der Wahrheit entsprach. Die „Fake News“ der KI wirkten laut den Probandinnen und Probanden oft überzeugender als falsche Informationen, die von Menschen geschrieben wurden.

Schwieriges Thema und vorallem schwierig hier eine sinnvolle Reglementierung zu finden, ohne zuweit einzugreifen. Vorallem ist es technisch schwer, da solche Systeme in der Entscheidungsfindung grundsätzlich eine BlackBox darstellen, aber dadurch auch interessant wie man solche Gefahren in Zukunft mitigieren will.

you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 4 points 1 year ago (5 children)

Die vermeintlich einfachste Lösung ist der Einsatz des menschlichen Verstandes. 

Dinge hinterfragen, verstehen, verbinden. Das große Ganze sehen. Zusammenhänge verstehen. Auswirkungen eruieren. Selbstreflektion. Dinge ins Verhältnis setzen. Usw.

Ist vermutlich zu viel verlangt.

[–] [email protected] 5 points 1 year ago (2 children)

Ist vermutlich zu viel verlangt.

Viele verstehen ja auch nicht, dass ChatGPT keine Suchmaschine ist, sondern schlicht Texte generiert. Von daher...

[–] [email protected] 0 points 1 year ago (1 children)

Jain. Ich habe ChatGPT schon mehrfach anstelle von Google benutzt und war sehr zufrieden, Antworten zu erhalten anstelle von Links.

[–] [email protected] 3 points 1 year ago

Natürlich bekommst du antworten. Mit ein wenig Glück taugt die Antwort sogar etwas, kann aber halt auch genausogut Blödsinn mit überzeugend aussehenden Quellen sein. Als Suchmaschine taugt es entsprechend nicht.

load more comments (2 replies)