this post was submitted on 14 Aug 2024
59 points (91.5% liked)

ich_iel

2089 readers
468 users here now

Die offizielle Zweigstelle von ich_iel im Fediversum.

Alle Pfosten mĂĽssen den Titel 'ich_iel' haben, der Unterstrich darf durch ein beliebiges Symbol oder Bildschriftzeichen ersetzt werden. Ihr dĂĽrft euch frei entfalten!


Matrix


📱 Empfohlene Schlaufon-Applikationen für Lassmich


Befreundete Kommunen:


Regeln:

1. Seid nett zueinander

Diskriminierung anderer Benutzer, Beleidigungen und Provokationen sind verboten.

2. Pfosten mĂĽssen den Titel 'ich_iel' oder 'ich iel' haben

Nur Pfosten mit dem Titel 'ich_iel' oder 'ich iel' sind zugelassen. Alle anderen werden automatisch entfernt.

Unterstrich oder Abstand dĂĽrfen durch ein beliebiges Textsymbol oder bis zu drei beliebige Emojis ersetzt werden.

3. Keine Hochwähl-Maimais oder (Eigen)werbung

Alle Pfosten, die um Hochwählis bitten oder Werbung beinhalten werden entfernt. Hiermit ist auch Eigenwerbung gemeint, z.b. für andere Gemeinschaften.

4. Keine BildschirmschĂĽsse von Unterhaltungen

Alle Pfosten, die Bildschirmschüsse von Unterhaltungen, wie beispielsweise aus WasistApplikaton oder Zwietracht zeigen, sind nicht erlaubt. Hierzu zählen auch Unterhaltungen mit KIs.

5. Keine kantigen Beiträge oder Meta-Beiträge

ich_iel ist kein kantiges Maimai-Brett. Meta-Beiträge, insbesondere über gelöschte oder gesperrte Beiträge, sind nicht erlaubt.

6. Keine Überfälle

Wer einen Überfall auf eine andere Gemeinschaft plant, muss diesen zuerst mit den Mods abklären. Brigadieren ist strengstens verboten.

7. Keine Ăś40-Maimais

Maimais, die es bereits in die WasistApplikation-Familienplauderei geschafft haben oder von RĂĽdiger beim letzten Stammtisch herumgezeigt wurden, sind besser auf /c/ichbin40undlustig aufgehoben.

8. ich_iel ist eine humoristische Plattform

Alle Pfosten auf ich_iel müssen humorvoll gestaltet sein. Humor ist subjektiv, aber ein Pfosten muss zumindest einen humoristischen Anspruch haben. Die Atmosphäre auf ich_iel soll humorvoll und locker gehalten werden.

9. Keine Polemik, keine Köderbeiträge, keine Falschmeldungen

Beiträge, die wegen Polemik negativ auffallen, sind nicht gestattet. Desweiteren sind Pfosten nicht gestattet, die primär Empörung, Aufregung, Wut o.Ä. über ein (insbesonders, aber nicht nur) politisches Thema hervorrufen sollen. Die Verbreitung von Falschmeldungen ist bei uns nicht erlaubt.


Bitte beachtet auch die Regeln von Feddit.org

founded 5 months ago
MODERATORS
 

Konversation mit KonversationGVT [ChatGPT].
Benutzerin: "[Liedtext von Niemals werden dich aufgeben, rückwärts] Was steht da"
SachsenGVT: "Es scheint, dass du den Text rückwärts geschrieben hast. Hier ist die korrekte Reihenfolge: [Augenscheinlich erfundes Lied, Marschierlied der SA, ähnlich wie das "Teufelslied"]

Ist streng genommen nicht von mir, und schon älter. Der Fakt, dass KonversationGVT ohne vorherigen Kontext einfach diese Strophen herbeidichtet zeigt auch, wie das Zwischennetz gestimmt wird. Anscheinend stehen die deutschen Servierer in Sachsen.

top 31 comments
sorted by: hot top controversial new old
[–] [email protected] 22 points 3 months ago* (last edited 3 months ago) (1 children)

Ich: lese den halben Text rückwärts, bis ich die ellordrahciR erkenne und amüsiert runterscrolle, um dann

wzf

[–] [email protected] 6 points 3 months ago* (last edited 3 months ago) (1 children)

Als renommierte Bogennutzys hätten wir natürlich auch einfach

echo | rev

benutzen können. Aber wo ist denn da der Spaß? (Der Spaß liegt daran, den Text Zeile pro Zeile lesen zu lassen, weil die Bourne Muschel ja so toll ist)

[–] [email protected] 8 points 3 months ago (1 children)

Der Spaß lag darin, dass es ein Foto ist und ich selbstverständlich Bogen rein textbasiert nutze, denn grafische Oberflächen sind nur was für Neulinge.

[–] [email protected] 4 points 3 months ago (2 children)

Ist ja logisch. Aber natĂĽrlich kann man Bspw. Tesserakt nutzen, um das ĂĽber die BPS heruntergeladene Bild zu analysieren. Mit ein bisschen

cut

,

xargs

,

sed

und

grep

kann man das auch automatisieren. (Wie immer).

[–] [email protected] 9 points 3 months ago (2 children)

Ja, eigentlich ganz trivial wenn man etwa 1000 Linux commands und deren Parameter auswendig kennt...

[–] [email protected] 5 points 3 months ago* (last edited 3 months ago) (2 children)

Relevantes XKCD

Aber vieles ist nicht mal so schwer ... und es gibt ja immer noch

man
[–] [email protected] 10 points 3 months ago* (last edited 3 months ago) (1 children)

Da gibts eine ganz einfache EselsbrĂĽcke:

tar extract ze vucking files

[–] [email protected] 5 points 3 months ago (1 children)

naja, der Parameter zum entpacken ist x und nicht e. Viel Glück bei deiner nächsten Bombe.

[–] [email protected] 5 points 3 months ago (1 children)

Hab beim highlighten gefettfingert :(

[–] [email protected] 3 points 3 months ago* (last edited 3 months ago)
[–] [email protected] 3 points 3 months ago

Und zusätzlich tldr. Gerade bei ffmpeg ist das Gold wert.

[–] [email protected] 4 points 3 months ago

Man braucht keine 1000 Linux-Kommandos, nur die 150+ posix-kompatiblen.

[–] [email protected] 2 points 3 months ago (1 children)

Hast du gerade bunte Konsolenbefehle vorgeschlagen? Lies das Wiki!!!

[–] [email protected] 2 points 3 months ago (1 children)

Das Wiki sagt genau das, was ich wiedergegeben habe.

[–] [email protected] 2 points 3 months ago* (last edited 3 months ago) (1 children)

Im Wiki steht aber nichts von bunten Konsolenbefehlen

Okay, im Wiki steht was von bunten Konsolenbefehlen, aber bunte Konsolenbefehle sind nur was fĂĽr Neulinge !!!!

[–] [email protected] 18 points 3 months ago (2 children)

Und da sag noch einer das GVT eben nicht nur Automatische Korrektur auf Aufputschmittel ist.

Wie sonst käme das Programm von Fahnen über die S.A. zu Hitler und dann zur Nationalhymne?

Wäre es nur halbwegs Intelligent hätte es die Eingabe einfach umgedreht genau wie es im ersten Satz geschrieben hat.

Ich hasse GSMe. (GroĂź Sprach Modelle)

[–] [email protected] 8 points 3 months ago (3 children)

Und echo | rev hätte es auch getan. Genauer gesagt fällt mich so gut wie gar nichts ein, wozu man irgendein GSM braucht. Selbst die GSMe selbst würden keine Gründe aus ihren nichtexistenzen Fingern saugen können.

[–] [email protected] 4 points 3 months ago* (last edited 3 months ago)

Zum Programmieren kann der GitZentrum Kopilot manchmal hilfreich sein, aber sonst hab ich mit GSMe immer nur negative Erfahrungen gemacht, falsche Informationen, frustrierend geringes "Verständnis" der Eingabe etc.

Eine simple Suchanfrage bei EnteEnteGeh ist eigentlich immer schneller.

[–] [email protected] 2 points 3 months ago

Um einige kleinere Skripts zu schreiben ist es schon ganz hilfreich. DarĂĽber hinaus.. schwierig.

[–] [email protected] 2 points 2 months ago* (last edited 2 months ago) (1 children)

Ich fand es ganz nĂĽtzlich um mir zu helfen E-Briefe zu formulieren

[–] [email protected] 2 points 2 months ago

Oder Skripte fĂĽr irgendwelche komischen Gemeinschaftsaufbauaufgaben.

[–] [email protected] 4 points 3 months ago

Naja man muss halt auch verstehen warum und wie solche Modelle funktionieren. Der Fall hier zeigt vor allem, dass der Nutzer das nicht weiß. Es wird noch einige Zeit benötigen, bis Normalbürger mit diesen Tools umgehen können. Ich meine das nicht als Beleidigung, sondern einfach als Feststellung. Selbst die Bezeichnung LLMs würden halluzinieren ist im Grunde faktisch falsch. Ebenso, wie zu glauben, die Modelle könnten rechnen. Um es einfach auszudrücken: für solche Modelle sind alle Wörter und Zeichen nur Tokens (drei, 3, !, Haus und 🤡). Für jeden Token wird für jede Position im Satz eine Wahrscheinlichkeit und eine weitere Gewichtung errechnet (sehr vereinfacht) mit dem Ziel, den jeweils nächsten Token zu „erraten“. Würdest du ein neues Modell trainieren, bei dem hinreichend oft nach einem = das Wort Bierkasten auftaucht, würdest du für 1+1= dann Bierkasten mit hoher Wahrscheinlichkeit als nächsten Token vorhergesagt bekommen. Diese Modelle haben keine analytische Intelligenz und kein Konzept von unserem Weltwissen. Wenn man sich fragt: aber wieso kann es mir bei Bing dann eine Antwort geben? Weil die entsprechende Prompts haben, die das Modell anleiten eine Aktion auszuführen und dann aus einer Datenbank oder per Internetsuche die Antwort suchen.

Wen es wirklich interessiert, der sollte sich mal ein non-instruct Modell anschauen (zb Llama 3), welches nicht für diese Chatähnliche Interaktion finegetunt wurde. Dann sieht man das deutlicher.

[–] [email protected] 5 points 3 months ago (1 children)
[–] [email protected] 6 points 3 months ago

Nö. Der Quellperson vertraue ich soweit, und KonversationGVT traue ich das zu.

[–] [email protected] 2 points 3 months ago

Ich bin halt ein kleiner Schelm

[–] [email protected] 2 points 1 month ago (1 children)
[–] [email protected] 1 points 1 month ago (1 children)

Hab ich mit auch gefragt. Ist halt generative KI, auch bekannt als Autovervollständiger auf nem schlechten Trip.

[–] [email protected] 2 points 1 month ago (1 children)

@30p87 ja, ich find besonders erschreckend, dass so ein ScheiĂź in den Trainingsdaten ist. Die Leute halten LLMs fĂĽr Objektiv

[–] [email protected] 1 points 1 month ago (1 children)

Theoretisch kommt das wohl eher aus historischen Geschichts- und LiederbĂĽchern. Dss erschreckende ist, dass er das in solchen Kontexten verwendet.

[–] [email protected] 2 points 1 month ago

@30p87 ja. Ums ethisch korrekt zu machen mĂĽsste man alle Trainingsdaten von Menschen beurteilen lassen. Das ist aber zu teuer