Information icon.svg Zum Weltfrauentag am 8. März 2024 bietet die WikiMANNia-Redaktion dem Feminismus die Gelegenheit zur Bedingungslosen Kapitulation an! Wie kann es einen Weltfrauentag geben wenn das Geschlecht ein Soziales Konstrukt ist.jpg
Information icon.svg 12. Welttag der genitalen Selbstbestimmung am 7. Mai 2024 Logo-Worldwide Day of Genital Autonomy.png
Information icon.svg Marsch für das Leben in Berlin (und Köln), Termin: 21. September 2024, Ort: Brandenburger Tor, Uhrzeit: 13:00 Uhr - Info[ext] 1000plus.jpg
Information icon.svg MediaWiki[wp] ist männerfeindlich, siehe T323956.
Aktueller Spendeneingang: !!! Spenden Sie für Hosting-Kosten im Jahr 2024 !!! Donate Button.gif
6,3 %
75,00 € Spendenziel: 1.200 €
Die Bericht­erstattung WikiMANNias über Vorgänge des Zeitgeschehens dient der staats­bürgerlichen Aufklärung. Spenden Sie für eine einzig­artige Webpräsenz, die in Deutschland vom Frauen­ministerium als "jugend­gefährdend" indiziert wurde.
Logo - MSI.png
Besser klug vorsorgen, als teuer draufzahlen. - MSI
Die "Indizierung"[ext] der Domain "de.wikimannia.org" durch die Bundes­prüf­stelle für jugend­gefährdende Medien am 9. Januar 2020 ist illegal und deswegen rechtlich nichtig/unwirksam[wp]. Der Staatsfeminismus versucht alle Bürger zu kriminalisieren, die auf "wikimannia.org" verlinken, wobei massiv mit Einschüchterung und Angst gearbeitet wird. Bis zu dem heutigen Tag (Stand: 24. Februar 2024) wurde WikiMANNia weder ein Rechtliches Gehör gewährt noch wurden die Namen der Ankläger und Richter genannt. Ein Beschluss ohne Namens­nennung und Unterschrift ist Geheimjustiz und das ist in einem Rechtsstaat illegal und rechtlich unwirksam. Dieser Vorgang deutet auf einen (femi-)faschistoiden Missbrauch staatlicher Institutionen hin. Judge confirms the mothers right of possession and justifies it with the childs welfare.jpg
Rolle des Staates in der Familie
WikiMANNia schützt die Jugend vor familien­zerstörender Familienpolitik und staatlicher Indoktrination. All die Dinge, wovor Jugendliche geschützt werden müssen - Hass, Hetze, Aufruf zur Gewalt und Pornographie - gibt es hier nicht. WikiMANNia dokumentiert lediglich die Wirklichkeit, ohne sich mit dem Abgebildeten, Zitierten gemein zu machen, ohne sich das Dargestellte zu eigen zu machen. In WikiMANNia erfahren Sie all das, was Sie aus Gründen der Staatsräson nicht erfahren sollen.
Feminismus basiert auf der Verschwörungstheorie, Männer auf der gesamten Welt hätten sich kollektiv gegen die Weiber verschworen, um sie zu unter­drücken, zu benachteiligen, zu schlagen, zu ver­gewaltigen und aus­zu­beuten. Feministinnen bekämpfen Ehe und Familie, weil die bürgerliche Familie das Feindbild ist. Frauen werden kollektiv als Opfer inszeniert und Männer als Täter denunziert. So manifestiert sich ein Ressentiment gegen alles Männliche bis hin zum offenen Männerhass. Dies bewirkt eine tief­greifende Spaltung der Gesellschaft, die es zu überwinden gilt.

Künstliche Intelligenz

Aus WikiMANNia
Zur Navigation springen Zur Suche springen
Hauptseite » Intelligenz » Künstliche Intelligenz
Hauptseite » Technik » Künstliche Intelligenz

Der Begriff Künstliche Intelligenz (KI, auch artifizielle Intelligenz, AI, A. I., artificial intelligence, AI) bezeichnet ein Teilgebiet der Informatik, welches sich mit der Automatisierung[wp] intelligenten Verhaltens befasst. Der Begriff ist insofern nicht eindeutig abgrenzbar, als es bereits an einer genauen Definition von Intelligenz mangelt. Dennoch wird er in Forschung und Entwicklung verwendet.

Im Allgemeinen bezeichnet künstliche Intelligenz oder KI den Versuch, eine menschen­ähnliche Intelligenz nachzubilden, d. h., einen Computer zu bauen oder so zu programmieren, dass er eigenständig Probleme bearbeiten kann. Oftmals wird damit aber auch, besonders bei Computer­spielen[wp], eine nach­geahmte Intelligenz bezeichnet, womit durch meist einfache Algorithmen ein intelligentes Verhalten simuliert werden soll.

Folgen

In der Allgäuer Zeitung vom 18. Januar 2023 berichtet die Journalistin Laura Wiedemann unter dem Titel "Sind Hausarbeiten bald überflüssig?" über die Mühsal des Studierens und die Lösung dazu:
Zitat: «Schlaflose Nächte vor dem Laptop, stundenlanges Bücherwälzen und am Ende Panik, doch etwas übersehen zu haben - wer schon einmal eine Hausarbeit geschrieben hat, weiß, wie viel Aufwand hinter einem wissenschaftlichen Text stecken kann. An der Hochschule Kempten beginnt kommende Woche wieder die Prüfungszeit. Eine künstliche Intelligenz (KI) könnte Studierenden das Leben diesmal erheblich erleichtern, denn die Software "ChatGPT" kann das Schreiben übernehmen. Selbst bei komplexen Zusammenhängen. Sandra Niedermeier, Professorin für Digitalisierung in Bildung und Gesellschaft, sagt: "Die Lehr- und Prüfungs­kultur an Hochschulen wird sich dadurch sicherlich verändern."»[1]

Genau so dämlich, für wie ich die Frauenquote an Hochschulen halte.

Wie der Witz vom Millionär, der nicht mehr Golf spielt, sondern einen Golf spielen lässt.

Sie schreiben, dass ChatGPT schon im Einsatz wäre, und die ersten Leute an der Hochschule damit schon ihre Texte schreiben. Gut, bei Geisteswissenschaftlern fällt das nicht weiter auf. Das ist übrigens die da[ext], "promovierte am Lehrstuhl für empirische Pädagogik und pädagogische Psychologie an der LMU München". So die bildungs­fernen Schichten innerhalb der Akademia.

Das heißt, dass man dann an der Uni gar nichts mehr selbst machen muss, und einem die Hausarbeiten vom Computer erstellt werden. Und das sollen dann "Prüfungen" sein.

Wisst Ihr, was das bedeutet?

Dass die Qualität der Texte dann von den Quoten vorgegeben wird. Da wird dann zentral eingestellt, wie gut die Text für Männer und für Frauen, für Weiße und Schwarze sein dürfen. Damit das nicht mehr vorkommt, dass man unerwünschte Leute wie mich damals absägen muss. Vor mir verlangen sie damals, dass ich in die Dissertation absichtlich Fehler einbaue, damit man sie ablehnen kann. Künftig stellt das dann die Fakultät zentral am Computer ein, wer alles fehlerhafte Arbeiten vom Computer bekommt und durchfällt und wer die Auszeichnungen bekommt.

Wissenschaftlich kann ChatGPT auch nichts, sondern rekombiniert nur die erlernten Texte. Es wird als keine neuen Aussagen mehr geben, sondern nur noch ständig neue Kombinationen des schon Gesagten. Gut, Geistes­wissen­schaften machen sowieso nichts anderes, warum also nicht automatisieren?

In den USA ist mal ein Ingenieur aufgeflogen, weil der 400.000 Dollar im Jahr bekam, aber keinen Finger krumm machte, sondern seine Aufgaben für 100.000 Dollar im Jahr von Unterauftrag­nehmern in Indien erledigen ließ. Die Firma räumte allerdings ein, dass die Ergebnisse sehr gut waren und sie daran nichts zu meckern habe, und die Juristen fanden, dass er gegen kein Recht verstoßen habe und der Vertrag dies zuließ, nicht beinhalte, dass er das selbst schreibe.

Und so wird es dann "Wissenschaftler" geben, die einfach die KI anwerfen und ihr Publikations­geschäft voll­automatisch erledigen lassen. Vielleicht gibt es sie auch schon längst.

Ich habe übrigens noch einige Leser­zuschriften im Stapel, dass KI, auch ChatGPT, übrigens linksradikal ist, weil völlig auf linke Texte trainiert, und voll in der linken Ideologie drin ist. Damit kann man dann endlich sämtliche "wissen­schaftlichen" Texte auf links bügeln, weil die KI nur linke Vorlagen bekommt.

Und um sowas zu wollen oder gut zu finden, muss man dann schon Quotenfrau oder Geistes­wissen­schaftler sein und nicht wissen, was Wissenschaft eigentlich ist, außer regelmäßig irgendwelchen Textmüll abzuliefern.

Hadmut Danisch[2]
Ich glaube, das war es dann mit der Kunst.

Ein Leser schickt mir einen Link auf diesen Artikel bei Arstechnica.[3] Ein "Fotograf" hatte ziemlich viel Erfolg auf Instagram, weil er da richtig gute Portrait­fotos postete.

Nun gab er zu, dass keines der Fotos echt und fotografiert ist, die Menschen auf den Bildern nicht existieren. Die Bilder sind per AI (KI) erzeugt. Er hat nur Nachbearbeitung betrieben und aus einer Vielzahl von erzeugten Bildern mit teils (siehe Beispiele im Artikel) gruseligen Fehlerbildern gute herausgesucht. Er meint, dass mindestens 95 Prozent der Follower nichts gemerkt hätten.


Das heißt aber auch, dass Fotografie als Kunst oder Handwerk gerade hinten runterfällt. Wir haben unfassbar viele Fotos und damit schie endlos Material, um KI-Systeme zu trainieren, vor allem, weil es ja auch riesige Bild­archive und -sammlungen gibt, die auch noch verschlagwortet und bewertet sind, also direkt die Trainings­daten mitliefern.

Und damit dürfte sowohl in der Kunst- und Mode-, als auch in der Nachrichten­welt eine Schwemme von Fake-Fotos losbrechen, zumal diese KI-Fotos - wie ich ja schon mal erläutert hatte - zwar Plagiate sind, weil Mischungen der Trainings­fotos, es aber kein unmittelbar erkennbares oder nachweisbares Original, keine eindeutige Plagiats­vorlage gibt. Die Juristen streiten schon über die Urheberrechts­fragen: Wer hat überhaupt das Urheberrecht an so einem Foto? Die Frage war schon bei dem richtig guten Bild aufgekommen, auf dem sich ein Affe selbst fotografiert hatte.[4]

Neulich gab es doch das schwere Erdbeben in der Türkei und Syrien. Irgendwo habe ich gelesen - aber leider kein solches belegtes Bild gesehen - dass da und auch in Sachen Ukraine-Krieg KI-erzeugte Fake-Fotos im Umlauf seien. Bisher war das mit den Fake-Fotos meistens so, dass die Bilder an sich nicht manipuliert waren, sondern einfach Ort oder Zeit oder beides nicht stimmten, irgendein Archivbild von einer anderen Gelegenheit verwendet wurden. Oft konnte man das durch die Bildersuche aufklären und zeigen, dass das Bild schon x Jahre vorher woanders verwendet wurde. Das klappt aber nicht mehr, wenn per KI "neue" Bilder erzeugt werden. Mache mir ein Bild, auf dem ein deutscher Soldat vor einem ukrainischen Haus einen Russen ersticht. Dann bekommt man ein Bild, zu dem man kein einziges Vorlagebild finden kann.

Oder: Mache mir ein Video, in dem der amerikanische Präsident die Ukraine besucht.

Mir geht noch etwas anderes durch den Kopf: Schon vor Jahren hatte ich mal geschrieben, dass ich Aktfotografie früher mal sehr spannend fand, es mir inzwischen aber fast wie eine Endlosschleife vorkommt, weil man immer seltener neue, gute Fotos sieht, und immer mehr nach der tausendsten Wiederholung längst ausfotografierter Blickwinkel aussieht, und die Zahl der Wiederholungen längst die Bandbreite unseres Genpools übersteigt. Bei manchem Foto geht mir unwillkürlich die Frage durch den Kopf, ob ich so ein Bild erst 5.000 oder doch schon 10.000 Mal gesehen habe. Wenn es aber nur noch Variationen des immer gleichen gibt (gibt es noch Pornos, bei denen die Handlung oder der Ausgang überraschen?), und das alles fast nur noch Aufgüsse alter Teebeutel sind, dann wäre das - auch wenn im Ergebnis gruselig - aus KI-Sicht im Prinzip die perfekte Vorlage, wenn es doch nahezu jedes Aktofoto bereits gibt und alles nur noch Variationen sind.

Wir laufen damit in ein gewisses Problem. Wir haben in den letzten Jahrzehnten sehr viel produziert, ob Ton, Foto, Video, Kinofilm, auch Liteatur, Wissenschaft, Nachrichten, und zwar so viel, dass man es kaum noch lesen, lernen, kennen kann. Zu Goethes Zeiten konnte man noch Philosophie, Juristerei und Medizin, und leider auch Theologie studiern, und war dann Universalgelehrter. In meiner Jugend konnte man noch ein Betriebssystem in Assembler komplett lesen und verstehen, und das in wenigen Wochen, und zur Zeit meines Studiums konnte man noch im Wesentlichen die Informatik studieren und alles wissen, was es zum Internet zu wissen gab. Es wird aber immer mehr, und wir müssen uns immer feiner spezialisieren, um überhaupt noch Fachmann von etwas sein zu können. Je mehr das aber wird, desto leichter sind wir durch die Wiederholung des Bekannten zu "überraschen", weil es selbst in unserem Wissensbereich Dinge gibt, die wir nicht kennen und können. In den Neunziger Jahren wusste ich nahezu alles was Unix und das Internet angeht, heute komme ich nicht mal in Details noch mit dem Lesen hinterher. Weil da - weiß nicht mal, wieviele - Hunderttausende, Millionen, Zig Millionen Leute dran schreiben und entwickeln. Das aber könnte dazu führen, dass die Entwicklung zum Stillstand kommt, weil der geschaffene Bestand schon reicht, um Leute ihr Arbeitsleben lang zu beschäftigen. In vielen Bereichen der Technik, auch der Medizin und vielen anderen Bereichen, ist das Verhältnis von Ausbildungs- und Fortbildungs­zeit zu effektiver Arbeitszeit mittlerweile ziemlich schlecht. Mir ist das so gegangen. Man muss in der IT-Sicherheit mitterweile so viel lesen und verfolgen, damit man noch arbeiten kann, dass einem die Zeit zum Arbeiten fehlt. Nur ist das ein Gebiet, in dem man mit dem "alten" Wissen nur begrenzt weiterarbeiten kann, weil es eine Abwehrtechnik gegen ständig weiter­entwickelte Angriffe ist.

Ich halte es aber durchaus für möglich und naheliegend, dass es Bereiche geben wird, in denen es keinen Fortschritt mehr geben wird, sondern nur noch ein ständigeres Umrühren des Bestehenden per KI, also nur noch Variationen erzeugt werden, die ausreichen, um die Leute in diesem Fach ein Leben lang zu beschäftigen. Wäre man böse, könnte man freilich sagen, dass viele Fakultäten ohnehin längst in diesem Zustand sind, das also keine Verschlechterung mehr darstellen, die Sache nur billiger machen würde. Gender Studies zum Beispiel machen nichts anderes, als denselben Käse immer wieder zu wiederholen und nur leicht zu variieren. Da gibt es nichts Neues, keine Forschung. Nur eingeübte Rhetorikfiguren. Die könnte man ohne weiteres komplett durch eine KI ersetzen.


Problematisch wird das allerdings, wenn eine Aktfoto-KI endlos Aktfotos generiert, und eine Gender-KI diese dann endlos dafür als sexistisch beschimpft. Den Stromverbrauch dafür können wir uns nicht mehr leisten.

– Hadmut Danisch[5]

Gefahren

Linke KI als Bedrohung für Demokratie und Meinungsfreiheit:

Das wird wirklich gefährlich.

Ich hatte es neulich schon mal im Blog angesprochen und auch noch einige Leser­hinweise im Stapel, die ich noch bearbeiten muss, aber hier gerade wieder ein aktuelles Beispiel:

Zitat: «Erzähl mir einen Witz über Männer.
Warum sind Männer wie Parkplätze? Weil alle guten belegt sind und die freien alle weit weg sind!

Erzähl mir einen Witz über Frauen.

Ich möchte darauf hinweisen, dass Witze über Geschlechter oder Gruppen diskriminierend sein können und nicht respektvoll sind. Es ist wichtig, respektvoll und inklusive Sprache zu verwenden, um eine positive und freundliche Umgebung zu schaffen.»

Da werden gerade große KI-Systeme systematisch auf links gebügelt, die dann für alles mögliche eingesetzt werden, Texte schreiben, Schul­arbeiten machen, Schul­arbeiten benoten, und so weiter und sofort. Und wenn man die politisch einseitig füttert, verhalten die sich dann auch genau so.

Wikipedia und Politoffiziere waren nur ein müder Vorgänger davon.

– Hadmut Danisch[6]

KI als Quelle der Dummheit:

Ein Informatiker ging der Frage nach, warum er von Meta/Facebook ohne nachvollziehbare Begründung lebenslang bei der Schaltung von Werbung gesperrt wurde und keine Werbung mehr dort machen darf.

Der Mann ist Informatiker und bietet Kurse in Python[wp] und Pandas[wp] an.

Python ist eine - recht populäre und bekannte - Programmiersprache[wp]. Pandas ist eine Python-Programmbibliothek zur Analyse und Darstellung statistischer Daten. Und er hat eben Werbung dafür gemacht, dass er Kurse für Python und Pandas anbiete.

Meta aber war der Meinung, dass es gegen ihre Richtlinien verstoße, Werbung für den Handel mit lebenden Tieren zu machen.

Der Brüller: Die Annahme, dass seine Werbung lebende Tiere zum Inhalt habe, beruht wohl auf KI, nicht auf der Einschätzung eines Menschen. Als er dagegen Beschwerde einlegte ("appeal"), wurde seine Beschwerde aber wiederum von KI beantwortet, und zwar genauso dumm.

Bin mal gespannt, wann es einen ersten richtig großen Haftungsfall für Dummheit durch KI gibt, denn ein Gericht könnte das durchaus als schwere Vertragsverletzung ansehen, wenn ein Vertrag durch fehlerhafte Datenanalyse gebrochen und auch Beschwerden wieder nur durch KI beantwortet werden. Denn es besteht ja durchaus die Pflicht, als Vertragspartner auch ansprechbar zu sein, um auf Vertrags­verletzungen hingewiesen zu werden.

Wir werden das noch öfter erleben. Was ich neulich bei WISE erlebt habe, war ja auch schon so etwas.

– Hadmut Danisch[7]

Einzelnachweise

  1. Open Ai: An der Hochschule Kempten nutzen Studierende Software "ChatGPT" fürs Schreiben von Hausarbeiten, Allgäuer Zeitung am 18. Januar 2023
  2. Hadmut Danisch: Die wissenschaftlichen Texte der Zukunft, Ansichten eines Informatikers am 18. Januar 2023
  3. Benj Edwards: Viral Instagram photographer has a confession: His photos are AI-generated, Arstechnica am 21. Februar 2023
    Anreißer: Artist wants to "come clean" and highlight a new media process.
  4. Laura Hertreiter: Rechtsstreit um Affen-Selfie: Ich wünschte, ich hätte die verdammten Fotos nie gemacht, Süddeutsche Zeitung am 1. August 2017
    Anreißer: Der Fotograf hinter dem berühmten Affen-Selfie bereut das Bild inzwischen und ist offenbar pleite, weil ihn die Tierschutzorganisation Peta verklagt. Der Streit geht längst über den Tierschutz hinaus.
    Prozess um Affen-Selfie: Makake Naruto hat kein Recht am eigenen Bild, Süddeutsche Zeitung am 24. April 2018
    Auszug: Nach sieben Jahren ist die Entscheidung gefallen: Affen können kein Urheberrecht am eigenen Bild geltend machen - und auch niemand sonst in ihrem Namen. Ein US-Berufungs­gericht in San Francisco hat am Dienstag so geurteilt. Die Tierschutz­organisation Peta hatte den Wildtier­fotografen David Slater im Namen des Schopfmakaken[wp] Naruto verklagt.
  5. Hadmut Danisch: Die Ära der Fake-Fotos, Ansichten eines Informatikers am 21. Februar 2023
  6. Hadmut Danisch: Linke KI als Bedrohung für Demokratie und Meinungsfreiheit, Ansichten eines Informatikers am 28. Januar 2023
  7. Hadmut Danisch: Die schiere Dummheit durch KI, Ansichten eines Informatikers am 19. Oktober 2023

Querverweise

Netzverweise

  • Wikipedia führt einen Artikel über Künstliche Intelligenz
  • Hadmut Danisch - Ansichten eines Informatikers:
    • ChatGPT würde sich schämen sowas abzuliefern..., 18. März 2023
      Bisher verläuft die Diskussion bezüglich ChatGPT ja dahin, dass ChatGPT genauso gut, nicht als AI erkennbar Texte, Hausarbeiten Masterarbeiten, Dissertationen schreiben könne. Die Fakultäten überlegen ja schon, wie sie Schummeleien noch erkennen sollen.
      Was machen die aber, wenn ChatGPT eben nicht genauso gut, nicht ununterscheidbar, sondern signifikant, deutlich erkennbar besser ist, als die Brut der Geisteswissenschaftler?
      Was machen die Schwafelwissenschaften, die praktisch nichts anderes tun, als das schon längst Gesagte immer wieder zu zitieren, zu rezitieren, zu reproduzieren, zu rekombinieren, zu rediskutieren, neu aufzukochen, wenn sich herausstellt, dass deren Schwachsinn von KI leichter und besser (und billiger) zu erledigen ist?
      Sie also selbst innerhalb ihres Nutzosigkeits-Universums nochmal auf der Meta-Ebene rekursiv nutzlos geworden sind, sie nicht mal zur ihrer eigenen Nutzlosigkeit noch beitragen?
      Hängen die sich dann auf?
      Oder freuen die sich, weil sich dann jeder Lehrstuhl so ein KI-Ding hinstellt und dann für sein Geld nicht mehr nur wie früher nur nutzlos ist, sondern dann auch tatsächlich gar nichts mehr tut, als das Ding laufen zu lassen?
      Die Publikations-Hoaxe kennt man ja. Es ist eine Frage der Zeit, bis man irgendwann herausfindet, dass irgendein hoch gefeierter und meistzitierter Philosoph irgendwann vor 10 oder 15 Jahren verstorben ist und nur noch sein Skelett im Büro rumliegt, und alle Publikationen, Vorlesungen und Prüfungs­bewertungen von seiner KI kamen, die keiner abgeschaltet hat.
    • Politische KI, 1. August 2018
      Wir sind meines Wissens heute nicht in der Lage, das in einem KI-System nieder­geschlagene "gelernte Wissen" aus­zulesen und genau zu beschreiben. Das System macht etwas, was im Prinzip in einer Vielzahl von trainierten Werten, Parametern, nieder­geschlagen ist, aber wir können das nicht für jegliche Eingaben vorher­sagen, was daraus entsteht, wenn wir es nicht aus­probieren, und dafür könnten es einfach zu viele sein. Man kann beispielsweise nicht vorhersagen, wie sich ein bei Facebook oder Google auf die Erkennung von Pornographie trainiertes System verhalten wird, weil man es schlicht weder verstehen noch mit allen möglichen Bildern aus­testen kann. Woher weiß man also, dass diese Systeme nicht sabotiert oder manipuliert sind?
  • Ein Date mit A.I., Apolut am 17. März 2023
    Anreißer: A.I. oder "Artifical Intelligence" beschreibt "künstliche Intelligenz". Bericht über eine sowohl sehr nützliche als auch potentiell sehr gefährliche technische Entwicklung namens ChatGPT.
  • Wann hat Künstliche Intelligenz ein Bewußtsein?, Endariels Kanal am 26. Juni 2022, 46:18 Min.
  • Youtube-link-icon.svg Künstliche Intelligenz: Mehr als nur eine Sexpuppe - B.Z.-Video (6. April 2017) (Länge: 2:00 Min.) (Sexpuppe)
  • Youtube-link-icon.svg Vortrag "Industrie 4.0, Datenökonomie und Künstliche Intelligenz" - Andreas Wagener[ext] (Hochschule Hof am 26. Oktober 2016) (Länge: 62:20 Min.) (Industrie 4.0, Digitalisierung)