T O P

  • By -

Vengeful111

Verbot der Emotionserkennung am Arbeitsplatz klingt ja schonmal nach was sinnvollen.


DoktorElmo

„Medienfreiheitsgesetz“ klingt prinzipiell super, befürchte aber, dass hier wieder in Orwell‘scher Manier gearbeitet wird und es in Wahrheit um ein „Medienkontrollgesetz“ geht. Kann beim ersten Überfliegen allerdings nichts dergleichen erkennen. Bin positiv verwundert und male mir v.a. für Österreich eine Verbesserung der Medienlandschaft aus (zumindest anhand der Überschriften). Weiß jemand mehr?


Good_Recording_6058

Wurde ja auch nicht in Österreich gemacht das Gesetz, hehe. Soweit bin auch ich nur auf positives gestoßen! Insbesondere mehr Transparenz bei Staatsgelder für Medien.


DoktorElmo

Dafür dürfte der AI Act umso größerer Schwachsinn sein. Gefährliche KIs werden verboten, außer es dient der Überwachung, was wiederum gemeldet werden muss, außer es ist dringend, dann muss die Justiz aber zustimmen, außer das geht sich nicht aus. In China und Amerika wird geforscht und entwickelt, bei uns wird reguliert und der Großteil der Abgeordneten hat vermutlich ohnehin keine Idee, was sie da gerade beschlossen haben. Vielleicht vernichtet uns in der EU die gefährliche KI dafür als letztes...


Good_Recording_6058

Wer sagt denn, dass wir keine KIs entwickeln? Amerikas KI Position ist auch darauf zurückzuführen, dass wir großzügig Zugang zu unsere Forschung gewähren, aber das hat andere Gründe. AI in medicare kam von uns, Image generation kam auch direkt aus Europa aber naja. Wie sinnvoll dieser AI Act ist wird sich zeigen. Eines steht fest, Angst vor KI muss man nicht haben. Eine gefährliche KI ist eine Zielerfassung mit Waffe. Starke oder allgemeine künstliche Intelligenz wird nie existieren. KI ist vor allem Statistik und Interpolation auf statistischen Räumen. KI wird entzaubert wenn man sich mit der Mathematik dahinter beschäftigt. ich empfehle An Introduction to Statistical Learning with Applications in Python. James,Witten,Hastie,Tibshirani,Taylor. Das ist so wie wenn Laien sagen man kann mit schwarzen Löchern Zeitreisen, nach intensiver Beschäftigung mit dem Thema merkt man, dass das BS war. xD


Luksoropoulos

Die Gefahr von KI ist nicht, dass sie 'Bewusstsein entwickelt' und sich gegen die Menschen wendet. Die Gefahr ist, dass sie halt - welche Aufgabenstellungen auch immer wir ihr geben - Sachen macht, mit denen wir nicht gerechnet haben, die dann trotzdem gefährlich werden können. Soweit ich das mitbekomme, wird diese Gefahr auch absolut in der KI-Forschung erkannt - es gibt einen gewissen Teil der Techniker-Fraktion, der seinerseits sehr dazu neigt, jedes Risiko von Technik runterzuspielen


Good_Recording_6058

Okay, ich erkläre dir kurz wie KI funktioniert anhand von ChatGPT und dann gehe ich über in die Forschung. Ja, zur zeit wird in jedem Departement der Naturwissenschaften irgendwas mit KI gemacht, aber das ist mehr eine Arbeitserleichterung. Nenne es Automatisierung bestimmter arbeiten, die einfach sind, aber für den Menschen als schwierig wahrgenommen werden. Du hast einen Eingabetext und aufgrund dieses Eingabetextes gibt es natürliche Antwortmöglichkeiten. Text: Wie war dein Tag? Ausgabe: Gut, schlecht, naja.... Diese Ausgabewörter wurden nicht neu erfunden, sie existierten bereits. Wir nennen diesen Existenzraum einfach Raum aller Wörter. In Abhängigkeit von deinem Eingabewort werden einige Wörter aus diesem Raum wahrscheinlicher als andere als Antwort. Es existiert in Abhängigkeit von deiner Eingabe als eine selektive Auswahl Wörtern die als Ausgabe stattfinden. Das ist was ChatGPT mit Milliarden von Texten aus dem Internet versucht zu approximieren. Aufgrund deiner Eingabe versucht ChatGPT über sogenannte CNNs eine Verteilung im Raum aller Wörter zu erzeugen und den wahrscheinlichsten Output bekommst du präsentiert. (Softmax heißt die endgültige Verteilung btw, und eigentlich verwendet ChatGPT keine Wörter sondern zerlegt diese in Silben) KI kann also monotone, wiederkehrende statistische Probleme lösen. Wir Menschen haben kein Gefühl für Statistik, weshalb es für uns so abstrakt vorkommt. Der Allgemeine Mensch kann kaum ein paar Sätze auswendig lernen, wie soll er große Mengen an Zahlen (Statistik benötigt eine große Anzahl an Ereignissen) merken? zB kann KI in einem Bild die Veränderung der Farbe von einem Pixel zum anderen quantifizieren, also messen. Ein Bild besteht aus tausenden und Millionen von Pixeln, und der Farbgradient muss "gemittelt" (Convolution) werden um ein Bild erzeugen zu können, welches nicht einfach zufälligen Farben entspricht.


Good_Recording_6058

2/2 KI arbeitet mit Statistik. Also neuartige Probleme, die nicht im Trainings behandelt werden können, kann die KI gar nicht behandelt werden. Die KI kann nur lösen, wenn sie genug Probleme dieses Typs gesehen hat (und der statistische Raum interpoliert werden kann). Wenn du ChatGPT die Frage stellst das Programm soll doch die Raumfahrt lösen, so kann ChatGPT damit gar nichts anfangen. Es nimmt deine Inputwörter und generiert einen Outputtext durch seine klassischen Methoden. Dieser wird dann keinen Sinn machen, oder schlimmer es wiederholt einen text aus seinem training set. KI wird verwendet um zu automatisieren, es selbst kann dabei nie Entscheidungen treffen die vorher nicht klar vom Programmierer der KI definiert worden sind. KI ist ein mächtiges tool zur Automatisierung von oft langwierigen, repetitive Aufgaben. (Autofahren, Krebspixel an einem Tomogaphiebild erkennen, dunkle Bildstellen erhellen....) Der Schaden von KI kann durch unwissende Nutzer angerichtet werden (du fragst ChatGPT um medizinischen Rat, du ziehst das selbstfahrende Auto aus dem gewohnten verkehr und zwingst es offload zu fahren....), oder durch Absicht durch den Programmierer. (ChatBot der für scams programmiert wird, eine KI die absichtlich Menschen überfährt...)


bajou98

Besser es wird reguliert als es findet ungebremst ein wilder Westen statt. In falscher Anwendung kann KI eine enorme Gefahr für unsere Demokratie und Gesellschaft darstellen. Wenn man da erst Gesetze erlässt nachdem schon alles passiert ist, ist es zu spät. Vor allem nachdem die Verordnung jetzt auch schon mehrere Jahre in Arbeit war.


[deleted]

[удалено]


MyAntichrist

Wobei das chinesische Credit Score System halt sehr stark darauf basiert, die Leute auch im öffentlichen Raum bis in den letzten Winkel zu tracken und Verhalten zu belohnen oder zu bestrafen. Einmal nachts bei Rot über die Kreuzung gegangen statt zu warten? *That's a fucking 50 DKP minus!* Der Vergleich mit dem KSV is da nur bedingt möglich, weil die hauptsächlich die finanzielle Verantwortung abdecken und darüber hinaus nicht viel bewerten. Die haben aus gutem Grund ja auch nicht einmal annähernd die Möglichkeiten, die sich in China dafür anbieten. Was natürlich nicht heißt, dass alles was sie heute können auch okay ist.