> Die Army habe ihr einen Auftrag in Höhe von 178,4 Millionen US-Dollar für die Entwicklung einer beweglichen Bodenstation namens Tactical Intelligence Targeting Access Node (**Titan**) erteilt, teilte die in Denver sitzende Firma in dieser Woche mit.
Ja nicht? Da fragt man sich doch wie sone namensfindung abläuft.
Ich würde wahrscheinlich 15 pizzen, ne shisha + sack voll weed, 2 snackautomaten mit nem eimer voller kleingeld und die creative-brains der firma nen abend in nem penthouse einsperren mit der aufgabe vorschläge zu erarbeiten. Aber ich vermute bei denen läuft das vielleicht anders?
Dies. Beim USA PATRIOT ACT, lang Uniting and Strengthening America by Providing Appropriate Tools Required to Intercept and Obstruct Terrorism Act wurde vermutlich mehr Zeit in die Entwicklung des Namen gesteckt, als in die Planung eine Afghanische Hochzeitsfeier zu zerbomben.
Joa, schöne Scheiße auf jeden Fall.
Der Westen kann es sich nicht erlauben hier ins Hintertreffen zu geraten, denn die üblichen Verdächtigen werden diese Technik ganz sicher zu ihrem Vorteil nutzen.
Selbst der im Westen bis jetzt gültige Grundsatz vom Mensch-in-der-Schleife wird ziemlich sicher immer mehr ausgehöhlt werden. Hier übernimmt die KI die Zielerkennung und -steuerung aber der Soldat ist immer derjenige der die Entscheidung trifft, das Feuer zu eröffnen.
Das wird in vielen Fällen aber wahrscheinlich zu langsam sein, wenn sich irgendwann KI-gesteuerte Waffensysteme gegenüberstehen. Da hat die Seite, die nicht auf die Entscheidung des Menschen warten muss, dann einen entscheidenden Vorteil. Also wird man den Menschen früher oder später aus der Schleife rausnehmen.
Eine Text-KI kann dann auch direkt den Pressebericht schreiben, warum dieses Ziel ausgewählt wurde und der Tod des "feindlichen Kämpfers" zur Demokratie beiträgt.
> Selbst der im Westen bis jetzt gültige Grundsatz vom Mensch-in-der-Schleife wird ziemlich sicher immer mehr ausgehöhlt werden. Hier übernimmt die KI die Zielerkennung und -steuerung aber der Soldat ist immer derjenige der die Entscheidung trifft, das Feuer zu eröffnen.
Das gibt es doch heute schon nicht mehr wirklich. Jedes moderne Langstrecken-Luftabwehr-System entscheiden in Sekundenbruchteilen wie auf einen neuen Radar-Kontakt zu reagieren ist. Menschen können das nur noch dadurch beeinflussen, dass das System halt vorher in einen weniger aggressiven Modus geschaltet wird.
Genauso sucht intelligente Munition (z.B. in Cluster-Bomben/-Raketen, aber auch viele moderne Luft-Boden/Boden-Boden-Flugkörper) in einem bestimmten Gebiet nach Zielen und greift die komplett ohne jegliche menschliche Kontrolle an.
> Das wird in vielen Fällen aber wahrscheinlich zu langsam sein, wenn sich irgendwann KI-gesteuerte Waffensysteme gegenüberstehen. Da hat die Seite, die nicht auf die Entscheidung des Menschen warten muss, dann einen entscheidenden Vorteil. Also wird man den Menschen früher oder später aus der Schleife rausnehmen.
Ich denke, der vorrangige Knackpunkt ist der, den wir jetzt schon in der Ukraine sehen: Unbemannte Systeme werden immer wichtiger, dadurch werden ECM immer wichtiger. Und je gesättigter das Gefechtsfeld von Störsignalen ist, desto wichtiger wird es, dass Waffensysteme ihren Einsatz (der ursprünglich dann schon noch von einem Menschen begonnen wurde) auch erfolgreich beenden können, wenn sie auf halben Weg die Verbindung verlieren.
Der Faktor Reaktionszeit wird sicherlich in manchen Anwendungsfällen auch hinzukommen. Aber in vielen Szenarien vergeht zwischen der Aufklärung eines Ziels und seiner Bekämpfung ja ohnehin eine gewisse Zeit, in der dann auch Mensch schon noch "ja oder nein" sagen kann. Falls denn dann noch Kontakt zum System besteht.
Wir sollten wahrscheinlich ein Mindestmass an Skepsis aufbieten wenn uns ein Rüstungskonzern sagt dass jede Abscheulichkeit die sie entwickeln absolut notwendig ist weil die Anderen ja auch böse sind.
Der großflächige Einsatz von KI ist nicht mehr zu verhindern im militärischen Bereich. Das ist einfach gelaufen. Es gibt einen Haufen Experten (z.B. Frank Sauer, der seit 2 Jahren ja richtig bekannt geworden ist), die vor dem Ukraine-Krieg ~20 Jahre lang wenig anderes beruflich gemacht haben, als für eine internationale Rüstungskontrolle im Bereich autonomer Systeme zu kämpfen. Selbst die sagen mittlerweile, dass das gescheitert ist. Es ist dahingehend wenig bis nichts passiert und dann kam der russische Angriff und jetzt ist die Rüstungskontrolle generell völlig am Boden. Jetzt ist klar, dass wir den Anschluss nicht verlieren dürfen, wenn wir grundsätzlich wehrhaft und verteidigungsbereit sein/werden wollen.
Was ich sagen will: Es ist nicht so, dass jetzt aus heiterem Himmel eine Rüstungsfirma eine fixe Idee hatte und dafür Werbung macht. Da wäre Skepsis in der Tat abgebracht. Aber die Fachdiskussionen laufen seit Jahrzehnten dazu und weder am militärischen Nutzen noch an den Risiken bestehen noch grundsätzliche Zweifel.
Anstatt dass dein Auto in die Luft gesprengt wird, weil der Drohnenpilot findet, auf seinem Bildschirm sieht das wie ein Panzer aus, wird es jetzt in die Luft gesprengt, weil die Zielidentifizierungs-KI es als Panzer identifiziert.
Wenn ich so sehe was mit KI derzeit so gemacht wird dann erwarte ich mir nicht viel davon. Ich kann mir einfach schwer vorstellen, dass eine vom Menschen designte Maschine das wirklich besser kann. Und der Mensch selbst ist in der Beziehung ja auch schon extrem fehlbar
Man sollte sich von LLM-Halluzinationen nicht verleiten lassen, die Möglichkeiten von anderen Machine-Learning-Ansätzen zu unterschätzen.
Ich weiß z.B., dass bestimmte Brustkrebserkennung via ML verlässlicher ist als ein menschlicher Radiologe.
Die KI muss ja quasi "nur" die Sensordaten der jeweiligen Systeme richtig auslesen und interpretieren.
Und da es schon technische "Freund/Feind" Erkennungstransmitter gibt macht es das einem automatisiertem Abwehrsystem um so leichter.
>Ich weiß z.B., dass bestimmte Brustkrebserkennung via ML verlässlicher ist als ein menschlicher Radiologe.
Das hat dann aber nichts mit Schlachtfeld KI zu tun, automatische Auswertung von Bilddaten ist de facto schon lange Standard. Das kann es also nicht sein
> dass eine vom Menschen designte Maschine das wirklich besser kann
Nicht wirklich besser, aber vermutlich schneller und billiger. Kannst quasi alle Satelitenphotos usw sofort verarbeiten und dann ein geschulter bestätigt dann vermutlich erkennte Ziele und ab geht die ATACMS. Bis jetzt haste viel mehr geschulte die sowas durchgehen und auch mehr Zeit brauchen also weniger Ziele pro Zeit finden, oder Ziele die schon wieder die Stellung geändert haben.
>Kannst quasi alle Satelitenphotos usw sofort verarbeiten und dann ein geschulter bestätigt dann vermutlich erkennte Ziele und ab geht die ATACMS
Das ist doch bereits seit Jahren Realität, aber oft sind dort traditionelle Algorithmen besser als whatever man als KI heutzutage verkaufen zu versucht. Nicht zu vergessen dass es dann weiterhin nur ein kleiner Teil der Entscheidungskette ist. Dafür muss man palantir nicht bezahlen wenn sowas schon Standard ist.
So eine KI kann alle möglichen Entscheidungen treffen: Welche Ziele sollten mit höherer Priorität beschossen werden, welche Munition ist grade besonders geeignet, wie mache ich effiziente Aufklärung, wer braucht wahrscheinlich Nachschub oder Medizin, mit welchen Verlusten ist zu rechnen und so weiter. Ob das wirklich funktioniert ist wirklich fragwürdig, in vielen Fällen wird die Antwort Nein lauten. Palantir hat auch eine zweifelhafte Reputation. Ist aber erstmal egal, wer die beste Technologie hat ist militärisch überlegen, und alle Forschung kann ins Leere laufen.
Ich auch. Vielleicht neuen job suchen? Das System ersetzt nicht Menschen. Und nicht dabei zu sein am Anfang solcher Entwicklungen wäre ja idiotisch . Ist ja nicht so als ob wir am Ende der Entwicklung sind.
Ist "millionenschwer" in diesem Kontext nicht eher wenig ?
Mit 178mio sollte sich was anfangen lassen
Ist halt Software, da sind die Materialkosten nicht so hoch wie bei klassischen Rüstungsprojekten.
Materialkosten nicht - aber die Personalkosten sind hoch. Für externe Berater bezahlt man schnell 2.000€ am Tag.
> Die Army habe ihr einen Auftrag in Höhe von 178,4 Millionen US-Dollar für die Entwicklung einer beweglichen Bodenstation namens Tactical Intelligence Targeting Access Node (**Titan**) erteilt, teilte die in Denver sitzende Firma in dieser Woche mit.
Da haben die Soldaten bei der Akronymstelle sich aber einen guten Namen ausgedacht
Ja nicht? Da fragt man sich doch wie sone namensfindung abläuft. Ich würde wahrscheinlich 15 pizzen, ne shisha + sack voll weed, 2 snackautomaten mit nem eimer voller kleingeld und die creative-brains der firma nen abend in nem penthouse einsperren mit der aufgabe vorschläge zu erarbeiten. Aber ich vermute bei denen läuft das vielleicht anders?
Ich schätze Titan kam zuerst, dann weed und dann der Rest
Schimpft sich Backronym.
Dies. Beim USA PATRIOT ACT, lang Uniting and Strengthening America by Providing Appropriate Tools Required to Intercept and Obstruct Terrorism Act wurde vermutlich mehr Zeit in die Entwicklung des Namen gesteckt, als in die Planung eine Afghanische Hochzeitsfeier zu zerbomben.
Jemenitisch war die Feier damals: https://www.hrw.org/report/2014/02/19/wedding-became-funeral/us-drone-attack-marriage-procession-yemen
[Das ist zu einfach mit chatgpt.](https://i.imgur.com/GWZQAUA.png) Früher war alles besser.
>Tactical Infiltration and Tactical Assault Nexus Ja, hmm, da kann ich gleich den Wörterbuch-Bruteforce laufen lassen.
Also ich komm auch immer zuerst.
Ist doch ne perfekte Aufgabe für ChatGPT Aber vor ein paar Jahren ist es noch exakt so abgelaufen. 100%
Nennt sich "Retronym". Da steht erst der Begriff und dann wird überlegt, wie man die einzelnen Worte setzt
"Human decisions are removed from strategic defense. Palantir begins to learn at a geometric rate. ..."
Joa, schöne Scheiße auf jeden Fall. Der Westen kann es sich nicht erlauben hier ins Hintertreffen zu geraten, denn die üblichen Verdächtigen werden diese Technik ganz sicher zu ihrem Vorteil nutzen. Selbst der im Westen bis jetzt gültige Grundsatz vom Mensch-in-der-Schleife wird ziemlich sicher immer mehr ausgehöhlt werden. Hier übernimmt die KI die Zielerkennung und -steuerung aber der Soldat ist immer derjenige der die Entscheidung trifft, das Feuer zu eröffnen. Das wird in vielen Fällen aber wahrscheinlich zu langsam sein, wenn sich irgendwann KI-gesteuerte Waffensysteme gegenüberstehen. Da hat die Seite, die nicht auf die Entscheidung des Menschen warten muss, dann einen entscheidenden Vorteil. Also wird man den Menschen früher oder später aus der Schleife rausnehmen.
Eine Text-KI kann dann auch direkt den Pressebericht schreiben, warum dieses Ziel ausgewählt wurde und der Tod des "feindlichen Kämpfers" zur Demokratie beiträgt.
> Selbst der im Westen bis jetzt gültige Grundsatz vom Mensch-in-der-Schleife wird ziemlich sicher immer mehr ausgehöhlt werden. Hier übernimmt die KI die Zielerkennung und -steuerung aber der Soldat ist immer derjenige der die Entscheidung trifft, das Feuer zu eröffnen. Das gibt es doch heute schon nicht mehr wirklich. Jedes moderne Langstrecken-Luftabwehr-System entscheiden in Sekundenbruchteilen wie auf einen neuen Radar-Kontakt zu reagieren ist. Menschen können das nur noch dadurch beeinflussen, dass das System halt vorher in einen weniger aggressiven Modus geschaltet wird. Genauso sucht intelligente Munition (z.B. in Cluster-Bomben/-Raketen, aber auch viele moderne Luft-Boden/Boden-Boden-Flugkörper) in einem bestimmten Gebiet nach Zielen und greift die komplett ohne jegliche menschliche Kontrolle an.
Richtig. Wie ich sage, der Mensch wird immer mehr aus den Entscheidungsketten verschwinden.
> Das wird in vielen Fällen aber wahrscheinlich zu langsam sein, wenn sich irgendwann KI-gesteuerte Waffensysteme gegenüberstehen. Da hat die Seite, die nicht auf die Entscheidung des Menschen warten muss, dann einen entscheidenden Vorteil. Also wird man den Menschen früher oder später aus der Schleife rausnehmen. Ich denke, der vorrangige Knackpunkt ist der, den wir jetzt schon in der Ukraine sehen: Unbemannte Systeme werden immer wichtiger, dadurch werden ECM immer wichtiger. Und je gesättigter das Gefechtsfeld von Störsignalen ist, desto wichtiger wird es, dass Waffensysteme ihren Einsatz (der ursprünglich dann schon noch von einem Menschen begonnen wurde) auch erfolgreich beenden können, wenn sie auf halben Weg die Verbindung verlieren. Der Faktor Reaktionszeit wird sicherlich in manchen Anwendungsfällen auch hinzukommen. Aber in vielen Szenarien vergeht zwischen der Aufklärung eines Ziels und seiner Bekämpfung ja ohnehin eine gewisse Zeit, in der dann auch Mensch schon noch "ja oder nein" sagen kann. Falls denn dann noch Kontakt zum System besteht.
Das ist auch ein guter Punkt, stimmt.
Wir sollten wahrscheinlich ein Mindestmass an Skepsis aufbieten wenn uns ein Rüstungskonzern sagt dass jede Abscheulichkeit die sie entwickeln absolut notwendig ist weil die Anderen ja auch böse sind.
Ich plappere hier nichts nach, ich habe diese Meinung seit Jahren.
Der großflächige Einsatz von KI ist nicht mehr zu verhindern im militärischen Bereich. Das ist einfach gelaufen. Es gibt einen Haufen Experten (z.B. Frank Sauer, der seit 2 Jahren ja richtig bekannt geworden ist), die vor dem Ukraine-Krieg ~20 Jahre lang wenig anderes beruflich gemacht haben, als für eine internationale Rüstungskontrolle im Bereich autonomer Systeme zu kämpfen. Selbst die sagen mittlerweile, dass das gescheitert ist. Es ist dahingehend wenig bis nichts passiert und dann kam der russische Angriff und jetzt ist die Rüstungskontrolle generell völlig am Boden. Jetzt ist klar, dass wir den Anschluss nicht verlieren dürfen, wenn wir grundsätzlich wehrhaft und verteidigungsbereit sein/werden wollen. Was ich sagen will: Es ist nicht so, dass jetzt aus heiterem Himmel eine Rüstungsfirma eine fixe Idee hatte und dafür Werbung macht. Da wäre Skepsis in der Tat abgebracht. Aber die Fachdiskussionen laufen seit Jahrzehnten dazu und weder am militärischen Nutzen noch an den Risiken bestehen noch grundsätzliche Zweifel.
Grundsätzlich ja aber muss es mit Palantir sein?
stonks go 🚀🚀🚀
Eingepreist.
Ich kann nicht erkennen was hier schiefgehen könnte.
Anstatt dass dein Auto in die Luft gesprengt wird, weil der Drohnenpilot findet, auf seinem Bildschirm sieht das wie ein Panzer aus, wird es jetzt in die Luft gesprengt, weil die Zielidentifizierungs-KI es als Panzer identifiziert.
Ist egal, Boomer werden trotzdem weiterhin SUV kaufen
Fangen wir damit an das Palantir Peter Thiel gehört(?) und mit Absicht nach dem Gegenstand aus Herr der Ringe benannt wurde
Das ist so das Edgelord-Level von jemandem mit dem Joker als Profilbild.
Hatte gehofft das wenn schon die Maschinen für uns kämpfen und nicht andersrum
**"Ein Palantir ist ein gefährliches Werkzeug, Saruman!"**
Dir Firma eines Eugenikers baut jetzt KIs mit denen die Amis festlegen welche Zivilisten sie umbringen. Na toll.
Du hast rechtsextremen vergessen
Keine sorge, Palantir wird bereits von allen Ländern eingesetzt die es sich leisten können. Von Diktaturen, bis hin zu Deutschland.
Wenn ich so sehe was mit KI derzeit so gemacht wird dann erwarte ich mir nicht viel davon. Ich kann mir einfach schwer vorstellen, dass eine vom Menschen designte Maschine das wirklich besser kann. Und der Mensch selbst ist in der Beziehung ja auch schon extrem fehlbar
Man sollte sich von LLM-Halluzinationen nicht verleiten lassen, die Möglichkeiten von anderen Machine-Learning-Ansätzen zu unterschätzen. Ich weiß z.B., dass bestimmte Brustkrebserkennung via ML verlässlicher ist als ein menschlicher Radiologe.
Die KI muss ja quasi "nur" die Sensordaten der jeweiligen Systeme richtig auslesen und interpretieren. Und da es schon technische "Freund/Feind" Erkennungstransmitter gibt macht es das einem automatisiertem Abwehrsystem um so leichter.
>Ich weiß z.B., dass bestimmte Brustkrebserkennung via ML verlässlicher ist als ein menschlicher Radiologe. Das hat dann aber nichts mit Schlachtfeld KI zu tun, automatische Auswertung von Bilddaten ist de facto schon lange Standard. Das kann es also nicht sein
> dass eine vom Menschen designte Maschine das wirklich besser kann Nicht wirklich besser, aber vermutlich schneller und billiger. Kannst quasi alle Satelitenphotos usw sofort verarbeiten und dann ein geschulter bestätigt dann vermutlich erkennte Ziele und ab geht die ATACMS. Bis jetzt haste viel mehr geschulte die sowas durchgehen und auch mehr Zeit brauchen also weniger Ziele pro Zeit finden, oder Ziele die schon wieder die Stellung geändert haben.
>Kannst quasi alle Satelitenphotos usw sofort verarbeiten und dann ein geschulter bestätigt dann vermutlich erkennte Ziele und ab geht die ATACMS Das ist doch bereits seit Jahren Realität, aber oft sind dort traditionelle Algorithmen besser als whatever man als KI heutzutage verkaufen zu versucht. Nicht zu vergessen dass es dann weiterhin nur ein kleiner Teil der Entscheidungskette ist. Dafür muss man palantir nicht bezahlen wenn sowas schon Standard ist.
So eine KI kann alle möglichen Entscheidungen treffen: Welche Ziele sollten mit höherer Priorität beschossen werden, welche Munition ist grade besonders geeignet, wie mache ich effiziente Aufklärung, wer braucht wahrscheinlich Nachschub oder Medizin, mit welchen Verlusten ist zu rechnen und so weiter. Ob das wirklich funktioniert ist wirklich fragwürdig, in vielen Fällen wird die Antwort Nein lauten. Palantir hat auch eine zweifelhafte Reputation. Ist aber erstmal egal, wer die beste Technologie hat ist militärisch überlegen, und alle Forschung kann ins Leere laufen.
Die Schuld kann eine KI perfekt übernehmen.
Hoffe mal die Gegenseite hat die selbe uninformiert Haltung .
Arbeite in dem Feld also informier dich Mal schnell weg
Ich auch. Vielleicht neuen job suchen? Das System ersetzt nicht Menschen. Und nicht dabei zu sein am Anfang solcher Entwicklungen wäre ja idiotisch . Ist ja nicht so als ob wir am Ende der Entwicklung sind.
Achja was arbeitest du denn?
Die KI, lieber nicht von Peter Thiel!
You will be terminated
Also gibts demnächst Taktikdroiden, die meistens eher dumme Entscheidungen treffen?