Künstlilche Intelligenz und die Geschichte von Bundeswehreinheiten

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • Nemere
    Cold Warrior
    • 12.06.2008
    • 2880

    #1

    Künstlilche Intelligenz und die Geschichte von Bundeswehreinheiten

    Künstliche Intelligenz und die Geschichte von Bundeswehreinheiten

    Wegen dem allgemeinen Hype um KI und wie toll diese Programme nach Meinung mancher Zeitgenossen bereits wären und das man mit diesem Programmen Antwort auf alle Fragen bekommen könnte, habe ich ein bißchen mit dem KI-Programm ChatGPT gespielt.

    Ich habe eine ganz einfache Frage zum Panzerregiment 200 gestellt. Da die Antwort hochgradiger Schwachsinn war, habe ich dann eine Frage zum nie existierenden Panzerregiment 500 gestellt. Ich hatte natürlich erwartet, dass das Vorhandensein dieses Verbandes ganz klar verneint worden wäre. Als Antwort kam aber ein blumiges Märchen, das auch in Grimms Kinder- und Hausmärchen gepasst hätte. KI erfindet vier Panzerbataillone (501 bis 504), die angeblich diesem fabulösen Panzerregiment 500 unterstanden hätte, weiter werden vier Standorte erdichtet (Mönchengladbach, Wesel, Dülmen, Bielefeld), wo nie ein Panzerbataillon lag.

    In der Anlage das Protokoll meiner Diskussion mit ChatGPT. Kursiv und fett meine Fragen, nach der Trennlinien dann die Antworten.

    Wer Lust hat, kann heraussuchen, welche Fehler KI hier noch hervorgebracht hat.

    Meine persönliche Erkenntnis: Schlicht und ergreifend unbrauchbar zur Beantwortung von Fragen. Diese KI-Programme erfinden nötigenfalls Fakten und Quellen- oder Literaturangaben, statt klar ihre Unfähigkeit einzugestehen, eine Frage beantworten zu können.

    Das war jetzt nur eine Spielerei von mir ohne jede praktische Bedeutung, aber mein Vertrauen in die Anwendung von KI auch in anderen Lebensbereichen ist dadurch noch geringer geworden, als es bisher schon war.
    Angehängte Dateien
  • Malefiz
    Cold Warrior
    • 22.12.2010
    • 384

    #2
    Hallo Nemere,
    das entspricht meiner Erfahrung. In meinem Umfeld wurde behauptet, dass viele Studenten Ihre Hausarbeiten (bei uns Vorträge für Seminare über festgelegte naturwissenschaftliche Themen) von ChatGPT schreiben lassen.
    Ich habe das ausprobiert. Mit ähnlichen Fragestellungen wie Du sie benutzt hast. Ergebnis war, dass da nur Unsinn herauskam.
    Wenn man aber einen Artikel zugrunde legt und evtl. übersetzten und verfremden läßt, bekommt man ganz ansehnliche Ergebnisse.

    Kommentar

    • DeltaEcho80
      Cold Warrior
      • 09.03.2013
      • 1725

      #3
      Schade, dass ihr solche negativen Erfahrungen mit dem Thema gemacht habt.

      Aber - was ihr vielleicht bei der Nutzung von KI-Programmen im Hinterkopf haben solltet: Alle Formen der KI haben als Datengrundlage das Netz. ChatGPT und alle anderen machen also nichts anderes, als sich aus den Suchmaschinen der einzelnen Anbieter die Informationen, die man fragt, zusammen zu suchen und dann in einen eleganten Text zu kleiden. Das ist u.a. erkennbar am Zeitversatz zwischen Frage und Antwort. Das ist die Zeit, die der Bot zum Suchen braucht.

      Was man vielleicht nun mal gegenprüfen kann, ist, was über das Panzerregiment 200 der BW im Netz zu finden ist - ich wage zu behaupten, dass das genau das ist, was dir, Nemere, der CGPT als Antwort gebracht hat. Bei der schnellen Suche nebenbei habe ich z.B. gar nichts konkretes gefunden.

      Bei deiner Frage nach der Gliederung hat die Maschine dann eben "ähnliche" Informationen genommen, die es zu einem Panzerregiment finden konnte. Bei den einzelnen Einheiten des fiktiven Panzerregimentes 500 hat er eben zum Regiment nichts gefunden, aber irgendwo die Verknüpfung 500 zu anderen Bataillonen oder Einheiten "gebastelt". Da zieht er dann die Suchkaskade einfach immer weiter.

      Was dann auch noch interessant ist: Wenn du z.B. die kostenfreie Version von ChatGPT genutzt hast, ist das eben die "Light-Version", bei der die Suchqualität usw. nicht so detailliert eingestellt wird, wie z.B. für eine kostenpflichtige Version.

      Ich selbst habe auch schon recht positive Erfahrungen mit diesen Hilfsmitteln machen können und nutze ChatGPT öfters einmal wohldosiert für z.B. Texte für unsere Feuerwehr-Homepage oder die Moderation des Frühjahrskonzertes meiner Musikkapelle.

      Wobei ich hier natürlich nicht ungefiltert alles nutze, sondern das dann schon in meinem "Style" noch umschreibe.

      Diese Programme kann man z.B. auch sehr gut für Zusammenfassungen seitenlanger pdf-Elaborate nutzen. Was allerdings in der Fachwelt momentan für sehr emotionale Diskussionen sorgt, ist der Umstand, dass z.B. Microsoft die Office-Programme mit einem KI-Assistenten ausgestattet hat, der dann im Excel oder Word seine Hilfe anbietet. Auch der Edge als Internet-Browser bekommt immer mehr KI-Tools.

      Aber auch Adobe hat in den neuesten Acrobat nun KI-Tools eingebaut.

      Hier gilt das selbe wie z.B. bei den Social-Media-Themen: Das "Zeug" an sich ist weder gut noch schlecht, es ist eine "dumme" Software. Es kommt immer drauf an, wie man es nutzt und was man draus macht. Beispiel ist google maps: Die Anwendung ist sicher nicht schlecht, hat aber auch noch ihre Macken und man sollte nicht komplett blindlings darauf vertrauen.

      Was ich rüber bringen will: Man muss das genau beobachten und den Umgang sehr genau hinterfragen.
      Zuletzt geändert von DeltaEcho80; 28.01.2025, 22:07.

      Kommentar

      • Malefiz
        Cold Warrior
        • 22.12.2010
        • 384

        #4
        Zitat von DeltaEcho80 Beitrag anzeigen
        Schade, dass ihr solche negativen Erfahrungen mit dem Thema gemacht habt.

        Aber - was ihr vielleicht bei der Nutzung von KI-Programmen im Hinterkopf haben solltet: Alle Formen der KI haben als Datengrundlage das Netz. ChatGPT und alle anderen machen also nichts anderes, als sich aus den Suchmaschinen der einzelnen Anbieter die Informationen, die man fragt, zusammen zu suchen und dann in einen eleganten Text zu kleiden. Das ist u.a. erkennbar am Zeitversatz zwischen Frage und Antwort. Das ist die Zeit, die der Bot zum Suchen braucht.

        .....
        Was ich rüber bringen will: Man muss das genau beobachten und den Umgang sehr genau hinterfragen.
        Es scheint, dass ChatGPT da gewisse Freiheitsgrade hat. Man kann ja, zum Beispiel, auch Bilder erzeugen lassen. Bei der Zahl der Arme und Beine sowie Finger und Zehen nimmt es das Programm nicht so genau.-

        Welche Quellen genutzt werden ist mir nicht so ganz klar. Die Erfindung von Einheiten mit Standorten läßt sich nicht aus dem Internet ableiten. Die Qualität der Ergebnisse hängt sicher auch von der Qualität der Trainer ab. Da kann man merkwürdige Angaben zu finden.
        Microsoft will ja abenteuerliche Summen im Abo haben.

        Der letzte Satz stimmt ganz sicher.

        Kommentar

        • Nemere
          Cold Warrior
          • 12.06.2008
          • 2880

          #5
          Zitat von DeltaEcho80 Beitrag anzeigen
          Schade, dass ihr solche negativen Erfahrungen mit dem Thema gemacht habt.

          Aber - was ihr vielleicht bei der Nutzung von KI-Programmen im Hinterkopf haben solltet: Alle Formen der KI haben als Datengrundlage das Netz. ChatGPT und alle anderen machen also nichts anderes, als sich aus den Suchmaschinen der einzelnen Anbieter die Informationen, die man fragt, zusammen zu suchen und dann in einen eleganten Text zu kleiden.
          ...

          Das "Zeug" an sich ist weder gut noch schlecht, es ist eine "dumme" Software.
          Hallo Dietmar,

          das ist mir alles klar.
          Wenn das KI-Programm zu meiner Frage nichts im Netz findet und mir dann mitteilt, dass es zu meiner Fragestellung keine Erkenntnisse hat, dann ist das in Ordnung.

          Was ich beanstande und was ich für brandgefährlich halte, ist die Tatsache, dass diese Programme dann "Fakten" und "Quellen" erfinden. Das habe ich auch bei anderen, nicht-militärischen Themen festgestellt.
          Beispiel: Ich war im vorigen Sommer maßgeblich an einer Magnetometer-Prospektion am Standort einer ehemaligen Burg im Frankenwald beteiligt. Diese Burg ist vor annähernd 700 Jahren verschwunden, es gibt außer den bei der Magnetometer-Prospektion festgestellten Spuren der Palisaden und den Brandspuren des Grundrisses keinerlei Überbleibsel. Genauso dürftig ist die Quellen- / Literaturlage. Die Burg war mit Sicherheit um 1350 nicht mehr vorhanden. Also habe ich probehalber KI bemüht, ohne große Erwartungen zu haben. Was liefert mir KI:
          "Die Geschichte der Familie Schleer, die mit dem Schloss verbunden ist, spielt dabei eine zentrale Rolle. Diese Adelsfamilie war im Mittelalter in der Region Hof und Umgebung einflussreich und wohlhabend.
          Im Laufe der Jahre verlor das Schloss an Bedeutung und wurde schließlich im 18. Jahrhundert, nach dem Ende des Dreißigjährigen Krieges, zunehmend vernachlässigt. Teile der Burg verfielen, und das Gebäude wurde schließlich zu einem Schloss im barocken Stil umgebaut.
          Heute ist das Schleeschloss eine Ruine, die zum Teil restauriert wurde, aber noch immer viel von der mittelalterlichen Architektur und dem Charme der früheren Zeiten ausstrahlt."


          Weder gab es eine Adelsfamilie Schleer, noch wurde dort ein Schloss im barocken Stil erbaut und es gibt auch keine Ruine des Schleeschlosses. Also Nonsens hoch Drei!
          Dann habe ich nach Quellen und Literatur zu diesen Behauptungen gefragt. Daraufhin wurden mir erfundene, niemals existierende Bücher und Autoren präsentiert, es wurde schlicht und ergreifend gelogen.
          Anscheinend sind KI-Programme so ausgelegt, dass sie auf jeden Fall irgendwelche Antworten präsentieren, um ihre Einmaligkeit und Notwendigkeit immer wieder unter Beweis zu stellen, anstatt einfach zu sagen: Dazu weiß ich nichts.

          Diese Programme sind unbrauchbar, unzuverlässig und gefährlich. Gefährlich vor allem deshalb, weil Anwendungen dieser Art trotz ihrer bewiesenen Unbrauchbarkeit wahrscheinlich auch längst zu Entscheidungsfindungen in anderen Bereichen des täglichen Lebens herangezogen werden.

          Die gleichen Erfahrungen habe ich auch beim Erstellen von Zusammenfassungen gemacht. Ich habe z.B. zu einen von mir verfassten Aufsatz zum Hofer Oberbürgermeister während der NS-Zeit eine Zusammenfassung erstellen lassen. Eine Katastrophe, eine Anhäufung von Allgemeinplätzen, die nicht im geringsten auf die Inhalte einging.

          Somit kann ich auch keine Zeitersparnis bis der Verwendung dieser KI-Programme erkennen. Bei der erwiesenen Unzuverlässigkeit dieser Anwendungen muss ich alle gelieferten Ergebnisse doch wieder zeitraubend mehr oder weniger manuell überprüfen.

          Man kann natürlich KI auch wunderbar verwenden, um Fakes zu produzieren. In der Nähe meines Wohnortes liegt eine kleine Stadt namens Helmbrechts mit momentan knapp 8500 Einwohnern. Ich habe jetzt KI nach Erkenntnissen zum Bundeswehrstandort Helmbrechts gefragt. Helmbrechts war zwar nie ein Bundeswehrstandort, aber ChatGPT hat eine Bundeswehrgarnison daraus gemacht. Dort gab es angeblich ein Panzerbataillon, ein Versorgungsbataillon und ein Fernmeldebataillon, alle diese Einheiten lagen in der "Panzerkaserne", die in einer Straße liegen soll, die es in Helmbrechts nicht gibt. Die Kaserne wurde angeblich bereits von der Wehrmacht erbaut und beherbergte bereits damals Panzerheinheiten.
          Die genannten Bundeswehreinheiten sind natürlich wieder völlig Unsinn. Ein PzBtl 353 gab es nie, 353 war ein PzGrenBtl in Hammelburg, das VersBtl 471 war ein erst 2003 aufgestelltes Logistikbataillon in Dornstadt und ein Fernmeldebataillon 623 existierte nie und wenn hätte es allein der Nummernfolge nach zum TerrKdo S-H gehört und hätte in Franken nichts verloren gehabt.
          Protokoll dieses Meisterwerks von ChatGPT füge ich bei.
          Angehängte Dateien

          Kommentar

          • Dragoner
            Cold Warrior
            • 15.03.2008
            • 2130

            #6
            Nun habe ich mir, von Dir angeregt, das Vergnügen gemacht, ChatGPT mit einigen simplen Fragen zu befassen, die verlässlich gut dokumentiert sind, beispielsweise die Frage, wie die in Deutschland stationierten US-Luftstreitkräfte im Jahr 1989 gegliedert waren. Ergebnis: Sie hatten laut ChatGPT B-52-Bomber hier stationiert ... was für ein unfassbarer Mist.

            Kommentar

            • Malefiz
              Cold Warrior
              • 22.12.2010
              • 384

              #7
              Handwerkszeug für Fakenews.

              Kommentar

              • Malefiz
                Cold Warrior
                • 22.12.2010
                • 384

                #8
                Ich habe eine sehr empathische Weihnachtskarte aus Äthiopien bekommen. Das Englisch war um Klassen besser wie meines. Ich habe dann eine Antwort auf deutsch geschrieben und von ChatGPT auf Englisch ausformulieren lassen. Das Ergebnis war einwandfrei.
                Ich habe für Schüler einen Artikel über Kokain gesucht (Wir haben mit denen Kokain auf Geldscheinen gesucht). Es gab einen hervorragenden in einem englischen Buch. Da ich keine Lust hatte den Artikel zu Fuß zu übersetzen, habe ich das Programm benutzt. Einwandfrei.

                Für solche Arbeiten, und Zusammenfassungen ist das Programm geeignet.

                Kommentar

                • DeltaEcho80
                  Cold Warrior
                  • 09.03.2013
                  • 1725

                  #9
                  Zitat von Nemere Beitrag anzeigen
                  Hallo Dietmar,

                  das ist mir alles klar.
                  Wenn das KI-Programm zu meiner Frage nichts im Netz findet und mir dann mitteilt, dass es zu meiner Fragestellung keine Erkenntnisse hat, dann ist das in Ordnung.

                  Was ich beanstande und was ich für brandgefährlich halte, ist die Tatsache, dass diese Programme dann "Fakten" und "Quellen" erfinden. Das habe ich auch bei anderen, nicht-militärischen Themen festgestellt.

                  Anscheinend sind KI-Programme so ausgelegt, dass sie auf jeden Fall irgendwelche Antworten präsentieren, um ihre Einmaligkeit und Notwendigkeit immer wieder unter Beweis zu stellen, anstatt einfach zu sagen: Dazu weiß ich nichts.

                  Diese Programme sind unbrauchbar, unzuverlässig und gefährlich. Gefährlich vor allem deshalb, weil Anwendungen dieser Art trotz ihrer bewiesenen Unbrauchbarkeit wahrscheinlich auch längst zu Entscheidungsfindungen in anderen Bereichen des täglichen Lebens herangezogen werden.
                  Das ist ja genau das, was ich meine mit meinem Satz, dass man alles hinterfragen sollte.

                  Vielleicht sollte ich das etwas näher ausführen: Ich hatte mit diesen Themen bis Ende 2021 tagtäglich beruflich zu tun und verfolge das nun so mit halbem Ohr und Auge immer noch ein bisschen mit.
                  Die KI ist natürlich mit allergrößter Vorsicht zu genießen, gerade, wenn es um spezielle Themen geht.

                  Im militärischen Zusammenhang sei hier mal das Thema "Zielfindung für Drohnen" angesprochen. Hier spielt dann auch die ethische/moralische Komponente eine große Rolle. Wobei aber hier andere Nationen wie China oder die USA weniger Vorbehalte oder Skrupel haben, solche Funktionen einzusetzen. Allerdings ist es bei den Amis so, dass den letzten Knopf aktuell noch ein Mensch drücken muss.

                  Und dass knallharte kommerzielle Interessen dahinter stecken, sollte auch klar sein. Man muss ja nur mal sehen, was diese Entwicklungen kosten. Und in den Händen von Leuten wie Musk oder Zuckerberg muss man natürlich immer hinterfragen, was die damit bewirken wollen.

                  Facebook bzw. Meta hat ja vor einigen Jahren mit sehr viel Input das Thema "Augmented Reality" gesteckt, da Zuckerberg gemeint hatte, dass das der "heißeste Scheiß" ist. Ein Ergebnis war ja die berühmte "Pokemon"-App, wo Realität und Vision verschmolzen sind. Diese Entwicklung hat Zuckerberg dann aber inzwischen gestoppt, weil es Unsummen an Geld verschlungen hat. Und das heißt bei Meta etwas. Ausschließen möchte ich aber nicht, dass da was kommt.

                  Die genutzten Quellen sind natürlich auch zweifelhaft und werden wohl nie im letzten Detail offen gelegt werden. Auch sollte man bedenken, dass das lernende Systeme sind, da man hier mit neuronalen Netzen arbeitet. Die kann man natürlich auch für "schlimme" Zwecke nutzen.

                  Ich möchte hier keinesfalls als "Verteidiger" der KI rüber kommen. Aber ich habe halt einen etwas anderen Blick. Für die von dir, lieber Jörg, o.g. genutzten Zwecke war es natürlich mit diesen Ergebnissen ein Reinfall.

                  Fakt ist, die KI ist da und wird auch nicht mehr weggehen, man muss mit umgehen.

                  Falls euch interessiert, wo denn KI momentan schon eingesetzt wird, kann ich euch einige Beispiele geben:
                  Bei großen Unternehmen der Finanzbranche - z.B. Versicherungen oder Bausparkassen - wird die KI beispielsweise dazu genutzt, den Maileingang in den berühmten "info@" oder "service@"-Postfächern zu sortieren und an entsprechende Stellen weiter zu leiten.

                  Die R+V hatte so 2018/2019 bereits ein Projekt, wo man Analysen innerhalb des Kundenbestandes laufen ließ und sich errechnen ließ, bei welchen Kunden die Kündigungswahrscheinlichkeit erhöht ist. Das hat damals zu 85% gepasst. Und das sind 7 bzw. 6 Jahre - das ist ne halbe Ewigkeit bei sowas.

                  Viele Unternehmen nutzen z.B. auch schon für Ihre Websiten die automatisierten Chatbots, wo man sich mit einem Chat unterhalten kann, der viele Fragen wie z.B. Öffnungszeiten usw. automatisch beantworten kann.
                  Hier habe ich mal ein Beispiel - die VRanzi der VR-Bank Westmünsterland. Fragt Sie z.B. mal, was ihre Lieblingsfarbe ist

                  Zuletzt geändert von DeltaEcho80; 29.01.2025, 20:52.

                  Kommentar

                  Lädt...
                  X