Künstliche Intelligenz: Viele nutzen KI, nur wenige vertrauen ihr
Künstliche Intelligenz ist laut einer groß angelegten Umfrage der Unternehmensberatung KPMG und der Universität Melbourne im Alltag der meisten Befragten angekommen. So nutzen zwei Drittel der Befragten KI. Dennoch misstraut das Gros der Nutzer wiederum der Technologie. Häufig ist die Nutzung auf mehreren Ebenen: privat, beruflich und im Studium. Negative und positive Erlebnisse rund um die Technik halten sich dabei aktuell die Waage.
Am Arbeitsplatz sind die Befragten allerdings oft eher unsicher, wie sie mit KI umgehen sollen. Zum einen fehlen offenbar klare Richtlinien durch die Arbeitgeber und zum anderen fehlt es auch vielen Mitarbeitern an Kompetenz. Letzten Endes haben 66 % der Befragten aus Deutschland angegeben, generell KI zu nutzen – aber nur 32 % vertrauen etwa KI-generierten Informationen. Deutschland liegt damit deutlich unter dem internationalen Mittelwert. Befragt wurden für die Untersuchung weltweit über 48.000 Personen in 47 Ländern, darunter mehr als 1.000 in Deutschland.
Nur 20 % der Befragten hierzulande haben bisher eine Schulung oder Weiterbildung zu KI absolviert, was wohl auch zum fehlenden Kompetenzempfinden im Beruf führt. International liegt der Prozentsatz mit 39 % fast doppelt so hoch. Weniger als die Hälfte (45 Prozent) der deutschen Befragten fühlt sich in der Lage, KI-Anwendungen angemessen zu bewerten oder richtig einzusetzen. Im Ranking der Volkswirtschaften in Bezug auf KI-Kompetenzen landet Deutschland auf dem vorletzten Platz der untersuchten Länder, Rang 47, was kein gutes Zeichen ist.
Befragte sind uneins zu Chancen und Risiken
Befragt nach den Chancen und Risiken, zeigt sich eine uneinheitliche Stimmung. 37 % bewerten die Vorteile als größer als die Risiken. Umgekehrt sehen aber 39 % größere Gefahren als Chancen. 59 % der deutschen Befragten haben schon positive Erfahrungen mit KI gesammelt. Als Vorteile nennen sie eine höhere Effizienz oder eine deutliche Zeitersparnis bei Routineaufgaben. 31 % berichten aber auch von negativen Folgen wie Falschinformationen, Kontrollverlust und fehlenden menschlichen Interaktionen.
55 % der Befragten haben KI auch schon beruflich genutzt, 62 % geben an, dass in ihrem Unternehmen KI genutzt wird. Doch die Rechtslage ist dabei oft unsicher, denn nur 46 % der Unternehmen haben laut den Befragten Regularien zum beruflichen Einsatz generativer KI parat. Entsprechend wünschen sich viele Befragte klare Grenzen und Spielräume. 71 % erhoffen sich eine gemeinsame Regulierung durch staatliche Stellen und Industrie. Lediglich ein Drittel der Befragten hält bisherige Regeln für ausreichend. 91 % kennen zudem keine konkreten, gesetzlichen Vorgaben in Deutschland, sodass es an Informationen fehlt.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Bislang „vertraue“ ich KI nur soweit, wie ich sie kontrollieren kann oder die Bedeutung des Ergebnisses von geringem Gewicht ist. Entrauschung von RAW-Fotos ist in dieser Hinsicht eine für mich passende Anwendung – für mich zu kompliziert, und wenn mir das Ergebnis nicht gefällt, verwerfe ich es einfach.
Bin mir nicht sicher ob das wirklich als KI zu verstehen ist. Ein Entrauschungsalgorithmus ist ja noch keine Intelligenz.
Ich misstraue der KI auch, daher gebe ich den selben Prompt in zwei oder drei KIs ein. Es werden ja nicht alle die gleichen Halluzinationen haben.
Nein, aber mitunter die gleichen oder ähnliche Trainingsdaten.
Na, wenn du dich da mal nicht täuschst…
Die Halluzinationen sind ab und zu noch da. Die kommen aber immer seltener durch reinforcement learning.
Die Frage ist: wann werden wir über die Konsequenzen der Nutzung der KI im Ernst diskutieren. Hoffentlich nicht zu spät.
Weiterbildungen von selbsternannten KI-Experten, die Unternehmen davon überzeugen, dass sie Mitarbeiter mit veralteten Informationen schulen und dafür viel Geld bekommen. Ich glaube nicht, dass das sinnvoll investiertes Geld ist.
Eine gewisse Skepsis sollte überall angebracht sein und ja ich weiß, dies kostet Arbeit. Aber die Leichtgläubigkeit in allen Bereichen ist heutzutage schon bedenklich. Bei der KI ist es auch weniger die Angst, dass diese halluziniert, sondern die Angst, german Angst, vor dieser nicht greifbaren Technologie selbst. Schließlich erzeugten auch Eisenbahnen zu Beginn Hirnsausen und erste Telefonate fürchterliche Krankheiten und ein gestörtes Miteinander. Wie gesagt, eine gesunde Skepsis ist immer angebracht, diese beginnt jedoch bereits im analogen Bereich.
Was mir noch einfällt, die Angst vor der KI und das Vertrauen in gutefrage.net 🙂
https://www.comdirect.de/inf/news/detail.html?CIF_Check=true&ID_NEWS=1147449342
Dies ist vom 02.05.2025 und wöchentlich gibts wohl neue „Meinungen“.
„Deutschland liegt beim Homeoffice weit vorne“ (dpa-AFX)
Was hat das mit dem Thema zu tun?
Man verfolge nur mal die letzen news aus dem bereich der KI bzw AI.
Grok, die KI der Rechten und die andere haben Halluzinationen.
https://www.heise.de/news/Manipulation-am-Systemprompt-Grok-fabulierte-ueber-weissen-Genozid-10386925.html
https://www.mimikama.org/grok-eskaliert-weisser-genozid/
https://www.iese.fraunhofer.de/blog/halluzinationen-generative-ki-llm/
https://deinkikompass.de/blog/ki-halluzinationen-wie-chatgpt-fakten-erfindet
Einer Ki kann man auch nicht trauen, da immer noch viele Fehler enthalten sind.
Musterbeispiel: E-Mailzusammenfassung der AppleIntelligence, da sind so viele Fehlinterpretationen enthalten oder auch grundsätzliche Probleme das sich bspw. die Zusammenfassung nicht auf die aktuellste E-Mail bezieht. Aber auch bei Adone PDF-Zusammenfassungen: Da wird dann mal eben in einem Dokument mit sechs Punkte der Punkt 5 „vergessen“. Nächstes Beispiel Firefly: Neben der fehlerhaften Personenzuordnung wird auch mal gerne ein Topic hinzugefügt über den gar nicht gesprochen wurde.
Was soll man damit anfangen außer eben der KI zu misstrauen? Wenn man alles selbst wieder prüfen muss, dann macht das schlicht keinen Sinn.
Das größere Problem: Viele KI-User vertrauen blindlings der KI, weil es sich ja immer alles überzeugend anhört und dieses blinde Vertrauen ist das größte Problem, denn diese User sind ganz einfach durch KI zu manipulieren.
Man sollte „Ki“ immer nur dann einsetzen, wenn man qualifiziert ist das Ergebnis zu beurteilen.
( Z.B. prüfen ob es erwähnte Urteile überhaupt gibt )
Auch eine Taschenrechner macht nur dann Sinn, wenn ich abschätzen kann, dass das Ergebnis etwa 100 aber nicht 10 oder 1000 sein müsste.
Btw … der Begriff „Ki“ müsste für LargeLanguageModel verboten werden … das ist keine höhere Intelligenz. Sieht man wenn diese Produkte Schach spielen und die grundlegendsten Regeln misachten. ( YTube Suche gothamchess chatgpt copilot )
Die Programme die tatsächlich gut im Schach sind ( Stockfish, AlfaZero, Leela ) sind keine LLMs sondern eben spezielle Schach-Programme.
„KI“ ist ein relativ klar definierter Begriff und hat erstmal nichts mit wirklich „denkenden“ Maschinen zu tun. Selbst die ersten primitiven Schachproramme in den 50ern/60ern sind Teil von Künstlicher Intelligenz. Maschine Learning, Deep Learning, und Large Language Models sind jeweils Unterkategorien. Allerdings ist der Begriff „KI“ als Buzzword völlig überstrapaziert,
Siehe z.B. hier: https://images.app.goo.gl/3WFL7NYav6k1mAVk9
This!
Hallo jemand aus der technischen Unternehmenskommunikation hier..
Wir mussten unseren KI-Chatbot tatsächlich wieder einstellen, weil der viel zu oft falsche Aussagen getätigt hat. Gefüttert wurde das Ding mit allen möglichen technischen Unterlagen (Stücklisten, Datenblätter, technische Dokumentation etc.). Raus kamen aber teilweise fahrlässig gefährliche Sachen, die manche Kunden leider für bare Münze genommen haben. Beispielsweise steht in der Dokumentation extra mit super fettem Warnhinweis man soll erst das Druckventil öffnen bevor man irgendwas an der Maschine macht, hat das die KI einfach mal unterschlagen. Das ist im Zweifel einfach lebensgefährlich und auf so etwas kann man sich einfach nicht verlassen.
Ich finde hier stoßen wir einfach an die Grenzen der zugrundeliegenden Technologie.. Es ist halt einfach nur eine Maschine, die einfach immer das wahrscheinlichste nächste Wort errät. Das macht sie wahnsinnig gut, keine Frage.. Aber sie versteht einfach die Sachen und Zusammenhänge nicht.
Klar haben wir gerade einen Hype, wo jeder KI bei allem implementieren möchte aber ich denke in ein paar Jahren sehen wir auch hier, dass KI nur da zum Einsatz kommt, wo sie auch wirklich wirklich Sinn macht.
Ich glaube, die Probleme fangen an, wenn man versucht Aufgaben komplett zu übertragen. Im schlimmsten Falle durch jemanden, der die Aufgabe selbst nicht überblickt. Ich benutze als Einzelunternehmer die KI, als Geber von Anregungen und alternativen Lösungsansätzen. Das funktioniert für mich super. Dabei frage ich nur „Häppchen“ an, die nachvollziehbar bleiben. Für mich ersetzt sie den nicht vorhandenen Partner im Büro, mit dem man sich in der Teeküche kurz zu einem Thema berät. Dem würde ich meine Arbeit auch nicht einfach überhelfen.
Man muß nur eben wissen, was genau die Frage ist und wie ich sie extrem präzise stellen kann. Daran scheitern nachwachsende Generationen schon im Dialog zwischen Mensch und Mensch.