Künstliche Intelligenz: Viele nutzen KI, nur wenige vertrauen ihr

Künstliche Intelligenz ist laut einer groß angelegten Umfrage der Unternehmensberatung KPMG und der Universität Melbourne im Alltag der meisten Befragten angekommen. So nutzen zwei Drittel der Befragten KI. Dennoch misstraut das Gros der Nutzer wiederum der Technologie. Häufig ist die Nutzung auf mehreren Ebenen: privat, beruflich und im Studium. Negative und positive Erlebnisse rund um die Technik halten sich dabei aktuell die Waage.

Am Arbeitsplatz sind die Befragten allerdings oft eher unsicher, wie sie mit KI umgehen sollen. Zum einen fehlen offenbar klare Richtlinien durch die Arbeitgeber und zum anderen fehlt es auch vielen Mitarbeitern an Kompetenz. Letzten Endes haben 66 % der Befragten aus Deutschland angegeben, generell KI zu nutzen – aber nur 32 % vertrauen etwa KI-generierten Informationen. Deutschland liegt damit deutlich unter dem internationalen Mittelwert. Befragt wurden für die Untersuchung weltweit über 48.000 Personen in 47 Ländern, darunter mehr als 1.000 in Deutschland.

Nur 20 % der Befragten hierzulande haben bisher eine Schulung oder Weiterbildung zu KI absolviert, was wohl auch zum fehlenden Kompetenzempfinden im Beruf führt. International liegt der Prozentsatz mit 39 % fast doppelt so hoch. Weniger als die Hälfte (45 Prozent) der deutschen Befragten fühlt sich in der Lage, KI-Anwendungen angemessen zu bewerten oder richtig einzusetzen. Im Ranking der Volkswirtschaften in Bezug auf KI-Kompetenzen landet Deutschland auf dem vorletzten Platz der untersuchten Länder, Rang 47, was kein gutes Zeichen ist.

Befragte sind uneins zu Chancen und Risiken

Befragt nach den Chancen und Risiken, zeigt sich eine uneinheitliche Stimmung. 37 % bewerten die Vorteile als größer als die Risiken. Umgekehrt sehen aber 39 % größere Gefahren als Chancen. 59 % der deutschen Befragten haben schon positive Erfahrungen mit KI gesammelt. Als Vorteile nennen sie eine höhere Effizienz oder eine deutliche Zeitersparnis bei Routineaufgaben. 31 % berichten aber auch von negativen Folgen wie Falschinformationen, Kontrollverlust und fehlenden menschlichen Interaktionen.

55 % der Befragten haben KI auch schon beruflich genutzt, 62 % geben an, dass in ihrem Unternehmen KI genutzt wird. Doch die Rechtslage ist dabei oft unsicher, denn nur 46 % der Unternehmen haben laut den Befragten Regularien zum beruflichen Einsatz generativer KI parat. Entsprechend wünschen sich viele Befragte klare Grenzen und Spielräume. 71 % erhoffen sich eine gemeinsame Regulierung durch staatliche Stellen und Industrie. Lediglich ein Drittel der Befragten hält bisherige Regeln für ausreichend. 91 % kennen zudem keine konkreten, gesetzlichen Vorgaben in Deutschland, sodass es an Informationen fehlt.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich hilfsbereiter Technik-, Games- und Serien-Geek. Nebenbei Doc in Medienpädagogik und Möchtegern-Schriftsteller. Hofft heimlich eines Tages als Ghostbuster sein Geld zu verdienen oder zumindest das erste Proton Pack der Welt zu testen. Mit geheimniskrämerischem Konto auch bei Facebook zu finden.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

19 Kommentare

  1. Bislang „vertraue“ ich KI nur soweit, wie ich sie kontrollieren kann oder die Bedeutung des Ergebnisses von geringem Gewicht ist. Entrauschung von RAW-Fotos ist in dieser Hinsicht eine für mich passende Anwendung – für mich zu kompliziert, und wenn mir das Ergebnis nicht gefällt, verwerfe ich es einfach.

  2. Ich misstraue der KI auch, daher gebe ich den selben Prompt in zwei oder drei KIs ein. Es werden ja nicht alle die gleichen Halluzinationen haben.

  3. KI für dich, und dich auch says:

    Die Halluzinationen sind ab und zu noch da. Die kommen aber immer seltener durch reinforcement learning.

    Die Frage ist: wann werden wir über die Konsequenzen der Nutzung der KI im Ernst diskutieren. Hoffentlich nicht zu spät.

  4. Weiterbildungen von selbsternannten KI-Experten, die Unternehmen davon überzeugen, dass sie Mitarbeiter mit veralteten Informationen schulen und dafür viel Geld bekommen. Ich glaube nicht, dass das sinnvoll investiertes Geld ist.

  5. Eine gewisse Skepsis sollte überall angebracht sein und ja ich weiß, dies kostet Arbeit. Aber die Leichtgläubigkeit in allen Bereichen ist heutzutage schon bedenklich. Bei der KI ist es auch weniger die Angst, dass diese halluziniert, sondern die Angst, german Angst, vor dieser nicht greifbaren Technologie selbst. Schließlich erzeugten auch Eisenbahnen zu Beginn Hirnsausen und erste Telefonate fürchterliche Krankheiten und ein gestörtes Miteinander. Wie gesagt, eine gesunde Skepsis ist immer angebracht, diese beginnt jedoch bereits im analogen Bereich.

  6. Was mir noch einfällt, die Angst vor der KI und das Vertrauen in gutefrage.net 🙂

  7. Einer Ki kann man auch nicht trauen, da immer noch viele Fehler enthalten sind.
    Musterbeispiel: E-Mailzusammenfassung der AppleIntelligence, da sind so viele Fehlinterpretationen enthalten oder auch grundsätzliche Probleme das sich bspw. die Zusammenfassung nicht auf die aktuellste E-Mail bezieht. Aber auch bei Adone PDF-Zusammenfassungen: Da wird dann mal eben in einem Dokument mit sechs Punkte der Punkt 5 „vergessen“. Nächstes Beispiel Firefly: Neben der fehlerhaften Personenzuordnung wird auch mal gerne ein Topic hinzugefügt über den gar nicht gesprochen wurde.
    Was soll man damit anfangen außer eben der KI zu misstrauen? Wenn man alles selbst wieder prüfen muss, dann macht das schlicht keinen Sinn.
    Das größere Problem: Viele KI-User vertrauen blindlings der KI, weil es sich ja immer alles überzeugend anhört und dieses blinde Vertrauen ist das größte Problem, denn diese User sind ganz einfach durch KI zu manipulieren.

  8. Werner Hermann says:

    Man sollte „Ki“ immer nur dann einsetzen, wenn man qualifiziert ist das Ergebnis zu beurteilen.
    ( Z.B. prüfen ob es erwähnte Urteile überhaupt gibt )
    Auch eine Taschenrechner macht nur dann Sinn, wenn ich abschätzen kann, dass das Ergebnis etwa 100 aber nicht 10 oder 1000 sein müsste.

    Btw … der Begriff „Ki“ müsste für LargeLanguageModel verboten werden … das ist keine höhere Intelligenz. Sieht man wenn diese Produkte Schach spielen und die grundlegendsten Regeln misachten. ( YTube Suche gothamchess chatgpt copilot )
    Die Programme die tatsächlich gut im Schach sind ( Stockfish, AlfaZero, Leela ) sind keine LLMs sondern eben spezielle Schach-Programme.

  9. Hallo jemand aus der technischen Unternehmenskommunikation hier..
    Wir mussten unseren KI-Chatbot tatsächlich wieder einstellen, weil der viel zu oft falsche Aussagen getätigt hat. Gefüttert wurde das Ding mit allen möglichen technischen Unterlagen (Stücklisten, Datenblätter, technische Dokumentation etc.). Raus kamen aber teilweise fahrlässig gefährliche Sachen, die manche Kunden leider für bare Münze genommen haben. Beispielsweise steht in der Dokumentation extra mit super fettem Warnhinweis man soll erst das Druckventil öffnen bevor man irgendwas an der Maschine macht, hat das die KI einfach mal unterschlagen. Das ist im Zweifel einfach lebensgefährlich und auf so etwas kann man sich einfach nicht verlassen.

    Ich finde hier stoßen wir einfach an die Grenzen der zugrundeliegenden Technologie.. Es ist halt einfach nur eine Maschine, die einfach immer das wahrscheinlichste nächste Wort errät. Das macht sie wahnsinnig gut, keine Frage.. Aber sie versteht einfach die Sachen und Zusammenhänge nicht.
    Klar haben wir gerade einen Hype, wo jeder KI bei allem implementieren möchte aber ich denke in ein paar Jahren sehen wir auch hier, dass KI nur da zum Einsatz kommt, wo sie auch wirklich wirklich Sinn macht.

  10. Ich glaube, die Probleme fangen an, wenn man versucht Aufgaben komplett zu übertragen. Im schlimmsten Falle durch jemanden, der die Aufgabe selbst nicht überblickt. Ich benutze als Einzelunternehmer die KI, als Geber von Anregungen und alternativen Lösungsansätzen. Das funktioniert für mich super. Dabei frage ich nur „Häppchen“ an, die nachvollziehbar bleiben. Für mich ersetzt sie den nicht vorhandenen Partner im Büro, mit dem man sich in der Teeküche kurz zu einem Thema berät. Dem würde ich meine Arbeit auch nicht einfach überhelfen.

    Man muß nur eben wissen, was genau die Frage ist und wie ich sie extrem präzise stellen kann. Daran scheitern nachwachsende Generationen schon im Dialog zwischen Mensch und Mensch.

Schreibe einen Kommentar zu HDM Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.
OSZAR »