Risiken von KI und Chatbots in der Personalabteilung

Mareike Kaufmann
09. Mai 2024
Image

Generell versteht man unter der künstlichen Intelligenz smarte Programme, die Probleme lösen, die zuvor von Menschen bearbeitet werden mussten. Die KI greift dabei auf Datensätze zurück, mit denen sie zuvor trainiert wurde. Genauere Erklärung zum Thema der künstlichen Intelligenz finden Sie in unserem dazugehörigen Blogbeitrag.

Inhalt:

  1. In welchen Bereichen können Chatbots eingesetzt werden?
  2. Welche Sorgen und Risiken birgt die Verwendung von Chatbots?
  3. Worauf muss bei der Verwendung von künstlicher Intelligenz besonders geachtet werden?
  4. Zusammenfassung

In welchen Bereichen können Chatbots eingesetzt werden?

Künstliche Intelligenz in Form von Chatbots kann im HR-Bereich besonders für Routine-Anfragen verwendet werden. Wenn diese Anfragen manuell von den Mitarbeitenden bearbeitet werden, beansprucht es viel Zeit, die die Arbeitnehmenden dann auf komplexere und individuellere Probleme, bei denen zwischenmenschliche Kompetenzen benötigt werden, verwenden können.

Zu den am weitesten verbreiteten Aufgaben von Chatbots zählen zum Beispiel das Beantworten von Standardfragen bei Bewerbungsprozessen oder bei Fragen rund um den Onboarding-Prozess.

Welche Sorgen und Risiken birgt die Verwendung von Chatbots?

Besonders der Datenschutz und die sensiblen Daten stehen immer wieder im Zentrum der Sorgen, wenn es um die Verwendung von Chatbots geht. Wie sich zeigt, kommen diese Sorgen nicht aus dem Nichts. Künstliche Intelligenz ist bei weitem nicht immer rechtssicher. Sie bezieht ihre Informationen aus vielen verschiedenen Quellen und kann sich demnach sogar in den eigenen Antworten widersprechen. Darüber hinaus sind KI-Algorithmen meist so kompliziert und die verarbeiteten Datenmengen so groß, dass die Entscheidungen, die durch die künstliche Intelligenz getroffen werden, nicht mehr nachvollziehbar sind. Auch ist für die Mitarbeitenden häufig unklar, wann tatsächlich auf eine KI-Anwendung zurückgegriffen wird. Das kommt daher, dass häufig nicht klar gekennzeichnet ist, wann und zu welchem Zweck eine bestimmte Anwendung eingesetzt wird. Häufig fehlen dabei beispielsweise Quellenangaben zu den verwendeten Daten.

Auch vor Fehlentscheidungen ist man trotz der Verwendung von Chatbots oder anderen KI-Lösungen nicht sicher. Ein Fehler bei der Angabe der Datensätze reicht aus, damit auch einfachere Aufgaben, wie die Selektion neuer Bewerbender, dadurch erschwert werden können. Der Datenschutz ist ein weiterer wichtiger Aspekt bei der Bewertung der Risiken durch die Verwendung von KI und Chatbots. Anwendungen, die beispielsweise das Verhalten von Mitarbeitenden in den sozialen Netzwerken oder bei Bewerbungsvideos bewerten, analysieren und speichern sensible Daten und das zum Teil auch ohne die Einwilligung der entsprechenden Mitarbeitenden.

Generell gilt, dass ein Chatbot oder auch ein anderes KI-System nur so gut sein kann, wie die Daten, die zur Verfügung gestellt werden. Das bedeutet, dass die Anwendung automatisch besser wird und funktioniert, wenn man qualitativ hochwertige und ausgewogene Daten zur Verfügung stellt. Das minimiert auch die große Gefahr der Diskriminierung beispielsweise durch veralte Datensätze.

Besonders wichtig ist, dass die KI, bzw. der Chatbot lediglich Daten verwendet, die von den Mitarbeitenden ebenfalls eingesehen werden können. Durch eine fehlende Transparenz entsteht ein Machtgefälle, welches schnell auch mit einem Machtmissbrauch einhergeht. Den Missbrauch der Daten und die Überwachung der Mitarbeitenden bei einem unvorsichtigen Gebrauch einer KI gilt es in jedem Fall zu verhindern.

Worauf muss bei der Verwendung von künstlicher Intelligenz besonders geachtet werden?

Grundsätzlich gilt, dass immer beantwortbar sein sollte, woher die Daten kommen, die von einem Chatbot oder einer KI verwendet werden. Zu jedem Zeitpunkt sollte für alle Beteiligten klar sein, welche Daten verwendet werden, wie sie verarbeitet werden, wie alt die verwendeten Daten sind sowie wo und wann sie durch eine menschliche Instanz überprüft werden.

Fehler können in allen Unternehmensbereichen passieren. Dennoch ist es besonders bei der Verwendung einer künstlichen Intelligenz einer externen Herstellungsfirma wichtig, rechtliche Dinge, wie die Rechenschaftspflicht, abzuklären. Kann bei einer Fehlprogrammierung die Herstellungsfirma zur Rechenschaft gezogen werden? Wie können sich Arbeitgebende im Falle von gravierenderen Fehlfunktionen absichern? Solche Fragen sollten bei der Auswahl einer entsprechenden Anwendung unbedingt beachtet werden.

Was zu jeder Zeit präsent sein sollte, sind die Grenzen von KI-basierten Anwendungen. Die Zuverlässigkeit und das Leistungsniveau sollten nicht überschätzt werden. Einfachere Aufgaben, wie das automatisierte Antworten auf Standardanfragen im Chatbot-Bereich, können zur Entlastung der HR-Abteilung meist problemlos in den Arbeitsalltag integriert werden, aber auch in diesen Bereichen ist es wichtig, regelmäßige und gewissenhafte Qualitätskontrollen durchzuführen.

Zusammenfassung

Zur Entlastung der Mitarbeitenden in den Personalabteilungen lohnt sich definitiv ein Blick auf KI-basierte Anwendungen. Wie diese möglichst effektiv in den Arbeitsalltag eingebunden werden können, wird in dem dazugehörigen Blogbeitrag erklärt. Es muss jedoch vor allem auf die Qualität und den Schutz der verwendeten Daten geachtet werden, um Gefahren und Risiken vorzubeugen. Regelmäßige Überprüfungen bezüglich der Aktualität und Rechtssicherheit der verwendeten Daten sind unabdingbar für einen effizienten Gebrauch von Chatbots und anderen KI-basierten Anwendungen. Absolute Transparenz steht bei der Anwendung an oberster Stelle, damit jede beteiligte Person zu jeder Zeit weiß, welche sensiblen Daten verwendet werden. Außerdem muss unbedingt festgelegt werden, was im Falle einer Fehlfunktion der Anwendung auch von den Herstellungsfirmen zu erwarten ist.

Besonders wichtig ist es, die Möglichkeiten von künstlicher Intelligenz nicht zu überschätzen. Je einfacher die Aufgabe ist, die ein Chatbot oder eine KI-Anwendung übernehmen soll, desto zuverlässiger sind die dabei entstehenden Ergebnisse.

arrow-up icon