...

Marcus Becker fordert: KI-Transparenz steigern

Pressemeldung:Marcus Becker fordert: KI-Transparenz steigern
Im digitalen Zeitalter, in dem künstliche Intelligenz (KI) in immer mehr Bereichen unseres Lebens Einzug erhält, steigt auch das Unbehagen gegenüber den undurchsichtigen Abgründen der KI-gesteuerten Entscheidungsfindung. Prof. Dr. Marcus Becker von der International School of Management (ISM) in Dortmund wirft ein dringendes Licht auf die schillernde Welt der KI und fordert stärkere Bemühungen zur Erhöhung der Transparenz dieser sogenannten Black Box Algorithmen. Mit der zunehmenden Verbreitung automatisierter Anlageberater in der Finanzwelt stellt sich die brennende Frage der Haftung und der Beweislast bei Fehlentscheidungen, eine Problematik, die weit über den Finanzsektor hinaus Bedeutung hat. Becker, ein erfahrener Mathematiker mit einem tiefen Interesse an maschinellem Lernen, plädiert für den Einsatz von Transparenz Algorithmen, die helfen könnten, die Entscheidungsprozesse von KI-Systemen verständlicher und somit vertrauenswürdiger zu machen. Seine Einblicke bieten eine nötige Orientierungshilfe auf dem Weg zu einer ethischeren und verantwortungsbewussten Nutzung künstlicher Intelligenz.

Bremen (VBR). In der rasant fortschreitenden digitalen Welt stellt die zunehmende Verwendung künstlicher Intelligenz (KI) in verschiedenen Bereichen, von der Medizin bis hin zur Finanzberatung, sowohl eine Chance als auch ein Rätsel dar. Besonders im Fokus steht die Frage nach der Verantwortung und Transparenz dieser technologischen Entwicklungen. Ein leuchtendes Beispiel für diesen Diskurs liefert Prof. Dr. Marcus Becker, ein renommierter Mathematiker und Forscher an der International School of Management (ISM), der wichtige Aspekte der Interaktion zwischen Mensch und Maschine beleuchtet.

Beckers Arbeit konzentriert sich auf das faszinierende Feld des maschinellen Lernens, ein zentraler Pfeiler der KI, welcher die Fähigkeit von Computern beschreibt, aus Daten zu lernen und Entscheidungen zu treffen. „Machine Learning Algorithmen verbinden mehrere Teilbereiche der Mathematik auf überaus elegante Weise. Was mich überrascht, wie einfach es heutzutage ist, komplexe Programmier-Codes schnell zu erzeugen – mit Chat GPT sogar ohne die Programmiersprache zu beherrschen“, betont Becker. Diese Technologie hat das Potenzial, unsere Welt grundlegend zu verändern, bringt jedoch gleichzeitig Herausforderungen mit sich, insbesondere was die Nachvollziehbarkeit der KI-Entscheidungen betrifft.

Die komplexe Natur sogenannter „Black Box“ Algorithmen, die oft in KI-Systemen verwendet werden, macht es schwierig, die Basis ihrer Entscheidungsfindung zu verstehen. „Wir können im Vorhinein also nicht genau feststellen, wie das Modell mit gegebenen Input-Informationen umgehen wird“, erklärt Becker. Dies wirft ernsthafte Fragen bezüglich der Verantwortung und Schadenshaftung auf, besonders in kritischen Bereichen wie der automatisierten Anlageberatung. Im Falle eines Fehlverhaltens bleibt oft unklar, wer haftet – der Nutzer, der sich auf die KI stützt, oder die Entwickler hinter dem Programm?

Doch es gibt auch Wege, die Herausforderungen anzugehen. Becker plädiert für den Einsatz von Transparenzalgorithmen, bekannt als Explainable AI (XAI), um die Entscheidungsprozesse künstlicher Intelligenz verständlicher und nachvollziehbarer zu machen. Er argumentiert, dass solche Erklärungsmodelle das Vertrauen der Nutzer stärken könnten, da sie ein tieferes Verständnis der KI-Entscheidungen ermöglichen. Die Herausforderung liegt darin, dass solche Systeme noch nicht weit verbreitet oder gesetzlich vorgeschrieben sind.

Die Bedeutung der KI-Ethik und -Regulierung wird von gesetzgebenden Körperschaften zunehmend anerkannt, wie der jüngste Vorstoß der EU zur KI-Regulierung zeigt. Becker begrüßt diese Entwicklung, bleibt jedoch skeptisch, ob die Risiken vollständig gemindert werden können. Er betont die Wichtigkeit, nicht in einer Wissensblase gefangen zu sein, die den Fortschritt verlangsamen könnte, wenn wir ausschließlich auf die bereits vorhandenen Informationen vertrauen, die von KI-Systemen zusammengestellt werden.

Die Arbeit und von Prof. Dr. Marcus Becker und anderen Experten in diesem Feld sind entscheidend für das Verständnis und die Gestaltung der Beziehung zwischen Mensch und Maschine. Es geht um mehr als nur technologische Fortschritte; es geht um die schrittweise Annäherung an eine Zukunft, in der KI unsere Gesellschaft bereichert, ohne unsere Autonomie zu untergraben. In diesem Sinne sind die Fragen der Verantwortlichkeit, Transparenz und Regulierung von KI nicht nur akademische Debatten, sondern essenzielle Diskussionen für eine gerechte und fortschrittliche Gesellschaft.


Für weitere Informationen, Pressekontakte, Bilder oder Dokumente geht es hier zur Quelle mit dem Originaltitel:
Verantwortung nicht in Algorithmen auflösen / ISM-Informatiker Marcus Becker: …

Original-Content übermittelt durch news aktuell.

Weitere Nachrichten aus der Verbands- und Vereinswelt finden Sie in unserem Newsportal.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Das könnte Sie auch interessieren