Daten sind der Treibstoff für jede KI-Anwendung. Ohne ausreichende Mengen an qualitativ hochwertigen Daten ist es unmöglich, leistungsstarke KI-Modelle zu trainieren und zuverlässige Ergebnisse zu erzielen. In der Praxis stehen Unternehmen jedoch häufig vor einem Dilemma: Einerseits hat die exponentielle Zunahme an digitalen Daten in den letzten Jahren zu einer regelrechten Datenexplosion geführt. Andererseits ist der Zugriff auf relevante und hochwertige Daten für spezifische KI-Anwendungen oft stark begrenzt. Diese Kluft zwischen theoretisch verfügbaren Datenmengen und praktisch nutzbaren Daten stellt Unternehmen vor große Herausforderungen. Die schiere Menge an Daten, die täglich generiert werden, ist atemberaubend. Schätzungen gehen davon aus, dass im Jahr 2022 weltweit ca. 97 Zettabytes an Daten generiert, erfasst, kopiert und konsumiert wurden. Diese Zahl soll bis 2025 auf 181 Zettabytes ansteigen. Ein Zettabyte entspricht dabei einer Trillion Gigabytes - eine unvorstellbar große Datenmenge. Ermöglicht wird diese Datenexplosion durch die rasante technologische Entwicklung. Folgt man dem Mooreschen Gesetz, verdoppelt sich die Rechenleistung und Speicherkapazität etwa alle zwei Jahre. So waren im Jahr 1977 für einen Terabyte Speicherplatz noch über 100 Millionen Dollar nötig - heute kostet ein 1-TB-Laufwerk weniger als 100 Dollar. Hinzu kommen das Wachstum des Internets, die zunehmende Nutzung mobiler Endgeräte und der Boom des Internet of Things. All diese Faktoren tragen dazu bei, dass die Datenmenge exponentiell wächst.
Der Zugang zu den für viele KI-Anwendungen benötigten spezifischen, strukturierten und annotierten Daten ist stark eingeschränkt - dies aus verschiedenen Gründen: Häufig ist die Erfassung und Aufbereitung der Daten sehr zeitaufwändig und mit hohen Kosten verbunden. Auch die geltenden Datenschutzbestimmungen erschweren die Sammlung personenbezogener Daten erheblich. In spezialisierten Anwendungsdomänen existieren zudem oftmals keine großen, nutzbaren Datensätze. Wo relevante Daten vorhanden sind, liegen sie in der Regel über diverse Quellen verstreut vor und stehen nicht zentral zur Verfügung. Nicht zuletzt haben Unternehmen aus Wettbewerbsgründen kein Interesse daran, ihre wertvollen Datenbestände zum Training von KI-Systemen zur Verfügung zu stellen. All diese Faktoren führen dazu, dass der Datenzugang für viele Organisationen zu einer der größten Hürden auf dem Weg zur KI-Nutzung wird. (...)
Daten sind der Treibstoff für jede KI-Anwendung. Ohne ausreichende Mengen an qualitativ hochwertigen Daten ist es unmöglich, leistungsstarke KI-Modelle zu trainieren und zuverlässige Ergebnisse zu erzielen. In der Praxis stehen Unternehmen jedoch häufig vor einem Dilemma: Einerseits hat die exponentielle Zunahme an digitalen Daten in den letzten Jahren zu einer regelrechten Datenexplosion geführt. Andererseits ist der Zugriff auf relevante und hochwertige Daten für spezifische KI-Anwendungen oft stark begrenzt. Diese Kluft zwischen theoretisch verfügbaren Datenmengen und praktisch nutzbaren Daten stellt Unternehmen vor große Herausforderungen. Die schiere Menge an Daten, die täglich generiert werden, ist atemberaubend. Schätzungen gehen davon aus, dass im Jahr 2022 weltweit ca. 97 Zettabytes an Daten generiert, erfasst, kopiert und konsumiert wurden. Diese Zahl soll bis 2025 auf 181 Zettabytes ansteigen. Ein Zettabyte entspricht dabei einer Trillion Gigabytes - eine unvorstellbar große Datenmenge. Ermöglicht wird diese Datenexplosion durch die rasante technologische Entwicklung. Folgt man dem Mooreschen Gesetz, verdoppelt sich die Rechenleistung und Speicherkapazität etwa alle zwei Jahre. So waren im Jahr 1977 für einen Terabyte Speicherplatz noch über 100 Millionen Dollar nötig - heute kostet ein 1-TB-Laufwerk weniger als 100 Dollar. Hinzu kommen das Wachstum des Internets, die zunehmende Nutzung mobiler Endgeräte und der Boom des Internet of Things. All diese Faktoren tragen dazu bei, dass die Datenmenge exponentiell wächst.
Der Zugang zu den für viele KI-Anwendungen benötigten spezifischen, strukturierten und annotierten Daten ist stark eingeschränkt - dies aus verschiedenen Gründen: Häufig ist die Erfassung und Aufbereitung der Daten sehr zeitaufwändig und mit hohen Kosten verbunden. Auch die geltenden Datenschutzbestimmungen erschweren die Sammlung personenbezogener Daten erheblich. In spezialisierten Anwendungsdomänen existieren zudem oftmals keine großen, nutzbaren Datensätze. Wo relevante Daten vorhanden sind, liegen sie in der Regel über diverse Quellen verstreut vor und stehen nicht zentral zur Verfügung. Nicht zuletzt haben Unternehmen aus Wettbewerbsgründen kein Interesse daran, ihre wertvollen Datenbestände zum Training von KI-Systemen zur Verfügung zu stellen. All diese Faktoren führen dazu, dass der Datenzugang für viele Organisationenzu einer der größten Hürden auf dem Weg zur KI-Nutzung wird. (...)
Oliver Schwartz
Oliver Schwartz ist Experte für strategische Kommunikation mit mehr als 25 Jahren Erfahrung als Manager in internationalen Technologieunternehmen. Seine Expertise bringt er heute in Beratungsmandate mit Unternehmen, Vorständen und GeschäftsführerInnen und als Interimsmanager ein. Wissen und Impulse rund um KI in Business und Gesellschaft teilt er in Veröffentlichungen, als Autor, Vortrags-Redner und als Podcaster.
Dr. Michael Gebert
Dr. Michael Gebert ist visionärer Unternehmer und international gefragter Keynote-Sprecher. Er blickt auf 30 Jahre strategisches Denken und innovatives Handeln zurück. Als Positivist mit solidem betriebswirtschaftlichen Hintergrund und einer Promotion in Schwarmintelligenz, beschäftigt er sich leidenschaftlich mit ethisch akzeptablen Einsatz von KI-Innovationen und dezentralen Strukturen im Unternehmensumfeld.