Vor allem Start-ups setzen immer häufiger auf Künstliche Intelligenz.
Inzwischen nutzen drei Viertel (76 Prozent) KI, vor einem Jahr waren es nur 49 Prozent. Zum Vergleich: In der Gesamtwirtschaft setzten aktuell nur 13 Prozent der Unternehmen auf diese Technologie. Auch generative KI ist unter Startups weit verbreitet: Rund zwei Drittel (63 Prozent) setzen sie in ihrem Startup ein, 45 Prozent zur Unterstützung des internen Geschäftsbetriebs, 37 Prozent aber auch als Teil der eigenen Produkte und Dienstleistungen.
Das ist das Ergebnis einer Befragung von 172 deutschen Tech-Startups im Auftrag des Digitalverbands Bitkom.
„Künstliche Intelligenz ist kein Hype, sie ist die wohl wichtigste Schlüsseltechnologie der Zukunft. Während Deutschland seit Jahrzehnten in der KI-Forschung ganz vorne mit dabei war, kommen kommerzielle Anwendungen jetzt überwiegend aus dem Ausland. Startups gehören in Deutschland zu den Vorreitern und Treibern der KI“, sagt Bitkom-Präsident Dr. Ralf Wintergerst. „KMUs und Großunternehmen empfehle ich sehr, die Nähe zu KI Startups zu suchen oder auch in Kooperationen zu gehen.“
Künstliche Intelligenz als wichtigste Zukunftstechnologie
Für 8 von 10 Startups (80 Prozent) ist KI die wichtigste Zukunftstechnologie schlechthin, nur 17 Prozent halten sie für einen Hype, der massiv überschätzt wird. 39 Prozent meinen, dass Startups, die KI nicht nutzen, keine Zukunft haben.
Dabei bietet KI den Startups auch ganz konkrete Vorteile. Drei Viertel (76 Prozent) jener Startups, die KI in ihre Produkte oder Dienstleistungen integriert haben, kamen leichter an eine Finanzierung. Und 38 Prozent könnten ihr Produkt bzw. ihre Dienstleistung ohne KI gar nicht mehr oder nur sehr eingeschränkt anbieten.
AI Act muss KI-Einsatz erleichtern und darf ihn nicht erschweren
Eine knappe Mehrheit (56 Prozent) der Startups sieht schon heute in einer übertriebenen Regulierung den Grund, warum Produkte wie ChatGPT nicht in der EU entwickelt werden.
Im Mai hat die EU den AI Act auf den Weg gebracht, der eine einheitliche KI-Regulierung in Europa schaffen soll. Ein Drittel (33 Prozent) sieht durch den AI Act einen Wettbewerbsnachteil für das eigene Startup gegenüber Unternehmen etwa aus den USA oder China. Und ein Viertel (25 Prozent) geht davon aus, dass der AI Act ihr Startup in der Nutzung bzw. Entwicklung von KI einschränken wird.
Wintergerst: „Wenn wir wollen, dass Unternehmen in Europa und Deutschland KI entwickeln und nutzen, müssen wir bei der jetzt anstehenden Umsetzung des AI Act die Förderung technologischer Innovationen in den Mittelpunkt stellen.“
Als größte Hemmnisse beim KI-Einsatz im eigenen Startup gelten derzeit fehlende finanzielle und personelle Ressourcen (je 23 Prozent) sowie Anforderungen an den Datenschutz bzw. die rechtliche Zulässigkeit der Verwendbarkeit von Daten (22 Prozent). Dahinter folgen fehlende Zeit im Alltagsgeschäft (19 Prozent) und fehlende Daten, um KI nutzbringend einsetzen zu können (17 Prozent). 10 Prozent sorgen sich, dass Unternehmensdaten durch KI in falsche Hände geraten könnten, 9 Prozent sind ganz allgemein durch rechtliche Hürden und Unklarheiten verunsichert und ebenfalls 9 Prozent fehlt es an technischem Know-how, um KI zu implementieren. 8 Prozent sehen keinen sinnvollen Anwendungsbereich von KI, 7 Prozent haben Sorge vor künftigen Einschränkungen beim KI-Einsatz, 5 Prozent haben aktuell einen Fokus auf andere Zukunftstechnologien. 4 Prozent fehlt es an Vertrauen in KI und für ebenso viele ist KI derzeit schlicht kein Thema. Ein Drittel (33 Prozent) der Startups erkennt aber gar keine Hemmnisse beim KI-Einsatz.
Quelle: Pressemitteilung Bitkom
Worum geht es bei dem AI Act?
Die EU-Mitgliedstaaten haben am 21. Mai 2024 den AI Act und damit einen einheitlichen Rahmen für den Einsatz von Künstlicher Intelligenz in der Europäischen Union verabschiedet.
Die KI-Verordnung ist damit das weltweilt erste umfassende Regelwerk für KI.
Der AI Act schreibt vor, dass KI-Anwendungen nicht missbraucht werden dürfen. Ebenso muss der Schutz der Grundrechte gewährleistet sein. Gleichzeitig brauchen Wissenschaft und Wirtschaft aber Freiraum für Innovationen. Der AI Act verfolgt deshalb einen sogenannten risikobasierten Ansatz. Das heißt, je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger sind auch die Vorgaben.
Das Gesetz ist also darauf ausgelegt, nur KI-Systeme mit hohem Risiko für die Allgemeinheit strengen Vorschriften zu unterlegen oder zu verbieten.
Die meisten KI-Systeme fallen jedoch nicht unter diese Kategorie. Für sie gibt es keine Vorschriften oder nur Transparenzpflichten.
Es wurden hierfür die folgenden vier Kategorien gebildet:
- geringes/minimales Risiko
- begrenztes Risiko
- hohes Risiko und
- inakzeptables Risiko.
Nach welchen Kriterien die Einstufung erfolgt, kannst du auf der Seite „AI Conformity tool“ nachlesen.