Edge AI Computing

KI wandert von der Cloud an die Edge

Nach einer Prognose des Marktforschungsunternehmens ABI Research wird das Edge-AI-Computing in den nächsten Jahren einen beträchtlichen Aufschwung erleben. Davon profitieren dürften die Hersteller energieeffizienter Chipsätze, die preisgünstige und extrem latenzarme KI Verarbeitung an der Edge ermöglichen.

Bei der Künstlichen Intelligenz (KI) wird es eine signifikante „Verschiebung“ von der Cloud an den "Rand" (On-Device, Gateway und On-Premise-Server) geben. Diese Verlagerung bedeutet eine große Chance für alle Chipsatz-Hersteller, die mit energieeffizienten Chipsätzen und anderen Produkten die steigende Nachfrage nach Edge-AI-Computing erfüllen können. Edge AI Inferenz wird von zuletzt sechs Prozent Marktanteil (2017) auf 43 Prozent im Jahr 2023 wachsen. Das geht aus der Studie "Artificial Intelligence and Machine Learning" von ABI Research hervor, einem Marktforschungsunternehmen, das sich auf Themen rund um die digitale Transformation spezialisiert hat.

Edge-AI-Hardware: Automotive und Machine Vision als Treiber

"Die Verlagerung der KI-Verarbeitung wird durch billigere Edge-Hardware, unternehmenskritische Anwendungen, fehlende zuverlässige und kostengünstige Konnektivitätsoptionen sowie den Wunsch, teure Cloud-Implementierungen zu vermeiden, vorangetrieben. Anbieter von Unterhaltungselektronik, Automotive und Machine Vision werden eine erste entscheidende Rolle bei der Entwicklung des Marktes für Edge-AI-Hardware spielen. Die Skalierung dieser Hardware bis zu einem Punkt, an dem sie kosteneffizient wird, ermöglicht es einer größeren Anzahl von Vertikalen, die Verarbeitung aus der Cloud heraus und an den Rand zu bringen", erläutert Jack Vernon, Industry Analyst bei ABI Research.

ABI Research hat elf Branchen identifiziert, die für die Einführung von Künstlicher Intelligenz reif sind, darunter Automotive, mobile Geräte, Wearables, Smart Home, Robotik, unbemannte Luftfahrzeuge (Drohnen), Smart Manufacturing, Smart Retail, Smart Video, Smart Building sowie Öl und Gas und verteilt auf weitere 58 Anwendungsfälle. Bis zum Jahr 2023 wird der Verkauf solcher KI-fähiger Edge-Geräte auf 1,2 Milliarden steigen im Vergleich zu 79 Millionen im Jahr 2017.

Dennoch werden Cloud-Anbieter im „KI-Konzert“ weiterhin eine zentrale Rolle spielen, vor allem wenn es um das KI-Training geht. Von den 3 Milliarden AI-Gerätelieferungen, die 2023 erfolgen sollen, benötigen über 2,2 Milliarden Cloud Service Provider für das AI Training. Trotzdem bedeutet das einen realen Rückgang des Marktanteils der Cloud Provider im Bereich AI-Training von aktuell 99 auf 76 Prozent.

Elektronikbranche arbeitet an energieeffizienten Chipsätzen

Energieeffiziente Chipsätze sind die wesentliche Triebfeder von „Edge AI“. Der Mobilfunkanbieter Huawei führt in Zusammenarbeit mit Cambricon Technologies bereits ein On-Device-AI-Training für das Batterie-Management in seinem Smartphone P20pro ein. Die Chiphersteller NVIDIA, Intel und Qualcomm wollen Hardware bereitstellen, die es Automobilherstellern ermöglicht, mit KI-Trainings auf dem Gerät zu experimentieren, um deren Bemühungen im Hinblick auf das autonome Fahren zu unterstützen.

"Anbieter können das Potenzial von Edge AI nicht mehr länger ignorieren. Da sich die Anforderungen aus dem Markt immer weiter in Richtung extrem niedriger Latenzzeiten und robusterer Analysen bewegen, müssen die Endanwender damit beginnen, Edge AI in ihre Roadmap aufzunehmen und über neue Geschäftsmodelle wie End-to-End-Integration oder Chipsatz als Service nachdenken", schlussfolgert Analyst Vernon.

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Communications Group GmbH & Co. KG. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.