In der Welt der Edge-KI tut sich viel: eingebettete Prozessoren werden immer leistungsfähiger und Cloud-Algorithmen werden für die Ausführung auf diesen Prozessoren angepasst. Im Gespräch mit Sergi Mansilla von Edge Impulse wird deutlich, dass die Branche diesen Wandel zum Vorteil der eingebetteten Systeme nutzt.

Durch die Kaskadierung von maschinellen Lernmodellen können stromsparende Algorithmen eine erste Bewertung von Daten vornehmen. Sollten Kernattribute vorhanden sein, kann ein zweiter Algorithmus, z. B. ein großes Sprachmodell, eine zusätzliche, stromintensivere Verarbeitung vornehmen. VLMs (Vision Language Models) halten zunehmend Einzug in Edge-Systeme und ermöglichen es Algorithmen mit natürlicher Sprache, Objekte zu erkennen oder eine Szene zu beschreiben.

Wir haben auch über die Vorteile der Übernahme von Edge Impulse durch Qualcomm für die Community und den Zugang zu neuer Hardware für Entwickler gesprochen.
 
    
Modell-Kaskadierung: Optimieren Sie die KI-Leistung auf Embedded-Geräten