Beschreibung
M5Stack LLM Modul-Kit (AX630C)
Das M5Stack LLM Module Kit ist ein modulares System zur lokalen KI-Inferenz und Datenkommunikation. Es kombiniert das Module LLM sowie das Module13.2 LLM Mate, um verschiedene Einsatzszenarien mit Anforderungen an KI-Verarbeitung ohne Cloudanbindung sowie an serielle Schnittstellen zu bedienen.
Das Module LLM ist für den Einsatz in Endgeräten konzipiert, die eine effiziente und intelligente Interaktion ermöglichen sollen. Es eignet sich für Smart-Home-Anwendungen, Sprachassistenten oder industrielle Steuerungen. Die KI-Inferenz erfolgt vollständig offline, wodurch Datenschutz, Sicherheit und Betriebskontinuität gewährleistet werden. Das Modul basiert auf dem AiXin AX630C SoC-Prozessor mit integriertem NPU, unterstützt Transformer-Modelle nativ und erreicht 3.2 TOPS Rechenleistung bei INT8-Präzision. Der verbaute StackFlow-Framework sowie UiFlow- und Arduino-Bibliotheken ermöglichen einfache Programmierung.
Das Module13.2 LLM Mate erweitert das Hauptmodul um zahlreiche Schnittstellen und sorgt über M5BUS für die Stromversorgung. Es beinhaltet einen CH340N USB-Konverter für USB-zu-Seriell-Debugging, einen USB-C-Port für Logausgaben, eine Ethernet-Schnittstelle (RJ45, 100 Mbps) mit integriertem Netzwerktransformator, ein FPC-8P Interface für stabile serielle Kommunikation zum LLM-Modul sowie eine HT3.96*9P Lötfläche zur individuellen Erweiterung.
Im Lieferzustand ist das Modell Qwen2.5-0.5B vorinstalliert. Unterstützt werden Funktionen wie Wake-Word-Erkennung (KWS), Spracherkennung (ASR), Sprachsynthese (TTS) und die Verarbeitung natürlicher Sprache durch ein LLM. Über eine APT-basierte Update-Funktion lassen sich Software und Modellpakete aktualisieren, darunter Modelle wie deepseek-r1-distill-qwen-1.5b, InternVL2_5-1B-MPO, Llama-3.2-1B und weitere. Auch visuelle KI-Modelle (z. B. YOLO11) und TTS-Modelle (wie whisper-tiny, whisper-base) werden unterstützt. Die Integration des OpenAI-kompatiblen API-Plugins erlaubt zusätzlich die Nutzung von Chat-, Sprach- und Text-Funktionen gemäß dem OpenAI-Standard.
Das Kit lässt sich durch Plug-and-Play mit M5-Hostsystemen verwenden und ermöglicht so eine schnelle Integration in bestehende smarte Endgeräte. Die direkte Kommunikation per serieller Schnittstelle erlaubt einfache Einbindung in unterschiedliche Steuer- oder Assistenzsysteme. Die Energieeffizienz und die Möglichkeit zur Mehrmodellverarbeitung sowie die Integration vorinstallierter KI-Funktionen vereinfachen die Entwicklung lokaler KI-Anwendungen.
Merkmale im Überblick
- Offline-KI-Inferenz mit 3.2 TOPS Rechenleistung (INT8)
- Vorinstallierte Funktionen: Wake-Word, Spracherkennung, Sprachmodellverarbeitung, Sprachsynthese
- Mehrmodellbetrieb durch parallele Verarbeitung
- 4GB LPDDR4-Arbeitsspeicher (davon 3GB für Hardwarebeschleunigung)
- 32GB eMMC-Datenspeicher
- Serielle Kommunikation mit verschiedenen Schnittstellen
- Integriertes Mikrofon und Lautsprecher
- RGB-LED zur Statusanzeige
- Unterstützt ADB-Debugging und SD-Karten-Upgrade
- Kompatibel mit gängigen Entwicklungsplattformen
- UiFlow1
- UiFlow2
- Arduino IDE
- OpenAI API (über Plugin)
- Prozessor: AiXin AX630C, Dual Cortex A53 @ 1.2 GHz
- KI-Leistung: max. 12.8 TOPS @ INT4, 3.2 TOPS @ INT8
- Speicher: 4GB LPDDR4 (1GB System, 3GB KI-Beschleunigung)
- Speicher: 32GB eMMC 5.1
- Kommunikation: Serielle Schnittstelle, 115200 Baudrate (anpassbar)
- Mikrofon: MSM421A
- Audioverstärker: AW8737
- Lautsprecher: 8Ω@1W, Bauform 2014
- Statusanzeige: 3x RGB LED (LP5562-Treiber)
- Stromaufnahme: Leerlauf 5V@0.5W, Volllast 5V@1.5W
- Knopf: für Firmware-Downloadmodus
- Upgrade-Schnittstellen: SD-Karte, USB-C
- Konverterchip: CH340N (USB-zu-Seriell)
- Netzwerkschnittstelle: RJ45 mit Netzwerktransformator (11FB-05NL)
- Serielle Anschlüsse: FPC-8P, Type-C, RJ45
- DIY-Erweiterung: HT3.96*9P Lötpad
- Betriebstemperatur: 040 °C
- Produktgröße: LLM-Modul: 54.0 × 54.0 × 13.0 mm
- LLM Mate Modul: 54.0 × 54.0 × 19.7 mm
- Betriebssystem: Integriertes Ubuntu-System
- 1× Module LLM
- 1× Module LLM Mate
- 2× FPC-8P Kabel
- Documents