Machine Learning mit Kotlin: Ein geräteorientierter Ansatz für KI
LLMs haben KI neu definiert – aber meistens laufen sie zentralisiert in der Cloud. Das hat einen Preis: Latenz, Datenschutzrisiken, Offline-Dead-Ends und unnötige Datenflüsse. Gerade auf Mobile fühlt sich das falsch an. Was wäre, wenn wir leistungsstarke KI direkt auf dem Gerät ausführen könnten – offline, privat, schnell – und mit einer Developer Experience, die sich nach Kotlin anfühlt?
In diesem Talk nehmen wir euch mit hinter die Kulissen von SKaiNET: einem Open-Source-Machine-Learning-Framework, komplett in Kotlin Multiplatform geschrieben – durch die Brille eines Android-Entwicklers. Wir starten mit den Grenzen der heutigen Toolchains und gehen dann hands-on durch den Workflow: Netze per typsicherer Kotlin-DSL beschreiben, in Compute-Graphen kompilieren und anschließend kleiner tiefe neuronalle Netzwe sowie kompakte LLMs direkt auf eine Gerät trainieren und ausführen – ohne Cloud, ohne Fremdsprachen-Glue, ohne Magie.
Der Schwerpunkt ist Android pur: Wie bauen wir Inferenz-Pipelines mit niedriger Latenz? Wie helfen Coroutines, Typsicherheit und KMP-Strukturen dabei? Welche Fallen lauern bei Speicher, Performance, Asset-/Modell-Handling und Preprocessing? Und wie sieht ein Integrationsmuster aus, das in echten Apps wirklich funktioniert?
Es ist Open Source. Es ist leistungsstark. Und ihr seid eingeladen, seine Zukunft mitzugestalten.
Freut euch auf Code, Learnings und einen praxisnahen Blick darauf, wie Kotlin (und SKaiNET) geräteorientierte KI leise, aber nachhaltig neu definiert.