
Kein Modell für Ihren Anwendungsfall? KINEVA trainiert es. Ohne Data-Science-Team, ohne Cloud.
KINEVA ist die eigenentwickelte KI-Plattform von REBOTNIX. Modelle werden automatisch trainiert und produktionsreif ausgeliefert, ohne manuelles Labeling. Einsatz auf Edge, im privaten Rechenzentrum oder in der Hybrid Cloud.
Existiert kein Modell für Ihren Anwendungsfall? KINEVA trainiert es automatisch. Kein Data-Science-Team nötig, kein manuelles Labeling.
Jedes Modell wird für NVIDIA Jetson und GUSTAV Hardware optimiert. TensorRT-beschleunigt, unter 8ms Inferenzzeit.
CNN für Erkennung. PCNN für Sensorfusion. VLLM & LLM für Sprachverständnis. Eine Plattform, alle Ansätze.
30 Milliarden Parameter. Jeden Quartal werden bis zu 5 Milliarden davon mit aktuellen Daten aus Smart City und Industrial neu trainiert.
KINEVA ONE läuft auf REBOTNIX Realtime Linux und versteht Zeit als Dimension. Es weiß wie lange ein Prozess läuft, wann er fertig sein sollte, ob er überfällig ist. Nativ im Betriebssystem verankert.
KINEVA ONE führt Funktionen direkt aus. Maschine stoppen, Alarm auslösen, Sortierung ändern, Bericht senden. Multi-Interface: Chat, E-Mail, VoIP, SPS, OPC-UA, Modbus. Ein Agent der in der physischen Welt agiert.
Optimiert für Edge Computing auf GUSTAV Hardware. Läuft komplett in-house, kein Cloud-Zwang. Multilingual, kommuniziert in jeder Sprache. 5 Milliarden Parameter speziell fine-tuned für Smart City und Industrial.
Intelligente Bildkompression durch KI. Reduziert Bandbreite und Speicher, ohne die Erkennungsqualität zu beeinträchtigen.
Bei gleicher Analysequalität. KI priorisiert was wichtig ist, Hintergründe werden stärker komprimiert, relevante Objekte bleiben scharf.
Läuft direkt auf GUSTAV Edge-Hardware innerhalb der HORIZON Plattform. Keine Cloud, kein extra Server.
Der komprimierte Stream bleibt ein normaler JPEG/H.265-Stream. Jeder Decoder, jeder Browser, jedes System kann ihn lesen.
CNN eignet sich für Bildverarbeitung: Objekte im Bild erkennen, entweder als Rechteck-Bounding-Box oder als pixelgenaue Segmentation. Schnell, präzise, direkt auf der Kamera.
CNN-Modelle ansehen →PCNN startet mit Bildverarbeitung und fusioniert Sensordaten direkt ins Training. Nach dem Training erkennt das Modell Objekte allein anhand der Sensordaten, ohne Kamera.
PCNN-Modelle ansehen →KINEVA ONE versteht Bilder und spricht darüber. Es beschreibt Szenen, erkennt Anomalien und erstellt Berichte automatisch. Läuft in Echtzeit, kennt die Uhrzeit und kann direkt handeln. Lokal, ohne Cloud.
VLLM-Modelle ansehen →Produktionsreife REST-API. Bild senden, Erkennungen zurückbekommen. Kostenloser Einstieg, skalierbar bis Enterprise.
Ausgewählte Modelle kostenlos auf Hugging Face und GitHub. Herunterladen, feintunen, am Edge bereitstellen.
KINEVA trainiert Modelle für Ihren Anwendungsfall, auch ohne vorhandene Trainingsdaten. Sprechen Sie mit uns.
Produktionsreife Erkennungs- und Klassifizierungsmodelle. CNN, PCNN, VLLM & LLM.
Convolutional Neural Networks optimiert für Echtzeit-Objekterkennung und Klassifizierung auf Edge-Geräten.
Alle CSPCore- und CSPAttention-Blöcke sind proprietäre KINEVA®-Architektur · 5-Skalen-Erkennung ohne Anker · Stride 4–64
Präzises Zählen von Köpfen und Personen in überfüllten Szenen. Funktioniert aus jedem Kamerawinkel.
Erkennt und liest Kennzeichen in Echtzeit. Unterstützt europäische Formate. DSGVO-konformer Anonymisierungsmodus verfügbar.
Erkennt illegale Müllablagerungen im öffentlichen Raum mit GPS-Geolokalisierung. Automatische Disposition für kommunale Abfallwirtschaft.
Klassifiziert Abfall in Sperrmüll, Hausmüll, Altkleider und Schadstoffe. Automatisches Sortieren und Compliance-Monitoring für Recycling.
Erkennt und klassifiziert Personenkraftwagen und Nutzfahrzeuge. Optimiert für Verkehrsüberwachung und Logistik.
Universelles 80-Klassen-Basismodell. Als Ausgangspunkt für Transfer Learning oder direkt für schnelles Prototyping einsetzbar.
Vandalismuserkennung mit GPS-Koordinaten für automatische Disposition. Unterscheidet Kunstinstallationen von illegalem Graffiti.
Straßenschilderkennung mit GPS-getaggter Geolokalisierung. Kartiert automatisch Schildpositionen und -zustand für die Infrastrukturüberwachung.
Kopfbasierte Gesichtsanonymisierung, funktioniert auch bei abgewandten oder teilweise verdeckten Gesichtern. DSGVO-konform, Verarbeitung auf dem Gerät.
Physical-World CNNs, die Kameradaten mit WiFi, GPS, Satellit und Sensorsignalen auf Tensorebene fusionieren.
Erkennt und verfolgt Personen anhand von WLAN-Probe-Signalen, ohne Kamera. Trainiert mit visuellen Daten, läuft vollständig auf WLAN-Sensoren. Datenschutzkonform.
Hochpräzise GPS-Positionierung durch Fusion von Kameradaten mit GPS-Signalen. Liefert RTK-Genauigkeit ohne RTK-Hardware.
Vision-Language- und Large-Language-Modelle für Szenenverstehen, Berichtserstellung und industrielles Reasoning.
Visual-Language-Modell, das industrielle Szenen beschreibt, Anomalien erkennt und Inspektionsberichte aus Kamera-Feeds erstellt.
LLM, das strukturierte Wartungsberichte aus Erkennungsdaten erstellt. Integriert in bestehende kommunale und Enterprise-Workflows.
KINEVA trainiert individuelle Modelle für Ihren spezifischen Anwendungsfall. Sie benötigen keine eigenen Daten und keine GPU-Ressourcen, KINEVA übernimmt das für Sie.