Files
natiris/test/vision_integration.json
Arch Agent eb6dcac545 Sync: Autonomy-System, Natural Language Engine, WebUI + .gitignore
- NatirisMaster.py aktualisiert
- NaturalLanguageEngine optimiert
- PsychologyEngine & Arousal-Engine
- WebUI (FastAPI) mit Chat-API
- Bridges: ComfyUI, Ollama, Vision
- Admin-Auth System
- .gitignore hinzugefügt (checkpoints, logs, generated)
2026-03-10 16:04:26 +01:00

60 lines
1.7 KiB
JSON
Executable File

{
"current_status": {
"exists": true,
"has_clip": true,
"has_llava": true,
"has_image_analysis": true,
"has_emotion_update": true
},
"integration_plan": {
"phase_1": {
"name": "Basis-Setup",
"tasks": [
"VisionBridge.py erweitern um CLIP/LLaVA Aufruf",
"Bild-Eingabe verarbeiten (base64 oder Dateipfad)",
"Emotions-Analyse aus Gesichtsausdr\u00fccken"
],
"priority": "Hoch"
},
"phase_2": {
"name": "Core-Integration",
"tasks": [
"VisionBridge mit EmotionEngine verbinden",
"Bildanalyse \u2192 mood/anxiety Update",
"Trend-Analyse \u00fcber Zeit (mehrere Bilder)"
],
"priority": "Hoch"
},
"phase_3": {
"name": "Erweiterte Features",
"tasks": [
"Session-basierte Analyse (Bild-Serie \u2192 Stimmungstrend)",
"Autonomes Anfragen von Bildern",
"Visuelles Feedback in WebUI (Bildanzeige)"
],
"priority": "Mittel"
}
},
"suggested_prompts": {
"clip_analysis": "Beschreibe die Emotion in diesem Bild. Was dr\u00fcckt das Gesicht aus?",
"llava_analysis": "Analysiere dieses Bild:\n1. Gesichtsausdruck (gl\u00fccklich, traurig, m\u00fcde, aufgeregt)\n2. K\u00f6rperhaltung (offen, geschlossen, entspannt, angespannt)\n3. Gesamteindruck der Stimmung\n\nAntworte als JSON: {\"mood\": 0-10, \"anxiety\": 0-10, \"energy\": 0-10}",
"emotional_mapping": {
"smile": {
"mood": 2,
"anxiety": -1
},
"frown": {
"mood": -1,
"anxiety": 1
},
"tired_eyes": {
"mood": -1,
"anxiety": 0
},
"open_posture": {
"trust": 1
}
}
},
"implementation_ready": true
}