# Task für jcdickinson/wizardcoder:15b

Erstelle eine erweiterte VisionBridge für Natiris mit llava:7b Integration.

ANFORDERUNGEN:

1. LLAVA INTEGRATION:
   - Nutze ollama API für llava:7b Modell
   - Endpoint: http://localhost:11434/api/generate
   - Bilder als base64 kodieren und an llava senden
   - Emotionserkennung: "Describe the emotion/mood of this person"
   - Gesichtsausdruck: "What facial expression do you see?"
   - Körpersprache: "Describe the body language"

2. EMOTION-ANALYSE:
   - Extrahiere: mood_score (1-10), anxiety_detected (bool)
   - Gesichtsausdruck: happy, sad, neutral, surprised, angry, fearful
   - Blickrichtung: looking_at_camera, looking_away, closed_eyes
   - Körperhaltung: open, closed, defensive, relaxed

3. CORE-STATE UPDATE:
   - Vision-Analyse aktualisiert core_state.json
   - mood_delta basierend auf erkannter Emotion
   - anxiety_delta bei stressigen Ausdrücken
   - loneliness_delta bei distanziertem Verhalten

4. CODE STRUKTUR:
   - Klasse: VisionAnalyzer
   - Methoden: load_image(), encode_base64(), query_llava(), parse_response(), update_core()
   - Fehlerbehandlung: Fallback auf Simulation wenn llava nicht verfügbar

5. INTEGRATION:
   - Nach Bildgenerierung automatisch aufrufen
   - Metadaten an bridges/vision_analysis.json anhängen

Generiere vollständigen Python-Code.