VisionClaw — AI очила, които виждат и действат вместо теб

VisionClaw са AI очила, които виждат света и действат вместо теб. Казваш какво искаш, те го правят. Без телефон, без ръце.

VisionClaw — AI очила, които виждат и действат вместо теб

Представи си — слагаш си очила, казваш "добави мляко в списъка" и... готово. Без да вадиш телефона. Без да докосваш екран. Просто говориш и нещата се случват.

Звучи като сцена от филм? Донякъде. Но VisionClaw е реален open-source проект, който точно това прави.

Какво е VisionClaw?

Накратко — AI асистент за Meta Ray-Ban очилата. Но не от тези, дето просто разпознават какво гледаш и толкова. VisionClaw вижда каквото виждаш, чува каквото казваш и — ето тук става интересно — реално действа.

Искаш да изпратиш съобщение? Казваш го. Искаш да търсиш нещо? Казваш го. Smart home, списъци, напомняния — всичко минава през гласа ти.

Как работи на практика?

Камерата на очилата стриймва с около 1 кадър в секунда към Gemini Live — AI модела на Google. Аудиото тече в двете посоки в реално време. Gemini обработва и картина и звук едновременно.

А когато трябва да се направи нещо конкретно — да се изпрати съобщение, да се добави нещо в списък — тук влиза OpenClaw. Това е gateway, който дава на AI-а достъп до 56+ инструмента. WhatsApp, Telegram, iMessage, smart home — всичко свързано.

Работи ли без очилата?

Да. И това е хубавото. Можеш да тестваш целия pipeline само с камерата на телефона — iPhone или Android. Така че дори да нямаш Ray-Ban очила за 300 долара, пак можеш да пробваш как се чувства бъдещето.

Какво мисля аз?

Честно? Впечатлен съм. Не защото технологията е нова — Gemini Live и Meta Ray-Ban съществуват от известно време. А защото някой ги сглоби в нещо, което реално работи. И го пусна безплатно.

Дали ще ходим всички с AI очила след 2 години? Може би. Но проекти като VisionClaw показват, че инфраструктурата вече е тук. Въпросът не е дали — а кога.

🔗 Проектът е безплатен и open-source: github.com/sseanliu/VisionClaw

Сподели:👤🐦💼