이걸 왜 이제 알았을까? 브라우저에서 돌아가는 AI 사이버 생명체, AIRI 솔직 분석 및 후기
💡 3줄 요약 (TL;DR) AIRI는 브라우저(WebGPU/WASM) 환경에서 바로 구동되는 오픈소스 AI 컴패니언(VTuber) 툴킷입니다. 단순한 텍스트 챗봇을 넘어 Live2D/VRM 아바타로 움직이며, 음성으로 대화하고, 마인크래프트나 발라트로(Balatro) 같은 게임까지 유저와 함께 플레이합니다. 무거운 파이썬 ...
💡 3줄 요약 (TL;DR) AIRI는 브라우저(WebGPU/WASM) 환경에서 바로 구동되는 오픈소스 AI 컴패니언(VTuber) 툴킷입니다. 단순한 텍스트 챗봇을 넘어 Live2D/VRM 아바타로 움직이며, 음성으로 대화하고, 마인크래프트나 발라트로(Balatro) 같은 게임까지 유저와 함께 플레이합니다. 무거운 파이썬 ...
요즘 OpenAI의 Deep Research나 Manus 같은 에이전트 툴들이 쏟아지면서 다들 한 번씩 써보셨죠? 저도 최근에 업무 자동화 툴을 찾다가 우연히 깃허브에서 이 녀석을 발견했습니다. 바로 바이트댄스(ByteDance)에서 오픈소스로 푼 DeerFlow(디어플로우)인데요. 처음엔 ‘또 뻔한 랭체인 래퍼(Wrapper) 툴이겠지’ 하고 넘기려...
💡 한 마디로? (TL;DR) 빅테크 논문에나 있던 뜬구름 잡는 ‘컨텍스트 엔지니어링’ 이론을, Claude Code나 Cursor에서 당장 쓸 수 있게 10여 개의 플러그앤플레이(Plug-and-play) 마크다운 스킬셋으로 떠먹여 주는 실전 압축 툴킷입니다. 프롬프트 깎는 노인에서 벗어나고 싶다면 무조건 찍어먹어 봐야 합니다! 안녕하세요 여러분...
1천 장의 이미지로 3D 공간을 54초 만에? VGG-T³가 3D 재구성의 메모리 한계를 부수는 법 [Metadata Block] 📖 논문: arXiv:2602.23361 🖥️ Github/Project: 미공개 (TBA) 📅 발표일: 2026.02 ✍️ 저자/기관: 미상 (Blind Submission) 🤯 Introductio...
📖 논문: From Statics to Dynamics: Physics-Aware Image Editing with Latent Transition Priors 🖥️ Github/Project: TBA 📅 발표일: 2026년 2월 ✍️ 저자/기관: Anonymous 요즘 핫한 AI 이미지 편집기들, 써보셨나요? 텍스트로 명령만 내리면 마법처럼 이...
💡 TL;DR (한 마디로?) 정체: 바이트댄스가 오픈소스로 푼 LangGraph 기반 다중 에이전트(Multi-Agent) 딥 리서치 프레임워크. 특징: 검색 ➡️ 코드 실행 ➡️ 데이터 분석 ➡️ 보고서(심지어 팟캐스트) 생성까지 알아서 다 해줌. 2.0부터는 아예 ‘슈퍼 에이전트’ 샌드박스로 진화함. 결론: 단순 RAG...
🚀 객관식 꼼수는 그만! 의료 AI의 서술형 혁명, MediX-R1 논문 리뷰 [논문 메타데이터] 📖 논문: arXiv:2602.23363 🖥️ Github/Project: MediX-R1 📅 발표일: 2026년 2월 ✍️ 저자/기관: CVMBZUAI 여러분, 최근 쏟아지는 의료 AI 논문들을 보면서 혹시 이런 생각 해보신 적...
Vision LLM의 ‘Latent Reasoning’, 알고 보니 가짜였다? (충격적인 분석 결과) 📝 메타데이터 📖 논문: Imagination Helps Visual Reasoning, But Not Yet in Latent Space 📅 ID: arXiv:2602.22766 🏷️ 키워드: Multimodal LLM, Visual ...
AI가 작성한 코드, 내 PC에서 그냥 실행하십니까? 알리바바 ‘OpenSandbox’가 완벽한 해답인 이유 최근 LLM(대규모 언어 모델)의 발전으로 AI 에이전트가 단순히 코드를 제안하는 것을 넘어, 직접 시스템에 접근해 코드를 실행하고, 파일을 수정하며, 터미널 명령어를 입력하는 시대가 되었습니다. 하지만 검증되지 않은 AI 생성 코드를 호스트...
📖 논문: arXiv:2602.22010 🖥️ Github/Project: Project Page 📅 발표일: 2026년 2월 ✍️ 저자/기관: WoGNet Research Team 요즘 VLA (Vision-Language-Action) 모델이 로보틱스 판을 다 씹어먹고 있다는 거, 다들 알고 계시죠? RT-2 오픈소스 버전들이 쏟아지면서 로봇에게...