AI & Automation (vnROM)

Cover image for Letta Code: Agent Coding với bộ nhớ "không bao giờ quên"
vnROM for vnROM Team

Posted on

Letta Code: Agent Coding với bộ nhớ "không bao giờ quên"

Chắc hẳn nhiều bác ở đây code với AI (ChatGPT, Claude) đều từng gặp cảnh trớ trêu: "Nói trước quên sau". Đang build dở cái project, qua ngày hôm sau quay lại hỏi thì AI nó quên sạch context, hoặc phải paste lại đống code cũ rất mất thời gian. Thậm chí các công cụ xịn như Cursor đôi khi cũng giới hạn context window.

Hôm nay mình giới thiệu với anh em một "món đồ chơi" open-source mới cực hot để giải quyết vấn đề này: Letta Code.

Letta Code là gì?

Letta Code là một memory-first coding agent (agent lập trình ưu tiên bộ nhớ). Khác với các mô hình LLM truyền thống hoạt động theo phiên (stateless - xong là quên), Letta Code giúp anh em tạo ra các agent có bộ nhớ dài hạn (long-term memory).

Nó dựa trên nền tảng MemGPT, cho phép agent "ghi nhớ" vĩnh viễn các thông tin về project, style code, hay các thư viện anh em hay dùng mà không bị giới hạn bởi context window của token.

Tại sao anh em nên thử Letta Code?

  1. Bộ nhớ vĩnh cửu (Stateful Agents): Agent của bác sẽ "sống" mãi. Bác có thể dạy nó một lần về kiến trúc dự án, và 1 tháng sau quay lại nó vẫn nhớ chính xác vị trí file config nằm ở đâu.
  2. Học kỹ năng mới (Skill Learning): Khi anh em hướng dẫn agent fix một lỗi khó hoặc setup một API đặc thù, nó có thể lưu quy trình đó lại thành một "skill" để tái sử dụng cho lần sau. Càng dùng, nó càng khôn ra.
  3. Model Agnostic (Không kén chọn): Chạy ngon với cả OpenAI, Claude, hay thậm chí là các model mã nguồn mở (Llama, Mistral) nếu anh em thích tự host local để tiết kiệm chi phí.
  4. Hiệu năng cao: Theo benchmark trên TerminalBench, Letta Code hiện đang là open-source harness top 1, ngang ngửa với hàng chính chủ như Claude Code hay Gemini CLI.

Cài đặt nhanh để vọc vạch

Anh em nào quen dùng Docker thì khuyến khích dùng cách này cho sạch máy và ổn định (có sẵn PostgreSQL):

docker run \
  -v ~/.letta/.persist/pgdata:/var/lib/postgresql/data \
  -p 8283:8283 \
  -e OPENAI_API_KEY="sk-..." \
  letta/letta:latest
Enter fullscreen mode Exit fullscreen mode

Hoặc nếu muốn test nhanh bằng Python (chạy SQLite):

pip install -U letta
letta server  # Để chạy server
# Sau đó mở terminal khác để chạy CLI
letta run
Enter fullscreen mode Exit fullscreen mode

Mình thấy hướng đi "Memory-first" này mới thực sự là tương lai của AI Coding, chứ context window to đến mấy mà không biết cách quản lý thì cũng "tràn RAM" thôi.

Anh em có ai đã test thử con này chưa? So với Cursor hay GitHub Copilot thì liệu có thể thay thế được trong các tác vụ refactor code phức tạp không nhỉ? Mời mọi người cùng vào chém gió và chia sẻ kinh nghiệm nhé! 👇

Top comments (0)