Một chia sẻ khá đúng thời điểm trên r/n8n là cách một anh em dùng n8n để biến quá trình săn việc từ kiểu làm tay sang kiểu có hệ thống: tự quét job LinkedIn theo lịch, đối chiếu với CV, chấm điểm bằng AI rồi chỉ gửi những cơ hội đáng xem vào email.
Với mình, điểm hay của case này không nằm ở chỗ “AI làm thay tất cả”, mà ở chỗ workflow được đóng gói khá rõ ràng để giải quyết đúng một bài toán thực tế: giảm thời gian lọc nhiễu khi tìm việc.
Workflow này thực sự làm gì
Theo bài chia sẻ gốc, pipeline chạy vào mỗi ngày làm việc, 2 lần/ngày. Luồng cơ bản gồm:
- lấy danh sách job mới từ LinkedIn
- lấy dữ liệu CV hoặc hồ sơ cá nhân để làm chuẩn đối chiếu
- dùng Gemini để chấm độ phù hợp của từng job
- lưu kết quả vào Google Sheets để theo dõi và chống trùng
- gửi danh sách job nổi bật vào Gmail
Nếu nhìn dưới góc vận hành, đây là một workflow khá “đủ bài”: có lịch chạy, có tầng thu thập dữ liệu, có tầng đánh giá, có nơi lưu trạng thái và có đầu ra dễ dùng.
Vì sao mô hình này đáng chú ý
Có ba ý mình thấy đáng học từ workflow này.
1. Dùng AI ở đúng chỗ: xếp hạng thay vì thay quyết định
Điểm mạnh nhất là AI không bị giao vai trò quyết định tuyệt đối. Nó chỉ làm nhiệm vụ chấm điểm và ưu tiên hóa. Cách làm này thực tế hơn rất nhiều so với kiểu để agent tự apply hàng loạt.
Khi AI chỉ đóng vai trò sàng lọc:
- rủi ro chọn sai giảm đi
- người dùng vẫn giữ được quyền quyết định cuối
- prompt và tiêu chí đánh giá cũng dễ kiểm soát hơn
Với các bài toán automation cá nhân, đây là pattern rất đáng dùng lại.
2. Google Sheets vẫn là lớp state rẻ mà hiệu quả
Nhiều anh em thích nhảy ngay lên database hoặc vector store, nhưng với một workflow săn việc cá nhân thì Google Sheets đủ mạnh cho giai đoạn đầu.
Sheets ở đây giải quyết được mấy việc rất quan trọng:
- chống gửi lại cùng một job nhiều lần
- lưu lịch sử điểm số để so sánh theo thời gian
- thêm cột ghi chú thủ công sau khi đọc job
- dễ debug khi workflow có vấn đề
Nếu chưa cần scale lớn, đây là lựa chọn hợp lý hơn là tối ưu quá sớm.
3. Giá trị thật đến từ chất lượng tiêu chí chấm điểm
Nhiều workflow kiểu này nhìn ngoài tưởng nằm ở khâu scrape, nhưng phần quyết định chất lượng lại là rubric chấm điểm.
Nếu prompt chỉ hỏi chung chung kiểu “job này có phù hợp không”, kết quả sẽ rất nhiễu. Tốt hơn là chấm theo các tiêu chí rõ ràng như:
- mức khớp kỹ năng cốt lõi
- số năm kinh nghiệm yêu cầu
- mức độ phù hợp ngành hoặc domain
- vị trí remote/on-site
- mức lương nếu bài tuyển dụng có công bố
- khả năng tận dụng kinh nghiệm cũ để tăng tỉ lệ pass vòng đầu
Khi rubric rõ, workflow mới tạo ra danh sách job thực sự hữu ích thay vì một hộp thư đầy “có vẻ cũng hợp”.
Nếu anh em muốn triển khai kiểu này cho riêng mình
Mình nghĩ có thể đi theo checklist ngắn sau.
Bước 1: Chuẩn hóa input cá nhân
Trước hết, đừng ném nguyên một CV dài vào model rồi hy vọng kết quả tốt. Hãy tách sẵn các trường chính:
- vai trò mục tiêu
- kỹ năng bắt buộc
- kỹ năng ưu tiên
- domain từng làm
- địa điểm chấp nhận được
- mức seniority mong muốn
- từ khóa loại trừ
Input càng chuẩn, scoring càng ổn định.
Bước 2: Thiết kế điểm số có giải thích
Đừng chỉ lưu một con số tổng. Nên yêu cầu model trả thêm:
- tổng điểm
- 2-3 lý do nên ưu tiên
- 2-3 điểm chưa khớp
- khuyến nghị: đọc ngay / để sau / bỏ qua
Phần giải thích ngắn này rất quan trọng vì nó giúp người dùng kiểm tra xem model có đang hiểu sai CV hay không.
Bước 3: Thêm chống trùng và chống spam thông báo
Một workflow săn job mà không có dedupe thì vài ngày là hỏng trải nghiệm. Tối thiểu cần:
- khóa theo URL job hoặc job ID
- cột đánh dấu đã gửi email chưa
- giới hạn số job gửi mỗi lần
- chỉ gửi khi điểm vượt ngưỡng
Thực tế, gửi ít nhưng chuẩn sẽ tốt hơn gửi nhiều mà loãng.
Bước 4: Chuẩn bị sẵn đường nâng cấp nguồn dữ liệu
Ngay trong bài chia sẻ gốc, tác giả cũng đặt câu hỏi về lựa chọn thay thế Apify và mở rộng sang các job board khác. Đây là hướng đi đúng.
Nếu workflow này hiệu quả, sớm muộn anh em cũng sẽ muốn:
- thêm Indeed, Wellfound hoặc các nguồn chuyên ngành
- hợp nhất nhiều nguồn về một bảng điểm chung
- thêm bước phát hiện job repost
- tạo template outreach hoặc cover note theo từng job
Những chỗ dễ vỡ nếu mang workflow này đi dùng lâu dài
Vì bài gốc là một chia sẻ thực chiến, mình nghĩ cũng nên nhìn luôn các rủi ro vận hành.
- Nguồn scrape có thể chậm hoặc đổi cấu trúc bất ngờ.
- Prompt scoring dễ drift nếu CV thay đổi mà rubric không cập nhật.
- Gmail digest quá dài sẽ làm người dùng bỏ qua toàn bộ email.
- Nếu chỉ dựa vào một nguồn tuyển dụng, anh em sẽ bị lệch thị trường.
- Các job “nghe hợp” nhưng thực ra không hợp seniority rất dễ lọt vào top nếu tiêu chí chưa đủ chặt.
Cách giảm rủi ro là giữ pipeline đơn giản, log rõ từng bước và kiểm tra lại top kết quả trong 1-2 tuần đầu trước khi tin hoàn toàn vào scoring.
Điều đáng lấy về từ case này
Case này là một ví dụ hay cho kiểu automation cá nhân có giá trị thật: không phô diễn quá nhiều node, mà tập trung giảm đúng phần việc lặp lại, tốn thời gian và dễ nản nhất.
Với anh em làm n8n, bài học không chỉ là “có thể build job agent”, mà là cách ghép các mảnh rất quen thuộc — scheduler, scraper, LLM scoring, state store và email digest — thành một hệ thống nhỏ nhưng dùng được ngay.
Nếu làm thêm một bước nữa, mình nghĩ phiên bản mạnh hơn của workflow này sẽ không chỉ gửi danh sách job phù hợp, mà còn tạo ra một hàng đợi ưu tiên rất rõ: nên đọc job nào trước, nên bỏ job nào ngay và vì sao.
Đó mới là lúc automation thực sự tiết kiệm năng lượng cho người dùng, chứ không chỉ tạo thêm một luồng thông báo mới.
Top comments (0)