Có một pattern phổ biến trong cách nhà nghiên cứu bắt đầu dùng AI. Bài viết này sẽ cho thấy AI thực sự phù hợp ở đâu trong nghiên cứu qua trải nghiệm của chính mình.
Ai đó phát hiện ChatGPT, dùng nó cho mọi thứ trong hai tuần, trở nên bực bội vì tài liệu tham khảo bịa, rồi hoặc bỏ hẳn hoặc tiếp tục dùng mà không phê phán.
Cả hai kết quả đều không hữu ích.
Cách tiếp cận hiệu quả hơn ít hào nhoáng hơn. Nó đòi hỏi xác định chính xác AI giúp ở đâu, tạo rủi ro ở đâu, và không thêm giá trị gì ở đâu. Điều đó đòi hỏi hiểu quy trình làm việc của chính bạn đủ rõ để xác định các nút thắt — rồi kiểm tra xem công cụ có thực sự giải quyết nút thắt đó mà không tạo vấn đề mới không.
Bài viết này không phải là đánh giá công cụ. Đây là bản đồ về vị trí các công cụ khác nhau phù hợp trong quy trình nghiên cứu mà mình thực sự dùng, tại sao chúng ở đó, và những gì mình đã thử mà không hiệu quả.
Quy Trình Trước Khi Có AI
Viết nghiên cứu không phải một hoạt động đơn lẻ. Nó là chuỗi các nhiệm vụ nhận thức riêng biệt, mỗi nhiệm vụ có yêu cầu khác nhau:
Khám phá bối cảnh Hiểu những gì đã được làm, đang tranh luận, và khoảng trống ở đâu.
Hình thành lập luận Quyết định bài báo thực sự tuyên bố gì và tại sao nó quan trọng.
Phân tích dữ liệu Chạy thống kê, tạo output, và kiểm tra giả định.
Viết nháp Chuyển suy nghĩ thành văn xuôi có cấu trúc.
Hiểu AI thực sự phù hợp ở đâu trong nghiên cứu là then chốt để cải thiện hiệu quả và nâng cao kết quả.
Chỉnh sửa Cải thiện sự rõ ràng, siết chặt logic, loại bỏ những gì không hỗ trợ lập luận.
Hoàn thiện Định dạng, quản lý tài liệu tham khảo, tuân thủ tạp chí, và nộp bài.
Mỗi giai đoạn có các failure mode riêng. Sai lầm nhiều nhà nghiên cứu mắc với AI là áp dụng cùng công cụ cho mọi giai đoạn — hoặc dùng công cụ ở nơi nó thực sự gây hại cho công việc.
Giai Đoạn 1: Khám Phá Bối Cảnh
Đây là nơi mình dùng Perplexity nhiều nhất.
Cách truyền thống khám phá tài liệu xoay vòng giữa PubMed, Google Scholar, và danh sách tài liệu tham khảo. Nó hoạt động, nhưng chậm và thiên về chiều sâu hơn chiều rộng — bạn chủ yếu tìm thấy những gì bạn đã biết để tìm.
Perplexity hữu ích vì nó tạo ra tổng quan tổng hợp có trích nguồn. Khi bắt đầu khám phá chủ đề mới, mình dùng nó để tạo bản đồ ban đầu: ai đang đăng trong lĩnh vực này, phương pháp nào chiếm ưu thế, và câu hỏi nào còn chưa giải quyết.
Perplexity không làm tốt là đánh giá chất lượng nguồn. Nó trình bày thông tin với độ tự tin như nhau dù bài gốc là thử nghiệm ngẫu nhiên lớn hay báo cáo ca.
Việc lọc đó vẫn là trách nhiệm của nhà nghiên cứu.
Mình coi output Perplexity là danh mục tài liệu khởi đầu, không phải tổng quan tài liệu. Mọi nguồn đều phải được xác minh độc lập trước khi đưa vào bản thảo.
Giai Đoạn 1.5: Đọc và Hiểu Bài Báo
Sau khi xác định các bài chủ chốt, mình thường dùng SciSpace để hỗ trợ đọc — đặc biệt khi phương pháp thống kê phức tạp.
SciSpace cho phép upload PDF và đặt câu hỏi trực tiếp. Khi gặp kỹ thuật phân tích không quen hoặc phần kết quả dày đặc, nó giúp mình xây dựng hiểu biết nhanh hơn so với đọc bài tuyến tính.
Ràng buộc quan trọng:
SciSpace là công cụ hỗ trợ đọc, không phải thay thế đọc.
Mình chỉ dùng nó sau khi đã quyết định bài có liên quan. Xác định tính liên quan đòi hỏi đọc thủ công đủ để đánh giá phạm vi và chất lượng nghiên cứu — điều mình không thể ủy thác.
Trong thực tế, quy trình như sau:
- Sàng lọc tiêu đề và abstract thủ công
- Lấy toàn văn các bài ứng viên
- Dùng SciSpace cho các phần kỹ thuật dày đặc
- Đọc phần còn lại theo cách thông thường
Công cụ tăng tốc hiểu biết mà không loại nhà nghiên cứu khỏi quá trình đánh giá.
Giai Đoạn 2: Hình Thành Lập Luận
Đây là nơi Claude hữu ích nhất — và cũng là nơi rủi ro cao nhất.
Phần khó nhất của viết học thuật không phải tạo ra văn bản. Mà là quyết định bài báo thực sự đang lập luận gì.
Điều này có nghĩa đánh giá các diễn giải cạnh tranh cho kết quả, quyết định tuyên bố nào có thể bảo vệ được, và hiểu kết quả phù hợp vào tài liệu hiện có ra sao.
Mình dùng Claude như đối tác tư duy, không phải máy tạo văn bản.
Một tương tác điển hình trông như sau:
- Mình mô tả kết quả và diễn giải.
- Mình hỏi Claude xác định ba phản lập luận mạnh nhất.
- Rồi mình kiểm tra xem dữ liệu có thực sự giải quyết được những phản đối đó không.
Quá trình này hữu ích vì nó mô phỏng quy trình peer review. Reviewer được đào tạo để tìm điểm yếu nhất trong lập luận. Nếu điểm yếu đó xuất hiện trước khi nộp, nó có thể sửa trước khi trở thành yêu cầu chỉnh sửa.
Điều mình không làm là hỏi model tạo ra lập luận.
Nếu bạn hỏi LLM "viết phần discussion dựa trên kết quả này," kết quả thường nghe mạch lạc nhưng thiếu cam kết trí tuệ. Tuyên bố chung chung, diễn giải thận trọng, và discussion không khác biệt với hàng chục bài khác trong lĩnh vực.
Đó không phải thứ giúp bài được chấp nhận.
Thứ giúp bài được chấp nhận là một diễn giải cụ thể, có thể bảo vệ được mà tác giả rõ ràng sở hữu.
Claude vs ChatGPT Cho Công Việc Phân Tích
Mình đã dùng cả hai.
Cho đối thoại phân tích bền bỉ — lý luận qua thiết kế nghiên cứu, đánh đổi phương pháp, hay diễn giải cạnh tranh — Claude có xu hướng duy trì ngữ cảnh mạch lạc hơn qua các cuộc hội thoại dài.
ChatGPT hoạt động tốt cho truy vấn ngắn, giao dịch.
Sự khác biệt trở nên rõ ràng khi cuộc hội thoại xây dựng qua nhiều bước. Cho phát triển lập luận, mình thích Claude. Cho câu hỏi nhanh, cái nào cũng được.
Giai Đoạn 3: Phân Tích Dữ Liệu
Đây là nơi AI có vai trò nhỏ nhất trong quy trình của mình.
Mọi phân tích thống kê được thực hiện trong R, dùng pipeline có script và kiểm soát phiên bản. Điều này thiết yếu cho tái lập. Khi kết quả bị đặt câu hỏi — và cuối cùng sẽ bị — bạn phải có khả năng chạy lại toàn bộ phân tích và biện minh mọi quyết định.
Thỉnh thoảng mình dùng Claude để debug code R. Nó đặc biệt hữu ích cho thông báo lỗi không quen hoặc edge case trong hàm chưa dùng trước đó.
Điều mình không làm là hỏi AI chọn phương pháp thống kê hay diễn giải kết quả.
Quyết định dùng test nào, biến đồng biến nào đưa vào, hay xử lý dữ liệu thiếu ra sao là phán đoán phương pháp thuộc về nhà nghiên cứu.
Một bài kiểm tra đơn giản:
Nếu reviewer hỏi "Tại sao bạn dùng phương pháp X thay vì Y?" và câu trả lời trung thực là "Vì AI gợi ý," thì phân tích đó không thực sự là của bạn.
Giai Đoạn 4: Viết Nháp
Viết nháp gần như hoàn toàn thủ công.
Nhiều nhà nghiên cứu hy vọng AI có thể giúp nhiều nhất ở phần viết vì viết thì chậm. Language model chắc chắn có thể tạo ra văn xuôi học thuật trôi chảy.
Vấn đề là viết nháp không chủ yếu là nhiệm vụ ngôn ngữ.
Đó là nhiệm vụ tư duy.
Viết một đoạn văn buộc bạn đối mặt với việc bạn có thực sự hiểu mối quan hệ giữa tuyên bố và bằng chứng hỗ trợ nó không. Khi model viết đoạn đó cho bạn, sự đối mặt đó biến mất.
Mình đã review bản thảo mà toàn bộ phần rõ ràng do AI tạo. Chúng nhận ra được không phải vì ngôn ngữ — thường trau chuốt — mà vì lý luận.
Các câu kết nối. Lập luận thì không.
Bài viết trình diễn suy nghĩ thay vì thực sự suy nghĩ.
Vì lý do này, mình tự viết nháp. Chậm hơn, nhưng đảm bảo bài thực sự nói đúng ý mình.
Giai Đoạn 5: Chỉnh Sửa
Khi bản nháp đã có, AI trở nên hữu ích trở lại.
Mình dùng Claude cho một số nhiệm vụ chỉnh sửa có giới hạn:
Xác định lỗ hổng logic
Mình dán một phần và hỏi: "Bước logic yếu nhất trong lập luận này là gì?"
Kiểm tra cấu trúc đoạn
Mình hỏi mỗi đoạn có câu chủ đề rõ ràng không và tiến trình tổng thể có mạch lạc không.
Mô phỏng phản ứng reviewer
Mình hỏi Claude review phần đó như thể là reviewer cho tạp chí mục tiêu.
Các nhận xét cụ thể không phải lúc nào cũng đúng, nhưng pattern lo ngại thường cho thông tin hữu ích.
Điều mình tránh là để model viết lại văn bản. Nếu đoạn yếu, mình cần hiểu tại sao và tự sửa.
Giai Đoạn 6: Hoàn Thiện
Giai đoạn này chủ yếu cơ học.
Tài liệu tham khảo được quản lý trong Zotero, tích hợp với Word. Định dạng theo hướng dẫn tạp chí mục tiêu. Hình và bảng được chuẩn bị cho nộp bài.
Mình viết bản thảo cuối cùng trong Word đơn giản vì đó là định dạng tạp chí chấp nhận. Mình đã thử quy trình Markdown, nhưng chi phí chuyển đổi lớn hơn lợi ích.
Cho lượt cuối, mình chạy Grammarly để bắt lỗi đánh máy và không nhất quán. Nó không cải thiện lập luận — chỉ trau chuốt bề mặt.
Những Gì Mình Đã Thử Và Bỏ
Một số quy trình AI không sống sót qua sử dụng lâu dài.
Mình đã thử nghiệm AI hỗ trợ sàng lọc abstract cho tổng quan hệ thống. Độ chính xác chấp nhận được, nhưng vấn đề là khả năng kiểm toán. Tạp chí ngày càng yêu cầu tài liệu minh bạch về quyết định sàng lọc. Thiếu tài liệu đó, sàng lọc AI trở nên khó biện minh.
Mình cũng thử định dạng tài liệu tham khảo bằng AI. Phong cách trích dẫn không nhất quán giữa các tạp chí, và model thường tạo lỗi tinh vi. Zotero vẫn đáng tin cậy hơn.
Một số công cụ hứa "tự động tìm tất cả bài liên quan." Chúng hữu ích cho scoping nhưng không đáp ứng yêu cầu tài liệu PRISMA. Cho tìm kiếm hệ thống, các cơ sở dữ liệu như PubMed và Embase vẫn cần thiết.
Quy Trình Cyborg
Trong thực tế, pattern trông như sau:
Giai đoạn
Nhiệm vụ
Công cụ
Vai trò
Khám phá
Lập bản đồ chủ đề
Perplexity
Tổng hợp bối cảnh
Đọc
Hiểu bài báo
SciSpace
Giải thích phương pháp phức tạp
Lập luận
Thử thách ý tưởng
Claude
Tìm điểm yếu
Phân tích
Debug code
Claude
Debug R/Python
Viết nháp
Viết
Bạn
Công việc trí tuệ cốt lõi
Chỉnh sửa
Kiểm tra logic
Claude
Phản hồi cấu trúc
Hoàn thiện
Trau chuốt ngôn ngữ
Grammarly
Chỉnh sửa bề mặt
Hoàn thiện
Tài liệu tham khảo
Zotero
Quản lý trích dẫn
Pattern nhất quán:
AI hỗ trợ các nhiệm vụ đánh giá. Các nhiệm vụ sáng tạo thuộc về nhà nghiên cứu.
Đây không phải hạn chế — đây là thiết kế.
Câu Hỏi Thực Sự Về AI Trong Nghiên Cứu
Câu hỏi quan trọng không phải:
Công cụ AI nào tốt nhất?
Câu hỏi thực sự là:
Ở điểm nào trong quy trình công cụ này giúp mình suy nghĩ tốt hơn, và ở điểm nào nó thay thế suy nghĩ của mình?
Nếu công cụ cải thiện suy nghĩ, hãy dùng.
Nếu nó thay thế suy nghĩ, cuối cùng bạn sẽ gặp reviewer đặt câu hỏi bạn không trả lời được — vì lý luận chưa bao giờ là của bạn.
Những nhà nghiên cứu dùng AI hiệu quả sẽ không phải là người dùng nhiều công cụ nhất.
Họ sẽ là người hiểu quy trình của mình đủ rõ để biết chính xác ranh giới giữa hỗ trợ và phó mặc nằm ở đâu.
Và ranh giới đó đáng được xem xét lại mỗi khi công cụ AI mới xuất hiện.
Công cụ được nhắc đến trong quy trình này
Tiết lộ: Một số link dưới đây là affiliate link. Điều này có nghĩa mình có thể nhận hoa hồng nhỏ nếu bạn đăng ký hoặc mua — không phát sinh thêm chi phí cho bạn. Mình chỉ giới thiệu công cụ mình thực sự dùng trong quy trình nghiên cứu.
- Claude (Anthropic) — công cụ chính cho phát triển lập luận và phản hồi chỉnh sửa. Không có chương trình affiliate.
- ChatGPT (OpenAI) — hữu ích cho truy vấn ngắn, giao dịch. Không có chương trình affiliate.
- [Grammarly affiliate link — add after registration] — trau chuốt ngôn ngữ cuối cùng. Có bản miễn phí; Premium thêm kiểm tra văn phong và rõ ràng.
- [SciSpace affiliate link — add after registration] — đọc PDF và làm rõ phương pháp. Đặc biệt hữu ích cho phần thống kê dày đặc.
- Zotero — quản lý tài liệu tham khảo miễn phí, mã nguồn mở. Không có chương trình affiliate; thực sự là lựa chọn tốt nhất.
- [Trinka affiliate link — add after registration] — kiểm tra ngữ pháp học thuật được xây dựng riêng cho viết khoa học.
- Perplexity — lập bản đồ bối cảnh tài liệu ban đầu. Kiểm tra tính khả dụng chương trình affiliate.
Lưu ý: Mình chỉ giới thiệu công cụ mình thực sự dùng. Quan hệ affiliate không ảnh hưởng đến công cụ nào được đưa vào hay cách đánh giá.
Checklist: Idea to Submission
Checklist từng giai đoạn từ ý tưởng nghiên cứu đến nộp bài tạp chí.
$5
Nếu bạn thấy bài này hữu ích cho bản thảo, bạn có thể tham khảo Checklist: Idea to Submission của mình.