1. Đặt vấn đề: Nghịch lý 84% / 29%

Khảo sát Stack Overflow Developer Survey 2025 — với hơn 49.000 lập trình viên từ 177 quốc gia — ghi nhận một sự dịch chuyển đáng chú ý: 84% lập trình viên đang dùng hoặc dự định dùng công cụ AI, tăng từ 76% năm 2024, trong khi 46% nói họ không tin tưởng độ chính xác của AI — tăng mạnh từ 31% năm trước (Stack Overflow, 2025). Báo cáo phân tích sâu hơn của Stack Overflow Blog (2026) chỉ ra rằng tỷ lệ tin tưởng AI sụt từ khoảng 40% xuống còn 29%, trong khi tỷ lệ sử dụng vọt lên 84% — một nghịch lý đi ngược lại đường cong áp dụng công nghệ truyền thống. Stack OverflowStack Overflow

Cùng lúc đó, các công ty từng coi AI là phương án thay thế lao động đang phải đảo chiều chiến lược: khảo sát IBM với 2.000 CEO cho thấy chỉ 1 trong 4 dự án AI mang lại ROI như đã hứa, và chỉ 16% được mở rộng quy mô toàn doanh nghiệp (Fortune, 2025). Bức tranh hiện ra: AI đang được dùng rộng rãi hơn bao giờ hết, nhưng cũng đang bộc lộ giới hạn rõ ràng hơn bao giờ hết. Đây chính là bối cảnh khiến câu hỏi "vai trò của con người trong SDLC là gì khi AI can thiệp ngày càng sâu" trở thành câu hỏi sống còn — không phải triết học. ☕ Fortune


2. Vì sao luận điểm "AI thay thế con người" không đứng vững

2.1. Bằng chứng từ thực tiễn doanh nghiệp: Case Klarna

Klarna — fintech "buy now, pay later" của Thụy Điển — là case study được trích dẫn nhiều nhất khi nói về thất bại của chiến lược thay thế hoàn toàn. Năm 2024, công ty tuyên bố AI chatbot làm việc bằng 700 nhân viên chăm sóc khách hàng, tiết kiệm $10 triệu, và CEO Sebastian Siemiatkowski khẳng định AI có thể làm mọi việc của con người (Fortune, 2025; Vice, 2025).

Đến tháng 5/2025, Klarna phải tuyển lại con người sau khi cách tiếp cận AI dẫn đến "chất lượng thấp hơn". CEO thừa nhận: "Chúng tôi đã quá tập trung vào hiệu suất và chi phí. Kết quả là chất lượng thấp hơn, và điều đó không bền vững." (Linkifico, 2025, trích dẫn Bloomberg). Hệ quả tài chính: chi phí tuyển lại vượt khoản tiết kiệm ban đầu — phần chi phí "hoàn tác" này hiếm khi được tính trong business case ban đầu (Digital Applied, 2026). Fortune + 2

2.2. Bằng chứng từ nghiên cứu vĩ mô: McKinsey & Gartner

Báo cáo McKinsey State of AI 2025 — khảo sát 1.993 doanh nghiệp tại 105 quốc gia — vẽ ra một bức tranh tỉnh táo: 88% tổ chức đã sử dụng AI trong ít nhất một chức năng nghiệp vụ, nhưng chỉ khoảng 6% đang nắm bắt được "giá trị doanh nghiệp đáng kể" (McKinsey, 2025). Nói cách khác, áp dụng AI ≠ tạo ra giá trị từ AI. Phát hiện sống còn nhất nằm ở phần phân tích yếu tố phân hóa: McKinsey ghi nhận các tổ chức "AI high performer" có quy trình xác thực "human in the loop" với tỷ lệ 65%, so với chỉ 23% ở nhóm còn lại — chênh lệch gần gấp 3 lần. MediumCX Today

Gartner cung cấp một cảnh báo tương đồng: hơn 40% dự án AI agent sẽ bị hủy bỏ trước cuối năm 2027, theo khảo sát hơn 3.400 tổ chức đang đầu tư vào công nghệ này (Gartner, tháng 6/2025, trích dẫn qua MarTech). Lý do, theo Anushree Verma — Senior Director Analyst tại Gartner — không nằm ở công nghệ, mà nằm ở quyết định triển khai của con người: phần lớn các dự án hiện ở giai đoạn thử nghiệm sớm, bị hype dẫn dắt, và áp dụng sai cách. MarTech

2.3. Bằng chứng từ chính người dùng AI: Trust paradox

Câu trả lời quyết định nhất cho câu hỏi "con người có còn vai trò không" lại đến từ chính các developer đang dùng AI hàng ngày. Stack Overflow Survey 2025 hỏi họ: trong tương lai khi AI làm được hầu hết việc coding, vì sao bạn vẫn cần hỏi một con người? 75% chọn lý do "khi tôi không tin câu trả lời của AI" (Stack Overflow, 2025). Lập trình viên đã định vị mình — và đồng nghiệp con người của mình — là trọng tài cuối cùng của chất lượng và tính đúng đắn. Stack Overflow

Nguồn cơn của sự bất tín nhiệm này không phải là "AI viết code dở", mà là 66% lập trình viên chọn "giải pháp AI gần đúng nhưng không hoàn toàn đúng" là vấn đề lớn nhất; 45,2% nói debug code do AI sinh ra tốn nhiều thời gian hơn (Stack Overflow, 2025; ADTmag, 2026). Lỗi tinh vi — chứ không phải lỗi thô — mới là rủi ro lớn nhất, và đó chính xác là loại rủi ro chỉ con người có chuyên môn mới phát hiện ra. ADTmag


3. Human-in-the-Loop: Từ "tùy chọn" thành "kiến trúc bắt buộc"

3.1. Định nghĩa và ý nghĩa chiến lược

Theo định nghĩa của SPD Technology (2026), Human-in-the-Loop (HITL) là cách thiết kế hệ thống AI mà tại đó chuyên môn của con người được tích hợp có chủ đích ở các giai đoạn then chốt, nhằm nâng cao độ chính xác, độ tin cậy và sự phù hợp với nhu cầu thực tế. Tổ chức CloudFactory mở rộng: con người trong vòng lặp sẽ kiểm tra, xác thực và điều chỉnh thuật toán để cải thiện kết quả; họ cũng thu thập, gán nhãn và kiểm soát chất lượng dữ liệu (CloudFactory, 2024). SPD TechnologyCloudfactory

Quan trọng hơn, McKinsey (2025) đã định lượng giá trị kinh doanh của HITL: chính sự hiện diện của khung HITL — kèm theo giám sát tập trung và trách nhiệm của lãnh đạo — là thứ phân biệt nhóm AI high performer với phần còn lại của thị trường (Medium analysis của Yang, 2025).

3.2. Process atrophy: Mặt trái khi quên đi vai trò con người

AWS đã đưa ra một khái niệm rất đắt giá trong khung AI-Driven Development Life Cycle công bố cuối năm 2025: khi AI tự động hóa nhiều phần của SDLC hơn, một rủi ro mới xuất hiện — "process atrophy" (teo cơ quy trình). Developer, hào hứng với tự động hóa, trôi vào trạng thái thực thi thụ động, để AI quyết định mọi thứ; kết quả là mất phản tư, suy yếu giám sát, xói mòn hiểu biết chung (AWS, 2025). AWS

Lập luận của AWS được Gartner xác nhận từ một góc độ khác — đo lường năng lực nhận thức: đến năm 2026, hiện tượng "teo cơ" tư duy phản biện do dùng GenAI sẽ buộc 50% tổ chức toàn cầu yêu cầu đánh giá năng lực "AI-free" (ThoughtMinds, dẫn theo Gartner 2026 Strategic Predictions). Nói nôm na: tổ chức bắt đầu lo lắng rằng nhân viên của họ "đang ngày càng phụ thuộc" và mất khả năng tự tư duy vì AI luôn sẵn có. 😅 Thoughtminds

3.3. Bằng chứng triển khai thực tế: HULA framework của Atlassian

Một trong những ví dụ HITL được công bố tại hội nghị ICSE 2025 là HULA — framework Human-in-the-loop LLM-based Agents do Atlassian phát triển và triển khai vào Jira nội bộ (Takerngsaksiri và cộng sự, 2024; arXiv 2411.12924). Nghiên cứu cho thấy các kỹ sư phần mềm của Atlassian đánh giá HULA có thể giảm thời gian và công sức phát triển tổng thể, đặc biệt là khi khởi tạo kế hoạch coding và viết code cho các tác vụ đơn giản (Takerngsaksiri et al., 2024). Điểm cốt yếu: HULA không chạy độc lập; nó yêu cầu kỹ sư review và điều chỉnh ở mọi giai đoạn — và đó chính là lý do nó hoạt động. arXiv


4. Vai trò mới của từng vị trí trong SDLC

4.1. Tester / QA Engineer: Từ "thực thi test" sang "giám hộ chất lượng"

NashTech Blog (2026) tổng hợp ngắn gọn nhất: tester tiến hóa thành những người ra quyết định then chốt, dẫn dắt chất lượng, rủi ro và niềm tin trong các hệ thống ngày càng phức tạp. testRigor bổ sung sắc thái quan trọng: tester giờ phải đánh giá output AI có an toàn, không thiên lệch, có thể giải thích và phù hợp với ý định thực của user — thay vì tin AI một cách mù quáng. Những trách nhiệm này đòi hỏi tư duy phản biện, phán đoán đạo đức và chuyên môn sâu (testRigor, 2026). NashTech BlogtestRigor

Quash (2025) trích dẫn World Quality Report 2025 — một báo cáo công nghiệp lớn — cho biết 58% doanh nghiệp đang nâng cao kỹ năng AI cho đội QA, đồng thời nhấn mạnh rằng AI không ở đây để thay thế SDET mà để nâng cấp năng lực của họ; SDET vẫn quan trọng cho test strategy, phân tích kịch bản phức tạp và các quyết định cần phán đoán. QuashQuash

4.2. Developer: Từ "sản xuất code" sang "điều phối quyết định"

Gartner dự đoán đến năm 2028, 90% kỹ sư phần mềm doanh nghiệp sẽ dùng AI code assistant, tăng từ dưới 14% đầu năm 2024; vai trò developer sẽ dịch chuyển từ implementation sang orchestration, tập trung vào giải quyết vấn đề, thiết kế hệ thống, và đảm bảo công cụ AI cho kết quả chất lượng cao (Gartner, 2025). Gartner

Joshi (2025) — nhà phân tích .NET — đưa ra góc nhìn thực chiến của developer cuối 2025: developer đang chuyển từ "người sản xuất code thủ công" sang "người làm chủ các quyết định về phần mềm"; thời gian cho việc lặp đi lặp lại giảm, thời gian cho thiết kế, kiến trúc, xác minh và giao tiếp tăng. Nhưng tác giả cũng cảnh báo: trớ trêu thay, công cụ càng mạnh, sử dụng nó mà không hiểu càng nguy hiểm — nền tảng cơ bản giờ quan trọng hơn bao giờ hết. BinaryintellectBinaryintellect

4.3. Business Analyst & Product Manager: Từ "tài liệu hóa" sang "định nghĩa Why"

Baytech Consulting (2026) phân tích góc nhìn role-by-role: AI đang tự động hóa "cái gì" và "làm thế nào" của requirements documentation, giải phóng BA và PM tập trung vào "tại sao" — phần giá trị hơn rất nhiều; nhiệm vụ mới của họ là sàng lọc insight AI sinh ra, xác thực cơ hội thị trường với tốc độ chưa từng có. Baytech Consulting

Microsoft Research công bố một nghiên cứu định tính-định lượng quy mô lớn về cách PM nội bộ giao việc cho GenAI (Microsoft Research, 2025; arXiv 2510.02504). Phát hiện cốt lõi và đáng nhớ nhất: trách nhiệm không thể được giao phó cho các tác nhân phi nhân loại. AI có thể draft, phân tích, đề xuất — nhưng khi sản phẩm đi sai và khách hàng mất tiền, chữ ký pháp lý vẫn là chữ ký con người. ✍️ arxiv

4.4. Test Manager, DevOps & SRE: Người quản trị đội hình lai

Microsoft Tech Community (2026) mô tả vai trò mới của các DevOps practice: Copilot có thể chạy CodeQL, PMD và ESLint cùng với phát hiện chất lượng code mới và tự sửa; đồng thời tóm tắt thay đổi để hỗ trợ human-in-the-loop hiểu cần cải tiến gì. Vai trò của Test Manager / DevOps lead chuyển sang quản lý đội hình lai — bao gồm cả con người lẫn agent AI — với các yêu cầu mới về governance, AI security, và observability. Microsoft Community Hub


5. Năm năng lực cốt lõi cho con người trong SDLC giai đoạn 2026–2030

Trên cơ sở phân tích trên, có thể tổng hợp năm năng lực mà bất kỳ vai trò nào trong SDLC cũng cần đầu tư:

(1) AI Literacy — chuẩn mới của ngành. Sombra (2026) so sánh AI literacy ngày nay với Agile/Scrum 15–20 năm trước: từng là kỹ năng đặc biệt, giờ là điều kiện cần (Sombra, 2026). Gartner còn dự đoán xa hơn: đến năm 2029, ít nhất 50% lao động tri thức sẽ phát triển kỹ năng mới để làm việc với, quản trị hoặc tạo AI agent theo yêu cầu cho các tác vụ phức tạp. DEVOPSdigest

(2) Critical Thinking & Verification. Năng lực phát hiện lỗi "almost right but not quite" — vốn là nguyên nhân của 66% phàn nàn về AI (Stack Overflow, 2025). Tester có lợi thế tự nhiên ở đây vì nghề kiểm thử bản chất là nghề chất vấn.

(3) Domain Expertise & Business Context. AI thiếu hiểu biết nghiệp vụ. Một độ trễ 200ms ở trang checkout là thảm họa, cùng độ trễ đó ở admin nội bộ là chuyện thường — sự phân biệt này yêu cầu ngữ cảnh kinh doanh, không phải khả năng tính toán.

(4) Prompt Engineering & AI Orchestration. Năng lực ra lệnh cho AI ra kết quả tốt là kỹ năng lưng vốn mới của mọi role, không chỉ riêng developer hay tester.

(5) Ethical Guardianship & Accountability. Khi AI làm việc, con người chịu trách nhiệm — như khẳng định trực diện của nghiên cứu Microsoft (2025). Đây là vai trò không thể outsource cho thuật toán. 🛡️


6. Kết luận

Sự dịch chuyển lớn nhất trong SDLC giai đoạn 2025–2027 không phải là AI thay thế con người. Đó là con người không thể làm việc như cũ nữa. Dữ liệu thực nghiệm — từ McKinsey, Gartner, Stack Overflow, IBM và các case study như Klarna — đều hội tụ vào một kết luận: mô hình replacement thất bại có hệ thống, trong khi mô hình Human-in-the-Loop tạo ra giá trị kinh tế đo đếm được và bền vững.

Câu hỏi đặt ra cho cộng đồng kiểm thử Việt Nam — và cho mọi role trong SDLC — không còn là "liệu tôi có bị thay thế không". Câu hỏi đúng là: "tôi có đang nâng cấp đúng năng lực để giữ vai trò trọng tài cuối cùng của chất lượng không?"

Tại IT Learn, chúng tôi tin rằng người tester của 2026 không cần lo bị AI thay thế — họ cần lo bị bỏ lại bởi chính những đồng nghiệp đang nâng cấp nhanh hơn. Và đó là cuộc đua đáng để tham gia. 💪


Tài liệu tham khảo

  1. AWS DevOps & Developer Productivity Blog (2025). Open-Sourcing Adaptive Workflows for AI-Driven Development Life Cycle (AI-DLC). https://aws.amazon.com/blogs/devops/open-sourcing-adaptive-workflows-for-ai-driven-development-life-cycle-ai-dlc/
  2. Baytech Consulting (2026). Agentic SDLC: The AI-Powered Blueprint Transforming Software Development. https://www.baytechconsulting.com/blog/agentic-sdlc-ai-software-blueprint
  3. Digital Applied (2026). Klarna Reverses AI Layoffs: Why Replacing 700 Failed. https://www.digitalapplied.com/blog/klarna-reverses-ai-layoffs-replacing-700-workers-backfired
  4. Fortune (2025). Klarna plans to hire humans again, as new landmark survey reveals most AI projects fail to deliver. https://fortune.com/2025/05/09/klarna-ai-humans-return-on-investment/
  5. Gartner (2025). Top Strategic Trends in Software Engineering for 2025 and Beyond. https://www.gartner.com/en/newsroom/press-releases/2025-07-01-gartner-identifies-the-top-strategic-trends-in-software-engineering-for-2025-and-beyond
  6. Gartner (2025). 40% of agentic AI projects will be canceled by end of 2027 — trích dẫn qua MarTech (2026). https://martech.org/gartner-40-of-agentic-ai-projects-will-fail-making-humans-indispensable/
  7. Joshi, B. (2025). The Human Loop: Coding and AI in 2025. https://www.binaryintellect.net/articles/16511664-5473-4f9f-b3ee-d8931e11a3d6.aspx
  8. McKinsey & Company (2025). The State of AI 2025: Agents, Innovation, and Transformation — phân tích qua Libertify (2026) và Medium (2025).
  9. Microsoft Research (2025). Product Manager Practices for Delegating Work to Generative AI: "Accountability must not be delegated to non-human actors". arXiv 2510.02504. https://arxiv.org/pdf/2510.02504
  10. Microsoft Tech Community (2026). An AI led SDLC: Building an End-to-End Agentic Software Development Lifecycle. https://techcommunity.microsoft.com/blog/appsonazureblog/an-ai-led-sdlc-building-an-end-to-end-agentic-software-development-lifecycle-wit/4491896
  11. NashTech Blog (2026). The Future of Software Testing: How Testers Evolve in an AI-Driven World. https://blog.nashtechglobal.com/the-future-of-software-testing-how-testers-evolve-in-an-ai-driven-world/
  12. Quash (2025). AI in Software Testing 2026: The QA to SDET Transition. https://quashbugs.com/blog/qa-to-sdet-ai-2026
  13. SPD Technology (2026). Human in the Loop: The Key to Value Creation in AI. https://spd.tech/artificial-intelligence/human-in-the-loop/
  14. Sombra (2026). How AI in SDLC Actually Improves Software Delivery. https://sombrainc.com/blog/ai-sdlc
  15. Stack Overflow (2025). 2025 Developer Survey: AI. https://survey.stackoverflow.co/2025/ai
  16. Stack Overflow Blog (2026). Mind the gap: Closing the AI trust gap for developers. https://stackoverflow.blog/2026/02/18/closing-the-developer-ai-trust-gap/
  17. Takerngsaksiri, W. et al. (2024). Human-In-the-Loop Software Development Agents. arXiv 2411.12924. ICSE 2025 — Software Engineering in Practice Track.
  18. testRigor (2026). Will AI Replace Testers? Choose Calm Over Panic. https://testrigor.com/blog/will-ai-replace-testers/
  19. Vice (2025). This Company Replaced Workers With AI. Now They're Looking for Humans Again. https://www.vice.com/en/article/this-company-replaced-workers-with-ai-now-theyre-looking-for-humans-again/