Trong nhiều lĩnh vực, AI không chỉ hỗ trợ mà còn ra quyết định thay cho con người. Ví dụ:
Trợ lý ảo phê duyệt yêu cầu hoàn phí trong các công ty bảo hiểm
Robot y tế đề xuất phác đồ điều trị dựa trên dữ liệu bệnh án
Hệ thống AI phân loại hồ sơ xét tuyển đại học hoặc duyệt tín dụng ngân hàng
Khi AI hành động như một "chủ thể ra quyết định", không còn là công cụ bị động, thì các vấn đề pháp lý, đạo đức và trách nhiệm dân sự trở nên phức tạp.
Một trợ lý ảo tự động duyệt sai hồ sơ cấp visa, một robot hỗ trợ phẫu thuật mắc lỗi kỹ thuật gây tai biến – ai sẽ chịu trách nhiệm?
Lập trình viên? Nhưng họ không trực tiếp kiểm soát hành vi cụ thể.
Người vận hành? Nhưng họ chỉ kích hoạt hệ thống, không kiểm tra mọi đầu ra.
Công ty sở hữu AI? Về lý có thể, nhưng mức độ lỗi rất khó định lượng.
Hiện nay, pháp luật Việt Nam và nhiều nước chưa có quy định cụ thể về "trách nhiệm pháp lý của AI", trong khi các hệ thống ngày càng hoạt động độc lập hơn và đôi khi "học hỏi" những thứ ngoài tầm kiểm soát của con người.
Một số xu hướng đang hình thành:
EU AI Act (2024): Phân loại hệ thống AI theo mức độ rủi ro và yêu cầu kiểm soát tương ứng. Các hệ thống AI có nguy cơ cao (như AI ra quyết định trong tuyển dụng, y tế, tòa án) sẽ phải tuân thủ tiêu chuẩn minh bạch, đánh giá rủi ro và có thể bị cấm nếu vượt ngưỡng cho phép.
OECD & UNESCO: Đề xuất nguyên tắc "AI có trách nhiệm", nhấn mạnh yêu cầu giải trình được (explainability), minh bạch (transparency) và có con người giám sát (human-in-the-loop).
Dù Chính phủ Việt Nam đã ban hành Chiến lược quốc gia về AI đến năm 2030, nhưng hành lang pháp lý cho việc AI thay con người ra quyết định vẫn chưa cụ thể, đặc biệt trong các lĩnh vực:
Tư pháp điện tử: AI hỗ trợ phân tích bản án
Hành chính công: Chatbot tiếp nhận khiếu nại
Y tế: Hệ thống đề xuất kê đơn thuốc, hỗ trợ chẩn đoán
Đề xuất:
Xây dựng khung pháp lý AI có phân loại mức độ rủi ro, tương tự như mô hình EU
Xác lập nguyên tắc trách nhiệm liên đới giữa nhà phát triển, tổ chức triển khai và người vận hành
Yêu cầu hệ thống AI phải có khả năng giải thích cho mọi quyết định được đưa ra
Thiết lập cơ chế giám sát, phản biện và phản hồi người dùng trong các hệ thống ra quyết định tự động
Trợ lý ảo và robot có thể tối ưu hóa hiệu quả, nhưng không nên được trao quyền quyết định cuối cùng trong những lĩnh vực ảnh hưởng đến quyền lợi con người (như pháp luật, giáo dục, y tế, bảo hiểm).
Nguyên tắc nên được giữ vững: AI là công cụ hỗ trợ quyết định – không phải là "người ra quyết định tối cao".
Sự phát triển của trí tuệ nhân tạo không thể đảo ngược. Tuy nhiên, nếu không nhanh chóng xây dựng khung pháp lý phù hợp, xã hội có thể đối mặt với rủi ro từ việc AI thay mặt con người hành động mà không có ai chịu trách nhiệm.
Việt Nam cần hành động sớm – không chỉ để kiểm soát rủi ro mà còn để tạo điều kiện phát triển công nghệ AI một cách bền vững, có đạo đức và minh bạch.
GS Nguyễn Cửu Khoa dùng công nghệ nano hóa dược chất trong thuốc y học cổ truyền, giúp tăng hiệu quả, giảm thời gian điều trị so với thuốc đông y truyền thống
Sử dụng kho dữ liệu hàng trăm triệu từ, nhóm nhà khoa học tại TP HCM xây dựng thành công hệ thống ứng dụng trí tuệ nhân tạo (AI) chuyển chữ Nôm sang chữ Quốc ngữ
Ngày 31/03/2025, tại Trường Đại học Đại Nam, TS. Nguyễn Văn Sườn (Thượng toạ Thích Thiện Xuân) – Chủ tịch Viện Khoa học và Bổ trợ pháp lý – đã tham dự và trình bày tham luận tại Hội thảo quốc tế “Thúc đẩy đổi mới và phát triển: Kết nối các nguyên tắc để tạo ra tác động toàn cầu”. Bài tham luận với chủ đề vận dụng giá trị nhân văn của Phật giáo vào giáo dục đại học đã nhận được sự quan tâm sâu sắc từ đại biểu trong và ngoài nước