Trong một vụ kiện gần đây, một công ty đã yêu cầu đối thủ cung cấp mọi cuộc trò chuyện và lời nhắc họ đã sử dụng với các công cụ trí tuệ nhân tạo như ChatGPT. Đây là một ví dụ rõ ràng về cách AI đang định hình lại quy trình pháp lý, buộc các công ty luật phải nhanh chóng thích nghi.
Trong một bài đăng trên LinkedIn, luật sư John M. Barkett của hãng luật Shook, Hardy & Bacon L.L.P. đã chia sẻ một yêu cầu khám phá bằng chứng (discovery request) từ một vụ kiện thương mại. Yêu cầu này đòi hỏi một bên phải cung cấp “tất cả các tài liệu và thông tin liên lạc liên quan đến việc sử dụng Trí tuệ Nhân tạo, bao gồm… tất cả các lời nhắc (prompts) được nhập vào bất kỳ công cụ Trí tuệ Nhân tạo nào… và tất cả các phản hồi từ các công cụ Trí tuệ Nhân tạo đó.”
Barkett, người chuyên về các vụ kiện phức tạp, nhận xét rằng đây là lần đầu tiên ông thấy một yêu cầu khám phá bằng chứng cụ thể như vậy. Ông dự đoán đây sẽ là một xu hướng mới nổi. “Tôi nghĩ chúng ta sẽ thấy nhiều hơn những yêu cầu như thế này,” ông viết.
AI trở thành một phần của hồ sơ pháp lý
Yêu cầu này phản ánh một thực tế ngày càng rõ: đầu ra từ các công cụ AI như ChatGPT có thể trở thành một phần của hồ sơ pháp lý và được sử dụng làm bằng chứng tại tòa. Các công ty luật đang phải đối mặt với thách thức mới là quản lý và sàng lọc dữ liệu AI của khách hàng, tương tự như cách họ xử lý email và tin nhắn.
Barkett giải thích rằng các công ty luật giờ đây phải hỏi khách hàng về việc họ sử dụng AI trong công việc kinh doanh. “Các công ty luật cần bắt đầu đặt câu hỏi với khách hàng của mình về việc sử dụng AI trong hoạt động kinh doanh, để họ có thể tư vấn cho khách hàng về việc lưu giữ tài liệu và sau đó thu thập thông tin đó khi cần thiết,” ông nói.
Ông cũng cảnh báo rằng việc sử dụng AI có thể tạo ra những rủi ro pháp lý mới. Ví dụ, nếu một nhân viên sử dụng AI để tạo nội dung có thể bị coi là phỉ báng hoặc xâm phạm bản quyền, công ty của họ có thể phải chịu trách nhiệm. “Nếu một nhân viên sử dụng AI để tạo ra nội dung phỉ báng hoặc vi phạm bản quyền, thì công ty có thể phải chịu trách nhiệm pháp lý,” Barkett viết.
Thách thức về quyền riêng tư và bảo mật
Vấn đề càng trở nên phức tạp khi xét đến chính sách bảo mật của các công cụ AI. OpenAI, công ty đứng sau ChatGPT, tuyên bố rằng họ có thể xem xét các cuộc trò chuyện của người dùng để cải thiện mô hình của mình. Điều này đặt ra câu hỏi về tính bảo mật của thông tin nhạy cảm được chia sẻ với AI.
Một số công ty đã bắt đầu cấm nhân viên sử dụng các công cụ AI công khai như ChatGPT cho công việc, thay vào đó khuyến khích sử dụng các giải pháp nội bộ hoặc phiên bản doanh nghiệp có cam kết bảo mật dữ liệu cao hơn.
Trong bối cảnh pháp lý ngày càng chú trọng vào AI, các chuyên gia khuyến cáo doanh nghiệp cần thiết lập các chính sách rõ ràng về việc sử dụng AI, đào tạo nhân viên về rủi ro tiềm ẩn và chuẩn bị sẵn sàng cho khả năng mọi tương tác với AI đều có thể bị yêu cầu cung cấp trước tòa.
Tuyên bố miễn trừ: Bài viết này chỉ nhằm mục đích cung cấp thông tin dưới dạng blog cá nhân, không phải là khuyến nghị đầu tư. Nhà đầu tư cần tự nghiên cứu kỹ lưỡng trước khi đưa ra quyết định và chúng tôi không chịu trách nhiệm đối với bất kỳ quyết định đầu tư nào của bạn.
Theo Nghị quyết số 05/2025/NQ-CP ngày 09/09/2025 của Chính phủ về việc thí điểm triển khai thị trường tài sản số tại Việt Nam, CoinPhoton.com hiện chỉ cung cấp thông tin cho độc giả quốc tế và không phục vụ người dùng tại Việt Nam cho đến khi có hướng dẫn chính thức từ cơ quan chức năng.
- Thẻ đính kèm:
- OpenAI

Bitcoin
Ethereum
Tether
XRP
USDC
Solana
TRON
Figure Heloc
Dogecoin
WhiteBIT Coin
USDS
Hyperliquid
Cardano
LEO Token
Bitcoin Cash
Chainlink
Monero
MemeCore 




