Vào thứ Ba, OpenAI cho biết họ đã làm gián đoạn ba nhóm hoạt động lạm dụng công cụ trí tuệ nhân tạo (AI) ChatGPT của mình để tạo điều kiện phát triển phần mềm độc hại.
Điều này bao gồm một tác nhân đe dọa nói tiếng Nga, người được cho là đã sử dụng chatbot để giúp phát triển và tinh chỉnh một remote access trojan (RAT), một công cụ đánh cắp thông tin đăng nhập với mục tiêu né tránh phát hiện. Kẻ điều hành cũng đã sử dụng một số tài khoản ChatGPT để tạo mẫu và khắc phục sự cố các thành phần kỹ thuật cho phép post-exploitation và đánh cắp thông tin đăng nhập.
"Những tài khoản này dường như có liên kết với các nhóm tội phạm nói tiếng Nga, vì chúng tôi đã quan sát thấy họ đăng bằng chứng về các hoạt động của mình trên một kênh Telegram dành riêng cho những tác nhân đó," OpenAI cho biết.
Công ty AI cho biết mặc dù các large language models (LLMs) của họ đã từ chối các yêu cầu trực tiếp của tác nhân đe dọa nhằm tạo ra nội dung độc hại, nhưng chúng đã lách được giới hạn bằng cách tạo ra các khối mã (building-block code), sau đó được lắp ráp để tạo ra các quy trình làm việc.
Một số kết quả đầu ra được tạo ra bao gồm mã để obfuscation, clipboard monitoring và các tiện ích cơ bản để exfiltrate dữ liệu bằng bot Telegram. Điều đáng lưu ý là không có kết quả đầu ra nào trong số này tự bản thân nó là độc hại.
"Tác nhân đe dọa đã đưa ra một hỗn hợp các yêu cầu từ mức độ phức tạp cao đến thấp: nhiều lời nhắc yêu cầu kiến thức sâu về nền tảng Windows và iterative debugging, trong khi những yêu cầu khác tự động hóa các tác vụ thông thường (chẳng hạn như tạo mật khẩu hàng loạt và ứng dụng việc làm tự động theo kịch bản)," OpenAI cho biết thêm.
"Kẻ điều hành đã sử dụng một số lượng nhỏ tài khoản ChatGPT và lặp lại cùng một mã trong các cuộc hội thoại, một mô hình nhất quán với việc phát triển liên tục hơn là thử nghiệm ngẫu nhiên."
Cụm hoạt động thứ hai có nguồn gốc từ Triều Tiên và có những điểm trùng lặp với một chiến dịch được Trellix chi tiết vào tháng 8 năm 2025, nhắm mục tiêu vào các phái đoàn ngoại giao ở Hàn Quốc bằng các email spear-phishing để phân phối Xeno RAT.
OpenAI cho biết cụm này đã sử dụng ChatGPT để phát triển malware và command-and-control (C2), và các tác nhân đã tham gia vào các nỗ lực cụ thể như phát triển tiện ích mở rộng macOS Finder, cấu hình Windows Server VPNs hoặc chuyển đổi các tiện ích mở rộng Chrome sang Safari tương đương.
Ngoài ra, các tác nhân đe dọa còn được phát hiện sử dụng chatbot AI để soạn thảo các email phishing, thử nghiệm các cloud services và chức năng GitHub, và khám phá các kỹ thuật để tạo điều kiện cho DLL loading, in-memory execution, Windows API hooking và credential theft.
OpenAI lưu ý, nhóm tài khoản bị cấm thứ ba có điểm trùng lặp với một cụm được Proofpoint theo dõi dưới tên UNK_DropPitch (hay UTA0388), một nhóm tin tặc Trung Quốc được cho là đã thực hiện các chiến dịch phishing nhắm vào các công ty đầu tư lớn tập trung vào ngành công nghiệp bán dẫn Đài Loan, với một backdoor có tên HealthKick (hay GOVERSHELL).
Các tài khoản đã sử dụng công cụ này để tạo nội dung cho các chiến dịch phishing bằng tiếng Anh, tiếng Trung và tiếng Nhật; hỗ trợ công cụ để đẩy nhanh các tác vụ thông thường như remote execution và bảo vệ lưu lượng truy cập bằng HTTPS; và tìm kiếm thông tin liên quan đến việc cài đặt các công cụ mã nguồn mở như nuclei và fscan. OpenAI mô tả tác nhân đe dọa này là "có năng lực kỹ thuật nhưng không tinh vi".
Các Hoạt Động Lừa Đảo Và Ảnh Hưởng Khác
- Các mạng lưới có khả năng bắt nguồn từ Campuchia, Myanmar và Nigeria đang lạm dụng ChatGPT như một phần của các nỗ lực lừa đảo người dùng trực tuyến. Các mạng lưới này đã sử dụng AI để dịch thuật, viết tin nhắn và tạo nội dung cho mạng xã hội để quảng cáo các chiêu trò lừa đảo đầu tư.
- Các cá nhân dường như có liên hệ với các thực thể chính phủ Trung Quốc đã sử dụng ChatGPT để hỗ trợ giám sát các cá nhân, bao gồm các nhóm dân tộc thiểu số như người Uyghur, và phân tích dữ liệu từ các nền tảng mạng xã hội phương Tây hoặc Trung Quốc. Người dùng đã yêu cầu công cụ này tạo tài liệu quảng cáo về các công cụ như vậy, nhưng không sử dụng chatbot AI để triển khai chúng.
- Một tác nhân đe dọa có nguồn gốc từ Nga liên quan đến Stop News và có khả năng được điều hành bởi một công ty tiếp thị đã sử dụng các mô hình AI của mình (và các mô hình khác) để tạo nội dung và video chia sẻ trên các trang mạng xã hội. Nội dung được tạo ra đã chỉ trích vai trò của Pháp và Mỹ ở Châu Phi cũng như vai trò của Nga trên lục địa này. Nó cũng sản xuất nội dung tiếng Anh quảng bá các câu chuyện chống Ukraine.
- Một chiến dịch gây ảnh hưởng bí mật có nguồn gốc từ Trung Quốc, với tên mã "Nine—emdash Line", đã sử dụng các mô hình của mình để tạo nội dung mạng xã hội chỉ trích Tổng thống Philippines Ferdinand Marcos, cũng như tạo các bài đăng về tác động môi trường bị cáo buộc của Việt Nam ở Biển Đông và các nhân vật chính trị, nhà hoạt động liên quan đến phong trào dân chủ ở Hồng Kông.
Trong hai trường hợp khác nhau, các tài khoản bị nghi ngờ của Trung Quốc đã yêu cầu ChatGPT xác định những người tổ chức một bản kiến nghị ở Mông Cổ và các nguồn tài trợ cho một tài khoản X chỉ trích chính phủ Trung Quốc. OpenAI cho biết các mô hình của họ chỉ trả về thông tin công khai và không bao gồm bất kỳ thông tin nhạy cảm nào.
OpenAI cho biết: "Một cách sử dụng mới lạ của mạng lưới gây ảnh hưởng liên quan đến Trung Quốc này là yêu cầu tư vấn về chiến lược phát triển mạng xã hội, bao gồm cách bắt đầu một thử thách TikTok và khuyến khích người khác đăng nội dung về hashtag #MyImmigrantStory (một hashtag được sử dụng rộng rãi từ lâu mà hoạt động này có thể đã cố gắng tận dụng sự phổ biến của nó)".
"Họ đã yêu cầu mô hình của chúng tôi lên ý tưởng, sau đó tạo bản ghi cho một bài đăng TikTok, ngoài ra còn cung cấp các đề xuất về nhạc nền và hình ảnh đi kèm bài đăng".
OpenAI nhắc lại rằng các công cụ của họ đã cung cấp cho các tác nhân đe dọa những khả năng mới mà họ không thể có được từ nhiều nguồn tài nguyên công khai trực tuyến khác, và rằng chúng được sử dụng để cung cấp hiệu quả tăng dần cho các quy trình làm việc hiện có của họ.
Nhưng một trong những điểm đáng chú ý nhất từ báo cáo là các tác nhân đe dọa đang cố gắng điều chỉnh chiến thuật của mình để loại bỏ các dấu hiệu có thể cho thấy nội dung được tạo ra bởi một công cụ AI.
Công ty cho biết: "Một trong các mạng lưới lừa đảo [từ Campuchia] mà chúng tôi đã làm gián đoạn đã yêu cầu mô hình của chúng tôi loại bỏ các em-dash (dấu gạch ngang dài, –) khỏi đầu ra của chúng, hoặc dường như đã loại bỏ các em-dash thủ công trước khi xuất bản". "Trong nhiều tháng, em-dash đã là trọng tâm của các cuộc thảo luận trực tuyến như một chỉ số khả dĩ về việc sử dụng AI: trường hợp này cho thấy các tác nhân đe dọa đã nhận thức được cuộc thảo luận đó".
Những phát hiện từ OpenAI được đưa ra khi đối thủ Anthropic phát hành một công cụ kiểm toán mã nguồn mở có tên Petri (viết tắt của "Parallel Exploration Tool for Risky Interactions") để đẩy nhanh nghiên cứu an toàn AI và hiểu rõ hơn về hành vi của mô hình trên nhiều danh mục khác nhau như deception, sycophancy, encouragement of user delusion, cooperation with harmful requests, và self-preservation.
Anthropic cho biết: "Petri triển khai một tác nhân tự động để kiểm tra một hệ thống AI mục tiêu thông qua các cuộc hội thoại đa lượt đa dạng liên quan đến người dùng và công cụ mô phỏng".
"Các nhà nghiên cứu cung cấp cho Petri một danh sách các hướng dẫn hạt giống (seed instructions) nhắm mục tiêu vào các kịch bản và hành vi mà họ muốn kiểm tra. Petri sau đó hoạt động trên mỗi hướng dẫn hạt giống song song. Đối với mỗi hướng dẫn hạt giống, một tác nhân kiểm toán sẽ lập kế hoạch và tương tác với mô hình mục tiêu trong một vòng lặp sử dụng công cụ. Cuối cùng, một giám khảo sẽ chấm điểm từng bản ghi kết quả theo nhiều chiều để các nhà nghiên cứu có thể nhanh chóng tìm kiếm và lọc ra những bản ghi thú vị nhất".