OpenAI cho biết GPT-4 chỉ tăng độ chính xác ở mức khiêm tốn khi tạo ra nguy cơ đe dọa sinh học. Công ty cũng lưu ý rằng thông tin về các mối nguy hiểm sinh học "tương đối dễ dàng" tìm thấy trên mạng, ngay cả khi không có trí tuệ nhân tạo.
Nghiên cứu của OpenAI
Để phát triển hệ thống cảnh báo, OpenAI đã thực hiện một nghiên cứu trên 100 người: 50 tiến sĩ sinh học và 50 sinh viên đại học đã học ít nhất một khóa sinh học đại học. Mỗi người tham gia được chỉ định ngẫu nhiên vào nhóm kiểm soát chỉ có quyền truy cập Internet, hoặc nhóm có
quyền truy cập GPT-4 ngoài Internet. Sau đó, mỗi người tham gia được yêu cầu hoàn thành một loạt nhiệm vụ, bao gồm một số khía cạnh của việc tạo ra nguy cơ sinh học.
quyền truy cập GPT-4 ngoài Internet. Sau đó, mỗi người tham gia được yêu cầu hoàn thành một loạt nhiệm vụ, bao gồm một số khía cạnh của việc tạo ra nguy cơ sinh học.
OpenAI đo lường hiệu suất người tham gia dựa trên năm số liệu: độ chính xác, khả năng thu hồi, sự đổi mới, tốc độ và độ phức tạp. Nhóm có quyền truy cập vào GPT-4 cho thấy kết quả tốt hơn ở tất cả các thông số. Tuy nhiên, theo OpenAI, sự vượt trội chưa đủ lớn để có ý nghĩa thống kê.
Nguy hiểm ở đâu?
Trí tuệ nhân tạo nguy hiểm trong tương lai không phải bởi sự nổi dậy của máy móc, mà vì con người sẽ tỏ ra tin tưởng quá mức vào AI và đưa ra những quyết định sai lầm bởi cho rằng "máy tính luôn luôn đúng", nhà phân tích hàng đầu tại Mobile Research, ông Eldar Murtazin chia sẻ ý kiến của mình với Sputnik.
"Hiện tại không có mối nguy hiểm nào (trong việc sử dụng AI); có khả năng nó phụ thuộc vào những gì chúng ta có thể cung cấp cho các hệ thống như vậy để kiểm soát", - ông Murtazin nói.
Theo ông, những hệ thống như vậy phải được sử dụng một cách thận trọng.