https://kevesko.vn/20240202/chatgpt-co-the-tang-toc-do-phat-trien-vu-khi-sinh-hoc-27945748.html
ChatGPT có thể tăng tốc độ phát triển vũ khí sinh học
ChatGPT có thể tăng tốc độ phát triển vũ khí sinh học
Sputnik Việt Nam
MATXCƠVA (Sputnik) – OpenAI sẽ triển khai hệ thống cảnh báo trong ChatGPT trong trường hợp mạng thần kinh được sử dụng để tạo ra vũ khí sinh học, The Decoder... 02.02.2024, Sputnik Việt Nam
2024-02-02T04:21+0700
2024-02-02T04:21+0700
2024-02-02T04:21+0700
công nghệ
trí tuệ nhân tạo
thế giới
vũ khí hóa học
an ninh quốc phòng
https://cdn.img.kevesko.vn/img/07e5/08/1e/11007202_87:0:1907:1024_1920x0_80_0_0_2ec39a016d028dd27df04d292904e4cc.jpg
OpenAI cho biết GPT-4 chỉ tăng độ chính xác ở mức khiêm tốn khi tạo ra nguy cơ đe dọa sinh học. Công ty cũng lưu ý rằng thông tin về các mối nguy hiểm sinh học "tương đối dễ dàng" tìm thấy trên mạng, ngay cả khi không có trí tuệ nhân tạo.Nghiên cứu của OpenAIĐể phát triển hệ thống cảnh báo, OpenAI đã thực hiện một nghiên cứu trên 100 người: 50 tiến sĩ sinh học và 50 sinh viên đại học đã học ít nhất một khóa sinh học đại học. Mỗi người tham gia được chỉ định ngẫu nhiên vào nhóm kiểm soát chỉ có quyền truy cập Internet, hoặc nhóm cóquyền truy cập GPT-4 ngoài Internet. Sau đó, mỗi người tham gia được yêu cầu hoàn thành một loạt nhiệm vụ, bao gồm một số khía cạnh của việc tạo ra nguy cơ sinh học.OpenAI đo lường hiệu suất người tham gia dựa trên năm số liệu: độ chính xác, khả năng thu hồi, sự đổi mới, tốc độ và độ phức tạp. Nhóm có quyền truy cập vào GPT-4 cho thấy kết quả tốt hơn ở tất cả các thông số. Tuy nhiên, theo OpenAI, sự vượt trội chưa đủ lớn để có ý nghĩa thống kê.Nguy hiểm ở đâu?Trí tuệ nhân tạo nguy hiểm trong tương lai không phải bởi sự nổi dậy của máy móc, mà vì con người sẽ tỏ ra tin tưởng quá mức vào AI và đưa ra những quyết định sai lầm bởi cho rằng "máy tính luôn luôn đúng", nhà phân tích hàng đầu tại Mobile Research, ông Eldar Murtazin chia sẻ ý kiến của mình với Sputnik.Theo ông, những hệ thống như vậy phải được sử dụng một cách thận trọng.
https://kevesko.vn/20240117/bill-gates-tri-tue-nhan-tao-huu-ich-cho-gioi-lap-trinh-vien-27629411.html
Sputnik Việt Nam
moderator.vn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2024
Sputnik Việt Nam
moderator.vn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
tin thời sự
vn_VN
Sputnik Việt Nam
moderator.vn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.img.kevesko.vn/img/07e5/08/1e/11007202_314:0:1679:1024_1920x0_80_0_0_be1b23fd2d10540c20a972f1b2e9949d.jpgSputnik Việt Nam
moderator.vn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
công nghệ, trí tuệ nhân tạo, thế giới, vũ khí hóa học, an ninh quốc phòng
công nghệ, trí tuệ nhân tạo, thế giới, vũ khí hóa học, an ninh quốc phòng
ChatGPT có thể tăng tốc độ phát triển vũ khí sinh học
MATXCƠVA (Sputnik) – OpenAI sẽ triển khai hệ thống cảnh báo trong ChatGPT trong trường hợp mạng thần kinh được sử dụng để tạo ra vũ khí sinh học, The Decoder cho biết. Công ty cho rằng các mô hình ngôn ngữ như GPT-4 có thể tăng tốc độ phát triển theo hướng này.
OpenAI cho biết GPT-4 chỉ tăng độ chính xác ở mức khiêm tốn khi tạo ra nguy cơ đe dọa sinh học. Công ty cũng lưu ý rằng thông tin về các mối nguy hiểm sinh học "tương đối dễ dàng" tìm thấy trên mạng, ngay cả khi không có trí tuệ nhân tạo.
Để phát triển hệ thống cảnh báo,
OpenAI đã thực hiện một nghiên cứu trên 100 người: 50 tiến sĩ sinh học và 50 sinh viên đại học đã học ít nhất một khóa sinh học đại học. Mỗi người tham gia được chỉ định ngẫu nhiên vào nhóm kiểm soát chỉ có quyền truy cập Internet, hoặc nhóm có
quyền truy cập GPT-4 ngoài Internet. Sau đó, mỗi người tham gia được yêu cầu hoàn thành một loạt nhiệm vụ, bao gồm một số khía cạnh của việc tạo ra nguy cơ sinh học.
OpenAI đo lường hiệu suất người tham gia dựa trên năm số liệu: độ chính xác, khả năng thu hồi,
sự đổi mới, tốc độ và độ phức tạp. Nhóm có quyền truy cập vào GPT-4 cho thấy kết quả tốt hơn ở tất cả các thông số. Tuy nhiên, theo OpenAI, sự vượt trội chưa đủ lớn để có ý nghĩa thống kê.
Trí tuệ nhân tạo nguy hiểm trong tương lai không phải bởi sự nổi dậy của máy móc, mà vì con người sẽ tỏ ra
tin tưởng quá mức vào AI và đưa ra những quyết định sai lầm bởi cho rằng "máy tính luôn luôn đúng", nhà phân tích hàng đầu tại Mobile Research, ông Eldar Murtazin chia sẻ ý kiến của mình với Sputnik.
"Hiện tại không có mối nguy hiểm nào (trong việc sử dụng AI); có khả năng nó phụ thuộc vào những gì chúng ta có thể cung cấp cho các hệ thống như vậy để kiểm soát", - ông Murtazin nói.
Theo ông, những hệ thống như vậy phải được sử dụng một cách thận trọng.