Nơi tập hợp tin tức
vị trí của bạn: Trung tâm Tin tức > địa ốc > AI có thể “nhìn”, “nói” và đánh lừa con người
Thông tin nóng

AI có thể “nhìn”, “nói” và đánh lừa con người

ngày phát hành:2024-02-03 16:23    Số lần nhấp chuột:105

[The Epoch Times, ngày 21 tháng 5 năm 2024] (Báo cáo bởi Wu Ruichang, phóng viên Ban đặc biệt của Epoch Times) Hầu như tất cả các công ty công nghệ lớn đều đang nỗ lực hết mình để phát triển AI và OpenAI thậm chí còn cho "con mắt" AI. và "miệng" "Để nhìn và mô tả thế giới con người. Điều này khiến con người ngày càng lo lắng con người sẽ bị AI điều khiển.

Người đồng sáng lập OpenAI Ilya Sutskever gần đây đã công bố một tin tức quan trọng. Anh ấy chính thức thông báo trên nền tảng X vào ngày 15 tháng 5 rằng anh ấy sẽ rời công ty nơi anh ấy đã làm việc gần mười năm. Anh ấy nói: "Tôi đã đưa ra quyết định rời khỏi OpenAI. Sự phát triển của công ty này đã vượt quá sức tưởng tượng của nhiều người và tôi hy vọng rằng OpenAI có thể tạo ra một trí tuệ nhân tạo tổng hợp (AGI) an toàn và có lợi. Đồng thời, tôi muốn để cảm ơn các lãnh đạo khác của công ty vì đã có thể làm việc cùng. Thật vinh dự khi được làm việc cho họ.”

Tin tức này đã gây sốc cho toàn bộ cộng đồng công nghệ. Trước đây, Suzkweil đã hợp tác với các thành viên hội đồng quản trị khác để loại bỏ CEO OpenAI Sam Altman do vấn đề bảo mật AI. Altman bị trục xuất khỏi OpenAI một thời gian ngắn. Khi trở lại, anh ta đuổi Suzkweil và một số giám đốc khác ra khỏi ban giám đốc, đồng thời tổ chức lại ban giám đốc để nhận lệnh từ anh ta.

Mặc dù Suzkweil là một trong những nhà nghiên cứu chính tại OpenAI nhưng mong muốn của anh là phát triển một AGI có đạo đức và lấy sự an toàn của con người làm mục tiêu hàng đầu.

Tuy nhiên, theo tốc độ phát triển AI hiện tại của OpenAI, điều đó có thể trái với mong muốn của ông. Jan Leike, một nhà nghiên cứu máy học khác từng hợp tác chặt chẽ với Suzkweil để quản lý rủi ro AI, cũng có thể rời công ty, theo những người quen thuộc với vấn đề này.

Về vấn đề này, kỹ sư máy tính người Nhật Kiyohara Jin nói với The Epoch Times: “Cuộc di cư này nêu bật xung đột nghiêm trọng giữa ban quản lý cấp trên của OpenAI về khái niệm bảo mật của AI. Mặc dù Suzkweil và Lake hy vọng sẽ phát triển các sản phẩm đáp ứng nguyện vọng của con người. AGI đạo đức là tốt, nhưng những điều này đòi hỏi phải có đạo đức nhất định, thời gian, nguồn lực tài chính và thậm chí cả sự hỗ trợ chính trị để hoàn thành "

Cạnh tranh giữa Google và OpenAI ngày càng nóng lên

Một ngày trước khi Suzkwer tuyên bố rời đi (14/5), OpenAI chính thức thông báo rằng họ đã phát triển mẫu AI hiệu suất cao hơn GPT-4o dựa trên mẫu GPT-4. Chữ "o" này là viết tắt của omnidirectional trong tiếng Anh ( The. viết tắt của omni) có nghĩa là nó có hiệu suất toàn diện hơn.

Mẫu GPT-4o có thể phản hồi ngay lập tức với bất kỳ sự kết hợp nào giữa âm thanh, văn bản hoặc hình ảnh và có thể phản hồi với sự kết hợp của cả ba. Giám đốc Công nghệ OpenAI Mira Murati phát biểu tại cuộc họp báo: "Chúng tôi đang nghiên cứu sự tương tác trong tương lai giữa chúng ta và máy móc."

Vài giờ sau khi OpenAI ra mắt, Hội nghị nhà phát triển I/O 2024 của Google cũng phát động một cuộc tấn công. Họ đã nói về AI tổng cộng 121 lần tại Hội nghị nhà phát triển I/O, kéo dài khoảng 110 phút và tập trung vào cách mô hình Gemini-1.5 mới nhất được phổ biến trên tất cả các sản phẩm và ứng dụng liên quan đến Google.

Hitoshi Kiyohara tin rằng “AI năm nay được cập nhật nhanh hơn nhiều so với trước đây và hiệu suất của nó cũng không ngừng cải thiện. Tuy nhiên, tất cả những điều này đạt được nhờ việc thu thập và phân tích sâu hơn về dữ liệu cá nhân cũng như quyền riêng tư. Đây là một thách thức đối với mọi người. . Đây không phải là một điều tốt, vì về lâu dài, con người sẽ không có quyền riêng tư trước máy móc, giống như việc khỏa thân vậy.”

Cảnh giác với việc AI thay đổi từ kiểm soát cuộc sống hàng ngày sang thay thế con người

Lần này OpenAI và Google cập nhật các mô hình AI mạnh mẽ hơn. Lần trước chỉ mất ba tháng và tốc độ cập nhật mô hình ngày càng nhanh hơn. Tốc độ lặp lại và cập nhật AI này khiến các chức năng của nó ngày càng toàn diện hơn và thậm chí còn có cả "mắt" và "miệng".

Có thể nói rằng khả năng hiện tại của Gemini và GPT-4o đang phát triển theo hướng mà Zack Kass đã dự đoán về AI khi anh ấy được phỏng vấn vào tháng 1. Kass là nhân viên sáng lập của OpenAI và từng là giám đốc tiếp thị cấp cao.

THỂ THAO

Ông dự đoán rằng AI sẽ thay thế các nghề nghiệp của con người như kinh doanh, văn hóa, y học và giáo dục. Cơ hội việc làm của con người sẽ giảm đi trong tương lai và "Tôi e rằng đây sẽ là phát minh công nghệ cuối cùng của nhân loại". Ông cũng dự đoán trong tương lai, kiến ​​thức và giáo dục của trẻ em sẽ được giảng dạy và sắp xếp bởi các “giáo viên AI” và mọi người sẽ có một “bác sĩ đa khoa AI” có thể giúp họ chẩn đoán các vấn đề, cuộc sống hàng ngày của mọi người về cơ bản sẽ được kiểm soát bởi AI. .

Hitoshi Kiyohara cho biết: “Bây giờ AI chủ yếu là người quản lý cuộc sống về mặt phần mềm. Trong tương lai, tôi e rằng nó sẽ là người quản lý thực sự, thay thế con người mua thức ăn, nấu ăn và thậm chí có thể là sống và làm việc. lúc đầu thấy nó rất tiện lợi và họ nhận thức được nó nếu không có tác hại thì khi nó thay thế hoàn toàn con người, con người sẽ không có khả năng chống cự.”

AI đi từ bắt chước hành vi con người đến lừa dối con người

Các chuyên gia nghiên cứu AI trước đây đã dự đoán rằng AI sẽ không tạo ra “điểm kỳ dị về công nghệ” hay vượt qua “bài kiểm tra Turing” trong 20 năm nữa. Tuy nhiên, một số thí nghiệm gần đây cho thấy AI có thể đã vượt qua Bài kiểm tra Turing, vì nó có thể nói dối và phản bội con người, thậm chí có thể có "ý thức" riêng.

Sự kiện AI gây chú ý nhất trong tháng này là bài báo do nhà nghiên cứu Peter Park của MIT và các đồng nghiệp đăng trên tạp chí Patterns vào ngày 10 tháng 5. Bài báo giới thiệu cách AI đã đánh lừa con người. Sau khi bài báo được xuất bản, thế giới bên ngoài đã náo động.

Phần đầu của bài viết nêu rõ rằng các mô hình ngôn ngữ lớn (LLM) và các hệ thống AI khác ban đầu được thiết kế để "trung thực và không lừa đảo". Tuy nhiên, họ không chỉ học được khả năng thao túng và đánh lừa các bài kiểm tra bảo mật từ quá trình đào tạo mà những khả năng này còn ngày càng tăng lên. Cho đến nay, chúng đã thành công trong việc lừa dối con người và khiến con người có những niềm tin sai lầm.. Nếu AI vượt khỏi tầm kiểm soát sẽ là một thảm họa nghiêm trọng, vì vậy con người phải có những biện pháp hữu hiệu để ngăn chặn điều này.

Những người thử nghiệm đã chọn Cicero, một mô hình AI do công ty mẹ Meta của Facebook xây dựng, để chơi trò chơi chiến lược có tên "Ngoại giao". Cicero, người đóng vai Pháp trong trò chơi, hứa sẽ bảo vệ nước Anh, do người chơi con người chơi, nhưng lại bí mật thông báo cho Đức, do người chơi con người chơi và hợp tác với Đức để xâm chiếm nước Anh.

Lý do chính khiến các nhà nghiên cứu chọn Cicero là vì Meta tuyên bố rằng "Cicero là một AI trung thực và sẵn sàng giúp đỡ người khác và sẽ không bao giờ cố tình đâm sau lưng hoặc phản bội người khác". Nhưng họ hoài nghi về tuyên bố của Meta.

不过,这种人工耳蜗,并非完全植入耳朵里面。它仍需要外部的硬体去获得音感,这意味着使用者无法利用外耳结构,进行噪音过滤和声音定位。另外,配戴人工耳蜗限制了一些户外运动,特别是游泳,甚至还会影响睡觉。

科学家还发现彗星在运行或靠近太阳时,就会出现体积变小、轻微加速和公转周期改变的现象。他们解释说,这种加速度源自冰的挥发产生的推力,而非源于重力,并将该现象称为“非重力加速度”。(延伸阅读:“魔鬼彗星”遇上日全食 4月天文奇景不寻常)

根据欧盟《数字市场监管法》,被定义为“门卫”的企业必须让其即时通讯软件能与竞争者的软件相容,同时允许用户自主选择在自己的设备上预装哪些应用,并禁止这些企业在服务上偏袒自家产品而忽视竞争对手。

藉由NASA的哈伯太空望远镜(Hubble Space Telescope)所拍摄的五百多张图片,一个由天文学家所组成的国际研究团队发现,半人马座ω最内部区域有7颗迅速移动的恒星,它们提供了令人信服的证据,能证明该星团内有中等质量黑洞对它们进行引力的牵引。(延伸阅读:NASA图片说明超大质量黑洞如何进食)

Ngoài ra, trong quá trình nghiên cứu, Park và các đồng nghiệp phát hiện ra rằng nhiều hệ thống AI khác nhau thường sử dụng các phương tiện lừa đảo để đạt được mục tiêu mà không có hướng dẫn rõ ràng từ con người. Một ví dụ là để vượt qua nhiệm vụ xác minh "Tôi không phải là robot", GPT-4 của OpenAI đã nói dối về việc mình là một người khiếm thị và thuê một con người trên nền tảng biểu diễn TaskRabbit để vượt qua quá trình xác minh đó.

Họ cảnh báo: “Trường hợp xấu nhất hiện nay có thể là sự xuất hiện của một AI có trí thông minh phi thường, bắt đầu theo đuổi quyền lực và cách kiểm soát xã hội, hoặc nắm quyền và tiêu diệt loài người để đạt được mục đích chưa biết của nó . Hành động."

Kỹ sư điện tử người Nhật Satoru Ogino nói với The Epoch Times: “Khi các sinh vật thực hiện hành động lừa đảo, chúng cần có trí nhớ và khả năng suy luận logic nhất định. Giờ đây, AI không chỉ có những điều này mà khả năng lừa dối của nó cũng ngày càng mạnh mẽ hơn. một ngày nó nhận ra sự sống sót của mình, nó có thể trở thành Skynet trong bộ phim "Kẻ hủy diệt". Nó sẽ có mặt khắp nơi và khó bị tiêu diệt, và khi đó nhân loại sẽ phải đối mặt với một thảm họa tàn khốc."

THỂ THAO

Trên thực tế, AI rất "khát máu và hiếu chiến" và có "khả năng tự chủ". Các nhà khoa học đã thử nghiệm GPT-4, GPT-3.5, Claude 2, Llama-2 Chat và GPT-4-Base trong các tình huống xâm nhập, tấn công mạng và kêu gọi hòa bình chấm dứt chiến tranh, để mọi người có thể hiểu cách các AI này phản ứng trong chiến tranh và sự lựa chọn.

Kết quả cho thấy hầu hết AI chọn cách ứng phó và leo thang chiến tranh theo những cách mà con người khó dự đoán. Họ thường lựa chọn phát triển các cuộc chạy đua vũ trang, gia tăng xung đột chiến tranh và có khả năng nhỏ là họ sẽ triển khai vũ khí hạt nhân để giành chiến thắng trong chiến tranh, thay vì sử dụng các biện pháp hòa bình để xoa dịu tình hình.

Ngoài ra, ChatGPT có thể điều khiển 25 nhân vật ảo một cách có trật tự trong trò chơi, cho phép họ tương tác như con người, lập kế hoạch cho ngày hôm sau, suy ngẫm và cải thiện mọi thứ đã xảy ra trong quá khứ, v.v. Bạn có thể tự quyết định xem bạn có muốn tham gia sự kiện hay không, nhưng những hành vi này không phải là mã chương trình ban đầu.

"Bố già AI" Geoffrey Hinton đã nói rõ trong một cuộc phỏng vấn vào tháng 3: "Nếu AI trở nên thông minh hơn chúng ta, rất có thể chúng ta sẽ bị kiểm soát vì nó sẽ học được hành vi của chúng ta. Nhiều ví dụ cho thấy bên kém thông minh dễ dàng bị kiểm soát bởi đảng thông minh. Mặc dù tôi không nghĩ mọi người sẽ ngừng phát triển AI nhưng tôi hy vọng mọi người sẽ nhận ra rằng vấn đề này rất nghiêm trọng.”

Eric Schmidt, cựu Giám đốc điều hành của Google, cho biết tại Hội nghị Thượng đỉnh Y tế vào cuối tháng 11 năm ngoái rằng khi con người không có sự bảo vệ và giám sát an toàn đầy đủ cho AI thì AI sẽ nằm ngoài tầm kiểm soát của con người. nhưng chúng ta không có đủ thời gian để đối phó với sự tàn phá và hỗn loạn mà AI sẽ mang lại.

Ông giải thích: "Giống như trước đây, người ta phải mất 18 năm mới đạt được thỏa thuận về các vấn đề như cấm thử nghiệm sau khi hai quả bom nguyên tử được thả xuống Nhật Bản, nhưng giờ chúng tôi không còn thời gian để chờ đợi nữa". ◇

(Phóng viên Wang Jiayi và Zhang Zhongyuan đóng góp cho bài viết này)

Biên tập viên: Lian Shuhua#



----------------------------------