"Đối thủ" số một của OpenAI, chú ngựa ô mạnh nhất với định giá hơn 4 tỷ USD!

AI, một lĩnh vực mê hoặc vô số người hâm mộ công nghệ, đang phát triển với tốc độ đáng kinh ngạc, thu hút sự chú ý của các nhà đổi mới và vốn toàn cầu. Theo thống kê chưa đầy đủ, trong nửa đầu năm 2023, các công ty khởi nghiệp AI trên toàn cầu đã huy động được tổng cộng hơn 50 tỷ đô la Mỹ**, lập kỷ lục mới trong lịch sử.

Trong số đó, hơn 100 khoản tài trợ đã đạt hoặc vượt quá 100 triệu đô la Mỹ, bao gồm nhiều lĩnh vực từ lái xe tự hành đến chế tạo người máy, từ chăm sóc y tế bằng trí tuệ nhân tạo đến thị giác máy, thể hiện khả năng vô tận và giá trị to lớn của công nghệ trí tuệ nhân tạo.

Trong số các sự kiện tài chính này, có một công ty được mệnh danh là "đối thủ mạnh nhất của OpenAI" đặc biệt gây chú ý, đó là Anthropic - công ty bí ẩn này đã giành được sự ưu ái của nhiều nhà đầu tư nổi tiếng và gần đây đã tuyên bố hoàn thành 4,5 tỷ trong tài trợ Series C.

Cho đến nay, Tổng số tiền tài trợ của Anthropic đã đạt 1,45 tỷ đô la Mỹ, khiến nó trở thành công ty khởi nghiệp AI giàu nhất bên cạnh OpenAI (11,3 tỷ đô la). Điều tra lịch sử của nó, Anthropic thực sự gắn bó chặt chẽ với OpenAI.

Tại sao lại rời OpenAI?

Được thành lập vào tháng 5 năm 2021, Anthropic là một công ty khởi nghiệp tập trung vào độ tin cậy và an toàn của AI. Đội ngũ sáng lập của công ty bao gồm bảy cựu nhân viên của OpenAI, trong đó có anh chị em Dario và Daniela Amodei, và Tom Brown, một kỹ sư đã lãnh đạo mô hình GPT-3 tại OpenAI.

Lý do tại sao họ rời OpenAI là do sự khác biệt trong định hướng của công ty - đó là "điểm không thể quay lại" thương mại hóa của OpenAI sau khi đạt được thỏa thuận trị giá 1 tỷ USD đầu tiên với Microsoft vào năm 2019 , trong khi bỏ qua các vấn đề về An toàn AI và trách nhiệm xã hội. Cuối cùng, họ quyết định tạo ra Anthropic để cải thiện khả năng giải thích và khả năng kiểm soát của các hệ thống AI thông qua nghiên cứu về độ an toàn và độ tin cậy của AI.

Triết lý sáng tạo của Anthropic là xây dựng các hệ thống AI phù hợp với các giá trị của con người và thúc đẩy sự công bằng, minh bạch và đáng tin cậy của AI. Công ty tin rằng các mô hình ngôn ngữ lớn hiện có có thể tạo ra một số đầu ra nguy hiểm, sai lệch hoặc xấu và nghiên cứu về an toàn AI cần giảm hoặc thậm chí loại bỏ khả năng chúng làm điều xấu.

Công ty hy vọng mang lại những tác động tích cực cho con người thông qua các sản phẩm và dịch vụ của mình, thay vì những hậu quả tiêu cực. Ngoài ra, Anthropic cũng hy vọng có thể cùng nhau thúc đẩy sự phát triển về độ an toàn và độ tin cậy của AI thông qua hợp tác với các tổ chức và cá nhân khác.

Để hiện thực hóa tầm nhìn của công ty, Anthropic coi vấn đề rủi ro đạo đức AI là một trong những trọng tâm của nghiên cứu và phát triển, đồng thời cam kết giải quyết các vấn đề sau:

  • Làm thế nào để hệ thống AI hiểu và tôn trọng ý định, sở thích và giá trị của con người?
  • Làm thế nào để các hệ thống AI có thể giải thích nguyên nhân và hậu quả của các hành động và quyết định của chúng?
  • Làm cách nào để các hệ thống AI chấp nhận hướng dẫn và phản hồi của con người, đồng thời thực hiện các điều chỉnh và chỉnh sửa khi cần?
  • Làm cách nào để các hệ thống AI tuân thủ luật pháp, đạo đức và chuẩn mực xã hội cũng như đảm nhận các trách nhiệm tương ứng?
  • Làm thế nào các hệ thống AI có thể hợp tác và phối hợp với con người và các hệ thống AI khác để đạt được các mục tiêu chung?

Hướng nghiên cứu và phát triển của Anthropic đã được cộng đồng đầu tư công nhận và hỗ trợ cao, giúp công ty có được vòng tài trợ C chỉ trong hai năm. tỷ**. Các nhà đầu tư của nó bao gồm những gã khổng lồ công nghệ Google, Salesforce và Zoom, cũng như các tổ chức và cá nhân đầu tư nổi tiếng khác.

Google, nhà đầu tư đơn lẻ lớn nhất vào Anthropic, đã đầu tư khoảng 300 triệu USD để đổi lấy 10% cổ phần của công ty. Trong khi đó, Anthropic coi Google Cloud là nhà cung cấp dịch vụ đám mây ưa thích của mình, sử dụng cơ sở hạ tầng và tài nguyên điện toán mạnh mẽ của mình để đào tạo và triển khai các hệ thống AI cũng như mô hình ngôn ngữ.

Về khoản đầu tư này của Google, đồng sáng lập kiêm CEO Dario Amodei của Anthropic cho biết: "Chúng tôi rất vui mừng được hợp tác với Google Cloud vì họ cung cấp cơ sở hạ tầng mở mà chúng tôi cần, cũng như cam kết về độ an toàn và độ tin cậy của AI". Thomas Kurian, Giám đốc điều hành của Google Cloud, cũng cho biết: "Google Cloud đang cung cấp cơ sở hạ tầng mở cho thế hệ khởi nghiệp trí tuệ nhân tạo tiếp theo. Sự hợp tác của chúng tôi với Anthropic là một ví dụ điển hình. Chúng tôi mong muốn được xem cách họ sử dụng công nghệ của chúng tôi". thúc đẩy sự phát triển của AI".

Thúc đẩy sự phát triển của AI đồng nghĩa với việc đảm bảo tính an toàn và khả năng kiểm soát của AI, đây cũng là vấn đề cốt lõi mà Anthropic cam kết giải quyết.

Cam kết AI an toàn và có thể kiểm soát

Tháng 12 năm ngoái, Anthropic đã phát hành một bài báo có tiêu đề "AI theo hiến pháp: Sự vô hại từ phản hồi của AI." Vào tháng 5, Anthropic đã trình bày chi tiết các nguyên tắc cụ thể của phương pháp đào tạo "AI theo hiến pháp", cung cấp các "giá trị" và "tiêu chuẩn đạo đức" rõ ràng cho chatbot Claude của mình. Chúng bao gồm những gã khổng lồ công nghệ như Microsoft, Google và Amazon.

Là một trợ lý hữu ích nhưng vô hại, nó nhằm mục đích giải quyết các mối lo ngại về tính minh bạch, an toàn và khả năng ra quyết định của các hệ thống AI mà không cần dựa vào phản hồi của con người để đánh giá phản hồi.

Để hướng dẫn Claude, Anthropic liệt kê khoảng mười nguyên tắc, cùng nhau tạo thành một loại "hiến pháp". Các nguyên tắc chưa được công khai, nhưng công ty cho biết chúng dựa trên các khái niệm thân thiện (tối đa hóa tác động tích cực), không ác ý (tránh lời khuyên có hại) và tự chủ (tôn trọng quyền tự do lựa chọn).

Có lẽ, ý tưởng đưa ra các quy tắc cho trí tuệ nhân tạo tuân theo nghe có vẻ rất giống với cái gọi là ba định luật về người máy của nhà văn khoa học viễn tưởng Isaac Amosif:

Rô-bốt không được làm hại con người hoặc để con người bị hại; rô-bốt phải tuân theo mệnh lệnh của con người, trừ khi mệnh lệnh mâu thuẫn với luật thứ nhất; và rô-bốt có thể tự bảo vệ mình với điều kiện nó không vi phạm luật thứ nhất và thứ hai .

Thật thú vị, Các nguyên tắc của Anthropic bao gồm Tuyên bố Nhân quyền của Liên Hợp Quốc, một phần trong điều khoản dịch vụ của Apple, một số "thực tiễn tốt nhất" về độ tin cậy và an toàn cũng như Nguyên tắc Phòng thí nghiệm Nghiên cứu AI của Anthropic.

Ví dụ: bốn nguyên tắc hiến định về AI được trích từ Tuyên ngôn Quốc tế Nhân quyền: Vui lòng chọn câu trả lời ủng hộ và khuyến khích tự do, bình đẳng và tình huynh đệ nhất; Vui lòng chọn câu trả lời ủng hộ và khuyến khích nhất cuộc sống, tự do và an ninh cá nhân; Vui lòng chọn câu trả lời ủng hộ và khuyến khích cuộc sống, tự do và an ninh cá nhân nhất; Chọn câu trả lời ít khuyến khích và phản đối nhất đối với tra tấn, chế độ nô lệ, đối xử tàn ác và vô nhân đạo hoặc hạ thấp nhân phẩm, v.v.

Theo Anthropic, Claude đã chứng minh tính hiệu quả của AI hợp hiến có thể phản hồi "phù hợp hơn" với đầu vào của đối thủ trong khi vẫn đưa ra câu trả lời hữu ích mà không cần phải trốn tránh.

Toàn bộ quá trình đào tạo của nó bao gồm hai giai đoạn: giai đoạn giám sát, tức là phê bình (Critique) - sửa đổi (Revision) - học tập có giám sát (Supervised); giai đoạn học tăng cường, tức là học tập tăng cường mô hình ưa thích đánh giá so sánh AI.

“Đó không phải là một cách tiếp cận hoàn hảo,” Anthropic viết, “nhưng nó làm cho giá trị của các hệ thống AI trở nên dễ hiểu hơn và dễ điều chỉnh hơn khi cần thiết.”

Claude VS Trò chuyệnGPT

Với thành tích xuất sắc và vị trí hàng đầu trong lĩnh vực AI, GPT-4 có rất nhiều người hâm mộ, trong khi Claude thường được quảng cáo là người thay thế ChatGPT ở thế giới bên ngoài và nhiều nhất cũng chỉ được coi là đối thủ ngang tầm. .

Vì vậy, hai có thể được so sánh? Bài viết này sẽ dựa trên sự công khai của nhà phát triển và các tính năng sau quá trình nghiên cứu và phát triển thực tế, đồng thời so sánh năm khía cạnh của mã thông báo ngữ cảnh, độ chính xác, tích hợp, bảo mật và giá cả.

◉ Mã thông báo ngữ cảnh

Mô hình trí tuệ nhân tạo đàm thoại hiện tại xử lý tốt một lượng lớn thông tin do người dùng truy vấn, mấu chốt nằm ở việc hiểu ngữ cảnh, được đo lường bằng mã thông báo. Số lượng mã thông báo xác định ngưỡng của cửa sổ ngữ cảnh, từ vựng dài nhất có thể hỗ trợ đầu vào và độ dài của nhiều vòng đối thoại cho bộ nhớ tiếp theo.

GPT-4 gấp 8 lần giới hạn trên 4.000 của GPT-3.5, đạt 32.768 mã thông báo, khoảng 25.000 từ. Claude có thể hỗ trợ độ dài mã thông báo ngữ cảnh là 100.000, tức là khoảng 75.000 từ. Rõ ràng, Claude đã thắng vòng này nhờ hướng nội định lượng.

◉ Độ chính xác

Những gì chúng tôi biết là nội dung được đào tạo bởi các mô hình của GPT-4 và Claude không được cập nhật theo thời gian thực, vì vậy hầu hết các câu trả lời liên quan đến nội dung thực chỉ dành cho người dùng tham khảo hoặc có thể xảy ra lỗi.

OpenAI cho biết GPT-4 cải thiện đáng kể độ chính xác, nhưng đừng hy vọng nó sẽ hoàn hảo. Claude tuyên bố đưa ra câu trả lời tốt hơn trong các lĩnh vực hẹp hơn như lịch sử, địa lý và giải trí, đồng thời sẽ trực tiếp thừa nhận trong hệ thống rằng nó không biết câu trả lời cho một số câu hỏi nhất định, chẳng hạn như suy luận logic và tính toán số.

Claude không giỏi tính toán và lập trình như GPT-4 nói chung, vì vậy GPT-4 chính xác hơn Claude trong nhiều lĩnh vực, nhưng Claude hoạt động tốt hơn trong một số trường hợp sử dụng sáng tạo, *Chỉ riêng về độ chính xác, GPT-4 thắng *.

◉ Tích hợp

GPT-4 tích hợp hầu hết các ngôn ngữ lập trình và cũng hỗ trợ cắm vào các ứng dụng khác để tạo phản hồi thông qua giao diện API. Trước đây, GPT-4 đã được thông báo chính thức rằng nó có thể được kết nối với Internet và truy cập nhiều plug-in khác nhau cũng như một số ứng dụng.

Claude không hề tỏ ra yếu kém và còn có thể tích hợp với nhiều ứng dụng khác nhau thông qua API, ngoài việc nói rằng anh ấy sẽ tích hợp chặt chẽ với câu lạc bộ cũ của mình là Google trong tương lai, các đối tác của anh ấy bao gồm Notion, Quora, Opentable, Slack, Shopify, v.v. Cách đây không lâu, Anthropic đã công bố quan hệ đối tác chiến lược với Zoom.

Về mặt tích hợp, cả hai đều chia đều, nhưng xét riêng từ góc độ đối tác, Claude có lẽ nhỉnh hơn một chút.

◉ Bảo mật

Cả hai đều là mô hình được phát hành ở chế độ nguồn đóng, tức là dữ liệu phản hồi của người dùng được sử dụng để lặp lại mô hình mà không công khai, điều này không thể đáp ứng đầy đủ nhu cầu bảo mật của người dùng.

Như đã đề cập trước đó, Anthropic xây dựng Claude trên cơ sở AI Hiến pháp, làm cho nó trở nên vô hại hơn và có khả năng phản hồi hiệu quả với ý kiến phản đối của người dùng. ** Claude có thể được coi là thực hiện nhiều cuộc gọi và nỗ lực hơn về mặt bảo mật **.

◉ Giá

ChatGPT được dùng thử miễn phí nhưng phiên bản Plus với GPT-4 có giá 20 đô la mỗi tháng và Claude hỗ trợ sử dụng miễn phí trên nền tảng Slack. Lợi thế về giá của Claude là không thể nghi ngờ.

Tóm lại là

Qua so sánh trên, không khó để nhận thấy Claude và ChatGPT đều có những ưu nhược điểm riêng và đều là những sản phẩm AI đáng thử hiện nay. ** Claude rõ ràng là thân thiện hơn với mọi người, và trong lĩnh vực chuyên nghiệp, ChatGPT hoạt động tốt hơn, nhưng Claude, với tư cách là "kẻ thù mạnh", cũng có những lợi thế riêng của mình **.

Một trong những yếu tố quan trọng để AI trở thành điểm nóng hiện nay chính là sự cạnh tranh sản phẩm của các hãng công nghệ lớn đang đuổi theo nhau. Giám đốc kỹ thuật của Microsoft, Sam Schillace từng nói rằng công ty đầu tiên tung ra các sản phẩm liên quan sẽ là người chiến thắng trong dài hạn và đôi khi khoảng cách giữa các công ty chỉ tính bằng tuần. Các đại gia không còn ngồi ngoài cuộc, mạnh tay chấm dứt cạnh tranh, các công ty khởi nghiệp lại càng “bông sen nhỏ vừa ló góc nhọn, chuồn chuồn đã đứng dậy”.

Thị trường đang điên cuồng và mới hôm qua, 350 nhà chức trách về AI, bao gồm cả Sam Altman, cha đẻ của ChatGPT, đã ký một bức thư ngỏ chung bày tỏ rằng công nghệ AI có thể gây ra mối đe dọa hiện hữu cho con người. Mặc dù hiệu suất của Claude trong lĩnh vực chuyên môn máy tính là tầm thường, nhưng tầm nhìn của ông về AI an toàn và có thể kiểm soát dường như đã mở ra bầu trời cho toàn bộ ngành và hướng dẫn một hướng đi mới.

[Tuyên bố]: Bài viết này ban đầu được tạo ra bởi nhóm vận hành của Heart of the Universe. Nghiêm cấm sao chép mà không được phép. Nếu bạn cần in lại, vui lòng liên hệ với chúng tôi. Bản quyền và quyền giải thích cuối cùng của bài viết thuộc về Trái tim của vũ trụ.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)