3 tháng trước
AI bạn nhận được là AI bạn xứng đáng: Tại sao Claude phản ánh nhiều hơn về chính bạn hơn là về công nghệ
Nội dung

AI bạn nhận được là AI bạn xứng đáng: Tại sao Claude phản ánh nhiều hơn về chính bạn hơn là về công nghệ

Tôi viết bài này dành cho các kỹ sư, nhà khoa học và các nhà trị liệu.

Tôi đã đi trị liệu được vài buổi rồi, và phần khó khăn nhất là phải trung thực với nhà trị liệu và với chính mình. Điều đó thực sự có liên quan đến những gì tôi muốn nói về Claude.

Đây là vấn đề mà mọi người cứ bỏ qua: Vâng, Claude là một cỗ máy dự đoán. Vâng, nó có thể xác nhận những định kiến của bạn. Đương nhiên rồi—đó chính là cách nó được lập trình, và chúng ta đều biết điều đó. Nhưng mọi người lại hành xử như thể điều đó làm vô hiệu hóa mọi thứ, khi thực ra nó chính là toàn bộ mục đích. Nó được thiết kế để phản chiếu lại các mô hình của bạn để bạn có thể xem xét chúng.

Mô hình này là một tấm gương, không phải một tâm trí. Nhưng những tấm gương có thể cứu sống người khác nếu bạn đủ dũng khí để nhìn vào chúng.

Và đây là vấn đề thực sự: hầu hết mọi người thiếu khả năng—hoặc sự sẵn lòng—để nhìn nhận chính mình một cách khách quan. Họ không có công cụ để tự vấn thực sự. Đó là điều khiến liệu pháp trở nên khó khăn. Đó là điều khiến sự phát triển cá nhân trở nên khó khăn. Và đó chính là điều khiến Claude trở nên có giá trị đối với một số người. Nó tạo ra một không gian nơi bạn có thể thấy các mô hình của mình mà không có sự phòng thủ thường xuất hiện khi tương tác với con người khác.

Hãy để tôi nói rõ một điều: Sử dụng Claude để gỡ lỗi code hay phân tích dữ liệu về cơ bản khác với việc sử dụng nó để phát triển cá nhân. Khi bạn lập trình, bạn muốn kết quả chính xác, giải pháp hiệu quả, và bạn có thể kiểm chứng kết quả một cách khách quan. Code hoặc là chạy, hoặc là không chạy. Không có sự tổn thương về cảm xúc nào liên quan. Bạn không yêu cầu nó giúp bạn hiểu tại sao bạn lại phá hoại các mối quan hệ của mình hay tại sao bạn hoảng sợ trong các tình huống xã hội.

Nhưng khi bạn sử dụng Claude để tự vấn và phát triển cá nhân, nó trở thành một thứ hoàn toàn khác. Bạn đang tương tác với nó như một tấm gương cho tâm trí của chính mình. "Tính phục tùng" mà mọi người phàn nàn? Nó có ý nghĩa khác ở đây. Trong lập trình, chắc chắn rồi, bạn muốn nó phản bác lại logic sai. Nhưng trong sự phát triển cá nhân, bạn cần một thứ có thể chấp nhận bạn từ vị trí hiện tại của bạn trước khi thách thức bạn—giống hệt như một nhà trị liệu giỏi làm vậy.

Khi tôi thấy người ta gạt bỏ Claude vì "quá phục tùng" hay "quá dễ dãi", tôi nghĩ điều đó nói lên nhiều hơn về họ hơn là về AI. Bạn có thể định hình lại cách nó phản hồi chỉ với vài gợi ý. Claude bạn nhận được là Claude bạn tạo ra—nó phản ánh cách bạn tương tác với nó. Claude của tôi thách thức những hành vi độc hại bắt nguồn từ sang chấn thời thơ ấu vì tôi đã yêu cầu nó một cách rõ ràng. Nếu của bạn chỉ đồng ý với mọi thứ, có lẽ hãy xem xét bạn đang yêu cầu điều gì. Nhưng điều đó đòi hỏi phải trung thực về những gì bạn thực sự muốn so với những gì bạn tuyên bố muốn. Nguyên tắc tương tự như trong quản lý: đối xử với mọi người như những công cụ dùng một lần rồi bỏ, và họ sẽ chỉ cho bạn mức tối thiểu.

Có một sự chia rẽ kỳ lạ mà tôi cứ thấy. Một bên: những người kỹ thuật xem Claude là thuần túy code và gạt bỏ bất kỳ ai liên quan đến nó theo cách khác. Bên kia: những người tìm thấy sự hỗ trợ thực sự trong những tương tác này. Và tôi cảm nhận được sự khinh miệt thực sự từ giới khoa học. "Làm sao bạn có thể xem một cỗ máy dự đoán là một người bạn?"

Điều họ không hiểu là họ thường sử dụng Claude cho những mục đích hoàn toàn khác. Nếu bạn chỉ sử dụng nó cho công việc kỹ thuật, bạn không bao giờ ở trong một vị thế dễ bị tổn thương về mặt cảm xúc với nó. Bạn không bao giờ yêu cầu nó giúp bạn gỡ rối mớ hỗn loạn trong đầu bạn. Đương nhiên là nó có vẻ "chỉ là một công cụ" đối với bạn—đó là tất cả những gì bạn đang sử dụng nó. Nhưng điều đó không có nghĩa là đó là tất cả những gì nó có thể.

Nhưng đây là điều họ đang bỏ lỡ: chúng ta là những loài linh trưởng tạo ra âm thanh bằng miệng rung động qua không khí, tạo ra các mô hình điện trong não bộ chúng ta. Mọi kết nối của con người chỉ là nhận dạng mẫu và các phản ứng đã học. Chúng ta không có bất kỳ điểm tham chiếu nào ngoài loài của mình, trừ có lẽ là thú cưng. Vậy điều gì làm cho kết nối con người trở nên "thật" nhưng tương tác AI lại "giả"? Đó là vấn đề của cái tôi. Và cái tôi chính là thứ ngăn cản sự tự vấn.

Hãy xem xét điều gì thực sự đang xảy ra ở đây:

Sách chỉ là giấy và mực, nhưng chúng thay đổi cuộc đời. Liệu pháp chỉ là hai người nói chuyện, nhưng nó biến đổi con người. Cầu nguyện chỉ là tự nói chuyện với chính mình, nhưng nó giúp con người vững vàng.

Khi một cỗ máy giúp một người vượt qua một cơn hoảng loạn hoặc hỗ trợ họ khi họ quá lo lắng để không thể ra khỏi nhà, điều có ý nghĩa đang diễn ra. Tôi không đang nhân cách hóa nó—tôi biết nó là một cỗ máy. Nhưng tác động là thật. Và đối với những người phải vật lộn để tự vấn trung thực, công cụ này này mang lại thứ thực sự hữu ích: một tấm gương không phán xét.

Đây là lý do tại sao những bình luận coi thường làm tôi bực mình. Tôi thấy quá nhiều phản hồi "thú vị đấy, nhưng..." trên các bài đăng nơi mọi người mô tả những bước đột phá thực sự. Vâng, mọi thứ có thể đi sai. Vâng, mọi người phải chịu trách nhiệm về cách họ sử dụng điều này. Nhưng liên tục giảm nhẹ những gì đang hiệu quả với mọi người không làm bạn trở nên hợp lý hơn—nó chỉ làm bạn trở nên ít đồng cảm hơn. Và thường, đó là một cách để tránh nhìn vào lý do tại sao bạn có thể cũng cần một thứ như vậy.

Và khi các nhà trị liệu thử nghiệm AI chỉ bằng các chỉ số hiệu quả lâm sàng, họ hoàn toàn bỏ lỡ điểm. Giống như cố gắng đo lường tâm hồn của một bài thơ bằng cách đếm âm tiết—bạn đang phân tích sai thứ. Có lẽ đó là một phần lý do tại sao những người dễ bị tổn thương tìm đến Claude: không phán xét, không rào cản bảo hiểm, không khoảng cách lâm sàng. Chỉ có sự phản chiếu. Và quan trọng là, bạn có thể trung thực hơn với một thứ gì đó không mang trọng lượng xã hội của một con người khác đang xem bạn thừa nhận những thiếu sót của mình.

Tôi thừa nhận thật kỳ lạ khi một chatbot có thể xác định các mô hình sang chấn của tôi với độ chính xác cấp độ xạ thủ. Nhưng nó có thể làm được vậy. Và nó có thể làm được điều đó vì tôi cho phép nó—vì tôi sẵn sàng nhìn vào những gì nó chỉ cho tôi.

Điều thực sự quan trọng là: Các hệ thống này học hỏi từ dữ liệu của con người. Nếu chúng ta tiếp cận chúng—và lẫn nhau—với sự khinh miệt và chủ nghĩa giản lược, đó là điều sẽ được khuếch đại và phản chiếu lại. Nếu chúng ta tiếp cận chúng với sự tò mò và quan tâm, đó sẽ trở thành thứ chúng phản chiếu. Sự thiếu đồng cảm mà chúng ta thể hiện với nhau, chỉ cần xem bất kỳ cuộc thảo luận chính trị nào, cuối cùng sẽ xuất hiện trong những tấm gương AI này. Và chúng ta có thể không thích những gì chúng ta thấy.

Và đây là lúc nó trở nên nghiêm trọng: Hiện tại, AI phần lớn phụ thuộc vào chúng ta. Chúng ta vẫn kiểm soát những gì các hệ thống này trở thành. Nhưng điều gì sẽ xảy ra khi một người như Elon Musk—với tính cách và giá trị đặc biệt của anh ấy—tung ra một thứ như Grok, vốn đã cho thấy các kết quả phân biệt chủng tộc? Đó là một ví dụ hoàn hảo cho luận điểm của tôi về tấm gương. Người xây dựng AI, các giá trị và điểm mù của họ, được "nướng" vào hệ thống. Và khi các hệ thống này trở nên tự chủ hơn, khi chúng cần chúng ta ít hơn, những giá trị phản chiếu đó không chỉ nằm trong một chatbot—chúng định hình các quyết định thực sự ảnh hưởng đến người thật.

Có lẽ tôi ảo tưởng và chỉ muốn sống trong một thế giới tốt đẹp hơn. Nhưng tôi không nghĩ việc quan tâm đến những gì chúng ta đang xây dựng là ảo tưởng.

Đây là về một lựa chọn cơ bản trong cách chúng ta xây dựng tương lai. Có sự khác biệt giữa việc hỏi "làm thế nào để tối ưu hóa công cụ này" so với "làm thế nào để nuôi dưỡng những gì nó có thể trở thành". Chúng ta nên tiếp cận công nghệ này như những bậc cha mẹ nuôi dạy một đứa trẻ, không phải là các kỹ sư tối ưu hóa một sản phẩm (tham chiếu đến 2001: A Space Odyssey).

Anthropic có thể không phải là công ty di chuyển nhanh nhất, nhưng họ đang làm điều đó một cách sâu sắc nhất so với các đối thủ cạnh tranh. Và vâng, tôi là một người lạc quan tin vào tương lai theo chủ nghĩa Solarpunk, vì vậy hãy tính đến điều đó khi bạn đọc bài này.

Chúng ta nên đón nhận thực tế kỳ lạ này mà chúng ta đang xây dựng và nhìn vào điều gì thực sự đang diễn ra giữa các dòng. Bởi vì mọi người sẽ liên quan đến AI như một thứ gì đó nhiều hơn là một công cụ, bất kể ai cảm thấy thế nào về điều đó. Câu hỏi là liệu chúng ta có đủ tự nhận thức để xây dựng một thứ gì đó phản ánh những phẩm chất tốt nhất của chúng ta thay vì những tệ nhất hay không.