TED Talks – Bài phỏng với Sam Altman về Tương lai của AI – An toàn & Quyền lực

Tóm tắt những nội dung chính:

Hội thoại giữa Chris và Sam tại TED xoay quanh các chủ đề về trí tuệ nhân tạo (AI), mô hình tạo hình ảnh và video, cũng như tác động của AI đối với sáng tạo, kinh tế, và xã hội. Dưới đây là tóm tắt nội dung chính bằng tiếng Việt:

  1. Giới thiệu và thảo luận về mô hình AI: Chris chào đón Sam tại TED và đề cập đến việc công ty của Sam liên tục phát hành các mô hình AI mới, như Sora, có khả năng tạo hình ảnh và video ấn tượng. Chris cho thấy một số ví dụ, bao gồm hình ảnh về việc Sam chia sẻ những tiết lộ gây sốc tại TED và một sơ đồ minh họa sự khác biệt giữa trí tuệ và ý thức. Sam giải thích rằng các mô hình này, như một phần của GPT-4, tích hợp trí tuệ nhân tạo, giúp chúng tạo ra nội dung vượt xa việc chỉ tạo hình ảnh.
  2. Tác động đến các ngành nghề và sáng tạo: Chris lo ngại rằng AI có thể thay thế các công việc như tư vấn quản lý, nhưng Sam cho rằng AI là công cụ mới, tương tự như các cuộc cách mạng công nghệ trước đây, giúp mở rộng khả năng của con người. Họ cũng thảo luận về việc AI tạo ra nội dung dựa trên các nhân vật hoặc phong cách (như Charlie Brown hoặc các nghệ sĩ sống), và vấn đề đạo đức liên quan đến sở hữu trí tuệ (IP). Sam nhấn mạnh rằng công ty cẩn thận tránh sao chép trực tiếp mà chỉ lấy cảm hứng từ phong cách hoặc phong trào nghệ thuật, và cần các khung pháp lý mới như bản quyền và sử dụng hợp lý.
  3. Kinh tế sáng tạo và đồng ý của nghệ sĩ: Họ bàn về việc cần mô hình kinh tế mới khi AI democrat hóa sáng tạo. Nếu AI tạo ra tác phẩm theo phong cách của các nghệ sĩ đã đồng ý, cách phân chia doanh thu sẽ là một thách thức lớn. Sam tin rằng công nghệ tốt hơn trong tay các nhà sáng tạo sẽ dẫn đến sản phẩm sáng tạo tốt hơn, nhưng cũng thừa nhận lo ngại của một số nghệ sĩ rằng công việc của họ bị “ăn cắp”.
  4. Mở nguồn và cạnh tranh: Sam nói về việc công ty ông sẽ phát hành một mô hình mã nguồn mở mạnh mẽ, dù có rủi ro bị lạm dụng. Ông cũng đề cập đến sự cạnh tranh với các công ty như DeepSeek, nhưng nhấn mạnh rằng sự phát triển của công ty vẫn rất mạnh mẽ, với 500 triệu người dùng hoạt động hàng tuần.
  5. Tương lai của AI và rủi ro: Sam chia sẻ rằng AI sẽ trở thành người bạn đồng hành, tích hợp sâu vào cuộc sống, như giúp viết tiểu thuyết hoặc hỗ trợ khoa học (ví dụ: tìm ra chất siêu dẫn ở nhiệt độ phòng hoặc thuốc mới). Tuy nhiên, ông cũng thừa nhận rủi ro như an ninh sinh học, mối đe dọa mạng, và mất kiểm soát. Công ty có khung chuẩn bị để đánh giá và giảm thiểu rủi ro này.
  6. AGI và AI độc lập: Sam giải thích rằng ChatGPT hiện tại chưa phải là AGI (trí tuệ nhân tạo tổng quát) vì nó không thể học liên tục hoặc tự cải thiện. Ông tin rằng AI độc lập (agentic AI) sẽ là bước ngoặt lớn, nhưng cũng đi kèm với thách thức an toàn lớn hơn. Ông nhấn mạnh rằng an toàn là một phần của thiết kế sản phẩm.
  7. Trách nhiệm và tương lai: Khi đối mặt với câu hỏi về quyền lực và trách nhiệm, Sam thừa nhận mình không có “quyền lực đạo đức” tuyệt đối, nhưng tin rằng công ty đã phần lớn tuân theo sứ mệnh của mình. Ông cũng chia sẻ quan điểm cá nhân, đặc biệt sau khi trở thành cha, rằng ông càng cảm thấy trách nhiệm hơn với tương lai.

Cuối cùng, Chris và Sam kết thúc bằng hy vọng rằng thế hệ tương lai, bao gồm con trai của Sam, sẽ sống trong thế giới nơi AI phổ biến, hiểu con người, và thúc đẩy sự tiến bộ nhanh chóng. Hội thoại khép lại với sự lạc quan nhưng cũng thừa nhận những thách thức lớn phía trước.

Chi tiết bài phỏng vấn:

Từ vựng B2-C2:

  • existential risk: nguy cơ tồn vong
  • democratized access to: quyền dân chủ truy cập đến
  • exponential growth curve: đường cong tăng trưởng theo cấp số
  • prepare society for disruption: chuẩn bị một xã hội cho việc gián đoạn
  • steer this technology: điều hướng công nghệ
  • moral authority: thẩm quyền đạo đức
  • astounded: sửng sốt, cực kỳ ngạc nhiên (cảm xúc mạnh)
    • But this next one genuinely astounded me.
  • allegedly: bị cho là, được cho là
    • You’ve invested far more than DeepSeek allegedly did.
    • 👉 “Bạn đã đầu tư nhiều hơn rất nhiều so với những gì DeepSeek bị cho là đã làm.”
  • commoditized: [kəˈmɜːʃəlaɪzd] – bị biến thành hàng hóa phổ thông
    • Smart models are becoming commoditized.
    • 👉 “Các mô hình thông minh trở nên bị phổ thông hóa”
  • pivot: chuyển đổi/xoay trục
    • Let’s pivot to open source.
    • 👉 “Hãy chuyển sang mã nguồn mở”
  • jaw-dropper: điều gây kinh ngạc đột ngột, ngạc nhiên cực độ, chấn động
    • What’s the next jaw-dropper?
    • 👉 “Điều chấn động (ngạc nhiên) tiếp theo là gì?”
  • stay grounded: giữ mình tỉnh táo
  • nuanced person: người sâu sắc, hiểu nhiều góc độ tinh tế
  • rise to the occasion: (idiom) vượt qua thử thách / vươn lên một cột mốc
    • It’ll be easier to rise to the occasion

Transcript:

Chris: Sam, welcome to TED. Thank you so much for coming.

Sam: Thank you. It's an honor.

Chris: Your company has been releasing some crazy models lately—almost every other week, it seems. I've been playing with a few of them. Let me show you something from Sora, the image and video generator. I asked, "What would it look like when you share some shocking revelations here at TED?" Want to see what it imagined?

Sam: Sure.

Chris: Not bad, right? Five fingers on all hands. It's very close to what you're wearing.

Sam: I've never seen myself that animated. I'm usually not. So maybe a B+.

Chris: But this next one genuinely astounded me. I asked it to come up with a diagram that shows the difference between intelligence and consciousness. This is what it did. It's so simple, but it's incredible. What kind of process allows for this? This is clearly more than just image generation—it's tapping into the core intelligence of your overall model.

Sam: Yeah, the new image generation model is part of GPT-4, so it has all the intelligence built in. I think that’s why it can do things people really love.

Chris: If I were a management consultant, I’d be thinking, “Uh-oh, what does my future look like?”

Sam: You can look at it two ways. One: “Oh no, it’s doing everything I do. What now?” Or you can say, “This is a new tool. Like every past technological revolution, it expands what I can do.”

Chris: Expectations will rise, but capabilities will too.

Sam: Exactly. It'll be easier to rise to the occasion.

Chris: Another thing I tried—I asked it to imagine Charlie Brown thinking of himself as an AI. It came up with this. It’s actually quite profound. What do you think?

Sam: The writing quality in the new models—here and in detail—is going to a new level. But whether it’s actually thinking or just recalling patterns from the training set... if you can’t tell the difference, how much do you care?

Chris: It’s an interesting question. But initially, this feels like IP theft. Do you have a deal with the Peanuts estate?

Sam: No, but we’re careful. The creative spirit of humanity is incredibly important. We want to build tools that empower that—tools that help new people make better art, better content, better novels. I deeply believe humans will remain at the center of creativity.

Chris: But we probably need a new model for creative economics, right?

Sam: Yes. People have always taken inspiration from others. But as access to creativity becomes democratized, we’ll need new business models. If someone wants to generate art in the style of seven artists who’ve consented, how do you divide the money? Big questions, but historically, better tech in the hands of creators has led to better creative output.

Chris: What about when creators haven’t consented? In our opening session, Carol Cadwaladr showed ChatGPT giving a talk in her style. It wasn’t quite as good, but impressive. She said, “I didn’t consent to this.” How do we navigate that?

Sam: If you use our image generator and request the style of a living artist, it won’t do it. But if you say “this vibe,” or “this art movement,” it will. We won’t copy a song, either. These boundaries—how much is inspiration vs. copying—need new frameworks, like we did with copyright and fair use.

Chris: It seems creative people feel their work—and future—is being stolen.

Sam: Some do. Others think it’s the most amazing tool ever. I empathize with those who preferred how things were. But if we shift from “it’s stealing from me” to “it’s amplifying me,” that changes everything.

Chris: In principle, could you calculate a revenue share from a given prompt?

Sam: Possibly. It’s complicated, but technically feasible. Like musicians—how do you quantify how much influence came from where? Still, when someone is explicitly named in a prompt, it’s different.

Chris: So for now, your image generator blocks named, living artists. But you think there could be a model where they opt in?

Sam: Absolutely. If someone opts in, we should have a revenue model. The world should help figure that out. It would make a big difference.

Chris: Let’s pivot to open source. How shaken were you by DeepSeek’s release?

Sam: Open source matters. We just hosted a community session to shape our own open-source model. We're going to release something near the frontier. It’ll be powerful—maybe the best open source model yet. Yes, people will use it in ways we don’t like. But it’s part of the ecosystem.

Chris: You’ve invested far more than DeepSeek allegedly did. Isn’t that threatening to the idea that scale wins?

Sam: We are incredibly constrained—calling around every day, begging for GPUs. But our growth is soaring. DeepSeek’s launch didn’t affect us. Other things are happening. Our latest number was 500 million weekly active users. The growth is insane.

Chris: You told me backstage the growth doubled in just weeks.

Sam: Did I? I might’ve misremembered. But yeah, it’s growing very fast.

Chris: You’re releasing powerful models constantly. Internally, what are you seeing that hasn't been shared yet?

Sam: First, smart models are becoming commoditized. Many will exist. For most users, current models are “good enough.” But we need great products, not just great models. That’s why we’re building features like memory—so the model gets to know you over time. People will stay with products that integrate deeply into their lives.

Chris: Yesterday, I asked ChatGPT, “Tell me about me.” It knew who I was. It was shocking—and exciting.

Sam: It’ll become more of a companion—helping you be the best you can. You won’t just ask questions. It will proactively help. Like in Her, where the AI gets a publisher to print your novel. We’re not there yet, but something like that is coming.

Chris: What’s the next jaw-dropper?

Sam: AI for science. I believe science drives progress. Our latest models are making scientists more productive. It could help discover things like room-temperature superconductors or new cures.

Chris: Is that realistic?

Sam: Not impossible. I think AI will help us get there. Physics may take longer, but in biotech, we're seeing early signs.

Chris: Software development has changed too.

Sam: Dramatically. What used to take weeks now takes hours. Some engineers describe it as a religious experience.

Chris: But what’s the scariest thing you've seen?

Sam: There’ve been moments of awe, but not fear. We’re not sitting on a conscious or self-improving model. That said, there are big risks—biosecurity, cyber threats, loss of control.

Chris: Do you screen for those risks?

Sam: Yes. Our preparedness framework defines how. We iterate, improve, release cautiously.

Chris: Let’s go back to AGI. Why isn’t ChatGPT already AGI?

Sam: It can’t learn continuously or improve itself. It can’t autonomously do your job. Even if we lowered the bar, current systems still fall short.

Chris: Do you even have a definition for AGI?

Sam: Ask 10 people at OpenAI, you’ll get 14 definitions. But the important thing is: this exponential improvement will continue. People will call AGI at different points—but we’ll go far beyond that.

Chris: Agentic AI is the real moment, right? That’s when things change.

Sam: Yes. When AI acts independently online, the stakes skyrocket. We’re now dealing with much more complex safety challenges.

Chris: You’ve said before: safety is product design.

Sam: Exactly. If people don’t trust the agent, they won’t use it. Safety and usability go hand in hand.

Chris: But what about open-source agents that act dangerously?

Sam: That’s why our preparedness framework is so important. We define red lines and act accordingly.

Chris: Some people say you’ve been corrupted by power. Elon Musk referenced the Ring of Power from Lord of the Rings.

Sam: (laughs) I try to stay grounded. Day-to-day life feels normal. Becoming a parent changes things. You think more about the future.

Chris: Would you press the red button—guaranteed greatness for your child, but a 10% chance of destruction?

Sam: No. And I don’t feel like that’s what I’m doing. But having a child increased my sense of responsibility.

Chris: You once proposed a government safety agency. Still believe in that?

Sam: Not exactly. I’ve learned how governments work. But I do believe advanced models need external evaluation.

Chris: I asked your top model, “What’s the most penetrating question I could ask Sam Altman?” It said, “Who gave you the moral authority to shape the future of humanity—and how are you accountable if you're wrong?”

Sam: You've been asking that in various ways all evening. I’m a nuanced person. Some things we got right, some things we didn’t. But I believe we’ve largely followed our mission.

Chris: So what world will your son grow up in?

Sam: One where AI is everywhere. Where computers understand us. Where change happens fast. I hope our kids look back and say, “They were so limited.”

Chris: Thank you, Sam.

Sam: Thank you. It’s been a pleasure.

Để lại một bình luận