Mapping AI’s Rapid Advance

22 Trần Quốc Toản, Phường Võ Thị Sáu, Quận 3, Tp.HCM
Tiêu điểm
Tin tức: BÀI PHÁT BIỂU CỦA THỦ TƯỚNG ISRAEL - Benjamin Netanyahu Thư Giản: Nhớ mưa Sài Gòn... Tiền Tệ : Lượng tiền ngân hàng cho vay vượt huy động Tin tức: Cải cách thể chế nhìn từ cuốn sách “Vì sao các quốc gia thất bại” BĐS: TP.HCM dự kiến không cho phân lô bán nền tại các huyện ngoại thành Tin tức: Bên trong đơn vị UAV mật của Ukraine chuyên tấn công vào lãnh thổ Nga CN & MT: It’s Time To Give Up Hope For A Better Climate & Get Heroic VH & TG: 'Nexus’ - lược sử về những mạng lưới thông tin của loài người Tin tức: Thủ tướng chỉ rõ 2 điểm nghẽn lớn ở Đồng bằng sông Cửu Long Tin tức: China’s Real Economic Crisis Tin tức: KHỦNG HOẢNG TÀI CHÍNH ,KINH TẾ HAY KHỦNG KHOẢNG CƠ CẤU TOÀN DIỆN VH & TG: Ông Donald Trump, voi và nước xáo CN & MT: ChatGPT: ẢO VỌNG TOÀN NĂNG VÀ TƯƠNG LAI TOÀN TRỊ CN & MT: The planet endures its hottest summer on record — for the second straight year BĐS: Thị trường bất động sản sẽ phục hồi trong giai đoạn 2024 - 2027 CN & MT: AI – nỗi sợ của ‘dân văn phòng’ VH & TG: The Precondition For Global Cooperation VH & TG: Trung Quốc: trẻ thất nghiệp, già lo âu BĐS: Nhiều doanh nghiệp bất động sản đã vượt qua giai đoạn ‘sinh - tử’ CN & MT: Chăm lo nền móng VH & TG: Việt Nam có thể trở thành một trong cửu bá trong thế giới đa cực vào năm 2025 BĐS: Loạt mặt bằng vị trí 'vàng' TP HCM ế khách thuê nhiều năm BĐS: Tiến sĩ Lê Xuân Nghĩa: Tôi mua nhà năm 1990 hết 56 triệu đồng, bây giờ người ta gạ 20 tỷ đồng mà bà xã không chịu bán Thư Giản: Viết cho ngày doanh nhân 13/10 CN & MT: AI Is The Way Out Of Low Growth And Inflation CN & MT: Viễn cảnh 'hàng tỉ người giả' đáng sợ tạo ra nhờ AI VH & TG: Loài người trở nên thông minh như thế nào? Tin tức: Sử gia Harari: Hướng đi của nhân loại đang được quyết định tại Ukraina CN & MT: The Human Cost Of Our AI-Driven Future CN & MT: Việt Nam và Đông Nam Á sẽ hứng chịu mưa lớn bất thường vào cuối năm 2024 do La Nina BĐS: Bức tranh tín dụng bất động sản giai đoạn 2011-2022 Tin tức: Nobel kinh tế 2024 và bài học về thể chế cho Việt Nam CN & MT: Jensen Huang khen Elon Musk siêu phàm CN & MT: Bước tiếp theo cho tên lửa Starship của Elon Musk là gì? CN & MT: Dữ liệu vệ tinh vẽ nên bức tranh tổng thể về biến đổi khí hậu CN & MT: El Nino: Hồi chuông báo tử đe dọa nhân loại đã điểm Tin tức: Việt Nam có quyền lực như thế nào tại châu Á-Thái Bình Dương? CN & MT: Thủy lợi mang lại no ấm cho nông dân Tây Ninh Tin tức: Giải Nobel Kinh tế 2024 CN & MT: Châu thổ đang chìm: vấn nạn nan giải Tin tức: 7-Eleven đóng cửa 444 chi nhánh: Chuyện gì đang xảy ra với chuỗi siêu thị tiện lợi lớn nhất thế giới? Tin tức: Người nhập cư vào TP.HCM giảm mạnh, 'thủ phủ nhà trọ' thưa vắng người thuê Tin tức: Xe điện: Thêm một thảm bại của mô hình ‘chủ nghĩa tư bản nhà nước’ tại Trung Quốc SK & Đời Sống: Nền kinh tế cho người già SK & Đời Sống: Sôi động cuộc đua tìm phương thuốc kéo dài tuổi thọ BĐS: Sau hơn 1 tháng triển khai luật mới: Vẫn nhiều vướng mắc về đất đai BĐS: Shophouse ế ẩm, đóng cửa hàng loạt BĐS: Tiêu điều mặt bằng cho thuê tại TP. HCM BĐS: Giá thuê mặt bằng trung tâm quá cao, người kinh doanh rút về vùng ven TP.HCM Chứng khoán: La Nina hoạt động mạnh từ tháng 8, mưa nhiều chưa từng có, cổ phiếu ngành điện ra sao? BĐS: SO SÁNH TỒN KHO BẤT ĐỘNG SẢN 2015-2022. 10 ông lớn địa ốc tồn kho hơn 40 nghìn tỷ 62015 30.6.2015 BĐS: Những vùng tối của khủng hoảng nhà ở BĐS: Loạt doanh nghiệp bất động sản phát hành trái phiếu trở lại BĐS: TS. Cấn Văn Lực: “Ai làm bất động sản ở phân khúc nhà phố thương mại thì cần phải quan sát để cơ cấu lại” BĐS: 1 tỷ USD vốn FDI vào nhà đất: Trung Quốc, Nhật Bản, Malaysia... dẫn đầu làn sóng M&A : Nếu không sửa luật, dự án bất động sản sẽ tắc trong 10 năm tới Tin tức: Thời khắc đen tối nhất của Ukraine Tin tức: 3 quyết sách chiến lược để biến Việt Nam thành ‘con hổ kinh tế’ châu Á Tin tức: Đánh thuế bất động sản phải nghiên cứu kỹ, đừng xa rời thực tế Tin tức: Chân dung Blackstone – ‘Gã khổng lồ’ quản lý hơn 1.000 tỷ USD muốn đẩy mạnh đầu tư vào Việt Nam VH & TG: SMARTPHONE VÀ TÔI VH & TG: TÂM LINH VÀ MÊ TÍN VH & TG: Cận cảnh không gian sống của Elon Musk: Người giàu nhất thế giới ở “phòng đóng hộp” 37m2, nội thất tiện nghi kém xa nhà của nhiều người Thư Giản: Mùa nước tràn đồng VH & TG: Vùng Scandinavia, bao gồm các quốc gia như Thụy Điển, Na Uy và Đan Mạch (có thể bao gồm Phần Lan, Iceland) VH & TG: South Korea wakes up to the next K-wave: The 'silver economy' VH & TG: Lý Quang Diệu viết về những ngày cuối đời VH & TG: Bài của Tướng Trì Hạo Điền về mộng bá chủ thế giới của người Hán Tạp chí Các vấn đề chiến lược, Ấn Độ, 15/4/2009 VH & TG: Reagan đã không thắng trong Chiến tranh Lạnh như nhiều người nghĩ Thư Giản: BÍ QUYẾT SỐNG NHẸ NHÀNG  Tiền Tệ : KINH TẾ HOA KỲ NHẬT BẢN VÀ ANH TUẦN NÀY ( 16- 25/9/2024) SẼ ẢNH HƯỞNG ĐẾN THẾ GIỚI VH & TG: Thân phận phụ nữ ở Ấn Độ: Những gánh nặng kinh hoàng BĐS: Thử suy nghĩ BÀI HỌC TỪ TRUNG QUỐC CHO THỊ TRƯỜNG BẤT ĐỘNG SẢN VIỆT NAM....2024 Thư Giản: 5 câu chuyện Đại chiến lược của Thế giới 2020-2035. VH & TG: Hoàng đế diệt Phật bị quả báo bi thảm: Bài học lịch sử cho nhân loại ngày nay Tiền Tệ : NHNN điều chỉnh room tín dụng: Nhà băng nào hưởng lợi? Thư Giản: Thời kỳ thoái đã bắt đầu từ lâu - Dự báo 60 năm phần 2 Thư Giản: Dự báo 60 năm đầu thế kỷ 21 và hướng đến thế kỷ 22 Chứng khoán: Thời hoàng kim của chứng khoán Việt Nam 2007 Chứng khoán: “Đỉnh và đáy” cũng như “đêm với ngày”: Nhà đầu tư lão làng Charlie Munger tiết lộ triết lý đầu tư chưa khi nào lỗi thời để gặt hái thành công VH & TG: Đại tác giả KIM DUNG NÓI GÌ VỀ KINH PHẬT CHỮ HÁN ? VH & TG: Chuyến thăm lịch sử của Đặng Tiểu Bình và nước đi giúp Trung Quốc “lột xác”, vượt qua láng giềng đáng gờm Thư Giản: Hạn hán lớn nhất thời cổ đại, hoàng đế xin mưa và phép màu khiến muôn dân kinh ngạc VH & TG: Nhân loại trước ngã ba đường? Tiền Tệ : Cơ hội từ khủng hoảng 2008 Tiền Tệ : Tại sao Mỹ sẽ thắng trong cuộc Chiến tranh tiền tệ? Tiền Tệ : Giải bài toán nợ xấu ngân hàng tăng SK & Đời Sống: Sự thật về người đàn ông sống lâu nhất Trung Quốc, thọ xuyên 3 thế kỷ nhờ 1 thần chú ai cũng dễ dàng làm được SK & Đời Sống: 'Chẳng ai muốn chuyển ra Bình Chánh khi công việc còn trong quận 1' Chứng khoán: Thị trường chứng khoán Mỹ chìm trong sắc đỏ trong ngày Thứ hai đầu tuần SK & Đời Sống: Giới nhà giàu Việt chọn môi trường sống “giàu có trong thầm lặng” Chứng khoán: Chứng khoán bay mất 50 điểm, rúng động thị trường 200 tỷ USD SK & Đời Sống: Người già nông thôn – đường dài lệ thuộc con cháu Thư Giản: MỘT VÀI SỰ THẬT VỀ NHỮNG THỜI KỲ KHÓ KHĂN! SK & Đời Sống: Thành phố lớn nhất Việt Nam có hơn 1 triệu người cao tuổi, già hoá dân số nhanh, tuổi thọ trung bình 76,5 tuổi SK & Đời Sống: Đưa cây vào nhà, chăm chúng như con SK & Đời Sống: Phục hưng hành lang thiên nhiên - kinh tế - nhân văn dọc sông Sài Gòn SK & Đời Sống: Nghiên cứu khoa học: Sống gần gũi với thiên nhiên giúp chống lại bệnh tật, tốt cho tâm lý, kéo dài tuổi thọ! Thư Giản: NGHỊCH LÝ KHÔNG THỂ "NGƯỢC ĐỜI" HƠN CỦA NGƯỜI HIỆN ĐẠI Tin tức: CÁI GIÁ CỦA CHIẾN TRANH 2024 BĐS: Thời điểm vàng cho bất động sản hậu khủng hoảng CN & MT: Dự báo của Yuval Noal Harari về những biến đổi chính trị - xã hội trong thời đại số và những giải pháp cho xã hội tương lai CN & MT: Neuromorphic supercomputer aims for human brain scale BĐS: Doanh nghiệp trả mặt bằng hàng loạt BĐS: Mặt bằng 'bình dân' ở TP.HCM: Giảm giá phân nửa, giảm tiền cọc vẫn bỏ trống BĐS: Sóng 'tháo chạy' khỏi mặt bằng tiền tỷ khu vực trung tâm giờ ra sao? CN & MT: Trí tuệ nhân tạo đang thay đổi ngành bán lẻ Tin tức: Hệ lụy gì từ cuộc chiến mới ở Trung Đông? BĐS: Dấu ấn bất động sản quý 3: Những "đốm sáng" trong khó khăn Tin tức: Thế giới bắt đầu thời kỳ cấu trúc lại trật tư thế giới The World Begins to Reorder Itself Tin tức: IMF: Triển vọng kinh tế thế giới mấy năm tới chỉ ở “hạng xoàng” BĐS: Chuyên gia nêu rõ khó khăn lớn nhất của thị trường bất động sản hiện nay Tin tức: Nền kinh tế toàn cầu ra sao khi phải đối mặt với cuộc khủng hoảng mới trong cuộc chiến Israel-Gaza? Tin tức: Xung đột Israel - Hamas: Người ra mặt và kẻ giấu mặt CN & MT: Nếu Trái đất nóng hơn 2,5 độ so với thời tiền công nghiệp, ĐBSCL sẽ gặp nguy cơ Tin tức: Tỉ phú israel có con gái bị Hamas giết! : Vòm sắt - hệ thống đánh chặn tên lửa thành công hơn 90% của Israel? Tin tức: Thế giới đối mặt cùng lúc 5 căn nguyên của thảm họa và nguy cơ Thế chiến III CN & MT: Toyota chứng minh cho cả thế giới thấy 'không vội làm xe điện' là đúng: 1 startup làm 9 năm vẫn lỗ, càng bán càng không có lãi
Bài viết
Mapping AI’s Rapid Advance

    Former Google CEO Eric Schmidt weighs in on where AI is headed, when to “pull the plug” and how to cope with China.

    Former Google CEO Eric Schmidt Maps AI's Rapid Advance

    Nathan Gardels: Generative AI is exponentially climbing the capability ladder. Where are we now? Where is it going? How fast is it going? When do you stop it, and how? 

    Eric Schmidt: The key thing that’s going on now is we’re moving very quickly through the capability ladder steps. There are roughly three things going on now that are going to profoundly change the world very quickly. And when I say very quickly, the cycle is roughly a new model every year to 18 months. So, let’s say in three or four years. 

    The first pertains to the question of the “context window.” For non-technical people, the context window is the prompt that you ask. That context window can have a million words in it. And this year, people are inventing a context window that is infinitely long. This is very important because it means that you can take the answer from the system and feed it back in and ask it another question.

    Say I want a recipe to make a drug. I ask, “What’s the first step?” and it says, “Buy these materials.” So, then you say, “OK, I bought these materials. Now, what’s my next step?” And then it says, “Buy a mixing pan.” And then the next step is “How long do I mix it for?”

    That’s called chain of thought reasoning. And it generalizes really well. In five years, we should be able to produce 1,000-step recipes to solve really important problems in medicine and material science or climate change. 

    The second thing going on presently is enhanced agency. An agent can be understood as a large language model that can learn something new. An example would be that an agent can read all of chemistry, learn something about it, have a bunch of hypotheses about the chemistry, run some tests in a lab and then add that knowledge to what it knows. 

    These agents are going to be really powerful, and it’s reasonable to expect that there will be millions of them out there. So, there will be lots and lots of agents running around and available to you. 

    The third development already beginning to happen, which to me is the most profound, is called “text to action.” You might say to AI, “Write me a piece of software to do X” and it does. You just say it and it transpires. Can you imagine having programmers that actually do what you say you want? And they do it 24 hours a day? These systems are good at writing code, such as languages like Python. 

    Put all that together, and you’ve got, (a) an infinite context window, (b) chain of thought reasoning in agents and then (c) the text-to-action capacity for programming. 

    What happens then poses a lot of issues. Here we get into the questions raised by science fiction. What I’ve described is what is happening already. But at some point, these systems will get powerful enough that the agents will start to work together. So your agent, my agent, her agent and his agent will all combine to solve a new problem. 

    Some believe that these agents will develop their own language to communicate with each other. And that’s the point when we won’t understand what the models are doing. What should we do? Pull the plug? Literally unplug the computer? It will really be a problem when agents start to communicate and do things in ways that we as humans do not understand. That’s the limit, in my view.

    Gardels: How far off is that future? 

    Schmidt: Clearly agents with the capacity I’ve described will occur in the next few years. There won’t be one day when we realize “Oh, my God.” It is more about the cumulative evolution of capabilities every month, every six months and so forth. A reasonable expectation is that we will be in this new world within five years, not 10. And the reason is that there’s so much money being invested in this path. There are also so many ways in which people are trying to accomplish this. 

    You have the big guys, the large so-called frontier models at OpenAI, Microsoft, Google and Anthropic. But you also have a very large number of players who are programming at one level lower at much less or lower costs, all iterating very quickly.

    “These agents are going to be really powerful, and it’s reasonable to expect that there will be millions of them out there.”

    Gardels: You say “pull the plug.” How and when do you pull the plug? But even before you pull the plug, you know you are already in chain of thought reasoning, and you know where that leads. Don’t you need to regulate at some point along the capability ladder before you get where you don’t want to go?

    Schmidt: A group of us from the tech world have been working very closely with the governments in the West on just this set of questions. And we have started talking to the Chinese, which of course, is complicated and takes time.  

    At the moment, governments have mostly been doing the right thing. They’ve set up trust and safety institutes to learn how to measure and continuously monitor and check ongoing developments, especially of frontier models as they move up the capability ladder. 

    So as long as the companies are well-run Western companies, with shareholders and exposure to lawsuits, all that will be fine. There’s a great deal of concern in these Western companies about the liability of doing bad things. It is not as if they wake up in the morning saying let’s figure out how to hurt somebody or damage humanity. Now, of course, there’s the proliferation problem outside the realm of today’s largely responsible companies. But in terms of the core research, the researchers are trying to be honest.

    Gardels: By specifying the Western companies, you’re implying that proliferation outside the West is where the danger is. The bad guys are out there somewhere.

    Schmidt: Well, one of the things that we know, and it’s always useful to remind the techno-optimists in my world, is that there are evil people. And they will use your tools to hurt people. 

    The example that epitomizes this is facial recognition. It was not invented to constrain the Uyghurs. You know, the creators of it didn’t say we’re going to invent face recognition in order to constrain a minority population in China, but it’s happening. 

    All technology is dual use. All of these inventions can be misused, and it’s important for the inventors to be honest about that. In open-source and open-weights models the source code and the weights in models [the numbers used to determine the strength of different connections] are released to the public. Those immediately go throughout the world, and who do they go to? They go to China, of course, they go to Russia, they go to Iran. They go to Belarus and North Korea. 

    When I was most recently in China, essentially all of the work I saw started with open-source models from the West and was then amplified. 

    So, it sure looks to me like these leading firms in the West I’ve been talking about, the ones that are putting hundreds of billions into AI, will eventually be tightly regulated as they move further up the capability ladder. I worry that the rest will not. 

    Look at this problem of misinformation and deepfakes. I think it’s largely unsolvable. And the reason is that code-generated misinformation is essentially free. Any person — a good person, a bad person — has access to them. It doesn’t cost anything, and they can produce very, very good images. There are some ways regulation can be attempted. But the cat is out of the bag, the genie is out of the bottle. 

    That is why it is so important that these more powerful systems, especially as they get closer to general intelligence, have some limits on proliferation. And that problem is not yet solved.

    Gardels: One thing that worries Fei-Fei Li of the Stanford Institute on Human-Centered AI is the asymmetry of research funding between the Microsofts and Googles of the world and even the top universities. As you point out, there are hundreds of billions invested in compute power to climb up the capability ladder in the private sector, but scarce resources for safe development at research institutes, no less the public sector. 

    Do you really trust these companies to be transparent enough to be regulated by government or civil society that has nowhere near the same level of resources and ability to attract the best talent?

    Schmidt: Always trust, but verify. And the truth is, you should trust and you should also verify. At least in the West, the best way to verify is to use private companies that are set up as verifiers because they can employ the right people and technology. 

    In all of our industry conversations, it’s pretty clear that the way it will really work is you’ll end up with AI checking AI. It’s too hard for human monitoring alone.

    “It’s always useful to remind the techno-optimists in my world … that there are evil people. And they will use your tools to hurt people.”

    Think about it. You build a new model. Since it has been trained on new data, how do you know what it knows? You can ask it all the previous questions. But what if the agent has discovered something completely new, and you don’t think about it? The systems can’t regurgitate everything they know without a prompt, so you have to ask them chunk by chunk by chunk. So, it makes perfect sense that an AI itself would be the only way to police that.

    Fei-Fei Li is completely correct. We have the rich private industry companies. And we have the poor universities who have incredible talent. It should be a major national priority in all of the Western countries to get basic research funding for hardware into the universities.

    If you were a research physicist 50 years ago, you had to move to where the cyclotrons [a type of particle accelerator] were because they were really hard to build and expensive — and they still are. You need to be near a cyclotron to do your work as a physicist. 

    We never had that in software, our stuff was capital-cheap, not capital-intensive. The arrival of heavy-duty training of AI models, which requires ever more complex and sophisticated hardware, is a huge economic change. 

    Companies are figuring this out. And the really rich companies, such as Microsoft and Google, are planning to spend billions of dollars because they have the cash. They have big businesses, the money’s coming in. That’s good. It is where the innovation comes from. Others, not least universities, can never afford that. They don’t have that capacity to invest in hardware, and yet they need access to it to innovate.

    Gardels: Let’s discuss China. You accompanied Henry Kissinger on his last visit to China to meet President Xi Jinping with the mission of establishing a high-level group from both East and West to discuss on an ongoing basis both “the potential as well as catastrophic possibilities of AI.” 

    As chairman of the U.S. National Security Commission on AI you argued that the U.S. must go all out to compete with the Chinese, so we maintain the edge of superiority. At the same time with Kissinger, you are promoting cooperation. Where to compete? Where is it appropriate to cooperate? And why?  

    Schmidt: In the first place, the Chinese should be pretty worried about generative AI. And the reason is that they don’t have free speech. And so, what do you do when the system generates something that’s not permitted under the censorship regime?

    Who or what gets punished for crossing the line? The computer, the user, the developer, the training data? It’s not at all obvious. What is obvious is that the spread of generative AI will be highly restricted in China because it fundamentally challenges the information monopoly of the Party-State. That makes sense from their standpoint. 

    There is also the critical issue of automated warfare or AI integration into nuclear command and control systems, as Dr. Kissinger and I warned about in our book, “The Age of AI.” And China faces the same concerns that we’ve been discussing as we move closer to general artificial intelligence. It is for these reasons that Dr. Kissinger, who has since passed away, wanted Xi’s agreement to set up a high-level group. Subsequent meetings have now taken place and will continue as a result of his inspiration.

    Everyone agrees that there’s a problem. But we’re still at the moment with China where we’re speaking in generalities. There is not a proposal in front of either side that is actionable. And that’s OK because it’s complicated. Because of the stakes involved, it’s actually good to take time so each side can actually explain what they view as the problem and where there is a commonality of concern. 

    Many Western computer scientists are visiting with their Chinese counterparts and warning that, if you allow this stuff to proliferate, you could end up with a terrorist act, the misuse of AI for biological weapons, the misuse of cyber, as well as long-term worries that are much more existential. 

    For the moment, the Chinese conversations I’m involved in largely concern bio and cyber threats.

    The long-term threat goes something like this: AI starts with a human judgment. Then there is something technically called “recursive self-improvement,” where the model actually runs on its own through chain of thought reasoning. It just learns and gets smarter and smarter. When that occurs, or when agent-to-agent interaction takes place, we have a very different set of threats, which we’re not ready to talk to anybody about because we don’t understand them. But they’re coming.

    “The spread of generative AI will be highly restricted in China because it fundamentally challenges the information monopoly of the Party-State.”

    It’s going to be very difficult to get any actual treaties with China. What I’m engaged with is called a Track II dialogue, which means that it’s informal and a step away from official. It’s very hard to predict, by the time we get to real negotiations between the U.S. and China, what the political situation will be. 

    One thing I think both sides should agree on is a simple requirement that, if you’re going to do training for something that’s completely new on the AI frontier, you have to tell the other side that you’re doing it. In other words, a no-surprise rule.

    Gardels: Something like the Open Skies arrangement between the U.S. and Soviets during the Cold War that created transparency of nuclear deployments?

    Schmidt: Yes. Even now, when ballistic missiles are launched by any major nuclear powers, they are tracked and acknowledged so everyone knows where they are headed. That way, they don’t jump to a conclusion and think it’s targeted at them. That strikes me as a basic rule, right? 

    Furthermore, if you’re doing powerful training, there needs to be some agreements around safety. In biology, there’s a broadly accepted set of threat layers, Biosafety levels 1 to 4, for containment of contagion. That makes perfect sense because these things are dangerous. 

    Eventually, in both the U.S. and China, I suspect there will be a small number of extremely powerful computers with the capability for autonomous invention that will exceed what we want to give either to our own citizens without permission or to our competitors. They will be housed in an army base, powered by some nuclear power source and surrounded by barbed wire and machine guns. It makes sense to me that there will be a few of those amid lots of other systems that are far less powerful and more broadly available.

    Agreement on all these things must be mutual. You want to avoid a situation where a runaway agent in China ultimately gets access to a weapon and launches it foolishly, thinking that it is some game. Remember, these systems are not human; they don’t necessarily understand the consequences of their actions. They [large language models] are all based on a simple principle of predicting the next word. So, we’re not talking about high intelligence here. We’re certainly not talking about the kind of emotional understanding in history we humans have.

    So, when you’re dealing with non-human intelligence that does not have the benefit of human experience, what bounds do you put on it? That is a challenge for both the West and China. Maybe we can come to some agreements on what those are?

    Gardels: Are the Chinese moving up the capability ladder as exponentially as we are in the U.S. with the billions going into generative AI? Does China have commensurate billions coming in from the government and/or companies?

    Schmidt: It’s not at the same level in China, for reasons I don’t fully understand. My estimate, having now reviewed the scene there at some length, is that they’re about two years behind the U.S. Two years is not very far away, but they’re definitely behind. 

    There are at least four companies that are attempting to do large-scale model training, similar to what I’ve been talking about. And they’re the obvious big tech companies in China. But at the moment they are hobbled because they don’t have access to the very best hardware, which has been restricted from export by the Trump and now Biden administrations. Those restrictions are likely to get tougher, not easier. And so as Nvidia and their competitor chips go up in value, China will be struggling to stay relevant. 

    Gardels: Do you agree with the policy of not letting China get access to the most powerful chips? 

    Schmidt: The chips are important because they enable the kind of learning required for the largest models. It’s always possible to do it with slower chips, you just need more of them. And so, it’s effectively a cost tax for Chinese development. That’s the way to think about it. Is it ultimately dispositive? Does it mean that China can’t get there? No. But it makes it harder and means that it takes them longer to do so.

    I don’t disagree with this strategy by the West. But I’m much more concerned about the proliferation of open source. And I’m sure the Chinese share the same concern about how it can be misused against their government as well as ours. 

    We need to make sure that open-source models are made safe with guardrails in the first place through what we call “reinforcement learning from human feedback” (RLHF) that is fine-tuned so those guardrails cannot be “backed out” by evil people. It has to not be easy to make open-source models unsafe once they have been made safe.

    This interview has been edited for clarity and brevity.

    By Shalinder Matharu - NoemaMag

    THỐNG KÊ TRUY CẬP
    • Đang online 7
    • Truy cập tuần 2136
    • Truy cập tháng 3015
    • Tổng truy cập 148438