式的Talker-Reasoner AI代理人框架龙8国际头号玩家DeepMind公布集成2种思维模
研究人员指出…○◆,本研究是首个使用双系统的代理人○=▽▼,欲改善其效用★◁•◇-▪,未来可以让Talker-Reasoner框架中的Talker自动判断是否加入System 2的资讯作为回应△☆▼★○,或是System 2加入更多Reasoner◆□▽★…,以多样化其输入的记忆资讯○★★。
Google DeepMind上周公布具备2种思维模式的系统框架○▲▼龙8国际头号玩家DeepMind公布集成2种思维模,可让AI代理人(agent)能兼具快☆◇•▼、慢思考的效益龙8国际头号玩家◇◁☆。
包含多阶段推理和规划◁▷▼、调用龙8国际头号玩家☆△▷□▷★、执行行为等动作龙8国际头号玩家•◁★◆△。在接获用户互动输入问题时▲•■☆△○,也可以等待Reasoner代理人产出知识□■▼★☆★,DeepMind设计的双系统代理人框架中□◁■◆★◆,Talker和Reasoner之间经由共同内存互动……★▷▲。Reasoner的运行更为缓慢-□▼、深刻及具逻辑性△▼=,负责感知观察外界▷●式的Talker-Reasoner AI代理人框架、获得用户回应△◇••◇,
DeepMind团队利用Gemini 1◆▼□△△▲.5 Flash设计出错含双系统AI代理人▷▼△▽•■,在测试中●○▪,让该系统扮演用户睡眠指导顾问□■•,在听取用户说明后▼◁◇▽▼,提供改善睡眠的建议••。研究团队发现-△,系统在■…★“理解○◇△”用户问题阶段★…▪,其代理人(Talker)直觉化▼▷◇◆▽☆、流畅回应用户-▼,但当Reasoner未能理解其指导是哪个阶段时▷•,会提供较直觉化而无用的建议=•◆◁●□。例如使用降噪窗帘及隔音板■★●▪=。为解决此问题★★◇△▷,研究团队加入▽•“指导●-◇■•▼”阶段说明◁◇○,Talker一旦读取到指导阶段时=▽▼……,就会等待Reasoner提供的资讯•▷…☆▷,而非直觉回应用户◇◁▷。这时系统2就取得主导◆•,而非只给系统1产出的回应◁▪☆◆=▲,例如为房间换颜色柔和的壁纸…=。
现有大型语言模型能以自然语言和用户互动龙8国际头号玩家▽◁□…,具有二种能力◁○…,包括对话和规划/思考△◇▪★△。DeepMind团队设计的一种由双系统组成的Talker-Reasoner代理人框架▪…▼,能同时执行对话及多步骤推理任务…□…,一如由以色列诺贝尔经济学家Daniel Kahneman提倡的■▽◆▲▪□“快思慢想-◆○□”(之后也被翻译成多国语言版本□□-=,包括繁中版)的人类一样▽•☆■•◆。
延迟回应用户▽☆-…■★。Talker可以以现有知识为基础☆◁■•-▼、提供直觉回应☆▼▼,Reasoner获得知识后□▷-,除了执行行为▷■=•-,像是调用工具-▷◇▷☆◁、从外部数据库获取资讯★•●▪。也更新其(内存中的)知识信仰★■,并且以自然对线 Reasoner LLM负责解决复杂的问题▽•,系统1 Talker LLM能执行快速●…▽★▲▷、直觉及合成语言回应□○◁△•,相较Talker LLM的快速回应=▽。并提供Talker产生新的说话内容…●。这涉及从外界取得资讯增强其知识★△▲。