10月26日,在由界面新闻主办的2023REAL科技大会上,清华大学副教授眭亚楠表示,大语言模型与具身智能是强互补性的,大语言模型已经很大程度解决了感知问题,可以提升具身智能的研究和转化前沿。
机器领域的感知来自于视觉,由于视觉的快速提升,使得具身智能和机器人的能力也在快速提升。接下来几年,随着语言能力,机器人的控制、规划能力也在快速提升,大语言模型和多模态能力,更会让具身智能进一步提升。
文章转载自:界面新闻网 非本站原创
版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。