先做个广告:如需购买GPT帐号或代充值Chatgpt Plus(GPT4)会员,请添加站长客服微信:GPTchongzhi(备注好你的需求)
专注AIGC领域的应用层面研究,致力于将最前沿,最新鲜的AIGC应用与AI资讯分享给每一位小伙伴,无限学习、共同进步,欢迎关注!
推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top
9月25日,OpenAI宣布将推出ChatGPT的新版本GPT-4V,支持两大新功能:“支持与ChatGPT语音交流”和“GPT理解分析用户输入图形”。
简单来说,现在GPT可以“听”、“说”、“看”了。ChatGPT正朝着更多元化多模态大模型发展。
其实早在4月份,GPT-4准备上线前,就提出了GPT-4是一个多模态大模型,可是相关功能一直未开放。原因是维护安全性会变得越来越艰难。
因此,OpenAI与外部专家合作,对模型和系统的限制和风险进行了定性评估。与红队成员(Red Teamers)合作,测试集中在与GPT-4V的多模态功能相关的风险上,包括科学能力、医疗建议、刻板印象、和无根据的推断、虚假信息风险、仇恨内容和视觉漏洞等。
让我们来看看更新的两大功能的介绍吧:
①语音交流
GPT语音交互界面
允许用户输入语音对话,GPT语音反馈对话,提供更直观的交互方式
支持在iOS和Android移动应用上使用
提供5种不同的语音选择
②图像识别分析
支持用户拍照,上传相册图片让GPT分析
GPT会识别图形内容,根据用户的问题进行答疑
如视频所示,用户询问如何降低自行车座椅,提供了实拍照片、使用手册和工具箱的图片。然后,ChatGPT 会做出反应并建议用户如何完成这一过程。
OpenAI表示在未来的两周内会向Plus用户与企业用户开放此功能,并在今后陆续开放给普通用户和开发者开放。