AI日报:Runway的Gen-3 Alpha正式开放使用;百度文心大模型4.0 Turbo限时免费;英伟达发布直播神器;爆火Character AI惨遭阉割

AI资讯10个月前发布 阿强
4 0

欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉、了解应用。

新鲜AI产品点击了解https://top.aibase.com/

1、Runway的Gen-3 Alpha所有人都能用了!网友实测效果惊人!比sora还强!

7月日凌晨,Runway宣布全面开放Gen-3 Alpha的使用权限,让创意视频爱好者欣喜不已。Gen-3 Alpha通过简单的描述文本生成高质量视频,融入物理模拟技术,展现出色彩、光影效果和动作一致性。用户需支付费用使用,但承诺提供高级功能。网友们对Gen-3的表现赞不绝口,认为超越了Sora,给创意工作者们带来强心针。

【AiBase 提要:】

⭐️ 所有人都可用,傻瓜式操作,简单输入描述文本即可生成视频

⭐️ 最长可生成 秒720P视频,运动符合物理规律,真实感强

⭐️ 光影效果炸裂,动作一致性和色彩方面表现出色,能够满足微电影、宣传广告等制作需求。

⭐️ 将提供运动画笔、相机控制、导演模式等高级功能

⭐️ 不提供免费试用,每月会员费 12 美元

体验入口:https://top.aibase.com/tool/gen-3-alpha

完整视频案例及提示词点此查看:https://www.aibase.com/news/9945

2、限时免费体验!百度文心大模型4.0 Turbo在文心一言官网上线

百度在2024年WAVE SUMMIT深度学习开发者大会上发布了文心大模型4.0Turbo版本,速度和效果显著提升。新版本已在官网yiyan.baidu.com上线,回复速度快,内容质量高。在多个应用场景表现出色,包括信息获取、问答效果测试、专业知识问答、文档信息处理和代码开发。限时免费体验机会已开放给所有文心一言专业版用户。

【AiBase提要:】

🚀 文心大模型4.0Turbo速度和效果显著提升,在多个应用场景表现出色。

💡 新模型回复速度快,生成高质量长文仅需20多秒。

🔍 模型在问答效果测试、专业知识问答、文档信息处理和代码开发等方面展现出专业可靠性和高效性。

文心一言官网:https://top.aibase.com/tool/wenxinyiyan

3、发布直播神器 Broadcast

NVIDIA Broadcast是一款利用AI魔法提升音频和视频质量的应用,专为RTX 用户设计。它能智能去除噪音、虚拟背景、自动对焦、视频噪点减少等,为用户提供专业级别的直播体验。

视频来自英伟达,翻译:小互

【AiBase提要:】

🔊 噪音和回声去除:AI自动消除背景噪音,声音清晰如水晶。

🌌 虚拟背景:一键更换背景,视频更具创意。

👁️ 自动对焦:移动时始终保持画面焦点。

详情链接:https://top.aibase.com/tool/nvidia-broadcast-app

4、阿里推首个妆造神力霓裳 已在古装剧中投入应用

阿里大文娱推出的神力霓裳大模型为古装剧的妆造设计带来革命性变革,通过快速生成精美妆造图片,为者提供了全新思路和灵感来源。结合传统美学与现代技术,神力霓裳不仅解决了耗时问题,还拓展了中华传统美学的创作可能性,为影视行业带来新的发展方向和机遇。

【AiBase提要:】

⚡ 神力霓裳大模型革新古装剧妆造设计,AI技术快速生成妆造图片,提供创作者新思路和灵感来源。

💡 结合传统美学与现代技术,解决影视从业者造型设计耗时问题,拓展中华传统美学创作可能性。

✨ 神力霓裳不断更新迭代,帮助美术团队拓展思维,提升创意水平。

5、YouTube 允许用户请求删除模拟的面部或声音的 AI 生成内容

YouTube最近推出新政策,允许用户要求删除人工智能生成的模仿其面部或声音的内容,以维护隐私权和应对AI生成内容的影响。新政策要求当事人直接提出删除请求,公司将根据多方面因素判断是否删除内容。此举是YouTube对AI内容管理的重要举措,旨在平衡AI技术发展和用户权益保护。

【AiBase提要:】

🔍 用户可要求删除AI生成的模仿内容,保护个人隐私

⚖️ 删除请求需由当事人直接提出,公司会综合考虑多种因素判断是否删除

🛡️ 删除内容不意味着一定会被移除,YouTube将根据合成标识、内容特征等因素做出决定

6、月之暗面 Kimi 开放平台「上下文缓存」正式公测 长文本模型降本 90%

Kimi 开放平台宣布上下文缓存公测,可降低长文本模型使用成本最高90%,提升响应速度。上下文缓存是高效数据管理技术,预先存储频繁请求数据,节省时间资源。适用于重复引用大量初始上下文,降低费用提高效率。

【AiBase提要:】

🔑 上下文缓存可降低长文本模型使用成本最高90%。

🚀 提升模型响应速度,节省时间和资源。

💰 降低费用最高可达90%,首 Token 延迟降低83%。

原文地址:https://www.chinaz.com/2024/0702/1626970.shtml

© 版权声明

相关文章

暂无评论

暂无评论...