Character.AI 推出 AvatarFX,让静态图片 “开口说话”

AvatarFX 模型发布

4 月 23 日消息,Character.AI 公司今天在 X 平台发布推文,宣布推出 AvatarFX 模型,能够让静态图片中的人物 “开口说话”。用户只需上传一张图片并挑选一个声音,平台即可生成会说话、会移动的形象。这些形象还能展现情感,呈现出令人惊叹的真实感和流畅度。

SOTA DiT-based Diffusion Video Generation Model

公司表示,这得益于一种名为 “SOTA DiT-based diffusion video generation model” 的先进 AI 模型。该模型经过精心训练,结合音频条件优化技术,能高效生成高质量视频。AvatarFX 的技术亮点在于其 “高保真、时间一致性” 的视频生成能力,即便面对多角色、长序列或多轮对话的复杂场景,它也能保持惊人的速度和稳定性。

与竞争对手的比较

与 OpenAI 的 Sora 和 Google 的 Veo 等竞争对手相比,AvatarFX 并非从零开始或基于文本生成视频,而是专注于将特定图片动画化。这种独特的工作流程为用户提供了新颖体验,使得生成的视频更加真实和流畅。

潜在风险与隐私争议

然而,这种技术也带来了潜在风险。用户可能上传名人或熟人照片,制作看似真实的虚假视频,引发隐私和伦理争议。如何在享受技术带来的便利同时,避免滥用成为了一个重要课题。

结论

Character.AI 推出的 AvatarFX 模型,通过先进的 AI 技术,将静态图片动画化,实现了人物 “开口说话” 的功能。尽管技术带来了惊人的效果和新颖的用户体验,但也需关注隐私和伦理问题,以确保技术的合理使用。