跳至内容
  • 首页
  • 资讯
  • 行业方案
  • 付费阅读
  • Job招聘
  • Paper论文
  • Patent专利
  • 映维会员
  • 导航收录
  • 合作
  • 关于
  • 微信群
  • All
  • XR
  • CV
  • CG
  • HCI
  • Video
  • Optics
  • Perception
  • Reconstruction

FlexGen: Flexible Multi-View Generation from Text and Image Inputs

小编 广东客   |   分类:CV   |   2025年3月27日

Note: We don't have the ability to review paper

PubDate: Otc 2024

Teams:HKUST(GZ)1 HKUST2 Quwan3

Writers:Xinli Xu, Wenhang Ge, Jiantao Lin, Jiawei Feng, Lie Xu, HanFeng Zhao, Shunsi Zhang, Ying-Cong Chen

PDF:FlexGen: Flexible Multi-View Generation from Text and Image Inputs

Abstract

In this work, we introduce FlexGen, a flexible framework designed to generate controllable and consistent multi-view images, conditioned on a single-view image, or a text prompt, or both. FlexGen tackles the challenges of controllable multi-view synthesis through additional conditioning on 3D-aware text annotations. We utilize the strong reasoning capabilities of GPT-4V to generate 3D-aware text annotations. By analyzing four orthogonal views of an object arranged as tiled multi-view images, GPT-4V can produce text annotations that include 3D-aware information with spatial relationship. By integrating the control signal with proposed adaptive dual-control module, our model can generate multi-view images that correspond to the specified text. FlexGen supports multiple controllable capabilities, allowing users to modify text prompts to generate reasonable and corresponding unseen parts. Additionally, users can influence attributes such as appearance and material properties, including metallic and roughness. Extensive experiments demonstrate that our approach offers enhanced multiple controllability, marking a significant advancement over existing multi-view diffusion models. This work has substantial implications for fields requiring rapid and flexible 3D content creation, including game development, animation, and virtual reality. Project page: this https URL.

本文链接:https://paper.nweon.com/16252

您可能还喜欢...

  • The ParallelEye Dataset: Constructing Large-Scale Artificial Scenes for Traffic Vision Research

    2020年07月29日 映维

  • HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces

    2023年12月21日 广东客

  • DeProPose: Deficiency-Proof 3D Human Pose Estimation via Adaptive Multi-View Fusion

    2025年06月12日 广东客

关注:

RSS 最新AR/VR行业分享

  • XR日报:小米AI眼镜1999元起,全息技术Swave Photonics获600万欧元追加投资 2025年6月27日
  • 谷歌XR专利提出纳米颗粒增强衍射波导制造技术 2025年6月27日
  • 谷歌专利提出基于准直器的AR显示系统视场校准技术 2025年6月27日
  • 欧亚研究团队推出OSLO-IC技术实现360度图像高效压缩 2025年6月27日
  • 悉尼大学研发TA-GNN模型实现VR环境高精度手指运动预测 2025年6月27日

RSS 最新AR/VR专利

  • Samsung Patent | Deposition equipment 2025年6月26日
  • Snap Patent | Determining gaze direction to generate augmented reality content 2025年6月26日
  • Apple Patent | Eye characteristic determination 2025年6月26日
  • Snap Patent | Eyewear device charging case 2025年6月26日
  • Qualcomm Patent | Vehicle and mobile device interface for vehicle occupant assistance 2025年6月26日

RSS 最新AR/VR行业招聘

  • Microsoft AR/VR Job | High Performance Compute, Director 2025年6月5日
  • Microsoft AR/VR Job | Data Center Technician/ Technicien de Centre de Données 2025年6月3日
  • Microsoft AR/VR Job | Senior Product Designer 2025年5月16日
  • Apple AR/VR Job | AirPlay Audio Engineer 2025年3月27日
  • Apple AR/VR Job | iOS Perception Engineer 2025年3月27日

联系微信:ovalics

版权所有:广州映维网络有限公司 © 2025

备案许可:粤ICP备17113731号-2

粤公网安备 44011302004835号

友情链接: AR/VR行业导航

读者QQ群:251118691

Quest QQ群:526200310

开发者QQ群:688769630

Paper