跳至内容
  • 首页
  • 资讯
  • 行业方案
  • 付费阅读
  • Job招聘
  • Paper论文
  • Patent专利
  • 映维会员
  • 导航收录
  • 合作
  • 关于
  • 微信群
  • All
  • XR
  • CV
  • CG
  • HCI
  • Video
  • Optics
  • Perception
  • Reconstruction
空 挡 广 告 位 | 空 挡 广 告 位

Latency Reduction in CloudVR: Cloud Prediction, Edge Correction

小编 广东客   |   分类:XR   |   2025年2月27日

Note: We don't have the ability to review paper

PubDate: Sep 2024

Teams:Sharif University of Technology

Writers:Ali Majlesi Kopaee, Seyed Amir Hajseyedtaghia, Hossein Chitsaz

PDF:Latency Reduction in CloudVR: Cloud Prediction, Edge Correction

Abstract

Current virtual reality (VR) headsets encounter a trade-off between high processing power and affordability. Consequently, offloading 3D rendering to remote servers helps reduce costs, battery usage, and headset weight. Maintaining network latency below 20ms is crucial to achieving this goal. Predicting future movement and prerendering are beneficial in meeting this tight latency bound. This paper proposes a method that utilizes the low-latency property of edge servers and the high resources available in cloud servers simultaneously to achieve cost-efficient, high-quality VR. In this method, head movement is predicted on the cloud server, and frames are rendered there and transmitted to the edge server. If the prediction error surpasses a threshold, the frame is re-rendered on the edge server. Results demonstrate that using this method, each edge server can efficiently serve up to 23 users concurrently, compared to a maximum of 5 users when rendering the frame entirely on the edge server. Furthermore, this paper shows that employing the Mean Absolute Error loss function and predicting acceleration rather than velocity significantly enhances prediction accuracy. Additionally, it is shown that normalizing individual data using its mean and standard deviation does not yield improvements in prediction accuracy. These findings provide insights into optimizing VR headset performance through cloud-edge collaboration.

本文链接:https://paper.nweon.com/16221

您可能还喜欢...

  • Non-zero-sum mutual gaze in collaborative virtual environments

    2020年09月11日 映维

  • Semi-Autonomous Planning and Visualization in Virtual Reality

    2021年05月10日 映维

  • 3D Mirrored Object Selection for Occluded Objects in Virtual Environments

    2021年08月19日 映维

关注:

RSS 最新AR/VR行业分享

  • 研究员研发TelePulse触觉系统,实现VR远程机器人精准力反馈 2025年5月12日
  • XR日报: Meta预告AssetGen 2.0 AI模型,谷歌专利提出混合眼动追踪技术 2025年5月12日
  • 谷歌光波导技术采用直角百叶逆反射器实现组合式出瞳扩展与耦出结构 2025年5月12日
  • 谷歌XR专利用混合眼动追踪技术实现无控制器的头显UI精准操作 2025年5月12日
  • 西交大提出DynamicAvatars框架:高斯飞溅+LLM驱动VR虚拟人实时定制 2025年5月12日

RSS 最新AR/VR专利

  • Sony Patent | Information processing device and information processing method 2025年5月8日
  • Niantic Patent | Maintaining object alignment in 3d map segments 2025年5月8日
  • Samsung Patent | Deposition mask and method for manufacturing the same 2025年5月8日
  • ARM Patent | Firearm training system 2025年5月8日
  • Apple Patent | Electronic device system with supplemental lenses 2025年5月8日

RSS 最新AR/VR行业招聘

  • Apple AR/VR Job | Senior Software QA Engineer - Apple Vision Pro 2024年11月12日
  • Apple AR/VR Job | System Product Design Engineer - Apple Vision Pro 2024年11月12日
  • Microsoft AR/VR Job | Principal Software Engineer -Teams Premium Services 2024年11月12日
  • Meta AR/VR Job | Software Engineer - XR Codec Interactions and Avatars Team 2024年11月12日
  • Meta AR/VR Job | Product Cost Engineer 2024年11月12日

联系微信:ovalics

版权所有:广州映维网络有限公司 © 2025

备案许可:粤ICP备17113731号-2

粤公网安备 44011302004835号

友情链接: AR/VR行业导航

读者QQ群:251118691

Quest QQ群:526200310

开发者QQ群:688769630

Paper