JP2017010120A - Information processing device, video processing device, control method for those, and video processing system - Google Patents
Information processing device, video processing device, control method for those, and video processing system Download PDFInfo
- Publication number
- JP2017010120A JP2017010120A JP2015122114A JP2015122114A JP2017010120A JP 2017010120 A JP2017010120 A JP 2017010120A JP 2015122114 A JP2015122114 A JP 2015122114A JP 2015122114 A JP2015122114 A JP 2015122114A JP 2017010120 A JP2017010120 A JP 2017010120A
- Authority
- JP
- Japan
- Prior art keywords
- video
- orientation
- information processing
- unit
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、例えば複合現実技術を実現する情報処理装置、映像処理装置、およびそれらの制御方法、ならびに映像処理システムに関する。 The present invention relates to an information processing apparatus, a video processing apparatus, a control method thereof, and a video processing system that realize, for example, mixed reality technology.
現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として、複合現実感(MR:Mixed Reality)技術が知られている。MRシステムを実現する方法の一つとして、ビデオシースルー型HMD(Head Mounted Display)を利用するものがある。このMRシステムでは、HMD使用者の視界領域をカメラで撮像し、その撮像映像にCG(ComputerGraphics)を合成した映像をHMDの装着者(以下、HMD使用者)に提示する。特許文献1では、ビデオシースルー型HMDを用いたMRシステムとして、HMD使用者の視界領域を撮像する第一のカメラと、HMDの位置姿勢を検出するための映像を撮像する第二のカメラとを備えたHMDを用いる技術が提案されている。
Mixed reality (MR) technology is known as a technology that seamlessly fuses the real world and the virtual world in real time. One of the methods for realizing the MR system is to use a video see-through type HMD (Head Mounted Display). In this MR system, a field of view of an HMD user is imaged by a camera, and an image obtained by synthesizing CG (Computer Graphics) with the captured image is presented to an HMD wearer (hereinafter referred to as an HMD user). In
撮像映像からHMDの位置姿勢を取得する処理、及びHMDの位置姿勢に応じたCGを生成する処理は計算処理コストが大きいため、これらの処理をHMDと接続される外部装置としての映像処理装置に実行させている。この場合、外部装置としてのPC等の映像処理装置とHMDとが接続され、HMDから撮像映像が映像処理装置に送信される。そして、映像処理装置上でHMDの位置姿勢の検出、HMD位置姿勢に応じたCGの生成、撮像画像へのCGの合成が実行され、CGが合成された撮像画像がHMDに送り返され、表示される。このようなMRシステムにおいて、HMD使用者が自由に動きながらMR空間を体験できるようにするために、HMDと映像処理装置とは無線通信により接続されることが望ましい。しかし、一般的に、無線通信は有線通信と比較して通信帯域が狭いため、無線伝送するデータ量を削減する必要がある。また、HMDはバッテリー等で駆動するため、電力消費の観点からも伝送データ量を削減することが望ましい。 Since the processing for acquiring the position and orientation of the HMD from the captured video and the processing for generating the CG according to the position and orientation of the HMD have a high calculation processing cost, these processes are performed on a video processing apparatus as an external device connected to the HMD. It is running. In this case, a video processing device such as a PC as an external device and the HMD are connected, and the captured video is transmitted from the HMD to the video processing device. Then, the position and orientation of the HMD is detected on the video processing device, the CG is generated according to the HMD position and orientation, and the CG is synthesized with the captured image. The captured image with the synthesized CG is sent back to the HMD and displayed. The In such an MR system, it is desirable that the HMD and the video processing apparatus be connected by wireless communication so that the HMD user can experience the MR space while freely moving. However, generally, wireless communication has a narrower communication band than wired communication, and thus it is necessary to reduce the amount of data to be transmitted wirelessly. In addition, since the HMD is driven by a battery or the like, it is desirable to reduce the amount of transmission data from the viewpoint of power consumption.
伝送する映像データ量を削減する技術として、映像符号化技術によりデータを圧縮する方法が知られている。また、特許文献2では、受信装置で測定されたパケットロス率・遅延時間から有効通信帯域を算出し、有効通信帯域に応じて映像符号化の送信レートを制御する技術が提案されている。 As a technique for reducing the amount of video data to be transmitted, a method of compressing data using a video encoding technique is known. Patent Document 2 proposes a technique for calculating an effective communication band from a packet loss rate / delay time measured by a receiving apparatus and controlling a transmission rate of video coding according to the effective communication band.
上述したビデオシースルー方式のMRシステムでは、映像処理装置は、HMDから受信した撮像映像からマーカまたは自然特徴点等の指標を画像解析により抽出することで、HMDの位置姿勢を検出する。この検出処理においては、高精細な映像データが必要であり、特許文献2のように映像データを大幅に圧縮してしまうと必要十分な映像品質が得られず、HMDの位置姿勢の検出精度が低下してしまうという課題がある。 In the video see-through MR system described above, the video processing apparatus detects the position and orientation of the HMD by extracting an index such as a marker or a natural feature point from the captured video received from the HMD by image analysis. In this detection process, high-definition video data is required, and if the video data is significantly compressed as in Patent Document 2, sufficient and sufficient video quality cannot be obtained, and the detection accuracy of the position and orientation of the HMD is high. There is a problem that it decreases.
本発明は上述の課題に鑑みてなされたものであり、例えばMRシステムのような映像処理そステムにおいて、移動可能な情報処理装置(例えばHMD)の位置姿勢の検出精度の低下を抑えつつ、情報処理装置から映像処理装置に伝送する映像のデータ量を削減することを目的とする。 The present invention has been made in view of the above-described problems. For example, in an image processing system such as an MR system, the information processing apparatus (for example, an HMD) can be controlled while suppressing a decrease in position and orientation detection accuracy. The object is to reduce the amount of video data transmitted from the processing device to the video processing device.
上記目的を達成するための、本発明の一態様による映像処理システムは、以下の構成を備える。すなわち、
可搬型の情報処理装置と、前記情報処理装置から受信した映像に仮想画像を合成する映像処理装置とを有する映像処理システムであって、
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を、前記情報処理装置から前記映像処理装置へ通信手段を介して送信する第1の送信手段と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記映像処理装置において、前記第1の映像に基づいて前記情報処理装置の位置姿勢を判定する判定手段と、
前記通信手段の前記第1の送信手段が利用可能な通信帯域と、前記判定手段により判定された位置姿勢とに基づいて、前記第1の送信手段により送信される前記複数の映像のデータ量の比率を制御する制御手段と、を備える。
In order to achieve the above object, a video processing system according to an aspect of the present invention has the following arrangement. That is,
A video processing system comprising a portable information processing device and a video processing device that synthesizes a virtual image with video received from the information processing device,
First transmission means for transmitting a first video used for determining the position and orientation of the information processing apparatus from the information processing apparatus to the video processing apparatus via a communication means; and the first video is , Including multiple videos corresponding to different spaces,
In the video processing device, determination means for determining a position and orientation of the information processing device based on the first video;
Based on the communication band that can be used by the first transmission unit of the communication unit and the position and orientation determined by the determination unit, the data amount of the plurality of videos transmitted by the first transmission unit Control means for controlling the ratio.
本発明によれば、移動可能な情報処理装置の位置姿勢の検出精度の低下を抑えつつ、情報処理装置から映像処理装置に伝送される映像のデータ量を削減することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to reduce the data amount of the image | video transmitted from an information processing apparatus to a video processing apparatus, suppressing the fall of the detection accuracy of the position and orientation of a movable information processing apparatus.
以下、添付の図面を参照して、本発明の好適な実施形態のいくつかについて詳細に説明する。 Hereinafter, some preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<第1実施形態>
図1は、第1実施形態に関わるMRシステムの構成例を示す図である。MRシステムは、使用者が携帯することによりその使用者とともに移動が可能な、可搬型の情報処理装置と、その情報処理装置から受信した映像に仮想画像を合成する映像処理装置とを有する映像処理システムである。本実施形態のMRシステムは、使用者とともに移動が可能な情報処理装置としての、使用者が装着するビデオシースルー型の頭部搭載型の表示装置であるヘッドマウントディスプレイ(以下、HMD101)と、映像処理装置としてのPC130を備える。マーカ120は、映像データからHMD101の3次元位置姿勢(以下、位置姿勢)を検出するのに用いられる。マーカ120の実空間における配置位置は既知である。
<First Embodiment>
FIG. 1 is a diagram illustrating a configuration example of an MR system according to the first embodiment. The MR system includes a portable information processing device that can be moved with the user when the user carries it, and a video processing device that synthesizes a virtual image with a video received from the information processing device. System. The MR system of the present embodiment includes a head-mounted display (hereinafter referred to as HMD 101), which is a video see-through head-mounted display device worn by the user, as an information processing apparatus that can move with the user, and an image. A
HMD101は、HMD使用者の視界領域を撮像して仮想画像が合成される映像を撮像するための右メインカメラ105と左メインカメラ106と、位置姿勢の検出に用いられる映像を撮像するための上サブカメラ107と下サブカメラ108を備える。本実施形態では、撮像範囲を広げてマーカ120が撮像される可能性を高めるように、上下2つのサブカメラを使用している。但し、サブカメラの数は3つ以上であっても良い。このように、複数のサブカメラにより、異なる空間に対応した複数の映像が取得されることになる。以下、右メインカメラ105と左メインカメラ106を総称してメインカメラ、上サブカメラ107と下サブカメラ108を総称してサブカメラと記載する。またHMD101はジャイロセンサや加速度センサのような慣性センサを備え、HMD101の移動回転量を所定のサンプリング周波数で定常的に測定し、動き情報として出力する。
The HMD 101 captures the video image used for detecting the position and orientation, and the right
メインカメラ及びサブカメラで撮像されたメイン映像データ、サブ映像データ及び慣性センサ109により測定された移動回転量情報(動き情報)は通信リンク125を介してPC130へ伝送される。通信リンク125の伝送方式としては、例えばGigabit Ethernet(登録商標)、IEEE1394等の有線方式、IEEE802.11nやIEEE802.11ac等の無線方式が挙げられるが、これらに限定されるものではない。
The main video data captured by the main camera and the sub camera, the sub video data, and the movement rotation amount information (motion information) measured by the
PC130では、受信したサブ映像データを使用して、画像解析によりマーカ120を検出し、HMD101の位置姿勢を検出する。より詳細には、PC130はサブ映像データ中からマーカを検出し、マーカの大きさや形、塗りつぶしのパターンなどの情報を取得する。PC130は、これらの取得された情報から、位置姿勢検出用のマーカ120とHMD101の相対的な位置関係、およびHMD101がマーカを撮像している方向に関する三次元位置姿勢情報を算出することができる。なお、本実施形態では、複数のマーカ120を使用し、各マーカの位置関係を指標配置情報としてあらかじめ定義しておき、それらの相対的位置関係から、HMD101がマーカを観察(撮像)している方向を算出している。したがって、内部の塗りつぶしパターンによって方向まで識別が可能なマーカではなく、例えば、カラーマーカや、LEDなどの発光素子のような方向の情報を持たないマーカを利用することが可能となる。
The PC 130 detects the
また、図1で示すようなマーカではなく、図2(a)に示すドア200、テーブル205、窓210の輪郭線のような、画像中の自然特徴点、画像中の特定の色などを抽出し、それらを用いて位置姿勢情報を算出することも可能である。図2(b)において、マーク250、255は、ドア200の特徴点の一部を示している。同一種類のマーカを複数用いたり、数種類のマーカを同時に用いたり、マーカから得られる情報と画像中の特徴点の情報とを組み合わせて用いることによって、より高い精度の位置姿勢情報を生成できる。さらには、複数のマーカや特徴点の位置関係が対応付けられているため、すべてのマーカや特徴点が画像内に表示されていなくても、それぞれのマーカや特徴点の位置を推定することも可能である。
In addition, the natural feature points in the image, such as the contour lines of the
さらに、PC130は受信した、HMD101の動きを示す動き情報(移動回転量情報)を用いて、位置姿勢を推定する。例えばサブカメラの撮像範囲にマーカが含まれていない場合にも、PC130が過去にサブカメラ映像を使用して検出した位置姿勢情報と、積分した移動回転量情報を組み合わせることにより、現在の位置姿勢を推定することが可能である。PC130は、HMD101の位置姿勢を検出または推定すると、検出または推定した位置姿勢に応じて仮想画像としてのCGを生成し、生成したCGをメインカメラ映像上に合成し、CG合成映像を生成する。PC130は生成したCG合成映像をHMD101に通信リンク135を介して送信し、HMD101は受信したCG合成映像を表示する。
Further, the
図3はHMD101の位置と、上サブカメラ107、下サブカメラ108の撮像範囲の例を示す図である。図3において、撮像範囲310および撮像範囲315は、HMDがP1に位置するときの上サブカメラ107および下サブカメラの撮像範囲である。上サブカメラ107の撮像範囲310には1つのマーカが、下サブカメラ108の撮像範囲315には2つのマーカが含まれている。また、撮像範囲320および撮像範囲325は、HMDがP2に移動したときの上サブカメラ107および下サブカメラ108の撮像範囲である。下サブカメラ108の撮像範囲325には1つのマーカが、上サブカメラ107の撮像範囲320には3つのマーカが含まれている。このようにHMD101の位置姿勢の変化に伴って、上サブカメラ107および下サブカメラ108の各々の撮像範囲に含まれるマーカ数は変化する。そして、このマーカ数は、マーカの配置情報とHMD101の位置姿勢から判定することが可能である。
FIG. 3 is a diagram illustrating an example of the position of the
図4は第1実施形態によるHMD101の機能ブロック図である。図4において、第1撮像部400は、HMD101を装着している使用者が見ている現実空間映像を撮像するためのメインカメラであり、左メインカメラ106と右メインカメラ105を含む。第1圧縮部405は、第1撮像部400の左メインカメラ106と右メインカメラ105により撮像された左右のメインカメラ映像を所定の符号化方式で圧縮する。符号化方式としては例えば、Motion−JPEGやH.264/AVC等が挙げられるが、これら以外の方式でもよい。第1圧縮部405により圧縮された左右のメインカメラ映像は通信部406を介してPC130へ送信される。
FIG. 4 is a functional block diagram of the
第2の撮像部410は、HMD101の位置姿勢を検出するための映像を撮像するための上サブカメラ107と下サブカメラ108を含み、上下のサブカメラ映像を出力する。優先度情報取得部415は、サブカメラ映像の伝送の優先度を含む優先度情報をPC130から通信部406を介して取得する。優先度情報については後述する。帯域判定部420は、通信部406を介して、サブカメラにより取得されたサブカメラ映像(位置姿勢の検出に用いられる映像)の送信に利用可能な通信帯域の過不足を判定する。例えば通信部406として無線通信を利用している場合には、HMD101の移動に伴い通信部406が利用可能な通信帯域が大きく変化することが想定される。帯域判定部420は、通信部406が利用するそのような無線通信の通信帯域(通信可能なデータ伝送量)を監視し、通信帯域が十分か不足しているかを判定する。
The
比率決定部425は、帯域判定部420で取得した通信帯域の過不足の判定と優先度情報取得部415で取得した優先度情報に基づき、上サブカメラ107と下サブカメラ108で取得された映像の伝送データ量の比率を決定する。例えば、上サブカメラ107の映像の優先度が高く、利用可能な通信帯域が不足していると判定されたとする。この場合、上サブカメラ107と下サブカメラ108の映像の伝送データ量の比率を1:0にすれば、通信帯域の全てを上サブカメラ107の映像の伝送に割り当てることになる。利用可能な通信帯域が十分にある場合には、伝送データ量の比率は1:1となり、上下サブカメラの両方の映像の伝送に均等に通信帯域を割り当てることが可能となる。
The
第2圧縮部430は、第2の撮像部410にて撮像された上下のサブカメラ映像を、比率決定部425で決定された伝送データ量の比率に従って所定の符号化方式で圧縮する。本実施形態では、第1圧縮部405と第2圧縮部430を別々のブロックとしているが、共通のブロックとしても良い。動き検出部435は、ジャイロセンサや加速度センサのような慣性センサ109から受信した信号から動き情報を生成する。動き検出部435は、慣性センサ109を用いてHMD101の移動回転量を所定のサンプリング周波数で定常的に測定している。動き検出部435で測定された移動回転量は、所定のサンプル数分まとめられて、動き情報として通信部406を介してPC130へ送信される。合成映像伸長部440は通信部406を介してPC130から受信した、圧縮されたCG合成映像を伸長する。伸長されたCG合成映像は表示部445により表示され、HMD101の使用者(装着者)に対して提示される。尚、図4に示す各機能部は、ハードウェア又はソフトウェアとして装置に実装される。これらの機能部がソフトウェアとして実装される場合には、これらの機能を実行するためのプログラムが、HMD101が備える記憶部(ROM,RAM等のメモリ)に記憶されることになる。そして、HMD101が備えるCPUが、記憶部に記憶されたプログラムを実行することにより、これらの機能部が提供する機能が実現されることになる。
The
図5はPC130の機能ブロック図である。第1伸長部505は、通信部500を介して受信した、圧縮されたメインカメラ映像(左メインカメラ106および右メインカメラ105により撮像された映像)を伸長する。第2伸長部510は、通信部500を介して受信した、圧縮されたサブカメラ映像を伸長する。受信されるサブカメラ映像は、上述したように、上サブカメラ107、下サブカメラ108の両方またはいずれか一方の映像である。また、上サブカメラ107の映像と下サブカメラ108の映像で圧縮率が異なる場合もある。なお、本実施形態では、第1伸長部505と第2伸長部510を別々のブロックとしているが、共通のブロックとしても良い。
FIG. 5 is a functional block diagram of the
指標検出部515は伸長されたサブカメラ映像を画像解析して、マーカ120などの指標を検出する。指標配置情報520は、複数の指標とその位置関係を定義した情報であり、MRシステムの開始前に全ての指標を撮像することによって予め構築されたものである。なお、指標配置情報520はサブカメラ映像の解析に従ってアップデートされるようにしても良い。位置姿勢検出部525は、指標配置情報520と指標検出部515により検出された指標の情報に基づいて、HMD101の位置姿勢を検出する。CG生成部530は検出されたHMDの位置姿勢に基づいてCGを生成する。CG合成部535は、CG生成部530により生成されたCGと、第1伸長部505により伸長されたメインカメラ映像とを合成してCG合成映像を生成する。CG合成部535により生成されたCG合成映像は、合成映像圧縮部540により所定の符号化方式で圧縮され、通信部500を介してHMD101に送信される。
The
動き取得部550は、通信部500を介して、HMD101の動き検出部435が出力した動き情報(移動回転量情報)を取得する。優先度情報生成部545は、取得された動き情報(移動回転量情報)と位置姿勢検出部525により検出された現在の位置姿勢情報から、次に伝送されるサブカメラ映像の撮影時のHMD101の位置姿勢を推定する。上述したように、マーカ等の指標から判定された現在の位置姿勢に、動き情報(1フレーム分の移動回転量)の積分を加味することで、次のフレームにおけるHMD101の位置姿勢を推定することができる。そして、優先度情報生成部545は、推定されたHMD101の位置姿勢と、指標配置情報520に基づき、次に伝送されるサブカメラ映像の優先度情報を生成する。例えば、HMD101の次の推定された撮影位置が図3のP2であり、HMD101の位置姿勢に基づいたサブカメラの撮像範囲は撮像範囲320と撮像範囲325であるとする。この場合、指標配置情報520に基づき、上サブカメラ107映像には3個のマーカが含まれ、下サブカメラ108の映像には1個のマーカが含まれることがわかる。したがって、優先度情報生成部545は、上サブカメラ107の映像の優先度を高くした優先度情報を生成する。生成された優先度情報は、通信部500を介して、HMD101に送信される。尚、図5に示す各機能部は、ハードウェア又はソフトウェアとして装置に実装される。これらの機能部がソフトウェアとして実装される場合には、これらの機能を実行するためのプログラムが、PC130が備える記憶部(ROM,RAM等のメモリ)に記憶されることになる。そして、PC130が備えるCPUが、記憶部に記憶されたプログラムを実行することにより、これらの機能部が提供する機能が実現されることになる。
The
図6はHMD101におけるサブカメラの映像、メインカメラの映像、動き情報(移動回転量情報)のデータ生成タイミングを示す図である。期間600は映像フレーム(N)、期間605は映像フレーム(N+1)の生成タイミングを示している。例えばフレームレートが60Hzである場合には、約16msごとに映像フレームが生成され、PC130へ伝送されることになる。各映像フレームの期間において上サブカメラ107からの上サブカメラ映像データ615、下サブカメラ108からの下サブカメラ映像データ620が送信される。また、各映像フレーム期間において、左メインカメラ106からの左メインカメラ映像データ625、右メインカメラ105からの右メインカメラ映像データ630が送信される。610は映像フレーム(N)のデータが、611は映像フレーム(N+1)のデータが生成される間にサンプリングされる動き情報(移動回転量)のデータを示している。映像データと比較すると動き情報の1サンプル当たりのデータ量は少なく、図6で示すように動き情報のサンプリング周波数は、映像のフレームレートよりも高い。本実施形態では、図7で示すように1つの映像フレームを生成する間にサンプリングされた複数の動き情報をまとめて、映像フレームデータと共に通信フレームに格納して伝送している。尚、図5に示す各機能部は、ハードウェア又はソフトウェアとして装置に実装される。これらの機能部がソフトウェアとして実装される場合には、これらの機能を実行するためのプログラムが、PC130が備える記憶部(ROM,RAM等のメモリ)に記憶されることになる。そして、PC130が備えるCPUが、記憶部に記憶されたプログラムを実行することにより、これらの機能部が提供する機能が実現されることになる。
FIG. 6 is a diagram illustrating data generation timings of the sub camera video, the main camera video, and the motion information (movement rotation amount information) in the
図7はHMD101からPC130へ伝送される通信フレームの構成を示す図である。700、705、710、715、720は映像フレーム(N)を伝送するときに、通信帯域が十分に与えられている場合の通信フレームの例を示している。帯域判定部420によって通信帯域が十分であると判定された場合、本実施形態では以下の通信フレームが含まれる。
・上サブカメラ107からの上サブカメラ映像データ700および下サブカメラ108からの下サブカメラ映像データ705、
・左メインカメラ106からの左メインカメラ映像データ710および右メインカメラ105からの右メインカメラ映像データ715、
・1つの映像フレームを生成する間にサンプリングされた複数の動き情報720。
FIG. 7 is a diagram illustrating a configuration of a communication frame transmitted from the
Upper sub
Left main
A plurality of
以上のように、帯域判定部420が、通信帯域が十分に与えられていると判定した場合には、上下のサブカメラ映像が伝送される。この場合、PC130の位置姿勢検出部525は上サブカメラ映像データ700、下サブカメラ映像データ705を画像解析してHMD101の位置姿勢を検出する。更に、優先度情報生成部545は、検出された位置姿勢と動き情報720(移動回転量情報)を使用して、次に送信すべきサブカメラ映像をサブカメラが撮像するタイミングにおけるHMD101の位置姿勢を予測し、優先度情報を生成し、HMD101へ伝送する。
As described above, when the
他方、図7の725、730、735、740は映像フレーム(N+1)を伝送するときに、通信帯域が不足した場合の通信フレームの例を示している。この場合、PC130から伝送される優先度情報に基づいて、HMD101は優先度の高い下サブカメラ108からの下サブカメラ映像データを伝送し、上サブカメラ107からの上サブカメラ映像データは伝送しないように制御する。したがって、N+1番目の映像フレームでは、下サブカメラ映像データ725、左メインカメラ映像データ730および右メインカメラ映像データ735、N+1番目の映像フレームを生成する間にサンプリングされた複数の動き情報740が伝送される。なお上記実施形態では時分割伝送を用いる構成を示しているが、周波数分割伝送などのその他の多重化方式を用いる構成であっても良いことは当業者には明らかである。
On the other hand,
図8はHMD101からPC130へ伝送される通信フレームの他の構成例を示す図である。図8では、図7と異なり、上下のサブカメラ映像どちらか一方を選択するのではなく、優先度情報に基づき、上下のサブカメラ映像を圧縮するときの圧縮率を変えることにより伝送される映像データの符号量を変えている。上サブカメラ映像データ800は、優先度情報により優先度が低いことが示されている上サブカメラ107により撮像された映像データを高い圧縮率で圧縮して得られた圧縮データである。これに対し、下サブカメラ映像データ805は、優先度情報により優先度が高いことが示されている下サブカメラ108により撮像された映像データを、低い圧縮率で圧縮して得られた圧縮データである。上サブカメラ映像データ800と下サブカメラ映像データ805の符号量は、帯域判定部420により判定された通信帯域の不足の状態(不足量)と優先度情報に応じて設定される。以上のように、通信待機が不足すると判定された場合に、優先度情報にしたがって符号量の比率を決定する場合は、
・サブカメラ映像の符号量の合計が使用可能な通信帯域で伝送可能な範囲であり、
・上サブカメラ映像と下サブカメラ映像の符号量の比が優先度情報により示される比率に一致するように、圧縮率が設定される。
FIG. 8 is a diagram illustrating another configuration example of a communication frame transmitted from the
-The total code amount of the sub-camera video is the range that can be transmitted in the usable communication band,
The compression ratio is set so that the ratio of the code amount of the upper sub-camera video and the lower sub-camera video matches the ratio indicated by the priority information.
図9は本実施形態のHMD101とPC130との間のデータの送受信の内容を示すシーケンス図である。このシーケンス図では、映像フレーム(N)のデータ伝送時には、通信帯域が十分にあり、映像フレーム(N+1)以降のデータ伝送時には、通信帯域が不足している状況を示している。また映像フレーム(N+1)を撮像する際にHMD101は図3のP1に位置し、映像フレーム(N+2)を撮像する際にはHMD101は図3のP2に移動していることを想定している。
FIG. 9 is a sequence diagram showing the contents of data transmission / reception between the
まずHMD101は、撮像した映像フレーム(N)のサブカメラ映像を伝送する(S900)。このとき通信帯域は十分にあるため、上下両方のサブカメラ映像が伝送される。次に、HMD101は、映像フレーム(N)のメインカメラ映像を伝送する(S905)。次に、HMD101は、映像フレーム(N)の生成時にサンプリングされた移動回転量情報(動き情報)を伝送する(S910)。PC130は、上下サブカメラ映像を元に、HMD101の現在の位置姿勢を検出し、検出した位置姿勢に基づいてCG合成映像を生成して伝送する(S915)。またHMD101の現在の位置姿勢と、移動回転量情報を元に、映像フレーム(N+1)を撮影するタイミングにおけるHMD101の位置姿勢を推定する。PC130は、推定されたHMD101の位置姿勢(P1)から、上サブカメラ107の撮像範囲310より下サブカメラ108の撮像範囲315にマーカが多く配置されていることを認識する。これにより、PC130は、下サブカメラ108の映像の優先度を上サブカメラ107の映像の優先度より高めた優先度情報をHMD101へ伝送する(S920)。
First, the
次に映像フレーム(N+1)のデータ伝送時にHMD101は通信帯域不足であることを検出する。そのためHMD101はPC130から受信した優先度情報に従い、優先度の高い下サブカメラ108の映像を送信対象に選択し、映像フレーム(N+1)のサブカメラ映像として伝送する(S925)。次に、HMD101は、映像フレーム(N+1)のメインカメラ映像を伝送する(S930)。次に、HMD101は、映像フレーム(N+1)生成時にサンプリングされた移動回転量情報(動き情報)をまとめて伝送する(S935)。PC130は、S925で送信された下サブカメラ108の映像データを元に、HMD101の現在の位置姿勢を検出し、検出した位置姿勢に基づいてCG合成映像を生成し、伝送する(S940)。また、PC130は、HMD101の現在の位置姿勢と、移動回転量情報を元に、次のN+1フレームの映像を撮影するタイミングにおけるHMD101の位置姿勢を推定する。PC130は推定されたHMD101の位置姿勢(P2)から、下サブカメラ108の撮像範囲325より上サブカメラ107の撮像範囲320にマーカが多く配置されていることを認識する。これにより、PC130は、上サブカメラ107の映像の優先度を下サブカメラ108の映像の優先度より高めた優先度情報を生成し、HMD101へ伝送する(S945)。
Next, the
次に映像フレーム(N+2)のデータ伝送時において、HMD101は通信帯域不足が継続していることを検出する。そのためHMD101はPC130から受信した優先度情報に従い、優先度の高い上サブカメラ107の映像を選択し、映像フレーム(N+2)のサブカメラ映像として伝送する(S950)。S955〜S970の処理は、上サブカメラ107の映像データを用いることを除いて、S930〜S970の処理と同等である。
Next, at the time of data transmission of the video frame (N + 2), the
以上のように映像フレームと移動回転量情報を伝送する度に、PC130側で次の映像フレーム伝送時のHMD101の位置を推定することにより、サブカメラ映像の優先度を判断し、位置検出に適したサブカメラ映像が優先的に伝送されるようにしている。以下では、図9で説明したHMD101とPC130の動作を実現するための、図4、図5に示した各機能部の処理について図10、図11のフローチャートの参照により説明する。
As described above, each time a video frame and moving rotation amount information are transmitted, the
図10は映像フレーム単位のHMD101の部動作を示すフローチャートである。まず、S1000において、HMD101は、移動回転量情報(動き情報)を動き検出部435(慣性センサ)から、上下サブカメラ映像を第2の撮像部410(サブカメラ)から、メインカメラ映像を第1撮像部400(メインカメラ)から取得する。次に、S1005で、帯域判定部420は、通信部406が現在利用可能な通信帯域を取得する。
FIG. 10 is a flowchart showing the operation of the
S1006で、帯域判定部420は、帯域判定部420により判定された通信帯域に基づいて、使用可能な通信帯域が不足しているか否かを判定する。通信帯域が十分にあると判定された場合には、処理はS1011へ分岐し、比率決定部425は上下サブカメラ映像の伝送データ量の比率を均等にする。他方、通信帯域が不足していると判定された場合には、処理はS1010へ分岐する。S1010において、比率決定部425は、帯域判定部420が取得した通信帯域と、前回の映像フレーム処理時に優先度情報取得部415が取得した優先度情報から、上下サブカメラ映像の伝送データ量の比率を決定する。その場合、優先度情報が示す優先度の高いサブカメラ映像ほど、伝送データ量の比率を上げ優先的に送信できるようにする。伝送比率が1:0の場合には、優先度の高い片方のサブカメラ映像がHMD101からPC130へ送信され、もう一方のサブカメラ映像は送信されない。
In step S <b> 1006, the
次にS1015で、第2圧縮部430は、比率決定部425が決定した伝送データ量の比率に従ってサブカメラ映像を圧縮する。また、S1020において、第1圧縮部405は第1撮像部400から取得されたメインカメラ映像を圧縮する。S1025において、通信部406は、S1000で取得された移動回転量情報と、S1015で圧縮されたサブカメラ映像と、S1020で圧縮されたメインカメラ映像をPC130へ送信する。次にS1030では、S1025で、通信部406は、PC130へ送信した情報を元に生成されたCG合成映像と優先度情報をPC130から受信する。優先度情報は次の映像フレーム処理時に、S1010で使用される。S1035において、合成映像伸長部440は、S1030で受信したCG合成映像を伸長し、S1040において、表示部445が伸長されたCG合成映像を表示する。
In step S <b> 1015, the
図11は映像フレーム単位のPC130の動作を示すフローチャートである。まずS1100において、通信部500は、HMD101がS1025で送信した移動回転量情報(動き情報)、サブカメラ映像、メインカメラ映像を受信する。なお、受信されるサブカメラ映像は上下両方の場合も、上下のうちのいずれか片方の場合もある。メインカメラ映像とサブカメラ映像は通信部500を介して第1伸長部505と第2伸長部510に供給される。また、移動回転量情報は、動き取得部550により、通信部500を介して、動き情報として取得される。S1105において、第2伸長部510は通信部500が受信したサブカメラ映像を伸長し、S1110において、第1伸長部505は通信部500が受信したメインカメラ映像を伸長する。
FIG. 11 is a flowchart showing the operation of the
S1115において、指標検出部515は、S1105で伸長されたサブカメラ映像を解析してマーカ等の指標を検出する。S1120において、位置姿勢検出部525は、S1105で検出されたマーカと、各マーカの位置関係を定義する指標配置情報520に基づいて、HMD101の現在の位置姿勢を検出する。S1125において、優先度情報生成部545は、HMD101の現在の位置姿勢と、動き取得部550が取得した移動回転量とに基づいて、上下サブカメラ映像の優先度を決定し、優先度情報を生成し、送信する。上下サブカメラ映像の優先度の決定方法について説明する。優先度情報生成部545は、まず、次に伝送されるサブカメラ映像を得るためにサブカメラが撮像を実行するタイミングにおけるHMD101の位置姿勢を、HMD101の現在の位置姿勢と、動き取得部550が取得した移動回転量から推定する。そして、優先度情報生成部545は、推定されたHMD101の位置姿勢と指標配置情報520から、上下サブカメラ映像の優先度を決定し、優先度情報を生成する。本実施形態では、推定された位置姿勢から判定される撮像範囲にマーカ(指標)が多く含まれるサブカメラの優先度が高く設定される。なお、位置姿勢検出に適した映像を判定する方法はこれに限られず、例えば図2のようにマーカの代わりに自然特徴点を位置姿勢検出に利用するMRシステムの場合には、自然特徴点の数で優先度の判定を行っても良い。
In step S1115, the
S1130において、CG生成部530はS1120で検出されたHMDの位置姿勢に基づいてCGを生成する。そして、CG合成部535が、S1110で伸長したメインカメラ映像と生成されたCGをS1120で検出されたHMDの位置姿勢に基づいて合成し、CG合成映像を生成する。S1135において、合成映像圧縮部540は、CG合成部535が生成したCG合成映像を圧縮する。S1140において、通信部500は、合成映像圧縮部540により圧縮されたCG合成映像と、S1125で優先度情報生成部545により生成された優先度情報をHMD101へ送信する。
In S1130, the
以上のように、第1実施形態によれば、利用可能な通信帯域に合わせてHMD101の位置検出に適したサブカメラ映像を優先的に伝送するので、通信帯域が不足する場合であっても位置検出精度を保つことが可能となる。更には伝送する映像データを削減し、HMDのデータ送信時間を減らすことで、HMDの電力消費を抑えることが可能となる。
As described above, according to the first embodiment, the sub-camera image suitable for the position detection of the
<第2実施形態>
第1実施形態では伝送すべきサブカメラ映像の優先度をPC130側で判断しているが、これに限られるものではない。第2実施形態では、PC130側で検出した位置姿勢情報をHMD101に伝送することにより、HMD101側でサブカメラ映像の優先度を判断する構成について説明する。
Second Embodiment
In the first embodiment, the priority of the sub camera video to be transmitted is determined on the
図12は、第2実施形態におけるHMD101の機能構成を示すブロック図である。第1実施形態の機能構成(図4)と比較して、通信部406aの内容が変更となり、位置姿勢取得部1205、指標配置情報1210、優先度決定部1215が追加されている。位置姿勢取得部1205は、通信部406aを介してPC130側で検出した位置姿勢情報を取得する。この位置姿勢情報は、前回(直前)の映像フレーム伝送時におけるHMD101の位置姿勢を示す。
FIG. 12 is a block diagram illustrating a functional configuration of the
指標配置情報1210はPC130側の指標配置情報520(図5)と同様、複数の指標とその位置関係を定義した情報であり、MRシステムの実行開始前に全ての指標を撮像することによって予め構築される。また、指標配置情報はPC130側のサブカメラ映像の解析に従いアップデートされ、所定の周期でHMD101側に伝送されるようにしても良い。優先度決定部1215は、優先度情報生成部545(図5)と同様の処理によりサブカメラの映像の優先度を決定する。すなわち、優先度決定部1215は、動き検出部435が取得した動き情報(移動回転量情報)と、位置姿勢取得部1205が取得した位置姿勢情報と、指標配置情報1210とに基づき、現在の映像フレーム伝送時の位置姿勢を推定する。そして、優先度決定部1215は、推定された位置姿勢に基づいて、現在の映像フレーム伝送において伝送するサブカメラ映像の優先度を決定する。このように、第1実施形態とは異なり、第2実施形態では、HMD101側でサブカメラ映像の優先度を判断する構成となっている。
Like the marker placement information 520 (FIG. 5) on the
図13は第2実施形態におけるPC130の機能構成例を示すブロック図である。第1実施形態における機能構成(図5)と比較して、動き取得部550と優先度情報生成部545が省略され、位置姿勢検出部525aと通信部500aの内容が変更されている。位置姿勢検出部525aは、位置姿勢を検出した後、通信部500aを介してHMD101へ位置姿勢情報を伝送する。このように、第2実施形態では、サブカメラ映像の優先度をPC130側で判断せずHMD101側で判断させるために、必要な位置姿勢情報をPC130がHMD101へ伝送する構成となっている。
FIG. 13 is a block diagram illustrating a functional configuration example of the
図14は第2実施形態におけるHMD101とPC130との間のデータ伝送を示すシーケンス図である。このシーケンス図では、映像フレーム(N)のデータ伝送時には、通信帯域が十分にあり、映像フレーム(N+1)以降のデータ伝送時には、通信帯域が不足している状況を示している。またHMD101は映像フレーム(N+1)を撮像する際には図3のP1に位置し、映像フレーム(N+2)を撮像する際には図3のP2へ移動していることを想定している。
FIG. 14 is a sequence diagram showing data transmission between the
HMD101は、撮像した映像フレーム(N)のサブカメラ映像をPC130へ伝送する(S1400)。このとき通信帯域が十分であるため、上下両方のサブカメラ映像が伝送される。次に、HMD101は、映像フレーム(N)のメインカメラ映像をPC130へ伝送する(S1405)。PC130は上下サブカメラ映像を元に、HMD101の位置姿勢を検出し、検出された位置姿勢に基づいてCG合成映像を生成し、生成したCG合成映像をHMD101へ伝送する(S1410)。また、PC130は、検出したHMD101の位置姿勢情報を伝送する(S1415)。
The
次に、映像フレーム(N+1)のデータ伝送時にHMD101は通信帯域不足であることを検出する。そのためHMD101は、S1415においてPC130より送信された位置姿勢とHMD101に蓄積された移動回転量情報を元に、現在のHMD101の位置姿勢を推定する。HMD101は、推定された位置姿勢がP1であると認識し、P1では上サブカメラ107の撮像範囲310よりも下サブカメラ108の撮像範囲315に多くのマーカが配置されていることから、下サブカメラ映像の優先度を高める。本実施形態では、HMD101は下サブカメラ108の映像のみを選択し、映像フレーム(N+1)のサブカメラ映像としてPC130へ伝送する(S1420)。次に、HMD101は、映像フレーム(N+1)のメインカメラ映像をPC130へ伝送する(S1425)。PC130は、S1420で伝送された下サブカメラ映像を元に、HMD101の位置姿勢を検出し、検出した位置姿勢に基づいてCG合成映像を生成し、これをHMD101へ伝送する(S1430)。また、PC130は、検出されたHMD101の位置姿勢情報をHMD101へ伝送する(S1435)。
Next, the
次に映像フレーム(N+2)のデータ伝送時にHMD101は通信帯域不足が継続していることを検出する。そのためHMD101は、S1415においてPC130より送信された位置姿勢とHMD101に蓄積された移動回転量情報を元に、現在のHMD101の位置姿勢を推定する。HMD101は、現在の位置がP2であると認識すると、下サブカメラ108の撮像範囲325より上サブカメラ107の撮像範囲320にマーカが多く配置されていることから、上サブカメラ107の映像の優先度を高める(S1346)。本実施形態ではHMD101は上サブカメラ映像のみを選択し、映像フレーム(N+2)のサブカメラ映像として伝送する(S1440)。S1445〜S1455の処理は、上サブカメラ107の映像データを用いることを除いて、S1425〜S1435の処理と同等である。
Next, during data transmission of the video frame (N + 2), the
以上のように、第2実施形態のHMD101は、映像フレームを伝送する度に、PC130から受信した前回のHMD101の位置情報と今回の動き情報(移動回転量情報)から、自身の現在の位置を推定する。そして、HMD101は、推定された現在の位置からサブカメラ映像の優先度を判断し、位置検出に適したサブカメラ映像を優先的に伝送する。
As described above, each time the
以下では、図14で説明したHMD101とPC130の動作を実現するための、図12、図13に示した各機能部の処理について、図15、図16のフローチャートの参照により説明する。図15は映像フレーム単位のHMD101の動作を示すフローチャートである。S1500において、HMD101は、移動回転量情報を動き検出部435(慣性センサ)から、上下サブカメラ映像を第2の撮像部410(サブカメラ)から、メインカメラ映像を第1撮像部400(メインカメラ)から取得する。S1505において、帯域判定部420は、現在利用可能な通信帯域を取得する。
Hereinafter, processing of each functional unit shown in FIGS. 12 and 13 for realizing the operations of the
S1506において、帯域判定部420は、現在利用可能な通信帯域が不足しているかどうかを判定する。通信帯域が十分にあると判定された場合、処理はS1511へ進み、比率決定部425は上下サブカメラ映像の伝送データ量の比率を均等に設定する。通信帯域が不十分と判定された場合には、処理はS1510へ進み、優先度決定部1215が、上下サブカメラの映像の優先度を決定する。優先度の決定において、優先度決定部1215は、まずS1500で取得した移動回転量情報と、前回の映像フレーム処理時にPCから受信した前回のHMD101の位置姿勢情報から、HMD101の現在の位置姿勢を推定する。そして、推定された位置姿勢と指標配置情報1210から、上下のサブカメラの各撮像範囲に存在するマーカの量に基づいて上下サブカメラの映像の優先度を決定する。次にS1515において、比率決定部425は、S1505で取得された通信帯域と、S1510で決定された優先度から、上下のサブカメラ映像の伝送データ量の比率を決定する。
In step S1506, the
次に、S1520において、第2圧縮部430は、比率決定部425が決定した(S1515)伝送データ量の比率に従って、最2の撮像部410からのサブカメラ映像を圧縮する。また、S1525において、第1圧縮部405は、第1撮像部400からのメインカメラ映像を圧縮する。S1530において、通信部406aは、S1520で圧縮されたサブカメラ映像とS1525で圧縮されたメインカメラ映像をPC130へ送信する。S1535において、通信部406aは、PC130へ送信した(S1530)サブカメラ映像を元に判定されたHMD101の位置姿勢情報とCG合成映像をPC130から受信する。この位置姿勢情報は次の映像フレーム処理時にS1510で使用される。S1540において合成映像伸長部440は受信したCG合成映像を伸長し、S1545において表示部445がCG合成映像を表示する。
Next, in S1520, the
図16は映像フレーム単位のPC130の動作を示すフローチャートである。S1600において、通信部500aは、サブカメラ映像、メインカメラ映像をHMD101から受信する。ここで受信されるサブカメラ映像は、上下両方の場合も、上下のいずれか一方の場合もある。S1605において、第2伸長部510は、受信したサブカメラ映像を伸長し、S1610において、第1伸長部505は、受信したメインカメラ映像を伸長する。S1615において、指標検出部515は、S1605で伸長されたサブカメラ映像を解析してマーカ等の指標を検出する。
FIG. 16 is a flowchart showing the operation of the
S1620において、位置姿勢検出部525aは、S1615で検出されたマーカと、各マーカの位置関係を定義する指標配置情報520からHMD101の位置姿勢を検出する。S1625において、CG生成部530は、S1620で検出されたHMD101の位置姿勢に基づいてCGを生成し、CG合成部535は、S1610で伸長されたメインカメラ映像とCGをS1620で検出されたHMD101の位置姿勢に基づいて合成する。S1630において、合成映像圧縮部540は、CG合成映像を圧縮し、S1635において、S1630で圧縮されたCG合成映像とS1620で検出された位置姿勢情報をHMD101へ送信する。
In S1620, the position and
以上のように第2実施形態では、サブカメラの映像優先度をHMD101側で決定している。このような第2実施形態においても、第1実施形態と同様に、利用可能な通信帯域に合わせてHMD101に位置検出に適したサブカメラ映像を優先的に伝送することができる。そのため、通信帯域が不足する場合であっても位置検出精度を保つことが可能となる。更には伝送する映像データを削減し、HMDのデータ送信時間を減らすことで、HMDの電力消費を抑えることが可能となる。
As described above, in the second embodiment, the video priority of the sub camera is determined on the
なお、上記の各実施形態では、複数のサブカメラ映像を複数のサブカメラから得る構成を説明した。すなわち複数のサブカメラから得られる複数のサブカメラ映像が、HMD101の位置姿勢の検出のための、異なる空間に対応した複数の映像となる。しかしながら、本発明はこれに限られるものではない。例えば、1台のサブカメラから得られる映像を複数の部分映像に分割して複数のサブカメラ映像を得るようにしてもよい。この場合、複数の部分映像が、HMD101の位置姿勢の検出のための、異なる空間に対応した複数の映像となる。
In each of the above embodiments, a configuration has been described in which a plurality of sub camera images are obtained from a plurality of sub cameras. That is, a plurality of sub camera images obtained from a plurality of sub cameras become a plurality of images corresponding to different spaces for detecting the position and orientation of the
また、上記実施形態では、サブカメラ映像の優先度を決定するために撮像範囲に含まれるマーカや自然特徴等の指標の個数を条件としたが、これに代えて、又は追加して、撮像範囲に含まれる指標の大きさや鮮明度等のその他の条件を適宜使うようにしても構わない。更に、上述したサブカメラ映像の選択処理は、利用可能な通信帯域が少なくなったときに実行するものとしたが、HMD101のバッテリ残量が少なくなったとき等の別の条件下において動作するように構成してもよい。または、HMD101に省電力モード等の動作モードを備え、HMD装着者がこのモードを選択したときのみ、本実施形態の動作を行うように構成してもよい。
In the above embodiment, the number of markers such as markers and natural features included in the imaging range is used as a condition in order to determine the priority of the sub-camera video, but instead of or in addition to this, the imaging range Other conditions such as the size of the index and the sharpness included in the image may be used as appropriate. Further, the sub-camera image selection process described above is executed when the available communication bandwidth is low, but it may be operated under other conditions such as when the battery of the
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101:HMD、105:右メインカメラ、106:左メインカメラ106、107:上サブカメラ、108:下サブカメラ、109:慣性センサ、120:マーカ、125,135:通信リンク、130:PC、
101: HMD, 105: Right main camera, 106: Left
Claims (29)
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を、前記情報処理装置から前記映像処理装置へ通信手段を介して送信する第1の送信手段と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像に基づいて前記情報処理装置の位置姿勢を判定する判定手段と、
前記通信手段の前記第1の送信手段が利用可能な通信帯域と、前記判定手段により判定された位置姿勢とに基づいて、前記第1の送信手段により送信される前記複数の映像のデータ量の比率を制御する制御手段と、を備えることを特徴とする映像処理システム。 A video processing system comprising a portable information processing device and a video processing device that synthesizes a virtual image with video received from the information processing device,
First transmission means for transmitting a first video used for determining the position and orientation of the information processing apparatus from the information processing apparatus to the video processing apparatus via a communication means; and the first video is , Including multiple videos corresponding to different spaces,
Determining means for determining a position and orientation of the information processing device based on the first video;
Based on the communication band that can be used by the first transmission unit of the communication unit and the position and orientation determined by the determination unit, the data amount of the plurality of videos transmitted by the first transmission unit And a control means for controlling the ratio.
前記制御手段は、前記判定手段により判定された前記情報処理装置の位置姿勢に基づいて、前記複数の映像のそれぞれに含まれる指標の量を判定し、判定された指標の量に応じて前記比率を制御することを特徴とする請求項1に記載の映像処理システム。 The first image includes an index for detecting a position and orientation;
The control means determines the amount of an index included in each of the plurality of videos based on the position and orientation of the information processing apparatus determined by the determination means, and the ratio is determined according to the determined index amount. The video processing system according to claim 1, wherein the video processing system is controlled.
前記判定手段は、前記第1の送信手段により送信された前記第1の映像と前記取得手段により取得された前記動き情報に基づいて、前記タイミングにおける前記情報処理装置の位置姿勢を判定することを特徴とする請求項4に記載の映像処理システム。 Further comprising an acquisition means for acquiring movement information indicating a movement rotation amount of the information processing apparatus;
The determination unit determines a position and orientation of the information processing apparatus at the timing based on the first video transmitted by the first transmission unit and the motion information acquired by the acquisition unit. The video processing system according to claim 4, wherein:
前記映像処理装置において、前記判定手段により判定された位置姿勢に基づいて、前記第2の映像に仮想画像が合成された合成映像を生成する生成手段と、をさらに備えることを特徴とする請求項1乃至8のいずれか1項に記載の映像処理システム。 Second transmission means for transmitting, via the communication means, a second video in which the virtual image is synthesized from the information processing apparatus to the video processing apparatus;
The said video processing apparatus is further provided with the production | generation means which produces | generates the synthetic | combination image | video by which the virtual image was synthesize | combined with the said 2nd image | video based on the position and orientation determined by the said determination means. The video processing system according to any one of 1 to 8.
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を撮影する第1の撮影手段と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像を通信手段を介して外部装置へ送信する第1の送信手段と、
前記外部装置から、前記第1の映像に基づいて生成された前記複数の映像の各々の優先度を表す優先度情報を取得する取得手段と、
前記通信手段の前記第1の送信手段が利用可能な通信帯域と、前記優先度情報とに基づいて、前記第1の送信手段により送信される前記複数の映像のデータ量の比率を制御する制御手段と、を備えることを特徴とする情報処理装置。 A portable information processing apparatus,
A first imaging unit that captures a first video used to determine a position and orientation of the information processing apparatus; and the first video includes a plurality of videos corresponding to different spaces;
First transmission means for transmitting the first video to an external device via communication means;
Acquisition means for acquiring priority information representing the priority of each of the plurality of videos generated based on the first video from the external device;
Control for controlling a ratio of data amounts of the plurality of videos transmitted by the first transmission unit based on a communication band that can be used by the first transmission unit of the communication unit and the priority information. And an information processing apparatus.
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を撮影する第1の撮影手段と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像を通信手段を介して外部装置へ送信する第1の送信手段と、
前記外部装置から、前記第1の映像に基づいて判定された、前記情報処理装置の位置姿勢を取得する取得手段と、
前記取得手段により取得された前記位置姿勢と、前記通信手段の前記第1の送信手段が利用可能な通信帯域に基づいて、前記複数の映像の各々の優先度を表す優先度情報を生成する生成手段と、
前記通信手段の前記第1の送信手段が利用可能な通信帯域と、前記優先度情報とに基づいて、前記第1の送信手段により送信される前記複数の映像のデータ量の比率を制御する制御手段と、を備えることを特徴とする情報処理装置。 A portable information processing apparatus,
A first imaging unit that captures a first video used to determine a position and orientation of the information processing apparatus; and the first video includes a plurality of videos corresponding to different spaces;
First transmission means for transmitting the first video to an external device via communication means;
Obtaining means for obtaining a position and orientation of the information processing apparatus determined based on the first video from the external device;
Generation that generates priority information indicating the priority of each of the plurality of videos based on the position and orientation acquired by the acquisition unit and a communication band that can be used by the first transmission unit of the communication unit Means,
Control for controlling a ratio of data amounts of the plurality of videos transmitted by the first transmission unit based on a communication band that can be used by the first transmission unit of the communication unit and the priority information. And an information processing apparatus.
前記第2の映像を前記通信手段を介して前記外部装置へ送信する第2の送信手段と、をさらに備えることを特徴とする請求項10または11に記載の情報処理装置。 A second photographing means for photographing a second video to be combined with the virtual image;
The information processing apparatus according to claim 10, further comprising: a second transmission unit that transmits the second video to the external device via the communication unit.
前記第1の送信手段は、さらに、前記検出手段により検出された前記移動回転量を示す動き情報を前記外部装置へ送信することを特徴とする請求項10に記載の情報処理装置。 A detecting means for detecting the amount of rotation of the information processing apparatus;
The information processing apparatus according to claim 10, wherein the first transmission unit further transmits motion information indicating the amount of movement rotation detected by the detection unit to the external device.
前記生成手段は、
前記取得手段により取得された前記位置姿勢と、前記検出手段により検出された前記移動回転量を示す動き情報とに基づいて、次に伝送される第1の映像が撮像されるタイミングにおける前記情報処理装置の位置姿勢を推定し、
前記推定された位置姿勢と、前記利用可能な通信帯域に基づいて、前記優先度情報を生成することを特徴とする請求項11に記載の情報処理装置。 A detecting means for detecting the amount of rotation of the information processing apparatus;
The generating means includes
Based on the position and orientation acquired by the acquisition unit and the motion information indicating the amount of movement rotation detected by the detection unit, the information processing at a timing when the first video to be transmitted next is captured. Estimate the position and orientation of the device,
The information processing apparatus according to claim 11, wherein the priority information is generated based on the estimated position and orientation and the available communication band.
前記第1の送信手段は、前記圧縮データを送信することを特徴とする請求項10乃至14のいずれか1項に記載の情報処理装置。 The control means determines a compression rate for each of the plurality of videos based on the priority information, compresses each of the plurality of videos with the determined compression rate, and obtains compressed data,
The information processing apparatus according to claim 10, wherein the first transmission unit transmits the compressed data.
前記外部装置から、前記外部装置の位置姿勢を判定するために用いられる第1の映像を、通信手段を介して受信する第1の受信手段と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像に基づいて前記外部装置の位置姿勢を判定する判定手段と、
前記第1の受信手段が利用可能な前記通信手段の通信帯域と、前記判定手段により判定された位置姿勢とに基づいて、前記第1の受信手段により受信される前記複数の映像の優先度を示す優先度情報を生成する生成手段と、
前記優先度情報を前記外部装置へ送信する送信手段と、を備えることを特徴とする映像処理装置。 A video processing device for processing video transmitted from an external device,
The first receiving means for receiving the first video used for determining the position and orientation of the external device from the external device via the communication means, and the first video corresponds to different spaces. Including multiple videos,
Determining means for determining a position and orientation of the external device based on the first video;
Based on the communication bandwidth of the communication means that can be used by the first receiving means and the position and orientation determined by the determining means, the priorities of the plurality of videos received by the first receiving means are determined. Generating means for generating priority information to indicate;
Transmitting means for transmitting the priority information to the external device.
前記判定手段により判定された位置姿勢に基づいて、前記第2の映像に仮想画像が合成された合成映像を生成する合成手段と、をさらに備えることを特徴とする請求項19に記載の映像処理装置。 Second receiving means for receiving, via the communication means, a second video to be combined with a virtual image from the external device;
The video processing according to claim 19, further comprising: a synthesis unit that generates a synthesized video in which a virtual image is synthesized with the second video based on the position and orientation determined by the determination unit. apparatus.
前記生成手段は、前記判定手段により判定された前記外部装置の位置姿勢に基づいて、前記複数の映像のそれぞれに含まれる指標の量を判定し、判定された指標の量に基づいて前記優先度情報を生成することを特徴とする請求項19または20に記載の映像処理装置。 The first image includes an index for detecting a position and orientation;
The generation unit determines an amount of an index included in each of the plurality of videos based on the position and orientation of the external device determined by the determination unit, and the priority based on the determined amount of the index 21. The video processing apparatus according to claim 19 or 20, wherein information is generated.
前記判定手段は、前記第1の受信手段により受信された前記第1の映像と前記取得手段により取得された前記動き情報に基づいて、前記タイミングにおける前記外部装置の位置姿勢を判定することを特徴とする請求項23に記載の映像処理装置。 It further comprises acquisition means for acquiring movement information indicating the movement of the external device,
The determination unit determines a position and orientation of the external device at the timing based on the first video received by the first reception unit and the motion information acquired by the acquisition unit. The video processing apparatus according to claim 23.
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を、前記情報処理装置から前記映像処理装置へ通信手段を介して送信する第1の送信工程と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像に基づいて前記情報処理装置の位置姿勢を判定する判定工程と、
前記通信手段の前記第1の送信工程において利用可能な通信帯域と、前記判定工程で判定された位置姿勢とに基づいて、前記第1の送信工程で送信される前記複数の映像のデータ量の比率を制御する制御工程と、を有することを特徴とする映像処理システムの制御方法。 A control method for a video processing system, comprising: a portable information processing device; and a video processing device that synthesizes a virtual image with video received from the information processing device,
A first transmission step of transmitting a first video used for determining a position and orientation of the information processing device from the information processing device to the video processing device via a communication unit; and , Including multiple videos corresponding to different spaces,
A determination step of determining a position and orientation of the information processing device based on the first video;
Based on the communication bandwidth available in the first transmission step of the communication means and the position and orientation determined in the determination step, the data amount of the plurality of videos transmitted in the first transmission step And a control step for controlling the ratio.
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を撮影する第1の撮影工程と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像を通信手段を介して外部装置へ送信する第1の送信工程と、
前記外部装置から、前記第1の映像に基づいて生成された前記複数の映像の各々の優先度を表す優先度情報を取得する取得工程と、
前記通信手段の前記第1の送信工程で利用可能な通信帯域と、前記優先度情報とに基づいて、前記第1の送信工程で送信される前記複数の映像のデータ量の比率を制御する制御工程と、を有することを特徴とする情報処理装置の制御方法。 A control method for a portable information processing apparatus,
A first shooting step of shooting a first video used to determine a position and orientation of the information processing apparatus; and the first video includes a plurality of videos corresponding to different spaces;
A first transmission step of transmitting the first video to an external device via communication means;
An acquisition step of acquiring priority information representing the priority of each of the plurality of videos generated based on the first video from the external device;
Control for controlling the ratio of the data amount of the plurality of videos transmitted in the first transmission step based on the communication band available in the first transmission step of the communication means and the priority information And a method for controlling the information processing apparatus.
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を撮影する第1の撮影工程と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像を通信手段を介して外部装置へ送信する第1の送信工程と、
前記外部装置から、前記第1の映像に基づいて判定された、前記情報処理装置の位置姿勢を取得する取得工程と、
前記取得工程で取得された前記位置姿勢と、前記通信手段の前記第1の送信工程で利用可能な通信帯域に基づいて、前記複数の映像の各々の優先度を表す優先度情報を生成する生成工程と、
前記通信手段の前記第1の送信工程で利用可能な通信帯域と、前記優先度情報とに基づいて、前記第1の送信工程で送信される前記複数の映像のデータ量の比率を制御する制御工程と、を有することを特徴とする情報処理装置の制御方法。 A control method for a portable information processing apparatus,
A first shooting step of shooting a first video used to determine a position and orientation of the information processing apparatus; and the first video includes a plurality of videos corresponding to different spaces;
A first transmission step of transmitting the first video to an external device via communication means;
An acquisition step of acquiring the position and orientation of the information processing device determined based on the first video from the external device;
Generation for generating priority information indicating the priority of each of the plurality of videos based on the position and orientation acquired in the acquisition step and the communication band available in the first transmission step of the communication unit Process,
Control for controlling the ratio of the data amount of the plurality of videos transmitted in the first transmission step based on the communication band available in the first transmission step of the communication means and the priority information And a method for controlling the information processing apparatus.
前記外部装置から、前記外部装置の位置姿勢を判定するために用いられる第1の映像を、通信手段を介して受信する第1の受信工程と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像に基づいて前記外部装置の位置姿勢を判定する判定工程と、
前記第1の受信工程で利用可能な前記通信手段の通信帯域と、前記判定工程で判定された位置姿勢とに基づいて、前記第1の受信工程で受信される前記複数の映像の優先度を示す優先度情報を生成する生成工程と、
前記優先度情報を前記外部装置へ送信する送信工程と、を有することを特徴とする映像処理装置の制御方法。 A control method of a video processing device for processing video transmitted from an external device,
A first reception step of receiving a first video used for determining a position and orientation of the external device from the external device via a communication unit, and the first video correspond to different spaces. Including multiple videos,
A determination step of determining a position and orientation of the external device based on the first video;
Based on the communication bandwidth of the communication means that can be used in the first reception step and the position and orientation determined in the determination step, the priorities of the plurality of videos received in the first reception step are determined. A generation step for generating priority information to be shown;
And a transmission step of transmitting the priority information to the external device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015122114A JP2017010120A (en) | 2015-06-17 | 2015-06-17 | Information processing device, video processing device, control method for those, and video processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015122114A JP2017010120A (en) | 2015-06-17 | 2015-06-17 | Information processing device, video processing device, control method for those, and video processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017010120A true JP2017010120A (en) | 2017-01-12 |
Family
ID=57763511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015122114A Pending JP2017010120A (en) | 2015-06-17 | 2015-06-17 | Information processing device, video processing device, control method for those, and video processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017010120A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109246456A (en) * | 2017-07-11 | 2019-01-18 | 日立乐金光科技株式会社 | The display control method of display system and display system |
WO2020137487A1 (en) | 2018-12-26 | 2020-07-02 | 株式会社Jvcケンウッド | Video display system, video display device, and video display method |
JP2021534679A (en) * | 2018-08-16 | 2021-12-09 | 北京七▲しん▼易維信息技術有限公司Beijing 7Invensun Technology Co., Ltd. | Image acquisition device control method and device |
-
2015
- 2015-06-17 JP JP2015122114A patent/JP2017010120A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109246456A (en) * | 2017-07-11 | 2019-01-18 | 日立乐金光科技株式会社 | The display control method of display system and display system |
JP2019016316A (en) * | 2017-07-11 | 2019-01-31 | 株式会社日立エルジーデータストレージ | Display system and display control method for display system |
US11016559B2 (en) | 2017-07-11 | 2021-05-25 | Hitachi-Lg Data Storage, Inc. | Display system and display control method of display system |
JP2021114343A (en) * | 2017-07-11 | 2021-08-05 | 株式会社日立エルジーデータストレージ | Display system and display control method for display system |
JP7064040B2 (en) | 2017-07-11 | 2022-05-09 | 株式会社日立エルジーデータストレージ | Display system and display control method of display system |
JP2021534679A (en) * | 2018-08-16 | 2021-12-09 | 北京七▲しん▼易維信息技術有限公司Beijing 7Invensun Technology Co., Ltd. | Image acquisition device control method and device |
JP7305749B2 (en) | 2018-08-16 | 2023-07-10 | 北京七▲しん▼易維信息技術有限公司 | Control method and device for image acquisition device |
US11853471B2 (en) | 2018-08-16 | 2023-12-26 | Beijing 7Invensun Technology Co., Ltd. | Method and apparatus for controlling image acquisition device |
WO2020137487A1 (en) | 2018-12-26 | 2020-07-02 | 株式会社Jvcケンウッド | Video display system, video display device, and video display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10965868B2 (en) | Apparatus and methods for image encoding using spatially weighted encoding quality parameters | |
US20220174252A1 (en) | Selective culling of multi-dimensional data sets | |
EP3258698A1 (en) | Server, user terminal device, and control method therefor | |
US20140092439A1 (en) | Encoding images using a 3d mesh of polygons and corresponding textures | |
JP2018092580A (en) | Image generator and method | |
JP2018523356A (en) | Low latency screen mirroring | |
US20160378177A1 (en) | Visualized content transmission control method, sending method and apparatuses thereof | |
JP2017010120A (en) | Information processing device, video processing device, control method for those, and video processing system | |
KR20190077428A (en) | Video frame rate conversion using streamed metadata | |
US20170287097A1 (en) | Hybrid client-server rendering in a virtual reality system | |
WO2018015806A1 (en) | System and method providing object-oriented zoom in multimedia messaging | |
US20130278728A1 (en) | Collaborative cross-platform video capture | |
KR20160095058A (en) | Handling video frames compromised by camera motion | |
JP2017005372A (en) | Communication device and control method therefor | |
WO2018100928A1 (en) | Image processing device and method | |
US10504247B2 (en) | Transmission apparatus, mixed reality system, transmission method, and program | |
CN114040238A (en) | Method for displaying multiple windows and electronic equipment | |
KR102238372B1 (en) | Adaptive bitrate streaming of UHD image data | |
US20190356880A1 (en) | Reception apparatus, transmission apparatus, control method, transmission method, and program | |
JP6539122B2 (en) | INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, AND PROGRAM | |
CN112204960A (en) | Method of transmitting three-dimensional 360-degree video data, display apparatus using the same, and video storage apparatus using the same | |
JP2017207818A (en) | Image processing apparatus, image processing method and program | |
US11329795B2 (en) | Communication device, method for controlling size of generated data, and program | |
US9538168B2 (en) | Determination device and determination method | |
JP5552712B2 (en) | Video transmission server |