JP2017010120A - Information processing device, video processing device, control method for those, and video processing system - Google Patents

Information processing device, video processing device, control method for those, and video processing system Download PDF

Info

Publication number
JP2017010120A
JP2017010120A JP2015122114A JP2015122114A JP2017010120A JP 2017010120 A JP2017010120 A JP 2017010120A JP 2015122114 A JP2015122114 A JP 2015122114A JP 2015122114 A JP2015122114 A JP 2015122114A JP 2017010120 A JP2017010120 A JP 2017010120A
Authority
JP
Japan
Prior art keywords
video
orientation
information processing
unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015122114A
Other languages
Japanese (ja)
Inventor
裕彦 猪膝
Hirohiko Inohiza
裕彦 猪膝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015122114A priority Critical patent/JP2017010120A/en
Publication of JP2017010120A publication Critical patent/JP2017010120A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the amount of video data transmitted from an information processing device to a video processing device while restraining reduction in the detection accuracy of the position and posture of a movable information processing device (for example, an HMD).SOLUTION: A video processing system includes: a transportable information processing device, and a video processing device for superposing a virtual image on video received from the information processing device. The information processing device transmits video used for determining the position and posture of the information processing device to the video processing device via a communication unit, and the video processing device determines the position and posture of the information processing device on the basis of the received video. The video includes multiple pieces of video corresponding to different spaces, and the ratio of the amounts of data of the multiple pieces of video transmitted from the information processing device to the video processing device is controlled on the basis of a communication band usable at the communication unit and the determined position and posture.SELECTED DRAWING: Figure 9

Description

本発明は、例えば複合現実技術を実現する情報処理装置、映像処理装置、およびそれらの制御方法、ならびに映像処理システムに関する。   The present invention relates to an information processing apparatus, a video processing apparatus, a control method thereof, and a video processing system that realize, for example, mixed reality technology.

現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として、複合現実感(MR:Mixed Reality)技術が知られている。MRシステムを実現する方法の一つとして、ビデオシースルー型HMD(Head Mounted Display)を利用するものがある。このMRシステムでは、HMD使用者の視界領域をカメラで撮像し、その撮像映像にCG(ComputerGraphics)を合成した映像をHMDの装着者(以下、HMD使用者)に提示する。特許文献1では、ビデオシースルー型HMDを用いたMRシステムとして、HMD使用者の視界領域を撮像する第一のカメラと、HMDの位置姿勢を検出するための映像を撮像する第二のカメラとを備えたHMDを用いる技術が提案されている。   Mixed reality (MR) technology is known as a technology that seamlessly fuses the real world and the virtual world in real time. One of the methods for realizing the MR system is to use a video see-through type HMD (Head Mounted Display). In this MR system, a field of view of an HMD user is imaged by a camera, and an image obtained by synthesizing CG (Computer Graphics) with the captured image is presented to an HMD wearer (hereinafter referred to as an HMD user). In Patent Document 1, as an MR system using a video see-through HMD, a first camera that captures an HMD user's field of view and a second camera that captures an image for detecting the position and orientation of the HMD are provided. A technique using the provided HMD has been proposed.

撮像映像からHMDの位置姿勢を取得する処理、及びHMDの位置姿勢に応じたCGを生成する処理は計算処理コストが大きいため、これらの処理をHMDと接続される外部装置としての映像処理装置に実行させている。この場合、外部装置としてのPC等の映像処理装置とHMDとが接続され、HMDから撮像映像が映像処理装置に送信される。そして、映像処理装置上でHMDの位置姿勢の検出、HMD位置姿勢に応じたCGの生成、撮像画像へのCGの合成が実行され、CGが合成された撮像画像がHMDに送り返され、表示される。このようなMRシステムにおいて、HMD使用者が自由に動きながらMR空間を体験できるようにするために、HMDと映像処理装置とは無線通信により接続されることが望ましい。しかし、一般的に、無線通信は有線通信と比較して通信帯域が狭いため、無線伝送するデータ量を削減する必要がある。また、HMDはバッテリー等で駆動するため、電力消費の観点からも伝送データ量を削減することが望ましい。   Since the processing for acquiring the position and orientation of the HMD from the captured video and the processing for generating the CG according to the position and orientation of the HMD have a high calculation processing cost, these processes are performed on a video processing apparatus as an external device connected to the HMD. It is running. In this case, a video processing device such as a PC as an external device and the HMD are connected, and the captured video is transmitted from the HMD to the video processing device. Then, the position and orientation of the HMD is detected on the video processing device, the CG is generated according to the HMD position and orientation, and the CG is synthesized with the captured image. The captured image with the synthesized CG is sent back to the HMD and displayed. The In such an MR system, it is desirable that the HMD and the video processing apparatus be connected by wireless communication so that the HMD user can experience the MR space while freely moving. However, generally, wireless communication has a narrower communication band than wired communication, and thus it is necessary to reduce the amount of data to be transmitted wirelessly. In addition, since the HMD is driven by a battery or the like, it is desirable to reduce the amount of transmission data from the viewpoint of power consumption.

伝送する映像データ量を削減する技術として、映像符号化技術によりデータを圧縮する方法が知られている。また、特許文献2では、受信装置で測定されたパケットロス率・遅延時間から有効通信帯域を算出し、有効通信帯域に応じて映像符号化の送信レートを制御する技術が提案されている。   As a technique for reducing the amount of video data to be transmitted, a method of compressing data using a video encoding technique is known. Patent Document 2 proposes a technique for calculating an effective communication band from a packet loss rate / delay time measured by a receiving apparatus and controlling a transmission rate of video coding according to the effective communication band.

特開2004−205711JP 2004-205711 A 特開2006−128997JP 2006-128997 A

上述したビデオシースルー方式のMRシステムでは、映像処理装置は、HMDから受信した撮像映像からマーカまたは自然特徴点等の指標を画像解析により抽出することで、HMDの位置姿勢を検出する。この検出処理においては、高精細な映像データが必要であり、特許文献2のように映像データを大幅に圧縮してしまうと必要十分な映像品質が得られず、HMDの位置姿勢の検出精度が低下してしまうという課題がある。   In the video see-through MR system described above, the video processing apparatus detects the position and orientation of the HMD by extracting an index such as a marker or a natural feature point from the captured video received from the HMD by image analysis. In this detection process, high-definition video data is required, and if the video data is significantly compressed as in Patent Document 2, sufficient and sufficient video quality cannot be obtained, and the detection accuracy of the position and orientation of the HMD is high. There is a problem that it decreases.

本発明は上述の課題に鑑みてなされたものであり、例えばMRシステムのような映像処理そステムにおいて、移動可能な情報処理装置(例えばHMD)の位置姿勢の検出精度の低下を抑えつつ、情報処理装置から映像処理装置に伝送する映像のデータ量を削減することを目的とする。   The present invention has been made in view of the above-described problems. For example, in an image processing system such as an MR system, the information processing apparatus (for example, an HMD) can be controlled while suppressing a decrease in position and orientation detection accuracy. The object is to reduce the amount of video data transmitted from the processing device to the video processing device.

上記目的を達成するための、本発明の一態様による映像処理システムは、以下の構成を備える。すなわち、
可搬型の情報処理装置と、前記情報処理装置から受信した映像に仮想画像を合成する映像処理装置とを有する映像処理システムであって、
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を、前記情報処理装置から前記映像処理装置へ通信手段を介して送信する第1の送信手段と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記映像処理装置において、前記第1の映像に基づいて前記情報処理装置の位置姿勢を判定する判定手段と、
前記通信手段の前記第1の送信手段が利用可能な通信帯域と、前記判定手段により判定された位置姿勢とに基づいて、前記第1の送信手段により送信される前記複数の映像のデータ量の比率を制御する制御手段と、を備える。
In order to achieve the above object, a video processing system according to an aspect of the present invention has the following arrangement. That is,
A video processing system comprising a portable information processing device and a video processing device that synthesizes a virtual image with video received from the information processing device,
First transmission means for transmitting a first video used for determining the position and orientation of the information processing apparatus from the information processing apparatus to the video processing apparatus via a communication means; and the first video is , Including multiple videos corresponding to different spaces,
In the video processing device, determination means for determining a position and orientation of the information processing device based on the first video;
Based on the communication band that can be used by the first transmission unit of the communication unit and the position and orientation determined by the determination unit, the data amount of the plurality of videos transmitted by the first transmission unit Control means for controlling the ratio.

本発明によれば、移動可能な情報処理装置の位置姿勢の検出精度の低下を抑えつつ、情報処理装置から映像処理装置に伝送される映像のデータ量を削減することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to reduce the data amount of the image | video transmitted from an information processing apparatus to a video processing apparatus, suppressing the fall of the detection accuracy of the position and orientation of a movable information processing apparatus.

実施形態によるMRシステムの構成図。The block diagram of MR system by embodiment. MRシステムにおいて、指標として利用可能な自然特徴点の例を示す図。The figure which shows the example of the natural feature point which can be utilized as a parameter | index in MR system. MRシステムにおいて、指標として利用可能なマーカの配置例とサブカメラの撮像範囲の例を示す図。The figure which shows the example of arrangement | positioning of the marker which can be utilized as a parameter | index, and the example of the imaging range of a sub camera in MR system. 第1実施形態によるHMDの機能構成例を示すブロック図。The block diagram which shows the function structural example of HMD by 1st Embodiment. 第1実施形態によるPCの機能構成例を示すブロック図。The block diagram which shows the function structural example of PC by 1st Embodiment. 映像データおよび動き情報の生成タイミングを示す図。The figure which shows the production | generation timing of video data and motion information. 通信フレームの構成を示す図。The figure which shows the structure of a communication frame. 通信フレームの構成を示す図。The figure which shows the structure of a communication frame. 第1実施形態によるHMDとPC間の通信動作を示すシーケンス図。The sequence diagram which shows the communication operation between HMD and PC by 1st Embodiment. 第1実施形態によるHMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD by 1st Embodiment. 第1実施形態によるPCの動作を示すフローチャート。The flowchart which shows operation | movement of PC by 1st Embodiment. 第2実施形態によるHMDの機能構成例を示すブロック図。The block diagram which shows the function structural example of HMD by 2nd Embodiment. 第2実施形態によるPCの機能構成例を示すブロック図。The block diagram which shows the function structural example of PC by 2nd Embodiment. 第2実施形態によるHMDとPC間の通信動作を示すシーケンス図。The sequence diagram which shows the communication operation between HMD and PC by 2nd Embodiment. 第2実施形態によるHMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD by 2nd Embodiment. 第2実施形態によるPCの動作を示すフローチャート。The flowchart which shows operation | movement of PC by 2nd Embodiment.

以下、添付の図面を参照して、本発明の好適な実施形態のいくつかについて詳細に説明する。   Hereinafter, some preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<第1実施形態>
図1は、第1実施形態に関わるMRシステムの構成例を示す図である。MRシステムは、使用者が携帯することによりその使用者とともに移動が可能な、可搬型の情報処理装置と、その情報処理装置から受信した映像に仮想画像を合成する映像処理装置とを有する映像処理システムである。本実施形態のMRシステムは、使用者とともに移動が可能な情報処理装置としての、使用者が装着するビデオシースルー型の頭部搭載型の表示装置であるヘッドマウントディスプレイ(以下、HMD101)と、映像処理装置としてのPC130を備える。マーカ120は、映像データからHMD101の3次元位置姿勢(以下、位置姿勢)を検出するのに用いられる。マーカ120の実空間における配置位置は既知である。
<First Embodiment>
FIG. 1 is a diagram illustrating a configuration example of an MR system according to the first embodiment. The MR system includes a portable information processing device that can be moved with the user when the user carries it, and a video processing device that synthesizes a virtual image with a video received from the information processing device. System. The MR system of the present embodiment includes a head-mounted display (hereinafter referred to as HMD 101), which is a video see-through head-mounted display device worn by the user, as an information processing apparatus that can move with the user, and an image. A PC 130 as a processing apparatus is provided. The marker 120 is used to detect the three-dimensional position and orientation (hereinafter referred to as “position and orientation”) of the HMD 101 from the video data. The arrangement position of the marker 120 in the real space is known.

HMD101は、HMD使用者の視界領域を撮像して仮想画像が合成される映像を撮像するための右メインカメラ105と左メインカメラ106と、位置姿勢の検出に用いられる映像を撮像するための上サブカメラ107と下サブカメラ108を備える。本実施形態では、撮像範囲を広げてマーカ120が撮像される可能性を高めるように、上下2つのサブカメラを使用している。但し、サブカメラの数は3つ以上であっても良い。このように、複数のサブカメラにより、異なる空間に対応した複数の映像が取得されることになる。以下、右メインカメラ105と左メインカメラ106を総称してメインカメラ、上サブカメラ107と下サブカメラ108を総称してサブカメラと記載する。またHMD101はジャイロセンサや加速度センサのような慣性センサを備え、HMD101の移動回転量を所定のサンプリング周波数で定常的に測定し、動き情報として出力する。   The HMD 101 captures the video image used for detecting the position and orientation, and the right main camera 105 and the left main camera 106 for capturing an image in which the HMD user's field of view is captured and a virtual image is combined. A sub camera 107 and a lower sub camera 108 are provided. In the present embodiment, two upper and lower sub-cameras are used so as to increase the possibility that the marker 120 is imaged by expanding the imaging range. However, the number of sub cameras may be three or more. As described above, a plurality of videos corresponding to different spaces are acquired by the plurality of sub-cameras. Hereinafter, the right main camera 105 and the left main camera 106 are collectively referred to as a main camera, and the upper sub camera 107 and the lower sub camera 108 are collectively referred to as a sub camera. The HMD 101 includes an inertial sensor such as a gyro sensor or an acceleration sensor, and constantly measures the amount of rotation of the HMD 101 at a predetermined sampling frequency and outputs it as motion information.

メインカメラ及びサブカメラで撮像されたメイン映像データ、サブ映像データ及び慣性センサ109により測定された移動回転量情報(動き情報)は通信リンク125を介してPC130へ伝送される。通信リンク125の伝送方式としては、例えばGigabit Ethernet(登録商標)、IEEE1394等の有線方式、IEEE802.11nやIEEE802.11ac等の無線方式が挙げられるが、これらに限定されるものではない。   The main video data captured by the main camera and the sub camera, the sub video data, and the movement rotation amount information (motion information) measured by the inertial sensor 109 are transmitted to the PC 130 via the communication link 125. Examples of the transmission method of the communication link 125 include, but are not limited to, wired methods such as Gigabit Ethernet (registered trademark) and IEEE 1394, and wireless methods such as IEEE 802.11n and IEEE 802.11ac.

PC130では、受信したサブ映像データを使用して、画像解析によりマーカ120を検出し、HMD101の位置姿勢を検出する。より詳細には、PC130はサブ映像データ中からマーカを検出し、マーカの大きさや形、塗りつぶしのパターンなどの情報を取得する。PC130は、これらの取得された情報から、位置姿勢検出用のマーカ120とHMD101の相対的な位置関係、およびHMD101がマーカを撮像している方向に関する三次元位置姿勢情報を算出することができる。なお、本実施形態では、複数のマーカ120を使用し、各マーカの位置関係を指標配置情報としてあらかじめ定義しておき、それらの相対的位置関係から、HMD101がマーカを観察(撮像)している方向を算出している。したがって、内部の塗りつぶしパターンによって方向まで識別が可能なマーカではなく、例えば、カラーマーカや、LEDなどの発光素子のような方向の情報を持たないマーカを利用することが可能となる。   The PC 130 detects the marker 120 by image analysis using the received sub video data, and detects the position and orientation of the HMD 101. More specifically, the PC 130 detects a marker from the sub video data, and acquires information such as the size and shape of the marker, and a fill pattern. The PC 130 can calculate the relative positional relationship between the position / orientation detection marker 120 and the HMD 101 and the three-dimensional position / orientation information regarding the direction in which the HMD 101 is imaging the marker from the acquired information. In the present embodiment, a plurality of markers 120 are used, the positional relationship between the markers is defined in advance as index arrangement information, and the HMD 101 observes (captures) the markers from their relative positional relationships. The direction is calculated. Therefore, it is possible to use a marker that does not have direction information, such as a color marker or a light emitting element such as an LED, instead of a marker that can be identified by the internal filling pattern.

また、図1で示すようなマーカではなく、図2(a)に示すドア200、テーブル205、窓210の輪郭線のような、画像中の自然特徴点、画像中の特定の色などを抽出し、それらを用いて位置姿勢情報を算出することも可能である。図2(b)において、マーク250、255は、ドア200の特徴点の一部を示している。同一種類のマーカを複数用いたり、数種類のマーカを同時に用いたり、マーカから得られる情報と画像中の特徴点の情報とを組み合わせて用いることによって、より高い精度の位置姿勢情報を生成できる。さらには、複数のマーカや特徴点の位置関係が対応付けられているため、すべてのマーカや特徴点が画像内に表示されていなくても、それぞれのマーカや特徴点の位置を推定することも可能である。   In addition, the natural feature points in the image, such as the contour lines of the door 200, the table 205, and the window 210 shown in FIG. However, it is also possible to calculate position and orientation information using them. In FIG. 2B, marks 250 and 255 indicate some of the feature points of the door 200. By using a plurality of the same type of markers, using several types of markers at the same time, or combining information obtained from the markers and information on feature points in the image, it is possible to generate position and orientation information with higher accuracy. Furthermore, since the positional relationship of a plurality of markers and feature points is associated, it is possible to estimate the position of each marker or feature point even if not all markers or feature points are displayed in the image. Is possible.

さらに、PC130は受信した、HMD101の動きを示す動き情報(移動回転量情報)を用いて、位置姿勢を推定する。例えばサブカメラの撮像範囲にマーカが含まれていない場合にも、PC130が過去にサブカメラ映像を使用して検出した位置姿勢情報と、積分した移動回転量情報を組み合わせることにより、現在の位置姿勢を推定することが可能である。PC130は、HMD101の位置姿勢を検出または推定すると、検出または推定した位置姿勢に応じて仮想画像としてのCGを生成し、生成したCGをメインカメラ映像上に合成し、CG合成映像を生成する。PC130は生成したCG合成映像をHMD101に通信リンク135を介して送信し、HMD101は受信したCG合成映像を表示する。   Further, the PC 130 estimates the position and orientation using the received motion information (movement rotation amount information) indicating the motion of the HMD 101. For example, even when a marker is not included in the imaging range of the sub camera, the current position and orientation can be obtained by combining the position and orientation information detected by the PC 130 using the sub camera image in the past and the integrated movement rotation amount information. Can be estimated. When detecting or estimating the position and orientation of the HMD 101, the PC 130 generates a CG as a virtual image according to the detected or estimated position and orientation, synthesizes the generated CG on the main camera video, and generates a CG composite video. The PC 130 transmits the generated CG composite video to the HMD 101 via the communication link 135, and the HMD 101 displays the received CG composite video.

図3はHMD101の位置と、上サブカメラ107、下サブカメラ108の撮像範囲の例を示す図である。図3において、撮像範囲310および撮像範囲315は、HMDがP1に位置するときの上サブカメラ107および下サブカメラの撮像範囲である。上サブカメラ107の撮像範囲310には1つのマーカが、下サブカメラ108の撮像範囲315には2つのマーカが含まれている。また、撮像範囲320および撮像範囲325は、HMDがP2に移動したときの上サブカメラ107および下サブカメラ108の撮像範囲である。下サブカメラ108の撮像範囲325には1つのマーカが、上サブカメラ107の撮像範囲320には3つのマーカが含まれている。このようにHMD101の位置姿勢の変化に伴って、上サブカメラ107および下サブカメラ108の各々の撮像範囲に含まれるマーカ数は変化する。そして、このマーカ数は、マーカの配置情報とHMD101の位置姿勢から判定することが可能である。   FIG. 3 is a diagram illustrating an example of the position of the HMD 101 and the imaging ranges of the upper sub camera 107 and the lower sub camera 108. In FIG. 3, an imaging range 310 and an imaging range 315 are imaging ranges of the upper sub camera 107 and the lower sub camera when the HMD is located at P1. The imaging range 310 of the upper sub camera 107 includes one marker, and the imaging range 315 of the lower sub camera 108 includes two markers. The imaging range 320 and the imaging range 325 are imaging ranges of the upper sub camera 107 and the lower sub camera 108 when the HMD moves to P2. The imaging range 325 of the lower sub camera 108 includes one marker, and the imaging range 320 of the upper sub camera 107 includes three markers. As described above, as the position and orientation of the HMD 101 changes, the number of markers included in the imaging ranges of the upper sub camera 107 and the lower sub camera 108 changes. The number of markers can be determined from the marker arrangement information and the position and orientation of the HMD 101.

図4は第1実施形態によるHMD101の機能ブロック図である。図4において、第1撮像部400は、HMD101を装着している使用者が見ている現実空間映像を撮像するためのメインカメラであり、左メインカメラ106と右メインカメラ105を含む。第1圧縮部405は、第1撮像部400の左メインカメラ106と右メインカメラ105により撮像された左右のメインカメラ映像を所定の符号化方式で圧縮する。符号化方式としては例えば、Motion−JPEGやH.264/AVC等が挙げられるが、これら以外の方式でもよい。第1圧縮部405により圧縮された左右のメインカメラ映像は通信部406を介してPC130へ送信される。   FIG. 4 is a functional block diagram of the HMD 101 according to the first embodiment. In FIG. 4, the first imaging unit 400 is a main camera for imaging a real space image viewed by the user wearing the HMD 101, and includes a left main camera 106 and a right main camera 105. The first compression unit 405 compresses the left and right main camera images captured by the left main camera 106 and the right main camera 105 of the first imaging unit 400 using a predetermined encoding method. Examples of encoding methods include Motion-JPEG and H.264. H.264 / AVC, etc. are mentioned, but other methods may be used. The left and right main camera images compressed by the first compression unit 405 are transmitted to the PC 130 via the communication unit 406.

第2の撮像部410は、HMD101の位置姿勢を検出するための映像を撮像するための上サブカメラ107と下サブカメラ108を含み、上下のサブカメラ映像を出力する。優先度情報取得部415は、サブカメラ映像の伝送の優先度を含む優先度情報をPC130から通信部406を介して取得する。優先度情報については後述する。帯域判定部420は、通信部406を介して、サブカメラにより取得されたサブカメラ映像(位置姿勢の検出に用いられる映像)の送信に利用可能な通信帯域の過不足を判定する。例えば通信部406として無線通信を利用している場合には、HMD101の移動に伴い通信部406が利用可能な通信帯域が大きく変化することが想定される。帯域判定部420は、通信部406が利用するそのような無線通信の通信帯域(通信可能なデータ伝送量)を監視し、通信帯域が十分か不足しているかを判定する。   The second imaging unit 410 includes an upper sub camera 107 and a lower sub camera 108 for capturing an image for detecting the position and orientation of the HMD 101, and outputs upper and lower sub camera images. The priority information acquisition unit 415 acquires priority information including the transmission priority of the sub camera video from the PC 130 via the communication unit 406. The priority information will be described later. The band determination unit 420 determines the excess or deficiency of the communication band that can be used for transmission of the sub camera video (video used for position and orientation detection) acquired by the sub camera via the communication unit 406. For example, when wireless communication is used as the communication unit 406, it is assumed that the communication band that can be used by the communication unit 406 greatly changes as the HMD 101 moves. The band determination unit 420 monitors the communication band (data transmission amount that can be communicated) of such wireless communication used by the communication unit 406 and determines whether the communication band is sufficient or insufficient.

比率決定部425は、帯域判定部420で取得した通信帯域の過不足の判定と優先度情報取得部415で取得した優先度情報に基づき、上サブカメラ107と下サブカメラ108で取得された映像の伝送データ量の比率を決定する。例えば、上サブカメラ107の映像の優先度が高く、利用可能な通信帯域が不足していると判定されたとする。この場合、上サブカメラ107と下サブカメラ108の映像の伝送データ量の比率を1:0にすれば、通信帯域の全てを上サブカメラ107の映像の伝送に割り当てることになる。利用可能な通信帯域が十分にある場合には、伝送データ量の比率は1:1となり、上下サブカメラの両方の映像の伝送に均等に通信帯域を割り当てることが可能となる。   The ratio determination unit 425 determines the video acquired by the upper sub camera 107 and the lower sub camera 108 based on the determination of excess or deficiency of the communication band acquired by the band determination unit 420 and the priority information acquired by the priority information acquisition unit 415. Determine the ratio of the amount of transmitted data. For example, it is assumed that the priority of the video of the upper sub camera 107 is high and it is determined that the available communication band is insufficient. In this case, if the ratio of the video transmission data amount of the upper sub camera 107 and the lower sub camera 108 is set to 1: 0, the entire communication band is allocated to the video transmission of the upper sub camera 107. When there is a sufficient available communication band, the ratio of the transmission data amount is 1: 1, and it is possible to evenly allocate the communication band to the video transmission of both the upper and lower sub cameras.

第2圧縮部430は、第2の撮像部410にて撮像された上下のサブカメラ映像を、比率決定部425で決定された伝送データ量の比率に従って所定の符号化方式で圧縮する。本実施形態では、第1圧縮部405と第2圧縮部430を別々のブロックとしているが、共通のブロックとしても良い。動き検出部435は、ジャイロセンサや加速度センサのような慣性センサ109から受信した信号から動き情報を生成する。動き検出部435は、慣性センサ109を用いてHMD101の移動回転量を所定のサンプリング周波数で定常的に測定している。動き検出部435で測定された移動回転量は、所定のサンプル数分まとめられて、動き情報として通信部406を介してPC130へ送信される。合成映像伸長部440は通信部406を介してPC130から受信した、圧縮されたCG合成映像を伸長する。伸長されたCG合成映像は表示部445により表示され、HMD101の使用者(装着者)に対して提示される。尚、図4に示す各機能部は、ハードウェア又はソフトウェアとして装置に実装される。これらの機能部がソフトウェアとして実装される場合には、これらの機能を実行するためのプログラムが、HMD101が備える記憶部(ROM,RAM等のメモリ)に記憶されることになる。そして、HMD101が備えるCPUが、記憶部に記憶されたプログラムを実行することにより、これらの機能部が提供する機能が実現されることになる。   The second compression unit 430 compresses the upper and lower sub-camera images captured by the second imaging unit 410 using a predetermined encoding method according to the ratio of the transmission data amount determined by the ratio determination unit 425. In the present embodiment, the first compression unit 405 and the second compression unit 430 are separate blocks, but may be a common block. The motion detection unit 435 generates motion information from a signal received from the inertial sensor 109 such as a gyro sensor or an acceleration sensor. The motion detection unit 435 steadily measures the amount of movement rotation of the HMD 101 using the inertial sensor 109 at a predetermined sampling frequency. The amount of movement rotation measured by the motion detection unit 435 is collected for a predetermined number of samples and transmitted to the PC 130 via the communication unit 406 as motion information. The composite video decompression unit 440 decompresses the compressed CG composite video received from the PC 130 via the communication unit 406. The expanded CG composite image is displayed on the display unit 445 and presented to the user (wearer) of the HMD 101. Note that each functional unit shown in FIG. 4 is implemented in the apparatus as hardware or software. When these functional units are implemented as software, a program for executing these functions is stored in a storage unit (a memory such as a ROM or a RAM) provided in the HMD 101. The CPU provided in the HMD 101 executes the program stored in the storage unit, thereby realizing the functions provided by these functional units.

図5はPC130の機能ブロック図である。第1伸長部505は、通信部500を介して受信した、圧縮されたメインカメラ映像(左メインカメラ106および右メインカメラ105により撮像された映像)を伸長する。第2伸長部510は、通信部500を介して受信した、圧縮されたサブカメラ映像を伸長する。受信されるサブカメラ映像は、上述したように、上サブカメラ107、下サブカメラ108の両方またはいずれか一方の映像である。また、上サブカメラ107の映像と下サブカメラ108の映像で圧縮率が異なる場合もある。なお、本実施形態では、第1伸長部505と第2伸長部510を別々のブロックとしているが、共通のブロックとしても良い。   FIG. 5 is a functional block diagram of the PC 130. The first decompressing unit 505 decompresses the compressed main camera video (video captured by the left main camera 106 and the right main camera 105) received via the communication unit 500. The second decompression unit 510 decompresses the compressed sub camera video received via the communication unit 500. As described above, the received sub-camera image is an image of either or either of the upper sub-camera 107 and the lower sub-camera 108. In addition, the compression rate may be different between the video of the upper sub camera 107 and the video of the lower sub camera 108. In the present embodiment, the first extension unit 505 and the second extension unit 510 are separate blocks, but may be a common block.

指標検出部515は伸長されたサブカメラ映像を画像解析して、マーカ120などの指標を検出する。指標配置情報520は、複数の指標とその位置関係を定義した情報であり、MRシステムの開始前に全ての指標を撮像することによって予め構築されたものである。なお、指標配置情報520はサブカメラ映像の解析に従ってアップデートされるようにしても良い。位置姿勢検出部525は、指標配置情報520と指標検出部515により検出された指標の情報に基づいて、HMD101の位置姿勢を検出する。CG生成部530は検出されたHMDの位置姿勢に基づいてCGを生成する。CG合成部535は、CG生成部530により生成されたCGと、第1伸長部505により伸長されたメインカメラ映像とを合成してCG合成映像を生成する。CG合成部535により生成されたCG合成映像は、合成映像圧縮部540により所定の符号化方式で圧縮され、通信部500を介してHMD101に送信される。   The index detection unit 515 performs image analysis on the expanded sub-camera image and detects an index such as the marker 120. The marker arrangement information 520 is information defining a plurality of markers and their positional relationships, and is constructed in advance by imaging all the markers before starting the MR system. The index arrangement information 520 may be updated according to the analysis of the sub camera video. The position / orientation detection unit 525 detects the position / orientation of the HMD 101 based on the index arrangement information 520 and the index information detected by the index detection unit 515. The CG generation unit 530 generates a CG based on the detected position and orientation of the HMD. The CG combining unit 535 generates a CG combined image by combining the CG generated by the CG generating unit 530 and the main camera image expanded by the first extending unit 505. The CG synthesized video generated by the CG synthesizing unit 535 is compressed by the synthesized video compressing unit 540 using a predetermined encoding method and transmitted to the HMD 101 via the communication unit 500.

動き取得部550は、通信部500を介して、HMD101の動き検出部435が出力した動き情報(移動回転量情報)を取得する。優先度情報生成部545は、取得された動き情報(移動回転量情報)と位置姿勢検出部525により検出された現在の位置姿勢情報から、次に伝送されるサブカメラ映像の撮影時のHMD101の位置姿勢を推定する。上述したように、マーカ等の指標から判定された現在の位置姿勢に、動き情報(1フレーム分の移動回転量)の積分を加味することで、次のフレームにおけるHMD101の位置姿勢を推定することができる。そして、優先度情報生成部545は、推定されたHMD101の位置姿勢と、指標配置情報520に基づき、次に伝送されるサブカメラ映像の優先度情報を生成する。例えば、HMD101の次の推定された撮影位置が図3のP2であり、HMD101の位置姿勢に基づいたサブカメラの撮像範囲は撮像範囲320と撮像範囲325であるとする。この場合、指標配置情報520に基づき、上サブカメラ107映像には3個のマーカが含まれ、下サブカメラ108の映像には1個のマーカが含まれることがわかる。したがって、優先度情報生成部545は、上サブカメラ107の映像の優先度を高くした優先度情報を生成する。生成された優先度情報は、通信部500を介して、HMD101に送信される。尚、図5に示す各機能部は、ハードウェア又はソフトウェアとして装置に実装される。これらの機能部がソフトウェアとして実装される場合には、これらの機能を実行するためのプログラムが、PC130が備える記憶部(ROM,RAM等のメモリ)に記憶されることになる。そして、PC130が備えるCPUが、記憶部に記憶されたプログラムを実行することにより、これらの機能部が提供する機能が実現されることになる。   The motion acquisition unit 550 acquires the motion information (movement rotation amount information) output from the motion detection unit 435 of the HMD 101 via the communication unit 500. The priority information generation unit 545 uses the acquired motion information (movement rotation amount information) and the current position / orientation information detected by the position / orientation detection unit 525 to capture the sub-camera image to be transmitted next. Estimate the position and orientation. As described above, the position and orientation of the HMD 101 in the next frame is estimated by adding the integration of motion information (amount of movement and rotation for one frame) to the current position and orientation determined from an index such as a marker. Can do. Then, the priority information generation unit 545 generates priority information of the next sub-camera image to be transmitted based on the estimated position and orientation of the HMD 101 and the index arrangement information 520. For example, it is assumed that the next estimated shooting position of the HMD 101 is P <b> 2 in FIG. 3, and the shooting ranges of the sub camera based on the position and orientation of the HMD 101 are the shooting range 320 and the shooting range 325. In this case, based on the index arrangement information 520, it can be seen that the upper sub camera 107 video includes three markers and the lower sub camera 108 video includes one marker. Therefore, the priority information generation unit 545 generates priority information in which the video priority of the upper sub camera 107 is increased. The generated priority information is transmitted to the HMD 101 via the communication unit 500. Each function unit shown in FIG. 5 is implemented in the apparatus as hardware or software. When these function units are implemented as software, a program for executing these functions is stored in a storage unit (memory such as ROM or RAM) provided in the PC 130. Then, the CPU provided in the PC 130 executes the program stored in the storage unit, thereby realizing the functions provided by these functional units.

図6はHMD101におけるサブカメラの映像、メインカメラの映像、動き情報(移動回転量情報)のデータ生成タイミングを示す図である。期間600は映像フレーム(N)、期間605は映像フレーム(N+1)の生成タイミングを示している。例えばフレームレートが60Hzである場合には、約16msごとに映像フレームが生成され、PC130へ伝送されることになる。各映像フレームの期間において上サブカメラ107からの上サブカメラ映像データ615、下サブカメラ108からの下サブカメラ映像データ620が送信される。また、各映像フレーム期間において、左メインカメラ106からの左メインカメラ映像データ625、右メインカメラ105からの右メインカメラ映像データ630が送信される。610は映像フレーム(N)のデータが、611は映像フレーム(N+1)のデータが生成される間にサンプリングされる動き情報(移動回転量)のデータを示している。映像データと比較すると動き情報の1サンプル当たりのデータ量は少なく、図6で示すように動き情報のサンプリング周波数は、映像のフレームレートよりも高い。本実施形態では、図7で示すように1つの映像フレームを生成する間にサンプリングされた複数の動き情報をまとめて、映像フレームデータと共に通信フレームに格納して伝送している。尚、図5に示す各機能部は、ハードウェア又はソフトウェアとして装置に実装される。これらの機能部がソフトウェアとして実装される場合には、これらの機能を実行するためのプログラムが、PC130が備える記憶部(ROM,RAM等のメモリ)に記憶されることになる。そして、PC130が備えるCPUが、記憶部に記憶されたプログラムを実行することにより、これらの機能部が提供する機能が実現されることになる。   FIG. 6 is a diagram illustrating data generation timings of the sub camera video, the main camera video, and the motion information (movement rotation amount information) in the HMD 101. A period 600 indicates the generation timing of the video frame (N), and a period 605 indicates the generation timing of the video frame (N + 1). For example, when the frame rate is 60 Hz, a video frame is generated about every 16 ms and transmitted to the PC 130. Upper sub camera video data 615 from the upper sub camera 107 and lower sub camera video data 620 from the lower sub camera 108 are transmitted during the period of each video frame. In each video frame period, left main camera video data 625 from the left main camera 106 and right main camera video data 630 from the right main camera 105 are transmitted. Reference numeral 610 denotes video frame (N) data, and reference numeral 611 denotes motion information (movement rotation amount) data sampled while the video frame (N + 1) data is generated. Compared with video data, the amount of data per sample of motion information is small, and the sampling frequency of motion information is higher than the frame rate of video as shown in FIG. In the present embodiment, as shown in FIG. 7, a plurality of pieces of motion information sampled during the generation of one video frame are collected and stored together with video frame data in a communication frame for transmission. Each function unit shown in FIG. 5 is implemented in the apparatus as hardware or software. When these function units are implemented as software, a program for executing these functions is stored in a storage unit (memory such as ROM or RAM) provided in the PC 130. Then, the CPU provided in the PC 130 executes the program stored in the storage unit, thereby realizing the functions provided by these functional units.

図7はHMD101からPC130へ伝送される通信フレームの構成を示す図である。700、705、710、715、720は映像フレーム(N)を伝送するときに、通信帯域が十分に与えられている場合の通信フレームの例を示している。帯域判定部420によって通信帯域が十分であると判定された場合、本実施形態では以下の通信フレームが含まれる。
・上サブカメラ107からの上サブカメラ映像データ700および下サブカメラ108からの下サブカメラ映像データ705、
・左メインカメラ106からの左メインカメラ映像データ710および右メインカメラ105からの右メインカメラ映像データ715、
・1つの映像フレームを生成する間にサンプリングされた複数の動き情報720。
FIG. 7 is a diagram illustrating a configuration of a communication frame transmitted from the HMD 101 to the PC 130. Reference numerals 700, 705, 710, 715, and 720 show examples of communication frames when a communication band is sufficiently provided when transmitting a video frame (N). When the bandwidth determination unit 420 determines that the communication bandwidth is sufficient, the present embodiment includes the following communication frames.
Upper sub camera video data 700 from the upper sub camera 107 and lower sub camera video data 705 from the lower sub camera 108;
Left main camera video data 710 from the left main camera 106 and right main camera video data 715 from the right main camera 105,
A plurality of motion information 720 sampled during the generation of one video frame.

以上のように、帯域判定部420が、通信帯域が十分に与えられていると判定した場合には、上下のサブカメラ映像が伝送される。この場合、PC130の位置姿勢検出部525は上サブカメラ映像データ700、下サブカメラ映像データ705を画像解析してHMD101の位置姿勢を検出する。更に、優先度情報生成部545は、検出された位置姿勢と動き情報720(移動回転量情報)を使用して、次に送信すべきサブカメラ映像をサブカメラが撮像するタイミングにおけるHMD101の位置姿勢を予測し、優先度情報を生成し、HMD101へ伝送する。   As described above, when the band determination unit 420 determines that a sufficient communication band is provided, the upper and lower sub-camera images are transmitted. In this case, the position / orientation detection unit 525 of the PC 130 detects the position / orientation of the HMD 101 by performing image analysis on the upper sub-camera video data 700 and the lower sub-camera video data 705. Further, the priority information generation unit 545 uses the detected position and orientation and the motion information 720 (movement rotation amount information), and the position and orientation of the HMD 101 at the timing when the sub camera captures the sub camera image to be transmitted next. Is generated, and priority information is generated and transmitted to the HMD 101.

他方、図7の725、730、735、740は映像フレーム(N+1)を伝送するときに、通信帯域が不足した場合の通信フレームの例を示している。この場合、PC130から伝送される優先度情報に基づいて、HMD101は優先度の高い下サブカメラ108からの下サブカメラ映像データを伝送し、上サブカメラ107からの上サブカメラ映像データは伝送しないように制御する。したがって、N+1番目の映像フレームでは、下サブカメラ映像データ725、左メインカメラ映像データ730および右メインカメラ映像データ735、N+1番目の映像フレームを生成する間にサンプリングされた複数の動き情報740が伝送される。なお上記実施形態では時分割伝送を用いる構成を示しているが、周波数分割伝送などのその他の多重化方式を用いる構成であっても良いことは当業者には明らかである。   On the other hand, reference numerals 725, 730, 735, and 740 in FIG. 7 show examples of communication frames when a communication band is insufficient when transmitting a video frame (N + 1). In this case, based on the priority information transmitted from the PC 130, the HMD 101 transmits the lower sub camera video data from the lower sub camera 108 having a higher priority, and does not transmit the upper sub camera video data from the upper sub camera 107. To control. Accordingly, in the (N + 1) th video frame, the lower sub-camera video data 725, the left main camera video data 730 and the right main camera video data 735, and a plurality of motion information 740 sampled during the generation of the (N + 1) th video frame are transmitted. Is done. In addition, although the structure using time division transmission is shown in the said embodiment, it is clear to those skilled in the art that the structure using other multiplexing systems, such as frequency division transmission, may be sufficient.

図8はHMD101からPC130へ伝送される通信フレームの他の構成例を示す図である。図8では、図7と異なり、上下のサブカメラ映像どちらか一方を選択するのではなく、優先度情報に基づき、上下のサブカメラ映像を圧縮するときの圧縮率を変えることにより伝送される映像データの符号量を変えている。上サブカメラ映像データ800は、優先度情報により優先度が低いことが示されている上サブカメラ107により撮像された映像データを高い圧縮率で圧縮して得られた圧縮データである。これに対し、下サブカメラ映像データ805は、優先度情報により優先度が高いことが示されている下サブカメラ108により撮像された映像データを、低い圧縮率で圧縮して得られた圧縮データである。上サブカメラ映像データ800と下サブカメラ映像データ805の符号量は、帯域判定部420により判定された通信帯域の不足の状態(不足量)と優先度情報に応じて設定される。以上のように、通信待機が不足すると判定された場合に、優先度情報にしたがって符号量の比率を決定する場合は、
・サブカメラ映像の符号量の合計が使用可能な通信帯域で伝送可能な範囲であり、
・上サブカメラ映像と下サブカメラ映像の符号量の比が優先度情報により示される比率に一致するように、圧縮率が設定される。
FIG. 8 is a diagram illustrating another configuration example of a communication frame transmitted from the HMD 101 to the PC 130. In FIG. 8, unlike FIG. 7, the video transmitted by changing the compression rate when compressing the upper and lower sub-camera video based on the priority information, instead of selecting either the upper or lower sub-camera video. The data code amount is changed. The upper sub-camera video data 800 is compressed data obtained by compressing video data captured by the upper sub-camera 107 indicated by the priority information at a high compression rate. On the other hand, the lower sub-camera video data 805 is compressed data obtained by compressing the video data captured by the lower sub-camera 108 whose priority is indicated by the priority information at a low compression rate. It is. The code amounts of the upper sub-camera video data 800 and the lower sub-camera video data 805 are set according to the communication band shortage state (shortage amount) determined by the band determination unit 420 and priority information. As described above, when it is determined that the communication standby is insufficient, when determining the code amount ratio according to the priority information,
-The total code amount of the sub-camera video is the range that can be transmitted in the usable communication band,
The compression ratio is set so that the ratio of the code amount of the upper sub-camera video and the lower sub-camera video matches the ratio indicated by the priority information.

図9は本実施形態のHMD101とPC130との間のデータの送受信の内容を示すシーケンス図である。このシーケンス図では、映像フレーム(N)のデータ伝送時には、通信帯域が十分にあり、映像フレーム(N+1)以降のデータ伝送時には、通信帯域が不足している状況を示している。また映像フレーム(N+1)を撮像する際にHMD101は図3のP1に位置し、映像フレーム(N+2)を撮像する際にはHMD101は図3のP2に移動していることを想定している。   FIG. 9 is a sequence diagram showing the contents of data transmission / reception between the HMD 101 and the PC 130 of this embodiment. This sequence diagram shows a situation in which the communication band is sufficient during data transmission of the video frame (N), and the communication band is insufficient during data transmission after the video frame (N + 1). Further, it is assumed that the HMD 101 is positioned at P1 in FIG. 3 when imaging the video frame (N + 1), and that the HMD 101 has moved to P2 in FIG. 3 when imaging the video frame (N + 2).

まずHMD101は、撮像した映像フレーム(N)のサブカメラ映像を伝送する(S900)。このとき通信帯域は十分にあるため、上下両方のサブカメラ映像が伝送される。次に、HMD101は、映像フレーム(N)のメインカメラ映像を伝送する(S905)。次に、HMD101は、映像フレーム(N)の生成時にサンプリングされた移動回転量情報(動き情報)を伝送する(S910)。PC130は、上下サブカメラ映像を元に、HMD101の現在の位置姿勢を検出し、検出した位置姿勢に基づいてCG合成映像を生成して伝送する(S915)。またHMD101の現在の位置姿勢と、移動回転量情報を元に、映像フレーム(N+1)を撮影するタイミングにおけるHMD101の位置姿勢を推定する。PC130は、推定されたHMD101の位置姿勢(P1)から、上サブカメラ107の撮像範囲310より下サブカメラ108の撮像範囲315にマーカが多く配置されていることを認識する。これにより、PC130は、下サブカメラ108の映像の優先度を上サブカメラ107の映像の優先度より高めた優先度情報をHMD101へ伝送する(S920)。   First, the HMD 101 transmits the sub-camera image of the captured image frame (N) (S900). At this time, since the communication band is sufficient, both the upper and lower sub-camera images are transmitted. Next, the HMD 101 transmits the main camera video of the video frame (N) (S905). Next, the HMD 101 transmits movement rotation amount information (motion information) sampled at the time of generating the video frame (N) (S910). The PC 130 detects the current position and orientation of the HMD 101 based on the upper and lower sub-camera images, and generates and transmits a CG composite image based on the detected position and orientation (S915). Further, based on the current position and orientation of the HMD 101 and the movement rotation amount information, the position and orientation of the HMD 101 at the timing of shooting the video frame (N + 1) is estimated. The PC 130 recognizes that more markers are arranged in the imaging range 315 of the lower sub camera 108 than the imaging range 310 of the upper sub camera 107 from the estimated position and orientation (P1) of the HMD 101. As a result, the PC 130 transmits priority information in which the priority of the video of the lower sub camera 108 is higher than the priority of the video of the upper sub camera 107 to the HMD 101 (S920).

次に映像フレーム(N+1)のデータ伝送時にHMD101は通信帯域不足であることを検出する。そのためHMD101はPC130から受信した優先度情報に従い、優先度の高い下サブカメラ108の映像を送信対象に選択し、映像フレーム(N+1)のサブカメラ映像として伝送する(S925)。次に、HMD101は、映像フレーム(N+1)のメインカメラ映像を伝送する(S930)。次に、HMD101は、映像フレーム(N+1)生成時にサンプリングされた移動回転量情報(動き情報)をまとめて伝送する(S935)。PC130は、S925で送信された下サブカメラ108の映像データを元に、HMD101の現在の位置姿勢を検出し、検出した位置姿勢に基づいてCG合成映像を生成し、伝送する(S940)。また、PC130は、HMD101の現在の位置姿勢と、移動回転量情報を元に、次のN+1フレームの映像を撮影するタイミングにおけるHMD101の位置姿勢を推定する。PC130は推定されたHMD101の位置姿勢(P2)から、下サブカメラ108の撮像範囲325より上サブカメラ107の撮像範囲320にマーカが多く配置されていることを認識する。これにより、PC130は、上サブカメラ107の映像の優先度を下サブカメラ108の映像の優先度より高めた優先度情報を生成し、HMD101へ伝送する(S945)。   Next, the HMD 101 detects that the communication band is insufficient during data transmission of the video frame (N + 1). Therefore, the HMD 101 selects the video of the lower sub camera 108 having a higher priority as a transmission target according to the priority information received from the PC 130, and transmits it as the sub camera video of the video frame (N + 1) (S925). Next, the HMD 101 transmits the main camera video of the video frame (N + 1) (S930). Next, the HMD 101 collectively transmits the movement rotation amount information (motion information) sampled when the video frame (N + 1) is generated (S935). The PC 130 detects the current position and orientation of the HMD 101 based on the video data of the lower sub camera 108 transmitted in S925, and generates and transmits a CG composite video based on the detected position and orientation (S940). In addition, the PC 130 estimates the position and orientation of the HMD 101 at the timing of capturing the next N + 1 frame image based on the current position and orientation of the HMD 101 and the moving rotation amount information. The PC 130 recognizes that more markers are arranged in the imaging range 320 of the upper sub camera 107 than the imaging range 325 of the lower sub camera 108 from the estimated position and orientation (P2) of the HMD 101. Accordingly, the PC 130 generates priority information in which the priority of the video of the upper sub camera 107 is higher than the priority of the video of the lower sub camera 108, and transmits the priority information to the HMD 101 (S945).

次に映像フレーム(N+2)のデータ伝送時において、HMD101は通信帯域不足が継続していることを検出する。そのためHMD101はPC130から受信した優先度情報に従い、優先度の高い上サブカメラ107の映像を選択し、映像フレーム(N+2)のサブカメラ映像として伝送する(S950)。S955〜S970の処理は、上サブカメラ107の映像データを用いることを除いて、S930〜S970の処理と同等である。   Next, at the time of data transmission of the video frame (N + 2), the HMD 101 detects that the communication band shortage continues. Therefore, the HMD 101 selects the video of the upper sub camera 107 having a higher priority according to the priority information received from the PC 130, and transmits it as the sub camera video of the video frame (N + 2) (S950). The processing of S955 to S970 is the same as the processing of S930 to S970 except that the video data of the upper sub camera 107 is used.

以上のように映像フレームと移動回転量情報を伝送する度に、PC130側で次の映像フレーム伝送時のHMD101の位置を推定することにより、サブカメラ映像の優先度を判断し、位置検出に適したサブカメラ映像が優先的に伝送されるようにしている。以下では、図9で説明したHMD101とPC130の動作を実現するための、図4、図5に示した各機能部の処理について図10、図11のフローチャートの参照により説明する。   As described above, each time a video frame and moving rotation amount information are transmitted, the PC 130 side estimates the position of the HMD 101 at the time of transmitting the next video frame, thereby determining the priority of the sub-camera video and suitable for position detection. The sub-camera video is transmitted with priority. Hereinafter, processing of each functional unit shown in FIGS. 4 and 5 for realizing the operations of the HMD 101 and the PC 130 described with reference to FIG. 9 will be described with reference to the flowcharts of FIGS. 10 and 11.

図10は映像フレーム単位のHMD101の部動作を示すフローチャートである。まず、S1000において、HMD101は、移動回転量情報(動き情報)を動き検出部435(慣性センサ)から、上下サブカメラ映像を第2の撮像部410(サブカメラ)から、メインカメラ映像を第1撮像部400(メインカメラ)から取得する。次に、S1005で、帯域判定部420は、通信部406が現在利用可能な通信帯域を取得する。   FIG. 10 is a flowchart showing the operation of the HMD 101 in units of video frames. First, in S1000, the HMD 101 receives the movement rotation amount information (motion information) from the motion detection unit 435 (inertial sensor), the upper and lower sub camera images from the second imaging unit 410 (sub camera), and the main camera image from the first. Obtained from the imaging unit 400 (main camera). In step S <b> 1005, the band determination unit 420 acquires a communication band that can be currently used by the communication unit 406.

S1006で、帯域判定部420は、帯域判定部420により判定された通信帯域に基づいて、使用可能な通信帯域が不足しているか否かを判定する。通信帯域が十分にあると判定された場合には、処理はS1011へ分岐し、比率決定部425は上下サブカメラ映像の伝送データ量の比率を均等にする。他方、通信帯域が不足していると判定された場合には、処理はS1010へ分岐する。S1010において、比率決定部425は、帯域判定部420が取得した通信帯域と、前回の映像フレーム処理時に優先度情報取得部415が取得した優先度情報から、上下サブカメラ映像の伝送データ量の比率を決定する。その場合、優先度情報が示す優先度の高いサブカメラ映像ほど、伝送データ量の比率を上げ優先的に送信できるようにする。伝送比率が1:0の場合には、優先度の高い片方のサブカメラ映像がHMD101からPC130へ送信され、もう一方のサブカメラ映像は送信されない。   In step S <b> 1006, the band determination unit 420 determines whether the usable communication band is insufficient based on the communication band determined by the band determination unit 420. If it is determined that the communication band is sufficient, the process branches to S1011 and the ratio determination unit 425 equalizes the ratio of the transmission data amount of the upper and lower sub camera images. On the other hand, if it is determined that the communication band is insufficient, the process branches to S1010. In S1010, the ratio determination unit 425 determines the ratio of the transmission data amount of the upper and lower sub-camera videos from the communication band acquired by the band determination unit 420 and the priority information acquired by the priority information acquisition unit 415 during the previous video frame processing. To decide. In that case, a higher priority sub-camera image indicated by the priority information can be transmitted with higher priority by increasing the ratio of the amount of transmission data. When the transmission ratio is 1: 0, one of the sub camera images with high priority is transmitted from the HMD 101 to the PC 130, and the other sub camera image is not transmitted.

次にS1015で、第2圧縮部430は、比率決定部425が決定した伝送データ量の比率に従ってサブカメラ映像を圧縮する。また、S1020において、第1圧縮部405は第1撮像部400から取得されたメインカメラ映像を圧縮する。S1025において、通信部406は、S1000で取得された移動回転量情報と、S1015で圧縮されたサブカメラ映像と、S1020で圧縮されたメインカメラ映像をPC130へ送信する。次にS1030では、S1025で、通信部406は、PC130へ送信した情報を元に生成されたCG合成映像と優先度情報をPC130から受信する。優先度情報は次の映像フレーム処理時に、S1010で使用される。S1035において、合成映像伸長部440は、S1030で受信したCG合成映像を伸長し、S1040において、表示部445が伸長されたCG合成映像を表示する。   In step S <b> 1015, the second compression unit 430 compresses the sub camera video according to the transmission data amount ratio determined by the ratio determination unit 425. In step S <b> 1020, the first compression unit 405 compresses the main camera video acquired from the first imaging unit 400. In S1025, the communication unit 406 transmits to the PC 130 the movement rotation amount information acquired in S1000, the sub camera video compressed in S1015, and the main camera video compressed in S1020. In step S1030, in step S1025, the communication unit 406 receives from the PC 130 the CG composite video and priority information generated based on the information transmitted to the PC 130. The priority information is used in S1010 during the next video frame processing. In S1035, the composite video decompression unit 440 decompresses the CG composite video received in S1030, and in S1040, the display unit 445 displays the decompressed CG composite video.

図11は映像フレーム単位のPC130の動作を示すフローチャートである。まずS1100において、通信部500は、HMD101がS1025で送信した移動回転量情報(動き情報)、サブカメラ映像、メインカメラ映像を受信する。なお、受信されるサブカメラ映像は上下両方の場合も、上下のうちのいずれか片方の場合もある。メインカメラ映像とサブカメラ映像は通信部500を介して第1伸長部505と第2伸長部510に供給される。また、移動回転量情報は、動き取得部550により、通信部500を介して、動き情報として取得される。S1105において、第2伸長部510は通信部500が受信したサブカメラ映像を伸長し、S1110において、第1伸長部505は通信部500が受信したメインカメラ映像を伸長する。   FIG. 11 is a flowchart showing the operation of the PC 130 in units of video frames. First, in S1100, the communication unit 500 receives the movement rotation amount information (motion information), the sub camera video, and the main camera video transmitted by the HMD 101 in S1025. Note that the received sub-camera image may be either upper or lower or one of upper and lower. The main camera video and the sub camera video are supplied to the first decompression unit 505 and the second decompression unit 510 via the communication unit 500. Further, the movement rotation amount information is acquired as motion information by the motion acquisition unit 550 via the communication unit 500. In S1105, the second decompression unit 510 decompresses the sub camera video received by the communication unit 500, and in S1110, the first decompression unit 505 decompresses the main camera video received by the communication unit 500.

S1115において、指標検出部515は、S1105で伸長されたサブカメラ映像を解析してマーカ等の指標を検出する。S1120において、位置姿勢検出部525は、S1105で検出されたマーカと、各マーカの位置関係を定義する指標配置情報520に基づいて、HMD101の現在の位置姿勢を検出する。S1125において、優先度情報生成部545は、HMD101の現在の位置姿勢と、動き取得部550が取得した移動回転量とに基づいて、上下サブカメラ映像の優先度を決定し、優先度情報を生成し、送信する。上下サブカメラ映像の優先度の決定方法について説明する。優先度情報生成部545は、まず、次に伝送されるサブカメラ映像を得るためにサブカメラが撮像を実行するタイミングにおけるHMD101の位置姿勢を、HMD101の現在の位置姿勢と、動き取得部550が取得した移動回転量から推定する。そして、優先度情報生成部545は、推定されたHMD101の位置姿勢と指標配置情報520から、上下サブカメラ映像の優先度を決定し、優先度情報を生成する。本実施形態では、推定された位置姿勢から判定される撮像範囲にマーカ(指標)が多く含まれるサブカメラの優先度が高く設定される。なお、位置姿勢検出に適した映像を判定する方法はこれに限られず、例えば図2のようにマーカの代わりに自然特徴点を位置姿勢検出に利用するMRシステムの場合には、自然特徴点の数で優先度の判定を行っても良い。   In step S1115, the index detection unit 515 analyzes the sub-camera video expanded in step S1105 and detects an index such as a marker. In S1120, the position / orientation detection unit 525 detects the current position / orientation of the HMD 101 based on the marker detected in S1105 and the index arrangement information 520 that defines the positional relationship between the markers. In S1125, the priority information generation unit 545 determines the priority of the upper and lower sub-camera images based on the current position and orientation of the HMD 101 and the movement rotation amount acquired by the motion acquisition unit 550, and generates priority information. And send. A method for determining the priority of the upper and lower sub-camera images will be described. The priority information generation unit 545 first determines the position and orientation of the HMD 101 at the timing when the sub camera performs imaging in order to obtain the sub camera image to be transmitted next, the current position and orientation of the HMD 101, and the motion acquisition unit 550. Estimated from the acquired movement rotation amount. Then, the priority information generation unit 545 determines the priority of the upper and lower sub camera images from the estimated position and orientation of the HMD 101 and the index arrangement information 520, and generates priority information. In the present embodiment, the priority of the sub camera in which many markers (indexes) are included in the imaging range determined from the estimated position and orientation is set high. Note that the method of determining an image suitable for position and orientation detection is not limited to this. For example, in the case of an MR system that uses natural feature points for position and orientation detection instead of markers as shown in FIG. The priority may be determined by a number.

S1130において、CG生成部530はS1120で検出されたHMDの位置姿勢に基づいてCGを生成する。そして、CG合成部535が、S1110で伸長したメインカメラ映像と生成されたCGをS1120で検出されたHMDの位置姿勢に基づいて合成し、CG合成映像を生成する。S1135において、合成映像圧縮部540は、CG合成部535が生成したCG合成映像を圧縮する。S1140において、通信部500は、合成映像圧縮部540により圧縮されたCG合成映像と、S1125で優先度情報生成部545により生成された優先度情報をHMD101へ送信する。   In S1130, the CG generation unit 530 generates a CG based on the position and orientation of the HMD detected in S1120. Then, the CG combining unit 535 combines the main camera image expanded in S1110 and the generated CG based on the position and orientation of the HMD detected in S1120 to generate a CG combined image. In step S <b> 1135, the synthesized video compression unit 540 compresses the CG synthesized video generated by the CG synthesis unit 535. In S1140, the communication unit 500 transmits the CG composite video compressed by the composite video compression unit 540 and the priority information generated by the priority information generation unit 545 in S1125 to the HMD 101.

以上のように、第1実施形態によれば、利用可能な通信帯域に合わせてHMD101の位置検出に適したサブカメラ映像を優先的に伝送するので、通信帯域が不足する場合であっても位置検出精度を保つことが可能となる。更には伝送する映像データを削減し、HMDのデータ送信時間を減らすことで、HMDの電力消費を抑えることが可能となる。   As described above, according to the first embodiment, the sub-camera image suitable for the position detection of the HMD 101 is preferentially transmitted according to the available communication band, so even if the communication band is insufficient It becomes possible to maintain detection accuracy. Furthermore, by reducing the video data to be transmitted and reducing the data transmission time of the HMD, it becomes possible to suppress the power consumption of the HMD.

<第2実施形態>
第1実施形態では伝送すべきサブカメラ映像の優先度をPC130側で判断しているが、これに限られるものではない。第2実施形態では、PC130側で検出した位置姿勢情報をHMD101に伝送することにより、HMD101側でサブカメラ映像の優先度を判断する構成について説明する。
Second Embodiment
In the first embodiment, the priority of the sub camera video to be transmitted is determined on the PC 130 side, but the present invention is not limited to this. In the second embodiment, a configuration in which the priority of the sub camera video is determined on the HMD 101 side by transmitting the position and orientation information detected on the PC 130 side to the HMD 101 will be described.

図12は、第2実施形態におけるHMD101の機能構成を示すブロック図である。第1実施形態の機能構成(図4)と比較して、通信部406aの内容が変更となり、位置姿勢取得部1205、指標配置情報1210、優先度決定部1215が追加されている。位置姿勢取得部1205は、通信部406aを介してPC130側で検出した位置姿勢情報を取得する。この位置姿勢情報は、前回(直前)の映像フレーム伝送時におけるHMD101の位置姿勢を示す。   FIG. 12 is a block diagram illustrating a functional configuration of the HMD 101 in the second embodiment. Compared with the functional configuration of the first embodiment (FIG. 4), the content of the communication unit 406a is changed, and a position / orientation acquisition unit 1205, index placement information 1210, and a priority determination unit 1215 are added. The position / orientation acquisition unit 1205 acquires position / orientation information detected on the PC 130 side via the communication unit 406a. This position and orientation information indicates the position and orientation of the HMD 101 at the time of the previous (immediately preceding) video frame transmission.

指標配置情報1210はPC130側の指標配置情報520(図5)と同様、複数の指標とその位置関係を定義した情報であり、MRシステムの実行開始前に全ての指標を撮像することによって予め構築される。また、指標配置情報はPC130側のサブカメラ映像の解析に従いアップデートされ、所定の周期でHMD101側に伝送されるようにしても良い。優先度決定部1215は、優先度情報生成部545(図5)と同様の処理によりサブカメラの映像の優先度を決定する。すなわち、優先度決定部1215は、動き検出部435が取得した動き情報(移動回転量情報)と、位置姿勢取得部1205が取得した位置姿勢情報と、指標配置情報1210とに基づき、現在の映像フレーム伝送時の位置姿勢を推定する。そして、優先度決定部1215は、推定された位置姿勢に基づいて、現在の映像フレーム伝送において伝送するサブカメラ映像の優先度を決定する。このように、第1実施形態とは異なり、第2実施形態では、HMD101側でサブカメラ映像の優先度を判断する構成となっている。   Like the marker placement information 520 (FIG. 5) on the PC 130 side, the marker placement information 1210 is information defining a plurality of markers and their positional relationships, and is constructed in advance by imaging all the markers before the execution of the MR system. Is done. The index arrangement information may be updated according to the analysis of the sub camera video on the PC 130 side and transmitted to the HMD 101 side at a predetermined cycle. The priority determination unit 1215 determines the priority of the video of the sub camera by the same processing as the priority information generation unit 545 (FIG. 5). That is, the priority determination unit 1215 determines the current video based on the motion information (movement rotation amount information) acquired by the motion detection unit 435, the position / orientation information acquired by the position / orientation acquisition unit 1205, and the index arrangement information 1210. Estimate the position and orientation during frame transmission. And the priority determination part 1215 determines the priority of the sub camera image | video transmitted in the present video frame transmission based on the estimated position and orientation. Thus, unlike the first embodiment, the second embodiment is configured to determine the priority of the sub camera video on the HMD 101 side.

図13は第2実施形態におけるPC130の機能構成例を示すブロック図である。第1実施形態における機能構成(図5)と比較して、動き取得部550と優先度情報生成部545が省略され、位置姿勢検出部525aと通信部500aの内容が変更されている。位置姿勢検出部525aは、位置姿勢を検出した後、通信部500aを介してHMD101へ位置姿勢情報を伝送する。このように、第2実施形態では、サブカメラ映像の優先度をPC130側で判断せずHMD101側で判断させるために、必要な位置姿勢情報をPC130がHMD101へ伝送する構成となっている。   FIG. 13 is a block diagram illustrating a functional configuration example of the PC 130 in the second embodiment. Compared with the functional configuration (FIG. 5) in the first embodiment, the motion acquisition unit 550 and the priority information generation unit 545 are omitted, and the contents of the position / orientation detection unit 525a and the communication unit 500a are changed. After detecting the position and orientation, the position and orientation detection unit 525a transmits the position and orientation information to the HMD 101 via the communication unit 500a. As described above, in the second embodiment, the PC 130 transmits necessary position and orientation information to the HMD 101 so that the priority of the sub camera video is not determined on the PC 130 side but on the HMD 101 side.

図14は第2実施形態におけるHMD101とPC130との間のデータ伝送を示すシーケンス図である。このシーケンス図では、映像フレーム(N)のデータ伝送時には、通信帯域が十分にあり、映像フレーム(N+1)以降のデータ伝送時には、通信帯域が不足している状況を示している。またHMD101は映像フレーム(N+1)を撮像する際には図3のP1に位置し、映像フレーム(N+2)を撮像する際には図3のP2へ移動していることを想定している。   FIG. 14 is a sequence diagram showing data transmission between the HMD 101 and the PC 130 in the second embodiment. This sequence diagram shows a situation in which the communication band is sufficient during data transmission of the video frame (N), and the communication band is insufficient during data transmission after the video frame (N + 1). Further, it is assumed that the HMD 101 is located at P1 in FIG. 3 when imaging the video frame (N + 1), and has moved to P2 in FIG. 3 when imaging the video frame (N + 2).

HMD101は、撮像した映像フレーム(N)のサブカメラ映像をPC130へ伝送する(S1400)。このとき通信帯域が十分であるため、上下両方のサブカメラ映像が伝送される。次に、HMD101は、映像フレーム(N)のメインカメラ映像をPC130へ伝送する(S1405)。PC130は上下サブカメラ映像を元に、HMD101の位置姿勢を検出し、検出された位置姿勢に基づいてCG合成映像を生成し、生成したCG合成映像をHMD101へ伝送する(S1410)。また、PC130は、検出したHMD101の位置姿勢情報を伝送する(S1415)。   The HMD 101 transmits the sub-camera image of the captured image frame (N) to the PC 130 (S1400). At this time, since the communication band is sufficient, both the upper and lower sub-camera images are transmitted. Next, the HMD 101 transmits the main camera video of the video frame (N) to the PC 130 (S1405). The PC 130 detects the position and orientation of the HMD 101 based on the upper and lower sub-camera images, generates a CG composite video based on the detected position and orientation, and transmits the generated CG composite video to the HMD 101 (S1410). Further, the PC 130 transmits the detected position and orientation information of the HMD 101 (S1415).

次に、映像フレーム(N+1)のデータ伝送時にHMD101は通信帯域不足であることを検出する。そのためHMD101は、S1415においてPC130より送信された位置姿勢とHMD101に蓄積された移動回転量情報を元に、現在のHMD101の位置姿勢を推定する。HMD101は、推定された位置姿勢がP1であると認識し、P1では上サブカメラ107の撮像範囲310よりも下サブカメラ108の撮像範囲315に多くのマーカが配置されていることから、下サブカメラ映像の優先度を高める。本実施形態では、HMD101は下サブカメラ108の映像のみを選択し、映像フレーム(N+1)のサブカメラ映像としてPC130へ伝送する(S1420)。次に、HMD101は、映像フレーム(N+1)のメインカメラ映像をPC130へ伝送する(S1425)。PC130は、S1420で伝送された下サブカメラ映像を元に、HMD101の位置姿勢を検出し、検出した位置姿勢に基づいてCG合成映像を生成し、これをHMD101へ伝送する(S1430)。また、PC130は、検出されたHMD101の位置姿勢情報をHMD101へ伝送する(S1435)。   Next, the HMD 101 detects that the communication band is insufficient during data transmission of the video frame (N + 1). Therefore, the HMD 101 estimates the current position and orientation of the HMD 101 based on the position and orientation transmitted from the PC 130 in S1415 and the movement rotation amount information accumulated in the HMD 101. The HMD 101 recognizes that the estimated position and orientation is P1, and in P1, more markers are arranged in the imaging range 315 of the lower sub camera 108 than the imaging range 310 of the upper sub camera 107. Increase camera image priority. In the present embodiment, the HMD 101 selects only the video of the lower sub camera 108 and transmits it to the PC 130 as the sub camera video of the video frame (N + 1) (S1420). Next, the HMD 101 transmits the main camera video of the video frame (N + 1) to the PC 130 (S1425). The PC 130 detects the position and orientation of the HMD 101 based on the lower sub-camera image transmitted in S1420, generates a CG composite image based on the detected position and orientation, and transmits this to the HMD 101 (S1430). Further, the PC 130 transmits the detected position and orientation information of the HMD 101 to the HMD 101 (S1435).

次に映像フレーム(N+2)のデータ伝送時にHMD101は通信帯域不足が継続していることを検出する。そのためHMD101は、S1415においてPC130より送信された位置姿勢とHMD101に蓄積された移動回転量情報を元に、現在のHMD101の位置姿勢を推定する。HMD101は、現在の位置がP2であると認識すると、下サブカメラ108の撮像範囲325より上サブカメラ107の撮像範囲320にマーカが多く配置されていることから、上サブカメラ107の映像の優先度を高める(S1346)。本実施形態ではHMD101は上サブカメラ映像のみを選択し、映像フレーム(N+2)のサブカメラ映像として伝送する(S1440)。S1445〜S1455の処理は、上サブカメラ107の映像データを用いることを除いて、S1425〜S1435の処理と同等である。   Next, during data transmission of the video frame (N + 2), the HMD 101 detects that a shortage of communication bandwidth continues. Therefore, the HMD 101 estimates the current position and orientation of the HMD 101 based on the position and orientation transmitted from the PC 130 in S1415 and the movement rotation amount information accumulated in the HMD 101. When the HMD 101 recognizes that the current position is P2, the priority of the video of the upper sub camera 107 is higher because more markers are arranged in the imaging range 320 of the upper sub camera 107 than the imaging range 325 of the lower sub camera 108. The degree is increased (S1346). In this embodiment, the HMD 101 selects only the upper sub-camera video and transmits it as a sub-camera video of the video frame (N + 2) (S1440). The processing of S1445 to S1455 is the same as the processing of S1425 to S1435 except that the video data of the upper sub camera 107 is used.

以上のように、第2実施形態のHMD101は、映像フレームを伝送する度に、PC130から受信した前回のHMD101の位置情報と今回の動き情報(移動回転量情報)から、自身の現在の位置を推定する。そして、HMD101は、推定された現在の位置からサブカメラ映像の優先度を判断し、位置検出に適したサブカメラ映像を優先的に伝送する。   As described above, each time the HMD 101 of the second embodiment transmits a video frame, the HMD 101 determines its own current position from the previous position information of the HMD 101 received from the PC 130 and the current movement information (movement rotation amount information). presume. Then, the HMD 101 determines the priority of the sub camera video from the estimated current position, and preferentially transmits the sub camera video suitable for position detection.

以下では、図14で説明したHMD101とPC130の動作を実現するための、図12、図13に示した各機能部の処理について、図15、図16のフローチャートの参照により説明する。図15は映像フレーム単位のHMD101の動作を示すフローチャートである。S1500において、HMD101は、移動回転量情報を動き検出部435(慣性センサ)から、上下サブカメラ映像を第2の撮像部410(サブカメラ)から、メインカメラ映像を第1撮像部400(メインカメラ)から取得する。S1505において、帯域判定部420は、現在利用可能な通信帯域を取得する。   Hereinafter, processing of each functional unit shown in FIGS. 12 and 13 for realizing the operations of the HMD 101 and the PC 130 described with reference to FIG. 14 will be described with reference to the flowcharts of FIGS. 15 and 16. FIG. 15 is a flowchart showing the operation of the HMD 101 in units of video frames. In S <b> 1500, the HMD 101 transmits the movement rotation amount information from the motion detection unit 435 (inertial sensor), the upper and lower sub camera images from the second imaging unit 410 (sub camera), and the main camera image from the first imaging unit 400 (main camera). ) In step S1505, the band determination unit 420 acquires a currently available communication band.

S1506において、帯域判定部420は、現在利用可能な通信帯域が不足しているかどうかを判定する。通信帯域が十分にあると判定された場合、処理はS1511へ進み、比率決定部425は上下サブカメラ映像の伝送データ量の比率を均等に設定する。通信帯域が不十分と判定された場合には、処理はS1510へ進み、優先度決定部1215が、上下サブカメラの映像の優先度を決定する。優先度の決定において、優先度決定部1215は、まずS1500で取得した移動回転量情報と、前回の映像フレーム処理時にPCから受信した前回のHMD101の位置姿勢情報から、HMD101の現在の位置姿勢を推定する。そして、推定された位置姿勢と指標配置情報1210から、上下のサブカメラの各撮像範囲に存在するマーカの量に基づいて上下サブカメラの映像の優先度を決定する。次にS1515において、比率決定部425は、S1505で取得された通信帯域と、S1510で決定された優先度から、上下のサブカメラ映像の伝送データ量の比率を決定する。   In step S1506, the bandwidth determination unit 420 determines whether the currently available communication bandwidth is insufficient. If it is determined that the communication band is sufficient, the process proceeds to S1511, and the ratio determination unit 425 sets the ratio of the transmission data amount of the upper and lower sub-camera images equally. If it is determined that the communication band is insufficient, the process advances to step S1510, and the priority determination unit 1215 determines the priority of the images of the upper and lower sub cameras. In the priority determination, the priority determination unit 1215 first determines the current position and orientation of the HMD 101 from the movement rotation amount information acquired in S1500 and the position and orientation information of the previous HMD 101 received from the PC during the previous video frame processing. presume. Then, from the estimated position and orientation and the index arrangement information 1210, the priority of the images of the upper and lower sub cameras is determined based on the amount of the marker existing in each imaging range of the upper and lower sub cameras. In step S1515, the ratio determining unit 425 determines the ratio of the transmission data amount of the upper and lower sub-camera videos from the communication band acquired in step S1505 and the priority determined in step S1510.

次に、S1520において、第2圧縮部430は、比率決定部425が決定した(S1515)伝送データ量の比率に従って、最2の撮像部410からのサブカメラ映像を圧縮する。また、S1525において、第1圧縮部405は、第1撮像部400からのメインカメラ映像を圧縮する。S1530において、通信部406aは、S1520で圧縮されたサブカメラ映像とS1525で圧縮されたメインカメラ映像をPC130へ送信する。S1535において、通信部406aは、PC130へ送信した(S1530)サブカメラ映像を元に判定されたHMD101の位置姿勢情報とCG合成映像をPC130から受信する。この位置姿勢情報は次の映像フレーム処理時にS1510で使用される。S1540において合成映像伸長部440は受信したCG合成映像を伸長し、S1545において表示部445がCG合成映像を表示する。   Next, in S1520, the second compression unit 430 compresses the sub camera image from the second imaging unit 410 according to the ratio of the transmission data amount determined by the ratio determination unit 425 (S1515). In step S1525, the first compression unit 405 compresses the main camera video from the first imaging unit 400. In step S1530, the communication unit 406a transmits the sub camera video compressed in step S1520 and the main camera video compressed in step S1525 to the PC 130. In S1535, the communication unit 406a receives from the PC 130 the position and orientation information of the HMD 101 and the CG synthesized video determined based on the sub camera video transmitted to the PC 130 (S1530). This position / orientation information is used in S1510 during the next video frame processing. In S1540, the composite video decompression unit 440 decompresses the received CG composite video, and in S1545, the display unit 445 displays the CG composite video.

図16は映像フレーム単位のPC130の動作を示すフローチャートである。S1600において、通信部500aは、サブカメラ映像、メインカメラ映像をHMD101から受信する。ここで受信されるサブカメラ映像は、上下両方の場合も、上下のいずれか一方の場合もある。S1605において、第2伸長部510は、受信したサブカメラ映像を伸長し、S1610において、第1伸長部505は、受信したメインカメラ映像を伸長する。S1615において、指標検出部515は、S1605で伸長されたサブカメラ映像を解析してマーカ等の指標を検出する。   FIG. 16 is a flowchart showing the operation of the PC 130 in units of video frames. In S1600, the communication unit 500a receives the sub camera video and the main camera video from the HMD 101. The sub-camera image received here may be either up-down or up-down. In S1605, the second decompression unit 510 decompresses the received sub camera video, and in S1610, the first decompression unit 505 decompresses the received main camera video. In step S1615, the index detection unit 515 analyzes the sub camera video expanded in step S1605 and detects an index such as a marker.

S1620において、位置姿勢検出部525aは、S1615で検出されたマーカと、各マーカの位置関係を定義する指標配置情報520からHMD101の位置姿勢を検出する。S1625において、CG生成部530は、S1620で検出されたHMD101の位置姿勢に基づいてCGを生成し、CG合成部535は、S1610で伸長されたメインカメラ映像とCGをS1620で検出されたHMD101の位置姿勢に基づいて合成する。S1630において、合成映像圧縮部540は、CG合成映像を圧縮し、S1635において、S1630で圧縮されたCG合成映像とS1620で検出された位置姿勢情報をHMD101へ送信する。   In S1620, the position and orientation detection unit 525a detects the position and orientation of the HMD 101 from the marker detected in S1615 and the index arrangement information 520 that defines the positional relationship between the markers. In S1625, the CG generation unit 530 generates a CG based on the position and orientation of the HMD 101 detected in S1620, and the CG synthesis unit 535 generates the main camera video and CG expanded in S1610 in the HMD 101 detected in S1620. Compositing based on the position and orientation. In S1630, the composite video compression unit 540 compresses the CG composite video, and in S1635, transmits the CG composite video compressed in S1630 and the position and orientation information detected in S1620 to the HMD 101.

以上のように第2実施形態では、サブカメラの映像優先度をHMD101側で決定している。このような第2実施形態においても、第1実施形態と同様に、利用可能な通信帯域に合わせてHMD101に位置検出に適したサブカメラ映像を優先的に伝送することができる。そのため、通信帯域が不足する場合であっても位置検出精度を保つことが可能となる。更には伝送する映像データを削減し、HMDのデータ送信時間を減らすことで、HMDの電力消費を抑えることが可能となる。   As described above, in the second embodiment, the video priority of the sub camera is determined on the HMD 101 side. Also in the second embodiment, similarly to the first embodiment, the sub camera video suitable for position detection can be preferentially transmitted to the HMD 101 in accordance with the available communication band. Therefore, it is possible to maintain position detection accuracy even when the communication band is insufficient. Furthermore, by reducing the video data to be transmitted and reducing the data transmission time of the HMD, it becomes possible to suppress the power consumption of the HMD.

なお、上記の各実施形態では、複数のサブカメラ映像を複数のサブカメラから得る構成を説明した。すなわち複数のサブカメラから得られる複数のサブカメラ映像が、HMD101の位置姿勢の検出のための、異なる空間に対応した複数の映像となる。しかしながら、本発明はこれに限られるものではない。例えば、1台のサブカメラから得られる映像を複数の部分映像に分割して複数のサブカメラ映像を得るようにしてもよい。この場合、複数の部分映像が、HMD101の位置姿勢の検出のための、異なる空間に対応した複数の映像となる。   In each of the above embodiments, a configuration has been described in which a plurality of sub camera images are obtained from a plurality of sub cameras. That is, a plurality of sub camera images obtained from a plurality of sub cameras become a plurality of images corresponding to different spaces for detecting the position and orientation of the HMD 101. However, the present invention is not limited to this. For example, a video obtained from one sub camera may be divided into a plurality of partial videos to obtain a plurality of sub camera videos. In this case, the plurality of partial videos become a plurality of videos corresponding to different spaces for detecting the position and orientation of the HMD 101.

また、上記実施形態では、サブカメラ映像の優先度を決定するために撮像範囲に含まれるマーカや自然特徴等の指標の個数を条件としたが、これに代えて、又は追加して、撮像範囲に含まれる指標の大きさや鮮明度等のその他の条件を適宜使うようにしても構わない。更に、上述したサブカメラ映像の選択処理は、利用可能な通信帯域が少なくなったときに実行するものとしたが、HMD101のバッテリ残量が少なくなったとき等の別の条件下において動作するように構成してもよい。または、HMD101に省電力モード等の動作モードを備え、HMD装着者がこのモードを選択したときのみ、本実施形態の動作を行うように構成してもよい。   In the above embodiment, the number of markers such as markers and natural features included in the imaging range is used as a condition in order to determine the priority of the sub-camera video, but instead of or in addition to this, the imaging range Other conditions such as the size of the index and the sharpness included in the image may be used as appropriate. Further, the sub-camera image selection process described above is executed when the available communication bandwidth is low, but it may be operated under other conditions such as when the battery of the HMD 101 is low. You may comprise. Alternatively, the HMD 101 may be provided with an operation mode such as a power saving mode, and the operation of this embodiment may be performed only when the HMD wearer selects this mode.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:HMD、105:右メインカメラ、106:左メインカメラ106、107:上サブカメラ、108:下サブカメラ、109:慣性センサ、120:マーカ、125,135:通信リンク、130:PC、 101: HMD, 105: Right main camera, 106: Left main camera 106, 107: Upper sub camera, 108: Lower sub camera, 109: Inertial sensor, 120: Marker, 125, 135: Communication link, 130: PC,

Claims (29)

可搬型の情報処理装置と、前記情報処理装置から受信した映像に仮想画像を合成する映像処理装置とを有する映像処理システムであって、
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を、前記情報処理装置から前記映像処理装置へ通信手段を介して送信する第1の送信手段と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像に基づいて前記情報処理装置の位置姿勢を判定する判定手段と、
前記通信手段の前記第1の送信手段が利用可能な通信帯域と、前記判定手段により判定された位置姿勢とに基づいて、前記第1の送信手段により送信される前記複数の映像のデータ量の比率を制御する制御手段と、を備えることを特徴とする映像処理システム。
A video processing system comprising a portable information processing device and a video processing device that synthesizes a virtual image with video received from the information processing device,
First transmission means for transmitting a first video used for determining the position and orientation of the information processing apparatus from the information processing apparatus to the video processing apparatus via a communication means; and the first video is , Including multiple videos corresponding to different spaces,
Determining means for determining a position and orientation of the information processing device based on the first video;
Based on the communication band that can be used by the first transmission unit of the communication unit and the position and orientation determined by the determination unit, the data amount of the plurality of videos transmitted by the first transmission unit And a control means for controlling the ratio.
前記第1の映像は、位置姿勢の検出のための指標を含み、
前記制御手段は、前記判定手段により判定された前記情報処理装置の位置姿勢に基づいて、前記複数の映像のそれぞれに含まれる指標の量を判定し、判定された指標の量に応じて前記比率を制御することを特徴とする請求項1に記載の映像処理システム。
The first image includes an index for detecting a position and orientation;
The control means determines the amount of an index included in each of the plurality of videos based on the position and orientation of the information processing apparatus determined by the determination means, and the ratio is determined according to the determined index amount. The video processing system according to claim 1, wherein the video processing system is controlled.
前記制御手段は、映像に含まれる指標の量が多いほど送信されるデータ量が多くなるように前記比率を設定することを特徴とする請求項2に記載の映像処理システム。   The video processing system according to claim 2, wherein the control unit sets the ratio so that the amount of transmitted data increases as the amount of the index included in the video increases. 前記判定手段は、前記第1の送信手段により次に送信される第1の映像が撮像されるタイミングにおける、前記情報処理装置の位置姿勢を判定することを特徴とする請求項1乃至3のいずれか1項に記載の映像処理システム。   The determination unit determines a position and orientation of the information processing apparatus at a timing when the first video transmitted next by the first transmission unit is captured. The video processing system according to claim 1. 前記情報処理装置の移動回転量を示す動き情報を取得する取得手段をさらに備え、
前記判定手段は、前記第1の送信手段により送信された前記第1の映像と前記取得手段により取得された前記動き情報に基づいて、前記タイミングにおける前記情報処理装置の位置姿勢を判定することを特徴とする請求項4に記載の映像処理システム。
Further comprising an acquisition means for acquiring movement information indicating a movement rotation amount of the information processing apparatus;
The determination unit determines a position and orientation of the information processing apparatus at the timing based on the first video transmitted by the first transmission unit and the motion information acquired by the acquisition unit. The video processing system according to claim 4, wherein:
前記情報処理装置は、前記第1の映像に含まれる前記複数の映像を撮影するための複数の撮影装置を備えることを特徴とする請求項1乃至5のいずれか1項に記載の映像処理システム。   6. The video processing system according to claim 1, wherein the information processing apparatus includes a plurality of photographing devices for photographing the plurality of videos included in the first video. 7. . 前記情報処理装置は、1つの撮影装置により撮像された前記第1の映像を複数の部分映像に分割することにより前記複数の映像を得ることを特徴とする請求項1乃至6のいずれか1項に記載の映像処理システム。   7. The information processing apparatus according to claim 1, wherein the information processing apparatus obtains the plurality of images by dividing the first image captured by one image capturing device into a plurality of partial images. The video processing system described in 1. 前記情報処理装置はヘッドマウントディスプレイであることを特徴とする請求項1乃至7のいずれか1項に記載の映像処理システム。   The video processing system according to claim 1, wherein the information processing apparatus is a head mounted display. 前記情報処理装置から前記映像処理装置へ、前記仮想画像が合成される第2の映像を、前記通信手段を介して送信する第2の送信手段と、
前記映像処理装置において、前記判定手段により判定された位置姿勢に基づいて、前記第2の映像に仮想画像が合成された合成映像を生成する生成手段と、をさらに備えることを特徴とする請求項1乃至8のいずれか1項に記載の映像処理システム。
Second transmission means for transmitting, via the communication means, a second video in which the virtual image is synthesized from the information processing apparatus to the video processing apparatus;
The said video processing apparatus is further provided with the production | generation means which produces | generates the synthetic | combination image | video by which the virtual image was synthesize | combined with the said 2nd image | video based on the position and orientation determined by the said determination means. The video processing system according to any one of 1 to 8.
可搬型の情報処理装置であって、
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を撮影する第1の撮影手段と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像を通信手段を介して外部装置へ送信する第1の送信手段と、
前記外部装置から、前記第1の映像に基づいて生成された前記複数の映像の各々の優先度を表す優先度情報を取得する取得手段と、
前記通信手段の前記第1の送信手段が利用可能な通信帯域と、前記優先度情報とに基づいて、前記第1の送信手段により送信される前記複数の映像のデータ量の比率を制御する制御手段と、を備えることを特徴とする情報処理装置。
A portable information processing apparatus,
A first imaging unit that captures a first video used to determine a position and orientation of the information processing apparatus; and the first video includes a plurality of videos corresponding to different spaces;
First transmission means for transmitting the first video to an external device via communication means;
Acquisition means for acquiring priority information representing the priority of each of the plurality of videos generated based on the first video from the external device;
Control for controlling a ratio of data amounts of the plurality of videos transmitted by the first transmission unit based on a communication band that can be used by the first transmission unit of the communication unit and the priority information. And an information processing apparatus.
可搬型の情報処理装置であって、
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を撮影する第1の撮影手段と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像を通信手段を介して外部装置へ送信する第1の送信手段と、
前記外部装置から、前記第1の映像に基づいて判定された、前記情報処理装置の位置姿勢を取得する取得手段と、
前記取得手段により取得された前記位置姿勢と、前記通信手段の前記第1の送信手段が利用可能な通信帯域に基づいて、前記複数の映像の各々の優先度を表す優先度情報を生成する生成手段と、
前記通信手段の前記第1の送信手段が利用可能な通信帯域と、前記優先度情報とに基づいて、前記第1の送信手段により送信される前記複数の映像のデータ量の比率を制御する制御手段と、を備えることを特徴とする情報処理装置。
A portable information processing apparatus,
A first imaging unit that captures a first video used to determine a position and orientation of the information processing apparatus; and the first video includes a plurality of videos corresponding to different spaces;
First transmission means for transmitting the first video to an external device via communication means;
Obtaining means for obtaining a position and orientation of the information processing apparatus determined based on the first video from the external device;
Generation that generates priority information indicating the priority of each of the plurality of videos based on the position and orientation acquired by the acquisition unit and a communication band that can be used by the first transmission unit of the communication unit Means,
Control for controlling a ratio of data amounts of the plurality of videos transmitted by the first transmission unit based on a communication band that can be used by the first transmission unit of the communication unit and the priority information. And an information processing apparatus.
仮想画像が合成される第2の映像を撮影する第2の撮影手段と、
前記第2の映像を前記通信手段を介して前記外部装置へ送信する第2の送信手段と、をさらに備えることを特徴とする請求項10または11に記載の情報処理装置。
A second photographing means for photographing a second video to be combined with the virtual image;
The information processing apparatus according to claim 10, further comprising: a second transmission unit that transmits the second video to the external device via the communication unit.
前記情報処理装置の移動回転量を検出する検出手段をさらに備え、
前記第1の送信手段は、さらに、前記検出手段により検出された前記移動回転量を示す動き情報を前記外部装置へ送信することを特徴とする請求項10に記載の情報処理装置。
A detecting means for detecting the amount of rotation of the information processing apparatus;
The information processing apparatus according to claim 10, wherein the first transmission unit further transmits motion information indicating the amount of movement rotation detected by the detection unit to the external device.
前記情報処理装置の移動回転量を検出する検出手段を更に備え、
前記生成手段は、
前記取得手段により取得された前記位置姿勢と、前記検出手段により検出された前記移動回転量を示す動き情報とに基づいて、次に伝送される第1の映像が撮像されるタイミングにおける前記情報処理装置の位置姿勢を推定し、
前記推定された位置姿勢と、前記利用可能な通信帯域に基づいて、前記優先度情報を生成することを特徴とする請求項11に記載の情報処理装置。
A detecting means for detecting the amount of rotation of the information processing apparatus;
The generating means includes
Based on the position and orientation acquired by the acquisition unit and the motion information indicating the amount of movement rotation detected by the detection unit, the information processing at a timing when the first video to be transmitted next is captured. Estimate the position and orientation of the device,
The information processing apparatus according to claim 11, wherein the priority information is generated based on the estimated position and orientation and the available communication band.
前記制御手段は、前記優先度情報に基づいて、前記複数の映像から前記第1の送信手段が送信する映像を選択することを特徴とする請求項10乃至14のいずれか1項に記載の情報処理装置。   The information according to any one of claims 10 to 14, wherein the control unit selects a video to be transmitted by the first transmission unit from the plurality of videos based on the priority information. Processing equipment. 前記制御手段は、前記優先度情報に基づいて前記複数の映像の各々に対する圧縮率を決定し、前記複数の映像の各々を決定された圧縮率で圧縮して圧縮データを取得し、
前記第1の送信手段は、前記圧縮データを送信することを特徴とする請求項10乃至14のいずれか1項に記載の情報処理装置。
The control means determines a compression rate for each of the plurality of videos based on the priority information, compresses each of the plurality of videos with the determined compression rate, and obtains compressed data,
The information processing apparatus according to claim 10, wherein the first transmission unit transmits the compressed data.
前記第1の撮影手段は、前記第1の映像に含まれる前記複数の映像を撮影するための複数の撮影装置を備えることを特徴とする請求項10乃至16のいずれか1項に記載の情報処理装置。   The information according to any one of claims 10 to 16, wherein the first photographing unit includes a plurality of photographing devices for photographing the plurality of videos included in the first video. Processing equipment. 前記第1の撮影手段は、撮影された映像を複数の部分映像に分割することにより前記複数の映像を得ることを特徴とする請求項10乃至17のいずれか1項に記載の情報処理装置。   The information processing apparatus according to any one of claims 10 to 17, wherein the first photographing unit obtains the plurality of videos by dividing the photographed video into a plurality of partial videos. 外部装置から送信された映像を処理する映像処理装置であって、
前記外部装置から、前記外部装置の位置姿勢を判定するために用いられる第1の映像を、通信手段を介して受信する第1の受信手段と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像に基づいて前記外部装置の位置姿勢を判定する判定手段と、
前記第1の受信手段が利用可能な前記通信手段の通信帯域と、前記判定手段により判定された位置姿勢とに基づいて、前記第1の受信手段により受信される前記複数の映像の優先度を示す優先度情報を生成する生成手段と、
前記優先度情報を前記外部装置へ送信する送信手段と、を備えることを特徴とする映像処理装置。
A video processing device for processing video transmitted from an external device,
The first receiving means for receiving the first video used for determining the position and orientation of the external device from the external device via the communication means, and the first video corresponds to different spaces. Including multiple videos,
Determining means for determining a position and orientation of the external device based on the first video;
Based on the communication bandwidth of the communication means that can be used by the first receiving means and the position and orientation determined by the determining means, the priorities of the plurality of videos received by the first receiving means are determined. Generating means for generating priority information to indicate;
Transmitting means for transmitting the priority information to the external device.
前記外部装置から、仮想画像が合成される第2の映像を、前記通信手段を介して受信する第2の受信手段と、
前記判定手段により判定された位置姿勢に基づいて、前記第2の映像に仮想画像が合成された合成映像を生成する合成手段と、をさらに備えることを特徴とする請求項19に記載の映像処理装置。
Second receiving means for receiving, via the communication means, a second video to be combined with a virtual image from the external device;
The video processing according to claim 19, further comprising: a synthesis unit that generates a synthesized video in which a virtual image is synthesized with the second video based on the position and orientation determined by the determination unit. apparatus.
前記第1の映像は、位置姿勢の検出のための指標を含み、
前記生成手段は、前記判定手段により判定された前記外部装置の位置姿勢に基づいて、前記複数の映像のそれぞれに含まれる指標の量を判定し、判定された指標の量に基づいて前記優先度情報を生成することを特徴とする請求項19または20に記載の映像処理装置。
The first image includes an index for detecting a position and orientation;
The generation unit determines an amount of an index included in each of the plurality of videos based on the position and orientation of the external device determined by the determination unit, and the priority based on the determined amount of the index 21. The video processing apparatus according to claim 19 or 20, wherein information is generated.
前記生成手段は、映像に含まれる指標の量が多いほど優先度が高くなるように前記優先度情報を生成することを特徴とする請求項21に記載の映像処理装置。   The video processing apparatus according to claim 21, wherein the generation unit generates the priority information so that the priority is higher as the amount of the index included in the video is larger. 前記判定手段は、次に伝送される前記第1の映像が撮像されるタイミングにおける前記外部装置の位置姿勢を判定することを特徴とする請求項19乃至22のいずれか1項に記載の映像処理装置。   The video processing according to any one of claims 19 to 22, wherein the determination unit determines a position and orientation of the external device at a timing when the first video to be transmitted next is captured. apparatus. 前記外部装置の動きを示す動き情報を取得する取得手段をさらに備え、
前記判定手段は、前記第1の受信手段により受信された前記第1の映像と前記取得手段により取得された前記動き情報に基づいて、前記タイミングにおける前記外部装置の位置姿勢を判定することを特徴とする請求項23に記載の映像処理装置。
It further comprises acquisition means for acquiring movement information indicating the movement of the external device,
The determination unit determines a position and orientation of the external device at the timing based on the first video received by the first reception unit and the motion information acquired by the acquisition unit. The video processing apparatus according to claim 23.
可搬型の情報処理装置と、前記情報処理装置から受信した映像に仮想画像を合成する映像処理装置とを有する映像処理システムの制御方法であって、
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を、前記情報処理装置から前記映像処理装置へ通信手段を介して送信する第1の送信工程と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像に基づいて前記情報処理装置の位置姿勢を判定する判定工程と、
前記通信手段の前記第1の送信工程において利用可能な通信帯域と、前記判定工程で判定された位置姿勢とに基づいて、前記第1の送信工程で送信される前記複数の映像のデータ量の比率を制御する制御工程と、を有することを特徴とする映像処理システムの制御方法。
A control method for a video processing system, comprising: a portable information processing device; and a video processing device that synthesizes a virtual image with video received from the information processing device,
A first transmission step of transmitting a first video used for determining a position and orientation of the information processing device from the information processing device to the video processing device via a communication unit; and , Including multiple videos corresponding to different spaces,
A determination step of determining a position and orientation of the information processing device based on the first video;
Based on the communication bandwidth available in the first transmission step of the communication means and the position and orientation determined in the determination step, the data amount of the plurality of videos transmitted in the first transmission step And a control step for controlling the ratio.
可搬型の情報処理装置の制御方法であって、
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を撮影する第1の撮影工程と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像を通信手段を介して外部装置へ送信する第1の送信工程と、
前記外部装置から、前記第1の映像に基づいて生成された前記複数の映像の各々の優先度を表す優先度情報を取得する取得工程と、
前記通信手段の前記第1の送信工程で利用可能な通信帯域と、前記優先度情報とに基づいて、前記第1の送信工程で送信される前記複数の映像のデータ量の比率を制御する制御工程と、を有することを特徴とする情報処理装置の制御方法。
A control method for a portable information processing apparatus,
A first shooting step of shooting a first video used to determine a position and orientation of the information processing apparatus; and the first video includes a plurality of videos corresponding to different spaces;
A first transmission step of transmitting the first video to an external device via communication means;
An acquisition step of acquiring priority information representing the priority of each of the plurality of videos generated based on the first video from the external device;
Control for controlling the ratio of the data amount of the plurality of videos transmitted in the first transmission step based on the communication band available in the first transmission step of the communication means and the priority information And a method for controlling the information processing apparatus.
可搬型の情報処理装置の制御方法であって、
前記情報処理装置の位置姿勢を判定するために用いられる第1の映像を撮影する第1の撮影工程と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像を通信手段を介して外部装置へ送信する第1の送信工程と、
前記外部装置から、前記第1の映像に基づいて判定された、前記情報処理装置の位置姿勢を取得する取得工程と、
前記取得工程で取得された前記位置姿勢と、前記通信手段の前記第1の送信工程で利用可能な通信帯域に基づいて、前記複数の映像の各々の優先度を表す優先度情報を生成する生成工程と、
前記通信手段の前記第1の送信工程で利用可能な通信帯域と、前記優先度情報とに基づいて、前記第1の送信工程で送信される前記複数の映像のデータ量の比率を制御する制御工程と、を有することを特徴とする情報処理装置の制御方法。
A control method for a portable information processing apparatus,
A first shooting step of shooting a first video used to determine a position and orientation of the information processing apparatus; and the first video includes a plurality of videos corresponding to different spaces;
A first transmission step of transmitting the first video to an external device via communication means;
An acquisition step of acquiring the position and orientation of the information processing device determined based on the first video from the external device;
Generation for generating priority information indicating the priority of each of the plurality of videos based on the position and orientation acquired in the acquisition step and the communication band available in the first transmission step of the communication unit Process,
Control for controlling the ratio of the data amount of the plurality of videos transmitted in the first transmission step based on the communication band available in the first transmission step of the communication means and the priority information And a method for controlling the information processing apparatus.
外部装置から送信された映像を処理する映像処理装置の制御方法であって、
前記外部装置から、前記外部装置の位置姿勢を判定するために用いられる第1の映像を、通信手段を介して受信する第1の受信工程と、前記第1の映像は、異なる空間に対応した複数の映像を含み、
前記第1の映像に基づいて前記外部装置の位置姿勢を判定する判定工程と、
前記第1の受信工程で利用可能な前記通信手段の通信帯域と、前記判定工程で判定された位置姿勢とに基づいて、前記第1の受信工程で受信される前記複数の映像の優先度を示す優先度情報を生成する生成工程と、
前記優先度情報を前記外部装置へ送信する送信工程と、を有することを特徴とする映像処理装置の制御方法。
A control method of a video processing device for processing video transmitted from an external device,
A first reception step of receiving a first video used for determining a position and orientation of the external device from the external device via a communication unit, and the first video correspond to different spaces. Including multiple videos,
A determination step of determining a position and orientation of the external device based on the first video;
Based on the communication bandwidth of the communication means that can be used in the first reception step and the position and orientation determined in the determination step, the priorities of the plurality of videos received in the first reception step are determined. A generation step for generating priority information to be shown;
And a transmission step of transmitting the priority information to the external device.
請求項25乃至28のいずれか1項に記載された制御方法の各工程をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the control method according to any one of claims 25 to 28.
JP2015122114A 2015-06-17 2015-06-17 Information processing device, video processing device, control method for those, and video processing system Pending JP2017010120A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015122114A JP2017010120A (en) 2015-06-17 2015-06-17 Information processing device, video processing device, control method for those, and video processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015122114A JP2017010120A (en) 2015-06-17 2015-06-17 Information processing device, video processing device, control method for those, and video processing system

Publications (1)

Publication Number Publication Date
JP2017010120A true JP2017010120A (en) 2017-01-12

Family

ID=57763511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015122114A Pending JP2017010120A (en) 2015-06-17 2015-06-17 Information processing device, video processing device, control method for those, and video processing system

Country Status (1)

Country Link
JP (1) JP2017010120A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109246456A (en) * 2017-07-11 2019-01-18 日立乐金光科技株式会社 The display control method of display system and display system
WO2020137487A1 (en) 2018-12-26 2020-07-02 株式会社Jvcケンウッド Video display system, video display device, and video display method
JP2021534679A (en) * 2018-08-16 2021-12-09 北京七▲しん▼易維信息技術有限公司Beijing 7Invensun Technology Co., Ltd. Image acquisition device control method and device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109246456A (en) * 2017-07-11 2019-01-18 日立乐金光科技株式会社 The display control method of display system and display system
JP2019016316A (en) * 2017-07-11 2019-01-31 株式会社日立エルジーデータストレージ Display system and display control method for display system
US11016559B2 (en) 2017-07-11 2021-05-25 Hitachi-Lg Data Storage, Inc. Display system and display control method of display system
JP2021114343A (en) * 2017-07-11 2021-08-05 株式会社日立エルジーデータストレージ Display system and display control method for display system
JP7064040B2 (en) 2017-07-11 2022-05-09 株式会社日立エルジーデータストレージ Display system and display control method of display system
JP2021534679A (en) * 2018-08-16 2021-12-09 北京七▲しん▼易維信息技術有限公司Beijing 7Invensun Technology Co., Ltd. Image acquisition device control method and device
JP7305749B2 (en) 2018-08-16 2023-07-10 北京七▲しん▼易維信息技術有限公司 Control method and device for image acquisition device
US11853471B2 (en) 2018-08-16 2023-12-26 Beijing 7Invensun Technology Co., Ltd. Method and apparatus for controlling image acquisition device
WO2020137487A1 (en) 2018-12-26 2020-07-02 株式会社Jvcケンウッド Video display system, video display device, and video display method

Similar Documents

Publication Publication Date Title
US10965868B2 (en) Apparatus and methods for image encoding using spatially weighted encoding quality parameters
US20220174252A1 (en) Selective culling of multi-dimensional data sets
EP3258698A1 (en) Server, user terminal device, and control method therefor
US20140092439A1 (en) Encoding images using a 3d mesh of polygons and corresponding textures
JP2018092580A (en) Image generator and method
JP2018523356A (en) Low latency screen mirroring
US20160378177A1 (en) Visualized content transmission control method, sending method and apparatuses thereof
JP2017010120A (en) Information processing device, video processing device, control method for those, and video processing system
KR20190077428A (en) Video frame rate conversion using streamed metadata
US20170287097A1 (en) Hybrid client-server rendering in a virtual reality system
WO2018015806A1 (en) System and method providing object-oriented zoom in multimedia messaging
US20130278728A1 (en) Collaborative cross-platform video capture
KR20160095058A (en) Handling video frames compromised by camera motion
JP2017005372A (en) Communication device and control method therefor
WO2018100928A1 (en) Image processing device and method
US10504247B2 (en) Transmission apparatus, mixed reality system, transmission method, and program
CN114040238A (en) Method for displaying multiple windows and electronic equipment
KR102238372B1 (en) Adaptive bitrate streaming of UHD image data
US20190356880A1 (en) Reception apparatus, transmission apparatus, control method, transmission method, and program
JP6539122B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD FOR INFORMATION PROCESSING APPARATUS, AND PROGRAM
CN112204960A (en) Method of transmitting three-dimensional 360-degree video data, display apparatus using the same, and video storage apparatus using the same
JP2017207818A (en) Image processing apparatus, image processing method and program
US11329795B2 (en) Communication device, method for controlling size of generated data, and program
US9538168B2 (en) Determination device and determination method
JP5552712B2 (en) Video transmission server