JP6360389B2 - Video presentation apparatus and program - Google Patents

Video presentation apparatus and program Download PDF

Info

Publication number
JP6360389B2
JP6360389B2 JP2014170873A JP2014170873A JP6360389B2 JP 6360389 B2 JP6360389 B2 JP 6360389B2 JP 2014170873 A JP2014170873 A JP 2014170873A JP 2014170873 A JP2014170873 A JP 2014170873A JP 6360389 B2 JP6360389 B2 JP 6360389B2
Authority
JP
Japan
Prior art keywords
video presentation
presentation device
unit
video
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014170873A
Other languages
Japanese (ja)
Other versions
JP2016046731A (en
Inventor
裕之 川喜田
裕之 川喜田
宜樹 中嶋
宜樹 中嶋
純 津持
純 津持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014170873A priority Critical patent/JP6360389B2/en
Publication of JP2016046731A publication Critical patent/JP2016046731A/en
Application granted granted Critical
Publication of JP6360389B2 publication Critical patent/JP6360389B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、マルチスクリーン間の位置及び姿勢を検出し、位置及び姿勢に応じた映像を提示する映像提示装置及びプログラムに関する。   The present invention relates to a video presentation apparatus and a program for detecting a position and a posture between multiple screens and presenting a video corresponding to the position and the posture.

従来、高精細な表示デバイス(液晶パネル、有機ELパネル等)の低価格化に伴い、表示デバイスを備えた映像提示装置が家庭内へ普及し、また、多くの映像提示装置が商業施設に設置されている。   Conventionally, along with the price reduction of high-definition display devices (liquid crystal panels, organic EL panels, etc.), video presentation devices equipped with display devices have become popular in homes, and many video presentation devices have been installed in commercial facilities. Has been.

スマートフォン及びタブレット端末等の映像提示装置には、多機能化に伴って、カメラ、当該映像提示装置の傾きを検出する加速度センサー、指紋を認証するための指紋センサー等の様々なセンサーが設けられている。   Video presentation devices such as smartphones and tablet terminals are equipped with various sensors such as a camera, an acceleration sensor for detecting the tilt of the video presentation device, and a fingerprint sensor for authenticating a fingerprint as the functionality increases. Yes.

また、被写体を全方位に撮影する技術として、RICOH THETA(リコー・シータ)、全方位GoPro(登録商標)マウント等が知られており、今後、この全方位撮影技術は、スマートフォン及びタブレット端末等の映像提示装置に採用されていくと予想される。   In addition, RICOH THETA (Ricoh Theta), omnidirectional GoPro (registered trademark) mount, etc. are known as techniques for photographing a subject in all directions. In the future, this omnidirectional photography technology will be applied to smartphones and tablet terminals, etc. Expected to be adopted in video presentation devices.

このような映像提示装置を用いた映像提示サービスには、例えば、複数の映像提示装置を用いた“Augmented TV”がある(例えば、非特許文献1を参照)。“Augmented TV”は、AR(Augmented Reality:拡張現実感)と呼ばれる技術を、番組映像に対して適用したサービスである。ARは、コンピュータを用いて、現実環境の一部であるかのような情報を付加することで現実環境を拡張する技術である。具体的には、“Augmented TV”では、タブレット端末等の携帯端末のカメラでTV画面を撮影し、カメラ取込み画像に対してTV番組(以下、映像コンテンツという。)に連動した3DCG(以下、サブコンテンツという。)をオーバーレイ表示することで、番組演出をTV画面外に拡張することができる。   As a video presentation service using such a video presentation device, for example, there is “Augmented TV” using a plurality of video presentation devices (see, for example, Non-Patent Document 1). “Augmented TV” is a service in which a technique called AR (Augmented Reality) is applied to a program video. AR is a technique for extending a real environment by adding information as if it is a part of the real environment using a computer. Specifically, in “Augmented TV”, a TV screen is shot with a camera of a portable terminal such as a tablet terminal, and 3DCG (hereinafter referred to as sub-content) linked to a TV program (hereinafter referred to as video content) with respect to the captured image. By displaying the content)), the program effect can be expanded outside the TV screen.

このような映像提示サービスに用いる技術として、カメラ付き映像提示装置がカメラ取込み画像中の映像コンテンツに対してサブコンテンツをオーバーレイ表示する際に、映像コンテンツを表示している映像提示装置の位置及び姿勢を検出すると共に、カメラ付き映像提示装置の画面内において両コンテンツの表示の同期を確立する手法が知られている(例えば、特許文献1,2を参照)。   As a technology used for such a video presentation service, when the video presentation device with a camera overlay-displays the sub-content on the video content in the captured image, the position and orientation of the video presentation device displaying the video content And a method for establishing synchronization of display of both contents within the screen of the camera-equipped video presentation device is known (see, for example, Patent Documents 1 and 2).

特開2011−35576号公報JP 2011-35576 A 特開2014−23072号公報JP 2014-23072 A

Kawakita et al.,“Augmented TV:An Augmented Reality System for TV Programs Beyond the TV Screen”,IEEE ICMCS2014,S−IV(2),ID:144Kawakita et al. , “Augmented TV: An Augmented Reality System for TV Programs Beyond the TV Screen”, IEEE ICMCS2014, S-IV (2), ID: 144

前述の特許文献1,2の手法は、映像提示装置の画面に表示されたマーカー等をカメラによって捉えることで、当該映像提示装置の位置及び姿勢を検出するものであり、カメラの撮影範囲内に、マーカー等が表示された画面を必要とする。   The above-described methods of Patent Documents 1 and 2 detect the position and orientation of the video presentation device by capturing a marker or the like displayed on the screen of the video presentation device with a camera, and are within the shooting range of the camera. Need a screen with markers, etc.

しかしながら、映像提示装置の位置または姿勢によっては、カメラの撮影範囲内に、映像提示装置の画面が存在しない場合があり、マーカー等を表示した画面をカメラによって捉えることができず、その位置及び姿勢を検出できないことがあり得る。このため、映像提示装置の位置または姿勢によっては、映像提示サービスを実現することができないという問題があった。   However, depending on the position or orientation of the video presentation device, the screen of the video presentation device may not exist within the shooting range of the camera, and the screen displaying markers or the like cannot be captured by the camera. May not be detected. For this reason, there has been a problem that the video presentation service cannot be realized depending on the position or orientation of the video presentation device.

また、映像提示装置の位置及び姿勢を検出するためには、マーカー等を表示する処理、及びマーカー等を解析する処理が必要となり、映像コンテンツの演出を阻害し、処理負荷が高いという問題もあった。   In addition, in order to detect the position and orientation of the video presentation device, processing for displaying markers and the like and processing for analyzing markers and the like are required, which impedes presentation of video content and has a high processing load. It was.

このような問題を解決するために、マーカー等を解析するための画像を取得するカメラを用いることなく、また、負荷の高い画像処理を行うことなく、映像提示装置の位置及び姿勢を検出し、新しい映像表現を可能にする映像提示サービスを実現することが所望されていた。   In order to solve such problems, the position and orientation of the video presentation device are detected without using a camera that acquires an image for analyzing a marker or the like, or without performing high-load image processing. It has been desired to realize a video presentation service that enables a new video expression.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、複数のセンサーを用いて検出対象の映像提示装置の位置及び姿勢を検出することにより、カメラの撮影範囲内にその映像提示装置の画面が存在しない場合であっても、映像提示サービスを実現可能な映像提示装置及びプログラムを提供することにある。   Accordingly, the present invention has been made to solve the above-described problems, and the object thereof is to detect the position and orientation of a video presentation device to be detected using a plurality of sensors, and thereby within the shooting range of the camera. An object of the present invention is to provide a video presentation device and a program capable of realizing a video presentation service even when the screen of the video presentation device does not exist.

前記目的を達成するために、請求項1の映像提示装置は、マルチスクリーンの映像コンテンツを画面表示する映像提示装置において、当該映像提示装置のデバイスIDをエンコードし、異なる2つの符号を生成するデバイスIDエンコード部と、前記デバイスIDエンコード部により生成された異なる2つの符号のうちの一方の符号に従って点滅する第1の赤外線LEDと、前記デバイスIDエンコード部により生成された異なる2つの符号のうちの他方の符号に従って点滅する第2の赤外線LEDと、赤外線カメラを用いて、他の映像提示装置に備えた、前記他の映像提示装置のデバイスIDがエンコードされて生成された異なる符号に従ってそれぞれ点滅する2つの赤外線LEDを含む全方位赤外線画像を取得する赤外線カメラ画像取得部と、前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた2つの赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記2つの赤外線LEDの位置を特定し、前記2つの赤外線LEDの位置に基づいて、当該映像提示装置から見た前記他の映像提示装置の相対方位を検出する方位検出部と、加速度センサー及び地磁気センサーを用いて、当該映像提示装置の傾きを検出する傾き検出部と、前記他の映像提示装置から見た当該映像提示装置の相対方位、及び前記他の映像提示装置の傾きを、前記他の映像提示装置からネットワークを介して受信する通信部と、前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置から見た前記他の映像提示装置の位置及び姿勢を推定する位置・姿勢推定部と、を備え、前記位置・姿勢推定部が、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記通信部により受信された前記他の映像提示装置から見た当該映像提示装置の相対方位、前記傾き検出部により検出された当該映像提示装置の傾き、及び、前記通信部により受信された前記他の映像提示装置の傾きに基づいて、当該映像提示装置から見た前記他の映像提示装置の姿勢を推定する姿勢推定部と、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位に基づいて、前記他の映像提示装置に備えた2つの赤外線LEDの方位角を算出し、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記他の映像提示装置に備えた2つの赤外線LED間の予め設定された距離、前記算出した方位角、及び、前記姿勢推定部により推定された当該映像提示装置から見た前記他の映像提示装置の姿勢に基づいて、当該映像提示装置と前記他の映像提示装置との間の距離を推定する距離推定部と、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、及び前記距離推定部により推定された距離に基づいて、当該映像提示装置から見た前記他の映像提示装置の位置を推定する位置推定部と、を備えたことを特徴とする。   In order to achieve the object, the video presentation apparatus according to claim 1 is a video presentation apparatus that displays a multi-screen video content on a screen, and encodes a device ID of the video presentation apparatus to generate two different codes. An ID encoding unit, a first infrared LED that blinks according to one of two different codes generated by the device ID encoding unit, and two different codes generated by the device ID encoding unit The second infrared LED blinking according to the other code and the infrared camera are used to blink according to the different codes generated by encoding the device ID of the other video presentation device provided in the other video presentation device. Infrared camera image acquisition to acquire omnidirectional infrared images including two infrared LEDs Then, from the omnidirectional infrared image acquired by the infrared camera image acquisition unit, the blinking state of the two infrared LEDs provided in the other video presentation device is captured, and the two infrared LEDs on the omnidirectional infrared image are captured. Using a direction detecting unit that detects a relative direction of the other video presentation device viewed from the video presentation device, an acceleration sensor, and a geomagnetic sensor, based on the position of the two infrared LEDs A tilt detector that detects the tilt of the video presentation device, the relative orientation of the video presentation device viewed from the other video presentation device, and the tilt of the other video presentation device are connected to the network from the other video presentation device. And the position of the other video presentation device viewed from the video presentation device used when the multi-screen video content is displayed on the screen. And a position / posture estimation unit for estimating the posture, wherein the position / posture estimation unit detects the relative orientation of the other video presentation device viewed from the video presentation device detected by the orientation detection unit, and the communication The relative orientation of the video presentation device viewed from the other video presentation device received by the unit, the tilt of the video presentation device detected by the tilt detection unit, and the other video received by the communication unit Based on the tilt of the presentation device, the posture estimation unit that estimates the posture of the other video presentation device viewed from the video presentation device, and the other video viewed from the video presentation device detected by the orientation detection unit Based on the relative orientation of the presentation device, the azimuth angle of two infrared LEDs provided in the other video presentation device is calculated, and the other video presentation device viewed from the video presentation device detected by the orientation detection unit. Relative azimuth of the device, a preset distance between two infrared LEDs provided in the other video presentation device, the calculated azimuth angle, and the video presentation device estimated by the posture estimation unit Based on the posture of the other video presentation device, the distance estimation unit that estimates the distance between the video presentation device and the other video presentation device, and the video presentation device detected by the direction detection unit A position estimation unit that estimates a position of the other video presentation device viewed from the video presentation device based on a relative direction of the other video presentation device and a distance estimated by the distance estimation unit. It is characterized by that.

また、請求項2の映像提示装置は、マルチスクリーンの映像コンテンツを画面表示する映像提示装置において、当該映像提示装置のデバイスIDをエンコードし、符号を生成するデバイスIDエンコード部と、前記デバイスIDエンコード部により生成された符号に従って、同じ位相で点滅する第1の赤外線LED及び第2の赤外線LEDと、赤外線カメラを用いて、他の映像提示装置に備えた、前記他の映像提示装置のデバイスIDがエンコードされて生成された同じ符号に従って同じ位相で点滅する2つの赤外線LEDを含む全方位赤外線画像を取得する赤外線カメラ画像取得部と、前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた2つの赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記2つの赤外線LEDの位置を特定し、前記2つの赤外線LEDの位置に基づいて、当該映像提示装置から見た前記他の映像提示装置の相対方位を検出する方位検出部と、加速度センサー及び地磁気センサーを用いて、当該映像提示装置の傾きを検出する傾き検出部と、前記他の映像提示装置から見た当該映像提示装置の相対方位、及び前記他の映像提示装置の傾きを、前記他の映像提示装置からネットワークを介して受信する通信部と、前記他の映像提示装置に備えた2つの赤外線LEDの点滅状態に基づいて、前記2つの赤外線LEDの位相差を検出する位相差検出部と、前記位相差検出部により検出された位相差に基づいて、当該映像提示装置を基点とした前記他の映像提示装置に備えた2つの赤外線LEDとの間の距離差を推定する距離差推定部と、前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置から見た前記他の映像提示装置の位置及び姿勢を推定する位置・姿勢推定部と、を備え、前記位置・姿勢推定部が、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記通信部により受信された前記他の映像提示装置から見た当該映像提示装置の相対方位、前記傾き検出部により検出された当該映像提示装置の傾き、及び、前記通信部により受信された前記他の映像提示装置の傾きに基づいて、当該映像提示装置から見た前記他の映像提示装置の姿勢を推定する姿勢推定部と、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位に基づいて、前記他の映像提示装置に備えた2つの赤外線LEDの方位角を算出し、前記他の映像提示装置に備えた2つの赤外線LED間の予め設定された距離、前記算出した方位角、及び前記距離差推定部により推定された距離差に基づいて、当該映像提示装置と前記他の映像提示装置との間の距離を推定する距離推定部と、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、及び前記距離推定部により推定された距離に基づいて、当該映像提示装置から見た前記他の映像提示装置の位置を推定する位置推定部と、を備えたことを特徴とする。   According to a second aspect of the present invention, there is provided a video presentation device for displaying a multi-screen video content on a screen. The video presentation device encodes a device ID of the video presentation device to generate a code, and the device ID encoding. The device ID of the other video presentation device provided in the other video presentation device using the first infrared LED and the second infrared LED blinking in the same phase and the infrared camera according to the code generated by the unit From an omnidirectional infrared image acquired by the infrared camera image acquisition unit that acquires an omnidirectional infrared image including two infrared LEDs blinking in the same phase according to the same code generated by encoding , Capture the blinking state of the two infrared LEDs provided in the other video presentation device, the omnidirectional An azimuth detector that identifies the positions of the two infrared LEDs on the outside line image, and detects a relative azimuth of the other video presentation device viewed from the video presentation device based on the positions of the two infrared LEDs; Using an acceleration sensor and a geomagnetic sensor, an inclination detection unit that detects an inclination of the video presentation device, a relative orientation of the video presentation device viewed from the other video presentation device, and an inclination of the other video presentation device , Detecting the phase difference between the two infrared LEDs based on the communication unit that receives from the other video presentation device via the network and the blinking state of the two infrared LEDs provided in the other video presentation device. Based on the phase difference detected by the phase difference detecting unit and the phase difference detecting unit, between the two infrared LEDs provided in the other video presenting device based on the video presenting device A distance difference estimation unit that estimates a difference, and a position / posture estimation unit that estimates the position and posture of the other video presentation device viewed from the video presentation device, which is used when the multi-screen video content is displayed on the screen. The position / posture estimation unit includes the relative orientation of the other video presentation device viewed from the video presentation device detected by the orientation detection unit, and the other video presentation received by the communication unit. Based on the relative orientation of the video presentation device viewed from the device, the tilt of the video presentation device detected by the tilt detection unit, and the tilt of the other video presentation device received by the communication unit A posture estimation unit that estimates a posture of the other video presentation device viewed from the presentation device; and a relative orientation of the other video presentation device viewed from the video presentation device detected by the orientation detection unit. Accordingly, the azimuth angle of the two infrared LEDs provided in the other video presentation device is calculated, a preset distance between the two infrared LEDs provided in the other video presentation device, the calculated azimuth angle, And a distance estimation unit that estimates a distance between the video presentation device and the other video presentation device based on the distance difference estimated by the distance difference estimation unit, and the video detected by the azimuth detection unit. A position estimation unit that estimates the position of the other video presentation device viewed from the video presentation device based on the relative orientation of the other video presentation device viewed from the presentation device and the distance estimated by the distance estimation unit. And.

また、請求項3の映像提示装置は、マルチスクリーンの映像コンテンツを画面表示する映像提示装置において、当該映像提示装置のデバイスIDをエンコードし、符号を生成するデバイスIDエンコード部と、前記デバイスIDエンコード部により生成された符号に従って点滅する赤外線LEDと、赤外線カメラを用いて、他の映像提示装置に備えた、前記他の映像提示装置のデバイスIDがエンコードされて生成された符号に従って点滅する赤外線LEDを含む全方位赤外線画像を取得する赤外線カメラ画像取得部と、前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記赤外線LEDの位置を特定し、前記赤外線LEDの位置に基づいて、当該映像提示装置から見た前記他の映像提示装置の相対方位を検出する方位検出部と、加速度センサー及び地磁気センサーを用いて、当該映像提示装置の傾きを検出する傾き検出部と、前記他の映像提示装置から見た当該映像提示装置の相対方位、及び前記他の映像提示装置の傾きを、前記他の映像提示装置からネットワークを介して受信する通信部と、全方位距離画像センサーを用いて、前記他の映像提示装置に備えた赤外線LEDを含む距離画像を取得する距離画像取得部と、前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置から見た前記他の映像提示装置の位置及び姿勢を推定する位置・姿勢推定部と、を備え、前記位置・姿勢推定部が、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記通信部により受信された前記他の映像提示装置から見た当該映像提示装置の相対方位、前記傾き検出部により検出された当該映像提示装置の傾き、及び、前記通信部により受信された前記他の映像提示装置の傾きに基づいて、当該映像提示装置から見た前記他の映像提示装置の姿勢を推定する姿勢推定部と、前記距離画像取得部により取得された距離画像に基づいて、当該映像提示装置と前記他の映像提示装置との間の距離を推定する距離推定部と、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、及び前記距離推定部により推定された距離に基づいて、当該映像提示装置から見た前記他の映像提示装置の位置を推定する位置推定部と、を備えたことを特徴とする。   According to a third aspect of the present invention, there is provided a video presentation device that displays a multi-screen video content on a screen, encodes a device ID of the video presentation device, generates a code, and the device ID encoding. Infrared LED flashing according to the code generated by the unit, and infrared LED flashing according to the code generated by encoding the device ID of the other video presentation device provided in the other video presentation device using an infrared camera From the omnidirectional infrared image acquired by the infrared camera image acquisition unit that acquires an omnidirectional infrared image including the infrared camera image acquisition unit, capture the blinking state of the infrared LED provided in the other video presentation device, The position of the infrared LED on the omnidirectional infrared image is specified, and the position of the infrared LED An orientation detection unit that detects a relative orientation of the other video presentation device viewed from the video presentation device, and an inclination detection unit that detects an inclination of the video presentation device using an acceleration sensor and a geomagnetic sensor. A communication unit that receives the relative orientation of the video presentation device viewed from the other video presentation device and the inclination of the other video presentation device from the other video presentation device via a network, and an omnidirectional distance image A distance image acquisition unit that acquires a distance image including an infrared LED provided in the other video presentation device using a sensor, and the video presentation device used when displaying the multi-screen video content on the screen. A position / posture estimator that estimates the position and posture of the other video presentation device, and the position / posture estimator detects the video detected by the azimuth detector The relative orientation of the other video presentation device viewed from the display device, the relative orientation of the video presentation device viewed from the other video presentation device received by the communication unit, and the video presentation detected by the tilt detection unit A posture estimation unit that estimates a posture of the other video presentation device viewed from the video presentation device based on a tilt of the device and a tilt of the other video presentation device received by the communication unit; and the distance Based on the distance image acquired by the image acquisition unit, the distance estimation unit that estimates the distance between the video presentation device and the other video presentation device, and the video presentation device detected by the orientation detection unit A position estimation unit that estimates the position of the other video presentation device viewed from the video presentation device based on the relative orientation of the other video presentation device viewed and the distance estimated by the distance estimation unit; It is characterized by having.

また、請求項4の映像提示装置は、マルチスクリーンの映像コンテンツを画面表示する映像提示装置において、当該映像提示装置のデバイスIDをエンコードし、符号を生成するデバイスIDエンコード部と、前記デバイスIDエンコード部により生成された符号に従って点滅する赤外線LEDと、赤外線カメラを用いて、他の映像提示装置に備えた、前記他の映像提示装置のデバイスIDがエンコードされて生成された符号に従って点滅する赤外線LEDを含む全方位赤外線画像を取得する赤外線カメラ画像取得部と、前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記赤外線LEDの位置を特定し、前記赤外線LEDの位置に基づいて、当該映像提示装置から見た前記他の映像提示装置の相対方位を検出する方位検出部と、加速度センサー及び地磁気センサーを用いて、当該映像提示装置の傾きを検出する傾き検出部と、前記他の映像提示装置から見た当該映像提示装置の相対方位、及び前記他の映像提示装置の傾きを、前記他の映像提示装置からネットワークを介して受信する通信部と、レーザーセンサーを用いて、レーザーを発光し、前記他の映像提示装置に備えた再帰性反射部に反射させ、前記反射したレーザーを受光してレーザー距離を計測するレーザー距離計部と、前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置から見た前記他の映像提示装置の位置及び姿勢を推定する位置・姿勢推定部と、を備え、前記位置・姿勢推定部が、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記通信部により受信された前記他の映像提示装置から見た当該映像提示装置の相対方位、前記傾き検出部により検出された当該映像提示装置の傾き、及び、前記通信部により受信された前記他の映像提示装置の傾きに基づいて、当該映像提示装置から見た前記他の映像提示装置の姿勢を推定する姿勢推定部と、前記レーザー距離計部により計測されたレーザー距離を、当該映像提示装置と前記他の映像提示装置との間の距離とし、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、及び前記距離に基づいて、当該映像提示装置から見た前記他の映像提示装置の位置を推定する位置推定部と、を備えたことを特徴とする。   According to a fourth aspect of the present invention, there is provided a video presentation apparatus that displays a multi-screen video content on a screen, encodes a device ID of the video presentation apparatus, generates a code, and the device ID encoding. Infrared LED flashing according to the code generated by the unit, and infrared LED flashing according to the code generated by encoding the device ID of the other video presentation device provided in the other video presentation device using an infrared camera From the omnidirectional infrared image acquired by the infrared camera image acquisition unit that acquires an omnidirectional infrared image including the infrared camera image acquisition unit, capture the blinking state of the infrared LED provided in the other video presentation device, The position of the infrared LED on the omnidirectional infrared image is specified, and the position of the infrared LED An orientation detection unit that detects a relative orientation of the other video presentation device viewed from the video presentation device, and an inclination detection unit that detects an inclination of the video presentation device using an acceleration sensor and a geomagnetic sensor. A communication unit that receives the relative orientation of the video presentation device viewed from the other video presentation device and the tilt of the other video presentation device from the other video presentation device via a network, and a laser sensor A laser distance meter unit that emits a laser beam, reflects the reflected laser beam to a retroreflecting unit included in the other video presentation device, receives the reflected laser beam, and measures a laser distance; and the multi-screen video content. A position / posture estimator that estimates the position and posture of the other video presentation device viewed from the video presentation device, which is used when displaying on the screen, Relative azimuth of the other video presentation device viewed from the video presentation device detected by the orientation detection unit by the posture estimation unit, and the video presentation device viewed from the other video presentation device received by the communication unit The other orientation viewed from the video presentation device based on the relative orientation of the video presentation device detected by the tilt detection unit and the tilt of the other video presentation device received by the communication unit. The orientation estimation unit that estimates the orientation of the video presentation device, and the laser distance measured by the laser distance meter unit is the distance between the video presentation device and the other video presentation device, and is detected by the orientation detection unit. Position estimation for estimating the position of the other video presentation device viewed from the video presentation device based on the relative orientation of the other video presentation device viewed from the video presentation device and the distance And a section.

また、請求項5の映像提示装置は、マルチスクリーンの映像コンテンツを画面表示する映像提示装置において、当該映像提示装置のデバイスIDをエンコードし、符号を生成するデバイスIDエンコード部と、前記デバイスIDエンコード部により生成された符号に従って点滅する赤外線LEDと、赤外線カメラを用いて、他の映像提示装置に備えた、前記他の映像提示装置のデバイスIDがエンコードされて生成された符号に従って点滅する赤外線LEDを含む全方位赤外線画像を取得する赤外線カメラ画像取得部と、前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記赤外線LEDの位置を特定し、前記赤外線LEDの位置に基づいて、当該映像提示装置から見た前記他の映像提示装置の相対方位を検出する方位検出部と、加速度センサー及び地磁気センサーを用いて、当該映像提示装置の傾きを検出する傾き検出部と、前記他の映像提示装置から見た当該映像提示装置の相対方位、及び前記他の映像提示装置の傾きを、前記他の映像提示装置からネットワークを介して受信する通信部と、前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置から見た前記他の映像提示装置の位置及び姿勢を推定する位置・姿勢推定部と、を備え、前記位置・姿勢推定部が、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記通信部により受信された前記他の映像提示装置から見た当該映像提示装置の相対方位、前記傾き検出部により検出された当該映像提示装置の傾き、及び、前記通信部により受信された前記他の映像提示装置の傾きに基づいて、当該映像提示装置から見た前記他の映像提示装置の姿勢を推定する姿勢推定部と、前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記赤外線LEDのサイズを算出し、前記算出したサイズ、及び予め設定された前記赤外線LEDのサイズに基づいて、当該映像提示装置と前記他の映像提示装置との間の距離を推定する距離推定部と、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、及び前記距離推定部により推定された距離に基づいて、当該映像提示装置から見た前記他の映像提示装置の位置を推定する位置推定部と、を備えたことを特徴とする。   According to a fifth aspect of the present invention, there is provided a video presentation apparatus that displays a multi-screen video content on a screen, encodes a device ID of the video presentation apparatus, generates a code, and the device ID encoding. Infrared LED flashing according to the code generated by the unit, and infrared LED flashing according to the code generated by encoding the device ID of the other video presentation device provided in the other video presentation device using an infrared camera From the omnidirectional infrared image acquired by the infrared camera image acquisition unit that acquires an omnidirectional infrared image including the infrared camera image acquisition unit, capture the blinking state of the infrared LED provided in the other video presentation device, The position of the infrared LED on the omnidirectional infrared image is specified, and the position of the infrared LED An orientation detection unit that detects a relative orientation of the other video presentation device viewed from the video presentation device, and an inclination detection unit that detects an inclination of the video presentation device using an acceleration sensor and a geomagnetic sensor. A communication unit that receives the relative orientation of the video presentation device viewed from the other video presentation device and the inclination of the other video presentation device from the other video presentation device via a network; and A position / posture estimator that estimates the position and posture of the other video presentation device viewed from the video presentation device, which is used when displaying video content on the screen, and the position / posture estimation unit includes the orientation The relative orientation of the other video presentation device viewed from the video presentation device detected by the detection unit, and the video presentation viewed from the other video presentation device received by the communication unit The other viewed from the video presentation device based on the relative orientation of the device, the tilt of the video presentation device detected by the tilt detection unit, and the tilt of the other video presentation device received by the communication unit From the omnidirectional infrared image acquired by the posture estimation unit that estimates the posture of the video presentation device and the infrared camera image acquisition unit, the blinking state of the infrared LED provided in the other video presentation device is captured, and the omnidirectional The size of the infrared LED on the infrared image is calculated, and the distance between the video presentation device and the other video presentation device is estimated based on the calculated size and the preset size of the infrared LED The distance estimation unit, the relative orientation of the other video presentation device viewed from the video presentation device detected by the orientation detection unit, and the distance estimated by the distance estimation unit And a position estimation unit that estimates the position of the other video presentation device viewed from the video presentation device.

また、請求項6の映像提示装置は、請求項1から5までのいずれか一項に記載の映像提示装置において、さらに、前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置を操作するユーザの視点位置を推定する視点位置処理部を備え、前記視点位置処理部が、カメラを用いて、前記ユーザの顔を含む画像を取得するカメラ画像取得部と、前記カメラ画像取得部により取得された画像から、前記ユーザの顔の領域を認識して顔画像を抽出する顔画像抽出部と、前記顔画像抽出部により抽出された顔画像から前記ユーザの目を抽出し、前記カメラ画像取得部により取得された画像上の目の位置を検出し、前記画像上の両方の前記目の間隔を算出し、前記画像上の目の位置及び両方の前記目の間隔、並びに予め設定された両方の目の間隔に基づいて、前記視点位置を推定する視点位置推定部と、を備えたことを特徴とする。   A video presentation device according to claim 6 is the video presentation device according to any one of claims 1 to 5, and further used when displaying the multi-screen video content on a screen. A viewpoint position processing unit that estimates the viewpoint position of the user who operates the camera, and the viewpoint position processing unit uses a camera to acquire an image including the user's face, and the camera image acquisition unit A face image extraction unit for recognizing a region of the user's face and extracting a face image from the image acquired by the method, and extracting the user's eyes from the face image extracted by the face image extraction unit, The position of the eyes on the image acquired by the image acquisition unit is detected, the distance between both eyes on the image is calculated, the position of the eyes on the image, the distance between both eyes, and a preset value. Based on both the eye interval, characterized in that and a viewpoint position estimation unit for estimating the viewpoint position.

また、請求項7の映像提示装置は、請求項1から6までのいずれか一項に記載の映像提示装置において、前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた赤外線LEDの点滅状態を捉え、前記赤外線LEDの点滅状態をデコードし、前記他の映像提示装置のデバイスIDを検出するデバイスIDデコード部を備え、前記通信部が、前記デバイスIDデコード部により検出された前記他の映像提示装置のデバイスIDを用いてネットワークへアクセスし、当該映像提示装置と前記他の映像提示装置との間の通信路を確立する、ことを特徴とする。   The video presentation device according to claim 7 is the video presentation device according to any one of claims 1 to 6, wherein the other video is obtained from an omnidirectional infrared image acquired by the infrared camera image acquisition unit. A device ID decoding unit that detects a blinking state of the infrared LED provided in the presentation device, decodes the blinking state of the infrared LED, and detects a device ID of the other video presentation device; and the communication unit includes the device ID The network is accessed using the device ID of the other video presentation device detected by the decoding unit, and a communication path between the video presentation device and the other video presentation device is established.

さらに、請求項8のプログラムは、コンピュータを、請求項1から7までのいずれか一項に記載の映像提示装置として機能させることを特徴とする。   Furthermore, a program according to an eighth aspect causes a computer to function as the video presentation device according to any one of the first to seventh aspects.

以上のように、本発明によれば、カメラの撮影範囲内に、検出対象の映像提示装置の画面が存在しない場合であっても、映像提示サービスを実現することが可能となる。   As described above, according to the present invention, it is possible to realize the video presentation service even when the screen of the video presentation device to be detected does not exist within the shooting range of the camera.

本発明の実施形態による映像提示装置の使用形態と表示画面例を説明する図である。It is a figure explaining the usage pattern and example of a display screen of the image | video presentation apparatus by embodiment of this invention. 本発明の実施形態による映像提示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the video presentation apparatus by embodiment of this invention. 位置・姿勢処理部の処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of a process of a position and attitude | position process part. 位置・姿勢処理部の処理の概要を説明する図である。It is a figure explaining the outline | summary of a process of a position and attitude | position process part. 映像提示装置の相対方位、距離、傾き値、位置及び姿勢を説明する図である。It is a figure explaining the relative azimuth | direction, distance, inclination value, a position, and attitude | position of an image | video presentation apparatus. サーバの構成を示すブロック図である。It is a block diagram which shows the structure of a server. デバイスIDデータベースのデータ構成を示す図である。It is a figure which shows the data structure of a device ID database. 実施例1の位置・姿勢処理部の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a position / posture processing unit according to the first exemplary embodiment. 実施例2の位置・姿勢処理部の構成を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration of a position / posture processing unit according to a second embodiment. 実施例3の位置・姿勢処理部の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a position / posture processing unit according to a third embodiment. 実施例4の位置・姿勢処理部の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a position / posture processing unit according to a fourth embodiment. 実施例5の位置・姿勢処理部の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a position / posture processing unit according to a fifth embodiment. 相対方位及びデバイスID検出処理(実施例1〜5)を示すフローチャートである。It is a flowchart which shows a relative azimuth | direction and device ID detection process (Examples 1-5). 通信路確立処理(実施例1〜5)を示すフローチャートである。It is a flowchart which shows a communication path establishment process (Examples 1-5). デバイスID出力処理(実施例1)を示すフローチャートである。It is a flowchart which shows a device ID output process (Example 1). 位置・姿勢推定処理(実施例1〜5)を示すフローチャートである。It is a flowchart which shows a position and attitude | position estimation process (Examples 1-5). 位置・姿勢推定部の構成を示すブロック図である。It is a block diagram which shows the structure of a position and attitude | position estimation part. 距離推定部の入出力データ及び処理を説明する図である。It is a figure explaining the input-output data and process of a distance estimation part. 実施例1において距離dを推定する処理を説明する図である。It is a figure explaining the process which estimates the distance d in Example 1. FIG. 実施例2において距離dを推定する処理を説明する図である。It is a figure explaining the process which estimates the distance d in Example 2. FIG. 姿勢推定処理(実施例1〜5)を示すフローチャートである。It is a flowchart which shows an attitude | position estimation process (Examples 1-5). 本発明の他の実施形態による映像提示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the video presentation apparatus by other embodiment of this invention. 視点位置処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a viewpoint position process part. 視点位置処理部の処理を示すフローチャートである。It is a flowchart which shows the process of a viewpoint position process part. 姿勢推定処理(実施例1〜5)を説明する図である。It is a figure explaining attitude | position estimation processing (Examples 1-5).

以下、本発明を実施するための形態について図面を用いて詳細に説明する。
図1は、本発明の実施形態による映像提示装置の使用形態と表示画面例を説明する図である。この映像提示システムは、2台の映像提示装置1a,1b及びサーバ2により構成され、映像提示装置1a,1b及びサーバ2は、インターネット等の有線及び無線のネットワークを介して接続される。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram illustrating a usage pattern and a display screen example of a video presentation device according to an embodiment of the present invention. This video presentation system includes two video presentation devices 1a and 1b and a server 2, and the video presentation devices 1a and 1b and the server 2 are connected via wired and wireless networks such as the Internet.

映像提示システムは、映像提示装置1bが、映像コンテンツを画面表示し、映像提示装置1aを操作するユーザが、映像提示装置1aに内蔵されたカメラを用いて映像提示装置1bの画面を撮像し、映像提示装置1aが、カメラ入力の画像に含まれる映像コンテンツに、当該映像コンテンツに関連するサブコンテンツをオーバーレイ表示することを前提とする。   In the video presentation system, the video presentation device 1b displays video content on the screen, and a user who operates the video presentation device 1a captures the screen of the video presentation device 1b using a camera built in the video presentation device 1a. It is assumed that the video presentation device 1a overlay-displays the sub content related to the video content on the video content included in the camera input image.

本発明の実施形態では、このような映像提示装置1aの画面に対し、映像提示装置1bに画面表示された映像コンテンツにサブコンテンツをオーバーレイ表示する際に、映像提示装置1aの画面内に映像提示装置1bの画面が存在しない場合であっても、映像コンテンツとの関係でサブコンテンツを継続して表示することができるように、新たな映像表現を可能とする映像提示サービスを実現するために、映像提示装置1aから見た映像提示装置1bの位置及び姿勢を推定する。   In the embodiment of the present invention, when a sub-content is displayed as an overlay on the video content displayed on the video presentation device 1b on the screen of the video presentation device 1a, the video presentation is presented on the screen of the video presentation device 1a. In order to realize a video presentation service that enables new video expression so that sub-content can be continuously displayed in relation to video content even when the screen of the device 1b does not exist. The position and orientation of the video presentation device 1b viewed from the video presentation device 1a are estimated.

図1では、映像コンテンツが宇宙船の動画像であり、サブコンテンツが星である場合の例を示す。映像提示装置1bの画面には、映像コンテンツとして宇宙船の動画像が表示されている。また、ユーザにより操作される映像提示装置1aの画面には、映像提示装置1aのカメラから取り込んだ映像提示装置1bの画面に表示された宇宙船の動画像と、宇宙船の動画像に同期した星とが表示されている。ここで、映像提示装置1aは、映像提示装置1bの位置及び姿勢を推定し、その後、ユーザにより映像提示装置1aの向きが変化する等して、映像提示装置1aの画面内に映像提示装置1bの画面が存在しなくなったとしても、表示されていない宇宙船の動画像との関係において、サブコンテンツである星を継続して表示する。   FIG. 1 shows an example in which the video content is a spaceship moving image and the sub-content is a star. On the screen of the video presentation device 1b, a moving image of the spacecraft is displayed as video content. The screen of the video presentation device 1a operated by the user is synchronized with the moving image of the spacecraft displayed on the screen of the video presentation device 1b captured from the camera of the video presentation device 1a and the moving image of the spacecraft. A star is displayed. Here, the video presentation device 1a estimates the position and orientation of the video presentation device 1b, and then the orientation of the video presentation device 1a is changed by the user, and the video presentation device 1b is displayed in the screen of the video presentation device 1a. Even if the screen no longer exists, the sub-content star is continuously displayed in relation to the moving image of the spacecraft that is not displayed.

映像提示装置1aは、例えば、電話機能、カメラによる撮影機能及びインターネット等のネットワークにアクセスする通信機能を有する携帯電話機、タブレット端末等である。また、映像提示装置1bは、例えば、映像コンテンツの放送波を受信して復号し、再生する再生装置、TVまたはデジタルサイネージ等である。   The video presentation device 1a is, for example, a mobile phone, a tablet terminal, or the like having a telephone function, a camera photographing function, and a communication function for accessing a network such as the Internet. The video presentation device 1b is, for example, a playback device, a TV, a digital signage, or the like that receives a broadcast wave of video content, decodes it, and plays it back.

尚、映像提示装置1a,1bは、同じ機能を有する装置であってもよいし、異なる機能を有する装置であってもよい。本発明は、映像提示装置1a,1bを図1に示した使用形態等に限定するものではない。   The video presentation devices 1a and 1b may be devices having the same function or devices having different functions. The present invention does not limit the video presentation devices 1a and 1b to the usage pattern shown in FIG.

〔映像提示装置〕
次に、図1に示した映像提示装置1a,1b(総称して、映像提示装置1という。)について説明する。図2は、本発明の実施形態による映像提示装置1の構成を示すブロック図である。この映像提示装置1は、マルチスクリーンの映像コンテンツを画面表示するために、位置・姿勢処理部3及び提示処理部4を備えている。また、図2には図示していないが、映像提示装置1は、さらに、位置・姿勢処理部3にて用いる赤外線カメラ、赤外線LED等を備え、提示処理部4にて用いるカメラを備えている。
[Video presentation device]
Next, the video presentation devices 1a and 1b (collectively referred to as the video presentation device 1) shown in FIG. 1 will be described. FIG. 2 is a block diagram showing a configuration of the video presentation device 1 according to the embodiment of the present invention. The video presentation device 1 includes a position / posture processing unit 3 and a presentation processing unit 4 for displaying multi-screen video content on the screen. Although not shown in FIG. 2, the video presentation device 1 further includes an infrared camera, an infrared LED, and the like used in the position / posture processing unit 3 and a camera used in the presentation processing unit 4. .

映像提示装置1の位置・姿勢処理部3は、図示しない赤外線LEDから当該映像提示装置1のデバイスIDを反映した全方位赤外線を出力し、図示しない赤外線カメラを用いて、検出対象である他の映像提示装置1を撮影した全方位赤外線カメラ画像を取得する等して、当該映像提示装置1から見た他の映像提示装置1(当該映像提示装置1を基準とした他の映像提示装置1)の位置及び姿勢を推定する。   The position / posture processing unit 3 of the video presentation device 1 outputs an omnidirectional infrared ray reflecting the device ID of the video presentation device 1 from an infrared LED (not shown), and uses another infrared camera (not shown) to detect other Other video presentation devices 1 viewed from the video presentation device 1 by acquiring an omnidirectional infrared camera image obtained by photographing the video presentation device 1 (other video presentation devices 1 based on the video presentation device 1) Is estimated.

提示処理部4は、図示しないカメラを用いて他の映像提示装置1の画面に表示された映像コンテンツの画像を取得すると共に、位置・姿勢処理部3により推定された他の映像提示装置1の位置及び姿勢に関する情報(位置情報及び姿勢情報)を入力する。そして、提示処理部4は、例えば、図1の映像提示装置1aの画面に示したように、カメラ入力の画像に含まれる映像コンテンツに、当該映像コンテンツに関連するサブコンテンツをオーバーレイ表示する。   The presentation processing unit 4 acquires an image of the video content displayed on the screen of another video presentation device 1 using a camera (not shown), and the other video presentation device 1 estimated by the position / posture processing unit 3. Information on position and orientation (position information and orientation information) is input. Then, for example, as shown on the screen of the video presentation apparatus 1a in FIG. 1, the presentation processing unit 4 displays the sub-contents related to the video content on the video content included in the image input by the camera.

〔位置・姿勢処理部3〕
次に、図2に示した位置・姿勢処理部3の処理の概要について説明する。図3は、位置・姿勢処理部3の処理の概要を示すフローチャートであり、図4は、位置・姿勢処理部3の処理の概要を説明する図であり、図5は、映像提示装置1の相対方位、距離、傾き値、位置及び姿勢を説明する図である。以下、映像提示装置1aに備えた位置・姿勢処理部3が、映像提示装置1aから見た映像提示装置1bの位置及び姿勢を推定する場合について説明する。
[Position / Attitude Processing Unit 3]
Next, the outline of the processing of the position / posture processing unit 3 shown in FIG. 2 will be described. 3 is a flowchart showing an outline of the processing of the position / posture processing unit 3, FIG. 4 is a diagram for explaining the outline of the processing of the position / posture processing unit 3, and FIG. It is a figure explaining a relative azimuth | direction, a distance, an inclination value, a position, and an attitude | position. Hereinafter, a case where the position / posture processing unit 3 included in the video presentation device 1a estimates the position and posture of the video presentation device 1b viewed from the video presentation device 1a will be described.

図3及び図4を参照して、映像提示装置1aの位置・姿勢処理部3は、まず、赤外線カメラを用いて、映像提示装置1bに備えた赤外線LEDを含む全方位赤外線画像を取得する(ステップS301)。そして、位置・姿勢処理部3は、全方位赤外線画像に基づいて、当該映像提示装置1aから見た映像提示装置1bの相対方位を検出し、赤外線LEDの点滅状態から映像提示装置1bのデバイスIDを検出する(ステップS302)。   With reference to FIG.3 and FIG.4, the position and attitude | position process part 3 of the video presentation apparatus 1a acquires the omnidirectional infrared image containing the infrared LED with which the video presentation apparatus 1b was equipped first using an infrared camera ( Step S301). Then, the position / posture processing unit 3 detects the relative orientation of the video presentation device 1b viewed from the video presentation device 1a based on the omnidirectional infrared image, and the device ID of the video presentation device 1b from the blinking state of the infrared LED. Is detected (step S302).

図5を参照して、映像提示装置1aに対して予め設定された座標(x軸、y軸及びz軸)を想定する。映像提示装置1aから見た映像提示装置1bの相対方位は、xyz軸の空間において、映像提示装置1aに備えた赤外線カメラの位置から、映像提示装置1bに備えた赤外線LED(後述する赤外線LED36等)の位置への向きを示す。   With reference to FIG. 5, the coordinates (x axis, y axis, and z axis) preset for the video presentation device 1a are assumed. The relative orientation of the video presentation device 1b viewed from the video presentation device 1a is determined from the position of the infrared camera provided in the video presentation device 1a in the xyz-axis space, and the infrared LED (such as an infrared LED 36 described later) provided in the video presentation device 1b. ) Indicates the direction to the position.

図3及び図4に戻って、映像提示装置1aの位置・姿勢処理部3は、ステップS302にて検出した映像提示装置1bのデバイスIDに基づいてサーバ2へアクセスし、当該映像提示装置1aとデバイスIDが検出された映像提示装置1b(検出済み映像提示装置1b)との間の通信路を確立する(ステップS303)。   3 and 4, the position / posture processing unit 3 of the video presentation device 1a accesses the server 2 based on the device ID of the video presentation device 1b detected in step S302, and the video presentation device 1a A communication path is established with the video presentation device 1b (detected video presentation device 1b) from which the device ID has been detected (step S303).

映像提示装置1aの位置・姿勢処理部3は、映像提示装置1bから、映像提示装置1bから見た映像提示装置1aの相対方位を受信する(ステップS304)。この場合、映像提示装置1bは、ステップS302と同様の処理により、映像提示装置1bから見た映像提示装置1aの相対方位を検出済みであるものとする。   The position / posture processing unit 3 of the video presentation device 1a receives the relative orientation of the video presentation device 1a viewed from the video presentation device 1b from the video presentation device 1b (step S304). In this case, it is assumed that the video presentation device 1b has detected the relative orientation of the video presentation device 1a viewed from the video presentation device 1b by the same processing as in step S302.

映像提示装置1aの位置・姿勢処理部3は、映像提示装置1aに備えた加速度センサー及び地磁気センサーを用いて、映像提示装置1aの絶対的な傾き値(映像提示装置1aに備えた加速度センサーによる絶対的な傾き値及び地磁気センサーによる絶対的な傾き値)を検出する(ステップS305)。そして、位置・姿勢処理部3は、映像提示装置1bから、映像提示装置1bの絶対的な傾き値(映像提示装置1bに備えた加速度センサーによる絶対的な傾き値及び地磁気センサーによる絶対的な傾き値)を受信する(ステップS306)。   The position / posture processing unit 3 of the video presentation device 1a uses an acceleration sensor and a geomagnetic sensor provided in the video presentation device 1a to determine an absolute inclination value of the video presentation device 1a (according to an acceleration sensor provided in the video presentation device 1a). The absolute inclination value and the absolute inclination value obtained by the geomagnetic sensor are detected (step S305). Then, the position / posture processing unit 3 sends the absolute inclination value of the video presentation device 1b from the video presentation device 1b (the absolute inclination value by the acceleration sensor provided in the video presentation device 1b and the absolute inclination by the geomagnetic sensor). Value) is received (step S306).

図5を参照して、前述と同様に、映像提示装置1aに対して予め設定された座標(x軸、y軸及びz軸)を想定する。加速度センサーによる絶対的な傾き値は、加速度の強さ及び方向を3次元の加速度ベクトル(xg,yg,zg)として表した値である。尚、映像提示装置1aが静止している場合、加速度センサーによる絶対的な傾き値は、重力の方向(鉛直方向)を示す。映像提示装置1aは、映像提示装置1aが静止しているときの加速度センサーによる絶対的な傾き値を認識するものとし、また、映像提示装置1bから、映像提示装置1bが静止しているときの加速度センサーによる絶対的な傾き値を受信し、それを認識するものとする。例えば、映像提示装置1aは、絶対的な傾き値が一定時間変化しないときに(一定時間かつ所定範囲内で変化しているときに)、その値を、鉛直方向の値として認識する。 With reference to FIG. 5, the coordinates (x axis, y axis, and z axis) set in advance for the video presentation device 1a are assumed in the same manner as described above. The absolute inclination value by the acceleration sensor is a value representing the intensity and direction of acceleration as a three-dimensional acceleration vector (x g , y g , z g ). When the video presentation device 1a is stationary, the absolute inclination value by the acceleration sensor indicates the direction of gravity (vertical direction). The video presentation device 1a recognizes an absolute inclination value by the acceleration sensor when the video presentation device 1a is stationary, and also when the video presentation device 1b is stationary from the video presentation device 1b. It is assumed that the absolute inclination value by the acceleration sensor is received and recognized. For example, when the absolute inclination value does not change for a certain time (when it changes for a certain time and within a predetermined range), the video presentation device 1a recognizes the value as a value in the vertical direction.

また、地磁気センサーによる絶対的な傾き値は、加速度の強さ及び方向を3次元の地磁気ベクトル(xc,yc,zc)として表した値である。尚、映像提示装置1aが静止している場合、地磁気センサーによる絶対的な傾き値は、周囲の磁性体の影響を受けないときに、北磁極(または南磁極)方向を示す。映像提示装置1aは、映像提示装置1aが静止しているときの地磁気センサーによる絶対的な傾き値を認識するものとし、また、映像提示装置1bから、映像提示装置1bが静止しているときの地磁気センサーによる絶対的な傾き値を受信し、それを認識するものとする。映像提示装置1aは、絶対的な傾き値が一定時間変化しないときに(一定時間かつ所定範囲内で変化しているときに)、その値を、北磁極(または南磁極)方向の値として認識する。以下、映像提示装置1aが静止しているときの地磁気センサーによる絶対的な傾き値を北磁極方向の値として説明する。 In addition, the absolute inclination value by the geomagnetic sensor is a value representing the intensity and direction of acceleration as a three-dimensional geomagnetic vector (x c , y c , z c ). When the video presentation device 1a is stationary, the absolute inclination value by the geomagnetic sensor indicates the direction of the north magnetic pole (or the south magnetic pole) when not affected by the surrounding magnetic material. The video presentation device 1a recognizes an absolute inclination value by the geomagnetic sensor when the video presentation device 1a is stationary, and also when the video presentation device 1b is stationary from the video presentation device 1b. It is assumed that an absolute inclination value from the geomagnetic sensor is received and recognized. When the absolute inclination value does not change for a certain period of time (when it changes for a certain period of time and within a predetermined range), the video presentation device 1a recognizes the value as a value in the north magnetic pole (or south magnetic pole) direction. To do. Hereinafter, the absolute inclination value by the geomagnetic sensor when the video presentation device 1a is stationary will be described as the value in the north magnetic pole direction.

図3及び図4に戻って、映像提示装置1aの位置・姿勢処理部3は、映像提示装置1aから見た映像提示装置1bの姿勢を推定し(ステップS307)、映像提示装置1aと映像提示装置1bとの間の距離dを推定し、映像提示装置1aから見た映像提示装置1bの位置を推定する(ステップS308)。尚、図3に示した同様の処理により、映像提示装置1bの位置・姿勢処理部3は、映像提示装置1bから見た映像提示装置1aの位置及び姿勢を推定することができる。   3 and 4, the position / posture processing unit 3 of the video presentation device 1a estimates the posture of the video presentation device 1b viewed from the video presentation device 1a (step S307), and the video presentation device 1a and the video presentation are presented. The distance d to the device 1b is estimated, and the position of the video presentation device 1b viewed from the video presentation device 1a is estimated (step S308). Note that the position / posture processing unit 3 of the video presentation device 1b can estimate the position and posture of the video presentation device 1a viewed from the video presentation device 1b by the same processing shown in FIG.

図5を参照して、映像提示装置1aと映像提示装置1bとの間の距離は、映像提示装置1aに備えた赤外線カメラと映像提示装置1bに備えた赤外線LEDとの間の距離dを示す。また、映像提示装置1aから見た映像提示装置1bの位置(相対位置)は、xyz軸の空間において、映像提示装置1aが存在する位置を基準として、映像提示装置1bに備えた赤外線LED(後述する赤外線LED36等)の座標(xb,yb,zb)を示す。つまり、映像提示装置1aから見た映像提示装置1bの位置は、映像提示装置1から見た映像提示装置1bの相対方位及び距離dにより定められる。 Referring to FIG. 5, the distance between the video presentation device 1a and the video presentation device 1b indicates the distance d between the infrared camera provided in the video presentation device 1a and the infrared LED provided in the video presentation device 1b. . The position (relative position) of the video presentation device 1b viewed from the video presentation device 1a is an infrared LED (described later) provided in the video presentation device 1b with reference to the position where the video presentation device 1a exists in the xyz-axis space. The coordinates (x b , y b , z b ) of the infrared LED 36 or the like to be displayed are shown. That is, the position of the video presentation device 1b viewed from the video presentation device 1a is determined by the relative orientation and the distance d of the video presentation device 1b viewed from the video presentation device 1.

また、映像提示装置1aから見た映像提示装置1bの姿勢(相対姿勢)は、xyz軸の空間において、例えばオイラー角のように、xyz軸回りの回転を繰り返すことにより表した値である。映像提示装置1aから見た映像提示装置1bの姿勢は、映像提示装置1aの姿勢を基準として(映像提示装置1aに対して予め設定されたxyz軸を基準として)、映像提示装置1bの傾きであるx軸に対する回転角度θxb、y軸に対する回転角度θyb及びz軸に対する回転角度θzb、すなわち(θxb,θyb,θzb)を示す。 Further, the posture (relative posture) of the video presentation device 1b viewed from the video presentation device 1a is a value expressed by repeating rotation around the xyz axis in the xyz axis space, for example, like Euler angles. The posture of the video presentation device 1b viewed from the video presentation device 1a is based on the tilt of the video presentation device 1b with respect to the posture of the video presentation device 1a (based on the xyz axis preset for the video presentation device 1a). A rotation angle θ xb with respect to a certain x axis, a rotation angle θ yb with respect to the y axis, and a rotation angle θ zb with respect to the z axis, that is, (θ xb , θ yb , θ zb ) are shown.

〔サーバ2〕
次に、図1に示したサーバ2について説明する。図6は、サーバ2の構成を示すブロック図である。このサーバ2は、通信部21及びデバイスIDデータベース22を備えている。通信部21は、ネットワークを介して映像提示装置1(映像提示装置1a,1b等)と通信を行う。また、通信部21は、映像提示装置1からのクエリーに基づいて、当該クエリーが示すデバイスIDのネットワークアドレスをデバイスIDデータベース22から読み出し、読み出したネットワークアドレスを、クエリーを送信してきた映像提示装置1へ返信する。
[Server 2]
Next, the server 2 shown in FIG. 1 will be described. FIG. 6 is a block diagram showing the configuration of the server 2. The server 2 includes a communication unit 21 and a device ID database 22. The communication unit 21 communicates with the video presentation device 1 (video presentation devices 1a, 1b, etc.) via a network. Further, based on the query from the video presentation device 1, the communication unit 21 reads out the network address of the device ID indicated by the query from the device ID database 22, and the video presentation device 1 that has transmitted the query with the read network address. Reply to

図7は、デバイスIDデータベース22のデータ構成を示す図である。デバイスIDデータベース22は、デバイスID及びネットワークアドレスが対となって構成される。   FIG. 7 is a diagram illustrating a data configuration of the device ID database 22. The device ID database 22 includes a device ID and a network address as a pair.

尚、サーバ2は、映像提示装置1からデバイスIDを含むクエリーを受信し、当該クエリーに対応するネットワークアドレスを、クエリーを送信してきた映像提示装置1へ返信するように構成したが、2台の映像提示装置1間の通信を仲介するように構成してもよい。   The server 2 is configured to receive a query including a device ID from the video presentation device 1 and return a network address corresponding to the query to the video presentation device 1 that has transmitted the query. You may comprise so that communication between the video presentation apparatuses 1 may be mediated.

次に、図2に示した位置・姿勢処理部3について、実施例1〜5を挙げて説明する。以下、映像提示装置1aに備えた位置・姿勢処理部3が、映像提示装置1aから見た映像提示装置1bの位置及び姿勢を推定する場合について説明する。   Next, the position / posture processing unit 3 illustrated in FIG. 2 will be described with reference to Examples 1 to 5. Hereinafter, a case where the position / posture processing unit 3 included in the video presentation device 1a estimates the position and posture of the video presentation device 1b viewed from the video presentation device 1a will be described.

〔実施例1/位置・姿勢処理部3〕
まず、実施例1の位置・姿勢処理部3について説明する。実施例1の位置・姿勢処理部3は、映像提示装置1aから見た映像提示装置1bの位置及び姿勢を推定するために、映像提示装置1bに備えた赤外線LEDを撮影する赤外線カメラ、並びに、絶対的な傾き値を検出する加速度センサー及び地磁気センサーを用いるものである。
[Example 1 / Position / Attitude Processing Unit 3]
First, the position / posture processing unit 3 according to the first embodiment will be described. In order to estimate the position and orientation of the video presentation device 1b viewed from the video presentation device 1a, the position / posture processing unit 3 according to the first embodiment captures an infrared LED provided in the video presentation device 1b, and An acceleration sensor and a geomagnetic sensor for detecting an absolute inclination value are used.

図8は、実施例1の位置・姿勢処理部3の構成を示すブロック図である。この実施例1の位置・姿勢処理部3−1は、赤外線カメラ画像取得部31、方位検出部32、デバイスIDデコード部33、デバイスID記憶部34、デバイスIDエンコード部35、赤外線LED36,37、通信部38、傾き検出部39及び位置・姿勢推定部40を備えている。   FIG. 8 is a block diagram illustrating a configuration of the position / posture processing unit 3 according to the first embodiment. The position / posture processing unit 3-1 of the first embodiment includes an infrared camera image acquisition unit 31, an orientation detection unit 32, a device ID decoding unit 33, a device ID storage unit 34, a device ID encoding unit 35, infrared LEDs 36 and 37, A communication unit 38, an inclination detection unit 39, and a position / posture estimation unit 40 are provided.

図13は、相対方位及びデバイスID検出処理を示すフローチャートであり、実施例1〜5共通の処理である。図14は、通信路確立処理を示すフローチャートであり、実施例1〜5共通の処理である。図15は、デバイスID出力処理を示すフローチャートである。図16は、位置・姿勢推定処理を示すフローチャートであり、実施例1〜5共通の処理である。   FIG. 13 is a flowchart showing a relative orientation and device ID detection process, which is a process common to the first to fifth embodiments. FIG. 14 is a flowchart showing a communication path establishment process, which is a process common to the first to fifth embodiments. FIG. 15 is a flowchart showing device ID output processing. FIG. 16 is a flowchart showing a position / posture estimation process, which is a process common to the first to fifth embodiments.

(相対方位及びデバイスID検出処理)
まず、相対方位及びデバイスID検出処理について説明する。図8及び図13を参照して、赤外線カメラ画像取得部31は、赤外線カメラを用いて、映像提示装置1bに備えた赤外線LED36,37を含む全方位赤外線画像を取得する(ステップS1301)。
(Relative direction and device ID detection processing)
First, the relative orientation and device ID detection process will be described. With reference to FIG.8 and FIG.13, the infrared camera image acquisition part 31 acquires the omnidirectional infrared image containing infrared LED36,37 with which the video presentation apparatus 1b was equipped using an infrared camera (step S1301).

方位検出部32は、赤外線カメラ画像取得部31により取得された全方位赤外線画像を入力し、全方位赤外線画像から、映像提示装置1bに備えた赤外線LED36,37を検出する(ステップS1302)。映像提示装置1bに備えた赤外線LED36,37は、後述するように、映像提示装置1bのデバイスIDを反映して点滅する。方位検出部32は、予め設定されたデバイスIDの点滅状態に照らして、所定時間の全方位赤外線画像から、映像提示装置1bのデバイスIDが反映された点滅状態を捉える。そして、方位検出部32は、全方位赤外線画像において、映像提示装置1bに備えた赤外線LED36,37を検出し、その位置を特定する。   The azimuth detection unit 32 inputs the omnidirectional infrared image acquired by the infrared camera image acquisition unit 31, and detects the infrared LEDs 36 and 37 provided in the video presentation device 1b from the omnidirectional infrared image (step S1302). As will be described later, the infrared LEDs 36 and 37 provided in the video presentation device 1b blink to reflect the device ID of the video presentation device 1b. The azimuth detecting unit 32 captures the blinking state in which the device ID of the video presentation device 1b is reflected from the omnidirectional infrared image for a predetermined time in light of the preset blinking state of the device ID. And the direction detection part 32 detects infrared LED36,37 with which the video presentation apparatus 1b was equipped in the omnidirectional infrared image, and pinpoints the position.

方位検出部32は、ステップS1302にて検出した映像提示装置1bに備えた赤外線LED36,37の位置に基づいて、映像提示装置1aから見た映像提示装置1bの相対方位(映像提示装置1aに備えた赤外線カメラの位置から、映像提示装置1bに備えた赤外線LED36,37の位置への向き)を検出する(ステップS1303)。   Based on the positions of the infrared LEDs 36 and 37 provided in the video presentation device 1b detected in step S1302, the orientation detection unit 32 is provided with the relative orientation of the video presentation device 1b viewed from the video presentation device 1a (provided in the video presentation device 1a). From the position of the infrared camera, the direction of the infrared LEDs 36 and 37 provided in the video presentation device 1b is detected (step S1303).

例えば、方位検出部32は、LED識別情報として、映像提示装置1bの赤外線LED36,37のそれぞれについて、全方位赤外線画像における赤外線LED36,37の位置の座標と、映像提示装置1bのデバイスID及びLEDの番号とを対応付けた情報を保持する。また、方位検出部32は、LED相対方位情報として、映像提示装置1bの赤外線LED36,37のそれぞれについて、全方位赤外線画像における赤外線LED36,37の位置の座標と、相対方位(映像提示装置1aに備えた赤外線カメラの位置から、映像提示装置1bに備えた赤外線LED36,37の位置への単位ベクトルまたは角度(水平角及び仰角))を保持する。   For example, the orientation detection unit 32 uses the coordinates of the positions of the infrared LEDs 36 and 37 in the omnidirectional infrared image, the device ID and the LED of the video presentation device 1b as the LED identification information for each of the infrared LEDs 36 and 37 of the video presentation device 1b. Information associated with each number is stored. Further, the azimuth detecting unit 32 uses, as the LED relative azimuth information, the coordinates of the positions of the infrared LEDs 36 and 37 in the omnidirectional infrared image and the relative azimuth (in the video presentation device 1a) for each of the infrared LEDs 36 and 37 of the video presentation device 1b. The unit vector or angle (horizontal angle and elevation angle) from the position of the provided infrared camera to the position of the infrared LEDs 36 and 37 provided in the video presentation device 1b is held.

以下では、特に断りがない限り、赤外線LED36,37の相対方位を単に相対方位と呼ぶことにする。すなわち、実施例1では、相対方位は、映像提示装置1aから見た映像提示装置1bに備えた赤外線LED36,37のそれぞれの相対方位を示し、後述する実施例2も同様である。後述する実施例3,4では、相対方位は、映像提示装置1aから見た映像提示装置1bに備えた赤外線LED36の相対方位を示し、後述する実施例5では、相対方位は、映像提示装置1aから見た映像提示装置1bに備えた球型赤外線LED49の相対方位を示す。   Hereinafter, unless otherwise specified, the relative orientation of the infrared LEDs 36 and 37 is simply referred to as a relative orientation. That is, in Example 1, the relative orientation indicates the relative orientation of each of the infrared LEDs 36 and 37 provided in the video presentation device 1b viewed from the video presentation device 1a, and the same applies to Example 2 described later. In Examples 3 and 4 to be described later, the relative orientation indicates the relative orientation of the infrared LED 36 provided in the video presentation device 1b viewed from the video presentation device 1a. In Example 5 to be described later, the relative orientation is the video presentation device 1a. The relative azimuth | direction of spherical infrared LED49 with which the video presentation apparatus 1b seen from was shown is shown.

通信部38は、方位検出部32により検出された相対方位を入力し、映像提示装置1bからの要求(映像提示装置1bからデバイスIDを受信する等の要求)に従い、入力した相対方位を、ネットワーク(後述する図14のステップS1402にて確立した通信路)を介して映像提示装置1bへ送信する。   The communication unit 38 inputs the relative azimuth detected by the azimuth detecting unit 32, and in accordance with a request from the video presentation device 1b (request for receiving a device ID from the video presentation device 1b), It transmits to the video presentation apparatus 1b via (the communication path established in step S1402 in FIG. 14 described later).

デバイスIDデコード部33は、赤外線カメラ画像取得部31により取得された全方位赤外線画像を入力し、所定時間の全方位赤外線画像から、予め設定されたデバイスIDの点滅状態に照らして、映像提示装置1bのデバイスIDが反映された、映像提示装置1bに備えた赤外線LED36の点滅状態を捉える。そして、デバイスIDデコード部33は、点滅状態をデコードすることで、そのデバイスID(検出済みデバイスID)を検出する(ステップS1304)。   The device ID decoding unit 33 inputs the omnidirectional infrared image acquired by the infrared camera image acquisition unit 31, and from the omnidirectional infrared image for a predetermined time, in accordance with the flashing state of the preset device ID, the video presentation device The blinking state of the infrared LED 36 provided in the video presentation device 1b, in which the device ID 1b is reflected, is captured. Then, the device ID decoding unit 33 detects the device ID (detected device ID) by decoding the blinking state (step S1304).

また、デバイスIDデコード部33は、全方位赤外線画像から、映像提示装置1bに備えた赤外線LED36に加え、赤外線LED37も検出し、赤外線LED36,37の位置をそれぞれ特定する。そして、デバイスIDデコード部33は、映像提示装置1bに備えた赤外線LED36,37を識別するためのLED識別情報(全方位赤外線画像内の位置を特定可能な識別情報)を生成し、LED識別情報を後述する位置・姿勢推定部40に出力する。   The device ID decoding unit 33 also detects the infrared LED 37 in addition to the infrared LED 36 provided in the video presentation device 1b from the omnidirectional infrared image, and specifies the positions of the infrared LEDs 36 and 37, respectively. And the device ID decoding part 33 produces | generates the LED identification information (identification information which can pinpoint the position in an omnidirectional infrared image) for identifying infrared LED36,37 with which the video presentation apparatus 1b was equipped, and LED identification information Is output to a position / posture estimation unit 40 described later.

(通信路確立処理)
次に、通信路確立処理について説明する。図8及び図14を参照して、通信部38は、デバイスIDデコード部33により検出された検出済みデバイスIDを含むクエリーを生成し、当該クエリーをサーバ2へ送信することで、サーバ2へアクセスする(ステップS1401)。
(Communication channel establishment processing)
Next, the communication path establishment process will be described. With reference to FIG. 8 and FIG. 14, the communication unit 38 generates a query including the detected device ID detected by the device ID decoding unit 33, and transmits the query to the server 2 to access the server 2. (Step S1401).

通信部38は、サーバ2から、検出済みデバイスIDに対応するネットワークアドレス(映像提示装置1bのネットワークアドレス)を受信し、当該映像提示装置1aと検出済み映像提示装置1bとの間の通信路を確立する(ステップS1402)。これにより、映像提示装置1aと映像提示装置1bとの間で、必要なときに必要なデータを送受信することができる。映像提示装置1aと映像提示装置1bとの間のデータ送受信は、サーバ2を介して行うようにしてもよいし、両装置間で直接行うようにしてもよい。   The communication unit 38 receives a network address (network address of the video presentation device 1b) corresponding to the detected device ID from the server 2, and establishes a communication path between the video presentation device 1a and the detected video presentation device 1b. Establish (step S1402). Thereby, necessary data can be transmitted and received between the video presentation device 1a and the video presentation device 1b when necessary. Data transmission / reception between the video presentation device 1a and the video presentation device 1b may be performed via the server 2, or may be performed directly between the two devices.

(デバイスID出力処理)
次に、デバイスID出力処理について説明する。図8及び図15を参照して、デバイスIDエンコード部35は、デバイスID記憶部34から当該映像提示装置1aのデバイスIDを読み出す(ステップS1501)。デバイスID記憶部34には、当該映像提示装置1aを識別するためのデバイスIDが格納されているものとする。そして、デバイスIDエンコード部35は、デバイスIDをエンコードし、異なる2つの符号A,Bを生成する(ステップS1502)。
(Device ID output processing)
Next, device ID output processing will be described. With reference to FIG.8 and FIG.15, the device ID encoding part 35 reads the device ID of the said video presentation apparatus 1a from the device ID memory | storage part 34 (step S1501). It is assumed that a device ID for identifying the video presentation device 1a is stored in the device ID storage unit 34. Then, the device ID encoding unit 35 encodes the device ID and generates two different codes A and B (step S1502).

デバイスIDエンコード部35は、ステップS1502にて生成した符号Aを反映したパルス信号を赤外線LED36に出力し、赤外線LED36を点滅させる(ステップS1503)。これにより、映像提示装置1aのデバイスIDは、赤外線LED36から、当該デバイスIDの符号Aに従って点滅する赤外線パルスとして出力される。   The device ID encoding unit 35 outputs a pulse signal reflecting the code A generated in step S1502 to the infrared LED 36, and causes the infrared LED 36 to blink (step S1503). As a result, the device ID of the video presentation device 1a is output from the infrared LED 36 as an infrared pulse that blinks in accordance with the symbol A of the device ID.

デバイスIDエンコード部35は、ステップS1502にて生成した符号Bを反映したパルス信号を赤外線LED37に出力し、赤外線LED37を点滅させる(ステップS1504)。これにより、映像提示装置1aのデバイスIDは、赤外線LED37から、当該デバイスIDの符号Bに従って点滅する赤外線パルスとして出力される。   The device ID encoding unit 35 outputs a pulse signal reflecting the code B generated in step S1502 to the infrared LED 37, and blinks the infrared LED 37 (step S1504). Thereby, the device ID of the video presentation device 1a is output from the infrared LED 37 as an infrared pulse that blinks according to the code B of the device ID.

尚、映像提示装置1bは映像提示装置1aと同じ構成であるから、映像提示装置1bに備えた赤外線LED36,37からも同様に、映像提示装置1bのデバイスIDの符号A,Bが反映された赤外線パルスがそれぞれ出力される。   Since the video presentation device 1b has the same configuration as the video presentation device 1a, the infrared LEDs 36 and 37 provided in the video presentation device 1b also reflect the codes A and B of the device ID of the video presentation device 1b. Each infrared pulse is output.

(位置・姿勢推定処理)
次に、位置・姿勢推定処理について説明する。図8及び図16を参照して、通信部38は、デバイスID記憶部34から当該映像提示装置1aのデバイスIDを読み出し(ステップS1601)、読み出した映像提示装置1aのデバイスIDを検出済み映像提示装置1bへ送信する(ステップS1602)。検出済み映像提示装置1bは、図13に示したステップS1304にてデバイスIDが検出された装置である。
(Position / posture estimation processing)
Next, position / posture estimation processing will be described. 8 and 16, the communication unit 38 reads the device ID of the video presentation device 1a from the device ID storage unit 34 (step S1601), and detects the device ID of the read video presentation device 1a. It transmits to the apparatus 1b (step S1602). The detected video presentation device 1b is a device whose device ID is detected in step S1304 shown in FIG.

通信部38は、映像提示装置1bからネットワーク(図14のステップS1402にて確立した通信路)を介して、映像提示装置1bから見た映像提示装置1aの相対方位を受信する(ステップS1603)。この場合、映像提示装置1bは、ステップS1602に対応して映像提示装置1aのデバイスIDを受信することで、相対方位の送信要求を受けたものと判断し、映像提示装置1bから見た映像提示装置1aの相対方位を映像提示装置1aへ送信する。尚、映像提示装置1bは、映像提示装置1bによる図13に示したステップS1303の処理にて、既に相対方位を検出済みであるものとする。   The communication unit 38 receives the relative orientation of the video presentation device 1a viewed from the video presentation device 1b via the network (communication path established in step S1402 in FIG. 14) from the video presentation device 1b (step S1603). In this case, the video presentation apparatus 1b receives the device ID of the video presentation apparatus 1a in response to step S1602, determines that it has received a transmission request for relative orientation, and displays the video viewed from the video presentation apparatus 1b. The relative orientation of the device 1a is transmitted to the video presentation device 1a. It is assumed that the video presentation device 1b has already detected the relative orientation in the process of step S1303 shown in FIG. 13 by the video presentation device 1b.

傾き検出部39は、加速度センサー及び地磁気センサーを備えており、加速度センサーを用いて、映像提示装置1aの加速度センサーによる絶対的な傾き値を検出すると共に、地磁気センサーを用いて、映像提示装置1aの地磁気センサーによる絶対的な傾き値を検出する(ステップS1604)。また、通信部38は、傾き検出部39により検出された絶対的な傾き値を入力し、映像提示装置1bからの要求(映像提示装置1bからデバイスIDを受信する等の要求)に従い、入力した絶対的な傾き値(映像提示装置1aの絶対的な傾き値)を、ネットワーク(図14のステップS1402にて確立した通信路)を介して映像提示装置1bへ送信する。   The tilt detection unit 39 includes an acceleration sensor and a geomagnetic sensor, detects an absolute tilt value by the acceleration sensor of the video presentation device 1a using the acceleration sensor, and uses the geomagnetic sensor to detect the video presentation device 1a. The absolute inclination value by the geomagnetic sensor is detected (step S1604). In addition, the communication unit 38 inputs the absolute inclination value detected by the inclination detection unit 39 and inputs it in accordance with a request from the video presentation device 1b (a request for receiving a device ID from the video presentation device 1b). The absolute inclination value (the absolute inclination value of the video presentation device 1a) is transmitted to the video presentation device 1b via the network (the communication path established in step S1402 in FIG. 14).

通信部38は、映像提示装置1bからネットワーク(図14のステップS1402にて確立した通信路)を介して、映像提示装置1bの絶対的な傾き値を受信する(ステップS1605)。この場合、映像提示装置1bは、ステップS1602に対応して映像提示装置1aのデバイスIDを受信することで、絶対的な傾き値の送信要求を受けたものと判断し、映像提示装置1bの絶対的な傾き値を映像提示装置1aへ送信する。尚、映像提示装置1bは、当該映像提示装置1bによるステップS1604の処理にて、既に絶対的な傾き値を検出済みであるものとする。   The communication unit 38 receives the absolute inclination value of the video presentation device 1b from the video presentation device 1b via the network (the communication path established in step S1402 in FIG. 14) (step S1605). In this case, the video presentation device 1b receives the device ID of the video presentation device 1a in response to step S1602, and thus determines that an absolute inclination value transmission request has been received. A typical inclination value is transmitted to the video presentation device 1a. Note that the video presentation device 1b has already detected an absolute inclination value in the process of step S1604 by the video presentation device 1b.

位置・姿勢推定部40は、赤外線カメラ画像取得部31から全方位赤外線画像を、方位検出部32から相対方位(映像提示装置1aから見た映像提示装置1bの相対方位)を、デバイスIDデコード部33からLED識別情報を、傾き検出部39から傾き値(映像提示装置1aの絶対的な傾き値)を、通信部38から相対方位(映像提示装置1bから見た映像提示装置1aの相対方位)及び絶対的な傾き値(映像提示装置1bの絶対的な傾き値)をそれぞれ入力する。   The position / orientation estimation unit 40 receives the omnidirectional infrared image from the infrared camera image acquisition unit 31, the relative orientation (relative orientation of the video presentation device 1b viewed from the video presentation device 1a) from the orientation detection unit 32, and the device ID decoding unit. LED identification information from 33, inclination value from the inclination detector 39 (absolute inclination value of the video presentation device 1a), relative orientation from the communication unit 38 (relative orientation of the video presentation device 1a viewed from the video presentation device 1b) And an absolute inclination value (absolute inclination value of the video presentation device 1b) are input.

位置・姿勢推定部40は、映像提示装置1aから見た映像提示装置1bの相対方位、映像提示装置1bから見た映像提示装置1aの相対方位、映像提示装置1a,1bの絶対的な傾き値に基づいて、映像提示装置1aから見た映像提示装置1bの姿勢を推定する(ステップS1606)。詳細については後述する。   The position / orientation estimation unit 40 includes a relative orientation of the video presentation device 1b viewed from the video presentation device 1a, a relative orientation of the video presentation device 1a viewed from the video presentation device 1b, and an absolute inclination value of the video presentation devices 1a and 1b. Based on the above, the posture of the video presentation device 1b viewed from the video presentation device 1a is estimated (step S1606). Details will be described later.

位置・姿勢推定部40は、全方位赤外線画像、LED識別情報、映像提示装置1aから見た映像提示装置1bの相対方位、及び映像提示装置1aから見た映像提示装置1bの姿勢に基づいて、映像提示装置1aと映像提示装置1bとの間の距離dを推定する。詳細については後述する。そして、位置・姿勢推定部40は、距離d、及び映像提示装置1aから見た映像提示装置1bの相対方位に基づいて、映像提示装置1aから見た映像提示装置1bの位置を推定する(ステップS1607)。詳細については後述する。   The position / posture estimation unit 40 is based on the omnidirectional infrared image, LED identification information, the relative orientation of the video presentation device 1b viewed from the video presentation device 1a, and the posture of the video presentation device 1b viewed from the video presentation device 1a. A distance d between the video presentation device 1a and the video presentation device 1b is estimated. Details will be described later. Then, the position / posture estimation unit 40 estimates the position of the video presentation device 1b viewed from the video presentation device 1a based on the distance d and the relative orientation of the video presentation device 1b viewed from the video presentation device 1a (step). S1607). Details will be described later.

図17は、位置・姿勢推定部40の構成を示すブロック図である。この図17は、後述する実施例2の位置・姿勢推定部43、実施例3の位置・姿勢推定部45、実施例4の位置・姿勢推定部48及び実施例5の位置・姿勢推定部50の構成についても示している。位置・姿勢推定部40は、距離推定部51、位置推定部56及び姿勢推定部57を備えている。   FIG. 17 is a block diagram illustrating a configuration of the position / posture estimation unit 40. 17 illustrates a position / posture estimation unit 43 according to a second embodiment, a position / posture estimation unit 45 according to a third embodiment, a position / posture estimation unit 48 according to a fourth embodiment, and a position / posture estimation unit 50 according to a fifth embodiment. The configuration of is also shown. The position / posture estimation unit 40 includes a distance estimation unit 51, a position estimation unit 56, and a posture estimation unit 57.

尚、後述する実施例2の位置・姿勢推定部43は、距離推定部52、位置推定部56及び姿勢推定部57を備え、後述する実施例3の位置・姿勢推定部45は、距離推定部53、位置推定部56及び姿勢推定部57を備えている。後述する実施例4の位置・姿勢推定部48は、位置推定部56及び姿勢推定部57を備え、距離推定部51等に対応する構成部を備えていない。後述する実施例5の位置・姿勢推定部50は、距離推定部55、位置推定部56及び姿勢推定部57を備えている。   Note that a position / posture estimation unit 43 of Example 2 described later includes a distance estimation unit 52, a position estimation unit 56, and a posture estimation unit 57, and a position / posture estimation unit 45 of Example 3 described later includes a distance estimation unit. 53, a position estimation unit 56 and a posture estimation unit 57. A position / orientation estimation unit 48 according to a fourth embodiment, which will be described later, includes a position estimation unit 56 and an attitude estimation unit 57, and does not include components corresponding to the distance estimation unit 51 and the like. A position / posture estimation unit 50 according to a fifth embodiment, which will be described later, includes a distance estimation unit 55, a position estimation unit 56, and a posture estimation unit 57.

(姿勢推定処理)
次に、姿勢推定処理について説明する。姿勢推定部57は、映像提示装置1aから見た映像提示装置1bの相対方位、映像提示装置1bから見た映像提示装置1aの相対方位、映像提示装置1aの絶対的な傾き値及び映像提示装置1bの絶対的な傾き値を入力し、これらのデータに基づいて、映像提示装置1aから見た映像提示装置1bの姿勢を推定する。
(Attitude estimation processing)
Next, posture estimation processing will be described. The posture estimation unit 57 includes the relative orientation of the video presentation device 1b viewed from the video presentation device 1a, the relative orientation of the video presentation device 1a viewed from the video presentation device 1b, the absolute inclination value of the video presentation device 1a, and the video presentation device. An absolute inclination value of 1b is input, and based on these data, the posture of the video presentation device 1b viewed from the video presentation device 1a is estimated.

図21は、姿勢推定部57による姿勢推定処理を示すフローチャートである。このフローチャートは、実施例1〜5共通の処理である。姿勢推定部57は、方位検出部32から、映像提示装置1aから見た映像提示装置1bの相対方位を入力すると共に(ステップS2101)、通信部38から、映像提示装置1bから見た映像提示装置1aの相対方位を入力する(ステップS2102)。映像提示装置1bから見た映像提示装置1aの相対方位は、映像提示装置1bから受信したデータである。   FIG. 21 is a flowchart showing posture estimation processing by the posture estimation unit 57. This flowchart is common to the first to fifth embodiments. The posture estimation unit 57 inputs the relative orientation of the video presentation device 1b viewed from the video presentation device 1a from the orientation detection unit 32 (step S2101), and the video presentation device viewed from the video presentation device 1b from the communication unit 38. The relative orientation of 1a is input (step S2102). The relative orientation of the video presentation device 1a viewed from the video presentation device 1b is data received from the video presentation device 1b.

姿勢推定部57は、傾き検出部39から、映像提示装置1aの絶対的な傾き値(加速度センサーによる絶対的な傾き値及び地磁気センサーによる絶対的な傾き値)を入力する(ステップS2103)。この場合、姿勢推定部57は、映像提示装置1aが静止しているときの加速度センサーによる絶対的な傾き値を、映像提示装置1aの鉛直方向として認識する。また、姿勢推定部57は、映像提示装置1aが静止しているときの地磁気センサーによる絶対的な傾き値を、映像提示装置1aの北磁極方向として認識する。例えば、姿勢推定部57は、入力した加速度センサーによる絶対的な傾き値が所定時間変化しない場合に、その絶対的な傾き値を鉛直方向として認識し、入力した地磁気センサーによる絶対的な傾き値が所定時間変化しない場合に、その絶対的な傾き値を北磁極方向として認識する。尚、映像提示装置1aが動いている場合であっても、映像提示装置1aが静止しているときの映像提示装置1bの姿勢を推定する必要があることから、絶対的な傾き値は、所定時間の変化に対してローパスフィルターをかけた値としてもよい。   The posture estimation unit 57 inputs the absolute inclination value (the absolute inclination value by the acceleration sensor and the absolute inclination value by the geomagnetic sensor) of the video presentation device 1a from the inclination detection unit 39 (step S2103). In this case, the posture estimation unit 57 recognizes the absolute inclination value by the acceleration sensor when the video presentation device 1a is stationary as the vertical direction of the video presentation device 1a. In addition, the posture estimation unit 57 recognizes the absolute inclination value by the geomagnetic sensor when the video presentation device 1a is stationary as the north magnetic pole direction of the video presentation device 1a. For example, when the absolute inclination value by the input acceleration sensor does not change for a predetermined time, the posture estimation unit 57 recognizes the absolute inclination value as the vertical direction, and the absolute inclination value by the input geomagnetic sensor is When it does not change for a predetermined time, the absolute inclination value is recognized as the north magnetic pole direction. Even when the video presentation device 1a is moving, it is necessary to estimate the posture of the video presentation device 1b when the video presentation device 1a is stationary. A value obtained by applying a low-pass filter to a change in time may be used.

姿勢推定部57は、通信部38から、映像提示装置1bの絶対的な傾き値(加速度センサーによる絶対的な傾き値及び地磁気センサーによる絶対的な傾き値)を入力する(ステップS2104)。この場合、姿勢推定部57は、映像提示装置1bが静止しているときの加速度センサーによる絶対的な傾き値を、映像提示装置1bの鉛直方向として認識する。また、姿勢推定部57は、映像提示装置1bが静止しているときの地磁気センサーによる絶対的な傾き値を、映像提示装置1bの北磁極方向として認識する。例えば、姿勢推定部57は、映像提示装置1bから通信部38を介して入力した加速度センサーによる絶対的な傾き値が所定時間変化しない場合に、その絶対的な傾き値を鉛直方向として認識し、映像提示装置1bから通信部38を介して入力した地磁気センサーによる絶対的な傾き値が所定時間変化しない場合に、その絶対的な傾き値を北磁極方向として認識する。   The posture estimation unit 57 inputs the absolute inclination value (the absolute inclination value by the acceleration sensor and the absolute inclination value by the geomagnetic sensor) of the video presentation device 1b from the communication unit 38 (step S2104). In this case, the posture estimation unit 57 recognizes the absolute inclination value by the acceleration sensor when the video presentation device 1b is stationary as the vertical direction of the video presentation device 1b. In addition, the posture estimation unit 57 recognizes the absolute inclination value by the geomagnetic sensor when the video presentation device 1b is stationary as the north magnetic pole direction of the video presentation device 1b. For example, when the absolute inclination value by the acceleration sensor input from the video presentation device 1b via the communication unit 38 does not change for a predetermined time, the posture estimation unit 57 recognizes the absolute inclination value as the vertical direction, When the absolute inclination value by the geomagnetic sensor input from the video presentation device 1b via the communication unit 38 does not change for a predetermined time, the absolute inclination value is recognized as the north magnetic pole direction.

姿勢推定部57は、映像提示装置1aから見た映像提示装置1bの相対方位が鉛直方向でないか否かを判定する(ステップS2105)。すなわち、姿勢推定部57は、ステップS2101にて入力した相対方位が、ステップS2103にて認識した鉛直方向(映像提示装置1aの鉛直方向)でないか否かを判定する。   The posture estimation unit 57 determines whether or not the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is not the vertical direction (step S2105). That is, the posture estimation unit 57 determines whether or not the relative orientation input in step S2101 is not the vertical direction recognized in step S2103 (the vertical direction of the video presentation device 1a).

姿勢推定部57は、ステップS2105において、映像提示装置1aから見た映像提示装置1bの相対方位が鉛直方向でないと判定した場合(ステップS2105:Y)、映像提示装置1a,1bの鉛直方向、映像提示装置1aから見た映像提示装置1bの相対方位(例えば、映像提示装置1aから見た映像提示装置1bに備えた赤外線LED36の相対方位)、及び、映像提示装置1bから見た映像提示装置1aの相対方位(例えば、映像提示装置1bから見た映像提示装置1aに備えた赤外線LED36の相対方位)に基づいて、映像提示装置1aから見た映像提示装置1bの姿勢を推定する(ステップS2106)。   If the posture estimation unit 57 determines in step S2105 that the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is not the vertical direction (step S2105: Y), the vertical direction of the video presentation devices 1a and 1b, the video The relative orientation of the video presentation device 1b viewed from the presentation device 1a (for example, the relative orientation of the infrared LED 36 provided in the video presentation device 1b viewed from the video presentation device 1a) and the video presentation device 1a viewed from the video presentation device 1b. Based on the relative orientation (for example, the relative orientation of the infrared LED 36 provided in the video presentation device 1a seen from the video presentation device 1b), the posture of the video presentation device 1b seen from the video presentation device 1a is estimated (step S2106). .

ここで、姿勢推定部57は、映像提示装置1aから見た映像提示装置1bの姿勢を推定する際に、映像提示装置1aから見た映像提示装置1bの相対方位、及び、映像提示装置1bから見た映像提示装置1aの相対方位に基づいて、映像提示装置1aから見た映像提示装置1bの姿勢のうち、映像提示装置1a,1b間の相対方位を軸とする回転角度以外の角度を推定することができる。これは、映像提示装置1aから見た映像提示装置1bの相対方位が、映像提示装置1aの基本姿勢を基準とした場合における映像提示装置1bの向きであり、映像提示装置1bから見た映像提示装置1aの相対方位が、映像提示装置1bの基本姿勢を基準とした場合における映像提示装置1aの向きだからである。   Here, when estimating the posture of the video presentation device 1b viewed from the video presentation device 1a, the posture estimation unit 57 determines the relative orientation of the video presentation device 1b viewed from the video presentation device 1a and the video presentation device 1b. Based on the relative orientation of the viewed video presentation device 1a, an angle other than the rotation angle about the relative orientation between the video presentation devices 1a and 1b is estimated from the orientation of the video presentation device 1b viewed from the video presentation device 1a. can do. This is the orientation of the video presentation device 1b when the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is based on the basic posture of the video presentation device 1a, and the video presentation viewed from the video presentation device 1b. This is because the relative orientation of the device 1a is the orientation of the video presentation device 1a when the basic posture of the video presentation device 1b is used as a reference.

しかし、姿勢推定部57は、映像提示装置1aから見た映像提示装置1bの姿勢のうち、映像提示装置1a,1b間の相対方位を軸とする回転角度を推定することができない。そこで、姿勢推定部57は、映像提示装置1aから見た映像提示装置1bの相対方位が鉛直方向でないことから、映像提示装置1a,1bの鉛直方向の情報を用いることで、映像提示装置1a,1b間の相対方位を軸とする回転角度を推定することができる。これにより、映像提示装置1aから見た映像提示装置1bの姿勢が推定される。   However, the posture estimation unit 57 cannot estimate the rotation angle about the relative orientation between the video presentation devices 1a and 1b among the postures of the video presentation device 1b viewed from the video presentation device 1a. Therefore, since the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is not the vertical direction, the posture estimation unit 57 uses the information in the vertical direction of the video presentation devices 1a and 1b to obtain the video presentation device 1a, The rotation angle about the relative azimuth between 1b can be estimated. Thereby, the attitude | position of the video presentation apparatus 1b seen from the video presentation apparatus 1a is estimated.

姿勢推定部57は、ステップS2105において、映像提示装置1aから見た映像提示装置1bの相対方位が鉛直方向であると判定した場合(ステップS2105:N)、映像提示装置1a,1bの北磁極方向、映像提示装置1aから見た映像提示装置1bの相対方位(例えば、映像提示装置1aから見た映像提示装置1bに備えた赤外線LED36の相対方位)、及び、映像提示装置1bから見た映像提示装置1aの相対方位(例えば、映像提示装置1bから見た映像提示装置1aに備えた赤外線LED36の相対方位)に基づいて、映像提示装置1aから見た映像提示装置1bの姿勢を推定する(ステップS2107)。   When the posture estimation unit 57 determines in step S2105 that the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is the vertical direction (step S2105: N), the north magnetic pole direction of the video presentation devices 1a and 1b The relative orientation of the video presentation device 1b viewed from the video presentation device 1a (for example, the relative orientation of the infrared LED 36 provided in the video presentation device 1b viewed from the video presentation device 1a) and the video presentation viewed from the video presentation device 1b Based on the relative orientation of the device 1a (for example, the relative orientation of the infrared LED 36 provided in the video presentation device 1a viewed from the video presentation device 1b), the posture of the video presentation device 1b viewed from the video presentation device 1a is estimated (step) S2107).

ここで、姿勢推定部57は、前述のとおり、映像提示装置1aから見た映像提示装置1bの相対方位、及び、映像提示装置1bから見た映像提示装置1aの相対方位に基づいて、映像提示装置1aから見た映像提示装置1bの姿勢のうち、映像提示装置1a,1b間の相対方位を軸とする回転角度以外の角度を推定できるが、映像提示装置1a,1b間の相対方位を軸とする回転角度を推定できない。そこで、姿勢推定部57は、映像提示装置1aから見た映像提示装置1bの相対方位が鉛直方向であることから、映像提示装置1a,1bの鉛直方向の情報を用いる代わりに、映像提示装置1a,1bの北磁極方向の情報を用いることで、映像提示装置1a,1b間の相対方位を軸とする回転角度を推定することができる。これにより、映像提示装置1aから見た映像提示装置1bの姿勢が推定される。   Here, as described above, the posture estimation unit 57 presents the video based on the relative orientation of the video presentation device 1b viewed from the video presentation device 1a and the relative orientation of the video presentation device 1a viewed from the video presentation device 1b. Of the posture of the video presentation device 1b viewed from the device 1a, an angle other than the rotation angle about the relative orientation between the video presentation devices 1a and 1b can be estimated, but the relative orientation between the video presentation devices 1a and 1b can be estimated. Cannot be estimated. Therefore, since the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is the vertical direction, the posture estimation unit 57 uses the video presentation device 1a instead of using the vertical information of the video presentation devices 1a and 1b. , 1b can be used to estimate the rotation angle about the relative orientation between the video presentation devices 1a, 1b. Thereby, the attitude | position of the video presentation apparatus 1b seen from the video presentation apparatus 1a is estimated.

図25は、姿勢推定部57による姿勢推定処理を説明する図である。この処理は、映像提示装置1aから見た映像提示装置1bの姿勢を推定する処理であり、実施例1〜5に共通である。図25を参照して、映像提示装置1aの中心を原点としたx,y,z軸の座標系、及び、映像提示装置1bの中心を原点としたx’,y’,z’軸の座標系を想定する。映像提示装置1aにおいて、すなわちx,y,z軸の座標系において、映像提示装置1aから見た映像提示装置1bの相対方位の単位ベクトルをe、映像提示装置1aの絶対的な傾き値を示す加速度ベクトルをGとし、映像提示装置1bにおいて、すなわちx’,y’,z’軸の座標系において、映像提示装置1bから見た映像提示装置1aの相対方位の単位ベクトルをe、映像提示装置1bの絶対的な傾き値を示す加速度ベクトルをGとする。 FIG. 25 is a diagram for explaining posture estimation processing by the posture estimation unit 57. This process is a process for estimating the posture of the video presentation device 1b viewed from the video presentation device 1a, and is common to the first to fifth embodiments. Referring to FIG. 25, the coordinate system of x, y, z axes with the center of video presentation device 1a as the origin, and the coordinates of x ′, y ′, z ′ axes with the center of video presentation device 1b as the origin. A system is assumed. In the video presentation device 1a, that is, in the coordinate system of the x, y, and z axes, the unit vector of the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is represented by e 1 and the absolute inclination value of the video presentation device 1a is represented. an acceleration vector indicative of the G 1, in the video presentation device 1b, i.e. x ', y', in the coordinate system of the z 'axis, the unit vector of the relative orientation of the image presentation device 1a as seen from the video presentation device 1b e 2, an acceleration vector representing the absolute gradient value of the video presentation device 1b and G 2.

姿勢推定部57は、x,y,z軸の座標系において、映像提示装置1aから見た映像提示装置1bの相対方位の単位ベクトルe、及び映像提示装置1aの加速度ベクトルGと同じ平面に存在するベクトルであって、単位ベクトルeと直交し、かつ加速度ベクトルGと同じ向きの単位ベクトルgを求める。そして、姿勢推定部57は、単位ベクトルe及び単位ベクトルgの外積を演算し、その演算結果の符号を反転した単位ベクトルhを求める。 In the coordinate system of the x, y, and z axes, the posture estimation unit 57 is the same plane as the unit vector e 1 of the relative orientation of the video presentation device 1b viewed from the video presentation device 1a and the acceleration vector G 1 of the video presentation device 1a. , A unit vector g 1 orthogonal to the unit vector e 1 and in the same direction as the acceleration vector G 1 is obtained. Then, the posture estimating unit 57 calculates the outer product of the unit vectors e 1 and unit vectors g 1, obtaining a unit vector h 1 which is obtained by inverting the sign of the operation result.

姿勢推定部57は、x’,y’,z’軸の座標系において、映像提示装置1bから見た映像提示装置1aの相対方位の単位ベクトルe、及び映像提示装置1bの加速度ベクトルGと同じ平面に存在するベクトルであって、単位ベクトルeと直交し、かつ加速度ベクトルGと同じ向きの単位ベクトルgを求める。そして、姿勢推定部57は、単位ベクトルe及び単位ベクトルgの外積を演算し、その演算結果の単位ベクトルhを求める。 In the coordinate system of the x ′, y ′, and z ′ axes, the posture estimation unit 57 is a unit vector e 2 of the relative orientation of the video presentation device 1a viewed from the video presentation device 1b and an acceleration vector G 2 of the video presentation device 1b. , A unit vector g 2 that is in the same plane and orthogonal to the unit vector e 2 and in the same direction as the acceleration vector G 2 is obtained. Then, the posture estimating unit 57 calculates the outer product of the unit vector e 2 and unit vectors g 2, obtaining a unit vector h 2 of the operation result.

姿勢推定部57は、e,g,h軸の座標系と、−e,g,h軸の座標系とを同一の座標系とみなし、x,y,z軸の座標系からx’,y’,z’軸の座標系への変換情報、すなわち、映像提示装置1aから見た映像提示装置1bの姿勢を推定する。 The posture estimation unit 57 regards the coordinate system of the e 1 , g 1 , and h 1 axes and the coordinate system of the −e 2 , g 2 , and h 2 axes as the same coordinate system, and coordinates of the x, y, and z axes. Conversion information from the system to the coordinate system of the x ′, y ′, and z ′ axes, that is, the posture of the video presentation device 1b viewed from the video presentation device 1a is estimated.

このように、映像提示装置1a,1bの鉛直方向、映像提示装置1aから見た映像提示装置1bの相対方位、及び、映像提示装置1bから見た映像提示装置1aの相対方位を示す各ベクトルに基づいて、映像提示装置1aから見た映像提示装置1bの姿勢が推定される。   In this way, each vector indicating the vertical direction of the video presentation devices 1a and 1b, the relative orientation of the video presentation device 1b viewed from the video presentation device 1a, and the relative orientation of the video presentation device 1a viewed from the video presentation device 1b. Based on this, the posture of the video presentation device 1b viewed from the video presentation device 1a is estimated.

尚、図25において、映像提示装置1aの加速度ベクトルGの代わりに、映像提示装置1aの地磁気ベクトルGを用い、映像提示装置1bの加速度ベクトルGの代わりに、映像提示装置1bの地磁気ベクトルGを用いることにより、映像提示装置1a,1bの北磁極方向、映像提示装置1aから見た映像提示装置1bの相対方位、及び、映像提示装置1bから見た映像提示装置1aの相対方位を示す各ベクトルに基づいて、映像提示装置1aから見た映像提示装置1bの姿勢が推定される。 Incidentally, in FIG. 25, in place of the acceleration vector G 1 of the video presentation device 1a, using the geomagnetic vector G 1 of the video presentation device 1a, instead of the acceleration vector G 2 of the video presentation device 1b, geomagnetic image presentation device 1b by using the vector G 2, image presentation device 1a, 1b north pole direction, relative orientation of the image presentation apparatus 1b as seen from the video presentation device 1a, and the relative orientation of the image presentation device 1a as seen from the video presentation device 1b The posture of the video presentation device 1b viewed from the video presentation device 1a is estimated on the basis of the respective vectors indicating.

(距離推定処理)
次に、距離推定処理について説明する。図18は、図17に示した距離推定部51〜53,55の入出力データ及び処理を説明する図である。図17及び図18(1)を参照して、実施例1の距離推定部51は、全方位赤外線画像、LED識別情報、映像提示装置1aから見た映像提示装置1bの相対方位、及び、姿勢推定部57により推定された映像提示装置1aから見た映像提示装置1bの姿勢(姿勢情報)を入力し、これらのデータに基づいて、映像提示装置1aと映像提示装置1bとの間の距離dを推定する。尚、図17において、実線の矢印は、実施例1におけるデータの流れを示す。
(Distance estimation processing)
Next, the distance estimation process will be described. 18 is a diagram for explaining input / output data and processing of the distance estimation units 51 to 53, 55 shown in FIG. With reference to FIG. 17 and FIG. 18 (1), the distance estimation unit 51 of the first embodiment includes an omnidirectional infrared image, LED identification information, the relative orientation and orientation of the video presentation device 1b viewed from the video presentation device 1a. The posture (posture information) of the video presentation device 1b viewed from the video presentation device 1a estimated by the estimation unit 57 is input, and the distance d between the video presentation device 1a and the video presentation device 1b based on these data. Is estimated. In FIG. 17, solid arrows indicate the data flow in the first embodiment.

図19は、実施例1において距離dを推定する処理を説明する図である。映像提示装置1bに備えた赤外線LED36と赤外線LED37との間の距離をa、映像提示装置1aに備えた赤外線カメラと映像提示装置1bに備えた赤外線LED36との間の距離(映像提示装置1aと映像提示装置1bとの間の距離)をd、赤外線カメラを基点とした赤外線LED36と赤外線LED37との間の角度である方位角をθとする。また、映像提示装置1aに備えた赤外線カメラと映像提示装置1bに備えた赤外線LED36との間の線分に対して垂直となる線分を、赤外線LED36を起点として、赤外線カメラと赤外線LED37との間の線分に下ろして、その交点をPとした場合に、赤外線LED36と交点Pとの間の距離をeとし、赤外線LED36を基点とした赤外線LED37と交点Pとの間の角度をφとする。aは、予め設定された距離であり、dは、距離推定部51により推定される距離である。   FIG. 19 is a diagram illustrating processing for estimating the distance d in the first embodiment. The distance between the infrared LED 36 and the infrared LED 37 provided in the video presentation device 1b is a, and the distance between the infrared camera provided in the video presentation device 1a and the infrared LED 36 provided in the video presentation device 1b (the video presentation device 1a and The distance between the image presentation device 1b) is d, and the azimuth angle between the infrared LED 36 and the infrared LED 37 with the infrared camera as a base point is θ. Further, a line segment perpendicular to the line segment between the infrared camera provided in the video presentation device 1a and the infrared LED 36 provided in the video presentation device 1b is used as a starting point between the infrared camera 36 and the infrared LED 37. When the intersection is P, the distance between the infrared LED 36 and the intersection P is e, and the angle between the infrared LED 37 with the infrared LED 36 as a base point and the intersection P is φ. To do. a is a preset distance, and d is a distance estimated by the distance estimation unit 51.

距離推定部51は、全方位赤外線画像から、赤外線LED36,37の点滅状態を捉えてこれらを検出し、LED識別情報に基づいて、全方位赤外線画像における赤外線LED36,37の位置をそれぞれ特定する。LED識別情報は、前述のとおり、全方位赤外線画像内の位置を特定可能な赤外線LED36,37の識別情報である。   The distance estimation unit 51 detects the blinking states of the infrared LEDs 36 and 37 from the omnidirectional infrared image, detects them, and specifies the positions of the infrared LEDs 36 and 37 in the omnidirectional infrared image based on the LED identification information. As described above, the LED identification information is identification information of the infrared LEDs 36 and 37 that can specify the position in the omnidirectional infrared image.

距離推定部51は、全方位赤外線画像における赤外線LED36の相対方位と赤外線LED37の相対方位との間の差分を求めることにより、方位角θを算出する。前述のとおり、映像提示装置1aから見た映像提示装置1bの相対方位には、映像提示装置1aから見た映像提示装置1bに備えた赤外線LED36の相対方位、及び映像提示装置1aから見た映像提示装置1bに備えた赤外線LED37の相対方位が含まれる。   The distance estimation unit 51 calculates the azimuth angle θ by obtaining a difference between the relative azimuth of the infrared LED 36 and the relative azimuth of the infrared LED 37 in the omnidirectional infrared image. As described above, the relative orientation of the video presentation device 1b viewed from the video presentation device 1a includes the relative orientation of the infrared LED 36 included in the video presentation device 1b viewed from the video presentation device 1a and the video viewed from the video presentation device 1a. The relative orientation of the infrared LED 37 provided in the presentation device 1b is included.

そして、距離推定部51は、予め設定された計算式により、映像提示装置1aから見た映像提示装置1bの相対方位、予め設定された赤外線LED36と赤外線LED37との間の距離a、算出した方位角θ、及び姿勢推定部57により推定された姿勢(映像提示装置1aから見た映像提示装置1bの姿勢)に基づいて、距離dを推定する。   The distance estimation unit 51 then calculates the relative orientation of the video presentation device 1b viewed from the video presentation device 1a, the preset distance a between the infrared LED 36 and the infrared LED 37, and the calculated orientation, according to a preset calculation formula. The distance d is estimated based on the angle θ and the posture estimated by the posture estimation unit 57 (the posture of the video presentation device 1b viewed from the video presentation device 1a).

具体的には、距離推定部51は、映像提示装置1aから見た映像提示装置1bの相対方位及び姿勢に基づいて、図19に示すように、赤外線カメラ及び赤外線LED36,37を頂点とした3次元空間上の三角形を形成し、赤外線LED36を基点とした赤外線カメラと赤外線LED37との間の角度を求める。そして、距離推定部51は、この角度から90°を減算して角度φを求め、距離a及び角度φから距離eを求め、距離e及び方位角θから距離dを推定する。   Specifically, based on the relative orientation and orientation of the video presentation device 1b viewed from the video presentation device 1a, the distance estimation unit 51 uses the infrared camera and the infrared LEDs 36 and 37 as apexes 3 as shown in FIG. A triangle on a dimensional space is formed, and an angle between the infrared camera 37 and the infrared LED 37 with the infrared LED 36 as a base point is obtained. Then, the distance estimation unit 51 subtracts 90 ° from this angle to obtain the angle φ, obtains the distance e from the distance a and the angle φ, and estimates the distance d from the distance e and the azimuth angle θ.

(位置推定処理)
次に、位置推定処理について説明する。図17に戻って、位置推定部56は、距離推定部51から、映像提示装置1aと映像提示装置1bとの間の距離、すなわち映像提示装置1aに備えた赤外線カメラと映像提示装置1bに備えた赤外線LED36との間の距離dを入力すると共に、映像提示装置1aから見た映像提示装置1bの相対方位を入力する。そして、位置推定部56は、入力した距離d及び相対方位に基づいて、図5に示したとおり、映像提示装置1aから見た映像提示装置1bの位置を推定する。
(Position estimation process)
Next, the position estimation process will be described. Returning to FIG. 17, the position estimation unit 56 includes, from the distance estimation unit 51, the distance between the video presentation device 1 a and the video presentation device 1 b, that is, the infrared camera provided in the video presentation device 1 a and the video presentation device 1 b. The distance d to the infrared LED 36 is input, and the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is input. And the position estimation part 56 estimates the position of the video presentation apparatus 1b seen from the video presentation apparatus 1a as shown in FIG. 5 based on the input distance d and relative orientation.

以上のように、実施例1の位置・姿勢処理部3−1を備えた映像提示装置1aによれば、位置・姿勢処理部3−1のデバイスIDエンコード部35は、映像提示装置1aのデバイスIDをエンコードした符号Aにて赤外線LED36を点滅させ、符号Bにて赤外線LED37を点滅させるようにした。また、赤外線カメラ画像取得部31は、映像提示装置1bに備えた赤外線LED36,37を含む全方位赤外線カメラ画像を取得し、方位検出部32は、全方位赤外線カメラ画像から、映像提示装置1aから見た映像提示装置1bの相対方位を検出するようにした。また、デバイスIDデコード部33は、全方位赤外線カメラ画像から映像提示装置1bのデバイスIDを検出し、通信部38は、映像提示装置1bのデバイスIDに基づいて、ネットワークを介してサーバ2へアクセスし、映像提示装置1aと映像提示装置1bとの間の通信路を確立するようにした。また、傾き検出部39は、映像提示装置1aの絶対的な傾き値を検出するようにした。また、通信部38は、映像提示装置1bから、映像提示装置1bから見た映像提示装置1aの相対方位及び映像提示装置1bの絶対的な傾き値を受信するようにした。   As described above, according to the video presentation device 1a including the position / posture processing unit 3-1 of the first embodiment, the device ID encoding unit 35 of the position / posture processing unit 3-1 is a device of the video presentation device 1a. The infrared LED 36 is blinked by the code A encoding the ID, and the infrared LED 37 is blinked by the code B. The infrared camera image acquisition unit 31 acquires an omnidirectional infrared camera image including the infrared LEDs 36 and 37 included in the video presentation device 1b, and the azimuth detection unit 32 from the omnidirectional infrared camera image from the video presentation device 1a. The relative orientation of the viewed video presentation device 1b is detected. The device ID decoding unit 33 detects the device ID of the video presentation device 1b from the omnidirectional infrared camera image, and the communication unit 38 accesses the server 2 via the network based on the device ID of the video presentation device 1b. The communication path between the video presentation device 1a and the video presentation device 1b is established. In addition, the inclination detecting unit 39 detects the absolute inclination value of the video presentation device 1a. Further, the communication unit 38 receives the relative orientation of the video presentation device 1a and the absolute inclination value of the video presentation device 1b viewed from the video presentation device 1b from the video presentation device 1b.

そして、位置・姿勢推定部40は、映像提示装置1aから見た映像提示装置1bの相対方位、映像提示装置1bから見た映像提示装置1aの相対方位、映像提示装置1a,1bの絶対的な傾き値に基づいて、映像提示装置1aから見た映像提示装置1bの姿勢を推定する。また、位置・姿勢推定部40は、全方位赤外線画像から赤外線LED36,37の位置を特定し、赤外線LED36,37の相対方位に基づいて方位角θを算出し、映像提示装置1aから見た映像提示装置1bの相対方位、予め設定された赤外線LED36,37の実際の距離a、方位角θ、及び映像提示装置1aから見た映像提示装置1bの姿勢に基づいて、映像提示装置1a,1bの距離dを推定する。また、位置・姿勢推定部40は、映像提示装置1a,1bの距離d、及び映像提示装置1aから見た映像提示装置1bの相対方位に基づいて、映像提示装置1aから見た映像提示装置1bの位置を推定するようにした。   The position / posture estimation unit 40 then determines the relative orientation of the video presentation device 1b viewed from the video presentation device 1a, the relative orientation of the video presentation device 1a viewed from the video presentation device 1b, and the absolute of the video presentation devices 1a and 1b. Based on the inclination value, the posture of the video presentation device 1b viewed from the video presentation device 1a is estimated. Further, the position / orientation estimation unit 40 identifies the positions of the infrared LEDs 36 and 37 from the omnidirectional infrared image, calculates the azimuth angle θ based on the relative orientation of the infrared LEDs 36 and 37, and the video viewed from the video presentation device 1a. Based on the relative orientation of the presentation device 1b, the preset actual distance a of the infrared LEDs 36 and 37, the azimuth angle θ, and the posture of the video presentation device 1b viewed from the video presentation device 1a, the video presentation devices 1a and 1b Estimate the distance d. Further, the position / posture estimation unit 40, based on the distance d between the video presentation devices 1a and 1b and the relative orientation of the video presentation device 1b viewed from the video presentation device 1a, the video presentation device 1b viewed from the video presentation device 1a. The position of was estimated.

このように、赤外線カメラ等の複数のセンサーを用いて、検出対象の映像提示装置1bの位置及び姿勢を推定するようにした。これにより、カメラ(映像提示サービスを実現する画像を取得するための提示処理部4にて用いるカメラ)の撮影範囲内にその映像提示装置1bの画面が存在しない場合であっても、赤外線カメラが映像提示装置1bに備えた赤外線LED36,37を撮影することができれば、映像提示装置1bの位置及び姿勢を推定することができる。したがって、このように推定した位置及び姿勢の情報を用いて、新しい映像を表現する映像提示サービスを実現することが可能となる。   Thus, the position and orientation of the video presentation device 1b to be detected are estimated using a plurality of sensors such as an infrared camera. Thereby, even when the screen of the video presentation device 1b does not exist within the shooting range of the camera (camera used in the presentation processing unit 4 for acquiring an image for realizing the video presentation service), the infrared camera If the infrared LEDs 36 and 37 provided in the video presentation device 1b can be photographed, the position and orientation of the video presentation device 1b can be estimated. Therefore, it is possible to realize a video presentation service that expresses a new video using the position and orientation information estimated in this way.

また、カメラ(映像提示サービスを実現する画像を取得するための提示処理部4にて用いるカメラ)を用いることなく、赤外線カメラ等の複数のセンサーを用いることで、映像提示装置1bの位置及び姿勢を推定するようにしたから、前述の特許文献1,2のような複雑な画像処理(マーカー等が含まれる画像に対して行う処理)が不要になる。したがって、低負荷の処理にて、例えば“Augmented TV”等の映像提示サービスを実現することが可能となる。   Further, the position and orientation of the video presentation device 1b can be obtained by using a plurality of sensors such as an infrared camera without using a camera (a camera used in the presentation processing unit 4 for acquiring an image for realizing a video presentation service). Therefore, complicated image processing (processing to be performed on an image including a marker or the like) as described in Patent Documents 1 and 2 is not necessary. Therefore, it is possible to realize a video presentation service such as “Augmented TV”, for example, with low-load processing.

また、映像提示装置1aから見た映像提示装置1bの位置及び姿勢が推定されるから、例えば、映像提示装置1bの画面を周囲に延長して映像コンテンツを提示することができ、映像提示装置1a,1bの位置関係を考慮したインタラクションの映像コンテンツを提示することができる。   In addition, since the position and orientation of the video presentation device 1b viewed from the video presentation device 1a are estimated, for example, the video content can be presented by extending the screen of the video presentation device 1b around the video presentation device 1a. , 1b, the video content of the interaction can be presented.

また、例えば、ユーザが操作する映像提示装置1aをルーペのように扱って、映像提示装置1aの画面に表示された映像提示装置1bの映像コンテンツの一部を拡大したり、等倍で見易くしたりするサービスが考えられる。具体的には、映像提示装置1aの提示処理部4は、カメラにより取得した画面である映像提示装置1bの映像コンテンツの一部を特定し、その一部のデータを、ネットワークを介して映像提示装置1bから受信し、拡大表示等する。   Further, for example, the video presentation device 1a operated by the user is handled like a loupe, and a part of the video content of the video presentation device 1b displayed on the screen of the video presentation device 1a is enlarged, or the video presentation device 1a is easy to see at the same magnification. Can be considered. Specifically, the presentation processing unit 4 of the video presentation device 1a specifies a part of video content of the video presentation device 1b which is a screen acquired by the camera, and presents a part of the data via the network. Received from the device 1b, enlarged display, etc.

〔実施例2/位置・姿勢処理部3〕
次に、実施例2の位置・姿勢処理部3について説明する。実施例2の位置・姿勢処理部3は、映像提示装置1aから見た映像提示装置1bの位置及び姿勢を推定するために、映像提示装置1bに備えた赤外線LEDを撮影する赤外線カメラ、絶対的な傾き値を検出する加速度センサー及び地磁気センサー、並びに、映像提示装置1bに備えた2つの赤外線LEDが点滅する位相差を検出する赤外線受光センサーを用いるものである。
[Example 2 / Position / Attitude Processing Unit 3]
Next, the position / posture processing unit 3 according to the second embodiment will be described. In order to estimate the position and orientation of the video presentation device 1b viewed from the video presentation device 1a, the position / posture processing unit 3 according to the second embodiment is an infrared camera that captures an infrared LED provided in the video presentation device 1b. An acceleration sensor and a geomagnetic sensor for detecting a simple inclination value, and an infrared light receiving sensor for detecting a phase difference in which two infrared LEDs provided in the video presentation device 1b blink are used.

図9は、実施例2の位置・姿勢処理部3の構成を示すブロック図である。この実施例2の位置・姿勢処理部3−2は、赤外線カメラ画像取得部31、方位検出部32、デバイスIDデコード部33、デバイスID記憶部34、デバイスIDエンコード部35、赤外線LED36,37、通信部38、傾き検出部39、位相差検出部41、距離差推定部42及び位置・姿勢推定部43を備えている。   FIG. 9 is a block diagram illustrating a configuration of the position / posture processing unit 3 according to the second embodiment. The position / posture processing unit 3-2 of the second embodiment includes an infrared camera image acquisition unit 31, an orientation detection unit 32, a device ID decoding unit 33, a device ID storage unit 34, a device ID encoding unit 35, infrared LEDs 36 and 37, A communication unit 38, an inclination detection unit 39, a phase difference detection unit 41, a distance difference estimation unit 42, and a position / posture estimation unit 43 are provided.

尚、赤外線カメラ画像取得部31に備えた赤外線カメラと、位相差検出部41に備えたセンサーとは、距離dを推定する処理等を行う上で所定誤差に収まるように、十分に近い位置に設けられているものとする。後述する実施例3等においても、赤外線カメラと各種センサーとは十分に近い位置に設けられているものとする。   The infrared camera provided in the infrared camera image acquisition unit 31 and the sensor provided in the phase difference detection unit 41 are sufficiently close to each other so as to be within a predetermined error in performing processing for estimating the distance d. It shall be provided. Also in Example 3 to be described later, the infrared camera and the various sensors are provided at sufficiently close positions.

実施例2の位置・姿勢処理部3−2と図8に示した実施例1の位置・姿勢処理部3−1とを比較すると、実施例2の位置・姿勢処理部3−2は、実施例1と同様に、赤外線カメラ画像取得部31、方位検出部32、デバイスIDデコード部33、デバイスID記憶部34、デバイスIDエンコード部35、赤外線LED36,37、通信部38及び傾き検出部39を備えているが、実施例1の位置・姿勢推定部40の代わりに、位相差検出部41、距離差推定部42及び位置・姿勢推定部43を備えている点で相違する。   Comparing the position / posture processing unit 3-2 of the second embodiment with the position / posture processing unit 3-1 of the first embodiment shown in FIG. 8, the position / posture processing unit 3-2 of the second embodiment As in Example 1, an infrared camera image acquisition unit 31, an orientation detection unit 32, a device ID decoding unit 33, a device ID storage unit 34, a device ID encoding unit 35, infrared LEDs 36 and 37, a communication unit 38, and an inclination detection unit 39 are provided. The difference is that a phase difference detection unit 41, a distance difference estimation unit 42, and a position / posture estimation unit 43 are provided instead of the position / posture estimation unit 40 of the first embodiment.

(相対方位及びデバイスID検出処理、通信路確立処理)
位置・姿勢処理部3−2は、図13に示した実施例1の相対方位及びデバイスID検出処理と同様の処理を行い、図14に示した実施例1の通信路確立処理と同様の処理を行う。
(Relative direction and device ID detection processing, communication path establishment processing)
The position / posture processing unit 3-2 performs the same processing as the relative orientation and device ID detection processing of the first embodiment shown in FIG. 13 and the same processing as the communication path establishment processing of the first embodiment shown in FIG. I do.

(デバイスID出力処理)
位置・姿勢処理部3−2は、図15に示した実施例1のデバイスID出力処理とは異なる処理を行う。図15に示した実施例1のデバイスID出力処理では、異なる符号A,Bに基づいて赤外線LED36,37を点滅させるようにしたが、実施例2のデバイスID出力処理では、同じ符号Aに基づいて赤外線LED36,37を点滅させる。
(Device ID output processing)
The position / posture processing unit 3-2 performs processing different from the device ID output processing according to the first embodiment illustrated in FIG. In the device ID output process of the first embodiment illustrated in FIG. 15, the infrared LEDs 36 and 37 are caused to blink based on different codes A and B. However, in the device ID output process of the second embodiment, the same code A is used. The infrared LEDs 36 and 37 are blinked.

具体的には、位置・姿勢処理部3−2のデバイスIDエンコード部35は、図15のステップS1501と同様に、デバイスID記憶部34から当該映像提示装置1aのデバイスIDを読み出し、デバイスIDをエンコードし、符号Aを生成する。そして、デバイスIDエンコード部35は、符号Aを反映したパルス信号を赤外線LED36,37に出力し、赤外線LED36,37を同じ位相にて点滅させる。これにより、映像提示装置1aのデバイスIDは、赤外線LED36,37から、当該デバイスIDの符号Aに従って同じ位相で点滅する赤外線パルスとして出力され、赤外線LED36,37は、当該映像提示装置1aにおいて同じタイミングの点滅状態となる。   Specifically, the device ID encoding unit 35 of the position / posture processing unit 3-2 reads the device ID of the video presentation device 1a from the device ID storage unit 34 in the same manner as in step S1501 of FIG. Encode to generate code A. Then, the device ID encoding unit 35 outputs a pulse signal reflecting the code A to the infrared LEDs 36 and 37, and causes the infrared LEDs 36 and 37 to blink at the same phase. Thereby, the device ID of the video presentation device 1a is output from the infrared LEDs 36 and 37 as infrared pulses blinking in the same phase according to the code A of the device ID, and the infrared LEDs 36 and 37 have the same timing in the video presentation device 1a. Will blink.

(位置・姿勢推定処理)
位置・姿勢処理部3−2は、全体として、図16に示した実施例1の位置・姿勢推定処理と同様の処理を行うが、詳細には、図16のステップS1607における距離推定手法とは異なる手法にて距離dを推定する。
(Position / posture estimation processing)
The position / posture processing unit 3-2 performs the same process as the position / posture estimation process of the first embodiment illustrated in FIG. 16 as a whole, but in detail, what is the distance estimation method in step S1607 of FIG. The distance d is estimated by a different method.

(距離推定処理)
図9を参照して、位相差検出部41は、図示しない赤外線受光センサーを備えており、映像提示装置1bに備えた赤外線LED36,37から出力される赤外線を受光し、両赤外線の点滅状態に基づいて、そのタイミング差を求め、両信号の位相差を検出する。映像提示装置1bに備えた赤外線LED36,37は、同じ符号A(映像提示装置1bのデバイスIDから生成された符号A)に基づいて点滅しており、位相差検出部41は、映像提示装置1aから見た映像提示装置1bに備えた赤外線LED36,37の位置(映像提示装置1aに備えた位相差検出部41から映像提示装置1bに備えた赤外線LED36までの距離、及び映像提示装置1aに備えた位相差検出部41から映像提示装置1bに備えた赤外線LED37までの距離)に応じて、赤外線LED36,37から異なる位相の赤外線を受光する。したがって、位相差検出部41は、位相差を検出することができる。
(Distance estimation processing)
Referring to FIG. 9, the phase difference detection unit 41 includes an infrared light receiving sensor (not shown), receives infrared rays output from the infrared LEDs 36 and 37 provided in the video presentation device 1 b, and turns on both infrared rays in a blinking state. Based on this, the timing difference is obtained, and the phase difference between the two signals is detected. The infrared LEDs 36 and 37 included in the video presentation device 1b are blinking based on the same code A (symbol A generated from the device ID of the video presentation device 1b), and the phase difference detection unit 41 is connected to the video presentation device 1a. The positions of the infrared LEDs 36 and 37 provided in the video presentation device 1b as viewed from (the distance from the phase difference detection unit 41 provided in the video presentation device 1a to the infrared LED 36 provided in the video presentation device 1b and the video presentation device 1a The infrared LEDs 36 and 37 receive infrared rays having different phases in accordance with the distance between the phase difference detection unit 41 and the infrared LED 37 provided in the video presentation device 1b. Therefore, the phase difference detection unit 41 can detect the phase difference.

距離差推定部42は、位相差検出部41により検出された位相差を入力し、位相差に基づいて、映像提示装置1aに備えた赤外線カメラと映像提示装置1bに備えた赤外線LED36,37との間の距離差(後述する図20に示す距離差f)を推定する。位相差と距離差とは、位相差が大きい場合は距離差も大きくなり、位相差が小さい場合は距離差も小さくなる関係にある。距離差推定部42は、位相差と距離差とが定義されたテーブルまたは計算式を用いて、位相差から距離差を推定する。   The distance difference estimation unit 42 receives the phase difference detected by the phase difference detection unit 41, and based on the phase difference, the infrared camera provided in the video presentation device 1a and the infrared LEDs 36 and 37 provided in the video presentation device 1b, Is estimated (distance difference f shown in FIG. 20 to be described later). The phase difference and the distance difference have a relationship that the distance difference increases when the phase difference is large, and the distance difference decreases when the phase difference is small. The distance difference estimation unit 42 estimates the distance difference from the phase difference using a table or calculation formula in which the phase difference and the distance difference are defined.

図17を参照して、実施例2の位置・姿勢推定部43は、距離推定部52、位置推定部56及び姿勢推定部57を備えている。位置推定部56及び姿勢推定部57の処理は、実施例1と同様であるから、ここでは説明を省略する。   With reference to FIG. 17, the position / posture estimation unit 43 of the second embodiment includes a distance estimation unit 52, a position estimation unit 56, and a posture estimation unit 57. Since the processing of the position estimation unit 56 and the posture estimation unit 57 is the same as that of the first embodiment, the description thereof is omitted here.

図17及び図18(2)を参照して、実施例2の距離推定部52は、全方位赤外線画像、LED識別情報、及び映像提示装置1aから見た映像提示装置1bの相対方位を入力すると共に、距離差推定部42により推定された距離差を入力し、これらのデータに基づいて、映像提示装置1aと映像提示装置1bとの間の距離dを推定する。   With reference to FIGS. 17 and 18 (2), the distance estimation unit 52 according to the second embodiment inputs the omnidirectional infrared image, the LED identification information, and the relative orientation of the video presentation device 1b viewed from the video presentation device 1a. At the same time, the distance difference estimated by the distance difference estimating unit 42 is input, and the distance d between the video presentation device 1a and the video presentation device 1b is estimated based on these data.

尚、デバイスIDデコード部33がLED識別情報を生成するために、赤外線LED36,37は、同じ符号Aに基づいて点滅する時間内の所定時間間隔において、異なる符号A,Bに基づいて点滅するものとする。   In addition, in order for the device ID decoding unit 33 to generate the LED identification information, the infrared LEDs 36 and 37 blink based on different codes A and B in a predetermined time interval within the time blinking based on the same code A. And

図20は、実施例2において距離dを推定する処理を説明する図である。映像提示装置1bに備えた赤外線LED36と赤外線LED37との間の距離をa、映像提示装置1aに備えた赤外線カメラと映像提示装置1bに備えた赤外線LED36との間の距離(映像提示装置1aと映像提示装置1bとの間の距離)をd、映像提示装置1aに備えた赤外線カメラと映像提示装置1bに備えた赤外線LED37との間の距離を(d+f)、赤外線カメラを基点とした赤外線LED36と赤外線LED37との間の角度である方位角をθとする。aは、予め設定された距離であり、fは、距離差推定部42により推定される距離差であり、dは、距離推定部52により推定される距離である。   FIG. 20 is a diagram illustrating processing for estimating the distance d in the second embodiment. The distance between the infrared LED 36 and the infrared LED 37 provided in the video presentation device 1b is a, and the distance between the infrared camera provided in the video presentation device 1a and the infrared LED 36 provided in the video presentation device 1b (the video presentation device 1a and The distance between the image presentation device 1b) is d, the distance between the infrared camera provided in the image presentation device 1a and the infrared LED 37 provided in the image presentation device 1b is (d + f), and the infrared LED 36 based on the infrared camera. An azimuth angle which is an angle between the LED and the infrared LED 37 is θ. a is a preset distance, f is a distance difference estimated by the distance difference estimation unit 42, and d is a distance estimated by the distance estimation unit 52.

距離推定部52は、全方位赤外線画像から、赤外線LED36,37の点滅状態を捉えてこれらを検出し、LED識別情報に基づいて、赤外線LED36,37の位置をそれぞれ特定する。   The distance estimation unit 52 detects the blinking state of the infrared LEDs 36 and 37 from the omnidirectional infrared image, detects them, and specifies the positions of the infrared LEDs 36 and 37 based on the LED identification information.

距離推定部51は、全方位赤外線画像における赤外線LED36の相対方位と赤外線LED37の相対方位との間の差分を求めることにより、方位角θを算出する。   The distance estimation unit 51 calculates the azimuth angle θ by obtaining a difference between the relative azimuth of the infrared LED 36 and the relative azimuth of the infrared LED 37 in the omnidirectional infrared image.

そして、距離推定部52は、以下の式により、予め設定された赤外線LED36と赤外線LED37との間の距離a、算出した方位角θ、及び入力した距離差fに基づいて、距離dを推定する。
=d+(d+f)−2d(d+f)cosθ ・・・(1)
Then, the distance estimation unit 52 estimates the distance d based on the preset distance a between the infrared LED 36 and the infrared LED 37, the calculated azimuth angle θ, and the input distance difference f by the following formula. .
a 2 = d 2 + (d + f) 2 −2d (d + f) cos θ (1)

以上のように、実施例2の位置・姿勢処理部3−2を備えた映像提示装置1aによれば、位置・姿勢処理部3−2は、符号Aにて赤外線LED36,37を点滅させ、映像提示装置1bに備えた赤外線LED36,37を含む全方位赤外線カメラ画像を取得し、映像提示装置1aから見た映像提示装置1bの相対方位を検出し、映像提示装置1bのデバイスIDを検出し、映像提示装置1aと映像提示装置1bとの間の通信路を確立し、映像提示装置1aの絶対的な傾き値を検出し、映像提示装置1bから、映像提示装置1bの絶対的な傾き値を受信するようにした。   As described above, according to the video presentation device 1a including the position / posture processing unit 3-2 of the second embodiment, the position / posture processing unit 3-2 blinks the infrared LEDs 36 and 37 with the symbol A, An omnidirectional infrared camera image including infrared LEDs 36 and 37 provided in the video presentation device 1b is acquired, the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is detected, and the device ID of the video presentation device 1b is detected. The communication path between the video presentation device 1a and the video presentation device 1b is established, the absolute inclination value of the video presentation device 1a is detected, and the absolute inclination value of the video presentation device 1b is detected from the video presentation device 1b. To receive.

そして、位相差検出部41は、映像提示装置1bに備えた赤外線LED36,37の点滅の位相差を検出し、距離差推定部42は、位相差から赤外線LED36,37の距離差fを推定するようにした。位置・姿勢推定部43は、実施例1の位置・姿勢推定部40と同様に、映像提示装置1aから見た映像提示装置1bの姿勢を推定する。また、位置・姿勢推定部43は、全方位赤外線画像から赤外線LED36,37の位置を特定し、赤外線LED36の相対方位と赤外線LED37の相対方位とに基づいて方位角θを算出し、予め設定された赤外線LED36,37の実際の距離a、方位角θ、距離差fに基づいて、前記(1)式により、距離dを推定する。また、位置・姿勢推定部43は、実施例1の位置・姿勢推定部40と同様に、映像提示装置1aから見た映像提示装置1bの位置を推定するようにした。   And the phase difference detection part 41 detects the phase difference of blinking of infrared LED36,37 with which the video presentation apparatus 1b was equipped, and the distance difference estimation part 42 estimates the distance difference f of infrared LED36,37 from a phase difference. I did it. The position / posture estimation unit 43 estimates the posture of the video presentation device 1b viewed from the video presentation device 1a, similarly to the position / posture estimation unit 40 of the first embodiment. Further, the position / orientation estimation unit 43 specifies the positions of the infrared LEDs 36 and 37 from the omnidirectional infrared image, calculates the azimuth angle θ based on the relative orientation of the infrared LED 36 and the relative orientation of the infrared LED 37, and is set in advance. On the basis of the actual distance a, azimuth angle θ, and distance difference f of the infrared LEDs 36 and 37, the distance d is estimated by the above equation (1). In addition, the position / posture estimation unit 43 estimates the position of the video presentation device 1b viewed from the video presentation device 1a, similarly to the position / posture estimation unit 40 of the first embodiment.

このように、赤外線カメラ等の複数のセンサーを用いて、検出対象の映像提示装置1bの位置及び姿勢を推定するようにした。これにより、実施例1と同様の効果を奏する。特に、映像提示装置1aが、映像提示装置1bから見た映像提示装置1aの相対方位を映像提示装置1bから受信することができないタイミングがあっても、距離dを推定することができる。したがって、カメラの撮影範囲内にその映像提示装置1bの画面が存在しない場合であっても、映像提示装置1bの位置及び姿勢を推定することができ、このように推定した位置及び姿勢の情報を用いて、新しい映像を表現する映像提示サービスを実現することが可能となる。   Thus, the position and orientation of the video presentation device 1b to be detected are estimated using a plurality of sensors such as an infrared camera. Thereby, there exists an effect similar to Example 1. In particular, the distance d can be estimated even when there is a timing at which the video presentation device 1a cannot receive the relative orientation of the video presentation device 1a viewed from the video presentation device 1b from the video presentation device 1b. Therefore, even when the screen of the video presentation device 1b does not exist within the shooting range of the camera, the position and orientation of the video presentation device 1b can be estimated. By using this, it is possible to realize a video presentation service that expresses a new video.

〔実施例3/位置・姿勢処理部3〕
次に、実施例3の位置・姿勢処理部3について説明する。実施例3の位置・姿勢処理部3は、映像提示装置1aから見た映像提示装置1bの位置及び姿勢を推定するために、映像提示装置1bに備えた赤外線LEDを撮影する赤外線カメラ、絶対的な傾き値を検出する加速度センサー及び地磁気センサー、並びに、映像提示装置1bの距離画像を取得する全方位距離画像センサーを用いるものである。
[Example 3 / Position / Attitude Processing Unit 3]
Next, the position / posture processing unit 3 according to the third embodiment will be described. In order to estimate the position and orientation of the video presentation device 1b viewed from the video presentation device 1a, the position / posture processing unit 3 according to the third embodiment is an infrared camera that captures an infrared LED provided in the video presentation device 1b. An acceleration sensor and a geomagnetic sensor that detect a simple inclination value, and an omnidirectional distance image sensor that acquires a distance image of the video presentation device 1b are used.

図10は、実施例3の位置・姿勢処理部3の構成を示すブロック図である。この実施例3の位置・姿勢処理部3−3は、赤外線カメラ画像取得部31、方位検出部32、デバイスIDデコード部33、デバイスID記憶部34、デバイスIDエンコード部35、赤外線LED36、通信部38、傾き検出部39、距離画像取得部44及び位置・姿勢推定部45を備えている。   FIG. 10 is a block diagram illustrating a configuration of the position / posture processing unit 3 according to the third embodiment. The position / posture processing unit 3-3 of the third embodiment includes an infrared camera image acquisition unit 31, an orientation detection unit 32, a device ID decoding unit 33, a device ID storage unit 34, a device ID encoding unit 35, an infrared LED 36, and a communication unit. 38, an inclination detection unit 39, a distance image acquisition unit 44, and a position / posture estimation unit 45.

実施例3の位置・姿勢処理部3−3と図8に示した実施例1の位置・姿勢処理部3−1とを比較すると、実施例3の位置・姿勢処理部3−3は、実施例1と同様に、赤外線カメラ画像取得部31、方位検出部32、デバイスIDデコード部33、デバイスID記憶部34、デバイスIDエンコード部35、赤外線LED36、通信部38及び傾き検出部39を備えているが、実施例1の赤外線LED37を備えておらず、実施例1の位置・姿勢推定部40の代わりに、距離画像取得部44及び位置・姿勢推定部45を備えている点で相違する。   When the position / posture processing unit 3-3 of the third embodiment is compared with the position / posture processing unit 3-1 of the first embodiment shown in FIG. Similar to Example 1, an infrared camera image acquisition unit 31, an orientation detection unit 32, a device ID decoding unit 33, a device ID storage unit 34, a device ID encoding unit 35, an infrared LED 36, a communication unit 38, and an inclination detection unit 39 are provided. However, the difference is that the infrared LED 37 of the first embodiment is not provided, and a distance image acquisition unit 44 and a position / posture estimation unit 45 are provided instead of the position / posture estimation unit 40 of the first embodiment.

(相対方位及びデバイスID検出処理、通信路確立処理)
位置・姿勢処理部3−3は、図13に示した実施例1の相対方位及びデバイスID検出処理と同様の処理を行い、図14に示した実施例1の通信路確立処理と同様の処理を行う。
(Relative direction and device ID detection processing, communication path establishment processing)
The position / posture processing unit 3-3 performs the same processing as the relative orientation and device ID detection processing of the first embodiment shown in FIG. 13, and the same processing as the communication path establishment processing of the first embodiment shown in FIG. I do.

(デバイスID出力処理)
位置・姿勢処理部3−3は、図15に示した実施例1のデバイスID出力処理とは異なる処理を行う。図15に示した実施例1のデバイスID出力処理では、2つの赤外線LED36,37を点滅させるようにしたが、実施例3のデバイスID出力処理では、1つの赤外線LED36を点滅させる。
(Device ID output processing)
The position / posture processing unit 3-3 performs processing different from the device ID output processing according to the first embodiment illustrated in FIG. In the device ID output process of the first embodiment shown in FIG. 15, the two infrared LEDs 36 and 37 are blinked. However, in the device ID output process of the third embodiment, one infrared LED 36 is blinked.

具体的には、位置・姿勢処理部3−3のデバイスIDエンコード部35は、図15のステップS1501と同様に、デバイスID記憶部34から当該映像提示装置1aのデバイスIDを読み出し、デバイスIDをエンコードし、符号Aを生成する。そして、デバイスIDエンコード部35は、符号Aを反映したパルス信号を赤外線LED36に出力し、赤外線LED36を点滅させる。これにより、映像提示装置1aのデバイスIDは、赤外線LED36から、当該デバイスIDの符号Aに従って点滅する赤外線パルスとして出力される。   Specifically, the device ID encoding unit 35 of the position / posture processing unit 3-3 reads out the device ID of the video presentation device 1a from the device ID storage unit 34 as in step S1501 of FIG. Encode to generate code A. Then, the device ID encoding unit 35 outputs a pulse signal reflecting the code A to the infrared LED 36 and causes the infrared LED 36 to blink. As a result, the device ID of the video presentation device 1a is output from the infrared LED 36 as an infrared pulse that blinks in accordance with the symbol A of the device ID.

(位置・姿勢推定処理)
位置・姿勢処理部3−3は、全体として、図16に示した実施例1の位置・姿勢推定処理と同様の処理を行うが、詳細には、図16のステップS1607における距離推定手法とは異なる手法にて距離dを推定する。
(Position / posture estimation processing)
The position / posture processing unit 3-3 performs the same process as the position / posture estimation process of the first embodiment illustrated in FIG. 16 as a whole, but more specifically, the distance estimation method in step S1607 of FIG. The distance d is estimated by a different method.

(距離推定処理)
図10を参照して、距離画像取得部44は、図示しない全方位距離画像センサーを備えており、映像提示装置1bに備えた赤外線LED36を含む全方位距離画像を取得する。全方位距離画像センサーは、赤外線を対象物に照射し、反射して帰ってくるまでの時間を測定することで得られた距離の画像を得る測定器である。
(Distance estimation processing)
Referring to FIG. 10, the distance image acquisition unit 44 includes an omnidirectional distance image sensor (not shown), and acquires an omnidirectional distance image including the infrared LED 36 included in the video presentation device 1b. The omnidirectional distance image sensor is a measuring device that obtains an image of a distance obtained by irradiating an object with infrared rays and measuring the time from reflection to return.

図17を参照して、実施例3の位置・姿勢推定部45は、距離推定部53、位置推定部56及び姿勢推定部57を備えている。位置推定部56及び姿勢推定部57の処理は、実施例1と同様であるから、ここでは説明を省略する。尚、実施例3の位置・姿勢推定部45は、LED識別情報を入力しない。後述する実施例4の位置・姿勢推定部48及び実施例5の位置・姿勢推定部50についても同様である。   With reference to FIG. 17, the position / posture estimation unit 45 of the third embodiment includes a distance estimation unit 53, a position estimation unit 56, and a posture estimation unit 57. Since the processing of the position estimation unit 56 and the posture estimation unit 57 is the same as that of the first embodiment, the description thereof is omitted here. Note that the position / posture estimation unit 45 of the third embodiment does not input LED identification information. The same applies to a position / posture estimation unit 48 of Example 4 and a position / posture estimation unit 50 of Example 5 described later.

図17及び図18(3)を参照して、実施例3の距離推定部53は、映像提示装置1aから見た映像提示装置1bの相対方位(映像提示装置1bに備えた赤外線LED36の相対方位)を入力すると共に、距離画像取得部44により取得された全方位距離画像を入力する。そして、距離推定部53は、全方位距離画像から、映像提示装置1bまでの間の距離を特定する。そして、距離推定部53は、映像提示装置1bまでの間の距離のうち、映像提示装置1aから見た映像提示装置1bの相対方位が示す方向の距離を、映像提示装置1aと映像提示装置1bとの間の距離dとして推定する。   With reference to FIG. 17 and FIG. 18 (3), the distance estimation unit 53 of the third embodiment is a relative orientation of the video presentation device 1b viewed from the video presentation device 1a (a relative orientation of the infrared LED 36 provided in the video presentation device 1b). ) And an omnidirectional distance image acquired by the distance image acquisition unit 44 are input. Then, the distance estimation unit 53 identifies the distance from the omnidirectional distance image to the video presentation device 1b. And the distance estimation part 53 shows the distance of the direction which the relative azimuth | direction of the video presentation apparatus 1b seen from the video presentation apparatus 1a among the distances to the video presentation apparatus 1b shows, and the video presentation apparatus 1b. Estimated as the distance d between.

以上のように、実施例3の位置・姿勢処理部3−3を備えた映像提示装置1aによれば、位置・姿勢処理部3−3は、符号Aにて赤外線LED36を点滅させ、映像提示装置1bに備えた赤外線LED36を含む全方位赤外線カメラ画像を取得し、映像提示装置1aから見た映像提示装置1bの相対方位を検出し、映像提示装置1bのデバイスIDを検出し、映像提示装置1aと映像提示装置1bとの間の通信路を確立し、映像提示装置1aの絶対的な傾き値を検出し、映像提示装置1bから、映像提示装置1bから見た映像提示装置1aの相対方位及び映像提示装置1bの絶対的な傾き値を受信するようにした。   As described above, according to the video presentation device 1a including the position / posture processing unit 3-3 according to the third embodiment, the position / posture processing unit 3-3 blinks the infrared LED 36 with the symbol A to present the video. An omnidirectional infrared camera image including the infrared LED 36 provided in the device 1b is acquired, the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is detected, the device ID of the video presentation device 1b is detected, and the video presentation device The communication channel between 1a and the video presentation device 1b is established, the absolute inclination value of the video presentation device 1a is detected, and the relative orientation of the video presentation device 1a viewed from the video presentation device 1b is detected from the video presentation device 1b. In addition, the absolute inclination value of the video presentation device 1b is received.

そして、距離画像取得部44は、映像提示装置1bに備えた赤外線LED36を含む全方位距離画像を取得するようにした。そして、位置・姿勢推定部45は、実施例1の位置・姿勢推定部40と同様に、映像提示装置1aから見た映像提示装置1bの姿勢を推定する。また、位置・姿勢推定部45は、映像提示装置1bから見た映像提示装置1aの相対方位、及び全方位距離画像から得た映像提示装置1bまでの間の距離に基づいて、映像提示装置1aと映像提示装置1bとの間の距離dを推定する。そして、位置・姿勢推定部45は、実施例1の位置・姿勢推定部40と同様に、映像提示装置1aから見た映像提示装置1bの位置を推定するようにした。   And the distance image acquisition part 44 was made to acquire the omnidirectional distance image containing the infrared LED 36 with which the video presentation apparatus 1b was equipped. Then, the position / posture estimation unit 45 estimates the posture of the video presentation device 1b as viewed from the video presentation device 1a, similarly to the position / posture estimation unit 40 of the first embodiment. The position / posture estimation unit 45 also determines the video presentation device 1a based on the relative orientation of the video presentation device 1a viewed from the video presentation device 1b and the distance to the video presentation device 1b obtained from the omnidirectional distance image. And the distance d between the video presentation device 1b is estimated. Then, the position / posture estimation unit 45 estimates the position of the video presentation device 1b viewed from the video presentation device 1a in the same manner as the position / posture estimation unit 40 of the first embodiment.

このように、赤外線カメラ等の複数のセンサーを用いて、検出対象の映像提示装置1bの位置及び姿勢を推定するようにした。これにより、実施例1と同様の効果を奏する。したがって、カメラの撮影範囲内にその映像提示装置1bの画面が存在しない場合であっても、映像提示装置1bの位置及び姿勢を推定することができ、このように推定した位置及び姿勢の情報を用いて、新しい映像を表現する映像提示サービスを実現することが可能となる。   Thus, the position and orientation of the video presentation device 1b to be detected are estimated using a plurality of sensors such as an infrared camera. Thereby, there exists an effect similar to Example 1. Therefore, even when the screen of the video presentation device 1b does not exist within the shooting range of the camera, the position and orientation of the video presentation device 1b can be estimated. By using this, it is possible to realize a video presentation service that expresses a new video.

〔実施例4/位置・姿勢処理部3〕
次に、実施例4の位置・姿勢処理部3について説明する。実施例4の位置・姿勢処理部3は、映像提示装置1aから見た映像提示装置1bの位置及び姿勢を推定するために、映像提示装置1bに備えた赤外線LEDを撮影する赤外線カメラ、絶対的な傾き値を検出する加速度センサー及び地磁気センサー、並びに、映像提示装置1bとの間の距離を計測するレーザーセンサーを用いるものである。
[Example 4 / Position / Attitude Processing Unit 3]
Next, the position / posture processing unit 3 according to the fourth embodiment will be described. In order to estimate the position and orientation of the video presentation device 1b viewed from the video presentation device 1a, the position / posture processing unit 3 according to the fourth embodiment is an infrared camera that captures an infrared LED provided in the video presentation device 1b. An acceleration sensor and a geomagnetic sensor for detecting a simple inclination value, and a laser sensor for measuring a distance from the video presentation device 1b are used.

図11は、実施例4の位置・姿勢処理部3の構成を示すブロック図である。この実施例4の位置・姿勢処理部3−4は、赤外線カメラ画像取得部31、方位検出部32、デバイスIDデコード部33、デバイスID記憶部34、デバイスIDエンコード部35、赤外線LED36、通信部38、傾き検出部39、再帰性反射部46、レーザー距離計部47及び位置・姿勢推定部48を備えている。   FIG. 11 is a block diagram illustrating a configuration of the position / posture processing unit 3 according to the fourth embodiment. The position / posture processing unit 3-4 of the fourth embodiment includes an infrared camera image acquisition unit 31, an orientation detection unit 32, a device ID decoding unit 33, a device ID storage unit 34, a device ID encoding unit 35, an infrared LED 36, and a communication unit. 38, an inclination detector 39, a retroreflector 46, a laser distance meter 47, and a position / posture estimator 48.

実施例4の位置・姿勢処理部3−4と図10に示した実施例3の位置・姿勢処理部3−3とを比較すると、実施例4の位置・姿勢処理部3−4は、実施例3と同様に、赤外線カメラ画像取得部31、方位検出部32、デバイスIDデコード部33、デバイスID記憶部34、デバイスIDエンコード部35、赤外線LED36、通信部38及び傾き検出部39を備えているが、実施例3の距離画像取得部44及び位置・姿勢推定部45の代わりに、再帰性反射部46、レーザー距離計部47及び位置・姿勢推定部48を備えている点で相違する。   When the position / posture processing unit 3-4 of the fourth embodiment and the position / posture processing unit 3-3 of the third embodiment shown in FIG. 10 are compared, the position / posture processing unit 3-4 of the fourth embodiment As in Example 3, an infrared camera image acquisition unit 31, an orientation detection unit 32, a device ID decoding unit 33, a device ID storage unit 34, a device ID encoding unit 35, an infrared LED 36, a communication unit 38, and a tilt detection unit 39 are provided. However, it is different in that a retroreflecting unit 46, a laser distance meter unit 47, and a position / posture estimation unit 48 are provided instead of the distance image acquisition unit 44 and the position / posture estimation unit 45 of the third embodiment.

(相対方位及びデバイスID検出処理、通信路確立処理、デバイスID出力処理)
位置・姿勢処理部3−4は、図13に示した実施例1の相対方位及びデバイスID検出処理と同様の処理を行い、図14に示した実施例1の通信路確立処理と同様の処理を行う。また、位置・姿勢処理部3−4は、実施例3のデバイスID出力処理と同様の処理を行う。
(Relative direction and device ID detection processing, communication path establishment processing, device ID output processing)
The position / posture processing unit 3-4 performs processing similar to the relative orientation and device ID detection processing of the first embodiment illustrated in FIG. 13 and processing similar to the communication path establishment processing of the first embodiment illustrated in FIG. I do. The position / posture processing unit 3-4 performs the same process as the device ID output process of the third embodiment.

(位置・姿勢推定処理)
位置・姿勢処理部3−4は、全体として、図16に示した実施例1の位置・姿勢推定処理と同様の処理を行うが、詳細には、図16のステップS1607における距離推定手法とは異なる手法にて距離dを推定する。
(Position / posture estimation processing)
The position / posture processing unit 3-4 as a whole performs the same processing as the position / posture estimation processing of the first embodiment shown in FIG. 16, but more specifically, the distance estimation method in step S1607 of FIG. The distance d is estimated by a different method.

(距離推定処理)
図11を参照して、レーザー距離計部47は、図示しないレーザーセンサーを備えており、方位検出部32から、映像提示装置1aから見た映像提示装置1bの相対方位(映像提示装置1bに備えた赤外線LED36の相対方位)を入力し、入力した相対方位に基づいて、映像提示装置1bに備えた再帰性反射部46の方向を特定し、レーザーセンサーから、特定した方向へレーザーを発光し、映像提示装置1bに備えた再帰性反射部46に反射させる。レーザー距離計部47は、レーザーセンサーにて、映像提示装置1bに備えた再帰性反射部46に反射したレーザーを受光し、発光してから受光するための間の時間を測定することで、レーザー距離を計測する。レーザー距離計部47により計測されたレーザー距離は、位置・姿勢推定部48において、映像提示装置1aと映像提示装置1bとの間の距離dとして用いられる。
(Distance estimation processing)
Referring to FIG. 11, the laser distance measuring unit 47 includes a laser sensor (not shown), and from the orientation detection unit 32, the relative orientation of the video presentation device 1b viewed from the video presentation device 1a (provided in the video presentation device 1b). The relative direction of the infrared LED 36) is input, based on the input relative direction, the direction of the retroreflecting unit 46 provided in the video presentation device 1b is specified, and the laser is emitted from the laser sensor in the specified direction, It is reflected by the retroreflecting unit 46 provided in the video presentation device 1b. The laser distance meter unit 47 receives the laser beam reflected by the retroreflecting unit 46 provided in the video presentation device 1b by a laser sensor, and measures the time between receiving and receiving the laser beam. Measure distance. The laser distance measured by the laser distance meter unit 47 is used as the distance d between the video presentation device 1a and the video presentation device 1b in the position / posture estimation unit 48.

図17を参照して、実施例4の位置・姿勢推定部48は、位置推定部56及び姿勢推定部57を備えている。実施例4の位置・姿勢推定部48は、実施例1〜4の位置・姿勢推定部40,43,45及び後述する実施例5の位置・姿勢推定部50と異なり、距離推定部51〜53,55に相当する構成部を備えていない。このため、図18には、実施例4について示していない。   With reference to FIG. 17, the position / posture estimation unit 48 of the fourth embodiment includes a position estimation unit 56 and a posture estimation unit 57. The position / posture estimation unit 48 of the fourth embodiment is different from the position / posture estimation units 40, 43, 45 of the first to fourth embodiments and the position / posture estimation unit 50 of the fifth embodiment which will be described later. , 55 is not provided. For this reason, FIG. 18 does not show Example 4.

図17を参照して、実施例4の位置推定部56は、距離dの代わりにレーザー距離を入力し、入力したレーザー距離を距離dとして扱う。実施例4の位置推定部56におけるその他の処理は、実施例1と同様であり、また、実施例4の姿勢推定部57における処理は、実施例1と同様であるから、ここでは説明を省略する。   Referring to FIG. 17, the position estimation unit 56 according to the fourth embodiment inputs a laser distance instead of the distance d, and handles the input laser distance as the distance d. The other processes in the position estimation unit 56 of the fourth embodiment are the same as those of the first embodiment, and the processes in the posture estimation section 57 of the fourth embodiment are the same as those of the first embodiment. To do.

以上のように、実施例4の位置・姿勢処理部3−4を備えた映像提示装置1aによれば、位置・姿勢処理部3−4は、符号Aにて赤外線LED36を点滅させ、映像提示装置1bに備えた赤外線LED36を含む全方位赤外線カメラ画像を取得し、映像提示装置1aから見た映像提示装置1bの相対方位を検出し、映像提示装置1bのデバイスIDを検出し、映像提示装置1aと映像提示装置1bとの間の通信路を確立し、映像提示装置1aの絶対的な傾き値を検出し、映像提示装置1bから、映像提示装置1bから見た映像提示装置1aの相対方位及び映像提示装置1bの絶対的な傾き値を受信するようにした。   As described above, according to the video presentation device 1 a including the position / posture processing unit 3-4 of the fourth embodiment, the position / posture processing unit 3-4 blinks the infrared LED 36 with the symbol A to present the video. An omnidirectional infrared camera image including the infrared LED 36 provided in the device 1b is acquired, the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is detected, the device ID of the video presentation device 1b is detected, and the video presentation device The communication channel between 1a and the video presentation device 1b is established, the absolute inclination value of the video presentation device 1a is detected, and the relative orientation of the video presentation device 1a viewed from the video presentation device 1b is detected from the video presentation device 1b. In addition, the absolute inclination value of the video presentation device 1b is received.

そして、レーザー距離計部47は、映像提示装置1aから見た映像提示装置1bの相対方位が示す方向へレーザーを発光し、映像提示装置1bに備えた再帰性反射部46に反射させ、反射したレーザーを受光し、レーザー距離を計測するようにした。そして、位置・姿勢推定部48は、実施例1の位置・姿勢推定部40と同様に、映像提示装置1aから見た映像提示装置1bの姿勢を推定する。また、位置・姿勢推定部48は、レーザー距離を、映像提示装置1aと映像提示装置1bとの間の距離dとして入力し、実施例1の位置・姿勢推定部40と同様に、映像提示装置1aから見た映像提示装置1bの位置を推定するようにした。   Then, the laser distance meter unit 47 emits a laser in the direction indicated by the relative orientation of the video presentation device 1b viewed from the video presentation device 1a, and reflects and reflects it to the retroreflecting unit 46 provided in the video presentation device 1b. The laser was received and the laser distance was measured. Then, the position / posture estimation unit 48 estimates the posture of the video presentation device 1b viewed from the video presentation device 1a, similarly to the position / posture estimation unit 40 of the first embodiment. Further, the position / posture estimation unit 48 inputs the laser distance as the distance d between the video presentation device 1a and the video presentation device 1b, and the video presentation device as in the position / posture estimation unit 40 of the first embodiment. The position of the video presentation device 1b viewed from 1a is estimated.

このように、赤外線カメラ等の複数のセンサーを用いて、検出対象の映像提示装置1bの位置及び姿勢を推定するようにした。これにより、実施例1と同様の効果を奏する。したがって、カメラの撮影範囲内にその映像提示装置1bの画面が存在しない場合であっても、映像提示装置1bの位置及び姿勢を推定することができ、このように推定した位置及び姿勢の情報を用いて、新しい映像を表現する映像提示サービスを実現することが可能となる。   Thus, the position and orientation of the video presentation device 1b to be detected are estimated using a plurality of sensors such as an infrared camera. Thereby, there exists an effect similar to Example 1. Therefore, even when the screen of the video presentation device 1b does not exist within the shooting range of the camera, the position and orientation of the video presentation device 1b can be estimated. By using this, it is possible to realize a video presentation service that expresses a new video.

〔実施例5/位置・姿勢処理部3〕
次に、実施例5の位置・姿勢処理部3について説明する。実施例5の位置・姿勢処理部3は、映像提示装置1aから見た映像提示装置1bの位置及び姿勢を推定するために、映像提示装置1bに備えた球型赤外線LEDを撮影する赤外線カメラ、並びに、絶対的な傾き値を検出する加速度センサー及び地磁気センサーを用いるものである。
[Example 5 / Position / Attitude Processing Unit 3]
Next, the position / posture processing unit 3 according to the fifth embodiment will be described. In order to estimate the position and orientation of the video presentation device 1b viewed from the video presentation device 1a, the position / posture processing unit 3 of Embodiment 5 is an infrared camera that captures a spherical infrared LED provided in the video presentation device 1b. In addition, an acceleration sensor and a geomagnetic sensor for detecting an absolute inclination value are used.

図12は、実施例5の位置・姿勢処理部3の構成を示すブロック図である。この実施例5の位置・姿勢処理部3−5は、赤外線カメラ画像取得部31、方位検出部32、デバイスIDデコード部33、デバイスID記憶部34、デバイスIDエンコード部35、通信部38、傾き検出部39、球型赤外線LED49及び位置・姿勢推定部50を備えている。   FIG. 12 is a block diagram illustrating a configuration of the position / posture processing unit 3 according to the fifth embodiment. The position / posture processing unit 3-5 of the fifth embodiment includes an infrared camera image acquisition unit 31, an orientation detection unit 32, a device ID decoding unit 33, a device ID storage unit 34, a device ID encoding unit 35, a communication unit 38, an inclination A detection unit 39, a spherical infrared LED 49, and a position / posture estimation unit 50 are provided.

実施例5の位置・姿勢処理部3−5と図10に示した実施例3の位置・姿勢処理部3−3とを比較すると、実施例5の位置・姿勢処理部3−5は、実施例3と同様に、赤外線カメラ画像取得部31、方位検出部32、デバイスIDデコード部33、デバイスID記憶部34、デバイスIDエンコード部35、通信部38及び傾き検出部39を備えているが、実施例3の赤外線LED36の代わりに球型赤外線LED49を備え、実施例3の距離画像取得部44及び位置・姿勢推定部45の代わりに、位置・姿勢推定部50を備えている点で相違する。   When the position / posture processing unit 3-5 of the fifth embodiment is compared with the position / posture processing unit 3-3 of the third embodiment shown in FIG. 10, the position / posture processing unit 3-5 of the fifth embodiment As in Example 3, it includes an infrared camera image acquisition unit 31, an orientation detection unit 32, a device ID decoding unit 33, a device ID storage unit 34, a device ID encoding unit 35, a communication unit 38, and an inclination detection unit 39. A spherical infrared LED 49 is provided instead of the infrared LED 36 of the third embodiment, and a position / posture estimation unit 50 is provided instead of the distance image acquisition unit 44 and the position / posture estimation unit 45 of the third embodiment. .

(相対方位及びデバイスID検出処理、通信路確立処理、デバイスID出力処理)
位置・姿勢処理部3−5は、図13に示した実施例1の相対方位及びデバイスID検出処理と同様の処理を行い、図14に示した実施例1の通信路確立処理と同様の処理を行う。また、位置・姿勢処理部3−5は、赤外線LED36の代わりに球型赤外線LED49を用いて、実施例3のデバイスID出力処理と同様の処理を行う。
(Relative direction and device ID detection processing, communication path establishment processing, device ID output processing)
The position / posture processing unit 3-5 performs the same processing as the relative orientation and device ID detection processing of the first embodiment shown in FIG. 13, and the same processing as the communication path establishment processing of the first embodiment shown in FIG. I do. The position / posture processing unit 3-5 performs the same process as the device ID output process of the third embodiment using the spherical infrared LED 49 instead of the infrared LED 36.

球型赤外線LED49は、赤外線LED36よりもサイズが大きい。また、当該映像提示装置1aにより取得される全方位赤外線画像に含まれる球型赤外線LED49のサイズ(例えば直径)は、他の映像提示装置1bとの間の距離に応じて変化する。   The spherical infrared LED 49 is larger in size than the infrared LED 36. In addition, the size (for example, diameter) of the spherical infrared LED 49 included in the omnidirectional infrared image acquired by the video presentation device 1a changes according to the distance from the other video presentation device 1b.

(位置・姿勢推定処理)
位置・姿勢処理部3−5は、全体として、図16に示した実施例1の位置・姿勢推定処理と同様の処理を行うが、詳細には、図16のステップS1607における距離推定手法とは異なる手法にて距離dを推定する。
(Position / posture estimation processing)
The position / posture processing unit 3-5 as a whole performs the same processing as the position / posture estimation processing of the first embodiment shown in FIG. 16, but in detail, what is the distance estimation method in step S1607 of FIG. The distance d is estimated by a different method.

(距離推定処理)
図17を参照して、実施例5の位置・姿勢推定部50は、距離推定部55、位置推定部56及び姿勢推定部57を備えている。位置推定部56及び姿勢推定部57の処理は、実施例1と同様であるから、ここでは説明を省略する。
(Distance estimation processing)
Referring to FIG. 17, the position / posture estimation unit 50 of the fifth embodiment includes a distance estimation unit 55, a position estimation unit 56, and a posture estimation unit 57. Since the processing of the position estimation unit 56 and the posture estimation unit 57 is the same as that of the first embodiment, the description thereof is omitted here.

図17及び図18(4)を参照して、実施例5の距離推定部55は、全方位赤外線画像、及び映像提示装置1aから見た映像提示装置1bの相対方位(映像提示装置1bに備えた球型赤外線LED49の相対方位)を入力する。そして、距離推定部55は、全方位赤外線画像から、球型赤外線LED49の点滅状態を捉えて球型赤外線LED49を検出し、球型赤外線LED49の画像上のサイズ(例えば直径のピクセル数)を算出する。   With reference to FIG. 17 and FIG. 18 (4), the distance estimation unit 55 of the fifth embodiment includes the omnidirectional infrared image and the relative orientation of the video presentation device 1b viewed from the video presentation device 1a (provided in the video presentation device 1b). The relative orientation of the spherical infrared LED 49 is input. Then, the distance estimating unit 55 detects the blinking state of the spherical infrared LED 49 from the omnidirectional infrared image, detects the spherical infrared LED 49, and calculates the size of the spherical infrared LED 49 on the image (for example, the number of pixels having a diameter). To do.

距離推定部55は、算出した球型赤外線LED49の画像上のサイズ、及び予め設定された球型赤外線LED49の実際のサイズ(例えば直径)に基づいて、映像提示装置1aと映像提示装置1bとの間の距離dを推定する。算出した球型赤外線LED49の画像上のサイズと、推定する距離dとの間の関係は、球型赤外線LED49の画像上のサイズが大きいほど距離dは短くなり、球型赤外線LED49の画像上のサイズが小さいほど距離dは長くなる。例えば、距離推定部55は、予め設定された球型赤外線LED49の実際のサイズに対する、算出した球型赤外線LED49の画像上のサイズの比率と、距離dとの関係を定義したテーブルまたは計算式を用いて、距離dを推定する。   The distance estimation unit 55 determines whether the video presentation device 1a and the video presentation device 1b are based on the calculated size of the spherical infrared LED 49 on the image and the actual size (for example, diameter) of the spherical infrared LED 49 set in advance. The distance d between is estimated. The relationship between the calculated size of the spherical infrared LED 49 on the image and the estimated distance d is such that the larger the size of the spherical infrared LED 49 on the image, the shorter the distance d. The smaller the size, the longer the distance d. For example, the distance estimation unit 55 uses a table or a calculation formula that defines the relationship between the ratio of the calculated size of the spherical infrared LED 49 on the image to the actual size of the spherical infrared LED 49 and the distance d. To estimate the distance d.

以上のように、実施例5の位置・姿勢処理部3−5を備えた映像提示装置1aによれば、位置・姿勢処理部3−5は、符号Aにて球型赤外線LED49を点滅させ、映像提示装置1bに備えた球型赤外線LED49を含む全方位赤外線カメラ画像を取得し、映像提示装置1aから見た映像提示装置1bの相対方位を検出し、映像提示装置1bのデバイスIDを検出し、映像提示装置1aと映像提示装置1bとの間の通信路を確立し、映像提示装置1aの絶対的な傾き値を検出し、映像提示装置1bから、映像提示装置1bの絶対的な傾き値を受信するようにした。   As described above, according to the video presentation device 1a including the position / posture processing unit 3-5 of the fifth embodiment, the position / posture processing unit 3-5 blinks the spherical infrared LED 49 with the symbol A, An omnidirectional infrared camera image including the spherical infrared LED 49 provided in the video presentation device 1b is acquired, the relative orientation of the video presentation device 1b viewed from the video presentation device 1a is detected, and the device ID of the video presentation device 1b is detected. The communication path between the video presentation device 1a and the video presentation device 1b is established, the absolute inclination value of the video presentation device 1a is detected, and the absolute inclination value of the video presentation device 1b is detected from the video presentation device 1b. To receive.

そして、位置・姿勢推定部50は、実施例1の位置・姿勢推定部40と同様に、映像提示装置1aから見た映像提示装置1bの姿勢を推定する。また、位置・姿勢推定部50は、全方位赤外線画像から球型赤外線LED49を検出して球型赤外線LED49の画像上のサイズを算出し、球型赤外線LED49の画像上のサイズ、及び予め設定された球型赤外線LED49の実際のサイズに基づいて、映像提示装置1aと映像提示装置1bとの間の距離dを推定する。また、位置・姿勢推定部50は、実施例1の位置・姿勢推定部40と同様に、映像提示装置1aから見た映像提示装置1bの位置を推定するようにした。   Then, the position / posture estimation unit 50 estimates the posture of the video presentation device 1b viewed from the video presentation device 1a, similarly to the position / posture estimation unit 40 of the first embodiment. Further, the position / orientation estimation unit 50 detects the spherical infrared LED 49 from the omnidirectional infrared image and calculates the size of the spherical infrared LED 49 on the image, and the size of the spherical infrared LED 49 on the image is set in advance. Based on the actual size of the spherical infrared LED 49, the distance d between the video presentation device 1a and the video presentation device 1b is estimated. Further, the position / posture estimation unit 50 estimates the position of the video presentation device 1b viewed from the video presentation device 1a in the same manner as the position / posture estimation unit 40 of the first embodiment.

このように、赤外線カメラ等の複数のセンサーを用いて、検出対象の映像提示装置1bの位置及び姿勢を推定するようにした。これにより、実施例1と同様の効果を奏する。特に、映像提示装置1aが、映像提示装置1bから見た映像提示装置1aの相対方位を映像提示装置1bから受信することができないタイミングがあっても、距離dを推定することができる。したがって、カメラの撮影範囲内にその映像提示装置1bの画面が存在しない場合であっても、映像提示装置1bの位置及び姿勢を推定することができ、このように推定した位置及び姿勢の情報を用いて、新しい映像を表現する映像提示サービスを実現することが可能となる。   Thus, the position and orientation of the video presentation device 1b to be detected are estimated using a plurality of sensors such as an infrared camera. Thereby, there exists an effect similar to Example 1. In particular, the distance d can be estimated even when there is a timing at which the video presentation device 1a cannot receive the relative orientation of the video presentation device 1a viewed from the video presentation device 1b from the video presentation device 1b. Therefore, even when the screen of the video presentation device 1b does not exist within the shooting range of the camera, the position and orientation of the video presentation device 1b can be estimated. By using this, it is possible to realize a video presentation service that expresses a new video.

〔映像提示装置/他の実施形態〕
次に、本発明の他の実施形態による映像提示装置1’について説明する。本発明の他の実施形態による映像提示装置1’を含む映像提示システムは、図1と同じ使用形態及び構成の下で、映像提示装置1’bが、第1の映像コンテンツを画面表示し、映像提示装置1’aを操作するユーザが、映像提示装置1’aに内蔵されたカメラを用いて映像提示装置1’bの画面を撮像し、映像提示装置1’aが、カメラ入力の画像に含まれる第1の映像コンテンツに、第1の映像コンテンツに関連する第2の映像コンテンツを組み合わせることにより、1つの映像コンテンツを構成することを前提とする。
[Video Presentation Device / Other Embodiments]
Next, a video presentation device 1 ′ according to another embodiment of the present invention will be described. In the video presentation system including the video presentation device 1 ′ according to another embodiment of the present invention, the video presentation device 1′b displays the first video content on the screen under the same usage pattern and configuration as in FIG. A user operating the video presentation device 1′a takes a picture of the video presentation device 1′b using a camera built in the video presentation device 1′a, and the video presentation device 1′a captures an image input by the camera. It is assumed that one video content is configured by combining the first video content included in the video content and the second video content related to the first video content.

本発明の他の実施形態では、このような新たな映像表現を可能とする映像提示サービスを実現するために、2つの画面を組み合わせて1つの映像コンテンツを構成する際に、映像提示装置1’aから見た映像提示装置1’bの位置及び姿勢を推定すると共に、映像提示装置1’aを操作するユーザの視点位置を推定する。   In another embodiment of the present invention, in order to realize such a video presentation service that enables a new video expression, when one video content is configured by combining two screens, the video presentation device 1 ′ is used. The position and orientation of the video presentation device 1′b viewed from a are estimated, and the viewpoint position of the user who operates the video presentation device 1′a is estimated.

図22は、本発明の他の実施形態による映像提示装置1’の構成を示すブロック図である。この映像提示装置1’は、位置・姿勢処理部3、視点位置処理部5及び提示処理部6を備えている。また、図22には図示していないが、映像提示装置1’は、さらに、図2と同様に、位置・姿勢処理部3にて用いる赤外線カメラ、赤外線LED等を備え、提示処理部6にて用いるカメラを備え、そして、これらに加え、視点位置処理部5にて用いる前面カメラを備えている。   FIG. 22 is a block diagram showing a configuration of a video presentation device 1 ′ according to another embodiment of the present invention. The video presentation apparatus 1 ′ includes a position / posture processing unit 3, a viewpoint position processing unit 5, and a presentation processing unit 6. Although not shown in FIG. 22, the video presentation device 1 ′ further includes an infrared camera, an infrared LED, and the like used in the position / posture processing unit 3, as in FIG. 2. In addition to these, a front camera used in the viewpoint position processing unit 5 is provided.

映像提示装置1’の位置・姿勢処理部3は、図2に示した位置・姿勢処理部3と同様であるから、ここでは説明を省略する。   Since the position / posture processing unit 3 of the video presentation device 1 ′ is the same as the position / posture processing unit 3 shown in FIG. 2, description thereof is omitted here.

視点位置処理部5は、図示しない前面カメラを用いて、当該映像提示装置1’を操作するユーザの顔を含む画像を取得して、当該ユーザの視点位置(目の位置)を推定する。   The viewpoint position processing unit 5 acquires an image including the face of the user who operates the video presentation device 1 ′ using a front camera (not shown), and estimates the viewpoint position (eye position) of the user.

提示処理部6は、図2に示した提示処理部4の処理に加え、さらに、視点位置処理部5により推定されたユーザの視点位置に関する情報(視点位置情報)を入力する。すなわち、提示処理部6は、図示しないカメラを用いて他の映像提示装置1’の画面に表示された映像コンテンツの画像を取得すると共に、位置・姿勢処理部3から、当該映像提示装置1’から見た他の映像提示装置1’の位置情報及び姿勢情報を入力し、さらに、視点位置処理部5から、当該映像提示装置1’を操作するユーザの視点位置情報を入力する。   In addition to the processing of the presentation processing unit 4 illustrated in FIG. 2, the presentation processing unit 6 further inputs information (viewpoint position information) regarding the user's viewpoint position estimated by the viewpoint position processing unit 5. That is, the presentation processing unit 6 acquires an image of the video content displayed on the screen of another video presentation device 1 ′ using a camera (not shown), and the video presentation device 1 ′ from the position / posture processing unit 3. The position information and orientation information of the other video presentation device 1 ′ viewed from the above are input, and further, the viewpoint position information of the user who operates the video presentation device 1 ′ is input from the viewpoint position processing unit 5.

そして、提示処理部6は、例えば、他の映像提示装置1’の画面に表示された映像コンテンツの画像と、当該映像提示装置1’の画面に表示された映像コンテンツの画像とが、ユーザの視点から見て1つの画像になるように、当該映像提示装置1’の画面表示を行うと共に、ネットワークを介して他の映像提示装置1’に画面表示を行わせる。具体的には、提示処理部6は、当該映像提示装置1’の画面及び他の映像提示装置1’の画面を用いて、ユーザが1つの映像コンテンツの画像を見ることができるように、当該映像提示装置1’から見た他の映像提示装置1’の位置及び姿勢並びにユーザの視点位置に応じた画面表示指示(映像コンテンツの画像のうち画面表示する領域等を示す指示)を、当該映像提示装置1’用及び他の映像提示装置1’用に生成する。そして、提示処理部6は、当該映像提示装置1’用の画面表示指示に従った画面の表示を行い、他の映像提示装置1’用の画面表示指示を、ネットワークを介して他の映像提示装置1’へ送信し、他の映像提示装置1’に、他の映像提示装置1’用の画面の表示を行わせる。   Then, for example, the presentation processing unit 6 receives the image of the video content displayed on the screen of the other video presentation device 1 ′ and the image of the video content displayed on the screen of the video presentation device 1 ′. The video presentation device 1 ′ is displayed on the screen so that it becomes one image when viewed from the viewpoint, and another video presentation device 1 ′ is caused to perform screen display via the network. Specifically, the presentation processing unit 6 uses the screen of the video presentation device 1 ′ and the screen of the other video presentation device 1 ′ so that the user can view an image of one video content. A screen display instruction (an instruction indicating a screen display area or the like in an image of the video content) according to the position and orientation of the other video presentation device 1 ′ viewed from the video presentation device 1 ′ and the viewpoint position of the user, It is generated for the presentation device 1 ′ and the other video presentation device 1 ′. Then, the presentation processing unit 6 displays a screen in accordance with the screen display instruction for the video presentation device 1 ′, and displays the screen display instruction for the other video presentation device 1 ′ via the network. The image is transmitted to the device 1 ′, and the other video presentation device 1 ′ is caused to display a screen for the other video presentation device 1 ′.

〔視点位置処理部5〕
次に、図22に示した視点位置処理部5について説明する。図23は、視点位置処理部5の構成を示すブロック図である。この視点位置処理部5は、前面カメラ画像取得部61、顔画像抽出部62及び視点位置推定部63を備えている。
[Viewpoint position processing unit 5]
Next, the viewpoint position processing unit 5 shown in FIG. 22 will be described. FIG. 23 is a block diagram illustrating a configuration of the viewpoint position processing unit 5. The viewpoint position processing unit 5 includes a front camera image acquisition unit 61, a face image extraction unit 62, and a viewpoint position estimation unit 63.

図24は、図23に示した視点位置処理部5の処理を示すフローチャートである。図23及び図24を参照して、まず、視点位置処理部5の前面カメラ画像取得部61は、図示しない前面カメラを用いて、映像提示装置1’を操作するユーザの顔を含む画像(前面カメラ画像)を取得する(ステップS2401)。   FIG. 24 is a flowchart showing processing of the viewpoint position processing unit 5 shown in FIG. 23 and 24, first, the front camera image acquisition unit 61 of the viewpoint position processing unit 5 uses the front camera (not shown) to include an image including the face of the user who operates the video presentation device 1 ′ (front surface). Camera image) is acquired (step S2401).

顔画像抽出部62は、前面カメラ画像取得部61により取得された画像を入力し、既知の顔認識手法を用いて、画像から顔領域を認識し、顔画像を抽出する(ステップS2402)。   The face image extraction unit 62 inputs the image acquired by the front camera image acquisition unit 61, recognizes a face area from the image using a known face recognition method, and extracts a face image (step S2402).

視点位置推定部63は、顔画像抽出部62により抽出された顔画像を入力し、既知の眼球認識手法を用いて顔画像からユーザの目を抽出し、画像上の目の位置を検出すると共に、画像上の両目の間隔(距離)を算出する。そして、視点位置推定部63は、画像上の目の位置及び両目の間隔、並びに予め設定された実際の両目の間隔等に基づいて、前面カメラから見た目(視点)の相対方位、及び前面カメラから視点までの間の距離、すなわちユーザの視点位置を推定する(ステップS2403)。ここで、視点位置は、映像提示装置1’の位置を基準としたxyz軸の空間(図5を参照。映像提示装置1’は映像提示装置1aに相当する。)におけるユーザの視点の座標である。   The viewpoint position estimation unit 63 receives the face image extracted by the face image extraction unit 62, extracts the user's eyes from the face image using a known eyeball recognition method, and detects the position of the eye on the image. Then, the distance (distance) between both eyes on the image is calculated. Then, the viewpoint position estimation unit 63 determines the relative orientation of the eyes (viewpoint) viewed from the front camera and the front camera based on the position of the eyes on the image, the distance between the eyes, and the actual distance between both eyes set in advance. The distance to the viewpoint, that is, the viewpoint position of the user is estimated (step S2403). Here, the viewpoint position is the coordinates of the viewpoint of the user in the xyz-axis space (see FIG. 5, where the video presentation apparatus 1 ′ corresponds to the video presentation apparatus 1 a) based on the position of the video presentation apparatus 1 ′. is there.

尚、ユーザは、映像提示装置1’に対して正対しているものとする。また、映像提示装置1’に備えた赤外線カメラと前面カメラとは、十分に近い位置に設けられているものとする。   It is assumed that the user is facing the video presentation device 1 ′. Further, it is assumed that the infrared camera and the front camera provided in the video presentation device 1 ′ are provided at sufficiently close positions.

また、2つの前面カメラ(ステレオカメラ)を用いてユーザの視点位置を推定する手法は既知であり、詳細については以下の文献を参照されたい。
鈴木他、“ステレオ法を用いた視点位置検出による仮想展示の検討”、電子情報通信学会技術研究報告、MVE、マルチメディア・仮想環境基礎105(683)、55−60、2006−03−15
Moreover, the method of estimating a user's viewpoint position using two front cameras (stereo camera) is known, and refer to the following documents for details.
Suzuki et al., “Examination of virtual exhibition by viewpoint position detection using stereo method”, IEICE technical report, MVE, Multimedia / virtual environment basics 105 (683), 55-60, 2006-03-15

以上のように、本発明の他の実施形態による映像提示装置1’によれば、位置・姿勢処理部3は、当該映像提示装置1’から見た他の映像提示装置1’の位置及び姿勢を推定し、視点位置処理部5は、映像提示装置1’を操作するユーザの顔を含む画像を取得して、ユーザの視点位置を推定するようにした。そして、提示処理部6は、他の映像提示装置1’の画面に表示された映像コンテンツの画像と、映像提示装置1’の画面に表示された映像コンテンツの画像とが、視点位置から見て1つの画像になるように、当該映像提示装置1’の画面表示を行うと共に、ネットワークを介して他の映像提示装置1’に画面表示を行わせるようにした。   As described above, according to the video presentation device 1 ′ according to the other embodiment of the present invention, the position / posture processing unit 3 can detect the position and posture of the other video presentation device 1 ′ viewed from the video presentation device 1 ′. The viewpoint position processing unit 5 acquires an image including the face of the user who operates the video presentation device 1 ′, and estimates the user's viewpoint position. The presentation processing unit 6 then views the image of the video content displayed on the screen of the other video presentation device 1 ′ and the image of the video content displayed on the screen of the video presentation device 1 ′ from the viewpoint position. The video presentation device 1 ′ is displayed on the screen so as to form one image, and the other video presentation device 1 ′ is caused to display the screen via a network.

これにより、実施例1と同様の効果に加え、映像提示装置1’と他の映像提示装置1’との間の位置関係を考慮した、マルチスクリーンに跨って連続した演出を実現することができる。つまり、他の映像提示装置1’の位置及び姿勢、並びに視点位置の情報を用いて、新しい映像を表現する映像提示サービスを実現することが可能となる。   Thereby, in addition to the same effects as in the first embodiment, it is possible to realize a continuous effect across multiple screens in consideration of the positional relationship between the video presentation device 1 ′ and the other video presentation device 1 ′. . That is, it is possible to realize a video presentation service that expresses a new video using information on the position and orientation of the other video presentation device 1 ′ and the viewpoint position.

以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。前記実施形態では、映像提示装置1aの画面に映像提示装置1bの映像コンテンツをオーバーレイ表示する場合、及び映像提示装置1’の画面及び他の映像提示装置1’の画面を組み合わせて表示する場合の例を挙げて説明した。本発明は、映像提示装置1aの画面に複数の映像提示装置1b等の映像コンテンツをオーバーレイ表示する場合、映像提示装置1’の画面に複数の他の映像提示装置1’の画面を組み合わせて表示する場合にも適用がある。   The present invention has been described with reference to the embodiment. However, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the technical idea thereof. In the above embodiment, when the video content of the video presentation device 1b is displayed in an overlay on the screen of the video presentation device 1a, and when the screen of the video presentation device 1 ′ and the screen of another video presentation device 1 ′ are displayed in combination. Explained with an example. In the present invention, when video content of a plurality of video presentation devices 1b and the like is displayed on the screen of the video presentation device 1a in an overlay manner, the screens of the other video presentation devices 1 ′ are displayed in combination with the screen of the video presentation device 1 ′. This also applies to

また、前記実施形態では、オーバーレイ表示及び組み合わせて表示する場合について説明したが、本発明は、複数の映像コンテンツ、画面等を用いて映像を表現する他の表示形態にも適用がある。   In the above embodiment, the case of overlay display and display in combination has been described. However, the present invention can also be applied to other display forms that express video using a plurality of video contents, screens, and the like.

また、前記実施例1,2では、方位検出部32は、映像提示装置1bに備えた赤外線LED36の位置に基づいて、映像提示装置1aから見た映像提示装置1bの相対方位を検出するようにしたが、映像提示装置1bに備えた赤外線LED37の位置に基づいて、相対方位を検出するようにしてもよい。また、位置・姿勢推定部40,43は、映像提示装置1aに備えた赤外線カメラと映像提示装置1bに備えた赤外線LED36との間の距離dを推定するようにしたが、赤外線LED37との間の距離dを推定するようにしてもよい。   Moreover, in the said Example 1, 2, the direction detection part 32 detects the relative azimuth | direction of the video presentation apparatus 1b seen from the video presentation apparatus 1a based on the position of the infrared LED 36 with which the video presentation apparatus 1b was equipped. However, the relative orientation may be detected based on the position of the infrared LED 37 provided in the video presentation device 1b. Further, the position / posture estimation units 40 and 43 estimate the distance d between the infrared camera provided in the video presentation device 1 a and the infrared LED 36 provided in the video presentation device 1 b. The distance d may be estimated.

尚、本発明の実施形態による映像提示装置1及び本発明の他の実施形態による映像提示装置1’のハードウェア構成としては、通常のコンピュータを使用することができる。映像提示装置1,1’は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。映像提示装置1に備えた位置・姿勢処理部3及び提示処理部4の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。映像提示装置1’に備えた位置・姿勢処理部3、視点位置処理部5及び提示処理部6についても同様である。   In addition, a normal computer can be used as the hardware configuration of the video presentation device 1 according to the embodiment of the present invention and the video presentation device 1 ′ according to another embodiment of the present invention. The video presentation devices 1 and 1 ′ are configured by a computer including a volatile storage medium such as a CPU and a RAM, a nonvolatile storage medium such as a ROM, an interface, and the like. Each function of the position / posture processing unit 3 and the presentation processing unit 4 included in the video presentation device 1 is realized by causing the CPU to execute a program describing these functions. The same applies to the position / posture processing unit 3, the viewpoint position processing unit 5, and the presentation processing unit 6 provided in the video presentation device 1 '.

また、実施例1の位置・姿勢処理部3−1に備えた構成部(図8を参照)の各機能、実施例2の位置・姿勢処理部3−2に備えた構成部(図9を参照)の各機能、実施例3の位置・姿勢処理部3−3に備えた構成部(図10を参照)の各機能、実施例4の位置・姿勢処理部3−4に備えた構成部(図11を参照)の各機能、及び、実施例5の位置・姿勢処理部3−5に備えた構成部(図12を参照)の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。   In addition, each function of the configuration unit (see FIG. 8) provided in the position / posture processing unit 3-1 of the first embodiment, and the configuration unit (see FIG. 9) provided in the position / posture processing unit 3-2 of the second embodiment. Each function of the configuration (see FIG. 10) included in the position / posture processing unit 3-3 of the third embodiment, and the configuration unit included in the position / posture processing unit 3-4 of the fourth embodiment. Each function of (see FIG. 11) and each function of the constituent unit (see FIG. 12) included in the position / posture processing unit 3-5 of the fifth embodiment also stores a program describing these functions in the CPU. Each is realized by executing.

これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。   These programs are stored in the storage medium and read out and executed by the CPU. These programs can also be stored and distributed in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. You can also send and receive.

1 映像提示装置
2 サーバ
3 位置・姿勢処理部
4,6 提示処理部
5 視点位置処理部
21,38 通信部
22 デバイスIDデータベース
31 赤外線カメラ画像取得部
32 方位検出部
33 デバイスIDデコード部
32 方位検出部
34 デバイスID記憶部
35 デバイスIDエンコード部
36,37 赤外線LED
39 傾き検出部
40,43,45,48,50 位置・姿勢推定部
41 位相差検出部
42 距離差推定部
44 距離画像取得部
46 再帰性反射部
47 レーザー距離計部
49 球型赤外線LED
51,52,53,55 距離推定部
56 位置推定部
57 姿勢推定部
61 前面カメラ画像取得部
62 顔画像抽出部
63 視点位置推定部
DESCRIPTION OF SYMBOLS 1 Image | video presentation apparatus 2 Server 3 Position / attitude processing part 4, 6 Presentation processing part 5 Viewpoint position processing part 21, 38 Communication part 22 Device ID database 31 Infrared camera image acquisition part 32 Direction detection part 33 Device ID decoding part 32 Direction detection Unit 34 Device ID storage unit 35 Device ID encoding unit 36, 37 Infrared LED
39 Inclination detection units 40, 43, 45, 48, 50 Position / attitude estimation unit 41 Phase difference detection unit 42 Distance difference estimation unit 44 Distance image acquisition unit 46 Retroreflective unit 47 Laser distance meter unit 49 Spherical infrared LED
51, 52, 53, 55 Distance estimation unit 56 Position estimation unit 57 Posture estimation unit 61 Front camera image acquisition unit 62 Face image extraction unit 63 Viewpoint position estimation unit

Claims (8)

マルチスクリーンの映像コンテンツを画面表示する映像提示装置において、
当該映像提示装置のデバイスIDをエンコードし、異なる2つの符号を生成するデバイスIDエンコード部と、
前記デバイスIDエンコード部により生成された異なる2つの符号のうちの一方の符号に従って点滅する第1の赤外線LEDと、
前記デバイスIDエンコード部により生成された異なる2つの符号のうちの他方の符号に従って点滅する第2の赤外線LEDと、
赤外線カメラを用いて、他の映像提示装置に備えた、前記他の映像提示装置のデバイスIDがエンコードされて生成された異なる符号に従ってそれぞれ点滅する2つの赤外線LEDを含む全方位赤外線画像を取得する赤外線カメラ画像取得部と、
前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた2つの赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記2つの赤外線LEDの位置を特定し、前記2つの赤外線LEDの位置に基づいて、当該映像提示装置から見た前記他の映像提示装置の相対方位を検出する方位検出部と、
加速度センサー及び地磁気センサーを用いて、当該映像提示装置の傾きを検出する傾き検出部と、
前記他の映像提示装置から見た当該映像提示装置の相対方位、及び前記他の映像提示装置の傾きを、前記他の映像提示装置からネットワークを介して受信する通信部と、
前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置から見た前記他の映像提示装置の位置及び姿勢を推定する位置・姿勢推定部と、を備え、
前記位置・姿勢推定部は、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記通信部により受信された前記他の映像提示装置から見た当該映像提示装置の相対方位、前記傾き検出部により検出された当該映像提示装置の傾き、及び、前記通信部により受信された前記他の映像提示装置の傾きに基づいて、当該映像提示装置から見た前記他の映像提示装置の姿勢を推定する姿勢推定部と、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位に基づいて、前記他の映像提示装置に備えた2つの赤外線LEDの方位角を算出し、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記他の映像提示装置に備えた2つの赤外線LED間の予め設定された距離、前記算出した方位角、及び、前記姿勢推定部により推定された当該映像提示装置から見た前記他の映像提示装置の姿勢に基づいて、当該映像提示装置と前記他の映像提示装置との間の距離を推定する距離推定部と、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、及び前記距離推定部により推定された距離に基づいて、当該映像提示装置から見た前記他の映像提示装置の位置を推定する位置推定部と、
を備えたことを特徴とする映像提示装置。
In a video presentation device that displays multi-screen video content on the screen,
A device ID encoding unit that encodes the device ID of the video presentation device and generates two different codes;
A first infrared LED that flashes according to one of two different codes generated by the device ID encoding unit;
A second infrared LED that blinks according to the other of the two different codes generated by the device ID encoding unit;
Using an infrared camera, an omnidirectional infrared image including two infrared LEDs each flashing in accordance with a different code generated by encoding a device ID of the other video presentation device provided in another video presentation device is acquired. An infrared camera image acquisition unit;
From the omnidirectional infrared image acquired by the infrared camera image acquisition unit, the blinking state of the two infrared LEDs provided in the other video presentation device is captured, and the position of the two infrared LEDs on the omnidirectional infrared image is determined. An azimuth detecting unit that detects the relative azimuth of the other video presentation device viewed from the video presentation device based on the positions of the two infrared LEDs,
Using an acceleration sensor and a geomagnetic sensor, an inclination detection unit for detecting the inclination of the video presentation device;
A communication unit that receives the relative orientation of the video presentation device viewed from the other video presentation device and the inclination of the other video presentation device from the other video presentation device via a network;
A position / posture estimation unit for estimating the position and posture of the other video presentation device viewed from the video presentation device, which is used when displaying the multi-screen video content on the screen;
The position / posture estimation unit
The relative orientation of the other video presentation device seen from the video presentation device detected by the orientation detection unit, the relative orientation of the video presentation device seen from the other video presentation device received by the communication unit, Based on the tilt of the video presentation device detected by the tilt detection unit and the tilt of the other video presentation device received by the communication unit, the posture of the other video presentation device viewed from the video presentation device A posture estimation unit for estimating
Based on the relative azimuth of the other video presentation device viewed from the video presentation device detected by the azimuth detection unit, calculate the azimuth angle of the two infrared LEDs provided in the other video presentation device,
The relative orientation of the other video presentation device viewed from the video presentation device detected by the orientation detection unit, a preset distance between two infrared LEDs provided in the other video presentation device, and the calculated orientation A distance between the video presentation device and the other video presentation device is estimated based on the angle and the posture of the other video presentation device viewed from the video presentation device estimated by the posture estimation unit. A distance estimator;
The other video viewed from the video presentation device based on the relative orientation of the other video presentation device viewed from the video presentation device detected by the orientation detection unit and the distance estimated by the distance estimation unit. A position estimation unit for estimating the position of the presentation device;
A video presentation apparatus comprising:
マルチスクリーンの映像コンテンツを画面表示する映像提示装置において、
当該映像提示装置のデバイスIDをエンコードし、符号を生成するデバイスIDエンコード部と、
前記デバイスIDエンコード部により生成された符号に従って、同じ位相で点滅する第1の赤外線LED及び第2の赤外線LEDと、
赤外線カメラを用いて、他の映像提示装置に備えた、前記他の映像提示装置のデバイスIDがエンコードされて生成された同じ符号に従って同じ位相で点滅する2つの赤外線LEDを含む全方位赤外線画像を取得する赤外線カメラ画像取得部と、
前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた2つの赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記2つの赤外線LEDの位置を特定し、前記2つの赤外線LEDの位置に基づいて、当該映像提示装置から見た前記他の映像提示装置の相対方位を検出する方位検出部と、
加速度センサー及び地磁気センサーを用いて、当該映像提示装置の傾きを検出する傾き検出部と、
前記他の映像提示装置から見た当該映像提示装置の相対方位、及び前記他の映像提示装置の傾きを、前記他の映像提示装置からネットワークを介して受信する通信部と、
前記他の映像提示装置に備えた2つの赤外線LEDの点滅状態に基づいて、前記2つの赤外線LEDの位相差を検出する位相差検出部と、
前記位相差検出部により検出された位相差に基づいて、当該映像提示装置を基点とした前記他の映像提示装置に備えた2つの赤外線LEDとの間の距離差を推定する距離差推定部と、
前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置から見た前記他の映像提示装置の位置及び姿勢を推定する位置・姿勢推定部と、を備え、
前記位置・姿勢推定部は、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記通信部により受信された前記他の映像提示装置から見た当該映像提示装置の相対方位、前記傾き検出部により検出された当該映像提示装置の傾き、及び、前記通信部により受信された前記他の映像提示装置の傾きに基づいて、当該映像提示装置から見た前記他の映像提示装置の姿勢を推定する姿勢推定部と、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位に基づいて、前記他の映像提示装置に備えた2つの赤外線LEDの方位角を算出し、
前記他の映像提示装置に備えた2つの赤外線LED間の予め設定された距離、前記算出した方位角、及び前記距離差推定部により推定された距離差に基づいて、当該映像提示装置と前記他の映像提示装置との間の距離を推定する距離推定部と、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、及び前記距離推定部により推定された距離に基づいて、当該映像提示装置から見た前記他の映像提示装置の位置を推定する位置推定部と、
を備えたことを特徴とする映像提示装置。
In a video presentation device that displays multi-screen video content on the screen,
A device ID encoding unit that encodes a device ID of the video presentation device and generates a code;
In accordance with the code generated by the device ID encoding unit, the first infrared LED and the second infrared LED flashing in the same phase;
Using an infrared camera, an omnidirectional infrared image including two infrared LEDs blinking in the same phase according to the same code generated by encoding the device ID of the other video presentation device provided in another video presentation device An infrared camera image acquisition unit to acquire;
From the omnidirectional infrared image acquired by the infrared camera image acquisition unit, the blinking state of the two infrared LEDs provided in the other video presentation device is captured, and the position of the two infrared LEDs on the omnidirectional infrared image is determined. An azimuth detecting unit that detects the relative azimuth of the other video presentation device viewed from the video presentation device based on the positions of the two infrared LEDs,
Using an acceleration sensor and a geomagnetic sensor, an inclination detection unit for detecting the inclination of the video presentation device;
A communication unit that receives the relative orientation of the video presentation device viewed from the other video presentation device and the inclination of the other video presentation device from the other video presentation device via a network;
A phase difference detection unit that detects a phase difference between the two infrared LEDs based on a blinking state of the two infrared LEDs provided in the other video presentation device;
A distance difference estimation unit for estimating a distance difference between two infrared LEDs provided in the other video presentation device based on the video presentation device based on the phase difference detected by the phase difference detection unit; ,
A position / posture estimation unit for estimating the position and posture of the other video presentation device viewed from the video presentation device, which is used when displaying the multi-screen video content on the screen;
The position / posture estimation unit
The relative orientation of the other video presentation device seen from the video presentation device detected by the orientation detection unit, the relative orientation of the video presentation device seen from the other video presentation device received by the communication unit, Based on the tilt of the video presentation device detected by the tilt detection unit and the tilt of the other video presentation device received by the communication unit, the posture of the other video presentation device viewed from the video presentation device A posture estimation unit for estimating
Based on the relative azimuth of the other video presentation device viewed from the video presentation device detected by the azimuth detection unit, calculate the azimuth angle of the two infrared LEDs provided in the other video presentation device,
Based on the preset distance between the two infrared LEDs provided in the other video presentation device, the calculated azimuth angle, and the distance difference estimated by the distance difference estimation unit, the video presentation device and the other A distance estimation unit for estimating a distance between the video presentation device and
The other video viewed from the video presentation device based on the relative orientation of the other video presentation device viewed from the video presentation device detected by the orientation detection unit and the distance estimated by the distance estimation unit. A position estimation unit for estimating the position of the presentation device;
A video presentation apparatus comprising:
マルチスクリーンの映像コンテンツを画面表示する映像提示装置において、
当該映像提示装置のデバイスIDをエンコードし、符号を生成するデバイスIDエンコード部と、
前記デバイスIDエンコード部により生成された符号に従って点滅する赤外線LEDと、
赤外線カメラを用いて、他の映像提示装置に備えた、前記他の映像提示装置のデバイスIDがエンコードされて生成された符号に従って点滅する赤外線LEDを含む全方位赤外線画像を取得する赤外線カメラ画像取得部と、
前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記赤外線LEDの位置を特定し、前記赤外線LEDの位置に基づいて、当該映像提示装置から見た前記他の映像提示装置の相対方位を検出する方位検出部と、
加速度センサー及び地磁気センサーを用いて、当該映像提示装置の傾きを検出する傾き検出部と、
前記他の映像提示装置から見た当該映像提示装置の相対方位、及び前記他の映像提示装置の傾きを、前記他の映像提示装置からネットワークを介して受信する通信部と、
全方位距離画像センサーを用いて、前記他の映像提示装置に備えた赤外線LEDを含む距離画像を取得する距離画像取得部と、
前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置から見た前記他の映像提示装置の位置及び姿勢を推定する位置・姿勢推定部と、を備え、
前記位置・姿勢推定部は、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記通信部により受信された前記他の映像提示装置から見た当該映像提示装置の相対方位、前記傾き検出部により検出された当該映像提示装置の傾き、及び、前記通信部により受信された前記他の映像提示装置の傾きに基づいて、当該映像提示装置から見た前記他の映像提示装置の姿勢を推定する姿勢推定部と、
前記距離画像取得部により取得された距離画像に基づいて、当該映像提示装置と前記他の映像提示装置との間の距離を推定する距離推定部と、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、及び前記距離推定部により推定された距離に基づいて、当該映像提示装置から見た前記他の映像提示装置の位置を推定する位置推定部と、
を備えたことを特徴とする映像提示装置。
In a video presentation device that displays multi-screen video content on the screen,
A device ID encoding unit that encodes a device ID of the video presentation device and generates a code;
An infrared LED that flashes according to the code generated by the device ID encoding unit;
Infrared camera image acquisition using an infrared camera to acquire an omnidirectional infrared image including an infrared LED flashing in accordance with a code generated by encoding the device ID of the other video presentation device provided in the other video presentation device And
From the omnidirectional infrared image acquired by the infrared camera image acquisition unit, capture the blinking state of the infrared LED provided in the other video presentation device, identify the position of the infrared LED on the omnidirectional infrared image, An azimuth detector that detects a relative azimuth of the other video presentation device viewed from the video presentation device based on the position of the infrared LED;
Using an acceleration sensor and a geomagnetic sensor, an inclination detection unit for detecting the inclination of the video presentation device;
A communication unit that receives the relative orientation of the video presentation device viewed from the other video presentation device and the inclination of the other video presentation device from the other video presentation device via a network;
Using a omnidirectional distance image sensor, a distance image acquisition unit that acquires a distance image including an infrared LED provided in the other video presentation device;
A position / posture estimation unit for estimating the position and posture of the other video presentation device viewed from the video presentation device, which is used when displaying the multi-screen video content on the screen;
The position / posture estimation unit
The relative orientation of the other video presentation device seen from the video presentation device detected by the orientation detection unit, the relative orientation of the video presentation device seen from the other video presentation device received by the communication unit, Based on the tilt of the video presentation device detected by the tilt detection unit and the tilt of the other video presentation device received by the communication unit, the posture of the other video presentation device viewed from the video presentation device A posture estimation unit for estimating
A distance estimation unit that estimates a distance between the video presentation device and the other video presentation device based on the distance image acquired by the distance image acquisition unit;
The other video viewed from the video presentation device based on the relative orientation of the other video presentation device viewed from the video presentation device detected by the orientation detection unit and the distance estimated by the distance estimation unit. A position estimation unit for estimating the position of the presentation device;
A video presentation apparatus comprising:
マルチスクリーンの映像コンテンツを画面表示する映像提示装置において、
当該映像提示装置のデバイスIDをエンコードし、符号を生成するデバイスIDエンコード部と、
前記デバイスIDエンコード部により生成された符号に従って点滅する赤外線LEDと、
赤外線カメラを用いて、他の映像提示装置に備えた、前記他の映像提示装置のデバイスIDがエンコードされて生成された符号に従って点滅する赤外線LEDを含む全方位赤外線画像を取得する赤外線カメラ画像取得部と、
前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記赤外線LEDの位置を特定し、前記赤外線LEDの位置に基づいて、当該映像提示装置から見た前記他の映像提示装置の相対方位を検出する方位検出部と、
加速度センサー及び地磁気センサーを用いて、当該映像提示装置の傾きを検出する傾き検出部と、
前記他の映像提示装置から見た当該映像提示装置の相対方位、及び前記他の映像提示装置の傾きを、前記他の映像提示装置からネットワークを介して受信する通信部と、
レーザーセンサーを用いて、レーザーを発光し、前記他の映像提示装置に備えた再帰性反射部に反射させ、前記反射したレーザーを受光してレーザー距離を計測するレーザー距離計部と、
前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置から見た前記他の映像提示装置の位置及び姿勢を推定する位置・姿勢推定部と、を備え、
前記位置・姿勢推定部は、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記通信部により受信された前記他の映像提示装置から見た当該映像提示装置の相対方位、前記傾き検出部により検出された当該映像提示装置の傾き、及び、前記通信部により受信された前記他の映像提示装置の傾きに基づいて、当該映像提示装置から見た前記他の映像提示装置の姿勢を推定する姿勢推定部と、
前記レーザー距離計部により計測されたレーザー距離を、当該映像提示装置と前記他の映像提示装置との間の距離とし、前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、及び前記距離に基づいて、当該映像提示装置から見た前記他の映像提示装置の位置を推定する位置推定部と、
を備えたことを特徴とする映像提示装置。
In a video presentation device that displays multi-screen video content on the screen,
A device ID encoding unit that encodes a device ID of the video presentation device and generates a code;
An infrared LED that flashes according to the code generated by the device ID encoding unit;
Infrared camera image acquisition using an infrared camera to acquire an omnidirectional infrared image including an infrared LED flashing in accordance with a code generated by encoding the device ID of the other video presentation device provided in the other video presentation device And
From the omnidirectional infrared image acquired by the infrared camera image acquisition unit, capture the blinking state of the infrared LED provided in the other video presentation device, identify the position of the infrared LED on the omnidirectional infrared image, An azimuth detector that detects a relative azimuth of the other video presentation device viewed from the video presentation device based on the position of the infrared LED;
Using an acceleration sensor and a geomagnetic sensor, an inclination detection unit for detecting the inclination of the video presentation device;
A communication unit that receives the relative orientation of the video presentation device viewed from the other video presentation device and the inclination of the other video presentation device from the other video presentation device via a network;
Using a laser sensor, a laser distance meter unit that emits a laser, reflects the reflected light to a retroreflecting unit provided in the other video presentation device, receives the reflected laser, and measures a laser distance;
A position / posture estimation unit for estimating the position and posture of the other video presentation device viewed from the video presentation device, which is used when displaying the multi-screen video content on the screen;
The position / posture estimation unit
The relative orientation of the other video presentation device seen from the video presentation device detected by the orientation detection unit, the relative orientation of the video presentation device seen from the other video presentation device received by the communication unit, Based on the tilt of the video presentation device detected by the tilt detection unit and the tilt of the other video presentation device received by the communication unit, the posture of the other video presentation device viewed from the video presentation device A posture estimation unit for estimating
The laser distance measured by the laser distance meter unit is a distance between the video presentation device and the other video presentation device, and the other video viewed from the video presentation device detected by the azimuth detection unit. A position estimation unit that estimates the position of the other video presentation device viewed from the video presentation device based on the relative orientation of the presentation device and the distance;
A video presentation apparatus comprising:
マルチスクリーンの映像コンテンツを画面表示する映像提示装置において、
当該映像提示装置のデバイスIDをエンコードし、符号を生成するデバイスIDエンコード部と、
前記デバイスIDエンコード部により生成された符号に従って点滅する赤外線LEDと、
赤外線カメラを用いて、他の映像提示装置に備えた、前記他の映像提示装置のデバイスIDがエンコードされて生成された符号に従って点滅する赤外線LEDを含む全方位赤外線画像を取得する赤外線カメラ画像取得部と、
前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記赤外線LEDの位置を特定し、前記赤外線LEDの位置に基づいて、当該映像提示装置から見た前記他の映像提示装置の相対方位を検出する方位検出部と、
加速度センサー及び地磁気センサーを用いて、当該映像提示装置の傾きを検出する傾き検出部と、
前記他の映像提示装置から見た当該映像提示装置の相対方位、及び前記他の映像提示装置の傾きを、前記他の映像提示装置からネットワークを介して受信する通信部と、
前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置から見た前記他の映像提示装置の位置及び姿勢を推定する位置・姿勢推定部と、を備え、
前記位置・姿勢推定部は、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、前記通信部により受信された前記他の映像提示装置から見た当該映像提示装置の相対方位、前記傾き検出部により検出された当該映像提示装置の傾き、及び、前記通信部により受信された前記他の映像提示装置の傾きに基づいて、当該映像提示装置から見た前記他の映像提示装置の姿勢を推定する姿勢推定部と、
前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた赤外線LEDの点滅状態を捉え、前記全方位赤外線画像上の前記赤外線LEDのサイズを算出し、
前記算出したサイズ、及び予め設定された前記赤外線LEDのサイズに基づいて、当該映像提示装置と前記他の映像提示装置との間の距離を推定する距離推定部と、
前記方位検出部により検出された当該映像提示装置から見た前記他の映像提示装置の相対方位、及び前記距離推定部により推定された距離に基づいて、当該映像提示装置から見た前記他の映像提示装置の位置を推定する位置推定部と、
を備えたことを特徴とする映像提示装置。
In a video presentation device that displays multi-screen video content on the screen,
A device ID encoding unit that encodes a device ID of the video presentation device and generates a code;
An infrared LED that flashes according to the code generated by the device ID encoding unit;
Infrared camera image acquisition using an infrared camera to acquire an omnidirectional infrared image including an infrared LED flashing in accordance with a code generated by encoding the device ID of the other video presentation device provided in the other video presentation device And
From the omnidirectional infrared image acquired by the infrared camera image acquisition unit, capture the blinking state of the infrared LED provided in the other video presentation device, identify the position of the infrared LED on the omnidirectional infrared image, An azimuth detector that detects a relative azimuth of the other video presentation device viewed from the video presentation device based on the position of the infrared LED;
Using an acceleration sensor and a geomagnetic sensor, an inclination detection unit for detecting the inclination of the video presentation device;
A communication unit that receives the relative orientation of the video presentation device viewed from the other video presentation device and the inclination of the other video presentation device from the other video presentation device via a network;
A position / posture estimation unit for estimating the position and posture of the other video presentation device viewed from the video presentation device, which is used when displaying the multi-screen video content on the screen;
The position / posture estimation unit
The relative orientation of the other video presentation device seen from the video presentation device detected by the orientation detection unit, the relative orientation of the video presentation device seen from the other video presentation device received by the communication unit, Based on the tilt of the video presentation device detected by the tilt detection unit and the tilt of the other video presentation device received by the communication unit, the posture of the other video presentation device viewed from the video presentation device A posture estimation unit for estimating
From the omnidirectional infrared image acquired by the infrared camera image acquisition unit, capture the blinking state of the infrared LED provided in the other video presentation device, calculate the size of the infrared LED on the omnidirectional infrared image,
A distance estimation unit that estimates a distance between the video presentation device and the other video presentation device based on the calculated size and the size of the infrared LED set in advance;
The other video viewed from the video presentation device based on the relative orientation of the other video presentation device viewed from the video presentation device detected by the orientation detection unit and the distance estimated by the distance estimation unit. A position estimation unit for estimating the position of the presentation device;
A video presentation apparatus comprising:
請求項1から5までのいずれか一項に記載の映像提示装置において、
さらに、前記マルチスクリーンの映像コンテンツを画面表示する際に用いる、当該映像提示装置を操作するユーザの視点位置を推定する視点位置処理部を備え、
前記視点位置処理部は、
カメラを用いて、前記ユーザの顔を含む画像を取得するカメラ画像取得部と、
前記カメラ画像取得部により取得された画像から、前記ユーザの顔の領域を認識して顔画像を抽出する顔画像抽出部と、
前記顔画像抽出部により抽出された顔画像から前記ユーザの目を抽出し、前記カメラ画像取得部により取得された画像上の前記目の位置を検出し、前記画像上の両方の前記目の間隔を算出し、前記画像上の目の位置及び両方の目の間隔、並びに予め設定された両方の目の間隔に基づいて、前記視点位置を推定する視点位置推定部と、を備えたことを特徴とする映像提示装置。
In the video presentation device according to any one of claims 1 to 5,
And a viewpoint position processing unit for estimating a viewpoint position of a user who operates the video presentation device, which is used when the multi-screen video content is displayed on a screen.
The viewpoint position processing unit
A camera image acquisition unit that acquires an image including the user's face using a camera;
A face image extraction unit for recognizing a region of the user's face and extracting a face image from the image acquired by the camera image acquisition unit;
The eye of the user is extracted from the face image extracted by the face image extraction unit, the position of the eye on the image acquired by the camera image acquisition unit is detected, and the interval between both eyes on the image is detected. And a viewpoint position estimating unit that estimates the viewpoint position based on the position of the eyes on the image, the distance between both eyes, and the distance between both eyes set in advance. A video presentation device.
請求項1から6までのいずれか一項に記載の映像提示装置において、
前記赤外線カメラ画像取得部により取得された全方位赤外線画像から、前記他の映像提示装置に備えた赤外線LEDの点滅状態を捉え、前記赤外線LEDの点滅状態をデコードし、前記他の映像提示装置のデバイスIDを検出するデバイスIDデコード部を備え、
前記通信部は、前記デバイスIDデコード部により検出された前記他の映像提示装置のデバイスIDを用いてネットワークへアクセスし、当該映像提示装置と前記他の映像提示装置との間の通信路を確立する、ことを特徴とする映像提示装置。
In the video presentation device according to any one of claims 1 to 6,
From the omnidirectional infrared image acquired by the infrared camera image acquisition unit, the blinking state of the infrared LED provided in the other video presentation device is captured, the blinking state of the infrared LED is decoded, and the other video presentation device A device ID decoding unit for detecting the device ID;
The communication unit accesses the network using the device ID of the other video presentation device detected by the device ID decoding unit, and establishes a communication path between the video presentation device and the other video presentation device A video presentation device characterized by that.
コンピュータを、請求項1から7までのいずれか一項に記載の映像提示装置として機能させるためのプログラム。   The program for functioning a computer as an image | video presentation apparatus as described in any one of Claim 1-7.
JP2014170873A 2014-08-25 2014-08-25 Video presentation apparatus and program Active JP6360389B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014170873A JP6360389B2 (en) 2014-08-25 2014-08-25 Video presentation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014170873A JP6360389B2 (en) 2014-08-25 2014-08-25 Video presentation apparatus and program

Publications (2)

Publication Number Publication Date
JP2016046731A JP2016046731A (en) 2016-04-04
JP6360389B2 true JP6360389B2 (en) 2018-07-18

Family

ID=55636883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014170873A Active JP6360389B2 (en) 2014-08-25 2014-08-25 Video presentation apparatus and program

Country Status (1)

Country Link
JP (1) JP6360389B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4649695B2 (en) * 1999-12-24 2011-03-16 富士通株式会社 Infrared detector
JP2007334311A (en) * 2006-05-18 2007-12-27 Nippon Hoso Kyokai <Nhk> Visible and infrared light imaging optical system
JP2008261755A (en) * 2007-04-12 2008-10-30 Canon Inc Information processing apparatus and information processing method
JP5259519B2 (en) * 2009-07-31 2013-08-07 日本放送協会 Digital broadcast receiver, transmitter and terminal device
JP5299374B2 (en) * 2010-07-26 2013-09-25 ブラザー工業株式会社 Karaoke equipment
US9876953B2 (en) * 2010-10-29 2018-01-23 Ecole Polytechnique Federale De Lausanne (Epfl) Omnidirectional sensor array system
JP5734700B2 (en) * 2011-02-24 2015-06-17 京セラ株式会社 Portable information device and virtual information display program
JP5819686B2 (en) * 2011-09-14 2015-11-24 株式会社バンダイナムコエンターテインメント Programs and electronic devices
JP6113406B2 (en) * 2012-01-11 2017-04-12 三菱電機株式会社 Infrared target detection device

Also Published As

Publication number Publication date
JP2016046731A (en) 2016-04-04

Similar Documents

Publication Publication Date Title
US11393173B2 (en) Mobile augmented reality system
US20230245391A1 (en) 3d model reconstruction and scale estimation
US10217021B2 (en) Method for determining the position of a portable device
US11195049B2 (en) Electronic device localization based on imagery
CN108921894B (en) Object positioning method, device, equipment and computer readable storage medium
WO2022088918A1 (en) Virtual image display method and apparatus, electronic device and storage medium
US9361731B2 (en) Method and apparatus for displaying video on 3D map
KR101533320B1 (en) Apparatus for acquiring 3 dimension object information without pointer
US10545215B2 (en) 4D camera tracking and optical stabilization
CN111651051B (en) Virtual sand table display method and device
CN107167077B (en) Stereoscopic vision measuring system and stereoscopic vision measuring method
US20190199992A1 (en) Information processing apparatus, method for controlling the same, and recording medium
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
US9906769B1 (en) Methods and apparatus for collaborative multi-view augmented reality video
US9329679B1 (en) Projection system with multi-surface projection screen
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
EP2936806B1 (en) Realistic point of view video method and apparatus
US20230290036A1 (en) Local live texturing of a 3d mesh
JP6360389B2 (en) Video presentation apparatus and program
KR102177876B1 (en) Method for determining information related to filming location and apparatus for performing the method
Jin et al. StageAR: Markerless Mobile Phone Localization for AR in Live Events

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180622

R150 Certificate of patent or registration of utility model

Ref document number: 6360389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250