JP2015130582A - Image providing apparatus - Google Patents
Image providing apparatus Download PDFInfo
- Publication number
- JP2015130582A JP2015130582A JP2014000970A JP2014000970A JP2015130582A JP 2015130582 A JP2015130582 A JP 2015130582A JP 2014000970 A JP2014000970 A JP 2014000970A JP 2014000970 A JP2014000970 A JP 2014000970A JP 2015130582 A JP2015130582 A JP 2015130582A
- Authority
- JP
- Japan
- Prior art keywords
- video
- detection target
- unit
- area
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、映像を提供する技術に関する。 The present invention relates to a technique for providing an image.
近年、映像表示装置及びセンサ装置を用いて、テレビ会議に代表される映像コミュニケーションや、デジタルサイネージ(電子看板)を実現する技術が実用化されている。これらの技術では、利用者の位置や姿勢などの状態に応じた、より対話的な情報提供を可能とする技術が提案されている。例えば、運動視差を表現する技術(例えば、非特許文献1参照。)や、顔認識を行う技術(例えば、非特許文献2参照。)などが提案されている。 2. Description of the Related Art In recent years, a technology for realizing video communication represented by a video conference and digital signage (electronic signage) using a video display device and a sensor device has been put into practical use. In these technologies, technologies that enable more interactive information provision according to the state of the user such as position and posture have been proposed. For example, a technique for expressing motion parallax (for example, see Non-Patent Document 1), a technique for performing face recognition (for example, see Non-Patent Document 2), and the like have been proposed.
映像表示装置及びセンサ装置は一対一に対応付けられて用いられている。また、個々のセンサ装置が計測する領域は狭い。そのため、各映像表示装置に関して、広い範囲で利用者を検出することができないという問題があった。
上記事情に鑑み、本発明は、検出対象をより広い範囲で検出することを可能とする映像提供装置を提供することを目的としている。
Video display devices and sensor devices are used in a one-to-one correspondence. Moreover, the area | region which each sensor apparatus measures is narrow. For this reason, each video display device has a problem that it is impossible to detect a user in a wide range.
In view of the above circumstances, an object of the present invention is to provide a video providing apparatus that can detect a detection target in a wider range.
本発明の一態様は、複数のセンサ装置を用いて空間の情報を取得する計測部と、前記複数のセンサ装置によって重複して計測される重複領域を検出する重複検出部と、前記複数のセンサ装置によって取得された情報に基づいて検出対象を検出する対象検出部と、前記重複領域において検出された前記検出対象についてマッチング処理を行うことによって前記複数のセンサ装置が計測する同一の検出対象を検出するマッチング部と、前記複数のセンサ装置によって前記同一の検出対象の位置及び状態を表す情報を取得する情報取得部と、前記同一の検出対象の位置及び状態を表す情報に基づいて映像を生成する生成部と、を備える映像提供装置である。 One aspect of the present invention is a measurement unit that acquires spatial information using a plurality of sensor devices, an overlap detection unit that detects overlapping regions that are measured by the plurality of sensor devices, and the plurality of sensors. A target detection unit that detects a detection target based on information acquired by the device, and a same detection target measured by the plurality of sensor devices by performing a matching process on the detection target detected in the overlapping region Based on the matching unit, the information acquisition unit that acquires information indicating the position and state of the same detection target by the plurality of sensor devices, and the information that indicates the position and state of the same detection target And a generation unit.
本発明の一態様は、上記の映像提供装置であって、前記生成部は、前記検出対象の位置に応じて前記映像を分割し、分割された前記映像を、指向性を有する映像を表示する表示装置に出力する、映像提供装置である。 One aspect of the present invention is the video providing apparatus described above, wherein the generation unit divides the video according to the position of the detection target, and displays the video having directivity for the divided video. This is a video providing device that outputs to a display device.
本発明の一態様は、上記の映像提供装置であって、前記処理部は、前記検出対象の位置に応じて運動視差映像を処理し、処理された前記運動視差映像を前記表示装置に出力する、映像提供装置である。 One aspect of the present invention is the video providing apparatus described above, wherein the processing unit processes a motion parallax video according to a position of the detection target, and outputs the processed motion parallax video to the display device. , A video providing device.
本発明により、検出対象をより広い範囲で検出することが可能となる。 According to the present invention, it is possible to detect a detection target in a wider range.
[実施形態]
図1は、実施形態の映像提供装置10の機能構成を表す機能ブロック図である。
映像提供装置10は、LAN(Local Area Network)やシリアルインターフェース等のインターフェースを介してセンサ群20によって計測された情報を取得する。映像提供装置10は、LANやシリアルインターフェース等のインターフェースを介して表示装置群30に映像を出力する。
センサ群20は、複数のセンサ装置を備えるセンサ装置群である。センサ装置とは、空間の情報を電気信号に置き換えて計測する装置のことである。センサ群20に含まれるセンサ装置は、例えば、カメラやマイク、深度センサなどの装置である。図1には、例として、センサ群20に含まれるセンサ装置として、センサ装置21、センサ装置22及びセンサ装置23の3台のセンサ装置が示されている。センサ群20は、計測によって取得した情報(以下、「計測情報」という。)を映像提供装置10に出力する。
[Embodiment]
FIG. 1 is a functional block diagram illustrating a functional configuration of the
The
The sensor group 20 is a sensor device group including a plurality of sensor devices. A sensor device is a device that measures information by replacing information in space with an electrical signal. The sensor device included in the sensor group 20 is a device such as a camera, a microphone, or a depth sensor, for example. In FIG. 1, as an example, three sensor devices including a
表示装置群30は、複数の映像表示装置を備える映像表示装置群である。表示装置群30は例えば、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ、タッチパネルなどの映像表示装置である。図1には、例として、表示装置群30に含まれる表示装置として、表示装置31、表示装置32及び表示装置33の3台の表示装置が示されている。表示装置群30は、映像提供装置10によって出力された映像を表示する。
The
図2は、観察者が複数の表示装置に表示される映像を観察する様子の具体例を示した図である。
図2の例では、3台の表示装置(表示装置A、表示装置B及び表示装置C)に表示される映像を3人の観察者(観察者1、観察者2及び観察者3)が観察する様子が示されている。また、図2の例では、表示装置A、表示装置B及び表示装置Cの上部に、それぞれ、センサ装置A、センサ装置B及びセンサ装置Cが設置されている。
FIG. 2 is a diagram illustrating a specific example of how an observer observes images displayed on a plurality of display devices.
In the example of FIG. 2, three observers (observer 1, observer 2 and observer 3) observe the images displayed on three display devices (display device A, display device B, and display device C). The state of doing is shown. In the example of FIG. 2, the sensor device A, the sensor device B, and the sensor device C are installed above the display device A, the display device B, and the display device C, respectively.
図3は、表示装置の観察領域の具体例を示した図である。
観察領域とは、表示装置に表示される映像を、観察者が観察することのできる領域のことである。図3の例では、図2の例に示された表示装置(表示装置A、表示装置B及び表示装置C)の観察領域が示されている。観察領域A、観察領域B及び観察領域Cは、それぞれ表示装置A、表示装置B及び表示装置Cの観察領域を表している。観察領域A、観察領域B及び観察領域Cは、対応する表示装置が設置される位置及び向きによって他の観察領域と重複する領域を有している。
FIG. 3 is a diagram showing a specific example of the observation area of the display device.
The observation area is an area where an observer can observe an image displayed on the display device. In the example of FIG. 3, the observation area of the display device (display device A, display device B, and display device C) shown in the example of FIG. 2 is shown. Observation region A, observation region B, and observation region C represent the observation regions of display device A, display device B, and display device C, respectively. The observation area A, the observation area B, and the observation area C have areas that overlap with other observation areas depending on the position and orientation of the corresponding display device.
図4は、センサ装置の検出領域の具体例を示した図である。
図4の例では、図2の例に示された表示装置(表示装置A、表示装置B及び表示装置C)に設置されたセンサ装置の検出領域が示されている。検出領域A、検出領域B及び検出領域Cは、それぞれ、センサ装置A、センサ装置B及びセンサ装置Cの検出領域を表している。センサ装置A、センサ装置B及びセンサ装置Cは、それぞれ、観察領域A、観察領域B及び観察領域Cが計測対象の領域(以下、「検出領域」という。)となるように設置されている。検出領域A、検出領域B及び検出領域Cは、対応する表示装置が設置される位置及び向きによって他の検出領域と重複する領域(以下、「重複領域」という。)を有している。すなわち、重複領域に位置する物体は、重複領域を計測する複数のセンサ装置によって計測される。
FIG. 4 is a diagram illustrating a specific example of the detection region of the sensor device.
In the example of FIG. 4, the detection area of the sensor device installed in the display device (display device A, display device B, and display device C) shown in the example of FIG. 2 is shown. Detection area A, detection area B, and detection area C represent detection areas of sensor device A, sensor device B, and sensor device C, respectively. The sensor device A, the sensor device B, and the sensor device C are installed such that the observation region A, the observation region B, and the observation region C are measurement target regions (hereinafter referred to as “detection regions”), respectively. The detection area A, the detection area B, and the detection area C have areas that overlap with other detection areas (hereinafter referred to as “overlap areas”) depending on the position and orientation of the corresponding display device. That is, the object located in the overlapping area is measured by a plurality of sensor devices that measure the overlapping area.
図5は、観察者が多指向映像出力装置に表示される映像を観察する様子の具体例を示した図である。
多指向映像出力装置とは、複数の指向性を有する映像を表示する映像表示装置である。指向性を有する映像とは、表示装置の観察領域のうち特定の領域においてのみ観察される映像である。多指向映像出力装置は、例えば、非特許文献4に記載のQDA(Quantized-Diffusion-Angle)スクリーンなどを用いて構成される。
図5の例では、1つの多指向映像出力装置(表示装置A)に表示される3種類の指向性を有する映像を、4人の観察者(観察者1、観察者2、観察者3及び観察者4)が観察する様子が示されている。また、図5の例では、表示装置Aの上部に、センサ装置A、センサ装置B及びセンサ装置Cが設置されている。各センサ装置は、それぞれ、表示装置Aに表示される映像の指向性に対応する観察領域が検出領域となるように設置されている。
FIG. 5 is a diagram showing a specific example of how the observer observes the video displayed on the multidirectional video output device.
The multi-directional video output device is a video display device that displays a video having a plurality of directivities. An image having directivity is an image that is observed only in a specific area of the observation area of the display device. The multidirectional video output device is configured using, for example, a QDA (Quantized-Diffusion-Angle) screen described in Non-Patent Document 4.
In the example of FIG. 5, images having three types of directivity displayed on one multi-directional image output device (display device A) are displayed by four observers (observer 1, observer 2, observer 3 and It shows how the observer 4) observes. In the example of FIG. 5, the sensor device A, the sensor device B, and the sensor device C are installed above the display device A. Each sensor device is installed such that the observation region corresponding to the directivity of the image displayed on the display device A becomes the detection region.
図6は、多指向映像出力装置の観察領域の具体例を示した図である。
図6の例では、図5の例に示された表示装置Aの観察領域が示されている。観察領域A、観察領域B及び観察領域Cは、表示装置Aの観察領域のうち、3種類の指向性を有するそれぞれの映像が観察される領域を表している。
FIG. 6 is a diagram showing a specific example of the observation area of the multidirectional video output device.
In the example of FIG. 6, the observation region of the display device A shown in the example of FIG. 5 is shown. The observation area A, the observation area B, and the observation area C represent areas in which three types of images having directivity are observed among the observation areas of the display device A.
図7は、多指向映像出力装置におけるセンサ装置の検出領域の具体例を示した図である。
図7の例では、図5の例に示された表示装置Aに設置されたセンサ装置の検出領域が示されている。検出領域A、検出領域B及び検出領域Cは、それぞれ、センサ装置A、センサ装置B及びセンサ装置Cの検出領域を表している。センサ装置A、センサ装置B及びセンサ装置Cは、それぞれ、観察領域A、観察領域B及び観察領域Cが検出領域となるように設置されている。
FIG. 7 is a diagram illustrating a specific example of the detection region of the sensor device in the multidirectional video output device.
In the example of FIG. 7, the detection region of the sensor device installed in the display device A shown in the example of FIG. 5 is shown. Detection area A, detection area B, and detection area C represent detection areas of sensor device A, sensor device B, and sensor device C, respectively. The sensor device A, the sensor device B, and the sensor device C are installed such that the observation region A, the observation region B, and the observation region C are detection regions, respectively.
図1の説明に戻る。映像提供装置10は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、制御プログラムを実行することによって、入力部11、マッチング部12、データ処理部13及び出力部14を備える装置として機能する。なお、入力部11、マッチング部12、データ処理部13及び出力部14の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。制御プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。制御プログラムは、電気通信回線を介して送信されてもよい。
Returning to the description of FIG. The
入力部11は、LANやシリアルインターフェース等の通信インターフェースを用いて構成される。入力部11は、センサ群20に含まれるセンサ装置から計測情報を取得する。入力部11は、取得された計測情報をマッチング部12に出力する。
マッチング部12は、取得された計測情報に基づいて、計測対象の空間に存在する検出の対象となる物体(以下、「検出対象」という。)を検出する。検出対象は、具体的には、観察領域において表示装置に表示される映像を観察している観察者である。検出対象が、重複領域において検出された場合、マッチング部12は、複数のセンサ装置の間で検出対象のマッチング処理を行う。マッチング部12は、マッチング処理によって複数のセンサ装置の間で同一の検出対象が検出された場合、その検出対象の位置及び状態を表す情報を取得する。マッチング部12は、取得された検出対象の位置及び状態を表す情報を、データ処理部13に出力する。
The input unit 11 is configured using a communication interface such as a LAN or a serial interface. The input unit 11 acquires measurement information from the sensor devices included in the sensor group 20. The input unit 11 outputs the acquired measurement information to the
Based on the acquired measurement information, the matching
図8は、マッチング部12の機能構成の詳細を表す機能ブロック図である。
マッチング部12は、重複領域検出部121、検出対象認識部122及び情報取得部123を備える。
FIG. 8 is a functional block diagram showing details of the functional configuration of the
The matching
重複領域検出部121は、センサ群20に含まれるセンサ装置の3次元空間における位置及び向きを表す情報(以下、「センサ情報」という。)を取得する。センサ情報は、既知の情報として予め映像提供装置10に記憶されてもよい。また、センサ情報は、位置センサなどのセンサ装置を用いて取得されてもよい。また、センサ情報は、各センサ装置が設置された表示装置の位置及び向きに基づいて取得されてもよい。
The overlapping
重複領域検出部121は、取得されたセンサ情報と、センサ装置の検出範囲とに基づいて、3次元空間における各センサ装置の検出領域の位置を算出する。センサ装置の検出範囲は、例えば、カメラの画角やマイクの集音角度などの情報によって与えられる。重複領域検出部121は、3次元空間における各センサ装置の検出領域の位置に基づいて、各センサ装置の検出領域における重複領域を算出する。
The overlapping
検出対象認識部122は、計測情報に基づいて検出対象を検出し、検出対象の位置及び状態を表す情報を取得する。
例えば、センサ群20に含まれるセンサ装置にカメラなどの撮像装置が用いられた場合、検出対象認識部122は、各カメラによって撮影された画像に基づいて、画像の特徴量を算出する。検出対象認識部122は、算出された画像の特徴量に基づいて、検出対象を検出する。検出対象が重複領域において検出された場合、検出対象認識部122は、検出対象の特徴量と、検出対象の重複領域における位置とに基づいて、検出対象のマッチング処理を行う。このマッチング処理によって、検出対象認識部122は、複数のカメラによって撮影された検出対象の中から、同一の検出対象を識別する。
The detection
For example, when an imaging device such as a camera is used as the sensor device included in the sensor group 20, the detection
また、例えば、センサ群20に含まれるセンサ装置にマイクなどの集音装置が用いられた場合、検出対象を検出するための特徴量には声紋が用いられてもよい。声紋は、音声が発せられた時刻と、音声の周波数スペクトルとによって表される音声の特徴を表す情報である。検出対象認識部122は、取得された声紋に基づいて、検出対象のマッチング処理を行う。このマッチング処理によって、検出対象認識部122は、複数のマイクによって集音された音声を発した検出対象の中から、同一の検出対象を識別する。
For example, when a sound collection device such as a microphone is used as the sensor device included in the sensor group 20, a voiceprint may be used as a feature amount for detecting a detection target. The voiceprint is information representing the characteristics of the voice represented by the time when the voice is emitted and the frequency spectrum of the voice. The detection
また、例えば、センサ群20に含まれるセンサ装置に深度センサなどの計測装置が用いられた場合、検出対象を検出するための特徴量には物体の形状を表す特徴量が用いられてもよい。検出対象認識部122は、検出対象の形状を表す特徴量に基づいて、検出対象のマッチング処理を行う。このマッチング処理によって、検出対象認識部122は、複数の深度センサによって計測された検出対象の中から、同一の検出対象を識別する。
For example, when a measurement device such as a depth sensor is used as the sensor device included in the sensor group 20, a feature value representing the shape of an object may be used as a feature value for detecting a detection target. The detection
このように、複数のセンサ装置によって計測された検出対象の中から、同一の検出対象を識別することにより、映像提供装置10は、検出対象が移動した際にも検出対象を見失うことなく、継続して検出することが可能となる。さらに、検出対象が1つのセンサ装置の検出領域外に移動した場合であっても、他のセンサ装置によって継続して検出対象を検出することが可能となる。
In this manner, by identifying the same detection target from the detection targets measured by the plurality of sensor devices, the
情報取得部123は、重複領域において検出された検出対象の状態を表す情報を取得する。
例えば、センサ群20に含まれるセンサ装置にカメラなどの撮像装置が用いられた場合、情報取得部123は、重複領域に位置する観察者(検出対象)の顔の位置を検出する。画像に基づいて顔の位置を検出する手法には、非特許文献2に記載の手法が用いられてもよい。情報取得部123は、検出された顔の位置と、カメラの位置及び向き(センサ情報)との関係性に基づいて、3次元空間における観察者の位置及び向きや姿勢などの状態を表す情報を取得する。顔の位置とセンサ情報の関係性は、予め映像提供装置10に記憶されてもよいし、訓練データを蓄積することにより学習されてもよい。
このように、重複領域に位置する検出対象は複数のセンサ装置によって計測情報が取得されるため、検出対象の状態を表す情報を精度よく取得することが可能となる。
The
For example, when an imaging device such as a camera is used as the sensor device included in the sensor group 20, the
As described above, since the measurement information is acquired by the plurality of sensor devices for the detection target located in the overlapping region, it is possible to acquire the information representing the state of the detection target with high accuracy.
図1の説明に戻る。データ処理部13は、マッチング部12において取得された検出対象の位置及び状態を表す情報に基づいて、検出対象の位置及び状態に応じた映像を生成する。データ処理部13は、生成された映像を出力部14に出力する。
Returning to the description of FIG. The
次に、図2の例のように、複数の表示装置を用いて観察者に映像が提供される場合に、データ処理部13によって生成される検出対象の状態に応じた映像の具体例を説明する。
例えば、観察者(検出対象)の位置及び状態を表す情報に基づいて、複数の観察者が同じ表示装置を観察していることが判定された場合を考える。この場合、データ処理部13は、同じ表示装置を観察する観察者の多くが関心を持つと推測される映像を生成してもよい。
Next, a specific example of an image corresponding to the state of a detection target generated by the
For example, consider a case where it is determined that a plurality of observers are observing the same display device based on information indicating the position and state of the observer (detection target). In this case, the
また、データ処理部13は、複数の観察者の位置情報に基づいて重心位置を算出し、その重心位置を観察位置とする映像を生成してもよい。生成される映像は例えば、3次元CGモデルなどの映像である。
また、データ処理部13は、複数の観察者ごとに提供される映像を生成してもよい。データ処理部13は、表示装置の表示領域を観察者の数に応じて分割し、複数の観察者ごとの映像を分割された表示領域に表示してもよい。また、表示領域は、観察者の位置情報に基づいて、観察者に近い表示領域から順に等分されてもよい。
Further, the
The
次に、図5の例のように、多指向映像出力装置を用いて観察者に映像が提供される場合に、データ処理部13によって生成される検出対象の位置に応じた映像の具体例を説明する。
例えば、多指向映像出力装置にQDAスクリーンを用いた場合について説明する。QDAスクリーンでは、指向性を有する各映像の観察領域は予め固定される。そのため、利用者は観察領域を動的に変更することができない。また、QDAスクリーンに表示される複数の映像の観察領域の間には、各観察領域の映像が混ざり合う観察には不適切な領域(以下、「観察不適領域」という。)が存在する。
Next, when an image is provided to an observer using a multidirectional image output device as in the example of FIG. 5, a specific example of an image corresponding to the position of a detection target generated by the
For example, a case where a QDA screen is used in a multidirectional video output device will be described. On the QDA screen, the observation area of each image having directivity is fixed in advance. Therefore, the user cannot dynamically change the observation area. In addition, between the observation areas of the plurality of videos displayed on the QDA screen, there is an area inappropriate for observation in which the videos of the respective observation areas are mixed (hereinafter referred to as “observation inappropriate area”).
データ処理部13は、観察者が観察不適領域に位置する場合、観察者の位置に応じて、指向性を有する各映像の表示領域を分割する。データ処理部13は、観察不適領域において混ざり合った状態で観察されることにより観察可能な映像となる、指向性が異なる2つの映像を生成する。データ処理部13は、分割された表示領域のうち、観察不適領域に対応する2つの表示領域に、生成された2つの映像を出力する。
When the observer is located in the observation inappropriate area, the
データ処理部13の上記の処理によって、映像提供装置10は、観察不適領域に位置する観察者に対して観察可能な映像を提供することが可能となる。
次に、上述したデータ処理部13の処理の内容について具体例を用いて説明する。
By the above processing of the
Next, the content of the processing of the
図9は、多指向映像出力装置における映像の表示領域と観察領域を模式的に表した図である。
図9の例では、多指向映像出力装置は、指向性が異なる3つの映像を表示する。指向性が異なる3つの映像は、それぞれ、表示領域A、表示領域B及び表示領域Cに表示される。表示領域A、表示領域B及び表示領域Cに表示される映像の観察領域は、それぞれ、観察領域A、観察領域B及び観察領域Cである。観察不適領域ABは、観察領域A及び観察領域Bの間の観察不適領域である。観察不適領域BCは、観察領域B及び観察領域Cの間の観察不適領域である。
FIG. 9 is a diagram schematically showing a video display area and an observation area in the multidirectional video output apparatus.
In the example of FIG. 9, the multidirectional video output device displays three videos having different directivities. Three videos having different directivities are displayed in the display area A, the display area B, and the display area C, respectively. The observation areas of the images displayed on the display area A, the display area B, and the display area C are the observation area A, the observation area B, and the observation area C, respectively. The observation inappropriate region AB is an observation inappropriate region between the observation region A and the observation region B. The observation inappropriate region BC is an observation inappropriate region between the observation region B and the observation region C.
図10は、分割された多指向映像出力装置の映像の具体例を示す図である。
図10の例では、図9の例に示された表示領域と観察領域を有する多指向映像出力装置において、データ処理部13によって分割された映像の具体例が示されている。
多指向映像出力装置の観察者(検出対象)が、図10の例のように位置する場合、データ処理部13は、観察者の位置情報に基づいて、観察者を所定の数のグループに分類する。所定の数は、既定値として予め設定されてもよい。また、所定の数は、表示領域の大きさや観察者の数など任意の情報に基づいて、動的に決定されてもよい。図9の例では、観察者はグループ1、グループ2、グループ3及びグループ4の4つのグループに分類されている。
FIG. 10 is a diagram illustrating a specific example of the video of the divided multidirectional video output device.
In the example of FIG. 10, a specific example of the video divided by the
When the observer (detection target) of the multidirectional video output device is located as in the example of FIG. 10, the
データ処理部13は、各グループの位置情報に基づいて、指向性を有する各映像の表示領域の分割位置を決定する。図9の例では、視聴不適領域BCに位置するグループ3の位置に基づいて、分割位置B及び分割位置Cの分割位置が決定されている。各グループの位置情報には、各グループに属する観察者の位置の平均が用いられてもよい。また、各グループの位置情報には、各グループに属する観察者の重心位置が用いられてもよい。表示領域の分割位置が分割位置B及び分割位置Cに決定されたことにより、表示領域Aには映像1が表示される。また、表示領域Bには、分割位置Bを境として映像2及び映像3Bが表示される。また、表示領域Cには、分割位置Cを境として映像3C及び映像4が表示される。
The
データ処理部13は、各表示領域の分割された領域に表示される映像を生成する。図9の例では、データ処理部13は、映像1、映像2、映像3B、映像3C及び映像4を生成する。データ処理部13は、観察不適領域BCにおいて混ざり合った状態で観察されることにより観察可能となる映像3B及び映像3Cを生成する。
The
データ処理部13は、生成された映像を出力部14に出力する。図10の例では、データ処理部13は、映像1を表示領域Aに表示される映像として出力部14に出力する。データ処理部13は、映像2及び映像3Bを表示領域Bに表示される映像として出力部14に出力する。データ処理部13は、映像3C及び映像4を表示領域Cに表示される映像として出力部14に出力する。
The
このように、表示装置に多指向映像出力装置を用いた場合、観察者(検出対象)の位置に応じて指向性を有する各映像の表示領域を分割することによって、映像提供装置10は、観察不適領域に位置する観察者に対して観察可能な映像を提供することが可能となる。
As described above, when the multidirectional video output device is used as the display device, the
図1の説明に戻る。出力部14は、データ処理部13から出力された映像を表示装置群30に含まれる表示装置に出力する。
Returning to the description of FIG. The
図11は、実施形態の映像提供装置10の処理の流れを表すフローチャートである。
まず、映像提供装置10は、センサ群20に含まれるセンサ装置から計測情報を取得する(ステップS101)。映像提供装置10は、3次元空間における各センサ装置の位置及び向きを表す情報(センサ情報)を取得する(ステップS102)。映像提供装置10は、取得されたセンサ情報に基づいて、3次元空間における各センサ装置の検出領域の位置を算出する(ステップS103)。
FIG. 11 is a flowchart illustrating a process flow of the
First, the
映像提供装置10は、3次元空間における各センサ装置の検出領域の位置に基づいて、各センサ装置によって重複して計測される領域(重複領域)を算出する(ステップS104)。映像提供装置10は、計測情報に基づいて、検出領域の特徴量を算出する(ステップS105)。映像提供装置10は、算出された検出領域の特徴量に基づいて、検出対象(観察者)を検出する(ステップS106)。
The
映像提供装置10は、ステップS106において検出された検出対象が、重複領域に位置するか否かを判定する(ステップS107)。重複領域に検出対象が位置しない場合(ステップS107−NO)、ステップS110に進み、映像提供装置10は、観察者(検出対象)に提供する映像を生成する。一方、重複領域に検出対象が位置する場合(ステップS107−YES)、映像提供装置10は、重複領域に位置する検出対象の特徴量と位置情報とに基づいて、重複領域に位置する検出対象のマッチング処理を行う(ステップS108)。
The
映像提供装置10は、重複領域に位置する検出対象(観察者)の状態を表す情報を取得する(ステップS109)。状態を表す情報は、検出対象の向きや姿勢などの状態を表す情報である。映像提供装置10は、検出対象(観察者)の位置及び状態を表す情報に基づいて、検出対象(観察者)の位置及び状態に応じた映像を生成する(ステップS110)。映像提供装置10は、生成された映像を表示装置群30に含まれる表示装置に出力する(ステップS111)。
The
このように構成された実施形態の映像提供装置10は、重複領域の特徴量に基づいて、検出対象のマッチング処理を行う。このマッチング処理によって、映像提供装置10は、複数のセンサ装置の検出範囲を組み合わせ、より広い検出範囲で検出対象を検出することが可能となる。
The
また、実施形態の映像提供装置10は、重複領域に位置する同一の検出対象を複数のセンサ装置によって検出する。そのため、映像提供装置10は、重複領域に位置する検出対象を精度よく検出することが可能となる。その結果、映像提供装置10は、重複領域に位置する観察者(検出対象)に対して、観察者の位置及び状態に応じた映像を提供することが可能となる。
In addition, the
また、これらの機能は、表示装置群30に多指向映像出力装置を用いた場合にも応用することが可能である。実施形態の映像提供装置10は、指向性を有する各映像を、観察者の位置に応じて生成する。この機能により、映像提供装置10は、観察不適領域においても観察可能な映像を提供することが可能となる。また、映像提供装置10は、多指向映像出力装置を用いて構成されることにより、同じ物体の運動視差映像を同時に複数の観察者に対して提供することが可能となる。
These functions can also be applied when a multidirectional video output device is used for the
<変形例>
検出対象は、観察領域において表示装置に表示される映像を観察している観察者に限定される必要は無い。例えば、検出対象は、観察領域に位置する全ての人物であってもよいし、観察領域に位置する人物のうち所定の条件を満たす人物であってもよいし、他の人又は物であってもよい。
<Modification>
The detection target need not be limited to an observer who is observing an image displayed on the display device in the observation area. For example, the detection target may be all persons located in the observation area, may be a person satisfying a predetermined condition among persons located in the observation area, or may be another person or object. Also good.
上述した実施形態における映像提供装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
You may make it implement | achieve the image provision apparatus in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
10…映像提供装置, 11…入力部, 12…マッチング部, 13…データ処理部, 14…出力部, 141…重複領域検出部, 142…検出対象認識部, 143…検出対象情報取得部, 20…センサ群, 21、22、23…センサ装置, 30…表示装置群, 31、32、33…表示装置
DESCRIPTION OF
Claims (3)
前記複数のセンサ装置によって重複して計測される重複領域を検出する重複検出部と、
前記複数のセンサ装置によって取得された情報に基づいて検出対象を検出する対象検出部と、
前記重複領域において検出された前記検出対象についてマッチング処理を行うことによって前記複数のセンサ装置が計測する同一の検出対象を検出するマッチング部と、
前記複数のセンサ装置によって前記同一の検出対象の位置及び状態を表す情報を取得する情報取得部と、
前記同一の検出対象の位置及び状態を表す情報に基づいて映像を生成する生成部と、
を備える映像提供装置。 A measurement unit that obtains spatial information using a plurality of sensor devices;
An overlap detection unit for detecting an overlap region measured in an overlapping manner by the plurality of sensor devices;
A target detection unit that detects a detection target based on information acquired by the plurality of sensor devices;
A matching unit that detects the same detection target measured by the plurality of sensor devices by performing a matching process on the detection target detected in the overlapping region;
An information acquisition unit for acquiring information representing the position and state of the same detection target by the plurality of sensor devices;
A generating unit that generates a video based on information indicating the position and state of the same detection target;
A video providing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014000970A JP2015130582A (en) | 2014-01-07 | 2014-01-07 | Image providing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014000970A JP2015130582A (en) | 2014-01-07 | 2014-01-07 | Image providing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015130582A true JP2015130582A (en) | 2015-07-16 |
Family
ID=53761026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014000970A Pending JP2015130582A (en) | 2014-01-07 | 2014-01-07 | Image providing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015130582A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107102802A (en) * | 2017-04-19 | 2017-08-29 | 网易(杭州)网络有限公司 | Overlay target system of selection and device, storage medium, electronic equipment |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010281685A (en) * | 2009-06-04 | 2010-12-16 | National Univ Corp Shizuoka Univ | System and method for measurement of position |
JP2011081269A (en) * | 2009-10-08 | 2011-04-21 | Nikon Corp | Image display device and image display method |
JP2011192220A (en) * | 2010-03-16 | 2011-09-29 | Glory Ltd | Device, method and program for determination of same person |
JP2011199478A (en) * | 2010-03-18 | 2011-10-06 | Fujifilm Corp | Imaging device, display control method therefor, and 3d information obtaining system |
JP2011233040A (en) * | 2010-04-28 | 2011-11-17 | Glory Ltd | Same object determination device and same object determination method |
JP2013005135A (en) * | 2011-06-15 | 2013-01-07 | Sony Corp | Image processing apparatus and method, and program |
JP2013040791A (en) * | 2011-08-11 | 2013-02-28 | Canon Inc | Image processing device, image processing method, and program |
-
2014
- 2014-01-07 JP JP2014000970A patent/JP2015130582A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010281685A (en) * | 2009-06-04 | 2010-12-16 | National Univ Corp Shizuoka Univ | System and method for measurement of position |
JP2011081269A (en) * | 2009-10-08 | 2011-04-21 | Nikon Corp | Image display device and image display method |
JP2011192220A (en) * | 2010-03-16 | 2011-09-29 | Glory Ltd | Device, method and program for determination of same person |
JP2011199478A (en) * | 2010-03-18 | 2011-10-06 | Fujifilm Corp | Imaging device, display control method therefor, and 3d information obtaining system |
JP2011233040A (en) * | 2010-04-28 | 2011-11-17 | Glory Ltd | Same object determination device and same object determination method |
JP2013005135A (en) * | 2011-06-15 | 2013-01-07 | Sony Corp | Image processing apparatus and method, and program |
JP2013040791A (en) * | 2011-08-11 | 2013-02-28 | Canon Inc | Image processing device, image processing method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107102802A (en) * | 2017-04-19 | 2017-08-29 | 网易(杭州)网络有限公司 | Overlay target system of selection and device, storage medium, electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210326587A1 (en) | Human face and hand association detecting method and a device, and storage medium | |
TWI754375B (en) | Image processing method, electronic device and computer-readable storage medium | |
US8988317B1 (en) | Depth determination for light field images | |
JP6657214B2 (en) | Accuracy measurement of image-based depth detection system | |
JP2017174125A5 (en) | ||
JP6712778B2 (en) | Object detection device, object detection system, and object detection method | |
JP2007129709A (en) | Method for calibrating imaging device, method for calibrating imaging system including arrangement of imaging devices, and imaging system | |
JP2016106668A (en) | Information processing apparatus, information processing method and program | |
JP2008140271A (en) | Interactive device and method thereof | |
EP3241348A1 (en) | Method and system of sub-pixel accuracy 3d measurement using multiple images | |
EP2779091A1 (en) | Automatic stereoscopic camera calibration | |
CN111784841B (en) | Method, device, electronic equipment and medium for reconstructing three-dimensional image | |
US20140168375A1 (en) | Image conversion device, camera, video system, image conversion method and recording medium recording a program | |
JP2014010805A (en) | Image processing device, image processing method and image processing program | |
CN109754439B (en) | Calibration method, calibration device, electronic equipment and medium | |
CN113936154A (en) | Image processing method and device, electronic equipment and storage medium | |
CN113870213A (en) | Image display method, image display device, storage medium, and electronic apparatus | |
CN115937291B (en) | Binocular image generation method and device, electronic equipment and storage medium | |
JP2015130582A (en) | Image providing apparatus | |
JP5638578B2 (en) | Observation support device, observation support method and program | |
KR20120013769A (en) | Method and apparatus for processing image | |
JP2018129025A (en) | Determination device, image processing apparatus, determination method, and determination program | |
JP2018129026A (en) | Determination device, image processing apparatus, determination method, and determination program | |
KR20130019080A (en) | Image apparatus for combining plenoptic camera and depth camera, and image processing method | |
CN108353120A (en) | Device and method for generating the data for indicating pixel beam |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161206 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171003 |