JP2015130582A - Image providing apparatus - Google Patents

Image providing apparatus Download PDF

Info

Publication number
JP2015130582A
JP2015130582A JP2014000970A JP2014000970A JP2015130582A JP 2015130582 A JP2015130582 A JP 2015130582A JP 2014000970 A JP2014000970 A JP 2014000970A JP 2014000970 A JP2014000970 A JP 2014000970A JP 2015130582 A JP2015130582 A JP 2015130582A
Authority
JP
Japan
Prior art keywords
video
detection target
unit
area
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014000970A
Other languages
Japanese (ja)
Inventor
知史 三枝
Tomofumi Saegusa
知史 三枝
小澤 史朗
Shiro Ozawa
史朗 小澤
明 小島
Akira Kojima
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014000970A priority Critical patent/JP2015130582A/en
Publication of JP2015130582A publication Critical patent/JP2015130582A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect a detection target in a wider range.SOLUTION: An image providing apparatus comprises: a measurement unit which acquires space information by using plural sensors; an overlap detector which detects an overlapping area having undergone overlapped measurement by the sensors; a target detector which detects a detection target on the basis of the information acquired by the sensors; a matching unit which matches the detection target detected in the overlapping area and detects an identical detection target which the sensors measure; an information acquisition unit which acquires information expressing the position and state of the identical detection target by the sensors; and a generator which generates an image on the basis of the information expressing the position and state of the identical detection target.

Description

本発明は、映像を提供する技術に関する。   The present invention relates to a technique for providing an image.

近年、映像表示装置及びセンサ装置を用いて、テレビ会議に代表される映像コミュニケーションや、デジタルサイネージ(電子看板)を実現する技術が実用化されている。これらの技術では、利用者の位置や姿勢などの状態に応じた、より対話的な情報提供を可能とする技術が提案されている。例えば、運動視差を表現する技術(例えば、非特許文献1参照。)や、顔認識を行う技術(例えば、非特許文献2参照。)などが提案されている。   2. Description of the Related Art In recent years, a technology for realizing video communication represented by a video conference and digital signage (electronic signage) using a video display device and a sensor device has been put into practical use. In these technologies, technologies that enable more interactive information provision according to the state of the user such as position and posture have been proposed. For example, a technique for expressing motion parallax (for example, see Non-Patent Document 1), a technique for performing face recognition (for example, see Non-Patent Document 2), and the like have been proposed.

MoPaCo:単眼カメラを用いた運動視差映像コミュニケーションシステム、石井亮、小澤史朗、能登肇、向内隆文、松浦宣彦、信学技報、IEICE Technical Report MVE2010-65(2010-10)MoPaCo: Motion parallax video communication system using a monocular camera, Ryo Ishii, Shiro Ozawa, Kei Noto, Takafumi Mukai, Nobuhiko Matsuura, IEICE Technical Report, IEICE Technical Report MVE2010-65 (2010-10) 進化するインタラクティブ・サイネージ「ミテネ」、http://www.ar-mitene.jp/mob/index.php?site=mitene&ima=1947Evolving interactive signage "Mitene", http://www.ar-mitene.jp/mob/index.php?site=mitene&ima=1947 SURF:Speeded Up Robust Features、Herbert Bay、Tinne Tuytelaars、Luc Van Gool、Computer vision ECCV2006,404-417,2006SURF: Speeded Up Robust Features, Herbert Bay, Tinne Tuytelaars, Luc Van Gool, Computer vision ECCV2006,404-417,2006 High-Resolution Multi-View Projection Display With a Quantized-Diffusion-Angle Screen、Tohru Kawakami, Baku Katagiri, Takahiro Ishinabe, Tatsuo Uchida、JOURNAL OF DISPLAY TECHNOLOGY,VOL.8,NO.9,SEPTEMBER 2012High-Resolution Multi-View Projection Display With a Quantized-Diffusion-Angle Screen, Tohru Kawakami, Baku Katagiri, Takahiro Ishinabe, Tatsuo Uchida, JOURNAL OF DISPLAY TECHNOLOGY, VOL.8, NO.9, SEPTEMBER 2012

映像表示装置及びセンサ装置は一対一に対応付けられて用いられている。また、個々のセンサ装置が計測する領域は狭い。そのため、各映像表示装置に関して、広い範囲で利用者を検出することができないという問題があった。
上記事情に鑑み、本発明は、検出対象をより広い範囲で検出することを可能とする映像提供装置を提供することを目的としている。
Video display devices and sensor devices are used in a one-to-one correspondence. Moreover, the area | region which each sensor apparatus measures is narrow. For this reason, each video display device has a problem that it is impossible to detect a user in a wide range.
In view of the above circumstances, an object of the present invention is to provide a video providing apparatus that can detect a detection target in a wider range.

本発明の一態様は、複数のセンサ装置を用いて空間の情報を取得する計測部と、前記複数のセンサ装置によって重複して計測される重複領域を検出する重複検出部と、前記複数のセンサ装置によって取得された情報に基づいて検出対象を検出する対象検出部と、前記重複領域において検出された前記検出対象についてマッチング処理を行うことによって前記複数のセンサ装置が計測する同一の検出対象を検出するマッチング部と、前記複数のセンサ装置によって前記同一の検出対象の位置及び状態を表す情報を取得する情報取得部と、前記同一の検出対象の位置及び状態を表す情報に基づいて映像を生成する生成部と、を備える映像提供装置である。   One aspect of the present invention is a measurement unit that acquires spatial information using a plurality of sensor devices, an overlap detection unit that detects overlapping regions that are measured by the plurality of sensor devices, and the plurality of sensors. A target detection unit that detects a detection target based on information acquired by the device, and a same detection target measured by the plurality of sensor devices by performing a matching process on the detection target detected in the overlapping region Based on the matching unit, the information acquisition unit that acquires information indicating the position and state of the same detection target by the plurality of sensor devices, and the information that indicates the position and state of the same detection target And a generation unit.

本発明の一態様は、上記の映像提供装置であって、前記生成部は、前記検出対象の位置に応じて前記映像を分割し、分割された前記映像を、指向性を有する映像を表示する表示装置に出力する、映像提供装置である。   One aspect of the present invention is the video providing apparatus described above, wherein the generation unit divides the video according to the position of the detection target, and displays the video having directivity for the divided video. This is a video providing device that outputs to a display device.

本発明の一態様は、上記の映像提供装置であって、前記処理部は、前記検出対象の位置に応じて運動視差映像を処理し、処理された前記運動視差映像を前記表示装置に出力する、映像提供装置である。   One aspect of the present invention is the video providing apparatus described above, wherein the processing unit processes a motion parallax video according to a position of the detection target, and outputs the processed motion parallax video to the display device. , A video providing device.

本発明により、検出対象をより広い範囲で検出することが可能となる。   According to the present invention, it is possible to detect a detection target in a wider range.

実施形態の映像提供装置10の機能構成を表す機能ブロック図である。It is a functional block diagram showing the function structure of the image | video provision apparatus 10 of embodiment. 観察者が複数の表示装置に表示される映像を観察する様子の具体例を示した図である。It is the figure which showed the specific example of a mode that an observer observes the image | video displayed on a some display apparatus. 表示装置の観察領域の具体例を示した図である。It is the figure which showed the specific example of the observation area | region of a display apparatus. センサ装置の検出領域の具体例を示した図である。It is the figure which showed the specific example of the detection area | region of a sensor apparatus. 観察者が多指向映像出力装置に表示される映像を観察する様子の具体例を示した図である。It is the figure which showed the specific example of a mode that an observer observes the image | video displayed on a multi-directional image | video output apparatus. 多指向映像出力装置の観察領域の具体例を示した図である。It is the figure which showed the specific example of the observation area | region of a multidirectional video output device. 多指向映像出力装置におけるセンサ装置の検出領域の具体例を示した図である。It is the figure which showed the specific example of the detection area | region of the sensor apparatus in a multi-directional video output device. マッチング部12の機能構成の詳細を表す機能ブロック図である。3 is a functional block diagram illustrating details of a functional configuration of a matching unit 12. FIG. 多指向映像出力装置における映像の表示領域と観察領域を模式的に表した図である。It is the figure which represented typically the display area and observation area | region of an image | video in a multi-directional video output device. 分割された多指向映像出力装置の映像の具体例を示す図である。It is a figure which shows the specific example of the image | video of the divided | segmented multi-directional image | video output apparatus. 実施形態の映像提供装置10の処理の流れを表すフローチャートである。It is a flowchart showing the flow of a process of the image | video provision apparatus 10 of embodiment.

[実施形態]
図1は、実施形態の映像提供装置10の機能構成を表す機能ブロック図である。
映像提供装置10は、LAN(Local Area Network)やシリアルインターフェース等のインターフェースを介してセンサ群20によって計測された情報を取得する。映像提供装置10は、LANやシリアルインターフェース等のインターフェースを介して表示装置群30に映像を出力する。
センサ群20は、複数のセンサ装置を備えるセンサ装置群である。センサ装置とは、空間の情報を電気信号に置き換えて計測する装置のことである。センサ群20に含まれるセンサ装置は、例えば、カメラやマイク、深度センサなどの装置である。図1には、例として、センサ群20に含まれるセンサ装置として、センサ装置21、センサ装置22及びセンサ装置23の3台のセンサ装置が示されている。センサ群20は、計測によって取得した情報(以下、「計測情報」という。)を映像提供装置10に出力する。
[Embodiment]
FIG. 1 is a functional block diagram illustrating a functional configuration of the video providing apparatus 10 according to the embodiment.
The video providing apparatus 10 acquires information measured by the sensor group 20 via an interface such as a LAN (Local Area Network) or a serial interface. The video providing device 10 outputs a video to the display device group 30 via an interface such as a LAN or a serial interface.
The sensor group 20 is a sensor device group including a plurality of sensor devices. A sensor device is a device that measures information by replacing information in space with an electrical signal. The sensor device included in the sensor group 20 is a device such as a camera, a microphone, or a depth sensor, for example. In FIG. 1, as an example, three sensor devices including a sensor device 21, a sensor device 22, and a sensor device 23 are shown as sensor devices included in the sensor group 20. The sensor group 20 outputs information acquired by measurement (hereinafter referred to as “measurement information”) to the video providing apparatus 10.

表示装置群30は、複数の映像表示装置を備える映像表示装置群である。表示装置群30は例えば、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ、タッチパネルなどの映像表示装置である。図1には、例として、表示装置群30に含まれる表示装置として、表示装置31、表示装置32及び表示装置33の3台の表示装置が示されている。表示装置群30は、映像提供装置10によって出力された映像を表示する。   The display device group 30 is a video display device group including a plurality of video display devices. The display device group 30 is a video display device such as a liquid crystal display, a CRT (Cathode Ray Tube) display, or a touch panel. In FIG. 1, as an example, three display devices including a display device 31, a display device 32, and a display device 33 are shown as display devices included in the display device group 30. The display device group 30 displays the video output by the video providing device 10.

図2は、観察者が複数の表示装置に表示される映像を観察する様子の具体例を示した図である。
図2の例では、3台の表示装置(表示装置A、表示装置B及び表示装置C)に表示される映像を3人の観察者(観察者1、観察者2及び観察者3)が観察する様子が示されている。また、図2の例では、表示装置A、表示装置B及び表示装置Cの上部に、それぞれ、センサ装置A、センサ装置B及びセンサ装置Cが設置されている。
FIG. 2 is a diagram illustrating a specific example of how an observer observes images displayed on a plurality of display devices.
In the example of FIG. 2, three observers (observer 1, observer 2 and observer 3) observe the images displayed on three display devices (display device A, display device B, and display device C). The state of doing is shown. In the example of FIG. 2, the sensor device A, the sensor device B, and the sensor device C are installed above the display device A, the display device B, and the display device C, respectively.

図3は、表示装置の観察領域の具体例を示した図である。
観察領域とは、表示装置に表示される映像を、観察者が観察することのできる領域のことである。図3の例では、図2の例に示された表示装置(表示装置A、表示装置B及び表示装置C)の観察領域が示されている。観察領域A、観察領域B及び観察領域Cは、それぞれ表示装置A、表示装置B及び表示装置Cの観察領域を表している。観察領域A、観察領域B及び観察領域Cは、対応する表示装置が設置される位置及び向きによって他の観察領域と重複する領域を有している。
FIG. 3 is a diagram showing a specific example of the observation area of the display device.
The observation area is an area where an observer can observe an image displayed on the display device. In the example of FIG. 3, the observation area of the display device (display device A, display device B, and display device C) shown in the example of FIG. 2 is shown. Observation region A, observation region B, and observation region C represent the observation regions of display device A, display device B, and display device C, respectively. The observation area A, the observation area B, and the observation area C have areas that overlap with other observation areas depending on the position and orientation of the corresponding display device.

図4は、センサ装置の検出領域の具体例を示した図である。
図4の例では、図2の例に示された表示装置(表示装置A、表示装置B及び表示装置C)に設置されたセンサ装置の検出領域が示されている。検出領域A、検出領域B及び検出領域Cは、それぞれ、センサ装置A、センサ装置B及びセンサ装置Cの検出領域を表している。センサ装置A、センサ装置B及びセンサ装置Cは、それぞれ、観察領域A、観察領域B及び観察領域Cが計測対象の領域(以下、「検出領域」という。)となるように設置されている。検出領域A、検出領域B及び検出領域Cは、対応する表示装置が設置される位置及び向きによって他の検出領域と重複する領域(以下、「重複領域」という。)を有している。すなわち、重複領域に位置する物体は、重複領域を計測する複数のセンサ装置によって計測される。
FIG. 4 is a diagram illustrating a specific example of the detection region of the sensor device.
In the example of FIG. 4, the detection area of the sensor device installed in the display device (display device A, display device B, and display device C) shown in the example of FIG. 2 is shown. Detection area A, detection area B, and detection area C represent detection areas of sensor device A, sensor device B, and sensor device C, respectively. The sensor device A, the sensor device B, and the sensor device C are installed such that the observation region A, the observation region B, and the observation region C are measurement target regions (hereinafter referred to as “detection regions”), respectively. The detection area A, the detection area B, and the detection area C have areas that overlap with other detection areas (hereinafter referred to as “overlap areas”) depending on the position and orientation of the corresponding display device. That is, the object located in the overlapping area is measured by a plurality of sensor devices that measure the overlapping area.

図5は、観察者が多指向映像出力装置に表示される映像を観察する様子の具体例を示した図である。
多指向映像出力装置とは、複数の指向性を有する映像を表示する映像表示装置である。指向性を有する映像とは、表示装置の観察領域のうち特定の領域においてのみ観察される映像である。多指向映像出力装置は、例えば、非特許文献4に記載のQDA(Quantized-Diffusion-Angle)スクリーンなどを用いて構成される。
図5の例では、1つの多指向映像出力装置(表示装置A)に表示される3種類の指向性を有する映像を、4人の観察者(観察者1、観察者2、観察者3及び観察者4)が観察する様子が示されている。また、図5の例では、表示装置Aの上部に、センサ装置A、センサ装置B及びセンサ装置Cが設置されている。各センサ装置は、それぞれ、表示装置Aに表示される映像の指向性に対応する観察領域が検出領域となるように設置されている。
FIG. 5 is a diagram showing a specific example of how the observer observes the video displayed on the multidirectional video output device.
The multi-directional video output device is a video display device that displays a video having a plurality of directivities. An image having directivity is an image that is observed only in a specific area of the observation area of the display device. The multidirectional video output device is configured using, for example, a QDA (Quantized-Diffusion-Angle) screen described in Non-Patent Document 4.
In the example of FIG. 5, images having three types of directivity displayed on one multi-directional image output device (display device A) are displayed by four observers (observer 1, observer 2, observer 3 and It shows how the observer 4) observes. In the example of FIG. 5, the sensor device A, the sensor device B, and the sensor device C are installed above the display device A. Each sensor device is installed such that the observation region corresponding to the directivity of the image displayed on the display device A becomes the detection region.

図6は、多指向映像出力装置の観察領域の具体例を示した図である。
図6の例では、図5の例に示された表示装置Aの観察領域が示されている。観察領域A、観察領域B及び観察領域Cは、表示装置Aの観察領域のうち、3種類の指向性を有するそれぞれの映像が観察される領域を表している。
FIG. 6 is a diagram showing a specific example of the observation area of the multidirectional video output device.
In the example of FIG. 6, the observation region of the display device A shown in the example of FIG. 5 is shown. The observation area A, the observation area B, and the observation area C represent areas in which three types of images having directivity are observed among the observation areas of the display device A.

図7は、多指向映像出力装置におけるセンサ装置の検出領域の具体例を示した図である。
図7の例では、図5の例に示された表示装置Aに設置されたセンサ装置の検出領域が示されている。検出領域A、検出領域B及び検出領域Cは、それぞれ、センサ装置A、センサ装置B及びセンサ装置Cの検出領域を表している。センサ装置A、センサ装置B及びセンサ装置Cは、それぞれ、観察領域A、観察領域B及び観察領域Cが検出領域となるように設置されている。
FIG. 7 is a diagram illustrating a specific example of the detection region of the sensor device in the multidirectional video output device.
In the example of FIG. 7, the detection region of the sensor device installed in the display device A shown in the example of FIG. 5 is shown. Detection area A, detection area B, and detection area C represent detection areas of sensor device A, sensor device B, and sensor device C, respectively. The sensor device A, the sensor device B, and the sensor device C are installed such that the observation region A, the observation region B, and the observation region C are detection regions, respectively.

図1の説明に戻る。映像提供装置10は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、制御プログラムを実行することによって、入力部11、マッチング部12、データ処理部13及び出力部14を備える装置として機能する。なお、入力部11、マッチング部12、データ処理部13及び出力部14の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。制御プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。制御プログラムは、電気通信回線を介して送信されてもよい。   Returning to the description of FIG. The video providing apparatus 10 includes a CPU (Central Processing Unit) connected via a bus, a memory, an auxiliary storage device, and the like, and executes a control program, thereby an input unit 11, a matching unit 12, a data processing unit 13, and an output unit. 14 functions as a device. Note that all or a part of the functions of the input unit 11, the matching unit 12, the data processing unit 13, and the output unit 14 are ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), and FPGA (Field Programmable Gate Array). It may be realized using hardware such as. The control program may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The control program may be transmitted via a telecommunication line.

入力部11は、LANやシリアルインターフェース等の通信インターフェースを用いて構成される。入力部11は、センサ群20に含まれるセンサ装置から計測情報を取得する。入力部11は、取得された計測情報をマッチング部12に出力する。
マッチング部12は、取得された計測情報に基づいて、計測対象の空間に存在する検出の対象となる物体(以下、「検出対象」という。)を検出する。検出対象は、具体的には、観察領域において表示装置に表示される映像を観察している観察者である。検出対象が、重複領域において検出された場合、マッチング部12は、複数のセンサ装置の間で検出対象のマッチング処理を行う。マッチング部12は、マッチング処理によって複数のセンサ装置の間で同一の検出対象が検出された場合、その検出対象の位置及び状態を表す情報を取得する。マッチング部12は、取得された検出対象の位置及び状態を表す情報を、データ処理部13に出力する。
The input unit 11 is configured using a communication interface such as a LAN or a serial interface. The input unit 11 acquires measurement information from the sensor devices included in the sensor group 20. The input unit 11 outputs the acquired measurement information to the matching unit 12.
Based on the acquired measurement information, the matching unit 12 detects an object to be detected (hereinafter referred to as “detection target”) that exists in the measurement target space. Specifically, the detection target is an observer who observes an image displayed on the display device in the observation area. When the detection target is detected in the overlapping region, the matching unit 12 performs a detection target matching process among the plurality of sensor devices. When the same detection target is detected among a plurality of sensor devices by the matching process, the matching unit 12 acquires information indicating the position and state of the detection target. The matching unit 12 outputs information indicating the acquired position and state of the detection target to the data processing unit 13.

図8は、マッチング部12の機能構成の詳細を表す機能ブロック図である。
マッチング部12は、重複領域検出部121、検出対象認識部122及び情報取得部123を備える。
FIG. 8 is a functional block diagram showing details of the functional configuration of the matching unit 12.
The matching unit 12 includes an overlapping area detection unit 121, a detection target recognition unit 122, and an information acquisition unit 123.

重複領域検出部121は、センサ群20に含まれるセンサ装置の3次元空間における位置及び向きを表す情報(以下、「センサ情報」という。)を取得する。センサ情報は、既知の情報として予め映像提供装置10に記憶されてもよい。また、センサ情報は、位置センサなどのセンサ装置を用いて取得されてもよい。また、センサ情報は、各センサ装置が設置された表示装置の位置及び向きに基づいて取得されてもよい。   The overlapping area detection unit 121 acquires information (hereinafter referred to as “sensor information”) representing the position and orientation of the sensor devices included in the sensor group 20 in the three-dimensional space. The sensor information may be stored in advance in the video providing apparatus 10 as known information. Sensor information may be acquired using a sensor device such as a position sensor. The sensor information may be acquired based on the position and orientation of the display device in which each sensor device is installed.

重複領域検出部121は、取得されたセンサ情報と、センサ装置の検出範囲とに基づいて、3次元空間における各センサ装置の検出領域の位置を算出する。センサ装置の検出範囲は、例えば、カメラの画角やマイクの集音角度などの情報によって与えられる。重複領域検出部121は、3次元空間における各センサ装置の検出領域の位置に基づいて、各センサ装置の検出領域における重複領域を算出する。   The overlapping region detection unit 121 calculates the position of the detection region of each sensor device in the three-dimensional space based on the acquired sensor information and the detection range of the sensor device. The detection range of the sensor device is given by information such as the angle of view of the camera and the sound collection angle of the microphone. The overlapping area detection unit 121 calculates an overlapping area in the detection area of each sensor device based on the position of the detection area of each sensor device in the three-dimensional space.

検出対象認識部122は、計測情報に基づいて検出対象を検出し、検出対象の位置及び状態を表す情報を取得する。
例えば、センサ群20に含まれるセンサ装置にカメラなどの撮像装置が用いられた場合、検出対象認識部122は、各カメラによって撮影された画像に基づいて、画像の特徴量を算出する。検出対象認識部122は、算出された画像の特徴量に基づいて、検出対象を検出する。検出対象が重複領域において検出された場合、検出対象認識部122は、検出対象の特徴量と、検出対象の重複領域における位置とに基づいて、検出対象のマッチング処理を行う。このマッチング処理によって、検出対象認識部122は、複数のカメラによって撮影された検出対象の中から、同一の検出対象を識別する。
The detection target recognition unit 122 detects a detection target based on the measurement information, and acquires information indicating the position and state of the detection target.
For example, when an imaging device such as a camera is used as the sensor device included in the sensor group 20, the detection target recognition unit 122 calculates the feature amount of the image based on the image captured by each camera. The detection target recognition unit 122 detects the detection target based on the calculated feature amount of the image. When the detection target is detected in the overlap region, the detection target recognition unit 122 performs the detection target matching process based on the feature amount of the detection target and the position of the detection target in the overlap region. By this matching processing, the detection target recognition unit 122 identifies the same detection target from detection targets photographed by a plurality of cameras.

また、例えば、センサ群20に含まれるセンサ装置にマイクなどの集音装置が用いられた場合、検出対象を検出するための特徴量には声紋が用いられてもよい。声紋は、音声が発せられた時刻と、音声の周波数スペクトルとによって表される音声の特徴を表す情報である。検出対象認識部122は、取得された声紋に基づいて、検出対象のマッチング処理を行う。このマッチング処理によって、検出対象認識部122は、複数のマイクによって集音された音声を発した検出対象の中から、同一の検出対象を識別する。   For example, when a sound collection device such as a microphone is used as the sensor device included in the sensor group 20, a voiceprint may be used as a feature amount for detecting a detection target. The voiceprint is information representing the characteristics of the voice represented by the time when the voice is emitted and the frequency spectrum of the voice. The detection target recognition unit 122 performs detection target matching processing based on the acquired voiceprint. By this matching process, the detection target recognition unit 122 identifies the same detection target from the detection targets that have emitted the sound collected by the plurality of microphones.

また、例えば、センサ群20に含まれるセンサ装置に深度センサなどの計測装置が用いられた場合、検出対象を検出するための特徴量には物体の形状を表す特徴量が用いられてもよい。検出対象認識部122は、検出対象の形状を表す特徴量に基づいて、検出対象のマッチング処理を行う。このマッチング処理によって、検出対象認識部122は、複数の深度センサによって計測された検出対象の中から、同一の検出対象を識別する。   For example, when a measurement device such as a depth sensor is used as the sensor device included in the sensor group 20, a feature value representing the shape of an object may be used as a feature value for detecting a detection target. The detection target recognition unit 122 performs detection target matching processing based on the feature amount representing the shape of the detection target. By this matching process, the detection target recognition unit 122 identifies the same detection target from the detection targets measured by the plurality of depth sensors.

このように、複数のセンサ装置によって計測された検出対象の中から、同一の検出対象を識別することにより、映像提供装置10は、検出対象が移動した際にも検出対象を見失うことなく、継続して検出することが可能となる。さらに、検出対象が1つのセンサ装置の検出領域外に移動した場合であっても、他のセンサ装置によって継続して検出対象を検出することが可能となる。   In this manner, by identifying the same detection target from the detection targets measured by the plurality of sensor devices, the video providing device 10 can continue without losing sight of the detection target even when the detection target moves. Can be detected. Furthermore, even when the detection target moves outside the detection area of one sensor device, it is possible to continuously detect the detection target by another sensor device.

情報取得部123は、重複領域において検出された検出対象の状態を表す情報を取得する。
例えば、センサ群20に含まれるセンサ装置にカメラなどの撮像装置が用いられた場合、情報取得部123は、重複領域に位置する観察者(検出対象)の顔の位置を検出する。画像に基づいて顔の位置を検出する手法には、非特許文献2に記載の手法が用いられてもよい。情報取得部123は、検出された顔の位置と、カメラの位置及び向き(センサ情報)との関係性に基づいて、3次元空間における観察者の位置及び向きや姿勢などの状態を表す情報を取得する。顔の位置とセンサ情報の関係性は、予め映像提供装置10に記憶されてもよいし、訓練データを蓄積することにより学習されてもよい。
このように、重複領域に位置する検出対象は複数のセンサ装置によって計測情報が取得されるため、検出対象の状態を表す情報を精度よく取得することが可能となる。
The information acquisition unit 123 acquires information indicating the state of the detection target detected in the overlapping area.
For example, when an imaging device such as a camera is used as the sensor device included in the sensor group 20, the information acquisition unit 123 detects the position of the face of the observer (detection target) located in the overlapping region. As a method for detecting the position of the face based on the image, the method described in Non-Patent Document 2 may be used. Based on the relationship between the detected face position and the camera position and orientation (sensor information), the information acquisition unit 123 obtains information representing the state of the observer in the three-dimensional space, such as the position, orientation, and posture. get. The relationship between the face position and the sensor information may be stored in advance in the video providing device 10 or may be learned by accumulating training data.
As described above, since the measurement information is acquired by the plurality of sensor devices for the detection target located in the overlapping region, it is possible to acquire the information representing the state of the detection target with high accuracy.

図1の説明に戻る。データ処理部13は、マッチング部12において取得された検出対象の位置及び状態を表す情報に基づいて、検出対象の位置及び状態に応じた映像を生成する。データ処理部13は、生成された映像を出力部14に出力する。   Returning to the description of FIG. The data processing unit 13 generates an image corresponding to the position and state of the detection target based on the information representing the position and state of the detection target acquired by the matching unit 12. The data processing unit 13 outputs the generated video to the output unit 14.

次に、図2の例のように、複数の表示装置を用いて観察者に映像が提供される場合に、データ処理部13によって生成される検出対象の状態に応じた映像の具体例を説明する。
例えば、観察者(検出対象)の位置及び状態を表す情報に基づいて、複数の観察者が同じ表示装置を観察していることが判定された場合を考える。この場合、データ処理部13は、同じ表示装置を観察する観察者の多くが関心を持つと推測される映像を生成してもよい。
Next, a specific example of an image corresponding to the state of a detection target generated by the data processing unit 13 when an image is provided to an observer using a plurality of display devices as in the example of FIG. 2 will be described. To do.
For example, consider a case where it is determined that a plurality of observers are observing the same display device based on information indicating the position and state of the observer (detection target). In this case, the data processing unit 13 may generate an image that is estimated to be of interest to many observers who observe the same display device.

また、データ処理部13は、複数の観察者の位置情報に基づいて重心位置を算出し、その重心位置を観察位置とする映像を生成してもよい。生成される映像は例えば、3次元CGモデルなどの映像である。
また、データ処理部13は、複数の観察者ごとに提供される映像を生成してもよい。データ処理部13は、表示装置の表示領域を観察者の数に応じて分割し、複数の観察者ごとの映像を分割された表示領域に表示してもよい。また、表示領域は、観察者の位置情報に基づいて、観察者に近い表示領域から順に等分されてもよい。
Further, the data processing unit 13 may calculate a centroid position based on position information of a plurality of observers, and generate an image having the centroid position as an observation position. The generated video is, for example, a video such as a three-dimensional CG model.
The data processing unit 13 may generate an image provided for each of a plurality of observers. The data processing unit 13 may divide the display area of the display device in accordance with the number of observers, and display images for each of the plurality of observers in the divided display areas. The display area may be equally divided in order from the display area close to the observer based on the position information of the observer.

次に、図5の例のように、多指向映像出力装置を用いて観察者に映像が提供される場合に、データ処理部13によって生成される検出対象の位置に応じた映像の具体例を説明する。
例えば、多指向映像出力装置にQDAスクリーンを用いた場合について説明する。QDAスクリーンでは、指向性を有する各映像の観察領域は予め固定される。そのため、利用者は観察領域を動的に変更することができない。また、QDAスクリーンに表示される複数の映像の観察領域の間には、各観察領域の映像が混ざり合う観察には不適切な領域(以下、「観察不適領域」という。)が存在する。
Next, when an image is provided to an observer using a multidirectional image output device as in the example of FIG. 5, a specific example of an image corresponding to the position of a detection target generated by the data processing unit 13 is provided. explain.
For example, a case where a QDA screen is used in a multidirectional video output device will be described. On the QDA screen, the observation area of each image having directivity is fixed in advance. Therefore, the user cannot dynamically change the observation area. In addition, between the observation areas of the plurality of videos displayed on the QDA screen, there is an area inappropriate for observation in which the videos of the respective observation areas are mixed (hereinafter referred to as “observation inappropriate area”).

データ処理部13は、観察者が観察不適領域に位置する場合、観察者の位置に応じて、指向性を有する各映像の表示領域を分割する。データ処理部13は、観察不適領域において混ざり合った状態で観察されることにより観察可能な映像となる、指向性が異なる2つの映像を生成する。データ処理部13は、分割された表示領域のうち、観察不適領域に対応する2つの表示領域に、生成された2つの映像を出力する。   When the observer is located in the observation inappropriate area, the data processing unit 13 divides the display area of each image having directivity according to the position of the observer. The data processing unit 13 generates two images having different directivities, which are images that can be observed by being observed in a mixed state in the observation inappropriate region. The data processing unit 13 outputs the generated two videos to two display areas corresponding to the observation inappropriate area among the divided display areas.

データ処理部13の上記の処理によって、映像提供装置10は、観察不適領域に位置する観察者に対して観察可能な映像を提供することが可能となる。
次に、上述したデータ処理部13の処理の内容について具体例を用いて説明する。
By the above processing of the data processing unit 13, the video providing device 10 can provide an observable video to an observer located in the observation inappropriate region.
Next, the content of the processing of the data processing unit 13 described above will be described using a specific example.

図9は、多指向映像出力装置における映像の表示領域と観察領域を模式的に表した図である。
図9の例では、多指向映像出力装置は、指向性が異なる3つの映像を表示する。指向性が異なる3つの映像は、それぞれ、表示領域A、表示領域B及び表示領域Cに表示される。表示領域A、表示領域B及び表示領域Cに表示される映像の観察領域は、それぞれ、観察領域A、観察領域B及び観察領域Cである。観察不適領域ABは、観察領域A及び観察領域Bの間の観察不適領域である。観察不適領域BCは、観察領域B及び観察領域Cの間の観察不適領域である。
FIG. 9 is a diagram schematically showing a video display area and an observation area in the multidirectional video output apparatus.
In the example of FIG. 9, the multidirectional video output device displays three videos having different directivities. Three videos having different directivities are displayed in the display area A, the display area B, and the display area C, respectively. The observation areas of the images displayed on the display area A, the display area B, and the display area C are the observation area A, the observation area B, and the observation area C, respectively. The observation inappropriate region AB is an observation inappropriate region between the observation region A and the observation region B. The observation inappropriate region BC is an observation inappropriate region between the observation region B and the observation region C.

図10は、分割された多指向映像出力装置の映像の具体例を示す図である。
図10の例では、図9の例に示された表示領域と観察領域を有する多指向映像出力装置において、データ処理部13によって分割された映像の具体例が示されている。
多指向映像出力装置の観察者(検出対象)が、図10の例のように位置する場合、データ処理部13は、観察者の位置情報に基づいて、観察者を所定の数のグループに分類する。所定の数は、既定値として予め設定されてもよい。また、所定の数は、表示領域の大きさや観察者の数など任意の情報に基づいて、動的に決定されてもよい。図9の例では、観察者はグループ1、グループ2、グループ3及びグループ4の4つのグループに分類されている。
FIG. 10 is a diagram illustrating a specific example of the video of the divided multidirectional video output device.
In the example of FIG. 10, a specific example of the video divided by the data processing unit 13 in the multidirectional video output device having the display area and the observation area shown in the example of FIG. 9 is shown.
When the observer (detection target) of the multidirectional video output device is located as in the example of FIG. 10, the data processing unit 13 classifies the observer into a predetermined number of groups based on the position information of the observer. To do. The predetermined number may be preset as a default value. The predetermined number may be dynamically determined based on arbitrary information such as the size of the display area and the number of observers. In the example of FIG. 9, the observer is classified into four groups, group 1, group 2, group 3, and group 4.

データ処理部13は、各グループの位置情報に基づいて、指向性を有する各映像の表示領域の分割位置を決定する。図9の例では、視聴不適領域BCに位置するグループ3の位置に基づいて、分割位置B及び分割位置Cの分割位置が決定されている。各グループの位置情報には、各グループに属する観察者の位置の平均が用いられてもよい。また、各グループの位置情報には、各グループに属する観察者の重心位置が用いられてもよい。表示領域の分割位置が分割位置B及び分割位置Cに決定されたことにより、表示領域Aには映像1が表示される。また、表示領域Bには、分割位置Bを境として映像2及び映像3Bが表示される。また、表示領域Cには、分割位置Cを境として映像3C及び映像4が表示される。   The data processing unit 13 determines the division position of the display area of each image having directivity based on the position information of each group. In the example of FIG. 9, the division positions B and C are determined based on the position of the group 3 located in the viewing inappropriate area BC. For the position information of each group, an average of the positions of the observers belonging to each group may be used. Further, the position of the center of gravity of the observer belonging to each group may be used as the position information of each group. Since the division position of the display area is determined as the division position B and the division position C, the video 1 is displayed in the display area A. In the display area B, the video 2 and the video 3B are displayed with the division position B as a boundary. In the display area C, the video 3C and the video 4 are displayed with the division position C as a boundary.

データ処理部13は、各表示領域の分割された領域に表示される映像を生成する。図9の例では、データ処理部13は、映像1、映像2、映像3B、映像3C及び映像4を生成する。データ処理部13は、観察不適領域BCにおいて混ざり合った状態で観察されることにより観察可能となる映像3B及び映像3Cを生成する。   The data processing unit 13 generates a video displayed in the divided areas of the display areas. In the example of FIG. 9, the data processing unit 13 generates video 1, video 2, video 3B, video 3C, and video 4. The data processing unit 13 generates an image 3B and an image 3C that can be observed by being observed in a mixed state in the observation inappropriate region BC.

データ処理部13は、生成された映像を出力部14に出力する。図10の例では、データ処理部13は、映像1を表示領域Aに表示される映像として出力部14に出力する。データ処理部13は、映像2及び映像3Bを表示領域Bに表示される映像として出力部14に出力する。データ処理部13は、映像3C及び映像4を表示領域Cに表示される映像として出力部14に出力する。   The data processing unit 13 outputs the generated video to the output unit 14. In the example of FIG. 10, the data processing unit 13 outputs the video 1 to the output unit 14 as a video displayed in the display area A. The data processing unit 13 outputs the video 2 and the video 3B to the output unit 14 as video displayed in the display area B. The data processing unit 13 outputs the video 3C and the video 4 to the output unit 14 as video displayed in the display area C.

このように、表示装置に多指向映像出力装置を用いた場合、観察者(検出対象)の位置に応じて指向性を有する各映像の表示領域を分割することによって、映像提供装置10は、観察不適領域に位置する観察者に対して観察可能な映像を提供することが可能となる。   As described above, when the multidirectional video output device is used as the display device, the video providing device 10 can observe the video by dividing the display area of each video having directivity according to the position of the observer (detection target). It is possible to provide an observable image for an observer located in the inappropriate area.

図1の説明に戻る。出力部14は、データ処理部13から出力された映像を表示装置群30に含まれる表示装置に出力する。   Returning to the description of FIG. The output unit 14 outputs the video output from the data processing unit 13 to display devices included in the display device group 30.

図11は、実施形態の映像提供装置10の処理の流れを表すフローチャートである。
まず、映像提供装置10は、センサ群20に含まれるセンサ装置から計測情報を取得する(ステップS101)。映像提供装置10は、3次元空間における各センサ装置の位置及び向きを表す情報(センサ情報)を取得する(ステップS102)。映像提供装置10は、取得されたセンサ情報に基づいて、3次元空間における各センサ装置の検出領域の位置を算出する(ステップS103)。
FIG. 11 is a flowchart illustrating a process flow of the video providing apparatus 10 according to the embodiment.
First, the video providing device 10 acquires measurement information from the sensor devices included in the sensor group 20 (step S101). The video providing device 10 acquires information (sensor information) indicating the position and orientation of each sensor device in the three-dimensional space (step S102). The video providing device 10 calculates the position of the detection area of each sensor device in the three-dimensional space based on the acquired sensor information (step S103).

映像提供装置10は、3次元空間における各センサ装置の検出領域の位置に基づいて、各センサ装置によって重複して計測される領域(重複領域)を算出する(ステップS104)。映像提供装置10は、計測情報に基づいて、検出領域の特徴量を算出する(ステップS105)。映像提供装置10は、算出された検出領域の特徴量に基づいて、検出対象(観察者)を検出する(ステップS106)。   The video providing device 10 calculates a region (overlapping region) that is measured by each sensor device in an overlapping manner based on the position of the detection region of each sensor device in the three-dimensional space (step S104). The video providing apparatus 10 calculates the feature amount of the detection area based on the measurement information (Step S105). The video providing apparatus 10 detects a detection target (observer) based on the calculated feature amount of the detection region (step S106).

映像提供装置10は、ステップS106において検出された検出対象が、重複領域に位置するか否かを判定する(ステップS107)。重複領域に検出対象が位置しない場合(ステップS107−NO)、ステップS110に進み、映像提供装置10は、観察者(検出対象)に提供する映像を生成する。一方、重複領域に検出対象が位置する場合(ステップS107−YES)、映像提供装置10は、重複領域に位置する検出対象の特徴量と位置情報とに基づいて、重複領域に位置する検出対象のマッチング処理を行う(ステップS108)。   The video providing apparatus 10 determines whether or not the detection target detected in step S106 is located in the overlapping area (step S107). When the detection target is not located in the overlapping area (step S107—NO), the process proceeds to step S110, and the video providing apparatus 10 generates a video to be provided to the observer (detection target). On the other hand, when the detection target is located in the overlap region (step S107—YES), the video providing apparatus 10 detects the detection target located in the overlap region based on the feature amount and the position information of the detection target located in the overlap region. A matching process is performed (step S108).

映像提供装置10は、重複領域に位置する検出対象(観察者)の状態を表す情報を取得する(ステップS109)。状態を表す情報は、検出対象の向きや姿勢などの状態を表す情報である。映像提供装置10は、検出対象(観察者)の位置及び状態を表す情報に基づいて、検出対象(観察者)の位置及び状態に応じた映像を生成する(ステップS110)。映像提供装置10は、生成された映像を表示装置群30に含まれる表示装置に出力する(ステップS111)。   The video providing apparatus 10 acquires information indicating the state of the detection target (observer) located in the overlapping area (step S109). The information indicating the state is information indicating the state of the detection target such as the orientation and the posture. The video providing apparatus 10 generates a video corresponding to the position and state of the detection target (observer) based on information representing the position and state of the detection target (observer) (step S110). The video providing device 10 outputs the generated video to the display devices included in the display device group 30 (Step S111).

このように構成された実施形態の映像提供装置10は、重複領域の特徴量に基づいて、検出対象のマッチング処理を行う。このマッチング処理によって、映像提供装置10は、複数のセンサ装置の検出範囲を組み合わせ、より広い検出範囲で検出対象を検出することが可能となる。   The video providing apparatus 10 according to the embodiment configured as described above performs detection target matching processing based on the feature amount of the overlapping region. By this matching processing, the video providing apparatus 10 can detect detection targets in a wider detection range by combining the detection ranges of a plurality of sensor devices.

また、実施形態の映像提供装置10は、重複領域に位置する同一の検出対象を複数のセンサ装置によって検出する。そのため、映像提供装置10は、重複領域に位置する検出対象を精度よく検出することが可能となる。その結果、映像提供装置10は、重複領域に位置する観察者(検出対象)に対して、観察者の位置及び状態に応じた映像を提供することが可能となる。   In addition, the video providing apparatus 10 according to the embodiment detects the same detection target located in the overlapping area by using a plurality of sensor devices. Therefore, the video providing apparatus 10 can accurately detect the detection target located in the overlapping area. As a result, the video providing apparatus 10 can provide a video corresponding to the position and state of the observer to the observer (detection target) located in the overlapping region.

また、これらの機能は、表示装置群30に多指向映像出力装置を用いた場合にも応用することが可能である。実施形態の映像提供装置10は、指向性を有する各映像を、観察者の位置に応じて生成する。この機能により、映像提供装置10は、観察不適領域においても観察可能な映像を提供することが可能となる。また、映像提供装置10は、多指向映像出力装置を用いて構成されることにより、同じ物体の運動視差映像を同時に複数の観察者に対して提供することが可能となる。   These functions can also be applied when a multidirectional video output device is used for the display device group 30. The video providing apparatus 10 according to the embodiment generates each video having directivity according to the position of the observer. With this function, the video providing apparatus 10 can provide a video that can be observed even in an observation inappropriate region. In addition, the video providing device 10 is configured using a multidirectional video output device, so that motion parallax video of the same object can be simultaneously provided to a plurality of observers.

<変形例>
検出対象は、観察領域において表示装置に表示される映像を観察している観察者に限定される必要は無い。例えば、検出対象は、観察領域に位置する全ての人物であってもよいし、観察領域に位置する人物のうち所定の条件を満たす人物であってもよいし、他の人又は物であってもよい。
<Modification>
The detection target need not be limited to an observer who is observing an image displayed on the display device in the observation area. For example, the detection target may be all persons located in the observation area, may be a person satisfying a predetermined condition among persons located in the observation area, or may be another person or object. Also good.

上述した実施形態における映像提供装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
You may make it implement | achieve the image provision apparatus in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

10…映像提供装置, 11…入力部, 12…マッチング部, 13…データ処理部, 14…出力部, 141…重複領域検出部, 142…検出対象認識部, 143…検出対象情報取得部, 20…センサ群, 21、22、23…センサ装置, 30…表示装置群, 31、32、33…表示装置 DESCRIPTION OF SYMBOLS 10 ... Video provision apparatus, 11 ... Input part, 12 ... Matching part, 13 ... Data processing part, 14 ... Output part, 141 ... Overlapping area | region detection part, 142 ... Detection object recognition part, 143 ... Detection object information acquisition part, 20 ... Sensor group, 21, 22, 23 ... Sensor device, 30 ... Display device group, 31, 32, 33 ... Display device

Claims (3)

複数のセンサ装置を用いて空間の情報を取得する計測部と、
前記複数のセンサ装置によって重複して計測される重複領域を検出する重複検出部と、
前記複数のセンサ装置によって取得された情報に基づいて検出対象を検出する対象検出部と、
前記重複領域において検出された前記検出対象についてマッチング処理を行うことによって前記複数のセンサ装置が計測する同一の検出対象を検出するマッチング部と、
前記複数のセンサ装置によって前記同一の検出対象の位置及び状態を表す情報を取得する情報取得部と、
前記同一の検出対象の位置及び状態を表す情報に基づいて映像を生成する生成部と、
を備える映像提供装置。
A measurement unit that obtains spatial information using a plurality of sensor devices;
An overlap detection unit for detecting an overlap region measured in an overlapping manner by the plurality of sensor devices;
A target detection unit that detects a detection target based on information acquired by the plurality of sensor devices;
A matching unit that detects the same detection target measured by the plurality of sensor devices by performing a matching process on the detection target detected in the overlapping region;
An information acquisition unit for acquiring information representing the position and state of the same detection target by the plurality of sensor devices;
A generating unit that generates a video based on information indicating the position and state of the same detection target;
A video providing apparatus comprising:
前記生成部は、前記検出対象の位置に応じて前記映像を分割し、分割された前記映像を、指向性を有する映像を表示する表示装置に出力する、請求項1に記載の映像提供装置。   The video providing apparatus according to claim 1, wherein the generation unit divides the video according to the position of the detection target, and outputs the divided video to a display device that displays a video having directivity. 前記処理部は、前記検出対象の位置に応じて運動視差映像を処理し、処理された前記運動視差映像を前記表示装置に出力する、請求項2に記載の映像提供装置。   The video providing apparatus according to claim 2, wherein the processing unit processes a motion parallax video according to a position of the detection target, and outputs the processed motion parallax video to the display device.
JP2014000970A 2014-01-07 2014-01-07 Image providing apparatus Pending JP2015130582A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014000970A JP2015130582A (en) 2014-01-07 2014-01-07 Image providing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014000970A JP2015130582A (en) 2014-01-07 2014-01-07 Image providing apparatus

Publications (1)

Publication Number Publication Date
JP2015130582A true JP2015130582A (en) 2015-07-16

Family

ID=53761026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014000970A Pending JP2015130582A (en) 2014-01-07 2014-01-07 Image providing apparatus

Country Status (1)

Country Link
JP (1) JP2015130582A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107102802A (en) * 2017-04-19 2017-08-29 网易(杭州)网络有限公司 Overlay target system of selection and device, storage medium, electronic equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010281685A (en) * 2009-06-04 2010-12-16 National Univ Corp Shizuoka Univ System and method for measurement of position
JP2011081269A (en) * 2009-10-08 2011-04-21 Nikon Corp Image display device and image display method
JP2011192220A (en) * 2010-03-16 2011-09-29 Glory Ltd Device, method and program for determination of same person
JP2011199478A (en) * 2010-03-18 2011-10-06 Fujifilm Corp Imaging device, display control method therefor, and 3d information obtaining system
JP2011233040A (en) * 2010-04-28 2011-11-17 Glory Ltd Same object determination device and same object determination method
JP2013005135A (en) * 2011-06-15 2013-01-07 Sony Corp Image processing apparatus and method, and program
JP2013040791A (en) * 2011-08-11 2013-02-28 Canon Inc Image processing device, image processing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010281685A (en) * 2009-06-04 2010-12-16 National Univ Corp Shizuoka Univ System and method for measurement of position
JP2011081269A (en) * 2009-10-08 2011-04-21 Nikon Corp Image display device and image display method
JP2011192220A (en) * 2010-03-16 2011-09-29 Glory Ltd Device, method and program for determination of same person
JP2011199478A (en) * 2010-03-18 2011-10-06 Fujifilm Corp Imaging device, display control method therefor, and 3d information obtaining system
JP2011233040A (en) * 2010-04-28 2011-11-17 Glory Ltd Same object determination device and same object determination method
JP2013005135A (en) * 2011-06-15 2013-01-07 Sony Corp Image processing apparatus and method, and program
JP2013040791A (en) * 2011-08-11 2013-02-28 Canon Inc Image processing device, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107102802A (en) * 2017-04-19 2017-08-29 网易(杭州)网络有限公司 Overlay target system of selection and device, storage medium, electronic equipment

Similar Documents

Publication Publication Date Title
US20210326587A1 (en) Human face and hand association detecting method and a device, and storage medium
TWI754375B (en) Image processing method, electronic device and computer-readable storage medium
US8988317B1 (en) Depth determination for light field images
JP6657214B2 (en) Accuracy measurement of image-based depth detection system
JP2017174125A5 (en)
JP6712778B2 (en) Object detection device, object detection system, and object detection method
JP2007129709A (en) Method for calibrating imaging device, method for calibrating imaging system including arrangement of imaging devices, and imaging system
JP2016106668A (en) Information processing apparatus, information processing method and program
JP2008140271A (en) Interactive device and method thereof
EP3241348A1 (en) Method and system of sub-pixel accuracy 3d measurement using multiple images
EP2779091A1 (en) Automatic stereoscopic camera calibration
CN111784841B (en) Method, device, electronic equipment and medium for reconstructing three-dimensional image
US20140168375A1 (en) Image conversion device, camera, video system, image conversion method and recording medium recording a program
JP2014010805A (en) Image processing device, image processing method and image processing program
CN109754439B (en) Calibration method, calibration device, electronic equipment and medium
CN113936154A (en) Image processing method and device, electronic equipment and storage medium
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
CN115937291B (en) Binocular image generation method and device, electronic equipment and storage medium
JP2015130582A (en) Image providing apparatus
JP5638578B2 (en) Observation support device, observation support method and program
KR20120013769A (en) Method and apparatus for processing image
JP2018129025A (en) Determination device, image processing apparatus, determination method, and determination program
JP2018129026A (en) Determination device, image processing apparatus, determination method, and determination program
KR20130019080A (en) Image apparatus for combining plenoptic camera and depth camera, and image processing method
CN108353120A (en) Device and method for generating the data for indicating pixel beam

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171003