JP2013073222A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2013073222A
JP2013073222A JP2011214651A JP2011214651A JP2013073222A JP 2013073222 A JP2013073222 A JP 2013073222A JP 2011214651 A JP2011214651 A JP 2011214651A JP 2011214651 A JP2011214651 A JP 2011214651A JP 2013073222 A JP2013073222 A JP 2013073222A
Authority
JP
Japan
Prior art keywords
viewer
contact
collision
display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011214651A
Other languages
Japanese (ja)
Other versions
JP5911251B2 (en
JP2013073222A5 (en
Inventor
Motohisa Ito
元久 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011214651A priority Critical patent/JP5911251B2/en
Publication of JP2013073222A publication Critical patent/JP2013073222A/en
Publication of JP2013073222A5 publication Critical patent/JP2013073222A5/ja
Application granted granted Critical
Publication of JP5911251B2 publication Critical patent/JP5911251B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To avoid contact or collision of a viewer with a display device to prevent an unexpected situation.SOLUTION: A contact/collision possibility detection unit 11 detects a viewer who is possible to contact/collide with a display device for displaying an image. If the contact/collision possibility detection unit 11 detects a viewer who is possible to contact/collide with the display device, a warning display superposition unit 12 superposes a warning display on an image displayed on the display device.

Description

本発明は、表示装置に対して視聴者が接触や衝突することを防止する技術に関するものである。   The present invention relates to a technique for preventing a viewer from touching or colliding with a display device.

近年、屋外及び屋内を問わず、大型の映像表示装置を使用して様々な情報を提供する装置が広く使われている。例えば、駅前や商業地には、多種の広告を提供する屋外設置型の映像表示装置が多く存在する。また、駅や空港の建物内には、出発時刻及び到着時刻や運行状況を始めとする様々な情報や、広告を表示する映像表示装置が使われている。   2. Description of the Related Art In recent years, devices that provide various information using a large-sized video display device are widely used regardless of whether they are outdoors or indoors. For example, there are many outdoor-installed video display devices that provide various advertisements in front of a station or in commercial areas. Also, in the buildings of stations and airports, video display devices that display various information such as departure time and arrival time and operation status and advertisements are used.

映像表示装置を構成する表示素子の大型化や高精度化が進んでいることから、今後、このような様々な情報を提供する装置の大型化が進むと見込まれている。また、表示素子の大型化や高精度化により、現実と見紛う映像を表示することが可能となる。現実と見紛う映像は視聴者に対する訴求效果が大きいため、今後、電子広告を始めとした情報提供装置に、大型である上に高精細な映像を表示可能な映像表示装置が広く使用されると予想される。   Since the display elements constituting the video display device have been increased in size and accuracy, it is expected that devices that provide such various information will increase in size in the future. In addition, by increasing the size and accuracy of the display element, it is possible to display an image that is mistaken for reality. Since video that is misunderstood in reality has a great appealing effect to viewers, it is expected that video display devices that can display high-definition video in addition to large size will be widely used in information provision devices such as electronic advertisements in the future. Is done.

しかし、このような映像表示装置が提供する表示映像に現実感があるため、視聴者が映像であると認知せず、実体が存在すると誤認する虞がある。そして、視聴者が映像であると認知せず、実体が存在すると誤認していると、思わぬ事態が発生する虞がある。従って、大型で且つ高精細な映像を表示する映像表示装置、又は、そのような映像表示装置を使用した情報提供装置には、視聴者の接触や衝突を回避する手法が使用されている。   However, since the display video provided by such a video display device has a sense of reality, the viewer may not recognize that the video is a video and may misidentify that the entity exists. And if a viewer does not recognize that it is a video and misidentifies that it exists, an unexpected situation may occur. Therefore, techniques for avoiding viewer contact and collision are used in video display devices that display large and high-definition video, or information providing devices that use such video display devices.

視聴者の接触や衝突を回避するための手法として、パイロン、柵又は綱等で、表示面を物理的に隔離する手法がある。本手法によれば、パイロン、柵又は綱の存在により、視聴者は表示面に接触や衝突するまで接近せず、視聴者の接触や衝突の回避が可能である。しかしながら、本手法では、表示面を物理的に隔離するためのパイロン、柵又は柵の存在が、視聴者に対する訴求效果を殺いでしまうという課題がある。   As a method for avoiding viewer contact and collision, there is a method of physically isolating the display surface with a pylon, a fence or a rope. According to this method, due to the presence of the pylon, the fence, or the rope, the viewer does not approach the display surface until it touches or collides, and the viewer can avoid contact or collision. However, in this method, there is a problem that the existence of a pylon, a fence, or a fence for physically isolating the display surface kills the appeal effect to the viewer.

また、別の手法として、接触や衝突の虞がある場合に、視聴者に対して音や光で警告を発して、視聴者の接触や衝突を回避する手法がある。本手法によれば、接触や衝突の虞があると判断すると、スピーカから警告音を発する、又は、警告灯を点滅或いは回転することで注意を促し、視聴者の接触や衝突を回避する。しかしながら、本手法には、接触や衝突の虞がない視聴者にも警告が達する上、視聴者の感興を殺いでしまうという課題がある。スピーカからの警告音や警告灯の警告光は、接触や衝突の虞がある視聴者のみならず、接触や衝突の虞がない視聴者にも到達する。従って、接触や衝突の虞がある視聴者、及び、接触や衝突の虞がない視聴者ともに、スピーカからの警告音又は警告灯の警告光により、感興を殺がれてしまう。さらに、感興を殺がれるのみならず、当該映像表示装置が表示している情報、例えば当該映像表示装置が電子広告装置である場合、対象の商品に対して、よくない印象を視聴者が持つ虞も否定できない。   As another method, when there is a possibility of contact or collision, there is a method of issuing a warning to the viewer with sound or light to avoid the viewer's contact or collision. According to this method, when it is determined that there is a possibility of contact or collision, a warning sound is emitted from the speaker, or a warning light is flashed or rotated to alert the viewer, thereby avoiding the viewer's contact or collision. However, in this method, there is a problem that a warning is reached even for a viewer who does not have a possibility of contact or collision, and the viewer's emotion is killed. The warning sound from the speaker and the warning light from the warning light reach not only a viewer who has a risk of contact or collision but also a viewer who has no risk of contact or collision. Therefore, both viewers who have a risk of contact and collision and viewers who have no risk of contact and collision will be killed by the warning sound from the speaker or the warning light from the warning light. Furthermore, not only is the impression lost, but the information displayed by the video display device, for example, when the video display device is an electronic advertising device, the viewer has a bad impression on the target product. The fear cannot be denied.

特許文献1には、視聴者と表示面との距離を測定し、その距離が適切でない場合、表示面に警告を表示する技術が開示されている。また、特許文献2には、接触や衝突の虞がある視聴者の携帯端末に警報を送信し、警告音を発する技術が開示されている。   Patent Document 1 discloses a technique for measuring a distance between a viewer and a display surface and displaying a warning on the display surface when the distance is not appropriate. Patent Document 2 discloses a technique for transmitting a warning and generating a warning sound to a portable terminal of a viewer who has a risk of contact or collision.

特開平3−200995号公報Japanese Patent Laid-Open No. 3-200995 特開2006−331154号公報JP 2006-331154 A

しかしながら、特許文献1に開示される技術は、警告を発する条件が視聴者と表示面との距離のみであるため、接触や衝突の虞はないが、表示面までの距離が適切でない視聴者にも警告を発してしまうという課題がある。接触や衝突の虞はないが、表示面までの距離が適切でない視聴者の例として、表示面の前で停止している視聴者や、表示面と並行に移動している視聴者等が挙げられる。   However, in the technique disclosed in Patent Document 1, since the warning condition is only the distance between the viewer and the display surface, there is no risk of contact or collision, but the viewer is not at an appropriate distance to the display surface. There is also a problem of issuing a warning. Examples of viewers who do not have a risk of contact or collision, but whose distance to the display surface is not appropriate include viewers stopped in front of the display surface and viewers moving in parallel with the display surface. It is done.

また、特許文献2に開示される技術は、警報を受信可能な携帯端末を所持していないと警告を受けることができないという課題がある。駅等の公共の場では、不特定多数の人間が出入りしているので、全ての視聴者が警報を受信可能な携帯端末を所持しているとは限らない。従って、本従来技術による接触や衝突回避は限定的となる。   Moreover, the technique disclosed in Patent Document 2 has a problem that a warning cannot be received unless a portable terminal capable of receiving an alarm is possessed. In public places such as stations, an unspecified number of people come and go, so not all viewers have portable terminals that can receive alarms. Therefore, the contact and collision avoidance according to the prior art is limited.

そこで、本発明の目的は、視聴者が表示装置に対して接触や衝突することを回避し、不測の事態の発生を防止することにある。   Therefore, an object of the present invention is to prevent the viewer from touching or colliding with the display device and preventing the occurrence of an unexpected situation.

本発明の画像処理装置は、画像を表示する表示装置に対して接触又は衝突の虞のある視聴者を検出する検出手段と、前記検出手段により前記表示装置に対して接触又は衝突の虞のある前記視聴者が検出された場合、前記表示装置に表示される画像に警告表示を重畳させる重畳手段とを有することを特徴とする。   The image processing apparatus according to the present invention has a detection unit that detects a viewer who may contact or collide with a display device that displays an image, and the detection unit may cause a contact or collision with the display device. And a superimposing unit that superimposes a warning display on an image displayed on the display device when the viewer is detected.

本発明によれば、視聴者が表示装置に対して接触や衝突することを回避することができ、不測の事態の発生を防止することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it can avoid that a viewer contacts or collides with a display apparatus, and it becomes possible to prevent generation | occurrence | production of an unexpected situation.

本発明の実施形態に係る映像表示装置の構成を示す図である。It is a figure which shows the structure of the video display apparatus which concerns on embodiment of this invention. 本発明の実施形態において使用する座標系を示す図である。It is a figure which shows the coordinate system used in embodiment of this invention. 第1の実施形態における接触や衝突の虞検出部の構成を示す図である。It is a figure which shows the structure of the concern detection part of a contact and a collision in 1st Embodiment. 視聴者情報収集部によって生成される視聴者情報について説明するための図である。It is a figure for demonstrating the viewer information produced | generated by the viewer information collection part. 接触や衝突の虞推測部が接触や衝突の虞を推測する処理を示すフローチャートである。It is a flowchart which shows the process which the possibility estimation part of a contact and a collision estimates the possibility of a contact and a collision. 第1の実施形態における警告表示重畳部の処理を示すフローチャートである。It is a flowchart which shows the process of the warning display superimposition part in 1st Embodiment. 警告表示領域の例を示す図である。It is a figure which shows the example of a warning display area. 警告表示を重畳した映像を表示面に表示した例を示す図である。It is a figure which shows the example which displayed the image | video which superimposed the warning display on the display surface. 第2の実施形態における接触や衝突の虞検出部の構成を示す図である。It is a figure which shows the structure of the possibility detection part of a contact and a collision in 2nd Embodiment. 第2の実施形態における接触や衝突の虞推測部が接触や衝突の虞を推測する処理を示すフローチャートである。It is a flowchart which shows the process which the possibility estimation part of a contact and a collision in 2nd Embodiment estimates the possibility of a contact and a collision. 第4の実施形態における警告表示重畳部の処理を示すフロsーチャートである。It is a flowchart which shows the process of the warning display superimposition part in 4th Embodiment. 第5の実施形態における警告表示重畳部の処理を示すフローチャートである。It is a flowchart which shows the process of the warning display superimposition part in 5th Embodiment. 第6の実施形態における警告表示重畳部の処理を示すフローチャートである。It is a flowchart which shows the process of the warning display superimposition part in 6th Embodiment.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。但し、本発明は、以下に説明する実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で適宜変更することが可能である。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described below, and can be appropriately changed without departing from the gist of the present invention.

先ず、本発明の実施形態を説明するにあたり、使用する座標系について説明する。図2は、本実施形態において使用する座標系を示す図である。本実施形態において使用する座標系は右手系である。即ち、表示面31に向かって左側の下端が水平面と交わる点を原点にとる。そして、x軸は原点において表示面31に対して垂直に定める。x軸の方向は表示面31から離れる方向とする。そして、右手系座標系になるようにy軸及びz軸を定める。なお、表示面31の形状は平面に限定するものではなく、表示面31は曲面であってもよい。表示面31が曲面であっても座標系は同様である。   First, in describing an embodiment of the present invention, a coordinate system to be used will be described. FIG. 2 is a diagram showing a coordinate system used in the present embodiment. The coordinate system used in this embodiment is a right-handed system. That is, the point at which the lower left end of the display surface 31 intersects the horizontal plane is taken as the origin. The x axis is determined perpendicular to the display surface 31 at the origin. The x-axis direction is a direction away from the display surface 31. Then, the y-axis and the z-axis are determined so as to be a right-handed coordinate system. The shape of the display surface 31 is not limited to a flat surface, and the display surface 31 may be a curved surface. Even if the display surface 31 is a curved surface, the coordinate system is the same.

また、本発明の実施形態を説明するにあたり、視聴者を、接触や衝突の虞の有無で明確に区別する必要がある場合、接触や衝突の虞がある視聴者を視聴者35とし、接触や衝突の虞がない視聴者を視聴者36とする。図2において、接触や衝突の虞がある視聴者35は、表示面31に向かって移動していて、接触や衝突の虞がある。一方、接触や衝突の虞がない視聴者36は、表示面31に対して平行に移動していて、接触や衝突の虞はない。   Further, in describing the embodiment of the present invention, when it is necessary to clearly distinguish the viewers based on the possibility of contact or collision, the viewers who are likely to contact or collide are referred to as viewers 35. A viewer who does not have a risk of collision is defined as a viewer 36. In FIG. 2, the viewer 35 who has a risk of contact or collision is moving toward the display surface 31, and there is a risk of contact or collision. On the other hand, the viewer 36 who has no risk of contact or collision moves in parallel with the display surface 31 and has no risk of contact or collision.

図1は、本発明の第1の実施形態に係る映像表示装置の構成を示す図である。図1に示すように、第1の実施形態に係る映像表示装置は、接触や衝突の虞検出部11と警告表示重畳部12とを備える。接触や衝突の虞検出部11は、予め定められた期間Pt0内に表示面31と接触や衝突すると予測される視聴者を検出する。そして、接触や衝突の虞検出部11は、検出した視聴者毎の情報を収集して虞あり対象者情報101を生成し、警告表示重畳部12に対して出力する。警告表示重畳部12は、虞あり対象者情報101に基づいて、接触や衝突の虞がある視聴者が映像表示装置の存在を認知するに足る信号、即ち警告表示を映像信号に重畳させる。なお、本実施形態に係る映像表示装置は、画像処理装置の適用例となる構成である。   FIG. 1 is a diagram showing a configuration of a video display apparatus according to the first embodiment of the present invention. As shown in FIG. 1, the video display device according to the first embodiment includes a contact / collision detection unit 11 and a warning display superimposing unit 12. The contact or collision risk detection unit 11 detects a viewer who is predicted to contact or collide with the display surface 31 within a predetermined period Pt0. Then, the contact / collision detection unit 11 collects the detected information for each viewer, generates the target information 101 that may be detected, and outputs the target information 101 to the warning display superimposing unit 12. The warning display superimposing unit 12 superimposes a signal, that is, a warning display, that is sufficient for a viewer who may be in contact with or collides to recognize the presence of the video display device, on the video signal, based on the target information 101 of the target. Note that the video display device according to the present embodiment has a configuration as an application example of the image processing device.

ここで、接触や衝突の虞検出部11について詳細に説明する。図3は、接触や衝突の虞検出部11の構成を示す図である。図3に示すように、接触や衝突の虞検出部11は、視聴者情報収集部21及び接触や衝突の虞推測部22を備える。   Here, the contact or collision fear detection unit 11 will be described in detail. FIG. 3 is a diagram illustrating a configuration of the contact or collision fear detection unit 11. As illustrated in FIG. 3, the contact or collision risk detection unit 11 includes a viewer information collection unit 21 and a contact or collision risk estimation unit 22.

図4は、視聴者情報収集部21によって生成される視聴者情報(図3の111)について説明するための図である。図4に示すように、視聴者情報111は、視聴者41の、座標Pm、速度ベクトルVm及び顔の向きベクトルAmを含む。ここで添え字mは、視聴者41を識別するための識別子である。視聴者41の座標Pmは、視聴者41を代表する点の座標である。例えば、視聴者41の頭頂部中央の座標値を座標Pmとする。勿論、視聴者41の座標Pmを視聴者41の頭頂部中央の座標値に限定するものではない。座標Pm、速度ベクトルVm及び顔の向きベクトルAmを成分表示で表すと、以下のようになる。
Pm=(Pxm,Pym,Pzm)
Vm=(Vxm,Vym,Vzm)
Am=(Axm,Aym,Azm)
なお、視聴者情報111は上記3項目に限定されるものではない。即ち、さらに多くの項目を視聴者情報111が含むことを妨げない。
FIG. 4 is a diagram for explaining the viewer information (111 in FIG. 3) generated by the viewer information collection unit 21. As shown in FIG. 4, the viewer information 111 includes the coordinates Pm, the velocity vector Vm, and the face direction vector Am of the viewer 41. Here, the subscript m is an identifier for identifying the viewer 41. The coordinates Pm of the viewer 41 are the coordinates of a point representing the viewer 41. For example, the coordinate value at the center of the top of the viewer 41 is set as the coordinate Pm. Of course, the coordinate Pm of the viewer 41 is not limited to the coordinate value at the center of the top of the viewer 41. The coordinates Pm, the velocity vector Vm, and the face direction vector Am are represented by component display as follows.
Pm = (Pxm, Pym, Pzm)
Vm = (Vxm, Vym, Vzm)
Am = (Axm, Aym, Azm)
The viewer information 111 is not limited to the above three items. That is, it does not prevent the viewer information 111 from including more items.

次に、視聴者情報収集部21の動作について説明する。位置や速度を始めとする対象物の位置情報を取得する手法については、従来から多くの手法が提案されており、本発明は、位置情報の取得手法に依存したものではない。そこで、少なくとも視聴者41の座標Pm、速度ベクトルVm及び顔の向きベクトルAmを取得することができれば、何れの公知技術を使用して視聴者情報収集部21を構成してもよい。例えば、窪田進,丸山昌之,伊久美智則,高畠政実:複数の全方位カメラによる人物動線計測システム,東芝レビュー,Vol.63,No.10(2008)には、全方位カメラを用いて人物の動線を検出する手法が開示されている。この公知技術を応用して、視聴者41の座標Pm、速度ベクトルVm及び顔の向きベクトルAmを検出することが可能である。   Next, the operation of the viewer information collection unit 21 will be described. Many methods have been proposed for acquiring position information of an object such as a position and speed, and the present invention does not depend on a position information acquisition method. Therefore, as long as at least the coordinates Pm, the velocity vector Vm, and the face direction vector Am of the viewer 41 can be acquired, the viewer information collecting unit 21 may be configured using any known technique. For example, Susumu Kubota, Masayuki Maruyama, Tomonori Ikumi, Masami Takahata: Human Traffic Line Measurement System Using Multiple Omnidirectional Cameras, Toshiba Review, Vol. 63, no. 10 (2008) discloses a technique for detecting a flow line of a person using an omnidirectional camera. By applying this known technique, it is possible to detect the coordinate Pm, the velocity vector Vm, and the face direction vector Am of the viewer 41.

また、視聴者41の座標Pm及び速度ベクトルVmを検出する手段と、視聴者41の顔の向きベクトルAmを検出する手段とが夫々別であってもよい。この場合、視聴者41の座標Pm及び速度ベクトルVmと、視聴者41の顔の向きベクトルAmとを夫々別の手段で検出した後、視聴者情報収集部21がこれらを合成して視聴者情報111を形成する。例えば、超音波センサを使用した視聴者41の座標Pm及び速度ベクトルVmの検出手段と、カメラで撮影した映像から顔認識で顔の向きベクトルAmを検出する手段とを用いる構成が別々の検出手段を用いた例である。勿論、検出手段の組み合わせが、超音波センサによる座標Pm及び速度ベクトルVmの検出手段と、顔認識による顔の向きベクトルAmの検出手段との組み合わせに限定されるものではない。   Further, the means for detecting the coordinate Pm and the velocity vector Vm of the viewer 41 may be different from the means for detecting the face orientation vector Am of the viewer 41. In this case, after detecting the coordinate Pm and the velocity vector Vm of the viewer 41 and the face direction vector Am of the viewer 41 by different means, the viewer information collection unit 21 combines them to view the viewer information. 111 is formed. For example, the detection means for detecting the coordinates Pm and the velocity vector Vm of the viewer 41 using an ultrasonic sensor and the means for detecting the face orientation vector Am by face recognition from video captured by a camera are separate detection means. It is an example using. Of course, the combination of the detection means is not limited to the combination of the detection means for the coordinates Pm and the velocity vector Vm by the ultrasonic sensor and the detection means for the face orientation vector Am by face recognition.

次に、接触や衝突の虞推測部22の動作について説明する。接触や衝突の虞推測部22は、視聴者情報111に基づいて、予め定められた期間Pt0内に表示面31と接触や衝突する虞を示す値を視聴者41毎に時々刻々と推測(推定)する。そして、接触や衝突の虞推測部22は、上記接触や衝突する虞を示す値に基づいて、接触や衝突の虞がある視聴者35を抽出する。その後、接触や衝突の虞推測部22は、接触や衝突の虞がある視聴者35の視聴者情報111を、虞あり対象者情報101として出力する。ここで、虞あり対象者情報101は、接触や衝突の虞がある視聴者35の、座標Pm、速度ベクトルVm、顔の向きベクトルAm及び接触や衝突する虞を示す値を含む情報である。   Next, the operation of the contact or collision fear estimation unit 22 will be described. Based on the viewer information 111, the contact or collision risk estimation unit 22 estimates (estimates) a value indicating the risk of contact or collision with the display surface 31 for each viewer 41 within a predetermined period Pt0. ) Then, the contact / collision estimation unit 22 extracts a viewer 35 who has a risk of contact or collision based on the value indicating the possibility of contact or collision. Thereafter, the contact or collision risk estimation unit 22 outputs the viewer information 111 of the viewer 35 who may have contact or collision as the feared target person information 101. Here, there is a possibility that the target information 101 is information including the coordinates Pm, the velocity vector Vm, the face direction vector Am, and a value indicating the possibility of contact or collision of the viewer 35 who may have contact or collision.

なお、本発明においては、接触や衝突の虞を推測する手段を限定するものではない。従って、期間Pt0内に表示面31と接触や衝突する虞を推測できればどのような手段を使用してもよい。そこで、接触や衝突の虞推測部22の一例として、線形予測を使用した例について説明する。接触や衝突の虞推測部22の動作を説明するのに先立ち、緩衝距離Blと表示面31の範囲を表すベクトル方程式Dsとについて説明する。   In the present invention, means for estimating the risk of contact or collision is not limited. Therefore, any means may be used as long as it can be estimated that there is a possibility of contact or collision with the display surface 31 within the period Pt0. Therefore, an example using linear prediction will be described as an example of the contact or collision risk estimation unit 22. Prior to explaining the operation of the contact / collision estimation unit 22, the buffer distance Bl and the vector equation Ds representing the range of the display surface 31 will be described.

先ず、緩衝距離Blについて説明する。本実施形態では、緩衝距離Blを次のように定義する。即ち、緩衝距離Blとは、視聴者41が表示面31から緩衝距離Bl以上離れていれば、視聴者41が手を伸ばしても、その手が表示面31に接触しない距離である。従って、緩衝距離Blは、視聴者41の手の長さより大きい値を持つ。緩衝距離Blの値は、予め定めておいてもよいし、表示面31の形状、視聴者41の位置又は視聴者41の身長により、動的に算出してもよい。   First, the buffer distance Bl will be described. In the present embodiment, the buffer distance B1 is defined as follows. That is, the buffer distance B1 is a distance where the viewer 41 does not touch the display surface 31 even if the viewer 41 extends his / her hand if the viewer 41 is separated from the display surface 31 by the buffer distance B1 or more. Therefore, the buffer distance B1 has a value larger than the length of the viewer's 41 hand. The value of the buffer distance B1 may be determined in advance, or may be dynamically calculated according to the shape of the display surface 31, the position of the viewer 41, or the height of the viewer 41.

次に、表示面31の範囲を表すベクトル方程式Dsについて説明する。本実施形態において、表示面31は平面とする。そして表示面31は、枠等の部材の大きさも含めて、水平方向にdy、垂直方向にdzの大きさを持つとする。表示面31の範囲を表すベクトル方程式Dsの要素をDs=(Dsx,Dsy,Dsz)とすると、表示面31の範囲を表すベクトル方程式Dsは、以下の式1によって表される。本実施形態では、表示面31に向かって左側の下端が水平面と交わる点を原点とし、x軸を表示面31に対して垂直にとっているので、表示面31の範囲を表すベクトル方程式Dsのx成分Dsxの値は常に0である。勿論、表示面31の形状を平面に限定するものではない。表示面31が曲面であっても、ベクトル方程式Dsを定義すれば、同様に実施可能である。   Next, the vector equation Ds representing the range of the display surface 31 will be described. In the present embodiment, the display surface 31 is a flat surface. The display surface 31 is assumed to have a size of dy in the horizontal direction and dz in the vertical direction, including the size of members such as a frame. Assuming that the element of the vector equation Ds representing the range of the display surface 31 is Ds = (Dsx, Dsy, Dsz), the vector equation Ds representing the range of the display surface 31 is expressed by the following Equation 1. In this embodiment, since the origin is a point where the lower left end of the display surface 31 intersects the horizontal plane and the x axis is perpendicular to the display surface 31, the x component of the vector equation Ds representing the range of the display surface 31 is used. The value of Dsx is always 0. Of course, the shape of the display surface 31 is not limited to a plane. Even if the display surface 31 is a curved surface, it can be similarly implemented if the vector equation Ds is defined.

Figure 2013073222
Figure 2013073222

なお、表示面31において画素が存在する領域は、水平方向にdiy、垂直方向にdizの大きさを持つとする。以下、表示面31の画素が存在する領域を「表示面31の画素領域」と称す。ここで、表示面31の画素領域の、向かって左下の座標を、(0,dioy,dioz)とする。diy、diz、dioy及びdiozと、dy及びdzとは、次の式2に示す関係式を満たす。   It is assumed that the area where the pixels exist on the display surface 31 has a size of diy in the horizontal direction and diz in the vertical direction. Hereinafter, the region where the pixels of the display surface 31 are present is referred to as “pixel region of the display surface 31”. Here, the lower left coordinate toward the pixel area of the display surface 31 is (0, dioy, dioz). diy, diz, dioy and dioz, and dy and dz satisfy the relational expression shown in the following Expression 2.

Figure 2013073222
Figure 2013073222

本実施形態では、接触や衝突する虞を示す値は、0、1、2の三値をとるものとする。そして、それぞれの値は以下の状態を示す。
接触や衝突する虞を示す値 状態
0 期間Pt0内に表示面31と接触や衝突する虞はない
1 期間Pt0内に表示面31と接触や衝突する虞はある
2 緩衝距離Bl内に視聴者35が存在する
即ち、視聴者35が手を伸ばせば接触や衝突の虞がある
In the present embodiment, the value indicating the possibility of contact or collision assumes three values of 0, 1, and 2. And each value shows the following states.
Value indicating the possibility of contact or collision State 0 There is no possibility of contact or collision with the display surface 31 within the period Pt0 1 There is a possibility of contact or collision with the display surface 31 within the period Pt0 2 The viewer 35 within the buffer distance Bl Exist
That is, if the viewer 35 reaches out, there is a risk of contact or collision.

従って、本実施形態では、接触や衝突の虞推測部22は、接触や衝突する虞を示す値が1又は2の視聴者41については、接触や衝突の虞がある視聴者35として虞あり対象者情報101を生成する。そして、接触や衝突する虞を示す値が0の視聴者41については、接触や衝突の虞推測部22は、虞あり対象者情報101を生成しない。   Accordingly, in the present embodiment, the contact or collision risk estimation unit 22 is concerned with the viewer 41 having a value of 1 or 2 indicating the risk of contact or collision as the viewer 35 who may have contact or collision. Person information 101 is generated. And about the viewer 41 whose value which shows the possibility of a contact and a collision is 0, the possibility estimation part 22 of a contact and a collision does not produce | generate the target information 101 with a possibility.

次に、図5に示すフローチャートを参照しながら、接触や衝突の虞推測部22が接触や衝突の虞を推測する処理について説明する。接触や衝突の虞推測部22は、視聴者41毎に図5に示す処理を時々刻々と繰り返し、接触や衝突の虞を推測する。   Next, referring to the flowchart shown in FIG. 5, a process in which the contact or collision risk estimation unit 22 estimates the risk of contact or collision will be described. The contact or collision risk estimation unit 22 repeats the process shown in FIG. 5 for each viewer 41 every moment to estimate the risk of contact or collision.

ステップS101において、接触や衝突の虞推測部22は、視聴者41と表示面31との距離Lと、緩衝距離Blとを比較し、視聴者41の位置が表示面31から緩衝距離Blより離れているか否かを判定する。視聴者41と表示面31との距離Lは、視聴者41の座標Pmから表示面31の範囲を表すベクトル方程式Dsに下ろした垂線の長さを求めればよい。本実施形態では、表示面31は平面であるから、視聴者41と表示面31との距離Lは、視聴者41の座標Pmのx方向成分Pxmになる。従って、Pxm>Blであり、視聴者41の位置が表示面31から緩衝距離Blより離れている場合、処理はステップS102に移行する。一方、Pxm≦Blであり、視聴者41と表示面31との距離Lが緩衝距離Bl以下である場合、処理はステップS107に移行する。   In step S101, the contact or collision risk estimation unit 22 compares the distance L between the viewer 41 and the display surface 31 with the buffer distance Bl, and the position of the viewer 41 is separated from the display surface 31 by the buffer distance Bl. It is determined whether or not. The distance L between the viewer 41 and the display surface 31 may be obtained by calculating the length of a perpendicular line drawn from the coordinate Pm of the viewer 41 to the vector equation Ds representing the range of the display surface 31. In the present embodiment, since the display surface 31 is a flat surface, the distance L between the viewer 41 and the display surface 31 is the x-direction component Pxm of the coordinates Pm of the viewer 41. Therefore, if Pxm> B1 and the position of the viewer 41 is separated from the display surface 31 by the buffer distance B1, the process proceeds to step S102. On the other hand, if Pxm ≦ B1 and the distance L between the viewer 41 and the display surface 31 is equal to or less than the buffer distance B1, the process proceeds to step S107.

ステップS102において、接触や衝突の虞推測部22は、視聴者41の未来位置Fmを線形に予測する。ここで未来位置とは、期間Pt0内に視聴者41が到達すると予測される位置である。tを媒介変数とすると、視聴者41の未来位置Fmは次の式3で表される。   In step S <b> 102, the contact / collision estimation unit 22 predicts the future position Fm of the viewer 41 linearly. Here, the future position is a position where the viewer 41 is predicted to arrive within the period Pt0. When t is a parameter, the future position Fm of the viewer 41 is expressed by the following formula 3.

Figure 2013073222
Figure 2013073222

ステップS103において、接触や衝突の虞推測部22は、表示面31の範囲を表すベクトル方程式Dsと視聴者41の未来位置Fmとの交点Gmを算出する。交点Gmにおいて、Ds=Fmである。この関係を成分表示で表すと、式4に示すようになる。式4を各変数について解いた結果が式5である。式5に示すt、Dsy、Dszの解が、それぞれのとり得る値の範囲内に存在する場合、交点Gmは存在する。即ち、式6に示す関係式が全て成立する場合、交点Gmは存在する。一方、式6を示す関係式のうち、成立しない関係式が一つでも存在する場合、交点Gmは存在しない。   In step S <b> 103, the contact or collision risk estimation unit 22 calculates an intersection Gm between the vector equation Ds representing the range of the display surface 31 and the future position Fm of the viewer 41. At the intersection Gm, Ds = Fm. When this relationship is expressed by component display, it is as shown in Equation 4. The result of solving Equation 4 for each variable is Equation 5. When the solutions of t, Dsy, and Dsz shown in Expression 5 are within the range of possible values, the intersection point Gm exists. That is, when all the relational expressions shown in Expression 6 are satisfied, the intersection point Gm exists. On the other hand, if there is any relational expression that does not hold among the relational expressions representing Expression 6, the intersection point Gm does not exist.

Figure 2013073222
Figure 2013073222

ステップS104において、接触や衝突の虞推測部22は、交点Gmが存在するか否かを判定する。交点Gmが存在しない場合、処理はステップS105に移行する。一方、交点Gmが存在する場合、処理はステップS106に移行する。交点Gmが存在しない場合、期間Pto内で、視聴者41が表示面31に接触や衝突する虞はない。そこでステップS105において、接触や衝突の虞推測部22は、接触や衝突する虞を示す値を0にする。一方、交点Gmが存在する場合、接触や衝突の虞推測部22は、期間Pt0内で、視聴者41が表示面31に接触や衝突する虞があると推測する。そこでステップS106において、接触や衝突の虞推測部22は、接触や衝突する虞を示す値を1にする。また、視聴者41と表示面31との距離が緩衝距離Bl以下である場合、現時点において、手を伸ばせば表示面31に接触や衝突する虞がある。そこでステップS107において、接触や衝突の虞推測部22は、接触や衝突する虞を示す値を2にする。   In step S104, the contact or collision risk estimation unit 22 determines whether or not the intersection point Gm exists. If the intersection Gm does not exist, the process proceeds to step S105. On the other hand, when the intersection point Gm exists, the process proceeds to step S106. When the intersection point Gm does not exist, there is no possibility that the viewer 41 touches or collides with the display surface 31 within the period Pto. Therefore, in step S105, the contact or collision risk estimation unit 22 sets the value indicating the risk of contact or collision to 0. On the other hand, when the intersection point Gm exists, the contact or collision risk estimation unit 22 estimates that the viewer 41 may contact or collide with the display surface 31 within the period Pt0. Therefore, in step S106, the contact or collision risk estimation unit 22 sets the value indicating the risk of contact or collision to 1. In addition, when the distance between the viewer 41 and the display surface 31 is equal to or less than the buffer distance Bl, there is a possibility that the display surface 31 may come into contact with or collide if the hand is reached at this time. Therefore, in step S107, the contact or collision risk estimation unit 22 sets the value indicating the risk of contact or collision to 2.

次に、図6を参照しながら、警告表示重畳部12の動作について説明する。図6は、警告表示重畳部12の処理を示すフローチャートである。警告表示重畳部12は、接触や衝突の虞がある視聴者35毎に、時々刻々と映像入力102に対して図6に示す処理を繰り返すことにより、警告表示を重畳した映像103を出力する。   Next, the operation of the warning display superimposing unit 12 will be described with reference to FIG. FIG. 6 is a flowchart showing the processing of the warning display superimposing unit 12. The warning display superimposing unit 12 outputs the video 103 on which the warning display is superimposed by repeating the process shown in FIG. 6 for the video input 102 every moment for each viewer 35 who has a possibility of contact or collision.

ステップS111において、警告表示重畳部12は、座標Pmを通り顔の向きベクトルAmに平行な線分と、表示面31の範囲を表すベクトル方程式Dsとの交点Smを算出する。座標Pmを通り、顔の向きベクトルAmに平行な線分の成分表示は、uを媒介変数として、次の式7で表される。交点Smはベクトル方程式Ds上の点であるから、式8が成り立つ。式8をSymとSzmとについて解くと、交点Smの各成分の値は式9になる。   In step S <b> 111, the warning display superimposing unit 12 calculates an intersection Sm between a line segment passing through the coordinate Pm and parallel to the face orientation vector Am and the vector equation Ds representing the range of the display surface 31. The component display of the line segment that passes through the coordinate Pm and is parallel to the face orientation vector Am is expressed by the following Expression 7 using u as a parameter. Since the intersection Sm is a point on the vector equation Ds, Expression 8 is established. When Equation 8 is solved for Sym and Szm, the value of each component at the intersection Sm is Equation 9.

Figure 2013073222
Figure 2013073222

ステップS112において、警告表示重畳部12は、警告表示領域Wsを、交点Smを中心にして設定する。警告表示領域Wsの形状は矩形であっても、楕円であってもよい。図7は、警告表示領域Wsの形状が矩形である場合と、警告表示領域Wsの形状が楕円である場合とを示す図である。   In step S112, the warning display superimposing unit 12 sets the warning display area Ws around the intersection Sm. The warning display area Ws may be rectangular or elliptical. FIG. 7 is a diagram showing a case where the warning display area Ws has a rectangular shape and a case where the warning display area Ws has an elliptical shape.

図7(a)は、y軸方向に2Wsy、z軸方向に2Wszの大きさを持つ矩形の警告表示領域Ws51を示している。図7(b)は、2Wsyの長径、2Wszの短径を持つ楕円の警告表示領域Ws51を示している。勿論、警告表示領域Ws51の形状が楕円の場合、長径をy軸方向に限定するものではない。   FIG. 7A shows a rectangular warning display area Ws51 having a size of 2 Wsy in the y-axis direction and 2 Wsz in the z-axis direction. FIG. 7B shows an elliptical warning display area Ws51 having a major axis of 2 Wsy and a minor axis of 2 Wsz. Of course, when the shape of the warning display area Ws51 is an ellipse, the major axis is not limited to the y-axis direction.

ここで、警告表示領域Ws51の大きさを示すWsyとWszとは、接触や衝突する虞を示す値に依存して決定する。接触や衝突する虞を示す値が1のときに使用するWsyとWszとを、それぞれWsy1とWsz1とし、接触や衝突する虞を示す値が2のときに使用するWsyとWszとを、それぞれWsy2とWsz2とする。そして、Wsy1、Wsy2、Wsz1、Wsz2の値は、次の式10を満たすものとする。ステップS112において、警告表示重畳部12は、接触や衝突する虞を示す値が1である場合、警告表示重畳部12は、Wsy1とWsz1とを選択して警告表示領域Ws51を設定する。一方、ステップS112において、接触や衝突する虞を示す値が2である場合、警告表示重畳部12は、Wsy2とWsz2とを選択して警告表示領域Ws51を設定する。   Here, Wsy and Wsz indicating the size of the warning display area Ws51 are determined depending on a value indicating a possibility of contact or collision. Wsy and Wsz used when the value indicating the possibility of contact or collision is 1, respectively, Wsy1 and Wsz1, and Wsy and Wsz used when the value indicating the possibility of contact or collision are 2 are respectively Wsy2. And Wsz2. The values of Wsy1, Wsy2, Wsz1, and Wsz2 satisfy the following expression 10. In step S112, when the value indicating the possibility of contact or collision is 1, the warning display superimposing unit 12 selects Wsy1 and Wsz1 and sets the warning display region Ws51. On the other hand, when the value indicating the possibility of contact or collision is 2 in step S112, the warning display superimposing unit 12 selects Wsy2 and Wsz2 and sets the warning display area Ws51.

Figure 2013073222
Figure 2013073222

Wsy1、Wsy2、Wsz1、Wsz2は、予め定めておいてもよいし、又は、接触や衝突の虞がある視聴者35と表示面31との距離L、及び、接触や衝突する虞を示す値から、ステップS112を実行する度に算出してもよい。ステップS113において、警告表示重畳部12は、警告表示領域Ws51と表示面31の画素領域との交点が存在するか否かを判定する。警告表示領域Ws51と表示面31の画素領域との交点が存在する場合、次の式11が成立する。従って、式11が真である場合、処理はステップS114に移行する。一方、式11が偽である場合、警告表示領域Ws51と表示面31の画素領域との交点が存在しないため、現時刻における当該接触や衝突の虞がある視聴者35に対する処理を終了する。   Wsy1, Wsy2, Wsz1, and Wsz2 may be determined in advance, or may be determined from the distance L between the viewer 35 and the display surface 31 that may be contacted or collided, and a value that indicates the possibility of contact or collision. It may be calculated each time step S112 is executed. In step S <b> 113, the warning display superimposing unit 12 determines whether or not there is an intersection between the warning display area Ws <b> 51 and the pixel area of the display surface 31. When there is an intersection between the warning display area Ws51 and the pixel area of the display surface 31, the following Expression 11 is established. Therefore, when Formula 11 is true, the process proceeds to step S114. On the other hand, when Expression 11 is false, there is no intersection between the warning display area Ws51 and the pixel area of the display surface 31, and thus the process for the viewer 35 who has a risk of contact or collision at the current time is terminated.

Figure 2013073222
Figure 2013073222

ステップS114において、警告表示重畳部12は、警告表示領域Ws51の色相の平均値AHを求め、閾値AHth0と比較する。色相の平均値AHが閾値AHth0より大きい場合、処理はステップS115に移行する。一方、色相の平均値AHが閾値AHth0以下である場合、処理はステップS116に移行する。   In step S114, the warning display superimposing unit 12 calculates the average hue value AH of the warning display area Ws51 and compares it with the threshold value AHth0. When the average hue value AH is larger than the threshold value AHth0, the process proceeds to step S115. On the other hand, when the average value AH of the hue is equal to or less than the threshold value AHth0, the process proceeds to step S116.

ここで、ステップS114における色相の平均値の算出方法は限定されない。従って、色相の平均値AHは、単純平均を用いても加重平均を用いて求めてもよい。閾値AHth0は、表示面31の特性や設置場所の状況に基づいて予め算出しておいてもよいし、ステップS114を実行する度、又は、表示面31の特性や設置場所の状況に変化がある度に算出してもよい。   Here, the calculation method of the average value of the hue in step S114 is not limited. Therefore, the average value AH of hues may be obtained using a simple average or a weighted average. The threshold value AHth0 may be calculated in advance based on the characteristics of the display surface 31 and the status of the installation location, or there is a change in the characteristics of the display surface 31 and the status of the installation location each time step S114 is executed. It may be calculated every time.

ステップS115において、警告表示重畳部12は、警告表示領域Ws51の色相をHth0%減少させる。ステップS116において、警告表示重畳部12は、警告表示領域Ws51の色相をHth1%増加させる。   In step S115, the warning display superimposing unit 12 decreases the hue of the warning display area Ws51 by Hth 0%. In step S116, the warning display superimposing unit 12 increases the hue of the warning display area Ws51 by Hth1%.

ここで、減少割合Hth0と増加割合Hth1とは、接触や衝突する虞を示す値に依存して決定される。接触や衝突する虞を示す値が1のときに使用するHth0とHth1との値を、それぞれHth01とHth11とする。また、接触や衝突する虞を示す値が2のときに使用するHth0とHth1との値を、それぞれHth02とHth12とする。そして、Hth01、Hth02、Hth11、Hth12は、次の式12を満たすものとする。ステップS115において、接触や衝突する虞を示す値が1である場合、警告表示重畳部12はHth01を選択し、警告表示領域Wsの色相をHth01%減少させる。一方、接触や衝突する虞を示す値が2である場合、警告表示重畳部12はHth02を選択し、警告表示領域Ws51の色相をHth02%減少させる。一方、ステップS116において、接触や衝突する虞を示す値が1である場合、警告表示重畳部12はHth11を選択し、警告表示領域Ws51の色相をHth11%増加させる。一方、接触や衝突Sる虞を示す値が2である場合、警告表示重畳部12はHth12を選択し、警告表示領域Ws51の色相をHth12%減少増加させる。   Here, the decrease rate Hth0 and the increase rate Hth1 are determined depending on values indicating the possibility of contact or collision. The values of Hth0 and Hth1 used when the value indicating the possibility of contact or collision is 1 are Hth01 and Hth11, respectively. Further, the values of Hth0 and Hth1 used when the value indicating the possibility of contact or collision is 2 are Hth02 and Hth12, respectively. Hth01, Hth02, Hth11, and Hth12 satisfy the following expression 12. In step S115, when the value indicating the possibility of contact or collision is 1, the warning display superimposing unit 12 selects Hth01 and decreases the hue of the warning display area Ws by Hth01%. On the other hand, when the value indicating the possibility of contact or collision is 2, the warning display superimposing unit 12 selects Hth02 and decreases the hue of the warning display area Ws51 by Hth02%. On the other hand, if the value indicating the possibility of contact or collision is 1 in step S116, the warning display superimposing unit 12 selects Hth11 and increases the hue of the warning display area Ws51 by Hth11%. On the other hand, when the value indicating the possibility of contact or collision S is 2, the warning display superimposing unit 12 selects Hth12 and decreases the hue of the warning display area Ws51 by Hth12%.

Figure 2013073222
Figure 2013073222

Hth01、Hth02、Hth11及びHth12は、表示面31の特性及び設置場所の状況に基づいて予め定めておいてよい。又は、ステップS115又はS116を実行する度に、警告表示領域Ws51内の映像、表示面31の特性及び設置場所の状況に基づいて算出してもよい。以上のように、本実施形態では、警告表示に色相の変化を使用しているが、勿論、警告表示に色相の変化を使用することを限定するものではない。   Hth01, Hth02, Hth11, and Hth12 may be determined in advance based on the characteristics of the display surface 31 and the installation location. Alternatively, each time step S115 or S116 is executed, the calculation may be performed based on the image in the warning display area Ws51, the characteristics of the display surface 31, and the installation location. As described above, in the present embodiment, the hue change is used for the warning display, but of course, the use of the hue change for the warning display is not limited.

図8は、警告表示を重畳した映像を表示面31に表示した例を示す図である。図8(a)及び(b)において、接触や衝突の虞がある視聴者35の顔が向いている方向、即ち、接触や衝突の虞がある視聴者35の視野の中央部に、色相が変化した警告表示領域Ws51が出現する。図8に示す例では、表示物32上に警告表示領域Ws51が出現している。周りと色相が異なる警告表示領域Ws51が出現することで、接触や衝突の虞がある視聴者35は、表示面31の存在を認知する。一方、図8(a)に示すように、表示面31からの距離が遠かったり、図8(b)に示すように、顔の向きが接触や衝突の虞がある視聴者35と異なる場合には、衝突の虞がない視聴者36は警告表示領域Ws51を認知する可能性は低い。   FIG. 8 is a diagram illustrating an example in which a video with a warning display superimposed thereon is displayed on the display surface 31. 8 (a) and 8 (b), the hue is in the direction in which the face of the viewer 35 who is likely to contact or collide, that is, in the center of the visual field of the viewer 35 who may be contacted or collided. A changed warning display area Ws51 appears. In the example illustrated in FIG. 8, the warning display area Ws51 appears on the display object 32. By the appearance of the warning display area Ws51 having a hue different from that of the surroundings, the viewer 35 who has a risk of contact or collision recognizes the presence of the display surface 31. On the other hand, when the distance from the display surface 31 is long as shown in FIG. 8A, or when the face direction is different from the viewer 35 who may be in contact with or collided as shown in FIG. 8B. The viewer 36 who is not likely to collide is less likely to recognize the warning display area Ws51.

次に、本発明の第2の実施形態について説明する。なお、第2の実施形態に係る映像表示装置の構成は、図1に示した構成と同様である。図9は、第2の実施形態における接触や衝突の虞検出部11の構成を示す図である。図9に示す接触や衝突の虞検出部11は、視聴者情報収集部21、接触や衝突の虞推測部24及び存在認知推測部23を備える。   Next, a second embodiment of the present invention will be described. Note that the configuration of the video display apparatus according to the second embodiment is the same as the configuration shown in FIG. FIG. 9 is a diagram illustrating the configuration of the contact or collision fear detection unit 11 according to the second embodiment. The contact / collision risk detection unit 11 illustrated in FIG. 9 includes a viewer information collection unit 21, a contact / collision risk estimation unit 24, and an existence recognition estimation unit 23.

図9に示す第2の実施形態における視聴者情報収集部21は、図3に示す第1の実施形態における視聴者情報収集部21と同様である。従って、第2の実施形態における視聴者情報収集部21より出力される視聴者情報111には、視聴者41の、座標Pm、速度ベクトルVm及び顔の向きベクトルAmが含まれる。なお、視聴者情報111は上記3項目に限定されるものではない。即ち、更に多くの項目が視聴者情報111に含まれることを妨げない。   The viewer information collection unit 21 in the second embodiment shown in FIG. 9 is the same as the viewer information collection unit 21 in the first embodiment shown in FIG. Accordingly, the viewer information 111 output from the viewer information collection unit 21 in the second embodiment includes the coordinates Pm, the velocity vector Vm, and the face direction vector Am of the viewer 41. The viewer information 111 is not limited to the above three items. That is, it does not prevent more items from being included in the viewer information 111.

次に、存在認知推測部23の処理について説明する。存在認知推測部23は、視聴者41が表示面31の存在を認知しているか否かを推測し、その結果を存在認知推測値112として出力する。本実施形態では、存在認知推測値112は0、1の二値をとり、それぞれの値は以下の状態を示すものとする。
存在認知推測値 状態
0 視聴者41は表示面31の存在を認知していないと推測
1 視聴者41は表示面31の存在を認知していると推測
Next, the process of the presence recognition estimation part 23 is demonstrated. The presence recognition estimation unit 23 estimates whether the viewer 41 recognizes the presence of the display surface 31 and outputs the result as a presence recognition estimated value 112. In the present embodiment, the existence recognition estimated value 112 takes binary values of 0 and 1, and each value indicates the following state.
Presence recognition estimated value State 0 It is estimated that the viewer 41 does not recognize the presence of the display surface 31 1 It is estimated that the viewer 41 recognizes the presence of the display surface 31

表示面31に近づいてきた視聴者41は、表示面31の存在を認知し、接触や衝突すると判断すれば、接触や衝突を回避するために、速度を落とす、又は表示面31から遠ざかるように移動方向を変える。そこで、存在認知推測部23は、速度ベクトルVmの表示面31に対して垂直方向の成分を求め、その値を基に視聴者41が表示面31の存在を認知しているか否かを推測する。本実施形態では、表示面31は平面であるから、速度ベクトルVmの表示面31に対して垂直方向の成分はVxmである。よって、Vxmを次の表のように分類し、視聴者41が表示面31の存在を認知しているか否かを推測する。   When the viewer 41 approaching the display surface 31 recognizes the presence of the display surface 31 and determines that the contact or collision occurs, the viewer 41 decreases the speed or moves away from the display surface 31 in order to avoid contact or collision. Change the direction of movement. Therefore, the presence recognition estimation unit 23 obtains a component in the direction perpendicular to the display surface 31 of the velocity vector Vm, and estimates whether the viewer 41 recognizes the presence of the display surface 31 based on the value. . In the present embodiment, since the display surface 31 is a flat surface, the component of the velocity vector Vm in the direction perpendicular to the display surface 31 is Vxm. Therefore, Vxm is classified as shown in the following table, and it is estimated whether or not the viewer 41 recognizes the presence of the display surface 31.

Figure 2013073222
Figure 2013073222

上記表において、分類1は、Vxmが0より大きく、表示面31から離れる方向に視聴者41は運動している。従って、存在認知推測部23は、視聴者41が表示面31との接触や衝突を回避するために運動していると推測し、存在認知推測値112の値を1にする。分類2は、Vxmが0に等しく、視聴者41と表示面31との距離は変化しない。この場合、存在認知推測部23は、視聴者41が表示面31の存在を認知していると推測し、存在認知推測値112の値を1にする。分類3は、Vxmが0以下であり、x軸は表示面31に近づく方向が負である。従って、視聴者41は表示面31に近づく方向に運動している。さらに、Vxmを時間で微分した値が0以下であるから、視聴者41は速度を変えずに、又は、速度を上げて表示面31に近づいている。この場合、存在認知推測部23は、視聴者41が表示面31の存在を認知していないと推測し、存在認知推測値112の値を0にする。分類4は、Vxmが0であり、且つ、Vxmを時間で微分した値が0より大きい。この場合、視聴者41は、表示面31に近づいているが、近づく速度は低下している。従って、存在認知推測部23は、視聴者41が表示面31の存在を認知していると推測し、存在認知推測値112の値を1にする。   In the above table, in category 1, Vxm is greater than 0, and the viewer 41 is moving away from the display surface 31. Therefore, the presence recognition estimation unit 23 estimates that the viewer 41 is exercising to avoid contact or collision with the display surface 31 and sets the value of the presence recognition estimation value 112 to 1. In category 2, Vxm is equal to 0, and the distance between the viewer 41 and the display surface 31 does not change. In this case, the presence recognition estimation unit 23 estimates that the viewer 41 recognizes the presence of the display surface 31 and sets the value of the presence recognition estimation value 112 to 1. In classification 3, Vxm is 0 or less, and the x-axis is negative in the direction approaching the display surface 31. Therefore, the viewer 41 is moving in a direction approaching the display surface 31. Furthermore, since the value obtained by differentiating Vxm with respect to time is 0 or less, the viewer 41 approaches the display surface 31 without changing the speed or increasing the speed. In this case, the presence recognition estimation unit 23 estimates that the viewer 41 does not recognize the presence of the display surface 31, and sets the value of the presence recognition estimation value 112 to 0. In category 4, Vxm is 0, and the value obtained by differentiating Vxm with respect to time is greater than 0. In this case, the viewer 41 is approaching the display surface 31, but the approaching speed is decreasing. Therefore, the presence recognition estimation unit 23 estimates that the viewer 41 recognizes the presence of the display surface 31 and sets the value of the presence recognition estimation value 112 to 1.

次に、接触や衝突の虞推測部24の処理について説明する。接触や衝突の虞推測部24は、視聴者情報111及び存在認知推測値に基づいて、予め定めた期間Pt0内に表示面31と接触や衝突する虞を示す値を、視聴者41毎に時々刻々と推測する。そして、接触や衝突の虞推測部24は、推測した接触や衝突する虞を示す値に基づいて、接触や衝突の虞がある視聴者35を抽出する。その後、存在認知推測部23は、接触や衝突の虞がある視聴者35の視聴者情報111を、虞あり対象者情報101として出力する。ここで、虞あり対象者情報101は、接触や衝突の虞がある視聴者35の、座標Pm、速度ベクトルVm、顔の向きベクトルAm、及び、接触や衝突する虞を示す値を含む情報である。   Next, processing of the contact and collision risk estimation unit 24 will be described. The contact / collision possibility estimation unit 24 occasionally sets a value indicating the possibility of contact or collision with the display surface 31 within a predetermined period Pt0 for each viewer 41 based on the viewer information 111 and the presence recognition estimated value. Guess every moment. Then, the contact / collision risk estimation unit 24 extracts viewers 35 who have a risk of contact or collision based on the estimated contact or collision value. Thereafter, the presence recognition estimation unit 23 outputs the viewer information 111 of the viewer 35 who is likely to be contacted or collided as the target information 101 that is likely to exist. Here, there is a possibility that the target information 101 is information including the coordinates Pm, the velocity vector Vm, the face direction vector Am, and a value indicating the possibility of contact or collision of the viewer 35 who may be contacted or collided. is there.

第2の実施形態では、第1の実施形態と同様に、接触や衝突の虞推測部24が推測する接触や衝突する虞を示す値は、0、1、2の三値をとり、それぞれの値は以下の状態を示すとする。
接触や衝突する虞を示す値 状態
0 緩衝距離Bl外に視聴者41が存在し、
期間Pt0内に表示面31と接触や衝突する虞はないか、
又は、視聴者41が表示面31の存在を認知している
1 緩衝距離Bl外に視聴者41が存在し、
期間Pt0内に表示面31と接触や衝突する虞があり、
且つ、視聴者41が表示面31の存在を認知していない
2 緩衝距離Bl内に視聴者41が存在する
In the second embodiment, as in the first embodiment, the values indicating the possibility of contact and collision estimated by the contact and collision risk estimation unit 24 take three values of 0, 1, and 2, respectively. The values shall indicate the following states:
Value indicating the possibility of contact or collision State 0 The viewer 41 exists outside the buffer distance Bl,
Is there a possibility of contact or collision with the display surface 31 within the period Pt0?
Or, the viewer 41 recognizes the presence of the display surface 31. 1 The viewer 41 exists outside the buffer distance Bl,
There is a risk of contact or collision with the display surface 31 within the period Pt0.
And the viewer 41 does not recognize the presence of the display surface 31 2 The viewer 41 exists within the buffer distance Bl.

接触や衝突の虞推測部24は、接触や衝突する虞を示す値が1又は2の視聴者41を、接触や衝突の虞がある視聴者35とし、虞あり対象者情報101を生成する。一方、接触や衝突する虞を示す値が0の視聴者41に対しては、接触や衝突の虞推測部24は虞あり対象者情報101を生成しない。   The contact or collision risk estimation unit 24 generates the target information 101 with the possibility of the viewer 41 having a value of 1 or 2 indicating the possibility of contact or collision as the viewer 35 with the risk of contact or collision. On the other hand, for the viewer 41 whose value indicating the risk of contact or collision is 0, the contact or collision risk estimation unit 24 may not generate the target information 101.

図10は、第2の実施形態における接触や衝突の虞推測部24が接触や衝突の虞を推測する処理を示すフローチャートである。接触や衝突の虞推測部24は、視聴者41毎に図10に示す処理を時々刻々と繰返し、接触や衝突の虞を推測する。図10に示す処理のうち、ステップS101、S102、S103、S105、S106及びS107は、図5に示す第1の実施形態おける同一符号の処理と同様である。以下では、第1の実施形態における図5に示す処理との差異について説明を行うものとし、第1の実施形態と同様の処理については説明を省略する。   FIG. 10 is a flowchart illustrating a process in which the contact / collision estimation unit 24 estimates the risk of contact / collision in the second embodiment. The contact or collision risk estimation unit 24 repeats the process shown in FIG. 10 for each viewer 41 every moment to estimate the risk of contact or collision. Of the processes shown in FIG. 10, steps S101, S102, S103, S105, S106 and S107 are the same as the processes of the same reference numerals in the first embodiment shown in FIG. In the following, the difference from the process shown in FIG. 5 in the first embodiment will be described, and the description of the same process as in the first embodiment will be omitted.

ステップS124において、接触や衝突の虞推測部24は、交点Gmが存在するか否かを判定する。交点Gmが存在しない場合、処理はステップS105に移行する。一方、交点Gmが存在する場合、処理はステップS125に移行する。ステップS125において、接触や衝突の虞推測部24は存在認知推測値112を評価する。そして、存在認知推測値112が1、即ち、視聴者41が表示面31の存在を認知していると推測される場合、処理はステップS105に移行する。一方、存在認知推測値112が0、即ち、視聴者41が表示面31の存在を認知していないと推測される場合、処理はステップS106に移行する。   In step S124, the contact or collision risk estimation unit 24 determines whether or not the intersection point Gm exists. If the intersection Gm does not exist, the process proceeds to step S105. On the other hand, when the intersection point Gm exists, the process proceeds to step S125. In step S <b> 125, the contact or collision risk estimation unit 24 evaluates the existence recognition estimated value 112. Then, when the existence recognition estimated value 112 is 1, that is, when it is estimated that the viewer 41 recognizes the presence of the display surface 31, the process proceeds to step S105. On the other hand, when the existence recognition estimated value 112 is 0, that is, when it is estimated that the viewer 41 does not recognize the presence of the display surface 31, the process proceeds to step S106.

次に、本発明の第3の実施形態について説明する。第3の実施形態に係る映像表示装置の構成は図1に示した構成と同様である。また、第3の実施形態における接触や衝突の虞検出部11の構成は図3に示した構成と同様であるが、本実施形態では、接触や衝突の虞推測部22の実施にファジィ制御を応用している。なお、ファジィ制御は公知技術であり、例えば工場において、自動搬送車が障害物を回避する制御に利用されている。   Next, a third embodiment of the present invention will be described. The configuration of the video display apparatus according to the third embodiment is the same as the configuration shown in FIG. Further, the configuration of the contact or collision risk detection unit 11 in the third embodiment is the same as the configuration shown in FIG. 3, but in this embodiment, fuzzy control is applied to the implementation of the contact or collision risk estimation unit 22. Applied. Note that fuzzy control is a well-known technique, and for example, in a factory, an automatic guided vehicle is used for control to avoid an obstacle.

第3の実施形態における接触や衝突の虞推測部22は、ファジィ理論に基づき、視聴者41の座標Pmと速度ベクトルVmとから、視聴者41の未来位置が表示面31と交点を有する適合度を算出するための多次元メンバシップ関数μ(Pm,Vm)を設定する。そして、接触や衝突の虞推測部22は、この多次元メンバシップ関数μ(Pm,Vm)を使用して、接触や衝突の虞を推測する。   The contact / collision estimation unit 22 in the third embodiment is based on fuzzy theory, and the degree of fitness that the future position of the viewer 41 intersects with the display surface 31 from the coordinates Pm and the velocity vector Vm of the viewer 41. A multidimensional membership function μ (Pm, Vm) is set for calculating. Then, the contact or collision risk estimation unit 22 uses this multidimensional membership function μ (Pm, Vm) to estimate the risk of contact or collision.

ここで、多次元メンバシップ関数μ(Pm,Vm)は、表示面31の形状、表示面31を設置した場所の状況に依存する。ファジィ制御において、メンバシップ関数μは実験結果から最尤法で決定するのが一般的である。本発明は、多次元メンバシップ関数μ(Pm,Vm)の生成方法に依存したものではないので、多次元メンバシップ関数μ(Pm,Vm)は実験結果から最尤法で決定してよい。勿論、多次元メンバシップ関数μ(Pm,Vm)の生成を最尤法に限定するものではない。   Here, the multidimensional membership function μ (Pm, Vm) depends on the shape of the display surface 31 and the situation of the place where the display surface 31 is installed. In fuzzy control, the membership function μ is generally determined from the experimental result by the maximum likelihood method. Since the present invention does not depend on the method of generating the multidimensional membership function μ (Pm, Vm), the multidimensional membership function μ (Pm, Vm) may be determined by the maximum likelihood method from the experimental results. Of course, the generation of the multidimensional membership function μ (Pm, Vm) is not limited to the maximum likelihood method.

多次元メンバシップ関数μ(Pm,Vm)の値は、0以上1以下の値をとる。この値をそのまま虞あり対象者情報101に含めて、警告表示重畳部12で使用してもよい。又は、第1の実施形態に示した接触や衝突する虞を示す値と同じく、0、1、2の三値をとるようにしてもよい。この場合、多次元メンバシップ関数μ(Pm,Vm)の値を閾値Fth0と比較し、多次元メンバシップ関数μ(Pm,Vm)の値が閾値Fth0より大きければ、接触や衝突する虞を示す値を1とする。一方、多次元メンバシップ関数μ(Pm,Vm)の値が閾値Fth0以下である場合、接触や衝突する虞を示す値を0とする。そして、緩衝距離Bl内に視聴者41が存在すれば、多次元メンバシップ関数μ(Pm,Vm)の値に係わらず、接触や衝突する虞を示す値を2とする。   The value of the multidimensional membership function μ (Pm, Vm) takes a value between 0 and 1. This value may be included in the target person information 101 as it is and may be used by the warning display superimposing unit 12. Or you may make it take the three values of 0, 1, and 2 similarly to the value which shows the possibility of contact and a collision shown in 1st Embodiment. In this case, the value of the multidimensional membership function μ (Pm, Vm) is compared with the threshold value Fth0. The value is 1. On the other hand, when the value of the multidimensional membership function μ (Pm, Vm) is less than or equal to the threshold value Fth0, a value indicating the possibility of contact or collision is set to 0. If the viewer 41 is present within the buffer distance Bl, a value indicating the possibility of contact or collision is set to 2 regardless of the value of the multidimensional membership function μ (Pm, Vm).

次に、本発明の第4の実施形態について説明する。第4の実施形態に係る映像表示装置の構成は図1に示した構成と同様である。図11は、第4の実施形態における警告表示重畳部12の処理を示すフロsーチャートである。以下、図11を参照しながら、第4の実施形態における警告表示重畳部12の処理について説明する。なお、図11に示す処理のうち、ステップS111、S112及びS113は、図6に示す第1の実施形態における同一符号の処理と同様である。以下では、第1の実施形態における図6に示す処理との差異について説明を行うものとし、第1の実施形態と同様の処理については説明を省略する。   Next, a fourth embodiment of the present invention will be described. The configuration of the video display apparatus according to the fourth embodiment is the same as the configuration shown in FIG. FIG. 11 is a flowchart showing the processing of the warning display superimposing unit 12 in the fourth embodiment. Hereinafter, the processing of the warning display superimposing unit 12 in the fourth embodiment will be described with reference to FIG. Of the processes shown in FIG. 11, steps S111, S112, and S113 are the same as the processes of the same reference numerals in the first embodiment shown in FIG. In the following, the difference from the process shown in FIG. 6 in the first embodiment will be described, and the description of the same process as in the first embodiment will be omitted.

警告表示領域Ws51と表示面31の画素領域との交点が存在する場合、ステップS134において、警告表示重畳部12は、映像入力102において、交点Sm52の近傍に表示面31の後方から前方に向かうように運動している対象の存在を評価する。例えば、映像入力102が多くのボールが飛び跳ねているような映像であれば、ボールの中には表示面31の後方から前方に向かって飛んでくるボールが存在する。交点Sm52の近傍に表示面31の後方から前方に向かうように運動している対象が存在する場合、処理はステップS135に移行する。一方、交点Sm52の近傍に表示面31の後方から前方に向かうように運動している対象が存在しない場合、処理はステップS136に移行する。   When there is an intersection between the warning display area Ws51 and the pixel area of the display surface 31, in step S134, the warning display superimposing unit 12 moves from the rear of the display surface 31 to the front in the vicinity of the intersection Sm52 in the video input 102. Evaluate the presence of subjects who are in motion. For example, if the video input 102 is an image in which many balls are jumping, there are balls that fly forward from the rear of the display surface 31 in the balls. If there is an object moving in the vicinity of the intersection Sm52 from the rear to the front of the display surface 31, the process proceeds to step S135. On the other hand, when there is no target moving in the vicinity of the intersection Sm52 from the rear to the front of the display surface 31, the process proceeds to step S136.

ステップS135において、警告表示重畳部12は、表示面31の後方から前方に向かうように運動している対象が警告表示領域Ws51に存在するように、映像入力102にアフィン変換を施して、警告表示を重畳した映像103を生成する。このとき、表示面31の後方から前方に向かうように運動している対象が複数存在する場合、交点Sm52に最も近い対象が警告表示領域Ws51に存在するようにアフィン変換を施す。   In step S135, the warning display superimposing unit 12 performs affine transformation on the video input 102 so that a target moving from the rear to the front of the display surface 31 exists in the warning display area Ws51, and displays a warning. Is generated. At this time, when there are a plurality of objects moving from the rear to the front of the display surface 31, affine transformation is performed so that the object closest to the intersection Sm52 exists in the warning display area Ws51.

交点Sm52の近傍に表示面31の後方から前方に向かうように運動している対象が存在しない場合、ステップS136において、警告表示重畳部12は、表示面31の後方から前方に向かうように運動する対象を警告表示領域Ws51に挿入して、警告表示を重畳した映像103を生成する。又は、ステップS136において、第1の実施形態で説明した警告表示領域Ws51の色相を変える手法を用いてもよい。   If there is no target moving in the vicinity of the intersection Sm52 from the rear of the display surface 31 to the front, the warning display superimposing unit 12 moves from the rear of the display surface 31 to the front in step S136. The target is inserted into the warning display area Ws51, and the video 103 on which the warning display is superimposed is generated. Alternatively, the method of changing the hue of the warning display area Ws51 described in the first embodiment may be used in step S136.

次に、本発明の第5の実施形態について説明する。第5の実施形態に係る映像表示装置の構成は図1に示した構成と同様である。図12は、第5の実施形態における警告表示重畳部12の処理を示すフローチャートである。以下、図12を参照しながら、第5の実施形態における警告表示重畳部12の処理について説明する。なお、図12に示す処理のうち、ステップS111、S112及びS113は、図6に示す第1の実施形態における同一符号の処理と同様である。以下では、第1の実施形態における図6に示す処理との差異について説明を行うものとし、第1の実施形態と同様の処理については説明を省略する。   Next, a fifth embodiment of the present invention will be described. The configuration of the video display apparatus according to the fifth embodiment is the same as the configuration shown in FIG. FIG. 12 is a flowchart showing the processing of the warning display superimposing unit 12 in the fifth embodiment. Hereinafter, the processing of the warning display superimposing unit 12 in the fifth embodiment will be described with reference to FIG. Of the processes shown in FIG. 12, steps S111, S112, and S113 are the same as the processes of the same reference numerals in the first embodiment shown in FIG. In the following, the difference from the process shown in FIG. 6 in the first embodiment will be described, and the description of the same process as in the first embodiment will be omitted.

警告表示領域Ws51と表示面31の画素領域との交点が存在する場合、ステップS137において、警告表示重畳部12は接触や衝突の虞のある視聴者35を撮影する。そして、警告表示重畳部12は、撮影した映像を、鏡に映った映像の如くなるように、照明の映りこみ具合や、色相、彩度又は明度を補正する。そして、警告表示重畳部12は、このようにして得られた鏡面効果で視聴者を映した映像を、交点Sm52を中心に、警告表示領域Ws51に重畳して、警告表示を重畳した映像103を作成する。ここで、接触や衝突の虞のある視聴者35を撮影するカメラ等の装置は、視聴者情報収集部21を使用してもよいし、カメラ等の装置を別途設置し、使用してもよい。   If there is an intersection between the warning display area Ws51 and the pixel area of the display surface 31, in step S137, the warning display superimposing unit 12 captures the viewer 35 who may be in contact with or colliding. Then, the warning display superimposing unit 12 corrects the lighting reflection, hue, saturation, or brightness so that the captured video looks like a video reflected in a mirror. Then, the warning display superimposing unit 12 superimposes the video that reflects the viewer with the mirror effect obtained in this manner on the warning display area Ws51 around the intersection Sm52, and superimposes the video 103 on which the warning display is superimposed. create. Here, a device such as a camera that captures the viewer 35 who may be in contact with or colliding may use the viewer information collection unit 21 or may be separately installed and used. .

次に、本発明の第6の実施形態について説明する。第6の実施形態に係る映像表示装置の構成は図1に示した構成と同様である。図13は、第6の実施形態における警告表示重畳部12の処理を示すフローチャートである。以下、図13を参照しながら、第6の実施形態における警告表示重畳部12の処理について説明する。なお、図13に示す処理のうち、ステップS111、S112及びS113は、図6に示す第1の実施形態における同一符号の処理と同様である。以下では、第1の実施形態における図6に示す処理との差異について説明を行うものとし、第1の実施形態と同様の処理については説明を省略する。   Next, a sixth embodiment of the present invention will be described. The configuration of the video display apparatus according to the sixth embodiment is the same as the configuration shown in FIG. FIG. 13 is a flowchart showing the processing of the warning display superimposing unit 12 in the sixth embodiment. Hereinafter, the processing of the warning display superimposing unit 12 in the sixth embodiment will be described with reference to FIG. Of the processes shown in FIG. 13, steps S111, S112, and S113 are the same as the processes of the same reference numerals in the first embodiment shown in FIG. In the following, the difference from the process shown in FIG. 6 in the first embodiment will be described, and the description of the same process as in the first embodiment will be omitted.

警告表示領域Ws51と表示面31の画素領域との交点が存在する場合、ステップS133において、警告表示重畳部12は、接触や衝突の虞がある視聴者35と表示面31との距離Lと、緩衝距離Blとを比較する。接触や衝突の虞がある視聴者35と表示面31との距離Lが緩衝距離Bl未満である場合、処理はステップS137に移行する。一方、接触や衝突の虞がある視聴者35と表示面31との距離Lが緩衝距離Bl以上である場合、処理はステップS134に移行する。   If there is an intersection between the warning display area Ws51 and the pixel area of the display surface 31, in step S133, the warning display superimposing unit 12 determines the distance L between the viewer 35 and the display surface 31 that may be in contact with or colliding with each other. The buffer distance B1 is compared. If the distance L between the viewer 35 who may be in contact with or colliding with the display surface 31 is less than the buffer distance Bl, the process proceeds to step S137. On the other hand, if the distance L between the viewer 35 who may be in contact with or colliding with the display surface 31 is greater than or equal to the buffer distance Bl, the process proceeds to step S134.

図13におけるステップS134、S135及びS136は、図11に示した第4の実施形態における同一符号の処理と同様である。また、図13におけるステップS137は、図12に示した第5の実施形態における同一符号の処理と同様である。即ち、接触や衝突の虞がある視聴者35と表示面31との距離が短く、緩衝距離Bl未満である場合、ステップS137において、第5の実施形態で説明した擬似的に鏡が存在するような映像による警告が実施される。一方、接触や衝突の虞がある視聴者35と表示面31との距離が離れており、接触や衝突の虞がある視聴者35と表示面31との距離Lが緩衝距離Bl以上である場合、ステップS135、S136において、第4の実施形態で説明した映像效果による警告が実施される。なお、ステップS136において、第1の実施形態で説明した警告表示領域Ws51の色相を変える手法を用いてもよい。   Steps S134, S135, and S136 in FIG. 13 are the same as the processes of the same reference numerals in the fourth embodiment shown in FIG. Further, step S137 in FIG. 13 is the same as the processing of the same reference numerals in the fifth embodiment shown in FIG. That is, when the distance between the viewer 35 who may be in contact with or colliding with the display surface 31 is short and less than the buffer distance B1, the pseudo mirror described in the fifth embodiment is present in step S137. A warning with a simple video is carried out. On the other hand, when the viewer 35 who is likely to contact or collide is far away from the display surface 31 and the distance L between the viewer 35 who may possibly contact or collide and the display surface 31 is greater than or equal to the buffer distance Bl. In steps S135 and S136, the video effect warning described in the fourth embodiment is performed. In step S136, the method of changing the hue of the warning display area Ws51 described in the first embodiment may be used.

上述した実施形態においては、接触や衝突する虞のある視聴者に対してのみ警告を発することができる。また、現実感のある映像を提供する映像表示装置の訴求效果を殺いでしまう装置や器具を使用しなくとも、或いは、視聴者が特別な装置や器具を所持していなくとも、接触や衝突の虞がある視聴者に対して警告を発することができる。さらに、視聴者の感興を殺がない警告を発することも可能である。   In the above-described embodiment, a warning can be issued only to a viewer who is likely to contact or collide. In addition, contact and collision can be achieved without using devices or instruments that would kill the appealing effects of video display devices that provide realistic images, or even if viewers do not possess special devices or devices. A warning can be issued to a viewer who has a concern. It is also possible to issue a warning that does not kill the viewers' inspiration.

よって、上述した実施形態によれば、接触や衝突する虞のある視聴者は、映像表示装置との接触や衝突を回避でき、不測の事態の発生を防止することができる。また、上述した実施形態によれば、接触や衝突の虞がない視聴者は警告に煩わされることがなく、接触や衝突の虞がある視聴者は警告を受けても感興を殺がれることがないため、映像表示装置が提供している情報に対してよい印象を保つことができる。さらに、上述した実施形態によれば、視聴者が特別な装置や器具を所持していなくとも接触や衝突を回避することが可能であるため、映像表示装置の設置場所が限定されないという效果もある。   Therefore, according to the above-described embodiment, a viewer who has a possibility of contact or collision can avoid contact with or collision with the video display device, and can prevent an unexpected situation. In addition, according to the above-described embodiment, viewers who do not have a risk of contact or collision are not bothered by a warning, and viewers who have a risk of contact or collision may be killed even if they receive a warning. Therefore, it is possible to maintain a good impression on the information provided by the video display device. Furthermore, according to the above-described embodiment, it is possible to avoid contact and collision even if the viewer does not have a special device or instrument, so that the installation location of the video display device is not limited. .

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

11:接触や衝突の虞検出部、12:警告表示重畳部、21:視聴者情報収集部、22、24:接触や衝突の虞推測部、23:存在認知推測部   11: Contact / collision detection unit, 12: Warning display superimposing unit, 21: Viewer information collection unit, 22, 24: Contact / collision estimation unit, 23: Presence recognition estimation unit

Claims (10)

画像を表示する表示装置に対して接触又は衝突の虞のある視聴者を検出する検出手段と、
前記検出手段により前記表示装置に対して接触又は衝突の虞のある前記視聴者が検出された場合、前記表示装置に表示される画像に警告表示を重畳させる重畳手段とを有することを特徴とする画像処理装置。
Detecting means for detecting a viewer who may be in contact with or colliding with a display device for displaying an image;
And a superimposing unit that superimposes a warning display on an image displayed on the display device when the viewer who is likely to contact or collide with the display device is detected by the detection unit. Image processing device.
前記検出手段は、
前記視聴者の位置及び前記視聴者の速度ベクトルのうちの少なくとも何れか一方を取得する取得手段と、
前記取得手段により取得された情報に基づいて、前記視聴者が前記表示装置に対して接触又は衝突する虞を推定する第1の推定手段とを有し、
前記第1の推定手段による推定結果に基づいて、前記表示装置に対して接触又は衝突の虞のある前記視聴者を検出することを特徴とする請求項1に記載の画像処理装置。
The detection means includes
Obtaining means for obtaining at least one of the position of the viewer and the velocity vector of the viewer;
First estimation means for estimating a possibility that the viewer will contact or collide with the display device based on the information acquired by the acquisition means;
The image processing apparatus according to claim 1, wherein the viewer who is likely to contact or collide with the display device is detected based on an estimation result by the first estimation unit.
前記検出手段は、
前記視聴者が前記表示装置の存在を認知しているか否かを推定する第2の推定手段を更に有し、
前記第1の推定手段は、前記取得手段により取得された情報と、前記第2の推定手段による推定結果とに基づいて、前記表示装置に対して接触又は衝突の虞のある前記視聴者を検出することを特徴とする請求項2に記載の画像処理装置。
The detection means includes
A second estimating means for estimating whether or not the viewer recognizes the presence of the display device;
The first estimation means detects the viewer who may contact or collide with the display device based on the information acquired by the acquisition means and the estimation result by the second estimation means. The image processing apparatus according to claim 2, wherein:
前記重畳手段は、複数の警告表示から、前記表示装置に表示される画像に重畳させる前記警告表示を選択することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the superimposing unit selects the warning display to be superimposed on an image displayed on the display device from a plurality of warning displays. 前記重畳手段は、前記第1の推定手段による推定結果に応じて、複数の警告表示から、前記表示装置に表示される画像に重畳させる前記警告表示を選択することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。   The said superimposing means selects the said warning display superimposed on the image displayed on the said display apparatus from several warning displays according to the estimation result by the said 1st estimation means. 4. The image processing device according to any one of items 3. 前記警告表示は、前記警告表示に該当する領域の色相を変化させた画像、当該画像処理装置の後方から前方に移動する対象を含む画像、及び、鏡面効果で前記視聴者を映した画像のうちの少なくとも何れか一つを含む画像であることを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。   The warning display includes an image in which the hue of an area corresponding to the warning display is changed, an image including an object that moves forward from the rear of the image processing apparatus, and an image that reflects the viewer with a mirror effect. The image processing apparatus according to claim 1, wherein the image processing apparatus includes at least one of the images. 前記第1の推定手段は、
前記視聴者の位置及び前記視聴者の速度ベクトルに基づいて、前記視聴者の未来の位置を予測する予測手段を有し、
前記予測手段により予測された位置と前記表示装置とが交点を有する場合、前記視聴者は前記表示装置に対して接触又は衝突の虞があると推定することを特徴とする請求項2に記載の画像処理装置。
The first estimating means includes
Predicting means for predicting the future position of the viewer based on the position of the viewer and the velocity vector of the viewer;
The said viewer estimates that there exists a possibility of a contact or a collision with respect to the said display apparatus, when the position estimated by the said prediction means and the said display apparatus have an intersection. Image processing device.
前記第1の推定手段は、前記視聴者の位置と前記視聴者の速度ベクトルに基づいて前記視聴者の未来の位置が前記表示装置と交点を有する適合度を算出するための、ファジィ理論に基づく多次元メンバシップ関数を用いて、前記視聴者が前記表示装置に対して接触又は衝突の虞を推定することを特徴とする請求項2に記載の画像処理装置。   The first estimating means is based on fuzzy theory for calculating a degree of fitness in which the future position of the viewer has an intersection with the display device based on the position of the viewer and the velocity vector of the viewer. The image processing apparatus according to claim 2, wherein the viewer estimates the possibility of contact or collision with the display device using a multidimensional membership function. 画像処理装置によって実行される画像処理方法であって、
画像を表示する表示装置に対して接触又は衝突の虞のある視聴者を検出する検出ステップと、
前記検出ステップにより前記表示装置に対して接触又は衝突の虞のある前記視聴者が検出された場合、前記表示装置に表示される画像に警告表示を重畳させる重畳ステップとを有することを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus,
A detection step of detecting a viewer who may be in contact with or colliding with a display device for displaying an image;
And a superimposing step of superimposing a warning display on an image displayed on the display device when the viewer who is likely to contact or collide with the display device is detected by the detecting step. Image processing method.
画像を表示する表示装置に対して接触又は衝突の虞のある視聴者を検出する検出ステップと、
前記検出ステップにより前記表示装置に対して接触又は衝突の虞のある前記視聴者が検出された場合、前記表示装置に表示される画像に警告表示を重畳させる重畳ステップとをコンピュータに実行させるためのプログラム。
A detection step of detecting a viewer who may be in contact with or colliding with a display device for displaying an image;
And causing the computer to execute a superimposing step of superimposing a warning display on an image displayed on the display device when the viewer who is likely to contact or collide with the display device is detected by the detection step. program.
JP2011214651A 2011-09-29 2011-09-29 Image processing apparatus, image processing method, and program Active JP5911251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011214651A JP5911251B2 (en) 2011-09-29 2011-09-29 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011214651A JP5911251B2 (en) 2011-09-29 2011-09-29 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2013073222A true JP2013073222A (en) 2013-04-22
JP2013073222A5 JP2013073222A5 (en) 2014-11-27
JP5911251B2 JP5911251B2 (en) 2016-04-27

Family

ID=48477735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011214651A Active JP5911251B2 (en) 2011-09-29 2011-09-29 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5911251B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112102655A (en) * 2020-09-16 2020-12-18 联想(北京)有限公司 Output control method and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002341814A (en) * 2001-05-21 2002-11-29 Hitachi Building Systems Co Ltd Automatic door device
WO2008126185A1 (en) * 2007-03-16 2008-10-23 Fujitsu Limited Information processing apparatus, information processing program, and information processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002341814A (en) * 2001-05-21 2002-11-29 Hitachi Building Systems Co Ltd Automatic door device
WO2008126185A1 (en) * 2007-03-16 2008-10-23 Fujitsu Limited Information processing apparatus, information processing program, and information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112102655A (en) * 2020-09-16 2020-12-18 联想(北京)有限公司 Output control method and electronic equipment
CN112102655B (en) * 2020-09-16 2023-07-21 联想(北京)有限公司 Output control method and electronic equipment

Also Published As

Publication number Publication date
JP5911251B2 (en) 2016-04-27

Similar Documents

Publication Publication Date Title
US20220191393A1 (en) Method and apparatus of processing a signal from an event-based sensor
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
JP2021504856A (en) Forward collision control methods and devices, electronics, programs and media
JP2019021019A (en) Human flow analysis method, human flow analysis device and human flow analysis system
US20180089501A1 (en) Computer implemented method of detecting the distance of an object from an image sensor
US10089535B2 (en) Depth camera based detection of human subjects
US20110001813A1 (en) Gesture recognition apparatus, robot system including the same and gesture recognition method using the same
US9031862B2 (en) Advertisement delivery target identifying apparatus, advertisement delivery apparatus, advertisement delivery target identifying method, advertisement delivery method, program, and recording medium
Bouma et al. Real-time tracking and fast retrieval of persons in multiple surveillance cameras of a shopping mall
JP2007323596A (en) Collision avoidance system of moving body, program and method
JP2007152442A (en) Robot guiding system
CN107290975A (en) A kind of house intelligent robot
JP5147760B2 (en) Image monitoring device
CN112070053B (en) Background image self-updating method, device, equipment and storage medium
Chae et al. Collision detection method using image segmentation for the visually impaired
JP2014127032A (en) Outside view recognition device for vehicles
CN113920585A (en) Behavior recognition method and device, equipment and storage medium
JP2024060029A (en) Situation Output Device
JP5911251B2 (en) Image processing apparatus, image processing method, and program
Vorapatratorn et al. Fast obstacle detection system for the blind using depth image and machine learning.
Ko et al. Rectified trajectory analysis based abnormal loitering detection for video surveillance
Zweng et al. Introducing a statistical behavior model into camera-based fall detection
KR102407202B1 (en) Apparatus and method for intelligently analyzing video
Ikoma et al. Multi-target tracking in video by SMC-PHD filter with elimination of other targets and state dependent multi-modal likelihoods
Poschmann et al. Wizard of Oz revisited: Researching on a tour guide robot while being faced with the public

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160329

R151 Written notification of patent or utility model registration

Ref document number: 5911251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151