JP2010220077A - Display device, method and program - Google Patents

Display device, method and program Download PDF

Info

Publication number
JP2010220077A
JP2010220077A JP2009066749A JP2009066749A JP2010220077A JP 2010220077 A JP2010220077 A JP 2010220077A JP 2009066749 A JP2009066749 A JP 2009066749A JP 2009066749 A JP2009066749 A JP 2009066749A JP 2010220077 A JP2010220077 A JP 2010220077A
Authority
JP
Japan
Prior art keywords
display
video
video information
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009066749A
Other languages
Japanese (ja)
Other versions
JP5163564B2 (en
Inventor
Shinji Kanda
真司 神田
Masayoshi Hashima
正芳 橋間
Takeshi Imai
岳 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009066749A priority Critical patent/JP5163564B2/en
Publication of JP2010220077A publication Critical patent/JP2010220077A/en
Application granted granted Critical
Publication of JP5163564B2 publication Critical patent/JP5163564B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display device, method and program, capable of efficiently monitoring an object to be monitored. <P>SOLUTION: The display device detects a predetermined object from respective pieces of video information imaged by a plurality of imaging units, and acquires positional information of the predetermined detected object, and image information of the object. The display device converts the acquired positional information to positional information in a display video being video information displayed by an internal display unit of each piece of the video information, and displays the acquired video information of the object along with the display video using the positional information obtained as the results of the conversion. The plurality of imaging units are used for imaging the same region from positions different from one another, and the display device acquires coordinate information in the region as positional information. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、表示装置、表示方法および表示プログラムに関する。   The present invention relates to a display device, a display method, and a display program.

複数台の監視カメラから得られる監視画像各々をモニタに表示する監視システムが知られている。監視システムを利用する利用者は、モニタに表示される監視画像(表示映像とも称する)を用いて、監視対象(例えば、人など)を監視していた。また、利用者は、表示映像に死角がある場合には、当該死角に対応する他の監視画像を表示し、当該死角を監視していた。   A monitoring system that displays each of monitoring images obtained from a plurality of monitoring cameras on a monitor is known. A user who uses the monitoring system monitors a monitoring target (for example, a person) using a monitoring image (also referred to as a display image) displayed on the monitor. In addition, when there is a blind spot in the display image, the user displays another monitoring image corresponding to the blind spot and monitors the blind spot.

ここで、従来より、複数の監視画像を一つのモニタにて表示する複数技術が知られている。複数技術では、個々の監視画像を表示するモニタ上のサイズを小さくすることにより、複数の監視画像を同時に一つのモニタにて表示する。また、表示映像を他の監視画像に切り替える切替技術が用いられている。切替技術では、一つの監視画像が表示される時間を限定することにより、複数の監視画像を順番に一つのモニタにて表示する。また、モニタの数を増加させる増加技術が用いられている。増加技術では、複数の監視画像を複数台のモニタにて表示する。   Here, conventionally, a plurality of techniques for displaying a plurality of monitoring images on a single monitor are known. In a plurality of technologies, a plurality of monitoring images are simultaneously displayed on one monitor by reducing the size on the monitor that displays each monitoring image. In addition, a switching technique for switching the display video to another monitoring image is used. In the switching technique, a plurality of monitoring images are sequentially displayed on one monitor by limiting the time for which one monitoring image is displayed. In addition, increasing techniques are used to increase the number of monitors. In the increase technology, a plurality of monitoring images are displayed on a plurality of monitors.

特開平7−322239号公報(第1−3頁、第2図)JP 7-322239 A (page 1-3, FIG. 2) 特開2003−244683号公報(第1−3頁、第1図)Japanese Patent Laying-Open No. 2003-244683 (page 1-3, FIG. 1)

ところで、上記した従来の技術は、監視対象を効率的に監視するのが困難であるという課題があった。例えば、表示映像に死角がある場合には、死角に対応する他の監視画像を表示しなければならなかった。   By the way, the above-described conventional technique has a problem that it is difficult to efficiently monitor the monitoring target. For example, when there is a blind spot in the display image, another monitoring image corresponding to the blind spot has to be displayed.

また、上記した複数技術を用いても、個々の監視画像が表示されるモニタ上のサイズが小さくなり、監視対象を監視するのが困難であった。また、切替技術を用いても、一つの監視画像が表示される時間を限定され、監視対象を監視するのが困難であった。また、増加技術を用いても、複数のモニタを利用者が確認することになり、監視対象を監視するのが困難であった。   Further, even if the above-described plural techniques are used, the size on the monitor on which the individual monitoring images are displayed is reduced, and it is difficult to monitor the monitoring target. Further, even when the switching technique is used, the time for displaying one monitoring image is limited, and it is difficult to monitor the monitoring target. Moreover, even if the increase technology is used, it is difficult for the user to check a plurality of monitors, and it is difficult to monitor the monitoring target.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、監視対象を効率的に監視することが可能な表示装置、表示方法および表示プログラムを提供することを目的とする。   Accordingly, the present invention has been made to solve the above-described problems of the prior art, and an object thereof is to provide a display device, a display method, and a display program capable of efficiently monitoring a monitoring target. To do.

上述した課題を解決し、目的を達成するため、表示装置は、複数ある撮像部によって撮像された映像情報各々から所定の物体を検出する検出部を備える。また、表示装置は、前記検出部によって検出された所定の物体の位置情報と、当該物体の映像情報とを取得する取得部を備える。また、表示装置は、前記取得部によって取得された前記位置情報を、前記映像情報各々の内表示部によって表示される映像情報である表示映像内における位置情報へと変換する変換部を備える。また、表示装置は、前記変換部による変換の結果得られた位置情報を用いて、前記取得部によって取得された前記物体の映像情報を前記表示映像と併せて表示する表示制御部を備える。   In order to solve the above-described problems and achieve the object, the display device includes a detection unit that detects a predetermined object from each of video information captured by a plurality of imaging units. The display device further includes an acquisition unit that acquires position information of the predetermined object detected by the detection unit and video information of the object. In addition, the display device includes a conversion unit that converts the position information acquired by the acquisition unit into position information in a display video that is video information displayed by the internal display unit of each of the video information. In addition, the display device includes a display control unit that displays the video information of the object acquired by the acquisition unit together with the display video using the position information obtained as a result of conversion by the conversion unit.

監視対象を効率的に監視することが可能である。   It is possible to efficiently monitor the monitoring target.

図1は、実施例1に係る表示装置の概要を説明するための図である。FIG. 1 is a diagram for explaining the outline of the display device according to the first embodiment. 図2は、実施例1に係る表示装置の構成の一例を説明するためのブロック図である。FIG. 2 is a block diagram for explaining an example of the configuration of the display device according to the first embodiment. 図3は、実施例1における撮像部の配置の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of the arrangement of the imaging units in the first embodiment. 図4は、実施例1における検出部による位置計測を説明するための図である。FIG. 4 is a diagram for explaining position measurement by the detection unit in the first embodiment. 図5は、実施例1における画像取得部を説明するための図である。FIG. 5 is a diagram for explaining the image acquisition unit according to the first embodiment. 図6は、実施例1におけるオーバーレイ部による目印表示の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of a mark display by the overlay unit in the first embodiment. 図7は、実施例1におけるオーバーレイ部による移動方向表示の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of the moving direction display by the overlay unit in the first embodiment. 図8は、実施例1に係る表示装置の全体処理の流れの一例を説明するためのフローチャートである。FIG. 8 is a flowchart for explaining an example of the overall processing flow of the display apparatus according to the first embodiment. 図9は、実施例1における識別情報を用いての表示映像選択処理の流れの一例を説明するためのフローチャートである。FIG. 9 is a flowchart for explaining an example of the flow of display video selection processing using identification information in the first embodiment. 図10は、実施例2に係る表示装置の構成の一例を説明するためのブロック図である。FIG. 10 is a block diagram for explaining an example of the configuration of the display device according to the second embodiment. 図11は、実施例2における撮像部の配置の一例を説明するための図である。FIG. 11 is a diagram for explaining an example of the arrangement of the imaging units in the second embodiment. 図12は、実施例1に係る表示装置のプログラムの一例を説明するための図である。FIG. 12 is a schematic diagram illustrating an example of a program for the display device according to the first embodiment. 図13は、実施例1におけるオーバーレイ部による画素数算出処理を説明するための図である。FIG. 13 is a diagram for explaining pixel number calculation processing by the overlay unit in the first embodiment.

以下に添付図面を参照して、この発明に係る表示装置、表示方法および表示プログラムの実施例を詳細に説明する。なお、以下では、実施例1に係る表示装置の概要、表示装置の構成および処理の流れを順に説明し、その後、その他の実施例について説明する。   Hereinafter, embodiments of a display device, a display method, and a display program according to the present invention will be described in detail with reference to the accompanying drawings. In the following, an overview of the display device according to the first embodiment, a configuration of the display device, and a processing flow will be described in order, and then other embodiments will be described.

[表示装置の概要]
まず最初に、図1を用いて、実施例1に係る表示装置の概要を説明する。図1は、実施例1に係る表示装置の概要を説明するための図である。
[Outline of display device]
First, the outline of the display device according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining the outline of the display device according to the first embodiment.

図1の(1)に示すように、実施例1に係る表示装置は、監視画像(映像情報とも称する)を撮像する撮像部を複数備え、複数ある撮像部が、それぞれ異なる位置から同一の監視領域を撮像する。   As shown in (1) of FIG. 1, the display device according to the first embodiment includes a plurality of imaging units that capture monitoring images (also referred to as video information), and the plurality of imaging units are identically monitored from different positions. Image the area.

図1の(1)に示す例では、撮像部「1」と撮像部「2」とは、人10と棚20とが存在する監視領域についての映像情報を撮像する。ここで、撮像部「1」は、中央に撮像された人10と、棚20とを含む映像情報を撮像し、撮像部「2」が、棚20のみを含む映像情報を撮像する。なお、撮像部「2」が撮像する映像情報に人10が含まれないのは、撮像部「2」から見ると、棚20による死角に人10が位置するからである。なお、撮像部「2」は、棚20による死角の影響を考慮しない場合には、映像情報の左側に人10を撮像するものとして説明する。また、実施例1に係る表示装置は、撮像部によって撮像された映像情報を表示する表示部を備える。   In the example shown in (1) of FIG. 1, the imaging unit “1” and the imaging unit “2” capture video information about a monitoring area where the person 10 and the shelf 20 exist. Here, the imaging unit “1” captures video information including the person 10 captured in the center and the shelf 20, and the imaging unit “2” captures video information including only the shelf 20. The reason why the person 10 is not included in the video information captured by the imaging unit “2” is that the person 10 is located in the blind spot by the shelf 20 when viewed from the imaging unit “2”. The imaging unit “2” will be described as imaging the person 10 on the left side of the video information when the influence of the blind spot due to the shelf 20 is not considered. In addition, the display device according to the first embodiment includes a display unit that displays video information captured by the imaging unit.

そして、図1の(2)に示すように、実施例1に係る表示装置は、撮像部によって撮像された映像情報各々から所定の物体を検出し、例えば、映像情報「1」から所定の物体として人10を検出する。   As illustrated in (2) of FIG. 1, the display device according to the first embodiment detects a predetermined object from each piece of video information captured by the imaging unit, for example, from the video information “1”. As a result, the person 10 is detected.

そして、図1の(3)と(4)とに示すように、実施例1に係る表示装置は、検出した所定の物体の位置情報と、当該物体の映像情報とを取得する。例えば、映像情報「1」から、映像情報「1」内における人10の位置情報として「映像情報の中央」を取得し、人10の映像情報を取得する。   Then, as shown in (3) and (4) of FIG. 1, the display device according to the first embodiment acquires the detected position information of the predetermined object and the video information of the object. For example, from the video information “1”, “center of video information” is acquired as the position information of the person 10 in the video information “1”, and the video information of the person 10 is acquired.

そして、図1の(5)に示すように、実施例1に係る表示装置は、取得した位置情報を、映像情報各々の内表示部によって表示される映像情報である表示映像内における位置情報へと変換する。例えば、表示装置は、映像情報「1」内における人10の位置である「映像情報の中央」から、映像情報「2」内における人10の位置である「映像情報の左側」へと変換する。   As shown in (5) of FIG. 1, the display device according to the first embodiment converts the acquired position information into position information in a display image that is image information displayed by an inner display unit of each image information. And convert. For example, the display device converts “the center of the video information” that is the position of the person 10 in the video information “1” to “the left side of the video information” that is the position of the person 10 in the video information “2”. .

そして、図1の(6)に示すように、実施例1に係る表示装置は、変換の結果得られた位置情報を用いて、取得した物体の映像情報を表示映像と併せて表示する。例えば、表示装置は、取得した人10の映像情報を、映像情報「2」の左側の位置に、棚20に重ねて表示する。   As shown in FIG. 1 (6), the display device according to the first embodiment displays the acquired video information of the object together with the display video using the position information obtained as a result of the conversion. For example, the display device displays the acquired video information of the person 10 on the shelf 20 at a position on the left side of the video information “2”.

このようなことから、実施例1に係る表示装置は、監視対象を効率的に監視することが可能である。   For this reason, the display device according to the first embodiment can efficiently monitor the monitoring target.

[表示装置の構成]
次に、図2を用いて、図1に示した表示装置100の構成の一例を説明する。図2は、表示装置の構成を説明するためのブロック図である。図2に示すように、この表示装置100は、撮像部101と表示部102と制御部200とを備える。
[Configuration of display device]
Next, an example of the configuration of the display device 100 illustrated in FIG. 1 will be described with reference to FIG. FIG. 2 is a block diagram for explaining the configuration of the display device. As illustrated in FIG. 2, the display device 100 includes an imaging unit 101, a display unit 102, and a control unit 200.

撮像部101は、制御部200と接続される。撮像部101は、映像情報を撮像し、例えば、監視カメラが該当する。なお、映像情報とは、撮像部101が撮像する静止画や動画が該当し、例えば、監視カメラから得られる監視画像や監視映像が該当する。また、撮像部101は、撮像した映像情報を制御部200に送る。   The imaging unit 101 is connected to the control unit 200. The imaging unit 101 captures video information, for example, a surveillance camera. Note that the video information corresponds to a still image or a moving image captured by the imaging unit 101, for example, a monitoring image or a monitoring video obtained from a monitoring camera. In addition, the imaging unit 101 sends the captured video information to the control unit 200.

ここで、図3に示すように、複数ある撮像部101は、それぞれ異なる位置から監視領域についての映像情報を撮像する。なお、図3は、実施例1における撮像部の配置の一例を説明するための図である。また、以下では、複数ある撮像部101それぞれについて、撮像部「1」や撮像部「2」などと記載する。   Here, as illustrated in FIG. 3, the plurality of imaging units 101 capture video information about the monitoring area from different positions. FIG. 3 is a diagram for explaining an example of the arrangement of the imaging units in the first embodiment. Hereinafter, each of the plurality of imaging units 101 is referred to as an imaging unit “1”, an imaging unit “2”, and the like.

なお、以下では、特に言及しない限り、複数ある撮像部101各々は、監視領域全体についての映像情報を撮像するのではなく、監視領域の一部領域各々についての映像情報を撮像するものとして説明する。また、一部領域各々は、他の一部領域各々と重複する領域を有するものとして説明する。   In the following description, unless otherwise specified, each of the plurality of imaging units 101 does not capture video information about the entire monitoring area, but captures video information about each partial area of the monitoring area. . Further, each partial area will be described as having an area overlapping with each other partial area.

例えば、図3に示すように、棚が列を成して配列されている監視領域内において、撮像部「1」〜「9」各々は、列ごとに設置されるものとして説明する。その上で、各撮像部101が映像情報を撮像する一部領域には、自撮像部が設置された列と隣接する列とが含まれ、隣接する列が棚により死角となっているものとして説明する。   For example, as illustrated in FIG. 3, the imaging units “1” to “9” are described as being installed for each column in a monitoring area where shelves are arranged in rows. In addition, it is assumed that the partial area in which each imaging unit 101 captures video information includes a column in which the image capturing unit is installed and an adjacent column, and the adjacent column is a blind spot due to a shelf. explain.

例えば、撮像部「4」が映像情報を撮像する一部領域は、撮像部「3」が映像情報を撮像する一部領域と撮像部「5」が映像情報を撮像する一部領域とに一部重複する。言い換えると、撮像部「4」は、撮像部「4」が設置された列と、撮像部「3」が設置された列と撮像部「5」が設置された列とについての映像情報を撮像する。また、例えば、撮像部「4」の一部領域と、撮像部「7」〜「9」の一部領域とは、重複しないものとして説明する。   For example, the partial area where the imaging unit “4” captures video information is equal to the partial area where the imaging unit “3” captures video information and the partial area where the imaging unit “5” captures video information. Duplicate parts. In other words, the imaging unit “4” captures video information about the column in which the imaging unit “4” is installed, the column in which the imaging unit “3” is installed, and the column in which the imaging unit “5” is installed. To do. Further, for example, it is assumed that the partial area of the imaging unit “4” and the partial areas of the imaging units “7” to “9” do not overlap.

表示部102は、制御部200と接続され、制御部200から出力された映像情報を表示する。例えば、表示部102は、モニタが該当する。   The display unit 102 is connected to the control unit 200 and displays video information output from the control unit 200. For example, the display unit 102 corresponds to a monitor.

制御部200は、各種の表示処理手順などを規定したプログラムを格納するための内部メモリを有し、種々の表示処理を実行する。また、制御部200は、検出部201と画像取得部202と表示映像選択部203とオーバーレイ部204とを備える。   The control unit 200 has an internal memory for storing a program that defines various display processing procedures and the like, and executes various display processes. The control unit 200 includes a detection unit 201, an image acquisition unit 202, a display video selection unit 203, and an overlay unit 204.

検出部201は、撮像部101と画像取得部202と表示映像選択部203と接続され、撮像部101から映像情報を受け付けると、複数ある撮像部101によって撮像された映像情報各々から所定の物体を検出する。例えば、検出部201は、背景差分法やオプティカルフロー、その他公知の手法を用いることで、映像情報から所定の物体を検出する。なお、検出部201は、背景差分法やオプティカルフロー、その他の公知の手法を複数組み合わせて用いてもよい。   When the detection unit 201 is connected to the imaging unit 101, the image acquisition unit 202, and the display video selection unit 203 and receives video information from the imaging unit 101, the detection unit 201 extracts a predetermined object from each of the video information captured by the plurality of imaging units 101. To detect. For example, the detection unit 201 detects a predetermined object from the video information by using a background difference method, an optical flow, or other known methods. Note that the detection unit 201 may use a combination of a plurality of background subtraction methods, optical flows, and other known methods.

なお、背景差分法とは、所定の物体が撮像されていない状態における映像情報を予め用意し、撮像部101によって撮像された現在の映像情報との差分である背景差分画像を取得し、所定の物体を検出する手法である。また、オプティカルフローとは、映像情報上の各点の速度ベクトルを算出することで、所定の移動物体を検出する手法である。   Note that the background subtraction method prepares video information in a state where a predetermined object is not captured in advance, acquires a background differential image that is a difference from the current video information captured by the imaging unit 101, This is a method for detecting an object. The optical flow is a method for detecting a predetermined moving object by calculating a velocity vector of each point on the video information.

なお、実施例1では、検出部201は、所定の物体として人10を検出する場合を例に説明する。なお、所定の物体とは、人10に限定されるものではなく、表示装置100を管理する利用者によって任意に設定されるもの(例えば、「動く物体」すべてなど)である。   In the first embodiment, a case where the detection unit 201 detects the person 10 as a predetermined object will be described as an example. The predetermined object is not limited to the person 10 but is arbitrarily set by a user who manages the display device 100 (for example, all “moving objects”).

また、検出部201は、撮像部101からの映像情報から所定の物体の位置情報を取得し、例えば、位置情報として、監視領域内における座標情報を取得する。また、検出部201は、取得した位置情報と、所定の物体を検出した映像情報とを画像取得部202に送り、また、所定の物体を検出した映像情報を識別する識別情報を表示映像選択部203に送る。   In addition, the detection unit 201 acquires position information of a predetermined object from the video information from the imaging unit 101, and acquires, for example, coordinate information in the monitoring area as the position information. The detection unit 201 sends the acquired position information and video information for detecting a predetermined object to the image acquisition unit 202, and displays identification information for identifying video information for detecting the predetermined object as a display video selection unit. 203.

検出部201による位置情報取得処理の一例について、図4を用いて説明する。なお、図4は、実施例1における検出部による位置計測を説明するための図である。以下では、撮像部「1」〜「9」各々が設置された監視領域内における座標情報と、撮像部「1」〜「9」各々が向いている監視方向と、カメラ設置角「α」とが既知であるとして説明する。なお、図4の(2)に示すように、カメラ設置角「α」とは、「監視領域の床面への垂線」と「カメラの光軸」とが成す角度である。また、監視方向とは、カメラ設置角「α」が「90度」である場合における撮像部の向きである。また、所定の物体は、監視領域の床面に接地しているとして説明する。   An example of position information acquisition processing by the detection unit 201 will be described with reference to FIG. FIG. 4 is a diagram for explaining position measurement by the detection unit in the first embodiment. In the following, coordinate information in the monitoring area where each of the imaging units “1” to “9” is installed, the monitoring direction in which each of the imaging units “1” to “9” is directed, and the camera installation angle “α” Is assumed to be known. As shown in (2) of FIG. 4, the camera installation angle “α” is an angle formed by the “perpendicular to the floor of the monitoring area” and the “optical axis of the camera”. The monitoring direction is the direction of the imaging unit when the camera installation angle “α” is “90 degrees”. In addition, it is assumed that the predetermined object is in contact with the floor surface of the monitoring area.

ここで、検出部201は、図4の(1)に示すように、距離「L」と距離「S」とを算出し、撮像部が設置された監視領域内における座標情報と合わせることで所定の物体の位置情報を取得する。すなわち、検出部201は、撮像部の座標情報を基点として、図4の(L)に示すように、監視方向軸上を距離「L」進み、図4の(S)に示すように、監視方向軸と直交する軸上を「S」進んだ点についての座標を、所定の物体の位置情報として取得する。   Here, as shown in (1) of FIG. 4, the detection unit 201 calculates the distance “L” and the distance “S”, and combines them with the coordinate information in the monitoring area where the imaging unit is installed. The position information of the object is acquired. That is, the detection unit 201 advances the distance “L” on the monitoring direction axis as shown in (L) of FIG. 4 using the coordinate information of the imaging unit as a base point, and monitors as shown in (S) of FIG. The coordinates of the point advanced by “S” on the axis orthogonal to the direction axis are acquired as position information of the predetermined object.

なお、距離「L」とは、図4の(1)の「A」に示す監視方向軸上での距離であって、撮像部101が設置された座標から所定の物体までの距離を示す。また、距離「S」は、図4の(1)の「A」に示す監視方向軸からの距離であって、図4の(1)の「B」に示す「監視方向軸と直行する軸」上での距離を示す。以下では、まず、図4の(3)に示す「β」と「γ」とを用いて距離「L」を取得する点について説明し、その後、距離「S」を取得する点について説明する。なお、図4の(3)に示す「β」と「γ」とを用いて距離「L」や距離「S」を算出するのは、検出部201が受け付ける情報が、撮像部101からの映像情報のみだからである。   The distance “L” is a distance on the monitoring direction axis indicated by “A” in (1) of FIG. 4, and indicates a distance from a coordinate where the imaging unit 101 is installed to a predetermined object. Further, the distance “S” is a distance from the monitoring direction axis indicated by “A” in (1) of FIG. 4 and is an axis perpendicular to the monitoring direction axis indicated by “B” in (1) of FIG. "Indicates the distance above. Hereinafter, first, the point of acquiring the distance “L” using “β” and “γ” shown in (3) of FIG. 4 will be described, and then the point of acquiring the distance “S” will be described. Note that the distance “L” and the distance “S” are calculated using “β” and “γ” shown in (3) of FIG. 4 because the information received by the detection unit 201 is an image from the imaging unit 101. Because it is information only.

図4の(2)と(3)とを用いて、距離「L」を取得する点について説明する。なお、図4の(2)は、側面から見た図であり、また、図4の(3)は、撮像部から見た映像情報の一例を示す図である。ここで、図4の(2)に示すパラメータの内、カメラ設置角「α」は既知であり、また、高さ「H」が、撮像部が設置された監視領域内における座標情報から既知となる。すなわち、「監視領域の床面への垂線」と「所定の物体と監視領域の床面との接点と、撮像部101とを結ぶ直線」とが成す角度「θ」がわかれば、距離「L」=Htanθとなり、検出部201は、距離「L」を算出できる。   The point of acquiring the distance “L” will be described using (2) and (3) of FIG. 4 (2) is a diagram seen from the side, and (3) in FIG. 4 is a diagram showing an example of video information seen from the imaging unit. Here, among the parameters shown in (2) of FIG. 4, the camera installation angle “α” is known, and the height “H” is known from the coordinate information in the monitoring area where the imaging unit is installed. Become. That is, if the angle “θ” formed by the “perpendicular to the floor of the monitoring area” and the “line connecting the contact point between the predetermined object and the floor of the monitoring area and the imaging unit 101” is known, the distance “L” ”= H tan θ, and the detection unit 201 can calculate the distance“ L ”.

その上で、図4の(3)に示すように、検出部201は、撮像部101から受け付けた映像情報を用いて、カメラ光軸から「所定の物体と監視領域の床面との接点」までの画素数「β」を取得する。例えば、検出部201は、映像情報上における画素数を取得し、取得した画素数「β」と映像情報の解像度とを用いてから角度「β’」を取得する。ここで、1画素当たりの角度との対応関係を既知とすることで、検出部201は、画素数「β」から角度「β’」を算出する。また、図4の(1)に示すように、角度「θ」=角度「α」−角度「β’」となり、検出部201が、角度「θ」を算出して距離「L」を取得する。   In addition, as shown in (3) of FIG. 4, the detection unit 201 uses the video information received from the imaging unit 101 to “contact the predetermined object with the floor surface of the monitoring area” from the camera optical axis. The number of pixels up to “β” is acquired. For example, the detection unit 201 acquires the number of pixels on the video information, and acquires the angle “β ′” after using the acquired number of pixels “β” and the resolution of the video information. Here, by making the correspondence with the angle per pixel known, the detection unit 201 calculates the angle “β ′” from the number of pixels “β”. Also, as shown in (1) of FIG. 4, the angle “θ” = angle “α” −angle “β ′”, and the detection unit 201 calculates the angle “θ” and acquires the distance “L”. .

また、図4の(3)と(4)とを主に用いて、距離「S」を算出する点について説明する。なお、図4の(4)は、上面から見た図である。ここで、図4の(4)に示すパラメータの内、距離「L」が既知である。すなわち、カメラ光軸と「所定の物体と撮像部101とを結ぶ直線」とが成す角度「γ’」がわかれば、距離「S」=Ltanγ’となり、検出部201は、距離「S」を算出できる。   The point of calculating the distance “S” will be described mainly using (3) and (4) of FIG. In addition, (4) of FIG. 4 is the figure seen from the upper surface. Here, among the parameters shown in (4) of FIG. 4, the distance “L” is known. That is, if the angle “γ ′” formed by the camera optical axis and the “straight line connecting the predetermined object and the imaging unit 101” is known, the distance “S” = Ltanγ ′, and the detection unit 201 sets the distance “S”. It can be calculated.

その上で、図4の(3)に示すように、検出部201は、角度「β’」を算出した手法と同様に、撮像部101から受け付けた映像情報を用いて角度「γ’」を算出し、距離「S」を算出する。   Then, as shown in (3) of FIG. 4, the detection unit 201 uses the video information received from the imaging unit 101 to calculate the angle “γ ′” in the same manner as the method of calculating the angle “β ′”. And the distance “S” is calculated.

なお、検出部201は、複数ある撮像部101から受け付けた映像情報各々について、同様の処理を実行する。すなわち、例えば、検出部201は、撮像部「1」〜「9」各々から受け付けた映像情報「1」〜「9」各々について人10を検出し、人10を検出した映像情報から位置情報を取得する。図3に示す例を用いて説明すると、検出部201は、人10を五人検出し、位置情報を5つ取得する。   Note that the detection unit 201 performs the same processing for each piece of video information received from the plurality of imaging units 101. That is, for example, the detection unit 201 detects the person 10 for each of the video information “1” to “9” received from each of the imaging units “1” to “9”, and acquires position information from the video information from which the person 10 is detected. get. If it demonstrates using the example shown in FIG. 3, the detection part 201 will detect five persons 10 and will acquire five positional information.

画像取得部202は、検出部201とオーバーレイ部204と接続される。画像取得部202は、位置情報と映像情報とを検出部201から受け付け、検出部201によって検出された所定の物体の映像情報を取得する。例えば、画像取得部202は、検出部201から受け付けた映像情報から、背景とは異なる部分の映像情報を所定の物体の映像情報として取得する。   The image acquisition unit 202 is connected to the detection unit 201 and the overlay unit 204. The image acquisition unit 202 receives position information and video information from the detection unit 201 and acquires video information of a predetermined object detected by the detection unit 201. For example, the image acquisition unit 202 acquires, from the video information received from the detection unit 201, video information of a portion different from the background as video information of a predetermined object.

また、画像取得部202は、検出部201によって検出された所定の物体各々について、物体の映像情報を取得する。図3に示す例を用いて説明すると、検出部201によって人10が五人検出されたため、画像取得部202は、物体の映像情報を5つ取得する。   Further, the image acquisition unit 202 acquires video information of an object for each predetermined object detected by the detection unit 201. If it demonstrates using the example shown in FIG. 3, since the person 10 was detected by the detection part 201, the image acquisition part 202 will acquire five image | video information of an object.

また、画像取得部202は、位置情報と所定の物体の映像情報とを対応づけて、オーバーレイ部204に送り、例えば、位置情報と物体の映像情報との対応づけを5つ送る。   Further, the image acquisition unit 202 associates the position information with the video information of the predetermined object, and sends it to the overlay unit 204, for example, sends five correspondences between the position information and the image information of the object.

このように、画像取得部202と検出部201とは、協同して動作することで、検出部201によって検出された所定の物体の位置情報と、当該物体の映像情報とを取得する。   As described above, the image acquisition unit 202 and the detection unit 201 operate in cooperation to acquire position information of a predetermined object detected by the detection unit 201 and video information of the object.

表示映像選択部203は、検出部201とオーバーレイ部204と接続され、表示映像をオーバーレイ部204に送る。ここで、表示映像選択部203は、例えば、利用者からいずれの撮像部101からの映像情報を表示するかの指示を受け付け、受け付けた指示によって指定される映像情報をオーバーレイ部204に送る。また、表示映像選択部203は、検出部201から受け付けた識別情報を用いて映像情報を選択し、選択した映像情報をオーバーレイ部204に送る。なお、識別情報を用いての選択処理については、図9を用いて後述する。   The display video selection unit 203 is connected to the detection unit 201 and the overlay unit 204, and sends the display video to the overlay unit 204. Here, the display video selection unit 203 receives, for example, an instruction from which image display unit 101 displays video information from the user, and sends the video information specified by the received instruction to the overlay unit 204. The display video selection unit 203 selects video information using the identification information received from the detection unit 201, and sends the selected video information to the overlay unit 204. The selection process using the identification information will be described later with reference to FIG.

ここで、オーバーレイ部204は、検出部201によって取得された位置情報を表示映像内における位置情報へと変換する。例えば、オーバーレイ部204は、検出部201による位置情報取得処理と逆の処理を行うことで、検出部201によって取得された位置情報から、表示映像内における画素数「β」と画素数「γ」とに変換する。   Here, the overlay unit 204 converts the position information acquired by the detection unit 201 into position information in the display video. For example, the overlay unit 204 performs a process reverse to the position information acquisition process performed by the detection unit 201, so that the number of pixels “β” and the number of pixels “γ” in the display video are obtained from the position information acquired by the detection unit 201. And convert to

すなわち、オーバーレイ部204は、撮像部101が設置された監視領域内における座標情報と、物体の位置情報とから、表示するカメラにおける図4に示した「L」と「S」とを算出する。そして、オーバーレイ部204は、算出した「L」と「S」とを用いることで、図4に示した「β」と「γ」とに変換する。例えば、人10が二人いた場合には、二つ組の「L」と「S」とが算出されており、それぞれについて、表示するカメラについての画素数「β」と画素数「γ」とに変換する。図5の(1)に示す例では、オーバーレイ部204は、画素数「β1」と画素数「γ1」、および、画素数「β2」と画素数「γ2」とに変換する。   That is, the overlay unit 204 calculates “L” and “S” shown in FIG. 4 for the camera to be displayed from the coordinate information in the monitoring area where the imaging unit 101 is installed and the position information of the object. Then, the overlay unit 204 uses the calculated “L” and “S” to convert into “β” and “γ” shown in FIG. For example, when there are two people 10, two sets of “L” and “S” are calculated, and for each, the number of pixels “β” and the number of pixels “γ” for the camera to be displayed are calculated. Convert to In the example shown in (1) of FIG. 5, the overlay unit 204 converts the number of pixels “β1” and the number of pixels “γ1”, and the number of pixels “β2” and the number of pixels “γ2”.

例えば、図13に示すように、撮影したカメラ1から得られた対象物とカメラまでの距離「L」を前記方法で求める。ここで、表示するカメラ2において、カメラ1との距離が「P」は既知であり、カメラ1の「L」に相当する距離は「P−L」で表され、図中の「β’’」が計算できる。これによって、表示するカメラにおける画素数「β」が判り、これを使って、オーバーレイ表示を行う。また、「S」についても同様の方法で求めることができ、画素数「γ」を算出することができる。なお、図13に示す例では、2台のカメラ間の距離のみに注目したが、各々のカメラを配置している位置を平面の地図座標で表した場合でも同様に計算が可能である。なお、図13は、実施例1におけるオーバーレイ部による画素数算出処理を説明するための図である。   For example, as shown in FIG. 13, the distance “L” between the object obtained from the photographed camera 1 and the camera is obtained by the above method. Here, in the camera 2 to be displayed, the distance “P” from the camera 1 is known, and the distance corresponding to “L” of the camera 1 is represented by “PL”, and “β ″ in the figure. Can be calculated. As a result, the number of pixels “β” in the camera to be displayed is known, and this is used for overlay display. Also, “S” can be obtained by the same method, and the number of pixels “γ” can be calculated. In the example shown in FIG. 13, attention is paid only to the distance between the two cameras, but the same calculation can be performed even when the position where each camera is arranged is represented by planar map coordinates. FIG. 13 is a diagram for explaining pixel number calculation processing by the overlay unit in the first embodiment.

なお、オーバーレイ部204は、画像取得部202から受け付けた対応付けに含まれる位置情報それぞれについて、変換処理を実行する。一方、オーバーレイ部204は、変換処理の結果、表示映像内における位置情報を取得するとは限らない。撮像部101が映像情報を撮像する一部領域は、他の撮像部101が映像情報を撮像する一部領域全てと重複するとは限らないからである。   Note that the overlay unit 204 performs a conversion process on each piece of position information included in the association received from the image acquisition unit 202. On the other hand, the overlay unit 204 does not always acquire position information in the display video as a result of the conversion process. This is because the partial area in which the imaging unit 101 captures video information does not necessarily overlap with the entire partial area in which the other imaging unit 101 captures video information.

図3に示す例を用いて具体的に説明する。なお、撮像部「4」からの映像情報を表示映像とする。すなわち、撮像部「3」〜「5」が設置された列についての映像情報が撮像される範囲とする。ここで、撮像部「7」や撮像部「8」の映像情報から検出される人「D」と人「E」との位置情報は、撮像部「4」が映像情報を撮像する範囲内とはならず、変換の結果得られる画素数「β」と画素数「γ」とは表示映像内における位置とはならない。また、撮像部「3」や撮像部「5」の映像情報から検出される人「A」と人「C」との位置情報は、撮像部「4」が映像情報を撮像する範囲内となり、変換の結果得られる画素数「β」と画素数「γ」とが表示映像内における位置となる。また、図3に示す人「B」は、撮像部「4」からの映像情報から検出される人である。この結果、オーバーレイ部204は、画像取得部202から対応付けを5つ受け付け、変換の結果、表示映像内における人「A」と人「C」とについての位置情報を得ることになる。   This will be specifically described with reference to the example shown in FIG. Note that video information from the imaging unit “4” is a display video. That is, it is set as a range in which video information about a column in which the imaging units “3” to “5” are installed is captured. Here, the position information of the person “D” and the person “E” detected from the video information of the imaging unit “7” and the imaging unit “8” is within the range where the imaging unit “4” captures the video information. In other words, the number of pixels “β” and the number of pixels “γ” obtained as a result of the conversion are not positions in the display image. Further, the position information of the person “A” and the person “C” detected from the video information of the imaging unit “3” and the imaging unit “5” is within the range in which the imaging unit “4” captures the video information. The number of pixels “β” and the number of pixels “γ” obtained as a result of the conversion are positions in the display image. Also, the person “B” illustrated in FIG. 3 is a person detected from the video information from the imaging unit “4”. As a result, the overlay unit 204 receives five associations from the image acquisition unit 202 and obtains position information about the person “A” and the person “C” in the display video as a result of the conversion.

また、図5の(2)に示すように、オーバーレイ部204は、変換の結果得られた位置情報を用いて、画像取得部202によって取得された物体の映像情報を表示映像と併せて表示部102にて表示する。なお、表示部102にて表示するとは、オーバーレイ部204が、画像取得部202によって取得された物体の映像情報を表示映像に併せた映像情報を表示部102に送り、表示部102がオーバーレイ部204から受け付けた映像情報を表示することを示す。   As shown in (2) of FIG. 5, the overlay unit 204 uses the position information obtained as a result of the conversion to display the video information of the object acquired by the image acquisition unit 202 together with the display video. 102. In order to display on the display unit 102, the overlay unit 204 sends video information that combines the video information of the object acquired by the image acquisition unit 202 to the display unit 102, and the display unit 102 displays the overlay unit 204. Indicates that the video information received from is displayed.

図5の(2)に示す例では、オーバーレイ部204は、変換の結果得られた位置情報である画素数「β1」と画素数「γ1」、および、画素数「β2」と画素数「γ2」との位置に、当該位置情報それぞれに対応づけられた物体の映像情報を表示する。   In the example illustrated in (2) of FIG. 5, the overlay unit 204 includes the number of pixels “β1” and the number of pixels “γ1”, which are position information obtained as a result of the conversion, and the number of pixels “β2” and the number of pixels “γ2”. The video information of the object associated with each piece of the position information is displayed at the position “”.

また、オーバーレイ部204は、物体の映像情報に透過性を持たせることで、表示映像と物体の映像情報とを併せて表示する。例えば、オーバーレイ部204は、所定の物体の映像情報を薄くして表示映像に重ねて表示することで、所定の物体の映像情報と、同じ位置にある表示映像とを共に判別できるように表示部102にて表示する。   The overlay unit 204 also displays the display image and the object image information together by providing transparency to the object image information. For example, the overlay unit 204 thins the video information of the predetermined object and displays it on the display video so that the video information of the predetermined object and the display video at the same position can be discriminated together. 102.

なお、図6に示すように、オーバーレイ部204は、表示映像と併せて表示する物体の映像情報とともに、当該物体の映像情報を示す目印となる映像情報を表示してもよい。なお、図6は、実施例1におけるオーバーレイ部による目印表示の一例を説明するための図である。図6に示す例では、オーバーレイ部204は、物体の映像情報に併せて目印30を表示する。例えば、人10の数が多い場合などには、目印を用いることにより、人10を効率的に監視することが可能である。   As shown in FIG. 6, the overlay unit 204 may display video information serving as a mark indicating the video information of the object together with the video information of the object displayed together with the display video. FIG. 6 is a diagram for explaining an example of the mark display by the overlay unit in the first embodiment. In the example illustrated in FIG. 6, the overlay unit 204 displays the mark 30 together with the video information of the object. For example, when the number of people 10 is large, it is possible to efficiently monitor the people 10 by using a mark.

また、図7に示すように、オーバーレイ部204は、表示映像と併せて表示する物体の映像情報とともに、当該物体の移動方向を示す映像情報を表示してもよい。なお、図7は、実施例1におけるオーバーレイ部による移動方向表示の一例を説明するための図である。例えば、オーバーレイ部204は、移動方向を示す映像情報として、所定の時間経過前の物体から所定の時間経過後の物体への矢印である移動方向表示矢印40を表示する。   As shown in FIG. 7, the overlay unit 204 may display video information indicating the moving direction of the object together with the video information of the object to be displayed together with the display video. FIG. 7 is a diagram for explaining an example of the moving direction display by the overlay unit in the first embodiment. For example, the overlay unit 204 displays a moving direction display arrow 40 that is an arrow from an object before a predetermined time elapses to an object after a predetermined time elapses as video information indicating the moving direction.

また、オーバーレイ部204は、表示映像と併せて表示する人10の映像情報とともに、当該人10の視線や顔の向きを示す映像情報を表示してもよい。例えば、オーバーレイ部204は、画像取得部202によって取得された物体の映像情報から顔を認識し、顔が向いている方向を矢印として表示する。なお、オーバーレイ部204による顔認識処理は、公知の手法を用いてよい。   Further, the overlay unit 204 may display video information indicating the line of sight of the person 10 and the orientation of the face together with the video information of the person 10 displayed together with the display video. For example, the overlay unit 204 recognizes a face from the video information of the object acquired by the image acquisition unit 202, and displays the direction in which the face is facing as an arrow. The face recognition process by the overlay unit 204 may use a known method.

[表示装置による処理]
次に、図8を用いて、実施例1に係る表示装置100の全体処理の流れの一例について説明する。なお、図8は、実施例1に係る表示装置の全体処理の流れの一例を説明するためのフローチャートである。
[Processing by display device]
Next, an example of the overall processing flow of the display device 100 according to the first embodiment will be described with reference to FIG. FIG. 8 is a flowchart for explaining an example of the overall processing flow of the display apparatus according to the first embodiment.

図8に示すように、表示装置100では、検出部201が、所定の物体を検出すると(ステップS101肯定)、つまり、複数ある撮像部101によって撮像された映像情報各々から所定の物体を検出すると、所定の物体の位置情報を取得する(ステップS102)。例えば、検出部201は、位置情報として、監視領域内における座標情報を取得する。   As shown in FIG. 8, in the display device 100, when the detection unit 201 detects a predetermined object (Yes in step S <b> 101), that is, when a predetermined object is detected from each of video information captured by a plurality of imaging units 101. The position information of the predetermined object is acquired (step S102). For example, the detection unit 201 acquires coordinate information in the monitoring area as the position information.

そして、画像取得部202は、物体の映像情報を取得する(ステップS103)。つまり、画像取得部202は、検出部201によって検出された所定の物体の映像情報を取得する。そして、オーバーレイ部204は、表示映像内の位置情報へと、検出部201によって取得された位置情報を変換する(ステップS104)。例えば、オーバーレイ部204は、検出部201による位置情報取得処理と逆の処理を行うことで、表示映像内における位置情報へと変換する。   Then, the image acquisition unit 202 acquires video information of the object (step S103). That is, the image acquisition unit 202 acquires video information of a predetermined object detected by the detection unit 201. Then, the overlay unit 204 converts the position information acquired by the detection unit 201 into position information in the display video (step S104). For example, the overlay unit 204 performs processing reverse to the position information acquisition processing performed by the detection unit 201, thereby converting into position information in the display video.

そして、オーバーレイ部204は、変換の結果得られた位置情報を用いて、画像取得部202によって取得された物体の映像情報を表示映像と併せて表示部102にて表示する(ステップS105)。例えば、オーバーレイ部204は、所定の物体の映像情報を薄くして表示映像に重ねて表示することで、所定の物体の映像情報と、同じ位置にある表示映像とを共に判別できるように表示部102にて表示する。   The overlay unit 204 displays the video information of the object acquired by the image acquisition unit 202 on the display unit 102 together with the display video using the position information obtained as a result of the conversion (step S105). For example, the overlay unit 204 thins the video information of the predetermined object and displays it on the display video so that the video information of the predetermined object and the display video at the same position can be discriminated together. 102.

[表示映像決定処理の一例]
次に、図9を用いて、実施例1における識別情報を用いての表示映像選択処理について説明する。なお、図9は、実施例1における識別情報を用いての表示映像選択処理の流れの一例を説明するためのフローチャートである。
[Example of display image determination processing]
Next, a display video selection process using identification information in the first embodiment will be described with reference to FIG. FIG. 9 is a flowchart for explaining an example of a flow of display video selection processing using identification information in the first embodiment.

すなわち、図9に示すように、表示映像選択部203は、撮像部101各々が映像情報を撮像する範囲に関する情報と、人が検出された映像情報を識別する識別情報とを用いて、表示映像を選択する。なお、撮像部101各々が映像情報を撮像する範囲に関する情報とは、撮像部101各々について、他の撮像部101が映像情報を撮像する範囲と重複する範囲に関する情報を含む。例えば、図3に例を用いて説明すると、撮像部101各々は、自撮像部が設置された列と、両隣の列の映像情報を撮像するという情報が該当する。   That is, as shown in FIG. 9, the display video selection unit 203 uses the information regarding the range in which each of the imaging units 101 captures video information and the identification information for identifying the video information in which the person is detected, to display the display video. Select. Note that the information regarding the range in which each of the imaging units 101 captures the video information includes information regarding the range where each of the imaging units 101 overlaps with the range in which the other imaging unit 101 captures the video information. For example, to explain using an example in FIG. 3, each of the image capturing units 101 corresponds to information that captures video information of a column in which the image capturing unit is installed and columns adjacent to both.

ここで、図9に示すように、表示映像選択部203は、検出部201によって所定の物体が検出されると(ステップS201肯定)、つまり、例えば、所定の物体が検出された映像情報を識別する識別情報を検出部201から受け付けると、表示映像選択処理を行う。   Here, as shown in FIG. 9, when the detection unit 201 detects a predetermined object (Yes in step S201), the display video selection unit 203 identifies video information in which the predetermined object is detected, for example. When the identification information to be received is received from the detection unit 201, display video selection processing is performed.

つまり、表示映像選択部203は、まず、受け付けた識別情報を用いて、二列のみ連続して人10が検出されたかを判定する(ステップS202)。例えば、表示映像選択部203は、識別情報として、二列のみ連続する撮像部101を識別する識別情報を受け付けたかを判定する。ここで、二列のみ連続して人10が検出されたと判定すると(ステップS202肯定)、表示映像選択部203は、人10が検出された二列のみ連続した列の内いずれか一方の列についての映像情報を選択する(ステップS203)。なぜなら、二列連続する列の内いずれを選択しても、他方の列にて検出された人10について、選択した列についての映像情報にオーバーレイすることで表示できるからである。   In other words, the display video selection unit 203 first determines whether or not the person 10 is detected continuously in only two rows using the received identification information (step S202). For example, the display video selection unit 203 determines whether identification information for identifying the imaging unit 101 that is continuous in only two columns is received as the identification information. If it is determined that the person 10 is detected continuously only in two columns (Yes in step S202), the display image selection unit 203 selects one of the columns in which only two columns are detected in which the person 10 is detected. Is selected (step S203). This is because, regardless of which of the two consecutive columns is selected, the person 10 detected in the other column can be displayed by overlaying on the video information for the selected column.

例えば、表示映像選択部203は、検出部201から随時識別情報を受け付け、その都度、該識別情報を用いて人10が検出された列の連続態様を識別する。図3に示す例をあげて具体的に説明すると、撮像部101が番号順に設置された場合には、番号の連続性を用いて識別する。例えば、撮像部「6」では人10が検出されず、撮像部「7」と撮像部「8」とで人10が検出され、撮像部「9」で人10が検出されないと、表示映像選択部203は、二列連続して人が検出されたと識別し、撮像部「7」か撮像部「8」かのいずれかについての映像情報を選択する。   For example, the display video selection unit 203 receives identification information from the detection unit 201 as needed, and identifies the continuous mode of the column in which the person 10 is detected each time using the identification information. Specifically, referring to the example shown in FIG. 3, when the imaging units 101 are installed in the order of numbers, they are identified using the continuity of the numbers. For example, the person 10 is not detected in the imaging unit “6”, the person 10 is detected in the imaging unit “7” and the imaging unit “8”, and the person 10 is not detected in the imaging unit “9”. The unit 203 identifies that a person has been detected in two consecutive rows, and selects video information about either the imaging unit “7” or the imaging unit “8”.

一方、表示映像選択部203は、二列のみ連続して人10が検出されていないと判定すると(ステップS202否定)、三列のみ連続で人10が検出されたかを判定する(ステップS204)。ここで、三列のみ連続して人10が検出されたと判定すると(ステップS204肯定)、表示映像選択部203は、人10が検出された三列連続した列の内真ん中の列についての映像情報を選択する(ステップS205)。つまり、例えば、撮像部「2」で人10が検出されず、撮像部「3」〜撮像部「5」とで三列連続して人10が検出され、撮像部「6」で人10が検出されないと、表示映像選択部203は、撮像部「4」についての映像情報を選択する。なぜなら、三列連続する列の内真ん中を選択することで、両端の列にて検出された人10について、選択した真ん中の列についての映像情報にオーバーレイすることで表示できるからである。   On the other hand, if the display video selection unit 203 determines that the person 10 is not detected continuously for only two columns (No at Step S202), it determines whether the person 10 is detected for only three columns (Step S204). Here, if it is determined that the person 10 is detected continuously in only three columns (Yes in step S204), the display image selecting unit 203 displays the image information about the middle column of the three consecutive columns in which the person 10 is detected. Is selected (step S205). That is, for example, the person 10 is not detected by the imaging unit “2”, the person 10 is detected in three consecutive rows by the imaging unit “3” to the imaging unit “5”, and the person 10 is detected by the imaging unit “6”. If not detected, the display video selection unit 203 selects video information for the imaging unit “4”. This is because by selecting the middle of three consecutive columns, the person 10 detected in the columns at both ends can be displayed by overlaying on the video information for the selected middle column.

一方、表示映像選択部203は、三列のみ連続して人10が検出されていないと判定すると(ステップS204否定)、四列以上連続して人10を検出したと判定する(ステップS206)。そして、表示映像選択部203は、四列以上連続した列の内、端から二つ目の列についての映像情報と、端から二つ目の列から二列飛ばした列各々についての映像情報を選択する(ステップS207)。例えば、撮像部「1」から撮像部「5」とで人10が検出されると、表示映像選択部203は、撮像部「2」と撮像部「5」とよって撮像された映像情報各々を選択し、または、撮像部「1」と撮像部「4」とよって撮像された映像情報各々を選択する。   On the other hand, if the display video selection unit 203 determines that the person 10 is not detected continuously for only three rows (No at Step S204), it determines that the person 10 is detected for four or more rows continuously (Step S206). Then, the display video selection unit 203 displays the video information about the second column from the end, and the video information about each of the columns skipped from the second column from the end, among the four or more consecutive columns. Select (step S207). For example, when the person 10 is detected by the imaging unit “1” to the imaging unit “5”, the display video selecting unit 203 displays the video information captured by the imaging unit “2” and the imaging unit “5”. Each of the video information picked up by the image pickup unit “1” and the image pickup unit “4” is selected.

なお、表示映像選択部203は、端から二つ目の列から二列飛ばした列が無い場合には、一列飛ばした列を選択する。この結果、端から一列飛ばした列以降についても、確実に表示することが可能である。   Note that the display video selection unit 203 selects the column skipped by one when there is no column skipped by two from the second column from the end. As a result, it is possible to display reliably even after the column skipped from the end by one column.

このように、識別情報を用いて表示映像を選択することで、検出された人10の映像情報すべてを効率的に表示することが可能であり、例えば、表示する映像情報の数を減少することが可能である。   As described above, by selecting the display video using the identification information, it is possible to efficiently display all the video information of the detected person 10, for example, reducing the number of video information to be displayed. Is possible.

[実施例1の効果]
上記したように、実施例1によれば、表示装置100は、複数ある撮像部101によって撮像された映像情報各々から所定の物体を検出し、検出した所定の物体の位置情報と、当該物体の映像情報とを取得する。そして、表示装置100は、取得した位置情報を、表示映像内における位置情報へと変換し、変換の結果得られた位置情報を用いて、取得した物体の映像情報を表示映像と併せて表示する。この結果、監視対象を効率的に監視することが可能である。
[Effect of Example 1]
As described above, according to the first embodiment, the display device 100 detects a predetermined object from each of the video information captured by the plurality of imaging units 101, and detects the position information of the detected predetermined object and the object information. Get video information. Then, the display device 100 converts the acquired position information into position information in the display image, and displays the acquired object image information together with the display image using the position information obtained as a result of the conversion. . As a result, it is possible to efficiently monitor the monitoring target.

例えば、表示映像内に死角がある場合であっても、死角にいる人10を表示映像に併せて表示することができ、監視対象を効率的に監視することが可能である。すなわち、例えば、表示映像とは別の映像情報により、表示映像内の死角に対応する位置に人10が検出されると、検出された人10の画像を表示映像内の死角の位置に併せて表示することができ、監視効率を向上することが可能である。   For example, even if there is a blind spot in the display image, the person 10 in the blind spot can be displayed together with the display image, and the monitoring target can be efficiently monitored. That is, for example, when the person 10 is detected at a position corresponding to the blind spot in the display video by video information different from the display video, the detected image of the person 10 is combined with the position of the blind spot in the display video. It can be displayed, and the monitoring efficiency can be improved.

この結果、実施例1によれば、表示装置100は、利用者による映像情報の切り換え頻度を減らすことが可能である。すなわち、他の映像情報によって得られた所定の物体についての情報を表示映像と合わせて表示することができ、所定の物体が撮像された映像情報への切り替える頻度を減少させることが可能である。   As a result, according to the first embodiment, the display device 100 can reduce the switching frequency of the video information by the user. That is, information about a predetermined object obtained from other video information can be displayed together with the display video, and the frequency of switching to video information in which the predetermined object is imaged can be reduced.

また、この結果、実施例1によれば、表示装置100は、映像情報を表示するモニタの数を削減することが可能である。すなわち、他の映像情報によって得られた所定の物体についての情報を表示映像と合わせて表示することができ、所定の物体が撮像された映像情報すべてを表示することなく、所定の物体についての映像情報を表示することが可能である。この結果、表示すべき映像情報の数が減少し、映像情報を表示するモニタの数を削減することが可能である。   As a result, according to the first embodiment, the display device 100 can reduce the number of monitors that display video information. That is, information about a predetermined object obtained from other video information can be displayed together with the display video, and the video about the predetermined object can be displayed without displaying all the video information obtained by imaging the predetermined object. Information can be displayed. As a result, the number of video information to be displayed is reduced, and the number of monitors that display video information can be reduced.

また、実施例1によれば、表示装置100では、複数ある撮像部101が、それぞれ異なる位置から同一の領域を撮像する。また、表示装置100は、位置情報として、領域内における座標情報を取得するので、位置情報を表示映像内における位置情報へと正確に変換することが可能である。   Also, according to the first embodiment, in the display device 100, a plurality of imaging units 101 capture the same region from different positions. Further, since the display device 100 acquires the coordinate information in the region as the position information, it is possible to accurately convert the position information into the position information in the display video.

また、実施例1によれば、表示装置100では、物体の映像情報を示す目印となる映像情報を表示するので、表示映像と併せて表示される物体の映像情報の位置について、利用者が簡単に把握することが可能である。   In addition, according to the first embodiment, the display device 100 displays video information serving as a mark indicating the video information of the object, so that the user can easily determine the position of the video information of the object displayed together with the display video. It is possible to grasp.

また、実施例1によれば、表示装置100では、物体の移動方向を示す映像情報を表示するので、表示映像と併せて表示される物体の映像情報の移動方向について、利用者が簡単に把握することが可能である。   Further, according to the first embodiment, the display device 100 displays video information indicating the moving direction of the object, so that the user can easily grasp the moving direction of the video information of the object displayed together with the display video. Is possible.

また、実施例1によれば、表示装置100では、人10の視線や顔の向きを示す映像情報を表示するので、表示映像と併せて表示される人10の視線や顔の向きについて、利用者が簡単に把握することが可能である。   Further, according to the first embodiment, the display device 100 displays video information indicating the direction of the line of sight and the face of the person 10, so that the line of sight and the direction of the face of the person 10 displayed together with the display video are used. Can be easily grasped by a person.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例1以外にも、その他の実施例にて実施されてもよい。そこで、以下では、その他の実施例について説明する。   Although the embodiments of the present invention have been described so far, the present invention may be implemented in other embodiments besides the above-described first embodiment. Therefore, other embodiments will be described below.

[録画]
例えば、図10に示すように、表示装置100は、撮像部101各々によって撮像された映像情報を記憶する記憶部300をさらに備えてもよい。なお、図10は、実施例2に係る表示装置の構成の一例を説明するためのブロック図である。
[Recording]
For example, as illustrated in FIG. 10, the display device 100 may further include a storage unit 300 that stores video information captured by each of the imaging units 101. FIG. 10 is a block diagram for explaining an example of the configuration of the display device according to the second embodiment.

図10に示す例では、記憶部300は、検出部201と接続される。その上で、表示装置100では、検出部201(「格納部」とも称する)が、複数ある撮像部101によって撮像された映像情報各々について、取得した位置情報と併せて記憶部300に格納してもよい。この結果、映像情報を記憶部300に記憶する(録画)する際に、位置情報を併せて記録することが可能である。   In the example illustrated in FIG. 10, the storage unit 300 is connected to the detection unit 201. In addition, in the display device 100, the detection unit 201 (also referred to as “storage unit”) stores each piece of video information captured by the plurality of imaging units 101 in the storage unit 300 together with the acquired position information. Also good. As a result, when the video information is stored (recorded) in the storage unit 300, the position information can be recorded together.

[撮像部設置位置]
また、例えば、実施例1では、複数ある撮像部101は、監視領域の一部領域各々についての映像情報を撮像し、例えば、棚が列を成して配列されている監視領域内において、撮像部「1」〜「9」各々は、列ごとに設置されるものとして説明した。しかし、本発明はこれに限定されるものではない。
[Imaging unit installation position]
For example, in the first embodiment, the plurality of imaging units 101 capture video information about each of the partial areas of the monitoring area. For example, imaging is performed in the monitoring area where shelves are arranged in rows. Each of the parts “1” to “9” has been described as being installed in each row. However, the present invention is not limited to this.

例えば、図11に示すように、少数の撮像部101にて監視領域すべての映像情報が撮像されるように撮像部101をさらに設置してもよい。例えば、図11の「A〜D」に示すように、撮像部101を監視領域の四隅に設置してもよく、また、天井に全方位カメラとして撮像部101を設置してもよい。なお、図11は、実施例2における撮像部の配置の一例を説明するための図である。また、表示映像選択部203は、監視領域の四隅に設置した撮像部101からの映像情報や、天井に設置した全方位カメラとして設置した撮像部101からの映像情報を表示映像として選択してもよい。   For example, as illustrated in FIG. 11, the image capturing unit 101 may be further installed so that a small number of image capturing units 101 capture image information of the entire monitoring area. For example, as illustrated in “A to D” in FIG. 11, the imaging units 101 may be installed at the four corners of the monitoring area, or the imaging unit 101 may be installed as an omnidirectional camera on the ceiling. FIG. 11 is a diagram for explaining an example of the arrangement of the imaging units in the second embodiment. Also, the display video selection unit 203 may select video information from the imaging unit 101 installed at the four corners of the monitoring area or video information from the imaging unit 101 installed as an omnidirectional camera installed on the ceiling as a display video. Good.

その上で、表示装置100では、列ごとに設置した撮像部101からの映像情報を用いて、所定の物体の位置情報と物体の映像情報とを取得し、全方位カメラとしてや四隅に設置した撮像部101についての映像情報に併せて表示してよい。   In addition, the display device 100 acquires the position information of the predetermined object and the image information of the object using the image information from the imaging unit 101 installed for each column, and is installed as an omnidirectional camera or at the four corners. You may display together with the video information about the imaging part 101. FIG.

また、例えば、表示装置100は、表示部102の画面上を5つに分割し、4つの領域に監視領域の四隅に設置した撮像部101からの映像情報を表示し、また、残りの一つの領域に人10が検出された映像情報を表示する。すなわち、隅に設置した撮像部101についての映像情報を表示する4つの領域にて、監視領域すべてを表示し、また、必要に応じてオーバーレイすることで監視領域にいる人10すべてを表示する。その上で、表示部102は、残りの一つの領域に人10が検出された映像情報を表示することで、検出された人10を利用者が詳細に監視できるようにしてもよい。なお、表示装置100は、画面上を分割する際には任意の数に分割してよく、また、複数のモニタを併用してもよい。   Further, for example, the display device 100 divides the screen of the display unit 102 into five, displays video information from the imaging unit 101 installed at the four corners of the monitoring area in four areas, and displays the remaining one The video information in which the person 10 is detected is displayed in the area. That is, all the monitoring areas are displayed in the four areas for displaying the video information about the imaging unit 101 installed in the corner, and all the people 10 in the monitoring area are displayed by overlaying as necessary. In addition, the display unit 102 may display the video information in which the person 10 is detected in the remaining one region so that the user can monitor the detected person 10 in detail. The display device 100 may be divided into an arbitrary number when dividing the screen, and a plurality of monitors may be used in combination.

[物体の映像情報]
また、例えば、実施例1では、表示映像に併せて表示する物体の映像情報として、映像情報の一部を用いる場合を説明したが、本発明はこれに限定されるものではなく、CG(Computer Graphics)に置き換えてもよい。例えば、表示装置100では、画像取得部202は、物体の映像情報を取得すると、物体の映像情報と同等の大きさへとCG画像の大きさをフィッティングし、物体の映像情報としてフィッティングしたCGをオーバーレイ部204に送ってもよい。
[Image information of object]
For example, in the first embodiment, a case has been described in which a part of video information is used as video information of an object to be displayed together with a display video. However, the present invention is not limited to this, and CG (Computer) (Graphics). For example, in the display device 100, when the image acquisition unit 202 acquires the video information of the object, the image acquisition unit 202 fits the size of the CG image to the same size as the video information of the object, and the CG fitted as the video information of the object. It may be sent to the overlay unit 204.

[監視領域]
また、例えば、実施例1では、撮像部101が、一つの監視領域についての映像情報を撮像する場合について説明したが、本発明はこれに限定されるものではない。例えば、複数ある撮像部101は、複数の監視領域それぞれについて、異なる位置から映像情報を撮像してもよい。
[Monitoring area]
For example, in the first embodiment, the case where the imaging unit 101 captures video information for one monitoring area has been described, but the present invention is not limited to this. For example, the plurality of imaging units 101 may capture video information from different positions for each of the plurality of monitoring areas.

[実施例の組み合わせについて]
また、例えば、実施例1では、他の監視映像にて検出された人10の映像を当該人10が検出された位置に対応する表示映像内の位置にて、表示映像と併せて表示する手法に加えて、様々な手法を併せて実施する場合について説明した。具体的には、(手法1)位置情報を座標情報として用いる手法、(手法2)目印を表示する手法、(手法3)移動方向を表示する手法、および、(手法4)顔の向きを表示する手法を併せて実施する実施例について説明した。しかし、本発明はこれに限定されるものではなく、(手法1)〜(手法4)の内一部のみを併せて実施し、または、いずれも併せて実施しなくてもよい。
[Combination of Examples]
Also, for example, in the first embodiment, a method of displaying the video of the person 10 detected in the other monitoring video together with the display video at a position in the display video corresponding to the position where the person 10 is detected. In addition to the above, the case where various methods are implemented together has been described. Specifically, (Method 1) Method using position information as coordinate information, (Method 2) Method of displaying landmarks, (Method 3) Method of displaying moving direction, and (Method 4) Displaying face orientation The Example which combines and implements the method to perform was demonstrated. However, the present invention is not limited to this, and only a part of (Method 1) to (Method 4) may be performed together, or none of them may be performed together.

[システム構成]
また、例えば、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、例えば、所定の物体を手動にて検出してもよい。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報(例えば、図1〜図12)については、特記する場合を除いて任意に変更することができる。
[System configuration]
Further, for example, all or a part of the processes described as being automatically performed among the processes described in the present embodiment can be manually performed. For example, a predetermined object is manually detected. May be. In addition, the processing procedures, control procedures, specific names, and information including various data and parameters (for example, FIG. 1 to FIG. 12) shown in the above documents and drawings are arbitrary unless otherwise specified. Can be changed.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図2を用いて説明すると、表示装置100と表示部102とを別個独立した装置としてもよい。また、制御部200内の各部の内、所定の物体についての位置情報と物体の映像情報を取得する検出部201や画像取得部202を別装置としてもよい。   Each component of each illustrated device is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, referring to FIG. 2, the display device 100 and the display unit 102 may be separate devices. In addition, among the units in the control unit 200, the detection unit 201 and the image acquisition unit 202 that acquire position information about a predetermined object and video information of the object may be separate devices.

[コンピュータ]
また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図12を用いて、上記の実施例と同様の機能を有する表示プログラムを実行するコンピュータの一例を説明する。なお、図12は、実施例1に係る表示装置のプログラムを説明するための図である。
[Computer]
The various processes described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. In the following, an example of a computer that executes a display program having the same function as that of the above-described embodiment will be described with reference to FIG. FIG. 12 is a diagram for explaining the program of the display device according to the first embodiment.

図12に示すように、コンピュータ3000は、操作部3001、マイク3002、スピーカ3003、撮像部3004、ディスプレイ3005、通信部3006、CPU(Central Processing Unit)3010、ROM(Read Only Memory)3011、RAM(Random Access Memory)3013をバス3009などで接続して構成されている。   As shown in FIG. 12, a computer 3000 includes an operation unit 3001, a microphone 3002, a speaker 3003, an imaging unit 3004, a display 3005, a communication unit 3006, a CPU (Central Processing Unit) 3010, a ROM (Read Only Memory) 3011, a RAM ( Random Access Memory) 3013 is connected by a bus 3009 or the like.

ROM3011には、上記の実施例1で示した検出部201と、画像取得部202と、表示映像選択部203と、オーバーレイ部204と同様の機能を発揮する制御プログラム、つまり、図12に示すように、検出プログラム3011aと、画像取得プログラム3011bと、表示映像選択プログラム3011cと、オーバーレイプログラム3011dとが予め記憶されている。なお、これらのプログラム3011a〜3011dについては、図2に示した表示装置100の各構成要素と同様、適宜統合または分離してもよい。   The ROM 3011 stores a control program that performs the same functions as those of the detection unit 201, the image acquisition unit 202, the display video selection unit 203, and the overlay unit 204 described in the first embodiment, that is, as illustrated in FIG. In addition, a detection program 3011a, an image acquisition program 3011b, a display video selection program 3011c, and an overlay program 3011d are stored in advance. Note that these programs 3011a to 3011d may be integrated or separated as appropriate, similarly to each component of the display device 100 shown in FIG.

そして、CPU3010が、これらのプログラム3011a〜3011dをROM3011から読み出して実行することにより、図12に示すように、各プログラム3011a〜3011dについては、検出プロセス3010aと、画像取得プロセス3010bと、表示映像選択プロセス3010cと、オーバーレイプロセス3010dとして機能するようになる。なお、各プロセス3010a〜3010dは、図2に示した、検出部201と、画像取得部202と、表示映像選択部203と、オーバーレイ部204とにそれぞれ対応する。   Then, the CPU 3010 reads out these programs 3011a to 3011d from the ROM 3011 and executes them, and as shown in FIG. It functions as a process 3010c and an overlay process 3010d. Each process 3010a to 3010d corresponds to the detection unit 201, the image acquisition unit 202, the display video selection unit 203, and the overlay unit 204 illustrated in FIG.

そして、CPU3010は、RAM3013に格納された映像情報データ3013aと、位置情報データ3013bとを用いて、表示プログラムを実行する。   The CPU 3010 executes a display program using the video information data 3013a and the position information data 3013b stored in the RAM 3013.

[その他]
なお、本実施例で説明した表示装置は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。
[Others]
The display device described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program can be distributed via a network such as the Internet. The program can also be executed by being recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, and a DVD and being read from the recording medium by the computer.

以上の実施例1〜2を含む実施形態に関し、更に以下の付記を開示する。   Regarding the embodiment including the above-described Examples 1 and 2, the following additional notes are further disclosed.

(付記1)複数ある撮像部によって撮像された映像情報各々から所定の物体を検出する検出部と、
前記検出部によって検出された所定の物体の位置情報と、当該物体の映像情報とを取得する取得部と、
前記取得部によって取得された前記位置情報を、前記映像情報各々の内表示部によって表示される映像情報である表示映像内における位置情報へと変換する変換部と、
前記変換部による変換の結果得られた位置情報を用いて、前記取得部によって取得された前記物体の映像情報を前記表示映像と併せて表示する表示制御部と
を備えたことを特徴とする表示装置。
(Additional remark 1) The detection part which detects a predetermined | prescribed object from each image | video information imaged by several imaging part,
An acquisition unit that acquires position information of the predetermined object detected by the detection unit and video information of the object;
A conversion unit that converts the position information acquired by the acquisition unit into position information in a display video that is video information displayed by an internal display unit of each of the video information;
A display control unit that displays the video information of the object acquired by the acquisition unit together with the display video using the position information obtained as a result of the conversion by the conversion unit. apparatus.

(付記2)複数ある前記撮像部は、それぞれ異なる位置から同一の領域を撮像するものであって、
前記取得部は、前記位置情報として、前記領域内における座標情報を取得することを特徴とする付記1に記載の表示装置。
(Supplementary Note 2) The plurality of imaging units are configured to image the same region from different positions,
The display device according to appendix 1, wherein the acquisition unit acquires coordinate information in the region as the position information.

(付記3)前記表示制御部は、前記表示映像と併せて表示する前記物体の映像情報とともに、当該物体の映像情報を示す目印となる映像情報を表示することを特徴とする付記1または2に記載の表示装置。 (Additional remark 3) The said display control part displays the video information used as the mark which shows the video information of the said object with the video information of the said object displayed together with the said display image, It adds to 1 or 2 characterized by the above-mentioned. The display device described.

(付記4)前記表示制御部は、前記表示映像と併せて表示する前記物体の映像情報とともに、当該物体の移動方向を示す映像情報を表示することを特徴とする付記1〜3のいずれか一つに記載の表示装置。 (Additional remark 4) The said display control part displays the video information which shows the moving direction of the said object with the video information of the said object displayed with the said display image, Any one of Additional remarks 1-3 characterized by the above-mentioned. The display device described in one.

(付記5)前記所定の物体は、人であって、
前記表示制御部は、前記表示映像と併せて表示する前記人の映像情報とともに、当該人の視線および/または顔の向きを示す映像情報を表示することを特徴とする付記1〜4のいずれか一つに記載の表示装置。
(Supplementary Note 5) The predetermined object is a person,
Any one of Supplementary notes 1 to 4, wherein the display control unit displays video information indicating the line of sight and / or face of the person together with the video information of the person displayed together with the display video. The display device according to one.

(付記6)前記複数ある撮像部によって撮像された映像情報各々について、前記取得部によって取得された位置情報と併せて記憶部に格納する格納部をさらに備えたことを特徴とする付記1〜5のいずれか一つに記載の表示装置。 (Supplementary note 6) The supplementary notes 1 to 5, further comprising a storage unit that stores the video information captured by the plurality of imaging units in the storage unit together with the positional information acquired by the acquisition unit. The display device according to any one of the above.

(付記7)複数ある撮像部によって撮像された映像情報各々から所定の物体を検出する検出工程と、
前記検出工程によって検出された所定の物体の位置情報と、当該物体の映像情報とを取得する取得工程と、
前記取得工程によって取得された前記位置情報を、前記映像情報各々の内表示部によって表示される映像情報である表示映像内における位置情報へと変換する変換工程と、
前記変換工程による変換の結果得られた位置情報を用いて、前記取得工程によって取得された前記物体の映像情報を前記表示映像と併せて表示する表示制御工程と
を含んだことを特徴とする表示方法。
(Additional remark 7) The detection process which detects a predetermined | prescribed object from each image | video information imaged by several imaging part,
An acquisition step of acquiring position information of the predetermined object detected by the detection step and video information of the object;
A conversion step of converting the position information acquired by the acquisition step into position information in a display video that is video information displayed by an internal display unit of each of the video information;
A display control step of displaying the video information of the object acquired by the acquisition step together with the display video using the position information obtained as a result of the conversion by the conversion step. Method.

(付記8)コンピュータが、
複数ある撮像部によって撮像された映像情報各々から所定の物体を検出する検出ステップと、
前記検出ステップによって検出された所定の物体の位置情報と、当該物体の映像情報とを取得する取得ステップと、
前記取得ステップによって取得された前記位置情報を、前記映像情報各々の内表示部によって表示される映像情報である表示映像内における位置情報へと変換する変換ステップと、
前記変換ステップによる変換の結果得られた位置情報を用いて、前記取得ステップによって取得された前記物体の映像情報を前記表示映像と併せて表示する表示制御ステップと
を実行することを特徴とする表示プログラム。
(Appendix 8) The computer
A detection step of detecting a predetermined object from each of video information imaged by a plurality of imaging units;
An acquisition step of acquiring position information of the predetermined object detected by the detection step and video information of the object;
A conversion step of converting the position information acquired in the acquisition step into position information in a display image that is image information displayed by an inner display unit of each of the image information;
A display control step of displaying the video information of the object acquired in the acquisition step together with the display video using the position information obtained as a result of the conversion in the conversion step. program.

10 人
20 棚
100 表示装置
101 撮像部
102 表示部
200 制御部
201 検出部
202 画像取得部
203 表示映像選択部
204 オーバーレイ部
300 記憶部
10 people 20 shelves 100 display device 101 imaging unit 102 display unit 200 control unit 201 detection unit 202 image acquisition unit 203 display video selection unit 204 overlay unit 300 storage unit

Claims (7)

複数ある撮像部によって撮像された映像情報各々から所定の物体を検出する検出部と、
前記検出部によって検出された所定の物体の位置情報と、当該物体の映像情報とを取得する取得部と、
前記取得部によって取得された前記位置情報を、前記映像情報各々の内表示部によって表示される映像情報である表示映像内における位置情報へと変換する変換部と、
前記変換部による変換の結果得られた位置情報を用いて、前記取得部によって取得された前記物体の映像情報を前記表示映像と併せて表示する表示制御部と
を備えたことを特徴とする表示装置。
A detection unit for detecting a predetermined object from each of video information captured by a plurality of imaging units;
An acquisition unit that acquires position information of the predetermined object detected by the detection unit and video information of the object;
A conversion unit that converts the position information acquired by the acquisition unit into position information in a display video that is video information displayed by an internal display unit of each of the video information;
A display control unit that displays the video information of the object acquired by the acquisition unit together with the display video using the position information obtained as a result of the conversion by the conversion unit. apparatus.
複数ある前記撮像部は、それぞれ異なる位置から同一の領域を撮像するものであって、
前記取得部は、前記位置情報として、前記領域内における座標情報を取得することを特徴とする請求項1に記載の表示装置。
The plurality of imaging units capture the same region from different positions,
The display device according to claim 1, wherein the acquisition unit acquires coordinate information in the region as the position information.
前記表示制御部は、前記表示映像と併せて表示する前記物体の映像情報とともに、当該物体の映像情報を示す目印となる映像情報を表示することを特徴とする請求項1または2に記載の表示装置。   3. The display according to claim 1, wherein the display control unit displays video information serving as a mark indicating video information of the object together with video information of the object to be displayed together with the display video. apparatus. 前記表示制御部は、前記表示映像と併せて表示する前記物体の映像情報とともに、当該物体の移動方向を示す映像情報を表示することを特徴とする請求項1〜3のいずれか一つに記載の表示装置。   The said display control part displays the video information which shows the moving direction of the said object with the video information of the said object displayed together with the said display video, The any one of Claims 1-3 characterized by the above-mentioned. Display device. 前記所定の物体は、人であって、
前記表示制御部は、前記表示映像と併せて表示する前記人の映像情報とともに、当該人の視線および/または顔の向きを示す映像情報を表示することを特徴とする請求項1〜4のいずれか一つに記載の表示装置。
The predetermined object is a person,
The display control unit displays video information indicating the line of sight and / or face of the person together with the video information of the person to be displayed together with the display video. A display device according to any one of the above.
複数ある撮像部によって撮像された映像情報各々から所定の物体を検出する検出工程と、
前記検出工程によって検出された所定の物体の位置情報と、当該物体の映像情報とを取得する取得工程と、
前記取得工程によって取得された前記位置情報を、前記映像情報各々の内表示部によって表示される映像情報である表示映像内における位置情報へと変換する変換工程と、
前記変換工程による変換の結果得られた位置情報を用いて、前記取得工程によって取得された前記物体の映像情報を前記表示映像と併せて表示する表示制御工程と
を含んだことを特徴とする表示方法。
A detection step of detecting a predetermined object from each of video information imaged by a plurality of imaging units;
An acquisition step of acquiring position information of the predetermined object detected by the detection step and video information of the object;
A conversion step of converting the position information acquired by the acquisition step into position information in a display video that is video information displayed by an internal display unit of each of the video information;
A display control step of displaying the video information of the object acquired by the acquisition step together with the display video using the position information obtained as a result of the conversion by the conversion step. Method.
コンピュータが、
複数ある撮像部によって撮像された映像情報各々から所定の物体を検出する検出ステップと、
前記検出ステップによって検出された所定の物体の位置情報と、当該物体の映像情報とを取得する取得ステップと、
前記取得ステップによって取得された前記位置情報を、前記映像情報各々の内表示部によって表示される映像情報である表示映像内における位置情報へと変換する変換ステップと、
前記変換ステップによる変換の結果得られた位置情報を用いて、前記取得ステップによって取得された前記物体の映像情報を前記表示映像と併せて表示する表示制御ステップと
を実行することを特徴とする表示プログラム。
Computer
A detection step of detecting a predetermined object from each of video information imaged by a plurality of imaging units;
An acquisition step of acquiring position information of the predetermined object detected by the detection step and video information of the object;
A conversion step of converting the position information acquired in the acquisition step into position information in a display image that is image information displayed by an inner display unit of each of the image information;
A display control step of displaying the video information of the object acquired by the acquisition step together with the display video, using the position information obtained as a result of the conversion by the conversion step. program.
JP2009066749A 2009-03-18 2009-03-18 Display device, display method, and display program Active JP5163564B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009066749A JP5163564B2 (en) 2009-03-18 2009-03-18 Display device, display method, and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009066749A JP5163564B2 (en) 2009-03-18 2009-03-18 Display device, display method, and display program

Publications (2)

Publication Number Publication Date
JP2010220077A true JP2010220077A (en) 2010-09-30
JP5163564B2 JP5163564B2 (en) 2013-03-13

Family

ID=42978398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009066749A Active JP5163564B2 (en) 2009-03-18 2009-03-18 Display device, display method, and display program

Country Status (1)

Country Link
JP (1) JP5163564B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209569A (en) * 1999-01-19 2000-07-28 Oki Electric Ind Co Ltd Remote monitor, remote monitoring method and remote monitoring system
JP2007060054A (en) * 2005-08-22 2007-03-08 Toshiba Corp Mobile communication apparatus
JP2008066864A (en) * 2006-09-05 2008-03-21 Mitsubishi Electric Corp Monitoring unit and monitoring program
WO2008105935A2 (en) * 2006-09-26 2008-09-04 Harris Corporation Video surveillance system providing tracking of a moving object in a geospatial model and related methods
JP2008288707A (en) * 2007-05-15 2008-11-27 Panasonic Corp Monitoring apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209569A (en) * 1999-01-19 2000-07-28 Oki Electric Ind Co Ltd Remote monitor, remote monitoring method and remote monitoring system
JP2007060054A (en) * 2005-08-22 2007-03-08 Toshiba Corp Mobile communication apparatus
JP2008066864A (en) * 2006-09-05 2008-03-21 Mitsubishi Electric Corp Monitoring unit and monitoring program
WO2008105935A2 (en) * 2006-09-26 2008-09-04 Harris Corporation Video surveillance system providing tracking of a moving object in a geospatial model and related methods
JP2008288707A (en) * 2007-05-15 2008-11-27 Panasonic Corp Monitoring apparatus

Also Published As

Publication number Publication date
JP5163564B2 (en) 2013-03-13

Similar Documents

Publication Publication Date Title
JP7173196B2 (en) Image processing device, image processing method, and program
US10084972B2 (en) Monitoring methods and devices
WO2014199941A1 (en) Information processing device, information processing method, and program
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
JP5284599B2 (en) Image processing device
JP6077655B2 (en) Shooting system
EP2717013A1 (en) Stereo camera device and computer-readable recording medium
JP6568374B2 (en) Information processing apparatus, information processing method, and program
JP2008112401A (en) Advertisement effect measurement apparatus
JP6335701B2 (en) Information processing apparatus, information processing method, and program
JP5277805B2 (en) Object extraction device, object extraction method, and object extraction program
JP6417670B2 (en) Monitoring device, monitoring system, monitoring method, monitoring program, and computer-readable recording medium recording the monitoring program
JP2008226109A (en) Video image analysis system and method
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP5111934B2 (en) Monitoring device
TWI671707B (en) Image analysis method, electronic system and non-transitory computer-readable recording medium
JP5163564B2 (en) Display device, display method, and display program
JP2013038454A (en) Image processor, method, and program
JP2009003787A (en) Target detection device, target detection program and target detection system
JP2008217330A (en) Speed estimation method and speed estimation program
JP2022167992A (en) Object tracking device, object tracking method, and program
JP7041046B2 (en) Group estimation device and group estimation method
JP7329967B2 (en) IMAGE PROCESSING APPARATUS, SYSTEM, IMAGE PROCESSING APPARATUS CONTROL METHOD, AND PROGRAM
JP2013156671A (en) Image monitoring device
JP2013117896A (en) Person detection device, person detection method and person detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5163564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150