JP4797720B2 - Monitoring device and method, image processing device and method, and program - Google Patents

Monitoring device and method, image processing device and method, and program Download PDF

Info

Publication number
JP4797720B2
JP4797720B2 JP2006071676A JP2006071676A JP4797720B2 JP 4797720 B2 JP4797720 B2 JP 4797720B2 JP 2006071676 A JP2006071676 A JP 2006071676A JP 2006071676 A JP2006071676 A JP 2006071676A JP 4797720 B2 JP4797720 B2 JP 4797720B2
Authority
JP
Japan
Prior art keywords
approaching
approaching person
posture
image
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006071676A
Other languages
Japanese (ja)
Other versions
JP2007251556A (en
Inventor
丹一 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2006071676A priority Critical patent/JP4797720B2/en
Publication of JP2007251556A publication Critical patent/JP2007251556A/en
Application granted granted Critical
Publication of JP4797720B2 publication Critical patent/JP4797720B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は監視装置および方法、画像処理装置および方法、並びにプログラムに関し、特に、監視の対象であるものの周囲の状況をより正確に通知できるようにした監視装置および方法、画像処理装置および方法、並びにプログラムに関する。   The present invention relates to a monitoring apparatus and method, an image processing apparatus and method, and a program, and more particularly to a monitoring apparatus and method, an image processing apparatus and method, and an image processing apparatus and method capable of more accurately notifying a surrounding situation of an object to be monitored. Regarding the program.

近年、車両の盗難事故件数は増加傾向にあり、その対策として様々な車両監視システムが提案されている。   In recent years, the number of vehicle theft accidents has been increasing, and various vehicle monitoring systems have been proposed as countermeasures.

例えば、従来の車両監視システムには、車両に設置された監視装置において盗難予備行為、すなわち車両における異状が検知されると、通信網を介して監視装置に接続されているセンタ装置から利用者の携帯電話機に、車両において異状が検知された旨の警戒情報が送信されるものもある(例えば、特許文献1参照)。   For example, in a conventional vehicle monitoring system, when a theft preparatory action, that is, an abnormality in a vehicle, is detected in a monitoring device installed in the vehicle, the center device connected to the monitoring device via a communication network can Some mobile phones transmit warning information indicating that an abnormality has been detected in the vehicle (see, for example, Patent Document 1).

この車両監視システムにおいては、監視装置において異状が検知されると、監視装置からセンタ装置に検知された異状を示す盗難予備行為情報が送信され、センタ装置において、盗難予備行為情報に基づいて、携帯電話機に警戒情報を送信するか否かの判定が行われる。   In this vehicle monitoring system, when an abnormality is detected in the monitoring device, theft preliminary action information indicating the detected abnormality is transmitted from the monitoring device to the center device. A determination is made as to whether to send alert information to the telephone.

特開2002−304686号公報Japanese Patent Laid-Open No. 2002-304686

しかしながら、上述した技術においては、利用者が所有する携帯電話機には、車両において異状が検知された旨のメッセージが表示されるか、または予め用意された車両の周囲の状況を示すいくつかの画像のうちのいずれかが表示されるだけであった。そのため、利用者には、車両の周囲に人が接近した、車両に人が進入したといった程度の情報が提示されるだけであり、利用者は、監視の対象である車両の周囲の状況を正確に知ることができなかった。   However, in the above-described technique, a message indicating that an abnormality has been detected in the vehicle is displayed on the mobile phone owned by the user, or some images indicating the situation around the vehicle prepared in advance. Only one of them was displayed. Therefore, the user is only presented with information to the extent that a person has approached the vehicle or a person has entered the vehicle, and the user can accurately determine the situation around the vehicle being monitored. Could not know.

したがって、例えば、車両に人が接近した場合、利用者には、車両への人の接近が検知された旨の情報が提示されるだけであるので、利用者は提示された情報だけでは、車両に接近した人が車両付近を通過する通行人であるのか、または車両に進入しようとしたり、車両を窃盗しようとしたりする悪意のある不審者であるのかを判断することができず、ストレスが溜まってしまう恐れがあった。   Thus, for example, when a person approaches the vehicle, the user is only presented with information indicating that the approach of the person to the vehicle has been detected. It is difficult to determine whether a person approaching the vehicle is a passerby who passes near the vehicle, or a malicious suspicious person trying to enter the vehicle or steal the vehicle. There was a fear.

また、車両の周囲の状況をより正確に利用者に通知するために、監視装置が車両の周囲の画像を撮影し、センタ装置が利用者の携帯電話機に撮影された画像を送信することもできるが、そのような場合、送信される画像はそのデータ量が多いので、利用者が携帯電話機の使用、すなわち携帯電話機とセンタ装置との通信の対価として支払う通信料が高くなってしまい現実的ではなかった。   In addition, in order to notify the user of the situation around the vehicle more accurately, the monitoring device can capture an image of the periphery of the vehicle and the center device can transmit the image captured on the user's mobile phone. However, in such a case, since the amount of data of the transmitted image is large, the communication fee that the user pays for the use of the mobile phone, that is, the communication between the mobile phone and the center device becomes high, which is not realistic. There wasn't.

本発明は、このような状況に鑑みてなされたものであり、より正確に監視の対象となるものの周囲の状況を把握できるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to grasp the situation around the subject of monitoring more accurately.

本発明の第1の側面の監視装置は、監視対象であるものの周囲の領域である監視領域を撮影する撮影手段と、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視手段と、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出し、前記接近者の姿勢を示す姿勢情報を生成する姿勢検出手段と、前記監視手段による監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置を検出し、その位置を示す位置情報を生成する位置検出手段と、前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信手段とを備える。 According to a first aspect of the present invention, there is provided a monitoring device that captures an image of a monitoring area that is a surrounding area of an object to be monitored, an approaching person approaching the object, or an approach of the approaching person. Monitoring means for monitoring contact with the object, posture detection means for detecting posture of the approaching person based on a photographed image of the monitoring area, and generating posture information indicating the posture of the approaching person, Based on the monitoring result by the monitoring means and the image, the position detecting means detects the position of the approaching person relative to the object, and generates position information indicating the position, and includes the posture information and the position information. Transmitting means for transmitting detection data indicating a posture of the approaching person and a position with respect to the approaching person.

本発明の第1の側面の監視装置においては、監視対象であるものの周囲の領域である監視領域が撮影され、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触が監視され、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢が検出されて前記接近者の姿勢を示す姿勢情報が生成され、監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置が検出されてその位置を示す位置情報が生成され、前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データが送信される。 In the monitoring apparatus according to the first aspect of the present invention, a monitoring area, which is a surrounding area of an object to be monitored, is photographed, and an approaching person approaching the object approaches the object or the object of the approaching person. The approaching person's attitude is detected and the attitude information indicating the approaching person's attitude is generated based on the image of the monitored area that has been monitored, and the attitude information indicating the approaching person's attitude is generated. Based on the monitoring result and the image The position of the approaching person with respect to the object is detected and position information indicating the position is generated, and the detection data indicating the approaching person's posture and the position with respect to the object is transmitted including the posture information and the position information. The

したがって、より正確に監視対象の周囲の状況を把握するための接近者の姿勢や位置が含まれる検出データを送信することができる。   Therefore, it is possible to transmit detection data including the approaching person's posture and position for more accurately grasping the situation around the monitoring target.

この監視装置の撮影手段は、例えば、CCD(Charge Coupled Device)撮像素子、CMOS(Complementary Metal Oxide Semiconductor)撮像素子、対数変換型撮像素子などが利用されたカメラにより構成される。また、監視手段は、例えば、ドップラセンサ、赤外線センサ、加速度センサ、静電容量式センサ、電波式センサなどの各種のセンサから構成される。さらに、姿勢検出手段、位置検出手段、および送信手段は、例えば、CPU(Central Processing Unit)により構成される。   The imaging means of this monitoring apparatus is constituted by a camera using, for example, a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, a logarithmic conversion type image sensor, or the like. Further, the monitoring means is composed of various sensors such as a Doppler sensor, an infrared sensor, an acceleration sensor, a capacitance sensor, and a radio wave sensor. Further, the posture detection means, the position detection means, and the transmission means are configured by, for example, a CPU (Central Processing Unit).

本発明の第2の側面の監視装置は、監視対象であるものの周囲の領域である監視領域を撮影する撮影手段と、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視手段と、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出し、前記接近者の姿勢を示す姿勢情報を生成する姿勢検出手段と、前記監視手段による監視結果、または前記画像に基づいて、前記接近者の前記ものに対する位置を検出し、その位置を示す位置情報を生成する位置検出手段と、前記姿勢情報および前記監視結果に基づいて、前記接近者が行った行為を推定し、その行為を示す行為情報を生成する行為推定手段と、前記姿勢情報、前記位置情報、および前記行為情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信手段とを備える。According to a second aspect of the present invention, there is provided a monitoring device for imaging a monitoring area that is a surrounding area of an object to be monitored, an approaching person approaching the object, or an approach of the approaching person. Monitoring means for monitoring contact with the object, posture detection means for detecting posture of the approaching person based on a photographed image of the monitoring area, and generating posture information indicating the posture of the approaching person, Based on the monitoring result by the monitoring means or the image, based on the position detection means for detecting the position of the approaching person relative to the object and generating position information indicating the position, the posture information and the monitoring result , An action estimation means for estimating an action performed by the approaching person and generating action information indicating the action, the posture information of the approaching person and the previous position, the posture information, the position information, and the action information. And transmitting means for transmitting the detection data indicating the position relative things.
本発明の第2の側面の監視装置においては、監視対象であるものの周囲の領域である監視領域が撮影され、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触が監視され、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢が検出され、前記接近者の姿勢を示す姿勢情報が生成され、前記監視結果、または前記画像に基づいて、前記接近者の前記ものに対する位置が検出され、その位置を示す位置情報が生成され、前記姿勢情報および前記監視結果に基づいて、前記接近者が行った行為が推定され、その行為を示す行為情報が生成され、前記姿勢情報、前記位置情報、および前記行為情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データが送信される。In the monitoring device according to the second aspect of the present invention, a monitoring area, which is a surrounding area of an object to be monitored, is photographed, and an approaching person approaching the object approaches the object or the object of the approaching person. The approaching person's posture is detected on the basis of the image of the monitoring area that has been taken and the posture information indicating the approaching person's posture is generated, based on the monitoring result or the image. The position of the approaching person relative to the object is detected, position information indicating the position is generated, and the action performed by the approaching person is estimated based on the posture information and the monitoring result to indicate the action. Action information is generated, and detection data indicating the posture of the approaching person and the position with respect to the approaching object, which includes the posture information, the position information, and the action information, is transmitted.

これにより、接近者が行った行為をより正確に把握するための行為情報が含まれる検出データを送信することができる。   Thereby, the detection data including the action information for grasping the action performed by the approaching person more accurately can be transmitted.

この監視装置の撮影手段は、例えば、CCD撮像素子、CMOS撮像素子、対数変換型撮像素子などが利用されたカメラにより構成される。また、監視手段は、例えば、ドップラセンサ、赤外線センサ、加速度センサ、静電容量式センサ、電波式センサなどの各種のセンサから構成される。さらに、姿勢検出手段、位置検出手段、行為推定手段、および送信手段は、例えば、CPUにより構成される。The imaging means of this monitoring device is constituted by a camera using, for example, a CCD imaging device, a CMOS imaging device, a logarithmic conversion type imaging device, or the like. Further, the monitoring means is composed of various sensors such as a Doppler sensor, an infrared sensor, an acceleration sensor, a capacitance sensor, and a radio wave sensor. Furthermore, the posture detection unit, the position detection unit, the action estimation unit, and the transmission unit are configured by a CPU, for example.

監視装置には、前記画像を用いて前記接近者の顔を認識し、前記接近者を特定する顔認識手段をさらに設け、前記送信手段には、特定された前記接近者を示す個人IDが含まれる前記検出データを送信させることができる。   The monitoring apparatus further includes face recognition means for recognizing the approaching person's face using the image and specifying the approaching person, and the transmission means includes a personal ID indicating the specified approaching person The detected data can be transmitted.

これにより、接近者を特定する個人IDが含まれる前記検出データを送信することができる。   Thereby, the detection data including the personal ID for specifying the approaching person can be transmitted.

この顔認識手段は、例えば、CPUにより構成される。   This face recognition means is constituted by a CPU, for example.

監視装置には、前記接近者の顔の向きまたは視線の向きを検出する顔方向検出手段をさらに設け、前記姿勢検出手段には、前記顔方向検出手段による検出結果および前記画像に基づいて、前記接近者の姿勢を検出させることができる。   The monitoring apparatus further includes a face direction detection unit that detects a face direction or a line-of-sight direction of the approaching person, and the posture detection unit includes the detection result and the image based on the detection result by the face direction detection unit. The approaching person's posture can be detected.

これにより、より正確に接近者の姿勢を検出することができる。   Thereby, the posture of the approaching person can be detected more accurately.

この顔方向検出手段は、例えば、CPUにより構成される。   This face direction detecting means is constituted by a CPU, for example.

本発明の第1の側面の監視方法またはプログラムは、監視対象であるものの周囲の領域である監視領域を撮影する撮影ステップと、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視ステップと、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出して前記接近者の姿勢を示す姿勢情報を生成する姿勢検出ステップと、前記接近者の前記ものへの接近、若しくは前記接近者の前記ものへの接触の監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置を検出してその位置を示す位置情報を生成する位置検出ステップと、前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信ステップとを含む。 The monitoring method or program according to the first aspect of the present invention includes an imaging step of imaging a monitoring area that is a surrounding area of an object to be monitored, and an approaching person approaching the object, or the approaching A monitoring step for monitoring a person's contact with the object, and a posture detection step for detecting posture of the approaching person and generating posture information indicating the approaching person's posture based on the captured image of the monitoring area When the approaching individual access to the ones, or monitoring the result of contact with the foregoing the approaching individual, and based on the image, a position indicating the position by detecting the position with respect to the ones of the approaching individual A position detecting step for generating information, and a transmitting step for transmitting detection data indicating the approaching person's posture and the position relative to the approaching object, comprising the posture information and the position information. Including the.

本発明の第1の側面の監視方法またはプログラムにおいては、監視対象であるものの周囲の領域である監視領域が撮影され、前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触が監視され、撮影された前記監視領域の画像に基づいて、前記接近者の姿勢が検出されて前記接近者の姿勢を示す姿勢情報が生成され、前記接近者の前記ものへの接近、若しくは前記接近者の前記ものへの接触の監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置が検出されてその位置を示す位置情報が生成され、前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データが送信される。 In the monitoring method or program according to the first aspect of the present invention, a monitoring area that is a surrounding area of an object to be monitored is photographed, and an approaching person approaching the object approaches the object or the approaching person's Contact with the object is monitored, and based on the captured image of the monitoring area, the attitude of the approaching person is detected and attitude information indicating the approaching person's attitude is generated, and the approaching person's attitude is generated. Based on the monitoring result of the approach of the approaching person or the approaching person to the thing, and the image, the position of the approaching person with respect to the thing is detected and position information indicating the position is generated, and the posture information and Detection data including the position information and indicating the approaching person's posture and the position of the approaching object is transmitted.

したがって、より正確に監視対象の周囲の状況を把握するための接近者の姿勢や位置が含まれる検出データを送信することができる。   Therefore, it is possible to transmit detection data including the approaching person's posture and position for more accurately grasping the situation around the monitoring target.

この撮影ステップは、例えば、カメラなどの撮像手段により監視領域を撮影する撮影ステップにより構成され、監視ステップは、例えば、センサなどにより、監視対象への接近者や、接近者の監視対象への接近または接触などを検出する監視ステップから構成され、姿勢検出ステップは、例えば、撮影された画像に基づいて接近者の姿勢をCPUにより検出する姿勢検出ステップにより構成される。また、位置検出ステップは、例えば、監視ステップにおける監視結果、および撮影された監視領域の画像に基づいて、接近者の監視対象に対する位置をCPUにより検出する位置検出ステップにより構成され、送信ステップは、例えば、姿勢情報および位置情報からなる接近者の姿勢および監視対象に対する位置を示す検出データをCPUにより送信する送信ステップとから構成される。 This imaging step is constituted by an imaging step for imaging a monitoring area by an imaging means such as a camera, for example, and the monitoring step is, for example, a sensor approaching an approaching person or an approaching person to the monitoring object. Alternatively, the posture detection step includes, for example, a posture detection step in which the posture of the approaching person is detected by the CPU based on the photographed image. Further, the position detection step includes, for example, a position detection step in which the position of the approaching person with respect to the monitoring target is detected by the CPU based on the monitoring result in the monitoring step and the captured image of the monitoring area. For example, it includes a transmission step in which detection data indicating the posture of the approaching person composed of posture information and position information and the position with respect to the monitoring target is transmitted by the CPU.

本発明の第3の側面の画像処理装置は、監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データを受信する受信手段と、前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像を生成する生成手段と、生成された前記画像を表示する表示手段とを備え、前記生成手段は、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像を生成するAn image processing apparatus according to a third aspect of the present invention receives detection data including posture information indicating a posture of an approaching person approaching an object to be monitored and position information indicating a position of the approaching person with respect to the object. And generating means for generating an image of the approaching person in the posture indicated by the one and the posture information, and notifying the approaching person of the approaching to the one based on the detection data. And display means for displaying the generated image , the generating means based on the detection data including a personal ID indicating the approaching person, in the face portion of the approaching person in the image, The image for notifying the approach of the approaching person is generated so that an image of the face related to the personal ID recorded in advance is displayed .

本発明の第3の側面の画像処理装置においては、監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データが受信され、前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像が生成され、生成された前記画像が表示される。また、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像が生成される。 In the image processing apparatus according to the third aspect of the present invention, detection data including posture information indicating the posture of an approaching person approaching the object to be monitored and position information indicating the position of the approaching person with respect to the object is received. Based on the detection data, an image of the approaching person in the posture indicated by the thing and the posture information, and an image notifying the approaching person of approaching to the thing is generated and generated. The image is displayed. In addition, based on the detection data including the personal ID indicating the approaching person, a face image related to the personal ID recorded in advance is displayed on the face part of the approaching person in the image. As described above, the image notifying the approach of the approaching person to the object is generated.

したがって、監視対象の周囲の状況をより正確に把握することができる。   Therefore, the situation around the monitoring target can be grasped more accurately.

この受信手段および生成手段は、例えば、CPUにより構成され、表示手段は、例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)、プラズマディスプレイなどにより構成される。   The receiving means and the generating means are constituted by, for example, a CPU, and the display means is constituted by, for example, an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube), a plasma display, or the like.

前記生成手段には、2次元または3次元の前記画像を生成させることができる。   The generation unit can generate the two-dimensional or three-dimensional image.

これにより、監視対象の周囲の状況をより正確に把握できる画像を表示することができる。   Thereby, the image which can grasp | ascertain the condition around the monitoring object more correctly can be displayed.

前記生成手段には、各時刻における前記姿勢情報および前記位置情報からなる前記検出データに基づいて、前記接近者の位置および姿勢の変化をアニメーション表示させるための前記画像を生成させることができる。   The generation means can generate the image for displaying animation of a change in the position and posture of the approaching person based on the detection data including the posture information and the position information at each time.

これにより、接近者の軌跡を正確に把握することができる画像を表示することができる。   Thereby, the image which can grasp | ascertain an approaching person's locus | trajectory correctly can be displayed.

前記生成手段には、前記接近者が行った行為を示す行為情報が含まれる前記検出データに基づいて、前記画像を生成させることができる。   The generation unit may generate the image based on the detection data including action information indicating an action performed by the approaching person.

これにより、接近者が行った行為を正確に把握することができる画像を表示することができる。   Thereby, the image which can grasp | ascertain correctly the action which the approacher performed can be displayed.

本発明の第3の側面の画像処理方法またはプログラムは、監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データを受信する受信ステップと、前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像を生成する生成ステップと、生成された前記画像を表示する表示ステップとを含み、前記生成ステップにおいて、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像を生成するAccording to a third aspect of the present invention, there is provided an image processing method or program comprising: detection data comprising posture information indicating a posture of an approaching person approaching the object to be monitored; and position information indicating a position of the approaching person relative to the object. Based on the receiving step of receiving and the detection data, the image of the approaching person in the posture indicated by the posture information and the posture information, the image notifying the approaching of the approaching person to the one is generated. A generation step; and a display step for displaying the generated image. In the generation step, a part of the face of the approaching person in the image based on the detection data including a personal ID indicating the approaching person The image for notifying the approach of the approaching person so that the face image associated with the personal ID recorded in advance is displayed Generated.

本発明の第3の側面の画像処理方法またはプログラムにおいては、監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データが受信され、前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像が生成され、生成された前記画像が表示される。また、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像が生成される。 In the image processing method or program according to the third aspect of the present invention, detection data comprising posture information indicating the posture of an approaching person approaching the object to be monitored and position information indicating the position of the approaching person relative to the object. Is generated based on the detection data, and the image of the approaching person in the posture indicated by the posture information and the posture information, and notifying the approaching person of the approaching to the thing is generated and generated. The image thus displayed is displayed. In addition, based on the detection data including the personal ID indicating the approaching person, a face image related to the personal ID recorded in advance is displayed on the face part of the approaching person in the image. As described above, the image notifying the approach of the approaching person to the object is generated.

したがって、監視対象の周囲の状況をより正確に把握することができる。   Therefore, the situation around the monitoring target can be grasped more accurately.

この受信ステップは、例えば、姿勢情報および位置情報からなる検出データをCPUにより受信する受信ステップにより構成され、生成ステップは、例えば、受信された検出データに基づいて、監視対象、および姿勢情報により示される姿勢の接近者の画像をCPUにより生成する生成ステップにより構成され、表示ステップは、例えば、LCD、CRT、プラズマディスプレイなどに生成ステップにおいて生成された画像を表示する表示ステップにより構成される。   This reception step includes, for example, a reception step in which detection data including posture information and position information is received by the CPU, and the generation step is indicated by, for example, a monitoring target and posture information based on the received detection data. The display step includes, for example, a display step of displaying the image generated in the generation step on an LCD, a CRT, a plasma display, or the like.

本発明の第1の側面および第2の側面によれば、監視対象に接近する接近者を検出することができる。特に、本発明の第1の側面および第2の側面によれば、より正確に監視対象の周囲の状況を把握するための検出データを送信することができる。 According to the first aspect and the second aspect of the present invention, it is possible to detect an approaching person approaching the monitoring target. In particular, according to the first aspect and the second aspect of the present invention, it is possible to transmit detection data for more accurately grasping the situation around the monitoring target.

また、本発明の第3の側面によれば、画像を表示することができる。特に、本発明の第3の側面によれば、監視対象の周囲の状況をより正確に把握することができる。 According to the third aspect of the present invention, an image can be displayed. In particular, according to the third aspect of the present invention, it is possible to more accurately grasp the situation around the monitoring target.

以下、図面を参照して本発明を適用した実施の形態について説明する。   Embodiments to which the present invention is applied will be described below with reference to the drawings.

図1は、本発明を適用した監視システムの一実施の形態の構成例を示している。この監視システムは、監視装置11、センタ装置12、および端末装置13から構成され、監視装置11、センタ装置12、および端末装置13は、ネットワーク14を介して互いに接続されている。   FIG. 1 shows a configuration example of an embodiment of a monitoring system to which the present invention is applied. This monitoring system includes a monitoring device 11, a center device 12, and a terminal device 13, and the monitoring device 11, the center device 12, and the terminal device 13 are connected to each other via a network 14.

監視装置11は、監視する対象であるもの(以下、監視対象と称する)を盗難、破壊、進入などの被害から保護するために、監視対象に接近する人(以下、接近者と称する)、監視対象への不審行為を監視する。   The monitoring device 11 is a person approaching the monitoring target (hereinafter referred to as an approaching person), monitoring in order to protect the object to be monitored (hereinafter referred to as the monitoring target) from damage such as theft, destruction, or entry. Monitor suspicious activity on the subject.

例えば、監視装置11が監視する対象となるものは、動産、不動産を問わず、建物、部屋、オフィス、店舗、事務所、車両、倉庫、ロッカー、家財、動物、農作物などとすることができる。また、監視対象に対する不審行為としては、例えば、人体に対する危害行為、ストーカー行為、嫌がらせ、盗難、破壊、放火、不正侵入などとされる。   For example, what is monitored by the monitoring device 11 can be a building, a room, an office, a store, an office, a vehicle, a warehouse, a locker, a household item, an animal, a crop, etc., regardless of whether it is movable property or real estate. In addition, the suspicious acts on the monitoring target include, for example, harming acts on human bodies, stalking acts, harassment, theft, destruction, arson, unauthorized intrusion, and the like.

監視装置11は、監視対象に接近する接近者を検出し、検出した接近者を特定する個人ID(Identification)、接近者の姿勢を示す姿勢情報、接近者が行っている行為を示す行為情報、および接近者の監視対象に対する位置を示す位置情報からなる検出データを生成する。そして、監視装置11は、生成した検出データを監視の結果を示すデータとして、ネットワーク14を介してセンタ装置12に送信する。   The monitoring device 11 detects an approaching person approaching the monitoring target, and identifies a detected approaching person ID (Identification), attitude information indicating the approaching person's attitude, action information indicating an action performed by the approaching person, Detection data including position information indicating the position of the approaching person with respect to the monitoring target is generated. The monitoring device 11 transmits the generated detection data to the center device 12 via the network 14 as data indicating the monitoring result.

ここで、ネットワーク14は、例えば、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)、または公衆回線網等に代表される、有線または無線からなる、1つまたは複数のネットワークにより構成される。   Here, the network 14 is configured by one or a plurality of networks made of wired or wireless, such as the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), or a public network. The

センタ装置12は、監視装置11から送信されてきた検出データを受信して記録する。また、センタ装置12は、監視装置11から検出データを受信すると、検出データを受信した旨の受信通知をネットワーク14を介して端末装置13に送信する。さらに、センタ装置12は、端末装置13からの要求に応じて、監視装置11から受信した検出データを、ネットワーク14を介して端末装置13に送信する。   The center device 12 receives and records the detection data transmitted from the monitoring device 11. When the center device 12 receives the detection data from the monitoring device 11, the center device 12 transmits a reception notification indicating that the detection data has been received to the terminal device 13 via the network 14. Further, the center device 12 transmits the detection data received from the monitoring device 11 to the terminal device 13 via the network 14 in response to a request from the terminal device 13.

端末装置13は、例えば、コンピュータ、携帯情報端末装置、携帯電話機などの情報処理端末装置から構成される。端末装置13は、センタ装置12から送信されてくる受信通知を受信して、その受信通知を表示する。   The terminal device 13 includes an information processing terminal device such as a computer, a portable information terminal device, and a mobile phone. The terminal device 13 receives the reception notification transmitted from the center device 12, and displays the reception notification.

また、端末装置13は、利用者の操作に応じて検出データの受信が指示されると、センタ装置12から検出データを受信し、受信した検出データに基づいて監視対象および接近者の画像(以下、通知画像と称する)を表示する。なお、この通知画像には、監視対象とともに、位置情報により示される位置に、姿勢情報により示される姿勢の接近者が表示される。   In addition, when the terminal device 13 is instructed to receive the detection data in accordance with the operation of the user, the terminal device 13 receives the detection data from the center device 12, and based on the received detection data, the image of the monitoring target and the approaching person (hereinafter, referred to as the monitoring object). , Referred to as a notification image). In this notification image, the approaching person indicated by the posture information is displayed at the position indicated by the position information together with the monitoring target.

したがって、監視システムにおいては、端末装置13を所有する利用者は、通知画像を確認することによって監視対象の周囲の状況を正確に把握することができる。これにより、利用者は、接近者が監視対象の付近を通過する通行人であるのか、または監視対象に不審行為を行う不審者であるのかを容易に判断することができる。   Therefore, in the monitoring system, the user who owns the terminal device 13 can accurately grasp the situation around the monitoring target by confirming the notification image. Thereby, the user can easily determine whether the approaching person is a passerby passing near the monitoring target or a suspicious person who performs a suspicious action on the monitoring target.

なお、以下においては、監視装置11が監視対象としての車両内に設置される例について説明するが、上述したように監視対象は車両に限られる訳ではない。   In the following, an example in which the monitoring device 11 is installed in a vehicle as a monitoring target will be described. However, as described above, the monitoring target is not limited to the vehicle.

監視装置11は、例えば、車両のダッシュボードや天井に設置され、車両に接近する接近者を監視する。図2は、監視装置11の構成例を示すブロック図である。   The monitoring device 11 is installed on, for example, a dashboard or ceiling of a vehicle and monitors an approaching person approaching the vehicle. FIG. 2 is a block diagram illustrating a configuration example of the monitoring device 11.

監視装置11は、撮像部41、センサ部42、および監視部43から構成される。   The monitoring device 11 includes an imaging unit 41, a sensor unit 42, and a monitoring unit 43.

撮像部41は、CCD(Charge Coupled Device)撮像素子、CMOS(Complementary Metal Oxide Semiconductor)撮像素子、または対数変換型撮像素子などが利用されたカメラから構成され、監視の対象となる車両の周囲の領域である監視領域を撮影し、これにより得られた画像を監視部43に供給する。   The imaging unit 41 includes a camera using a CCD (Charge Coupled Device) imaging device, a CMOS (Complementary Metal Oxide Semiconductor) imaging device, a logarithmic conversion imaging device, or the like, and is an area around a vehicle to be monitored Is taken, and an image obtained thereby is supplied to the monitoring unit 43.

例えば、車両の運転席に座っている運転者から見て正面方向、すなわち運転席からフロントグラスに向かう方向を前方とすると、撮像部41を構成する複数のカメラは、それぞれ前方、後方、右方向、左方向、右斜め前方、左斜め前方、右斜め後方、および左斜め後方の計8方向に向けられて固定され、それぞれの方向の監視領域を撮影するようになされている。   For example, assuming that the front direction when viewed from the driver sitting in the driver's seat of the vehicle, that is, the direction from the driver's seat toward the windshield is the front, the plurality of cameras constituting the imaging unit 41 are the front, rear, and right directions, respectively. The left direction, the right oblique front, the left oblique front, the right oblique rear, and the left oblique rear are fixed in a total of eight directions, and the monitoring area in each direction is photographed.

なお、撮像部41を構成するカメラは、1つであっても複数であってもよい。また、撮像部41を構成するカメラの撮影範囲を拡大させるために、カメラのレンズとして広角レンズや魚眼レンズを用いるようにしてもよい。   In addition, the camera which comprises the imaging part 41 may be one, or plural. Further, in order to expand the shooting range of the camera constituting the imaging unit 41, a wide-angle lens or a fish-eye lens may be used as the camera lens.

センサ部42は、例えば、ドップラセンサ、赤外線センサ、加速度センサ、静電容量式センサ、電波式センサなどの各種のセンサから構成される。センサ部42は、例えば、車両のドアやトランクなどの開閉、ドアやトランクなどへのものの接近または接触、車両へのもの(例えば、人など)の接近およびそのものの車両に対する方向や距離、車両に設けられたキーシリンダの異常、車両の傾きや振動などを検出し、その検出の結果を示すセンサデータを監視部43に供給する。   The sensor unit 42 includes various sensors such as a Doppler sensor, an infrared sensor, an acceleration sensor, a capacitance sensor, and a radio wave sensor. For example, the sensor unit 42 opens and closes the doors and trunks of the vehicle, approaches or contacts the doors and trunks, approaches the vehicle (for example, people), and the direction and distance of the vehicle itself. An abnormality of the provided key cylinder, vehicle inclination, vibration, and the like are detected, and sensor data indicating the detection result is supplied to the monitoring unit 43.

監視部43は、撮像部41から供給された画像、およびセンサ部42から供給されたセンサデータに基づいて車両に対する接近者を検出し、検出データを生成する。監視部43は、位置検出部51、特徴点抽出部52、個人ID保持部53、顔認識部54、顔向き検出部55、姿勢検出部56、行為推定部57、検出データ生成部58、および通信部59から構成される。   The monitoring unit 43 detects an approaching person to the vehicle based on the image supplied from the imaging unit 41 and the sensor data supplied from the sensor unit 42, and generates detection data. The monitoring unit 43 includes a position detection unit 51, a feature point extraction unit 52, a personal ID holding unit 53, a face recognition unit 54, a face direction detection unit 55, a posture detection unit 56, an action estimation unit 57, a detection data generation unit 58, and The communication unit 59 is configured.

位置検出部51は、センサ部42から供給されたセンサデータに基づいて、車両に対する接近者の位置を検出し、その検出結果を示す位置情報を行為推定部57および検出データ生成部58に供給する。例えば、接近者の位置は、車両内の所定の位置、または監視装置11を基準とする3次元空間上の位置とされる。   The position detection unit 51 detects the position of an approaching person with respect to the vehicle based on the sensor data supplied from the sensor unit 42, and supplies position information indicating the detection result to the action estimation unit 57 and the detection data generation unit 58. . For example, the position of the approaching person is a predetermined position in the vehicle or a position on the three-dimensional space with reference to the monitoring device 11.

特徴点抽出部52は、撮像部41から供給された画像から接近者の身体重心、頭頂部、手先、足先などの特徴点を抽出し、抽出した特徴点を顔認識部54および姿勢検出部56に供給する。   The feature point extraction unit 52 extracts feature points such as the body's center of gravity, the top of the head, the hands, and the toes from the image supplied from the imaging unit 41, and the extracted feature points are used as the face recognition unit 54 and the posture detection unit. 56.

個人ID保持部53は、予め登録されている人、または監視装置11によって過去に検出された接近者を特定する個人ID、およびその個人IDに関係付けられた人の顔の目、口、鼻などの所定の部位の位置を示すテンプレートを保持している。   The personal ID holding unit 53 is a personal ID that identifies a pre-registered person or an approaching person detected in the past by the monitoring device 11, and the eyes, mouth, and nose of the face of the person related to the personal ID. A template indicating the position of a predetermined part such as is held.

顔認識部54は、個人ID保持部53に保持されている個人IDを参照し、撮像部41から供給された画像、および特徴点抽出部52から供給された特徴点に基づいて画像に写っている接近者の顔認識を行い、接近者を特定する。顔認識部54は、顔認識を行うと、顔認識の結果を示す情報を顔向き検出部55に供給するとともに、顔認識の結果特定された接近者を示す個人IDを検出データ生成部58に供給する。   The face recognizing unit 54 refers to the personal ID held in the personal ID holding unit 53, and appears in the image based on the image supplied from the imaging unit 41 and the feature points supplied from the feature point extracting unit 52. Recognize the approaching person's face and identify the approaching person. When the face recognition unit 54 performs face recognition, the face recognition unit 54 supplies information indicating the result of face recognition to the face direction detection unit 55 and supplies a personal ID indicating an approaching person identified as a result of face recognition to the detection data generation unit 58. Supply.

顔向き検出部55は、顔認識部54から供給された顔認識の結果を示す情報に基づいて、接近者の顔の向きおよび視線の向きを検出し、その検出結果を示す情報を姿勢検出部56に供給する。   The face direction detection unit 55 detects the direction of the approaching person's face and the direction of the line of sight based on the information indicating the result of the face recognition supplied from the face recognition unit 54, and sends the information indicating the detection result to the posture detection unit. 56.

姿勢検出部56は、特徴点抽出部52から供給された特徴点、および顔向き検出部55から供給された検出結果に基づいて、接近者の姿勢を検出し、その検出結果を示す姿勢情報を行為推定部57および検出データ生成部58に供給する。   The posture detection unit 56 detects the approaching posture of the approaching person based on the feature points supplied from the feature point extraction unit 52 and the detection results supplied from the face direction detection unit 55, and uses posture information indicating the detection results. It supplies to the action estimation part 57 and the detection data generation part 58.

行為推定部57は、センサ部42から供給されたセンサデータ、位置検出部51から供給された位置情報、および姿勢検出部56から供給された姿勢情報に基づいて接近者の行為を推定し、その推定結果を示す行為情報を検出データ生成部58に供給する。   The action estimation unit 57 estimates the approach of the approaching person based on the sensor data supplied from the sensor unit 42, the position information supplied from the position detection unit 51, and the posture information supplied from the posture detection unit 56. Action information indicating the estimation result is supplied to the detection data generation unit 58.

検出データ生成部58は、顔認識部54から供給された個人ID、姿勢検出部56から供給された姿勢情報、行為推定部57から供給された行為情報、および位置検出部51から供給された位置情報に基づいて検出データを生成し、通信部59に供給する。通信部59は、検出データ生成部58から供給された検出データを、ネットワーク14を介してセンタ装置12に送信する。   The detection data generation unit 58 includes the personal ID supplied from the face recognition unit 54, the posture information supplied from the posture detection unit 56, the action information supplied from the action estimation unit 57, and the position supplied from the position detection unit 51. Detection data is generated based on the information and supplied to the communication unit 59. The communication unit 59 transmits the detection data supplied from the detection data generation unit 58 to the center device 12 via the network 14.

次に、図3は、図1に示したセンタ装置12の構成例を示すブロック図である。   Next, FIG. 3 is a block diagram showing a configuration example of the center apparatus 12 shown in FIG.

センタ装置12は、通信部81、制御部82、および記録部83から構成される。   The center device 12 includes a communication unit 81, a control unit 82, and a recording unit 83.

通信部81は、ネットワーク14を介して監視装置11または端末装置13と通信を行い、各種のデータを送受信する。制御部82は、センタ装置12全体を制御する。また、制御部82は、通知生成部91を含む。制御部82の通知生成部91は、監視装置11から検出データが受信された旨の受信通知を生成する。記録部83は、例えば、ハードディスクなどから構成され、監視装置11から受信した検出データなどの各種のデータを記録する。   The communication unit 81 communicates with the monitoring device 11 or the terminal device 13 via the network 14 to transmit / receive various data. The controller 82 controls the center device 12 as a whole. The control unit 82 includes a notification generation unit 91. The notification generation unit 91 of the control unit 82 generates a reception notification indicating that the detection data has been received from the monitoring device 11. The recording unit 83 includes, for example, a hard disk and records various data such as detection data received from the monitoring device 11.

図4は、図1に示した端末装置13の構成例を示すブロック図である。   FIG. 4 is a block diagram illustrating a configuration example of the terminal device 13 illustrated in FIG. 1.

端末装置13は、通信部121、入力部122、制御部123、通知画像生成部124、および表示部125から構成される。   The terminal device 13 includes a communication unit 121, an input unit 122, a control unit 123, a notification image generation unit 124, and a display unit 125.

通信部121は、ネットワーク14を介して監視装置11またはセンタ装置12と通信を行い、各種のデータを送受信する。入力部122は、例えば、ボタン、スイッチなどから構成され、利用者の操作に応じた指令を制御部123に供給する。   The communication unit 121 communicates with the monitoring device 11 or the center device 12 via the network 14 to transmit / receive various data. The input unit 122 includes, for example, buttons and switches, and supplies commands to the control unit 123 according to user operations.

制御部123は、端末装置13全体を制御する。通知画像生成部124は、センタ装置12から受信した検出データに基づいて、監視対象および接近者の通知画像を生成する。表示部125は、例えば、LCD(Liquid Crystal Display)などから構成され、制御部123または通知画像生成部124から供給された画像を表示する。   The control unit 123 controls the entire terminal device 13. The notification image generation unit 124 generates a notification image of the monitoring target and the approaching person based on the detection data received from the center device 12. The display unit 125 is configured by, for example, an LCD (Liquid Crystal Display) or the like, and displays an image supplied from the control unit 123 or the notification image generation unit 124.

ところで、利用者が車両に設置された監視装置11を操作するか、または端末装置13を操作して監視する対象である車両の監視を指示すると、監視装置11は、その指示に応じて監視処理を開始する。以下、図5のフローチャートを参照して、監視装置11による監視処理について説明する。   By the way, when the user operates the monitoring device 11 installed in the vehicle or instructs the monitoring of the vehicle to be monitored by operating the terminal device 13, the monitoring device 11 performs a monitoring process in accordance with the instruction. To start. Hereinafter, the monitoring process by the monitoring device 11 will be described with reference to the flowchart of FIG.

ステップS11において、撮像部41は、車両の周辺の撮影を開始する。すなわち、撮像部41は、監視領域の画像を撮影し、撮影された画像を位置検出部51、特徴点抽出部52、および顔認識部54に供給する。   In step S11, the imaging unit 41 starts photographing around the vehicle. That is, the imaging unit 41 captures an image of the monitoring area, and supplies the captured image to the position detection unit 51, the feature point extraction unit 52, and the face recognition unit 54.

ステップS12において、センサ部42は、接近者の車両への接近の監視を開始する。例えば、センサ部42は、車両への接近者の接近、接近者の方向および車両からの距離、接近者の車両の各部位への接近および接触などを検出し、その結果を示すセンサデータを位置検出部51および行為推定部57に供給する。   In step S12, the sensor unit 42 starts monitoring the approach of the approaching person to the vehicle. For example, the sensor unit 42 detects the approach of the approaching person to the vehicle, the approaching person's direction and the distance from the vehicle, the approaching person's approach to and contact with each part of the vehicle, and positions sensor data indicating the result. It supplies to the detection part 51 and the action estimation part 57. FIG.

ステップS13において、位置検出部51は、撮像部41から供給された画像、およびセンサ部42から供給されたセンサデータに基づいて、車両への人の接近が検出されたか否かを判定する。   In step S <b> 13, the position detection unit 51 determines whether the approach of a person to the vehicle is detected based on the image supplied from the imaging unit 41 and the sensor data supplied from the sensor unit 42.

例えば、位置検出部51は、車両へのものの接近が検出された旨の検出データがセンサ部42から供給されると、人の接近が検出されたと判定する。また、例えば、撮像部41から位置検出部51に供給された画像において、動くものが検出された場合に人の接近が検出されたと判定されるようにしてもよい。   For example, the position detection unit 51 determines that the approach of a person has been detected when detection data indicating that the approach of a vehicle has been detected is supplied from the sensor unit 42. For example, in the image supplied from the imaging unit 41 to the position detection unit 51, it may be determined that the approach of a person is detected when a moving object is detected.

ステップS13において、人の接近が検出されなかったと判定された場合、ステップS13に戻り、人の接近が検出されたと判定されるまで、判定の処理が繰り返される。   If it is determined in step S13 that no human approach has been detected, the process returns to step S13, and the determination process is repeated until it is determined that a human approach has been detected.

これに対して、ステップS13において、人の接近が検出されたと判定された場合、ステップS14に進み、特徴点抽出部52は、撮像部41から供給された画像から、接近者の特徴点を抽出し、抽出した特徴点を顔認識部54および姿勢検出部56に供給する。   On the other hand, if it is determined in step S13 that the approach of a person has been detected, the process proceeds to step S14, and the feature point extraction unit 52 extracts the feature point of the approaching person from the image supplied from the imaging unit 41. The extracted feature points are supplied to the face recognition unit 54 and the posture detection unit 56.

例えば、特徴点抽出部52は、撮像部41から供給された画像から動くものを検出して、検出されたもののうち、肌色の画素が含まれるものを接近者とする。次に、特徴点抽出部52は、画像から接近者のシルエット画像とその輪郭を抽出し、抽出されたシルエット画像に距離変換処理などを施して接近者の身体重心および上半身主軸を求める。   For example, the feature point extraction unit 52 detects moving objects from the image supplied from the imaging unit 41, and among those detected, those that include skin-colored pixels are regarded as approaching persons. Next, the feature point extraction unit 52 extracts the silhouette image of the approaching person and its outline from the image, and performs distance conversion processing etc. on the extracted silhouette image to obtain the body gravity center and upper body principal axis of the approaching person.

さらに、特徴点抽出部52は、抽出された接近者の輪郭から足先、手先、および頭頂部の位置を検出し、検出された接近者の身体重心、頭頂部、手先、足先を特徴点として画像から抽出する。そして、特徴点抽出部52は、このようにして抽出された特徴点、より詳細には特徴点の位置を示す情報を顔認識部54および姿勢検出部56に供給する。   Further, the feature point extraction unit 52 detects the positions of the toes, the hands, and the top of the head from the extracted outline of the approaching person, and the detected body centroid, the top of the head, the hand, and the toes are feature points. Extracted from the image. Then, the feature point extraction unit 52 supplies the feature point extracted in this way, more specifically, information indicating the position of the feature point to the face recognition unit 54 and the posture detection unit 56.

また、例えば、撮像部41を構成するカメラとして、赤外線カメラが含まれるようにし、赤外線カメラにより撮影された熱画像を用いて接近者のシルエット画像を抽出するようにしてもよい。   Further, for example, an infrared camera may be included as a camera constituting the imaging unit 41, and a silhouette image of an approaching person may be extracted using a thermal image taken by the infrared camera.

ステップS15において、顔認識部54は、撮像部41から供給された画像、および特徴点抽出部52から供給された特徴点に基づいて画像に写っている接近者の顔認識を行い、接近者を特定する。   In step S <b> 15, the face recognition unit 54 recognizes the approaching person in the image based on the image supplied from the imaging unit 41 and the feature point supplied from the feature point extraction unit 52, and selects the approaching person. Identify.

例えば、顔認識部54は、撮像部41から供給された画像における、頭頂部などの特徴点の付近の領域を接近者の顔の領域とし、テンプレートマッチングなどにより接近者の目、口、鼻などの顔の所定の部位の位置を検出する。そして、顔認識部54は、検出された接近者の顔の各部位の位置と、個人ID保持部53に保持されている、個人IDに関係付けられたテンプレートにより示される人の顔の各部位の位置とを比較して、接近者を特定する。   For example, the face recognizing unit 54 uses an area in the vicinity of a feature point such as the top of the image supplied from the imaging unit 41 as the area of the approaching person's face, and the approaching person's eyes, mouth, nose, etc. by template matching or the like. The position of a predetermined part of the face is detected. Then, the face recognizing unit 54 detects the position of each part of the detected approaching person's face and each part of the human face indicated by the template associated with the personal ID held in the personal ID holding part 53. The approaching person is identified by comparing with the position of.

また、比較の結果、接近者が特定されなかった場合、すなわち、接近者の顔の各部位の位置と、テンプレートにより示される人の顔の各部位の位置との比較の結果、接近者が、個人ID保持部53に保持されている個人IDにより特定される人とは異なる人であった場合、顔認識部54は、その接近者のテンプレートを生成し、生成したテンプレートと、その接近者を特定する新たな個人ID、すなわち個人ID保持部53に保持されていない新たな個人IDとを関係付けて個人ID保持部53に供給して保持させる。   As a result of the comparison, if the approaching person is not specified, that is, as a result of the comparison between the position of each part of the approaching person's face and the position of each part of the person's face indicated by the template, When the person is different from the person specified by the personal ID held in the personal ID holding unit 53, the face recognition unit 54 generates a template of the approaching person, and displays the generated template and the approaching person. A new personal ID to be identified, that is, a new personal ID not held in the personal ID holding unit 53 is related and supplied to the personal ID holding unit 53 for holding.

そして、接近者が特定されると、顔認識部54は、その接近者を特定する個人IDを検出データ生成部58に供給する。また、顔認識部54は、接近者の顔の画像、およびその画像における接近者の顔の各部位の位置を示す情報を、顔認識の結果を示す情報として顔向き検出部55に供給する。   When the approaching person is specified, the face recognition unit 54 supplies a personal ID that specifies the approaching person to the detection data generation unit 58. In addition, the face recognition unit 54 supplies an image of the approaching person's face and information indicating the position of each part of the approaching person's face in the image to the face direction detection unit 55 as information indicating the result of face recognition.

ステップS16において、顔向き検出部55は、顔認識部54から供給された顔認識の結果を示す情報に基づいて、接近者の顔の向きを検出する。例えば、顔向き検出部55は、顔認識の結果を示す情報により示される接近者の目の数、鼻の向きや位置などに基づいて接近者の顔の方向を検出する。   In step S <b> 16, the face direction detection unit 55 detects the face direction of the approaching person based on the information indicating the result of face recognition supplied from the face recognition unit 54. For example, the face direction detection unit 55 detects the face direction of the approaching person based on the number of approaching eyes indicated by the information indicating the result of face recognition, the direction and position of the nose, and the like.

ステップS17において、顔向き検出部55は、顔認識部54から供給された顔認識の結果を示す情報に基づいて、接近者の視線の向きを検出し、接近者の顔の向きおよび視線の向きを示す情報を姿勢検出部56に供給する。例えば、顔向き検出部55は、顔認識の結果を示す情報により示される接近者の目の眼球の中心位置と瞳孔の中心位置とを検出し、眼球の中心位置と瞳孔の中心位置とを結ぶベクトルの方向を接近者の視線の方向とする。   In step S <b> 17, the face direction detection unit 55 detects the direction of the approaching person's line of sight based on the information indicating the face recognition result supplied from the face recognition unit 54, and the approaching person's face direction and the direction of the line of sight Is supplied to the posture detection unit 56. For example, the face orientation detection unit 55 detects the center position of the eyeball and the center position of the pupil of the approaching eye indicated by the information indicating the result of face recognition, and connects the center position of the eyeball and the center position of the pupil. Let the direction of the vector be the direction of the line of sight of the approaching person.

ステップS18において、姿勢検出部56は、特徴点抽出部52から供給された特徴点、および顔向き検出部55から供給された検出結果に基づいて、接近者の姿勢を検出し、その検出結果を示す姿勢情報を生成する。例えば、生成された姿勢情報には、接近者の視線の方向を示す情報も含まれている。姿勢検出部56は、生成した姿勢情報を行為推定部57および検出データ生成部58に供給する。   In step S18, the posture detection unit 56 detects the posture of the approaching person based on the feature point supplied from the feature point extraction unit 52 and the detection result supplied from the face direction detection unit 55, and the detection result is obtained. The attitude information shown is generated. For example, the generated posture information includes information indicating the direction of the line of sight of the approaching person. The posture detection unit 56 supplies the generated posture information to the action estimation unit 57 and the detection data generation unit 58.

例えば、姿勢検出部56は、特徴点および検出結果を用いて、遺伝的アルゴリズムにより接近者の肘や膝の位置を検出し、その検出結果に基づいて接近者の姿勢を検出する。   For example, the posture detection unit 56 detects the positions of the approaching elbows and knees using a genetic algorithm using the feature points and the detection result, and detects the approaching person's posture based on the detection result.

ステップS19において、位置検出部51は、センサ部42から供給されたセンサデータに基づいて、車両に対する接近者の位置を検出し、その検出結果を示す位置情報を行為推定部57および検出データ生成部58に供給する。   In step S <b> 19, the position detection unit 51 detects the position of the approaching person with respect to the vehicle based on the sensor data supplied from the sensor unit 42, and uses the position information indicating the detection result as the action estimation unit 57 and the detection data generation unit. 58.

ステップS20において、行為推定部57は、センサ部42からのセンサデータ、位置検出部51からの位置情報、および姿勢検出部56からの姿勢情報に基づいて、接近者の行為を推定し、その推定結果を示す行為情報を検出データ生成部58に供給する。   In step S <b> 20, the action estimation unit 57 estimates the approach of the approaching person based on the sensor data from the sensor unit 42, the position information from the position detection unit 51, and the posture information from the posture detection unit 56. Action information indicating the result is supplied to the detection data generation unit 58.

例えば、位置情報により示される接近者の位置が、車両から所定の距離以上離れた位置であり、姿勢情報により示される接近者の視線の方向が車両の方向とは異なる方向を向いており、さらにセンサ部42から、接近者が所定の方向に所定の速度で移動している旨のセンサデータが供給された場合、行為推定部57は、接近者が車両の付近を通行している旨の行為情報を生成する。   For example, the position of the approaching person indicated by the position information is a position away from the vehicle by a predetermined distance or more, the direction of the approaching person's line of sight indicated by the posture information is in a direction different from the direction of the vehicle, and When sensor data indicating that an approaching person is moving in a predetermined direction at a predetermined speed is supplied from the sensor unit 42, the action estimation unit 57 performs an action indicating that the approaching person is passing near the vehicle. Generate information.

また、例えば、姿勢情報により示される接近者の姿勢が車両の方向に手を伸ばしている姿勢、例えば接近者の体の部位のうち最も車両に近い部位が手であり、センサ部42から接近者が車両のドアハンドルに接触した旨のセンサデータが供給された場合、行為推定部57は、接近者が車両のドアを開けようとしている旨の行為情報を生成する。   Further, for example, the posture of the approaching person indicated by the posture information is a posture in which the hand is reaching in the direction of the vehicle, for example, the part closest to the vehicle among the body parts of the approaching person is the hand. When sensor data indicating that the vehicle has touched the door handle of the vehicle is supplied, the action estimating unit 57 generates action information indicating that the approaching person is trying to open the door of the vehicle.

さらに、例えば、位置情報により示される接近者の位置が、車両から所定の距離以内の位置であり、姿勢情報により示される接近者の顔および視線の方向が車両の方向である場合、行為推定部57は、接近者が車両を覗き込んでいる旨の行為情報を生成する。   Furthermore, for example, when the position of the approaching person indicated by the position information is a position within a predetermined distance from the vehicle, and the direction of the approaching person's face and line of sight indicated by the posture information is the direction of the vehicle, the action estimation unit 57 generates action information indicating that the approaching person is looking into the vehicle.

ステップS21において、検出データ生成部58は、位置検出部51からの位置情報、行為推定部57からの行為情報、姿勢検出部56からの姿勢情報、および顔認識部54からの個人IDを基に、個人ID、位置情報、姿勢情報、行為情報、および接近者が検出された時刻が含まれる検出データを生成して通信部59に供給する。   In step S21, the detection data generation unit 58 is based on the position information from the position detection unit 51, the action information from the action estimation unit 57, the posture information from the posture detection unit 56, and the personal ID from the face recognition unit 54. Detection data including personal ID, position information, posture information, action information, and time when an approaching person is detected is generated and supplied to the communication unit 59.

ステップS22において、通信部59は、検出データ生成部58から供給された検出データを、ネットワーク14を介してセンタ装置12に送信し、処理はステップS13に戻る。なお、この監視処理は、例えば、利用者により監視装置11が操作されるか、または端末装置13が操作されて監視の終了が指示されると終了される。   In step S22, the communication unit 59 transmits the detection data supplied from the detection data generation unit 58 to the center device 12 via the network 14, and the process returns to step S13. Note that this monitoring process is terminated when, for example, the monitoring device 11 is operated by the user or the terminal device 13 is operated to instruct the end of the monitoring.

このようにして、監視装置11は、利用者の車両を監視し、車両への接近者を検出する。そして、監視装置11は、検出した接近者の車両に対する位置、接近者の姿勢、接近者の行為、接近者を特定する個人IDなどを示す検出データをセンタ装置12に送信する。   In this way, the monitoring device 11 monitors the user's vehicle and detects an approaching person to the vehicle. The monitoring device 11 transmits detection data indicating the detected position of the approaching person with respect to the vehicle, the approaching person's posture, the approaching person's action, a personal ID identifying the approaching person, and the like to the center device 12.

このように、検出された接近者の姿勢や位置、接近者を特定する個人IDが含まれる検出データをセンタ装置12に送信するようにしたので、利用者が所有する端末装置13に、より正確に車両の周囲の状況を把握するための情報を送信することができる。   As described above, since the detected data including the detected posture and position of the approaching person and the personal ID for identifying the approaching person is transmitted to the center device 12, the terminal device 13 owned by the user is more accurately transmitted. The information for grasping the situation around the vehicle can be transmitted.

なお、ステップS13において、複数の接近者が検出された場合、監視装置11は、検出された接近者の数だけ検出データを生成してセンタ装置12に送信する。すなわち、監視装置11は、検出された接近者のそれぞれに対して、ステップS14の処理乃至ステップS22の処理を行う。   When a plurality of approaching persons are detected in step S <b> 13, the monitoring apparatus 11 generates detection data for the number of detected approaching persons and transmits the detection data to the center apparatus 12. That is, the monitoring device 11 performs the process from step S14 to step S22 on each detected approaching person.

監視装置11からセンタ装置12に検出データが送信されると、センタ装置12は、その検出データを受信し、端末装置13からの要求に応じて受信した検出データを端末装置13に送信する。   When the detection data is transmitted from the monitoring device 11 to the center device 12, the center device 12 receives the detection data, and transmits the received detection data to the terminal device 13 in response to a request from the terminal device 13.

次に、図6のフローチャートを参照して、センタ装置12による検出データ送信処理について説明する。   Next, detection data transmission processing by the center device 12 will be described with reference to the flowchart of FIG.

ステップS51において、制御部82は、監視装置11から検出データが送信されてきたか否かを判定する。ステップS51において、検出データが送信されてきてないと判定された場合、ステップS52の処理乃至ステップS54の処理はスキップされて、ステップS55に進む。   In step S <b> 51, the control unit 82 determines whether detection data has been transmitted from the monitoring device 11. If it is determined in step S51 that the detection data has not been transmitted, the process from step S52 to step S54 is skipped and the process proceeds to step S55.

これに対して、ステップS51において、検出データが送信されてきたと判定された場合、ステップS52に進み、通信部81は、監視装置11から送信されてきた検出データを受信して、受信した検出データを制御部82を介して記録部83に供給する。記録部83は、通信部81から供給された検出データを記録する。   On the other hand, if it is determined in step S51 that the detection data has been transmitted, the process proceeds to step S52 where the communication unit 81 receives the detection data transmitted from the monitoring device 11 and receives the received detection data. Is supplied to the recording unit 83 via the control unit 82. The recording unit 83 records the detection data supplied from the communication unit 81.

例えば、記録部83は、図7に示すように、監視装置11から供給された検出データを個人IDごとにまとめて記録する。   For example, as shown in FIG. 7, the recording unit 83 records the detection data supplied from the monitoring device 11 together for each personal ID.

図7には、個人ID“20060123001”が含まれている検出データ、個人ID“20060123002”が含まれている検出データ、個人ID“20060123003”が含まれている検出データ、および個人ID“20060123004”が含まれている検出データがそれぞれまとめられて記録されている。   In FIG. 7, the detection data including the personal ID “20060123001”, the detection data including the personal ID “20060123002”, the detection data including the personal ID “20060123003”, and the personal ID “20060123004” The detection data that contain is collectively recorded.

また、個人ID“20060123001”が含まれている検出データとして、検出時刻が“10:00:00”である検出データ、および検出時刻が“10:00:30”である検出データが記録されている。例えば、検出時刻“10:00:00”は、受信した検出データに含まれる時刻が10時10分00秒であることを示しており、検出時刻が“10:00:00”である検出データには、その時刻に検出された接近者の位置情報、姿勢情報、および行為情報が含まれている。   In addition, as detection data including the personal ID “20060123001”, detection data whose detection time is “10:00:00” and detection data whose detection time is “10:00:30” are recorded. Yes. For example, the detection time “10:00:00” indicates that the time included in the received detection data is 10:10:00, and the detection data is “10:00:00”. Includes the position information, posture information, and action information of the approaching person detected at that time.

図6のフローチャートの説明に戻り、ステップS53において、制御部82の通知生成部91は、検出データを受信した旨の受信通知を生成し、通信部81に供給する。例えば、通知生成部91は、受信された検出データに含まれる時刻に、接近者が検出された旨のメッセージが含まれる電子メールを受信通知として生成する。   Returning to the description of the flowchart of FIG. 6, in step S <b> 53, the notification generation unit 91 of the control unit 82 generates a reception notification indicating that the detection data has been received and supplies the reception notification to the communication unit 81. For example, the notification generation unit 91 generates, as a reception notification, an e-mail including a message indicating that an approaching person is detected at a time included in the received detection data.

ステップS54において、通信部81は、通知生成部91から供給された受信通知を、ネットワーク14を介して端末装置13に送信する。   In step S <b> 54, the communication unit 81 transmits the reception notification supplied from the notification generation unit 91 to the terminal device 13 via the network 14.

ステップS54において受信通知が送信されるか、ステップS51において検出データが送信されてきてないと判定されると、ステップS55において、制御部82は、端末装置13から検出データの送信が要求されたか否かを判定する。例えば、制御部82は、端末装置13から検出データの送信を要求する旨の送信要求が送信されてくると、検出データの送信が要求されたと判定する。   If a reception notification is transmitted in step S54 or if it is determined in step S51 that detection data has not been transmitted, in step S55, the control unit 82 determines whether transmission of detection data has been requested from the terminal device 13. Determine whether. For example, when a transmission request for requesting transmission of detection data is transmitted from the terminal device 13, the control unit 82 determines that transmission of detection data is requested.

ステップS55において、検出データの送信が要求されていないと判定された場合、受信した検出データを送信しないので、処理はステップS51に戻り、上述した処理が繰り返される。   If it is determined in step S55 that transmission of detection data is not requested, the received detection data is not transmitted, so the process returns to step S51 and the above-described process is repeated.

これに対して、ステップS55において、検出データの送信が要求されたと判定された場合、通信部81は、端末装置13から送信されてきた送信要求を受信して制御部82に供給する。制御部82は、送信要求が供給されると、記録部83から検出データを取得して通信部81に供給し、処理はステップS56に進む。   On the other hand, when it is determined in step S55 that the transmission of the detection data is requested, the communication unit 81 receives the transmission request transmitted from the terminal device 13 and supplies it to the control unit 82. When the transmission request is supplied, the control unit 82 acquires the detection data from the recording unit 83 and supplies the detection data to the communication unit 81, and the process proceeds to step S56.

ステップS56において、通信部81は、制御部82から供給された検出データを、ネットワーク14を介して端末装置13に送信し、処理はステップS51に戻る。   In step S56, the communication unit 81 transmits the detection data supplied from the control unit 82 to the terminal device 13 via the network 14, and the process returns to step S51.

なお、センタ装置12から端末装置13に送信される検出データは、センタ装置12が監視装置11から最後に受信した検出データ、すなわち最も新しい時刻(現在時刻に近い時刻)が含まれている検出データとしてもよいし、まだ端末装置13に送信されていない全ての検出データとしてもよい。また、端末装置13に送信される検出データは、最後に受信した検出データに含まれる時刻を含む所定の期間内の時刻が含まれる複数の検出データであって、同じ個人IDが含まれている検出データとしてもよい。   The detection data transmitted from the center device 12 to the terminal device 13 is the detection data last received by the center device 12 from the monitoring device 11, that is, detection data including the latest time (time close to the current time). Or all detected data that has not yet been transmitted to the terminal device 13. The detection data transmitted to the terminal device 13 is a plurality of detection data including times within a predetermined period including the time included in the last received detection data, and includes the same personal ID. It may be detected data.

さらに、制御部82が、検出データが添付された電子メールを生成するようにし、通信部81が制御部82により生成された電子メールを送信するようにしてもよい。   Furthermore, the control unit 82 may generate an e-mail with detection data attached, and the communication unit 81 may transmit the e-mail generated by the control unit 82.

このようにして、センタ装置12は、監視装置11から検出データを受信し、端末装置13からの要求に応じて、受信した検出データを端末装置13に送信する。   In this way, the center device 12 receives the detection data from the monitoring device 11 and transmits the received detection data to the terminal device 13 in response to a request from the terminal device 13.

センタ装置12から端末装置13に送信される検出データには、接近者の位置情報、姿勢情報、行為情報、個人IDなどの、利用者に接近者の姿勢や行為を通知するための情報が含まれているが、検出データは、監視領域を撮影した画像と比べるとのそのデータ量が非常に少ないため、利用者の端末装置13の通信料に負担がかかるようなことはない。   The detection data transmitted from the center device 12 to the terminal device 13 includes information for notifying the user of the approach or action of the approaching person such as approaching person position information, posture information, action information, and personal ID. However, since the amount of detected data is very small compared to an image obtained by photographing the monitoring area, there is no burden on the communication fee of the user terminal device 13.

また、検出データのデータ量は、撮影された画像のデータ量に比べて非常に少ないので、ネットワーク14における通信速度が画像を送信するには充分でない場合においても、センタ装置12は迅速に検出データを送信することができ、接近者の検出を確実に端末装置13に通知することができる。   Further, since the data amount of the detection data is very small compared with the data amount of the photographed image, the center device 12 can quickly detect the detection data even when the communication speed in the network 14 is not sufficient to transmit the image. Can be transmitted, and the terminal device 13 can be reliably notified of the detection of the approaching person.

ところで、利用者が車両に設置された監視装置11を操作するか、または端末装置13を操作して監視する対象である車両の監視を指示すると、監視装置11が監視処理を開始するとともに、端末装置13はセンタ装置12から検出データを受信して通知画像を表示する処理である、通知処理を開始する。   By the way, when the user operates the monitoring device 11 installed in the vehicle or instructs the monitoring of the vehicle to be monitored by operating the terminal device 13, the monitoring device 11 starts the monitoring process and the terminal The device 13 starts notification processing, which is processing for receiving detection data from the center device 12 and displaying a notification image.

以下、図8のフローチャートを参照して、端末装置13による通知処理について説明する。   Hereinafter, the notification process by the terminal device 13 will be described with reference to the flowchart of FIG.

ステップS81において、制御部123は、検出データの受信が通知されたか否かを判定する。例えば、制御部123は、センタ装置12から受信通知が送信されてくると、検出データの受信が通知されたと判定する。   In step S81, the control unit 123 determines whether reception of detection data has been notified. For example, when a reception notification is transmitted from the center device 12, the control unit 123 determines that reception of detection data has been notified.

ステップS81において、検出データの受信が通知されていないと判定された場合、検出データを受信しないので、ステップS82の処理およびステップS83の処理はスキップされて、処理はステップS84に進む。   If it is determined in step S81 that reception of detection data has not been notified, detection data is not received, so the processing in step S82 and the processing in step S83 are skipped, and the processing proceeds to step S84.

これに対して、ステップS81において、検出データの受信が通知されたと判定された場合、ステップS82に進み、通信部121は、センタ装置12から送信されてきた受信通知を受信して制御部123に供給する。制御部123は、通信部121から供給された受信通知を表示部125に供給する。   On the other hand, when it is determined in step S81 that the reception of the detection data has been notified, the process proceeds to step S82, and the communication unit 121 receives the reception notification transmitted from the center device 12 and sends it to the control unit 123. Supply. The control unit 123 supplies the reception notification supplied from the communication unit 121 to the display unit 125.

ステップS83において、表示部125は、制御部123から供給された受信通知を表示して、利用者に検出データの受信、すなわち車両に対する接近者の検出を通知する。例えば、表示部125は、受信通知として受信された電子メールに含まれるメッセージを表示する。なお、表示部125に受信通知を表示するとともに、音声を再生して利用者に車両に対する接近者が検出された旨を通知するようにしてもよい。   In step S83, the display unit 125 displays the reception notification supplied from the control unit 123 and notifies the user of detection data reception, that is, detection of an approaching person to the vehicle. For example, the display unit 125 displays a message included in an e-mail received as a reception notification. Note that a reception notification may be displayed on the display unit 125, and a sound may be reproduced to notify the user that an approaching vehicle has been detected.

ステップS84において、制御部123は、利用者により検出データの受信が要求されたか否かを判定する。例えば、表示された受信通知を確認した利用者が入力部122を操作して検出データの受信を指示すると、入力部122から制御部123には、利用者の操作に応じた指令が供給される。制御部123は、入力部122から検出データの受信を要求する指令が供給された場合、検出データの受信が要求されたと判定する。   In step S84, the control unit 123 determines whether or not the user has requested reception of detection data. For example, when a user who has confirmed the displayed reception notification operates the input unit 122 to instruct reception of detected data, the input unit 122 supplies a command corresponding to the user operation to the control unit 123. . The control unit 123 determines that reception of the detection data is requested when an instruction for requesting reception of the detection data is supplied from the input unit 122.

ステップS84において、検出データの受信が要求されていないと判定された場合、検出データを受信しないので、ステップS81に戻り上述した処理が繰り返される。   If it is determined in step S84 that reception of detection data is not requested, detection data is not received, so the process returns to step S81 and the above-described processing is repeated.

これに対して、ステップS84において、検出データの受信が要求されたと判定された場合、制御部123は、検出データの送信を要求する送信要求を生成し、通信部121に供給して処理はステップS85に進む。   On the other hand, when it is determined in step S84 that reception of the detection data is requested, the control unit 123 generates a transmission request for requesting transmission of the detection data and supplies the transmission request to the communication unit 121. Proceed to S85.

ステップS85において、通信部121は、制御部123から供給された送信要求を、ネットワーク14を介してセンタ装置12に送信する。   In step S <b> 85, the communication unit 121 transmits the transmission request supplied from the control unit 123 to the center device 12 via the network 14.

送信要求がセンタ装置12に送信されると、センタ装置12から端末装置13には検出データが送信されてくるので、ステップS86において、通信部121は、センタ装置12から送信されてきた検出データを受信して、受信した検出データを、制御部123を介して通知画像生成部124に供給する。   When the transmission request is transmitted to the center device 12, the detection data is transmitted from the center device 12 to the terminal device 13. Therefore, in step S86, the communication unit 121 transmits the detection data transmitted from the center device 12. The received detection data is supplied to the notification image generation unit 124 via the control unit 123.

ステップS87において、通知画像生成部124は、受信された検出データに基づいて通知画像を生成し、表示部125に供給する。   In step S <b> 87, the notification image generation unit 124 generates a notification image based on the received detection data and supplies the notification image to the display unit 125.

例えば、通知画像生成部124は、利用者本人や車両を駐車する駐車場の管理人など、予め登録されている個人IDにより特定される人の顔の画像、監視装置11が設置される車両の画像、および2次元または3次元の所定の人のモデルの画像を記録している。ここで、通知画像生成部124は、車両の画像および人のモデルの画像として、複数の異なる方向から撮影された車両の画像および人のモデルの画像を記録している。   For example, the notification image generation unit 124 may be an image of a person's face specified by a personal ID registered in advance, such as a user or a parking lot manager who parks the vehicle, or a vehicle in which the monitoring device 11 is installed. An image and an image of a two-dimensional or three-dimensional model of a predetermined person are recorded. Here, the notification image generation unit 124 records a vehicle image and a human model image taken from a plurality of different directions as a vehicle image and a human model image.

通知画像生成部124は、記録している人のモデルの画像、個人IDにより特定される人の顔の画像、および車両の画像を適宜用いて、検出データに基づいて2次元または3次元の通知画像を生成する。   The notification image generation unit 124 uses a recorded person model image, a person face image specified by the personal ID, and a vehicle image as appropriate, and performs two-dimensional or three-dimensional notification based on the detection data. Generate an image.

より具体的には、例えば、通知画像生成部124は、記録している車両の画像および人のモデルの画像を用いて、人のモデルの姿勢が、検出データに含まれている姿勢情報により示される姿勢となるように、記録している人のモデルの手、足などの各部位を変形させて、変形された姿勢情報により示される姿勢の人のモデルの画像を生成する。そして、通知画像生成部124は、生成した姿勢情報により示される姿勢の人のモデルの画像、すなわち接近者の画像が、車両に対して位置情報により示される位置に表示されるように通知画像を生成する。   More specifically, for example, the notification image generation unit 124 uses the recorded vehicle image and human model image to indicate the posture of the human model by the posture information included in the detection data. Each part of the recorded person's model such as a hand and a foot is deformed so as to obtain a posture of the person, and an image of the person's model having the posture indicated by the deformed posture information is generated. Then, the notification image generation unit 124 displays the notification image so that the image of the human model in the posture indicated by the generated posture information, that is, the image of the approaching person is displayed at the position indicated by the position information with respect to the vehicle. Generate.

このとき、通知画像生成部124は、検出データに含まれている個人IDにより特定される人の画像を記録している場合には、通知画像の人のモデルの顔の部分にその個人IDにより特定される人の顔の画像が表示されるように通知画像を生成する。このように、予め登録されている人の顔の画像を表示させることで、利用者は、接近者が不審者であるか否かを直ちに判断することができる。   At this time, when the image of the person specified by the personal ID included in the detection data is recorded, the notification image generation unit 124 uses the personal ID in the face part of the human model of the notification image. A notification image is generated so that an image of the face of the identified person is displayed. In this way, by displaying the face image of a person registered in advance, the user can immediately determine whether or not the approaching person is a suspicious person.

また、個人IDにより特定される人の画像が記録されていない場合には、通知画像生成部124が、同じ個人IDにより特定される人の画像の色、例えば、その人の服の色が常に同じ色で表示されるように通知画像を生成して、表示された接近者が、以前検出された接近者と同じ人物であるか否かを利用者が容易に判断できるようにしてもよい。   When the image of the person specified by the personal ID is not recorded, the notification image generation unit 124 always displays the color of the person's image specified by the same personal ID, for example, the color of the person's clothes. The notification image may be generated so as to be displayed in the same color, so that the user can easily determine whether the displayed approaching person is the same person as the approaching person detected before.

さらに、通知画像生成部124は、通知画像において、接近者が車両に隠れて見えなくならないように、すなわち接近者が車両よりも手前側に表示されるように、所定の方向から車両および接近者を見た画像を通知画像として生成する。   Further, the notification image generation unit 124 prevents the approaching person from being hidden behind the vehicle in the notification image, that is, the approaching person is displayed on the near side of the vehicle. Is generated as a notification image.

通知画像が生成されると、ステップS88において、表示部125は、通知画像生成部124から供給された通知画像を表示し、処理はステップS81に戻り、上述した処理が繰り返される。これにより、表示部125には、例えば、図9に示す通知画像が表示される。   When the notification image is generated, in step S88, the display unit 125 displays the notification image supplied from the notification image generation unit 124, the process returns to step S81, and the above-described processing is repeated. Thereby, the notification image shown in FIG. 9 is displayed on the display unit 125, for example.

図9は、2次元の通知画像の表示例を示しており、通知画像は、車両151をその側面から見た画像とされている。図9に示される通知画像では、監視対象としての車両151のドアが開けられ、車両151に接近者152が進入しようとしている画像が表示されている。   FIG. 9 shows a display example of a two-dimensional notification image. The notification image is an image of the vehicle 151 viewed from the side. In the notification image shown in FIG. 9, an image in which the door of the vehicle 151 as the monitoring target is opened and the approaching person 152 is about to enter the vehicle 151 is displayed.

このように、検出データに基づいて、通知画像を生成して表示するので、利用者は通知画像を見ることで、接近者152が利用者の知らない人であり、車両151のドアを開けたこと、および接近者152が車両151に進入しようとしていることを瞬時に把握することができる。すなわち、利用者は通知画像を見ることにより、より迅速に、より正確に監視対象である車両151の周囲の状況を把握することができる。   As described above, since the notification image is generated and displayed based on the detection data, the user sees the notification image, so that the approaching person 152 is a person unknown to the user and opens the door of the vehicle 151. And that the approaching person 152 is about to enter the vehicle 151 can be grasped instantaneously. That is, the user can grasp the situation around the vehicle 151 to be monitored more quickly and accurately by looking at the notification image.

また、表示部125には、例えば、図10に示す通知画像が表示される。   Further, for example, a notification image shown in FIG. 10 is displayed on the display unit 125.

図10は、3次元の通知画像の表示例を示しており、通知画像は、車両151をその斜め前方から見た画像とされている。図10に示される通知画像では、監視対象である車両151の手前を接近者152が通行している画像が表示されている。   FIG. 10 shows a display example of a three-dimensional notification image. The notification image is an image obtained by viewing the vehicle 151 from an oblique front. In the notification image shown in FIG. 10, an image in which the approaching person 152 is passing in front of the vehicle 151 to be monitored is displayed.

このように、検出データに基づいて、通知画像を生成して表示するので、利用者は通知画像を見ることで、接近者152は利用者の知らない人であるが、接近者152は、車両151の付近を通過する通行人であると瞬時に把握することができる。   As described above, since the notification image is generated and displayed based on the detection data, the user views the notification image, so that the approaching person 152 is a person unknown to the user, but the approaching person 152 is the vehicle. It is possible to instantly recognize that the person is a passerby who passes the vicinity of 151.

なお、通知画像の表示例は、図9および図10に示した例に限らず、例えば、通知画像に、“人が車に侵入しようとしています”などといった検出データに含まれる行為情報に基づくメッセージが表示されるようにしてもよいし、接近者により接触された車両の部位が車両の色とは異なる色で表示されて強調されたり点滅させたりするようにしてもよい。   Note that the display example of the notification image is not limited to the example illustrated in FIGS. 9 and 10. For example, the notification image is based on action information included in detection data such as “a person is about to enter a car”. A message may be displayed, or the part of the vehicle touched by the approaching person may be displayed in a color different from the color of the vehicle and highlighted or blinked.

また、所定の期間の検出データが受信されるようにして、過去に接近者が検出された位置が点滅して表示されるようにしたり、所定の期間の各時刻において接近者が検出された位置に接近者の残像が表示されるようにしたりしてもよい。   Also, detection data for a predetermined period is received so that a position where an approaching person was detected in the past blinks and is displayed, or a position where an approaching person is detected at each time of a predetermined period The afterimage of the approaching person may be displayed on the screen.

さらに、所定の期間の接近者の位置および姿勢の変化、すなわち過去の接近者の動きがアニメーション表示されるようにしてもよいし、所定の期間、例えば、過去1分間の接近者の位置および行為が繰り返し表示されるようにしてもよい。   Further, changes in the position and posture of the approaching person for a predetermined period, that is, past movements of the approaching person may be displayed as an animation. May be displayed repeatedly.

さらに、また、検出データに含まれる行為情報が、接近者がドアハンドルに接触した旨の行為情報である場合に、ドアハンドルがクローズアップされて表示されたり、キーシリンダにおいて異物が検出された場合には、接近者が手に異物を把持している画像が表示されたりするようにしてもよい。   Furthermore, when the action information included in the detection data is action information indicating that an approaching person has touched the door handle, the door handle is displayed in close-up, or a foreign object is detected in the key cylinder Alternatively, an image in which an approaching person holds a foreign object in his / her hand may be displayed.

なお、通知処理は、利用者により入力部122が操作されて車両の監視の終了が指示され、入力部122から制御部123に利用者の操作に応じた指令が供給されると終了する。また、上述した検出データを受信して、通知画像を表示する処理は、例えば、ウェブブラウザが利用されて行われる。   Note that the notification process ends when the user operates the input unit 122 to instruct the end of vehicle monitoring, and a command corresponding to the user's operation is supplied from the input unit 122 to the control unit 123. Moreover, the process which receives the detection data mentioned above and displays a notification image is performed using a web browser, for example.

このようにして、端末装置13は、センタ装置12から検出データを受信し、受信した検出データに基づいて通知画像を生成して表示する。   In this way, the terminal device 13 receives the detection data from the center device 12, and generates and displays a notification image based on the received detection data.

このように、受信した検出データに基づいて、監視対象および検出された姿勢の接近者の通知画像を表示することで、利用者は、監視対象である車両の周囲の状況を正確に把握することができる。   In this way, by displaying the notification image of the monitoring target and the approaching person of the detected posture based on the received detection data, the user can accurately grasp the situation around the vehicle that is the monitoring target. Can do.

以上のように、検出された接近者の姿勢や位置、接近者を特定する個人IDが含まれる検出データを送信するようにしたので、利用者が所有する端末装置13により正確に車両の周囲の状況を把握するための情報を送信することができる。   As described above, since the detected data including the detected posture and position of the approaching person and the personal ID for specifying the approaching person are transmitted, the terminal device 13 owned by the user can accurately detect the surroundings of the vehicle. Information for grasping the situation can be transmitted.

また、通知画像として、検出データにより示される位置に、検出データにより示される姿勢の接近者の画像を表示するようにしたので、利用者は、監視対象である車両の周囲の状況を正確に把握することができる。   In addition, since the image of the approaching person in the posture indicated by the detection data is displayed as the notification image at the position indicated by the detection data, the user can accurately grasp the situation around the vehicle to be monitored. can do.

なお、以上においては、監視装置11において生成された検出データが、センタ装置12を介して端末装置13に送信されると説明したが、監視装置11から検出データが直接端末装置13に送信されるようにしてもよい。また、監視装置11に表示装置を接続して、監視装置11から表示装置に検出データが送信されるようにし、表示装置において、受信された検出データに基づいて通知画像が表示されるようにしてもよい。   In the above description, it has been described that the detection data generated in the monitoring device 11 is transmitted to the terminal device 13 via the center device 12. However, the detection data is transmitted directly from the monitoring device 11 to the terminal device 13. You may do it. Further, a display device is connected to the monitoring device 11 so that detection data is transmitted from the monitoring device 11 to the display device, and a notification image is displayed on the display device based on the received detection data. Also good.

さらに、センタ装置12が、検出データに基づいて通知画像を生成し、センタ装置12が生成した通知画像を端末装置13に送信するようにしてもよい。   Furthermore, the center device 12 may generate a notification image based on the detection data, and transmit the notification image generated by the center device 12 to the terminal device 13.

さらに、また、端末装置13に過去に検出された不審者を特定する個人IDを予め登録しておき、その個人IDが含まれる検出データが受信された場合には、通知画像に表示される人のモデルが点滅して表示されるようにしたり、その人のモデルを囲む点滅する枠などが表示されるようにしたりしてもよい。   Furthermore, when a personal ID for identifying a suspicious person detected in the past is registered in the terminal device 13 in advance and detection data including the personal ID is received, the person displayed in the notification image The model may be displayed blinking, or a blinking frame surrounding the person's model may be displayed.

さらに、また、監視装置11において撮影された接近者の顔の画像が、センタ装置12から端末装置13に送信されるようにし、端末装置13において、その接近者の顔の画像が通知画像の人のモデルの顔の部分に表示されるようにしてもよい。このようにすることにより、接近者が複数いる場合には、利用者は、複数の接近者のそれぞれを容易に識別することができる。なお、行為情報により示される接近者の行為が、車両に危害を加えるような行為ではない場合には、接近者の顔の画像が端末装置13に送信されないようにすることも可能である。そのような場合、悪意のない接近者のプライバシを保護することもできる。   Furthermore, an image of the approaching person's face photographed by the monitoring device 11 is transmitted from the center device 12 to the terminal device 13. In the terminal device 13, the approaching person's face image is a person in the notification image. It may be displayed on the face portion of the model. By doing in this way, when there are a plurality of approaching persons, the user can easily identify each of the plurality of approaching persons. In addition, when the approach of the approaching person indicated by the action information is not an action that causes harm to the vehicle, it is possible to prevent the face image of the approaching person from being transmitted to the terminal device 13. In such a case, the privacy of a non-malicious approacher can also be protected.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図11は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。パーソナルコンピュータ201のCPU(Central Processing Unit)211は、ROM(Read Only Memory)212、または記録部218に記録されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)213には、CPU211が実行するプログラムやデータなどが適宜記憶される。これらのCPU211、ROM212、およびRAM213は、バス214により相互に接続されている。   FIG. 11 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 211 of the personal computer 201 executes various processes according to a program recorded in a ROM (Read Only Memory) 212 or a recording unit 218. A RAM (Random Access Memory) 213 appropriately stores programs executed by the CPU 211 and data. These CPU 211, ROM 212, and RAM 213 are connected to each other by a bus 214.

CPU211にはまた、バス214を介して入出力インターフェース215が接続されている。入出力インターフェース215には、キーボード、マウス、マイクロホンなどよりなる入力部216、ディスプレイ、スピーカなどよりなる出力部217が接続されている。CPU211は、入力部216から入力される指令に対応して各種の処理を実行する。そして、CPU211は、処理の結果を出力部217に出力する。   An input / output interface 215 is also connected to the CPU 211 via the bus 214. The input / output interface 215 is connected to an input unit 216 including a keyboard, a mouse, and a microphone, and an output unit 217 including a display and a speaker. The CPU 211 executes various processes in response to commands input from the input unit 216. Then, the CPU 211 outputs the processing result to the output unit 217.

入出力インターフェース215に接続されている記録部218は、例えばハードディスクからなり、CPU211が実行するプログラムや各種のデータを記録する。通信部219は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The recording unit 218 connected to the input / output interface 215 includes, for example, a hard disk, and records programs executed by the CPU 211 and various data. The communication unit 219 communicates with an external device via a network such as the Internet or a local area network.

また、通信部219を介してプログラムを取得し、記録部218に記録してもよい。   Further, the program may be acquired via the communication unit 219 and recorded in the recording unit 218.

入出力インターフェース215に接続されているドライブ220は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア231が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部218に転送され、記録される。   A drive 220 connected to the input / output interface 215 drives a removable medium 231 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the program or data recorded therein. Get etc. The acquired program and data are transferred to the recording unit 218 and recorded as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図11に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア231、または、プログラムが一時的もしくは永続的に格納されるROM212や、記録部218を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部219を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 11, a program recording medium that stores a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (Digital Versatile Disc) (including magneto-optical disk), or removable media 231 which is a package medium made of semiconductor memory, or ROM 212 where the program is temporarily or permanently stored, The recording unit 218 is configured by a hard disk or the like. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 219 which is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明を適用した監視システムの一実施の形態の構成例を示す図である。It is a figure which shows the structural example of one Embodiment of the monitoring system to which this invention is applied. 監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of a monitoring apparatus. センタ装置の構成を示すブロック図である。It is a block diagram which shows the structure of a center apparatus. 端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of a terminal device. 監視処理を説明するフローチャートである。It is a flowchart explaining a monitoring process. 検出データ送信処理を説明するフローチャートである。It is a flowchart explaining a detection data transmission process. 検出データの一例を示す図である。It is a figure which shows an example of detection data. 通知処理を説明するフローチャートである。It is a flowchart explaining a notification process. 通知画像の表示例を示す図である。It is a figure which shows the example of a display of a notification image. 通知画像の表示例を示す図である。It is a figure which shows the example of a display of a notification image. パーソナルコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of a personal computer.

符号の説明Explanation of symbols

11 監視装置
12 センタ装置
13 端末装置
41 撮像部
42 センサ部
43 監視部
51 位置検出部
52 特徴点抽出部
54 顔認識部
55 顔向き検出部
56 姿勢検出部
57 行為推定部
58 検出データ生成部
59 通信部
121 通信部
123 制御部
124 通知画像生成部
125 表示部
DESCRIPTION OF SYMBOLS 11 Monitoring apparatus 12 Center apparatus 13 Terminal apparatus 41 Imaging part 42 Sensor part 43 Monitoring part 51 Position detection part 52 Feature point extraction part 54 Face recognition part 55 Face direction detection part 56 Posture detection part 57 Action estimation part 58 Detection data generation part 59 Communication unit 121 Communication unit 123 Control unit 124 Notification image generation unit 125 Display unit

Claims (12)

監視対象であるものの周囲の領域である監視領域を撮影する撮影手段と、
前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視手段と、
撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出し、前記接近者の姿勢を示す姿勢情報を生成する姿勢検出手段と、
前記監視手段による監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置を検出し、その位置を示す位置情報を生成する位置検出手段と、
前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信手段と
を備える監視装置。
Photographing means for photographing a monitoring area that is a surrounding area of the monitoring target;
Monitoring means for monitoring an approaching approach of the approaching person to the thing, or a contact of the approaching person to the thing;
Posture detection means for detecting the posture of the approaching person based on the captured image of the monitoring area and generating posture information indicating the posture of the approaching person;
Position detection means for detecting a position of the approaching person relative to the one based on a monitoring result by the monitoring means and the image, and generating position information indicating the position;
A monitoring device comprising: transmission means configured to transmit detection data indicating the posture of the approaching person and the position relative to the approaching object, which includes the posture information and the position information.
監視対象であるものの周囲の領域である監視領域を撮影する撮影手段と、
前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視手段と、
撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出し、前記接近者の姿勢を示す姿勢情報を生成する姿勢検出手段と、
前記監視手段による監視結果、または前記画像に基づいて、前記接近者の前記ものに対する位置を検出し、その位置を示す位置情報を生成する位置検出手段と、
前記姿勢情報および前記監視結果に基づいて、前記接近者が行った行為を推定し、その行為を示す行為情報を生成する行為推定手段と、
前記姿勢情報、前記位置情報、および前記行為情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信手段と
を備える監視装置。
Photographing means for photographing a monitoring area that is a surrounding area of the monitoring target;
Monitoring means for monitoring an approaching approach of the approaching person to the thing, or a contact of the approaching person to the thing;
Posture detection means for detecting the posture of the approaching person based on the captured image of the monitoring area and generating posture information indicating the posture of the approaching person;
Position detection means for detecting a position of the approaching person relative to the one based on a monitoring result by the monitoring means or the image, and generating position information indicating the position;
Based on the posture information and the monitoring result, an action estimation unit that estimates an action performed by the approaching person and generates action information indicating the action ;
Transmitting means for transmitting detection data indicating the approaching person's posture and the position with respect to the approaching object, comprising the posture information, the position information, and the action information;
A monitoring device comprising:
前記画像を用いて前記接近者の顔を認識し、前記接近者を特定する顔認識手段をさらに備え、
前記送信手段は、特定された前記接近者を示す個人IDが含まれる前記検出データを送信する
請求項1または請求項2に記載の監視装置。
Recognizing the approaching person's face using the image, further comprising face recognition means for identifying the approaching person,
The transmission unit, the monitoring device according to claim 1 or claim 2 transmits the detection data including the personal ID indicating the approaching individual identified.
前記接近者の顔の向きまたは視線の向きを検出する顔方向検出手段をさらに備え、
前記姿勢検出手段は、前記顔方向検出手段による検出結果および前記画像に基づいて、前記接近者の姿勢を検出する
請求項1または請求項2に記載の監視装置。
Further comprising face direction detection means for detecting the direction of the approaching person's face or the direction of the line of sight;
It said posture detecting means, the detection result of the face direction detecting means and based on the image monitoring apparatus according to claim 1 or claim 2 for detecting the posture of the approaching individual.
監視対象であるものの周囲の領域である監視領域を撮影する撮影ステップと、
前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視ステップと、
撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出して前記接近者の姿勢を示す姿勢情報を生成する姿勢検出ステップと、
前記接近者の前記ものへの接近、若しくは前記接近者の前記ものへの接触の監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置を検出してその位置を示す位置情報を生成する位置検出ステップと、
前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信ステップと
を含む監視方法。
A shooting step for shooting a monitoring area that is a surrounding area of the monitoring target;
A monitoring step of monitoring an approaching approach of the approaching person to the approaching object or an approaching person approaching the approaching object;
A posture detection step of detecting posture of the approaching person based on the image of the captured monitoring area and generating posture information indicating the posture of the approaching person;
Based on the monitoring result of the approach of the approaching person to the thing or the contact of the approaching person to the thing, and the image, position information indicating the position of the approaching person is detected and the position information is indicated. A position detection step to generate;
A monitoring method comprising: a transmission step of transmitting detection data indicating the posture of the approaching person and the position with respect to the approaching object, comprising the posture information and the position information.
監視対象であるものの周囲の領域である監視領域を撮影する撮影ステップと、
前記ものに接近する接近者の前記ものへの接近、または前記接近者の前記ものへの接触を監視する監視ステップと、
撮影された前記監視領域の画像に基づいて、前記接近者の姿勢を検出して前記接近者の姿勢を示す姿勢情報を生成する姿勢検出ステップと、
前記接近者の前記ものへの接近、若しくは前記接近者の前記ものへの接触の監視結果、および前記画像に基づいて、前記接近者の前記ものに対する位置を検出してその位置を示す位置情報を生成する位置検出ステップと、
前記姿勢情報および前記位置情報からなる、前記接近者の姿勢および前記ものに対する位置を示す検出データを送信する送信ステップと
をコンピュータに実行させるプログラム。
A shooting step for shooting a monitoring area that is a surrounding area of the monitoring target;
A monitoring step of monitoring an approaching approach of the approaching person to the approaching object or an approaching person approaching the approaching object;
A posture detection step of detecting posture of the approaching person based on the image of the captured monitoring area and generating posture information indicating the posture of the approaching person;
Based on the monitoring result of the approach of the approaching person to the thing or the contact of the approaching person to the thing, and the image, position information indicating the position of the approaching person is detected and the position information is indicated. A position detection step to generate;
A program for causing a computer to execute a transmission step for transmitting detection data indicating the posture of the approaching person and the position of the approaching person, which includes the posture information and the position information.
監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データを受信する受信手段と、
前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像を生成する生成手段と、
生成された前記画像を表示する表示手段と
を備え、
前記生成手段は、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像を生成する
画像処理装置。
Receiving means for receiving detection data composed of posture information indicating the posture of an approaching person approaching the object to be monitored, and position information indicating the position of the approaching person with respect to the thing;
Based on the detection data, generating means for generating an image of the approaching person in the posture indicated by the posture information and the posture information and notifying the approaching person of the approaching to the thing,
Display means for displaying the generated image;
With
The generating unit is configured to generate an image of a face related to the personal ID recorded in advance in a part of the face of the approaching person in the image based on the detection data including a personal ID indicating the approaching person. Generate the image notifying the approach of the approaching person so that is displayed
Image processing device.
前記生成手段は、2次元または3次元の前記画像を生成する
請求項7に記載の画像処理装置。
The image processing apparatus according to claim 7, wherein the generation unit generates the two-dimensional or three-dimensional image.
前記生成手段は、各時刻における前記姿勢情報および前記位置情報からなる前記検出データに基づいて、前記接近者の位置および姿勢の変化をアニメーション表示させるための前記画像を生成する
請求項7に記載の画像処理装置。
The said production | generation means produces | generates the said image for carrying out the animation display of the change of the position and attitude | position of the said approaching person based on the said detection data consisting of the said attitude | position information and the said positional information at each time. Image processing device.
前記生成手段は、前記接近者が行った行為を示す行為情報が含まれる前記検出データに基づいて、前記画像を生成する
請求項7に記載の画像処理装置。
The image processing apparatus according to claim 7, wherein the generation unit generates the image based on the detection data including action information indicating an action performed by the approaching person.
監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データを受信する受信ステップと、
前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像を生成する生成ステップと、
生成された前記画像を表示する表示ステップと
を含み、
前記生成ステップにおいて、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像を生成する
画像処理方法。
A receiving step of receiving detection data composed of posture information indicating a posture of an approaching person approaching an object to be monitored, and position information indicating a position of the approaching person with respect to the thing;
Based on the detection data, a generation step of generating the image of the approaching person in the posture indicated by the posture information and the posture information, and notifying the approaching person of the approaching to the thing,
A display step for displaying the generated image;
Including
In the generating step, based on the detection data including a personal ID indicating the approaching person, an image of a face associated with the personal ID recorded in advance in the face part of the approaching person in the image Generate the image notifying the approach of the approaching person so that is displayed
Image processing method.
監視対象であるものに接近する接近者の姿勢を示す姿勢情報、および前記接近者の前記ものに対する位置を示す位置情報からなる検出データを受信する受信ステップと、
前記検出データに基づいて、前記もの、および前記姿勢情報により示される姿勢の前記接近者の画像であって、前記接近者の前記ものへの接近を通知する画像を生成する生成ステップと、
生成された前記画像を表示する表示ステップと
を含む処理をコンピュータに実行させ、
前記生成ステップにおいて、前記接近者を示す個人IDが含まれる前記検出データに基づいて、前記画像における前記接近者の顔の部分に、予め記録している前記個人IDに関係付けられた顔の画像が表示されるように、前記接近者の前記ものへの接近を通知する前記画像を生成させる
プログラム。
A receiving step of receiving detection data composed of posture information indicating a posture of an approaching person approaching an object to be monitored, and position information indicating a position of the approaching person with respect to the thing;
Based on the detection data, a generation step of generating the image of the approaching person in the posture indicated by the posture information and the posture information, and notifying the approaching person of the approaching to the thing,
Causing the computer to execute a process including a display step of displaying the generated image ,
In the generating step, based on the detection data including a personal ID indicating the approaching person, an image of a face associated with the personal ID recorded in advance in the face part of the approaching person in the image Generating the image notifying the approach of the approaching person so that is displayed
program.
JP2006071676A 2006-03-15 2006-03-15 Monitoring device and method, image processing device and method, and program Expired - Fee Related JP4797720B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006071676A JP4797720B2 (en) 2006-03-15 2006-03-15 Monitoring device and method, image processing device and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006071676A JP4797720B2 (en) 2006-03-15 2006-03-15 Monitoring device and method, image processing device and method, and program

Publications (2)

Publication Number Publication Date
JP2007251556A JP2007251556A (en) 2007-09-27
JP4797720B2 true JP4797720B2 (en) 2011-10-19

Family

ID=38595393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006071676A Expired - Fee Related JP4797720B2 (en) 2006-03-15 2006-03-15 Monitoring device and method, image processing device and method, and program

Country Status (1)

Country Link
JP (1) JP4797720B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3754618A4 (en) * 2018-12-19 2021-05-05 JVCKenwood Corporation Recording control device, recording control system, recording control method, and recording control program

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048547A (en) * 2009-08-26 2011-03-10 Toshiba Corp Abnormal-behavior detecting device, monitoring system, and abnormal-behavior detecting method
JP2011172205A (en) * 2010-01-20 2011-09-01 Canon Inc Video information processing apparatus and method
JP5872764B2 (en) * 2010-12-06 2016-03-01 富士通テン株式会社 Image display system
JP6616602B2 (en) * 2015-07-06 2019-12-04 パラマウントベッド株式会社 Subject guidance device, subject guidance method, program, and subject guidance system
JP6468444B2 (en) * 2016-04-28 2019-02-13 コベルコ建機株式会社 Construction machinery
JP7225952B2 (en) * 2019-03-12 2023-02-21 株式会社Jvcケンウッド VEHICLE RECORDING CONTROL DEVICE, VEHICLE RECORDING DEVICE, VEHICLE RECORDING CONTROL METHOD AND PROGRAM
JP7312598B2 (en) * 2019-04-24 2023-07-21 セコム株式会社 surveillance display
JP7467300B2 (en) 2020-09-17 2024-04-15 京セラ株式会社 SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM
JP7449212B2 (en) 2020-09-28 2024-03-13 京セラ株式会社 Systems, electronic devices, control methods for electronic devices, and programs
CN113240825B (en) * 2021-05-07 2023-04-18 阿波罗智联(北京)科技有限公司 Vehicle-based interaction method, device, equipment, medium and vehicle
US20230226979A1 (en) * 2022-01-18 2023-07-20 DarkStar Vision Inc. Combination mirror and display screen

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040482A (en) * 1996-07-23 1998-02-13 Hiroshi Akashi Unmanned annunciation system based on sentence information
JP2000123086A (en) * 1998-10-16 2000-04-28 Nippon Signal Co Ltd:The Electronic account settlement system
JP3489491B2 (en) * 1999-06-24 2004-01-19 日本電気株式会社 PERSONAL ANALYSIS DEVICE AND RECORDING MEDIUM RECORDING PERSONALITY ANALYSIS PROGRAM
JP3519672B2 (en) * 2000-06-19 2004-04-19 株式会社日立製作所 Motion recognition processing device and motion analysis system for moving object
JP3460680B2 (en) * 2000-07-07 2003-10-27 日本エルエスアイカード株式会社 Field situation notification system and imaging unit used for the same
JP3726695B2 (en) * 2001-04-03 2005-12-14 オムロン株式会社 Vehicle theft monitoring system, vehicle mounted device, vehicle abnormality monitoring method, vehicle theft monitoring method, vehicle theft monitoring program, and computer-readable recording medium recording the same
JP2003087771A (en) * 2001-09-07 2003-03-20 Oki Electric Ind Co Ltd Monitoring system and monitoring method
JP4322775B2 (en) * 2004-10-21 2009-09-02 富士通テン株式会社 Vehicle anti-theft device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3754618A4 (en) * 2018-12-19 2021-05-05 JVCKenwood Corporation Recording control device, recording control system, recording control method, and recording control program

Also Published As

Publication number Publication date
JP2007251556A (en) 2007-09-27

Similar Documents

Publication Publication Date Title
JP4797720B2 (en) Monitoring device and method, image processing device and method, and program
WO2020125406A1 (en) Safety guardianship method, apparatus, terminal and computer readable storage medium
TWI749113B (en) Methods, systems and computer program products for generating alerts in a video surveillance system
KR101610657B1 (en) Three-dimensional virtual entrance control and communicable disease control system and method based on entrance control data
JP4702598B2 (en) Monitoring system, monitoring apparatus and method, recording medium, and program
KR101644443B1 (en) Warning method and system using prompt situation information data
EP3410413B1 (en) Improved generation of alert events based on a detection of objects from camera images
JP5003731B2 (en) Patrol security support system, method and program
JP5523900B2 (en) Person search device, person search method, and person search program
JP5001930B2 (en) Motion recognition apparatus and method
JP6440327B2 (en) Crime prevention system, crime prevention method, and robot
JP2018181159A (en) Security system, crime prevention method, and robot
KR101442669B1 (en) Method and apparatus for criminal acts distinction using intelligent object sensing
KR101754152B1 (en) Thermal Patient Monitering System by Using Multiple Band Camera and Method thereof
JP5718632B2 (en) Part recognition device, part recognition method, and part recognition program
JP2010238204A (en) Monitoring device and monitoring method
KR20160074208A (en) System and method for providing safety service using beacon signals
KR20210019218A (en) Smart door
JP2011192157A (en) Emergency report device
JP2007206898A (en) Face authentication device and access management device
JP6044633B2 (en) Information processing apparatus, information processing method, and program
JP6810914B2 (en) Elevator remote monitoring system
JP2021196741A (en) Image processing device, image processing method and program
JP7039084B1 (en) Self-registration monitoring system and self-registration monitoring method
JP4990552B2 (en) Attention position identification system, attention position identification method, and attention position identification program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4797720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees