JP6455866B2 - Monitoring device, monitoring method, and program - Google Patents

Monitoring device, monitoring method, and program Download PDF

Info

Publication number
JP6455866B2
JP6455866B2 JP2014070722A JP2014070722A JP6455866B2 JP 6455866 B2 JP6455866 B2 JP 6455866B2 JP 2014070722 A JP2014070722 A JP 2014070722A JP 2014070722 A JP2014070722 A JP 2014070722A JP 6455866 B2 JP6455866 B2 JP 6455866B2
Authority
JP
Japan
Prior art keywords
person
gesture
sound
similarity
monitoring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014070722A
Other languages
Japanese (ja)
Other versions
JP2015191641A (en
Inventor
小田村 聡
聡 小田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Embedded Products Ltd
Original Assignee
NEC Embedded Products Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Embedded Products Ltd filed Critical NEC Embedded Products Ltd
Priority to JP2014070722A priority Critical patent/JP6455866B2/en
Publication of JP2015191641A publication Critical patent/JP2015191641A/en
Application granted granted Critical
Publication of JP6455866B2 publication Critical patent/JP6455866B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、監視装置、監視方法、及びプログラムに関する。 The present invention, monitoring apparatus, monitoring method and a program.

撮像装置を搭載し、走行状況を録画したり、撮像装置から得た画像に基づいてブレーキを掛けたりする自動車が増えている。
特許文献1には、関連する技術として、物体を検出しその物体が異常な動作をする場合に危険物体として運転手に通知する技術が記載されている。
An increasing number of automobiles are equipped with an imaging device to record a driving situation and to apply a brake based on an image obtained from the imaging device.
Japanese Patent Application Laid-Open No. 2005-228561 describes a related technology that detects an object and notifies the driver as a dangerous object when the object performs an abnormal operation.

特開2007−72641号公報JP 2007-72641 A

ところで、例えば、タクシーなどの移動体の運転手は、移動中の周囲の状況や周囲の人物が示す報知情報を見逃してしまうことにより、危険な状況や乗客を見逃すことによる損失を招く場合がある。そのため、移動体において、所定の意思を示す人物を検知し、その人物を運転手に報知する技術が求められていた。   By the way, for example, a driver of a moving body such as a taxi may cause a loss due to missing a dangerous situation or a passenger by missing a surrounding situation during movement or notification information indicated by a surrounding person. . Therefore, a technique for detecting a person showing a predetermined intention in a moving body and notifying the driver of the person has been demanded.

そこでこの発明は、上記の課題を解決することのできる監視装置、監視方法、及びプログラムを提供することを目的としている。 Therefore the invention aims to provide a monitoring device, monitoring method, and a program which can solve the above problems.

上記目的を達成するために、本発明は、移動体に取り付けられた撮像装置によって取得した取得画像から人物を抽出し、当該人物のジェスチャが所定のジェスチャを示すか否かを判定するジェスチャ判定部と、抽出した人物のジェスチャが前記所定のジェスチャである場合、前記取得画像の表示時において前記人物の画像を強調表示するよう制御する出力制御部と、前記ジェスチャ判定部によるジェスチャの類似度が低い場合、前記移動体の速度を低減する移動体制御装置を備える監視装置である。 In order to achieve the above object, the present invention extracts a person from an acquired image acquired by an imaging device attached to a moving body, and determines whether or not the person's gesture indicates a predetermined gesture. When the extracted person gesture is the predetermined gesture, the output control unit that controls to highlight the person image when the acquired image is displayed, and the gesture similarity by the gesture determination unit is low. In this case, the monitoring device includes a moving body control device that reduces the speed of the moving body .

また本発明は、移動体に取り付けられた撮像装置によって取得した取得画像から人物を抽出し、当該人物のジェスチャが所定のジェスチャを示すか否かを判定し、
抽出した人物のジェスチャが前記所定のジェスチャである場合、前記取得画像の表示時において前記人物の画像を強調表示するよう制御し、ジェスチャの類似度が低い場合、前記移動体の速度を低減するよう制御する監視方法である。
Further, the present invention extracts a person from an acquired image acquired by an imaging device attached to a moving body, determines whether the gesture of the person shows a predetermined gesture,
When the extracted gesture of the person is the predetermined gesture, the image of the person is controlled to be highlighted when the acquired image is displayed. When the similarity of the gesture is low, the speed of the moving body is reduced . It is a monitoring method to control.

また本発明は、監視装置のコンピュータを、移動体に取り付けられた撮像装置によって取得した取得画像から人物を抽出し、当該人物のジェスチャが所定のジェスチャを示すか否かを判定するジェスチャ判定手段と、抽出した人物のジェスチャが前記所定のジェスチャである場合、前記取得画像の表示時において前記人物の画像を強調表示するよう制御する出力制御手段と、ジェスチャの類似度が低い場合、前記移動体の速度を低減する移動体制御手段として機能させるためのプログラムである。
According to another aspect of the present invention, there is provided a gesture determination unit that extracts a person from an acquired image acquired by an imaging apparatus attached to a moving body, and determines whether or not the person's gesture indicates a predetermined gesture. When the extracted person gesture is the predetermined gesture, the output control means for controlling the person image to be highlighted when the acquired image is displayed, and when the similarity of the gesture is low, It is a program for functioning as a moving body control means for reducing the speed .

本発明の監視装置の処理により、移動体において、所定の意思を示す人物を検知し、その人物を運転手に報知することができる。   By the processing of the monitoring device of the present invention, a person showing a predetermined intention can be detected in the moving body and the person can be notified to the driver.

本発明の監視装置10の最小構成の一例を示す図である。It is a figure which shows an example of the minimum structure of the monitoring apparatus 10 of this invention. 本発明の第一の実施形態による監視装置10を備える監視システム1の構成の一例を示す図である。It is a figure which shows an example of a structure of the monitoring system 1 provided with the monitoring apparatus 10 by 1st embodiment of this invention. 本発明の第一の実施形態による監視装置10を備える監視システム1をタクシーに適用した一例を示す図である。It is a figure which shows an example which applied the monitoring system 1 provided with the monitoring apparatus 10 by 1st embodiment of this invention to a taxi. 本発明の第一の実施形態による監視装置10を備える監視システム1の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of the monitoring system 1 provided with the monitoring apparatus 10 by 1st embodiment of this invention. 本発明の第二の実施形態による監視装置10を備える監視システム1の構成の一例を示す図である。It is a figure which shows an example of a structure of the monitoring system 1 provided with the monitoring apparatus 10 by 2nd embodiment of this invention. 本発明の第二の実施形態による監視装置10を備える監視システム1をタクシーに適用した一例を示す図である。It is a figure which shows an example which applied the monitoring system 1 provided with the monitoring apparatus 10 by 2nd embodiment of this invention to a taxi. 本発明の第二の実施形態による監視装置10を備える監視システム1の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of the monitoring system 1 provided with the monitoring apparatus 10 by 2nd embodiment of this invention. 本発明の第三の実施形態による監視装置10を備える監視システム1をタクシーに適用した一例を示す図である。It is a figure which shows an example which applied the monitoring system 1 provided with the monitoring apparatus 10 by 3rd embodiment of this invention to a taxi. 本発明の第三の実施形態による監視装置10を備える監視システム1の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of the monitoring system 1 provided with the monitoring apparatus 10 by 3rd embodiment of this invention. 本発明の第四の実施形態による監視装置10を備える監視システム1の構成の一例を示す図である。It is a figure which shows an example of a structure of the monitoring system 1 provided with the monitoring apparatus 10 by 4th embodiment of this invention. 本発明の第四の実施形態による監視装置10を備える監視システム1の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of the monitoring system 1 provided with the monitoring apparatus 10 by 4th embodiment of this invention.

図1は、本発明の監視装置10の最小構成の一例を示す図である。
本発明の監視装置10は、図1で示すように、少なくともジェスチャ判定部101と、出力制御部102と、を備える。
監視装置10が備えるジェスチャ判定部101は、移動体に取り付けられた撮像装置によって取得した取得画像から人物を抽出する。ジェスチャ判定部101は、当該人物のジェスチャが所定のジェスチャを示すか否かを判定する。
出力制御部102は、抽出した人物のジェスチャが所定のジェスチャである場合、取得画像の表示時において人物の画像を強調表示するよう制御する。
FIG. 1 is a diagram illustrating an example of a minimum configuration of a monitoring apparatus 10 according to the present invention.
As shown in FIG. 1, the monitoring device 10 of the present invention includes at least a gesture determination unit 101 and an output control unit 102.
The gesture determination unit 101 included in the monitoring device 10 extracts a person from the acquired image acquired by the imaging device attached to the moving body. The gesture determination unit 101 determines whether or not the person's gesture indicates a predetermined gesture.
When the extracted person gesture is a predetermined gesture, the output control unit 102 performs control so that the person image is highlighted when the acquired image is displayed.

<第一の実施形態>
図2は、本発明の第一の実施形態による監視装置10を備える監視システム1の構成の一例を示す図である。
本発明の第一の実施形態による監視システム1は、図2で示すように、監視装置10と、出力部20と、撮像装置30とを備える。
<First embodiment>
FIG. 2 is a diagram illustrating an example of the configuration of the monitoring system 1 including the monitoring device 10 according to the first embodiment of the present invention.
As shown in FIG. 2, the monitoring system 1 according to the first embodiment of the present invention includes a monitoring device 10, an output unit 20, and an imaging device 30.

監視装置10は、ジェスチャ判定部101と、出力制御部102と、記憶部103とを備える。
記憶部103は、監視装置10が行う処理に必要な種々の情報を記憶する記憶部である
出力部20は、表示部201を備える。表示部201は、意思を示す人物に係る情報を示す画像や文字などを表示する。例えば、表示部201は、LCD(Liquid Crystal Display)や、LED(Light Emitting Diode)を備えるディスプレイなどである。
撮像装置30は、画像を取得する。撮像装置30は、タクシーなどの移動体に取り付けられる。
The monitoring device 10 includes a gesture determination unit 101, an output control unit 102, and a storage unit 103.
The storage unit 103 is a storage unit that stores various information necessary for processing performed by the monitoring apparatus 10. The output unit 20 includes a display unit 201. The display unit 201 displays an image, characters, or the like indicating information related to a person indicating intention. For example, the display unit 201 is an LCD (Liquid Crystal Display), a display including an LED (Light Emitting Diode), or the like.
The imaging device 30 acquires an image. The imaging device 30 is attached to a moving body such as a taxi.

図3は、本発明の第一の実施形態による監視装置10を備える監視システム1をタクシーに適用した一例を示す図である。
図3は、タクシーが撮像装置30を取り付けて走行する様子を示している。また、図3は、タクシーの走行中に撮像装置30が撮影する画像と、判定結果とを出力する出力部20を示している。
FIG. 3 is a diagram illustrating an example in which the monitoring system 1 including the monitoring device 10 according to the first embodiment of the present invention is applied to a taxi.
FIG. 3 shows a taxi traveling with the imaging device 30 attached. FIG. 3 illustrates an output unit 20 that outputs an image captured by the imaging device 30 and a determination result during taxi travel.

例えば、図3で示すように、タクシーが左車線(走行帯の領域)を走行中に、複数の撮像装置30は、前方、側面、及び後方を撮影する。監視システム1は、複数の撮像装置30のそれぞれが撮影した画像を解析する。監視システム1は、路側帯(走行帯の領域を除く領域)に人物A、B、C、及びDを検出する。監視システム1は、画像解析を行い、人物A、B、C、及びDのそれぞれが所定のジェスチャを行っているか否かを判定する。例えば、監視システム1は、人物A、B、C、及びDのそれぞれの人物画像を複数のブロックに分割し、各ブロックにおけるHOG(Histograms of Oriented Gradients)特徴と手を挙げている人物画像のHOG特徴とが所定の類似度を超えるか否かを判定する。監視システム1は、人物AとDが手を挙げていると判定した場合、前方の路側帯に検出した人物A、B、及びCの画像を表示部201に表示し、手を挙げている人物Aを表示部201に強調して表示する。また、監視システム1は、表示部201に表示する簡略化した地図上に、タクシーの位置と共に、手を挙げている人物Aの位置と人物Dの位置とハイライトなどで表示する。
なお、それぞれの人物の位置は、例えば、画像上の人物位置に応じて予め設定したタクシーの位置を基準とした推定位置である。
また、監視システム1がHOG特徴を用いて人物を検出するのは一例であり、人物を適切に検出できれば、どのような検出であってもよい。
For example, as shown in FIG. 3, while the taxi is traveling in the left lane (traveling zone region), the plurality of imaging devices 30 capture the front, side, and rear. The monitoring system 1 analyzes an image captured by each of the plurality of imaging devices 30. The monitoring system 1 detects persons A, B, C, and D in the roadside zone (region excluding the travel zone). The monitoring system 1 performs image analysis to determine whether each of the persons A, B, C, and D is performing a predetermined gesture. For example, the monitoring system 1 divides each person image of the persons A, B, C, and D into a plurality of blocks, and HOG (Histograms of Oriented Gradients) features and hands of the person images in each block. It is determined whether or not the feature exceeds a predetermined similarity. When it is determined that the persons A and D are raising their hands, the monitoring system 1 displays the images of the persons A, B, and C detected on the front roadside belt on the display unit 201, and the person raising their hands A is highlighted on the display unit 201. In addition, the monitoring system 1 displays the position of the person A raising his hand, the position of the person D and the highlight on the simplified map displayed on the display unit 201 together with the position of the taxi.
The position of each person is, for example, an estimated position based on a taxi position set in advance according to the person position on the image.
In addition, the monitoring system 1 uses the HOG feature to detect a person, which is an example. Any detection may be used as long as the person can be detected appropriately.

図4は、本発明の第一の実施形態による監視装置10を備える監視システム1の処理フローの一例を示す図である。
次に、図4を用いて、第一の実施形態による監視システム1の処理を説明する。
なお、ここでは、第一の実施形態による監視システム1をタクシーに適用した場合を例に監視システム1の処理を説明する。
FIG. 4 is a diagram illustrating an example of a processing flow of the monitoring system 1 including the monitoring device 10 according to the first embodiment of the present invention.
Next, processing of the monitoring system 1 according to the first embodiment will be described with reference to FIG.
Here, the process of the monitoring system 1 will be described by taking as an example the case where the monitoring system 1 according to the first embodiment is applied to a taxi.

タクシーが取り付けている撮像装置30は、タクシーの進行方向の道路領域を除く前方、側面、及び後方の領域(走行帯の領域を除く領域)を撮影する(ステップS1;画像入力)。撮像装置30は、撮影した撮影画像(取得した取得画像)を監視装置10に出力する。   The imaging device 30 attached to the taxi shoots the front, side, and rear areas (areas excluding the travel zone area) excluding the road area in the taxi traveling direction (step S1; image input). The imaging device 30 outputs the captured image (acquired acquired image) to the monitoring device 10.

監視装置10が備えるジェスチャ判定部101は、撮像装置30から撮影画像を入力すると、入力した撮影画像から人物を抽出する(ステップS2)。
例えば、ジェスチャ判定部101は、予め記憶した人物の特徴を示す目や鼻や口などの特徴情報と、撮影画像が示す顔の特徴情報とを比較する。ジェスチャ判定部101は、比較した2つの情報の類似度が所定の類似度以下であると判定した場合、人物は撮影されていないと判定する(ステップS2、NO)。そして、撮像装置30が前方、側面、及び後方を撮影するステップS1の処理に戻る。
また、ジェスチャ判定部101は、比較した2つの情報の類似度が所定の類似度以上であると判定した場合、撮影画像においてその類似を示す箇所に人物が撮影されていると判定する(ステップS2、YES)。
When the captured image is input from the imaging device 30, the gesture determination unit 101 included in the monitoring device 10 extracts a person from the input captured image (step S <b> 2).
For example, the gesture determination unit 101 compares pre-stored feature information such as eyes, nose, and mouth indicating the characteristics of a person with facial feature information indicated by the captured image. If the gesture determination unit 101 determines that the similarity between the two pieces of compared information is equal to or less than the predetermined similarity, the gesture determination unit 101 determines that the person has not been photographed (step S2, NO). And it returns to the process of step S1 in which the imaging device 30 images the front, side, and rear.
If the gesture determination unit 101 determines that the similarity between the two pieces of compared information is equal to or greater than a predetermined similarity, the gesture determination unit 101 determines that a person is photographed at a location showing the similarity in the photographed image (step S2). , YES).

ジェスチャ判定部101は、人物が撮影されていると判定した場合、その人物が所定のジェスチャを行っているか否かを判定する(ステップS3)。
例えば、ジェスチャ判定部101は、予め記憶した人物が手を挙げるジェスチャを示すHOG特徴情報と、撮影されている人物の撮影画像が示すジェスチャのHOG特徴情報とを比較する。ジェスチャ判定部101は、比較した2つの情報の類似度が所定の類似度以下であると判定した場合、人物は手を挙げていない(所定のジェスチャを行っていない)と判定する(ステップS3、NO)。そして、撮像装置30が前方、側面、及び後方を撮影するステップS1の処理に戻る。
また、ジェスチャ判定部101は、比較した2つの情報の類似度が所定の類似度以上であると判定した場合、人物が手を挙げている(所定のジェスチャを行っている)と判定する(ステップS3、YES)。
なお、撮像装置30の撮影位置と所定のジェスチャを行う人物との相対的な位置関係は変化する。そのため、ジェスチャ判定部101は、その相対的な位置関係の変化の影響を受けないように画像を補正するものである。
If it is determined that the person is photographed, the gesture determination unit 101 determines whether or not the person is performing a predetermined gesture (step S3).
For example, the gesture determination unit 101 compares HOG feature information indicating a gesture in which a previously stored person raises his hand with HOG feature information of a gesture indicated by a photographed image of the person being photographed. If it is determined that the similarity between the two pieces of compared information is equal to or lower than the predetermined similarity, the gesture determination unit 101 determines that the person does not raise his hand (not performing the predetermined gesture) (step S3, NO). And it returns to the process of step S1 in which the imaging device 30 images the front, side, and rear.
In addition, when the gesture determination unit 101 determines that the similarity between the two pieces of compared information is equal to or greater than a predetermined similarity, it determines that the person raises his hand (performs a predetermined gesture) (step) S3, YES).
Note that the relative positional relationship between the shooting position of the imaging device 30 and the person performing the predetermined gesture changes. Therefore, the gesture determination unit 101 corrects the image so as not to be affected by the change in the relative positional relationship.

ジェスチャ判定部101は、人物が所定のジェスチャを行っていると判定した場合、撮影画像において人物が映し出されている箇所に係る情報(以下、「人物画像情報」)を出力制御部102に出力する。
出力制御部102は、ジェスチャ判定部101から人物画像情報を入力すると、人物画像情報が示す撮影画像における人物を表示部201に強調表示させる(ステップS4)。例えば、出力制御部102は、人物画像情報が示す撮影画像における人物の周囲を四角形の赤色の枠や四角形の黄色の背景などタクシーの運転手が視認し易い色や形状などで表示する。また、例えば、ジェスチャ判定部101がタクシーの後方を撮影した撮影画像において所定のジェスチャを行う人物を検出した場合、図3で示したように、出力制御部102は、簡易化した地図上に、タクシーの位置と共に、所定のジェスチャを行った人物の位置を表示させても良い。例えば、人物の位置は、画像上の人物位置に応じて予め設定したタクシーの位置を基準とした推定位置である。なお、出力制御部102は、タクシーの後方を撮影した撮影画像において検出した人物を表示部201におけるポップアップ表示により運転手に報知するものであっても良い。例えば、出力制御部102は、タクシーの後方を撮影した撮影画像において所定のジェスチャを行う人物を検出した場合、「後方にお客様がいます」などの文字を表示部201にポップアップ表示するものであっても良い。
If the gesture determination unit 101 determines that a person is performing a predetermined gesture, the gesture determination unit 101 outputs information related to a location where the person is shown in the captured image (hereinafter, “person image information”) to the output control unit 102. .
When the person image information is input from the gesture determination unit 101, the output control unit 102 highlights the person in the captured image indicated by the person image information on the display unit 201 (step S4). For example, the output control unit 102 displays the periphery of the person in the captured image indicated by the person image information in a color or shape that is easy for a taxi driver to visually recognize, such as a square red frame or a square yellow background. Further, for example, when the gesture determination unit 101 detects a person performing a predetermined gesture in a captured image obtained by photographing the back of the taxi, as illustrated in FIG. 3, the output control unit 102 displays the simplified map on the simplified map. You may display the position of the person who performed predetermined | prescribed gesture with the position of a taxi. For example, the position of the person is an estimated position based on a taxi position set in advance according to the position of the person on the image. Note that the output control unit 102 may notify the driver of a person detected in a captured image obtained by photographing the back of the taxi by a pop-up display on the display unit 201. For example, when the output control unit 102 detects a person performing a predetermined gesture in a photographed image obtained by photographing the back of a taxi, the output control unit 102 pops up a character such as “There is a customer behind” on the display unit 201. Also good.

以上、第一の実施形態による監視システム1の処理について説明した。第一の実施形態による監視システム1が備える監視装置10よれば、ジェスチャ判定部101は、タクシー(移動体)に取り付けられた撮像装置30によって撮影された撮影画像から人物を抽出する。ジェスチャ判定部101は、人物のジェスチャが所定のジェスチャを示すか否かを判定する。出力制御部102は、抽出した人物のジェスチャが所定のジェスチャである場合、取得画像の表示時において抽出した人物の画像を強調表示するよう制御する。
このようにすることで、監視装置10は、タクシーなどの移動体において、所定の意思を示す人物を検知し、その人物を運転手に報知することができる。
The processing of the monitoring system 1 according to the first embodiment has been described above. According to the monitoring device 10 included in the monitoring system 1 according to the first embodiment, the gesture determination unit 101 extracts a person from a captured image captured by the imaging device 30 attached to a taxi (moving body). The gesture determination unit 101 determines whether or not a person's gesture indicates a predetermined gesture. When the extracted person gesture is a predetermined gesture, the output control unit 102 performs control so that the extracted person image is highlighted when the acquired image is displayed.
By doing in this way, the monitoring apparatus 10 can detect the person who shows a predetermined intention in moving bodies, such as a taxi, and can alert | report the person to a driver.

<第二の実施形態>
図5は、本発明の第二の実施形態による監視装置10を備える監視システム1の構成の一例を示す図である。
本発明の第二の実施形態による監視システム1は、図5で示すように、第一の実施形態による監視システム1に加え、音解析部104と、スピーカ202と、振動部203と、集音装置40と、を備える。
<Second Embodiment>
FIG. 5 is a diagram illustrating an example of the configuration of the monitoring system 1 including the monitoring device 10 according to the second embodiment of the present invention.
As shown in FIG. 5, the monitoring system 1 according to the second embodiment of the present invention, in addition to the monitoring system 1 according to the first embodiment, includes a sound analysis unit 104, a speaker 202, a vibration unit 203, and a sound collecting unit. Device 40.

監視装置10は、音解析部104を備える。音解析部104は、集音装置40が検出した音が所定の音であるか否かを判定する。例えば、音解析部104は、集音装置40が検出した音が示す情報(集音情報)と、予め記憶した音声や緊急車両のサイレン(警報音)などの所定の音が示す情報とを比較する。音解析部104は、比較した2つの情報の類似度が所定の類似度以上であると判定した場合、検出した音が所定の音であると特定する。
出力制御部102は、意思を示す人物の存在や所定の音の検出を示す音や音声をスピーカ202に出力させる。出力制御部102は、意思を示す人物の存在や所定の音の検出を示す振動を振動部203に出力させる。
The monitoring device 10 includes a sound analysis unit 104. The sound analysis unit 104 determines whether the sound detected by the sound collection device 40 is a predetermined sound. For example, the sound analysis unit 104 compares information (sound collection information) indicated by the sound detected by the sound collection device 40 with information indicated by a predetermined sound such as a pre-stored voice or an emergency vehicle siren (alarm sound). To do. When the sound analysis unit 104 determines that the similarity between the two pieces of compared information is greater than or equal to a predetermined similarity, the sound analysis unit 104 specifies that the detected sound is a predetermined sound.
The output control unit 102 causes the speaker 202 to output sound and sound indicating the presence of a person indicating intention and detection of a predetermined sound. The output control unit 102 causes the vibration unit 203 to output a vibration indicating the presence of a person indicating intention or the detection of a predetermined sound.

出力部20は、スピーカ202と、振動部203とを備える。
スピーカ202は、意思を示す人物の存在や所定の音の検出を運転手に音や音声で報知する。
振動部203は、意思を示す人物の存在や所定の音の検出を運転手に振動で報知する。
集音装置40は、音や音声を取得する。集音装置40は、移動体に取り付けられる。
The output unit 20 includes a speaker 202 and a vibration unit 203.
The speaker 202 notifies the driver of the presence of a person indicating intention and the detection of a predetermined sound by sound or voice.
The vibration unit 203 notifies the driver of the presence of a person indicating intention and the detection of a predetermined sound by vibration.
The sound collector 40 acquires sound and sound. The sound collection device 40 is attached to a moving body.

図6は、本発明の第二の実施形態による監視装置10を備える監視システム1をタクシーに適用した一例を示す図である。
図6は、タクシーが撮像装置30と集音装置40とを取り付けて走行する様子を示している。また、図6は、タクシーが走行中に撮像装置30が撮影する画像と、判定結果とを出力する出力部20とを示している。
FIG. 6 is a diagram illustrating an example in which the monitoring system 1 including the monitoring device 10 according to the second embodiment of the present invention is applied to a taxi.
FIG. 6 shows a taxi traveling with the imaging device 30 and the sound collecting device 40 attached thereto. FIG. 6 illustrates an output unit 20 that outputs an image captured by the imaging device 30 while the taxi is traveling and a determination result.

例えば、図6で示すように、タクシーが左車線を走行中に、撮像装置30は、前方、側面、後方を撮影する。監視システム1は、撮像装置30が撮影した画像を解析する。監視システム1は、路側帯に人物A、B、C、D、及びEを検出する。監視システム1は、画像解析を行い、人物A、B、C、D、及びEのそれぞれが所定のジェスチャを行っているか否かを判定する。例えば、監視システム1は、人物A、B、C、D、及びEのそれぞれが手を挙げているか否かを判定する。図6で示す例の場合、監視システム1は、人物A、B、C、及びDが手を挙げていると判定する。監視システム1は、前方の路側帯に検出した人物A、B、C、D、及びEの画像を表示部201に表示する。このとき、監視システム1は、手を挙げている人物A、B、C、及びDを表示部201に強調して表示する。また、監視システム1は、人物A、B、C、D、及びEのそれぞれが所定のジェスチャを行っているか否かの判定を、複数の異なる類似度に応じて行う。例えば、監視システム1は、タクシーから離れた場所にいる人物Aの画像が小さく、所定のジェスチャを示す情報と人物Aの画像が示す情報との類似度が低いと判定した場合、人物Aを青色の背景で強調して表示する。監視システム1は、人物Bの画像が示す情報と、所定のジェスチャを示す情報との類似度を中程度と判定した場合、人物Bを黄色の背景で強調して表示する。また、監視システム1は、人物Cの画像が示す情報と、所定のジェスチャを示す情報との類似度を高いと判定した場合、人物Cを赤色の背景で強調して表示する。   For example, as shown in FIG. 6, while the taxi is traveling in the left lane, the imaging device 30 captures the front, side, and rear. The monitoring system 1 analyzes an image captured by the imaging device 30. The monitoring system 1 detects persons A, B, C, D, and E in the roadside zone. The monitoring system 1 performs image analysis to determine whether each of the persons A, B, C, D, and E is performing a predetermined gesture. For example, the monitoring system 1 determines whether each of the persons A, B, C, D, and E is raising their hands. In the example illustrated in FIG. 6, the monitoring system 1 determines that the persons A, B, C, and D are raising their hands. The monitoring system 1 displays images of the persons A, B, C, D, and E detected on the front roadside band on the display unit 201. At this time, the monitoring system 1 highlights and displays the persons A, B, C, and D raising their hands on the display unit 201. Further, the monitoring system 1 determines whether each of the persons A, B, C, D, and E is performing a predetermined gesture according to a plurality of different similarities. For example, if the monitoring system 1 determines that the image of the person A who is away from the taxi is small and the similarity between the information indicating the predetermined gesture and the information indicated by the image of the person A is low, Highlight and display in the background. When the monitoring system 1 determines that the similarity between the information indicated by the image of the person B and the information indicating the predetermined gesture is medium, the monitoring system 1 displays the person B with an emphasis on a yellow background. Further, when the monitoring system 1 determines that the similarity between the information indicated by the image of the person C and the information indicating the predetermined gesture is high, the monitoring system 1 displays the person C with an emphasis on a red background.

また、監視システム1は、集音装置40が検出した音を解析する。監視システム1は、音や音声を検出する。監視システム1は、検出した音を解析し、人物が所定の音声を発生しているか否かを判定する。例えば、監視システム1は、検出した音の音声の周波数帯(およそ20キロヘルツ以下)の音の情報と、「タクシー」という音声情報とを比較する。監視システム1は、比較した2つの情報の類似度が所定の類似度以上であると判定した場合、検出した音が「タクシー」という音声であると特定する。また、監視システム1は、検出した音を解析し、所定の音を含む音を検出するか否かを判定する。例えば、監視システム1は、検出した音の情報と、緊急車両が発するサイレンの音情報とを比較する。監視システム1は、比較した2つの情報の類似度が所定の類似度以上であると判定した場合、検出した音が緊急車両の発するサイレン音であると特定する。
監視システム1は、「タクシー」などの所定の音声や緊急車両の発するサイレン音などの所定の音を検出したことをタクシーの運転手に報知する。例えば、監視システム1は、スピーカ202から「タクシーという音声を検出しました」と合成音声で出力する。また、監視システム1は、「緊急車両が近づいています」という文字を表示部201に表示する。
Moreover, the monitoring system 1 analyzes the sound detected by the sound collection device 40. The monitoring system 1 detects sound and voice. The monitoring system 1 analyzes the detected sound and determines whether or not the person is generating a predetermined sound. For example, the monitoring system 1 compares the sound information of the detected sound frequency band (approximately 20 kilohertz or less) with the sound information “taxi”. When the monitoring system 1 determines that the similarity between the two pieces of compared information is equal to or higher than the predetermined similarity, the monitoring system 1 specifies that the detected sound is a voice “taxi”. Moreover, the monitoring system 1 analyzes the detected sound and determines whether or not a sound including a predetermined sound is detected. For example, the monitoring system 1 compares the detected sound information with the siren sound information emitted by the emergency vehicle. When the monitoring system 1 determines that the similarity between the two pieces of compared information is greater than or equal to the predetermined similarity, the monitoring system 1 specifies that the detected sound is a siren sound generated by the emergency vehicle.
The monitoring system 1 informs the taxi driver that a predetermined sound such as “taxi” or a siren sound generated by an emergency vehicle has been detected. For example, the monitoring system 1 outputs from the speaker 202 as “sound of taxi detected” as a synthesized voice. In addition, the monitoring system 1 displays the characters “emergency vehicle is approaching” on the display unit 201.

図7は、本発明の第二の実施形態による監視装置10を備える監視システム1の処理フローの一例を示す図である。
次に、図7を用いて、第二の実施形態による監視システム1の処理を説明する。
ここでは、第二の実施形態による監視システム1をタクシーに適用した場合を例に監視システム1の処理を説明する。ただし、第一の実施形態による監視システム1と異なるステップS5〜S10の処理フローについて説明する。
FIG. 7 is a diagram illustrating an example of a processing flow of the monitoring system 1 including the monitoring device 10 according to the second embodiment of the present invention.
Next, processing of the monitoring system 1 according to the second embodiment will be described with reference to FIG.
Here, the process of the monitoring system 1 will be described by taking as an example the case where the monitoring system 1 according to the second embodiment is applied to a taxi. However, the processing flow of steps S5 to S10 different from the monitoring system 1 according to the first embodiment will be described.

第一の実施形態による監視システム1のステップS1及びS2と同様の処理を行い、ジェスチャ判定部101がステップS2の処理により撮影画像においてその類似を示す箇所に人物が撮影されていると判定する。
第二の実施形態による監視システム1が備えるジェスチャ判定部101は、人物が撮影されていると判定した場合、その人物が所定のジェスチャを行っているか複数の類似度に応じて判定する(ステップS5)。
Processing similar to steps S1 and S2 of the monitoring system 1 according to the first embodiment is performed, and the gesture determination unit 101 determines that a person is photographed at a location showing similarity in the photographed image by the processing of step S2.
If the gesture determination unit 101 included in the monitoring system 1 according to the second embodiment determines that a person is photographed, it determines whether the person is performing a predetermined gesture according to a plurality of similarities (step S5). ).

例えば、ジェスチャ判定部101は、予め記憶した人物が手を挙げるジェスチャを示すHOG特徴情報と、撮影されている人物の撮影画像が示すジェスチャのHOG特徴情報とを比較する。ジェスチャ判定部101は、比較した2つの情報の類似度が所定の4つの類似度のどの範囲に相当するかを特定する。ジェスチャ判定部101は、比較した2つの情報の類似度が最も低い範囲である場合、所定のジェスチャを行っていないと判定する(ステップS5、NO)。そして、撮像装置30が前方、側面、及び後方を撮影するステップS1の処理に戻る。
また、ジェスチャ判定部101は、比較した2つの情報の類似度が最も低い範囲以外の場合に、所定のジェスチャを行っていると判定する(ステップS5、YES)。
For example, the gesture determination unit 101 compares HOG feature information indicating a gesture in which a previously stored person raises his hand with HOG feature information of a gesture indicated by a photographed image of the person being photographed. The gesture determination unit 101 specifies which range of the four similarities the similarity between the two pieces of compared information corresponds to. The gesture determination unit 101 determines that the predetermined gesture is not performed when the similarity between the two pieces of compared information is in the lowest range (step S5, NO). And it returns to the process of step S1 in which the imaging device 30 images the front, side, and rear.
In addition, the gesture determination unit 101 determines that a predetermined gesture is being performed when the similarity between the two pieces of compared information is outside the lowest range (step S5, YES).

ジェスチャ判定部101は、比較した2つの情報の類似度が1番目に高い範囲、2番目に高い範囲、3番目に高い範囲の何れの範囲であるかを特定する(ステップS6)。
ジェスチャ判定部101は、類似度を特定すると、特定した類似度と対応する人物画像情報とを出力制御部102に出力する。
出力制御部102は、ジェスチャ判定部101から類似度と対応する人物画像情報とを入力すると、人物画像情報が示す撮影画像における人物を表示部201に類似度に応じて強調表示させる(ステップS7)。例えば、出力制御部102は、類似度が1番目に高い範囲である場合、人物画像情報が示す撮影画像における人物の周囲を赤色の背景で強調して表示する。出力制御部102は、類似度が2番目に高い範囲である場合、人物画像情報が示す撮影画像における人物の周囲を黄色の背景で強調して表示する。出力制御部102は、類似度が3番目に高い範囲である場合、人物画像情報が示す撮影画像における人物の周囲を青色の背景で強調して表示する。
The gesture determination unit 101 identifies which range of the first highest range, the second highest range, and the third highest range the similarity of the two pieces of compared information is (step S6).
When determining the similarity, the gesture determination unit 101 outputs the specified similarity and the corresponding person image information to the output control unit 102.
When the output control unit 102 inputs the similarity and corresponding person image information from the gesture determination unit 101, the output control unit 102 highlights the person in the captured image indicated by the person image information on the display unit 201 according to the similarity (step S7). . For example, when the similarity is the first highest range, the output control unit 102 highlights and displays the periphery of the person in the captured image indicated by the person image information with a red background. When the similarity is the second highest range, the output control unit 102 highlights and displays the periphery of the person in the captured image indicated by the person image information with a yellow background. When the similarity is in the third highest range, the output control unit 102 highlights and displays the periphery of the person in the captured image indicated by the person image information with a blue background.

また、タクシーが取り付けている集音装置40は、タクシーの周囲の音を検出する(ステップS8)。集音装置40は、取得した音の情報(以下、「音情報」)を監視装置10に出力する。
監視装置10が備える音解析部104は、集音装置40から音情報を入力すると、入力した音情報が所定の音や音声を含むか否かを判定する(ステップS9)。
The sound collecting device 40 attached to the taxi detects sounds around the taxi (step S8). The sound collection device 40 outputs the acquired sound information (hereinafter, “sound information”) to the monitoring device 10.
When sound information is input from the sound collection device 40, the sound analysis unit 104 included in the monitoring device 10 determines whether the input sound information includes a predetermined sound or sound (step S9).

例えば、音解析部104は、予め記憶した緊急車両が発するサイレンなどの所定の音のそれぞれが示す音情報と、集音装置40が検出した音が示す音情報とを比較する。音解析部104は、比較したそれぞれの情報の類似度が所定の類似度以下であると判定した場合、集音装置40は所定の音を検出していないと判定する(ステップS9、NO)。また、例えば、音解析部104は、予め記憶した「タクシー」などの所定の音声のそれぞれが示す音情報と、集音装置40が検出した音声が示す音情報とを比較する。音解析部104は、比較したそれぞれの情報の類似度が所定の類似度以下であると判定した場合、集音装置40は所定の音声を検出していないと判定する(ステップS9、NO)。そして、集音装置40が音を検出するステップS8の処理に戻る。
また、音解析部104は、比較したそれぞれの情報の類似度が所定の類似度以上であると判定した場合、集音装置40は所定の音を検出したと判定する(ステップS9、YES)。
For example, the sound analysis unit 104 compares the sound information indicated by each predetermined sound such as a siren emitted by an emergency vehicle stored in advance with the sound information indicated by the sound detected by the sound collecting device 40. If the sound analysis unit 104 determines that the similarity of the respective pieces of information compared is equal to or less than the predetermined similarity, the sound collecting device 40 determines that the predetermined sound is not detected (step S9, NO). For example, the sound analysis unit 104 compares the sound information indicated by each of predetermined sounds such as “taxi” stored in advance with the sound information indicated by the sound detected by the sound collection device 40. When the sound analysis unit 104 determines that the similarity of each piece of information compared is equal to or less than the predetermined similarity, the sound collecting device 40 determines that the predetermined sound is not detected (step S9, NO). And it returns to the process of step S8 in which the sound collector 40 detects a sound.
Further, when the sound analysis unit 104 determines that the similarity of each piece of compared information is equal to or higher than the predetermined similarity, the sound collection device 40 determines that the predetermined sound has been detected (step S9, YES).

音解析部104は、集音装置40は所定の音声を検出したと判定した場合、検出した音に係る情報を出力部20に出力させる音検出情報を出力制御部102に出力する。
出力制御部102は、音解析部104から音検出情報を入力すると、音検出情報に基づいて、検出した音に係る情報を出力部20に出力させる(ステップS10)。例えば、出力制御部102は、音検出情報が「タクシー」などの所定の音声の検出に係る情報を出力部20に出力させる場合、「タクシーという音声を検出しました」と合成音声をスピーカ202に出力させる。また、例えば、出力制御部102は、音検出情報が緊急車両の発するサイレン音の検出に係る情報を出力部20に出力させる場合、「緊急車両が近づいています」、「速度を落としてください」、「NOTICE」などの文字を赤色や太字などを用いて強調して表示部201に表示させる。
When the sound analysis unit 104 determines that the sound collection device 40 has detected a predetermined sound, the sound analysis unit 104 outputs sound detection information that causes the output unit 20 to output information related to the detected sound to the output control unit 102.
When the sound detection information is input from the sound analysis unit 104, the output control unit 102 causes the output unit 20 to output information related to the detected sound based on the sound detection information (step S10). For example, when the output control unit 102 causes the output unit 20 to output information related to detection of a predetermined sound such as “taxi” as the sound detection information, the output sound from the speaker 202 is “sound detected as a taxi”. Output. In addition, for example, when the sound detection information causes the output unit 20 to output information related to detection of siren sound generated by the emergency vehicle, the “emergency vehicle is approaching” or “slow down” , “NOTICE” or the like is highlighted on the display unit 201 using red or bold.

以上、第二の実施形態による監視システム1の処理について説明した。第二の実施形態による監視システム1が備える監視装置10よれば、音解析部104は、タクシーに取り付けられた集音装置40によって音を検出する。音解析部104は、所定の音を検出したか否かを判定する。音解析部104は、検出した所定の音に応じた情報を出力部20に出力させる音検出情報を出力制御部102に出力する。出力制御部102は、音検出情報に基づいて検出した音に係る情報を出力部20に出力させる。
このようにすることで、監視装置10は、タクシーなどの移動体において、所定の意思を示す人物をより高精度に検知し、その人物を運転手に報知することができる。また、監視装置10は、タクシーなどの移動体において、緊急車両などの所定の車両の接近を報知することができる。
The processing of the monitoring system 1 according to the second embodiment has been described above. According to the monitoring device 10 included in the monitoring system 1 according to the second embodiment, the sound analysis unit 104 detects sound by the sound collecting device 40 attached to the taxi. The sound analysis unit 104 determines whether a predetermined sound is detected. The sound analysis unit 104 outputs sound detection information that causes the output unit 20 to output information corresponding to the detected predetermined sound to the output control unit 102. The output control unit 102 causes the output unit 20 to output information related to the sound detected based on the sound detection information.
By doing in this way, the monitoring apparatus 10 can detect the person who shows a predetermined intention with higher precision in a moving body such as a taxi, and can inform the driver of the person. Moreover, the monitoring apparatus 10 can alert | report the approach of predetermined vehicles, such as an emergency vehicle, in moving bodies, such as a taxi.

<第三の実施形態>
次に、本発明の第三の実施形態による監視装置10を備える監視システム1を説明する。
本発明の第三の実施形態による監視装置10を備える監視システム1の構成は、図5で示した第二の実施形態による監視システム1の構成と同様である。
ただし、出力制御部102は、ジェスチャ判定部101から類似度と対応する人物画像情報とを入力すると、人物画像情報が示す撮影画像における人物を表示部201に類似度に応じて拡大表示させる。
<Third embodiment>
Next, the monitoring system 1 provided with the monitoring apparatus 10 by 3rd embodiment of this invention is demonstrated.
The configuration of the monitoring system 1 including the monitoring device 10 according to the third embodiment of the present invention is the same as the configuration of the monitoring system 1 according to the second embodiment shown in FIG.
However, when the output control unit 102 inputs the person image information corresponding to the similarity degree from the gesture determination unit 101, the output control unit 102 enlarges and displays the person in the captured image indicated by the person image information on the display unit 201 according to the degree of similarity.

図8は、本発明の第三の実施形態による監視装置10を備える監視システム1をタクシーに適用した一例を示す図である。
図8は、人物画像情報が示す撮影画像における人物を類似度に応じて出力制御部102が表示部201に拡大表示させた画像を示している。例えば、出力制御部102は、ジェスチャ判定部101が、比較した2つの情報の類似度が3番目に高い範囲であると特定した場合、人物を拡大表示させる。こうすることで、監視装置10を備える監視システム1は、所定のジェスチャをする人物が存在するか否かを運転手が最終的に判断するためのより正確な情報を提供する。
FIG. 8 is a diagram showing an example in which the monitoring system 1 including the monitoring device 10 according to the third embodiment of the present invention is applied to a taxi.
FIG. 8 shows an image in which the output control unit 102 enlarges and displays the person in the captured image indicated by the person image information on the display unit 201 according to the degree of similarity. For example, when the gesture determination unit 101 specifies that the similarity between the two pieces of compared information is in the third highest range, the output control unit 102 displays the person in an enlarged manner. By doing so, the monitoring system 1 including the monitoring device 10 provides more accurate information for the driver to finally determine whether or not there is a person making a predetermined gesture.

なお、人物画像情報が示す撮影画像における人物を類似度に応じて出力制御部102が表示部201に拡大表示させるのは、人物が移動体から遠方に入る場合に限定するものではない。例えば、出力制御部102は、夜間や、雨天時などで人物およびジェスチャの類似度判定精度が低くなった場合に、拡大表示することで運転手自身による判断の機会を提供することができる。   Note that the display of the person in the captured image indicated by the person image information on the display unit 201 according to the similarity is not limited to the case where the person enters far away from the moving body. For example, the output control unit 102 can provide an opportunity for judgment by the driver himself / herself by enlarging and displaying when the similarity determination accuracy of a person and a gesture becomes low at night or in rainy weather.

図9は、本発明の第三の実施形態による監視装置10を備える監視システム1の処理フローの一例を示す図である。
次に、図9を用いて、第三の実施形態による監視システム1の処理を説明する。
ここでは、第三の実施形態による監視システム1をタクシーに適用した場合を例に監視システム1の処理を説明する。ただし、第二の実施形態による監視システム1のステップS7の代わりのステップS11の処理について説明する。
FIG. 9 is a diagram illustrating an example of a processing flow of the monitoring system 1 including the monitoring device 10 according to the third embodiment of the present invention.
Next, processing of the monitoring system 1 according to the third embodiment will be described with reference to FIG.
Here, the process of the monitoring system 1 will be described by taking as an example the case where the monitoring system 1 according to the third embodiment is applied to a taxi. However, the process of step S11 instead of step S7 of the monitoring system 1 according to the second embodiment will be described.

第二の実施形態による監視システム1のステップS6の処理で、ジェスチャ判定部101は、比較した2つの情報の類似度が1番目に高い範囲、2番目に高い範囲、3番目に高い範囲の何れの範囲であるかを特定する。そして、ジェスチャ判定部101は、類似度を特定すると、特定した類似度と対応する人物画像情報とを出力制御部102に出力する。
出力制御部102は、ジェスチャ判定部101から類似度と対応する人物画像情報とを入力すると、人物画像情報が示す撮影画像における人物を表示部201に類似度に応じて拡大表示させる(ステップS11)。例えば、出力制御部102は、類似度が3番目に高い範囲である場合、人物画像情報が示す撮影画像における人物を含む周囲を拡大して表示させる。
In the process of step S6 of the monitoring system 1 according to the second embodiment, the gesture determination unit 101 determines which of the first highest range, the second highest range, and the third highest range between the two pieces of compared information. Specify whether it is in the range. Then, when the gesture determination unit 101 specifies the similarity, the gesture determination unit 101 outputs the specified similarity and the corresponding person image information to the output control unit 102.
When the output control unit 102 receives the person image information corresponding to the similarity degree from the gesture determination unit 101, the output control unit 102 enlarges and displays the person in the captured image indicated by the person image information on the display unit 201 according to the degree of similarity (step S11). . For example, when the similarity is the third highest range, the output control unit 102 enlarges and displays the periphery including the person in the captured image indicated by the person image information.

以上、第三の実施形態による監視システム1の処理について説明した。第三の実施形態による監視システム1が備える監視装置10よれば、出力制御部102は、ジェスチャ判定部101から類似度と対応する人物画像情報とを入力すると、人物画像情報が示す撮影画像における人物を表示部201に類似度に応じて拡大表示させる。
このようにすることで、監視装置10は、運転手に人物およびジェスチャの類似度判定精度が低くなった場合に、最終的に判断するためのより正確な情報を提供することができる。
The processing of the monitoring system 1 according to the third embodiment has been described above. According to the monitoring apparatus 10 included in the monitoring system 1 according to the third embodiment, when the output control unit 102 inputs the similarity and the corresponding person image information from the gesture determination unit 101, the person in the captured image indicated by the person image information Is enlarged and displayed on the display unit 201 according to the degree of similarity.
By doing in this way, the monitoring apparatus 10 can provide the driver with more accurate information for the final determination when the similarity determination accuracy of the person and the gesture becomes low.

<第四の実施形態>
図10は、本発明の第四の実施形態による監視装置10を備える監視システム1の構成の一例を示す図である。
図10で示すように、本発明の第四の実施形態による監視システム1は、第三の実施形態による監視システム1に加え、移動体制御装置50と、監視機能抑制装置60とを備える。
移動体制御装置50は、監視装置10からの情報に基づいて、移動体の移動速度を制御する。
監視機能抑制装置60は、所定の条件が成立した場合、監視システム1における処理を抑制する。例えば、移動体がタクシーである場合、監視機能抑制装置60は、所定の条件としてタクシーの料金メータから料金メータの動作開始を示す動作開始信号を入力すると、動作開始信号に応じて撮像装置30と集音装置40とに動作停止信号を送信する。
<Fourth embodiment>
FIG. 10 is a diagram illustrating an example of the configuration of the monitoring system 1 including the monitoring device 10 according to the fourth embodiment of the present invention.
As shown in FIG. 10, the monitoring system 1 according to the fourth embodiment of the present invention includes a moving body control device 50 and a monitoring function suppression device 60 in addition to the monitoring system 1 according to the third embodiment.
The moving body control device 50 controls the moving speed of the moving body based on information from the monitoring device 10.
The monitoring function suppression device 60 suppresses processing in the monitoring system 1 when a predetermined condition is satisfied. For example, when the moving body is a taxi, the monitoring function suppression device 60 receives the operation start signal indicating the start of the operation of the toll meter from the taxi fare meter as a predetermined condition. An operation stop signal is transmitted to the sound collector 40.

図11は、本発明の第四の実施形態による監視装置10を備える監視システム1の処理フローの一例を示す図である。
次に、図11を用いて、第四の実施形態による監視システム1の処理を説明する。
ここでは、第四の実施形態による監視システム1をタクシーに適用した場合に、移動体制御装置50と、監視機能抑制装置60とが行うステップS12〜S14の処理を説明する。
FIG. 11 is a diagram illustrating an example of a processing flow of the monitoring system 1 including the monitoring device 10 according to the fourth embodiment of the present invention.
Next, processing of the monitoring system 1 according to the fourth embodiment will be described with reference to FIG.
Here, when the monitoring system 1 according to the fourth embodiment is applied to a taxi, processing in steps S12 to S14 performed by the mobile control device 50 and the monitoring function suppression device 60 will be described.

第三の実施形態による監視システム1のステップS6の処理と同様に、第四の実施形態によるジェスチャ判定部101は、比較した2つの情報の類似度が4つの範囲のうちの1番目に高い範囲、2番目に高い範囲、3番目に高い範囲の何れの範囲であるかを特定する。ジェスチャ判定部101は、特定した類似度の情報(以下、「類似度情報」)を移動体制御装置50に出力する。
移動体制御装置50は、ジェスチャ判定部101から類似度情報を入力すると、類似度情報に応じて移動体の移動速度を制御する(ステップS12)。例えば、移動体制御装置50は、ジェスチャ判定部101から3番目に高い範囲の類似度の類似度情報を入力すると、より類似度判定の精度を向上させるために移動体の移動速度を低減する。
Similar to the processing in step S6 of the monitoring system 1 according to the third embodiment, the gesture determination unit 101 according to the fourth embodiment is the range in which the similarity between the two pieces of information compared is the first of the four ranges. The second highest range and the third highest range are specified. The gesture determination unit 101 outputs the specified similarity information (hereinafter, “similarity information”) to the mobile control device 50.
When the mobile body control device 50 receives the similarity information from the gesture determination unit 101, the mobile body control device 50 controls the moving speed of the mobile body according to the similarity information (step S12). For example, when the similarity control information of the third highest range of similarity is input from the gesture determination unit 101, the mobile control device 50 reduces the moving speed of the mobile to improve the accuracy of similarity determination.

第三の実施形態による監視システム1のステップS9の処理と同様に、集音装置40が所定の音を検出したと音解析部104が判定した場合、第四の実施形態による音解析部104は、所定の音の情報を移動体制御装置50に出力する。
移動体制御装置50は、音解析部104から所定の音の情報を入力すると、その音の情報に応じて移動体の移動速度を制御する(ステップS13)。例えば、移動体制御装置50は、音解析部104から所定の音の情報として緊急車両が発するサイレンの情報を入力すると、危険を回避するために移動体の移動速度を低減する。
Similar to the processing in step S9 of the monitoring system 1 according to the third embodiment, when the sound analysis unit 104 determines that the sound collection device 40 has detected a predetermined sound, the sound analysis unit 104 according to the fourth embodiment The information of the predetermined sound is output to the mobile control device 50.
When the moving body control device 50 receives information about a predetermined sound from the sound analysis unit 104, the moving body control device 50 controls the moving speed of the moving body according to the sound information (step S13). For example, when the information on the siren emitted by the emergency vehicle is input from the sound analysis unit 104 as information on the predetermined sound from the sound analysis unit 104, the moving body control device 50 reduces the moving speed of the moving body to avoid danger.

監視機能抑制装置60は、料金メータから動作開始信号を入力するか否かに基づいて、撮像装置30と集音装置40とに動作停止信号を送信するか否かを決定する(ステップS14)。
監視機能抑制装置60は、料金メータから動作開始信号を入力した場合、撮像装置30と集音装置40とに動作停止信号を出力する(ステップS14、YES)。撮像装置30と集音装置40は、監視機能抑制装置60から動作停止信号を入力すると、動作を停止する。そして、監視システム1の処理は終了する。
監視機能抑制装置60は、料金メータから動作開始信号を入力していない場合、撮像装置30と集音装置40は動作を継続し、第三の実施形態による監視システム1のステップS1と同様のステップS1処理に戻る。
The monitoring function suppression device 60 determines whether or not to transmit an operation stop signal to the imaging device 30 and the sound collection device 40 based on whether or not an operation start signal is input from the charge meter (step S14).
When the operation start signal is input from the charge meter, the monitoring function suppression device 60 outputs an operation stop signal to the imaging device 30 and the sound collector 40 (step S14, YES). The imaging device 30 and the sound collecting device 40 stop operating when receiving an operation stop signal from the monitoring function suppressing device 60. And the process of the monitoring system 1 is complete | finished.
When the monitoring function suppression device 60 does not receive an operation start signal from the charge meter, the imaging device 30 and the sound collection device 40 continue to operate, and the same steps as step S1 of the monitoring system 1 according to the third embodiment. Return to S1 processing.

以上、第四の実施形態による監視システム1の処理について説明した。第四の実施形態による監視システム1の処理によれば、移動体制御装置50は、ジェスチャ判定部101から類似度情報を入力すると、類似度情報に応じて移動体の移動速度を制御する。
このようにすることで、ジェスチャ判定部101は、類似度をより高精度に判定することができ、運転手により正確な情報を提供することができる。
また、移動体制御装置50は、音解析部104から所定の音の情報を入力すると、その音の情報に応じて移動体の移動速度を制御する。
このようにすることで、運転手は、危険回避することができる。
また、監視機能抑制装置60は、所定の条件が成立した場合、監視システム1における処理を抑制する。
このようにすることで、監視システム1における不要な処理を行わずに済む。
The processing of the monitoring system 1 according to the fourth embodiment has been described above. According to the processing of the monitoring system 1 according to the fourth embodiment, when the mobile body control device 50 inputs similarity information from the gesture determination unit 101, the mobile body control device 50 controls the moving speed of the mobile body according to the similarity information.
By doing in this way, the gesture determination part 101 can determine a similarity with higher precision and can provide more accurate information to the driver.
In addition, when the information of a predetermined sound is input from the sound analysis unit 104, the moving body control device 50 controls the moving speed of the moving body according to the sound information.
By doing so, the driver can avoid danger.
Moreover, the monitoring function suppression apparatus 60 suppresses the process in the monitoring system 1 when a predetermined condition is satisfied.
In this way, unnecessary processing in the monitoring system 1 can be avoided.

なお、本発明における記憶部やメモリは、適切な情報の送受信が行われる範囲においてどこに備えられていてもよい。また、記憶部やメモリは、適切な情報の送受信が行われる範囲において複数存在しデータを分散して記憶していてもよい。   Note that the storage unit and the memory in the present invention may be provided anywhere as long as appropriate information is transmitted and received. A plurality of storage units and memories may exist in a range in which appropriate information is transmitted and received, and data may be distributed and stored.

なお本発明の実施形態における処理フローは、適切な処理が行われる範囲において、処理の順番が入れ替わってもよい。実施形態における画像の処理と音の処理の順番は、上述のものに限定するものではなく、例えば、画像の処理と音の処理の順番が入れ替わってもよい。また、実施形態における画像の処理と音の処理は、並行に行われてもよい。   In the processing flow according to the embodiment of the present invention, the order of processing may be changed within a range where appropriate processing is performed. The order of the image processing and the sound processing in the embodiment is not limited to the above, and for example, the order of the image processing and the sound processing may be switched. In addition, the image processing and the sound processing in the embodiment may be performed in parallel.

なお本発明の実施形態について説明したが、上述の監視装置10、及び監視システム1は内部に、コンピュータシステムを有している。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記憶部103に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記憶部103とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   In addition, although embodiment of this invention was described, the above-mentioned monitoring apparatus 10 and the monitoring system 1 have a computer system inside. The process described above is stored in the computer-readable storage unit 103 in the form of a program, and the above process is performed when the computer reads and executes this program. Here, the computer-readable storage unit 103 is a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定するものではない。また、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. Various omissions, replacements, and changes can be made without departing from the scope of the invention.

1・・・監視システム
10・・・監視装置
20・・・出力部
30・・・撮像装置
40・・・集音装置
50・・・移動体制御装置
60・・・監視機能抑制装置
101・・・ジェスチャ判定部
102・・・出力制御部
103・・・記憶部
104・・・音解析部
201・・・表示部
202・・・スピーカ
203・・・振動部
DESCRIPTION OF SYMBOLS 1 ... Monitoring system 10 ... Monitoring apparatus 20 ... Output part 30 ... Imaging apparatus 40 ... Sound collector 50 ... Moving body control apparatus 60 ... Monitoring function suppression apparatus 101 ... Gesture determination unit 102 ... output control unit 103 ... storage unit 104 ... sound analysis unit 201 ... display unit 202 ... speaker 203 ... vibration unit

Claims (6)

移動体に取り付けられた撮像装置によって取得した取得画像から人物を抽出し、当該人物のジェスチャが所定のジェスチャを示すか否かを判定するジェスチャ判定部と、
抽出した人物のジェスチャが前記所定のジェスチャである場合、前記取得画像の表示時において前記人物の画像を強調表示するよう制御する出力制御部と、
前記ジェスチャ判定部によるジェスチャの類似度が低い場合、前記移動体の速度を低減する移動体制御装置を備える監視装置。
A gesture determination unit that extracts a person from an acquired image acquired by an imaging device attached to a moving body and determines whether or not the gesture of the person indicates a predetermined gesture;
An output control unit that controls to highlight the person image when the acquired image is displayed when the extracted person gesture is the predetermined gesture;
A monitoring apparatus comprising a moving body control device that reduces the speed of the moving body when the gesture similarity by the gesture determination unit is low.
前記出力制御部は、複数の前記撮像装置のうち所定のジェスチャを行った人物を報知するよう制御する請求項1に記載の監視装置。     The monitoring apparatus according to claim 1, wherein the output control unit controls to notify a person who has performed a predetermined gesture among the plurality of imaging devices. 前記出力制御部は、前記ジェスチャの類似度が低い場合、前記画像の表示を拡大するよう制御する請求項1または請求項2に記載の監視装置。     The monitoring apparatus according to claim 1, wherein the output control unit controls to enlarge the display of the image when the similarity of the gesture is low. 前記出力制御部は、前記ジェスチャの類似度が低い場合、前記画像を類似度に応じた表示となるよう制御する請求項1から請求項3の何れか一項に記載の監視装置。     The monitoring apparatus according to any one of claims 1 to 3, wherein the output control unit controls the image to be displayed in accordance with the similarity when the gesture similarity is low. 移動体に取り付けられた撮像装置によって取得した取得画像から人物を抽出し、当該人物のジェスチャが所定のジェスチャを示すか否かを判定し、
抽出した人物のジェスチャが前記所定のジェスチャである場合、前記取得画像の表示時において前記人物の画像を強調表示するよう制御し、
ジェスチャの類似度が低い場合、前記移動体の速度を低減するよう制御する監視方法。
Extracting a person from the acquired image acquired by the imaging device attached to the moving body, determining whether the gesture of the person shows a predetermined gesture,
If the extracted person gesture is the predetermined gesture, control is performed to highlight the person image when the acquired image is displayed,
A monitoring method for performing control so as to reduce the speed of the moving object when the similarity of gestures is low.
監視装置のコンピュータを、
移動体に取り付けられた撮像装置によって取得した取得画像から人物を抽出し、当該人物のジェスチャが所定のジェスチャを示すか否かを判定するジェスチャ判定手段と、
抽出した人物のジェスチャが前記所定のジェスチャである場合、前記取得画像の表示時において前記人物の画像を強調表示するよう制御する出力制御手段と、
ジェスチャの類似度が低い場合、前記移動体の速度を低減する移動体制御手段として機能させるためのプログラム。
Monitor computer,
A gesture determination unit that extracts a person from an acquired image acquired by an imaging device attached to a moving body and determines whether the gesture of the person indicates a predetermined gesture;
Output control means for controlling to highlight the person image when the acquired image is displayed when the extracted person gesture is the predetermined gesture;
The program for functioning as a mobile body control means for reducing the speed of the mobile body when the gesture similarity is low.
JP2014070722A 2014-03-31 2014-03-31 Monitoring device, monitoring method, and program Expired - Fee Related JP6455866B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014070722A JP6455866B2 (en) 2014-03-31 2014-03-31 Monitoring device, monitoring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014070722A JP6455866B2 (en) 2014-03-31 2014-03-31 Monitoring device, monitoring method, and program

Publications (2)

Publication Number Publication Date
JP2015191641A JP2015191641A (en) 2015-11-02
JP6455866B2 true JP6455866B2 (en) 2019-01-23

Family

ID=54426030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014070722A Expired - Fee Related JP6455866B2 (en) 2014-03-31 2014-03-31 Monitoring device, monitoring method, and program

Country Status (1)

Country Link
JP (1) JP6455866B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10244094B2 (en) 2016-08-18 2019-03-26 nuTonomy Inc. Hailing a vehicle
CN109923487B (en) * 2016-08-18 2022-06-17 动态Ad有限责任公司 Call vehicle
DE102016217770A1 (en) 2016-09-16 2018-03-22 Audi Ag Method for operating a motor vehicle
JP6940969B2 (en) * 2017-03-29 2021-09-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Vehicle control device, vehicle control method and program
JP6862257B6 (en) 2017-04-14 2021-06-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Self-driving vehicles, how to stop self-driving vehicles and programs
WO2018221204A1 (en) * 2017-05-31 2018-12-06 日本電産株式会社 Mobile body provided with radio antenna, and vehicle dispatch system
JP7107647B2 (en) * 2017-07-06 2022-07-27 矢崎エナジーシステム株式会社 Unmanned taxi control method and unmanned taxi control device
JP6418618B1 (en) * 2017-09-04 2018-11-07 三菱ロジスネクスト株式会社 Vehicle allocation system and vehicle allocation method
JP7013776B2 (en) * 2017-09-29 2022-02-01 日本電気株式会社 Vehicle control device, vehicle, and automatic vehicle allocation method
DE102018222665B4 (en) 2018-12-20 2022-06-02 Volkswagen Aktiengesellschaft Autonomously driving taxi and method for operating an autonomously driving taxi
JP7237684B2 (en) * 2019-03-27 2023-03-13 本田技研工業株式会社 VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
DE102019204348A1 (en) * 2019-03-28 2020-10-01 Volkswagen Aktiengesellschaft Method for route guidance to a target person, electronic device of the target person and electronic device of the person collecting it, as well as a motor vehicle
WO2021084618A1 (en) * 2019-10-29 2021-05-06 三菱電機株式会社 Driving assistance device and driving assistance method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2570395B2 (en) * 1988-07-12 1997-01-08 日本電装株式会社 Sound recognition device
JP2007087337A (en) * 2005-09-26 2007-04-05 Toyota Motor Corp Vehicle peripheral information display device
JP2009098774A (en) * 2007-10-15 2009-05-07 Mitsubishi Electric Corp Person tracking system, person tracking method and person tracking program
JP5574692B2 (en) * 2009-12-17 2014-08-20 キヤノン株式会社 Video information processing method and apparatus
JP2012014482A (en) * 2010-07-01 2012-01-19 Panasonic Corp Determination device for taxi
JP5500392B2 (en) * 2011-06-16 2014-05-21 アイシン精機株式会社 Vehicle periphery monitoring device
JP5742559B2 (en) * 2011-08-01 2015-07-01 アイシン・エィ・ダブリュ株式会社 POSITION DETERMINING DEVICE, NAVIGATION DEVICE, POSITION DETERMINING METHOD, AND PROGRAM
US20130325563A1 (en) * 2012-06-01 2013-12-05 Tai Cheung Poon Systems and methods for maximizing profits and opportunities for taxi drivers

Also Published As

Publication number Publication date
JP2015191641A (en) 2015-11-02

Similar Documents

Publication Publication Date Title
JP6455866B2 (en) Monitoring device, monitoring method, and program
US20210357670A1 (en) Driver Attention Detection Method
JP6227165B2 (en) Image processing apparatus, in-vehicle display system, display apparatus, image processing method, and image processing program
US8085140B2 (en) Travel information providing device
US20170287217A1 (en) Preceding traffic alert system and method
US20160152182A1 (en) Driving support device and driving support method
US10532695B2 (en) Vehicle monitoring device, vehicle monitoring method and vehicle monitoring program
CN111699680B (en) Automobile data recorder, display control method, and storage medium
JP2014239326A (en) Information processing device, approach object notification method and program
JPWO2011108218A1 (en) Vehicle periphery monitoring device
JP2012128748A (en) Vehicle driving support device
JP6020371B2 (en) Vehicle information providing device
CN108482367A (en) A kind of method, apparatus and system driven based on intelligent back vision mirror auxiliary
JP2010044561A (en) Monitoring device to be mounted on vehicle
JP6820075B2 (en) Crew number detection system, occupant number detection method, and program
JP2005222424A (en) Moving body periphery monitoring system, moving body periphery monitoring method, control program, and readable recording medium
TW201623067A (en) Signal alarm device, method, computer readable media, and computer program product
KR101374653B1 (en) Apparatus and method for detecting movement of vehicle
JP2017167608A (en) Object recognition device, object recognition method, and object recognition program
TW201137801A (en) Road condition alarm system, road condition alarm apparatus and method thereof
JP2011191859A (en) Apparatus for monitoring surroundings of vehicle
JP2018097479A (en) Driving support apparatus, driving support method, driving support program, and driving support system
JP2014044458A (en) On-vehicle device and danger notification method
JP2007133644A (en) Pedestrian recognition device
CN113781805A (en) Traffic light control system and control method for preferential passing of special vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181024

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20181101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181213

R150 Certificate of patent or registration of utility model

Ref document number: 6455866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees