JP6922951B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP6922951B2
JP6922951B2 JP2019148085A JP2019148085A JP6922951B2 JP 6922951 B2 JP6922951 B2 JP 6922951B2 JP 2019148085 A JP2019148085 A JP 2019148085A JP 2019148085 A JP2019148085 A JP 2019148085A JP 6922951 B2 JP6922951 B2 JP 6922951B2
Authority
JP
Japan
Prior art keywords
image
moving object
region
moving
object region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019148085A
Other languages
Japanese (ja)
Other versions
JP2021028807A (en
Inventor
谷口 友宏
友宏 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP2019148085A priority Critical patent/JP6922951B2/en
Publication of JP2021028807A publication Critical patent/JP2021028807A/en
Application granted granted Critical
Publication of JP6922951B2 publication Critical patent/JP6922951B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像中の移動物体に対応する像を示す領域を特定する画像処理装置および画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for specifying a region showing an image corresponding to a moving object in an image.

従来、エレベータのかごに乗車しようとする利用者をセンサ等により検出し、その検出結果を用いてエレベータのドアの開閉動作を制御する技術が知られている。 Conventionally, there is known a technique of detecting a user who is going to get in an elevator car with a sensor or the like and using the detection result to control an opening / closing operation of an elevator door.

例えば、特許文献1には、以下のようなエレベータの乗車検知システムが記載されている。この乗車検知システムでは、先ず、エレベータの乗場を撮像した複数枚の画像についてブロック単位で輝度を比較することにより、動きが有ると判定されたブロックの中からエレベータのドアに最も近いブロックを利用者の足元位置として推定する。そして、推定した足元位置の時系列変化に基づいて上記利用者が乗車意思を有すると判定された場合、ドアの戸開状態を継続する、または戸閉動作を中断して戸開動作を行う。 For example, Patent Document 1 describes the following elevator boarding detection system. In this boarding detection system, first, the brightness of a plurality of images of the elevator landing is compared in block units, and the block closest to the elevator door is selected from the blocks determined to be moving. Estimated as the foot position of. Then, when it is determined that the user has an intention to board the vehicle based on the estimated time-series change of the foot position, the door is continued to be opened, or the door closing operation is interrupted to perform the door opening operation.

特開2017−124898号公報Japanese Unexamined Patent Publication No. 2017-1248998

しかしながら、例えばエレベータの乗場に複数の移動物体が存在する場合、カメラの撮像画像中における複数の移動物体のそれぞれに対応する領域について、複数の画像間で追跡する処理を行うことが求められる。 However, for example, when a plurality of moving objects are present on the landing of an elevator, it is required to perform a process of tracking between the plurality of images for a region corresponding to each of the plurality of moving objects in the captured image of the camera.

本発明は、エレベータの乗場に複数の移動物体が存在する場合であっても、カメラの撮像画像に基づいて、画像中における複数の移動物体のそれぞれに対応する領域を追跡することができる技術を提供することを目的とする。 The present invention provides a technique capable of tracking a region corresponding to each of a plurality of moving objects in an image based on an image captured by a camera even when a plurality of moving objects are present on the landing of the elevator. The purpose is to provide.

上記の課題を解決するために、本発明の一態様に係る画像処理装置は、エレベータの乗場をカメラにて撮像した画像を取得する画像取得部と、前記画像における、前記乗場に存在する移動物体に対応する像を示す移動物体領域を決定する移動物体決定部と、前記画像であって所定の時間差を有する第1の画像および第2の画像について、前記第1の画像中に含まれる複数の第1の移動物体領域にそれぞれ対応する複数の第1の対応図形、および、前記第2の画像中に含まれる複数の第2の移動物体領域にそれぞれ対応する複数の第2の対応図形を設定する図形設定部と、複数の前記第1の対応図形のうちの或る1つと、複数の前記第2の対応図形のそれぞれとの互いの重なり度を算出する重なり度算出部と、前記第1の画像中において、或る1つの前記第1の対応図形に対応する前記第1の移動物体領域にて像が示される前記移動物体を処理対象物体とし、前記第2の画像中において、前記乗場に存在する、前記処理対象物体と同一の前記移動物体に対応する像を示す前記第2の移動物体領域を対応物体領域として、前記重なり度が所定の基準値以上であることに基づいて前記対応物体領域を特定する追跡処理部と、を備えている。 In order to solve the above problems, the image processing apparatus according to one aspect of the present invention includes an image acquisition unit that acquires an image of an elevator landing with a camera, and a moving object existing in the landing in the image. A plurality of images included in the first image with respect to a moving object determination unit that determines a moving object region showing an image corresponding to the image, and a first image and a second image having a predetermined time difference in the images. A plurality of first corresponding figures corresponding to the first moving object area and a plurality of second corresponding figures corresponding to the plurality of second moving object areas included in the second image are set. An overlap degree calculation unit for calculating the degree of overlap between the image setting unit, one of the plurality of the first corresponding figures, and each of the plurality of the second corresponding figures, and the first In the image of, the moving object whose image is shown in the first moving object region corresponding to the first corresponding figure is set as the object to be processed, and in the second image, the landing is The second moving object region showing an image corresponding to the moving object that is the same as the processing target object existing in the corresponding object region is set as the corresponding object region, and the correspondence is based on the overlap degree being equal to or higher than a predetermined reference value. It is provided with a tracking processing unit that identifies an object area.

また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、エレベータの乗場をカメラにて撮像した画像を取得する画像取得ステップと、前記画像における、前記乗場に存在する移動物体に対応する像を示す移動物体領域を決定する移動物体決定ステップと、前記画像であって所定の時間差を有する第1の画像および第2の画像について、前記第1の画像中に含まれる複数の第1の移動物体領域にそれぞれ対応する複数の第1の対応図形、および、前記第2の画像中に含まれる複数の第2の移動物体領域にそれぞれ対応する複数の第2の対応図形を設定する図形設定ステップと、複数の前記第1の対応図形のうちの或る1つと、複数の前記第2の対応図形のそれぞれとの互いの重なり度を算出する重なり度算出ステップと、前記第1の画像中において、或る1つの前記第1の対応図形に対応する前記第1の移動物体領域にて像が示される前記移動物体を処理対象物体とし、前記第2の画像中において、前記乗場に存在する、前記処理対象物体と同一の前記移動物体に対応する像を示す前記第2の移動物体領域を対応物体領域として、前記重なり度が所定の基準値以上であることに基づいて前記対応物体領域を特定する追跡処理ステップと、を含む。 Further, in order to solve the above-mentioned problems, the image processing method according to one aspect of the present invention exists in the image acquisition step of acquiring an image of the landing of the elevator with a camera and the landing in the image. The moving object determination step for determining a moving object region showing an image corresponding to a moving object, and the first image and the second image having a predetermined time difference in the images are included in the first image. A plurality of first corresponding figures corresponding to a plurality of first moving object regions, and a plurality of second corresponding figures corresponding to a plurality of second moving object regions included in the second image. An overlap degree calculation step for calculating the degree of overlap between a certain one of the plurality of the first corresponding figures and each of the plurality of the second corresponding figures, and the above-mentioned. In the first image, the moving object whose image is shown in the first moving object region corresponding to a certain first corresponding figure is set as a processing target object, and in the second image, Based on the fact that the degree of overlap is equal to or higher than a predetermined reference value, with the second moving object region existing in the landing and showing an image corresponding to the moving object same as the processing target object as the corresponding object region. A tracking process step of identifying the corresponding object area is included.

本発明の一態様によれば、エレベータの乗場に複数の移動物体が存在する場合であっても、カメラの撮像画像中における複数の移動物体のそれぞれに対応する領域を、対応図形の重なり度に基づいて追跡することができるという効果を奏する。 According to one aspect of the present invention, even when a plurality of moving objects are present on the landing of the elevator, the region corresponding to each of the plurality of moving objects in the image captured by the camera is set to the degree of overlap of the corresponding figures. It has the effect of being able to track based on.

本発明の一実施形態における乗車検知システムの要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the boarding detection system in one Embodiment of this invention. 上記乗車検知システムの概要構成の一例を示す概略図である。It is a schematic diagram which shows an example of the outline structure of the boarding detection system. 上記乗車検知システムによる乗車検知および戸開閉動作制御の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the process flow of the boarding detection and the door opening / closing operation control by the boarding detection system. (a)は輝度差分演算部が実行する処理の流れの一例を示すフローチャートであり、(b)は輝度差分演算部による処理後の画像の一例について、各画素の値を可視化して全画素を一望するように示す図である。(A) is a flowchart showing an example of the flow of processing executed by the luminance difference calculation unit, and (b) is an example of an image processed by the luminance difference calculation unit, and the value of each pixel is visualized to display all pixels. It is a figure which shows in a panoramic view. (a)はカメラによる撮像画像の一例を示す図であり、(b)は所定の基準角度規則について説明するための図である。(A) is a diagram showing an example of an image captured by a camera, and (b) is a diagram for explaining a predetermined reference angle rule. 2枚の撮像画像を用いて算出したオプティカルフローに基づいて分類処理を行った結果を示す画像の一例について、各画素に対応付けられた画素方向情報を可視化して全画素を一望するように示す図である。For an example of an image showing the result of performing classification processing based on an optical flow calculated using two captured images, the pixel direction information associated with each pixel is visualized so that all pixels can be overlooked. It is a figure. 物体候補領域設定部による処理後の画像の一例について、各画素に対応付けられた移動領域情報に基づいて何れかの移動領域に属していると識別された複数の画素を対象として、画素方向情報の分布状況を一望するように可視化して示す図である。For an example of an image processed by the object candidate area setting unit, pixel direction information is provided for a plurality of pixels identified as belonging to any of the moving areas based on the moving area information associated with each pixel. It is a figure which visualizes and shows the distribution state of. 移動物体・方向決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of moving object / direction determination processing. 決定処理部による処理後の画像の一例について、移動物体領域の各画素に対応付けられた物体方向情報を可視化して、物体方向情報の分布状況を一望するように示す図である。For an example of the image processed by the determination processing unit, it is a figure which visualizes the object direction information associated with each pixel of a moving object area, and shows the distribution state of the object direction information in a panoramic view. 物体追跡部における処理の概要について説明するための図である。It is a figure for demonstrating the outline of processing in an object tracking part. 物体追跡部が実行する追跡処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the tracking process executed by the object tracking unit. 時点[t+1]における移動物体領域について移動方向の無を解消する解消処理の一例を示すフローチャートである。It is a flowchart which shows an example of the elimination process which eliminates the absence of the moving direction about the moving object area at a time point [t + 1]. 時点[t]の移動物体領域に対応する時点[t+1]の移動物体領域を特定する特定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the specific process which specifies the moving object area of time point [t + 1] corresponding to the moving object area of time point [t]. 変動係数演算部における処理の一例について説明するための図である。It is a figure for demonstrating an example of processing in a coefficient of variation calculation part. 意思推定部が実行する乗車意思推定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the boarding intention estimation processing executed by the intention estimation unit. 意思推定部が実行する乗車意思推定処理の一例について説明するための図である。It is a figure for demonstrating an example of the boarding intention estimation processing executed by the intention estimation unit. 本発明の実施形態2の乗車検知システムにおける動作制御部が実行する戸開閉動作の制御において用いられる広範判定領域について説明するための図である。It is a figure for demonstrating the wide determination area used in the control of the door opening / closing operation executed by the operation control part in the boarding detection system of Embodiment 2 of this invention. かご戸が戸開状態の場合における、動作制御部が実行する戸開閉動作の制御の一例について説明するための図である。It is a figure for demonstrating an example of the control of the door opening / closing operation executed by the operation control part when the car door is in the door open state. かご戸が戸閉動作中の場合における、動作制御部が実行する戸開閉動作の制御の一例について説明するための図である。It is a figure for demonstrating an example of the control of the door opening / closing operation executed by the operation control part when the car door is in the door closing operation.

〔実施形態1〕
本発明の一実施形態について、図1〜図16を用いて説明すれば、以下のとおりである。
[Embodiment 1]
An embodiment of the present invention will be described with reference to FIGS. 1 to 16 as follows.

<本実施形態における乗車検知システム10>
本実施形態におけるエレベータの乗車検知システム10の構成について、図1および図2を参照して説明する。図1は、本実施形態における乗車検知システム10の要部構成の一例を示すブロック図である。図2は、乗車検知システム10の概要構成の一例を示す概略図である。
<Ride detection system 10 in this embodiment>
The configuration of the elevator boarding detection system 10 in the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram showing an example of a main configuration of the boarding detection system 10 according to the present embodiment. FIG. 2 is a schematic view showing an example of a schematic configuration of the boarding detection system 10.

図1および図2に示すように、乗車検知システム10は、かご20、画像処理装置30、制御装置40、および戸開閉装置50を含む。 As shown in FIGS. 1 and 2, the boarding detection system 10 includes a car 20, an image processing device 30, a control device 40, and a door opening / closing device 50.

かご20は、昇降路(図示省略)内を昇降して、建物の各階の乗場2へ移動する。かご20の出入口にはかご戸22が設けられており、かご戸22は、ドア開閉路24(図16参照)に沿って開閉する。かご戸22の上方の幕板(トランサム)23の近傍にカメラ21が設置されている。カメラ21は、所定の撮像視野にて乗場2を撮像可能となっており、例えば、奥行がかご戸22の開閉路から乗場2の方向に数mであり、幅がかご20の横幅以上の撮像視野となっている。カメラ21は、例えば広角レンズを有する小型の監視カメラであり、具体的な性能および設置位置は特に限定されない。例えば、幕板23の内部にカメラ21が設けられていてもよい。 The car 20 moves up and down in the hoistway (not shown) to the landing 2 on each floor of the building. A car door 22 is provided at the entrance / exit of the car 20, and the car door 22 opens and closes along a door opening / closing path 24 (see FIG. 16). A camera 21 is installed near the curtain plate (transom) 23 above the car door 22. The camera 21 can image the landing 2 in a predetermined imaging field of view. For example, the depth is several meters in the direction of the landing 2 from the opening / closing path of the car door 22, and the width is equal to or larger than the width of the car 20. It is a field of view. The camera 21 is, for example, a small surveillance camera having a wide-angle lens, and its specific performance and installation position are not particularly limited. For example, the camera 21 may be provided inside the curtain plate 23.

乗場2には、かご20の到着に合わせて開閉する乗場戸3が設置されている。乗場戸3はかご戸22に連動するようになっており、例えばかご戸22が戸開動作する場合、かご戸22に追従して乗場戸3も戸開動作する。 The landing 2 is provided with a landing door 3 that opens and closes when the car 20 arrives. The landing door 3 is interlocked with the car door 22, and for example, when the car door 22 opens the door, the landing door 3 also opens the door following the car door 22.

乗場2には移動物体1が存在し得る。この移動物体1は、典型的には人物である。そのため、以下では、移動物体1として、歩行する人物(利用者)を例示して説明する。なお、移動物体1は歩行する人物に限定されない。本発明の一態様における乗車検知システム10は、例えば、車いすで移動している人物、荷物を載せた台車等の運搬物体、自動走行機器(例えば走行ロボット)、等の種々の移動物体に適用することもできる。乗車検知システム10は、そのような各種の移動物体について、後述するように乗車意思を推定する処理を行うとともに、推定結果に応じて戸開閉動作を制御する。 A moving object 1 may exist at the landing 2. The moving object 1 is typically a person. Therefore, in the following, a walking person (user) will be illustrated and described as the moving object 1. The moving object 1 is not limited to a walking person. The boarding detection system 10 according to one aspect of the present invention is applied to various moving objects such as a person moving in a wheelchair, a carrying object such as a trolley carrying luggage, and an automatic traveling device (for example, a traveling robot). You can also do it. The boarding detection system 10 performs processing for estimating the boarding intention for such various moving objects as described later, and controls the door opening / closing operation according to the estimation result.

画像処理装置30は、カメラ21と通信可能に接続されており、カメラ21から受信した撮像画像に対して所定の処理を行う。この処理について詳しくは後述する。 The image processing device 30 is communicably connected to the camera 21 and performs predetermined processing on the captured image received from the camera 21. This process will be described in detail later.

画像処理装置30は、画像取得部31、記憶部32、移動物体決定部33、物体追跡部34、および変動係数演算部35を備えており、これらの各部はシステムバス39に接続されている。 The image processing device 30 includes an image acquisition unit 31, a storage unit 32, a moving object determination unit 33, an object tracking unit 34, and a coefficient of variation calculation unit 35, and each of these units is connected to the system bus 39.

移動物体決定部33、物体追跡部34、および変動係数演算部35は、概して以下のような処理を行う。移動物体決定部33は、記憶部32から読み出した、または画像取得部31から取得した複数枚の撮像画像を用いて、画像中の移動物体およびその移動方向を示す移動物体領域を決定する処理を行う。物体追跡部34は、移動物体決定部33によって決定された移動物体領域について追跡処理を行う。変動係数演算部35は、画像中に含まれる1つ以上の移動物体領域のそれぞれについて、かご20への乗車意思を推定する対象とすべきか否かを判定する指標となる、移動物体領域における変動係数を算出する処理を行う。 The moving object determination unit 33, the object tracking unit 34, and the coefficient of variation calculation unit 35 generally perform the following processing. The moving object determination unit 33 performs a process of determining a moving object in the image and a moving object region indicating the moving direction thereof by using a plurality of captured images read from the storage unit 32 or acquired from the image acquisition unit 31. conduct. The object tracking unit 34 performs tracking processing on the moving object region determined by the moving object determining unit 33. The coefficient of variation calculation unit 35 is an index for determining whether or not each of one or more moving object regions included in the image should be a target for estimating the intention to board the car 20, and the variation in the moving object region. Performs the process of calculating the coefficient.

移動物体決定部33には、輝度差分演算部331、オプティカルフロー演算部332、物体候補領域設定部333、および決定処理部334が含まれている。物体追跡部34には、図形設定部341、重なり度算出部342、および追跡処理部343が含まれている。 The moving object determination unit 33 includes a luminance difference calculation unit 331, an optical flow calculation unit 332, an object candidate area setting unit 333, and a determination processing unit 334. The object tracking unit 34 includes a graphic setting unit 341, an overlap degree calculation unit 342, and a tracking processing unit 343.

制御装置40は、画像処理装置30および戸開閉装置50と通信可能に接続されており、画像処理装置30から受信した情報に基づいて、戸開閉装置50を用いてかご20の戸開閉動作を制御する。制御装置40が実行する処理について、詳しくは後述するが、制御装置40は、概略的には、或る移動物体領域についてかご20への乗車意思の推定処理を行い、その結果に応じてかご戸22の戸開閉動作(戸開状態の延長等)の制御を行う。 The control device 40 is communicably connected to the image processing device 30 and the door opening / closing device 50, and controls the door opening / closing operation of the car 20 using the door opening / closing device 50 based on the information received from the image processing device 30. do. The process executed by the control device 40 will be described in detail later, but the control device 40 generally performs an estimation process of the intention to get into the car 20 for a certain moving object area, and the car door according to the result. It controls the door opening / closing operation (extension of the door open state, etc.) of 22.

制御装置40は、記憶部41および制御部42を備えている。記憶部41には、判定領域データ411および意思推定条件データ412が含まれている。制御部42には、意思推定部421および動作制御部422が含まれている。 The control device 40 includes a storage unit 41 and a control unit 42. The storage unit 41 includes determination area data 411 and intention estimation condition data 412. The control unit 42 includes an intention estimation unit 421 and an operation control unit 422.

戸開閉装置50は、かご戸22を開閉動作させるためのモータおよびモータ制御部等を備え、制御装置40から受信した指令に基づいてかご戸22の開閉動作を制御する。戸開閉装置50としては、公知の装置を適用すればよく、詳細な説明は省略する。 The door opening / closing device 50 includes a motor for opening / closing the car door 22, a motor control unit, and the like, and controls the opening / closing operation of the car door 22 based on a command received from the control device 40. As the door opening / closing device 50, a known device may be applied, and detailed description thereof will be omitted.

以上に概略を説明した画像処理装置30、制御装置40、および戸開閉装置50は、典型的にはかご20の天板上(かご上ステーション)に設置されている。但し、これらの設置位置は特に限定されない。例えば、画像処理装置30は、幕板23内部に収納されていてもよく、カメラ21と一体化して設置されていてもよい。また、例えば、画像処理装置30および制御装置40は、エレベータにおける機械室(図示省略)に設置されていてもよく、制御盤(図示省略)における一機能として実現されていてもよい。 The image processing device 30, the control device 40, and the door opening / closing device 50, which have been outlined above, are typically installed on the top plate (cage station) of the car 20. However, these installation positions are not particularly limited. For example, the image processing device 30 may be housed inside the curtain plate 23, or may be installed integrally with the camera 21. Further, for example, the image processing device 30 and the control device 40 may be installed in a machine room (not shown) in the elevator, or may be realized as one function in the control panel (not shown).

これらの各部の詳細について、本実施形態における乗車検知システム10が実行する処理の流れと合わせて以下に説明する。図3は、乗車検知システム10による乗車検知および戸開閉動作制御の処理の流れの一例を示すフローチャートである。 The details of each of these parts will be described below together with the flow of processing executed by the boarding detection system 10 in the present embodiment. FIG. 3 is a flowchart showing an example of a flow of processing for boarding detection and door opening / closing operation control by the boarding detection system 10.

図3に示すように、先ず、かご20が任意の階の乗場2に到着すると、戸開閉装置50は、動力機構(ドアモータ)を制御してかご戸22を戸開する(ステップ1;以下、S1のように略記する)。かご20に設けられたカメラ21は、所定の間隔(例えば30コマ/秒)にて乗場2を撮像し、撮像画像を画像処理装置30に送信する。カメラ21からの撮像画像の出力サイズ(以下、第1の画素数と称することがある)は特に限定されない。第1の画素数は、例えば、動画像を撮像する一般的な監視カメラ等における性能(出力サイズ)に対応する。 As shown in FIG. 3, first, when the car 20 arrives at the landing 2 on an arbitrary floor, the door opening / closing device 50 controls the power mechanism (door motor) to open the car door 22 (step 1; hereinafter, hereinafter, Abbreviated as S1). The camera 21 provided in the car 20 images the landing 2 at a predetermined interval (for example, 30 frames / second) and transmits the captured image to the image processing device 30. The output size of the captured image from the camera 21 (hereinafter, may be referred to as the first number of pixels) is not particularly limited. The first number of pixels corresponds to, for example, the performance (output size) of a general surveillance camera or the like that captures a moving image.

次いで、画像処理装置30内の画像取得部31は、カメラ21から送信された撮像画像を順次取得する(S2:画像取得ステップ)。換言すれば、画像取得部31は、エレベータの乗場をカメラ21にて撮像した動画像を構成する複数の撮像画像を取得し、取得した撮像画像を、システムバス39を通じて記憶部32に順次保存する。また、画像取得部31は、取得した撮像画像を移動物体決定部33に順次送信してもよい。 Next, the image acquisition unit 31 in the image processing device 30 sequentially acquires the captured images transmitted from the camera 21 (S2: image acquisition step). In other words, the image acquisition unit 31 acquires a plurality of captured images constituting a moving image obtained by capturing the elevator landing with the camera 21, and sequentially stores the acquired captured images in the storage unit 32 through the system bus 39. .. Further, the image acquisition unit 31 may sequentially transmit the acquired captured images to the moving object determination unit 33.

記憶部32は、揮発性または不揮発性の記憶装置である。記憶部32は、画像処理装置30の各部の処理に用いられるデータおよび処理後のデータを保存するために適宜用いられる。 The storage unit 32 is a volatile or non-volatile storage device. The storage unit 32 is appropriately used to store the data used for processing each part of the image processing apparatus 30 and the data after processing.

その後、乗車検知システム10は、概略的には以下のような処理を行う。すなわち、移動物体決定部33は、先ず、輝度差分演算部331とオプティカルフロー演算部332とが互いに並列に処理を行う(S3A、S3B)。そして、物体候補領域設定部333は、輝度差分演算部331およびオプティカルフロー演算部332の処理結果を用いて、画像中の物体候補領域を設定する(S4)。次いで、決定処理部334は、上記設定した物体候補領域について所定の判定処理を行うことにより、乗場2に存在する移動物体1の像を画像中にて示す移動物体領域を決定する(S5)。そして、物体追跡部34は、2つの異なる時点にて撮像した2枚の画像について、時間的に前の第1の画像中の或る移動物体領域にて像が示されている移動物体1に対応する、時間的に後の第2の画像中の移動物体領域を特定する処理を行う(S6)。また、変動係数演算部35は、移動物体領域における変動係数(詳しくは後述)を算出する処理を行う(S7)。意思推定部421は、上記S6の結果および上記S7の結果を用いて、移動物体領域に対応する移動物体1の乗車意思を推定する処理を行う(S8)。動作制御部422は、意思推定部421における処理の結果を用いて、かご戸22の戸開閉動作を制御する(S9)。乗車検知システム10は、かご戸22が戸閉状態となった場合(S10でYES)には処理を終了し、戸閉状態となっていない場合(S10でNO)には上記S2からの処理を再度行う。 After that, the boarding detection system 10 roughly performs the following processing. That is, in the moving object determination unit 33, first, the luminance difference calculation unit 331 and the optical flow calculation unit 332 perform processing in parallel with each other (S3A, S3B). Then, the object candidate area setting unit 333 sets the object candidate area in the image by using the processing results of the luminance difference calculation unit 331 and the optical flow calculation unit 332 (S4). Next, the determination processing unit 334 determines the moving object region that shows the image of the moving object 1 existing in the landing 2 in the image by performing a predetermined determination process on the set object candidate region (S5). Then, the object tracking unit 34 transfers the two images captured at two different time points to the moving object 1 whose image is shown in a certain moving object region in the first image in time. A process for identifying a moving object region in the second image, which is later in time, is performed (S6). Further, the coefficient of variation calculation unit 35 performs a process of calculating the coefficient of variation (detailed later) in the moving object region (S7). The intention estimation unit 421 performs a process of estimating the boarding intention of the moving object 1 corresponding to the moving object region by using the result of the above S6 and the result of the above S7 (S8). The motion control unit 422 controls the door opening / closing operation of the car door 22 by using the result of the process in the intention estimation unit 421 (S9). The boarding detection system 10 ends the process when the car door 22 is in the closed state (YES in S10), and performs the process from S2 above when the car door 22 is not in the closed state (NO in S10). Do it again.

以下、移動物体決定部33における各部が実行する処理(S3A、S3B、S4、S5)について、図4〜図9を用いて説明する。 Hereinafter, the processes (S3A, S3B, S4, S5) executed by each unit in the moving object determination unit 33 will be described with reference to FIGS. 4 to 9.

(S3A.輝度差分演算)
輝度差分演算部331は、所定の時間差を有する2つの時点のそれぞれにて画像を撮像して得られた2枚の撮像画像を用いて、輝度の差分に基づく演算処理を実行する。そして、2枚の撮像画像間で輝度差が所定の閾値以上である画素が連続している領域であって、前記画像における動きの有る領域(移動領域)を検出する(S3A:輝度差分演算ステップ)。この演算処理について、図4を用いて以下に説明する。図4の(a)は、輝度差分演算部331が実行する処理の流れの一例を示すフローチャートである。
(S3A. Luminance difference calculation)
The brightness difference calculation unit 331 executes a calculation process based on the difference in brightness using the two captured images obtained by capturing images at each of the two time points having a predetermined time difference. Then, a region (moving region) in which the pixels having a brightness difference of the predetermined threshold value or more between the two captured images are continuous and there is movement in the image is detected (S3A: luminance difference calculation step). ). This arithmetic processing will be described below with reference to FIG. FIG. 4A is a flowchart showing an example of the flow of processing executed by the luminance difference calculation unit 331.

以下、本明細書において、カメラ21の撮像処理におけるフレームレートの1フレームを時間単位として説明する。例えば、カメラ21により撮像された、或る時点[t−1]における撮像画像と、その次の時点[t]の撮像画像とは連続画像である。ここでは、2枚の撮像画像として、時点[t]における撮像画像P(t)と、時点[t]よりも1フレーム前の時点[t−1]における撮像画像P(t−1)とを用いる場合について説明するが、これは例示であって、2枚の撮像画像は必ずしも時間的な連続画像でなくてもよい。本演算処理によって、輝度の差分に基づいて移動領域を算出可能であればよく、2枚の撮像画像の時間間隔は特に限定されない。所定の時間差は、例えば、カメラ21にて撮像された動画のフレームレートに対応する1フレーム〜数十フレームの範囲内の所定の値にて表される時間であってよく、1秒〜数秒の範囲内の所定の時間であってもよい。 Hereinafter, in the present specification, one frame of the frame rate in the imaging process of the camera 21 will be described as a time unit. For example, the captured image at a certain time point [t-1] and the captured image at the next time point [t] captured by the camera 21 are continuous images. Here, as two captured images, the captured image P (t) at the time point [t] and the captured image P (t-1) at the time point [t-1] one frame before the time point [t] are used. The case of using the image will be described, but this is an example, and the two captured images do not necessarily have to be continuous images in time. The time interval between the two captured images is not particularly limited as long as the moving region can be calculated based on the difference in brightness by this arithmetic processing. The predetermined time difference may be, for example, a time represented by a predetermined value within the range of 1 frame to several tens of frames corresponding to the frame rate of the moving image captured by the camera 21, and may be 1 second to several seconds. It may be a predetermined time within the range.

画像取得部31にて取得された撮像画像は、通常、カラー画像である。本実施形態における輝度差分演算部331は、画像取得部31にて取得された撮像画像をグレースケールに変換する処理を行う(S3A1)。時点[t]における変換後の画像をグレー画像GP(t)と称する。同様に、輝度差分演算部331は、時点[t−1]における撮像画像P(t−1)をグレースケールに変換する処理を行い、時点[t−1]におけるグレー画像GP(t−1)を生成する。具体的には、本処理では、画像データから抽出した輝度データに基づいてグレースケール画像を生成する。なお、その他の公知の方法を用いて、グレースケール画像を生成してもよい。 The captured image acquired by the image acquisition unit 31 is usually a color image. The luminance difference calculation unit 331 in the present embodiment performs a process of converting the captured image acquired by the image acquisition unit 31 into grayscale (S3A1). The converted image at the time point [t] is referred to as a gray image GP (t). Similarly, the luminance difference calculation unit 331 performs a process of converting the captured image P (t-1) at the time point [t-1] into grayscale, and the gray image GP (t-1) at the time point [t-1]. To generate. Specifically, in this process, a grayscale image is generated based on the luminance data extracted from the image data. A grayscale image may be generated by using other known methods.

次いで、輝度差分演算部331は、グレー画像GP(t−1)とグレー画像GP(t)との差分画像を生成する(S3A2)。時点[t]に関して生成した差分画像を差分画像DP(t)と称する。具体的には、この差分画像DP(t)は、グレー画像GP(t−1)とグレー画像GP(t)とについて画素毎に輝度差を算出し、算出した輝度差が各画素に対応付けられて表される。 Next, the luminance difference calculation unit 331 generates a difference image between the gray image GP (t-1) and the gray image GP (t) (S3A2). The difference image generated with respect to the time point [t] is referred to as a difference image DP (t). Specifically, the difference image DP (t) calculates the brightness difference for each pixel between the gray image GP (t-1) and the gray image GP (t), and the calculated brightness difference is associated with each pixel. Is represented.

次いで、輝度差分演算部331は、差分画像DP(t)における各画素について、二値化処理を行う(S3A3)。具体的には、或る画素における輝度差が所定の閾値(二値化基準値)以上である場合、当該画素の画素値を「1」(例えば白)とし、上記閾値未満である場合に当該画素の画素値を「0」(例えば黒)とする。差分画像DP(t)について二値化処理を行うことにより生成した画像を二値化画像BP(t)と称する。 Next, the luminance difference calculation unit 331 performs binarization processing on each pixel in the difference image DP (t) (S3A3). Specifically, when the brightness difference in a certain pixel is equal to or more than a predetermined threshold value (binarization reference value), the pixel value of the pixel is set to "1" (for example, white), and when it is less than the above threshold value, the pixel value is set to "1" (for example, white). The pixel value of the pixel is set to "0" (for example, black). The image generated by performing the binarization process on the difference image DP (t) is referred to as a binarized image BP (t).

次いで、輝度差分演算部331は、二値化画像BP(t)について膨張処理を実行する(S3A4)。例えば、膨張処理は、3×3のマトリクスの中心画素について、該中心画素の周囲の8個の画素のうち、「1」の画素値を有する画素が1個でも存在する場合、該中心画素の画素値を「1」とする処理である。この膨張処理は複数回実行されてもよい。 Next, the luminance difference calculation unit 331 executes the expansion process on the binarized image BP (t) (S3A4). For example, in the expansion process, when there is at least one pixel having a pixel value of "1" among the eight pixels around the center pixel for the center pixel of the 3 × 3 matrix, the center pixel This is a process in which the pixel value is set to "1". This expansion process may be executed a plurality of times.

輝度差分演算部331は、上記膨張処理後の画像について、収縮処理を実行する(S3A5)。例えば、収縮処理は、3×3のマトリクスの中心画素について、該中心画素の周囲の8個の画素のうち、「0」の画素値を有する画素が1個でも存在する場合、該中心画素の画素値を「0」とする処理である。この収縮処理は、上記膨張処理と同じ回数実行されてもよく、膨張処理の回数と収縮処理の回数とは互いに異なっていてもよい。上記膨張処理および収縮処理におけるフィルタサイズ(上記マトリクスの大きさ)は、例えば3×5のサイズであってもよく、その他のサイズであってもよい。 The luminance difference calculation unit 331 executes a contraction process on the image after the expansion process (S3A5). For example, in the shrinkage processing, when there is at least one pixel having a pixel value of "0" among the eight pixels around the center pixel for the center pixel of the 3 × 3 matrix, the center pixel This is a process in which the pixel value is set to "0". This shrinkage treatment may be executed the same number of times as the expansion treatment, and the number of expansion treatments and the number of shrinkage treatments may be different from each other. The filter size (size of the matrix) in the expansion treatment and the contraction treatment may be, for example, a size of 3 × 5, or any other size.

そして、輝度差分演算部331は、上記収縮処理後の画像について、補間処理を実行する(S3A6)。この補間処理とは、例えば以下のような処理である。すなわち、例えば「1」の画素値を有する画素が連続(隣接)している領域を領域a1とし、画像中の領域a1内において「0」の画素値を有する画素からなる領域a2が部分的に存在するとする。この領域a2は、換言すれば、領域a1の画素にて囲まれている狭小領域である。この場合、領域a2を形成する画素について画素値が「1」となるように補間処理を行う。これにより、領域a1中の抜けとなっている領域a2を埋めることができる。 Then, the luminance difference calculation unit 331 executes interpolation processing on the image after the shrinkage processing (S3A6). This interpolation process is, for example, the following process. That is, for example, a region in which pixels having a pixel value of "1" are continuous (adjacent) is defined as a region a1, and a region a2 composed of pixels having a pixel value of "0" is partially included in the region a1 in the image. Suppose it exists. In other words, this region a2 is a narrow region surrounded by the pixels of the region a1. In this case, the interpolation process is performed so that the pixel value of the pixels forming the region a2 is "1". As a result, the missing region a2 in the region a1 can be filled.

本明細書において、輝度差分演算部331による処理後の画像を第1の処理後画像TP1と称する。上記のような処理によって得られた第1の処理後画像TP1では、各画素の値が「1」または「0」となっている。第1の処理後画像TP1の一例について、画素値が「1」を「白」、画素値が「0」を「黒」で表して、全画素を一望するように可視化(図示)したものを図4の(b)に示す。 In the present specification, the image after processing by the luminance difference calculation unit 331 is referred to as a first processed image TP1. In the first processed image TP1 obtained by the above processing, the value of each pixel is "1" or "0". Regarding an example of the first processed image TP1, the pixel value “1” is represented by “white” and the pixel value “0” is represented by “black”, and the image is visualized (shown) so as to overlook all the pixels. It is shown in (b) of FIG.

図4の(b)に示すように、第1の処理後画像TP1は、輝度差分演算部331による処理によって抽出された領域であって、輝度差分が比較的大きく、移動物体を示す蓋然性の高い領域(移動領域MA)を含む。本実施形態では、移動領域MAは、第1の処理後画像TP1において「1」の画素値を有する画素が連続(隣接)している領域である。本明細書において、画像中の各画素について、どの(何れの)移動領域MAに属している画素か、またはどの移動領域にも属していない画素か、を示す情報を、移動領域情報と称することがある。図4の(b)に示す第1の処理後画像TP1は、4つの移動領域MAを含む。 As shown in FIG. 4B, the first processed image TP1 is a region extracted by processing by the luminance difference calculation unit 331, has a relatively large luminance difference, and is highly probable to indicate a moving object. Includes area (moving area MA). In the present embodiment, the moving region MA is an region in which pixels having a pixel value of “1” in the first processed image TP1 are continuous (adjacent). In the present specification, information indicating which (any) movement region MA of each pixel in the image belongs to or does not belong to any movement region is referred to as movement region information. There is. The first processed image TP1 shown in FIG. 4B includes four moving regions MA.

(S3Aの補記事項)
上記S3A1〜S3A6の処理においては、縮小処理によって上述の第1の画素数(カメラ21の出力サイズ)よりも縮小した第2の画素数を有する画像を用いることが好ましい。この縮小処理は、例えば画像取得部31または輝度差分演算部331によって行われてよい。これにより、輝度差分演算部331による処理効率を向上させることができる。このような縮小処理は、公知の手法を用いて行うことができる。
(Supplementary information for S3A)
In the processing of S3A1 to S3A6, it is preferable to use an image having a second pixel number reduced from the above-mentioned first pixel number (output size of the camera 21) by the reduction processing. This reduction process may be performed by, for example, the image acquisition unit 31 or the luminance difference calculation unit 331. As a result, the processing efficiency of the luminance difference calculation unit 331 can be improved. Such reduction processing can be performed using a known method.

(S3B.オプティカルフロー演算)
上記輝度差分演算処理と並行して、オプティカルフロー演算部332は、2枚の撮像画像を用いて、オプティカルフロー演算処理を実行し、画像中の各画素のオプティカルフローを算出する(S3B:オプティカルフロー演算ステップ)。オプティカルフロー演算部332は、2枚の撮像画像として、前述の輝度差分演算処理と時間的に対応する時点のデータを用いる。典型的には、輝度差分演算部331と同様に、カラー画像である撮像画像P(t)および撮像画像P(t−1)を用いる。しかし、輝度差分演算部331におけるグレースケール変換処理S3A1により生成したグレー画像GP(t)およびグレー画像GP(t−1)を用いてもよい。
(S3B. Optical flow calculation)
In parallel with the luminance difference calculation process, the optical flow calculation unit 332 executes the optical flow calculation process using the two captured images and calculates the optical flow of each pixel in the image (S3B: optical flow). Calculation step). The optical flow calculation unit 332 uses the data at the time point corresponding to the above-mentioned luminance difference calculation process as the two captured images. Typically, similarly to the luminance difference calculation unit 331, the captured image P (t) and the captured image P (t-1) which are color images are used. However, the gray image GP (t) and the gray image GP (t-1) generated by the gray scale conversion process S3A1 in the luminance difference calculation unit 331 may be used.

オプティカルフローとは、2枚の画像を用いてオプティカルフロー演算処理を行うことにより得られる、画素毎の動きの向き(方向)および大きさを表した見掛け上のベクトルデータである。換言すれば、2枚の画像データにおける類似パターンの移動量及び移動方向に基づいてオプティカルフローが算出される。このようなオプティカルフローを算出する演算処理としては、公知の手法(例えばGunnar-Farneback法、Horn-Schunck法、等)を用いることができる。したがって、オプティカルフローを算出する演算処理の詳細については、記載の冗長化を避けるために説明を省略する。 The optical flow is apparent vector data representing the direction (direction) and magnitude of movement for each pixel, which is obtained by performing an optical flow calculation process using two images. In other words, the optical flow is calculated based on the movement amount and movement direction of similar patterns in the two image data. As an arithmetic process for calculating such an optical flow, a known method (for example, Gunnar-Farneback method, Horn-Schunck method, etc.) can be used. Therefore, the details of the arithmetic processing for calculating the optical flow will be omitted in order to avoid the redundancy of the description.

ここで、オプティカルフロー演算部332は、所定の基準角度規則に基づいて、オプティカルフローにおける「(動きの)方向」を示す値を算出する。この所定の基準角度規則について、図5を用いて以下に説明する。図5の(a)は、カメラ21による撮像画像の一例を示す図である。撮像画像P0は、乗場2の方向にレンズを向けてエレベータのかご20内に設けられたカメラ21により撮像された画像であり、画像における下側にかご20が位置するような向きで置かれている。図5の(b)は、所定の基準角度規則について説明するための図である。 Here, the optical flow calculation unit 332 calculates a value indicating the "(movement) direction" in the optical flow based on a predetermined reference angle rule. This predetermined reference angle rule will be described below with reference to FIG. FIG. 5A is a diagram showing an example of an image captured by the camera 21. The captured image P0 is an image captured by a camera 21 provided in the elevator car 20 with the lens facing in the direction of the landing 2, and is placed in an orientation such that the car 20 is located on the lower side of the image. There is. FIG. 5B is a diagram for explaining a predetermined reference angle rule.

図5の(a)では、乗場2に移動物体が存在しない状態の撮像画像P0を示しており、そのため、撮像画像P0は、上述の時点[t]における撮像画像P(t)とは乗場2の状況が異なっている。この撮像画像P0を例示して、所定の基準角度規則について説明する。 FIG. 5A shows a captured image P0 in a state where no moving object exists in the landing 2, so that the captured image P0 is different from the captured image P (t) at the above time point [t] in the landing 2. The situation is different. The predetermined reference angle rule will be described by exemplifying this captured image P0.

先ず、ドア開閉路24(図16を参照)に対応する、撮像画像P0上の線分を「開閉範囲線分」と規定する。なお、撮像画像P0上でドア開閉路24が多少湾曲している場合、直線状となるように近似して得られた線分を開閉範囲線分とすればよい。 First, the line segment on the captured image P0 corresponding to the door opening / closing path 24 (see FIG. 16) is defined as the “opening / closing range line segment”. When the door opening / closing path 24 is slightly curved on the captured image P0, the line segment obtained by approximating the door opening / closing path 24 so as to be linear may be used as the opening / closing range line segment.

そして、図5の(b)に示すように、開閉範囲線分の中心点を原点O、開閉範囲線分に沿った直線をx軸と規定する。また、開閉範囲線分に垂直かつ原点Oを通る直線をy軸と規定する。 Then, as shown in FIG. 5B, the center point of the opening / closing range line segment is defined as the origin O, and the straight line along the opening / closing range line segment is defined as the x-axis. Further, a straight line perpendicular to the opening / closing range line segment and passing through the origin O is defined as the y-axis.

原点Oからかご20内に向かう方向をy軸の正方向とし、原点Oから乗場2に向かう方向をy軸の負方向とする。そして、y軸の正方向に対し、時計回りに90°回転した方向をx軸の正方向とする。また、y軸の正方向に対し、反時計回りに90°回転した方向をx軸の負方向とする。 The direction from the origin O to the inside of the car 20 is the positive direction of the y-axis, and the direction from the origin O to the landing 2 is the negative direction of the y-axis. Then, the direction rotated by 90 ° clockwise with respect to the positive direction of the y-axis is defined as the positive direction of the x-axis. Further, the direction rotated by 90 ° counterclockwise with respect to the positive direction of the y-axis is defined as the negative direction of the x-axis.

以下、本明細書において、繰り返して定義しないが、開閉範囲線分、x軸、y軸、および原点Oは、格別の記載が無い限り上記のことと同様の意味にて使用する。 Hereinafter, although not repeatedly defined in the present specification, the opening / closing range line segment, the x-axis, the y-axis, and the origin O are used in the same meaning as described above unless otherwise specified.

本実施形態における所定の基準角度規則は、x軸の正方向を0°の角度とし、反時計回りに360°の角度を規定する。すなわち、y軸の正方向が90°、x軸の負方向が180°、y軸の負方向が270°の角度となっている。 The predetermined reference angle rule in the present embodiment defines the positive direction of the x-axis as an angle of 0 ° and the angle of 360 ° counterclockwise. That is, the positive direction of the y-axis is 90 °, the negative direction of the x-axis is 180 °, and the negative direction of the y-axis is 270 °.

オプティカルフロー演算部332は、このような基準角度規則を用いて、画像における各画素について「(動きの)方向」を示す値(以下、オプティカルフロー方向値と称することがある)を決定する。これにより、画像における各画素にオプティカルフローが対応付けられる。本明細書において、オプティカルフローは、「(動きの)大きさ」を示す値および角度で表されたオプティカルフロー方向値にて表される。なお、オプティカルフロー方向値を決定する処理においては、画像中の各画素について、処理対象とする画素を原点Oであるとして上記基準角度規則を適用する。換言すれば、本実施形態における所定の基準角度規則は、極座標における始線(0°方向)を上記x軸の正方向に固定し、画像中の各画素を原点O(極)として、各画素の動きの方向を示す偏角をオプティカルフロー方向値として求めるように規定されている。本実施形態において、オプティカルフロー方向値は、画素における「(動きの)方向」が、上記基準角度規則に基づいて1°の角度の分解能で角度の値として表されたものである。なお、オプティカルフロー方向値は、例えば数°の角度の分解能にて表されていてもよく、この場合、例えば1°以上3°未満のように表されていてもよい。 The optical flow calculation unit 332 uses such a reference angle rule to determine a value (hereinafter, may be referred to as an optical flow direction value) indicating a "(movement) direction" for each pixel in the image. As a result, an optical flow is associated with each pixel in the image. In the present specification, the optical flow is represented by a value indicating "magnitude (of movement)" and an optical flow direction value expressed by an angle. In the process of determining the optical flow direction value, the reference angle rule is applied to each pixel in the image, assuming that the pixel to be processed is the origin O. In other words, in the predetermined reference angle rule in the present embodiment, the start line (0 ° direction) in polar coordinates is fixed in the positive direction of the x-axis, and each pixel in the image is set as the origin O (pole). It is stipulated that the declination indicating the direction of movement of is obtained as the optical flow direction value. In the present embodiment, the optical flow direction value is a "direction (of movement)" in a pixel expressed as an angle value with a resolution of an angle of 1 ° based on the above-mentioned reference angle rule. The optical flow direction value may be represented by, for example, a resolution of an angle of several °, and in this case, it may be represented, for example, by 1 ° or more and less than 3 °.

そして、オプティカルフロー演算部332は、画像における各画素について、オプティカルフローを分類し、画素方向情報(詳しくは後述)を対応付ける。ここで、上記画素方向情報は、各画素について、画素が本来有する画素値とは別の情報として対応付けられる。各画素について、上記画素方向情報を対応付ける具体的な方法は特に限定されない。 Then, the optical flow calculation unit 332 classifies the optical flow for each pixel in the image and associates the pixel direction information (details will be described later). Here, the pixel direction information is associated with each pixel as information different from the pixel value originally possessed by the pixel. The specific method of associating the pixel direction information with each pixel is not particularly limited.

具体的には、オプティカルフロー演算部332は、画像中の各画素について、オプティカルフローに基づいて5種類の値(無方向Gr0、近方向Gr1、右方向Gr2、離方向Gr3、左方向Gr4)のいずれかを画素方向情報として対応付ける。 Specifically, the optical flow calculation unit 332 has five types of values (non-directional Gr0, near-direction Gr1, right-direction Gr2, separation-direction Gr3, left-direction Gr4) for each pixel in the image based on the optical flow. One of them is associated with the pixel direction information.

この分類処理およびその結果について図6を用いて以下に説明する。撮像画像P(t)および撮像画像P(t−1)を用いて算出したオプティカルフローに基づいて分類処理を行った結果、全画素のそれぞれに画素方向情報を対応付けた画像を第2の処理後画像TP2と称する。第2の処理後画像TP2は、画素方向情報として、下記の5種類の値の何れかが各画素に対応付けられている。第2の処理後画像TP2の一例について、各画素に対応付けられた画素方向情報の値の分布状況を一望するように(全画素を一望するように)可視化(図示)したものを図6に示す。「可視化(図示)」とは、例えばディスプレイに表示させたり、紙に印刷したりすることを意味する。 This classification process and the result thereof will be described below with reference to FIG. As a result of performing classification processing based on the optical flow calculated using the captured image P (t) and the captured image P (t-1), the image in which the pixel direction information is associated with each of all the pixels is subjected to the second processing. It is referred to as rear image TP2. In the second processed image TP2, any of the following five types of values is associated with each pixel as pixel direction information. FIG. 6 shows an example of the second processed image TP2 visualized (illustrated) so as to overlook the distribution state of the value of the pixel direction information associated with each pixel (so as to overlook all the pixels). show. "Visualization (illustration)" means, for example, displaying on a display or printing on paper.

無方向Gr0:オプティカルフロー演算部332は、画素のオプティカルフローにおける「(動きの)大きさ」を示す値が「0」または「所定値以下」の場合、動きの無い(非常に少ない)画素であることから、該画素に画素方向情報として無方向Gr0を対応付ける。この所定値(所定の動きの大きさ基準値)は、極めて小さい値に設定されていてもよい。図6において、無方向Gr0の画素方向情報が対応付けられた画素が連続して存在する領域を「黒」で示している。 Non-directional Gr0: The optical flow calculation unit 332 is a pixel with no movement (very little) when the value indicating "magnitude (of movement)" in the optical flow of the pixel is "0" or "less than or equal to a predetermined value". Therefore, non-directional Gr0 is associated with the pixel as pixel direction information. This predetermined value (a predetermined motion magnitude reference value) may be set to an extremely small value. In FIG. 6, the region in which the pixels to which the pixel direction information of the non-directional Gr0 is associated continuously exists is indicated by “black”.

また、画素のオプティカルフローにおける「(動きの)大きさ」を示す値の大きさが所定値を超える場合、該画素は、オプティカルフロー方向値に基づいて以下の4種類の値(近方向Gr1、右方向Gr2、離方向Gr3、左方向Gr4)のいずれかが画素方向情報として対応付けられる。 When the magnitude of the value indicating "(movement) magnitude" in the optical flow of the pixel exceeds a predetermined value, the pixel has the following four types of values (near direction Gr1, Gr1) based on the optical flow direction value. Any one of the right direction Gr2, the release direction Gr3, and the left direction Gr4) is associated as the pixel direction information.

近方向Gr1:オプティカルフロー演算部332は、画素のオプティカルフロー方向値が30°以上150°未満の場合、乗場2からかご20に向かう移動方向のオプティカルフローを有する画素であることから、該画素に画素方向情報として近方向Gr1を対応付ける。換言すれば、オプティカルフロー演算部332は、上記移動方向(第1の方向)に相当する角度範囲内にある場合、オプティカルフローを上記第1の方向を示す画素方向情報(近方向Gr1)に分類する。図6において、近方向Gr1の画素方向情報が対応付けられた画素が連続して存在する領域を「45°クロス形」のハッチングで示している。 When the optical flow direction value of the pixel is 30 ° or more and less than 150 °, the near direction Gr1: optical flow calculation unit 332 is a pixel having an optical flow in the moving direction from the landing 2 to the car 20, so that the pixel can be used. The near direction Gr1 is associated with the pixel direction information. In other words, when the optical flow calculation unit 332 is within the angle range corresponding to the movement direction (first direction), the optical flow calculation unit 332 classifies the optical flow into pixel direction information (near direction Gr1) indicating the first direction. do. In FIG. 6, a region in which pixels to which pixel direction information of the near direction Gr1 is associated continuously exists is shown by hatching of a “45 ° cross type”.

右方向Gr2:オプティカルフロー演算部332は、画素のオプティカルフロー方向値が150°以上210°未満の場合、乗場2を右に通過する(乗場2においてかご20の前を横切るようにx軸の負方向に通過する)移動方向のオプティカルフローを有する画素であることから、該画素に画素方向情報として右方向Gr2を対応付ける。換言すれば、オプティカルフロー演算部332は、上記移動方向(第3の方向)に相当する角度範囲内にある場合、オプティカルフローを上記第3の方向を示す画素方向情報(右方向Gr2)に分類する。図6において、右方向Gr2の画素方向情報が対応付けられた画素が連続して存在する領域を「不規則縞形」のハッチングで示している。 Right direction Gr2: The optical flow calculation unit 332 passes through the landing 2 to the right when the optical flow direction value of the pixel is 150 ° or more and less than 210 ° (the x-axis negative so as to cross the front of the car 20 in the landing 2). Since the pixel has an optical flow in the moving direction (passing in the direction), the right direction Gr2 is associated with the pixel as the pixel direction information. In other words, the optical flow calculation unit 332 classifies the optical flow into pixel direction information (right direction Gr2) indicating the third direction when it is within the angle range corresponding to the movement direction (third direction). do. In FIG. 6, a region in which pixels to which pixel direction information in the right direction Gr2 is associated continuously exists is indicated by “irregular stripe” hatching.

離方向Gr3:オプティカルフロー演算部332は、画素のオプティカルフロー方向値が210°以上330°未満の場合、かご20から離れる(かご20から乗場2に向かう)移動方向のオプティカルフローを有する画素であることから、該画素に画素方向情報として離方向Gr3を対応付ける。換言すれば、オプティカルフロー演算部332は、上記移動方向(第2の方向)に相当する角度範囲内にある場合、オプティカルフローを上記第2の方向を示す画素方向情報(離方向Gr3)に分類する。図6において、離方向Gr3の画素方向情報が対応付けられた画素が連続して存在する領域を「斜線形」のハッチングで示している。 Separation direction Gr3: The optical flow calculation unit 332 is a pixel having an optical flow in a moving direction away from the car 20 (from the car 20 toward the landing 2) when the optical flow direction value of the pixel is 210 ° or more and less than 330 °. Therefore, the separation direction Gr3 is associated with the pixel as the pixel direction information. In other words, the optical flow calculation unit 332 classifies the optical flow into pixel direction information (separation direction Gr3) indicating the second direction when it is within the angle range corresponding to the movement direction (second direction). do. In FIG. 6, a region in which pixels to which pixel direction information in the separation direction Gr3 is associated continuously exists is indicated by “oblique linear” hatching.

左方向Gr4:オプティカルフロー演算部332は、画素のオプティカルフロー方向値が330°以上360°未満、または0°以上30°未満の場合、乗場2を左に通過する(乗場2においてかご20の前を横切るようにx軸の正方向に通過する)移動方向を有する画素であることから、該画素に画素方向情報として左方向Gr4を対応付ける。換言すれば、オプティカルフロー演算部332は、上記移動方向(第4の方向)に相当する角度範囲内にある場合、オプティカルフローを上記第4の方向を示す画素方向情報(左方向Gr4)に分類する。図6において、左方向Gr4の画素方向情報が対応付けられた画素が連続して存在する領域を「ドット形」のハッチングで示している。 Leftward Gr4: The optical flow calculation unit 332 passes through the landing 2 to the left when the optical flow direction value of the pixel is 330 ° or more and less than 360 °, or 0 ° or more and less than 30 ° (in front of the car 20 in the landing 2). Since it is a pixel having a moving direction (passing in the positive direction of the x-axis so as to cross), the left direction Gr4 is associated with the pixel as pixel direction information. In other words, the optical flow calculation unit 332 classifies the optical flow into pixel direction information (left direction Gr4) indicating the fourth direction when it is within the angle range corresponding to the movement direction (fourth direction). do. In FIG. 6, a region in which pixels to which pixel direction information in the left direction Gr4 is associated continuously exists is indicated by “dot-shaped” hatching.

以上のようなオプティカルフロー演算部332による処理の結果、得られる第2の処理後画像TP2は、画素方向情報として上述の5種類の値の何れかが各画素に対応付けられている。 In the second processed image TP2 obtained as a result of the processing by the optical flow calculation unit 332 as described above, any of the above-mentioned five kinds of values is associated with each pixel as pixel direction information.

なお、画素方向情報は、画像中の各画素についてオプティカルフロー演算部332により算出したオプティカルフローを、「(動きの)大きさ」を示す値に基づいて分類した情報であるとともに、「(動きの)方向」についてオプティカルフロー方向値よりも大きい角度の分解能にて分類した情報であればよく、具体的な態様は特に限定されない。 The pixel direction information is information obtained by classifying the optical flow calculated by the optical flow calculation unit 332 for each pixel in the image based on a value indicating "(movement) magnitude" and "(movement). ) Direction ”is sufficient as long as the information is classified with a resolution of an angle larger than the optical flow direction value, and the specific mode is not particularly limited.

(S3Bの補記事項)
上述のS3Bの処理においては、上記第1の画素数(カメラ21の出力サイズ)よりも縮小した第3の画素数を有する画像を用いることが好ましい。また、上記第3の画素数は、上述の輝度差分ステップS3Aにて用いた画像における第2の画素数よりも小さいことが好ましい。これにより、オプティカルフロー演算部332による処理効率を向上させることができる。
(Supplementary information for S3B)
In the above-mentioned processing of S3B, it is preferable to use an image having a third number of pixels smaller than the number of first pixels (output size of the camera 21). Further, the number of the third pixels is preferably smaller than the number of the second pixels in the image used in the above-mentioned luminance difference step S3A. As a result, the processing efficiency of the optical flow calculation unit 332 can be improved.

(物体候補領域設定)
再び図1および図3を参照して、S3AおよびS3Bの処理が行われた後、物体候補領域設定部333は、以下のような処理を行うことにより物体候補領域を設定する(S4:物体候補領域設定ステップ)。
(Object candidate area setting)
After the processing of S3A and S3B is performed with reference to FIGS. 1 and 3 again, the object candidate area setting unit 333 sets the object candidate area by performing the following processing (S4: object candidate). Area setting step).

物体候補領域設定部333は、第1の処理後画像TP1を縮小処理した画像TP1’と、第2の処理後画像TP2とを重ね合わせることにより、1つの画像として生成する。この生成した画像を第3の処理後画像TP3と称する。第3の処理後画像TP3は、全画素のそれぞれに、移動領域情報および画素方向情報(無方向Gr0〜左方向Gr4)が対応付けられた画像である。第3の処理後画像TP3の一例について、各画素に対応付けられた移動領域情報に基づいて何れかの移動領域に属していると識別された複数の画素を対象として、画素方向情報の値の分布状況を一望するように可視化(図示)したものを図7に示す。図7では、どの移動領域にも属していない画素については、画素方向情報の分布状況を可視化しておらず、黒塗りにて表している。 The object candidate area setting unit 333 generates one image by superimposing the image TP1 ′ obtained by reducing the first processed image TP1 and the second processed image TP2. This generated image is referred to as a third post-processed image TP3. The third processed image TP3 is an image in which movement area information and pixel direction information (non-directional Gr0 to left Gr4) are associated with each of all the pixels. Regarding an example of the third processed image TP3, the value of the pixel direction information is set for a plurality of pixels identified as belonging to any of the moving areas based on the moving area information associated with each pixel. FIG. 7 shows what is visualized (illustrated) so as to overlook the distribution situation. In FIG. 7, for pixels that do not belong to any moving region, the distribution status of pixel direction information is not visualized and is shown in black.

以下、図7を参照して、第3の処理後画像TP3に含まれる物体候補領域について説明する。物体候補領域は、画像中の各移動領域について、該移動領域に含まれる各画素に画素方向情報が対応付けられたものである。この例では、第3の処理後画像TP3は、画像中の左から右に向かって順に、4つの物体候補領域OCA1〜OCA4を含む。そして、物体候補領域設定部333は、各物体候補領域OCAについて、以下のように部分領域を特定する。 Hereinafter, the object candidate region included in the third processed image TP3 will be described with reference to FIG. 7. The object candidate region is one in which pixel direction information is associated with each pixel included in the moving region for each moving region in the image. In this example, the third processed image TP3 includes four object candidate regions OCA1 to OCA4 in order from left to right in the image. Then, the object candidate area setting unit 333 specifies a partial area for each object candidate area OCA as follows.

すなわち、物体候補領域設定部333は、物体候補領域OCAにおいて、無方向以外の同一の画素方向情報を有する画素が連続する領域を部分領域PAとして設定する。本明細書において、各部分領域PAに対応付けられる方向情報を部分方向情報と称する。物体候補領域設定部333は、例えば、或る部分領域PAを構成する複数の画素が有する画素方向情報(値)を、該部分領域PAの部分方向情報(値)にコピーする。 That is, the object candidate region setting unit 333 sets, in the object candidate region OCA, a region in which pixels having the same pixel direction information other than non-direction are continuous as a partial region PA. In the present specification, the directional information associated with each partial region PA is referred to as partial directional information. The object candidate area setting unit 333 copies, for example, the pixel direction information (value) of a plurality of pixels constituting a certain partial area PA to the partial direction information (value) of the partial area PA.

例えば、物体候補領域OCA2は、画像中で比較的大きい領域(画素数)を占める離方向Gr3の部分方向情報を有する部分領域PA21、比較的狭い領域(画素数)を占める左方向Gr4の部分方向情報を有する部分領域PA22、等を含む。また、物体候補領域OCA4は、画像中で比較的大きい領域(画素数)を占める、離方向Gr3の部分方向情報を有する部分領域PA41および左方向Gr4の部分方向情報を有する部分領域PA42を含む。 For example, the object candidate region OCA2 is a partial region PA21 having partial direction information of the separation direction Gr3 occupying a relatively large region (number of pixels) in the image, and a partial direction of the left direction Gr4 occupying a relatively narrow region (number of pixels). Includes a partial region PA22, etc. with information. Further, the object candidate region OCA4 includes a partial region PA41 having partial direction information in the separation direction Gr3 and a partial region PA42 having partial direction information in the left direction Gr4, which occupy a relatively large region (number of pixels) in the image.

(S4の補記事項)
上述のS4の処理においては、上記画像TP1’は、上記第1の画素数または上記第2の画素数を有する画像をさらに縮小した上記第3の画素数を有する画像とし、第2の処理後画像TP2についても、上記第1の画素数を有する画像を縮小した上記第3の画素数を有する画像とすることが好ましい。上記第3の画素数を有する、画像TP1’および第2の処理後画像TP2を重ね合わせることにより、上記第3の画素数を有する第3の処理後画像TP3を生成する。これにより、物体候補領域設定部333による処理効率を向上させることができる。
(Supplementary information for S4)
In the above-mentioned processing of S4, the above-mentioned image TP1'is an image having the above-mentioned third number of pixels, which is obtained by further reducing the image having the above-mentioned first number of pixels or the above-mentioned second number of pixels, and after the second processing. As for the image TP2, it is preferable that the image having the first number of pixels is reduced to the image having the third number of pixels. By superimposing the image TP1'and the second post-processed image TP2 having the third pixel number, the third post-processed image TP3 having the third pixel number is generated. As a result, the processing efficiency of the object candidate area setting unit 333 can be improved.

また、S4以降の処理では、上記第3の画素数を有する画像を用いることが好ましい。これにより、S4以降の、画像処理装置30および制御装置40の各部にて行われる処理の効率を向上させることができる。 Further, in the processing after S4, it is preferable to use the image having the third number of pixels. Thereby, the efficiency of the processing performed in each part of the image processing device 30 and the control device 40 after S4 can be improved.

(移動物体・方向決定)
次いで、決定処理部334は、各物体候補領域OCA1〜4について、各物体候補領域OCAに含まれる部分領域PAの数および大きさ、並びに物体候補領域OCAに含まれる画素の画素方向情報の分布状態に基づいて、物体候補領域OCAおよび部分領域PAのいずれか一方を、画像中に含まれる移動物体の像を示すとともに、該移動物体の移動方向を示す情報を有する移動物体領域として決定する処理(移動物体・方向決定処理)を行う(S5:決定処理ステップ)。この処理について、図8を用いて以下に説明する。図8は、移動物体・方向決定処理の流れの一例を示すフローチャートである。
(Moving object / direction determination)
Next, the determination processing unit 334 determines the number and size of the partial regions PA included in each object candidate region OCA and the distribution state of the pixel direction information of the pixels included in the object candidate region OCA for each object candidate region OCA1 to 4. Based on the above, one of the object candidate region OCA and the partial region PA is determined as a moving object region having information indicating the moving direction of the moving object while showing the image of the moving object included in the image. (Movement object / direction determination process) is performed (S5: determination process step). This process will be described below with reference to FIG. FIG. 8 is a flowchart showing an example of the flow of the moving object / direction determination process.

図8に示すように、先ず、決定処理部334は、処理対象とする物体候補領域OCAを選択し(S50)、選択した物体候補領域OCAに含まれる画素数が所定値V1(第1の大きさ基準値)よりも小さい場合(S51でNO)、該物体候補領域OCAは移動物体を示すものではないと判定する(S52)。この所定値V1としては、適宜設定されてよい。第3の処理後画像TP3は、比較的小さい上記第3の画素数を有する。所定値V1は、このような第3の処理後画像TP3において、例えば、カメラ21から或る程度遠方に位置する子供の像を抽出できるような大きさ(画素数)に設定されることが好ましい。所定値V1は、本明細書において後述する乗車意思の判定領域の大きさに対応して適切な値に設定されてもよい。 As shown in FIG. 8, first, the determination processing unit 334 selects the object candidate area OCA to be processed (S50), and the number of pixels included in the selected object candidate area OCA is a predetermined value V1 (first magnitude). If it is smaller than the reference value (NO in S51), it is determined that the object candidate region OCA does not indicate a moving object (S52). The predetermined value V1 may be appropriately set. The third processed image TP3 has a relatively small number of the third pixels. The predetermined value V1 is preferably set to a size (number of pixels) such that the image of a child located at a certain distance from the camera 21 can be extracted in the third processed image TP3. .. The predetermined value V1 may be set to an appropriate value corresponding to the size of the determination area for the intention to board, which will be described later in the present specification.

また、決定処理部334は、選択した物体候補領域OCAに含まれる画素数が所定値V1以上の場合(S51でYES)において、下記(i)〜(iii)のような3通りの処理を行う。 Further, when the number of pixels included in the selected object candidate region OCA is a predetermined value V1 or more (YES in S51), the determination processing unit 334 performs the following three types of processing (i) to (iii). ..

(i)物体候補領域OCAに所定値V2(第2の大きさ基準値)以上の大きさ(画素数)の部分領域PAが含まれていない場合(S53で0個)、決定処理部334は、該物体候補領域OCAについて、移動物体を示す領域(以下、移動物体領域MOAと称する)であると決定する。そして、該移動物体領域MOAにて示される移動物体の実空間における移動方向が特定されないと判定し、該移動物体領域MOAの有する方向情報として無方向Gr0を対応付ける(S54)。本明細書において、移動物体領域MOAに対応付けられる方向情報を「物体方向情報」と称する。ここでは、決定処理部334は、物体候補領域OCAに含まれる部分領域PAの部分方向情報(値)に関わらず、移動物体領域MOAに無方向Gr0の物体方向情報を対応付ける(設定する)。 (I) When the object candidate area OCA does not include a partial area PA having a size (number of pixels) equal to or larger than a predetermined value V2 (second size reference value) (0 in S53), the determination processing unit 334 , The object candidate region OCA is determined to be a region indicating a moving object (hereinafter, referred to as a moving object region MOA). Then, it is determined that the moving direction of the moving object indicated by the moving object region MOA in the real space is not specified, and the non-directional Gr0 is associated with the direction information possessed by the moving object region MOA (S54). In the present specification, the direction information associated with the moving object area MOA is referred to as "object direction information". Here, the determination processing unit 334 associates (sets) the object direction information of the non-directional Gr0 with the moving object area MOA regardless of the partial direction information (value) of the partial area PA included in the object candidate area OCA.

なお、上記所定値V2と、上記所定値V1とは同じ値であってよく、互いに異なっていてもよい。所定値V2についても、上記所定値V1と同様の観点から、適切な大きさに設定される。 The predetermined value V2 and the predetermined value V1 may be the same value or may be different from each other. The predetermined value V2 is also set to an appropriate size from the same viewpoint as the predetermined value V1.

(ii)物体候補領域OCAが所定値V2以上の大きさの部分領域PAを1個のみ含んでいる場合(S53で1個)、決定処理部334は、該物体候補領域OCAを移動物体領域MOAであると決定するとともに、所定値V2以上の大きさの部分領域PAの部分方向情報をコピーして、該移動物体領域MOAの物体方向情報とする(S55)。 (Ii) When the object candidate region OCA includes only one partial region PA having a size of a predetermined value V2 or more (one in S53), the determination processing unit 334 moves the object candidate region OCA to the moving object region MOA. In addition to determining that, the partial direction information of the partial region PA having a predetermined value V2 or more is copied and used as the object direction information of the moving object region MOA (S55).

(iii)物体候補領域OCAが所定値V2以上の部分領域PAを2個以上含んでいる場合(S53で2個以上)、決定処理部334は、以下の処理を行う。すなわち、先ず、該物体候補領域OCAに含まれる全画素について、同じ画素方向情報を有する画素の数を算出する。次いで、処理の対象とする物体候補領域OCAの全画素数に対する、物体候補領域OCA中の同じ画素方向情報を有する画素の数、の比を各画素方向情報(本実施形態では近方向Gr1〜左方向Gr4のそれぞれ)について算出する。ここで、物体候補領域OCA中の同じ画素方向情報を有する画素の数を算出する場合、孤立した画素、異なる部分領域PAに分散した画素、等に関わらず、物体候補領域OCA中に含まれる全画素について算出する。 (Iii) When the object candidate region OCA includes two or more partial region PAs having a predetermined value V2 or more (two or more in S53), the determination processing unit 334 performs the following processing. That is, first, the number of pixels having the same pixel direction information is calculated for all the pixels included in the object candidate region OCA. Next, the ratio of the number of pixels having the same pixel direction information in the object candidate area OCA to the total number of pixels of the object candidate area OCA to be processed is the ratio of each pixel direction information (near direction Gr1 to left in this embodiment). Calculate for each of the directions Gr4). Here, when calculating the number of pixels having the same pixel direction information in the object candidate region OCA, all the pixels included in the object candidate region OCA are included regardless of whether the pixels are isolated pixels, pixels dispersed in different partial region PAs, or the like. Calculate for pixels.

算出した上記比が所定の割合R1以上となる画素方向情報(近方向Gr1〜左方向Gr4のいずれか)が存在する場合(S56でYES)、該物体候補領域OCAの全体を1つの移動物体領域MOAであると決定するとともに、上記比が所定の割合R1以上である画素方向情報をコピーして、該移動物体領域MOAの物体方向情報とする(S57)。具体的には、例えば、物体候補領域OCAに含まれる全画素に対する、近方向Gr1の画素方向情報を有する画素の数の比が所定の割合R1以上である場合、該物体候補領域OCAの全体を、近方向Gr1の物体方向情報を有する移動物体領域MOAであると決定する。なお、上記所定の割合R1の具体的な値は、特に限定されないが、例えば0.5よりも大きい値である。 When there is pixel direction information (any of near-direction Gr1 to left-direction Gr4) in which the calculated ratio is equal to or greater than a predetermined ratio R1 (YES in S56), the entire object candidate area OCA is used as one moving object area. It is determined that the MOA is used, and the pixel direction information having the ratio of R1 or more is copied and used as the object direction information of the moving object region MOA (S57). Specifically, for example, when the ratio of the number of pixels having the pixel direction information of the near direction Gr1 to all the pixels included in the object candidate region OCA is a predetermined ratio R1 or more, the entire object candidate region OCA is used. , It is determined that the moving object region MOA has the object direction information of the near direction Gr1. The specific value of the predetermined ratio R1 is not particularly limited, but is, for example, a value larger than 0.5.

或いは、算出した上記比が所定の割合R1以上となる画素方向情報が存在しない場合(S56でNO)、所定値V2以上の大きさの部分領域PAをそれぞれ個別の移動物体領域MOAであると決定する(S58)。そして、移動物体領域MOAの物体方向情報として、該移動物体領域MOAに対応する部分領域PAの部分方向情報をコピーする。なお、上記の処理によれば、「所定値V2未満の大きさの部分領域PA」および「孤立した画素」については、移動物体領域MOAであると決定されない。 Alternatively, when there is no pixel direction information in which the calculated ratio is equal to or greater than a predetermined ratio R1 (NO in S56), it is determined that each partial region PA having a predetermined value V2 or more is an individual moving object region MOA. (S58). Then, as the object direction information of the moving object area MOA, the partial direction information of the partial area PA corresponding to the moving object area MOA is copied. According to the above processing, the "partial region PA having a size less than the predetermined value V2" and the "isolated pixel" are not determined to be the moving object region MOA.

次いで、決定処理部334は、全ての物体候補領域OCAについて処理を行っていない場合(S59でNO)、未処理の物体候補領域OCAについて上記S50からの処理を実行する。決定処理部334は、全ての物体候補領域OCAについて処理を行った場合(S59でYES)、移動物体・方向決定処理を終了する。 Next, when the determination processing unit 334 has not performed processing on all the object candidate region OCA (NO in S59), the determination processing unit 334 executes the processing from the above S50 on the unprocessed object candidate region OCA. When the determination processing unit 334 performs processing for all the object candidate region OCA (YES in S59), the determination processing unit 334 ends the moving object / direction determination processing.

決定処理部334による処理後の画像を第4の処理後画像TP4と称し、第4の処理後画像TP4中における移動物体の像を示す領域を移動物体領域MOAと称する。第4の処理後画像TP4の一例について、各画素に対応付けられた物体方向情報の値の分布状況を一望するように可視化したものを図9に示す。図9では、どの移動物体領域MOAにも属していない画素については、物体方向情報を有していないため、黒塗りにて表している。 The image after processing by the determination processing unit 334 is referred to as a fourth post-processed image TP4, and the region showing an image of a moving object in the fourth post-processed image TP4 is referred to as a moving object region MOA. FIG. 9 shows an example of the fourth processed image TP4 visualized so as to overlook the distribution state of the values of the object direction information associated with each pixel. In FIG. 9, pixels that do not belong to any moving object region MOA are shown in black because they do not have object direction information.

図9に示すように(図7も参照)、例えば、移動物体領域MOA2は、処理前の物体候補領域OCA2に対応し、部分領域PA21における離方向Gr3の部分方向情報がコピーされた物体方向情報を有している。また、移動物体領域MOA4は、処理前の物体候補領域OCA4における離方向Gr3の部分方向情報を有する部分領域PA41に対応し、離方向Gr3の物体方向情報を有している。移動物体領域MOA5は、処理前の物体候補領域OCA4における左方向Gr4の部分方向情報を有する部分領域PA42に対応し、左方向Gr4の物体方向情報を有している。例えば、前述の第1の処理後画像TP1において、物体候補領域OCA4に対応する移動領域MA(図4の(b)における右側の移動領域MA)は、異なる方向に移動する2つの移動物体が重なった状態を示す撮像画像に対して輝度差分演算部331による処理が行われて、部分領域PA41および部分領域PA42を含む1つの移動領域MAとして検出された蓋然性が高い。 As shown in FIG. 9 (see also FIG. 7), for example, the moving object region MOA2 corresponds to the object candidate region OCA2 before processing, and the object direction information in which the partial direction information of the separation direction Gr3 in the partial region PA21 is copied is copied. have. Further, the moving object region MOA4 corresponds to the partial region PA41 having the partial direction information of the separation direction Gr3 in the object candidate region OCA4 before processing, and has the object direction information of the separation direction Gr3. The moving object region MOA5 corresponds to the partial region PA42 having the partial direction information of the left direction Gr4 in the object candidate region OCA4 before processing, and has the object direction information of the left direction Gr4. For example, in the above-mentioned first processed image TP1, the moving area MA corresponding to the object candidate area OCA4 (the moving area MA on the right side in FIG. 4B) overlaps two moving objects moving in different directions. It is highly probable that the captured image showing the state is processed by the luminance difference calculation unit 331 and detected as one moving region MA including the partial region PA41 and the partial region PA42.

(S5の補記事項)
例えば、上記第2の画素数は上記第1の画素数の4分の1であり、上記第3の画素数は上記第2の画素数の4分の1である。このように、各部における処理に適した画素数(処理に要求される情報量)となるように縮小処理を適宜行うことによれば、各部の処理効率を効果的に向上させることができる。換言すれば、本発明の一態様における画像処理装置30における移動物体決定部33では、画素数を適宜低減した画像を用いて各部の処理を効率的に実行し、移動物体領域MOAを決定することができる。
(Supplementary information for S5)
For example, the number of the second pixels is one-fourth of the number of the first pixels, and the number of the third pixels is one-fourth of the number of the second pixels. As described above, the processing efficiency of each part can be effectively improved by appropriately performing the reduction processing so that the number of pixels (the amount of information required for the processing) is suitable for the processing in each part. In other words, the moving object determination unit 33 in the image processing device 30 according to one aspect of the present invention efficiently executes the processing of each unit using an image in which the number of pixels is appropriately reduced, and determines the moving object region MOA. Can be done.

(小括1)
以上のように、本実施形態における画像処理装置30は、エレベータの乗場2をカメラ21にて撮像した画像を取得する画像取得部31と、所定の時間差を有する2つの時点のそれぞれにて前記画像を撮像して得られた2枚の前記画像について輝度の差分に基づく演算処理を行うことにより、前記画像における動きの有る移動領域MAに関する移動領域情報を生成する輝度差分演算部331と、を備えている。そして、画像処理装置30は、前記移動領域情報に対応する前記2つの時点における2枚の前記画像についてオプティカルフロー演算処理を行うことにより、前記画像中の各画素のオプティカルフローを算出するオプティカルフロー演算部332を備えている。さらに、画像処理装置30は、前記移動領域情報と、各画素の前記オプティカルフローを分類した画素方向情報と、を用いて、移動領域MA内の各画素に前記画素方向情報が対応付けられてなる物体候補領域OCAを設定する物体候補領域設定部333を備えている。その上、画像処理装置30は、物体候補領域OCAにおいて、同一の前記画素方向情報を有する画素が連続する領域を部分領域PAとし、物体候補領域OCAおよび部分領域PAのいずれか一方を、乗場2に存在する移動物体1に対応する像を前記画像中にて示す移動物体領域MOAとして決定する決定処理部334を備えている。
(Summary 1)
As described above, the image processing device 30 in the present embodiment has the image acquisition unit 31 that acquires an image of the elevator landing 2 captured by the camera 21 and the image at each of the two time points having a predetermined time difference. A brightness difference calculation unit 331 that generates moving area information regarding a moving area MA with motion in the image by performing arithmetic processing based on the difference in brightness on the two images obtained by imaging the image. ing. Then, the image processing device 30 calculates the optical flow of each pixel in the image by performing the optical flow calculation processing on the two images at the two time points corresponding to the moving area information. A unit 332 is provided. Further, the image processing device 30 uses the moving area information and the pixel direction information that classifies the optical flow of each pixel to associate the pixel direction information with each pixel in the moving area MA. The object candidate area setting unit 333 for setting the object candidate area OCA is provided. Further, in the object candidate region OCA, the image processing apparatus 30 uses a region in which pixels having the same pixel direction information are continuous as a partial region PA, and one of the object candidate region OCA and the partial region PA as a landing 2 It is provided with a determination processing unit 334 that determines an image corresponding to the moving object 1 existing in the image as a moving object region MOA shown in the image.

ここで、従来、エレベータの利用者を検知する技術として、画像処理によって画像中に動きの有る移動領域を検出する処理が行われることがある。しかし、エレベータの乗場の状況によっては、利用者を適切に検知できない場合がある。例えば、或る移動領域における領域全体の移動方向が同一であるとは限らず、そのような状況として具体的には、或る移動領域に複数人の利用者が含まれている場合等が挙げられる。 Here, conventionally, as a technique for detecting an elevator user, a process of detecting a moving region having motion in an image may be performed by image processing. However, depending on the elevator landing conditions, it may not be possible to properly detect the user. For example, the moving directions of the entire area in a certain moving area are not always the same, and a specific example of such a situation is a case where a certain moving area includes a plurality of users. Be done.

本実施形態における画像処理装置30では、上記の構成によれば、物体候補領域設定部333は、画像中の各移動領域MAについて、オプティカルフローを分類した画素方向情報が各画素に対応付けられてなる物体候補領域OCAを設定する。このような物体候補領域OCAは、異なる種類の画素方向情報を有する複数の部分領域PAを含み得る。物体候補領域OCAは、例えば、画像中において、或る人物と別方向に移動する人物とが重なっている場合、各部分領域PAの画素方向情報の違いに基づいてそれらの人物を識別できるように設定することができる。すなわち、決定処理部334は、部分領域PAを移動物体領域MOAとして決定することができ、これにより、例えば、移動領域MAとしては1つの移動物体1であるように見えても実際には複数の移動物体1が含まれる場合に、それら複数の移動物体1の像を示す移動物体領域MOAを適切に検出することができる。 In the image processing device 30 of the present embodiment, according to the above configuration, the object candidate area setting unit 333 associates the pixel direction information that classifies the optical flow with each pixel for each moving area MA in the image. The object candidate area OCA is set. Such an object candidate region OCA may include a plurality of partial region PAs having different types of pixel orientation information. For example, when a certain person and a person moving in a different direction overlap in an image, the object candidate area OCA can identify the person based on the difference in the pixel direction information of each partial area PA. Can be set. That is, the determination processing unit 334 can determine the partial region PA as the moving object region MOA, whereby, for example, even if the moving region MA appears to be one moving object 1, there are actually a plurality of moving objects 1. When the moving object 1 is included, the moving object region MOA showing the images of the plurality of moving objects 1 can be appropriately detected.

一方で、例えば、或る人物の体の一部分(腕や足等)が、該人物の移動方向とは異なる移動方向を有する部分領域PAとして物体候補領域OCAに含まれている場合がある。このような場合、決定処理部334は、そのような物体候補領域OCAを移動物体領域MOAとして決定することができ、これにより、部分領域PAの情報に基づけば物体候補領域OCAに複数の移動物体1が含まれるように見える場合においても、1つの移動物体領域MOAとして適切に検出することができる。 On the other hand, for example, a part of a person's body (arms, legs, etc.) may be included in the object candidate area OCA as a partial area PA having a moving direction different from the moving direction of the person. In such a case, the determination processing unit 334 can determine such an object candidate region OCA as the moving object region MOA, whereby a plurality of moving objects in the object candidate region OCA based on the information of the partial region PA. Even when 1 seems to be included, it can be appropriately detected as one moving object region MOA.

また、物体候補領域設定部333は、画像中において、かご20からの距離に応じて様々であり得る移動物体1の像の大きさに関わらず、移動領域MAと画素方向情報とを組み合わせることにより、物体候補領域OCAを設定することができる。その結果、物体候補領域OCAを用いて、移動物体1を示す可能性が高い領域を適切に検出することができる。そして、画像処理装置30は、乗場2におけるかご20からの距離(遠近)に関わらず、画像中から検出可能な限りの移動物体領域MOAを抽出することができる。 Further, the object candidate area setting unit 333 combines the moving area MA and the pixel direction information in the image regardless of the size of the image of the moving object 1 which may vary depending on the distance from the car 20. , The object candidate area OCA can be set. As a result, the object candidate region OCA can be used to appropriately detect a region that is likely to indicate the moving object 1. Then, the image processing device 30 can extract as much moving object region MOA as possible from the image regardless of the distance (perspective) from the car 20 in the landing 2.

また、前記オプティカルフローは、2枚の前記画像における対応する画素の、動きの大きさを示す値および動きの方向を示す値を含む。そして、本実施形態における画像処理装置30は、前記オプティカルフローにおける動きの大きさを示す値が所定値以下の場合、該オプティカルフローを、無方向であることを示す前記画素方向情報(無方向Gr0)に分類する。部分領域PAは、物体候補領域OCAにおいて、無方向Gr0以外の同一の前記画素方向情報を有する画素が連続する領域であってよい。 Further, the optical flow includes a value indicating the magnitude of movement and a value indicating the direction of movement of the corresponding pixels in the two images. Then, when the value indicating the magnitude of movement in the optical flow is equal to or less than a predetermined value, the image processing device 30 in the present embodiment performs the pixel direction information (non-directional Gr0) indicating that the optical flow is non-directional. ). The partial region PA may be a region in the object candidate region OCA in which pixels having the same pixel direction information other than the non-directional Gr0 are continuous.

上記の構成によれば、部分領域PAとして、無方向Gr0以外の同一の前記画素方向情報を有する画素が連続する領域が設定される。そして、決定処理部334は、1つの物体候補領域OCAについて、該物体候補領域OCAに含まれる部分領域PAの数および画素の画素方向情報の分布状態に基づいて、移動物体領域MOAを決定する。これにより、画像中に含まれる、乗場2に存在する移動物体1に対応する像を示す移動物体領域MOAを、より適切に検出することができる。 According to the above configuration, as the partial region PA, a region in which pixels having the same pixel direction information other than the non-directional Gr0 are continuous is set. Then, the determination processing unit 334 determines the moving object region MOA for one object candidate region OCA based on the number of partial region PAs included in the object candidate region OCA and the distribution state of the pixel direction information of the pixels. Thereby, the moving object region MOA including the image corresponding to the moving object 1 existing in the landing 2 included in the image can be detected more appropriately.

本実施形態における画像処理装置30では、移動物体領域MOAが、該移動物体領域MOAとして前記画像中にて示される像に対応する移動物体1の移動方向を示す物体方向情報を有することが好ましい。 In the image processing apparatus 30 of the present embodiment, it is preferable that the moving object region MOA has object direction information indicating the moving direction of the moving object 1 corresponding to the image shown in the image as the moving object region MOA.

上記の構成によれば、決定処理部334は、物体候補領域OCAに含まれる各画素が有している画素方向情報に基づいて、物体方向情報を有するように移動物体領域MOAを決定することができる。したがって、物体方向情報を、移動物体1の乗車意思の推定に利用することができる。例えば、物体方向情報が、かご20に向かう方向を示す情報であることを識別することにより、移動物体1が乗車意思ありと推定することができる。 According to the above configuration, the determination processing unit 334 may determine the moving object region MOA so as to have the object direction information based on the pixel direction information possessed by each pixel included in the object candidate region OCA. can. Therefore, the object direction information can be used to estimate the boarding intention of the moving object 1. For example, by identifying that the object direction information is information indicating the direction toward the car 20, it can be estimated that the moving object 1 has an intention to board.

また、例えば、従来、ブロック毎に輝度の差分を演算して、画像中の移動領域を検出する技術が知られている(例えば引用文献1を参照)。本実施形態における画像処理装置30では、輝度差分演算部331は、所定の時間差の2枚の前記画像について、輝度の差分に基づく演算処理を画素毎に行ってもよい。この場合、ブロック単位よりも分解能を高くすることができ、画像中の比較的小さな移動物体(例えば、かご20から比較的遠い位置の子供等)を移動物体領域MOAとして検出するための閾値(所定値V1、所定値V2等)を、適切に設定し易くすることができる。 Further, for example, conventionally, there is known a technique of calculating a difference in brightness for each block to detect a moving region in an image (see, for example, Cited Document 1). In the image processing apparatus 30 of the present embodiment, the luminance difference calculation unit 331 may perform arithmetic processing based on the luminance difference for each of the two images having a predetermined time difference. In this case, the resolution can be made higher than that of the block unit, and a threshold value (predetermined) for detecting a relatively small moving object (for example, a child at a position relatively far from the car 20) in the image as a moving object region MOA. The value V1, the predetermined value V2, etc.) can be easily set appropriately.

以上のような画像処理装置30にて行われる処理を含む、画像処理方法についても本発明の範疇に入る。 An image processing method including the processing performed by the image processing apparatus 30 as described above also falls within the scope of the present invention.

(変形例1)
(1a)輝度差分演算部331は、画像における所定範囲の画素をまとめて1ブロックとして、ブロック毎に輝度差を算出してもよい。この場合、差分画像DP(t)は、算出した輝度差が各ブロックに対応付けられて表される。そして、上記S3A3〜S3A6の処理を行うことにより、移動領域MAを設定することができる。
(Modification example 1)
(1a) The luminance difference calculation unit 331 may collectively consider the pixels in a predetermined range in the image into one block, and calculate the luminance difference for each block. In this case, the difference image DP (t) is represented by associating the calculated luminance difference with each block. Then, the movement area MA can be set by performing the processes of S3A3 to S3A6.

(1b)また、輝度差分演算部331は、S3A1〜S3A6(図4参照)の処理全体の中で、S3A4〜S3A6については、二値化画像BPにおいて移動領域MAの輪郭を明確化するのが主目的なので、S3A6(補間処理)の処理は省略してもよい。さらには、S3A4〜S3A5の処理も省略することができる。これは、輝度差分演算部331は、S3A1〜S3A3の処理だけでも、二値化画像BPにおいて、移動領域MAの輪郭を抽出することが可能だからである。 (1b) Further, in the entire processing of S3A1 to S3A6 (see FIG. 4), the luminance difference calculation unit 331 clarifies the outline of the moving region MA in the binarized image BP for S3A4 to S3A6. Since it is the main purpose, the processing of S3A6 (interpolation processing) may be omitted. Furthermore, the processing of S3A4 to S3A5 can also be omitted. This is because the luminance difference calculation unit 331 can extract the contour of the moving region MA in the binarized image BP only by the processing of S3A1 to S3A3.

(1c)上述の実施形態では、画像における各画素について、オプティカルフローを分類し、画素方向情報を対応付ける処理をオプティカルフロー演算部332が行う例について説明したが、これに限定されない。例えば、物体候補領域設定部333が、オプティカルフローを分類し、画像における各画素に画素方向情報を対応付ける処理を行ってもよい。すなわち、オプティカルフロー演算部332および物体候補領域設定部333の何れか一方が、オプティカルフローを分類し、画像における各画素に画素方向情報を対応付ける処理を行う画素方向情報設定部としての機能を有していればよい。 (1c) In the above-described embodiment, an example in which the optical flow calculation unit 332 performs a process of classifying the optical flow and associating the pixel direction information with each pixel in the image has been described, but the present invention is not limited to this. For example, the object candidate area setting unit 333 may perform a process of classifying the optical flow and associating pixel direction information with each pixel in the image. That is, either one of the optical flow calculation unit 332 and the object candidate area setting unit 333 has a function as a pixel direction information setting unit that classifies the optical flow and performs a process of associating pixel direction information with each pixel in the image. I just need to be there.

(1d)カメラ21は、かご20内に設けられていることに限定されない。例えば、乗場2の天井に設けられたカメラを利用してもよい。すなわち、カメラ21は、乗場2の天井から床に向けた撮像視野であってもよく、その他の方向から乗場2に向けた撮像視野であってもよい。そのような配置のカメラ21を用いる場合であっても、本実施形態にて上述したような技術思想に基づいて画像処理を行うことによって、移動物体領域MOAを決定することができる。 (1d) The camera 21 is not limited to being provided in the car 20. For example, a camera provided on the ceiling of the landing 2 may be used. That is, the camera 21 may have an imaging field of view from the ceiling of the landing 2 toward the floor, or may have an imaging field of view toward the landing 2 from other directions. Even when a camera 21 having such an arrangement is used, the moving object region MOA can be determined by performing image processing based on the above-mentioned technical idea in the present embodiment.

(1e)上述の実施形態では、異なる時点における2枚の撮像画像を用いる例について説明したが、これに限定されない。輝度差分演算部331は、時点[t]における撮像画像P(t)と、予め撮像した背景画像とを用いて処理を行ってもよい。この場合、輝度差分演算部331は、背景差分法、統計的背景差分法、等を用いて、第1の処理後画像TP1から移動領域MAを抽出する。背景差分法を用いる場合の背景画像は、例えば、事前に準備した、カメラ21の撮像視野において無人の状態(移動物体が存在しない状態)の乗場を、カメラ21により撮像した画像である。また、統計的背景差分法を用いる場合、複数の画像から統計的に判定して得られる背景画像(背景モデル)を用いればよい。 (1e) In the above-described embodiment, an example in which two captured images at different time points are used has been described, but the present invention is not limited thereto. The luminance difference calculation unit 331 may perform processing using the captured image P (t) at the time point [t] and the background image captured in advance. In this case, the luminance difference calculation unit 331 extracts the moving region MA from the first processed image TP1 by using the background subtraction method, the statistical background subtraction method, and the like. The background image when the background subtraction method is used is, for example, an image prepared in advance by the camera 21 of a landing in an unmanned state (a state in which no moving object exists) in the field of view of the camera 21. When the statistical background subtraction method is used, a background image (background model) obtained by statistically determining from a plurality of images may be used.

(追跡)
ここまで、画像処理装置30の移動物体決定部33が実行する、移動物体領域MOAを決定する処理について説明してきた。以下では、物体追跡部34が実行する、移動物体領域MOAをフレーム間(時系列的に連続する画像間)で追跡する処理について説明する。なお、本実施形態では、図3におけるS1〜S5の処理に引き続いて物体追跡部34が実行する処理について説明するが、本発明の一態様における画像処理装置30はこれに限定されない。つまり、公知の方法(例えば各種のセンサを利用する方法等)を用いて画像中の移動物体の像を示す領域を決定する処理を行った結果に基づいて、以下に説明する物体追跡部34の処理を適用することも可能である。この場合、以下の記載における移動物体領域MOAを、公知の方法にて決定した領域に読み替えればよい。
(Tracking)
Up to this point, the process of determining the moving object region MOA, which is executed by the moving object determining unit 33 of the image processing device 30, has been described. Hereinafter, the process of tracking the moving object region MOA between frames (between images that are continuous in chronological order), which is executed by the object tracking unit 34, will be described. In the present embodiment, the process executed by the object tracking unit 34 following the processes S1 to S5 in FIG. 3 will be described, but the image processing device 30 in one aspect of the present invention is not limited to this. That is, the object tracking unit 34 described below is based on the result of performing a process of determining a region showing an image of a moving object in an image using a known method (for example, a method using various sensors). It is also possible to apply the process. In this case, the moving object region MOA in the following description may be read as a region determined by a known method.

上記公知の方法として、例えば、測距離型センサ(レーザレーダやミリ波レーダ等)により人物を検知した情報を使用して、画像中の人物の場所を特定する方法が知られている(例えば特許第5473801号を参照)。 As the above-mentioned known method, for example, a method of identifying the location of a person in an image by using information obtained by detecting a person by a distance measuring sensor (laser radar, millimeter wave radar, etc.) is known (for example, a patent). See No. 5473801).

再び図1および図3を参照して、移動物体決定部33によるS5の処理(移動物体決定ステップ)が行われた後、次いで、物体追跡部34は、以下のような処理を行うことにより、移動物体領域MOAにて示される移動物体を追跡する処理を行う(S6:追跡処理ステップ)。具体的には、物体追跡部34は、移動物体決定部33にて決定した移動物体領域MOAを追跡対象として、或るフレームにて追跡対象とした移動物体領域MOAが、所定時間後のフレームにおける何れの移動物体領域MOAに対応するかを判定する。より詳しくは、時点[t]における画像中の或る1つの移動物体領域MOA(第1の移動物体領域)にて像が示される移動物体を処理対象物体とし、時点[t+1]における画像中の、前記処理対象物体と同一の移動物体に対応する像を示す移動物体領域MOA(第2の移動物体領域)を対応物体領域として、物体追跡部34は、前記対応物体領域を特定する処理を行う。 With reference to FIGS. 1 and 3 again, after the processing of S5 (moving object determination step) by the moving object determination unit 33 is performed, the object tracking unit 34 then performs the following processing. A process of tracking a moving object indicated by the moving object area MOA is performed (S6: tracking process step). Specifically, the object tracking unit 34 uses the moving object area MOA determined by the moving object determination unit 33 as the tracking target, and the moving object area MOA that is the tracking target in a certain frame is set in the frame after a predetermined time. It is determined which moving object region MOA corresponds to. More specifically, a moving object whose image is shown at a certain moving object region MOA (first moving object region) in the image at the time point [t] is set as a processing target object, and the moving object in the image at the time point [t + 1] is used. The object tracking unit 34 performs a process of specifying the corresponding object area, with the moving object area MOA (second moving object area) showing an image corresponding to the same moving object as the object to be processed as the corresponding object area. ..

図10は、物体追跡部34における処理の概要について説明するための図である。図10に示すように、物体追跡部34に含まれる図形設定部341は、時点[t]における移動物体領域MOAを囲う矩形の対応図形S1(t)を設定するとともに、時点[t+1]における移動物体領域MOAを囲う矩形の対応図形S1(t+1)を設定する。そして、重なり度算出部342は、時点[t]および時点[t+1]の画像を重ね合わせるとともに、対応図形S1(t)と対応図形S1(t+1)との重なり度を算出する。そして、追跡処理部343は、重なり度算出部342にて算出した重なり度に基づいて、時点[t]における或る移動物体領域MOA(t)に対応する、時点[t+1]における移動物体領域MOA(t+1)を判定する処理を行う。これにより、フレーム間で移動物体領域MOAを追跡する処理を行う。上記重なり度は、典型的には、対応図形S1(t)に対し対応図形S1(t+1)が重なっている画素数にて表される。なお、重なり度は画素数に必ずしも限定されず、重なり度を表すために用いられる公知の手法を適用してもよい。本実施形態では、2つの図形間で重複する画素数を重なり度とする手法を用いる例について説明する。 FIG. 10 is a diagram for explaining an outline of processing in the object tracking unit 34. As shown in FIG. 10, the figure setting unit 341 included in the object tracking unit 34 sets the rectangular corresponding figure S1 (t) surrounding the moving object region MOA at the time point [t], and moves at the time point [t + 1]. A rectangular corresponding figure S1 (t + 1) surrounding the object area MOA is set. Then, the overlap degree calculation unit 342 superimposes the images at the time point [t] and the time point [t + 1], and calculates the degree of overlap between the corresponding figure S1 (t) and the corresponding figure S1 (t + 1). Then, the tracking processing unit 343 corresponds to a certain moving object region MOA (t) at the time point [t] based on the overlap degree calculated by the overlap degree calculation unit 342, and the moving object region MOA at the time point [t + 1] corresponds to the moving object region MOA at the time point [t + 1]. Perform the process of determining (t + 1). As a result, the process of tracking the moving object region MOA between frames is performed. The degree of overlap is typically represented by the number of pixels in which the corresponding figure S1 (t + 1) overlaps with the corresponding figure S1 (t). The degree of overlap is not necessarily limited to the number of pixels, and a known method used to express the degree of overlap may be applied. In this embodiment, an example of using a method in which the number of overlapping pixels between two figures is used as the degree of overlap will be described.

物体追跡部34が実行する上記S6の処理の流れについて、図11を用いて以下に説明する。図11は、物体追跡部34が実行する追跡処理の流れの一例を示すフローチャートである。 The flow of the process of S6 executed by the object tracking unit 34 will be described below with reference to FIG. FIG. 11 is a flowchart showing an example of the flow of the tracking process executed by the object tracking unit 34.

図11に示すように、先ず、図形設定部341は、時点[t]における画像(第1の画像)および時点[t+1]における画像(第2の画像)に含まれる複数の移動物体領域(以下、移動物体領域群と称することがある)のそれぞれについて、例えば外接矩形を設定する(S60:図形設定ステップ)。この外接矩形とは、移動物体領域MOAを囲うとともに、該移動物体領域MOAの外縁に4辺が接する矩形である。例えば、図10に示された対応図形S1(t)および対応図形S1(t+1)に示すような外接矩形を設定する。 As shown in FIG. 11, first, the graphic setting unit 341 has a plurality of moving object regions (hereinafter, the following) included in the image (first image) at the time point [t] and the image (second image) at the time point [t + 1]. For each of (may be referred to as a moving object region group), for example, an circumscribing rectangle is set (S60: graphic setting step). The tangential rectangle is a rectangle that surrounds the moving object region MOA and has four sides in contact with the outer edge of the moving object region MOA. For example, an extrinsic rectangle as shown in the corresponding figure S1 (t) and the corresponding figure S1 (t + 1) shown in FIG. 10 is set.

図形設定部341は、時点[t]における画像中に含まれる複数の移動物体領域(第1の移動物体領域)にそれぞれ対応する複数の対応図形(第1の対応図形)を設定する。また、図形設定部341は、時点[t+1]における画像中に含まれる複数の移動物体領域(第2の移動物体領域)にそれぞれ対応する複数の対応図形(第2の対応図形)を設定する。 The figure setting unit 341 sets a plurality of corresponding figures (first corresponding figure) corresponding to each of the plurality of moving object areas (first moving object area) included in the image at the time point [t]. Further, the figure setting unit 341 sets a plurality of corresponding figures (second corresponding figures) corresponding to the plurality of moving object areas (second moving object areas) included in the image at the time point [t + 1].

本実施形態では、時点[t]における画像に含まれる移動物体領域群(t)は、例えば4つの移動物体領域MOAを含む。以下、説明の便宜上、これら4つの移動物体領域MOAをそれぞれ移動物体領域MOAa(t)、移動物体領域MOAb(t)、移動物体領域MOAc(t)、移動物体領域MOAd(t)と称することとする。同様に、時点[t+1]における画像に含まれる移動物体領域群(t+1)には、4つの移動物体領域MOAとして、移動物体領域MOAa(t+1)、移動物体領域MOAb(t+1)、移動物体領域MOAc(t+1)、移動物体領域MOAd(t+1)が含まれているとする。また、以下の説明において、これら移動物体領域MOAa(t+1)、・・・移動物体領域MOAd(t+1)のいずれかを示すように記載する場合、移動物体領域MOAx(t+1)と称することがある。 In the present embodiment, the moving object region group (t) included in the image at the time point [t] includes, for example, four moving object region MOAs. Hereinafter, for convenience of explanation, these four moving object region MOAs will be referred to as a moving object region MOAa (t), a moving object region MOAb (t), a moving object region MOAc (t), and a moving object region MOAd (t), respectively. do. Similarly, in the moving object region group (t + 1) included in the image at the time point [t + 1], as four moving object region MOAs, the moving object region MOAa (t + 1), the moving object region MOAb (t + 1), and the moving object region MOAc (T + 1), it is assumed that the moving object region MOAd (t + 1) is included. Further, in the following description, when any of the moving object region MOAa (t + 1) and ...

図形設定部341は、移動物体領域MOAa(t)〜移動物体領域MOAd(t)および移動物体領域MOAa(t+1)〜移動物体領域MOAd(t+1)のそれぞれについて、対応図形として外接矩形を設定する。 The figure setting unit 341 sets an extrinsic rectangle as a corresponding figure for each of the moving object area MOAa (t) to the moving object area MOAd (t) and the moving object area MOAa (t + 1) to the moving object area MOAd (t + 1).

重なり度算出部342は、時点[t]における画像に含まれる移動物体領域群(t)の中から、処理対象とする1つの移動物体領域MOAa(t)を選択する(S61)。そして、重なり度算出部342は、時点[t+1]における画像に含まれる移動物体領域群(t+1)の中から、処理対象とする1つの移動物体領域MOAa(t+1)を選択する(S62)。 The overlap degree calculation unit 342 selects one moving object region MOAa (t) to be processed from the moving object region group (t) included in the image at the time point [t] (S61). Then, the overlap degree calculation unit 342 selects one moving object area MOAa (t + 1) to be processed from the moving object area group (t + 1) included in the image at the time point [t + 1] (S62).

次いで、重なり度算出部342は、上記S61にて選択した移動物体領域MOAa(t)の外接矩形(第1の対応図形)に対し、上記S62にて選択した移動物体領域MOAa(t+1)の外接矩形(第2の対応図形)が重なっている画素数を互いの重なり度として算出する(S63:重なり度算出ステップ)。 Next, the overlap degree calculation unit 342 circumscribes the moving object region MOAa (t + 1) selected in S62 with respect to the circumscribed rectangle (first corresponding figure) of the moving object region MOAa (t) selected in S61. The number of pixels on which the rectangles (second corresponding figures) overlap is calculated as the degree of overlap with each other (S63: overlap degree calculation step).

追跡処理部343は、算出した重なり度が所定の基準値α1(単位は例えばpix)未満の場合(S64でNO)、後述するS65およびS66の処理を行うことなく、S67の処理を実行する。上記基準値α1の具体的な値は特に限定されず、適宜設定されてよい。 When the calculated degree of overlap is less than a predetermined reference value α1 (unit is, for example, pix) (NO in S64), the tracking processing unit 343 executes the processing of S67 without performing the processing of S65 and S66 described later. The specific value of the reference value α1 is not particularly limited and may be set as appropriate.

追跡処理部343は、算出した重なり度が所定の基準値α1以上の場合(S64でYES)、以下の処理を行う。 When the calculated degree of overlap is equal to or greater than the predetermined reference value α1 (YES in S64), the tracking processing unit 343 performs the following processing.

(物体方向情報が無方向Gr0であることを解消する処理)
移動物体領域MOAa(t+1)について、物体方向情報が無方向Gr0の値を有する場合に、物体方向情報が無方向Gr0となっていることを解消する解消処理を実行する(S65)。この解消処理について、図12を用いて以下に説明する。図12は、上記解消処理の一例を示すフローチャートである。
(Process to eliminate that the object direction information is non-directional Gr0)
For the moving object region MOAa (t + 1), when the object direction information has a value of non-directional Gr0, a resolution process for eliminating the fact that the object direction information is non-directional Gr0 is executed (S65). This elimination process will be described below with reference to FIG. FIG. 12 is a flowchart showing an example of the above-mentioned elimination process.

図12に示すように、追跡処理部343は、移動物体領域MOAa(t+1)の物体方向情報が無方向Gr0以外の場合、換言すれば近方向Gr1〜左方向Gr4のいずれかである場合(S651でNO)、上記S65の解消処理を終了する。 As shown in FIG. 12, the tracking processing unit 343 indicates that the object direction information of the moving object area MOAa (t + 1) is other than the non-directional Gr0, in other words, the near direction Gr1 to the left direction Gr4 (S651). NO), the elimination process of S65 is completed.

一方で、追跡処理部343は、移動物体領域MOAa(t+1)の物体方向情報が無方向Gr0である場合(S651でYES)には、以下の処理を行う。 On the other hand, when the object direction information of the moving object region MOAa (t + 1) is non-directional Gr0 (YES in S651), the tracking processing unit 343 performs the following processing.

追跡処理部343は、時点[t]における画像に含まれる移動物体領域MOAa(t)の物体方向情報が無方向Gr0である場合(S652でYES)には、上記S65の解消処理を終了する。その一方で、移動物体領域MOAa(t)の物体方向情報が無方向Gr0以外の場合、換言すれば近方向Gr1〜左方向Gr4のいずれかである場合(S652でNO)、移動物体領域MOAa(t+1)の物体方向情報を移動物体領域MOAa(t)の物体方向情報に変更するかどうか以下のように判定する。ここで、移動物体領域MOAa(t)の物体方向情報をMDa(t)とする。なお、これは一例であって、上記S652では、移動物体領域MOAa(t)の物体方向情報が、(i)無方向の特性を持つ種類の第2種の物体方向情報(無方向Gr0)および(ii)有方向の特性を持つ種類の第1種の物体方向情報(近方向Gr1〜左方向Gr4)、の何れであるかという判定を行うようになっていればよい。 When the object direction information of the moving object region MOAa (t) included in the image at the time point [t] is non-directional Gr0 (YES in S652), the tracking processing unit 343 ends the elimination process of S65. On the other hand, when the object direction information of the moving object area MOAa (t) is other than the non-directional Gr0, in other words, when it is any of the near direction Gr1 to the left direction Gr4 (NO in S652), the moving object area MOAa ( Whether or not to change the object direction information of t + 1) to the object direction information of the moving object area MOAa (t) is determined as follows. Here, the object direction information of the moving object region MOAa (t) is MDa (t). This is just an example. In S652, the object direction information of the moving object region MOAa (t) is (i) the second type of object direction information (non-directional Gr0) having a non-directional characteristic. (Ii) It suffices to determine which of the first type of object direction information (near direction Gr1 to left direction Gr4) having directional characteristics.

追跡処理部343は、移動物体領域MOAa(t+1)において、「移動物体領域MOAa(t+1)の全画素数」に対する「画素方向情報がMDa(t)である画素数」の比が所定値α2以上である場合(S653でYES)、移動物体領域MOAa(t+1)の物体方向情報を、移動物体領域MOAa(t)の物体方向情報に変更する(S654)。例えば、移動物体領域MOAa(t)の物体方向情報が近方向Gr1であった場合、移動物体領域MOAa(t+1)の物体方向情報を無方向Gr0から近方向Gr1に変更する。なお、上記所定値α2の具体的な値は特に限定されず、適宜設定されてよい。 In the moving object area MOAa (t + 1), the tracking processing unit 343 has a ratio of "the number of pixels whose pixel direction information is MDa (t)" to "the total number of pixels of the moving object area MOAa (t + 1)" being a predetermined value α2 or more. (YES in S653), the object direction information of the moving object area MOAa (t + 1) is changed to the object direction information of the moving object area MOAa (t) (S654). For example, when the object direction information of the moving object area MOAa (t) is the near direction Gr1, the object direction information of the moving object area MOAa (t + 1) is changed from the non-directional Gr0 to the near direction Gr1. The specific value of the predetermined value α2 is not particularly limited and may be set as appropriate.

一方で、上記S653にて、「移動物体領域MOAa(t+1)の全画素数」に対する「画素方向情報がMDa(t)である画素数」の比が所定値α2未満の場合(S653でNO)、上記S65における解消処理を終了する。 On the other hand, in S653, when the ratio of "the number of pixels whose pixel direction information is MDa (t)" to "the total number of pixels of the moving object region MOAa (t + 1)" is less than the predetermined value α2 (NO in S653). , The elimination process in S65 is completed.

再び図11を参照して、上記S65における処理の後、追跡処理部343は、上記S64にて選択した移動物体領域MOAa(t+1)を、「仮のリスト」に追加する(S66)。なお、本実施形態における追跡処理部343は、上記S64でYESであれば、上記S65における処理内容に関わらず、必ず上記S66を実行する。 With reference to FIG. 11 again, after the processing in S65, the tracking processing unit 343 adds the moving object region MOAa (t + 1) selected in S64 to the “temporary list” (S66). If YES in S64, the tracking processing unit 343 in the present embodiment always executes S66 regardless of the processing content in S65.

次いで、時点[t+1]における画像中の移動物体領域群(t+1)の全てを追跡処理の対象にし終わっていない場合(S67でNO)、上記S62からの処理を実行する。例えば、移動物体領域MOAa(t)と移動物体領域MOAb(t+1)とについて上記S62からの処理を行う。一方で、S67でYESの場合、追跡処理部343は、S61にて追跡処理の対象として選択した移動物体領域MOAa(t)に対応する移動物体領域MOAx(t+1)を特定する処理を行う(S68:特定処理ステップ)。 Next, when all of the moving object region group (t + 1) in the image at the time point [t + 1] has not been targeted for the tracking process (NO in S67), the process from S62 is executed. For example, the moving object region MOAa (t) and the moving object region MOAb (t + 1) are processed from S62. On the other hand, when YES in S67, the tracking processing unit 343 performs a process of specifying the moving object region MOAx (t + 1) corresponding to the moving object region MOAa (t) selected as the target of the tracking processing in S61 (S68). : Specific processing step).

(特定処理)
追跡処理部343が実行する特定処理について、図13を用いて以下に説明する。図13は、移動物体領域MOAa(t)に対応する移動物体領域MOAx(t+1)を特定する特定処理の一例を示すフローチャートである。
(Specific processing)
The specific processing executed by the tracking processing unit 343 will be described below with reference to FIG. FIG. 13 is a flowchart showing an example of a specific process for specifying the moving object region MOAx (t + 1) corresponding to the moving object region MOAa (t).

図13に示すように、追跡処理部343は、「仮のリスト」中に移動物体領域MOAx(t+1)が無い場合(S681でNO)、移動物体領域MOAa(t)に対応する移動物体領域MOA(t+1)が移動物体領域群(t+1)中に存在しないと判定する(S685)。この場合、移動物体領域MOAa(t)に対応する移動物体領域MOA(t+1)が存在しないこととなり(追跡不可であり)、以降の処理対象とすることが不適となり得る。そのため、記憶部32から移動物体領域MOAa(t)に関するデータを消去してもよい。また、以降の処理において当該データを使用しないように設定してもよい。 As shown in FIG. 13, when the tracking processing unit 343 does not have the moving object region MOAx (t + 1) in the “temporary list” (NO in S681), the tracking processing unit 343 corresponds to the moving object region MOAa (t). It is determined that (t + 1) does not exist in the moving object region group (t + 1) (S685). In this case, the moving object region MOA (t + 1) corresponding to the moving object region MOAa (t) does not exist (it cannot be tracked), and it may be unsuitable for the subsequent processing target. Therefore, the data related to the moving object region MOAa (t) may be deleted from the storage unit 32. Further, the data may be set not to be used in the subsequent processing.

上記に対して、S681でYESの場合において、追跡処理部343は、移動物体領域MOAa(t)と同じ物体方向情報を有する移動物体領域MOAx(t+1)が「仮のリスト」中に有れば(S682でYES)、移動物体領域MOAa(t)と同じ物体方向情報を有する移動物体領域MOAx(t+1)の中で「重なり度」が最大のものを移動物体領域MOAa(t)に対応する移動物体領域MOAx(t+1)として特定する(S683)。 On the other hand, in the case of YES in S681, the tracking processing unit 343 indicates that the moving object region MOAx (t + 1) having the same object direction information as the moving object region MOAa (t) is in the "temporary list". (YES in S682), Among the moving object areas MOAx (t + 1) having the same object direction information as the moving object area MOAa (t), the one having the maximum "overlap degree" is moved corresponding to the moving object area MOAa (t). It is specified as an object region MOAx (t + 1) (S683).

一方で、S682でNOの場合、「仮のリスト」中に含まれる移動物体領域MOAx(t+1)の中で「重なり度」が最大のものを移動物体領域MOAa(t)に対応する移動物体領域MOAx(t+1)として特定する(S684)。 On the other hand, in the case of NO in S682, among the moving object areas MOAx (t + 1) included in the "temporary list", the one having the maximum "overlap degree" is the moving object area corresponding to the moving object area MOAa (t). It is specified as MOAx (t + 1) (S684).

本明細書において、上記S683またはS684にて特定した移動物体領域MOAx(t+1)を、移動物体領域MOAa(t)に対応する対応物体領域と称する。 In the present specification, the moving object region MOAx (t + 1) specified in S683 or S684 is referred to as a corresponding object region corresponding to the moving object region MOAa (t).

(S6の補記事項)
本実施形態における追跡処理部343は、移動物体領域群(t)に含まれる移動物体領域MOAa(t)〜MOAd(t)のそれぞれについて上記S60〜S68の処理を行うことにより、各移動物体領域MOAa(t)〜MOAd(t)に対応する移動物体領域MOAx(t+1)を特定する。或いは、追跡処理部343は、移動物体領域MOAa(t)〜MOAd(t)のそれぞれについて上記S60〜上記S67の処理を行った後、各移動物体領域MOAa(t)〜MOAd(t)について上記S68の処理を行うようになっていてもよい。
(Supplementary information for S6)
The tracking processing unit 343 in the present embodiment performs the processing of S60 to S68 for each of the moving object regions MOAa (t) to MOAd (t) included in the moving object region group (t), so that each moving object region The moving object region MOAx (t + 1) corresponding to MOAa (t) to MOAd (t) is specified. Alternatively, the tracking processing unit 343 performs the processing of S60 to S67 for each of the moving object regions MOAa (t) to MOAd (t), and then the tracking processing unit 343 describes the moving object regions MOAa (t) to MOAd (t). The processing of S68 may be performed.

(小括2)
以上のように、本実施形態における画像処理装置30は、エレベータの乗場2をカメラ21にて撮像した画像を取得する画像取得部31と、前記画像における、乗場2に存在する移動物体1に対応する像を示す移動物体領域MOAを決定する移動物体決定部33とを備えている。また、画像処理装置30は、前記画像であって、時点[t]における画像および時点[t+1]における画像(所定の時間差を有する第1の画像および第2の画像)について、時点[t]における画像中に含まれる複数の移動物体領域MOAx(t)にそれぞれ対応する複数の第1の対応図形、および、時点[t+1]における画像中に含まれる複数の移動物体領域MOAx(t+1)にそれぞれ対応する複数の第2の対応図形を設定する図形設定部341を備えている。そして、画像処理装置30は、複数の前記第1の対応図形のうちの或る1つと、複数の前記第2の対応図形のそれぞれとの互いの重なり度を算出する重なり度算出部342を備えている。さらに、画像処理装置30は、時点[t]における画像中において、或る1つの前記第1の対応図形に対応する移動物体領域MOAa(t)にて像が示される移動物体1を処理対象物体とし、時点[t+1]における画像中において、乗場2に存在する、前記処理対象物体と同一の移動物体1に対応する像を示す移動物体領域MOAx(t+1)を対応物体領域として、前記重なり度が所定の基準値α1以上であることに基づいて前記対応物体領域を特定する追跡処理部343を備えている。
(Summary 2)
As described above, the image processing device 30 in the present embodiment corresponds to the image acquisition unit 31 that acquires an image of the elevator landing 2 captured by the camera 21 and the moving object 1 existing in the landing 2 in the image. It is provided with a moving object determination unit 33 that determines a moving object region MOA showing an image to be processed. Further, the image processing apparatus 30 refers to the image at the time point [t] and the image at the time point [t + 1] (the first image and the second image having a predetermined time difference) at the time point [t]. Corresponds to a plurality of first corresponding figures corresponding to a plurality of moving object regions MOAx (t) included in the image, and a plurality of moving object regions MOAx (t + 1) included in the image at the time point [t + 1], respectively. It is provided with a figure setting unit 341 for setting a plurality of second corresponding figures. Then, the image processing device 30 includes an overlap degree calculation unit 342 that calculates the degree of overlap between a certain one of the plurality of the first corresponding figures and each of the plurality of the second corresponding figures. ing. Further, the image processing device 30 processes the moving object 1 whose image is shown in the moving object region MOAa (t) corresponding to the first corresponding figure in the image at the time point [t]. Then, in the image at the time point [t + 1], the moving object region MOAx (t + 1) existing in the landing 2 and showing the image corresponding to the same moving object 1 as the processing target object is set as the corresponding object region, and the degree of overlap is A tracking processing unit 343 that identifies the corresponding object region based on a predetermined reference value α1 or more is provided.

ここで、従来、異なるフレームの2枚の画像を用いて、一方の画像における或る移動物体領域と、他方の画像に含まれる各移動物体領域との重心(または中心)のユークリッド距離を算出し、算出したユークリッド距離が閾値以下でありかつ最小となる移動物体領域同士を、フレーム間で同一の移動物体領域であると判定する技術が知られている。 Here, conventionally, using two images of different frames, the Euclidean distance of the center of gravity (or center) between a certain moving object region in one image and each moving object region included in the other image is calculated. , A technique is known in which moving object regions whose calculated Euclidean distance is equal to or less than a threshold value and which is the minimum are determined to be the same moving object region between frames.

ところで、或る移動物体1が、時点[t]から時点[t+1]までの間に移動する距離(移動距離)には、通常、限界がある。そのため、上限値(移動距離上限値)があると言うことができる。そのため、上記のように「ユークリッド距離」を求めた場合にも、通常、「ユークリッド距離上限値」があることになる。 By the way, the distance (moving distance) that a moving object 1 moves between the time point [t] and the time point [t + 1] is usually limited. Therefore, it can be said that there is an upper limit value (moving distance upper limit value). Therefore, even when the "Euclidean distance" is obtained as described above, there is usually an "Euclidean distance upper limit value".

上記「移動距離上限値」については、移動物体1がカメラ21からどれだけの距離に存在するかに関係なく一定値でよいが、「ユークリッド距離上限値」は、移動物体1がカメラ21からどれだけの距離に存在するかに応じて(つまり、移動物体領域が画像上のどこに位置しているかに応じて)変動させる必要がある。換言すれば、移動物体1がカメラ21から遠ければ遠いほど、「ユークリッド距離上限値」を小さい値(反対に、カメラ21に近ければ近いほど大きい値)とする必要がある。そのようにして「ユークリッド距離上限値」を決定しなければならないことは、煩雑である。 The above "moving distance upper limit value" may be a constant value regardless of how far the moving object 1 is from the camera 21, but the "Euclidean distance upper limit value" is which moving object 1 is from the camera 21. It needs to be varied depending on whether it exists at a distance of only (that is, where the moving object region is located on the image). In other words, the farther the moving object 1 is from the camera 21, the smaller the "Euclidean distance upper limit value" (conversely, the closer it is to the camera 21, the larger the value) needs to be set. Having to determine the "Euclidean distance upper limit" in this way is complicated.

これに対して、本実施形態における画像処理装置30では、時点[t]での移動物体領域と、時点[t+1]での移動物体領域とで、それぞれの「外接矩形」の間の「重なり度」(重複画素数)を求める。ここで、「外接矩形」は、上記第1の対応図形および上記第2の対応図形の一例である。また、上記第1の対応図形および上記第2の対応図形の重なり度の一例である画素数に基づいて評価する。 On the other hand, in the image processing apparatus 30 of the present embodiment, the moving object area at the time point [t] and the moving object area at the time point [t + 1] have an “overlap degree” between the respective “circumscribed rectangles”. "(Number of overlapping pixels). Here, the "circumferential rectangle" is an example of the first corresponding figure and the second corresponding figure. Further, the evaluation is made based on the number of pixels which is an example of the degree of overlap of the first corresponding figure and the second corresponding figure.

この場合、「移動距離上限値」に対応するものとして、一定の「重なり度下限値」(所定の基準値α1)を設ければよい。このように「重なり度下限値」を一定値にしても問題がない理由は以下のとおりである。すなわち、「重なり度下限値」と比較する「外接矩形の大きさ(画素数)」は、移動物体1の存在する位置がカメラ21から遠ければ遠いほど小さくなる(反対に、位置が近ければ近いほど「外接矩形の大きさ(画素数)」が大きくなる)。そのため、「ユークリッド距離上限値」を移動物体1の存在する位置がカメラ21から遠ければ遠いほど小さい値(近ければ近いほど大きい値)とすることと同じ効果を持つことになる。 In this case, a constant "overlap degree lower limit value" (predetermined reference value α1) may be provided as corresponding to the "movement distance upper limit value". The reason why there is no problem even if the "lower limit of the degree of overlap" is set to a constant value is as follows. That is, the "size of the circumscribing rectangle (number of pixels)" to be compared with the "lower limit of the degree of overlap" becomes smaller as the position where the moving object 1 exists is farther from the camera 21 (conversely, the closer the position is, the closer it is). The larger the "size of the circumscribing rectangle (number of pixels)"). Therefore, it has the same effect as setting the "Euclidean distance upper limit value" to a smaller value as the position where the moving object 1 exists is farther from the camera 21 (a larger value as it is closer).

したがって、本実施形態の画像処理装置30では、上記の従来技術のような煩雑な処理が不要となる。 Therefore, in the image processing apparatus 30 of the present embodiment, complicated processing as in the above-mentioned conventional technique becomes unnecessary.

また、本実施形態の画像処理装置30では、追跡処理部343は、重なり度が所定の基準値以上である複数の移動物体領域MOAx(t+1)の中から、前記対応物体領域を、前記重なり度が最も大きいことに基づいて特定する。 Further, in the image processing apparatus 30 of the present embodiment, the tracking processing unit 343 sets the corresponding object region as the overlap degree from among a plurality of moving object regions MOAx (t + 1) having an overlap degree of equal to or higher than a predetermined reference value. Is specified based on the largest.

上記の構成によれば、時点[t]における画像中の或る移動物体領域MOAa(t)が、時点[t+1]における画像中のどの移動物体領域MOAx(t+1)に対応するかを、重なり度算出部342にて算出した重なり度が最も大きいことに基づいて特定することができる。そのため、移動物体領域MOAの追跡精度を高めることができる。 According to the above configuration, the degree of overlap determines which moving object region MOAa (t) in the image at the time point [t] corresponds to which moving object region MOAx (t + 1) in the image at the time point [t + 1]. It can be specified based on the fact that the degree of overlap calculated by the calculation unit 342 is the largest. Therefore, the tracking accuracy of the moving object region MOA can be improved.

また、移動物体領域MOAは、移動物体1の移動方向に関する物体方向情報を有している。追跡処理部343は、前記対応物体領域を、前記物体方向情報が互いに同一であり、かつ前記重なり度が最も大きいことに基づいて特定することが好ましい。 Further, the moving object region MOA has object direction information regarding the moving direction of the moving object 1. It is preferable that the tracking processing unit 343 specifies the corresponding object region based on the fact that the object direction information is the same as each other and the degree of overlap is the largest.

一般に、移動物体1が急激な方向転換を行う可能性は低いと考えられる。上記の構成によれば、移動物体領域の追跡処理において、時点[t]と時点[t+1]とで物体方向情報が互いに同じである移動物体領域を優先的に対応物体領域と特定することができる。そのため、移動物体領域の追跡精度を高めることができる。 In general, it is unlikely that the moving object 1 will make a sudden turn. According to the above configuration, in the tracking process of the moving object area, the moving object area in which the object direction information is the same at the time point [t] and the time point [t + 1] can be preferentially specified as the corresponding object area. .. Therefore, the tracking accuracy of the moving object area can be improved.

また、本実施形態の画像処理装置30における追跡処理部343は、移動物体領域MOAa(t)の有する前記物体方向情報が有方向の特性を持つ第1種の物体方向情報であり、かつ、移動物体領域MOAx(t+1)の有する前記物体方向情報が無方向の特性を持つ第2種の物体方向情報である場合、移動物体領域MOAx(t+1)の有する前記物体方向情報を、移動物体領域MOAa(t)の有する前記物体方向情報に一致させるようになっていることが好ましい。 Further, the tracking processing unit 343 in the image processing apparatus 30 of the present embodiment is a type 1 object direction information in which the object direction information possessed by the moving object region MOAa (t) has a directional characteristic and is moving. When the object direction information of the object area MOAx (t + 1) is the second type of object direction information having a non-directional characteristic, the object direction information of the moving object area MOAx (t + 1) is used as the moving object area MOAa ( It is preferable that the object direction information of t) is matched.

上記の構成によれば、追跡処理部343は、例えば、時点[t+1]において移動物体1が一時的に立ち止まった等の理由によって、第2の対応図形に対応する移動物体領域MOA(t+1)が無方向Gr0の物体方向情報(第2種の物体方向情報)を有する場合、以下の処理を行う。すなわち、第2の対応図形に対応する移動物体領域MOA(t+1)の物体方向情報を、時点[t]における移動物体領域MOA(t)の物体方向情報に変更(更新)する。そのため、時点[t+1]において移動物体1が一時的に立ち止まった等により移動物体領域MOA(t+1)の物体方向情報が無方向Gr0となったとしても、時点[t]における物体方向情報(第1種の物体方向情報)を引き継ぐことができる。その結果、物体方向情報を含めて移動物体領域MOAを追跡することができる。 According to the above configuration, the tracking processing unit 343 has the moving object region MOA (t + 1) corresponding to the second corresponding figure due to, for example, the moving object 1 temporarily stopping at the time point [t + 1]. When it has the object direction information of non-directional Gr0 (the second kind of object direction information), the following processing is performed. That is, the object direction information of the moving object area MOA (t + 1) corresponding to the second corresponding figure is changed (updated) to the object direction information of the moving object area MOA (t) at the time point [t]. Therefore, even if the object direction information of the moving object region MOA (t + 1) becomes non-directional Gr0 due to the moving object 1 temporarily stopping at the time point [t + 1], the object direction information (first) at the time point [t]. Species object direction information) can be inherited. As a result, the moving object region MOA can be tracked including the object direction information.

以上のような画像処理装置30にて行われる処理を含む、画像処理方法についても本発明の範疇に入る。 An image processing method including the processing performed by the image processing apparatus 30 as described above also falls within the scope of the present invention.

(変形例2)
(2a)上記実施形態では、図形設定部341は、移動物体領域MOAを囲う矩形の対応図形を設定し、その例として外接矩形を挙げたが、これに限定されない。例えば、他の一実施形態では、図形設定部341は、外接しない矩形を設定してもよい。すなわち、矩形の4辺と移動物体領域MOAの外縁との間に多少の間隔が存在しても構わない。
(Modification 2)
(2a) In the above embodiment, the figure setting unit 341 sets a corresponding figure of a rectangle surrounding the moving object area MOA, and an extrinsic rectangle is given as an example, but the present invention is not limited to this. For example, in another embodiment, the figure setting unit 341 may set a rectangle that does not circumscribe. That is, there may be some distance between the four sides of the rectangle and the outer edge of the moving object region MOA.

なお、図形設定部341は、矩形以外の形状の対応図形を設定してもよい。例えば、図形設定部341は、楕円形の対応図形を設定してもよい。 The figure setting unit 341 may set a corresponding figure having a shape other than a rectangle. For example, the figure setting unit 341 may set an elliptical corresponding figure.

(2b)図形設定部341は、移動物体1の存在する位置がカメラ21から遠ければ遠いほど対応図形の大きさ(画素数)が小さくなるように(反対に、近ければ近いほど大きくなるように)、対応図形の大きさを設定するようになっていてもよい。このように対応図形の大きさを設定するようになってさえいれば、対応図形の大きさは特に限定されるものではない。 (2b) In the figure setting unit 341, the farther the moving object 1 is from the camera 21, the smaller the size (number of pixels) of the corresponding figure (conversely, the closer it is, the larger the corresponding figure). ), The size of the corresponding figure may be set. As long as the size of the corresponding figure is set in this way, the size of the corresponding figure is not particularly limited.

(S7について)
ここまで、画像処理装置30の物体追跡部34における、画像中の移動物体の像(移動物体領域)をフレーム間で追跡する処理について説明してきた。以下では、移動物体領域MOAについて、変動係数を算出する処理について説明する。なお、本実施形態では、図3におけるS1〜S6の処理に引き続いて、またはS1〜S5の処理の後に上記S6と並行して、変動係数演算部35が変動係数を算出する処理について説明するが、本発明の一態様における画像処理装置30および制御装置40はこれに限定されない。つまり、公知の方法を用いて画像中の移動物体1を決定する処理または追跡する処理を行った結果に基づいて、以下に説明する変動係数演算部35の処理を適用することも可能である。
(About S7)
Up to this point, the process of tracking an image of a moving object (moving object region) in an image between frames in the object tracking unit 34 of the image processing device 30 has been described. In the following, the process of calculating the coefficient of variation for the moving object region MOA will be described. In the present embodiment, a process of calculating the coefficient of variation by the coefficient of variation calculation unit 35 will be described following the processes of S1 to S6 in FIG. 3 or in parallel with the process of S6 after the processes of S1 to S5. The image processing device 30 and the control device 40 in one aspect of the present invention are not limited thereto. That is, it is also possible to apply the process of the coefficient of variation calculation unit 35 described below based on the result of performing the process of determining or tracking the moving object 1 in the image using a known method.

再び図1および図3を参照して、物体追跡部34によるS6の処理が行われた後、次いで、変動係数演算部35は、以下のような処理を行うことにより移動物体領域MOAについて変動係数を算出する処理を行う(S7)。この変動係数の情報と、物体追跡部34における追跡処理(上記S6)の結果とを、後述する意思推定処理にて用いることにより、乗車検知システム10の検知精度向上を図る。具体的には、後述のS8に示されるように、制御装置40の意思推定部421は、移動物体領域MOAに示される移動物体の乗車意思を推定する処理を行う。なお、画像処理装置30および制御装置40の両方を含む装置を情報処理装置と表現することもできる。 With reference to FIGS. 1 and 3 again, after the processing of S6 by the object tracking unit 34 is performed, the coefficient of variation calculation unit 35 then performs the following processing to perform the coefficient of variation for the moving object region MOA. Is performed (S7). By using the information of the coefficient of variation and the result of the tracking process (S6) in the object tracking unit 34 in the intention estimation process described later, the detection accuracy of the boarding detection system 10 is improved. Specifically, as shown in S8 described later, the intention estimation unit 421 of the control device 40 performs a process of estimating the boarding intention of the moving object shown in the moving object area MOA. A device including both the image processing device 30 and the control device 40 can also be expressed as an information processing device.

(戸閉中のかご戸を判別する必要性)
移動物体決定部33によって決定された移動物体領域MOAのうち、物体方向情報が近方向Gr1である移動物体領域MOAは、乗車意思ありと推定される移動物体1の像を示している蓋然性が高い、一方で、そのような移動物体領域MOAの中には、乗車意思ありと推定されることが不適切である移動物体1の像を示している可能性がある移動物体領域MOAも存在し得る。例えば、撮像画像に、閉戸動作中のかご戸22(ドア)が映っている場合を考える。通常、かご戸22は、移動物体決定部33によって、右方向Gr2または左方向Gr4の物体方向情報を有する移動物体領域MOAとして決定される。一方で、外光等の影響により、移動物体決定部33は、かご戸22を近方向Gr1の物体方向情報を有する移動物体領域MOAとして決定する場合もある。このため、撮像画像中において、かご戸22を判別することが必要である。後述するように、本実施形態では、かご戸22の判別のために、変動係数を算出することが必要である。
(Necessity to identify the car door that is closed)
Of the moving object area MOAs determined by the moving object determination unit 33, the moving object area MOA whose object direction information is near-direction Gr1 is highly likely to show an image of the moving object 1 presumed to have an intention to board. On the other hand, in such a moving object region MOA, there may also be a moving object region MOA that may show an image of the moving object 1 for which it is inappropriate to presume that there is an intention to ride. .. For example, consider the case where the car door 22 (door) in which the door is closed is shown in the captured image. Normally, the car door 22 is determined by the moving object determination unit 33 as a moving object region MOA having object direction information of Gr2 in the right direction or Gr4 in the left direction. On the other hand, due to the influence of external light or the like, the moving object determination unit 33 may determine the car door 22 as the moving object region MOA having the object direction information of the near direction Gr1. Therefore, it is necessary to identify the car door 22 in the captured image. As will be described later, in the present embodiment, it is necessary to calculate the coefficient of variation in order to discriminate the car door 22.

そこで、以下に述べるように、本実施形態の画像処理装置30では、変動係数演算部35が、移動物体領域MOAについて変動係数を算出する処理を行い、算出した変動係数を該移動物体領域MOAに対応付ける。 Therefore, as described below, in the image processing apparatus 30 of the present embodiment, the coefficient of variation calculation unit 35 performs a process of calculating the coefficient of variation for the moving object region MOA, and the calculated coefficient of variation is used in the moving object region MOA. Correspond.

(勾配方向および勾配強度の算出)
図14は、変動係数演算部35の処理の一例について説明するための図である。まず、変動係数演算部35は、記憶部32からグレー画像GP(t)(時点[t]におけるグレースケール画像)を取得する。変動係数演算部35は、当該グレー画像GP(t)を縮小した画像GPr(t)(第3の画素数)を用いて、各移動物体領域MOAの勾配方向および勾配強度を算出する。図14の例では、撮像画像の画素値(輝度)は256階調(0〜255)で表されている。
(Calculation of gradient direction and gradient intensity)
FIG. 14 is a diagram for explaining an example of processing by the coefficient of variation calculation unit 35. First, the coefficient of variation calculation unit 35 acquires a gray image GP (t) (a grayscale image at a time point [t]) from the storage unit 32. The coefficient of variation calculation unit 35 calculates the gradient direction and the gradient intensity of each moving object region MOA using the image GPr (t) (the number of third pixels) obtained by reducing the gray image GP (t). In the example of FIG. 14, the pixel value (luminance) of the captured image is represented by 256 gradations (0 to 255).

具体的には、変動係数演算部35は、移動物体領域MOAにおいて、画像GPr(t)の各画素における輝度の勾配方向および勾配強度を算出する。図14では、かご戸22の所定の1つの画素(注目画素)について、勾配方向および勾配強度を算出する場合が例示されている。より具体的には、変動係数演算部35は、0°〜180°の勾配方向を算出する。 Specifically, the coefficient of variation calculation unit 35 calculates the gradient direction and the gradient intensity of the luminance in each pixel of the image GPr (t) in the moving object region MOA. FIG. 14 illustrates a case where the gradient direction and the gradient intensity are calculated for a predetermined one pixel (the pixel of interest) of the car door 22. More specifically, the coefficient of variation calculation unit 35 calculates the gradient direction of 0 ° to 180 °.

変動係数演算部35によって、注目画素の勾配方向および勾配強度を算出する場合を例示する。 The case where the coefficient of variation calculation unit 35 calculates the gradient direction and the gradient intensity of the pixel of interest will be illustrated.

まず、ドア開閉路24に対応する、撮像画像P0上の線分である開閉範囲線分に平行な方向をX方向とし、垂直な方向をY方向とする。Yの正方向は、かご20内に向かう方向とし、Xの正方向は、Yの正方向に対して反時計回りに90°回転した方向とする。変動係数演算部35は、注目画素のX方向の値およびY方向の値を算出する。なお、以下の例において、Xの正方向およびYの正方向はそれぞれ、図14の例における画像GPr(t)の右方向および下方向に対応する。 First, the direction parallel to the opening / closing range line segment corresponding to the door opening / closing path 24 and the line segment on the captured image P0 is the X direction, and the direction perpendicular to the line segment is the Y direction. The positive direction of Y is the direction toward the inside of the car 20, and the positive direction of X is the direction rotated by 90 ° counterclockwise with respect to the positive direction of Y. The coefficient of variation calculation unit 35 calculates the value in the X direction and the value in the Y direction of the pixel of interest. In the following examples, the positive direction of X and the positive direction of Y correspond to the right direction and the downward direction of the image GPr (t) in the example of FIG. 14, respectively.

変動係数演算部35は、まず、注目画素を中心画素とする3×3の画素マトリクスを取得する。そして、変動係数演算部35は、図14に示されるように、例えばSobelフィルタを上記画素マトリクスに適用することにより、勾配方向(以下、Gθ)および勾配強度(以下、GD)を算出する。 The coefficient of variation calculation unit 35 first acquires a 3 × 3 pixel matrix centered on the pixel of interest. Then, as shown in FIG. 14, the coefficient of variation calculation unit 35 calculates the gradient direction (hereinafter, Gθ) and the gradient intensity (hereinafter, GD) by applying, for example, a Sobel filter to the pixel matrix.

変動係数演算部35は、上記画素マトリクスに横方向のSobelフィルタを適用することにより、X方向の値を導出する。図14の例では、変動係数演算部35は、
97×(−1)+57×0+23×1
+211×(−2)+186×0+74×2
+243×(−1)+179×0+167×1
=−424=−X
として、X方向の値を導出する。Xは、X方向の絶対値を表すものとする。このため、X方向の値については、Xまたは−Xとして表するものとする。
The coefficient of variation calculation unit 35 derives a value in the X direction by applying a horizontal Sobel filter to the pixel matrix. In the example of FIG. 14, the coefficient of variation calculation unit 35 is
97 x (-1) + 57 x 0 + 23 x 1
+211 × (-2) +186 × 0 +74 × 2
+243 × (-1) +179 × 0 + 167 × 1
=-424 = -X
To derive the value in the X direction. It is assumed that X represents an absolute value in the X direction. Therefore, the value in the X direction shall be represented as X or −X.

また、変動係数演算部35は、上記画素マトリクスに縦方向のSobelフィルタを適用することにより、Y方向の値を導出する。図14の例では、変動係数演算部35は、
97×1+57×2+23×1
+211×0+186×0+74×0
+243×(−1)+179×(−2)+167×(−1)
=−534=−Y
として、Y方向の値を導出する。Yは、Y方向の絶対値を表すものとする。このため、Y方向の値については、Yまたは−Yとして表するものとする。
である。
Further, the coefficient of variation calculation unit 35 derives a value in the Y direction by applying a Sobel filter in the vertical direction to the pixel matrix. In the example of FIG. 14, the coefficient of variation calculation unit 35 is
97 × 1 + 57 × 2 + 23 × 1
+211 × 0 + 186 × 0 +74 × 0
+243 x (-1) +179 x (-2) +167 x (-1)
= -534 = -Y
To derive the value in the Y direction. It is assumed that Y represents an absolute value in the Y direction. Therefore, the value in the Y direction shall be expressed as Y or −Y.
Is.

続いて、変動係数演算部35は、上述のXおよびYに対して、下記のようにGθを算出する。
(X、Y)に対しては、Gθ=atan(Y/X)
(−X、−Y)に対しても、Gθ=atan(Y/X)
(X、−Y)に対しては、Gθ=180°−atan(Y/X)
(−X、Y)に対しても、Gθ=180°−atan(Y/X)。
Subsequently, the coefficient of variation calculation unit 35 calculates Gθ with respect to the above-mentioned X and Y as follows.
For (X, Y), Gθ = atan (Y / X)
For (-X, -Y), Gθ = atan (Y / X)
For (X, -Y), Gθ = 180 ° -atan (Y / X)
For (-X, Y), Gθ = 180 ° -atan (Y / X).

すなわち、勾配方向が同一直線に乗れば同じ方向であるとして、直線上の順方向と逆方向とを同一視し、Gθを0°〜180°の値にする。 That is, assuming that the gradient directions are the same if they are on the same straight line, the forward direction and the reverse direction on the straight line are equated, and Gθ is set to a value of 0 ° to 180 °.

図14の例では、
Gθ=0.899[rad]=51.550°
である。
In the example of FIG. 14,
Gθ = 0.899 [rad] = 51.550 °
Is.

また、変動係数演算部35は、
GD=sqrt(X+Y
として、GDを算出する。図14の例では、GD=681.859である。
In addition, the coefficient of variation calculation unit 35
GD = square (X 2 + Y 2 )
GD is calculated as. In the example of FIG. 14, GD = 681.859.

(変動係数の算出)
変動係数演算部35は、移動物体領域MOAごとに、画像GPr(t)の各画素をGθに応じて複数のグループに分類する。そして、変動係数演算部35は、各グループに属する画素の数を算出する。以下、1つの移動物体領域MOAに対する処理を説明する。
(Calculation of coefficient of variation)
The coefficient of variation calculation unit 35 classifies each pixel of the image GPr (t) into a plurality of groups according to Gθ for each moving object region MOA. Then, the coefficient of variation calculation unit 35 calculates the number of pixels belonging to each group. Hereinafter, processing for one moving object region MOA will be described.

以下の例では、上記分類のために、Gθは、20°ごとに区分されるものとする。この場合、変動係数演算部35は、第1勾配方向グループ(勾配方向0°〜20°のグループ)〜第9勾配方向グループ(勾配方向160°〜180°のグループ)の9通りのグループに、各画素を分類する。そして、変動係数演算部35は、第i勾配方向グループに属する画素の数Niを算出する。但し、1≦i≦9である。換言すれば、変動係数演算部35は、移動物体領域ごとに、各勾配方向グループの画素数の分布を示すヒストグラムを生成する。 In the following example, for the above classification, Gθ is assumed to be classified every 20 °. In this case, the coefficient of variation calculation unit 35 is divided into nine groups, that is, a first gradient direction group (a group having a gradient direction of 0 ° to 20 °) to a ninth gradient direction group (a group having a gradient direction of 160 ° to 180 °). Classify each pixel. Then, the coefficient of variation calculation unit 35 calculates the number Ni of the pixels belonging to the i-th gradient direction group. However, 1 ≦ i ≦ 9. In other words, the coefficient of variation calculation unit 35 generates a histogram showing the distribution of the number of pixels in each gradient direction group for each moving object region.

但し、GD=0の画素は、変動係数の計算においては考慮しないことが好ましいため、どのグループにも属さないものとして取り扱われる(つまり、読み捨てられる)。一例として、かご戸22のドアパネル先端面(略称:先端面)に外光が影響することにより、所定の注目画素では、3×3の上記画素マトリクスの輝度は、全て255となる。 However, since it is preferable not to consider the pixel with GD = 0 in the calculation of the coefficient of variation, it is treated as not belonging to any group (that is, it is discarded). As an example, the brightness of the 3 × 3 pixel matrix becomes 255 for a predetermined pixel of interest due to the influence of external light on the front surface (abbreviation: tip surface) of the door panel of the car door 22.

変動係数演算部35は、移動物体領域MOAごとに、上記ヒストグラムに基づき変動係数(以下、CV)を算出する(S7)。以下、1つの移動物体領域MOAに対する処理を説明する。まず、変動係数演算部35は、N1〜N9の平均値(より厳密には、算術平均)Nmを算出する。また、変動係数演算部35は、N1〜N9の標準偏差σを算出する。そして、変動係数演算部35は、
CV=σ/Nm
として、CVを算出する。CVは、相対標準偏差とも称される。
The coefficient of variation calculation unit 35 calculates the coefficient of variation (hereinafter, CV) for each moving object region MOA based on the above histogram (S7). Hereinafter, processing for one moving object region MOA will be described. First, the coefficient of variation calculation unit 35 calculates the average value (more strictly, the arithmetic mean) Nm of N1 to N9. Further, the coefficient of variation calculation unit 35 calculates the standard deviation σ of N1 to N9. Then, the coefficient of variation calculation unit 35
CV = σ / Nm
CV is calculated as. CV is also referred to as relative standard deviation.

(戸閉中のかご戸を変動係数によって判別できること)
かご戸22の像を示す移動物体領域MOAのCVは、比較的大きい値(例:1よりも有意に大きい値)となる。一例として、発明者らによる実験の結果、かご戸22の像を示す移動物体領域MOAのCVは、1.5〜2程度の値となることが確認された。一方、ユーザまたは台車等の像を示す移動物体領域MOAのCVは、比較的小さい値(例:1以下の値)となる。このように、ユーザまたは台車等の像を示す移動物体領域MOAでは、かご戸22の像を示す移動物体領域MOAに比べて、CVの値が有意に小さい。
(The coefficient of variation can be used to identify the car door that is closed)
The CV of the moving object region MOA showing the image of the car door 22 is a relatively large value (example: a value significantly larger than 1). As an example, as a result of experiments by the inventors, it was confirmed that the CV of the moving object region MOA showing the image of the car door 22 is about 1.5 to 2. On the other hand, the CV of the moving object region MOA showing an image of a user or a dolly is a relatively small value (example: a value of 1 or less). As described above, in the moving object region MOA showing the image of the user or the trolley, the value of CV is significantly smaller than that in the moving object region MOA showing the image of the car door 22.

このようにして、移動物体領域MOAが、「かご戸22の像でありそう」か、あるいは、「ユーザまたは台車等の像でありそうか」を、「CV≧CVth」または「CV<CVth」のいずれの条件が満たされるかによって振り分ける(区別する)ことができる。CVthとは、このように振り分けるための閾値であり、例えばCVth=1とすることができる。但し、CVthの値は任意に設定されてよく、上記の例に限定されない。 In this way, the moving object region MOA "is likely to be an image of the car door 22" or "is likely to be an image of a user or a dolly" is set to "CV ≥ CVth" or "CV <CVth". It is possible to sort (distinguish) according to which of the above conditions is satisfied. CVth is a threshold value for sorting in this way, and for example, CVth = 1 can be set. However, the value of CVth may be set arbitrarily and is not limited to the above example.

CVは、1つの移動物体領域において勾配方向の分布の偏りを示す指標である。かご戸22の像とは、ドアパネル先端面が、画像上の移動物体領域に映った像である。先端面は、細長い長方形であるが、当該先端面が映った移動物体領域は、細長い台形となる。そして、長方形の長辺どうしは平行であるが、対応する台形の脚どうしもほぼ平行である。この台形に含まれる各画素の勾配方向は、一方の脚に垂直な方向から、他方の脚に垂直な方向までの、狭い角度範囲に集中する傾向を有している。つまり、このような狭い角度範囲の中に、勾配方向の分布が偏っていることになる。なお、上記先端面が映った移動物体領域は、台形から若干歪んだ図形として映る場合(台形の脚が少し湾曲したり、少し折れ曲ったりするような場合)もある。但し、この場合にも、勾配方向の分布が偏るという傾向が大きく外れることはない。一方、ユーザまたは台車等の像では、当該像が様々な勾配方向を有する。当該勾配方向では、特定の角度範囲に分布が偏ることが少ない傾向を有している。 CV is an index showing the bias of the distribution in the gradient direction in one moving object region. The image of the car door 22 is an image in which the front end surface of the door panel is reflected in the moving object region on the image. The tip surface is an elongated rectangle, but the moving object region in which the tip surface is reflected is an elongated trapezoid. And while the long sides of the rectangle are parallel, the corresponding trapezoidal legs are also almost parallel. The gradient direction of each pixel included in this trapezoid tends to be concentrated in a narrow angular range from the direction perpendicular to one leg to the direction perpendicular to the other leg. That is, the distribution in the gradient direction is biased within such a narrow angle range. The moving object region in which the tip surface is reflected may be reflected as a figure slightly distorted from the trapezoid (the legs of the trapezoid may be slightly curved or slightly bent). However, even in this case, the tendency that the distribution in the gradient direction is biased does not deviate significantly. On the other hand, in an image of a user or a dolly, the image has various gradient directions. In the gradient direction, the distribution tends to be less biased in a specific angle range.

なお、かご戸22が左右のドアパネルで構成される両開きタイプの場合、左パネル先端面が映った画像上の台形の角度は、40°〜80°程度となり、右パネル先端面が映った画像上の台形の角度は、110°〜140°程度となる。ただし、戸閉動作のどの段階であるか(戸閉直後、戸閉途中、および戸閉完了直前)に応じて、上記第形の角度は、このような角度範囲の中でも、より狭い角度範囲に属する。ここで左とはXの負方向を、右とはXの正方向をそれぞれ指す。そして、左パネルに対応する勾配方向は、40°〜80°の垂直方向である130°〜170°となり、右パネルに対応する勾配方向は、110°〜140°の垂直方向である20°〜50°となる。 When the car door 22 is a double-door type composed of left and right door panels, the angle of the trapezoid on the image showing the tip surface of the left panel is about 40 ° to 80 °, and the angle of the trapezoid on the image showing the tip surface of the right panel is about 40 ° to 80 °. The angle of the trapezoid is about 110 ° to 140 °. However, depending on the stage of the door closing operation (immediately after the door is closed, during the closing of the door, and immediately before the completion of the door closing), the angle of the above-mentioned first form becomes a narrower angle range within such an angle range. Belongs. Here, the left refers to the negative direction of X, and the right refers to the positive direction of X. The gradient direction corresponding to the left panel is 130 ° to 170 °, which is a vertical direction of 40 ° to 80 °, and the gradient direction corresponding to the right panel is 20 ° to 140 °, which is a vertical direction of 110 ° to 140 °. It becomes 50 °.

(変形例3)
(3a)変動係数演算部35は、Sobelフィルタではなく、例えば微分フィルタまたはPrewittフィルタ等を用いて勾配方向と勾配強度とを算出してもよい。
(Modification example 3)
(3a) The coefficient of variation calculation unit 35 may calculate the gradient direction and the gradient intensity by using, for example, a differential filter or a Prewitt filter instead of the Sobel filter.

(3b)変動係数演算部35において、読み捨てられる画素はGD=0に限定されない。勾配強度の閾値(Dth:0より大)を設けてもよい。この場合、GD≦Dthの画素を読み捨てるように処理を行えばよい。なお、前述したように、ドアパネル先端面の長方形が映った、移動物体領域の台形については、その垂直方向に勾配方向が偏るという傾向がある。但し、移動物体領域中のGDが「0」に近い画素については、そのような傾向から外れてしまう性質がある。そこで、このような画素を除外してCVを算出することにより、CVthとの比較による、かご戸と当該かご戸以外の判別を、安定させることができる。 (3b) In the coefficient of variation calculation unit 35, the pixels to be discarded are not limited to GD = 0. A threshold value of gradient intensity (Dth: greater than 0) may be provided. In this case, the process may be performed so that the pixels of GD ≦ Dth are discarded. As described above, the trapezoid of the moving object region in which the rectangle on the front end surface of the door panel is reflected tends to have a gradient direction biased in the vertical direction. However, a pixel whose GD in the moving object region is close to "0" has a property of deviating from such a tendency. Therefore, by calculating the CV by excluding such pixels, it is possible to stabilize the discrimination between the car door and the car door other than the car door by comparison with the CVth.

(S8について)
再び図1および図3を参照して、物体追跡部34における追跡処理(上記S6)の結果および変動係数演算部35による変動係数の算出処理(上記S7)の結果を用いて、制御装置40の意思推定部421は、移動物体領域MOAに示される移動物体の乗車意思を推定する処理を行う(S8:意思推定ステップ)。なお、本実施形態では、図3におけるS1〜S7の処理に引き続いて意思推定部421が実行する処理について説明するが、本発明の一態様における画像処理装置30および制御装置40はこれに限定されない。つまり、公知の方法を用いて、画像中の移動物体領域を追跡する処理を行った結果、および移動物体領域の変動係数を算出した結果に基づいて、以下に説明する意思推定部421の処理を適用することも可能である。
(About S8)
With reference to FIGS. 1 and 3 again, the control device 40 uses the result of the tracking process (S6) in the object tracking unit 34 and the result of the coefficient of variation calculation process (S7) by the coefficient of variation calculation unit 35. The intention estimation unit 421 performs a process of estimating the boarding intention of the moving object shown in the moving object region MOA (S8: intention estimation step). In the present embodiment, the processing executed by the intention estimation unit 421 following the processing of S1 to S7 in FIG. 3 will be described, but the image processing device 30 and the control device 40 in one aspect of the present invention are not limited thereto. .. That is, based on the result of performing the process of tracking the moving object region in the image using a known method and the result of calculating the coefficient of variation of the moving object region, the process of the intention estimation unit 421 described below is performed. It is also possible to apply.

本実施形態における意思推定部421は、上記S8において、画像中の或る移動物体領域について後述の条件1A・2Aの両者が満たされるとともに、後述の条件1B〜3Bのうちの1つ以上が満たされる場合に、「移動物体領域にて示される移動物体が乗車意思を有している」と判定する。 In the above-mentioned S8, the intention estimation unit 421 in the present embodiment satisfies both the conditions 1A and 2A described later for a certain moving object region in the image, and one or more of the conditions 1B to 3B described later. In that case, it is determined that "the moving object shown in the moving object area has an intention to board".

図15は、S8の処理の一例を示すフローチャートである。以下、乗車意思を有している移動物体を示す領域を乗車意思あり物体領域と称する。これに対し、乗車意思を有していない移動物体を示す領域を、乗車意思なし物体領域と称する。 FIG. 15 is a flowchart showing an example of the processing of S8. Hereinafter, the area indicating a moving object having a boarding intention is referred to as a boarding intention object area. On the other hand, an area indicating a moving object that does not have an intention to board is referred to as an object area without an intention to board.

図15に示すように、先ず、意思推定部421は、或るフレーム(例:GP(t))にについて、物体追跡部34による追跡処理結果を示す情報を取得する(S81)。 As shown in FIG. 15, first, the intention estimation unit 421 acquires information indicating the tracking processing result by the object tracking unit 34 for a certain frame (example: GP (t)) (S81).

ここで、上記S81に続く意思推定部421による処理の説明に先立って、意思推定部421が用いる意思推定条件の前段部である条件1A・2Aについて説明する。ここで、連続する第1フレーム数について、条件1A・2Aは設定される。第1フレーム数は、フレームレートに基づいて適宜設定されてよい。本実施形態における第1フレーム数の設定値については、以下に述べる。 Here, prior to the explanation of the processing by the intention estimation unit 421 following S81, the conditions 1A and 2A, which are the first-stage parts of the intention estimation conditions used by the intention estimation unit 421, will be described. Here, the conditions 1A and 2A are set for the number of consecutive first frames. The number of first frames may be appropriately set based on the frame rate. The set value of the number of first frames in this embodiment will be described below.

(条件1A)「或る時点[t]における或る移動物体領域MOAx(t)について、物体方向情報の値が近方向Gr1であり、追跡処理結果を示す情報によって該移動物体領域MOAx(t)に対応すると特定された過去7フレームの移動物体領域MOAx(t−1)、MOAx(t−2)・・・MOAx(t−7)の全てにおける物体方向情報の値が近方向Gr1である」。 (Condition 1A) "For a certain moving object region MOAx (t) at a certain time point [t], the value of the object direction information is the near direction Gr1, and the moving object region MOAx (t) is determined by the information indicating the tracking processing result. The value of the object direction information in all of the moving object regions MOAx (t-1), MOAx (t-2) ... MOAx (t-7) of the past 7 frames specified to correspond to the near direction Gr1. " ..

本実施形態では、或る時点[t]のフレームと、その過去7フレームとを併せた、連続する8フレームの画像について、このフレーム数である「8個」を、第1フレーム数と呼ぶこととする。 In the present embodiment, "8", which is the number of frames, is referred to as the first frame number for a continuous eight-frame image in which the frame at a certain time point [t] and the past seven frames are combined. And.

(条件2A)「第1フレーム数の連続する複数の画像のうち、CVがCVth未満である画像が、所定の第2フレーム数以上ある」。 (Condition 2A) "Among a plurality of consecutive images having a first frame number, there are images having a CV of less than CVth in a predetermined second frame number or more."

上述のように、本実施形態では、上記第1フレーム数は8個に設定されている。第2フレーム数は、第1フレーム数以下の任意のフレーム数である。本例では、第2フレーム数は、4フレームであるとする。つまり、第2フレーム数は、第1フレーム数の半分として設定されている。 As described above, in the present embodiment, the number of the first frames is set to eight. The number of second frames is an arbitrary number of frames equal to or less than the number of first frames. In this example, the number of second frames is assumed to be four. That is, the number of second frames is set as half the number of first frames.

なお、これらの条件1A・2Aは意思推定条件の前段部の一例であって、意思推定条件は、任意に設定されてよく、これらに限定されない。上記第1フレーム数および第2フレーム数は、記憶部41に意思推定条件データ412として記憶されている。或いは、これらの意思推定条件は意思推定部421に予め設定されていてもよい。上記第1フレーム数および第2フレーム数の具体的な値は、特に限定されない。 It should be noted that these conditions 1A and 2A are examples of the first stage portion of the intention estimation condition, and the intention estimation condition may be arbitrarily set and is not limited thereto. The number of first frames and the number of second frames are stored in the storage unit 41 as intention estimation condition data 412. Alternatively, these intention estimation conditions may be preset in the intention estimation unit 421. The specific values of the first frame number and the second frame number are not particularly limited.

上記S81の後、意思推定部421は、条件1Aが満たされているか否かを判定する(S82)。条件1Aが満たされていない場合(S82でNO)、「上記移動物体領域に示される移動物体1は、乗車意思を有していない」と判定する(S86)。 After the above S81, the intention estimation unit 421 determines whether or not the condition 1A is satisfied (S82). When the condition 1A is not satisfied (NO in S82), it is determined that "the moving object 1 shown in the moving object region does not have the intention to board" (S86).

他方、条件1Aが満たされている場合(S82でYES)、意思推定部421は、或る時点[t]のフレームおよび連続する過去7個のフレームのそれぞれについて、上記S7における変動係数の算出結果を示す情報を取得する(S83)。そして、意思推定部421は、或る時点[t]のフレームおよび連続する過去7個のフレームのそれぞれにおいて、上記移動物体領域のCVに基づいて、条件2Aが満たされているか否かを判定する(S84)。条件2Aが満たされていない場合(S84でNO)、S87に進む。 On the other hand, when the condition 1A is satisfied (YES in S82), the intention estimation unit 421 calculates the coefficient of variation in S7 for each of the frame at a certain time point [t] and the past seven consecutive frames. (S83). Then, the intention estimation unit 421 determines whether or not the condition 2A is satisfied based on the CV of the moving object region in each of the frame at a certain time point [t] and the past seven consecutive frames. (S84). If condition 2A is not satisfied (NO in S84), the process proceeds to S87.

他方、条件2Aが満たされている場合(S84でYES)、図15の処理の流れによれば、条件1A・2Aの両者が満たされていることとなる。この場合、意思推定部421は、次に、条件1B〜3Bについて判定を行う。 On the other hand, when the condition 2A is satisfied (YES in S84), both the conditions 1A and 2A are satisfied according to the processing flow of FIG. In this case, the intention estimation unit 421 then determines the conditions 1B to 3B.

ここで、条件1A・2Aを用いることによれば、乗車意思の推定を高精度に行うことができる点について、以下に説明する。 Here, the point that the boarding intention can be estimated with high accuracy by using the conditions 1A and 2A will be described below.

(条件1Aについて)
本来であれば右方向Gr2または左方向Gr4の物体方向情報を有する移動物体領域MOAにて示されるべき移動物体(例えば人物)が、あるフレームにおいて、近方向Gr1を有する移動物体領域MOAであると分類される場合がある。多くの場合、人は、歩行中に腕の振り降ろし動作を行う。従って、当該人が実際には右方向(または左方向)に向かって歩いていたとしても、動画像中において、腕がかご20に近づく方向に動く場合がある。このような腕の動きに起因して、或る1フレームにおいて近方向Gr1を有する移動物体領域MOAであると分類される場合があり、この場合に、該移動物体領域MOAが乗車意思あり物体領域であると判定されることは適切ではない。上述のとおり、該移動物体領域MOAによって示される人は、実際には乗車意思を有していないためである。
(About condition 1A)
It is assumed that the moving object (for example, a person) that should normally be indicated by the moving object region MOA having the object direction information of the right direction Gr2 or the left direction Gr4 is the moving object region MOA having the near direction Gr1 in a certain frame. May be classified. In many cases, a person swings his arms down while walking. Therefore, even if the person is actually walking in the right direction (or left direction), the arm may move in the direction approaching the car 20 in the moving image. Due to such movement of the arm, it may be classified as a moving object region MOA having a near direction Gr1 in a certain frame, and in this case, the moving object region MOA is an object region with an intention to ride. It is not appropriate to be determined to be. This is because, as described above, the person indicated by the moving object region MOA does not actually have the intention to board.

そこで、乗車意思の推定処理をより適切に行うべく、条件1Aが導入されている。一般に、腕の振り降ろし動作の開始から終了までの期間は、約230ms(ミリ秒)程度であると考えられる。そこで、230ms(0.23秒)よりもある程度長い期間のフレーム数に亘って連続して、或る移動物体領域MOAの物体方向情報が近方向Gr1であれば、当該移動物体領域MOAにて示される移動物体は人の腕ではない(例:移動物体は実際にかご20に向かって歩いてくる人である)可能性が高い。この点を踏まえ、この例では、条件1Aにおいて、「230ms以上」という時間的な条件が規定されている。この時間的な条件を、フレーム数に換算して表すことを考えた場合、「8フレーム以上」に相当する。以下、この点について述べる。 Therefore, the condition 1A is introduced in order to more appropriately perform the estimation process of the boarding intention. Generally, the period from the start to the end of the arm swinging motion is considered to be about 230 ms (milliseconds). Therefore, if the object direction information of a certain moving object region MOA is near-direction Gr1 continuously over a period of a period longer than 230 ms (0.23 seconds), it is indicated by the moving object region MOA. It is likely that the moving object is not a human arm (eg, the moving object is actually a person walking towards the car 20). Based on this point, in this example, the temporal condition of "230 ms or more" is defined in the condition 1A. Considering that this temporal condition is converted into the number of frames and expressed, it corresponds to "8 frames or more". This point will be described below.

或る移動物体領域MOAについて、物体方向情報が近方向Gr1である状態が8個のフレームにおいて連続したときの最低の経過時間は、「フレーム間の間隔時間」が7回(第1フレーム数から1減算した数の回数)分経過した時間となる。 For a certain moving object region MOA, the minimum elapsed time when the state in which the object direction information is near Gr1 is continuous in eight frames is that the "interval time between frames" is 7 times (from the number of first frames). 1 The number of times the number is subtracted) is the elapsed time.

ここで、「フレーム間の間隔時間」は、フレームレートの逆数で表され、例えばフレームレートが1秒あたり30フレームだとすると、フレーム間の間隔時間は1/30(秒)である。 Here, the "interval interval time between frames" is represented by the reciprocal of the frame rate. For example, if the frame rate is 30 frames per second, the interval time between frames is 1/30 (seconds).

そのため、「フレーム間の間隔時間」が7回分は、約233msとなり、本実施形態において、フレームレートが1秒あたり30フレームであり第1フレーム数が8個とすることで、第1フレーム数から1減算した数を前記動画像における1秒あたりのフレーム数で割算した結果の秒数が230ms以上という条件を満たしている。 Therefore, the "interval time between frames" for 7 times is about 233 ms, and in the present embodiment, the frame rate is 30 frames per second and the number of first frames is 8, so that the number of frames is increased from the first frame. The condition that the number of seconds as a result of dividing the number subtracted by 1 by the number of frames per second in the moving image is 230 ms or more is satisfied.

(条件2Aについて)
条件2Aによれば、CVをさらに考慮することにより、条件1Aを満たす各物体から、不適切な移動物体領域MOAを除外できる。また、動画像の一時的なノイズの影響を排除するために、条件2Aにおいても、「4フレーム数以上」という条件が規定されている。一例として、第1フレーム数の連続する複数の画像のうち、CVがCVth未満である画像が、第2フレーム数以上あれば、上記ノイズの影響を効果的に排除できると考えられる。
(About condition 2A)
According to the condition 2A, the inappropriate moving object region MOA can be excluded from each object satisfying the condition 1A by further considering the CV. Further, in order to eliminate the influence of temporary noise of the moving image, the condition of "4 frames or more" is also defined in the condition 2A. As an example, it is considered that the influence of the noise can be effectively eliminated if the number of images having a CV of less than CVth is equal to or greater than the number of second frames among the plurality of consecutive images having the first number of frames.

(条件1A・2Aの補記事項)
なお、上記の例において、条件2Aは必ずしも意思推定条件に含まれていなくともよい。例えば、条件1Aのみを意思推定条件の前段部として用いて、意思推定部421による判定処理が行われていてもよい。従って、CVの算出は必須の処理ではない。このため、画像処理装置30から、変動係数演算部35を割愛することもできる。
(Supplementary information for conditions 1A and 2A)
In the above example, the condition 2A does not necessarily have to be included in the intention estimation condition. For example, the determination process by the intention estimation unit 421 may be performed by using only the condition 1A as the first stage portion of the intention estimation condition. Therefore, the calculation of CV is not an essential process. Therefore, the coefficient of variation calculation unit 35 can be omitted from the image processing device 30.

なお、意思推定部421は、条件1Aおよび条件2Aとして、連続する第1フレーム数の画像に代えて、所定の判定期間内における複数の画像の全て、を用いて判定を行ってもよい。この所定の判定期間は、上述の理由から、230ms以上と設定されることが好ましい。この場合においても、上記第2フレーム数を設定し、条件2Aの判定を行うことができる。 In addition, the intention estimation unit 421 may make a determination using all of a plurality of images within a predetermined determination period instead of the images having a continuous first frame number as the condition 1A and the condition 2A. The predetermined determination period is preferably set to 230 ms or more for the above-mentioned reason. Even in this case, the number of the second frames can be set and the condition 2A can be determined.

(条件1B〜3Bについて)
S84でYESの場合、意思推定部421は、次に、意思推定条件の後段部である条件1B〜3Bについて判定を行う。
(About conditions 1B to 3B)
If YES in S84, the intention estimation unit 421 then determines the conditions 1B to 3B, which are the latter stages of the intention estimation condition.

本例では、移動物体領域の位置に基づいて、条件1B〜3Bにより乗車意思の有無が判定される。また、上記S82における8フレーム目を解析対象として、乗車意思の有無が判定される。 In this example, the presence or absence of the intention to board is determined according to the conditions 1B to 3B based on the position of the moving object region. Further, the presence or absence of the intention to board is determined by using the eighth frame in S82 as the analysis target.

図16は、意思推定部421が実行する乗車意思推定処理の一例について説明するための図である。意思推定部421は、移動物体領域MOAに像が示される移動物体1の乗車意思の判定のための複数の判定領域(以下、AR)を、撮像画像中に設定する。当該判定領域は、撮像画像中に設定される仮想的な領域である。 FIG. 16 is a diagram for explaining an example of the boarding intention estimation process executed by the intention estimation unit 421. The intention estimation unit 421 sets a plurality of determination regions (hereinafter, AR) for determining the boarding intention of the moving object 1 whose image is shown in the moving object region MOA in the captured image. The determination area is a virtual area set in the captured image.

図16の例では、AR1(第1判定領域,左判定領域)、AR2(第2判定領域,中央判定領域)、およびAR3(第3判定領域,右判定領域)の、3つの判定領域が設定されている。図16の(a)では、AR1〜AR3が概略図として示されている。これに対し、図16の(b)では、AR1〜AR3が、撮像画像中に設定された様子が示されている。 In the example of FIG. 16, three judgment areas of AR1 (first judgment area, left judgment area), AR2 (second judgment area, center judgment area), and AR3 (third judgment area, right judgment area) are set. Has been done. In FIG. 16A, AR1 to AR3 are shown as schematic views. On the other hand, FIG. 16B shows how AR1 to AR3 are set in the captured image.

図16の例では、AR1〜AR3はいずれも、矩形上の領域として設定されている。 In the example of FIG. 16, AR1 to AR3 are all set as regions on a rectangle.

前述したように、画像上において、ドア開閉路24に対応する開閉範囲線分、原点O、x軸およびその正負方向、y軸およびその正負方向を規定する。 As described above, on the image, the opening / closing range line segment corresponding to the door opening / closing path 24, the origin O, the x-axis and its positive / negative directions, and the y-axis and its positive / negative directions are defined.

AR2は、ドア開閉路24の中央部に対応する判定領域であり、前記y軸を含み前記y軸の負方向に広がる。より具体的には、AR2は、前記y軸を対称軸として線対称となるように設定されている。AR2は、詳しくは後述するように、前記y軸の正方向を対称軸として所定の中央判定角度幅にて左右対称に広がる角度範囲である第2有効進入角度範囲θ2Aが設定されている。 The AR2 is a determination region corresponding to the central portion of the door opening / closing path 24, includes the y-axis, and extends in the negative direction of the y-axis. More specifically, AR2 is set to be line-symmetric with the y-axis as the axis of symmetry. As will be described in detail later, the AR2 is set with a second effective approach angle range θ2A, which is an angle range that spreads symmetrically with a predetermined central determination angle width with the positive direction of the y-axis as the axis of symmetry.

これに対し、AR1は、撮像画像の左側(x軸の正方向側)においてAR2と隣接し、前記y軸を含まない。AR1は、詳しくは後述するように、前記y軸の正方向から反時計回りに所定の左傾き角度にて傾いた方向を対称軸として所定の左判定角度幅にて左右対称に広がる角度範囲である第1有効進入角度範囲θ1Aが設定されている。 On the other hand, AR1 is adjacent to AR2 on the left side of the captured image (on the positive side of the x-axis) and does not include the y-axis. As will be described in detail later, AR1 has an angle range that extends symmetrically with a predetermined left determination angle width with a direction tilted counterclockwise from the positive direction of the y-axis at a predetermined left tilt angle as an axis of symmetry. A first effective approach angle range θ1A is set.

また、AR3は、撮像画像の右側(x軸の負方向側)においてAR2と隣接し、前記y軸を含まない。AR3は、詳しくは後述するように、前記y軸の正方向から時計回りに所定の右傾き角度にて傾いた方向を対称軸として所定の右判定角度幅にて左右対称に広がる角度範囲である第3有効進入角度範囲θ3Aが設定されている。 Further, AR3 is adjacent to AR2 on the right side of the captured image (on the negative direction side of the x-axis) and does not include the y-axis. As will be described in detail later, AR3 is an angle range that extends symmetrically with a predetermined right determination angle width with a direction tilted clockwise from the positive direction of the y-axis at a predetermined right tilt angle as an axis of symmetry. The third effective approach angle range θ3A is set.

図16の例では、AR1〜AR3のy方向の長さはいずれも等しく設定されている。これに対し、AR2のx方向の長さは、AR1およびAR3のそれぞれのx方向の長さに比べて短く設定されている。一例として、AR1およびAR3のそれぞれのx方向の長さは、AR2のx方向の長さの2倍以上に設定されている。図16の例では、AR1とAR3とは、互いに、前記y軸を対称軸として線対称の位置関係となるように設定されている。 In the example of FIG. 16, the lengths of AR1 to AR3 in the y direction are all set to be equal. On the other hand, the length of AR2 in the x-direction is set shorter than the length of AR1 and AR3 in the x-direction. As an example, the length of each of AR1 and AR3 in the x-direction is set to be at least twice the length of AR2 in the x-direction. In the example of FIG. 16, AR1 and AR3 are set so as to have a line-symmetrical positional relationship with each other with the y-axis as the axis of symmetry.

(平均角度について)
本例では、上記S82における8フレーム目の移動物体領域MOAの平均角度(以下、θm)に着目して、乗車意思が推定される。ここで、平均角度θmの求め方について以下に説明する。
(About average angle)
In this example, the intention to board is estimated by paying attention to the average angle (hereinafter, θm) of the moving object region MOA in the 8th frame in S82. Here, how to obtain the average angle θm will be described below.

画像中の移動物体領域MOAに含まれる各画素には、オプティカルフローおよび画素方向情報が対応付けられている。また、移動物体領域MOAには物体方向情報が対応付けられている。これらの情報は例えば記憶部32に記憶されている。意思推定部421は、例えば記憶部32から読み出した情報を用いて、或る移動物体領域MOAについて以下のように平均角度θmを算出する。例えば、図9に示す例における移動物体領域MOA3(近方向Gr1の物体方向情報を有する領域)について、画素方向情報の値が近方向Gr1である画素の全てについて、各画素のオプティカルフロー方向値(この例では30°〜150°の範囲内の角度値)を平均することにより、当該移動物体領域MOA3の平均角度θmを求める。本実施形態では、移動物体1が乗場2からかご20に向かう移動方向を、「乗車移動方向」と称する。 Optical flow and pixel direction information are associated with each pixel included in the moving object region MOA in the image. Further, the moving object area MOA is associated with the object direction information. These pieces of information are stored in, for example, the storage unit 32. The intention estimation unit 421 calculates the average angle θm for a certain moving object region MOA as follows by using the information read from the storage unit 32, for example. For example, with respect to the moving object region MOA3 (the region having the object direction information of the near direction Gr1) in the example shown in FIG. 9, the optical flow direction value of each pixel (the optical flow direction value of each pixel) for all the pixels whose pixel direction information value is the near direction Gr1. In this example, the average angle θm of the moving object region MOA3 is obtained by averaging the angle values in the range of 30 ° to 150 °). In the present embodiment, the moving direction in which the moving object 1 moves from the landing 2 to the car 20 is referred to as a "boarding moving direction".

(条件1B〜3Bの具体例)
図15に示す上記S84に続いて、意思推定部421は、意思推定条件の後段である以下の条件1B〜3Bに基づいて、乗車意思を推定する処理を実行する(S85)。具体的には、本例では、意思推定部421は、「条件1B〜3Bのうちの1つ以上が満たされている」場合(S85でYES)に、「移動物体領域MOAにて像が示される移動物体1が乗車意思を有している」と判定する。より具体的には、意思推定部421は、「移動物体領域MOAは、乗車意思あり物体領域(乗車意思を有する移動物体を示す領域)である」と判定する(S86)。一方で、意思推定部421は、条件1B〜3Bをいずれも満たさない場合(S85でNO)、「移動物体領域MOAにて像が示される移動物体1は、乗車意思を有していない」と判定する。より具体的には、意思推定部421は、「移動物体領域MOAは、乗車意思なし物体領域(乗車意思を有していない移動物体を示す領域)である」と判定する(S87)。
(Specific examples of conditions 1B to 3B)
Following S84 shown in FIG. 15, the intention estimation unit 421 executes a process of estimating the boarding intention based on the following conditions 1B to 3B, which are the latter stages of the intention estimation condition (S85). Specifically, in this example, the intention estimation unit 421 "shows an image in the moving object region MOA" when "one or more of the conditions 1B to 3B are satisfied" (YES in S85). The moving object 1 to be used has an intention to get on the vehicle. " More specifically, the intention estimation unit 421 determines that "the moving object area MOA is an object area having a boarding intention (a region indicating a moving object having a boarding intention)" (S86). On the other hand, when the intention estimation unit 421 does not satisfy any of the conditions 1B to 3B (NO in S85), the intention estimation unit 421 states that "the moving object 1 whose image is shown in the moving object region MOA does not have the intention to board". judge. More specifically, the intention estimation unit 421 determines that "the moving object area MOA is an object area without a boarding intention (a region indicating a moving object having no boarding intention)" (S87).

なお、本実施形態では、移動物体領域MOAと判定領域ARxとが、「共通の画素を有していない状態」から「共通の画素を有している状態」へと遷移したことを、「移動物体領域MOAが、判定領域ARxに進入した」と称する。ARxは、AR1〜AR3のいずれか1つを指す。 In the present embodiment, the transition between the moving object region MOA and the determination region ARx from the “state without having a common pixel” to the “state with having a common pixel” is described as “moving”. The object region MOA has entered the determination region ARx. " ARx refers to any one of AR1 to AR3.

(条件1B)「物体方向情報の値が近方向Gr1である移動物体領域MOAが、AR1に進入し、かつ、該移動物体領域MOAにおけるθmが第1有効進入角度範囲内にある」
(条件2B)「物体方向情報の値が近方向Gr1である移動物体領域MOAが、AR2に進入し、かつ、該移動物体領域MOAにおけるθmが第2有効進入角度範囲内にある」
(条件3B)「物体方向情報の値が近方向Gr1である移動物体領域MOAが、AR3に進入し、かつ、該移動物体領域MOAにおけるθmが第3有効進入角度範囲内にある」。
(Condition 1B) "A moving object region MOA whose object direction information value is near-direction Gr1 enters AR1, and θm in the moving object region MOA is within the first effective approach angle range."
(Condition 2B) "The moving object region MOA whose object direction information value is the near direction Gr1 enters AR2, and θm in the moving object region MOA is within the second effective approach angle range."
(Condition 3B) "The moving object region MOA whose object direction information value is the near direction Gr1 enters AR3, and θm in the moving object region MOA is within the third effective approach angle range."

なお、移動物体領域MOAが複数の領域(例えばAR1およびAR2)にまたがって位置する場合は、AR1の有効進入角度範囲(図16の例では、60°〜150°)だけでなく、AR2の有効進入角度範囲(図16の例では、30°〜150°)も見ることになり、意思推定部421は、両方を包含した範囲(図16の例では、30°〜150°)に基づいて乗車意思の判定を行えばよい。 When the moving object region MOA is located across a plurality of regions (for example, AR1 and AR2), not only the effective approach angle range of AR1 (60 ° to 150 ° in the example of FIG. 16) but also the effectiveness of AR2 is effective. The approach angle range (30 ° to 150 ° in the example of FIG. 16) will also be seen, and the intention estimation unit 421 will board based on the range including both (30 ° to 150 ° in the example of FIG. 16). You just have to judge your intention.

第1〜第3有効進入角度範囲とは、それぞれ、AR1〜AR3に対して設定されるθmの範囲である。以下、図16の(c)〜(e)を参照し、これらの条件について述べる。図16の(c)〜(e)はそれぞれ、各角度範囲について説明するための図である。まず、条件2Bについて述べる。 The first to third effective approach angle ranges are ranges of θm set for AR1 to AR3, respectively. Hereinafter, these conditions will be described with reference to FIGS. 16 (c) to 16 (e). 16 (c) to 16 (e) are diagrams for explaining each angle range. First, condition 2B will be described.

(条件2Bについて)
図16の(d)に示されるように、本例では、第2有効進入角度範囲θ2Aは、30°〜150°として設定されている。このため、意思推定部421は、物体方向情報の値が近方向Gr1である移動物体領域であって、AR2内に含まれる画素が1つ以上存在し、かつθmが30°〜150°である移動物体領域について、乗車意思あり物体領域であると判定する。移動物体領域がAR2内に位置している場合には、当該移動物体領域がAR1またはAR3内に位置している場合に比べて、当該移動物体領域に示される移動物体がかご20に乗り込もうとする(ドア開閉路24の左端部から右端部までの範囲内に向けて進入しようとする)場合の角度範囲が広いと考えられる。このため、第2有効進入角度範囲θ2Aは、以下に述べる第1有効進入角度範囲θ1Aおよび第3有効進入角度範囲θ3Aに比べて、広く設定されている。
(About condition 2B)
As shown in FIG. 16D, in this example, the second effective approach angle range θ2A is set to 30 ° to 150 °. Therefore, the intention estimation unit 421 is a moving object region in which the value of the object direction information is the near direction Gr1, the AR2 has one or more pixels, and the θm is 30 ° to 150 °. It is determined that the moving object area is an object area with an intention to board. When the moving object area is located in AR2, the moving object shown in the moving object area tries to get into the car 20 as compared with the case where the moving object area is located in AR1 or AR3. It is considered that the angle range in the case of (attempting to enter within the range from the left end to the right end of the door opening / closing path 24) is wide. Therefore, the second effective approach angle range θ2A is set wider than the first effective approach angle range θ1A and the third effective approach angle range θ3A described below.

なお、AR1〜AR3のレイアウトを考慮すると、第2有効進入角度範囲θ2Aは、90°を基準(角度中心)とする所定の角度範囲として設定されることが好ましい。本例では、第2有効進入角度範囲θ2Aは、90°±60°という角度範囲として設定されている。 Considering the layout of AR1 to AR3, it is preferable that the second effective approach angle range θ2A is set as a predetermined angle range with 90 ° as a reference (angle center). In this example, the second effective approach angle range θ2A is set as an angle range of 90 ° ± 60 °.

図16の(d)から理解されるように、AR2には、y軸の正方向(90°)を対称軸として左右対称に所定の中央判定角度幅が設定されている。上記の「60°」という角度は、中央判定角度幅の一例である。 As can be understood from (d) of FIG. 16, in AR2, a predetermined center determination angle width is set symmetrically with the positive direction (90 °) of the y-axis as the axis of symmetry. The above angle of "60 °" is an example of the central determination angle width.

(条件1Bについて)
これに対して、図16の(c)に示されるように、第1有効進入角度範囲θ1Aは、60°〜150°として設定されている。
(About condition 1B)
On the other hand, as shown in FIG. 16C, the first effective approach angle range θ1A is set to 60 ° to 150 °.

このため、意思推定部421は、物体方向情報の値が近方向Gr1でありAR1内に含まれる画素が1つ以上存在する移動物体領域について、θmが30°〜60°(以下、第1無効進入角度範囲θ1B)の場合には、乗車意思なし物体領域であると判定する。第1有効進入角度範囲θ1Aは、第2有効進入角度範囲θ2Aから、第1無効進入角度範囲θ1Bを除外した角度とも表現できる。 Therefore, the intention estimation unit 421 has a θm of 30 ° to 60 ° (hereinafter, the first invalidity) for a moving object region in which the value of the object direction information is the near direction Gr1 and one or more pixels included in the AR1 exist. In the case of the approach angle range θ1B), it is determined that the object area has no intention of boarding. The first effective approach angle range θ1A can also be expressed as an angle obtained by excluding the first invalid approach angle range θ1B from the second effective approach angle range θ2A.

θmが第1無効進入角度範囲θ1B内にある場合には、θmが第1有効進入角度範囲θ1A内にある場合に比べて、移動物体領域に示される移動物体がかご20に乗り込もうとする場合の角度範囲が狭いと考えられる。より具体的には、θmが第1無効進入角度範囲θ1B内にある場合には、移動物体領域に示される移動物体は、撮像画像の左側に向かって移動中である可能性が高いと考えられる。この点を踏まえ、第1有効進入角度範囲θ1Aは、第2有効進入角度範囲θ2Aに比べて狭く設定されている。 When θm is within the first effective approach angle range θ1B, the moving object shown in the moving object area tries to get into the car 20 as compared with the case where θm is within the first effective approach angle range θ1A. The angle range is considered to be narrow. More specifically, when θm is within the first invalid approach angle range θ1B, it is highly likely that the moving object shown in the moving object region is moving toward the left side of the captured image. .. Based on this point, the first effective approach angle range θ1A is set narrower than the second effective approach angle range θ2A.

なお、AR1〜AR3のレイアウトを考慮すると、第1有効進入角度範囲θ1Aの下限値は、90°よりもある程度小さい値(例:60°)として設定されることが好ましい。AR1の右端部に位置している移動物体がドア開閉路24の左端部に向けて進入しようとする場合、θmは90°よりもある程度小さくなると考えられるためである。 Considering the layout of AR1 to AR3, the lower limit of the first effective approach angle range θ1A is preferably set to a value somewhat smaller than 90 ° (example: 60 °). This is because when a moving object located at the right end of AR1 tries to enter toward the left end of the door opening / closing path 24, θm is considered to be smaller than 90 ° to some extent.

図16の(c)から理解されるように、AR1には、y軸の正方向からx軸の負方向に所定の左傾き角度にて傾いた方向を対称軸として左右対称に、所定の左判定角度幅が設定されている。本実施形態では、第1有効進入角度範囲θ1Aは、60°〜150°(105°±45°)の角度範囲であって、y軸の正方向(90°)から反時計回りに15°(所定の左傾き角度)傾いた105°の方向を対称軸として、45°の角度幅(所定の左判定角度幅)にて左右対称に広がっている。 As can be understood from (c) of FIG. 16, the AR1 has a predetermined left symmetrically with the direction tilted at a predetermined left tilt angle from the positive direction of the y-axis to the negative direction of the x-axis as the axis of symmetry. The judgment angle width is set. In the present embodiment, the first effective approach angle range θ1A is an angle range of 60 ° to 150 ° (105 ° ± 45 °), and is 15 ° (counterclockwise) from the positive direction (90 °) of the y-axis. (Predetermined left tilt angle) With the tilted 105 ° direction as the axis of symmetry, it spreads symmetrically with an angle width of 45 ° (predetermined left determination angle width).

(条件3Bについて)
また、図16の(e)に示されるように、第3有効進入角度範囲θ3Aは、30°〜120°として設定されている。このため、意思推定部421は、物体方向情報の値が近方向Gr1でありAR3内に含まれる画素が1つ以上存在する移動物体領域について、θmが120°〜150°(以下、第3無効進入角度範囲θ3B)の場合には、乗車意思なし物体領域であると判定する。
(About condition 3B)
Further, as shown in FIG. 16 (e), the third effective approach angle range θ3A is set to 30 ° to 120 °. Therefore, the intention estimation unit 421 has a θm of 120 ° to 150 ° (hereinafter, the third invalidity) for a moving object region in which the value of the object direction information is the near direction Gr1 and one or more pixels included in the AR3 exist. In the case of the approach angle range θ3B), it is determined that the object area has no intention of boarding.

このように、第3有効進入角度範囲θ3Aも、第2有効進入角度範囲θ2Aよりも狭く設定されている。第3有効進入角度範囲θ3Aは、第2有効進入角度範囲θ2Aから、第3無効進入角度範囲θ3Bを除外した角度とも表現できる。より具体的には、第3無効進入角度範囲θ3Bは、第1無効進入角度範囲θ1Bと対になる角度範囲として設定されている。 As described above, the third effective approach angle range θ3A is also set narrower than the second effective approach angle range θ2A. The third effective approach angle range θ3A can also be expressed as an angle obtained by excluding the third invalid approach angle range θ3B from the second effective approach angle range θ2A. More specifically, the third invalid approach angle range θ3B is set as an angle range paired with the first invalid approach angle range θ1B.

従って、条件1Bの例と同様に、θmが第3無効進入角度範囲θ3B内にある場合には、θmが第3有効進入角度範囲θ3A内にある場合に比べて、移動物体領域に示される移動物体がかご20に乗り込もうとしている可能性が低いと考えられる。より具体的には、θmが第3無効進入角度範囲θ3B内にある場合には、移動物体領域に示される移動物体は、撮像画像の右側に向かって移動中である可能性が高いと考えられる。 Therefore, as in the example of condition 1B, when θm is within the third effective approach angle range θ3B, the movement shown in the moving object region is compared with the case where θm is within the third effective approach angle range θ3A. It is unlikely that the object is trying to get into the car 20. More specifically, when θm is within the third invalid approach angle range θ3B, it is highly likely that the moving object shown in the moving object region is moving toward the right side of the captured image. ..

なお、AR1〜AR3のレイアウトを考慮すると、第3有効進入角度範囲θ3Aの上限値は、90°よりもある程度大きい値(例:120°)として設定されることが好ましい。AR3の左端部に位置している推定対象物体がドア開閉路24の右端部に向けて進入しようとする場合、θmは90°よりもある程度大きくなると考えられるためである。 Considering the layout of AR1 to AR3, the upper limit of the third effective approach angle range θ3A is preferably set to a value somewhat larger than 90 ° (example: 120 °). This is because when the estimated target object located at the left end of AR3 tries to enter toward the right end of the door opening / closing path 24, θm is considered to be larger than 90 ° to some extent.

図16の(d)から理解されるように、AR3には、y軸の正方向からx軸の正方向に所定の右傾き角度にて傾いた方向を対称軸として左右対称に、所定の右判定角度幅が設定されている。本実施形態では、第3有効進入角度範囲θ3Aは、30°〜120°(75°±45°)の角度範囲であって、y軸の正方向(90°)から時計回りに15°(所定の右傾き角度)傾いた75°の方向を対称軸として、45°の角度幅(所定の右判定角度幅)にて左右対称に広がっている。 As can be understood from (d) of FIG. 16, the AR3 has a predetermined right side symmetrically with the direction tilted from the positive direction of the y-axis to the positive direction of the x-axis at a predetermined right tilt angle as the axis of symmetry. The judgment angle width is set. In the present embodiment, the third effective approach angle range θ3A is an angle range of 30 ° to 120 ° (75 ° ± 45 °), and is 15 ° (predetermined) clockwise from the positive direction (90 °) of the y-axis. (Right tilt angle) With the tilted 75 ° direction as the axis of symmetry, it spreads symmetrically with an angle width of 45 ° (predetermined right determination angle width).

(条件1B・2B・3Bの補記事項)
なお、上記条件1B〜3Bは意思推定条件の後段部の一例である。条件1B〜3Bに係る各角度範囲は、任意に設定されてよく、これらに限定されない。上記第1有効進入角度範囲、第2有効進入角度範囲、第3有効進入角度範囲は、記憶部41に意思推定条件データ412として記憶されている。また、複数の判定領域AR(例えばAR1〜AR3)を規定するパラメータ群(画像中における判定領域の4隅の座標等)は、記憶部41に判定領域データ411として記憶されている。或いは、これらの意思推定条件は意思推定部421に予め設定されていてもよい。
(Supplementary information for conditions 1B, 2B, 3B)
The above conditions 1B to 3B are examples of the latter part of the intention estimation condition. Each angle range according to the conditions 1B to 3B may be arbitrarily set and is not limited thereto. The first effective approach angle range, the second effective approach angle range, and the third effective approach angle range are stored in the storage unit 41 as intention estimation condition data 412. Further, the parameter group (coordinates of the four corners of the determination area in the image) that defines the plurality of determination areas AR (for example, AR1 to AR3) is stored in the storage unit 41 as the determination area data 411. Alternatively, these intention estimation conditions may be preset in the intention estimation unit 421.

(その他の構成)
前述の決定処理ステップS5(図3を参照)における移動物体領域MOAを決定する処理にて用いられる所定値V1は、以下のように設定されてよい。すなわち、前述の第3の画素数を有する画像において、複数の判定領域AR(例えばAR1〜AR3)のそれぞれにおけるかご20から遠い側の境界付近に例えば子供が存在するような場合に、該子供を検出できるような値となるように所定値V1を設定する。これにより、意思推定部421は、子供のような比較的小さな移動物体1についても、乗車意思を適切に推定することができる。
(Other configurations)
The predetermined value V1 used in the process of determining the moving object region MOA in the above-mentioned determination process step S5 (see FIG. 3) may be set as follows. That is, in the above-mentioned image having the third number of pixels, when, for example, a child exists near the boundary on the side far from the car 20 in each of the plurality of determination areas AR (for example, AR1 to AR3), the child is used. A predetermined value V1 is set so as to be a value that can be detected. As a result, the intention estimation unit 421 can appropriately estimate the boarding intention even for a relatively small moving object 1 such as a child.

(S9・S10について)
再び図1および図3を参照して、意思推定部421によるS8の処理の結果、判定領域AR1〜AR3の1つ以上に乗車意思あり物体領域が存在すると判定された場合、意思推定部421は、その旨の情報を動作制御部422に送信する。動作制御部422は、意思推定部421における処理の結果を用いて、かご戸22の戸開閉動作を制御する(S9)。
(About S9 and S10)
With reference to FIGS. 1 and 3 again, when it is determined as a result of the processing of S8 by the intention estimation unit 421 that an object area with an intention to board exists in one or more of the determination areas AR1 to AR3, the intention estimation unit 421 , Information to that effect is transmitted to the operation control unit 422. The motion control unit 422 controls the door opening / closing operation of the car door 22 by using the result of the process in the intention estimation unit 421 (S9).

動作制御部422は、かご戸22が戸開状態の場合、かご戸22を戸閉動作させる指令(戸閉指令)を戸開閉装置50に送信するまでの時間、という制御変数を有しており、例えば以下のように制御する。 The operation control unit 422 has a control variable of the time until a command for closing the car door 22 (door closing command) is transmitted to the door opening / closing device 50 when the car door 22 is in the door open state. For example, it is controlled as follows.

上記制御変数の初期値をゼロとし、かご戸22が戸開状態になった時点で、第1所定時間にセットする。そして、時間経過に応じて、上記制御変数をカウントダウンし、ゼロになった時点で、戸開閉装置50に戸閉指令を送信する。 The initial value of the control variable is set to zero, and when the car door 22 is in the open state, it is set to the first predetermined time. Then, the control variable is counted down according to the passage of time, and when it reaches zero, a door closing command is transmitted to the door opening / closing device 50.

本実施形態における動作制御部422は、意思推定部421から乗車意思あり物体領域が存在する旨の情報を受信した時点において、かご戸22が戸開状態の場合、かご戸22に戸閉指令を送信するまでの時間を増加させる、すなわち、上記制御変数に第2所定時間を加算する。その後、時間経過に応じて上記制御変数をカウントダウンし、ゼロになった時点で、戸開閉装置50に戸閉指令を送信する。 When the motion control unit 422 in the present embodiment receives information from the intention estimation unit 421 that the object area with the intention of boarding exists, if the car door 22 is in the door open state, the motion control unit 422 issues a door closing command to the car door 22. The time until transmission is increased, that is, the second predetermined time is added to the control variable. After that, the control variable is counted down according to the passage of time, and when it reaches zero, a door closing command is transmitted to the door opening / closing device 50.

なお、上記第1所定時間および上記第2所定時間は任意に設定されてよく、具体的な値は特に限定されない。また、動作制御部422は、意思推定部421から乗車意思あり物体領域が存在する旨の情報を受信した時点において、かご戸22が戸開状態の場合、上記制御変数に第1所定時間を再セットするようになっていてもよい。 The first predetermined time and the second predetermined time may be arbitrarily set, and specific values are not particularly limited. Further, when the motion control unit 422 receives the information from the intention estimation unit 421 that the object area with the intention of boarding exists, if the car door 22 is in the open state, the first predetermined time is reset to the control variable. It may be set.

また、動作制御部422は、意思推定部421から乗車意思あり物体領域が存在する旨の情報を受信した時点において、かご戸22が戸閉動作中の場合、かご戸22の戸閉動作を中止して戸開動作を実行する旨の戸開指令を戸開閉装置50に送信する。 Further, when the motion control unit 422 receives the information from the intention estimation unit 421 that the object area with the intention of boarding exists, if the car door 22 is in the door closing operation, the motion control unit 422 stops the door closing operation of the car door 22. Then, a door opening command to execute the door opening operation is transmitted to the door opening / closing device 50.

その後、かご戸22が戸閉状態となっていない場合(S10でNO)、本実施形態における乗車検知システム10は、上記S2からの処理を再度行う。かご戸22が戸閉状態となった場合(S10でYES)、乗車検知システム10は処理を終了する。 After that, when the car door 22 is not in the closed state (NO in S10), the boarding detection system 10 in the present embodiment repeats the process from S2. When the car door 22 is in the closed state (YES in S10), the boarding detection system 10 ends the process.

(変形例4)
上記実施形態では、AR1〜AR3として矩形の判定領域を設定した例について説明したが、これに限定されない。例えば、AR1およびAR3は、それぞれ扇形の判定領域として設定されてもよい。また、AR1およびAR3は、扇形の弧が楕円の一部となっている形状の判定領域として設定されてもよい。
(Modification example 4)
In the above embodiment, an example in which a rectangular determination region is set as AR1 to AR3 has been described, but the present invention is not limited to this. For example, AR1 and AR3 may be set as fan-shaped determination regions, respectively. Further, AR1 and AR3 may be set as a determination region of a shape in which a fan-shaped arc is a part of an ellipse.

(小括3)
以上のように、本実施形態における乗車検知システム10(画像処理装置30および制御装置40)は、エレベータの乗場2をカメラ21にて撮像した動画像を構成する複数の画像を取得する画像取得部31と、前記画像における、乗場2に存在する移動物体1に対応する像を示すとともに、該移動物体1の移動方向に関する物体方向情報を有する移動物体領域MOAを決定する移動物体決定部33と、前記動画像の所定の期間内における複数の前記画像の全てにおいて同一の移動物体1に対応する像を示していると追跡された移動物体領域MOAの有する前記物体方向情報が、前記複数の画像の全てにおいて互いに同一であるか否かに基づき、当該移動物体領域MOAにて像が示される移動物体1の前記エレベータのかご20への乗車意思の有無を推定する意思推定部421と、を備えている。
(Summary 3)
As described above, the boarding detection system 10 (image processing device 30 and control device 40) in the present embodiment is an image acquisition unit that acquires a plurality of images constituting a moving image obtained by capturing the landing 2 of the elevator with the camera 21. 31 and a moving object determination unit 33 that shows an image corresponding to the moving object 1 existing in the landing 2 in the image and determines a moving object region MOA having object direction information regarding the moving direction of the moving object 1. The object direction information possessed by the moving object region MOA, which is tracked to show an image corresponding to the same moving object 1 in all of the plurality of images within a predetermined period of the moving image, is the object direction information of the plurality of images. It is provided with an intention estimation unit 421 that estimates whether or not the moving object 1 whose image is shown in the moving object region MOA is willing to ride in the car 20 of the elevator based on whether or not they are all the same. There is.

例えば、動画像において人物が乗場2を横切る方向に歩行している場合、移動物体決定部33は、当該人物の腕の振り降ろし動作によって、当該腕を、かご20に近づく方向に動いている移動物体であると検出することが有り得る。意思推定部421は、このような分類に基づいて推定処理を行う場合、上記人物について誤った推定処理を行い得る。 For example, when a person is walking in a direction crossing the landing 2 in a moving image, the moving object determination unit 33 moves the arm in a direction approaching the car 20 by swinging down the arm of the person. It may be detected as an object. When the intention estimation unit 421 performs the estimation process based on such a classification, the intention estimation unit 421 may perform an erroneous estimation process for the above-mentioned person.

そこで、本実施形態における制御装置40の意思推定部421は、所定の期間(例えば230ms以上)、同一の移動物体1に対応する像を示していると追跡された移動物体領域MOAについて、前記所定の期間内の複数の画像の全てにおいて該移動物体領域MOAの物体方向情報が互いに同一か否かに基づいて、該移動物体領域MOAに示される移動物体1の乗車意思を推定するようになっている。 Therefore, the intention estimation unit 421 of the control device 40 in the present embodiment has described the predetermined moving object region MOA that has been tracked to show an image corresponding to the same moving object 1 for a predetermined period (for example, 230 ms or more). Based on whether or not the object direction information of the moving object region MOA is the same in all of the plurality of images within the period of, the boarding intention of the moving object 1 shown in the moving object region MOA has come to be estimated. There is.

上記の構成によれば、意思推定部421は、或る移動物体1に対応する像を示す移動物体領域MOAの物体方向情報が例えば近方向Gr1である状態が、所定の期間以上、時間的に継続する場合に、該移動物体領域MOAにて像が示される移動物体1は乗車意思を有していると判定する。そのため、意思推定部421は、かご20の前を通り過ぎる人物の腕の振り降ろし動作に起因して、当該腕をかご20に近づく方向に動いている移動物体1であると検出したことに基づいて、上記人物が乗車意思を有していると判定することが抑制される。したがって、意思推定部421は、移動物体決定部33における分類結果に基づき上記人物の乗車意思を誤って推定することを抑制して、乗車意思の推定を高精度に行うことができる。 According to the above configuration, in the intention estimation unit 421, the state in which the object direction information of the moving object region MOA showing the image corresponding to a certain moving object 1 is, for example, the near direction Gr1, is temporally for a predetermined period or longer. When continuing, it is determined that the moving object 1 whose image is shown in the moving object region MOA has an intention to board. Therefore, the intention estimation unit 421 detects that the arm is a moving object 1 moving in a direction approaching the car 20 due to the swinging motion of the arm of a person passing in front of the car 20. , It is suppressed that the above-mentioned person has an intention to board. Therefore, the intention estimation unit 421 can suppress the erroneous estimation of the boarding intention of the person based on the classification result in the moving object determination unit 33, and can estimate the boarding intention with high accuracy.

また、本実施形態の乗車検知システム10は、前記複数の画像のそれぞれにおける移動物体領域MOAに含まれる各画素について算出した輝度の勾配方向を用いて、当該移動物体領域MOAに含まれる全画素を複数の勾配方向グループに分類し、前記勾配方向グループ毎の画素数の分布について平均値および標準偏差を算出するとともに、前記平均値に対する前記標準偏差の比である変動係数を算出する変動係数演算部35をさらに備えている。意思推定部421は、さらに、移動物体領域MOAの前記変動係数に基づいて、当該移動物体領域MOAにて像が示される移動物体1が乗車意思を有していると判定することが好ましい。 Further, the boarding detection system 10 of the present embodiment uses the gradient direction of the brightness calculated for each pixel included in the moving object region MOA in each of the plurality of images to obtain all the pixels included in the moving object region MOA. Coefficient of variation calculation unit that classifies into a plurality of gradient direction groups, calculates the average value and standard deviation for the distribution of the number of pixels in each gradient direction group, and calculates the coefficient of variation, which is the ratio of the standard deviation to the average value. It also has 35. It is preferable that the intention estimation unit 421 further determines that the moving object 1 whose image is shown in the moving object region MOA has a boarding intention based on the coefficient of variation of the moving object region MOA.

変動係数は、或る移動物体領域MOAの、勾配方向グループ毎の画素数の分布の偏り度合いを示す指標の1つである。かご戸22では、一部のグループにのみ、勾配方向の分布が偏る傾向にある。一方で、人物等の移動物体の場合、かご戸22の場合に比べ、勾配方向の分布の偏りが有意に小さい。このような変動係数の違いを捉えるために、例えば所定の閾値(例えば1以上)を設定することができる。これにより、かご戸22と人等の移動物体との変動係数の違いに基づいて、乗車意思の推定対象として不適切な移動物体の像が示されている移動物体領域MOAを除外して、乗車意思の推定をより適切に行うことができる。 The coefficient of variation is one of the indexes indicating the degree of bias in the distribution of the number of pixels for each gradient direction group in a certain moving object region MOA. In the car door 22, the distribution in the gradient direction tends to be biased only in a part of the groups. On the other hand, in the case of a moving object such as a person, the bias of the distribution in the gradient direction is significantly smaller than that in the case of the car door 22. In order to capture such a difference in coefficient of variation, for example, a predetermined threshold value (for example, 1 or more) can be set. As a result, based on the difference in the coefficient of variation between the car door 22 and a moving object such as a person, the moving object region MOA in which an image of an inappropriate moving object is shown as an estimation target of the intention to ride is excluded, and the vehicle is boarded. The intention can be estimated more appropriately.

本実施形態の乗車検知システム10における意思推定部421は、前記動画像のうち連続する第1フレーム数の前記画像の全てにおいて同一の移動物体1に対応する像を示していると追跡された移動物体領域MOAの有する物体方向情報が、前記第1フレーム数の画像の全てにおいて互いに同一であるか否かに基づき、当該移動物体領域MOAにて像が示される移動物体1の前記エレベータのかご20への乗車意思の有無を推定してもよい。 The intention estimation unit 421 in the boarding detection system 10 of the present embodiment is tracked to show an image corresponding to the same moving object 1 in all of the images having a continuous first frame number among the moving images. The elevator car 20 of the moving object 1 whose image is shown in the moving object region MOA based on whether or not the object direction information possessed by the object region MOA is the same in all the images of the first frame number. You may estimate whether or not you intend to board the train.

上記の構成によれば、意思推定部421は、或る移動物体1に対応する像を示す移動物体領域MOAの物体方向情報が例えば近方向Gr1の物体方向情報を有する状態が第1フレーム数の画像の全てにおいて継続している場合、当該移動物体領域MOAにて像が示される移動物体1が乗車意思を有していると推定する。意思推定部421は、移動物体決定部33に分類結果に基づき上記人物の乗車意思を誤って推定することを抑制して、乗車意思の推定を高精度に行うことができる。 According to the above configuration, the intention estimation unit 421 has a state in which the object direction information of the moving object region MOA showing the image corresponding to a certain moving object 1 has, for example, the object direction information of the near direction Gr1 in the first frame number. If it continues in all of the images, it is presumed that the moving object 1 whose image is shown in the moving object region MOA has an intention to board. The intention estimation unit 421 can suppress the moving object determination unit 33 from erroneously estimating the boarding intention of the person based on the classification result, and can estimate the boarding intention with high accuracy.

また、意思推定部421は、さらに、前記第1フレーム数の連続する複数の画像のうち、移動物体領域MOAの前記変動係数が前記所定の閾値未満である画像が第2フレーム数以上ある場合に、前記移動物体領域にて像が示される移動物体1が乗車意思を有していると判定することが好ましい。上記の構成によれば、乗車検知システム10は、意思推定部421によって、乗車意思の推定をより高精度に行うことができる。 Further, the intention estimation unit 421 further determines that, among the plurality of consecutive images having the first frame number, there are images in which the coefficient of variation of the moving object region MOA is less than the predetermined threshold value in the second frame number or more. It is preferable to determine that the moving object 1 whose image is shown in the moving object region has an intention to board. According to the above configuration, the boarding detection system 10 can estimate the boarding intention with higher accuracy by the intention estimating unit 421.

以上のように乗車検知システム10の各部にて行われる処理(特に意思推定部421による意思推定ステップ)を含む、移動物体1の乗車意思を推定する乗車検知方法についても本発明の範疇に入る。 The boarding detection method for estimating the boarding intention of the moving object 1 including the processing performed in each part of the boarding detection system 10 (particularly the intention estimation step by the intention estimation unit 421) also falls within the scope of the present invention.

(小括4)
以上のように、本実施形態における乗車検知システム10(画像処理装置30および制御装置40)は、エレベータの乗場2をカメラ21にて撮像した動画像を構成する複数の画像を取得する画像取得部31と、前記画像における、乗場2に存在する移動物体1に対応する像を示すとともに、該移動物体1の移動方向に関する物体方向情報を有する移動物体領域MOAを決定する移動物体決定部33と、移動物体領域MOAにて像が示される移動物体1の前記エレベータのかご20への乗車意思の有無を推定する意思推定部421と、を備えている。ここで、前記画像における仮想的な複数の判定領域AR1〜AR3、および複数の前記判定領域のそれぞれに対応する所定の有効進入角度範囲が予め設定されている。意思推定部421は、前記画像中にて移動物体領域MOAと前記判定領域AR1〜AR3とが共通の画素を有する状態となった場合に、当該判定領域に対応する前記有効進入角度範囲に基づいて、当該移動物体領域MOAにて像が示される移動物体1の前記エレベータのかご20への乗車意思の有無を推定する。
(Summary 4)
As described above, the boarding detection system 10 (image processing device 30 and control device 40) in the present embodiment is an image acquisition unit that acquires a plurality of images constituting a moving image obtained by capturing the landing 2 of the elevator with the camera 21. 31 and a moving object determination unit 33 that shows an image corresponding to the moving object 1 existing in the landing 2 in the image and determines a moving object region MOA having object direction information regarding the moving direction of the moving object 1. It includes an intention estimation unit 421 that estimates whether or not the moving object 1 whose image is shown in the moving object region MOA has an intention to board the elevator car 20. Here, a predetermined effective approach angle range corresponding to each of the virtual plurality of determination areas AR1 to AR3 and the plurality of determination areas in the image is preset. When the moving object region MOA and the determination regions AR1 to AR3 have a common pixel in the image, the intention estimation unit 421 is based on the effective approach angle range corresponding to the determination region. , It is estimated whether or not the moving object 1 whose image is shown in the moving object region MOA intends to board the elevator car 20.

上記の構成によれば、意思推定部421は、複数の判定領域のいずれかへ移動物体領域MOAが進入した状態となった場合、該複数の判定領域のそれぞれに設定された有効進入角度範囲に基づいて、移動物体1の乗車意思を推定する。 According to the above configuration, when the moving object region MOA has entered any one of the plurality of determination regions, the intention estimation unit 421 reaches the effective approach angle range set in each of the plurality of determination regions. Based on this, the boarding intention of the moving object 1 is estimated.

上記有効進入角度範囲については、例えば、移動物体1がかご20に向き合っている方向と、上記複数の判定領域のそれぞれにおけるかご20との位置関係と、に応じて設定することができる。 The effective approach angle range can be set according to, for example, the direction in which the moving object 1 faces the car 20 and the positional relationship between the car 20 in each of the plurality of determination areas.

これにより、前記画像中における移動物体領域MOAの位置に対応するように、かご20への乗車意思の有無を推定することができる。そのため、乗車意思の有無を推定する精度を高めることができる。 As a result, it is possible to estimate whether or not there is an intention to board the car 20 so as to correspond to the position of the moving object region MOA in the image. Therefore, it is possible to improve the accuracy of estimating the presence or absence of the intention to board.

また、本実施形態における乗車検知システム10では、前記画像において、実空間での前記エレベータのドア開閉路24(かご戸の開閉路)に対応する線分を開閉範囲線分、前記開閉範囲線分の中心点を原点O、前記開閉範囲線分に沿った直線をx軸、前記開閉範囲線分に垂直かつ原点Oを通る直線をy軸、原点Oからかご20内に向かう方向をy軸の正方向、原点Oから乗場2に向かう方向をy軸の負方向、前記y軸の負方向に対して90°反時計回りの方向をx軸の正方向、前記y軸の負方向に対して90°時計回りの方向をx軸の負方向、と規定する。そして、複数の前記判定領域として、ドア開閉路24の中央部に対応する判定領域であり、前記y軸を含み前記y軸の負方向に広がる判定領域AR2(中央判定領域)と、前記x軸の正方向(左方向)において判定領域AR2に隣接する判定領域であり前記y軸を含まずに前記y軸の負方向に広がる判定領域AR1(左判定領域)と、前記x軸の負方向(右方向)において判定領域AR2に隣接する判定領域であり前記y軸を含まずに前記y軸の負方向に広がる判定領域AR3(右判定領域)と、が設定されている。一例では、判定領域AR2(中央判定領域)は、前記開閉範囲線分よりも短い範囲にて前記x軸の正方向および負方向に広がっている。判定領域AR1(左判定領域)は、前記開閉範囲線分の一端を超えて前記x軸の正方向に広がっている。判定領域AR3(右判定領域)は、前記開閉範囲線分の一端を超えて前記x軸の負方向に広がっている。 Further, in the boarding detection system 10 of the present embodiment, in the image, the line segment corresponding to the door opening / closing path 24 (opening / closing path of the car door) of the elevator in the real space is defined as an opening / closing range line segment and the opening / closing range line segment. The center point of is the origin O, the straight line along the opening / closing range line is the x-axis, the straight line perpendicular to the opening / closing range line and passing through the origin O is the y-axis, and the direction from the origin O toward the inside of the car 20 is the y-axis. The positive direction, the direction from the origin O to the landing 2 is the negative direction of the y-axis, the 90 ° counterclockwise direction with respect to the negative direction of the y-axis is the positive direction of the x-axis, and the negative direction of the y-axis. The 90 ° clockwise direction is defined as the negative direction of the x-axis. Then, as the plurality of determination regions, a determination region AR2 (central determination region) including the y-axis and extending in the negative direction of the y-axis, which is a determination region corresponding to the central portion of the door opening / closing path 24, and the x-axis. Judgment area AR1 (left judgment area) that is adjacent to the judgment area AR2 in the positive direction (left direction) and extends in the negative direction of the y-axis without including the y-axis, and the negative direction of the x-axis (left judgment area). A determination area AR3 (right determination area) that is adjacent to the determination area AR2 in the right direction) and extends in the negative direction of the y-axis without including the y-axis is set. In one example, the determination region AR2 (center determination region) extends in the positive and negative directions of the x-axis in a range shorter than the opening / closing range line segment. The determination area AR1 (left determination area) extends beyond one end of the opening / closing range line segment in the positive direction of the x-axis. The determination area AR3 (right determination area) extends beyond one end of the opening / closing range line segment in the negative direction of the x-axis.

判定領域AR2は、前記y軸の正方向を対称軸として所定の中央判定角度幅にて左右対称に広がる角度範囲が、所定の第2有効進入角度範囲θ2Aとして設定されている。判定領域AR1は、前記y軸の正方向から反時計回りに所定の左傾き角度にて傾いた方向を対称軸として所定の左判定角度幅にて左右対称に広がる角度範囲が、所定の第1有効進入角度範囲θ1Aとして設定されている。判定領域AR3は、前記y軸の正方向から時計回りに所定の右傾き角度にて傾いた方向を対称軸として所定の右判定角度幅にて左右対称に広がる角度範囲が、所定の第3有効進入角度範囲θ3Aとして設定されている。 In the determination region AR2, an angle range that spreads symmetrically with a predetermined central determination angle width with the positive direction of the y-axis as the axis of symmetry is set as a predetermined second effective approach angle range θ2A. The determination region AR1 has a predetermined first angle range that extends symmetrically with a predetermined left determination angle width with a direction tilted counterclockwise from the positive direction of the y-axis at a predetermined left tilt angle as an axis of symmetry. It is set as the effective approach angle range θ1A. In the determination region AR3, a predetermined third effective angle range extends symmetrically with a predetermined right determination angle width with a direction tilted clockwise from the positive direction of the y-axis at a predetermined right tilt angle as an axis of symmetry. It is set as the approach angle range θ3A.

上記の構成によれば、「中央判定領域」では「y軸の正方向」を中心とし、「左判定領域」では「y軸の正方向からx軸の負方向へ傾いた方向」を中心とし、「右判定領域」では「y軸の正方向からx軸の正方向へ傾いた方向」を中心とする有効進入角度範囲がそれぞれ設定されている。そのため、移動物体領域のx軸方向の位置および移動方向に応じて的確に、かごの前を通り過ぎる人物に誤認することを回避して、移動物体の乗車意思を推定することができる。 According to the above configuration, the "center judgment area" is centered on the "positive direction of the y-axis", and the "left judgment area" is centered on the "direction tilted from the positive direction of the y-axis to the negative direction of the x-axis". In the "right determination area", the effective approach angle range centered on the "direction tilted from the positive direction of the y-axis to the positive direction of the x-axis" is set. Therefore, it is possible to accurately estimate the boarding intention of the moving object according to the position in the x-axis direction and the moving direction of the moving object region, while avoiding misidentification as a person passing in front of the car.

また、以上のような乗車検知システム10の各部にて行われる処理を含む、移動物体1の乗車意思を推定する乗車検知方法についても本発明の範疇に入り、この乗車検知方法は以下のように整理することができる。 Further, a boarding detection method for estimating the boarding intention of the moving object 1 including the processes performed in each part of the boarding detection system 10 as described above also falls within the scope of the present invention, and the boarding detection method is as follows. Can be organized.

すなわち、本実施形態における乗車検知方法は、エレベータの乗場をカメラにて撮像した動画像を構成する複数の画像を取得する画像取得ステップと、前記画像における、前記乗場に存在する移動物体に対応する像を示すとともに、該移動物体の移動方向に関する物体方向情報を有する移動物体領域を決定する移動物体決定ステップと、前記画像における仮想的な複数の判定領域、および複数の前記判定領域のそれぞれに対応する所定の有効進入角度範囲が予め設定されており、前記画像中にて前記移動物体領域と前記判定領域とが共通の画素を有する状態となった場合に、当該判定領域に対応する前記有効進入角度範囲に基づいて、当該移動物体領域に示される前記移動物体の前記エレベータのかごへの乗車意思の有無を推定する意思推定ステップと、を含む。 That is, the boarding detection method in the present embodiment corresponds to an image acquisition step of acquiring a plurality of images constituting a moving image obtained by capturing the landing of the elevator with a camera, and a moving object existing in the landing in the image. Corresponds to each of the moving object determination step of showing an image and determining the moving object region having object direction information regarding the moving direction of the moving object, the plurality of virtual determination regions in the image, and the plurality of determination regions. When a predetermined effective approach angle range is set in advance and the moving object region and the determination region have a common pixel in the image, the effective approach corresponding to the determination region is obtained. It includes an intention estimation step of estimating whether or not the moving object indicated in the moving object region intends to ride in the car of the elevator based on the angular range.

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部位と同じ機能を有する部位については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the present invention will be described below. For convenience of explanation, the same reference numerals will be added to the parts having the same functions as the parts described in the above embodiment, and the description will not be repeated.

前記実施形態1では、意思推定部421は、意思推定条件の後段として判定領域AR1〜AR3それぞれに適用される条件1B〜3Bに基づいて乗車意思あり物体領域を判定し、その結果を用いて動作制御部422が、かご戸22の戸開閉動作を制御していた。そして、前記実施形態1では、乗車意思あり物体領域が存在すると判定された場合、かご戸22の状態に応じて、下記(A)および(B)のようにかご戸22の戸開閉動作を制御していた。
(A)かご戸22が戸開状態の場合、かご戸22に戸閉指令を送信するまでの時間を増加させる。
(B)かご戸22が戸閉動作中の場合、かご戸22の戸閉動作を中止して戸開動作を実行する旨の戸開指令を戸開閉装置50に送信する。
In the first embodiment, the intention estimation unit 421 determines the object area with the intention of boarding based on the conditions 1B to 3B applied to each of the determination areas AR1 to AR3 as the latter stage of the intention estimation condition, and operates using the result. The control unit 422 controlled the door opening / closing operation of the car door 22. Then, in the first embodiment, when it is determined that the object area with the intention of boarding exists, the door opening / closing operation of the car door 22 is controlled as shown in the following (A) and (B) according to the state of the car door 22. Was.
(A) When the car door 22 is in the open state, the time until the door closing command is transmitted to the car door 22 is increased.
(B) When the car door 22 is in the door closing operation, a door opening command to stop the door closing operation of the car door 22 and execute the door opening operation is transmitted to the door opening / closing device 50.

ここで、前記実施形態1では、乗車意思あり物体領域が存在すると判定された場合、乗車意思あり物体領域が、AR1〜AR3のいずれに進入したか、またはAR1〜AR3の2つ以上を含む組のうちいずれに進入したか、に関わらず、かご戸22の戸開閉動作として上記(A)および(B)の両方を適用していた。これに対して、本実施形態における乗車検知システム10Bでは、意思推定部421における推定結果に基づいて、動作制御部422が、乗車意思あり物体領域の存在する位置に応じて、上記(A)および(B)の両方を適用する場合と、上記(A)のみを適用する場合とを切り替えるように制御を行う。すなわち、乗車意思あり物体領域が、AR11(後述)とAR12(後述)とのいずれに進入したかに応じて、かご戸22の戸開閉動作の制御が変化する点が異なっている。 Here, in the first embodiment, when it is determined that the object region with the intention to ride exists, the object region with the intention to ride has entered any of AR1 to AR3, or a set including two or more of AR1 to AR3. Regardless of which of the two was entered, both (A) and (B) above were applied as the door opening / closing operation of the car door 22. On the other hand, in the boarding detection system 10B of the present embodiment, based on the estimation result of the intention estimation unit 421, the motion control unit 422 has the above (A) and the above (A) according to the position where the object area with the intention of boarding exists. Control is performed so as to switch between the case where both of (B) are applied and the case where only the above (A) is applied. That is, the difference is that the control of the door opening / closing operation of the car door 22 changes depending on whether the object area with the intention of boarding enters AR11 (described later) or AR12 (described later).

(本実施形態の乗車検知システム)
本実施形態では、前記実施形態1にて説明した図3におけるS1〜S8の処理に引き続いて制御装置40が実行する処理について説明する。本実施形態における意思推定部421は、画像中の或る移動物体領域MOAについて、前記実施形態1にて説明した意思推定条件における条件1Aおよび条件2Bを満足すれば乗車意思あり物体領域として判定する。そして、動作制御部422は、以下のような処理を行うことにより、かご戸22の戸開閉動作を制御する(S9:動作制御ステップ)。
(Ride detection system of this embodiment)
In this embodiment, the processing executed by the control device 40 following the processing of S1 to S8 in FIG. 3 described in the first embodiment will be described. The intention estimation unit 421 in the present embodiment determines that a certain moving object region MOA in the image is an object region with an intention to board if the conditions 1A and 2B in the intention estimation conditions described in the first embodiment are satisfied. .. Then, the operation control unit 422 controls the door opening / closing operation of the car door 22 by performing the following processing (S9: operation control step).

なお、意思推定部421は、移動物体領域が条件1Aおよび条件2Aを満足し、かつ、条件2B−1(後述)および条件2B−2(後述)のいずれかを満足すれば乗車意思あり物体領域として判定するようになっていてもよい。また、本発明の一態様における乗車検知システム10Bは以下に説明する構成に限定されず、画像中の移動物体の像について公知の方法を用いて画像処理することにより該移動物体の乗車意思を推定する処理を行った結果に基づいて、以下に説明する動作制御部422の処理を適用することも可能である。 If the moving object region satisfies the conditions 1A and 2A, and if any of the conditions 2B-1 (described later) and the condition 2B-2 (described later) is satisfied, the intention estimation unit 421 has an intention to board the object area. It may be determined as. Further, the boarding detection system 10B according to one aspect of the present invention is not limited to the configuration described below, and the boarding intention of the moving object is estimated by performing image processing on the image of the moving object in the image using a known method. It is also possible to apply the process of the operation control unit 422 described below based on the result of performing the process.

図17は、本実施形態における戸開閉動作の制御において用いられる広範判定領域について説明するための図である。前記実施形態1におけるAR1〜AR3の判定領域と区別するために、本実施形態において規定する判定領域を広範判定領域と称することとする。 FIG. 17 is a diagram for explaining a wide determination area used in the control of the door opening / closing operation in the present embodiment. In order to distinguish from the determination areas of AR1 to AR3 in the first embodiment, the determination area defined in the present embodiment will be referred to as a broad determination area.

本例では、撮像画像中に2つの広範判定領域を設定する。具体的には、図17の例では、AR11(第1の判定領域)およびAR12(第2の判定領域)の、2つの広範判定領域が設定されている。図17の(a)では、AR11およびAR12が概略図として示されている。図17の(b)では、AR11およびAR12が、撮像画像中に設定された様子が示されている。AR11およびAR12は、画像における仮想的な領域である。 In this example, two wide determination areas are set in the captured image. Specifically, in the example of FIG. 17, two wide determination areas, AR11 (first determination area) and AR12 (second determination area), are set. In FIG. 17A, AR11 and AR12 are shown as schematic views. FIG. 17B shows how AR11 and AR12 are set in the captured image. AR11 and AR12 are virtual areas in the image.

ここで、AR11およびAR12に対応して、前述の条件2Bは以下のように変形される。
(条件2B−1)「物体方向情報の値が近方向Gr1である移動物体領域MOAが、AR11に進入し、かつ、該移動物体領域MOAにおけるθmが第2有効進入角度範囲内にある」
(条件2B−2)「物体方向情報の値が近方向Gr1である移動物体領域MOAが、AR12に進入し、かつ、該移動物体領域MOAにおけるθmが第2有効進入角度範囲内にある」。
Here, the above-mentioned condition 2B is modified as follows according to AR11 and AR12.
(Condition 2B-1) "A moving object region MOA whose object direction information value is near-direction Gr1 enters AR11, and θm in the moving object region MOA is within the second effective approach angle range."
(Condition 2B-2) "The moving object region MOA whose object direction information value is the near direction Gr1 has entered AR12, and θm in the moving object region MOA is within the second effective approach angle range."

図17の例では、AR11は、ドア開閉路24周辺に相当する矩形上の領域として設定されている。AR12は、実空間上でAR11に対応する領域よりもドア開閉路24(かご20の出入口)に対して遠い領域であって、AR11を含まない、AR11の周辺の領域として設定されている。このような、AR11およびAR12を規定するパラメータ群(画像中における広範判定領域の4隅の座標等)は、記憶部41に判定領域データ411として記憶されている。或いは、これらのパラメータ群は動作制御部422に予め設定されていてもよい。 In the example of FIG. 17, AR 11 is set as a rectangular region corresponding to the periphery of the door opening / closing path 24. The AR 12 is a region farther from the door opening / closing path 24 (the entrance / exit of the car 20) than the region corresponding to the AR 11 in the real space, and is set as a region around the AR 11 that does not include the AR 11. Such parameter groups defining AR11 and AR12 (coordinates of four corners of the wide determination area in the image, etc.) are stored in the storage unit 41 as determination area data 411. Alternatively, these parameter groups may be preset in the operation control unit 422.

本実施形態の意思推定部421は、或る移動物体領域MOAについて乗車意思あり物体領域である(条件1Aを満足し、かつ、条件2B−1および条件2B−2のいずれかを満足する)と判定された時点において、AR12への進入有無と、AR11への進入有無とを確認する。具体的には、乗車意思あり物体領域について、以下の(β)〜(δ)の3つの状態が考えられる。
(β)乗車意思あり物体領域が、AR12にのみ進入している(AR11には進入していない)。
(γ)乗車意思あり物体領域が、AR12およびAR11のいずれにも進入している。
(δ)乗車意思あり物体領域が、AR11にのみ進入している(AR12には進入していない)。
When the intention estimation unit 421 of the present embodiment is an object area with an intention to ride for a certain moving object area MOA (satisfies condition 1A and satisfies either condition 2B-1 and condition 2B-2). At the time of determination, it is confirmed whether or not the vehicle has entered AR12 and whether or not the vehicle has entered AR11. Specifically, the following three states (β) to (δ) can be considered for the object region with the intention of boarding.
(Β) The object area with the intention of boarding has entered only AR12 (not entered into AR11).
(Γ) The object area with the intention of boarding has entered both AR12 and AR11.
(Δ) The object area with the intention of boarding has entered only AR11 (not entered into AR12).

上記(γ)または(δ)は、乗車意思あり物体領域が、少なくともAR11に進入した状態であるといえる。上記(β)は、乗車意思あり物体領域が、AR12にのみ進入した状態であるといえる。 It can be said that the above (γ) or (δ) is a state in which the object region with the intention of boarding has entered at least AR11. It can be said that the above (β) is a state in which the object area with the intention of boarding has entered only AR12.

意思推定部421は、「上記移動物体領域MOAがAR12にのみ進入したのではない状態」から「該移動物体領域MOAがAR12にのみ進入した状態」への状態遷移が生じたと判定した場合、その判定結果を示す情報を動作制御部422に送信する。また、意思推定部421は、「上記移動物体領域MOA少なくともAR11に進入したのではない状態」から「該移動物体領域MOAが少なくともAR11に進入した状態」への状態遷移が生じたと判定した場合、その判定結果を示す情報を動作制御部422に送信する。 When the intention estimation unit 421 determines that a state transition has occurred from "a state in which the moving object region MOA has entered only AR12" to "a state in which the moving object region MOA has entered only AR12", the state transition has occurred. Information indicating the determination result is transmitted to the operation control unit 422. Further, when the intention estimation unit 421 determines that a state transition has occurred from "a state in which the moving object region MOA has not entered at least AR11" to "a state in which the moving object region MOA has entered at least AR11". Information indicating the determination result is transmitted to the operation control unit 422.

動作制御部422は、乗車意思あり物体領域とAR11およびAR12との位置関係、およびかご戸22の開閉状態に応じて、具体的には以下のように、かご戸22の開閉する機構を有する戸開閉装置50に対して指令を送信する。 The motion control unit 422 has a door having a mechanism for opening and closing the car door 22, specifically as follows, according to the positional relationship between the object area with the intention of boarding and the AR11 and AR12, and the open / closed state of the car door 22. A command is transmitted to the switchgear 50.

(ケース1:戸開状態かつAR12内で検出された場合)
図18は、かご戸22が戸開状態の場合における、動作制御部422が実行する戸開閉動作の制御の一例について説明するための図である。ここで、下記のケース1〜4が考えられるが、図18ではケース1を例にしている。このことは、後述する図19を用いた説明においても同様である。ケース2〜4についての説明は、後述する。
(ケース1)戸開状態かつAR12内で検出された場合。すなわち、AR12にのみ進入した状態に遷移したと同時に、乗車意思なし物体領域から乗車意思あり物体領域へ切り替わり、そのとき戸開状態だった場合。
(ケース2)戸開状態かつAR11内で検出された場合。すなわち、少なくともAR11に進入した状態に遷移したと同時に、乗車意思なし物体領域から乗車意思あり物体領域へ切り替わり、そのとき戸開状態だった場合。
(ケース3)戸閉動作中かつAR12内で検出された場合。すなわち、AR12にのみ進入した状態に遷移したと同時に、乗車意思なし物体領域から乗車意思あり物体領域へ切り替わり、そのとき戸閉動作中だった場合。
(ケース4)戸閉動作中かつAR11内で検出された場合。すなわち、少なくともAR11に進入した状態に遷移したと同時に、乗車意思なし物体領域から乗車意思あり物体領域へ切り替わり、そのとき戸閉動作中だった場合。
(Case 1: When the door is open and detected in AR12)
FIG. 18 is a diagram for explaining an example of control of the door opening / closing operation executed by the operation control unit 422 when the car door 22 is in the door open state. Here, the following cases 1 to 4 can be considered, but in FIG. 18, case 1 is taken as an example. This also applies to the description using FIG. 19 described later. The description of cases 2 to 4 will be described later.
(Case 1) When the door is open and detected in AR12. That is, at the same time as the transition to the state of entering only AR12, the object area without the intention to board is switched to the object area with the intention to board, and the door is open at that time.
(Case 2) When the door is open and detected in AR11. That is, at least when the state transitions to the state of entering AR11, at the same time, the object area with no intention of boarding is switched to the object area with intention of boarding, and the door is open at that time.
(Case 3) When the door is closed and detected in AR12. That is, at the same time as the transition to the state of entering only AR12, the object area without the intention to get on the vehicle is switched to the object area with the intention to get on the vehicle, and the door is closed at that time.
(Case 4) When the door is closed and detected in AR11. That is, at least at the same time as the transition to the state of entering AR11, the object area without the intention to get on the vehicle is switched to the object area with the intention to get on the vehicle, and the door is closed at that time.

図18の(a)に示すように、画像上で移動物体1の像を示す移動物体領域MOAがAR12の外側に存在するとともにかご戸22が戸開状態であり、移動物体1がかご20に乗り込もうと近づいてくる場合を例示して説明する。この移動物体1の像を示す移動物体領域MOAは、上述のように乗車意思あり物体領域であると判定されているとする。 As shown in FIG. 18A, the moving object region MOA showing the image of the moving object 1 on the image exists outside the AR 12, the car door 22 is in the open state, and the moving object 1 is in the car 20. The case of approaching to get in will be described as an example. It is assumed that the moving object area MOA showing the image of the moving object 1 is determined to be the object area with the intention of boarding as described above.

動作制御部422は、かご戸22が戸開状態であり、かつ移動物体1の像を示す移動物体領域MOAが上記(β)ではない状態から(β)の状態に遷移した場合(図18の(b))、前記実施形態1にて説明したことと同様に、戸閉指令を戸開閉装置50に送信するまでの時間(制御変数)に第2所定時間を加算する、または制御変数に第1所定時間を再セットする。 The motion control unit 422 is in the case where the car door 22 is in the open state and the moving object region MOA showing the image of the moving object 1 transitions from the state other than the above (β) to the state of (β) (FIG. 18). (B)), as described in the first embodiment, the second predetermined time is added to the time (control variable) until the door closing command is transmitted to the door opening / closing device 50, or the control variable is the second. 1 Reset the predetermined time.

なお、ケース1〜4において、「AR12(あるいはAR11)にのみ進入した状態に遷移したと同時に」を、「AR12(あるいはAR11)にのみ進入した状態に遷移していた後で」に置き換えた場合も考えられる。この場合にも、ケース1〜4と同様の開閉制御が行われる。 In cases 1 to 4, "at the same time as the transition to the state of entering only AR12 (or AR11)" is replaced with "after the transition to the state of entering only AR12 (or AR11)". Is also possible. Also in this case, the same opening / closing control as in cases 1 to 4 is performed.

そして、図18の(c)に示すように、移動物体1の像を示す移動物体領域MOAが、AR11に進入した後、図18の(d)に示すように、該移動物体領域MOAはかご20内へと移動する。その後、所定時間が経過し、AR12内に別の移動物体1の像を示す移動物体領域MOAが存在(進入)しない場合、動作制御部422は、上記制御変数がゼロとなった時点で戸閉指令を戸開閉装置50に送信し、戸開閉装置50は、かご戸22の戸閉動作を実行する。 Then, as shown in FIG. 18 (c), after the moving object region MOA showing the image of the moving object 1 enters AR11, as shown in FIG. 18 (d), the moving object region MOA is a basket. Move into 20. After that, when the predetermined time elapses and the moving object region MOA showing the image of another moving object 1 does not exist (enter) in AR12, the motion control unit 422 closes the door when the control variable becomes zero. A command is transmitted to the door opening / closing device 50, and the door opening / closing device 50 executes the door closing operation of the car door 22.

なお、本実施形態における乗車検知システムでは、上述の動作制御部422による処理の対象となった乗車意思あり物体領域が上記(γ)ではない状態から上記(γ)の状態に遷移した場合、または、上記(δ)ではない状態から上記(δ)の状態に遷移した場合において、動作制御部422は格別の処理(例えば制御変数の加算)を行わない。これにより、かご戸22が戸開状態となっている時間が不要に長大化することを抑制することができる。 In the boarding detection system of the present embodiment, when the object area with the intention of boarding, which is the target of the processing by the motion control unit 422, transitions from the state other than the above (γ) to the state of the above (γ), or When the state other than the above (δ) is changed to the state of the above (δ), the operation control unit 422 does not perform any special processing (for example, addition of control variables). As a result, it is possible to prevent the time when the car door 22 is in the open state from being unnecessarily lengthened.

(ケース2:戸開状態かつAR11内で検出された場合)
動作制御部422は、かご戸22が戸開状態であり、かつ乗車意思あり物体領域(移動物体1の像を示す移動物体領域MOA)がAR11内にて初めて検出された場合、上記と同様に、かご戸22の戸閉指令を戸開閉装置50に送信するまでの時間(制御変数)に第2所定時間を加算する、または制御変数に第1所定時間を再セットする。
(Case 2: When the door is open and detected in AR11)
When the car door 22 is in the open state and the object area (moving object area MOA showing the image of the moving object 1) with the intention to get on is detected for the first time in the AR 11, the operation control unit 422 is similarly described above. , The second predetermined time is added to the time (control variable) until the door closing command of the car door 22 is transmitted to the door opening / closing device 50, or the first predetermined time is reset to the control variable.

(ケース3:戸閉動作中かつAR12内で検出された場合)
図19は、かご戸22が戸閉動作中の場合における、動作制御部422が実行する戸開閉動作の制御の一例について説明するための図である。
(Case 3: When the door is closed and detected in AR12)
FIG. 19 is a diagram for explaining an example of control of the door opening / closing operation executed by the operation control unit 422 when the car door 22 is in the door closing operation.

図19の(a)に示すように、画像上で移動物体1の像を示す移動物体領域MOA(乗車意思あり物体領域)がAR12の外側に存在するとともにかご戸22が戸閉動作中であり、移動物体1がかご20に乗り込もうと近づいてくる場合を例示して説明する。 As shown in FIG. 19A, a moving object region MOA (object region with intention of riding) showing an image of the moving object 1 on the image exists outside the AR 12, and the car door 22 is in the door closing operation. , The case where the moving object 1 approaches to get into the car 20 will be described as an example.

動作制御部422は、図19の(b)に示すように、かご戸22が戸閉動作中であり、かつ移動物体1の像を示す移動物体領域MOAが上記(β)ではない状態から(β)の状態へ遷移した場合、格別の処理(例えば制御変数の加算)を行わない。これにより、かご戸22から比較的遠い位置にて乗車意思あり物体領域が検出された場合に、戸閉動作中のかご戸22は、停止動作および戸開動作することなく、そのまま戸閉状態となる。 As shown in FIG. 19B, the motion control unit 422 starts from a state in which the car door 22 is in the door closing operation and the moving object region MOA showing the image of the moving object 1 is not the above (β). When transitioning to the state of β), no special processing (for example, addition of control variables) is performed. As a result, when the object area with the intention of boarding is detected at a position relatively far from the car door 22, the car door 22 in the door closing operation remains in the door closed state without stopping or opening. Become.

なお、動作制御部422は、画像上で移動物体1の像を示す移動物体領域MOAが上記(β)ではない状態から(β)の状態へ遷移した場合において、かご戸22の戸閉動作の初期段階であれば、戸開指令Cを戸開閉装置50に送信して、かご戸22の戸閉動作を中止するように制御をおこなってもよい。 The motion control unit 422 operates to close the car door 22 when the moving object region MOA showing the image of the moving object 1 on the image transitions from the state other than the above (β) to the state of (β). In the initial stage, the door opening command C may be transmitted to the door opening / closing device 50 to control the car door 22 to stop the door closing operation.

(ケース4:戸閉動作中かつAR11内で検出された場合)
動作制御部422は、かご戸22が戸閉動作中であり、かつ乗車意思あり物体領域(移動物体1)が上記(γ)ではない状態から上記(γ)の状態に遷移した場合、または、上記(δ)ではない状態から上記(δ)の状態に遷移した場合、図19の(c)に示すように、かご戸22の戸閉動作を中止して戸開動作を実行する旨の戸開指令Cを戸開閉装置50に送信する。戸開閉装置50は、戸開指令Cを受信すると、かご戸22の戸閉動作を中止して、戸開動作を再度実行する。
(Case 4: When the door is closed and detected in AR11)
The motion control unit 422 indicates that the car door 22 is in the door closing operation and the object area (moving object 1) with the intention of getting on the vehicle transitions from the state other than the above (γ) to the state of the above (γ), or When the state other than the above (δ) is changed to the state of the above (δ), as shown in FIG. 19 (c), the door to the effect that the door closing operation of the car door 22 is stopped and the door opening operation is executed. The open command C is transmitted to the door opening / closing device 50. Upon receiving the door opening command C, the door opening / closing device 50 stops the door closing operation of the car door 22 and executes the door opening operation again.

(小括5)
従来、かご20のかご戸22の開閉動作の制御としては、一つの検出ゾーンを定め、その検出ゾーン内に人物等が検出されているか否かを基準とする制御が考えられる。この制御では、ドアが閉動作中に検出ゾーン内に人物等が検出されると、ドアの閉動作を一旦停止し、反転して開動作を行うことになる。また、この制御では、ドアが戸開状態にある場合に、検出ゾーン内に人物等が検出されると、戸開状態が維持される。このような従来の制御では、次のような問題があった。
(Summary 5)
Conventionally, as control of the opening / closing operation of the car door 22 of the car 20, one detection zone may be defined, and control based on whether or not a person or the like is detected in the detection zone can be considered. In this control, when a person or the like is detected in the detection zone while the door is closed, the door closing operation is temporarily stopped, reversed, and the opening operation is performed. Further, in this control, when the door is in the door open state and a person or the like is detected in the detection zone, the door open state is maintained. Such conventional control has the following problems.

すなわち、かご20から遠い位置の乗車意思ありの人物についても、かご戸22の閉動作を一旦停止し反転して開動作を行う対象としてかご20への乗車を許す場合、当該人物(個々の利用者)を優遇してエレベータ・サービスをすることになる。その結果、エレベータの利用者全体(例えばかご20内に既に乗り込んでいる利用者、別の階でかご20を呼び出している利用者、等)に対する考慮が不十分となり、エレベータの運行効率が阻害される結果を招く。 That is, even for a person who intends to ride at a position far from the car 20, if the person (individual use) is allowed to ride in the car 20 as a target for temporarily stopping the closing operation of the car door 22 and then reversing and opening the car. Person) will be given preferential treatment to the elevator service. As a result, consideration for all elevator users (for example, users who have already boarded the car 20 and users who are calling the car 20 on another floor) is insufficiently considered, and the operation efficiency of the elevator is hindered. The result is

そこで、以上のように、本実施形態における制御装置40は、エレベータの乗場2をカメラ21にて撮像した画像において、エレベータのかご20への乗車意思を有する移動物体1に対応する像を示す乗車意思あり物体領域を抽出する意思推定部421を備えている。そして、前記画像における仮想的な領域であって、(i)ドア開閉路24(かご20の出入口)周辺に相当する判定領域AR11(第1の判定領域)、および(ii)実空間上で判定領域AR11に対応する領域よりもドア開閉路24に対して遠い領域に相当する、判定領域AR11を含まない判定領域AR12(第2の判定領域)が予め設定されている。本実施形態における制御装置40は、前記乗車意思あり物体領域がAR12にのみ進入した状態となった場合と、前記乗車意思あり物体領域が少なくともAR11に進入した状態となった場合とで、かご戸(ドア)22が閉動作中のときのかご戸22の開閉動作の制御を異ならせるようにかご戸22の開閉動作を制御する動作制御部422を備えている。 Therefore, as described above, the control device 40 in the present embodiment shows an image corresponding to the moving object 1 having the intention of getting into the elevator car 20 in the image of the elevator landing 2 captured by the camera 21. It is provided with an intention estimation unit 421 that extracts an intentional object area. Then, it is a virtual area in the image, and is determined in (i) the determination area AR11 (first determination area) corresponding to the vicinity of the door opening / closing path 24 (the entrance / exit of the car 20), and (ii) in the real space. A determination area AR12 (second determination area) that does not include the determination area AR11, which corresponds to an area farther from the door opening / closing path 24 than the area corresponding to the area AR11, is set in advance. The control device 40 in the present embodiment has a car door in a state where the object area with an intention to ride has entered only AR12 and a state in which the object area with an intention to board has entered at least AR11. An operation control unit 422 that controls the opening / closing operation of the car door 22 is provided so that the control of the opening / closing operation of the car door 22 when the (door) 22 is in the closing operation is different.

従来技術においても判定領域AR11は設定され得るが、本実施形態における制御装置40では、判定領域AR11に加えて、さらに判定領域AR11の外側に判定領域AR12を設定している。これにより、上述した、従来技術において検出ゾーンを拡大する場合のような問題が生じにくい。本実施形態の制御装置40では、かご戸22の閉動作を開始するまでの時間を増やす制御の判定条件に用いられる判定領域の範囲を拡大させつつ、かご戸22の閉動作を中止して反転開動作を行う制御の判定条件に用いられる判定領域の範囲はそのままとすることができる。 Although the determination area AR11 can be set in the prior art, the control device 40 in the present embodiment sets the determination area AR12 outside the determination area AR11 in addition to the determination area AR11. As a result, the above-mentioned problem as in the case of expanding the detection zone in the prior art is less likely to occur. In the control device 40 of the present embodiment, the closing operation of the car door 22 is stopped and reversed while expanding the range of the determination area used for the judgment condition of the control for increasing the time until the closing operation of the car door 22 is started. The range of the determination area used for the determination condition of the control for performing the open operation can be left as it is.

具体的には、例えば、移動物体1(人物等)が、かご20の出入口から遠い判定領域AR12に進入し判定領域AR11には進入していない状態において、かご戸22の閉動作の開始前であれば、該閉動作を開始するまでの時間を増やすことにより、乗車意思を有する移動物体1に対してサービス性を確保することができる。 Specifically, for example, in a state where the moving object 1 (person or the like) has entered the determination area AR12 far from the entrance / exit of the car 20 and has not entered the determination area AR11, before the start of the closing operation of the car door 22 If there is, the serviceability can be ensured for the moving object 1 having the intention to get on the vehicle by increasing the time until the closing operation is started.

また、例えば、上記状態においてかご戸22が閉動作中の場合、かご戸22の閉動作を継続させる。これにより、乗車意思を有するが、かご戸22が閉まり切るまでに乗り込むことが難しそうな移動物体1を優遇することに起因してエレベータの運行効率が低下する事態の発生を防止することができる。 Further, for example, when the car door 22 is in the closing operation in the above state, the closing operation of the car door 22 is continued. As a result, it is possible to prevent the occurrence of a situation in which the operating efficiency of the elevator is lowered due to the preferential treatment of the moving object 1 which has the intention of getting on the vehicle but is likely to be difficult to get on by the time the car door 22 is closed. ..

したがって、移動物体1に対してかご20への乗込みを許すことによるサービス性の確保と、かご20への乗込みを断念させることによる運行効率の確保との、どちらを優先するかについて、移動物体1の位置とドア開閉路24との遠近関係に応じてバランスをとることができる。その結果、個々の利用者に対するサービス性の確保と、利用者全体を考慮したエレベータの運行効率の確保とを両立させて、エレベータをより円滑に運行させることができる。 Therefore, it is necessary to prioritize whether to secure the serviceability by allowing the moving object 1 to get into the car 20 or to secure the operation efficiency by giving up the getting into the car 20. A balance can be achieved according to the perspective relationship between the position of the object 1 and the door opening / closing path 24. As a result, the elevator can be operated more smoothly by both ensuring the serviceability for each user and ensuring the operation efficiency of the elevator in consideration of the entire user.

以上のように制御装置40が行う処理(特に動作制御部422による動作制御ステップ)を含む、エレベータのかご戸22の開閉動作を制御するエレベータドアの制御方法についても本発明の範疇に入る。 The elevator door control method for controlling the opening / closing operation of the elevator car door 22 including the process performed by the control device 40 (particularly the operation control step by the operation control unit 422) also falls within the scope of the present invention.

(変形例5)
(5a)判定領域データ411は、画像中の像の移動スピードに応じて、第1および第2の判定領域の大きさを変化させるように設定されていてもよい。例えば、移動物体のスピードが速いほど、第1および第2の判定領域の大きさを拡大するように設定されていてもよい。
(Modification 5)
(5a) The determination area data 411 may be set to change the size of the first and second determination areas according to the moving speed of the image in the image. For example, the faster the speed of the moving object, the larger the size of the first and second determination regions may be set.

(5b)判定領域データ411は、かご戸22の閉まり具合に応じて、第1および第2の判定領域の大きさを変化させるように設定されていてもよい。例えば、かご戸22が閉まっていくほど、第1の判定領域の大きさを縮小するように設定されていてもよい。 (5b) The determination area data 411 may be set to change the size of the first and second determination areas according to the degree of closing of the car door 22. For example, the size of the first determination area may be reduced as the car door 22 is closed.

(5c)本発明の他の一態様における乗車検知システムでは、カメラの撮像画像に替えて、各種のセンサの検出結果を利用して、乗車意思あり物体領域を判定してもよい。例えば、特許第5473801号に開示された手法を用いて、乗車意思あり物体領域を判定してもよい。上記センサとして、例えば、測距センサ(例:レーザレーダまたはミリ波レーダ)を用いることができる。あるいは、上記センサとしては、感熱センサを用いることもできる。 (5c) In the boarding detection system according to another aspect of the present invention, the object area with the intention of boarding may be determined by using the detection results of various sensors instead of the images captured by the camera. For example, the method disclosed in Japanese Patent No. 5473801 may be used to determine the object region with the intention of boarding. As the sensor, for example, a ranging sensor (eg, laser radar or millimeter wave radar) can be used. Alternatively, a thermal sensor can be used as the sensor.

(その他の構成)
乗車検知システム10の一態様では、移動物体決定部33、物体追跡部34、または変動係数演算部35は、制御装置40に含まれていてもよい。乗車検知システム10の別の一態様では、意思推定部421は、画像処理装置30に含まれていてもよい。
(Other configurations)
In one aspect of the boarding detection system 10, the moving object determination unit 33, the object tracking unit 34, or the coefficient of variation calculation unit 35 may be included in the control device 40. In another aspect of the boarding detection system 10, the intention estimation unit 421 may be included in the image processing device 30.

〔ソフトウェアによる実現例〕
画像処理装置30の制御ブロック(特に移動物体決定部33、物体追跡部34、および変動係数演算部35)並びに制御装置40の制御ブロック(特に制御部42)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control block of the image processing device 30 (particularly the moving object determination unit 33, the object tracking unit 34, and the coefficient of variation calculation unit 35) and the control block of the control device 40 (particularly the control unit 42) are integrated into an integrated circuit (IC chip) or the like. It may be realized by a formed logic circuit (hardware) or by software.

後者の場合、画像処理装置30および制御装置40は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the image processing device 30 and the control device 40 include a computer that executes instructions of a program that is software that realizes each function. The computer includes, for example, one or more processors and a computer-readable recording medium that stores the program. Then, in the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium", for example, a ROM (Read Only Memory) or the like, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the above program may be further provided. Further, the program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. It should be noted that one aspect of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above program is embodied by electronic transmission.

〔附記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Appendix]
The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

1:移動物体 2:乗場 3:乗場戸 10、10B:乗車検知システム 21:カメラ 22:かご戸(ドア) 23:幕板 24:ドア開閉路 30:画像処理装置(情報処理装置) 31:画像取得部 33:移動物体決定部 34:物体追跡部 35:変動係数演算部 39:システムバス 40:制御装置(情報処理装置) 41:記憶部 42:制御部 50:戸開閉装置 331:輝度差分演算部 332:オプティカルフロー演算部 333:物体候補領域設定部 334:決定処理部 341:図形設定部 342:重なり度算出部 343:追跡処理部 352:対象物体判定部 411:判定領域データ 421:意思推定部 422:動作制御部 MOA2、MOA4、MOA5:移動物体領域 OCA1、OCA2、OCA4:物体候補領域 PA21、PA22、PA41、PA42:部分領域 S1:対応図形 TP1:第1の処理後画像 TP2:第2の処理後画像 TP3:第3の処理後画像 TP4:第4の処理後画像 θ1A:第1有効進入角度範囲 θ1B:第1無効進入角度範囲 θ2A:第2有効進入角度範囲 θ3A:第3有効進入角度範囲 θ3B:第3無効進入角度範囲 1: Moving object 2: Landing 3: Landing door 10, 10B: Boarding detection system 21: Camera 22: Car door (door) 23: Curtain board 24: Door opening / closing path 30: Image processing device (information processing device) 31: Image Acquisition unit 33: Moving object determination unit 34: Object tracking unit 35: Fluctuation coefficient calculation unit 39: System bus 40: Control device (information processing device) 41: Storage unit 42: Control unit 50: Door opening / closing device 331: Brightness difference calculation Unit 332: Optical flow calculation unit 333: Object candidate area setting unit 334: Decision processing unit 341: Graphic setting unit 342: Overlap degree calculation unit 343: Tracking processing unit 352: Target object judgment unit 411: Judgment area data 421: Intention estimation Part 422: Motion control unit MOA2, MOA4, MOA5: Moving object area OCA1, OCA2, OCA4: Object candidate area PA21, PA22, PA41, PA42: Partial area S1: Corresponding figure TP1: First processed image TP2: Second Post-processed image TP3: Third post-processed image TP4: Fourth post-processed image θ1A: First effective approach angle range θ1B: First invalid approach angle range θ2A: Second effective approach angle range θ3A: Third effective approach Angle range θ3B: Third invalid approach angle range

Claims (7)

エレベータの乗場をカメラにて撮像した画像を取得する画像取得部と、
前記画像における、前記乗場に存在する移動物体に対応する像を示す移動物体領域を決定する移動物体決定部と、
前記画像であって所定の時間差を有する第1の画像および第2の画像について、前記第1の画像中に含まれる複数の第1の移動物体領域それぞれ対応し複数の前記第1の移動物体領域のそれぞれを囲う複数の第1の対応図形、および、前記第2の画像中に含まれる複数の第2の移動物体領域それぞれ対応し複数の前記第2の移動物体領域のそれぞれを囲う複数の第2の対応図形を設定する図形設定部と、
複数の前記第1の対応図形のうちの或る1つと、複数の前記第2の対応図形のそれぞれとの互いの重なり度を算出する重なり度算出部と、
前記第1の画像中において、或る1つの前記第1の対応図形に対応する前記第1の移動物体領域にて像が示される前記移動物体を処理対象物体とし、
前記第2の画像中において、前記乗場に存在する、前記処理対象物体と同一の前記移動物体に対応する像を示す前記第2の移動物体領域を対応物体領域として、
前記重なり度が所定の基準値以上であることに基づいて前記対応物体領域を特定する追跡処理部と、を備えていることを特徴とする画像処理装置。
An image acquisition unit that acquires an image of the elevator landing taken by a camera,
A moving object determination unit that determines a moving object region showing an image corresponding to a moving object existing in the landing in the image, and a moving object determination unit.
For the first and second images having a predetermined time difference an the image, moving the first plurality corresponding to each of the first plurality of first included in the image of the moving object region first corresponding shape of the plurality surrounding the respective object regions, and, each of said plurality of said second moving object region corresponding to each of the plurality of second moving object area included in the second image A figure setting unit that sets a plurality of second corresponding figures to be enclosed,
An overlap degree calculation unit that calculates the degree of overlap between a certain one of the plurality of the first corresponding figures and each of the plurality of the second corresponding figures.
In the first image, the moving object whose image is shown in the first moving object region corresponding to one one corresponding first corresponding figure is set as a processing target object.
In the second image, the second moving object region showing an image corresponding to the moving object that is the same as the processing target object existing in the landing is set as the corresponding object region.
An image processing apparatus including a tracking processing unit that identifies a corresponding object region based on the degree of overlap being equal to or higher than a predetermined reference value.
前記追跡処理部は、前記重なり度が前記所定の基準値以上である複数の前記第2の移動物体領域の中から、前記対応物体領域を、前記重なり度が最も大きいことに基づいて特定することを特徴とする請求項1に記載の画像処理装置。 The tracking processing unit identifies the corresponding object region from among the plurality of second moving object regions whose overlap degree is equal to or higher than the predetermined reference value, based on the maximum overlap degree. The image processing apparatus according to claim 1. エレベータの乗場をカメラにて撮像した画像を取得する画像取得部と、
前記画像における、前記乗場に存在する移動物体に対応する像を示す移動物体領域を決定する移動物体決定部と、
前記画像であって所定の時間差を有する第1の画像および第2の画像について、前記第1の画像中に含まれる複数の第1の移動物体領域にそれぞれ対応する複数の第1の対応図形、および、前記第2の画像中に含まれる複数の第2の移動物体領域にそれぞれ対応する複数の第2の対応図形を設定する図形設定部と、
複数の前記第1の対応図形のうちの或る1つと、複数の前記第2の対応図形のそれぞれとの互いの重なり度を算出する重なり度算出部と、
前記第1の画像中において、或る1つの前記第1の対応図形に対応する前記第1の移動物体領域にて像が示される前記移動物体を処理対象物体とし、
前記第2の画像中において、前記乗場に存在する、前記処理対象物体と同一の前記移動物体に対応する像を示す前記第2の移動物体領域を対応物体領域として、
前記重なり度が所定の基準値以上であることに基づいて前記対応物体領域を特定する追跡処理部と、を備え、
前記移動物体領域は、前記移動物体の移動方向に関する物体方向情報を有しており、
前記追跡処理部は、前記対応物体領域を、前記物体方向情報が互いに同一であり、かつ前記重なり度が最も大きいことに基づいて特定することを特徴とする画像処理装置。
An image acquisition unit that acquires an image of the elevator landing taken by a camera,
A moving object determination unit that determines a moving object region showing an image corresponding to a moving object existing in the landing in the image, and a moving object determination unit.
With respect to the first image and the second image having a predetermined time difference in the image, the plurality of first corresponding figures corresponding to the plurality of first moving object regions included in the first image, respectively. A graphic setting unit for setting a plurality of second corresponding figures corresponding to the plurality of second moving object regions included in the second image, and a graphic setting unit.
An overlap degree calculation unit that calculates the degree of overlap between a certain one of the plurality of the first corresponding figures and each of the plurality of the second corresponding figures.
In the first image, the moving object whose image is shown in the first moving object region corresponding to one one corresponding first corresponding figure is set as a processing target object.
In the second image, the second moving object region showing an image corresponding to the moving object that is the same as the processing target object existing in the landing is set as the corresponding object region.
A tracking processing unit that identifies the corresponding object region based on the degree of overlap being equal to or higher than a predetermined reference value is provided.
The moving object region has object direction information regarding the moving direction of the moving object.
The tracking processing unit, the corresponding object region, the object direction information are the same each other and the overlapping degree images processor you and identifies based on the largest.
エレベータの乗場をカメラにて撮像した画像を取得する画像取得部と、
前記画像における、前記乗場に存在する移動物体に対応する像を示す移動物体領域を決定する移動物体決定部と、
前記画像であって所定の時間差を有する第1の画像および第2の画像について、前記第1の画像中に含まれる複数の第1の移動物体領域にそれぞれ対応する複数の第1の対応図形、および、前記第2の画像中に含まれる複数の第2の移動物体領域にそれぞれ対応する複数の第2の対応図形を設定する図形設定部と、
複数の前記第1の対応図形のうちの或る1つと、複数の前記第2の対応図形のそれぞれとの互いの重なり度を算出する重なり度算出部と、
前記第1の画像中において、或る1つの前記第1の対応図形に対応する前記第1の移動物体領域にて像が示される前記移動物体を処理対象物体とし、
前記第2の画像中において、前記乗場に存在する、前記処理対象物体と同一の前記移動物体に対応する像を示す前記第2の移動物体領域を対応物体領域として、
前記重なり度が所定の基準値以上であることに基づいて前記対応物体領域を特定する追跡処理部と、を備え、
前記第1の画像は、前記第2の画像よりも時間的に前の画像であり、
前記移動物体領域は、前記移動物体の移動方向に関する物体方向情報を有しており、
前記追跡処理部は、前記第1の移動物体領域の有する前記物体方向情報が有方向の特性を持つ第1種の物体方向情報であり、かつ、前記第2の移動物体領域の有する前記物体方向情報が無方向の特性を持つ第2種の物体方向情報である場合、前記第2の移動物体領域の有する前記物体方向情報を、前記第1の移動物体領域の有する前記物体方向情報に一致させることを特徴とする画像処理装置。
An image acquisition unit that acquires an image of the elevator landing taken by a camera,
A moving object determination unit that determines a moving object region showing an image corresponding to a moving object existing in the landing in the image, and a moving object determination unit.
With respect to the first image and the second image having a predetermined time difference in the image, the plurality of first corresponding figures corresponding to the plurality of first moving object regions included in the first image, respectively. A graphic setting unit for setting a plurality of second corresponding figures corresponding to the plurality of second moving object regions included in the second image, and a graphic setting unit.
An overlap degree calculation unit that calculates the degree of overlap between a certain one of the plurality of the first corresponding figures and each of the plurality of the second corresponding figures.
In the first image, the moving object whose image is shown in the first moving object region corresponding to one one corresponding first corresponding figure is set as a processing target object.
In the second image, the second moving object region showing an image corresponding to the moving object that is the same as the processing target object existing in the landing is set as the corresponding object region.
A tracking processing unit that identifies the corresponding object region based on the degree of overlap being equal to or higher than a predetermined reference value is provided.
The first image is an image before the second image in time.
The moving object region has object direction information regarding the moving direction of the moving object.
In the tracking processing unit, the object direction information possessed by the first moving object region is first-class object direction information having directional characteristics, and the object direction possessed by the second moving object region. When the information is the second type of object direction information having a non-directional characteristic, the object direction information possessed by the second moving object region is made to match the object direction information possessed by the first moving object region. images processor you wherein a.
前記図形設定部は、前記第1の移動物体領域に外接する矩形の前記第1の対応図形、および、前記第2の移動物体領域に外接する矩形の前記第2の対応図形を設定することを特徴とする請求項1〜4のいずれか一項に記載の画像処理装置。 The graphic setting unit sets the rectangular first corresponding figure circumscribing the first moving object area and the second corresponding figure circumscribing the second moving object area. The image processing apparatus according to any one of claims 1 to 4. 前記重なり度算出部は、前記第1の対応図形と前記第2の対応図形とが互いに重なっている画素数を前記重なり度として算出することを特徴とする請求項1〜5のいずれか一項に記載の画像処理装置。 Any one of claims 1 to 5, wherein the overlap degree calculation unit calculates the number of pixels in which the first corresponding figure and the second corresponding figure overlap each other as the overlap degree. The image processing apparatus according to. エレベータの乗場をカメラにて撮像した画像を取得する画像取得ステップと、
前記画像における、前記乗場に存在する移動物体に対応する像を示す移動物体領域を決定する移動物体決定ステップと、
前記画像であって所定の時間差を有する第1の画像および第2の画像について、前記第1の画像中に含まれる複数の第1の移動物体領域それぞれ対応し複数の前記第1の移動物体領域のそれぞれを囲う複数の第1の対応図形、および、前記第2の画像中に含まれる複数の第2の移動物体領域それぞれ対応し複数の前記第2の移動物体領域のそれぞれを囲う複数の第2の対応図形を設定する図形設定ステップと、
複数の前記第1の対応図形のうちの或る1つと、複数の前記第2の対応図形のそれぞれとの互いの重なり度を算出する重なり度算出ステップと、
前記第1の画像中において、或る1つの前記第1の対応図形に対応する前記第1の移動物体領域にて像が示される前記移動物体を処理対象物体とし、
前記第2の画像中において、前記乗場に存在する、前記処理対象物体と同一の前記移動物体に対応する像を示す前記第2の移動物体領域を対応物体領域として、
前記重なり度が所定の基準値以上であることに基づいて前記対応物体領域を特定する追跡処理ステップと、を含むことを特徴とする画像処理方法。
An image acquisition step to acquire an image of the elevator landing taken by a camera, and
A moving object determination step for determining a moving object region showing an image corresponding to a moving object existing in the landing in the image, and a moving object determination step.
For the first and second images having a predetermined time difference an the image, moving the first plurality corresponding to each of the first plurality of first included in the image of the moving object region first corresponding shape of the plurality surrounding the respective object regions, and, each of said plurality of said second moving object region corresponding to each of the plurality of second moving object area included in the second image A figure setting step to set a plurality of second corresponding figures to be enclosed, and
An overlap degree calculation step for calculating the degree of overlap between a certain one of the plurality of the first corresponding figures and each of the plurality of the second corresponding figures, and
In the first image, the moving object whose image is shown in the first moving object region corresponding to one one corresponding first corresponding figure is set as a processing target object.
In the second image, the second moving object region showing an image corresponding to the moving object that is the same as the processing target object existing in the landing is set as the corresponding object region.
An image processing method comprising a tracking processing step for identifying the corresponding object region based on the degree of overlap being equal to or higher than a predetermined reference value.
JP2019148085A 2019-08-09 2019-08-09 Image processing device and image processing method Active JP6922951B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019148085A JP6922951B2 (en) 2019-08-09 2019-08-09 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019148085A JP6922951B2 (en) 2019-08-09 2019-08-09 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2021028807A JP2021028807A (en) 2021-02-25
JP6922951B2 true JP6922951B2 (en) 2021-08-18

Family

ID=74667054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019148085A Active JP6922951B2 (en) 2019-08-09 2019-08-09 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP6922951B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022181653A1 (en) 2021-02-25 2022-09-01 キヤノン株式会社 Solid electrolyte, active material layer, electrolyte layer and secondary battery
CN115321322A (en) * 2022-08-22 2022-11-11 日立楼宇技术(广州)有限公司 Control method, device and equipment for elevator car door and storage medium

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074369A (en) * 2000-08-28 2002-03-15 Ntt Data Corp System and method for monitoring based on moving image and computer readable recording medium
JP4548933B2 (en) * 2000-11-24 2010-09-22 パナソニック株式会社 An image recognition apparatus, an image recognition method, and a recording medium storing the program.
JP4228657B2 (en) * 2002-11-07 2009-02-25 パナソニック電工株式会社 Object detection method
JP2006096517A (en) * 2004-09-29 2006-04-13 Mitsubishi Electric Corp Elevator control system
JP2008120548A (en) * 2006-11-14 2008-05-29 Mitsubishi Electric Corp Control device of elevator
JP4268644B2 (en) * 2007-01-22 2009-05-27 アジア航測株式会社 Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program
WO2009005025A1 (en) * 2007-07-03 2009-01-08 Konica Minolta Holdings, Inc. Moving object detection device
JP5213613B2 (en) * 2008-09-26 2013-06-19 キヤノン株式会社 Image processing apparatus, image processing method, imaging apparatus, and program
JP2010199865A (en) * 2009-02-24 2010-09-09 Nec Corp Abnormality detection system, abnormality detection method, and abnormality detection program
US8605942B2 (en) * 2009-02-26 2013-12-10 Nikon Corporation Subject tracking apparatus, imaging apparatus and subject tracking method
US9361706B2 (en) * 2009-11-30 2016-06-07 Brigham Young University Real-time optical flow sensor design and its application to obstacle detection
JP5590915B2 (en) * 2010-02-25 2014-09-17 三菱電機株式会社 Door open / close detection device and door open / close detection method
JP2012218912A (en) * 2011-04-12 2012-11-12 Toshiba Elevator Co Ltd Elevator control device
JP2013173605A (en) * 2012-02-27 2013-09-05 Mitsubishi Electric Corp Elevator control device
JP6006269B2 (en) * 2014-08-20 2016-10-12 東芝エレベータ株式会社 Elevator system
JP2016169072A (en) * 2015-03-12 2016-09-23 三菱電機株式会社 Elevator alarm device and elevator alarm notification method
JP6092433B1 (en) * 2016-01-13 2017-03-08 東芝エレベータ株式会社 Elevator boarding detection system
JP5969147B1 (en) * 2016-01-13 2016-08-17 東芝エレベータ株式会社 Elevator boarding detection system
WO2017145308A1 (en) * 2016-02-24 2017-08-31 三菱電機株式会社 Elevator control device and elevator control program
JP6139729B1 (en) * 2016-03-16 2017-05-31 東芝エレベータ株式会社 Image processing device
JP2018090351A (en) * 2016-11-30 2018-06-14 東芝エレベータ株式会社 Elevator system
JP6538142B2 (en) * 2017-11-21 2019-07-03 東芝エレベータ株式会社 Elevator group management control system and elevator control method
JP2018158842A (en) * 2018-05-29 2018-10-11 東芝エレベータ株式会社 Image analyzer and elevator system

Also Published As

Publication number Publication date
JP2021028807A (en) 2021-02-25

Similar Documents

Publication Publication Date Title
Lee et al. Robust lane detection and tracking for real-time applications
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
JP7081438B2 (en) Object speed estimation method and equipment and image processing equipment
US10941019B2 (en) User detection system and image processing device
US10943131B2 (en) Image based lane marking classification
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
US9940633B2 (en) System and method for video-based detection of drive-arounds in a retail setting
Cheng et al. Intelligent highway traffic surveillance with self-diagnosis abilities
JP7036244B2 (en) Ride detection system and ride detection method
JP2000039306A (en) Device and method for vehicle system area detection
KR101825687B1 (en) The obstacle detection appratus and method using difference image
JP6922951B2 (en) Image processing device and image processing method
US9076034B2 (en) Object localization using vertical symmetry
Garg et al. Real-time road traffic density estimation using block variance
JPH05298591A (en) Object recognition device
JP3888055B2 (en) Train forward anomaly detection device using optical flow
Srinivas et al. Image processing edge detection technique used for traffic control problem
Rajendar et al. Prediction of stopping distance for autonomous emergency braking using stereo camera pedestrian detection
JP6874796B2 (en) Elevator door control device and control method
JP2020013206A (en) Device for detecting two-wheeled vehicle from moving image/camera, program, and system
JP7074161B2 (en) Image processing device and image processing method
JP6708368B2 (en) Method and system for partial concealment processing in vehicle tracking using deformable partial model
JP2015185135A (en) Parking recognition device, parking recognition method and program
JP6836217B2 (en) Boarding detection system and boarding detection method
JP6841310B2 (en) Boarding detection system and boarding detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210712

R150 Certificate of patent or registration of utility model

Ref document number: 6922951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150