JP2022014735A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2022014735A
JP2022014735A JP2020117254A JP2020117254A JP2022014735A JP 2022014735 A JP2022014735 A JP 2022014735A JP 2020117254 A JP2020117254 A JP 2020117254A JP 2020117254 A JP2020117254 A JP 2020117254A JP 2022014735 A JP2022014735 A JP 2022014735A
Authority
JP
Japan
Prior art keywords
image
moving object
pixel
calculation unit
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020117254A
Other languages
English (en)
Other versions
JP7074161B2 (ja
Inventor
宏晃 端
Hiroaki Hata
友宏 谷口
Tomohiro Taniguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP2020117254A priority Critical patent/JP7074161B2/ja
Publication of JP2022014735A publication Critical patent/JP2022014735A/ja
Application granted granted Critical
Publication of JP7074161B2 publication Critical patent/JP7074161B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indicating And Signalling Devices For Elevators (AREA)
  • Elevator Door Apparatuses (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022014735000001
【課題】明るさの不十分な乗場を撮像した画像中に、互いに異なる方向に移動する複数の移動物体に対応する像が含まれていても、当該画像中の複数の移動物体のそれぞれに対応する像を抽出できる技術を提供する。
【解決手段】画像処理装置(30)は、第1の輝度差分演算部(330)によって平滑化処理を用いて生成した、画像における動きの有る移動領域に関する移動領域情報と、各画素のオプティカルフローを分類した画素方向情報と、を用いて、乗場に存在する移動物体(1)に対応する像を画像中にて示す移動物体領域(MOA)を決定する決定処理部(334)を備えている。
【選択図】図1A

Description

本発明は、画像中の移動物体に対応する像を示す領域を特定する画像処理装置および画像処理方法に関する。
従来、エレベータのかごに乗車しようとする利用者をセンサ等により検出し、その検出結果を用いてエレベータのドアの開閉動作を制御する技術が知られている。
例えば、特許文献1には、以下のようなエレベータの乗車検知システムが記載されている。この乗車検知システムでは、先ず、エレベータの乗場を撮像した複数枚の画像についてブロック単位で輝度を比較することにより、動きが有ると判定されたブロックの中からエレベータのドアに最も近いブロックを利用者の足元位置として推定する。そして、推定した足元位置の時系列変化に基づいて上記利用者が乗車意思を有すると判定された場合、ドアの戸開状態を継続する、または戸閉動作を中断して戸開動作を行う。
特開2017-124898号公報
しかしながら、エレベータの乗場において生じ得る状況は様々である。例えば、エレベータの乗場を撮像した画像中において、或る人物の像と、別方向に移動する別の人物の像とが重なっているような場合があり得る。
そのような場合、特許文献1に記載の技術では、画像中における複数の人物の像が重なっている部分について、それぞれの人物の像を分離して抽出することが困難であり得る。
また、明るさが不十分な乗場を撮像した画像について、当該画像中の移動物体に対応する像を検出する処理を行う場合、実際には人物が存在しない部分にまで膨れた像として検出されてしまうという問題が発生する。
本発明は、明るさの不十分な乗場を撮像した画像中に、互いに異なる方向に移動する複数の移動物体に対応する像が含まれていても、当該画像中の複数の移動物体のそれぞれに対応する像を抽出できる技術を提供することを目的とする。
上記の課題を解決するために、本発明の一態様に係る画像処理装置は、エレベータの乗場をカメラにて撮像した画像を取得する画像取得部と、所定の時間差を有する2つの時点のそれぞれにて前記画像を撮像して得られた2枚の前記画像について平滑化処理を用いて輝度の差分に基づく演算処理を行うことにより、前記画像における動きの有る移動領域に関する移動領域情報を生成する第1の輝度差分演算部と、前記移動領域情報に対応する前記2つの時点における2枚の前記画像についてオプティカルフロー演算処理を行うことにより、前記画像中の各画素のオプティカルフローを算出するオプティカルフロー演算部と、前記画像中の各画素の前記オプティカルフローを分類した画素方向情報を、前記移動領域の各画素に対応付けることによって、前記乗場に存在する移動物体に対応する像を前記画像中にて示す移動物体領域を決定する決定処理部と、を備えている。
また、上記の課題を解決するために、本発明の一態様に係る画像処理方法は、エレベータの乗場をカメラにて撮像した画像を取得する画像取得ステップと、所定の時間差を有する2つの時点のそれぞれにて前記画像を撮像して得られた2枚の前記画像について平滑化処理を用いて輝度の差分に基づく演算処理を行うことにより、前記画像における動きの有る移動領域に関する移動領域情報を生成する第1の輝度差分演算ステップと、前記移動領域情報に対応する前記2つの時点における2枚の前記画像についてオプティカルフロー演算処理を行うことにより、前記画像中の各画素のオプティカルフローを算出するオプティカルフロー演算ステップと、前記画像中の各画素の前記オプティカルフローを分類した画素方向情報を、前記移動領域の各画素に対応付けることによって、前記乗場に存在する移動物体に対応する像を前記画像中にて示す移動物体領域を決定する決定処理ステップと、を含む。
本発明の一態様によれば、平滑化処理を用いて輝度の差分に基づく演算処理を行うことにより移動領域を抽出する。そのため、明るさの不十分な乗場を撮像した画像からでも、誤検出を防止して、移動物体に見合った的確な移動領域を抽出することができる。ここで、誤検出とは、移動物体よりも過大に移動領域を検出すること、および、実際には乗場に移動物体が存在しないにも関わらず移動領域を検出することである。
そして、誤検出を防止しつつ検出した移動領域の各画素に、画素方向情報を対応付けることによって移動物体領域を決定する。これにより、移動方向が異なる複数の移動物体を1つの移動領域として検出するような場合であっても、移動領域として検出された複数の移動物体を、複数の移動物体領域に分割して認識することができる。
以下の図1A~16は、実施形態1を示す図である。
乗車検知システムの要部構成の一例を示すブロック図である。 乗車検知システムが備える、移動物体決定部を含む画像処理装置の要部構成の一例を示すブロック図である。 乗車検知システムの概要構成の一例を示す概略図である。 乗車検知システムによる乗車検知および戸開閉動作制御の処理の流れの一例を示すフローチャートである。 画像処理装置を含む乗車検知システムによる乗車検知および戸開閉動作制御の処理の流れの一例を示すフローチャートである。 (a)は第1の輝度差分演算部が実行する処理の流れの一例を示すフローチャートであり、(b)は第1の輝度差分演算部による処理後の画像の一例について、各画素の値を可視化して全画素を一望するように示す図である。 第2の輝度差分演算部が実行する処理の流れの一例を示すフローチャートである。 (a)はカメラによる撮像画像の一例を示す図であり、(b)は所定の基準角度規則について説明するための図である。 2枚の撮像画像を用いて算出したオプティカルフローに基づいて分類処理を行った結果を示す画像の一例について、各画素に対応付けられた画素方向情報を可視化して全画素を一望するように示す図である。 物体候補領域設定部による処理後の画像の一例について、各画素に対応付けられた移動領域情報に基づいて何れかの移動領域に属していると識別された複数の画素を対象として、画素方向情報の分布状況を一望するように可視化して示す図である。 移動物体・方向決定処理の流れの一例を示すフローチャートである。 決定処理部による処理後の画像の一例について、移動物体領域の各画素に対応付けられた物体方向情報を可視化して、物体方向情報の分布状況を一望するように示す図である。 物体追跡部における処理の概要について説明するための図である。 物体追跡部が実行する追跡処理の流れの一例を示すフローチャートである。 時点[t+1]における移動物体領域について移動方向の無を解消する解消処理の一例を示すフローチャートである。 時点[t]の移動物体領域に対応する時点[t+1]の移動物体領域を特定する特定処理の一例を示すフローチャートである。 変動係数演算部における処理の一例について説明するための図である。 意思推定部が実行する乗車意思推定処理の一例を示すフローチャートである。 意思推定部が実行する乗車意思推定処理の一例について説明するための図である。以下の図17~19は、実施形態2を示す図である。 乗車検知システムにおける動作制御部が実行する戸開閉動作の制御において用いられる広範判定領域について説明するための図である。 かご戸が戸開状態の場合における、動作制御部が実行する戸開閉動作の制御の一例について説明するための図である。 かご戸が戸閉動作中の場合における、動作制御部が実行する戸開閉動作の制御の一例について説明するための図である。以下の図20~22は、実施形態1を示す図である。 エレベータの乗場の明るさが不十分である場合において撮像される画像の一例を示す図である。 図20に示す撮像画像に対して、平滑化処理を用いて処理した後の画像の一例について、各画素の値を可視化して全画素を一望するように示す図である。 図20に示す撮像画像に対して、平滑化処理を用いることなく処理した後の画像の一例について、各画素の値を可視化して全画素を一望するように示す図である。
〔実施形態1〕
本発明の一実施形態について、図1A~図16および図20~22を用いて説明すれば、以下のとおりである。
(本実施形態における乗車検知システム10の構成の概要)
本実施形態におけるエレベータの乗車検知システム10の構成について、図1Aおよび図2を参照して説明する。図1Aは、乗車検知システム10の要部構成の一例を示すブロック図である。図2は、乗車検知システム10の概要構成の一例を示す概略図である。
図1Aおよび図2に示すように、乗車検知システム10は、かご20、画像処理装置30、制御装置40、および戸開閉装置50を含む。
かご20は、昇降路(図示省略)内を昇降して、建物の各階の乗場2へ移動する。かご20の出入口にはかご戸22が設けられており、かご戸22は、ドア開閉路24(図16参照)に沿って開閉する。かご戸22の上方の幕板(トランサム)23の近傍にカメラ21が設置されている。カメラ21は、所定の撮像視野にて乗場2を撮像可能となっており、例えば、奥行がかご戸22の開閉路から乗場2の方向に数mであり、幅がかご20の横幅以上の撮像視野となっている。カメラ21は、例えば広角レンズを有する小型の監視カメラであり、具体的な性能および設置位置は特に限定されない。例えば、幕板23の内部にカメラ21が設けられていてもよい。
なお、カメラ21は、かご20内に設けられていることに限定されない。例えば、乗場2の天井に設けられたカメラを利用してもよい。すなわち、カメラ21における所定の撮像視野は、乗場2の天井から床に向けた撮像視野であってもよく、その他の方向から乗場2に向けた撮像視野であってもよい。そのような配置のカメラ21を用いる場合であっても、以下の説明を参照して、本実施形態における乗車検知システム10の処理を行うことができる。
乗場2には、かご20の到着に合わせて開閉する乗場戸3が設置されている。乗場戸3はかご戸22に連動するようになっており、例えばかご戸22が戸開動作する場合、かご戸22に追従して乗場戸3も戸開動作する。
乗場2には移動物体1が存在し得る。この移動物体1は、典型的には人物である。そのため、以下では、移動物体1として、歩行する人物(利用者)を例示して説明する。なお、移動物体1は歩行する人物に限定されない。本発明の一態様における乗車検知システム10は、例えば、車いすで移動している人物、荷物を載せた台車等の運搬物体、自動走行機器(例えば走行ロボット)、等の種々の移動物体に適用することもできる。乗車検知システム10は、そのような各種の移動物体について、後述するように乗車意思を推定する処理を行うとともに、推定結果に応じて戸開閉動作を制御する。
画像処理装置30は、カメラ21と通信可能に接続されており、カメラ21から受信した撮像画像に対して所定の処理を行う。この処理について詳しくは後述する。
画像処理装置30は、画像取得部31、記憶部32、移動物体決定部33、物体追跡部34、および変動係数演算部35を備えており、これらの各部はシステムバス39に接続されている。
移動物体決定部33、物体追跡部34、および変動係数演算部35は、概して以下のような処理を行う。移動物体決定部33は、記憶部32から読み出した、または画像取得部31から取得した複数枚の撮像画像を用いて、画像中の移動物体およびその移動方向を示す移動物体領域を決定する処理を行う。物体追跡部34は、移動物体決定部33によって決定された移動物体領域について追跡処理を行う。変動係数演算部35は、画像中に含まれる1つ以上の移動物体領域のそれぞれについて、かご20への乗車意思を推定する対象とすべきか否かを判定する指標となる、移動物体領域における変動係数を算出する処理を行う。
移動物体決定部33には、第1の輝度差分演算部330、オプティカルフロー演算部332、および決定処理部334が含まれている。決定処理部334には、物体候補領域設定部334Aおよび領域選定部334Bが含まれている。物体追跡部34には、図形設定部341、重なり度算出部342、および追跡処理部343が含まれている。
制御装置40は、画像処理装置30および戸開閉装置50と通信可能に接続されており、画像処理装置30から受信した情報に基づいて、戸開閉装置50を用いてかご20の戸開閉動作を制御する。制御装置40が実行する処理について、詳しくは後述するが、制御装置40は、概略的には、或る移動物体領域についてかご20への乗車意思の推定処理を行い、その結果に応じてかご戸22の戸開閉動作(戸開状態の延長等)の制御を行う。
制御装置40は、記憶部41および制御部42を備えている。記憶部41には、判定領域データ411および意思推定条件データ412が含まれている。制御部42には、意思推定部421および動作制御部422が含まれている。
戸開閉装置50は、かご戸22を開閉動作させるためのモータおよびモータ制御部等を備え、制御装置40から受信した指令に基づいてかご戸22の開閉動作を制御する。戸開閉装置50としては、公知の装置を適用すればよく、詳細な説明は省略する。
以上に概略を説明した画像処理装置30、制御装置40、および戸開閉装置50は、典型的にはかご20の天板上(かご上ステーション)に設置されている。但し、これらの設置位置は特に限定されない。例えば、画像処理装置30は、幕板23内部に収納されていてもよく、カメラ21と一体化して設置されていてもよい。また、例えば、画像処理装置30および制御装置40は、エレベータにおける機械室(図示省略)に設置されていてもよく、制御盤(図示省略)における一機能として実現されていてもよい。
これらの各部の詳細について、本実施形態における乗車検知システム10が実行する処理の流れと合わせて以下に説明する。図3Aは、乗車検知システム10による乗車検知および戸開閉動作制御の処理の流れの一例を示すフローチャートである。
図3Aに示すように、先ず、かご20が任意の階の乗場2に到着すると、戸開閉装置50は、動力機構(ドアモータ)を制御してかご戸22を戸開する(ステップ1;以下、S1のように略記する)。かご20に設けられたカメラ21は、所定の間隔(例えば30コマ/秒)にて乗場2を撮像し、撮像画像を画像処理装置30に送信する。カメラ21からの撮像画像の出力サイズ(以下、第1の画素数と称することがある)は特に限定されない。第1の画素数は、例えば、動画像を撮像する一般的な監視カメラ等における性能(出力サイズ)に対応する。
次いで、画像処理装置30内の画像取得部31は、カメラ21から送信された撮像画像を順次取得する(S2:画像取得ステップ)。画像取得部31がカメラ21から複数の撮像画像を順次取得するタイミングについて、或る時点を[t]と称し、時点[t]よりも1フレーム前の時点を[t-1]、時点[t]よりも1フレーム後の時点を[t+1]と称する。例えば、画像取得部31が30(コマ/秒)の速度にて複数の撮像画像を順次取得する場合、時点[t]と時点[t-1]との間の時間間隔は1/30(秒)である。画像取得部31は、エレベータの乗場2をカメラ21にて撮像した動画像を構成する複数の撮像画像を取得し、取得した撮像画像を、システムバス39を通じて記憶部32に順次保存する。また、画像取得部31は、取得した撮像画像を移動物体決定部33に順次送信してもよい。
記憶部32は、揮発性または不揮発性の記憶装置である。記憶部32は、画像処理装置30の各部の処理に用いられるデータおよび処理後のデータを保存するために適宜用いられる。
その後、乗車検知システム10は、概略的には以下のような処理を行う。すなわち、移動物体決定部33は、第1の輝度差分演算部330とオプティカルフロー演算部332とにおける処理結果を用いて、決定処理部334が、乗場2に存在する移動物体1の像を画像中にて示す移動物体領域を決定する(S3A、S3B、S4、S5)。
そして、物体追跡部34は、2つの異なる時点にて撮像した2枚の画像について、時間的に前の第1の画像中の或る移動物体領域にて像が示されている移動物体1に対応する、時間的に後の第2の画像中の移動物体領域を特定する処理を行う(S6)。また、変動係数演算部35は、移動物体領域における変動係数(詳しくは後述)を算出する処理を行う(S7)。意思推定部421は、上記S6の結果および上記S7の結果を用いて、移動物体領域に対応する移動物体1の乗車意思を推定する処理を行う(S8)。動作制御部422は、意思推定部421における処理の結果を用いて、かご戸22の戸開閉動作を制御する(S9)。乗車検知システム10は、かご戸22が戸閉状態となった場合(S10でYES)には処理を終了し、戸閉状態となっていない場合(S10でNO)には上記S2からの処理を再度行う。
以下では、先ず、移動物体決定部33に関して詳細に説明し、その後、物体追跡部34、変動係数演算部35、意思推定部421、および動作制御部422に関して詳細に説明する。
移動物体決定部33に関する詳細な説明は、構成例1~構成例4に分けて述べる。
(構成例1)
以下、図1Aの例における移動物体決定部33の各部が実行する処理の一例(S3A、S3B、S4、S5)について、図3A、図4A、および図5~図9を用いて説明する。図1Aの例では、移動物体決定部33には、第1の輝度差分演算部330、オプティカルフロー演算部332、および決定処理部334が含まれている。
移動物体決定部33は、先ず、第1の輝度差分演算部330と、オプティカルフロー演算部332と、が互いに並列に処理を行う(S3A、S3B)。第1の輝度差分演算部330は、撮像画像について、平滑化処理を用いて輝度の差分に基づく演算処理を行う。S3AおよびS3Bの処理について詳しくは後述する。
そして、決定処理部334における物体候補領域設定部334Aは、第1の輝度差分演算部330の処理結果、および、オプティカルフロー演算部332の処理結果を用いて、画像中の物体候補領域を設定する(S4)。次いで、決定処理部334における領域選定部334Bは、上記設定した物体候補領域について所定の判定処理を行うことにより、乗場2に存在する移動物体1の像を画像中にて示す移動物体領域を決定する(S5)。
(構成例1その1 S3A:輝度差分演算)
第1の輝度差分演算部330は、所定の時間差を有する2つの時点のそれぞれにて画像を撮像して得られた2枚の撮像画像について、平滑化処理を用いて輝度の差分に基づく演算処理を実行する。そして、2枚の撮像画像間で輝度差が所定の閾値以上である画素が連続している領域であって、前記画像における動きの有る領域(移動領域)を検出する(S3A:第1の輝度差分演算ステップ)。この演算処理について、図4Aを用いて以下に説明する。図4Aの(a)は、第1の輝度差分演算部330が実行する処理の流れの一例を示すフローチャートである。
図4Aの(a)に示すように、第1の輝度差分演算部330は、画像取得部31から直接か、または記憶部32を経由して、2枚の撮像画像(カラー画像)を取得し、2枚のグレー画像を生成する(S3A1)。
なお、上記S3Aの処理においては、縮小処理によって前述の第1の画素数(カメラ21の出力サイズ)よりも縮小した第2の画素数を有する画像を用いる。例えば画像取得部31からデータを取得後に縮小処理が行われてもよい。また、画像取得部31にて縮小処理が行われて記憶部32に保存されていたデータを、第1の輝度差分演算部330が取得して用いてもよい。これにより、第1の輝度差分演算部330による処理効率を向上させることができる。このような縮小処理は、公知の手法を用いて行うことができる。
例えば、上記第2の画素数は上記第1の画素数の4分の1である。第1の輝度差分演算部330における処理に適した画素数(処理に要求される情報量)となるように、撮像画像に対して縮小処理を適宜行うことによって、第1の輝度差分演算部330の処理効率を効果的に向上させることができる。
上記S3A1の処理における、第1の輝度差分演算部330が2枚の撮像画像を取得する段階について説明する。第1の輝度差分演算部330が画像取得部31から撮像画像を直接取得した場合、時点[t]における撮像画像P(t)と、時点[t-1]における撮像画像P(t-1)とを、以降の処理対象である2枚の撮像画像とする。
第1の輝度差分演算部330が記憶部32を経由して撮像画像を取得した場合、時点[t]における撮像画像P(t)と、時点[t-n]における撮像画像P(t-n)とを、以降の処理対象である2枚の撮像画像とする。上記nは、1以上「20~30」以下の範囲内の整数であることが好ましい。
したがって、所定の時間差は、画像取得部31におけるカメラ21からの撮像画像の取得間隔が例えば1/30(秒)であれば、1/30の1倍~「20~30」倍であることが好ましい。
上記S3A1の処理における、2枚のグレー画像を生成する段階について説明する。画像取得部31にて取得された撮像画像は、通常、カラー画像である。本実施形態における第1の輝度差分演算部330は、画像取得部31にて取得された撮像画像をグレースケールに変換する処理を行う。時点[t]における撮像画像P(t)をグレースケールに変換後の画像をグレー画像GP(t)と称する。同様に、第1の輝度差分演算部330は、時点[t-1]における撮像画像P(t-1)をグレースケールに変換する処理を行い、時点[t-1]におけるグレー画像GP(t-1)を生成する。
グレースケールに変換するとは、画像データから輝度データを抽出することである。輝度データの抽出とは、例えば、RGB色空間のR成分、G成分、B成分からYUV色空間のY成分へ変換することである。あるいは、HSL色空間のL成分への変換、HSV色空間のV成分への変換等を用いてもよい。
上述のR成分、G成分、B成分、および、輝度データのY成分(あるいはL成分、V成分)は、例えば256階調(0~255)で表される。このことは本明細書における以下の説明においても同様である。
次いで、第1の輝度差分演算部330は、平滑化フィルタを用いてグレー画像GP(t-1)およびグレー画像GP(t)に平滑化フィルタ処理(平滑化処理)を行う(S3A2)。第1の輝度差分演算部330は、グレー画像GP(t-1)およびグレー画像GP(t)の全ての画素について平滑化フィルタを用いた演算処理を行い、平滑化処理を行ったグレー画像SGP(t-1)および平滑化処理を行ったグレー画像SGP(t)を生成する。上記平滑化フィルタとしては、例えば、ガウシアンフィルタ、移動平均フィルタ、メディアンフィルタ、またはバイラテラルフィルタ等が挙げられるが、これらに限定されない。また、上記平滑化フィルタのサイズとしては、例えば3×3サイズが挙げられるが、これに限定されない。本明細書において、平滑化処理を施した画像を平滑化画像と称する。
平滑化フィルタの一例として、平滑化処理に3×3サイズのガウシアンフィルタを用いた場合について説明する。第1の輝度差分演算部330は、上記S3A2の処理において、画像中の或る座標(x、y)に存在する画素(注目画素)FPの輝度LAを以下の式(1)によって算出される数値LBに補正する。
LB(x、y)=[4×LA(x、y)+2×{LA(x、y-1)+LA(x-1、y)+LA(x+1、y)+LA(x、y+1)}+LA(x-1、y-1)+LA(x+1、y-1)+LA(x-1、y+1)+LA(x+1、y+1)]/16・・・(1)。
なお、ガウシアンフィルタでは、ガウス分布を用いて注目画素FPの近傍画素値に重み付けを行うことにより、注目画素FPから距離が近いほど重みの値が大きくなり、距離が遠いほど重みの値が小さくなるように、平滑化処理を行う。そのため、画像を平滑化(ノイズ除去)しつつ、エッジ(輝度の勾配強度が局所的に最大となる点)も残りやすい特徴がある。そのため、平滑化処理においてガウシアンフィルタを用いることが好ましい。
次いで、第1の輝度差分演算部330は、平滑化処理を行ったグレー画像SGP(t-1)と平滑化処理を行ったグレー画像SGP(t)との差分画像を生成する(S3A3)。時点[t]に関して生成した差分画像であって、平滑化処理を行ったグレー画像を用いて第1の輝度差分演算部330により生成された差分画像を、差分画像DP1(t)(第1の差分画像)と称する。具体的には、この差分画像DP1(t)は、平滑化処理を行ったグレー画像SGP(t-1)と平滑化処理を行ったグレー画像SGP(t)とについて画素毎に輝度差を算出し、算出した輝度差が各画素に対応付けられて表される。
次いで、第1の輝度差分演算部330は、差分画像DP1(t)における各画素について、二値化処理を行う(S3A4)。具体的には、或る画素における輝度差が所定の閾値(第1の二値化閾値)以上である場合、当該画素の画素値を「1」(例えば白)とし、上記閾値未満である場合に当該画素の画素値を「0」(例えば黒)とする。差分画像DP1(t)について二値化処理を行うことにより生成した画像を二値化画像BP1(t)と称する。
次いで、第1の輝度差分演算部330は、二値化画像BP1(t)について膨張処理および収縮処理を実行する(S3A5)。例えば、膨張処理は、3×3のマトリクスの中心画素について、該中心画素の周囲の8個の画素のうち、「1」の画素値を有する画素が1個でも存在する場合、該中心画素の画素値を「1」とする処理である。例えば、収縮処理は、3×3のマトリクスの中心画素について、該中心画素の周囲の8個の画素のうち、「0」の画素値を有する画素が1個でも存在する場合、該中心画素の画素値を「0」とする処理である。
上記膨張処理および上記収縮処理は複数回行われてもよい。例えば、膨張処理の回数が連続2回行われた後、収縮処理が1回行われるということにしてもよい。
上記膨張処理および上記収縮処理におけるフィルタサイズ(上記マトリクスの大きさ)は、例えば3×5と3×5の組合せとしたり、3×5と3×3の組合せとしたりしてもよい。上記膨張処理のフィルタサイズと、上記収縮処理のフィルタサイズとは、互いに同じであってもよく、互いに異なっていてもよい。
そして、第1の輝度差分演算部330は、上記膨張処理および上記収縮処理後の画像について、補間処理を実行する(S3A6)。この補間処理とは、例えば以下のような処理である。すなわち、例えば「1」の画素値を有する画素が連続(隣接)している領域を領域a1とし、画像中の領域a1内において「0」の画素値を有する画素からなる領域a2が部分的に存在するとする。この領域a2は、換言すれば、領域a1の画素にて囲まれている狭小領域である。この場合、領域a2を形成する画素について画素値が「1」となるように補間処理を行う。これにより、領域a1中の抜けとなっている領域a2を埋めることができる。第1の輝度差分演算部330は、以上のような処理を行うことにより、第1の処理後画像TP11を生成する。第1の処理後画像TP11とは、第1の輝度差分演算部330による処理後の画像である。第1の処理後画像TP11では、各画素の値が「1」または「0」となっている。
第1の処理後画像TP11の一例について、画素値が「1」を「白」、画素値が「0」を「黒」で表して、全画素を一望するように可視化(図示)したものを図4Aの(b)に示す。図4Aの(b)に示すように、第1の処理後画像TP11は、第1の輝度差分演算部330による処理によって抽出された領域であって、輝度差分が比較的大きく、移動物体を示す蓋然性の高い領域(移動領域MA)を含む。本実施形態では、移動領域MAは、第1の処理後画像TP11において「1」の画素値を有する画素が連続(隣接)している領域である。本明細書において、画像中の各画素について、どの(何れの)移動領域MAに属している画素か、またはどの移動領域にも属していない画素か、を示す情報を、移動領域情報と称することがある。図4Aの(b)に示す第1の処理後画像TP11は、4つの移動領域MAを含む。
(構成例1その2 S3B:オプティカルフロー演算)
上記輝度差分演算処理と並行して、オプティカルフロー演算部332は、2枚の撮像画像を用いて、オプティカルフロー演算処理を実行し、画像中の各画素のオプティカルフローを算出する(S3B:オプティカルフロー演算ステップ)。オプティカルフロー演算部332は、2枚の撮像画像として、前述の輝度差分演算処理と時間的に対応する時点のデータを用いる。オプティカルフロー演算部332は、例えば、第1の輝度差分演算部330によって生成したグレー画像GP(t)およびグレー画像GP(t-1)を用いる。
なお、上記S3Bの処理においては、前述の第1の画素数(カメラ21の出力サイズ)よりも縮小した第3の画素数を有する画像を用いる。例えば画像取得部31からデータを取得後に縮小処理が行われてもよい。また、画像取得部31にて縮小処理が行われて記憶部32に保存されていたデータを、オプティカルフロー演算部332が取得して用いてもよい。記憶部32には、或る撮像画像に対応して、第1の輝度差分演算部330にて用いられるデータと、オプティカルフロー演算部332にて用いられるデータと、の両方が保存されていてもよい。上記第3の画素数は、上記S3Aにて用いた画像における前述の第2の画素数よりも小さい。これにより、オプティカルフロー演算部332による処理効率を向上させることができる。
例えば、上記第2の画素数は上記第1の画素数の4分の1であり、上記第3の画素数は上記第2の画素数の4分の1である。このように、オプティカルフロー演算部332における処理に適した画素数(処理に要求される情報量)となるように縮小処理を適宜行うことによれば、オプティカルフロー演算部332の処理効率を効果的に向上させることができる。
オプティカルフローとは、2枚の画像を用いてオプティカルフロー演算処理を行うことにより得られる、画素毎の動きの向き(方向)および大きさを表した見掛け上のベクトルデータである。換言すれば、2枚の画像データにおける類似パターンの移動量および移動方向に基づいてオプティカルフローが算出される。このようなオプティカルフローを算出する演算処理としては、公知の手法(例えばGunnar-Farneback法、Horn-Schunck法、等)を用いることができる。したがって、オプティカルフローを算出する演算処理の詳細については、記載の冗長化を避けるために説明を省略する。
ここで、オプティカルフロー演算部332は、所定の基準角度規則に基づいて、オプティカルフローにおける「(動きの)方向」を示す値を算出する。この所定の基準角度規則について、図5を用いて以下に説明する。図5の(a)は、カメラ21による撮像画像の一例を示す図である。撮像画像P0は、乗場2の方向にレンズを向けてエレベータのかご20内に設けられたカメラ21により撮像された画像であり、画像における下側にかご20が位置するような向きで置かれている。図5の(b)は、所定の基準角度規則について説明するための図である。
図5の(a)では、乗場2に移動物体が存在しない状態の撮像画像P0を示しており、そのため、撮像画像P0は、上述の時点[t]における撮像画像P(t)とは乗場2の状況が異なっている。この撮像画像P0を例示して、所定の基準角度規則について説明する。
先ず、ドア開閉路24(図16を参照)に対応する、撮像画像P0上の線分を「開閉範囲線分」と規定する。なお、撮像画像P0上でドア開閉路24が多少湾曲している場合、直線状となるように近似して得られた線分を開閉範囲線分とすればよい。
そして、図5の(b)に示すように、開閉範囲線分の中心点を原点O、開閉範囲線分に沿った直線をx軸と規定する。また、開閉範囲線分に垂直かつ原点Oを通る直線をy軸と規定する。
原点Oからかご20内に向かう方向をy軸の正方向とし、原点Oから乗場2に向かう方向をy軸の負方向とする。そして、y軸の正方向に対し、時計回りに90°回転した方向をx軸の正方向とする。また、y軸の正方向に対し、反時計回りに90°回転した方向をx軸の負方向とする。
以下、本明細書において、繰り返して定義しないが、開閉範囲線分、x軸、y軸、および原点Oは、格別の記載が無い限り上記のことと同様の意味にて使用する。
本実施形態における所定の基準角度規則は、x軸の正方向を0°の角度とし、反時計回りに360°の角度を規定する。すなわち、y軸の正方向が90°、x軸の負方向が180°、y軸の負方向が270°の角度となっている。
オプティカルフロー演算部332は、このような基準角度規則を用いて、画像における各画素について「(動きの)方向」を示す値(以下、オプティカルフロー方向値と称することがある)を決定する。これにより、画像における各画素にオプティカルフローが対応付けられる。本明細書において、オプティカルフローは、「(動きの)大きさ」を示す値および角度で表されたオプティカルフロー方向値にて表される。なお、オプティカルフロー方向値を決定する処理においては、画像中の各画素について、処理対象とする画素を原点Oであるとして上記基準角度規則を適用する。換言すれば、本実施形態における所定の基準角度規則は、極座標における始線(0°方向)を上記x軸の正方向に固定し、画像中の各画素を原点O(極)として、各画素の動きの方向を示す偏角をオプティカルフロー方向値として求めるように規定されている。本実施形態において、オプティカルフロー方向値は、画素における「(動きの)方向」が、上記基準角度規則に基づいて1°の角度の分解能で角度の値として表されたものである。なお、オプティカルフロー方向値は、例えば数°の角度の分解能にて表されていてもよく、この場合、例えば1°以上3°未満のように表されていてもよい。
そして、オプティカルフロー演算部332は、画像における各画素について、オプティカルフローを分類し、画素方向情報(詳しくは後述)を対応付ける。ここで、上記画素方向情報は、各画素について、画素が本来有する画素値とは別の情報として対応付けられる。各画素について、上記画素方向情報を対応付ける具体的な方法は特に限定されない。
具体的には、オプティカルフロー演算部332は、画像中の各画素について、オプティカルフローに基づいて5種類の値(無方向Gr0、近方向Gr1、右方向Gr2、離方向Gr3、左方向Gr4)のいずれかを画素方向情報として対応付ける。
この分類処理およびその結果について図6を用いて以下に説明する。撮像画像P(t)および撮像画像P(t-1)を用いて算出したオプティカルフローに基づいて分類処理を行った結果、全画素のそれぞれに画素方向情報を対応付けた画像を第2の処理後画像TP2と称する。第2の処理後画像TP2は、画素方向情報として、下記の5種類の値の何れかが各画素に対応付けられている。第2の処理後画像TP2の一例について、各画素に対応付けられた画素方向情報の値の分布状況を一望するように(全画素を一望するように)可視化(図示)したものを図6に示す。「可視化(図示)」とは、例えばディスプレイに表示させたり、紙に印刷したりすることを意味する。
無方向Gr0:オプティカルフロー演算部332は、画素のオプティカルフローにおける「(動きの)大きさ」を示す値が「0」または「所定値以下」の場合、動きの無い(非常に少ない)画素であることから、該画素に画素方向情報として無方向Gr0を対応付ける。この所定値(所定の動きの大きさ基準値)は、極めて小さい値に設定されていてもよい。図6において、無方向Gr0の画素方向情報が対応付けられた画素が連続して存在する領域を「黒」で示している。
また、画素のオプティカルフローにおける「(動きの)大きさ」を示す値の大きさが所定値を超える場合、該画素は、オプティカルフロー方向値に基づいて以下の4種類の値(近方向Gr1、右方向Gr2、離方向Gr3、左方向Gr4)のいずれかが画素方向情報として対応付けられる。
近方向Gr1:オプティカルフロー演算部332は、画素のオプティカルフロー方向値が30°以上150°未満の場合、乗場2からかご20に向かう移動方向のオプティカルフローを有する画素であることから、該画素に画素方向情報として近方向Gr1を対応付ける。換言すれば、オプティカルフロー演算部332は、上記移動方向(第1の方向)に相当する角度範囲内にある場合、オプティカルフローを上記第1の方向を示す画素方向情報(近方向Gr1)に分類する。図6において、近方向Gr1の画素方向情報が対応付けられた画素が連続して存在する領域を「45°クロス形」のハッチングで示している。
右方向Gr2:オプティカルフロー演算部332は、画素のオプティカルフロー方向値が150°以上210°未満の場合、乗場2を右に通過する(乗場2においてかご20の前を横切るようにx軸の負方向に通過する)移動方向のオプティカルフローを有する画素であることから、該画素に画素方向情報として右方向Gr2を対応付ける。換言すれば、オプティカルフロー演算部332は、上記移動方向(第3の方向)に相当する角度範囲内にある場合、オプティカルフローを上記第3の方向を示す画素方向情報(右方向Gr2)に分類する。図6において、右方向Gr2の画素方向情報が対応付けられた画素が連続して存在する領域を「不規則縞形」のハッチングで示している。
離方向Gr3:オプティカルフロー演算部332は、画素のオプティカルフロー方向値が210°以上330°未満の場合、かご20から離れる(かご20から乗場2に向かう)移動方向のオプティカルフローを有する画素であることから、該画素に画素方向情報として離方向Gr3を対応付ける。換言すれば、オプティカルフロー演算部332は、上記移動方向(第2の方向)に相当する角度範囲内にある場合、オプティカルフローを上記第2の方向を示す画素方向情報(離方向Gr3)に分類する。図6において、離方向Gr3の画素方向情報が対応付けられた画素が連続して存在する領域を「斜線形」のハッチングで示している。
左方向Gr4:オプティカルフロー演算部332は、画素のオプティカルフロー方向値が330°以上360°未満、または0°以上30°未満の場合、乗場2を左に通過する(乗場2においてかご20の前を横切るようにx軸の正方向に通過する)移動方向を有する画素であることから、該画素に画素方向情報として左方向Gr4を対応付ける。換言すれば、オプティカルフロー演算部332は、上記移動方向(第4の方向)に相当する角度範囲内にある場合、オプティカルフローを上記第4の方向を示す画素方向情報(左方向Gr4)に分類する。図6において、左方向Gr4の画素方向情報が対応付けられた画素が連続して存在する領域を「ドット形」のハッチングで示している。
以上のようなオプティカルフロー演算部332による処理の結果、得られる第2の処理後画像TP2は、画素方向情報として上述の5種類の値の何れかが各画素に対応付けられている。
なお、画素方向情報は、画像中の各画素についてオプティカルフロー演算部332により算出したオプティカルフローを、「(動きの)大きさ」を示す値に基づいて分類した情報であるとともに、「(動きの)方向」についてオプティカルフロー方向値よりも大きい角度の分解能にて分類した情報であればよく、具体的な態様は特に限定されない。
(構成例1その3 S4:物体候補領域設定)
再び図1Aおよび図3Aを参照して、S3AおよびS3Bの処理が行われた後、物体候補領域設定部334Aは、以下のような処理を行うことにより物体候補領域を設定する(S4:物体候補領域設定ステップ)。
物体候補領域設定部334Aは、第1の処理後画像TP11を縮小処理した画像TP1’と、第2の処理後画像TP2とを重ね合わせることにより、1つの画像として生成する。この生成した画像を第3の処理後画像TP3と称する。
なお、上記画像TP1’は、前述の第1の画素数または前述の第2の画素数を有する画像をさらに縮小した画像であって、前述の第3の画素数を有する。物体候補領域設定部334Aは、上記第3の画素数を有する、画像TP1’および第2の処理後画像TP2を重ね合わせることにより、上記第3の画素数を有する第3の処理後画像TP3を生成する。このように、物体候補領域設定部334Aにおける処理に適した画素数(処理に要求される情報量)となるように縮小処理を適宜行うことによれば、物体候補領域設定部334Aによる処理効率を効果的に向上させることができる。
第3の処理後画像TP3は、全画素のそれぞれに、移動領域情報および画素方向情報(無方向Gr0~左方向Gr4)が対応付けられた画像である。第3の処理後画像TP3の一例について、各画素に対応付けられた移動領域情報に基づいて何れかの移動領域に属していると識別された複数の画素を対象として、画素方向情報の値の分布状況を一望するように可視化(図示)したものを図7に示す。図7では、どの移動領域にも属していない画素については、画素方向情報の分布状況を可視化しておらず、黒塗りにて表している。
以下、図7を参照して、第3の処理後画像TP3に含まれる物体候補領域について説明する。物体候補領域は、画像中の各移動領域について、該移動領域に含まれる各画素に画素方向情報が対応付けられたものである。この例では、第3の処理後画像TP3は、画像中の左から右に向かって順に、4つの物体候補領域OCA1~OCA4を含む。そして、物体候補領域設定部334Aは、各物体候補領域OCAについて、以下のように部分領域を特定する。
すなわち、物体候補領域設定部334Aは、物体候補領域OCAにおいて、無方向以外の同一の画素方向情報を有する画素が連続する領域を部分領域PAとして設定する。本明細書において、各部分領域PAに対応付けられる方向情報を部分方向情報と称する。物体候補領域設定部334Aは、例えば、或る部分領域PAを構成する複数の画素が有する画素方向情報(値)を、該部分領域PAの部分方向情報(値)にコピーする。
例えば、物体候補領域OCA2は、画像中で比較的大きい領域(画素数)を占める離方向Gr3の部分方向情報を有する部分領域PA21、比較的狭い領域(画素数)を占める左方向Gr4の部分方向情報を有する部分領域PA22、等を含む。また、物体候補領域OCA4は、画像中で比較的大きい領域(画素数)を占める、離方向Gr3の部分方向情報を有する部分領域PA41および左方向Gr4の部分方向情報を有する部分領域PA42を含む。
なお、S4以降の処理において、上記第3の画素数を有する画像を用いることが好ましい。これにより、S4以降の、画像処理装置30および制御装置40の各部にて行われる処理の効率を向上させることができる。
(構成例1その4 S5:移動物体・方向決定)
次いで、決定処理部334における領域選定部334Bは、各物体候補領域OCA1~4について、各物体候補領域OCAに含まれる部分領域PAの数および大きさ、並びに物体候補領域OCAに含まれる画素の画素方向情報の分布状態に基づいて、物体候補領域OCAおよび部分領域PAのいずれか一方を、画像中に含まれる移動物体の像を示すとともに、該移動物体の移動方向を示す情報を有する移動物体領域として決定する処理(移動物体・方向決定処理)を行う(S5:決定処理ステップ)。この処理について、図8を用いて以下に説明する。図8は、移動物体・方向決定処理の流れの一例を示すフローチャートである。領域選定部334Bにより実行される処理は、領域選定部334Bを含む決定処理部334によって実行される処理とも表現できるため、以下では、処理を実行する主体を決定処理部334として説明する。
図8に示すように、先ず、決定処理部334は、処理対象とする物体候補領域OCAを選択し(S50)、選択した物体候補領域OCAに含まれる画素数が所定値V1(第1の大きさ基準値)よりも小さい場合(S51でNO)、該物体候補領域OCAは移動物体を示すものではないと判定する(S52)。この所定値V1としては、適宜設定されてよい。第3の処理後画像TP3は、比較的小さい上記第3の画素数を有する。所定値V1は、このような第3の処理後画像TP3において、例えば、カメラ21から或る程度遠方に位置する子供の像を抽出できるような大きさ(画素数)に設定されることが好ましい。所定値V1は、本明細書において後述する乗車意思の判定領域の大きさに対応して適切な値に設定されてもよい。
また、決定処理部334は、選択した物体候補領域OCAに含まれる画素数が所定値V1以上の場合(S51でYES)において、下記(i)~(iii)のような3通りの処理を行う。
(i)物体候補領域OCAに所定値V2(第2の大きさ基準値)以上の大きさ(画素数)の部分領域PAが含まれていない場合(S53で0個)、決定処理部334は、該物体候補領域OCAについて、移動物体を示す領域(以下、移動物体領域MOAと称する)であると決定する。そして、該移動物体領域MOAにて示される移動物体の実空間における移動方向が特定されないと判定し、該移動物体領域MOAの有する方向情報として無方向Gr0を対応付ける(S54)。本明細書において、移動物体領域MOAに対応付けられる方向情報を「物体方向情報」と称する。ここでは、決定処理部334は、物体候補領域OCAに含まれる部分領域PAの部分方向情報(値)に関わらず、移動物体領域MOAに無方向Gr0の物体方向情報を対応付ける(設定する)。
なお、上記所定値V2と、上記所定値V1とは同じ値であってよく、互いに異なっていてもよい。所定値V2についても、上記所定値V1と同様の観点から、適切な大きさに設定される。
(ii)物体候補領域OCAが所定値V2以上の大きさの部分領域PAを1個のみ含んでいる場合(S53で1個)、決定処理部334は、該物体候補領域OCAを移動物体領域MOAであると決定するとともに、所定値V2以上の大きさの部分領域PAの部分方向情報をコピーして、該移動物体領域MOAの物体方向情報とする(S55)。
(iii)物体候補領域OCAが所定値V2以上の部分領域PAを2個以上含んでいる場合(S53で2個以上)、決定処理部334は、以下の処理を行う。すなわち、先ず、該物体候補領域OCAに含まれる全画素について、同じ画素方向情報を有する画素の数を算出する。次いで、処理の対象とする物体候補領域OCAの全画素数に対する、物体候補領域OCA中の同じ画素方向情報を有する画素の数、の比を各画素方向情報(本実施形態では近方向Gr1~左方向Gr4のそれぞれ)について算出する。ここで、物体候補領域OCA中の同じ画素方向情報を有する画素の数を算出する場合、孤立した画素、異なる部分領域PAに分散した画素、等に関わらず、物体候補領域OCA中に含まれる全画素について算出する。
算出した上記比が所定の割合R1以上となる画素方向情報(近方向Gr1~左方向Gr4のいずれか)が存在する場合(S56でYES)、該物体候補領域OCAの全体を1つの移動物体領域MOAであると決定するとともに、上記比が所定の割合R1以上である画素方向情報をコピーして、該移動物体領域MOAの物体方向情報とする(S57)。具体的には、例えば、物体候補領域OCAに含まれる全画素に対する、近方向Gr1の画素方向情報を有する画素の数の比が所定の割合R1以上である場合、該物体候補領域OCAの全体を、近方向Gr1の物体方向情報を有する移動物体領域MOAであると決定する。なお、上記所定の割合R1の具体的な値は、特に限定されないが、例えば0.5よりも大きい値である。
或いは、算出した上記比が所定の割合R1以上となる画素方向情報が存在しない場合(S56でNO)、所定値V2以上の大きさの部分領域PAをそれぞれ個別の移動物体領域MOAであると決定する(S58)。そして、移動物体領域MOAの物体方向情報として、該移動物体領域MOAに対応する部分領域PAの部分方向情報をコピーする。なお、上記の処理によれば、「所定値V2未満の大きさの部分領域PA」および「孤立した画素」については、移動物体領域MOAであると決定されない。
次いで、決定処理部334は、全ての物体候補領域OCAについて処理を行っていない場合(S59でNO)、未処理の物体候補領域OCAについて上記S50からの処理を実行する。決定処理部334は、全ての物体候補領域OCAについて処理を行った場合(S59でYES)、移動物体・方向決定処理を終了する。
決定処理部334による処理後の画像を第4の処理後画像TP4と称し、第4の処理後画像TP4中における移動物体の像を示す領域を移動物体領域MOAと称する。第4の処理後画像TP4の一例について、各画素に対応付けられた物体方向情報の値の分布状況を一望するように可視化したものを図9に示す。図9では、どの移動物体領域MOAにも属していない画素については、物体方向情報を有していないため、黒塗りにて表している。
図9に示すように(図7も参照)、例えば、移動物体領域MOA2は、処理前の物体候補領域OCA2に対応し、部分領域PA21における離方向Gr3の部分方向情報がコピーされた物体方向情報を有している。また、移動物体領域MOA4は、処理前の物体候補領域OCA4における離方向Gr3の部分方向情報を有する部分領域PA41に対応し、離方向Gr3の物体方向情報を有している。移動物体領域MOA5は、処理前の物体候補領域OCA4における左方向Gr4の部分方向情報を有する部分領域PA42に対応し、左方向Gr4の物体方向情報を有している。例えば、前述の第1の処理後画像TP11において、物体候補領域OCA4に対応する移動領域MA(図4の(b)における右側の移動領域MA)は、異なる方向に移動する2つの移動物体が重なった状態を示す撮像画像に対して第1の輝度差分演算部330による処理が行われて、部分領域PA41および部分領域PA42を含む1つの移動領域MAとして検出された蓋然性が高い。
本実施形態の乗車検知システム10における移動物体決定部33は、第1の輝度差分演算部330にて平滑化処理を行った第1の処理後画像TP11を用いる。
(構成例1その5 S3Aの平滑化処理について)
上述の平滑化処理(S3A2)の効果について、具体例を示しつつ以下に説明する。図20は、エレベータの乗場の明るさが不十分である場合において撮像される画像の一例を示す図である。
先ず、平滑化処理(上記S3A2)を行うことなく二値化画像を生成する場合について図22を用いて説明する。図22は、図20で示す撮像画像に対して平滑化処理を用いることなく処理した後の画像の一例について、各画素の値を可視化して全画素を一望するように示す図である。
例えば、図20で示す撮像画像を時点[t]における画像とする。図20で示す撮像画像と、図示を省略する時点[t-1]における撮像画像とを用いて、グレー画像を生成し(上記S3A1)、平滑化処理を行うことなく差分画像を生成する(上記S3A3)。そして、二値化処理を行う(上記S3A4)。この場合、図22に示すように、実際の移動物体に比べて、二値化画像において移動領域が過大に検出されてしまうことがある。
ここで、図22のような現象が生じる要因について説明すれば以下のとおりである。カメラ21は、一般に、乗場2の明るさを感知する機能を有しており、乗場2の明るさが減少するにつれてゲインを上げるようになっている。カメラ21のゲインが上昇すると、上記S3A1で取得した撮像画像に含まれるノイズが増大する。ノイズとは、撮像画像におけるチラつきのことである。
撮像画像に含まれるノイズが増大すると、平滑化処理を行うことなく差分画像を生成し二値化処理を行うことにより検出される移動領域は、移動物体1に比べて過大になる(図22を参照)。
次に、本実施形態の移動物体決定部33における第1の輝度差分演算部330によって、平滑化処理(上記S3A2)を行って二値化画像を生成する場合について図21を用いて説明する。図21は、図20で示す撮像画像に対して平滑化処理を用いて処理した後の画像の一例について、各画素の値を可視化して全画素を一望するように示す図である。
図20で示す撮像画像について、上記S3A1~上記S3A4の処理を行い、二値化画像を生成する場合、撮像画像に含まれるノイズを、平滑化処理(上記S3A2)を行うことによって除去することができ、図21に示すように、実際の移動物体の像に即した移動領域を検出することができる。
撮像画像に含まれるノイズが増大すると、実際の移動物体に比べて、移動領域が過大に検出されてしまう場合だけでなく、移動物体が存在しないのに、移動領域を検出してしまう場合もある。このような誤検出が生じる可能性を、第1の輝度差分演算部330によって低減することができる。
(構成例2)
本構成例における移動物体決定部33は、第1の輝度差分演算部330の実行する各種の処理にて用いられるフィルタサイズを限定する点で、前記構成例1と異なっている。
本構成例では、第1の輝度差分演算部330の実行する処理において、上記S3A5の膨張処理にて用いられるフィルタ(膨張処理フィルタ)および収縮処理にて用いられるフィルタ(収縮処理フィルタ)のサイズは、平滑化フィルタのサイズよりも大きいか、または平滑化フィルタのサイズと同じであるように設定されている。
一例では、膨張処理にて用いられるフィルタサイズが5×7、収縮処理にて用いられるフィルタサイズが5×5であり、平滑化フィルタのサイズが3×5である。
例えば、本構成例における第1の輝度差分演算部330は、グレー画像GP(t-1)およびグレー画像GP(t)の全ての画素について平滑化フィルタ(サイズが3×5)を用いて平滑化処理を行うことにより2枚の平滑化画像(グレー画像SGP(t-1)およびグレー画像SGP(t))を生成する。そして、第1の輝度差分演算部330は、これら2枚の平滑化画像を用いて生成した差分画像DP1(t)に対して二値化処理を行った後、膨張処理(フィルタサイズ:5×7)および収縮処理(フィルタサイズ:5×5)を行う。これにより、第1の処理後画像TP11を生成する。
また、別の例では、第1の輝度差分演算部330は、撮像画像P(t)および撮像画像P(t-1)の組、並びに、グレー画像GP(t-1)およびグレー画像GP(t)の組、のいずれか一方の組を用いて差分画像(第2の差分画像)を生成する。そして、当該差分画像の全ての画素について平滑化フィルタ(サイズが3×5)を用いて平滑化処理を行うことにより、差分画像DP1(t)を生成する。次いで、差分画像DP1(t)に対して二値化処理を行った後、膨張処理(フィルタサイズ:5×7)および収縮処理(フィルタサイズ:5×5)を行う。これにより、第1の処理後画像TP11を生成する。
上述のような、平滑化処理および膨張・収縮処理のフィルタサイズについての関係は、以下に述べるテスト1とテスト2を順に実施することで得られたものである。
平滑化処理および膨張・収縮処理のフィルタサイズについて、さまざまな組合せを試してみて、次のような不適な現象1となる組合せは採用しないことにするのがテスト1であり、不適な現象2となる組合せは採用しないことにするのがテスト2である。
不適な現象1:移動物体が実際に存在していない乗場を撮像した撮像画像に対して、移動物体決定部33による処理を行った場合、誤検出(移動物体領域を検出)してしまう。
不適な現象2:移動物体が実際に存在する、下記(i)~(iv)のような乗場を撮像した撮像画像に対して、移動物体決定部33による処理を行った場合、移動物体領域の抽出に漏れが生じてしまう。移動物体領域の抽出に漏れが生じてしまうとは、乗場に実際には存在する移動物体のうち少なくとも1つの移動物体が、移動物体領域として検出されない現象が生じてしまうことを意味する。
(i)移動物体1の輝度と背景の輝度との差が小さい(例えば人の服装と背景の色とが類似している)。背景としては、乗場における設置物または床面を含む。
(ii)移動物体1の大きさが小さい。
(iii)移動物体1の移動速度が小さい。
(iv)カメラ21の撮影範囲の中で、かご20から最も遠い領域に移動物体1が存在している。
本構成例2によれば、平滑化処理を用いることに伴って生じる抽出漏れ(後述の構成例3を参照)の可能性を低減することができる。
(構成例3)
前記構成例1では、乗場2の明るさが不十分である場合に誤検出が発生し易いという問題を鑑み、平滑化処理を含めるように処理を行う第1の輝度差分演算部330を備える移動物体決定部33について説明した。
ここで、前記構成例1における移動物体決定部33においては、第1の輝度差分演算部330を導入したことによって、以下のような副作用が生じ得る。
すなわち、前述のような誤検出が生じ得る状況とは反対に、乗場2の明るさが十分な場合、誤検出が発生し易いという問題はない。その一方で、明るさが十分な乗場2を撮像した撮像画像に対して、平滑化処理を含めるように処理を行うことにより、抽出漏れが発生してしまうことがある。抽出漏れとは、撮像画像中に移動物体1の像が含まれているにもかかわらず二値化画像において移動領域が無いと検出されてしまうことである。このような抽出漏れの発生を抑制する対策としては、乗場2の明るさが十分な場合、平滑化処理を行わないことが挙げられる。
したがって、或る1基のエレベータがサービスする階床の中に、明るさが不十分な階床と、明るさが十分な階床とがある場合、上記の問題を解決するには、明るさが不十分な階床では平滑化処理を用い、明るさが十分な階床では平滑化処理を用いないことにすればよい。
このような処理を実現するために、乗場2の明るさが不十分であるか否かについて、所定の判定処理を行う。これにより、平滑化処理を用いることに伴って乗場2の明るさが十分な場合に抽出漏れが生じ得る、という問題の発生を避けることができる。
以下、構成例3の移動物体決定部33Bについて、図1B、図3B、および図4Bを参照して説明する。図1Bは、移動物体決定部33Bを含む画像処理装置30の要部構成の一例を示すブロック図である。図1Bに示すように、移動物体決定部33Bには、第1の輝度差分演算部330、第2の輝度差分演算部331、オプティカルフロー演算部332、決定処理部334、および判定部335が含まれている。移動物体決定部33Bは、第2の輝度差分演算部331および判定部335を含む点で、前述の移動物体決定部33と異なっている。以下では、説明の便宜上、前記構成例1に関する説明にて参照した図面(図1A、図3A、図4A)に示した部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略する。
(構成例3その1 移動物体決定部33Bにおける処理の全体)
移動物体決定部33Bが実行する処理の流れについて、図3Bを参照して以下に説明する。図3Bは、移動物体決定部33Bを含む乗車検知システム10による乗車検知および戸開閉動作制御の処理の流れの一例を示すフローチャートである。本構成例の移動物体決定部33Bは、S30A、S3B、S4、S5の処理を実行する。以降では、S30A、S3B、S4の処理について述べる。
図3Bに示すように、移動物体決定部33Bは、先ず、(i)第1の輝度差分演算部330または第2の輝度差分演算部331と、(ii)オプティカルフロー演算部332と、が互いに並列に処理を行う(S30A、S3B)。
S30Aの処理において、先ず、判定部335は、乗場2の明るさが不十分であるか否か判定する処理(S31A)を実行する。移動物体決定部33Bは、S31Aの判定結果がYES(乗場2の明るさが不十分)である場合には第1の輝度差分演算部330を起動して処理(S3A)を実行する。また、移動物体決定部33Bは、S30Aの処理において、S31Aの判定結果がNO(乗場2の明るさが十分)である場合には第2の輝度差分演算部331を起動して処理(S32A)を実行する。上記S3Aについては、図3Aを参照して前述したことと同様であるため、以降では、S31A、S32Aの処理について述べる。但し、S31Aについては後述する。
(構成例3その2 S32A:第2の輝度差分演算部331による輝度差分演算)
平滑化処理を用いることなく実行される第2の輝度差分演算部331の処理(S32A)について、図4Bを用いて説明する。図4Bは、第2の輝度差分演算部331が実行する処理の流れの一例を示すフローチャートである。
前述のように第1の輝度差分演算部330では、上記S3A2(平滑化処理)および上記S3A3(差分画像生成)の出力に対して上記S3A4(二値化処理)を行っていた(図4Aを参照)。これに対して、図4Bに示すように、第2の輝度差分演算部331は、平滑化処理を行うことなく差分画像を生成し、二値化処理を実行する。
より詳しくは、第2の輝度差分演算部331は、第1の輝度差分演算部330における上記S3A1と同様の処理を行い、2枚のグレー画像を生成する(S32A1)。例えば、第2の輝度差分演算部331は、グレー画像GP(t-1)およびグレー画像GP(t)を生成する。そして、第2の輝度差分演算部331は、平滑化処理を行うことなく、差分画像を生成する処理(S32A2)を行い、その後、二値化処理(S32A3)、膨張処理および収縮処理(S32A4)、補間処理(S32A5)を実行する。これらS32A2~S32A5の処理は、それぞれ、第1の輝度差分演算部330が実行するS3A3~S3A6の処理と同様であるので、詳細な説明を省略する。
なお、第2の輝度差分演算部331により、上記S32A2にて生成された差分画像(第3の差分画像)を、差分画像DP2(t)と称する。具体的には、差分画像DP2(t)は、グレー画像GP(t-1)とグレー画像GP(t)とについて画素毎に輝度差を算出し、算出した輝度差が各画素に対応付けられて表される。また、差分画像DP2(t)について二値化処理を行うことにより、上記S32A3にて生成した画像を二値化画像BP2(t)と称する。
第2の輝度差分演算部331は、以上のような処理を行うことにより、第1の処理後画像TP12を生成する。第1の処理後画像TP12とは、第2の輝度差分演算部331による処理後の画像である。第1の処理後画像TP12では、各画素の値が「1」または「0」となっている。第1の処理後画像TP12における移動領域MAおよび移動領域情報については、前述した第1の輝度差分演算部330による処理後の画像(第1の処理後画像TP11)に関して説明したことと同様である。
(構成例3その3 S3B:オプティカルフロー演算)
移動物体決定部33Bが実行するS3Bの処理については、前述の移動物体決定部33と同様である。オプティカルフロー演算部332は、2枚の撮像画像として、上記S3Aまたは上記S32Aの輝度差分演算処理と時間的に対応する時点のデータを用いる。つまり、オプティカルフロー演算部332は、下記(i)または(ii)のように処理を行う。
(i)上記S31Aにおける判定の結果、第1の輝度差分演算部330を起動して上記S3Aの処理が実行される場合、第1の輝度差分演算部330が用いる撮像画像と時間的に対応する撮像画像を用いて、オプティカルフロー演算処理を実行する。
(ii)上記S31Aにおける判定の結果、第2の輝度差分演算部331を起動して上記S32Aの処理が実行される場合、第2の輝度差分演算部331が用いる撮像画像と時間的に対応する撮像画像を用いて、オプティカルフロー演算処理を実行する。
(構成例3その4 S3A、S32A、S3Bに関連する縮小処理について)
上記S3A、上記S32A、および上記S3Bに関連する縮小処理に関して説明すれば以下のとおりである。
上記S3Aの処理が実行される場合、または上記S32Aの処理が実行される場合、以下のいずれかのように処理を行う。
・画像取得部31からデータを取得後に縮小処理(上記第1の画素数→上記第2の画素数)を行う。
・画像取得部31にて縮小処理(上記第1の画素数→上記第2の画素数)が行われて記憶部32に保存されていたデータを、第1の輝度差分演算部330または第2の輝度差分演算部331が取得して用いる。
上記S3Bの処理では、以下のいずれかのように処理を行う。
・画像取得部31からデータを取得後に縮小処理(上記第1の画素数→上記第3の画素数)を行う。
・画像取得部31にて縮小処理(上記第1の画素数→上記第3の画素数)が行われて記憶部32に保存されていたデータを、オプティカルフロー演算部332が取得して用いる。
(構成例3その5 S4:物体候補領域設定)
上記S30AおよびS3Bの処理が行われた後、物体候補領域設定部334Aは、以下のような処理を行う。
決定処理部334における物体候補領域設定部334Aは、(i)第1の輝度差分演算部330若しくは第2の輝度差分演算部331の処理結果、並びに(ii)オプティカルフロー演算部332の処理結果を用いて、画像中の物体候補領域を設定する(S4)。
具体的には、上記S30Aにおいて上記S3Aを実行した場合、物体候補領域設定部334Aは、上記S3Aにおける出力である第1の処理後画像TP11と、上記S3Bにおける出力である第2の処理後画像TP2とを重ね合わせることにより、1つの画像として生成する。一例では、物体候補領域設定部334Aは、第1の処理後画像TP11を縮小処理した第3の画素数を有する上記画像TP1’と、第3の画素数を有する第2の処理後画像TP2とを重ね合わせる。これにより、前述の第3の処理後画像TP3を生成し、物体候補領域を設定する。
或いは、上記S30Aにおいて上記S32Aを実行した場合、物体候補領域設定部334Aは、上記S32Aにおける出力である第1の処理後画像TP12と、上記S3Bにおける出力である第2の処理後画像TP2とを重ね合わせることにより、1つの画像として生成する。一例では、物体候補領域設定部334Aは、第1の処理後画像TP12を縮小処理した第3の画素数を有する上記画像TP1’と、第3の画素数を有する第2の処理後画像TP2とを重ね合わせる。これにより、前述の第3の処理後画像TP3を生成し、物体候補領域を設定する。
(構成例3その6 S31Aの一例)
本構成例の移動物体決定部33Bにおける判定部335の処理S31Aについて、以下に説明する。
判定部335は、エレベータのかご20が或る階床に到着した場合、以下のように判定処理を行う。
ここで、一構成例では、かご20の到着した階床の情報が、制御装置40(またはかご20の昇降動作の制御を行う、乗車検知システム10の外部の装置等)から、画像処理装置30に送信されている。また、エレベータの設置されている建物における複数の階床のそれぞれについて、乗場2の明るさが十分な階床には値「1」、乗場2の明るさが不十分な階床には値「0」が対応付けられて構成されたテーブル(各階床について判定結果が対応付けられたデータセット)が、例えば移動物体決定部33Bの記憶部(不図示)に格納されている。
上記テーブルは、例えば、エレベータの設置されている建物における複数の階床のそれぞれの乗場2の明るさが十分であるか否かを予め評価した結果に基づいて、人が予め作成することができる。上記テーブルの作成方法について、詳しくは後述する。
判定部335は、上記テーブルを参照して、かご20の到着した階床に値「0」が対応付けられている場合、乗場2の明るさが不十分であると判定する(S31AでYES)。
一方、判定部335は、かご20の到着した階床の情報を用いて、上記テーブルを参照して、かご20の到着した階床に値「1」が対応付けられている場合、乗場2の明るさが十分であると判定する(S31AでNO)。
なお、判定部335は、カメラ21によって撮像される場面(階床、時間帯、等)に対して、乗場2の明るさが十分であるか否かを対応付けた情報を用いることができ、このような情報を「撮像場面ごと明るさ情報」と称する。上記したテーブルは撮像場面ごと明るさ情報の一例である。
また、乗場2を撮像するに際して取得される、画像を撮像される場面(階床、時刻等)に関する情報を「撮像場面情報」と称する。
判定部335は、(i)上記S30Aにて処理を行おうとしている画像に対応する上記撮像場面情報と、(ii)上記撮像場面ごと明るさ情報と、に基づいて、上記S31Aの判定を行えばよい。
(構成例3その7 S31Aの他の一例)
なお、判定部335は、例えば、時間に基づいて判定を行ってもよい。具体的には、撮像場面情報は、乗場2を撮像した時刻(処理対象とする画像を撮像した時刻)の情報であってもよい。一構成例では、かご20が或る階床に到着してかご戸22が開いた際に、例えば移動物体決定部33Bの内部に備えた計時用IC(リアルタイムクロック等)から、その時点における時刻(現在時刻)を読み出す。
また、一構成例では、撮像場面ごと明るさ情報として、一日をいくつかの時間帯に分割し、複数の時間帯のそれぞれに、明るさ十分(例えば値「1」)か、明るさ不十分(例えば値「0」)か、を対応付けたテーブルを予め作成する。当該テーブルは、例えば移動物体決定部33Bの記憶部(不図示)に格納されている。上記複数の時間帯は、特に限定されないが、例えば下記(i)~(iii)のように3つの時間帯を設定することができる;
(i)0時(0時00分を含む)から5時まで(5時00分を含まない)、
(ii)5時(5時00分を含む)から18時まで(18時00分を含まない)、
(iii)18時(18時00分を含む)から24時まで(24時00分を含まない)。
判定部335は、乗場2を撮像した時刻の情報を用いて、上記テーブルを参照して、処理対象とする画像を撮像した時刻が、値「0」が対応付けられている時間帯に含まれている場合、乗場2の明るさが不十分であると判定する(S31AでYES)。
一方、判定部335は、乗場2を撮像した時刻の情報を用いて、上記テーブルを参照して、処理対象とする画像を撮像した時刻が、値「1」が対応付けられている時間帯に含まれている場合、乗場2の明るさが十分であると判定する(S31AでNO)。
(構成例3その8 S31Aのさらに他の一例)
乗車検知システム10に例えば乗場2の明るさを検出するための照度センサが含まれていてもよく、この場合、照度センサにて検出された検出値を前述の撮像場面情報として用いることができる。また、この場合、前述の撮像場面ごと明るさ情報に代替して、判定部335における判定に用いられる基準値が予め設定されていればよい。
一構成例では、かご20が或る階床に到着してカメラ21によって乗場2の撮像が開始された際に、移動物体決定部33Bは、上記照度センサの検出値を取得する。判定部335は、取得した検出値と、予め設定された基準値とを比較する。例えば、検出値が基準値以下の場合、乗場2の明るさが不十分であると判定する(S31AでYES)。
一方、判定部335は、検出値が基準値を超える場合、乗場2の明るさが十分であると判定する(S31AでNO)。
(構成例3その9 S31A使用テーブルの作成方法1)
撮像場面ごと明るさ情報の一例としての上記テーブルを予め作成する方法について以下に説明する。ここでは、上述のような、乗場2の明るさが十分な階床には値「1」、乗場2の明るさが不十分な階床には値「0」が対応付けられて構成されたテーブルの作成方法について説明する。
一例では、移動物体1が存在しないときのエレベータの乗場2をカメラ21により撮像した画像を用いて、乗場の明るさが不十分であるか否かを判定する。移動物体1が存在しないときのエレベータの乗場2をカメラ21により撮像した画像を標準画像SPと称する。カメラ21により撮像した標準画像SPは、例えば記憶部32に格納される。この標準画像SPは、カメラ21(典型的にはカメラの機種)と紐付けられる。カメラ21によって標準画像SPを撮像する作業は、例えば、エレベータが利用されていないとき、またはエレベータの利用を一時的に停止した状態にて行うことができる。
例えば、画像処理装置30内に演算装置(図1Bにおいて不図示)を設け、エレベータが利用されていないとき、またはエレベータの利用を一時的に停止した状態で、以下を実行させる。
・移動物体1が存在しないときのエレベータの乗場2をカメラ21により撮像する。
・撮像した標準画像SPをグレースケールに変換し、グレー画像GSPを生成する。
・グレー画像GSPに含まれる全画素の輝度の平均値GLAVを予め算出する。
・算出された上記平均値GLAVが平均輝度閾値を超える階床であるか、算出された上記平均値GLAVが平均輝度閾値以下の階床であるかを判定した結果に基づいて、上記テーブルを作成する。
この平均輝度閾値は、例えば、平滑化処理を用いることによって誤検出を防止できる点と、平滑化処理を用いないことによって抽出漏れを防止できる点とを勘案して、妥当な値として決定される。
平均輝度閾値は、例えば、以下のように決定されてよい。様々な乗場(照度、設置物、または床面の色、等を変化させた乗場)について標準画像SPを撮像し、標準画像SPについて移動物体決定部33Bによる処理を行い、誤検出が発生するか否かを調査する。具体的には、標準画像SPから抽出される移動領域MAが所定値V1以上であるか否かを評価する。
そして、誤検出が発生したすべての標準画像SPについて、それぞれ平均値GLAVを算出し、算出した平均値GLAVの中で最も大きかった値を、平均輝度閾値として決定する。
(構成例3その10 S31A使用テーブルの作成方法2)
なお、グレースケールへの変換を行うことなく、カラー画像から直接、平均輝度を算出することもできる。移動物体決定部33または移動物体決定部33Bがカラー画像を用いて処理を行う場合、標準画像SPに含まれる全画素の輝度の平均値LAVは、演算装置を用いて例えば以下のように算出される。
演算装置を用いて、標準画像SPに含まれるすべての画素が有する3つの成分のそれぞれについて平均値を求める。具体的には、画像が3つの画素Pix1、Pix2、Pix3からなるとすると、演算装置を用いて、画素Pix1のR成分、画素Pix2のR成分、および画素Pix3のR成分の平均値R´を算出する。
同様に、演算装置を用いて、G成分およびB成分についてもそれぞれ平均値G´および平均値B´を算出する。そして、算出したR成分の平均値R´、B成分の平均値B´、およびG成分の平均値G´を用いて、下記式(2)に基づいて、標準画像SPに含まれる全画素の輝度の平均値LAVを算出する。
0.299×R´+0.587×G´+0.114×B´=LAV ・・・(2)
なお、上記の方法に限定されず、その他の方法を用いて標準画像SPに含まれる全画素の輝度の平均値LAVを算出してもよい。
例えば、演算装置を用いて、平均値R´、平均値B´および平均値G´のうちの最大値と最小値との平均値を、標準画像SPに含まれる全画素の輝度の平均値LAVとして算出してもよい。
或いは、演算装置を用いて、平均値R´、平均値B´および平均値G´のうちの最大値を、標準画像SPに含まれる全画素の輝度の平均値LAVとして算出してもよい。
(構成例4)
本構成例における移動物体決定部33Bは、第1の輝度差分演算部330の実行する各種の処理にて用いられる次のパラメータを限定する点で、前記構成例3と異なっている。
・膨張および収縮処理のフィルタサイズ
・膨張処理の回数
・二値化処理の閾値
これらのパラメータを以下述べるように限定することで、平滑化処理を用いることに伴って生じる抽出漏れの可能性を低減することができる。
一例では、第1の輝度差分演算部330の実行する上記S3Aにおいて用いられる膨張処理フィルタおよび収縮処理フィルタのサイズは、第1の輝度差分演算部330にて用いられる平滑化フィルタのサイズよりも大きいか、または平滑化フィルタのサイズと同じであるように設定されている。
一例では、第1の輝度差分演算部330の実行する上記S3Aにおいて、膨張処理にて用いられるフィルタサイズが5×7、収縮処理にて用いられるフィルタサイズが5×5であり、第1の輝度差分演算部330にて用いられる平滑化フィルタのサイズが3×5である。
一例では、第1の輝度差分演算部330の実行する上記S3A5(図4Aを参照)の膨張処理の回数と、第2の輝度差分演算部331の実行する上記S32A4(図4Bを参照)の膨張処理の回数と、は互いに同じであってもよい。
また、上記S3A5の膨張処理の回数は、上記S32A4の膨張処理の回数よりも多いことが好ましい。なぜならば、平滑化処理を行う方が、平滑化処理を行わない場合よりも画像が滑らかとなり、二値化処理後の画素値が「1」(例えば白)となる画素が出にくくなる。そのことを是正するために、膨張処理の回数を多くすることが好ましいからである。
第1の輝度差分演算部330の実行する上記S3A4における第1の二値化閾値と、第2の輝度差分演算部331の実行する上記S32A3における第2の二値化閾値とは互いに同じであってもよい。
また、第1の二値化閾値は、第2の二値化閾値よりも小さいことが好ましい。なぜならば、平滑化処理を行う方が、平滑化処理を行わない場合よりも画像が滑らかとなり、二値化処理後の画素値が「1」(例えば白)となる画素が出にくくなる。そのことを是正するために、第1の二値化閾値を小さくすることが好ましいからである。
(変形例1)
(変形例1その1 背景画像を用いる輝度差分演算処理について)
上述の実施形態では、異なる時点における2枚の撮像画像を用いる例について説明したが、これに限定されない。一変形例では、上記S3A(S3A1)および上記S32A(S32A1)にて以下のように処理を行ってもよい。
第1の輝度差分演算部330または第2の輝度差分演算部331は、時点[t]における撮像画像P(t)と、予め撮像した背景画像とを用いて処理を行ってもよい。この場合、第1の輝度差分演算部330または第2の輝度差分演算部331は、背景差分法、統計的背景差分法、等を用いて、第1の処理後画像TP11,12から移動領域MAを抽出する。背景差分法を用いる場合の背景画像は、例えば、事前に準備した、カメラ21の撮像視野において無人の状態(移動物体が存在しない状態)の乗場を、カメラ21により撮像した画像である。また、統計的背景差分法を用いる場合、複数の画像から統計的に判定して得られる背景画像(背景モデル)を用いればよい。
(変形例1その2 縮小処理について)
本変形例は、上記S3A(S3A1)、上記S32A(S32A1)、上記S3B、および上記S4に関連する。
(a)上記S3A等の処理において、縮小処理は、処理効率の向上を図るために行われ得るものであって必須の処理ではない。そのため、上記S3A等の処理において縮小処理が行われなくてもよい。具体的には、以下のとおりである。
すなわち、画像取得部31は、2枚の撮像画像を取得した際に、上記第1の画素数を有する画像に対して縮小処理を行わなくてもよい。そして、上記S3Aの処理において、第1の輝度差分演算部330は、縮小処理を行うことなく、前述の第1の画素数を有する2枚の画像を対象として、平滑化処理を用いて輝度の差分に基づく演算処理を実行してもよい。また、上記S32Aの処理において、第2の輝度差分演算部331は、縮小処理を行うことなく、前述の第1の画素数を有する2枚の画像を対象として、平滑化処理を用いることなく輝度の差分に基づく演算処理を実行してもよい。
また、上記S3Bの処理において、オプティカルフロー演算部332は、縮小処理を行うことなく、前述の第1の画素数を有する画像を対象として、オプティカルフロー演算処理を実行してもよい。
(b)上記S4の処理において、物体候補領域設定部334Aは、第1の処理後画像TP11の画素数と、第2の処理後画像TP2の画素数と、が互いに異なる場合、少なくとも一方の画像について縮小処理を行う。物体候補領域設定部334Aは、第1の処理後画像TP11および第2の処理後画像TP2の少なくとも一方に縮小処理を行うことによって、同じ画素数を有する2つの画像とし、当該2つの画像を互いに重ね合わせることにより、第3の処理後画像TP3を生成すればよい。
(変形例1その3 平滑化処理の順序について)
本変形例は、上記S3A(S3A2~S3A3)に関連する。
第1の輝度差分演算部330は、上記S3A1と上記S3A4との間の処理において、以下のように順序にて処理を行ってもよい。
すなわち、第1の輝度差分演算部330は、差分画像を生成する処理(S3A3、図4A参照)の後に、生成した差分画像に対して上記平滑化処理(S3A2)を行ってもよい。すなわち、例えば、グレー画像GP(t-1)とグレー画像GP(t)との差分画像(第2の差分画像)の全ての画素について平滑化フィルタを用いて平滑化処理を行うことにより、差分画像DP1(t)を生成してもよい。本明細書において、このように生成した差分画像DP1(t)についても平滑化画像と称する。
(変形例1その4 カラー画像を処理対象画像とする場合について)
本変形例は、上記S3A(S3A2~S3A3)に関連する。
判定部335、第1の輝度差分演算部330、および第2の輝度差分演算部331は、グレースケール変換処理を行うことなく、カラー画像である撮像画像P(t)および撮像画像P(t-1)を用いて処理を行うようになっていてもよい。この場合、例えば以下のように処理を行うことができる。以下の説明では、カラーの画像に含まれる画素は、R、G、Bの3つの成分を有するとする。
移動物体決定部33または移動物体決定部33Bがカラー画像を用いて処理を行う場合、第1の輝度差分演算部330は、グレースケール処理を行う前の撮像画像P(t)(および撮像画像P(t-1))に対して平滑化処理を行う。例えば、カラー画像に対して、以下のようにガウシアンフィルタ処理を行う。ここでは、3×3サイズのガウシアンフィルタを用いる場合を例示する。
第1の輝度差分演算部330は、撮像画像(t)に含まれる画素のうち注目画素FPのRGB各成分について、注目画素FPおよび注目画素FPの周囲の8個の画素のそれぞれにおけるRGB各成分を用いて、前述の式(1)によって値を算出する。そして、RGB成分それぞれについて算出した値を、注目画素FPにおけるフィルタ処理後のRGB成分の値とする。
第1の輝度差分演算部330は、撮像画像P(t)および撮像画像P(t-1)の全ての画素について上述の演算を行い、平滑化処理を行った撮像画像P(t-1)および平滑化処理を行った撮像画像P(t)を生成する。
そして、第1の輝度差分演算部330は、以下のように差分画像を生成する処理を行う。ここでは、説明の平明化のために、画像中の或る1つの画素PixAに着目して説明する。
平滑化処理を行った撮像画像P(t-1)に含まれる画素PixA(t-1)のR成分と、平滑化処理を行った撮像画像P(t)に含まれる、画素PixA(t-1)に対応する位置の画素PixA(t)のR成分と、の差を算出する。そして、当該差の値を、差分画像DP1(t)における上記画素PixAの有するR成分とする。第1の輝度差分演算部330は、上記画素PixAのG成分およびB成分についても同様に処理を行う。
次いで、第1の輝度差分演算部330は、差分画像DP1(t)における上記画素PixAに対して、二値化処理を行う。例えば、第1の輝度差分演算部330は、差分画像DP1(t)における上記画素PixAのRGB各成分の全てが予め設定された所定の閾値以上であれば、二値化処理後の画像における画素PixAの画素値を「1」(例えば白)とする。一方、差分画像DP1(t)における画素PixAのRGB各成分のうち少なくともいずれか1つが所定の閾値未満であれば、二値化処理後の画像における画素PixAの画素値を「0」(例えば黒)とする。
なお、上記の二値化方法に限定されず、その他の方法を用いて二値化処理を行ってもよい。例えば、第1の輝度差分演算部330は、差分画像DP1(t)における上記画素PixAのRGB各成分のうち少なくともいずれか1つが予め設定された所定の閾値以上であれば、二値化処理後の画像における画素PixAの画素値を「1」としてもよい(この場合、RGB各成分の全てが所定の閾値未満の場合は「0」とする)。
また、例えば、第1の輝度差分演算部330は、差分画像DP1(t)における上記画素PixAのRGB各成分の輝度値の平均値を算出し、当該平均値に基づいて二値化処理を行ってもよい。具体的には、上記平均値が所定の閾値以上であれば二値化処理後の画像における画素PixAの画素値を「1」とし、上記平均値が所定の閾値未満であれば二値化処理後の画像における画素PixAの画素値を「0」としてもよい。
第1の輝度差分演算部330は、上述の処理を差分画像DP1(t)に含まれる全ての画素について行い、二値化画像BP1(t)を生成する。
なお、前述のように、第1の輝度差分演算部330は、差分画像を生成する処理の後に平滑化処理を行ってもよく、この場合においても以上に説明したことと同様に処理を行うことができる。
具体的には、第1の輝度差分演算部330は、撮像画像P(t)に含まれる全ての画素のそれぞれのRGB各成分と、撮像画像P(t)に含まれる全ての画素のそれぞれのRGB各成分との差を算出する。これに得られた差の値を各画素に対応付けることにより差分画像DP1(t)を生成する。そして、生成した差分画像DP1(t)に対して平滑化処理を行う。平滑化処理を行った差分画像DP1(t)の各画素におけるRGB成分について前述のように所定の規則に基づいて二値化処理を行い、二値化画像BP1(t)を生成する。
(変形例1その5 膨張・収縮処理および補間処理について)
本変形例は、上記S3A(S3A5、S3A6)および上記S32A(S32A4、S32A5)に関連する。
第1の輝度差分演算部330または第2の輝度差分演算部331は、処理全体の中で、膨張処理、収縮処理、および補間処理については、二値化画像BPにおいて移動領域MAの輪郭を明確化するのが主目的である。そのため、補間処理は省略してもよい。さらには、膨張処理および収縮処理も省略することができる。これらの処理を省略した場合であっても、決定処理部334は、第1の輝度差分演算部330または第2の輝度差分演算部331により生成した二値化画像BPを用いて、移動領域MAの輪郭を抽出することが可能だからである。
(小括1)
[1]以上のように、構成例1における画像処理装置30は、エレベータの乗場2をカメラ21にて撮像した画像を取得する画像取得部31と、所定の時間差を有する2つの時点のそれぞれにて前記画像を撮像して得られた2枚の前記画像について平滑化処理を用いて輝度の差分に基づく演算処理を行うことにより、前記画像における動きの有る移動領域に関する移動領域情報を生成する第1の輝度差分演算部330と、前記移動領域情報に対応する前記2つの時点における2枚の前記画像についてオプティカルフロー演算処理を行うことにより、前記画像中の各画素のオプティカルフローを算出するオプティカルフロー演算部332と、前記画像中の各画素の前記オプティカルフローを分類した画素方向情報を、前記移動領域の各画素に対応付けることによって、前記乗場に存在する移動物体に対応する像を前記画像中にて示す移動物体領域MOAを決定する決定処理部334と、を備えていることを特徴とする。
上記構成によれば、平滑化処理を用いて輝度の差分に基づく演算処理を行うことにより移動領域を抽出する。そのため、明るさの不十分な乗場2を撮像した画像からでも、誤検出を防止して、移動物体1に見合った的確な移動領域MAを抽出することができる。そして、誤検出を防止しつつ検出した移動領域MAの各画素に、画素方向情報を対応付けることによって移動物体領域MOAを決定する。これにより、移動方向が異なる複数の移動物体1を1つの移動領域MAとして検出するような場合であっても、移動領域MAとして検出された複数の移動物体1を、適切に、複数の移動物体領域MOAに分割して認識することができる。
[2]構成例1に、2枚の前記画像について前記平滑化処理を用いることなく輝度の差分に基づく演算処理を行うことにより前記移動領域情報を生成する第2の輝度差分演算部331を追加して、構成例3としてもよい。構成例3における決定処理部334は、(i)第1の輝度差分演算部330により生成された前記移動領域情報の各画素に前記画素方向情報を対応付けること、および(ii)第2の輝度差分演算部331により生成された前記移動領域情報の各画素に前記画素方向情報を対応付けること、のいずれか一方によって、移動物体領域MOAを決定する。
上記構成によれば、画像処理装置30は、例えば乗場2の明るさが不十分な場合は撮像画像に対して平滑化処理を用いて輝度の差分に基づく演算処理を行い、乗場2の明るさが十分な場合は撮像画像に対して平滑化処理を用いることなく輝度の差分に基づく演算処理を行う。これにより、平滑化処理を用いることに伴って乗場2の明るさが十分な場合に抽出漏れが生じ得る、という問題の発生を避けることができる。
[3]構成例3における画像処理装置30において、複数の乗場2にてカメラ21により前記画像が撮像される場面のそれぞれに対して乗場2の明るさが十分であるか否かを対応付けた、撮像場面ごと明るさ情報が予め記憶されている。そして、画像処理装置30は、乗場2を撮像するに際して、前記画像を撮像した乗場2の場面に関する撮像場面情報を取得し、前記撮像場面情報と前記撮像場面ごと明るさ情報とに基づいて、乗場2の明るさが不十分であるか否か判定する。画像処理装置30は、乗場2の明るさが不十分と判定された場合には第1の輝度差分演算部330を起動して前記移動領域情報を生成し、乗場2の明るさが十分と判定された場合には第2の輝度差分演算部331を起動して前記移動領域情報を生成する。
[4]構成例3における画像処理装置30において、前記撮像場面ごと明るさ情報は、エレベータの設置されている建物における複数の階床のそれぞれに対して乗場2の明るさが十分か否かを対応付けたものであり、前記撮像場面情報は、前記エレベータのかご20が到着した階床の情報であってもよい。
[5]構成例3における画像処理装置30において、前記撮像場面ごと明るさ情報は、複数の時間帯のそれぞれに対して乗場2の明るさが十分か否かを対応付けたものであり、前記撮像場面情報は、前記エレベータのかごが前記乗場に到着した時刻の情報であってもよい。
[6]構成例3における画像処理装置30において、前記撮像場面ごと明るさ情報は、移動物体1が存在しないときの乗場2を撮像した前記画像における全画素の輝度の平均値を求め、前記平均値が所定の閾値を超える場合、当該乗場2の明るさが十分であり、前記平均値が所定の閾値以下である場合、当該乗場2の明るさが不十分であると判定した結果に基づいて、設定されていてもよい。
[7]構成例1における画像処理装置30において、第1の輝度差分演算部330は、2枚の前記画像、および2枚の前記画像をそれぞれグレースケール変換した2枚のグレー画像、のいずれか一方の組に対して前記平滑化処理を行うことにより2枚の平滑化画像を生成し、2枚の前記平滑化画像を用いて生成した第1の差分画像に対して二値化処理を行う、または、2枚の前記画像、および2枚の前記グレー画像、のいずれか一方の組を用いて生成した第2の差分画像に対して前記平滑化処理を行うとともに二値化処理を行ってもよい。
[8]構成例1からの追加点として、第1の輝度差分演算部330を以下のように設定することで構成例2としてもよい。構成例2における第1の輝度差分演算部330は、前記二値化処理により生成される二値化画像について膨張処理および収縮処理を行うようになっており、前記膨張処理および前記収縮処理にて用いられるフィルタサイズが、前記平滑化処理にて用いられる平滑化フィルタのサイズよりも大きくなる、または前記平滑化フィルタのサイズと同じになるように設定されている。
上記構成によれば、平滑化処理を用いることに伴って生じる抽出漏れの可能性を低減することができる。
[9]構成例3における画像処理装置30において、第1の輝度差分演算部330は、2枚の前記画像、および2枚の前記画像をそれぞれグレースケール変換した2枚のグレー画像、のいずれか一方の組に対して前記平滑化処理を行うことにより2枚の平滑化画像を生成し、2枚の前記平滑化画像を用いて生成した第1の差分画像に対して二値化処理を行う、または、2枚の前記画像、および2枚の前記グレー画像、のいずれか一方の組を用いて生成した第2の差分画像に対して前記平滑化処理を行うとともに二値化処理を行い、第2の輝度差分演算部331は、2枚の前記画像、および2枚の前記グレー画像、のいずれか一方の組を用いて生成した第3の差分画像に対して二値化処理を行ってもよい。
[10]構成例3からの追加点として、第1の輝度差分演算部330および第2の輝度差分演算部331を以下のように設定することで構成例4としてもよい。構成例4における画像処理装置30では、前記第1の輝度差分演算部で行われる二値化処理で用いる閾値は、前記第2の輝度差分演算部で行われる二値化処理で用いる閾値よりも大きい。
[11]構成例4における画像処理装置30において、前記第1の輝度差分演算部および前記第2の輝度差分演算部は、前記二値化処理により生成される二値化画像について膨張処理および収縮処理を行うようになっており、下記(1)または(2)のように設定されていてもよい;
(1)前記第1の輝度差分演算部は、前記膨張処理および前記収縮処理にて用いられるフィルタサイズが、前記平滑化処理にて用いられる平滑化フィルタのサイズよりも大きくなる、または前記平滑化フィルタのサイズと同じになるように設定されている、
(2)前記第1の輝度差分演算部で行われる膨張処理の回数は、前記第2の輝度差分演算部で行われる膨張処理の回数よりも多い。
上記[10]または[11]の構成によれば、平滑化処理を用いることに伴って生じる抽出漏れの可能性を低減することができる。
[12]構成例1における画像処理装置30において、前記第1の輝度差分演算部は、前記平滑化処理においてガウシアンフィルタを用いてもよい。
[13]構成例1における画像処理装置30において、前記移動領域は、2枚の前記画像について輝度差が所定の閾値以上である画素が連続している領域であり、前記移動領域情報は、画像中の各画素について、画像中における何れの前記移動領域に属している画素か、または前記移動領域に属していない画素か、を示す情報であってもよい。
[14]構成例1は、画像処理装置について述べているだけでなく、画像処理方法についても述べている。
構成例1における画像処理方法は、エレベータの乗場をカメラにて撮像した画像を取得する画像取得ステップと、所定の時間差を有する2つの時点のそれぞれにて前記画像を撮像して得られた2枚の前記画像について平滑化処理を用いて輝度の差分に基づく演算処理を行うことにより、前記画像における動きの有る移動領域に関する移動領域情報を生成する第1の輝度差分演算ステップと、前記移動領域情報に対応する前記2つの時点における2枚の前記画像についてオプティカルフロー演算処理を行うことにより、前記画像中の各画素のオプティカルフローを算出するオプティカルフロー演算ステップと、前記画像中の各画素の前記オプティカルフローを分類した画素方向情報を、前記移動領域の各画素に対応付けることによって、前記乗場に存在する移動物体に対応する像を前記画像中にて示す移動物体領域を決定する決定処理ステップと、を含むことを特徴とする。
(追跡)
ここまで、画像処理装置30の移動物体決定部33が実行する、移動物体領域MOAを決定する処理について説明してきた。以下では、物体追跡部34が実行する、移動物体領域MOAをフレーム間(時系列的に連続する画像間)で追跡する処理について説明する。なお、本実施形態では、図3におけるS1~S5の処理に引き続いて物体追跡部34が実行する処理について説明するが、本発明の一態様における画像処理装置30はこれに限定されない。つまり、公知の方法(例えば各種のセンサを利用する方法等)を用いて画像中の移動物体の像を示す領域を決定する処理を行った結果に基づいて、以下に説明する物体追跡部34の処理を適用することも可能である。この場合、以下の記載における移動物体領域MOAを、公知の方法にて決定した領域に読み替えればよい。
上記公知の方法として、例えば、測距離型センサ(レーザレーダやミリ波レーダ等)により人物を検知した情報を使用して、画像中の人物の場所を特定する方法が知られている(例えば特許第5473801号を参照)。
再び図1および図3を参照して、移動物体決定部33によるS5の処理(移動物体決定ステップ)が行われた後、次いで、物体追跡部34は、以下のような処理を行うことにより、移動物体領域MOAにて示される移動物体を追跡する処理を行う(S6:追跡処理ステップ)。具体的には、物体追跡部34は、移動物体決定部33にて決定した移動物体領域MOAを追跡対象として、或るフレームにて追跡対象とした移動物体領域MOAが、所定時間後のフレームにおける何れの移動物体領域MOAに対応するかを判定する。より詳しくは、時点[t]における画像中の或る1つの移動物体領域MOA(第1の移動物体領域)にて像が示される移動物体を処理対象物体とし、時点[t+1]における画像中の、前記処理対象物体と同一の移動物体に対応する像を示す移動物体領域MOA(第2の移動物体領域)を対応物体領域として、物体追跡部34は、前記対応物体領域を特定する処理を行う。
図10は、物体追跡部34における処理の概要について説明するための図である。図10に示すように、物体追跡部34に含まれる図形設定部341は、時点[t]における移動物体領域MOAを囲う矩形の対応図形S1(t)を設定するとともに、時点[t+1]における移動物体領域MOAを囲う矩形の対応図形S1(t+1)を設定する。そして、重なり度算出部342は、時点[t]および時点[t+1]の画像を重ね合わせるとともに、対応図形S1(t)と対応図形S1(t+1)との重なり度を算出する。そして、追跡処理部343は、重なり度算出部342にて算出した重なり度に基づいて、時点[t]における或る移動物体領域MOA(t)に対応する、時点[t+1]における移動物体領域MOA(t+1)を判定する処理を行う。これにより、フレーム間で移動物体領域MOAを追跡する処理を行う。上記重なり度は、典型的には、対応図形S1(t)に対し対応図形S1(t+1)が重なっている画素数にて表される。なお、重なり度は画素数に必ずしも限定されず、重なり度を表すために用いられる公知の手法を適用してもよい。本実施形態では、2つの図形間で重複する画素数を重なり度とする手法を用いる例について説明する。
物体追跡部34が実行する上記S6の処理の流れについて、図11を用いて以下に説明する。図11は、物体追跡部34が実行する追跡処理の流れの一例を示すフローチャートである。
図11に示すように、先ず、図形設定部341は、時点[t]における画像(第1の画像)および時点[t+1]における画像(第2の画像)に含まれる複数の移動物体領域(以下、移動物体領域群と称することがある)のそれぞれについて、例えば外接矩形を設定する(S60:図形設定ステップ)。この外接矩形とは、移動物体領域MOAを囲うとともに、該移動物体領域MOAの外縁に4辺が接する矩形である。例えば、図10に示された対応図形S1(t)および対応図形S1(t+1)に示すような外接矩形を設定する。
図形設定部341は、時点[t]における画像中に含まれる複数の移動物体領域(第1の移動物体領域)にそれぞれ対応する複数の対応図形(第1の対応図形)を設定する。また、図形設定部341は、時点[t+1]における画像中に含まれる複数の移動物体領域(第2の移動物体領域)にそれぞれ対応する複数の対応図形(第2の対応図形)を設定する。
本実施形態では、時点[t]における画像に含まれる移動物体領域群(t)は、例えば4つの移動物体領域MOAを含む。以下、説明の便宜上、これら4つの移動物体領域MOAをそれぞれ移動物体領域MOAa(t)、移動物体領域MOAb(t)、移動物体領域MOAc(t)、移動物体領域MOAd(t)と称することとする。同様に、時点[t+1]における画像に含まれる移動物体領域群(t+1)には、4つの移動物体領域MOAとして、移動物体領域MOAa(t+1)、移動物体領域MOAb(t+1)、移動物体領域MOAc(t+1)、移動物体領域MOAd(t+1)が含まれているとする。また、以下の説明において、これら移動物体領域MOAa(t+1)、・・・移動物体領域MOAd(t+1)のいずれかを示すように記載する場合、移動物体領域MOAx(t+1)と称することがある。
図形設定部341は、移動物体領域MOAa(t)~移動物体領域MOAd(t)および移動物体領域MOAa(t+1)~移動物体領域MOAd(t+1)のそれぞれについて、対応図形として外接矩形を設定する。
重なり度算出部342は、時点[t]における画像に含まれる移動物体領域群(t)の中から、処理対象とする1つの移動物体領域MOAa(t)を選択する(S61)。そして、重なり度算出部342は、時点[t+1]における画像に含まれる移動物体領域群(t+1)の中から、処理対象とする1つの移動物体領域MOAa(t+1)を選択する(S62)。
次いで、重なり度算出部342は、上記S61にて選択した移動物体領域MOAa(t)の外接矩形(第1の対応図形)に対し、上記S62にて選択した移動物体領域MOAa(t+1)の外接矩形(第2の対応図形)が重なっている画素数を互いの重なり度として算出する(S63:重なり度算出ステップ)。
追跡処理部343は、算出した重なり度が所定の基準値α1(単位は例えばpix)未満の場合(S64でNO)、後述するS65およびS66の処理を行うことなく、S67の処理を実行する。上記基準値α1の具体的な値は特に限定されず、適宜設定されてよい。
追跡処理部343は、算出した重なり度が所定の基準値α1以上の場合(S64でYES)、以下の処理を行う。
(物体方向情報が無方向Gr0であることを解消する処理)
移動物体領域MOAa(t+1)について、物体方向情報が無方向Gr0の値を有する場合に、物体方向情報が無方向Gr0となっていることを解消する解消処理を実行する(S65)。この解消処理について、図12を用いて以下に説明する。図12は、上記解消処理の一例を示すフローチャートである。
図12に示すように、追跡処理部343は、移動物体領域MOAa(t+1)の物体方向情報が無方向Gr0以外の場合、換言すれば近方向Gr1~左方向Gr4のいずれかである場合(S651でNO)、上記S65の解消処理を終了する。
一方で、追跡処理部343は、移動物体領域MOAa(t+1)の物体方向情報が無方向Gr0である場合(S651でYES)には、以下の処理を行う。
追跡処理部343は、時点[t]における画像に含まれる移動物体領域MOAa(t)の物体方向情報が無方向Gr0である場合(S652でYES)には、上記S65の解消処理を終了する。その一方で、移動物体領域MOAa(t)の物体方向情報が無方向Gr0以外の場合、換言すれば近方向Gr1~左方向Gr4のいずれかである場合(S652でNO)、移動物体領域MOAa(t+1)の物体方向情報を移動物体領域MOAa(t)の物体方向情報に変更するかどうか以下のように判定する。ここで、移動物体領域MOAa(t)の物体方向情報をMDa(t)とする。なお、これは一例であって、上記S652では、移動物体領域MOAa(t)の物体方向情報が、(i)無方向の特性を持つ種類の第2種の物体方向情報(無方向Gr0)および(ii)有方向の特性を持つ種類の第1種の物体方向情報(近方向Gr1~左方向Gr4)、の何れであるかという判定を行うようになっていればよい。
追跡処理部343は、移動物体領域MOAa(t+1)において、「移動物体領域MOAa(t+1)の全画素数」に対する「画素方向情報がMDa(t)である画素数」の比が所定値α2以上である場合(S653でYES)、移動物体領域MOAa(t+1)の物体方向情報を、移動物体領域MOAa(t)の物体方向情報に変更する(S654)。例えば、移動物体領域MOAa(t)の物体方向情報が近方向Gr1であった場合、移動物体領域MOAa(t+1)の物体方向情報を無方向Gr0から近方向Gr1に変更する。なお、上記所定値α2の具体的な値は特に限定されず、適宜設定されてよい。
一方で、上記S653にて、「移動物体領域MOAa(t+1)の全画素数」に対する「画素方向情報がMDa(t)である画素数」の比が所定値α2未満の場合(S653でNO)、上記S65における解消処理を終了する。
再び図11を参照して、上記S65における処理の後、追跡処理部343は、上記S64にて選択した移動物体領域MOAa(t+1)を、「仮のリスト」に追加する(S66)。なお、本実施形態における追跡処理部343は、上記S64でYESであれば、上記S65における処理内容に関わらず、必ず上記S66を実行する。
次いで、時点[t+1]における画像中の移動物体領域群(t+1)の全てを追跡処理の対象にし終わっていない場合(S67でNO)、上記S62からの処理を実行する。例えば、移動物体領域MOAa(t)と移動物体領域MOAb(t+1)とについて上記S62からの処理を行う。一方で、S67でYESの場合、追跡処理部343は、S61にて追跡処理の対象として選択した移動物体領域MOAa(t)に対応する移動物体領域MOAx(t+1)を特定する処理を行う(S68:特定処理ステップ)。
(特定処理)
追跡処理部343が実行する特定処理について、図13を用いて以下に説明する。図13は、移動物体領域MOAa(t)に対応する移動物体領域MOAx(t+1)を特定する特定処理の一例を示すフローチャートである。
図13に示すように、追跡処理部343は、「仮のリスト」中に移動物体領域MOAx(t+1)が無い場合(S681でNO)、移動物体領域MOAa(t)に対応する移動物体領域MOA(t+1)が移動物体領域群(t+1)中に存在しないと判定する(S685)。この場合、移動物体領域MOAa(t)に対応する移動物体領域MOA(t+1)が存在しないこととなり(追跡不可であり)、以降の処理対象とすることが不適となり得る。そのため、記憶部32から移動物体領域MOAa(t)に関するデータを消去してもよい。また、以降の処理において当該データを使用しないように設定してもよい。
上記に対して、S681でYESの場合において、追跡処理部343は、移動物体領域MOAa(t)と同じ物体方向情報を有する移動物体領域MOAx(t+1)が「仮のリスト」中に有れば(S682でYES)、移動物体領域MOAa(t)と同じ物体方向情報を有する移動物体領域MOAx(t+1)の中で「重なり度」が最大のものを移動物体領域MOAa(t)に対応する移動物体領域MOAx(t+1)として特定する(S683)。
一方で、S682でNOの場合、「仮のリスト」中に含まれる移動物体領域MOAx(t+1)の中で「重なり度」が最大のものを移動物体領域MOAa(t)に対応する移動物体領域MOAx(t+1)として特定する(S684)。
本明細書において、上記S683またはS684にて特定した移動物体領域MOAx(t+1)を、移動物体領域MOAa(t)に対応する対応物体領域と称する。
(S6の補記事項)
本実施形態における追跡処理部343は、移動物体領域群(t)に含まれる移動物体領域MOAa(t)~MOAd(t)のそれぞれについて上記S60~S68の処理を行うことにより、各移動物体領域MOAa(t)~MOAd(t)に対応する移動物体領域MOAx(t+1)を特定する。或いは、追跡処理部343は、移動物体領域MOAa(t)~MOAd(t)のそれぞれについて上記S60~上記S67の処理を行った後、各移動物体領域MOAa(t)~MOAd(t)について上記S68の処理を行うようになっていてもよい。
(小括2)
以上のように、本実施形態における画像処理装置30は、エレベータの乗場2をカメラ21にて撮像した画像を取得する画像取得部31と、前記画像における、乗場2に存在する移動物体1に対応する像を示す移動物体領域MOAを決定する移動物体決定部33とを備えている。また、画像処理装置30は、前記画像であって、時点[t]における画像および時点[t+1]における画像(所定の時間差を有する第1の画像および第2の画像)について、時点[t]における画像中に含まれる複数の移動物体領域MOAx(t)にそれぞれ対応する複数の第1の対応図形、および、時点[t+1]における画像中に含まれる複数の移動物体領域MOAx(t+1)にそれぞれ対応する複数の第2の対応図形を設定する図形設定部341を備えている。そして、画像処理装置30は、複数の前記第1の対応図形のうちの或る1つと、複数の前記第2の対応図形のそれぞれとの互いの重なり度を算出する重なり度算出部342を備えている。さらに、画像処理装置30は、時点[t]における画像中において、或る1つの前記第1の対応図形に対応する移動物体領域MOAa(t)にて像が示される移動物体1を処理対象物体とし、時点[t+1]における画像中において、乗場2に存在する、前記処理対象物体と同一の移動物体1に対応する像を示す移動物体領域MOAx(t+1)を対応物体領域として、前記重なり度が所定の基準値α1以上であることに基づいて前記対応物体領域を特定する追跡処理部343を備えている。
ここで、従来、異なるフレームの2枚の画像を用いて、一方の画像における或る移動物体領域と、他方の画像に含まれる各移動物体領域との重心(または中心)のユークリッド距離を算出し、算出したユークリッド距離が閾値以下でありかつ最小となる移動物体領域同士を、フレーム間で同一の移動物体領域であると判定する技術が知られている。
ところで、或る移動物体1が、時点[t]から時点[t+1]までの間に移動する距離(移動距離)には、通常、限界がある。そのため、上限値(移動距離上限値)があると言うことができる。そのため、上記のように「ユークリッド距離」を求めた場合にも、通常、「ユークリッド距離上限値」があることになる。
上記「移動距離上限値」については、移動物体1がカメラ21からどれだけの距離に存在するかに関係なく一定値でよいが、「ユークリッド距離上限値」は、移動物体1がカメラ21からどれだけの距離に存在するかに応じて(つまり、移動物体領域が画像上のどこに位置しているかに応じて)変動させる必要がある。換言すれば、移動物体1がカメラ21から遠ければ遠いほど、「ユークリッド距離上限値」を小さい値(反対に、カメラ21に近ければ近いほど大きい値)とする必要がある。そのようにして「ユークリッド距離上限値」を決定しなければならないことは、煩雑である。
これに対して、本実施形態における画像処理装置30では、時点[t]での移動物体領域と、時点[t+1]での移動物体領域とで、それぞれの「外接矩形」の間の「重なり度」(重複画素数)を求める。ここで、「外接矩形」は、上記第1の対応図形および上記第2の対応図形の一例である。また、上記第1の対応図形および上記第2の対応図形の重なり度の一例である画素数に基づいて評価する。
この場合、「移動距離上限値」に対応するものとして、一定の「重なり度下限値」(所定の基準値α1)を設ければよい。このように「重なり度下限値」を一定値にしても問題がない理由は以下のとおりである。すなわち、「重なり度下限値」と比較する「外接矩形の大きさ(画素数)」は、移動物体1の存在する位置がカメラ21から遠ければ遠いほど小さくなる(反対に、位置が近ければ近いほど「外接矩形の大きさ(画素数)」が大きくなる)。そのため、「ユークリッド距離上限値」を移動物体1の存在する位置がカメラ21から遠ければ遠いほど小さい値(近ければ近いほど大きい値)とすることと同じ効果を持つことになる。
したがって、本実施形態の画像処理装置30では、上記の従来技術のような煩雑な処理が不要となる。
また、本実施形態の画像処理装置30では、追跡処理部343は、重なり度が所定の基準値以上である複数の移動物体領域MOAx(t+1)の中から、前記対応物体領域を、前記重なり度が最も大きいことに基づいて特定する。
上記の構成によれば、時点[t]における画像中の或る移動物体領域MOAa(t)が、時点[t+1]における画像中のどの移動物体領域MOAx(t+1)に対応するかを、重なり度算出部342にて算出した重なり度が最も大きいことに基づいて特定することができる。そのため、移動物体領域MOAの追跡精度を高めることができる。
また、移動物体領域MOAは、移動物体1の移動方向に関する物体方向情報を有している。追跡処理部343は、前記対応物体領域を、前記物体方向情報が互いに同一であり、かつ前記重なり度が最も大きいことに基づいて特定することが好ましい。
一般に、移動物体1が急激な方向転換を行う可能性は低いと考えられる。上記の構成によれば、移動物体領域の追跡処理において、時点[t]と時点[t+1]とで物体方向情報が互いに同じである移動物体領域を優先的に対応物体領域と特定することができる。そのため、移動物体領域の追跡精度を高めることができる。
また、本実施形態の画像処理装置30における追跡処理部343は、移動物体領域MOAa(t)の有する前記物体方向情報が有方向の特性を持つ第1種の物体方向情報であり、かつ、移動物体領域MOAx(t+1)の有する前記物体方向情報が無方向の特性を持つ第2種の物体方向情報である場合、移動物体領域MOAx(t+1)の有する前記物体方向情報を、移動物体領域MOAa(t)の有する前記物体方向情報に一致させるようになっていることが好ましい。
上記の構成によれば、追跡処理部343は、例えば、時点[t+1]において移動物体1が一時的に立ち止まった等の理由によって、第2の対応図形に対応する移動物体領域MOA(t+1)が無方向Gr0の物体方向情報(第2種の物体方向情報)を有する場合、以下の処理を行う。すなわち、第2の対応図形に対応する移動物体領域MOA(t+1)の物体方向情報を、時点[t]における移動物体領域MOA(t)の物体方向情報に変更(更新)する。そのため、時点[t+1]において移動物体1が一時的に立ち止まった等により移動物体領域MOA(t+1)の物体方向情報が無方向Gr0となったとしても、時点[t]における物体方向情報(第1種の物体方向情報)を引き継ぐことができる。その結果、物体方向情報を含めて移動物体領域MOAを追跡することができる。
以上のような画像処理装置30にて行われる処理を含む、画像処理方法についても本発明の範疇に入る。
(変形例2)
(2a)上記実施形態では、図形設定部341は、移動物体領域MOAを囲う矩形の対応図形を設定し、その例として外接矩形を挙げたが、これに限定されない。例えば、他の一実施形態では、図形設定部341は、外接しない矩形を設定してもよい。すなわち、矩形の4辺と移動物体領域MOAの外縁との間に多少の間隔が存在しても構わない。
なお、図形設定部341は、矩形以外の形状の対応図形を設定してもよい。例えば、図形設定部341は、楕円形の対応図形を設定してもよい。
(2b)図形設定部341は、移動物体1の存在する位置がカメラ21から遠ければ遠いほど対応図形の大きさ(画素数)が小さくなるように(反対に、近ければ近いほど大きくなるように)、対応図形の大きさを設定するようになっていてもよい。このように対応図形の大きさを設定するようになってさえいれば、対応図形の大きさは特に限定されるものではない。
(S7について)
ここまで、画像処理装置30の物体追跡部34における、画像中の移動物体の像(移動物体領域)をフレーム間で追跡する処理について説明してきた。以下では、移動物体領域MOAについて、変動係数を算出する処理について説明する。なお、本実施形態では、図3におけるS1~S6の処理に引き続いて、またはS1~S5の処理の後に上記S6と並行して、変動係数演算部35が変動係数を算出する処理について説明するが、本発明の一態様における画像処理装置30および制御装置40はこれに限定されない。つまり、公知の方法を用いて画像中の移動物体1を決定する処理または追跡する処理を行った結果に基づいて、以下に説明する変動係数演算部35の処理を適用することも可能である。
再び図1および図3を参照して、物体追跡部34によるS6の処理が行われた後、次いで、変動係数演算部35は、以下のような処理を行うことにより移動物体領域MOAについて変動係数を算出する処理を行う(S7)。この変動係数の情報と、物体追跡部34における追跡処理(上記S6)の結果とを、後述する意思推定処理にて用いることにより、乗車検知システム10の検知精度向上を図る。具体的には、後述のS8に示されるように、制御装置40の意思推定部421は、移動物体領域MOAに示される移動物体の乗車意思を推定する処理を行う。なお、画像処理装置30および制御装置40の両方を含む装置を情報処理装置と表現することもできる。
(戸閉中のかご戸を判別する必要性)
移動物体決定部33によって決定された移動物体領域MOAのうち、物体方向情報が近方向Gr1である移動物体領域MOAは、乗車意思ありと推定される移動物体1の像を示している蓋然性が高い、一方で、そのような移動物体領域MOAの中には、乗車意思ありと推定されることが不適切である移動物体1の像を示している可能性がある移動物体領域MOAも存在し得る。例えば、撮像画像に、閉戸動作中のかご戸22(ドア)が映っている場合を考える。通常、かご戸22は、移動物体決定部33によって、右方向Gr2または左方向Gr4の物体方向情報を有する移動物体領域MOAとして決定される。一方で、外光等の影響により、移動物体決定部33は、かご戸22を近方向Gr1の物体方向情報を有する移動物体領域MOAとして決定する場合もある。このため、撮像画像中において、かご戸22を判別することが必要である。後述するように、本実施形態では、かご戸22の判別のために、変動係数を算出することが必要である。
そこで、以下に述べるように、本実施形態の画像処理装置30では、変動係数演算部35が、移動物体領域MOAについて変動係数を算出する処理を行い、算出した変動係数を該移動物体領域MOAに対応付ける。
(勾配方向および勾配強度の算出)
図14は、変動係数演算部35の処理の一例について説明するための図である。変動係数演算部35は、画像取得部31からデータを取得後に縮小処理(上記第1の画素数→上記第3の画素数)を行い、その後、グレースケールに変換する。または、画像取得部31にて縮小処理(上記第1の画素数→上記第3の画素数)が行われて記憶部32に保存されていたデータを、変動係数演算部35が取得し、グレースケールに変換して用いてもよい。これにより、縮小されたグレー画像である画像GPr(t)(第3の画素数)を得る。変動係数演算部35は、当該画像GPr(t)を用いて、各移動物体領域MOAの勾配方向および勾配強度を算出する。図14の例では、撮像画像の画素値(輝度)は256階調(0~255)で表されている。
具体的には、変動係数演算部35は、移動物体領域MOAにおいて、画像GPr(t)の各画素における輝度の勾配方向および勾配強度を算出する。図14では、かご戸22の所定の1つの画素(注目画素)について、勾配方向および勾配強度を算出する場合が例示されている。より具体的には、変動係数演算部35は、0°~180°の勾配方向を算出する。
変動係数演算部35によって、注目画素の勾配方向および勾配強度を算出する場合を例示する。
まず、ドア開閉路24に対応する、撮像画像P0上の線分である開閉範囲線分に平行な方向をX方向とし、垂直な方向をY方向とする。Yの正方向は、かご20内に向かう方向とし、Xの正方向は、Yの正方向に対して反時計回りに90°回転した方向とする。変動係数演算部35は、注目画素のX方向の値およびY方向の値を算出する。なお、以下の例において、Xの正方向およびYの正方向はそれぞれ、図14の例における画像GPr(t)の右方向および下方向に対応する。
変動係数演算部35は、まず、注目画素を中心画素とする3×3の画素マトリクスを取得する。そして、変動係数演算部35は、図14に示されるように、例えばSobelフィルタを上記画素マトリクスに適用することにより、勾配方向(以下、Gθ)および勾配強度(以下、GD)を算出する。
変動係数演算部35は、上記画素マトリクスに横方向のSobelフィルタを適用することにより、X方向の値を導出する。図14の例では、変動係数演算部35は、
97×(-1)+57×0+23×1
+211×(-2)+186×0+74×2
+243×(-1)+179×0+167×1
=-424=-X
として、X方向の値を導出する。Xは、X方向の絶対値を表すものとする。このため、X方向の値については、Xまたは-Xとして表するものとする。
また、変動係数演算部35は、上記画素マトリクスに縦方向のSobelフィルタを適用することにより、Y方向の値を導出する。図14の例では、変動係数演算部35は、
97×1+57×2+23×1
+211×0+186×0+74×0
+243×(-1)+179×(-2)+167×(-1)
=-534=-Y
として、Y方向の値を導出する。Yは、Y方向の絶対値を表すものとする。このため、Y方向の値については、Yまたは-Yとして表するものとする。
である。
続いて、変動係数演算部35は、上述のXおよびYに対して、下記のようにGθを算出する。
(X、Y)に対しては、Gθ=atan(Y/X)
(-X、-Y)に対しても、Gθ=atan(Y/X)
(X、-Y)に対しては、Gθ=180°-atan(Y/X)
(-X、Y)に対しても、Gθ=180°-atan(Y/X)。
すなわち、勾配方向が同一直線に乗れば同じ方向であるとして、直線上の順方向と逆方向とを同一視し、Gθを0°~180°の値にする。
図14の例では、
Gθ=0.899[rad]=51.550°
である。
また、変動係数演算部35は、
GD=sqrt(X2+Y2)
として、GDを算出する。図14の例では、GD=681.859である。
(変動係数の算出)
変動係数演算部35は、移動物体領域MOAごとに、画像GPr(t)の各画素をGθに応じて複数のグループに分類する。そして、変動係数演算部35は、各グループに属する画素の数を算出する。以下、1つの移動物体領域MOAに対する処理を説明する。
以下の例では、上記分類のために、Gθは、20°ごとに区分されるものとする。この場合、変動係数演算部35は、第1勾配方向グループ(勾配方向0°~20°のグループ)~第9勾配方向グループ(勾配方向160°~180°のグループ)の9通りのグループに、各画素を分類する。そして、変動係数演算部35は、第i勾配方向グループに属する画素の数Niを算出する。但し、1≦i≦9である。換言すれば、変動係数演算部35は、移動物体領域ごとに、各勾配方向グループの画素数の分布を示すヒストグラムを生成する。
但し、GD=0の画素は、変動係数の計算においては考慮しないことが好ましいため、どのグループにも属さないものとして取り扱われる(つまり、読み捨てられる)。一例として、かご戸22のドアパネル先端面(略称:先端面)に外光が影響することにより、所定の注目画素では、3×3の上記画素マトリクスの輝度は、全て255となる。
変動係数演算部35は、移動物体領域MOAごとに、上記ヒストグラムに基づき変動係数(以下、CV)を算出する(S7)。以下、1つの移動物体領域MOAに対する処理を説明する。まず、変動係数演算部35は、N1~N9の平均値(より厳密には、算術平均)Nmを算出する。また、変動係数演算部35は、N1~N9の標準偏差σを算出する。そして、変動係数演算部35は、
CV=σ/Nm
として、CVを算出する。CVは、相対標準偏差とも称される。
(戸閉中のかご戸を変動係数によって判別できること)
かご戸22の像を示す移動物体領域MOAのCVは、比較的大きい値(例:1よりも有意に大きい値)となる。一例として、発明者らによる実験の結果、かご戸22の像を示す移動物体領域MOAのCVは、1.5~2程度の値となることが確認された。一方、ユーザまたは台車等の像を示す移動物体領域MOAのCVは、比較的小さい値(例:1以下の値)となる。このように、ユーザまたは台車等の像を示す移動物体領域MOAでは、かご戸22の像を示す移動物体領域MOAに比べて、CVの値が有意に小さい。
このようにして、移動物体領域MOAが、「かご戸22の像でありそう」か、あるいは、「ユーザまたは台車等の像でありそうか」を、「CV≧CVth」または「CV<CVth」のいずれの条件が満たされるかによって振り分ける(区別する)ことができる。CVthとは、このように振り分けるための閾値であり、例えばCVth=1とすることができる。但し、CVthの値は任意に設定されてよく、上記の例に限定されない。
CVは、1つの移動物体領域において勾配方向の分布の偏りを示す指標である。かご戸22の像とは、ドアパネル先端面が、画像上の移動物体領域に映った像である。先端面は、細長い長方形であるが、当該先端面が映った移動物体領域は、細長い台形となる。そして、長方形の長辺どうしは平行であるが、対応する台形の脚どうしもほぼ平行である。この台形に含まれる各画素の勾配方向は、一方の脚に垂直な方向から、他方の脚に垂直な方向までの、狭い角度範囲に集中する傾向を有している。つまり、このような狭い角度範囲の中に、勾配方向の分布が偏っていることになる。なお、上記先端面が映った移動物体領域は、台形から若干歪んだ図形として映る場合(台形の脚が少し湾曲したり、少し折れ曲ったりするような場合)もある。但し、この場合にも、勾配方向の分布が偏るという傾向が大きく外れることはない。一方、ユーザまたは台車等の像では、当該像が様々な勾配方向を有する。当該勾配方向では、特定の角度範囲に分布が偏ることが少ない傾向を有している。
なお、かご戸22が左右のドアパネルで構成される両開きタイプの場合、左パネル先端面が映った画像上の台形の角度は、40°~80°程度となり、右パネル先端面が映った画像上の台形の角度は、110°~140°程度となる。ただし、戸閉動作のどの段階であるか(戸閉直後、戸閉途中、および戸閉完了直前)に応じて、上記第形の角度は、このような角度範囲の中でも、より狭い角度範囲に属する。ここで左とはXの負方向を、右とはXの正方向をそれぞれ指す。そして、左パネルに対応する勾配方向は、40°~80°の垂直方向である130°~170°となり、右パネルに対応する勾配方向は、110°~140°の垂直方向である20°~50°となる。
(変形例3)
(3a)変動係数演算部35は、Sobelフィルタではなく、例えば微分フィルタまたはPrewittフィルタ等を用いて勾配方向と勾配強度とを算出してもよい。
(3b)変動係数演算部35において、読み捨てられる画素はGD=0に限定されない。勾配強度の閾値(Dth:0より大)を設けてもよい。この場合、GD≦Dthの画素を読み捨てるように処理を行えばよい。なお、前述したように、ドアパネル先端面の長方形が映った、移動物体領域の台形については、その垂直方向に勾配方向が偏るという傾向がある。但し、移動物体領域中のGDが「0」に近い画素については、そのような傾向から外れてしまう性質がある。そこで、このような画素を除外してCVを算出することにより、CVthとの比較による、かご戸と当該かご戸以外の判別を、安定させることができる。
(S8について)
再び図1および図3を参照して、物体追跡部34における追跡処理(上記S6)の結果および変動係数演算部35による変動係数の算出処理(上記S7)の結果を用いて、制御装置40の意思推定部421は、移動物体領域MOAに示される移動物体の乗車意思を推定する処理を行う(S8:意思推定ステップ)。なお、本実施形態では、図3におけるS1~S7の処理に引き続いて意思推定部421が実行する処理について説明するが、本発明の一態様における画像処理装置30および制御装置40はこれに限定されない。つまり、公知の方法を用いて、画像中の移動物体領域を追跡する処理を行った結果、および移動物体領域の変動係数を算出した結果に基づいて、以下に説明する意思推定部421の処理を適用することも可能である。
本実施形態における意思推定部421は、上記S8において、画像中の或る移動物体領域について後述の条件1A・2Aの両者が満たされるとともに、後述の条件1B~3Bのうちの1つ以上が満たされる場合に、「移動物体領域にて示される移動物体が乗車意思を有している」と判定する。
図15は、S8の処理の一例を示すフローチャートである。以下、乗車意思を有している移動物体を示す領域を乗車意思あり物体領域と称する。これに対し、乗車意思を有していない移動物体を示す領域を、乗車意思なし物体領域と称する。
図15に示すように、先ず、意思推定部421は、或るフレーム(例:GP(t))にについて、物体追跡部34による追跡処理結果を示す情報を取得する(S81)。
ここで、上記S81に続く意思推定部421による処理の説明に先立って、意思推定部421が用いる意思推定条件の前段部である条件1A・2Aについて説明する。ここで、連続する第1フレーム数について、条件1A・2Aは設定される。第1フレーム数は、フレームレートに基づいて適宜設定されてよい。本実施形態における第1フレーム数の設定値については、以下に述べる。
(条件1A)「或る時点[t]における或る移動物体領域MOAx(t)について、物体方向情報の値が近方向Gr1であり、追跡処理結果を示す情報によって該移動物体領域MOAx(t)に対応すると特定された過去7フレームの移動物体領域MOAx(t-1)、MOAx(t-2)・・・MOAx(t-7)の全てにおける物体方向情報の値が近方向Gr1である」。
本実施形態では、或る時点[t]のフレームと、その過去7フレームとを併せた、連続する8フレームの画像について、このフレーム数である「8個」を、第1フレーム数と呼ぶこととする。
(条件2A)「第1フレーム数の連続する複数の画像のうち、CVがCVth未満である画像が、所定の第2フレーム数以上ある」。
上述のように、本実施形態では、上記第1フレーム数は8個に設定されている。第2フレーム数は、第1フレーム数以下の任意のフレーム数である。本例では、第2フレーム数は、4フレームであるとする。つまり、第2フレーム数は、第1フレーム数の半分として設定されている。
なお、これらの条件1A・2Aは意思推定条件の前段部の一例であって、意思推定条件は、任意に設定されてよく、これらに限定されない。上記第1フレーム数および第2フレーム数は、記憶部41に意思推定条件データ412として記憶されている。或いは、これらの意思推定条件は意思推定部421に予め設定されていてもよい。上記第1フレーム数および第2フレーム数の具体的な値は、特に限定されない。
上記S81の後、意思推定部421は、条件1Aが満たされているか否かを判定する(S82)。条件1Aが満たされていない場合(S82でNO)、「上記移動物体領域に示される移動物体1は、乗車意思を有していない」と判定する(S86)。
他方、条件1Aが満たされている場合(S82でYES)、意思推定部421は、或る時点[t]のフレームおよび連続する過去7個のフレームのそれぞれについて、上記S7における変動係数の算出結果を示す情報を取得する(S83)。そして、意思推定部421は、或る時点[t]のフレームおよび連続する過去7個のフレームのそれぞれにおいて、上記移動物体領域のCVに基づいて、条件2Aが満たされているか否かを判定する(S84)。条件2Aが満たされていない場合(S84でNO)、S87に進む。
他方、条件2Aが満たされている場合(S84でYES)、図15の処理の流れによれば、条件1A・2Aの両者が満たされていることとなる。この場合、意思推定部421は、次に、条件1B~3Bについて判定を行う。
ここで、条件1A・2Aを用いることによれば、乗車意思の推定を高精度に行うことができる点について、以下に説明する。
(条件1Aについて)
本来であれば右方向Gr2または左方向Gr4の物体方向情報を有する移動物体領域MOAにて示されるべき移動物体(例えば人物)が、あるフレームにおいて、近方向Gr1を有する移動物体領域MOAであると分類される場合がある。多くの場合、人は、歩行中に腕の振り降ろし動作を行う。従って、当該人が実際には右方向(または左方向)に向かって歩いていたとしても、動画像中において、腕がかご20に近づく方向に動く場合がある。このような腕の動きに起因して、或る1フレームにおいて近方向Gr1を有する移動物体領域MOAであると分類される場合があり、この場合に、該移動物体領域MOAが乗車意思あり物体領域であると判定されることは適切ではない。上述のとおり、該移動物体領域MOAによって示される人は、実際には乗車意思を有していないためである。
そこで、乗車意思の推定処理をより適切に行うべく、条件1Aが導入されている。一般に、腕の振り降ろし動作の開始から終了までの期間は、約230ms(ミリ秒)程度であると考えられる。そこで、230ms(0.23秒)よりもある程度長い期間のフレーム数に亘って連続して、或る移動物体領域MOAの物体方向情報が近方向Gr1であれば、当該移動物体領域MOAにて示される移動物体は人の腕ではない(例:移動物体は実際にかご20に向かって歩いてくる人である)可能性が高い。この点を踏まえ、この例では、条件1Aにおいて、「230ms以上」という時間的な条件が規定されている。この時間的な条件を、フレーム数に換算して表すことを考えた場合、「8フレーム以上」に相当する。以下、この点について述べる。
或る移動物体領域MOAについて、物体方向情報が近方向Gr1である状態が8個のフレームにおいて連続したときの最低の経過時間は、「フレーム間の間隔時間」が7回(第1フレーム数から1減算した数の回数)分経過した時間となる。
ここで、「フレーム間の間隔時間」は、フレームレートの逆数で表され、例えばフレームレートが1秒あたり30フレームだとすると、フレーム間の間隔時間は1/30(秒)である。
そのため、「フレーム間の間隔時間」が7回分は、約233msとなり、本実施形態において、フレームレートが1秒あたり30フレームであり第1フレーム数が8個とすることで、第1フレーム数から1減算した数を前記動画像における1秒あたりのフレーム数で割算した結果の秒数が230ms以上という条件を満たしている。
(条件2Aについて)
条件2Aによれば、CVをさらに考慮することにより、条件1Aを満たす各物体から、不適切な移動物体領域MOAを除外できる。また、動画像の一時的なノイズの影響を排除するために、条件2Aにおいても、「4フレーム数以上」という条件が規定されている。一例として、第1フレーム数の連続する複数の画像のうち、CVがCVth未満である画像が、第2フレーム数以上あれば、上記ノイズの影響を効果的に排除できると考えられる。
(条件1A・2Aの補記事項)
なお、上記の例において、条件2Aは必ずしも意思推定条件に含まれていなくともよい。例えば、条件1Aのみを意思推定条件の前段部として用いて、意思推定部421による判定処理が行われていてもよい。従って、CVの算出は必須の処理ではない。このため、画像処理装置30から、変動係数演算部35を割愛することもできる。
なお、意思推定部421は、条件1Aおよび条件2Aとして、連続する第1フレーム数の画像に代えて、所定の判定期間内における複数の画像の全て、を用いて判定を行ってもよい。この所定の判定期間は、上述の理由から、230ms以上と設定されることが好ましい。この場合においても、上記第2フレーム数を設定し、条件2Aの判定を行うことができる。
(条件1B~3Bについて)
S84でYESの場合、意思推定部421は、次に、意思推定条件の後段部である条件1B~3Bについて判定を行う。
本例では、移動物体領域の位置に基づいて、条件1B~3Bにより乗車意思の有無が判定される。また、上記S82における8フレーム目を解析対象として、乗車意思の有無が判定される。
図16は、意思推定部421が実行する乗車意思推定処理の一例について説明するための図である。意思推定部421は、移動物体領域MOAに像が示される移動物体1の乗車意思の判定のための複数の判定領域(以下、AR)を、撮像画像中に設定する。当該判定領域は、撮像画像中に設定される仮想的な領域である。
図16の例では、AR1(第1判定領域,左判定領域)、AR2(第2判定領域,中央判定領域)、およびAR3(第3判定領域,右判定領域)の、3つの判定領域が設定されている。図16の(a)では、AR1~AR3が概略図として示されている。これに対し、図16の(b)では、AR1~AR3が、撮像画像中に設定された様子が示されている。
図16の例では、AR1~AR3はいずれも、矩形上の領域として設定されている。
前述したように、画像上において、ドア開閉路24に対応する開閉範囲線分、原点O、x軸およびその正負方向、y軸およびその正負方向を規定する。
AR2は、ドア開閉路24の中央部に対応する判定領域であり、前記y軸を含み前記y軸の負方向に広がる。より具体的には、AR2は、前記y軸を対称軸として線対称となるように設定されている。AR2は、詳しくは後述するように、前記y軸の正方向を対称軸として所定の中央判定角度幅にて左右対称に広がる角度範囲である第2有効進入角度範囲θ2Aが設定されている。
これに対し、AR1は、撮像画像の左側(x軸の正方向側)においてAR2と隣接し、前記y軸を含まない。AR1は、詳しくは後述するように、前記y軸の正方向から反時計回りに所定の左傾き角度にて傾いた方向を対称軸として所定の左判定角度幅にて左右対称に広がる角度範囲である第1有効進入角度範囲θ1Aが設定されている。
また、AR3は、撮像画像の右側(x軸の負方向側)においてAR2と隣接し、前記y軸を含まない。AR3は、詳しくは後述するように、前記y軸の正方向から時計回りに所定の右傾き角度にて傾いた方向を対称軸として所定の右判定角度幅にて左右対称に広がる角度範囲である第3有効進入角度範囲θ3Aが設定されている。
図16の例では、AR1~AR3のy方向の長さはいずれも等しく設定されている。これに対し、AR2のx方向の長さは、AR1およびAR3のそれぞれのx方向の長さに比べて短く設定されている。一例として、AR1およびAR3のそれぞれのx方向の長さは、AR2のx方向の長さの2倍以上に設定されている。図16の例では、AR1とAR3とは、互いに、前記y軸を対称軸として線対称の位置関係となるように設定されている。
(平均角度について)
本例では、上記S82における8フレーム目の移動物体領域MOAの平均角度(以下、θm)に着目して、乗車意思が推定される。ここで、平均角度θmの求め方について以下に説明する。
画像中の移動物体領域MOAに含まれる各画素には、オプティカルフローおよび画素方向情報が対応付けられている。また、移動物体領域MOAには物体方向情報が対応付けられている。これらの情報は例えば記憶部32に記憶されている。意思推定部421は、例えば記憶部32から読み出した情報を用いて、或る移動物体領域MOAについて以下のように平均角度θmを算出する。例えば、図9に示す例における移動物体領域MOA3(近方向Gr1の物体方向情報を有する領域)について、画素方向情報の値が近方向Gr1である画素の全てについて、各画素のオプティカルフロー方向値(この例では30°~150°の範囲内の角度値)を平均することにより、当該移動物体領域MOA3の平均角度θmを求める。本実施形態では、移動物体1が乗場2からかご20に向かう移動方向を、「乗車移動方向」と称する。
(条件1B~3Bの具体例)
図15に示す上記S84に続いて、意思推定部421は、意思推定条件の後段である以下の条件1B~3Bに基づいて、乗車意思を推定する処理を実行する(S85)。具体的には、本例では、意思推定部421は、「条件1B~3Bのうちの1つ以上が満たされている」場合(S85でYES)に、「移動物体領域MOAにて像が示される移動物体1が乗車意思を有している」と判定する。より具体的には、意思推定部421は、「移動物体領域MOAは、乗車意思あり物体領域(乗車意思を有する移動物体を示す領域)である」と判定する(S86)。一方で、意思推定部421は、条件1B~3Bをいずれも満たさない場合(S85でNO)、「移動物体領域MOAにて像が示される移動物体1は、乗車意思を有していない」と判定する。より具体的には、意思推定部421は、「移動物体領域MOAは、乗車意思なし物体領域(乗車意思を有していない移動物体を示す領域)である」と判定する(S87)。
なお、本実施形態では、移動物体領域MOAと判定領域ARxとが、「共通の画素を有していない状態」から「共通の画素を有している状態」へと遷移したことを、「移動物体領域MOAが、判定領域ARxに進入した」と称する。ARxは、AR1~AR3のいずれか1つを指す。
(条件1B)「物体方向情報の値が近方向Gr1である移動物体領域MOAが、AR1に進入し、かつ、該移動物体領域MOAにおけるθmが第1有効進入角度範囲内にある」
(条件2B)「物体方向情報の値が近方向Gr1である移動物体領域MOAが、AR2に進入し、かつ、該移動物体領域MOAにおけるθmが第2有効進入角度範囲内にある」
(条件3B)「物体方向情報の値が近方向Gr1である移動物体領域MOAが、AR3に進入し、かつ、該移動物体領域MOAにおけるθmが第3有効進入角度範囲内にある」。
なお、移動物体領域MOAが複数の領域(例えばAR1およびAR2)にまたがって位置する場合は、AR1の有効進入角度範囲(図16の例では、60°~150°)だけでなく、AR2の有効進入角度範囲(図16の例では、30°~150°)も見ることになり、意思推定部421は、両方を包含した範囲(図16の例では、30°~150°)に基づいて乗車意思の判定を行えばよい。
第1~第3有効進入角度範囲とは、それぞれ、AR1~AR3に対して設定されるθmの範囲である。以下、図16の(c)~(e)を参照し、これらの条件について述べる。図16の(c)~(e)はそれぞれ、各角度範囲について説明するための図である。まず、条件2Bについて述べる。
(条件2Bについて)
図16の(d)に示されるように、本例では、第2有効進入角度範囲θ2Aは、30°~150°として設定されている。このため、意思推定部421は、物体方向情報の値が近方向Gr1である移動物体領域であって、AR2内に含まれる画素が1つ以上存在し、かつθmが30°~150°である移動物体領域について、乗車意思あり物体領域であると判定する。移動物体領域がAR2内に位置している場合には、当該移動物体領域がAR1またはAR3内に位置している場合に比べて、当該移動物体領域に示される移動物体がかご20に乗り込もうとする(ドア開閉路24の左端部から右端部までの範囲内に向けて進入しようとする)場合の角度範囲が広いと考えられる。このため、第2有効進入角度範囲θ2Aは、以下に述べる第1有効進入角度範囲θ1Aおよび第3有効進入角度範囲θ3Aに比べて、広く設定されている。
なお、AR1~AR3のレイアウトを考慮すると、第2有効進入角度範囲θ2Aは、90°を基準(角度中心)とする所定の角度範囲として設定されることが好ましい。本例では、第2有効進入角度範囲θ2Aは、90°±60°という角度範囲として設定されている。
図16の(d)から理解されるように、AR2には、y軸の正方向(90°)を対称軸として左右対称に所定の中央判定角度幅が設定されている。上記の「60°」という角度は、中央判定角度幅の一例である。
(条件1Bについて)
これに対して、図16の(c)に示されるように、第1有効進入角度範囲θ1Aは、60°~150°として設定されている。
このため、意思推定部421は、物体方向情報の値が近方向Gr1でありAR1内に含まれる画素が1つ以上存在する移動物体領域について、θmが30°~60°(以下、第1無効進入角度範囲θ1B)の場合には、乗車意思なし物体領域であると判定する。第1有効進入角度範囲θ1Aは、第2有効進入角度範囲θ2Aから、第1無効進入角度範囲θ1Bを除外した角度とも表現できる。
θmが第1無効進入角度範囲θ1B内にある場合には、θmが第1有効進入角度範囲θ1A内にある場合に比べて、移動物体領域に示される移動物体がかご20に乗り込もうとする場合の角度範囲が狭いと考えられる。より具体的には、θmが第1無効進入角度範囲θ1B内にある場合には、移動物体領域に示される移動物体は、撮像画像の左側に向かって移動中である可能性が高いと考えられる。この点を踏まえ、第1有効進入角度範囲θ1Aは、第2有効進入角度範囲θ2Aに比べて狭く設定されている。
なお、AR1~AR3のレイアウトを考慮すると、第1有効進入角度範囲θ1Aの下限値は、90°よりもある程度小さい値(例:60°)として設定されることが好ましい。AR1の右端部に位置している移動物体がドア開閉路24の左端部に向けて進入しようとする場合、θmは90°よりもある程度小さくなると考えられるためである。
図16の(c)から理解されるように、AR1には、y軸の正方向からx軸の負方向に所定の左傾き角度にて傾いた方向を対称軸として左右対称に、所定の左判定角度幅が設定されている。本実施形態では、第1有効進入角度範囲θ1Aは、60°~150°(105°±45°)の角度範囲であって、y軸の正方向(90°)から反時計回りに15°(所定の左傾き角度)傾いた105°の方向を対称軸として、45°の角度幅(所定の左判定角度幅)にて左右対称に広がっている。
(条件3Bについて)
また、図16の(e)に示されるように、第3有効進入角度範囲θ3Aは、30°~120°として設定されている。このため、意思推定部421は、物体方向情報の値が近方向Gr1でありAR3内に含まれる画素が1つ以上存在する移動物体領域について、θmが120°~150°(以下、第3無効進入角度範囲θ3B)の場合には、乗車意思なし物体領域であると判定する。
このように、第3有効進入角度範囲θ3Aも、第2有効進入角度範囲θ2Aよりも狭く設定されている。第3有効進入角度範囲θ3Aは、第2有効進入角度範囲θ2Aから、第3無効進入角度範囲θ3Bを除外した角度とも表現できる。より具体的には、第3無効進入角度範囲θ3Bは、第1無効進入角度範囲θ1Bと対になる角度範囲として設定されている。
従って、条件1Bの例と同様に、θmが第3無効進入角度範囲θ3B内にある場合には、θmが第3有効進入角度範囲θ3A内にある場合に比べて、移動物体領域に示される移動物体がかご20に乗り込もうとしている可能性が低いと考えられる。より具体的には、θmが第3無効進入角度範囲θ3B内にある場合には、移動物体領域に示される移動物体は、撮像画像の右側に向かって移動中である可能性が高いと考えられる。
なお、AR1~AR3のレイアウトを考慮すると、第3有効進入角度範囲θ3Aの上限値は、90°よりもある程度大きい値(例:120°)として設定されることが好ましい。AR3の左端部に位置している推定対象物体がドア開閉路24の右端部に向けて進入しようとする場合、θmは90°よりもある程度大きくなると考えられるためである。
図16の(d)から理解されるように、AR3には、y軸の正方向からx軸の正方向に所定の右傾き角度にて傾いた方向を対称軸として左右対称に、所定の右判定角度幅が設定されている。本実施形態では、第3有効進入角度範囲θ3Aは、30°~120°(75°±45°)の角度範囲であって、y軸の正方向(90°)から時計回りに15°(所定の右傾き角度)傾いた75°の方向を対称軸として、45°の角度幅(所定の右判定角度幅)にて左右対称に広がっている。
(条件1B・2B・3Bの補記事項)
なお、上記条件1B~3Bは意思推定条件の後段部の一例である。条件1B~3Bに係る各角度範囲は、任意に設定されてよく、これらに限定されない。上記第1有効進入角度範囲、第2有効進入角度範囲、第3有効進入角度範囲は、記憶部41に意思推定条件データ412として記憶されている。また、複数の判定領域AR(例えばAR1~AR3)を規定するパラメータ群(画像中における判定領域の4隅の座標等)は、記憶部41に判定領域データ411として記憶されている。或いは、これらの意思推定条件は意思推定部421に予め設定されていてもよい。
(その他の構成)
前述の決定処理ステップS5(図3を参照)における移動物体領域MOAを決定する処理にて用いられる所定値V1は、以下のように設定されてよい。すなわち、前述の第3の画素数を有する画像において、複数の判定領域AR(例えばAR1~AR3)のそれぞれにおけるかご20から遠い側の境界付近に例えば子供が存在するような場合に、該子供を検出できるような値となるように所定値V1を設定する。これにより、意思推定部421は、子供のような比較的小さな移動物体1についても、乗車意思を適切に推定することができる。
(S9・S10について)
再び図1および図3を参照して、意思推定部421によるS8の処理の結果、判定領域AR1~AR3の1つ以上に乗車意思あり物体領域が存在すると判定された場合、意思推定部421は、その旨の情報を動作制御部422に送信する。動作制御部422は、意思推定部421における処理の結果を用いて、かご戸22の戸開閉動作を制御する(S9)。
動作制御部422は、かご戸22が戸開状態の場合、かご戸22を戸閉動作させる指令(戸閉指令)を戸開閉装置50に送信するまでの時間、という制御変数を有しており、例えば以下のように制御する。
上記制御変数の初期値をゼロとし、かご戸22が戸開状態になった時点で、第1所定時間にセットする。そして、時間経過に応じて、上記制御変数をカウントダウンし、ゼロになった時点で、戸開閉装置50に戸閉指令を送信する。
本実施形態における動作制御部422は、意思推定部421から乗車意思あり物体領域が存在する旨の情報を受信した時点において、かご戸22が戸開状態の場合、かご戸22に戸閉指令を送信するまでの時間を増加させる、すなわち、上記制御変数に第2所定時間を加算する。その後、時間経過に応じて上記制御変数をカウントダウンし、ゼロになった時点で、戸開閉装置50に戸閉指令を送信する。
なお、上記第1所定時間および上記第2所定時間は任意に設定されてよく、具体的な値は特に限定されない。また、動作制御部422は、意思推定部421から乗車意思あり物体領域が存在する旨の情報を受信した時点において、かご戸22が戸開状態の場合、上記制御変数に第1所定時間を再セットするようになっていてもよい。
また、動作制御部422は、意思推定部421から乗車意思あり物体領域が存在する旨の情報を受信した時点において、かご戸22が戸閉動作中の場合、かご戸22の戸閉動作を中止して戸開動作を実行する旨の戸開指令を戸開閉装置50に送信する。
その後、かご戸22が戸閉状態となっていない場合(S10でNO)、本実施形態における乗車検知システム10は、上記S2からの処理を再度行う。かご戸22が戸閉状態となった場合(S10でYES)、乗車検知システム10は処理を終了する。
(変形例4)
上記実施形態では、AR1~AR3として矩形の判定領域を設定した例について説明したが、これに限定されない。例えば、AR1およびAR3は、それぞれ扇形の判定領域として設定されてもよい。また、AR1およびAR3は、扇形の弧が楕円の一部となっている形状の判定領域として設定されてもよい。
(小括3)
以上のように、本実施形態における乗車検知システム10(画像処理装置30および制御装置40)は、エレベータの乗場2をカメラ21にて撮像した動画像を構成する複数の画像を取得する画像取得部31と、前記画像における、乗場2に存在する移動物体1に対応する像を示すとともに、該移動物体1の移動方向に関する物体方向情報を有する移動物体領域MOAを決定する移動物体決定部33と、前記動画像の所定の期間内における複数の前記画像の全てにおいて同一の移動物体1に対応する像を示していると追跡された移動物体領域MOAの有する前記物体方向情報が、前記複数の画像の全てにおいて互いに同一であるか否かに基づき、当該移動物体領域MOAにて像が示される移動物体1の前記エレベータのかご20への乗車意思の有無を推定する意思推定部421と、を備えている。
例えば、動画像において人物が乗場2を横切る方向に歩行している場合、移動物体決定部33は、当該人物の腕の振り降ろし動作によって、当該腕を、かご20に近づく方向に動いている移動物体であると検出することが有り得る。意思推定部421は、このような分類に基づいて推定処理を行う場合、上記人物について誤った推定処理を行い得る。
そこで、本実施形態における制御装置40の意思推定部421は、所定の期間(例えば230ms以上)、同一の移動物体1に対応する像を示していると追跡された移動物体領域MOAについて、前記所定の期間内の複数の画像の全てにおいて該移動物体領域MOAの物体方向情報が互いに同一か否かに基づいて、該移動物体領域MOAに示される移動物体1の乗車意思を推定するようになっている。
上記の構成によれば、意思推定部421は、或る移動物体1に対応する像を示す移動物体領域MOAの物体方向情報が例えば近方向Gr1である状態が、所定の期間以上、時間的に継続する場合に、該移動物体領域MOAにて像が示される移動物体1は乗車意思を有していると判定する。そのため、意思推定部421は、かご20の前を通り過ぎる人物の腕の振り降ろし動作に起因して、当該腕をかご20に近づく方向に動いている移動物体1であると検出したことに基づいて、上記人物が乗車意思を有していると判定することが抑制される。したがって、意思推定部421は、移動物体決定部33における分類結果に基づき上記人物の乗車意思を誤って推定することを抑制して、乗車意思の推定を高精度に行うことができる。
また、本実施形態の乗車検知システム10は、前記複数の画像のそれぞれにおける移動物体領域MOAに含まれる各画素について算出した輝度の勾配方向を用いて、当該移動物体領域MOAに含まれる全画素を複数の勾配方向グループに分類し、前記勾配方向グループ毎の画素数の分布について平均値および標準偏差を算出するとともに、前記平均値に対する前記標準偏差の比である変動係数を算出する変動係数演算部35をさらに備えている。意思推定部421は、さらに、移動物体領域MOAの前記変動係数に基づいて、当該移動物体領域MOAにて像が示される移動物体1が乗車意思を有していると判定することが好ましい。
変動係数は、或る移動物体領域MOAの、勾配方向グループ毎の画素数の分布の偏り度合いを示す指標の1つである。かご戸22では、一部のグループにのみ、勾配方向の分布が偏る傾向にある。一方で、人物等の移動物体の場合、かご戸22の場合に比べ、勾配方向の分布の偏りが有意に小さい。このような変動係数の違いを捉えるために、例えば所定の閾値(例えば1以上)を設定することができる。これにより、かご戸22と人等の移動物体との変動係数の違いに基づいて、乗車意思の推定対象として不適切な移動物体の像が示されている移動物体領域MOAを除外して、乗車意思の推定をより適切に行うことができる。
本実施形態の乗車検知システム10における意思推定部421は、前記動画像のうち連続する第1フレーム数の前記画像の全てにおいて同一の移動物体1に対応する像を示していると追跡された移動物体領域MOAの有する物体方向情報が、前記第1フレーム数の画像の全てにおいて互いに同一であるか否かに基づき、当該移動物体領域MOAにて像が示される移動物体1の前記エレベータのかご20への乗車意思の有無を推定してもよい。
上記の構成によれば、意思推定部421は、或る移動物体1に対応する像を示す移動物体領域MOAの物体方向情報が例えば近方向Gr1の物体方向情報を有する状態が第1フレーム数の画像の全てにおいて継続している場合、当該移動物体領域MOAにて像が示される移動物体1が乗車意思を有していると推定する。意思推定部421は、移動物体決定部33に分類結果に基づき上記人物の乗車意思を誤って推定することを抑制して、乗車意思の推定を高精度に行うことができる。
また、意思推定部421は、さらに、前記第1フレーム数の連続する複数の画像のうち、移動物体領域MOAの前記変動係数が前記所定の閾値未満である画像が第2フレーム数以上ある場合に、前記移動物体領域にて像が示される移動物体1が乗車意思を有していると判定することが好ましい。上記の構成によれば、乗車検知システム10は、意思推定部421によって、乗車意思の推定をより高精度に行うことができる。
以上のように乗車検知システム10の各部にて行われる処理(特に意思推定部421による意思推定ステップ)を含む、移動物体1の乗車意思を推定する乗車検知方法についても本発明の範疇に入る。
(小括4)
以上のように、本実施形態における乗車検知システム10(画像処理装置30および制御装置40)は、エレベータの乗場2をカメラ21にて撮像した動画像を構成する複数の画像を取得する画像取得部31と、前記画像における、乗場2に存在する移動物体1に対応する像を示すとともに、該移動物体1の移動方向に関する物体方向情報を有する移動物体領域MOAを決定する移動物体決定部33と、移動物体領域MOAにて像が示される移動物体1の前記エレベータのかご20への乗車意思の有無を推定する意思推定部421と、を備えている。ここで、前記画像における仮想的な複数の判定領域AR1~AR3、および複数の前記判定領域のそれぞれに対応する所定の有効進入角度範囲が予め設定されている。意思推定部421は、前記画像中にて移動物体領域MOAと前記判定領域AR1~AR3とが共通の画素を有する状態となった場合に、当該判定領域に対応する前記有効進入角度範囲に基づいて、当該移動物体領域MOAにて像が示される移動物体1の前記エレベータのかご20への乗車意思の有無を推定する。
上記の構成によれば、意思推定部421は、複数の判定領域のいずれかへ移動物体領域MOAが進入した状態となった場合、該複数の判定領域のそれぞれに設定された有効進入角度範囲に基づいて、移動物体1の乗車意思を推定する。
上記有効進入角度範囲については、例えば、移動物体1がかご20に向き合っている方向と、上記複数の判定領域のそれぞれにおけるかご20との位置関係と、に応じて設定することができる。
これにより、前記画像中における移動物体領域MOAの位置に対応するように、かご20への乗車意思の有無を推定することができる。そのため、乗車意思の有無を推定する精度を高めることができる。
また、本実施形態における乗車検知システム10では、前記画像において、実空間での前記エレベータのドア開閉路24(かご戸の開閉路)に対応する線分を開閉範囲線分、前記開閉範囲線分の中心点を原点O、前記開閉範囲線分に沿った直線をx軸、前記開閉範囲線分に垂直かつ原点Oを通る直線をy軸、原点Oからかご20内に向かう方向をy軸の正方向、原点Oから乗場2に向かう方向をy軸の負方向、前記y軸の負方向に対して90°反時計回りの方向をx軸の正方向、前記y軸の負方向に対して90°時計回りの方向をx軸の負方向、と規定する。そして、複数の前記判定領域として、ドア開閉路24の中央部に対応する判定領域であり、前記y軸を含み前記y軸の負方向に広がる判定領域AR2(中央判定領域)と、前記x軸の正方向(左方向)において判定領域AR2に隣接する判定領域であり前記y軸を含まずに前記y軸の負方向に広がる判定領域AR1(左判定領域)と、前記x軸の負方向(右方向)において判定領域AR2に隣接する判定領域であり前記y軸を含まずに前記y軸の負方向に広がる判定領域AR3(右判定領域)と、が設定されている。一例では、判定領域AR2(中央判定領域)は、前記開閉範囲線分よりも短い範囲にて前記x軸の正方向および負方向に広がっている。判定領域AR1(左判定領域)は、前記開閉範囲線分の一端を超えて前記x軸の正方向に広がっている。判定領域AR3(右判定領域)は、前記開閉範囲線分の一端を超えて前記x軸の負方向に広がっている。
判定領域AR2は、前記y軸の正方向を対称軸として所定の中央判定角度幅にて左右対称に広がる角度範囲が、所定の第2有効進入角度範囲θ2Aとして設定されている。判定領域AR1は、前記y軸の正方向から反時計回りに所定の左傾き角度にて傾いた方向を対称軸として所定の左判定角度幅にて左右対称に広がる角度範囲が、所定の第1有効進入角度範囲θ1Aとして設定されている。判定領域AR3は、前記y軸の正方向から時計回りに所定の右傾き角度にて傾いた方向を対称軸として所定の右判定角度幅にて左右対称に広がる角度範囲が、所定の第3有効進入角度範囲θ3Aとして設定されている。
上記の構成によれば、「中央判定領域」では「y軸の正方向」を中心とし、「左判定領域」では「y軸の正方向からx軸の負方向へ傾いた方向」を中心とし、「右判定領域」では「y軸の正方向からx軸の正方向へ傾いた方向」を中心とする有効進入角度範囲がそれぞれ設定されている。そのため、移動物体領域のx軸方向の位置および移動方向に応じて的確に、かごの前を通り過ぎる人物に誤認することを回避して、移動物体の乗車意思を推定することができる。
また、以上のような乗車検知システム10の各部にて行われる処理を含む、移動物体1の乗車意思を推定する乗車検知方法についても本発明の範疇に入り、この乗車検知方法は以下のように整理することができる。
すなわち、本実施形態における乗車検知方法は、エレベータの乗場をカメラにて撮像した動画像を構成する複数の画像を取得する画像取得ステップと、前記画像における、前記乗場に存在する移動物体に対応する像を示すとともに、該移動物体の移動方向に関する物体方向情報を有する移動物体領域を決定する移動物体決定ステップと、前記画像における仮想的な複数の判定領域、および複数の前記判定領域のそれぞれに対応する所定の有効進入角度範囲が予め設定されており、前記画像中にて前記移動物体領域と前記判定領域とが共通の画素を有する状態となった場合に、当該判定領域に対応する前記有効進入角度範囲に基づいて、当該移動物体領域に示される前記移動物体の前記エレベータのかごへの乗車意思の有無を推定する意思推定ステップと、を含む。
〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部位と同じ機能を有する部位については、同じ符号を付記し、その説明を繰り返さない。
前記実施形態1では、意思推定部421は、意思推定条件の後段として判定領域AR1~AR3それぞれに適用される条件1B~3Bに基づいて乗車意思あり物体領域を判定し、その結果を用いて動作制御部422が、かご戸22の戸開閉動作を制御していた。そして、前記実施形態1では、乗車意思あり物体領域が存在すると判定された場合、かご戸22の状態に応じて、下記(A)および(B)のようにかご戸22の戸開閉動作を制御していた。
(A)かご戸22が戸開状態の場合、かご戸22に戸閉指令を送信するまでの時間を増加させる。
(B)かご戸22が戸閉動作中の場合、かご戸22の戸閉動作を中止して戸開動作を実行する旨の戸開指令を戸開閉装置50に送信する。
ここで、前記実施形態1では、乗車意思あり物体領域が存在すると判定された場合、乗車意思あり物体領域が、AR1~AR3のいずれに進入したか、またはAR1~AR3の2つ以上を含む組のうちいずれに進入したか、に関わらず、かご戸22の戸開閉動作として上記(A)および(B)の両方を適用していた。これに対して、本実施形態における乗車検知システム10Bでは、意思推定部421における推定結果に基づいて、動作制御部422が、乗車意思あり物体領域の存在する位置に応じて、上記(A)および(B)の両方を適用する場合と、上記(A)のみを適用する場合とを切り替えるように制御を行う。すなわち、乗車意思あり物体領域が、AR11(後述)とAR12(後述)とのいずれに進入したかに応じて、かご戸22の戸開閉動作の制御が変化する点が異なっている。
(本実施形態の乗車検知システム)
本実施形態では、前記実施形態1にて説明した図3におけるS1~S8の処理に引き続いて制御装置40が実行する処理について説明する。本実施形態における意思推定部421は、画像中の或る移動物体領域MOAについて、前記実施形態1にて説明した意思推定条件における条件1Aおよび条件2Bを満足すれば乗車意思あり物体領域として判定する。そして、動作制御部422は、以下のような処理を行うことにより、かご戸22の戸開閉動作を制御する(S9:動作制御ステップ)。
なお、意思推定部421は、移動物体領域が条件1Aおよび条件2Aを満足し、かつ、条件2B-1(後述)および条件2B-2(後述)のいずれかを満足すれば乗車意思あり物体領域として判定するようになっていてもよい。また、本発明の一態様における乗車検知システム10Bは以下に説明する構成に限定されず、画像中の移動物体の像について公知の方法を用いて画像処理することにより該移動物体の乗車意思を推定する処理を行った結果に基づいて、以下に説明する動作制御部422の処理を適用することも可能である。
図17は、本実施形態における戸開閉動作の制御において用いられる広範判定領域について説明するための図である。前記実施形態1におけるAR1~AR3の判定領域と区別するために、本実施形態において規定する判定領域を広範判定領域と称することとする。
本例では、撮像画像中に2つの広範判定領域を設定する。具体的には、図17の例では、AR11(第1の判定領域)およびAR12(第2の判定領域)の、2つの広範判定領域が設定されている。図17の(a)では、AR11およびAR12が概略図として示されている。図17の(b)では、AR11およびAR12が、撮像画像中に設定された様子が示されている。AR11およびAR12は、画像における仮想的な領域である。
ここで、AR11およびAR12に対応して、前述の条件2Bは以下のように変形される。
(条件2B-1)「物体方向情報の値が近方向Gr1である移動物体領域MOAが、AR11に進入し、かつ、該移動物体領域MOAにおけるθmが第2有効進入角度範囲内にある」
(条件2B-2)「物体方向情報の値が近方向Gr1である移動物体領域MOAが、AR12に進入し、かつ、該移動物体領域MOAにおけるθmが第2有効進入角度範囲内にある」。
図17の例では、AR11は、ドア開閉路24周辺に相当する矩形上の領域として設定されている。AR12は、実空間上でAR11に対応する領域よりもドア開閉路24(かご20の出入口)に対して遠い領域であって、AR11を含まない、AR11の周辺の領域として設定されている。このような、AR11およびAR12を規定するパラメータ群(画像中における広範判定領域の4隅の座標等)は、記憶部41に判定領域データ411として記憶されている。或いは、これらのパラメータ群は動作制御部422に予め設定されていてもよい。
本実施形態の意思推定部421は、或る移動物体領域MOAについて乗車意思あり物体領域である(条件1Aを満足し、かつ、条件2B-1および条件2B-2のいずれかを満足する)と判定された時点において、AR12への進入有無と、AR11への進入有無とを確認する。具体的には、乗車意思あり物体領域について、以下の(β)~(δ)の3つの状態が考えられる。
(β)乗車意思あり物体領域が、AR12にのみ進入している(AR11には進入していない)。
(γ)乗車意思あり物体領域が、AR12およびAR11のいずれにも進入している。
(δ)乗車意思あり物体領域が、AR11にのみ進入している(AR12には進入していない)。
上記(γ)または(δ)は、乗車意思あり物体領域が、少なくともAR11に進入した状態であるといえる。上記(β)は、乗車意思あり物体領域が、AR12にのみ進入した状態であるといえる。
意思推定部421は、「上記移動物体領域MOAがAR12にのみ進入したのではない状態」から「該移動物体領域MOAがAR12にのみ進入した状態」への状態遷移が生じたと判定した場合、その判定結果を示す情報を動作制御部422に送信する。また、意思推定部421は、「上記移動物体領域MOA少なくともAR11に進入したのではない状態」から「該移動物体領域MOAが少なくともAR11に進入した状態」への状態遷移が生じたと判定した場合、その判定結果を示す情報を動作制御部422に送信する。
動作制御部422は、乗車意思あり物体領域とAR11およびAR12との位置関係、およびかご戸22の開閉状態に応じて、具体的には以下のように、かご戸22の開閉する機構を有する戸開閉装置50に対して指令を送信する。
(ケース1:戸開状態かつAR12内で検出された場合)
図18は、かご戸22が戸開状態の場合における、動作制御部422が実行する戸開閉動作の制御の一例について説明するための図である。ここで、下記のケース1~4が考えられるが、図18ではケース1を例にしている。このことは、後述する図19を用いた説明においても同様である。ケース2~4についての説明は、後述する。
(ケース1)戸開状態かつAR12内で検出された場合。すなわち、AR12にのみ進入した状態に遷移したと同時に、乗車意思なし物体領域から乗車意思あり物体領域へ切り替わり、そのとき戸開状態だった場合。
(ケース2)戸開状態かつAR11内で検出された場合。すなわち、少なくともAR11に進入した状態に遷移したと同時に、乗車意思なし物体領域から乗車意思あり物体領域へ切り替わり、そのとき戸開状態だった場合。
(ケース3)戸閉動作中かつAR12内で検出された場合。すなわち、AR12にのみ進入した状態に遷移したと同時に、乗車意思なし物体領域から乗車意思あり物体領域へ切り替わり、そのとき戸閉動作中だった場合。
(ケース4)戸閉動作中かつAR11内で検出された場合。すなわち、少なくともAR11に進入した状態に遷移したと同時に、乗車意思なし物体領域から乗車意思あり物体領域へ切り替わり、そのとき戸閉動作中だった場合。
図18の(a)に示すように、画像上で移動物体1の像を示す移動物体領域MOAがAR12の外側に存在するとともにかご戸22が戸開状態であり、移動物体1がかご20に乗り込もうと近づいてくる場合を例示して説明する。この移動物体1の像を示す移動物体領域MOAは、上述のように乗車意思あり物体領域であると判定されているとする。
動作制御部422は、かご戸22が戸開状態であり、かつ移動物体1の像を示す移動物体領域MOAが上記(β)ではない状態から(β)の状態に遷移した場合(図18の(b))、前記実施形態1にて説明したことと同様に、戸閉指令を戸開閉装置50に送信するまでの時間(制御変数)に第2所定時間を加算する、または制御変数に第1所定時間を再セットする。
なお、ケース1~4において、「AR12(あるいはAR11)にのみ進入した状態に遷移したと同時に」を、「AR12(あるいはAR11)にのみ進入した状態に遷移していた後で」に置き換えた場合も考えられる。この場合にも、ケース1~4と同様の開閉制御が行われる。
そして、図18の(c)に示すように、移動物体1の像を示す移動物体領域MOAが、AR11に進入した後、図18の(d)に示すように、該移動物体領域MOAはかご20内へと移動する。その後、所定時間が経過し、AR12内に別の移動物体1の像を示す移動物体領域MOAが存在(進入)しない場合、動作制御部422は、上記制御変数がゼロとなった時点で戸閉指令を戸開閉装置50に送信し、戸開閉装置50は、かご戸22の戸閉動作を実行する。
なお、本実施形態における乗車検知システムでは、上述の動作制御部422による処理の対象となった乗車意思あり物体領域が上記(γ)ではない状態から上記(γ)の状態に遷移した場合、または、上記(δ)ではない状態から上記(δ)の状態に遷移した場合において、動作制御部422は格別の処理(例えば制御変数の加算)を行わない。これにより、かご戸22が戸開状態となっている時間が不要に長大化することを抑制することができる。
(ケース2:戸開状態かつAR11内で検出された場合)
動作制御部422は、かご戸22が戸開状態であり、かつ乗車意思あり物体領域(移動物体1の像を示す移動物体領域MOA)がAR11内にて初めて検出された場合、上記と同様に、かご戸22の戸閉指令を戸開閉装置50に送信するまでの時間(制御変数)に第2所定時間を加算する、または制御変数に第1所定時間を再セットする。
(ケース3:戸閉動作中かつAR12内で検出された場合)
図19は、かご戸22が戸閉動作中の場合における、動作制御部422が実行する戸開閉動作の制御の一例について説明するための図である。
図19の(a)に示すように、画像上で移動物体1の像を示す移動物体領域MOA(乗車意思あり物体領域)がAR12の外側に存在するとともにかご戸22が戸閉動作中であり、移動物体1がかご20に乗り込もうと近づいてくる場合を例示して説明する。
動作制御部422は、図19の(b)に示すように、かご戸22が戸閉動作中であり、かつ移動物体1の像を示す移動物体領域MOAが上記(β)ではない状態から(β)の状態へ遷移した場合、格別の処理(例えば制御変数の加算)を行わない。これにより、かご戸22から比較的遠い位置にて乗車意思あり物体領域が検出された場合に、戸閉動作中のかご戸22は、停止動作および戸開動作することなく、そのまま戸閉状態となる。
なお、動作制御部422は、画像上で移動物体1の像を示す移動物体領域MOAが上記(β)ではない状態から(β)の状態へ遷移した場合において、かご戸22の戸閉動作の初期段階であれば、戸開指令Cを戸開閉装置50に送信して、かご戸22の戸閉動作を中止するように制御をおこなってもよい。
(ケース4:戸閉動作中かつAR11内で検出された場合)
動作制御部422は、かご戸22が戸閉動作中であり、かつ乗車意思あり物体領域(移動物体1)が上記(γ)ではない状態から上記(γ)の状態に遷移した場合、または、上記(δ)ではない状態から上記(δ)の状態に遷移した場合、図19の(c)に示すように、かご戸22の戸閉動作を中止して戸開動作を実行する旨の戸開指令Cを戸開閉装置50に送信する。戸開閉装置50は、戸開指令Cを受信すると、かご戸22の戸閉動作を中止して、戸開動作を再度実行する。
(小括5)
従来、かご20のかご戸22の開閉動作の制御としては、一つの検出ゾーンを定め、その検出ゾーン内に人物等が検出されているか否かを基準とする制御が考えられる。この制御では、ドアが閉動作中に検出ゾーン内に人物等が検出されると、ドアの閉動作を一旦停止し、反転して開動作を行うことになる。また、この制御では、ドアが戸開状態にある場合に、検出ゾーン内に人物等が検出されると、戸開状態が維持される。このような従来の制御では、次のような問題があった。
すなわち、かご20から遠い位置の乗車意思ありの人物についても、かご戸22の閉動作を一旦停止し反転して開動作を行う対象としてかご20への乗車を許す場合、当該人物(個々の利用者)を優遇してエレベータ・サービスをすることになる。その結果、エレベータの利用者全体(例えばかご20内に既に乗り込んでいる利用者、別の階でかご20を呼び出している利用者、等)に対する考慮が不十分となり、エレベータの運行効率が阻害される結果を招く。
そこで、以上のように、本実施形態における制御装置40は、エレベータの乗場2をカメラ21にて撮像した画像において、エレベータのかご20への乗車意思を有する移動物体1に対応する像を示す乗車意思あり物体領域を抽出する意思推定部421を備えている。そして、前記画像における仮想的な領域であって、(i)ドア開閉路24(かご20の出入口)周辺に相当する判定領域AR11(第1の判定領域)、および(ii)実空間上で判定領域AR11に対応する領域よりもドア開閉路24に対して遠い領域に相当する、判定領域AR11を含まない判定領域AR12(第2の判定領域)が予め設定されている。本実施形態における制御装置40は、前記乗車意思あり物体領域がAR12にのみ進入した状態となった場合と、前記乗車意思あり物体領域が少なくともAR11に進入した状態となった場合とで、かご戸(ドア)22が閉動作中のときのかご戸22の開閉動作の制御を異ならせるようにかご戸22の開閉動作を制御する動作制御部422を備えている。
従来技術においても判定領域AR11は設定され得るが、本実施形態における制御装置40では、判定領域AR11に加えて、さらに判定領域AR11の外側に判定領域AR12を設定している。これにより、上述した、従来技術において検出ゾーンを拡大する場合のような問題が生じにくい。本実施形態の制御装置40では、かご戸22の閉動作を開始するまでの時間を増やす制御の判定条件に用いられる判定領域の範囲を拡大させつつ、かご戸22の閉動作を中止して反転開動作を行う制御の判定条件に用いられる判定領域の範囲はそのままとすることができる。
具体的には、例えば、移動物体1(人物等)が、かご20の出入口から遠い判定領域AR12に進入し判定領域AR11には進入していない状態において、かご戸22の閉動作の開始前であれば、該閉動作を開始するまでの時間を増やすことにより、乗車意思を有する移動物体1に対してサービス性を確保することができる。
また、例えば、上記状態においてかご戸22が閉動作中の場合、かご戸22の閉動作を継続させる。これにより、乗車意思を有するが、かご戸22が閉まり切るまでに乗り込むことが難しそうな移動物体1を優遇することに起因してエレベータの運行効率が低下する事態の発生を防止することができる。
したがって、移動物体1に対してかご20への乗込みを許すことによるサービス性の確保と、かご20への乗込みを断念させることによる運行効率の確保との、どちらを優先するかについて、移動物体1の位置とドア開閉路24との遠近関係に応じてバランスをとることができる。その結果、個々の利用者に対するサービス性の確保と、利用者全体を考慮したエレベータの運行効率の確保とを両立させて、エレベータをより円滑に運行させることができる。
以上のように制御装置40が行う処理(特に動作制御部422による動作制御ステップ)を含む、エレベータのかご戸22の開閉動作を制御するエレベータドアの制御方法についても本発明の範疇に入る。
(変形例5)
(5a)判定領域データ411は、画像中の像の移動スピードに応じて、第1および第2の判定領域の大きさを変化させるように設定されていてもよい。例えば、移動物体のスピードが速いほど、第1および第2の判定領域の大きさを拡大するように設定されていてもよい。
(5b)判定領域データ411は、かご戸22の閉まり具合に応じて、第1および第2の判定領域の大きさを変化させるように設定されていてもよい。例えば、かご戸22が閉まっていくほど、第1の判定領域の大きさを縮小するように設定されていてもよい。
(5c)本発明の他の一態様における乗車検知システムでは、カメラの撮像画像に替えて、各種のセンサの検出結果を利用して、乗車意思あり物体領域を判定してもよい。例えば、特許第5473801号に開示された手法を用いて、乗車意思あり物体領域を判定してもよい。上記センサとして、例えば、測距センサ(例:レーザレーダまたはミリ波レーダ)を用いることができる。あるいは、上記センサとしては、感熱センサを用いることもできる。
(その他の構成)
乗車検知システム10の一態様では、移動物体決定部33、物体追跡部34、または変動係数演算部35は、制御装置40に含まれていてもよい。乗車検知システム10の別の一態様では、意思推定部421は、画像処理装置30に含まれていてもよい。
〔ソフトウェアによる実現例〕 画像処理装置30の制御ブロック(特に移動物体決定部33、物体追跡部34、および変動係数演算部35)並びに制御装置40の制御ブロック(特に制御部42)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、画像処理装置30および制御装置40は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔附記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1:移動物体 2:乗場 3:乗場戸 10、10B:乗車検知システム 21:カメラ 22:かご戸(ドア) 23:幕板 24:ドア開閉路 30:画像処理装置(情報処理装置) 31:画像取得部 33:移動物体決定部 33B:移動物体決定部 34:物体追跡部 35:変動係数演算部 39:システムバス 40:制御装置(情報処理装置) 41:記憶部 42:制御部 50:戸開閉装置 330:第1の輝度差分演算部 331:第2の輝度差分演算部 332:オプティカルフロー演算部 334:決定処理部 334A:物体候補領域設定部 334B:領域選定部 335:判定部 341:図形設定部 342:重なり度算出部 343:追跡処理部 352:対象物体判定部 411:判定領域データ 421:意思推定部 422:動作制御部 MOA2、MOA4、MOA5:移動物体領域 OCA1、OCA2、OCA4:物体候補領域 PA21、PA22、PA41、PA42:部分領域 S1:対応図形 TP11:第1の処理後画像 TP12:第1の処理後画像 TP2:第2の処理後画像 TP3:第3の処理後画像 TP4:第4の処理後画像 θ1A:第1有効進入角度範囲 θ1B:第1無効進入角度範囲 θ2A:第2有効進入角度範囲 θ3A:第3有効進入角度範囲 θ3B:第3無効進入角度範囲

Claims (14)

  1. エレベータの乗場をカメラにて撮像した画像を取得する画像取得部と、
    所定の時間差を有する2つの時点のそれぞれにて前記画像を撮像して得られた2枚の前記画像について平滑化処理を用いて輝度の差分に基づく演算処理を行うことにより、前記画像における動きの有る移動領域に関する移動領域情報を生成する第1の輝度差分演算部と、
    前記移動領域情報に対応する前記2つの時点における2枚の前記画像についてオプティカルフロー演算処理を行うことにより、前記画像中の各画素のオプティカルフローを算出するオプティカルフロー演算部と、
    前記画像中の各画素の前記オプティカルフローを分類した画素方向情報を、前記移動領域の各画素に対応付けることによって、前記乗場に存在する移動物体に対応する像を前記画像中にて示す移動物体領域を決定する決定処理部と、を備えていることを特徴とする画像処理装置。
  2. 2枚の前記画像について前記平滑化処理を用いることなく輝度の差分に基づく演算処理を行うことにより前記移動領域情報を生成する第2の輝度差分演算部をさらに備え、
    前記決定処理部は、(i)前記第1の輝度差分演算部により生成された前記移動領域情報の各画素に前記画素方向情報を対応付けること、および(ii)前記第2の輝度差分演算部により生成された前記移動領域情報の各画素に前記画素方向情報を対応付けること、のいずれか一方によって、前記移動物体領域を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 複数の前記乗場にて前記カメラにより前記画像が撮像される場面のそれぞれに対して前記乗場の明るさが十分であるか否かを対応付けた、撮像場面ごと明るさ情報が予め記憶されており、
    前記乗場を撮像するに際して、前記画像を撮像した前記乗場の場面に関する撮像場面情報を取得し、
    前記撮像場面情報と前記撮像場面ごと明るさ情報とに基づいて、前記乗場の明るさが不十分であるか否か判定し、
    前記乗場の明るさが不十分と判定された場合には前記第1の輝度差分演算部を起動して前記移動領域情報を生成し、
    前記乗場の明るさが十分と判定された場合には前記第2の輝度差分演算部を起動して前記移動領域情報を生成することを特徴とする請求項2に記載の画像処理装置。
  4. 前記撮像場面ごと明るさ情報は、前記エレベータの設置されている建物における複数の階床のそれぞれに対して前記乗場の明るさが十分か否かを対応付けたものであり、
    前記撮像場面情報は、前記エレベータのかごが到着した階床の情報であることを特徴とする請求項3に記載の画像処理装置。
  5. 前記撮像場面ごと明るさ情報は、複数の時間帯のそれぞれに対して前記乗場の明るさが十分か否かを対応付けたものであり、
    前記撮像場面情報は、前記エレベータのかごが前記乗場に到着した時刻の情報であることを特徴とする請求項3に記載の画像処理装置。
  6. 前記撮像場面ごと明るさ情報は、前記移動物体が存在しないときの前記乗場を撮像した前記画像における全画素の輝度の平均値を求め、前記平均値が所定の閾値を超える場合、当該乗場の明るさが十分であり、前記平均値が所定の閾値以下である場合、当該乗場の明るさが不十分であると判定した結果に基づいて、設定されていることを特徴とする請求項3~5のいずれか1項に記載の画像処理装置。
  7. 前記第1の輝度差分演算部は、
    2枚の前記画像、および2枚の前記画像をそれぞれグレースケール変換した2枚のグレー画像、のいずれか一方の組に対して前記平滑化処理を行うことにより2枚の平滑化画像を生成し、2枚の前記平滑化画像を用いて生成した第1の差分画像に対して二値化処理を行う、または、
    2枚の前記画像、および2枚の前記グレー画像、のいずれか一方の組を用いて生成した第2の差分画像に対して前記平滑化処理を行うとともに二値化処理を行う、ことを特徴とする請求項1に記載の画像処理装置。
  8. 前記第1の輝度差分演算部は、前記二値化処理により生成される二値化画像について膨張処理および収縮処理を行うようになっており、
    前記膨張処理および前記収縮処理にて用いられるフィルタサイズが、前記平滑化処理にて用いられる平滑化フィルタのサイズよりも大きくなる、または前記平滑化フィルタのサイズと同じになるように設定されていることを特徴とする請求項7に記載の画像処理装置。
  9. 前記第1の輝度差分演算部は、
    2枚の前記画像、および2枚の前記画像をそれぞれグレースケール変換した2枚のグレー画像、のいずれか一方の組に対して前記平滑化処理を行うことにより2枚の平滑化画像を生成し、2枚の前記平滑化画像を用いて生成した第1の差分画像に対して二値化処理を行う、または、
    2枚の前記画像、および2枚の前記グレー画像、のいずれか一方の組を用いて生成した第2の差分画像に対して前記平滑化処理を行うとともに二値化処理を行い、
    前記第2の輝度差分演算部は、
    2枚の前記画像、および2枚の前記グレー画像、のいずれか一方の組を用いて生成した第3の差分画像に対して二値化処理を行う、ことを特徴とする請求項2~6のいずれか1項に記載の画像処理装置。
  10. 前記第1の輝度差分演算部で行われる二値化処理で用いる閾値は、前記第2の輝度差分演算部で行われる二値化処理で用いる閾値よりも大きい、ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記第1の輝度差分演算部および前記第2の輝度差分演算部は、前記二値化処理により生成される二値化画像について膨張処理および収縮処理を行うようになっており、
    下記(1)または(2)のように設定されていることを特徴とする請求項9または10に記載の画像処理装置;
    (1)前記第1の輝度差分演算部は、前記膨張処理および前記収縮処理にて用いられるフィルタサイズが、前記平滑化処理にて用いられる平滑化フィルタのサイズよりも大きくなる、または前記平滑化フィルタのサイズと同じになるように設定されている、
    (2)前記第1の輝度差分演算部で行われる膨張処理の回数は、前記第2の輝度差分演算部で行われる膨張処理の回数よりも多い。
  12. 前記第1の輝度差分演算部は、前記平滑化処理においてガウシアンフィルタを用いることを特徴とする請求項1~11のいずれか1項に記載の画像処理装置。
  13. 前記移動領域は、2枚の前記画像について輝度差が所定の閾値以上である画素が連続している領域であり、
    前記移動領域情報は、画像中の各画素について、画像中における何れの前記移動領域に属している画素か、または前記移動領域に属していない画素か、を示す情報であることを特徴とする請求項1~12のいずれか1項に記載の画像処理装置。
  14. エレベータの乗場をカメラにて撮像した画像を取得する画像取得ステップと、
    所定の時間差を有する2つの時点のそれぞれにて前記画像を撮像して得られた2枚の前記画像について平滑化処理を用いて輝度の差分に基づく演算処理を行うことにより、前記画像における動きの有る移動領域に関する移動領域情報を生成する第1の輝度差分演算ステップと、
    前記移動領域情報に対応する前記2つの時点における2枚の前記画像についてオプティカルフロー演算処理を行うことにより、前記画像中の各画素のオプティカルフローを算出するオプティカルフロー演算ステップと、
    前記画像中の各画素の前記オプティカルフローを分類した画素方向情報を、前記移動領域の各画素に対応付けることによって、前記乗場に存在する移動物体に対応する像を前記画像中にて示す移動物体領域を決定する決定処理ステップと、を含むことを特徴とする画像処理方法。
JP2020117254A 2020-07-07 2020-07-07 画像処理装置および画像処理方法 Active JP7074161B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020117254A JP7074161B2 (ja) 2020-07-07 2020-07-07 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020117254A JP7074161B2 (ja) 2020-07-07 2020-07-07 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2022014735A true JP2022014735A (ja) 2022-01-20
JP7074161B2 JP7074161B2 (ja) 2022-05-24

Family

ID=80120334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020117254A Active JP7074161B2 (ja) 2020-07-07 2020-07-07 画像処理装置および画像処理方法

Country Status (1)

Country Link
JP (1) JP7074161B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7322250B1 (ja) 2022-06-16 2023-08-07 東芝エレベータ株式会社 エレベータシステム
JP7559907B1 (ja) 2023-11-09 2024-10-02 フジテック株式会社 エレベータシステムおよびエレベータ制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208850A (ja) * 2011-03-30 2012-10-25 Secom Co Ltd 異常検知装置
JP2017050646A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2017091127A (ja) * 2015-11-09 2017-05-25 株式会社メガチップス 画像処理装置、画像処理システム、画像処理装置の動作方法及び制御プログラム
JP2017124898A (ja) * 2016-01-13 2017-07-20 東芝エレベータ株式会社 エレベータの乗車検知システム
JP2017163374A (ja) * 2016-03-10 2017-09-14 株式会社デンソー 交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208850A (ja) * 2011-03-30 2012-10-25 Secom Co Ltd 異常検知装置
JP2017050646A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2017091127A (ja) * 2015-11-09 2017-05-25 株式会社メガチップス 画像処理装置、画像処理システム、画像処理装置の動作方法及び制御プログラム
JP2017124898A (ja) * 2016-01-13 2017-07-20 東芝エレベータ株式会社 エレベータの乗車検知システム
JP2017163374A (ja) * 2016-03-10 2017-09-14 株式会社デンソー 交通状況解析装置、交通状況解析方法、及び、交通状況解析プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7322250B1 (ja) 2022-06-16 2023-08-07 東芝エレベータ株式会社 エレベータシステム
JP2023183735A (ja) * 2022-06-16 2023-12-28 東芝エレベータ株式会社 エレベータシステム
JP7559907B1 (ja) 2023-11-09 2024-10-02 フジテック株式会社 エレベータシステムおよびエレベータ制御方法

Also Published As

Publication number Publication date
JP7074161B2 (ja) 2022-05-24

Similar Documents

Publication Publication Date Title
JP7036244B2 (ja) 乗車検知システムおよび乗車検知方法
US10941019B2 (en) User detection system and image processing device
Hu et al. Moving object detection and tracking from video captured by moving camera
Faro et al. Adaptive background modeling integrated with luminosity sensors and occlusion processing for reliable vehicle detection
US8948450B2 (en) Method and system for automatic object detection and subsequent object tracking in accordance with the object shape
JP5297078B2 (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
JP7074161B2 (ja) 画像処理装置および画像処理方法
JP2010063001A (ja) 人物追跡装置および人物追跡プログラム
JP2019124683A (ja) オブジェクト速度推定方法と装置及び画像処理機器
JP2007156626A (ja) 物体種別判定装置及び物体種別判定方法
JP6922951B2 (ja) 画像処理装置および画像処理方法
Pavlović et al. Advanced thermal camera based system for object detection on rail tracks
JP6874796B2 (ja) エレベータドアの制御装置および制御方法
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
US20050129274A1 (en) Motion-based segmentor detecting vehicle occupants using optical flow method to remove effects of illumination
JP6836217B2 (ja) 乗車検知システムおよび乗車検知方法
CN110321828B (zh) 一种基于双目摄像机和车底阴影的前方车辆检测方法
JP6841310B2 (ja) 乗車検知システムおよび乗車検知方法
JP6787455B1 (ja) 画像処理装置および画像処理方法
JP2008009498A (ja) 転倒検知装置、プログラム、転倒検知方法、及び転倒検知システム
CN108573497B (zh) 客流统计装置和方法
JP4070450B2 (ja) 前方車両認識装置及び認識方法
US10789688B2 (en) Method, device, and system for enhancing changes in an image captured by a thermal camera
Tupper et al. Pedestrian proximity detection using RGB-D data
KR101958927B1 (ko) 통행량을 기반으로 한 적응적 사람 계수 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7074161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150