JP6137234B2 - Detection device - Google Patents
Detection device Download PDFInfo
- Publication number
- JP6137234B2 JP6137234B2 JP2015105878A JP2015105878A JP6137234B2 JP 6137234 B2 JP6137234 B2 JP 6137234B2 JP 2015105878 A JP2015105878 A JP 2015105878A JP 2015105878 A JP2015105878 A JP 2015105878A JP 6137234 B2 JP6137234 B2 JP 6137234B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- subject
- unit
- imaging unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 27
- 238000003384 imaging method Methods 0.000 claims description 313
- 230000008859 change Effects 0.000 claims description 21
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000009434 installation Methods 0.000 claims description 3
- 210000003128 head Anatomy 0.000 description 112
- 238000012545 processing Methods 0.000 description 52
- 238000000034 method Methods 0.000 description 46
- 230000008569 process Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 230000005856 abnormality Effects 0.000 description 11
- 230000000903 blocking effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000001681 protective effect Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 5
- 239000000779 smoke Substances 0.000 description 5
- 238000012937 correction Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 239000007789 gas Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 229910002091 carbon monoxide Inorganic materials 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005499 meniscus Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 206010042772 syncope Diseases 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/60—Other road transportation technologies with climate change mitigation effect
- Y02T10/70—Energy storage systems for electromobility, e.g. batteries
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、検出装置に関する。 The present invention relates to a detection device.
従来より、オフィス内の人に無線発信装置を持たせて、オフィスで災害が発生したときに、避難を誘導する避難誘導システムが提案されている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an evacuation guidance system has been proposed that guides evacuation when a person in the office has a wireless transmission device and a disaster occurs in the office (see, for example, Patent Document 1).
しかしながら、従来の避難誘導システムでは、オフィス内の人に無線発信装置を持たせなければならなかった。このため、無線発信装置を例えば机の上に置き忘れた際には、避難をさせるべき人が机にいると誤検出してしまったり、無線発信装置を外した人に対する避難誘導ができなかったりするおそれがある。 However, in the conventional evacuation guidance system, a person in the office has to have a wireless transmission device. For this reason, for example, if the wireless transmission device is left on the desk, it may be erroneously detected that there is a person to be evacuated or the person who removed the wireless transmission device cannot be evacuated. There is a fear.
そこで、本発明は上記の課題に鑑みてなされたものであり、対象者を高精度に継続的に検出することが可能な検出装置を提供することを目的とする。 Therefore, the present invention has been made in view of the above-described problems, and an object thereof is to provide a detection device capable of continuously detecting a subject with high accuracy.
本発明の検出装置は、第1方向から対象者を含む画像を撮像する第1の撮像部と、前記第1方向から前記対象者を含む画像を撮像する、前記第1の撮像部とは異なる第2の撮像部と、所定の被写体を前記第1の撮像部と前記第2の撮像部のそれぞれの撮像領域が重複する領域内に含ませるように前記第1の撮像部と前記第2の撮像部との少なくとも一方を調整する調整手段と、前記第1の撮像部と前記第2の撮像部との少なくとも一方の撮像により前記対象者の頭に対応する像の大きさを検出する検出部と、対象者の身長と該対象者の頭に対応する像の大きさとの関係と、前記第1の撮像部と前記第2の撮像部との少なくとも一方で撮像された対象者の個人識別情報と、前記第1の撮像部と前記第2の撮像部との少なくとも一方で撮像された対象者の頭に対応する像の大きさの変化とに基づいて撮像された対象者の姿勢情報を判定する判定部と、を備える検出装置である。 The detection device of the present invention is different from the first imaging unit that captures an image including the subject from the first direction and the first imaging unit that captures an image including the subject from the first direction. The second imaging unit, the first imaging unit, and the second imaging unit so that the predetermined subject is included in a region where the respective imaging regions of the first imaging unit and the second imaging unit overlap. An adjustment unit that adjusts at least one of the imaging unit and a detection unit that detects a size of an image corresponding to the head of the subject by imaging at least one of the first imaging unit and the second imaging unit. And the relationship between the height of the subject and the size of the image corresponding to the subject's head, and personal identification information of the subject imaged by at least one of the first imaging unit and the second imaging unit And at least one of the first imaging unit and the second imaging unit. A determining unit posture information of the subject imaged on the basis of the magnitude of the change in the image corresponding to the head of the elephant's is the detection device comprising a.
この場合において、前記調整手段は、前記第1の撮像部と前記第2の撮像部との少なくとも一方の設置位置または光学系を調整することができる。また、前記調整手段は、前記所定の被写体として人体を用いることとしてもよい。この場合、前記調整手段は、前記所定の被写体として人の頭を用いることとしてもよい。
In this case, the adjustment means can adjust an installation position or an optical system of at least one of the first imaging unit and the second imaging unit. Further, the adjusting means may use a human body as the predetermined subject. In this case, the adjusting means may use a human head as the predetermined subject.
本発明の検出装置においては、前記第1の撮像部と前記第2の撮像部の少なくとも一方は、階段を撮像可能な位置に配置されていてもよい。また、前記判定部は、前記対象者が存在している階段の高さ位置を考慮して、前記像の大きさの変化から、前記対象者の姿勢状態を判定することとしてもよい。
In the detection apparatus of the present invention, the first at least one of the imaging unit the second imaging unit may be arranged stairs to the imaging positions. Further, the determination unit may determine the posture state of the subject from the change in the size of the image in consideration of the height position of the stairs where the subject exists.
本発明の検出装置においては、撮像領域の一部が重複する撮像部の撮像結果を連続的に用いることで、前記対象者を追尾する追尾部を備えていてもよい。また、前記第1の撮像部により前記対象者が撮像された場合に、前記第2の撮像部の撮像の開始及び終了の少なくとも一方を切り替えることとしてもよい。また、前記第1方向は、鉛直方向であり、前記第1の撮像部と前記第2の撮像部は、前記対象者の頭上から前記画像を撮像することとしてもよい。 In the detection apparatus of the present invention, a tracking unit that tracks the target person may be provided by continuously using the imaging results of the imaging units in which a part of the imaging region overlaps. Moreover, when the subject is imaged by the first imaging unit, at least one of the start and end of imaging of the second imaging unit may be switched. The first direction may be a vertical direction, and the first imaging unit and the second imaging unit may capture the image from above the subject.
本発明の検出装置は、対象者を高精度に継続的に検出することができるという効果を奏する。 The detection device of the present invention has an effect that the subject can be detected continuously with high accuracy.
以下、一実施形態について、図1〜図18に基づいて詳細に説明する。図1には、誘導装置100(図2参照)が導入されたオフィスビル200の一例が示されている。なお、誘導装置100は、オフィスビルに限らず、学校や集合住宅などに導入することも可能である。
Hereinafter, an embodiment will be described in detail with reference to FIGS. FIG. 1 shows an example of an
図1に示すように、オフィスビル200は、一例として6階建ての建物であり、人は、各フロア(階)間を階段24を用いて移動することができるものとする。また、オフィスビル200には、エレベータEVが設けられているので、当該エレベータEVを利用することでも、各フロア間を移動することが可能となっている。なお、各フロアのエレベータEV近傍には、エレベータホール41が設けられている。また、各フロアには、図1において破線で囲んで示すように、3つの区画(部屋)43があるものとする。また、本実施形態では、オフィスビル200の入り口が、1階にあるものとする。
As shown in FIG. 1, the
図1においては、誘導装置100に含まれる画像取得装置2が、各フロアの天井部に配置された状態が示されている。ここで、1つの区画43は、図1のX軸方向及びY軸方向に広がるフロアであり、当該区画43には、X軸方向に沿って3つ、Y方向に沿って3つの計9つの画像取得装置2が設けられているものとする。ただし、図1では、図示の便宜上、1区画に対して3つの画像取得装置2が設置されている状態を示している。なお、画像取得装置2の数は、区画43の広さや、画像取得装置2が有する撮像部の光学性能などに基づいて、適宜決定することができる。
FIG. 1 shows a state in which the
図2には、誘導装置100がブロック図にて示されている。この図2に示すように、誘導装置100は、各フロアに設けられた複数の画像取得装置2と、各フロアの画像取得装置2との通信が可能な状態とされた第1〜第6CPU(3a〜3f)と、を備える。また、誘導装置100は、エレベータEV内に設けられた画像取得装置2と、エレベータEV内の画像取得装置2が接続されるエレベータ用CPU3gと、を備える。更に、誘導装置100は、各CPU3a〜3gが接続されたホストコンピュータ4と、読取装置20と、を備える。
FIG. 2 shows the
画像取得装置2は、所定範囲内(撮像領域内)に存在する人(撮影(追跡)対象者(以下、単に「対象者」と呼ぶ))の頭を含む画像を取得したり、対象者に対して、避難経路を示したりする。なお、画像取得装置2の詳細な構成等については、後述する。
The
第1〜第6CPU(3a〜3f)、エレベータ用CPU3gは、画像取得装置2で取得した情報を処理したり、画像取得装置2の動作を制御したりする。なお、本実施形態では、CPUを各階ごとに1つずつ設置するものとしているが、これに限らず、各階に複数のCPUを設けることとしてもよい。この場合、各CPU間での情報のやり取りは、有線もしくは無線による通信手段により行うこととすればよい。なお、CPU3a〜3gの詳細な構成等については、後述する。
The first to sixth CPUs (3a to 3f) and the
ホストコンピュータ4は、CPU3a〜3gから出力される情報に基づいて、火災などの災害が発生した場合に、オフィス内にいる人に災害の発生を報知するとともに、避難を誘導するものである。
When a disaster such as a fire occurs based on information output from the
なお、図2では、オフィスビル200が6階建ての場合の誘導装置を図示しているが、オフィスビルが1階建ての場合には、図2のCPU3b〜3gや、ホストコンピュータ4を省略してもよい。この場合、ホストコンピュータ4の機能を第1CPU3aに持たせることとすればよい。
In FIG. 2, the guidance device when the
読取装置20は、例えば、オフィスビル200の玄関や受付近傍に設けられているものとする。読取装置20は、ICカードに記録されている情報を読み取ることが可能なカードリーダを有している。対象者は、内部メモリに個人情報(個人識別情報)が記録されている従業員証(ICカード)を読取装置20にかざすことで、個人情報を読取装置20に読み込ませることができる。また、対象者がゲストである場合には、受付で渡されるゲスト証(ICカード)を読取装置20にかざすことで、ゲスト情報を読取装置20に読み込ませることができる。
For example, the
次に、図3に基づいて、画像取得装置2の具体的な構成について説明する。図3には、画像取得装置2のブロック図が示されている。図3に示すように、画像取得装置2は、撮像部8と、照度計10と、焦電センサ12と、火災センサ15と、マイク13と、通信部9と、LED(Light Emitting Diode:発光ダイオード)11と、フラッシュメモリ16と、スピーカ14と、処理部18と、を備える。また、画像取得装置2は、二次電池17を備える。なお、画像取得装置2は、通常は、一次電源(例えばオフィス用電源)を用いて動作する。
Next, a specific configuration of the
撮像部8は、オフィスビル200内及びオフィスビル200内に存在する人(対象者)を撮像するものである。なお、撮像部8の具体的な構成等については、後述する。
The
照度計10は、撮像部8がオフィス内を撮像する際の、撮像領域内の照度を測定する。照度計10による測定結果は、処理部18に入力される。焦電センサ12は、撮像部8の撮像領域内に人が存在しているか否かを検知するためのセンサである。焦電センサ12としては、人が発生する赤外線を検出する赤外線センサやフレネルレンズ等を有する焦電センサを用いることができる。焦電センサ12による検出結果は、処理部18及び通信部9を介して、CPU(3a〜3g)に対して出力される。なお、本実施形態では、1つの撮像部8の撮像領域を、1つの焦電センサ12でカバーできるように、撮像部8の撮像領域に応じて、焦電センサ12の視野角(検出角度)および検出視野(検出距離)が設定されているものとする。ただし、これに限らず、焦電センサ12は、個々の画像取得装置2に対して複数個設けてもよい。または、複数の画像取得装置2で1つの焦電センサ12を共用することとしてもよい。
The
火災センサ15は、火災発生時の煙を感知するセンサであり、例えば、LEDなどの発光部と、PD(Photo Diode)などの受光部を備えているものとする。火災センサ15では、発光部から発光された光のうち、煙の粒子により反射された反射光を受光部にて受光することで、火災を検知する。なお、火災センサ15としては、煙を感知するセンサに代えて、火災発生時の熱量を感知するセンサを採用することとしてもよい。また、図3では、1つの画像取得装置2に対して1つの火災センサ15を設けることとしているが、これに限らず、個々の画像取得装置2に対して火災センサ15を複数個設けてもよい。または、複数の画像取得装置2において1つの火災センサ15を共用するようにしてもよい。
The
マイク13は、人(対象者)等の音声を取得して、処理部18に入力する。処理部18では、例えば、マイク13から入力された音声が「助けて」であった場合に、当該音声に基づいて、救助が必要であると判定したりする。
The
通信部9は、CPU3a〜3gなどとの通信を行う。具体的には、通信部9は、アンテナ、送信部、受信部などを有しており、各画像取得装置2が直接的に接続されているCPU(3a〜3g)に対して、対象者の状態等の情報を送信するとともに、ホストコンピュータ4や他の画像取得装置2の通信部9との通信も行う。
The communication unit 9 performs communication with the
LED11は、例えば夜間などでオフィスが部分的に消灯され、照度計10により測定した照度が低い場合に、処理部18からの指示に応じて、オフィス内の特定領域(例えば、撮像部8の撮像領域)を照明する。フラッシュメモリ16は、撮像した画像や、オフィス内に存在している対象者の位置情報を記憶する記憶媒体である。スピーカ14は、音又は音声で、対象者に対する情報(災害発生状況の情報や、避難経路の情報など)を発信する。
For example, when the office is partly turned off at night and the illuminance measured by the
処理部18は、撮像部8で撮像された画像や、その他各部において検出された検出結果等に基づいた処理を実行するとともに、画像取得装置2内の構成各部の処理を統括的に制御する。
The processing unit 18 performs processing based on the image captured by the
二次電池17は、停電や災害などの発生により、画像取得装置2に対して一次電源から電力が供給されないときに、画像取得装置2に対して電力供給するバックアップ電源である。二次電池17としては、例えば、リチウムイオン電池を用いることができる。ただし、これに限らず、二次電池としては、オフィス用の太陽光発電などを用いることとしてもよい。
The secondary battery 17 is a backup power source that supplies power to the
図4には、CPU3a〜3gにおいてプログラムが実行されることにより、実現される機能をブロック図にて示した図である。この図4に示すように、CPU3a〜3gは、追跡部61、姿勢判定部62、通信部63として機能する。なお、図4では、追跡部61と姿勢判定部62に接続されたメモリ64についても図示している。追跡部61は、対象者がオフィスビル200の入り口から入場した後から、撮像部8による撮像結果に基づいて、プライバシを保護した状態で対象者を追跡する。姿勢判定部62は、撮像部8による撮像結果に基づいて、対象者のプライバシを保護した状態で、対象者の姿勢(直立、中腰、倒れているなど)を判定する。また、姿勢判定部62は、姿勢の変化に基づいて、対象者が異常か否かも判定する。通信部63は、画像取得装置2の通信部9や、ホストコンピュータ4との間で情報のやり取りを行う。例えば、姿勢判定部62において、対象者に異常が発生していないと判定されている間は、通信部63が、対象者に異常がない旨のメッセージをホストコンピュータ4に送信する。この場合、ホストコンピュータ4に対しては、撮像部8で撮像した画像を送信しない。これにより、異常がない状態が継続している間は、対象者のプライバシを保護することができる。一方、対象者に異常が発生した場合には、ホストコンピュータ4に異常が発生した旨のメッセージを送信するが、この場合には、状況を正確に伝えるため、画像を送信することとすることができる。
FIG. 4 is a block diagram illustrating functions realized by executing programs in the
図5(a)には、ホストコンピュータ4のハードウェア構成が示されている。この図5(a)に示すように、ホストコンピュータ4は、CPU90、ROM92、RAM94、記憶部(ここではHDD(Hard Disk Drive))96、入出力部97等を備えている。これらホストコンピュータ4の構成各部は、バス98に接続されている。ホストコンピュータ4では、ROM92あるいはHDD96に格納されているプログラムをCPU90が実行することにより、図5(b)の各部の機能が実現される。また、入出力部97には、オフィス内のスプリンクラーや排気装置、防護壁(防火扉)の駆動装置が接続されている。スプリンクラーは、火災が発生したときに放水をして消火するものであり、排気装置は有害ガス(煙、一酸化炭素など)をオフィス外に排気するものである。防護壁(放火扉)は、有害ガスの流通を遮断するための扉であり、廊下や階段などに設置されている。また、入出力部97は、消防署や警備会社の通信装置と、有線または無線で接続されている。したがって、ホストコンピュータ4は、入出力部97を介して、災害の発生を消防署や警備会社に通知することができる。更に、入出力部97には、図2の表示装置91が接続されている。
FIG. 5A shows the hardware configuration of the host computer 4. As shown in FIG. 5A, the host computer 4 includes a
図5(b)には、ホストコンピュータ4の機能ブロック図が示されている。この図5(b)に示すように、ホストコンピュータ4は、設定部5、カレンダ部6、誘導制御部51、移動判定部53、遮断部55、経路決定部57、入場処理部58、通信部59として機能する。設定部5は、複数の画像取得装置2の各種設定を行うものである。設定部5は、例えば、画像取得装置2の画像取得間隔などを設定する。カレンダ部6は、年、月、日、時、分、秒といったカレンダ情報を取得するとともに、時間を計時する機能を有している。カレンダ情報は、ホストコンピュータ4が有するCPU水晶発振子や計時用集積回路から取得することができる。
FIG. 5B shows a functional block diagram of the host computer 4. As shown in FIG. 5B, the host computer 4 includes a
誘導制御部51は、災害時(火災発生時など)において、撮像部8の撮像結果に基づいて対象者を避難させるため、画像取得装置2の各部(例えばLED11)における動作を制御する。移動判定部53は、対象者が、誘導制御部51の意図通りに、移動したか否かを判定する。遮断部55は、撮像部8の撮像結果から得られる対象者の存在位置に基づいて、防護壁の駆動装置を介して、オフィスビル200内の防護壁(防火扉)を開閉する。より具体的には、撮像部8の撮像結果から対象者の頭の像の大きさが検出されない場合に、遮断部55が、誘導制御部51が誘導する通路を防護壁にて遮断する。また、遮断部55は、火災発生時に、機械設備への電力供給を遮断する。経路決定部57は、オフィス内の状況に応じて、避難経路を変更する。入場処理部58は、オフィスビル200の入り口から入場する人を、対象者とするための処理を行う。通信部59は、上記各部の処理結果を、CPU3a〜3gの通信部63を介して、画像取得装置2の通信部9に対して送信する。
The guidance control unit 51 controls the operation of each unit (for example, the LED 11) of the
次に、画像取得装置2に含まれる撮像部8の具体的な構成等について、図6に基づいて詳細に説明する。この撮像部8は、主としてオフィスビル内にいる人の頭を撮像するためのものである。ここで、各フロアの天井高は、2.6mであるものとする。すなわち、撮像部8は、2.6mの高さから人の頭などを撮像する。
Next, a specific configuration and the like of the
撮像部8は、図6に示すように、3群構成の広角レンズ系32と、ローパスフィルタ34と、CCD又はCMOSなどからなる撮像素子36と、撮像素子を駆動制御する回路基板38と、を有する。なお、図6では不図示であるが、広角レンズ系32とローパスフィルタ34との間には、不図示のメカシャッターが設けられているものとする。
As shown in FIG. 6, the
広角レンズ系32は、2枚の負メニスカスレンズを有する第1群32aと、正レンズ、接合レンズ、及び赤外カットフィルタを有する第2群32bと、2枚の接合レンズを有する第3群32cと、を有しており、第2群32bと第3群32cとの間に絞り33が配置されている。本実施形態の広角レンズ系32は、系全体の焦点距離が6.188mm、最大画角が80°となっている。なお、広角レンズ系32は、3群構成に限定されるものでもない。すなわち、例えば、各群のレンズ枚数やレンズ構成、並びに焦点距離や画角は、適宜変更することが可能である。
The wide-
撮像素子36は、一例として、23.7mm×15.9mmの大きさで、画素数が4000×3000(1200万画素)であるものとする。すなわち、1画素の大きさは、5.3μmである。ただし、撮像素子36としては、上記と異なるサイズ及び画素数の撮像素子を用いてもよい。
As an example, the
上記のように構成される撮像部8では、広角レンズ系32に入射した光束はローパスフィルタ34を介して撮像素子36に入射し、回路基板38が撮像素子36の出力をデジタル信号に変換する。そして、ASIC(Application Specific Integrated Circuit)を含む処理部18(図3参照)が、デジタル信号に変換された画像信号に対してホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を施すとともに、JPEGなどの画像圧縮をする。また、処理部18は、JPEG圧縮された静止画像をフラッシュメモリ16に格納する。
In the
なお、撮像部8の撮像領域は、隣接する画像取得装置2の撮像部8の撮像領域と重複(オーバラップ)している(図12の撮像領域P1〜P4参照)。なお、この点については、後に詳述する。
Note that the imaging area of the
図7(a)には、広角レンズ系32の前側焦点から撮像した人(対象者)の頭までの距離と、像(頭部分)の大きさとの関係がグラフにて示され、図7(b)には、図7(a)のグラフを床からの高さに変換したグラフが示されている。
FIG. 7A is a graph showing the relationship between the distance from the front focal point of the wide-
ここで、前述のように広角レンズ系32の焦点距離が6.188mmであり、対象者の頭の直径が200mmであるとすると、広角レンズ系32の前側焦点から対象者の頭の位置までの距離が1000mmの場合(すなわち、身長1m60cmの人が直立している場合)には、撮像部8の撮像素子36に結像する対象者の頭の直径は1.238mmである。これに対し、対象者の頭の位置が300mm下がって広角レンズ系32の前側焦点から対象者の頭の位置までの距離が1300mmになった場合には、撮像部8の撮像素子に結像する対象者の頭の直径は0.952mmとなる。すなわち、この場合には、頭の高さが300mm変化することで、0.286mm(23.1%)だけ像の大きさ(直径)が変化する。
Here, as described above, when the focal length of the wide-
同様に、広角レンズ系32の前側焦点から対象者の頭の位置までの距離が2000mmの場合には(対象者が中腰の場合)、撮像部8の撮像素子36に結像する対象者の頭の直径は0.619mmであり、そこから対象者の頭の位置が300mm下がった場合には、撮像部8の撮像素子に結像する対象者の頭の像の大きさは0.538mmとなる。すなわち、この場合には、頭の高さが300mm変化することで、0.081mm(13.1%)だけ頭の像の大きさ(直径)が変化する。このように、本実施形態においては、広角レンズ系32の前側焦点から対象者の頭までの距離が離れるにつれて、頭の像の大きさの変化(変化率)が小さくなる。
Similarly, when the distance from the front focal point of the wide-
図8は、頭の像の大きさの変化率を示すグラフである。図8では、対象者の頭の位置が、横軸に示す値から100mm変化した場合の、像の大きさの変化率を示している。この図8から分かるように、広角レンズ系32の前側焦点から対象者の頭の位置までの距離が1000mmから100mm遠ざかった場合、像の大きさの変化率が9.1%と大きいので、仮に頭の大きさが同一であっても、身長差が100mm程度あれば、複数の対象者を身長差に基づいて容易に識別することができる。これに対し、広角レンズ系32の前側焦点から対象者の頭の位置までの距離が2000mmから100mm遠ざかった場合、像の大きさの変化率は4.8%となっている。この場合、上述した広角レンズ系32の前側焦点から対象者の頭の位置までの距離が1000mmから100mm遠ざかった場合に比べれば、像の変化率は小さくなるものの、同一の対象者の姿勢の変化程度であれば、容易に識別することができる。
FIG. 8 is a graph showing the change rate of the size of the head image. FIG. 8 shows the change rate of the image size when the position of the subject's head changes by 100 mm from the value shown on the horizontal axis. As can be seen from FIG. 8, when the distance from the front focal point of the wide-
このように、本実施形態の撮像部8の撮像結果を用いれば、対象者の頭の像の大きさから広角レンズ系32の前側焦点から対象者までの距離を検出することができるので、CPU(3a〜3g)の姿勢判定部62は、この検出結果を用いることで、対象者の姿勢(直立している、中腰である、倒れている)及び姿勢の変化を判別することができる。この点について、図9に基づいて、より詳細に説明する。
As described above, since the distance from the front focal point of the wide-
図9(a)、図9(b)は、対象者の姿勢に応じた頭の像の大きさの変化を模式的に示す図である。図9(b)に示すように、撮像部8を天井部に設けて、対象者の頭を撮像すると、図9(b)の左側の対象者のように直立している場合には、図9(a)に示すように頭が大きく撮像され、図9(b)の右側の対象者のように倒れている場合には、図9(a)に示すように頭が小さく撮像される。また、図9(b)の中央の対象者のように、中腰の状態にある場合には、頭の像は、立っているときよりも小さく、倒れているときよりも大きい。したがって、本実施形態では、CPU3a〜3gの姿勢判定部62は、撮像部8から送信されてくる画像に基づいて、対象者の頭の像の大きさを検出することで、対象者の状態を判定することができる。この場合、対象者の頭の像から、対象者の姿勢や姿勢の変化を判別しているので、対象者の顔や体全体などを用いた判別を行う場合と比べて、プライバシを保護することができる。
FIG. 9A and FIG. 9B are diagrams schematically showing changes in the size of the head image according to the posture of the subject. As shown in FIG. 9B, when the
なお、図7(a)、図7(b)及び図8では、広角レンズ系32の画角の低い位置(広角レンズ系32の真下)に、対象者が存在している場合におけるグラフを示している。すなわち、対象者が広角レンズ系32の周辺画角位置に存在している場合には、対象者との見込み角に応じたディストーションの影響を受けるおそれがある。これについて、詳述する。
7A, 7B, and 8 show graphs in the case where the subject is present at a position where the angle of view of the wide-
図10には、対象者の位置に応じた、撮像素子36に撮像される対象者の頭の像の大きさの変化が示されている。なお、撮像素子36の中心は、広角レンズ系32の光軸中心と一致しているものとする。この場合、対象者が直立している場合であっても、撮像部8の直下に立っている場合と、撮像部8から離れて立っている場合では、ディストーションの影響を受けて、撮像部8に撮像される頭の像の大きさが変化する。ここで、図10の位置p1において、頭が撮像された場合、当該撮像結果からは、撮像素子36で撮像された像の大きさ、撮像素子36の中心からの距離L1、撮像素子36の中心からの角度θ1を取得することができる。また、図10の位置P2において、頭が撮像された場合、当該撮像結果からは、撮像素子36で撮像された像の大きさ、撮像素子36の中心からの距離L2、撮像素子36の中心からの角度θ2を取得することができる。なお、距離L1、L2は、広角レンズ系32の前側焦点と、対象者の頭との距離を表すパラメータである。また、撮像素子36の中心からの角度θ1、θ2は、対象者に対する広角レンズ系32の見込み角を表すパラメータである。このような場合において、姿勢判定部62では、撮像素子36の中心からの距離L1、L2、撮像素子36の中心からの角度θ1、θ2に基づいて、撮像した像の大きさを補正する。換言すれば、対象者が同じ姿勢のときに、撮像素子36の位置p1に撮像される像の大きさと、位置p2に撮像される像の大きさとが実質的に等しくなるように補正する。このようにすることで、本実施形態では、撮像部8と対象者との位置関係(対象者までの距離や対象者との見込み角)にかかわらず、対象者の姿勢を精度よく検出することができる。なお、この補正に用いるパラメータ(補正テーブル)は、メモリ64に記憶されているものとする。
FIG. 10 shows a change in the size of the image of the head of the subject imaged by the
ところで、撮像部8は、上述した対象者の頭の画像を取得する機能以外に、通常のカメラとしての機能も有している。すなわち、例えば、広角レンズ系32にズームレンズを追加することで、例えば、対象者が床に倒れている場合などにおいて、対象者の目や口を連続して撮像することができる。この場合、処理部18は、パターンマッチング法等を用いて、目が開いているかどうか、あるいは、眼球が動いているかどうかを判定したり、口が動いているかどうか、あるいは口の動きから呼吸をしているかどうかを判定したりすることができる。
By the way, the
また、撮像部8においては、撮像素子36からの信号の高周波成分を抽出して、当該高周波成分が最大になるレンズ位置を検出して焦点検出を行うコントラストAFを適用することができる。この場合、広角レンズ系32の一部を調整することで、合焦状態で画像を取得することができるようになる。
Further, the
ここで、撮像部8による撮像間隔は、ホストコンピュータ4の設定部5が設定するものとする。設定部5は、オフィスに多くの人がいる可能性が高い時間帯と、それ以外の時間帯で、撮影の頻度(フレームレート)を変更することができる。例えば、設定部5は、カレンダ部6から取得したカレンダ情報から、現在が、オフィスに多くの人がいる可能性が高い時間帯(例えば午前9時から午後6時まで)であると判断した場合には、1秒に1回静止画を撮像(3万2400枚/日)するようにし、それ以外の時間帯と判定した場合には、5秒に1回静止画を撮像(6480枚/日)するようにする、などの設定をすることができる。
Here, the imaging interval by the
また、本実施形態では、画像取得装置2が、焦電センサ12を有しているので、処理部18は、当該焦電センサ12の出力に基づいて、撮像部8による撮像タイミングを制御する。より具体的には、処理部18は、焦電センサ12の出力に基づいて、撮像領域内に人が存在していないと判定される撮像部8の撮像を行わないこととし、焦電センサ12の出力に基づいて、撮像領域内に人が存在していると判定される撮像部8の撮像を開始するようにする。これにより、撮像部8で消費される電力の低減及びフラッシュメモリ16の記録領域の節約が可能となる。なお、フラッシュメモリ16の記録領域の節約という観点からは、撮像された静止画は、フラッシュメモリ16に一時的に保存したのち、例えば1日ごとの撮像データをホストコンピュータ4に転送後、フラッシュメモリ16から消去するようにしてもよい。
In the present embodiment, since the
また、本実施形態では、画像取得装置2が照度計10を備えているので、処理部18は、例えば、撮像部8が静止画を撮像する際の撮像時間やISO感度などを、照度計10が検出した照度に基づいて決定する。この場合、例えば、オフィス内が暗い場合には、ISO感度を上げるとともに撮像時間を長くすればよい。また、停電などによりオフィスの照明を一切使用することができない場合には、CPU(3a〜3g)又はホストコンピュータ4が画像取得装置2の電源を一次電源から二次電池17に切り替えた後、処理部18において、LED11によりオフィスを照明し、その状態で撮像部8を用いた撮像を行うこととしてもよい。また、この場合には、処理部18は、前述した焦電センサ12により対象者の位置を確認し、当該位置に照明光を照射できるようにLED11の照明方向を調整するようにしてもよい。かかる場合には、対象者を効率良く照明した状態で、撮像することができる。なお、LED11は天井に設けてもよいし、オフィスの任意の位置に設けてもよい、また、LEDに代えて、他の光源を用いることとしてもよい。
In the present embodiment, since the
更に、対象者を撮像する際の静止画は、対象者の異常が検出できる程度の画像が要求されているだけであり、通常鑑賞する静止画とは異なる。このため、暗い状況での撮影の際には、広角レンズ系32内に配置された赤外カットフィルタを不図示の退避機構により退避させて光量を確保するようにしてもよい。
Furthermore, the still image when the subject is imaged only requires an image that can detect the abnormality of the subject, and is different from the still image that is normally viewed. For this reason, at the time of shooting in a dark situation, the infrared cut filter disposed in the wide-
次に、上記のように構成される誘導装置100による処理について説明する。
Next, processing by the
(通常時(非災害時)の処理)
まず、通常時、すなわち非災害時における処理について、説明する。
(Normal (non-disaster) processing)
First, the processing at the normal time, that is, at the time of non-disaster will be described.
(1)入場処理
以下、対象者がオフィスビル200内に入るときの入場処理について説明する。ホストコンピュータ4の入場処理部58は、オフィスビル200の入り口(前述のように1階にある)に設けられた画像取得装置2(撮像部8)を制御して、入り口付近で直立した状態の入場者の頭の撮影を行う。また、ホストコンピュータ4は、読取装置20を用いて、入場者の保有する従業員証(IDカード)から、入場者の個人情報を取得する。これにより、入場者の個人情報(個人IDなど)と、直立時の頭の像の大きさ(当該直立時の頭の像の大きさは、身長との関係から、頭の大きさそのものを表すともいえる)と、身長とを関連付けたデータを取得することができる(図11参照)。なお、身長については、個人情報に予め紐付けられていてもよいし、上記頭の撮影の際に、別の撮像装置や距離センサなどを用いて検出することとしてもよい。後者の方法を用いれば、入場者がゲストであっても、身長を取得することができる。なお、別の撮像装置としては、対象者を水平方向から撮影する撮像装置を採用することができる。当該別の撮像装置と対象者との距離が常に一定な状態で撮像されていれば、当該撮像結果から対象者の身長を算出することができる。また、距離センサとしてはレーザレンジファインダ等を用いることができる。
(1) Entrance Process Hereinafter, the entrance process when the subject enters the
また、入場処理部58は、対象者の頭の画像を内部メモリに格納し、当該画像ファイルのファイル名を、図11のデータに頭画像として登録する。
Further, the
なお、本実施形態では、入場者が直立した状態での身長と、頭の像の大きさとが対応付けられていることから(図11参照)、CPU3a〜3gの追跡部61では、入場者を追跡するための情報として、図7(b)のようなグラフを、各入場者ごとに用意することができる。なお、図7(b)のグラフは、図11の上から2番目の入場者(IDが1786033の入場者)の追跡に用いるグラフである。なお、その他の入場者に対しては、身長と頭の像の大きさとの関係に適合したグラフが用意されることになる。
In the present embodiment, since the height of the attendant in an upright state is associated with the size of the head image (see FIG. 11), the tracking unit 61 of the
(2)1階における対象者の追跡処理
次に、対象者(入場処理が行われた入場者)がオフィスビル200内に入った後における、1階での対象者の追跡処理について説明する。ここでは、ホストコンピュータ4の制御の下、CPU3aの追跡部61が、対象者の追跡を行う。
(2) Tracking process of the target person on the first floor Next, the tracking process of the target person on the first floor after the target person (the attendee who has performed the entrance process) enters the
図12には、一例として、オフィスビル200内の1つの区画43と、当該区画43内に設けられた画像取得装置2の撮像部8の撮像領域と、の関係を模式的に示す図である。なお、図1においては、撮像部8が1つの区画43に9つ設けられている場合について説明したが、ここでは、説明の便宜上、1つの区画43内に4つの撮像部8(撮像領域P1,P2,P3,P4のみが図示されている)が設けられているものとする。また、1つの区画が256m2(16m×16m)であるものとする。更に、撮像領域P1〜P4それぞれは円形領域であるものとし、X方向及びY方向において隣接する撮像領域と重複(オーバラップ)した状態となっている。なお、図12では、説明の便宜上、1つの区画を4分割した分割部分(撮像領域P1〜P4それぞれに対応)を分割部分A1〜A4として示している。この場合、広角レンズ系32の画角が80°、焦点距離6.188mmとし、天井の高さを2.6m、対象者の身長を1.6mとすると、広角レンズ系32の真下を中心に半径5.67mの円内(約100m2)が撮像領域となる。すなわち、分割部分A1〜A4は64m2となるので、各分割部分A1〜A4を、各撮像部8の撮像領域P1〜P4に含めることができるとともに、各撮像部8の撮像領域の一部を重複させることが可能となる。
FIG. 12 is a diagram schematically showing, as an example, the relationship between one
図12は物体側から見た撮像領域P1〜P4の重複(オーバーラップ)の概念を示したが、撮像領域P1〜P4は広角レンズ系32に光が入射する領域であり、この広角レンズ系32に入射した光の全てが矩形の撮像素子36に入射するものではない。このため、本実施の形態においては、隣接する複数の撮像素子36の撮像領域P1〜P4が重複(オーバーラップ)するように撮像部8をオフィスに設置すればよい。具体的には、撮像部8にその取り付けを調整するような調整部(例えば長穴や、大き目の調整穴、撮像位置を調整するシフト光学系)を設け、それぞれの撮像素子36が撮像した映像を目しで確認しながら重複(オーバーラップ)を調整して、それぞれの撮像部8の取り付け位置を決めるようにすればよい。なお、例えば、図12に示す分割部分A1と撮像素子36の撮像領域とが一致していた場合には、それぞれの撮像部8にて撮像した画像が重複することなく、ぴったりと合うことになる。しかしながら、複数の撮像部8をそれぞれ取り付ける際の自由度や、天井の梁などで取り付け高さが異なる場合を考えると、前述のように複数の撮像素子36の撮像領域P1〜P4を重複(オーバーラップ)させるのが好ましい。
FIG. 12 shows the concept of overlapping (overlap) of the imaging areas P1 to P4 as viewed from the object side. The imaging areas P1 to P4 are areas where light is incident on the wide-
なお、重複量は、人の頭の大きさに基づいて設定することができる。この場合、例えば、頭の外周を60cmとすれば、重複する領域に直径約20cmの円形が含まれるようにすればよい。なお、頭の一部が重複する領域に含まれればよいという設定の下では、例えば、直径約10cmの円形が含まれるようにすればよい。重複する量をこの程度に設定すれば、撮像部8を天井に取り付ける際の調整も楽になり、場合によっては調整なしでも複数の撮像部8の撮像領域を重複させることも可能である。
The overlap amount can be set based on the size of the person's head. In this case, for example, if the outer periphery of the head is 60 cm, a circle having a diameter of about 20 cm may be included in the overlapping region. In addition, under the setting that only a part of the head needs to be included in the overlapping region, for example, a circle having a diameter of about 10 cm may be included. If the overlapping amount is set to this level, the adjustment when the
以下、図12の1つの区画43内において4人の対象者(対象者A,B,C,Dとする)が移動する場合の追跡処理について、図13、図14に基づいて説明する。なお、各対象者については、オフィスビル200への入場後から継続して追跡しているため、各対象者の頭が、誰の頭であるかをCPU3aは把握できているものとする。
Hereinafter, a tracking process when four subjects (subjects A, B, C, and D) move within one
図13(a)には、時刻T1における状態が示されている。なお、図13(b)〜図14(c)には、時刻T1以降(時刻T2〜T5)における状態が示されている。 FIG. 13A shows the state at time T1. FIGS. 13B to 14C show states after time T1 (time T2 to T5).
時刻T1においては、分割部分A1に対象者C、分割部分A3に対象者A,Bが存在している。この場合、撮像領域P1を有する撮像部8が対象者Cの頭を撮像し、撮像領域P3を有する撮像部8が対象者A,Bの頭を撮像している。
At time T1, the subject person C exists in the divided portion A1, and the subjects A and B exist in the divided portion A3. In this case, the
次いで、時刻T2においては、撮像領域P1を有する撮像部8が対象者B,Cの頭を撮像し、撮像領域P3を有する撮像部8が対象者A,Bの頭を撮像している。
Next, at time T2, the
この場合、CPU3aの追跡部61は、時刻T1、T2における各撮像部8の撮像結果から、対象者A、Cが、図13(b)の左右方向に移動し、対象者Bが図13(b)の上下方向に移動していることを認識する。なお、対象者Bが時刻T2において2つの撮像部8に撮像されているのは、対象者Bが2つの撮像部8の撮像領域が重複する部分に存在しているからである。
In this case, the tracking unit 61 of the
次いで、時刻T3においては、撮像領域P1を有する撮像部8が対象者B,Cの頭を撮像し、撮像領域P2を有する撮像部8が対象者Cの頭を撮像し、撮像領域P3を有する撮像部8が対象者Aの頭を撮像し、撮像領域P4を有する撮像部8が対象者A,Dの頭を撮像している。
Next, at time T3, the
この場合、追跡部61は、時刻T3において、対象者Aが分割部分A3と分割部分A4との境界にいる(分割部分A3から分割部分A4に移動中である)ことを認識し、対象者Bが分割部分A1にいることを認識し、対象者Cが分割部分A1と分割部分A2との境界にいる(分割部分A1からA2に移動中である)ことを認識し、対象者Dが分割部分A4にいることを認識する。 In this case, the tracking unit 61 recognizes that the subject A is at the boundary between the divided portion A3 and the divided portion A4 (moving from the divided portion A3 to the divided portion A4) at time T3, and the subject B Recognizes that the user is in the divided part A1, recognizes that the subject C is at the boundary between the divided part A1 and the divided part A2 (moving from the divided part A1 to A2), and the subject D is the divided part. Recognize being at A4.
同様に、追跡部61は、時刻T4において、対象者Aが分割部分A4、対象者Bが分割部分A1、対象者Cが分割部分A2、対象者Dが分割部分A2とA4の間にいることを認識する。また、追跡部61は、時刻T5において、対象者Aが分割部分A4、対象者Bが分割部分A1、対象者Cが分割部分A2、対象者Dが分割部分A2の間にいることを認識する。 Similarly, at time T4, the tracking unit 61 indicates that the subject A is in the divided portion A4, the subject B is in the divided portion A1, the subject C is in the divided portion A2, and the subject D is between the divided portions A2 and A4. Recognize In addition, at time T5, the tracking unit 61 recognizes that the target person A is between the split part A4, the target person B is between the split part A1, the target person C is between the split part A2, and the target person D is between the split part A2. .
本実施形態では、上述のように複数の撮像部8の撮像領域の一部を重複させているので、追跡部61は、対象者の位置および移動方向を認識することができる。このように、本実施形態では、追跡部61は、1階において各対象者を継続的に高精度に追跡することが可能となっている。なお、追跡部61は、追跡している対象者の数から、オフィスビル200の1階にいる対象者の人数を把握することもできる。
In the present embodiment, as described above, since a part of the imaging regions of the plurality of
なお、このような対象者の継続的な追跡において、頭の像の大きさが変化した場合には、姿勢判定部62において、頭の像の大きさと、図7(b)のデータ(各対象者に対応付けられているデータ)とを用いて、対象者の姿勢(倒れている、中腰になっている、直立である、など)を判定することができる。
When the size of the head image changes in such continuous tracking of the subject, the
また、処理部18は、撮像領域の一部が重複する撮像部8それぞれの撮像結果を用いて、撮像領域の一部が重複する撮像部8間の較正(キャリブレーション)を行うこととしてもよい。すなわち、処理部18は、撮像領域の一部が重複する2つの撮像部において、同一の対象者の頭が撮像されている場合に、頭の像の大きさが異なっていても、それらの大きさが一致するように、少なくとも一方の撮像部の撮像結果を較正することとする。これにより、撮像部間の撮像誤差の影響を抑制することが可能である。
The processing unit 18 may perform calibration (calibration) between the
(3)エレベータEVにおける対象者の追跡処理
次に、エレベータEVにおける対象者の追跡方法について図15、図16を用いて説明する。
(3) Target Person Tracking Process in Elevator EV Next, a target person tracking method in the elevator EV will be described with reference to FIGS. 15 and 16.
対象者がエレベータEVによりフロア間を移動する場合には、CPU3gの追跡部61と、CPU3a〜3fの追跡部61とにより、対象者の追跡が行われる。
When the subject moves between floors by the elevator EV, the subject is tracked by the tracking unit 61 of the
ここでは、一例として、図15(a)に示すように、1階で5人(対象者A〜E)がエレベータEVに乗り、図15(b)に示すように、エレベータEVが2階をそのまま通過し、図15(c)に示すように、3階でエレベータEVが停止するものとする。そして、図15(d)に示すように、3階で、エレベータEVから3人(対象者A〜C)が降りるとともに、2人(対象者F、G)が乗り、図16(a)に示すように、エレベータEVが4階をそのまま通過し、図16(b)に示すように、5階で2人(対象者D、E)がエレベータEVから降りたものとする。そして、図16(c)に示すように、6階で残りの2人(対象者F,G)がエレベータから降りたものとする。 Here, as an example, as shown in FIG. 15A, five people (subjects A to E) ride on the elevator EV on the first floor, and the elevator EV moves on the second floor as shown in FIG. 15B. It is assumed that the elevator EV stops on the third floor as shown in FIG. 15 (c). Then, as shown in FIG. 15 (d), on the third floor, three people (subjects A to C) get off from the elevator EV, and two people (subjects F and G) get on, as shown in FIG. 16 (a). As shown, it is assumed that the elevator EV passes through the fourth floor as it is, and two persons (subjects D and E) get off the elevator EV on the fifth floor as shown in FIG. Then, as shown in FIG. 16 (c), it is assumed that the remaining two persons (subjects F and G) get off the elevator on the sixth floor.
このような場合、エレベータEVの天井に設けられた撮像部8は、1階から乗った5人の頭を撮像し、この撮像結果を1階の第1CPU3aの追跡部61と、エレベータ用CPU3gの追跡部61に対して出力する。なお、第1CPU3aの追跡部61への出力は、エレベータ用CPU3gの通信部63を介して行われる。この場合、第1CPU3aの追跡部61は、1階のエレベータホール41でエレベータEVを待っていた対象者を撮像した結果と、エレベータEV内の撮像部8による撮像結果とから、対象者A〜Eが1階からエレベータEVに乗って移動し始めたことを認識する。
In such a case, the
なお、これに限らず、上記に代えて、1階の第1CPU3aの追跡部61は、1階のエレベータホールに存在している撮像部8が撮像した撮像結果において、対象者A〜Eの頭の画像を取得できなくなったことに基づいて、対象者A〜EがエレベータEVに乗って移動を開始したことを認識するようにしてもよい。
In addition to this, instead of the above, the tracking unit 61 of the
1階の第1CPU3aの追跡部61は、上記のようにして認識した結果を、エレベータ用CPU3gの追跡部61に対して送信する。エレベータ用CPU3gは、1階の第1CPU3aの追跡部61の認識結果から、エレベータに乗った人が対象者A〜Eであることを認識することができる。
The tracking unit 61 of the
また、図15(d)に示す状況では、エレベータが3階に停止した後、3階の第3CPU3cの追跡部61と、エレベータ用CPU3gの追跡部61とが、エレベータEVの開閉前後の撮像結果を互いに受け渡す。すなわち、第3CPU3cの追跡部61において、対象者F,Gの頭の画像が認識できなくなった一方で、その直後に、エレベータ用CPU3gの追跡部61において対象者F,Gの頭の画像が出力されたことをもって、エレベータ用CPU3gの追跡部61は、対象者F,Gが3階からエレベータに乗ってきたことを認識する。一方、第3CPU3cの追跡部61は、対象者A〜Cの頭の画像を新たに認識できるようになるが、この時点では、認識している頭が誰の頭なのかを認識することができない。しかるに、エレベータ用CPU3gの追跡部61は、エレベータEV内で対象者A〜Cの頭の画像が撮像できなくなったときに、対象者A〜Cの頭の画像を3階の第3CPU3cの追跡部61に出力することで、第3CPU3cは、エレベータ用CPU3gから入力された対象者A〜Cの頭の画像と、3階のエレベータホールに設けられた撮像部8が撮像した画像とのパターンマッチング処理により、エレベータEVから3階に降りた人が対象者A〜Cであることを認識する。なお、エレベータ用CPU3gの追跡部61は、エレベータが3階に停止して、扉が開く前の画像を第3CPU3cの追跡部61に対して出力するようにしてもよい。これにより、第3CPU3cの追跡部61は、エレベータEVから3階に降りた人が対象者A〜Cであることを、より短時間で認識することが可能となる。
15D, after the elevator stops on the third floor, the tracking unit 61 of the
なお、図16(b)や、図16(c)の場合も、上記と同様に、各階のCPUの追跡部61とエレベータEVのCPUの追跡部61との間で情報をやり取りする。以上のような処理を行うことで、エレベータEVで移動する人の追跡を行うことができる。 16B and 16C, information is exchanged between the CPU tracking unit 61 of each floor and the CPU tracking unit 61 of the elevator EV in the same manner as described above. By performing the processing as described above, it is possible to track a person who moves with the elevator EV.
なお、エレベータEV及びエレベータホール41に設けられた画像取得装置2では、入場時に取得した頭の画像とのパターンマッチングにより、対象者のエレベータの昇降を監視することとしてもよい。
In addition, in the
また、上記においては、エレベータEVの乗り降りを行った対象者を、頭の画像から認識することとしているが、これに限らず、頭の像の大きさから、対象者を認識することとしてもよい。この認識方法は、エレベータEVに乗っている対象者の、直立時における頭の像の大きさの差異が大きい場合に、特に効果的である。 In the above description, the target person who gets on and off the elevator EV is recognized from the head image. However, the present invention is not limited to this, and the target person may be recognized from the size of the head image. . This recognition method is particularly effective when there is a large difference in the size of the head image of the subject riding on the elevator EV when standing upright.
(4)階段での対象者の追跡処理
階段24での追跡は、基本的には、1階での対象者の追跡処理と同様の方法が用いられる。しかるに、階段のように高さ方向(Z方向)に段差がある場合には、直立しているにもかかわらず、対象者が階段のどの位置(段)にいるかに応じて、撮像した頭の像の大きさが変わる。このため、単に対象者の頭の像を取得して、これに基づいて対象者の姿勢を認識するのでは、対象者の見失いが生じたり、対象者の姿勢や姿勢変化を正しく認識できなかったりするおそれがある。
(4) Tracking process of the subject on the stairs For the tracking on the
そこで、本実施形態においては、階段に設けられた画像取得装置2のフラッシュメモリ16に階段の段差情報と、撮像部8の撮像素子の撮像位置とを対応させて記憶しておく。例えば、フラッシュメモリ16には、撮像部8において撮像される各段のXY平面内における位置と、当該位置における高さとを対応付けたデータを記憶しておく。具体的には、フラッシュメモリ16には、1段目の階段のXY平面内の位置に対し、階段の0段目からの高さ(例えば170mm)を対応付け、2段目の階段のXY平面内の位置に対し、階段の2段目からの高さ(例えば340mm)を対応付け、…というデータが記憶しておく。
Therefore, in the present embodiment, the step information of the stairs and the imaging position of the imaging element of the
これにより、各CPUの処理部18では、対象者が存在している階段の位置(XY位置)及び階段の高さを考慮して、対象者の姿勢を検出することができるので、対象者の姿勢を高精度に検出することが可能となる。 Accordingly, the processing unit 18 of each CPU can detect the posture of the target person in consideration of the position (XY position) of the stairs where the target person exists and the height of the stairs. The posture can be detected with high accuracy.
なお、階段は、幅は狭いものの段差があるため、階段に設ける撮像部8の広角レンズ系32を、階段用の広角レンズ系に変更することとしてもよい。この場合の広角レンズ系の基本構成としては、上記と同一の構成(3群構成)及び同一のレンズ枚数を採用することができるが、1階から2階まで高さの差(3500mm〜4000mm程度)を考慮して、焦点距離を変更することとする(例えば9mmとする)。このようにすることで、高精度な対象者の追跡を行うことができる。なお、階段用の画像取得装置2の取り付け数は、階段の高さや、踊り場の位置などに応じて適宜選択することができる。
Since the staircase is narrow but has a step, the wide-
(5)2階〜6階での対象者の追跡処理
2階〜6階においては、上述した1階での追跡処理と同様の処理が行われる。この場合、エレベータや階段での追跡処理の結果を用いて、対象者を継続的に追跡する。
(5) Target person tracking process on the second to sixth floors On the second to sixth floors, the same process as the tracking process on the first floor described above is performed. In this case, the target person is continuously tracked using the result of the tracking process at the elevator or the stairs.
(6)対象者の姿勢に基づく、異常判定
処理部18は、通常、対象者を追跡している間に、当該対象者が倒れた状態が所定時間継続した場合(姿勢判定部62において判断)に、対象者に異常が生じていると判定する。なお、処理部18は、CPU3a〜3gの姿勢判定部62から、対象者が倒れた状態となった時刻、及び当該状態が継続している時間を取得することができる。
(6) Abnormality determination based on the posture of the subject When the processing unit 18 normally tracks the subject, the state in which the subject falls down continues for a predetermined time (determined by the posture judgment unit 62). Then, it is determined that an abnormality has occurred in the subject. In addition, the process part 18 can acquire the time when the subject fell into the state which fell down from the attitude | position
しかるに、オフィスにおいては、対象者が着席した状態で業務を長時間行うこともある。これに対応するため、例えば、対象者が椅子に座った際の頭の像の大きさをフラッシュメモリ16に記憶しておき、処理部18では、頭の像の大きさが椅子に座ったときの大きさで長時間維持されている場合に、椅子に座った状態が続いているため異常ではないと判定することとする。この場合、フラッシュメモリ16には机が配置されている位置情報(XY位置情報)と、撮像素子36の撮像位置と、を対応させて、記憶させてもよい。これにより、より高精度に異常判定を行うことが可能となる。
However, in the office, the business may be performed for a long time with the subject seated. In order to cope with this, for example, the size of the image of the head when the subject is sitting on the chair is stored in the flash memory 16, and the processing unit 18 determines that the size of the image of the head is sitting on the chair. When it is maintained for a long time at the size of, it is determined that there is no abnormality because the sitting state in the chair continues. In this case, the flash memory 16 may store the position information (XY position information) where the desk is arranged and the image pickup position of the
(7)対象者の有無に基づく撮像部8の撮像タイミング制御
前述のように、焦電センサ12を用いた、撮影タイミングの制御を行える一方で、隣接する撮像領域が重複していることを利用して、撮像タイミングを制御することもできる。
(7) Imaging timing control of the
例えば、各CPU3a〜3gの処理部18は、オフィスにいる人が少ない場合に、ある撮像部8の重複する領域で人の頭が撮像されたことをトリガーにして、その重複する領域に対応する他の撮像部8による撮像を開始するようにする。このようにすることで、撮像領域内に人がいない場合に、撮像を停止(撮像部8への電力供給を停止)することができるので、消費電力の低減等を図ることが可能となる。また、焦電センサ12を省略することもできる。
For example, when there are few people in the office, the processing unit 18 of each of the
また、複数の撮像部8の撮像領域の一部を重複させることは、階段に設けられた複数の撮像部8においても採用されるものであるので、階段近傍の撮像部8と、階段に設けられた撮像部8との間で上記のような制御を行うこととしてもよい。これにより、階段に設けられた撮像部8においても省電力化を図ることが可能となる。この場合、階段が非常階段であれば、通常時には然程使用されるものではないので、省電力化が特に有効である。
In addition, since overlapping a part of the imaging areas of the plurality of
(災害(火災)発生時の処理)
災害(火災)が発生した時には、上述したような通常時の処理に加え、以下のような処理を行う。本実施形態では、図17に示すように、オフィスビル200の2階+Y端の区画で火災が発生したものとする。なお、ここでは、説明の簡単のため、オフィスビル200の1階〜3階のみを図示している。
(Processing when a disaster (fire) occurs)
When a disaster (fire) occurs, in addition to the normal processing as described above, the following processing is performed. In the present embodiment, as shown in FIG. 17, it is assumed that a fire has occurred in a section on the second floor + Y end of the
この場合、ホストコンピュータ4の誘導制御部51が、CPU3a〜3gを介して、全ての画像取得装置2を統括的に制御して、オフィスビル200内の全ての人がオフィスビル200の外に避難できるように誘導する処理を実行する。
In this case, the guidance control unit 51 of the host computer 4 comprehensively controls all the
具体的には、誘導制御部51は、図18のフローチャートに沿った処理を実行する。 Specifically, the guidance control unit 51 executes processing according to the flowchart of FIG.
図18の処理では、ステップS10において、ホストコンピュータ4の誘導制御部51が、災害を確認するまで待機する。この場合、図17に示すように、オフィスビル200の2階で火災が発生したとすると、当該火災の近傍に位置する画像取得装置2の火災センサ15が、火災を検知するので、当該検知結果が通信部9を介して、第2CPU2b及びホストコンピュータ4に対して出力される。これにより、誘導制御部51は、2階の+Y端の区画にて火災が発生したことを確認することができる。このように、火災が確認された場合には、ステップS10の判断が肯定されて、ステップS12に移行する。なお、誘導制御部51は、カレンダ部6から火災発生時刻を取得するとともに、カレンダ部6では、火災発生時刻から計時を開始する。これは、後述するように、避難誘導を行う際に火災発生から例えば10分を避難終了時刻と設定するためである。なお、誘導制御部51は、災害が確認された場合に、通常時よりも撮像部8の撮像間隔を短くすることとしてもよい。また、誘導制御部51は、災害が確認された場合に、撮像部8による撮像を、静止画の撮像から動画の撮像に切り替えることとしてもよい。
In the process of FIG. 18, in step S10, the guidance control unit 51 of the host computer 4 waits until a disaster is confirmed. In this case, as shown in FIG. 17, if a fire has occurred on the second floor of the
次いで、ステップS12では、誘導制御部51が、入出力部97を介して火災発生場所近くのスプリンクラーを稼動させて消火を行わせるとともに、全ての画像取得装置2のスピーカ14により火災が発生したことをオフィス内にアナウンスする。
Next, in step S12, the guidance control unit 51 operates the sprinkler near the fire occurrence location via the input /
次いで、ステップS14では、誘導制御部51が、各階のCPU(3a〜3f)及びエレベータ用CPU3gにおいて取得されるオフィスビル200内の人数を確認する。なお、各CPU3a〜3gは、各画像取得装置2が取得した頭の画像から人数を取得することができる。この際、誘導制御部51は、上記のようにして確認された人数と、オフィスビル200への入場処理をした人数から追跡の結果退場した人数を差し引いた人数が、一致しているか否かを確認しておく。この場合、人数が一致している場合には特に問題がないが、人数が一致していない場合には、誘導制御部51は、その数を認識するとともに、上述した追跡部61による追跡処理により追跡できていない人を特定する。なお、追跡ができていない理由としては、例えば、火災現場に近い画像取得装置2が壊れたり、煙により頭を撮像できない場合などが想定される。
Next, in step S14, the guidance control unit 51 confirms the number of people in the
次いで、ステップS16では、遮断部55が、災害発生時に予め駆動停止を決めている機械類の駆動を停止させる。この場合、遮断部55は、機械類を適切な状態で停止させることとする。例えば、遮断部55は、エレベータEVを火災が発生している2階を避けて近くの階に停止させて、扉を開くとともに以後の駆動を停止させる。
Next, in step S16, the blocking
次いで、ステップS18では、誘導制御部51が、避難が必要かどうかを判断する。ここでは、誘導制御部51は、火災現場近傍の画像取得装置2から送付されてくる画像や、当該画像取得装置2が火災の影響により駆動できているかどうかなどから避難の要否を判断することができる。ここでの判断が否定された場合、すなわち、スプリンクラーによる消火が進み、火災が沈静化するなどして、避難の必要がなくなった場合には、ステップS20に移行する。一方、ここでの判断が肯定された場合、すなわち、避難の必要がある場合には、ステップS24に移行する。
Next, in step S18, the guidance control unit 51 determines whether evacuation is necessary. Here, the guidance control unit 51 determines whether or not evacuation is necessary based on an image sent from the
ステップS20に移行した場合、誘導制御部51は、スピーカ14により避難の必要がないことをアナウンスする。また、遮断部55は、ステップS22において、停止した機械類の駆動を再開させ、図18の全処理を終了する。
When it transfers to step S20, the guidance control part 51 announces that there is no need for evacuation by the speaker 14. FIG. Moreover, the interruption | blocking
一方、ステップS24に移行した場合には、経路決定部57が、避難経路を確定する。この場合、経路決定部57は、火災発生現場に近いところに位置する対象者から順に避難誘導を行う。本実施形態においては、図17に示すように、火災発生場所を第1優先とし(図17の丸数字1の箇所)、次に火災発生場所の上下の区画と隣接する区画を第2優先とし(丸数字2の箇所)、火災発生場所よりも上の階の区画と、1階の中央の区画を第3優先とし(丸数字3の箇所)、その他の区画を第4優先としている(丸数字4の箇所)。なお、1階の中央の区画を第3優先としたのは、上の階の人達が避難する際に1階の出口で人が集中するのを避けるためである。なお、優先順位の設定は、上記のような設定方法に限らず、種々設定方法を採用することができる。例えば、経路決定部57は、対象者の位置(処理部18において検出される)に基づいて基準位置(例えば、火災発生場所)からの距離を求め、当該距離に基づいて誘導の方法を決定することとしてもよい。このようにしても、対象者を適切に誘導することが可能である。また、経路決定部57は、優先順位以外にも、例えば、火災発生現場に近い階段を使用せず、それ以外の階段を用いることで、人が一つの階段に集中しないように、避難経路を決定したりすることができる。
On the other hand, when the process proceeds to step S24, the route determination unit 57 determines the evacuation route. In this case, the route determination unit 57 performs evacuation guidance in order from the target person located near the fire occurrence site. In this embodiment, as shown in FIG. 17, the place where the fire occurred is given first priority (the place indicated by the circled
また、経路決定部57は、いずれかの撮像部8の撮像結果に基づいて、オフィスビル200内に設けられた通路を、対象者が通行できるか否かを判定し、当該判定結果に基づいて、誘導経路を決定することとしてもよい。この場合、経路決定部57は、通常時において予め撮像しておいたサンプル画像(基準画像)と、災害発生時の画像(すなわち、サンプル画像の撮像後に撮像された画像)とを比較(パターンマッチング)する。そして、それらの差異の大小から、通路を対象者が通行できるか否かを判定することとしてもよい。なお、差異が大きい場合には、例えば、書類棚などが倒れている場合が含まれる。したがって、上記のように判定することで、対象者に対して、適切な避難経路を提供することが可能となる。
Further, the route determination unit 57 determines whether or not the target person can pass through the passage provided in the
なお、経路決定部57は、サンプル画像と災害発生時の画像とのパターンマッチングの結果を、災害発生時の画像とともに、表示装置91に表示するのみでもよい。この場合、パターンマッチングの結果、サンプル画像と災害発生時の画像との乖離度が大きいほど表示優先度を高くし、当該優先度に基づいて、撮像結果を表示するようにしてもよい。表示装置91に表示された内容を見た人が、表示優先度を参考にしつつ災害発生時の画像を確認し、対象者が通路を通行できないと判断した場合に、避難経路を変更する(適切な避難経路をホストコンピュータ4に対して入力する)ようにすれば、対象者は適切な避難経路に沿って避難することが可能となる。
The route determination unit 57 may only display the pattern matching result between the sample image and the image at the time of the disaster on the
次いで、ステップS26では、避難誘導を開始する。具体的には、誘導制御部51は、図17の丸数字1の領域にある画像取得装置2のスピーカ14それぞれから、火災発生現場近傍の階段以外を用いた外への避難を呼びかける。なお、この際に、誘導制御部51は、各画像取得装置2のLED11を避難経路に沿って順次点滅させることで、視覚的に避難経路を示すこととしてもよい。そして、誘導制御部51は、丸数字2〜4の領域に存在する人に対して、順次、避難誘導を行う。
Next, in step S26, evacuation guidance is started. Specifically, the guidance control unit 51 calls for evacuation to the outside using a part other than the stairs in the vicinity of the fire occurrence site from each of the speakers 14 of the
次いで、ステップS28では、誘導制御部51は、入出力部97を介して消防署に火災の通報を行う。そして、次のステップS30では、移動判定部53が、各階段に設けられた画像取得装置2の撮像結果を用いて、避難状況を確認する。ここで、例えば、火災発生現場近傍の画像取得装置2が撮像できない状況でも、移動判定部53は、画像取得装置2の撮像結果から避難状況を類推することができる。これは、前述のように、オフィスビル200内では、対象者を常に追尾しているため、追尾ができている対象者については、避難状況を把握することができる一方、追尾ができていない対象者については、ある画像取得装置2において、突然撮像が開始されることになるからである。すなわち、本実施形態では、撮像部8のいずれかにおいて撮像されるべき(撮像される予定の)対象者のうち、ある時点(第1の時点)においていずれの撮像部にも撮像されていない対象者を特定しておくことで、当該ある時点(第1の時点)において撮像部に撮像されず、その後のある時点(第2の時点)において撮像された対象者を、第1の時点で特定された対象者と判断することが可能である。
Next, in step S <b> 28, the guidance control unit 51 reports a fire to the fire department via the input /
次いで、ステップS32では、誘導制御部51が、救助が必要な人がいるか否かを確認する。この場合、姿勢判定部62の判定結果において、撮像している頭の像の大きさ及び位置がほとんど変わっていない場合に、その対象者は動けない人であることを意味する。したがって、誘導制御部51は、姿勢判定部62の判定結果を用いて、そのような頭の画像があるか否かを判断する。なお、救助が必要な場合、画像取得装置2のマイク13から例えば「助けて」などの音声が入力されることもある。したがって、誘導制御部51は、そのような音声の入力があった場合に、救助が必要な人がいると判断してもよい。更には、撮像部8は、対象者が床に倒れている場合などにおいて、対象者の目や口を連続して撮像するようにすることができるので、誘導制御部51は、当該連続して撮像された画像に基づいて、動けない人(例えば気絶している人など)を判別することとしてもよい。なお、ステップS32の判断が否定された場合には、ステップS36に移行するが、肯定された場合には、ステップS34に移行する。
Next, in step S32, the guidance control unit 51 confirms whether there is a person who needs to be rescued. In this case, when the size and position of the image of the head being imaged are almost unchanged in the determination result of the
ステップS34に移行した場合、誘導制御部51は、救助活動が実行されるような処理を行う。具体的には、誘導制御部51は、図2の表示装置91にオフィスビル200のレイアウトを表示するとともに、助けが必要な人がいる領域を点滅させる。そして、誘導制御部51は、入出力部97を介して、消防署に対し、助けが必要な人がいる領域(区画)を連絡する。また、誘導制御部51は、ステップS10で災害を確認してから開始した計時時間(経過時間)を表示装置91に表示するとともに、消防署にも計時時間(経過時間)を連絡する。ステップS34の後は、ステップS32に戻る。
When the process proceeds to step S34, the guidance control unit 51 performs a process such that the rescue operation is executed. Specifically, the guidance control unit 51 displays the layout of the
一方、ステップS36に移行した場合には、移動判定部53が、全員避難したかどうか判断を行う。具体的には、移動判定部53は、1階の入り口(出口)付近に設けられた画像取得装置2の撮像結果に基づいて何人の対象者がオフィスビル200の外に出たか(避難を終了したか)を確認する。なお、移動判定部53は、1階の入り口(出口)付近以外に設けられた画像取得装置2の撮像結果からオフィスビル200内に残っている人の人数を確認することとしてもよい。この場合、移動判定部53は、オフィスビル200内の全ての画像取得装置2が撮像した画像に頭の画像が全て無くなった時点で、無くなった頭の数と、入場処理をした人の数とが一致していた場合にオフィスビル200内の全員が避難したと判断することができる。ステップS36の判断が否定された場合には、ステップS32に戻る。
On the other hand, when the process proceeds to step S <b> 36, the
その後、ステップS36の判断が肯定されるまで、ステップS32、S36(又はS34)の処理、判断が繰り返される。 Thereafter, the processes and determinations in steps S32 and S36 (or S34) are repeated until the determination in step S36 is affirmed.
なお、ステップS36においては、全ての画像取得装置2が撮像した画像において頭の画像が全て無くなったにもかかわらず、無くなった頭の数と、入場処理をした人の数とが一致していないという事態も生じうる。このような場合には、火災により撮像ができない画像取得装置2が設置されている領域に避難できていない人がいる可能性が高い。したがって、かかる場合には、誘導制御部51は、次に行われるステップS34において、表示装置91に、撮像ができない画像取得装置2の存在する区画を点滅表示させるとともに、消防署にも同内容の連絡を行うこととする。
In step S36, the number of lost heads does not match the number of people who have performed entrance processing even though all the images of the heads have been lost in the images captured by all the
なお、図18の処理では、ステップS30において、避難状況の確認を行っているので、遮断部55は、当該確認結果に基づいて、対象者の存在しない通路を閉鎖するように防護壁を遮断するようにすることができる。
In the process of FIG. 18, since the evacuation status is confirmed in step S30, the blocking
以上、詳細に説明したように、本実施形態によると、上方(+Z方向)から対象者を含む画像を撮像する撮像部(第1の撮像部)8と、上方(+Z方向)から対象者を含む画像を撮像する第1の撮像部とは異なる撮像部(第2の撮像部)8と、撮像部8で撮像された画像から、対象者の頭の大きさ情報を検出する処理部18と、を備えており、複数の撮像部8のうち、撮像部8(第1の撮像部)の撮像領域の一部と、撮像部8(第2の撮像部)の撮像領域の一部とが重複している。これにより、撮像領域が重複している両撮像部を用いることで、撮像領域間を対象者が移動する場合にも、対象者を、継続して高精度に検出することができる。
As described above in detail, according to the present embodiment, the imaging unit (first imaging unit) 8 that captures an image including the subject from above (+ Z direction) and the subject from above (+ Z direction). An imaging unit (second imaging unit) 8 different from the first imaging unit that captures an image including the image, and a processing unit 18 that detects size information of the subject's head from the image captured by the
また、本実施形態によると、重複する量が、頭の大きさに基づいた量であることから、対象者が撮像領域を跨いで移動するときにも、頭の像の大きさ情報を継続的に高精度に検出することができる。 Further, according to the present embodiment, since the overlapping amount is an amount based on the size of the head, the size information of the head image is continuously displayed even when the subject moves across the imaging region. Can be detected with high accuracy.
また、本実施形態によると、処理部18による検出結果に基づいて、姿勢判定部62が、対象者の姿勢状態を判定するので、継続して、高精度に対象者の姿勢状態を判定することができる。
Further, according to the present embodiment, since the
この場合、姿勢判定部62は、対象者の身長と、対象者頭の大きさと、個人情報とをデータとして取得し、当該データと検出された対象者の頭の像の大きさから、対象者の姿勢情報を判定するので、各対象者の身長と頭の像の大きさとを考慮して、対象者の姿勢を判定することが可能である。
In this case, the
また、本実施形態では、複数の撮像部のうちの少なくとも1つが、階段を撮像可能な位置に配置されており、姿勢判定部62は、対象者が存在している階段の高さ位置を考慮して、対象者の頭の像の大きさから、前記対象者の姿勢状態を判定することができる。これにより、階段の高さの影響を受けずに、対象者の姿勢を判定することができる。
In the present embodiment, at least one of the plurality of imaging units is arranged at a position where the staircase can be imaged, and the
また、本実施形態では、撮像領域の一部が重複する撮像部の撮像結果を連続的に用いることで、対象者を追跡するので、撮像領域を跨いで移動する対象者を、継続して、高精度に追跡することが可能である。 Moreover, in this embodiment, since the target person is tracked by continuously using the imaging result of the imaging unit where a part of the imaging area overlaps, the target person who moves across the imaging area is continued, It is possible to track with high accuracy.
また、本実施形態では、複数の撮像部8のうちの1つの撮像部において対象者が撮像された場合に、当該撮像部の撮像領域の一部と重複する撮像領域を有する撮像部の撮像の開始及び終了の少なくとも一方を切り替えるので、撮像部の消費電力を低減し、かつ適切なタイミングで撮像部の撮像を開始するようにすることができる。
Moreover, in this embodiment, when a subject is imaged in one imaging unit among the plurality of
また、処理部18は、撮像領域の一部が重複する撮像部それぞれの撮像結果を用いて、撮像領域の一部が重複する撮像部の較正を行うこともできるので、撮像部間の撮像誤差の影響を抑制することが可能である。 Further, since the processing unit 18 can also calibrate the imaging unit with a part of the imaging region using the imaging result of each imaging unit with the part of the imaging region overlapping, an imaging error between the imaging units is possible. Can be suppressed.
また、本実施形態では、鉛直方向(+Z方向)から撮像した対象者の頭の像の大きさを用いて、対象者の姿勢情報を取得することから、他の方向から撮像した頭の像を用いる場合と比べて、高精度に、対象者の頭の鉛直方向の位置(すなわち姿勢情報)を検出することができる。 In the present embodiment, since the posture information of the subject is acquired using the size of the subject's head image taken from the vertical direction (+ Z direction), the head image taken from another direction is obtained. Compared with the case of using, the position of the subject's head in the vertical direction (that is, posture information) can be detected with high accuracy.
なお、上記実施形態では、天井に撮像部8を設け、上方から対象者の頭を撮像する場合について説明した。しかしながら、これに限られるものではなく、対象者を横から撮影できる位置に撮像部8を設けてもよい。対象者を横から撮像することにより、目、口、鼻などの動きを判別しやすくすることができる。更に、天井に設けられた撮像部8の静止画と、対象者を横から撮像した静止画との両方を用いて対象者が正常かどうか判定することとすれば、高精度な判定が可能となる。
In the above-described embodiment, the case where the
なお、上記実施形態では、撮像部8の撮像素子36をCMOSとするとともに、メカシャッターに代えて電子シャッター(ローリングシャッター)を採用することとしてもよい。この場合、撮像時の音(シャッター音)の発生を抑制することができる。これにより、撮像による、対象者の円滑な業務遂行への影響を抑制することができる。
In the above embodiment, the
なお、上記実施形態では、撮像部8が静止画を撮像する場合について説明したが、これに限らず、動画の撮影を行うこととしてもよい。この場合、動画を連続して撮影してもよいし、3〜5秒程度の短い動画を間欠的に撮影してもよい。なお、撮像部8が動画を撮像する場合には、処理部18は、画像信号をMPEG処理してフラッシュメモリ16に記録するようにすればよい。
In the above-described embodiment, the case where the
なお、上記実施形態では、災害発生時に、誘導制御部51が、撮像部8の撮像間隔を変更する点について説明した(ステップS10)。しかしながら、これに限られるものではなく、例えば、姿勢判定部62が、対象者に異常が発生していると判定した場合に、撮像部8の撮像間隔を変更することとしてもよい。
In the embodiment described above, the guidance control unit 51 changes the imaging interval of the
なお、上記実施形態では、撮像部8の撮像結果に基づいて、対象者の位置と姿勢を判断する場合について説明したが、これに限られるものではなく、対象者の位置は、対象者に向けて光を照射し、対象者で反射した光を受光することで、対象者の位置を検出する装置(レーザレンジファインダなど)により、検出することとしてもよい。
In the above-described embodiment, the case where the position and orientation of the target person are determined based on the imaging result of the
なお、上記実施形態では、エレベータEVに設けられている撮像部8の撮像領域とエレベータホール41に設けられている撮像部8の撮像領域とを重複させることとしてもよい。これにより、エレベータEV及びエレベータホール41間の対象者の移動を、図13、図14と同様の方法で、追跡することが可能である。
In the above embodiment, the imaging region of the
なお、上記実施形態では、対象者を横から撮像することで、身長を計測する場合について例示したが、これに限られるものではない。例えば、オフィスの構造物(例えばドア)と対象者とを同時に撮像し、既知の構造物の寸法(例えばドアの高さが2mで、幅が1mなど)を用いて、対象者の身長を推定するようにしてもよい。この場合、構造物の寸法はフラッシュメモリ16に記録しておけばよい。 In the above embodiment, the case where the height is measured by imaging the subject from the side is exemplified, but the present invention is not limited to this. For example, an office structure (for example, a door) and a subject are imaged simultaneously, and the height of the subject is estimated using known structure dimensions (for example, the height of the door is 2 m and the width is 1 m). You may make it do. In this case, the dimensions of the structure may be recorded in the flash memory 16.
なお、上記実施形態では、説明を省略しているが、プライベート空間(例えばトイレなど)においては、撮像部8による追跡を中止することになる。このような場合でも、プライベート空間から出てきた人を、身長、頭の像の大きさ、頭の画像などから再度特定することで、追跡を再開することが可能である。また、地震発生時などにおいて、机などの下に対象者が隠れた場合にも、上記と同様の処理を行うことが可能である。
In addition, although description is abbreviate | omitted in the said embodiment, in the private space (for example, a toilet etc.), the tracking by the
なお、上記実施形態では、適宜、追跡している対象者を誤認識していないかの確認を行うこととしてもよい。この確認は、オフィスビル200内で、社員証を用いた部屋への入退室処理を行ったときの情報(個人IDなど)や、パソコンへのログインなどの情報を用いて行うことができる。
In the above-described embodiment, it is possible to appropriately confirm whether or not the target person being tracked is erroneously recognized. This confirmation can be performed in the
なお、上記実施形態では、遮断部55は、防護壁(防火扉)の駆動を制御する場合について説明したが、これに限られるものではなく、排気ダクトなどの排気設備の駆動を制御することとしてもよい。
In the above embodiment, the blocking
なお、上記実施形態では、処理部18が、対象者の大きさ情報として頭の大きさを検出することしたが、これに限られるものではない。例えば、処理部18は対象者の大きさ情報として、肩幅等を検出しても良い。この場合、撮像領域が重複する量を、肩幅等に関する大きさに基づいた量とすることができる。 In the above embodiment, the processing unit 18 detects the size of the head as the size information of the target person, but the present invention is not limited to this. For example, the processing unit 18 may detect a shoulder width or the like as the size information of the subject. In this case, the amount of overlapping of the imaging regions can be an amount based on the size related to the shoulder width or the like.
また、上記実施形態では、避難時に、対象者をオフィスビル200の1階入り口からオフィスビル200の外部に誘導する場合について説明したが、これに限られるものではない。例えば、高層ビルの場合には、屋上(ヘリポートなど)に避難させることとしてもよい。また、災害の種類にあわせて、避難場所、避難方法を適宜変更することとしてもよい。更に、オフィスビル200の階ごとに避難場所を異ならせることとしてもよい。
Moreover, although the said embodiment demonstrated the case where an object person was guide | induced to the exterior of the
なお、上記実施形態では、本発明の誘導装置を、災害時における避難に用いる場合について説明したが、これに限られるものではない。例えば、オフィスビル200内の全員を集会所やホールなどに誘導する場合にも用いることができる。
In addition, although the said embodiment demonstrated the case where the guidance apparatus of this invention was used for evacuation at the time of a disaster, it is not restricted to this. For example, it can also be used when all members of the
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
8 撮像部
18 処理部
51 誘導制御部
53 移動判定部
57 経路決定部
61 追跡部
62 姿勢判定部
8 Imaging Unit 18 Processing Unit 51
Claims (9)
前記第1方向から前記対象者を含む画像を撮像する、前記第1の撮像部とは異なる第2の撮像部と、
所定の被写体を前記第1の撮像部と前記第2の撮像部のそれぞれの撮像領域が重複する領域内に含ませるように前記第1の撮像部と前記第2の撮像部との少なくとも一方を調整する調整手段と、
前記第1の撮像部と前記第2の撮像部との少なくとも一方の撮像により前記対象者の頭に対応する像の大きさを検出する検出部と、
対象者の身長と該対象者の頭に対応する像の大きさとの関係と、前記第1の撮像部と前記第2の撮像部との少なくとも一方で撮像された対象者の個人識別情報と、前記第1の撮像部と前記第2の撮像部との少なくとも一方で撮像された対象者の頭に対応する像の大きさの変化とに基づいて撮像された対象者の姿勢情報を判定する判定部と、
を備える検出装置。 A first imaging unit that captures an image including the subject from a first direction;
A second imaging unit different from the first imaging unit that captures an image including the subject from the first direction;
At least one of the first imaging unit and the second imaging unit is included so that a predetermined subject is included in a region where the respective imaging regions of the first imaging unit and the second imaging unit overlap. Adjusting means for adjusting;
A detection unit that detects a size of an image corresponding to the subject's head by imaging at least one of the first imaging unit and the second imaging unit;
A relationship between the height of the subject and the size of the image corresponding to the head of the subject, and personal identification information of the subject imaged at least one of the first imaging unit and the second imaging unit; Determination for determining posture information of a subject imaged based on a change in size of an image corresponding to the head of the subject imaged by at least one of the first imaging unit and the second imaging unit And
Ru detection device equipped with a.
前記第1の撮像部と前記第2の撮像部は、前記対象者の頭上から前記画像を撮像することを特徴とする請求項1〜8のいずれか一項に記載の検出装置。 The first direction is a vertical direction;
The detection apparatus according to any one of claims 1 to 8 , wherein the first imaging unit and the second imaging unit capture the image from above the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015105878A JP6137234B2 (en) | 2015-05-25 | 2015-05-25 | Detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015105878A JP6137234B2 (en) | 2015-05-25 | 2015-05-25 | Detection device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010259528A Division JP2012113368A (en) | 2010-11-19 | 2010-11-19 | Detection device |
Related Child Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015186076A Division JP2016021256A (en) | 2015-09-18 | 2015-09-18 | Electronic device |
JP2015186075A Division JP2016028333A (en) | 2015-09-18 | 2015-09-18 | Electronic apparatus |
JP2015186077A Division JP2016028496A (en) | 2015-09-18 | 2015-09-18 | Electronic apparatus |
JP2015186078A Division JP2016026354A (en) | 2015-09-18 | 2015-09-18 | Electronic device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015187880A JP2015187880A (en) | 2015-10-29 |
JP6137234B2 true JP6137234B2 (en) | 2017-05-31 |
Family
ID=54430045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015105878A Expired - Fee Related JP6137234B2 (en) | 2015-05-25 | 2015-05-25 | Detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6137234B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7419999B2 (en) * | 2020-07-15 | 2024-01-23 | オムロン株式会社 | Information processing device and information processing method |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3814779B2 (en) * | 2001-03-27 | 2006-08-30 | 三菱電機株式会社 | Intruder automatic tracking method and apparatus, and image processing apparatus |
JP2004072628A (en) * | 2002-08-08 | 2004-03-04 | Univ Waseda | Moving body tracking system using a plurality of cameras and its method |
JP3994875B2 (en) * | 2002-12-27 | 2007-10-24 | 株式会社富士通ゼネラル | Electronic device angle adjustment device |
JP2006041939A (en) * | 2004-07-27 | 2006-02-09 | Victor Co Of Japan Ltd | Monitor device and monitor program |
JP4596422B2 (en) * | 2005-05-20 | 2010-12-08 | キヤノンマシナリー株式会社 | Imaging device for die bonder |
JP2008052631A (en) * | 2006-08-28 | 2008-03-06 | Matsushita Electric Works Ltd | Abnormality detection system |
JP4970195B2 (en) * | 2007-08-23 | 2012-07-04 | 株式会社日立国際電気 | Person tracking system, person tracking apparatus, and person tracking program |
-
2015
- 2015-05-25 JP JP2015105878A patent/JP6137234B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015187880A (en) | 2015-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012066910A1 (en) | Guidance system, detection device, and position assessment device | |
JP5974423B2 (en) | Guidance device | |
US11854288B2 (en) | Image determining device to determine the state of a subject | |
KR101775463B1 (en) | Fire supervisory apparatus to be installed on building and unite management system having the same | |
JP5674307B2 (en) | Subject detection system and subject detection method | |
JP5760315B2 (en) | Image determination device | |
US20130321625A1 (en) | Electronic device and information transmission system | |
JP2017098180A (en) | Lighting device | |
JP2012113368A (en) | Detection device | |
KR20210072285A (en) | System for analyzing cctv image information for occupancy realtime monitoring, and method for the same | |
JP2017045474A (en) | Electronic device | |
JP2016026355A (en) | system | |
JP2016028333A (en) | Electronic apparatus | |
JP6137234B2 (en) | Detection device | |
JP2012113369A (en) | Attitude state determination device | |
JP6102982B2 (en) | Posture state determination device | |
JP2006279516A (en) | Monitoring system, monitoring camera, and controller | |
JP2016028496A (en) | Electronic apparatus | |
JP2016001506A (en) | Electronic equipment | |
JP2016026354A (en) | Electronic device | |
JP2016021256A (en) | Electronic device | |
JP5760313B2 (en) | Image determination device | |
JP5760314B2 (en) | Image determination device | |
KR101756923B1 (en) | Omnidirectional anti-crime camera system | |
WO2023162016A1 (en) | Monitoring system, monitoring device, monitoring method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6137234 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |