JP5696482B2 - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP5696482B2 JP5696482B2 JP2011002920A JP2011002920A JP5696482B2 JP 5696482 B2 JP5696482 B2 JP 5696482B2 JP 2011002920 A JP2011002920 A JP 2011002920A JP 2011002920 A JP2011002920 A JP 2011002920A JP 5696482 B2 JP5696482 B2 JP 5696482B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processor
- moving body
- processing apparatus
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 54
- 238000012545 processing Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 9
- 230000000149 penetrating effect Effects 0.000 claims 1
- 238000000034 method Methods 0.000 description 42
- 238000012544 monitoring process Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 11
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 11
- 238000012790 confirmation Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Studio Devices (AREA)
- Selective Calling Equipment (AREA)
- Image Analysis (AREA)
Description
本発明は、画像を処理する情報処理装置に関する。 The present invention relates to an information processing apparatus that processes an image.
一般的に、作業現場における作業員の作業をカメラで撮影し、その撮影された画像の信号をカメラから監視装置に送信して監視装置の表示装置に表示し、それによって管理者が表示装置上でその作業を遠隔的に監視することができる。 In general, a worker's work at a work site is photographed by a camera, and a signal of the photographed image is transmitted from the camera to a monitoring device and displayed on the display device of the monitoring device. You can monitor the work remotely.
既知の或るデータセンタ・セキュリティ管理システムでは、データセンタの契約者として外部から派遣されフロア内サーバ・ラック扉前に位置する人物顔画像をラック上部設置Webカメラで撮影認証する。その画像が既登録顔画像と照合一致し更にIDカードによる照合一致が同時に成立した時に、現場にて解錠可能とされる。或いは、そのシステムでは、その撮影映像をその人物の派遣元関係者が操作可能な遠隔情報端末にリアルタイムで送信し、その関係者が直に該当者の顔をモニタ画面上で認識して本人確認が行われる。その確認信号と更に現場でのIDカードによる照合一致とが同時に成立した時に、遠隔にて解錠が可能とされる。 In a known data center / security management system, a person face image dispatched from the outside as a data center contractor and located in front of a server / rack door in the floor is photographed and authenticated by a Web camera installed on the rack. When the image collates with the registered face image and collation coincidence with the ID card is established at the same time, the image can be unlocked at the site. Alternatively, in that system, the captured video is transmitted in real time to a remote information terminal that can be operated by a person concerned with the person dispatched, and the person concerned directly recognizes the person's face on the monitor screen and confirms the identity. Is done. When the confirmation signal and the collation match by the ID card at the site are simultaneously established, the unlocking can be performed remotely.
既知の或る映像監視システムによれば、監視映像システムに知的映像解析システムを移植して知的映像監視システムが形成される。その映像監視システムは、監視領域の境界線を越えて侵入する危険な行為を検知すると、直ちに警報とその判断を下した映像とを、監視員のいる監視室の表示装置、および警備員、関係者の携帯電話等に同時に送信して、犯罪等の早期防止に役立てる。その映像監視システムは、さらに、駐車場等の車の安全を利用者が離れたところで確認できる映像監視システムを提供する。 According to a known video surveillance system, an intelligent video surveillance system is formed by transplanting an intelligent video analysis system to a surveillance video system. When the video surveillance system detects a dangerous action that enters beyond the boundary of the surveillance area, the video surveillance system immediately displays the alarm and the video for which the judgment has been made. Sent to the mobile phone of the person at the same time to help prevent crimes early. The video surveillance system further provides a video surveillance system in which the safety of a vehicle such as a parking lot can be confirmed when the user leaves.
既知の或る安全監視システムは、外部から区分けされた一定の作業エリアの全部を監視可能な撮影機と、その撮影機に接続する画像処理装置と、その画像処理装置に接続する 治具制御盤と、その治具制御盤に接続するロボット制御盤とを含んでいる。その撮影機が全ての作業エリアを撮影し、その作業エリアの画像が画像処理装置に送られる。作業者がワークセット・エリア内で治具にワークセットを行う場合、そのシステムは、作業用ロボットを停止させる。作業用ロボットの稼働中は、画像処理装置が作業エリア内に進入物を認識した場合、そのシステムは、作業エリア内の全ての電源を遮断し、作業用ロボットを非常停止させる。 One known safety monitoring system includes a photographing machine capable of monitoring all of a fixed work area separated from the outside, an image processing apparatus connected to the photographing machine, and a jig control panel connected to the image processing apparatus. And a robot control panel connected to the jig control panel. The photographing machine photographs all work areas, and images of the work areas are sent to the image processing apparatus. When an operator performs a work set on a jig in the work set area, the system stops the work robot. During operation of the work robot, when the image processing apparatus recognizes an entering object in the work area, the system shuts off all the power sources in the work area and causes the work robot to perform an emergency stop.
例えばインターネット・データ・センタ(IDC)のような、サーバおよび/またはネットワーク機器等が設置された設備において、サーバおよび/または通信機器等の設置、調整、調整、交換、修理、撤去などの作業が行われる。また、その作業のために、作業員が、しばしば、作業のための操作領域とそれ以外の非操作領域を識別するために、特有のまたは識別可能な色を有する剥離可能なマーキング・テープ(例、養生テープ)で操作領域と非操作領域を区画することがある。また、その作業を監視するために、作業の現場に監視員を配置してもよい。 For example, installation, adjustment, adjustment, replacement, repair, removal, etc. of servers and / or communication devices, etc. in facilities such as the Internet Data Center (IDC) where servers and / or network devices are installed Done. Also, for the work, a releasable marking tape (e.g., a unique or identifiable color) is often used by an operator to distinguish between an operational area for work and other non-operated areas. In some cases, the operation area and the non-operation area are partitioned with a curing tape. In order to monitor the work, a monitor may be arranged at the work site.
発明者は、監視員によって作業員の作業を、常時、厳格に監視することは困難であり、コストが高い、と認識した。また、発明者は、画像認識技術で識別可能な形態で操作領域を表すマーキングを施し、操作領域およびマーキングをカメラで撮像し、その撮像された画像を画像認識技術を用いて認識することによって、作業員の作業または操作を効率的に監視することができる、と認識した。 The inventor has recognized that it is difficult and strictly costly to constantly monitor the work of the worker by the monitor. Further, the inventor performs marking that represents the operation region in a form that can be identified by the image recognition technology, images the operation region and the marking with a camera, and recognizes the captured image using the image recognition technology. Recognized that workers' work or operations can be efficiently monitored.
本発明の目的は、画像において非操作領域の境界線に対する動体映像の状態を判定できるようにすることである。 An object of the present invention is to make it possible to determine a state of a moving body image with respect to a boundary line of a non-operation area in an image.
実施形態の一観点によれば、入力部を介して画像信号を取り込んで格納する記憶部と、その記憶部に格納された第1の画像信号の画像における境界線と、その境界線によって区画される非操作領域とを決定する決定部と、その記憶部に格納された第2の画像信号における動体映像を検出する検出部と、その第2の画像信号の画像におけるその検出された動体映像がその境界線を貫通しているかどうかに基づいて、その境界線に対するその動体映像の状態を判定する判定部と、その判定された状態に基づいて信号を発生する信号発生部と、含む情報処理装置が提供される。 According to one aspect of the embodiment, a storage unit that captures and stores an image signal via the input unit, a boundary line in the image of the first image signal stored in the storage unit, and the boundary line a determination unit for determining a non-operating region that, a detector for detecting a moving object image in the second image signal stored in the storage unit, is the detected moving object image in the image of the second image signal An information processing apparatus that includes a determination unit that determines a state of the moving image relative to the boundary line based on whether the boundary line is penetrated, and a signal generation unit that generates a signal based on the determined state Is provided.
実施形態の一観点によれば、画像において非操作領域境界線に対する動体映像の状態を判定することができる。 According to one aspect of the embodiment, it is possible to determine the state of the moving body image with respect to the non-operation area boundary line in the image.
発明の目的および利点は、請求の範囲に具体的に記載された構成要素および組み合わせによって実現され達成される。
前述の一般的な説明および以下の詳細な説明は、典型例および説明のためのものであって、本発明を限定するためのものではない、と理解される。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It is understood that the foregoing general description and the following detailed description are exemplary and explanatory only and are not intended to limit the invention.
本発明の非限定的な実施形態を、図面を参照して説明する。図面において、同様のコンポーネントおよび素子には同じ参照番号が付されている。 Non-limiting embodiments of the present invention will be described with reference to the drawings. In the drawings, similar components and elements are provided with the same reference numerals.
図1は、実施形態による、例えばサーバ・ラックのような作業対象または工事対象の設備または装置20における操作を監視するための概略的な構成(configuration)の例を示している。
FIG. 1 shows an example of a schematic configuration for monitoring operations in a work or construction target equipment or
図1において、設備または装置20には、例えばサーバおよび/またはネットワーク機器等が設置されている。設備または装置20において、例えばサーバおよび/または通信機器のような機器の設置、調整、交換、修理および撤去など作業または工事のために、設備または装置20の一部の操作領域または作業領域24に対して作業員が操作または作業を行うことがある。そのために、作業員は、周辺の操作または作業対象でない非操作領域または非作業領域26、27、28および29から、操作領域または作業領域24を視覚的に識別するために、両者の間の境界にマーキング30を施す。マーキング30は、例えば、長方形状または多角形状の形態で操作領域24を区画しまたは囲むように施される。そのマーキング30は、例えば、剥離可能なカラー・マーキング・テープ(養生テープ)を貼り、取り外し可能なカラー・マーキング・ロープを固定または接着し、またはラックのフレーム等に消去可能なカラー・マーカ(筆記具)で着色を施すなどして、形成してもよい。マーキング30の色は、周囲の色と識別可能な、例えば、緑色、黄色、赤色であってもよい。カラー・マーキング・テープやカラー・マーキング・ロープが、例えばラックの側板に接着または取り付けられ、ラック内に置かれている作業対象である装置20には直接触れていない場合、ラック内に置かれている装置20とカラー・マーキング・テープやカラー・マーキング・ロープとの間に空間が生じることがある。
In FIG. 1, for example, a server and / or a network device is installed in the facility or
作業員は、操作領域24に対して操作または作業を行い、非操作領域26〜29内の機器等に手または身体の一部が触れないように注意する。非操作領域26〜29に設置された機器に手などが触れると、その機器が障害を起こす危険性があり得る。しかし、マーキング30を施しても、作業員の手が非操作領域26〜29の機器に誤って触れて、設備または装置20の機器および/またはそれに関連するバスやネットワーク等に障害を発生させる可能性がある。
The worker performs an operation or work on the
発明者は、操作領域24およびマーキング30をカメラで撮像し、撮像された画像を画像認識技術で認識することによって作業者の身体の非操作領域26〜29への誤った侵入を判定することができる、と認識した。また、発明者は、その撮像された画像を画像認識技術で認識することによって作業者の操作領域24の操作の適正さまたは不適切さを判定することができる、と認識した。発明者は、それによって、作業員の操作およびその監視を効率化することができる、と認識した。
The inventor images the
図1において、複数のカメラ202、204、206、208および210が設備または装置20に配置される。カメラ202〜210は、例えばウェブ・カメラのようなライブ・カメラであってもよい。カメラ202〜208は、設備または装置20の正面側の操作領域24の方向を向いて、操作領域24と非操作領域26〜29の間を区画するマーキング30を撮像するように操作領域24に接近して分散配置される。それによって、作業者の非操作領域26〜29への誤った侵入を表す画像の捕捉が可能となり、または作業者の操作領域24内での適正な操作の画像の捕捉が可能となる。別のカメラ210は、設備または装置20における作業員の全体の操作を監視するために、操作領域24付近の映像を広く撮影するように配置される。
In FIG. 1, a plurality of
カメラ202〜210は、有線通信または無線通信で、例えばパーソナル・コンピュータのような情報処理装置100または200に結合される。カメラ202〜210は、ケーブルを介し、さらにUSBハブ146またはルータ若しくはハブ148を介して、情報処理装置100に結合されてもよい。情報処理装置100または200は、さらに有線通信または無線通信で遠隔通信用のネットワークに接続されてもよい。情報処理装置100、200は、監視装置または監視用の端末であってもよい。
The
図2Aは、情報処理装置100の概略的な構成(configuration)の例を示している。
情報処理装置100は、プロセッサ112、メモリ114、入出力インタフェース(I/O)116、内部バス、等を含む例えばパーソナル・コンピュータのようなコンピュータまたは装置であってもよい。プロセッサ112は、コンピュータ用のCPU(Central Processing Unit)であってもよい。プロセッサ112およびメモリ114は、入出力インタフェース116に結合されている。メモリ114には、例えば、主記憶装置および半導体メモリ等が含まれる。情報処理装置100は、さらに、入出力インタフェース(I/O)116に結合された、表示装置(DSP)122、スピーカ(SPK)124、入力部または入力装置126、記録媒体読み取り用のドライブ128、およびハードディスク・ドライブ(HDD)130を含んでいる。入力部126は、例えばキーボード、マウスまたはタッチパッドのようなポインティング・デバイス、およびタッチパネルを含んでいてもよい。ドライブ128は、例えば光ディスクのような記録媒体129を読み取るために設けられている。情報処理装置100は、さらに、入出力インタフェース(I/O)116に結合された、USBインタフェース(USB I/F)142、およびネットワーク・インタフェース(NW I/F)144を含んでいる。情報処理装置100において、USBインタフェース142および/またはネットワーク・インタフェース144は、少なくともカメラ202〜210からの画像信号を入力する入力部としても機能してもよい。
FIG. 2A shows an example of a schematic configuration of the
The
情報処理装置100において、表示装置122、スピーカ124、入力部126およびドライブ128は、情報処理装置100の外部にあって、外部要素として情報処理装置100に結合されてもよい。
In the
プロセッサ112は、操作監視機能を含む例えば集積回路として実装された専用のプロセッサであってもよい。また、プロセッサ112は、メモリ114および/またはハードディスク・ドライブ130に格納された操作監視機能を有するアプリケーション・プログラムに従って動作するものであってもよい。アプリケーション・プログラムは、記録媒体129に格納されていて、ドライブ128によって記録媒体129から読み出されて情報処理装置100にインストールされてもよい。
The
カメラ202〜210は、USBケーブルによって、USBインタフェース142および任意にUSBハブ146を介して情報処理装置100に結合される。情報処理装置100は、ネットワーク・インタフェース144を介し、さらに外部ネットワーク5を介して、監視センタに設置された監視センタ装置300に接続されてもよい。監視センタ装置300は、例えばパーソナル・コンピュータのようなコンピュータであってもよく、監視員の操作に従って、情報処理装置100からカメラ210および任意にカメラ202〜208によって捕捉された画像情報を受信して、その画像を表示装置に表示してもよい。
The
図2Bは、情報処理装置100のプロセッサ112の概略的な構成(configuration)の例を示している。
プロセッサ112は、例えば、制御部1120、設定部1122、画像生成部1124、領域決定部1126、動体検出部1128、動体静止判定部1130、状態判定部1132、信号発生部1134、およびその他の処理部1136を含んでいてもよい。処理部1136には例えば通信処理部が含まれていてもよい。制御部1120は、設定部1122、画像生成部1124、領域決定部1126、動体検出部1128、動体静止判定部1130、状態判定部1132、信号発生部1134および処理部1136に制御信号を供給して、これらの要素の動作を制御してもよい。
FIG. 2B shows an example of a schematic configuration of the
The
図3は、別の情報処理装置102の概略的な構成(configuration)の例を示している。図3において、情報処理装置102は、図2Aの情報処理装置100の要素112〜144を含んでいる。情報処理装置102のプロセッサ112は、図2Bに例示された情報処理装置100のプロセッサ112と同様の構成(configuration)を含んでいてもよい。
FIG. 3 shows an example of a schematic configuration of another
図3において、情報処理装置102は、ネットワーク・インタフェース144およびルータまたはハブ148を介してカメラ202〜210に結合される。情報処理装置102のその他の構成は、図2Aの情報処理装置100のものと同様である。ネットワーク・インタフェース144およびルータまたはハブ148は、有線通信または無線通信用であってもよい。
In FIG. 3, the
図4は、カメラ202〜208の1つによって撮影された画像400、および操作監視機能用のソフト・キー412、414、416、418、420、422および428を含む、表示装置122上の画面の例を示している。画像400は、操作領域24を囲むマーキング30の物体の映像と、その隣接の非操作領域26〜29の各部分の映像とを含んでいる。マーキング30は、例えば天井の照明器具からの光を反射して、1つ以上の白く光る部分32を含むことがある。
FIG. 4 illustrates a screen on the
ソフト・キー412は、情報処理装置100または102の操作監視機能を初期化するコマンドを入力するためのものである。ソフト・キー414は、操作監視機能の手動設定モードを設定するコマンドを入力するためのものである。ソフト・キー416は、マーキング30によって区画される非操作領域26〜29と、それ以外の操作領域24を含む領域とを表示するための領域確認用のコマンドを入力するためのものである。ソフト・キー418は、操作監視機能の通常の操作監視モードを開始するためのコマンドを入力するためのものである。ソフト・キー420は、操作監視機能における作業員の正常操作を確認するための正常操作確認モードを設定するコマンドを入力するためのものである。複数のソフト・キー422は、表示装置122に表示される画像400を撮影する監視用のカメラ202〜210の1つを選択するコマンドを入力するためのものである。
A
作業員は、図1に示すような形態で設備20にマーキング30を設けた後、設備20の操作領域24の周りにカメラ202〜210を取り付けて、カメラ202〜210を通信ケーブルで情報処理装置100または102に結合させる。作業員は、必要に応じて、情報処理装置100または102を外部ネットワーク5に接続してもよい。次いで、作業員は、情報処理装置100または102上で操作監視機能または操作監視用のアプリケーションを起動する。作業員は、操作監視機能の初期化の前または初期化処理中に操作監視機能の設定の調整を行ってもよい。作業員は、カメラ202〜208を選択し、表示装置122の画像400で確認しながら、カメラ202〜208の配置および角度を調整することによって、マーキング30に対するカメラ202〜208の視野を調整する。作業員は、画像400を回転または反転させるなどして、画像400の操作領域24および非操作領域26〜29を調整、変更または編集してもよい。
The worker, after providing the
プロセッサ112(またはその操作監視機能)は、初期化処理をカメラ202〜208の各々に対して順次行う。初期化処理において、プロセッサ112は、マーキング30の或る端縁を認識して、その端縁より或る方向に位置する領域を非操作領域26〜29と決定する。その或る方向に位置する領域は、例えば、カメラ202〜208に近い側にあるマーキング30の端縁34、35より下、左下、右下上、右または左の領域であってもよい。カメラ202〜208の各画像400について各カメラに近い側にあるマーキング30の端縁34、35を選択しそれを境界として非操作領域26〜29とそれ以外の領域を決定することによって、非操作領域26〜29の決定と、非操作領域26〜29における操作の監視とを単純化できる。ここでは、例示のために、その或る方向に位置する領域は、マーキング30の下側の端縁34、35より下の領域と仮定する。また、プロセッサ112は、マーキング30を認識して、マーキング30の端縁よりその或る方向とは反対の方向に位置する領域を、操作領域24を含む領域と決定してもよい。ここでは、その反対の方向に位置する領域は、マーキング30の下側の端縁34、35より上の領域と仮定する。代替形態として、プロセッサ112は、カメラ202〜208に2番目に近い側にあるマーキング30の端縁38、39をも選択し、破線で示されたその端縁34、35と端縁38、39の間にある線33を境界として非操作領域26〜29とそれ以外の領域を決定してもよい。代替形態として、プロセッサ112は、マーキング30の外側の端縁34〜37によって囲まれた領域を操作領域24と決定してもよい。
The processor 112 (or its operation monitoring function) sequentially performs initialization processing for each of the
プロセッサ112は、決定された端縁または2つ端縁の交点Iが、画像400の中心点Cの或る半径距離の範囲にない場合、画像400を撮影したカメラ202〜208の配置および角度を調整するよう指示してもよい。その指示は、スピーカ124および/または表示装置122によって音響的および/または視覚的に行われる。決定された端縁または2つ端縁の交点または角Iを画像400の中心点C付近に配置することによって、操作監視機能による非操作領域26〜29における操作の誤りの画像認識の精度が高くなる。
The
図5は、情報処理装置100または102のプロセッサ112(またはその画像生成部1124)によって実行される、カメラ202〜208の1つによって撮影された連続する複数の画像Cの平均の画像Aを生成するためのフローチャートの例を示している。この平均の画像Aの生成は、操作監視機能の初期化処理においてまたは作業員の操作に従ってその動作中に、カメラ202〜208の各々によって撮影された複数の画像Cに対して行われてもよい。プロセッサ112または操作監視機能(以下、単にプロセッサともいう)は、カメラ202〜208の1つによって撮影された最新の画像Cを捕捉しメモリ114に格納する。
5 generates an average image A of a plurality of continuous images C taken by one of the
ステップ500において、プロセッサ112は、メモリ114における平均の画像Aのピクセルの値を初期化する。初期化されたピクセルの値は、全て0(ゼロ)のレベルまたは階調である。
In
ステップ502において、プロセッサ112は、平均の画像Aの生成に使用した最新の画像Cの合計数nが所要数N(例えば、N=10または16)に達したかどうかを判定する。ステップ502において、画像Cの数nが所要数Nに等しいと判定された場合は、手順はステップ512に進む。画像Cの数nが所要数Nに等しくないまたは所要数N未満であると判定された場合は、ステップ504において、プロセッサ112は、カメラ202〜208の中の選択された1つから最新の画像Cを取得してメモリ114に格納する。
In
ステップ506において、プロセッサ112は、画像Cの1フィールドまたは1フレーム分のピクセル値(レベル)に係数1/Nを乗算して、平均の画像Aの対応するフィールドまたはフレームのピクセル値に加算する。ステップ508において、プロセッサ112は、平均の画像Aに累積的に加算した画像Cの数nに1を加算する(n=n+1)。
In
ステップ510において、プロセッサ112は、例えば100msのような或る時間遅延を生じさせる。その後、手順はステップ502に戻る。ステップ502〜510は、連続するN個の最新の画像Cの平均の画像Aが決定されるまで繰り返される。平均の画像Aを用いることによって、画像Aにおけるノイズが低減または除去できる。
In
ステップ512において、プロセッサ112は、その決定された平均の画像Aを表す1フィールドまたは1フレーム分のピクセル値をメモリ114に格納する。
In step 512, the
図5の平均の画像Aの生成は、例えば1時間毎に定期的に行ってもよい。それによって、周囲の明るさの条件の変化した場合に、新しい平均の画像Aを生成することができる。作業員の操作中に画像Aを更新する場合、プロセッサ112は、ステップ504において、最初の画像Aと最新の画像Cを比較して画像認識して、その画像Cにおける動体映像を除く背景部分(領域)に、画像Aにおけるその動体映像の対応位置にある背景部分(領域)を合成して画像Cとしてもよい。
The generation of the average image A in FIG. 5 may be performed periodically, for example, every hour. Thereby, a new average image A can be generated when the ambient brightness condition changes. When updating the image A during the operation of the worker, the
図6は、表示装置122の画像402を表すデータを格納したメモリ114上の領域において、マーキング30を認識して非操作領域26〜29を決定するための手順の例を説明するためのものである。この場合、画像402は平均の画像Aを表している。
FIG. 6 is a diagram for explaining an example of a procedure for recognizing the marking 30 and determining the
図6において、1組の点p1〜p13は、画像402の左半分の領域においてマーキング30の下側の端縁34を求めて探索する可能な開始点を示している。1組の点q1〜q13は、画像402の右半分の領域においてマーキング30の下側の端縁35を求めて探索する可能な開始点を示している。1組の点p1〜p13と1組の点q1〜q13は、中央の垂直線に関して左右の鏡面対称の関係にあってもよい。
画像402の枠の左下の隅を原点とし、枠の横と縦の長さを基準(1)とすると、枠内の1組の点p1〜p13の座標の位置は、例えば、次の通りである。
点p1=(4/16,1/5)、
点p2=(5/16,1/5)、
点p3=(6/16,1/5)、
点p4=(7/16,1/5)、
点p5=(8/16,1/5)、
点p6=(4/16,1/4)、
点p7=(5/16,1/4)、
点p8=(6/16,1/4)、
点p9=(7/16,1/4)、
点p10=(8/16,1/4)、
点p11=(1/6,1/4)、
点p12=(1/6+1/16,1/4)、
点p13=(1/6+2/16,1/4)。
ここで、一連の点p1〜p5は水平方向に互いに1/16だけ離れている。一連の点p6〜p13も水平方向に互いに1/16だけ離れている。一連の点p11〜p13も水平方向に互いに1/16だけ離れている。1組の点q1〜q13について、画像402の枠の右下の隅を原点として、1組の点p1〜p13と対称の位置にある。
In FIG. 6, a set of points p <b> 1 to p <b> 13 indicate possible start points for searching for the
With the lower left corner of the frame of the
Point p1 = (4/16, 1/5),
Point p2 = (5/16, 1/5),
Point p3 = (6/16, 1/5),
Point p4 = (7/16, 1/5),
Point p5 = (8/16, 1/5),
Point p6 = (4/16, 1/4),
Point p7 = (5/16, 1/4),
Point p8 = (6/16, 1/4),
Point p9 = (7/16, 1/4),
Point p10 = (8/16, 1/4),
Point p11 = (1/6, 1/4),
Point p12 = (1/6 + 1/16, 1/4),
Point p13 = (1/6 + 2/16, 1/4).
Here, the series of points p1 to p5 are separated from each other by 1/16 in the horizontal direction. The series of points p6 to p13 are also separated from each other by 1/16 in the horizontal direction. The series of points p11 to p13 are also separated from each other by 1/16 in the horizontal direction. The set of points q1 to q13 is symmetrical with the set of points p1 to p13 with the lower right corner of the frame of the
プロセッサ112または領域決定部1126は、矢印で示されているように、点p1〜p13の1つを開始点とする垂直方向の直線に沿って上向きに画像402の枠の上辺に向かって各ピクセルの色(色相および階調)を検査して、マーキング30の下側の端縁34を求めて探索する。プロセッサ112(領域決定部1126)は、最初の点(例えば、p1、p2)から探索を開始してもマーキング30の下側の端縁34を識別または検出できない場合には、次の点(例えば、p2、p3)から探索を再度開始してマーキング30の下側の端縁34の識別を試みる。それによって、1組の点p1〜p13のいずれかについてマーキング30の下側の或る長さ(例えば、30ピクセル長)の端縁302が識別される。
As indicated by an arrow, the
その後、同様に、プロセッサ112(領域決定部1126)は、点q1〜q13の1つを開始点とする垂直方向の直線に沿って上向きに画像402の枠の上辺に向かって各ピクセルの色(色相および階調)を検査してマーキング30の下側の端縁35を求めて探索する。それによって、1組の点q1〜q13のいずれかについてマーキング30の下側の或る長さの端縁306が識別される。端縁302および306は、直線状であると仮定してもよい。
After that, similarly, the processor 112 (region determination unit 1126) causes the color of each pixel (upward to the upper side of the frame of the image 402) along a vertical straight line starting from one of the points q1 to q13. Hue and gradation) are inspected to find and search for the
プロセッサ112(領域決定部1126)は、さらに、メモリ114上の領域において、マーキング30の下側の端縁302、306の線分を延長して、マーキング30の下側の延長された端縁または境界線304、308をそれぞれ決定する。境界線304、308は、端縁302、306の線分を直線的に延長したものであってもよい。この場合、プロセッサ112(領域決定部1126)は、図7において暗い陰影が施された端縁304、308の下側の領域を非操作領域26〜29と決定し、非操作領域26〜29を表す画像Dのピクセル位置を表すデータをメモリ114上の領域に格納する。画像Dは1フィールドまたはフレームのデータであってもよい。
The processor 112 (region determination unit 1126) further extends the line segment of the
図7は、表示装置122の画像402におけるマーキング30の下側の非操作領域26〜29を表す画像Dの映像404の例を示している。
FIG. 7 shows an example of the
初期化処理において、プロセッサ112(領域決定部1126)は、カメラ202〜208の各々に対して、非操作領域26〜29が決定されたときに、作業員による確認のために画像404を表示してもよい。画像404は、カメラ画像404の次の1つを選択するソフト・キー422がクリックされまで、または或る時間期間だけ表示されてもよい。また、作業員は、表示装置122の画面において領域確認用のソフト・キー416をクリックすることによって、暗い陰影で表される下側の非操作領域26〜29を確認してもよい。
In the initialization process, the processor 112 (area determination unit 1126) displays an
初期化処理において、非操作領域26〜29の端縁304および308が適切に決定できないこと、または端縁304および308の決定に失敗することがあり得る。そのような場合、作業員は、手動設定用のソフト・キー414をクリックして手動設定モードを設定してもよい。この場合、作業員は、入力部126の例えばポインティング・デバイスで端縁304および308を表す直線を入力して、下側の非操作領域26〜29を決定することができる。プロセッサ112(画像生成部1124)は、その非操作領域26〜29を表す画像Dをメモリ114上の領域に格納する。初期化処理において、作業員は、画像402におけるマーキング30の映像中の1つ以上のピクセルを、例えばポインティング・デバイスで指定して、マーキング30の色(色相および階調)を設定してもよい。代替形態として、作業員は、或る色パレットの中からマーキング30の色として使用する色(色相および階調)を選択してもよい。それによって、プロセッサ112(設定部1122)は、メモリ114上の領域にマーキング30の特定の色を表すデータを格納することができる。このような非操作領域26〜29の決定は、プロセッサ112の領域決定部1126または操作監視用のアプリケーション・プログラムの一部で実現される。
In the initialization process, the
図8Aおよび8Bは、情報処理装置100または102のプロセッサ112によって実行される、メモリ114上の表示メモリ領域上で画像402のマーキング30を識別して非操作領域26〜29を決定するためのフローチャートの例を示している。この非操作領域26〜29の決定は、プロセッサ112の領域決定部1126または操作監視用のアプリケーション・プログラムの一部で実行される。非操作領域26〜29の決定は、操作監視機能の初期化処理において、図5のフローチャートによる平均の画像Aの生成の後で、カメラ202〜208の各々によって撮影された最新の画像Cに対して行われる。
8A and 8B are flowcharts executed by the
図8Aを参照すると、ステップ522において、プロセッサ112は、メモリ114から平均の画像Aまたは最新の画像Cを表すデータと、左側の探索開始点p1〜13の中の最初の点p1または次の点p2〜p13を表すデータとを読み込む。ステップ524において、プロセッサ112は、画像AまたはC上でマーキング30の境界を求めて上方向に探索する。そのために、プロセッサ112は、画像AまたはCのピクセルを、探索開始点p1〜p13からピクセル単位で上向きに順次移動して、マーキング30の特定の色(色相および階調)を表すピクセル値を求めて探索する。
Referring to FIG. 8A, in
ステップ526において、プロセッサ112は、マーキング30の色(色相および階調)の境界を検出したかどうかを判定する。ステップ526において境界が検出されなかったと判定された場合は、手順はステップ522に戻る。
In
ステップ526において境界が検出されたと判定された場合は、ステップ528において、プロセッサ112は、マーキング30の色を有する最初および次の各ピクセルの隣接位置にある左、上、左上および左下の複数のピクセルの色(色相および階調)を検査する。マーキング30のピクセルの色は、許容誤差の範囲内のものであれば、マーキング30のピクセルと判定してよい。プロセッサ112は、その検査を複数の隣接ピクセルに対して繰り返し実行することによって、マーキング30の下側端縁302に沿ってその境界線を上向きおよび左方向にトレースし検出する。
If it is determined in
ステップ530において、プロセッサ112は、トレースの距離が或る閾値の距離(例えば、30ピクセル長)を超えたかどうかを判定する。ステップ530においてトレースの距離が閾値の距離を超えなかったと判定された場合は、手順はステップ522に戻る。
In
ステップ530においてトレースの距離が閾値の距離を超えたと判定された場合は、ステップ532において、プロセッサ112は、下側端縁302を延長し、その延長線を現在の境界線304として決定してメモリ114に格納する。その後、手順は図8Bのステップ542に進む。
If it is determined in
図8Bを参照すると、ステップ542において、プロセッサ112は、メモリ114から右側の探索開始点q1〜q13の中の最初の点q1または次の点q2〜q13を表すデータを読み込む。ステップ544において、プロセッサ112は、ステップ522におけるのと同様に、画像AまたはC上でマーキング30の境界を求めて上方向に探索する。
Referring to FIG. 8B, in
ステップ546において、プロセッサ112は、マーキング30の色の境界を検出したかどうかを判定する。ステップ546において境界が検出されなかったと判定された場合は、手順はステップ542に戻る。
In
ステップ546において境界が検出されたと判定された場合は、ステップ548において、プロセッサ112は、ステップ526と同様に、マーキング30の色を有する最初および次の各ピクセルの隣接位置にある右、上、右上および右下の複数のピクセルの色を検査する。プロセッサ112は、その検査を複数の隣接ピクセルに対して繰り返し実行することによって、マーキング30の下側端縁306に沿ってその境界線を上向きおよび右方向にトレースし検出する。
If it is determined at
ステップ550において、プロセッサ112は、トレースの距離が或る閾値距離を超えたかどうかを判定する。ステップ550においてトレースの距離が閾値距離を超えなかったと判定された場合は、手順はステップ542に戻る。
In
ステップ550においてトレースの距離が閾値の距離を超えたと判定された場合は、ステップ552において、プロセッサ112は、下側端縁306を延長し、その延長線を現在の境界線308として決定してメモリ114に格納する。
If it is determined in
ステップ554において、プロセッサ112は、境界線304および308の下側の非操作領域(26〜29)を操作禁止領域26〜29と決定する。プロセッサ112は、図7の境界線304、308と非操作領域または操作禁止領域26〜29とを表す画像Dのデータをメモリ114に格納する。
In
プロセッサ112は、ステップ522において、さらに、許容誤差の範囲でマーキング30の色(例えば、緑)を有するピクセルに囲まれたまたは挟まれた白く光る部分32のピクセルの色をマーキング30の色に置換してもよい。それによって、下側端縁302、306の検出が容易になる。
In
代替形態としてまたはそれに加えて、ステップ528および548の境界線のトレースにおいて、一般化ハフ変換を用いて、複数の短い境界線の間にある空白を補間して長い境界線を推定してもよい。一般化ハフ変換は、始点からの距離と角度のみに基づいて直線を抽出する通常のハフ変換とは異なり、始点と終点を有する線分を抽出することができる。マーキング30の下側端縁302、306の座標を一般化ハフ変換することによって、可能性ある短い複数の線分を下側端縁302、306として抽出できる。そのような抽出された複数の線分の中で最も長いものが下側端縁302、306として選択されてもよい。代替形態として、そのような抽出された複数の線分の最も長い3乃至6本の線分の中でほぼ同一直線上にあるものが、下側端縁302、306として選択されてもよい。この場合、暫定的に選択した線分を延長して直線を生成して、その直線と複数の線分の交点が複数の線分に距離的に近い直線が、下側端縁302、306として選択されてもよい。あるいは、暫定的に選択した線分を延長して直線を生成して、複数の線分との間の角度差が小さいそのような直線が下側端縁302、306として選択されてもよい。それによって、下側端縁302、306の検出が容易になる。一般化ハフ変換の技術は、例えば、Duda他“Use of the Hugh Transformation To Detect Lines and Curves in Pictures”, Graphics Image Processing, Communication of the ACM, Issue 1, November 1970, revised January 1971に記載されている。
As an alternative or in addition, in the boundary traces of
図9Aは、カメラ202〜208の1つによって撮影されて生成された平均の画像Aまたは最新の画像Cにおいて、画像Dの操作領域24内に留まる動体映像40と、画像Dの非操作領域26〜29に侵入した動体映像42、44とを含む画像406の例を示している。動体映像40、42、44の動体は、例えば作業員の身体の一部、手または指、または装着した手袋、等であってもよい。
FIG. 9A shows a moving
図9Aを参照すると、プロセッサ112(状態判定部1132)は、動体映像40全体が境界線304および308より上または奥にあると判定した場合、その動体が操作領域24内に留り、即ち非操作領域26〜29に侵入していない、と判定する。
Referring to FIG. 9A, when the processor 112 (state determination unit 1132) determines that the entire moving
プロセッサ112(状態判定部1132)は、動体映像42、44の一部が非操作領域26〜29中に位置すると判定した場合、さらに動体映像42が境界線304、308を横切って通っているか、即ち境界線304、308を分断している(貫通)かまたは境界線304、308で分断されているかを判定する。
When the processor 112 (the state determination unit 1132) determines that a part of the moving
動体映像42が境界線304、308を横切って通って非操作領域26〜29中に達していると判定した場合、プロセッサ112(状態判定部1132)は、3次元的に見て動体が非操作領域26〜29に侵入した、と判定する。一方、動体映像44が境界線304、308で分断されまたは境界線304、308を横切らずに非操作領域26〜29中に孤立して位置していると判定した場合、3次元的に見て動体が操作領域24内に留り、即ち非操作領域26〜29に侵入していない、と判定する。動体映像44では、3次元的に見て、動体が操作領域24内の奥に深く侵入しているだけで、操作領域24内に留り、非操作領域26〜29に侵入していない、と考えられる。
When it is determined that the moving
図10Aおよび10Bは、プロセッサ112によって実行される、各カメラ202〜208によって撮影され生成された画像AまたはCにおいて動体映像40、42、44が非操作領域26〜29に侵入したかどうかを判定するためのフローチャートの例を示している。この判定を行う操作監視は、図9Aの表示装置122の画面において、ソフト・キー418をクリックすることによって、通常の操作監視モードにおいて実行される。
FIGS. 10A and 10B determine whether the moving
図10Aを参照すると、ステップ702において、プロセッサ112(状態判定部1132)は、カメラ202〜208の各々に関して操作禁止領域を表す画像Dのデータをメモリ114から読み込む。ステップ704において、プロセッサ112(状態判定部1132)は、カメラ202〜208の各々に関する平均の画像Aのデータをメモリ114から取得する。画像Aは、設備20の周囲の明るさの変化を反映するために新しい画像であることが好ましい。ステップ706において、プロセッサ112(状態判定部1132)は、カメラ202〜208の各々について最新の画像Cのデータをメモリ114から取得する。画像Aは、最新の画像Cにおける動体画像Mの背景画像に対応する。
Referring to FIG. 10A, in
ステップ708において、プロセッサ112(動体検出部1128)は、カメラ202〜208の各々について、最新の画像Cのデータを平均の画像Aのデータと比較して、最新の画像Cにおける平均の画像Aのデータと相違する部分の位置のピクセルを抽出する。プロセッサ112(動体検出部1128)は、その相違する部分がランダムなノイズでなく或る閾値の面積(例えば、100ピクセル)を超える1つの領域として存在すれば、その抽出されたピクセルを動体映像40、42、44として含む動体画像Mのデータを生成する。動体画像Mは、動体映像40、42、44の領域以外のピクセル値が0(ゼロ)であるような1フィールドまたはフレームのデータである。
In
ステップ848において、プロセッサ112(状態判定部1132)は、有効な動体画像Mのデータが存在するかどうかを判定する。有効な動体画像Mのデータが存在しないと判定された場合は、手順はステップ706に戻る。
In
ステップ848において有効な動体画像Mのデータが存在すると判定された場合は、プロセッサ112(状態判定部1132)は、ステップ850において、動体画像Mのデータを、操作禁止領域を表す画像Dのデータと比較する。
If it is determined in
図10Bを参照すると、ステップ852において、プロセッサ112(状態判定部1132)は、カメラ202〜208の1つ以上の動体画像Mの各々について、対応する画像Dの操作禁止領域26〜29に動体映像40〜44が存在するかどうかを判定する。いずれの画像Dの操作禁止領域26〜29にも動体映像40が存在しないと判定された場合、手順は図10Aのステップ706に戻る。
Referring to FIG. 10B, in
ステップ852においていずれかの画像Dの操作禁止領域26〜29に動体映像42、44が存在すると判定された場合、手順はステップ854に進む。ステップ854において、プロセッサ112(状態判定部1132)は、動体映像42、44とマーキング30の映像または境界線304、308との重なりまたは連続性の関係(幾何学的関係)を認識する。
If it is determined in
図9Bは、図9Aの画像406の一部を拡大した図であり、ステップ854において、動体映像42または44がマーキング30の映像または境界線304、308を貫通して連続しているかどうかを認識する方法の例を示している。
FIG. 9B is an enlarged view of a portion of the
図9Bにおいて、プロセッサ112(状態判定部1132)は、動体映像42または44を通過するまたは動体映像42または44と接する境界線304または308の線分を求め、その線分の中点fcを求める。次いで、プロセッサ112(状態判定部1132)は、動体映像42または44において、中点fcを通る直線上にある、境界線304、308より下にある動体映像42または44上の点fdと、マーキング30上の点fuとを選択する。点fdは、中点fcから例えば下、左下または右下の位置にあり、中点fcから或る数のピクセル分の距離(例えば、4ピクセル分)だけ離れている。点fuは、中点fcから例えば上、右上または左上の位置にあり、中点fcから或る数のピクセル分の距離(例えば、4ピクセル分)だけ離れている。
In FIG. 9B, the processor 112 (state determination unit 1132) obtains a line segment of the
プロセッサ112(状態判定部1132)は、点fdと中点fcの間にあるピクセルの色(色相および階調)と、中点fcと点fuの間にあるピクセルの色を判定する。点fdと中点fcの間にあるピクセル色が許容誤差の範囲で中点fcと点fuの間にあるピクセルの色と等しい場合、プロセッサ112(状態判定部1132)は、動体映像42がマーキング30を貫通していると判定する。この判定は、さらに、中点fcと点fuの間にあるピクセルの色がマーキング30の色でないことを追加的条件として行ってもよい。点fdと中点fcの間にあるピクセル色が、許容誤差の範囲を超えて中点fcと点fuの間にあるピクセルの色と異なる場合、プロセッサ112(状態判定部1132)は、動体映像44がマーキング30を貫通していないと判定する。この判定は、さらに、中点fcと点fuの間にあるピクセルの色が、許容誤差の範囲内でマーキング30の色であることを追加的条件として行ってもよい。
The processor 112 (state determination unit 1132) determines the color (hue and gradation) of the pixel between the point fd and the midpoint fc and the color of the pixel between the midpoint fc and the point fu. When the pixel color between the point fd and the midpoint fc is equal to the color of the pixel between the midpoint fc and the point fu within a tolerance range, the processor 112 (the state determination unit 1132) indicates that the moving
図10Bを再び参照すると、ステップ856において、プロセッサ112(状態判定部1132)は、操作禁止領域26〜29に存在する動体映像40〜44がマーキング30の映像または境界線304、308を貫通しているか(横切って伸びているか)どうかを判定する。いずれの動体画像Mについても動体映像40、44がマーキング30の映像または境界線304、308を貫通しておらず、または境界線304、308で分断されていると判定された場合には、手順は図10Aのステップ706に戻る。
Referring again to FIG. 10B, in
ステップ856においていずれかの動体画像Mについて動体映像42がマーキング30の映像または境界線304、308を貫通していると判定された場合、プロセッサ112(信号発生部1134)は、ステップ858において警告を表す信号を発生する。従って、カメラ202〜208で捕捉され生成されたいずれかの画像Cについて操作禁止領域に動体が侵入して論理和(OR)の形態で非操作領域26〜29への侵入の条件が成立した場合に、警告を表す信号が発生される。
If it is determined in
プロセッサ112(信号発生部1134)は、警告を表す信号をスピーカ124に供給してスピーカ124に或る時間の長さ(例えば、2秒)だけ例えばブザー音のような警告音を発生させてもよい。代替的にまたは追加的に、プロセッサ112(信号発生部1134)は、警告を表すメッセージを表示装置122に表示してもよい。それによって、作業員は、操作禁止領域26〜29における誤った動体の侵入を確認または認識することができる。その警告を表す信号またはメッセージは、プロセッサ112(制御部1120、処理部1136)によって監視センタ装置300に送信されてもよい。それによって、作業員の誤操作を監視センタ装置300で監視することができる。その後、手順は、図10Aのステップ706に戻る。
The processor 112 (the signal generator 1134) may supply a signal representing a warning to the
ステップ858において警告を表す信号を発生する代わりに、またはそれに加えて、ステップ857において、プロセッサ112(信号発生部1134)は、正常操作であることを表す信号を発生してもよい。即ち、ステップ857は、ステップ852において動体映像40は存在するがいずれの画像Dの操作禁止領域26〜29にも存在しないと判定された場合に、実行される。また、ステップ857は、ステップ856においていずれかの動体画像Mについて動体映像44が存在するがマーキング30の映像または境界線304、308を貫通するものはなく、または境界線304、308で分断されていると判定された場合に、実行される。一方、ステップ858が実行されない場合、ステップ856においていずれかの動体画像Mについて動体映像42がマーキング30の映像または境界線304、308を貫通していると判定された場合には、手順は図10Aのステップ706に戻る。
Instead of or in addition to generating a signal representing a warning in
プロセッサ112(信号発生部1134)は、正常操作を表す信号を発生し、スピーカ124に音信号を供給して或る時間の長さ(例えば、1秒)だけ例えばチャイム音のような音を発生させてもよい。代替的にまたは追加的に、プロセッサ112(信号発生部1134)は、正常操作を表すメッセージを表示装置122に表示してもよい。それによって、作業員は、操作領域24における適正な操作を確認または認識することができる。その正常操作を表す信号またはメッセージは、プロセッサ112(制御部1120、処理部1136)によって監視センタ装置300に送信されてもよい。それによって、作業員の誤操作を監視センタ装置300で監視することができる。その後、手順は、図10Aのステップ706に戻る。
The processor 112 (signal generation unit 1134) generates a signal indicating normal operation, supplies a sound signal to the
一方、作業員は、設備または装置20において、操作領域24が分かりにくい場合、例えば操作領域24が複数分散してある場合または非常に高い位置にある場合に、実際の操作前に、操作しようとする部分の位置が適切な操作領域24内にあるかどうかを予め確認したいことがある。そのような場合、初期化処理の後、作業員は、ソフト・キー418をクリックして、操作監視機能を正常操作確認モードに設定する。プロセッサ112(信号発生部1134)は、正常操作確認モードで、動体映像40、44が3次元的に操作領域24内で或る時間だけ静止した場合に、上述したような正常操作を表す信号を発生してもよい。また、プロセッサ112(信号発生部1134)は、正常操作確認モードで、動体映像42が3次元的に非操作領域26〜29で或る時間だけ静止した場合に、上述したような警告を表す信号を発生させてもよい。
On the other hand, when the
図11A〜11Cは、プロセッサ112によって実行される、正常操作確認モードにおいて動体映像42〜44が正常に操作領域24内にあるかどうかを確認するためのフローチャートの例を示している。この場合、画像Aと連続する複数N個の画像Cとを合成した合成画像Bを用いて、動体画像42〜44が判定される。そのNの値は、図5のNと異なる値であってもよい。
FIGS. 11A to 11C show an example of a flowchart executed by the
図11Aを参照すると、ステップ702〜706は図10のものと同様である。この場合、ステップ706において、プロセッサ112(状態判定部1132)は、カメラ202〜208の各々について1つまたは連続する複数の最新の画像Cのデータをメモリ114から取得してもよい。複数の画像Cの数nは、2個〜所定の数N(例えば、N=10または16)の範囲の数であってもよい。連続する複数の画像Cのデータは、或る時間間隔、例えば100ms間隔のものであってもよい。
Referring to FIG. 11A, steps 702-706 are similar to those of FIG. In this case, in
ステップ808において、プロセッサ112(画像生成部1124)は、カメラ202〜208の各々について最新の各画像Cのデータを平均の画像Aのデータと比較して、最新の各画像Cにおける平均の画像Aのデータと許容誤差の範囲を超えて相違する部分の位置のピクセルを抽出する。プロセッサ112(画像生成部1124)は、その相違する部分がランダムなノイズでなく或る閾値の面積を超える1つの領域として存在すれば、その抽出されたピクセルを動体映像40、42、44として含む動体画像Mのデータを生成する。
In
プロセッサ112(状態判定部1132)は、さらに、画像Dに基づいてまたは画像A、CおよびDに基づいて、動体画像Mが、操作禁止領域26〜29には存在せず境界線304、308より上にだけある動体映像40を含んでいる場合に、それを動体画像M’として決定してもよい。動体画像M’は、後で説明する図11A〜11Cの代替形態において動体画像Mの代わりに使用される。
Further, the processor 112 (state determination unit 1132) determines that the moving body image M does not exist in the operation prohibited
図11Bを参照すると、ステップ820において、プロセッサ112(状態判定部1132)は、動体画像Mが存在するかどうかを判定する。ステップ820において動体画像Mが存在しないと判定された場合は、プロセッサ112(状態判定部1132)は、ステップ822において、メモリ114のフラグ記憶領域に正常操作を通知するためのフラグが設定されまたはオン状態にあるかどうかを判定する。フラグが設定されていないと判定された場合、手順は図11Aのステップ706に戻る。
Referring to FIG. 11B, in
ステップ822においてフラグが設定されていると判定された場合、プロセッサ112(状態判定部1132)は、ステップ824において、現在の或る合成された画像Bを破棄し、正常操作通知用のフラグを解除しまたはオフ状態にする。ここで、合成された画像Bは、背景としての平均の画像Aに、最新の各画像C中の各動体画像Mを或る重み付けで累積的に加算して生成された画像である。画像Bは後で説明する形態で生成される。その後、手順はステップ706に戻る。
If it is determined in
ステップ820において動体画像Mが存在すると判定された場合、プロセッサ112(状態判定部1132)は、ステップ826において、フラグが解除されまたはオフ状態にあるかどうかを判定する。フラグが解除されていないまたはオン状態にあると判定された場合、手順はステップ706に戻る。それによって、正常操作を表す信号の生成を表すフラグが設定状態にある期間に、正常操作を表す信号が重複してまたは冗長に生成されるのを抑止することができる。
If it is determined in
ステップ826においてフラグが解除されているまたはオフ状態にあると判定された場合、プロセッサ112(状態判定部1132)は、ステップ828において、合成された画像Bが存在するかどうかを判定する。合成された画像Bが存在しないと判定された場合、プロセッサ112(画像生成部1124)は、ステップ830において、メモリ114中の画像Aをコピーして新しい初期の画像Bを生成してメモリ114に格納する。プロセッサ112(画像生成部1124)は、さらに、初期の画像Bに各動体画像Mを或る重み付けで加算することによって、動体画像Mで画像Bを更新してもよい。その後、手順はステップ706に戻る。
When it is determined in
ステップ828において画像Bが存在すると判定された場合、プロセッサ112(画像生成部1124)は、ステップ840において、画像Bに動体画像Mを或る重み付けで加算することによって、動体画像Mで画像Bを更新する。次いで、プロセッサ112(状態判定部1132)は、最新の画像Cを合成された画像Bと比較する。
If it is determined in
ステップ842において、プロセッサ112(動体静止判定部1130)は、画像Cが静止状態を表しているかどうかを判定する。そのために、例えば、プロセッサ112(動体静止判定部1130)は、画像Cのピクセル値(色相および階調)と画像Bの対応するピクセル値の間に誤差の許容範囲を超えて差異があるかどうかを判定してもよい。画像Cと画像Bの間に許容範囲を超えて差異があることは、動体映像Mが静止状態にないかまたは未だ動体映像Mの静止状態を決定できないことを表している。手のような動体が動いている場合には、連続的に取得された複数の画像Cが互いに異なるものとなり、画像(410)中の動体映像40はぼけたものとなり、画像Bと画像Cは許容範囲内で一致しない。また、合成された画像Cの数が或る数N(例えば、N=8または10)に満たない場合、画像410中の動体映像40は背景の画像Aの対応位置の部分と混合されて半透明状態となり、合成された画像Bと最新の画像Cは一致しない。
In
ステップ842において画像Cが静止状態を表していないと判定された場合は、プロセッサ112(動体静止判定部1130)は、ステップ844において、合計N個の動体画像Mが初期の画像Bと合成されたかどうかを判定する。N個の動体画像Mが合成されていないと判定された場合は、手順はステップ706に戻る。ステップ844においてN個の動体画像Mが合成されたと判定された場合は、プロセッサ112(画像生成部1124)は、ステップ846において、現在の画像Bを破棄し、メモリ114中の画像Aをコピーして初期の画像Bを再度生成してメモリ114に格納する。それによって、静止していない1つ以上の動体画像Mのぼけた動体映像40を含む画像Bを使用しないようにする。プロセッサ112(画像生成部1124)は、さらに、初期の画像Bに1つの最新の動体画像Mを或る重み付けで加算することによって、最新の動体画像Mで画像Bを更新してもよい。その後、手順はステップ706に戻る。代替形態として、ステップ842において画像Cが静止状態を表していないと判定された場合、ステップ844、846を実行することなく、手順はステップ706に戻ってもよい。
If it is determined in
ステップ842において画像Cが静止状態を表していると判定された場合、手順は、図11Cのステップ850に進む。図11Bのステップ842において、画像Cと画像Bの間に許容範囲を超えた差異がないことは、連続する或る数N個の画像Cの期間にわたって動体が実質的に静止していることを表している。
If it is determined in
図12Aおよび12Bは、合成された画像Bの更新の例を示している。
上述したように、初期の画像Bは画像Aと同じである。プロセッサ112(画像生成部1124)は、連続的に取得された1つ以上の最新の画像Cから生成された各動体画像Mの動体映像40〜44の位置の対応するピクセル値に或る重み付けwFを乗じて、重み付けされた動体画像Mwのピクセルを生成する。また、プロセッサ112(画像生成部1124)は、画像Bにおける動体画像Mの動体映像40〜44に対応する位置のピクセル値にだけ或る重み付けwBを乗じて、重み付けされた画像Bwのピクセルを生成する。プロセッサ112(画像生成部1124)は、さらに、動体画像Mw中の動体映像40〜44のピクセル値を、これと対応する位置の画像Bwのピクセル値に加算する。ここで、例えば、合成する画像Cの合計数×wF+wB=1である。その組合せは、例えば、或る数がN=16の場合、1つの画像Cに対して(wF=1/5、wB=4/5)である。例えば、16個の動体画像Mで画像Bを順次更新すると、同じ動体画像Mと初期の画像Bの比率は、0.97:0.03になり、その動体画像Mが概ね平均化(加重平均化)される。画像Bの各1回の更新において、より少ない数(例えば、1つ)の動体画像Mで画像Bを更新すると、プロセッサ112の処理負荷を時間的に分散できより均一にできる。その合成によって、最初の幾つかの期間は、図12Aの画像408に示されているような、画像Aまたは初期画像Bに近い薄い半透明の動体映像40〜44を含む画像Bが生成される。ステップ840において、より多くの最新の画像Cの動体画像Mで画像Bを更新することによって、図12Bの画像410に示されているような、より濃い半透明の動体映像40〜44を含む画像Bが生成される。
12A and 12B show examples of updating the synthesized image B. FIG.
As described above, the initial image B is the same as the image A. The processor 112 (the image generation unit 1124) performs a certain weighting w on pixel values corresponding to the positions of the moving
画像Aを初期の画像Bとして用いることによって、設備または装置20において明るさが変化して画像Cの明るさが変化しても、画像Bの背景画像を画像Aと同じにすることができる。それによって、画像Cと画像Bを比較する場合に、それらの背景部分の画像が同じになり、動体映像40〜44の比較が容易になる。
By using the image A as the initial image B, the background image of the image B can be made the same as the image A even if the brightness changes in the equipment or the
また、動体が動いている場合には、連続する複数N個の最新の画像Cおよびその動体映像40〜44が互いに異なり、画像410の動体映像40〜44がぼけ、特にその輪郭がぼけたものとなり、画像Bと画像Cの対応する位置のピクセル値は完全には一致しない。複数N個の動体映像40〜44が位置的に動いた場合、その輪郭付近の動き分の差の面積が誤差の許容範囲であれば、動体映像40〜44がほぼ静止していると判定してよい。動体がほぼ静止している場合には、連続する複数N個の最新の画像Cの対応するピクセル値が面積およびレベルの誤差の許容範囲内で同じになり、画像Bと画像Cの対応する大部分のピクセル値が実質的に一致する。
In addition, when a moving body is moving, a plurality of the latest N consecutive images C and their moving
さらに、動体映像44が、境界線304および308より下の禁止領域26〜29にもあり、境界線304および308を貫通せず境界線304および308で分断されている場合にも、図9Aおよび9Bの場合と同様に、正常な操作と見なすことができる。
Furthermore, even when the moving
図11Cにおいて、ステップ842(YES)の後のステップ850〜856は、図10Aおよび10Bのものと同様である。ステップ852において、最新の動体画像Mが操作禁止領域26〜29に存在しないと判定された場合は、手順はステップ860に進む。ステップ856においていずれの動体画像Mについても動体映像40、44がマーキング30の映像または境界線304、308を貫通しておらず、または境界線304、308で分断されていると判定された場合に、手順はステップ860に進む。
In FIG. 11C, steps 850 to 856 after step 842 (YES) are the same as those in FIGS. 10A and 10B. If it is determined in
ステップ860において、プロセッサ112(信号発生部1134)は、或る時間期間(例えば、2秒)だけメモリ114中のフラグを設定しまたはオン状態にして正常操作を表す信号を発生する。プロセッサ112(信号発生部1134)は、正常操作を表す信号を、スピーカ124に供給してスピーカ124に或る時間の長さだけ例えばチャイム音のような音を発生させてもよい。代替形態としてまたは追加的に、プロセッサ112(信号発生部1134)は、正常操作を表すメッセージを表示装置122に表示してもよい。その後で、プロセッサ112(信号発生部1134)は、フラグを解除しまたはオフ状態にする。それによって、作業員は、操作領域24における適正な操作を確認または認識することができる。その正常操作を表す信号またはメッセージは、プロセッサ112(制御部1120、処理部1136)によって監視センタ装置300に送信されてもよい。それによって、作業員の誤操作を監視センタ装置300で監視することができる。このようにして、3次元的に見て、動体が操作領域24内にあり、またはその奥に深く侵入しているだけで、操作領域24内に留り非操作領域26〜29に侵入していない場合にも、正常な操作であることを確認することができる。その後、手順はステップ706に戻る。
In
ステップ856においていずれかの動体画像Mについて動体映像42が境界線304、308を貫通していると判定された場合は、手順はステップ706に戻る。
If it is determined in
図11Bのステップ860において正常操作を表す信号を発生する代わりにまたはそれに加えて、図11Cのステップ858において、プロセッサ112(信号発生部1134)は、警告を表す信号を発生してもよい。即ち、ステップ858は、ステップ856においていずれかの動体画像Mの動体映像42が境界線304、308を貫通していると判定された場合に、実行される。ステップ852において動体映像40が禁止領域26〜29に存在せず、またはステップ856においていずれの動体画像Mについても動体映像44がマーキング30の映像または境界線304、308を貫通していないと判定された場合、手順は図11Aのステップ706に戻ってもよい。この場合、ステップ860は実行されない。
Instead of or in addition to generating a signal representing normal operation in
代替形態として、図11A〜11Cのフローチャートにおいて、図12Aおよび12Bにおいて動体映像42および44が境界線304および308より下の禁止領域26〜29にある場合は、正常な操作と見なさないようにしてもよい。この場合、作業員は、操作領域24のマーキング30の面領域に例えば手を静止して置き、その奥に手を差し込むことなく、その位置が操作領域24にあることを確認する。この場合、ステップ820〜842において、動体画像Mの代わりに、境界線304および308より上の領域だけに動体映像40を含む動体画像M’が用いられ、図11Cのステップ850〜858が実行されず、ステップ842(YES)の後でステップ960が実行されてもよい。それによって、プロセッサ112の処理が簡単になり、その負荷が軽減される。
As an alternative, in the flowcharts of FIGS. 11A to 11C, if the moving
図11A〜11Cのフローチャートのステップ820〜856において、全てのカメラ202〜208で生成された画像Cについて3次元的に操作禁止領域26〜29に動体映像が侵入せずに、論理積で正常操作の条件が成立した場合に、ステップ860において正常操作を表す信号が生成される。ステップ820〜856において、いずれかのカメラ202〜208で生成された画像Cについて3次元的に操作禁止領域26〜29に動体映像が侵入し、論理和で誤り操作の条件が成立した場合に、ステップ858において警告を表す信号が生成される。
In
代替形態として、図11A〜11Cにおいて、画像Aの一部を背景として含む画像Bの代わりに、複数のN個の画像Cの動体画像Mを合成して生成した画像B’を用いてもよい。この場合、ステップ840において、比較のために、最新の画像Cの代わりにその画像Cの動体画像Mを用いて、動体画像Mを画像B’と比較してもよい。この場合、初期の画像B’のピクセル値は全て0(ゼロ)である。更新された画像B’は、画像Aのピクセルを含まず、即ち背景画像のピクセル値が全て0(ゼロ)となる。画像B’において、動体画像Mは、画像Bの更新と同じ形態で更新すればよい。
As an alternative, in FIGS. 11A to 11C, an image B ′ generated by synthesizing a moving body image M of a plurality of N images C may be used instead of the image B including a part of the image A as a background. . In this case, in
この場合、プロセッサ112(画像生成部1124)は、連続的に取得された各画像Cから生成された各動体画像Mの動体映像40〜44の位置のピクセル値に或る重み付けwFを乗じて、重み付けされた動体画像Mwのピクセルを生成する。プロセッサ112(画像生成部1124)は、さらに、動体画像Mw中の動体映像40〜44のピクセル値を、これと対応する位置の画像B’のピクセル値に加算して画像B’を更新する。例えば、或る数がN=8の場合、1つの動体画像Mに対してwF=1/8である。例えば、8つの動体画像Mで画像B’を順次更新すると、同じ動体画像Mの映像40〜44のピクセル位置の総和は8倍のピクセル値を有し、重み付けwF=1/8を乗じることによって、それが平均化される。
In this case, the processor 112 (the image generation unit 1124) multiplies the pixel values at the positions of the moving
動体が動いている場合には、連続する複数N個の動体画像Mの動体映像40〜44が互いに異なり、画像B’または画像410の動体映像40〜44がぼけ、特にその輪郭がぼけたものとなり、画像B’と最新の動体画像Mの対応する位置のピクセル値は完全には一致しない。前述の画像Bと比較すると、画像B’のぼやけた輪郭付近のピクセル値のレベルまたは階調が小さくなり、場合によってはそのピクセルの色相が変化することがある。しかし、動体映像40〜44が位置的に動いた場合、その輪郭付近の動き分の差の面積が誤差の許容範囲であれば、動体映像40〜44がほぼ静止していると判定してよい。動体がほぼ静止している場合には、連続する複数N個の最新の動体画像Mの対応するピクセル値が面積およびレベルの誤差の許容範囲内で同じになり、画像B’と動体画像Mの対応する大部分のピクセル値が実質的に一致する。
When the moving body is moving, the moving
設備または装置20における作業または工事が終了した後で、作業員は、終了を表すソフト・キー428をクリックし、カメラ202〜210を回収し、マーキング30を外す。
After the work or construction in the facility or
図5、8Aおよび8B、10Aおよび10B、11A〜11C、13A〜13Cに例示された各フローチャートの複数のステップは、それぞれの機能を実現する1つ以上の集積回路または装置(ユニット)で、また他の回路または装置とともにハードウェア実装することもできる。 The steps of each flowchart illustrated in FIGS. 5, 8A and 8B, 10A and 10B, 11A-11C, 13A-13C are one or more integrated circuits or devices (units) that implement the respective functions, and It can also be implemented in hardware with other circuits or devices.
ここで挙げた全ての例および条件的表現は、発明者が技術促進に貢献した発明および概念を読者が理解するのを助けるためのものであり、ここで具体的に挙げたそのような例および条件に限定することなく解釈され、また、明細書におけるそのような例の編成は本発明の優劣を示すこととは関係ない、と理解される。本発明の実施形態を詳細に説明したが、本発明の精神および範囲から逸脱することなく、それに対して種々の変更、置換および変形を施すことができる、と理解される。 All examples and conditional expressions given here are intended to help the reader understand the inventions and concepts that have contributed to the promotion of technology, such examples and It is understood that the present invention is not limited to the conditions, and that the organization of such examples in the specification is not related to the superiority or inferiority of the present invention. Although embodiments of the present invention have been described in detail, it will be understood that various changes, substitutions and variations can be made thereto without departing from the spirit and scope of the invention.
以上の実施例を含む実施形態に関して、さらに以下の付記を開示する。
(付記1) 入力部を介して画像信号を取り込んで格納する記憶部と、
前記記憶部に格納された第1の画像信号の画像における境界線と、前記境界線によって区画される非操作領域とを決定する決定部と、
前記記憶部に格納された第2の画像信号における動体映像を検出する検出部と、
前記第2の画像信号の画像における前記検出された動体映像と前記境界線の重なり関係に基づいて、前記境界線に対する前記動体映像の状態を判定する判定部と、
前記判定された状態に基づいて信号を発生する信号発生部と、
を含む、情報処理装置。
(付記2) 前記判定部は、前記検出された動体映像が前記境界線を貫通していない場合には前記動体映像の状態が第1の状態にあると判定し、前記検出された動体映像が前記境界線を貫通している場合には前記動体映像の状態が第2の状態にあると判定するものであることを特徴とする、付記1に記載の情報処理装置。
(付記3) 前記判定部は、前記第2の画像信号において前記非操作領域に位置する前記検出された動体映像上の第1の位置から前記境界線を超えて前記非操作領域でない領域に位置する前記境界線に隣接する第2の位置までのピクセルの色を検出し、前記第1の位置から前記境界線までのピクセルの色と前記第2の位置までのピクセルの色が許容誤差の範囲で同じ色の値でなかった場合に、前記動体映像の状態が前記第1の状態にあると判定し、前記第1の位置から前記境界線までのピクセルの色と前記第2の位置までのピクセルの色が許容誤差の範囲で同じ色の値であった場合に、前記動体映像の状態が前記第2の状態にあると判定するものであることを特徴とする、付記2に記載の情報処理装置。
(付記4) 前記決定部は、前記第1の画像信号の画像において仮の非操作領域における或る開始点から或る方向に探索して特定の色の領域の境界を検出し、前記特定の色の領域の前記境界が少なくとも或る距離の範囲において存在することが検出された場合に、前記境界によって形成される線を延長して、前記延長された線を前記境界線の少なくとも一部として決定するものであることを特徴とする、付記1乃至3のいずれかに記載の情報処理装置。
(付記5) 前記判定部は、前記検出された動体の映像が静止状態にあった場合に、前記第2の画像信号の画像における前記検出された動体映像と前記境界線の重なり関係に基づいて、前記動体映像の状態を判定するものであることを特徴とする、付記1乃至4のいずれかに記載の情報処理装置。
(付記6) 入力部を介して画像信号を取り込んで記憶部に格納し、
前記記憶部に格納された第1の画像信号の画像における境界線および前記境界線によって区画される非操作領域を決定し、
前記記憶部に格納された第2の画像信号における動体映像を検出し、
前記第2の画像信号の画像における前記検出された動体映像と前記境界線の重なり関係に基づいて、前記境界線に対する前記動体映像の状態を判定し、
前記判定された状態に基づいて信号を発生する、
処理を情報処理装置に実行させるプログラム。
Regarding the embodiment including the above examples, the following additional notes are further disclosed.
(Supplementary Note 1) A storage unit that captures and stores an image signal via the input unit;
A determining unit that determines a boundary line in the image of the first image signal stored in the storage unit and a non-operation area partitioned by the boundary line;
A detection unit for detecting a moving image in the second image signal stored in the storage unit;
A determination unit that determines a state of the moving body image with respect to the boundary line based on an overlapping relationship between the detected moving body image and the boundary line in the image of the second image signal;
A signal generator for generating a signal based on the determined state;
Including an information processing apparatus.
(Supplementary Note 2) When the detected moving body image does not penetrate the boundary line, the determination unit determines that the state of the moving body image is in the first state, and the detected moving body image is The information processing apparatus according to appendix 1, wherein the moving body image is determined to be in a second state when passing through the boundary line.
(Additional remark 3) The said determination part is located in the area | region which is not the said non-operation area | region beyond the said boundary line from the 1st position on the said detected moving body image located in the said non-operation area | region in the said 2nd image signal. The color of the pixel from the first position to the boundary line and the color of the pixel from the first position to the second position are within an allowable error range. If the color values are not the same, the moving image is determined to be in the first state, and the pixel color from the first position to the boundary line and the second position are determined. The information according to appendix 2, wherein the state of the moving image is determined to be in the second state when the pixel color has the same color value within an allowable error range. Processing equipment.
(Additional remark 4) The said determination part searches in a certain direction from a certain starting point in a temporary non-operation area | region in the image of the said 1st image signal, detects the boundary of the area | region of a specific color, When it is detected that the boundary of the color region exists at least within a certain distance range, a line formed by the boundary is extended, and the extended line is used as at least a part of the boundary line. The information processing apparatus according to any one of appendices 1 to 3, wherein the information processing apparatus is determined.
(Additional remark 5) The said determination part is based on the overlapping relationship of the said detected moving body image | video and the said boundary line in the image of a said 2nd image signal, when the detected moving body image | video is in a stationary state. The information processing apparatus according to any one of appendices 1 to 4, wherein the information processing apparatus determines a state of the moving body image.
(Supplementary Note 6) An image signal is captured via the input unit and stored in the storage unit.
Determining a boundary line in the image of the first image signal stored in the storage unit and a non-operation area partitioned by the boundary line;
Detecting a moving image in the second image signal stored in the storage unit;
Determining a state of the moving body image with respect to the boundary line based on an overlapping relationship between the detected moving body image and the boundary line in the image of the second image signal;
Generating a signal based on the determined state;
A program that causes an information processing apparatus to execute processing.
100、102 情報処理装置
112 プロセッサ
114 メモリ
116 入出力インタフェース
122 表示装置
124 スピーカ
126 入力部
128 記録媒体読み取り用のドライブ
130 ハードディスク・ドライブ
142 USBインタフェース
144 ネットワーク・インタフェース
1120 制御部
1122 設定部
1124 画像生成部
1126 領域決定部
1128 動体検出部
1130 動体静止判定部
1132 状態判定部
1134 信号発生部
DESCRIPTION OF SYMBOLS 100,102
Claims (5)
前記記憶部に格納された第1の画像信号の画像における境界線と、前記境界線によって区画される非操作領域とを決定する決定部と、
前記記憶部に格納された第2の画像信号における動体映像を検出する検出部と、
前記第2の画像信号の画像における前記検出された動体映像が前記境界線を貫通しているかどうかに基づいて、前記境界線に対する前記動体映像の状態を判定する判定部と、
前記判定された状態に基づいて信号を発生する信号発生部と、
を含む、情報処理装置。 A storage unit for capturing and storing image signals via the input unit;
A determining unit that determines a boundary line in the image of the first image signal stored in the storage unit and a non-operation area partitioned by the boundary line;
A detection unit for detecting a moving image in the second image signal stored in the storage unit;
And wherein the detected moving object image in the image of the second image signal based on whether to penetrate the boundary line, judging section that judges the state of the moving object image with respect to the boundary line,
A signal generator for generating a signal based on the determined state;
Including an information processing apparatus.
前記記憶部に格納された第1の画像信号の画像における境界線および前記境界線によって区画される非操作領域を決定し、
前記記憶部に格納された第2の画像信号における動体映像を検出し、
前記第2の画像信号の画像における前記検出された動体映像が前記境界線を貫通しているかどうかに基づいて、前記境界線に対する前記動体映像の状態を判定し、
前記判定された状態に基づいて信号を発生する、
処理を情報処理装置に実行させるプログラム。 Capture the image signal via the input unit, store it in the storage unit,
Determining a boundary line in the image of the first image signal stored in the storage unit and a non-operation area partitioned by the boundary line;
Detecting a moving image in the second image signal stored in the storage unit;
Based on whether the detected moving object image in the image of the second image signal penetrates the boundary, to determine the status of the moving object image with respect to the boundary line,
Generating a signal based on the determined state;
A program that causes an information processing apparatus to execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011002920A JP5696482B2 (en) | 2011-01-11 | 2011-01-11 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011002920A JP5696482B2 (en) | 2011-01-11 | 2011-01-11 | Information processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012147161A JP2012147161A (en) | 2012-08-02 |
JP5696482B2 true JP5696482B2 (en) | 2015-04-08 |
Family
ID=46790299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011002920A Expired - Fee Related JP5696482B2 (en) | 2011-01-11 | 2011-01-11 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5696482B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6022330B2 (en) * | 2012-12-05 | 2016-11-09 | セコム株式会社 | Camera system |
JP6022331B2 (en) * | 2012-12-05 | 2016-11-09 | セコム株式会社 | Camera system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001224011A (en) * | 2000-02-04 | 2001-08-17 | Hitachi Eng Co Ltd | Abnormality supervisory method and system |
US7200246B2 (en) * | 2000-11-17 | 2007-04-03 | Honeywell International Inc. | Object detection |
JP5099542B2 (en) * | 2007-02-28 | 2012-12-19 | 学校法人東京電機大学 | Operation record correctness proof system and method using camera |
JP4588098B2 (en) * | 2009-04-24 | 2010-11-24 | 善郎 水野 | Image / sound monitoring system |
-
2011
- 2011-01-11 JP JP2011002920A patent/JP5696482B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012147161A (en) | 2012-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102038127B1 (en) | Facility management apparatus and method using unmanned vehicle | |
JP6912150B2 (en) | Work support equipment, work support methods and programs | |
JP7505609B2 (en) | Optical fiber sensing system and behavior identification method | |
US20210400240A1 (en) | Image processing apparatus, image processing method, and computer readable medium | |
KR101562650B1 (en) | Disaster detection system and providing method thereof | |
KR101844726B1 (en) | Drone for construction suprvision and the method of supervision using the same | |
JP7464281B2 (en) | Optical fiber sensing system, monitoring device, monitoring method, and program | |
KR101668555B1 (en) | Method and apparatus for recognizing worker in working site image data | |
JP2010206475A (en) | Monitoring support device, method thereof, and program | |
WO2023104557A1 (en) | Machine-learning for safety rule violation determination | |
US20230401941A1 (en) | Monitoring system, monitoring apparatus, monitoring method, and computer readable medium | |
JP2010130383A (en) | Mobile object tracking device | |
JP5696482B2 (en) | Information processing apparatus and program | |
US20200050756A1 (en) | Action monitoring apparatus, system, and method | |
CN111553305A (en) | Violation video identification system and method | |
Zaidi et al. | Vision-based construction safety monitoring utilizing temporal analysis to reduce false alarms | |
CN118780614A (en) | AR-based construction safety monitoring method, device and electronic equipment | |
EP4350639A1 (en) | Safety rule violation detection in a construction or constructed site | |
JP7405395B2 (en) | Object detection device, system, method, and program | |
JP6987902B2 (en) | Controls, control methods and programs | |
JP7338687B2 (en) | Optical fiber sensing system, optical fiber sensing device, and underground behavior monitoring method | |
JP2022056219A (en) | Information processor, method for processing information, and program | |
CN112380901A (en) | Behavior track generation method, behavior track generation equipment, storage medium and device | |
JP7247310B2 (en) | CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM | |
JP2021184163A (en) | Learning device, crack detection device, learning method, crack detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5696482 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |