JP5696482B2 - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP5696482B2
JP5696482B2 JP2011002920A JP2011002920A JP5696482B2 JP 5696482 B2 JP5696482 B2 JP 5696482B2 JP 2011002920 A JP2011002920 A JP 2011002920A JP 2011002920 A JP2011002920 A JP 2011002920A JP 5696482 B2 JP5696482 B2 JP 5696482B2
Authority
JP
Japan
Prior art keywords
image
processor
moving body
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011002920A
Other languages
Japanese (ja)
Other versions
JP2012147161A (en
Inventor
佐藤 浩
浩 佐藤
賢二 兒玉
賢二 兒玉
清史 原
清史 原
宏之 大槁
宏之 大槁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011002920A priority Critical patent/JP5696482B2/en
Publication of JP2012147161A publication Critical patent/JP2012147161A/en
Application granted granted Critical
Publication of JP5696482B2 publication Critical patent/JP5696482B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像を処理する情報処理装置に関する。   The present invention relates to an information processing apparatus that processes an image.

一般的に、作業現場における作業員の作業をカメラで撮影し、その撮影された画像の信号をカメラから監視装置に送信して監視装置の表示装置に表示し、それによって管理者が表示装置上でその作業を遠隔的に監視することができる。   In general, a worker's work at a work site is photographed by a camera, and a signal of the photographed image is transmitted from the camera to a monitoring device and displayed on the display device of the monitoring device. You can monitor the work remotely.

既知の或るデータセンタ・セキュリティ管理システムでは、データセンタの契約者として外部から派遣されフロア内サーバ・ラック扉前に位置する人物顔画像をラック上部設置Webカメラで撮影認証する。その画像が既登録顔画像と照合一致し更にIDカードによる照合一致が同時に成立した時に、現場にて解錠可能とされる。或いは、そのシステムでは、その撮影映像をその人物の派遣元関係者が操作可能な遠隔情報端末にリアルタイムで送信し、その関係者が直に該当者の顔をモニタ画面上で認識して本人確認が行われる。その確認信号と更に現場でのIDカードによる照合一致とが同時に成立した時に、遠隔にて解錠が可能とされる。   In a known data center / security management system, a person face image dispatched from the outside as a data center contractor and located in front of a server / rack door in the floor is photographed and authenticated by a Web camera installed on the rack. When the image collates with the registered face image and collation coincidence with the ID card is established at the same time, the image can be unlocked at the site. Alternatively, in that system, the captured video is transmitted in real time to a remote information terminal that can be operated by a person concerned with the person dispatched, and the person concerned directly recognizes the person's face on the monitor screen and confirms the identity. Is done. When the confirmation signal and the collation match by the ID card at the site are simultaneously established, the unlocking can be performed remotely.

既知の或る映像監視システムによれば、監視映像システムに知的映像解析システムを移植して知的映像監視システムが形成される。その映像監視システムは、監視領域の境界線を越えて侵入する危険な行為を検知すると、直ちに警報とその判断を下した映像とを、監視員のいる監視室の表示装置、および警備員、関係者の携帯電話等に同時に送信して、犯罪等の早期防止に役立てる。その映像監視システムは、さらに、駐車場等の車の安全を利用者が離れたところで確認できる映像監視システムを提供する。   According to a known video surveillance system, an intelligent video surveillance system is formed by transplanting an intelligent video analysis system to a surveillance video system. When the video surveillance system detects a dangerous action that enters beyond the boundary of the surveillance area, the video surveillance system immediately displays the alarm and the video for which the judgment has been made. Sent to the mobile phone of the person at the same time to help prevent crimes early. The video surveillance system further provides a video surveillance system in which the safety of a vehicle such as a parking lot can be confirmed when the user leaves.

既知の或る安全監視システムは、外部から区分けされた一定の作業エリアの全部を監視可能な撮影機と、その撮影機に接続する画像処理装置と、その画像処理装置に接続する 治具制御盤と、その治具制御盤に接続するロボット制御盤とを含んでいる。その撮影機が全ての作業エリアを撮影し、その作業エリアの画像が画像処理装置に送られる。作業者がワークセット・エリア内で治具にワークセットを行う場合、そのシステムは、作業用ロボットを停止させる。作業用ロボットの稼働中は、画像処理装置が作業エリア内に進入物を認識した場合、そのシステムは、作業エリア内の全ての電源を遮断し、作業用ロボットを非常停止させる。   One known safety monitoring system includes a photographing machine capable of monitoring all of a fixed work area separated from the outside, an image processing apparatus connected to the photographing machine, and a jig control panel connected to the image processing apparatus. And a robot control panel connected to the jig control panel. The photographing machine photographs all work areas, and images of the work areas are sent to the image processing apparatus. When an operator performs a work set on a jig in the work set area, the system stops the work robot. During operation of the work robot, when the image processing apparatus recognizes an entering object in the work area, the system shuts off all the power sources in the work area and causes the work robot to perform an emergency stop.

特開2009− 37573号公報JP 2009-37573 A 特開2007−195130号公報JP 2007-195130 A 特開2010− 46735号公報JP 2010-46735 A

例えばインターネット・データ・センタ(IDC)のような、サーバおよび/またはネットワーク機器等が設置された設備において、サーバおよび/または通信機器等の設置、調整、調整、交換、修理、撤去などの作業が行われる。また、その作業のために、作業員が、しばしば、作業のための操作領域とそれ以外の非操作領域を識別するために、特有のまたは識別可能な色を有する剥離可能なマーキング・テープ(例、養生テープ)で操作領域と非操作領域を区画することがある。また、その作業を監視するために、作業の現場に監視員を配置してもよい。   For example, installation, adjustment, adjustment, replacement, repair, removal, etc. of servers and / or communication devices, etc. in facilities such as the Internet Data Center (IDC) where servers and / or network devices are installed Done. Also, for the work, a releasable marking tape (e.g., a unique or identifiable color) is often used by an operator to distinguish between an operational area for work and other non-operated areas. In some cases, the operation area and the non-operation area are partitioned with a curing tape. In order to monitor the work, a monitor may be arranged at the work site.

発明者は、監視員によって作業員の作業を、常時、厳格に監視することは困難であり、コストが高い、と認識した。また、発明者は、画像認識技術で識別可能な形態で操作領域を表すマーキングを施し、操作領域およびマーキングをカメラで撮像し、その撮像された画像を画像認識技術を用いて認識することによって、作業員の作業または操作を効率的に監視することができる、と認識した。   The inventor has recognized that it is difficult and strictly costly to constantly monitor the work of the worker by the monitor. Further, the inventor performs marking that represents the operation region in a form that can be identified by the image recognition technology, images the operation region and the marking with a camera, and recognizes the captured image using the image recognition technology. Recognized that workers' work or operations can be efficiently monitored.

本発明の目的は、画像において非操作領域の境界線に対する動体映像の状態を判定できるようにすることである。   An object of the present invention is to make it possible to determine a state of a moving body image with respect to a boundary line of a non-operation area in an image.

実施形態の一観点によれば、入力部を介して画像信号を取り込んで格納する記憶部と、その記憶部に格納された第1の画像信号の画像における境界線と、その境界線によって区画される非操作領域とを決定する決定部と、その記憶部に格納された第2の画像信号における動体映像を検出する検出部と、その第2の画像信号の画像におけるその検出された動体映像その境界線を貫通しているかどうかに基づいて、その境界線に対するその動体映像の状態を判定する判定部と、その判定された状態に基づいて信号を発生する信号発生部と、含む情報処理装置が提供される。 According to one aspect of the embodiment, a storage unit that captures and stores an image signal via the input unit, a boundary line in the image of the first image signal stored in the storage unit, and the boundary line a determination unit for determining a non-operating region that, a detector for detecting a moving object image in the second image signal stored in the storage unit, is the detected moving object image in the image of the second image signal An information processing apparatus that includes a determination unit that determines a state of the moving image relative to the boundary line based on whether the boundary line is penetrated, and a signal generation unit that generates a signal based on the determined state Is provided.

実施形態の一観点によれば、画像において非操作領域境界線に対する動体映像の状態を判定することができる。   According to one aspect of the embodiment, it is possible to determine the state of the moving body image with respect to the non-operation area boundary line in the image.

図1は、実施形態による、作業対象または工事対象の設備または装置における操作を監視するための概略的な構成の例を示している。FIG. 1 shows an example of a schematic configuration for monitoring an operation in a facility or apparatus that is a work target or a work target according to the embodiment. 図2Aは、情報処理装置の概略的な構成の例を示している。FIG. 2A illustrates an example of a schematic configuration of the information processing apparatus. 図2Bは、情報処理装置のプロセッサの概略的な構成の例を示している。FIG. 2B shows an example of a schematic configuration of a processor of the information processing apparatus. 図3は、別の情報処理装置の概略的な構成の例を示している。FIG. 3 shows an example of a schematic configuration of another information processing apparatus. 図4は、カメラの1つによって撮影された画像、および操作監視機能用のソフト・キーを含む、表示装置上の画面の例を示している。FIG. 4 shows an example of a screen on the display device that includes an image taken by one of the cameras and a soft key for an operation monitoring function. 図5は、情報処理装置のプロセッサによって実行される、カメラの1つによって撮影された連続する複数の最新の画像の平均の画像を生成するためのフローチャートの例を示している。FIG. 5 shows an example of a flowchart for generating an average image of a plurality of continuous latest images taken by one of the cameras, which is executed by the processor of the information processing apparatus. 図6は、表示装置の画像を表すデータを格納したメモリ上の領域において、マーキングを認識して非操作領域を決定するための手順の例を説明するためのものである。FIG. 6 is a diagram for explaining an example of a procedure for recognizing a marking and determining a non-operation area in an area on a memory storing data representing an image of the display device. 図7は、表示装置の画像におけるマーキングの下側の非操作領域を表す画像の映像の例を示している。FIG. 7 shows an example of a video image representing the non-operation area below the marking in the image of the display device. 図8Aおよび8Bは、情報処理装置のプロセッサによって実行される、メモリ上の表示メモリ領域上で画像のマーキングを識別して非操作領域を決定するためのフローチャートの例を示している。8A and 8B show an example of a flowchart executed by the processor of the information processing apparatus for identifying the marking of the image on the display memory area on the memory and determining the non-operation area. (図8Aで説明)(Explained in Figure 8A) 図9Aは、カメラの1つによって撮影されて生成された平均の画像または最新の画像において、最新の画像の操作領域内に留まる動体映像と、最新の動体画像の非操作領域に侵入した動体映像とを含む画像の例を示している。図9Bは、図9Aの画像の一部を拡大した図であり、動体映像がマーキングの映像または境界線を貫通しているかどうかを認識する方法の例を示している。FIG. 9A shows a moving image that remains in the operation area of the latest image and a moving image that has entered the non-operation area of the latest moving image in the average image or the latest image that is generated by being photographed by one of the cameras. The example of the image containing is shown. FIG. 9B is an enlarged view of a part of the image of FIG. 9A, and shows an example of a method for recognizing whether or not a moving object image passes through a marking image or a boundary line. 図10Aおよび10Bは、プロセッサによって実行される、各カメラによって撮影され生成された平均の画像または最新の画像において動体映像が非操作領域に侵入したかどうかを判定するためのフローチャートの例を示している。FIGS. 10A and 10B show an example of a flowchart executed by the processor for determining whether the moving image has entered the non-operation area in the average image or the latest image captured and generated by each camera. Yes. (図10Aで説明)(Explained in Fig. 10A) 図11A〜11Cは、プロセッサによって実行される、正常操作確認モードにおいて動体映像が正常に操作領域内にあるかどうかを確認するためのフローチャートの例を示している。11A to 11C show an example of a flowchart executed by the processor for confirming whether or not a moving body image is normally in the operation area in the normal operation confirmation mode. (図11Aで説明)(Explained in Figure 11A) (図11Aで説明)(Explained in Figure 11A) 図12Aおよび12Bは、合成された画像の更新の例を示している。12A and 12B show an example of updating the synthesized image.

発明の目的および利点は、請求の範囲に具体的に記載された構成要素および組み合わせによって実現され達成される。
前述の一般的な説明および以下の詳細な説明は、典型例および説明のためのものであって、本発明を限定するためのものではない、と理解される。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It is understood that the foregoing general description and the following detailed description are exemplary and explanatory only and are not intended to limit the invention.

本発明の非限定的な実施形態を、図面を参照して説明する。図面において、同様のコンポーネントおよび素子には同じ参照番号が付されている。   Non-limiting embodiments of the present invention will be described with reference to the drawings. In the drawings, similar components and elements are provided with the same reference numerals.

図1は、実施形態による、例えばサーバ・ラックのような作業対象または工事対象の設備または装置20における操作を監視するための概略的な構成(configuration)の例を示している。   FIG. 1 shows an example of a schematic configuration for monitoring operations in a work or construction target equipment or device 20, such as a server rack, according to an embodiment.

図1において、設備または装置20には、例えばサーバおよび/またはネットワーク機器等が設置されている。設備または装置20において、例えばサーバおよび/または通信機器のような機器の設置、調整、交換、修理および撤去など作業または工事のために、設備または装置20の一部の操作領域または作業領域24に対して作業員が操作または作業を行うことがある。そのために、作業員は、周辺の操作または作業対象でない非操作領域または非作業領域26、27、28および29から、操作領域または作業領域24を視覚的に識別するために、両者の間の境界にマーキング30を施す。マーキング30は、例えば、長方形状または多角形状の形態で操作領域24を区画しまたは囲むように施される。そのマーキング30は、例えば、剥離可能なカラー・マーキング・テープ(養生テープ)を貼り、取り外し可能なカラー・マーキング・ロープを固定または接着し、またはラックのフレーム等に消去可能なカラー・マーカ(筆記具)で着色を施すなどして、形成してもよい。マーキング30の色は、周囲の色と識別可能な、例えば、緑色、黄色、赤色であってもよい。カラー・マーキング・テープやカラー・マーキング・ロープが、例えばラックの側板に接着または取り付けられ、ラック内に置かれている作業対象である装置20には直接触れていない場合、ラック内に置かれている装置20とカラー・マーキング・テープやカラー・マーキング・ロープとの間に空間が生じることがある。   In FIG. 1, for example, a server and / or a network device is installed in the facility or apparatus 20. In the facility or apparatus 20, a part of the operation area or work area 24 of the facility or apparatus 20 is used for work or construction such as installation, adjustment, replacement, repair and removal of equipment such as servers and / or communication equipment. On the other hand, an operator may perform an operation or work. For this purpose, the worker must define a boundary between the two in order to visually distinguish the operation area or work area 24 from the non-operation areas or non-work areas 26, 27, 28 and 29 that are not the target of operation or work. A marking 30 is applied to the surface. The marking 30 is applied so as to partition or surround the operation region 24 in a rectangular or polygonal shape, for example. The marking 30 is, for example, a peelable color marking tape (curing tape), a removable color marking rope fixed or bonded, or a erasable color marker (writing tool). ) May be formed by coloring. The color of the marking 30 may be distinguishable from surrounding colors, for example, green, yellow, and red. If the color marking tape or color marking rope is glued or attached to the side plate of the rack and is not directly touching the device 20 that is the work object placed in the rack, it is placed in the rack. There may be a space between the device 20 and the color marking tape or color marking rope.

作業員は、操作領域24に対して操作または作業を行い、非操作領域26〜29内の機器等に手または身体の一部が触れないように注意する。非操作領域26〜29に設置された機器に手などが触れると、その機器が障害を起こす危険性があり得る。しかし、マーキング30を施しても、作業員の手が非操作領域26〜29の機器に誤って触れて、設備または装置20の機器および/またはそれに関連するバスやネットワーク等に障害を発生させる可能性がある。   The worker performs an operation or work on the operation area 24 and takes care not to touch a hand or a part of the body with the devices or the like in the non-operation areas 26 to 29. When a hand or the like touches a device installed in the non-operation area 26 to 29, there is a risk that the device may cause a failure. However, even if the marking 30 is applied, the operator's hand may accidentally touch the equipment in the non-operation areas 26 to 29, causing a failure in the equipment of the facility or the apparatus 20 and / or a bus or network related thereto. There is sex.

発明者は、操作領域24およびマーキング30をカメラで撮像し、撮像された画像を画像認識技術で認識することによって作業者の身体の非操作領域26〜29への誤った侵入を判定することができる、と認識した。また、発明者は、その撮像された画像を画像認識技術で認識することによって作業者の操作領域24の操作の適正さまたは不適切さを判定することができる、と認識した。発明者は、それによって、作業員の操作およびその監視を効率化することができる、と認識した。   The inventor images the operation region 24 and the marking 30 with a camera, and recognizes the captured image with an image recognition technique to determine an erroneous entry into the non-operation regions 26 to 29 of the worker's body. Recognized that it was possible. Further, the inventor has recognized that the appropriateness or inappropriateness of the operation of the operator's operation area 24 can be determined by recognizing the captured image with an image recognition technique. The inventor has recognized that it can streamline the operation and monitoring of workers.

図1において、複数のカメラ202、204、206、208および210が設備または装置20に配置される。カメラ202〜210は、例えばウェブ・カメラのようなライブ・カメラであってもよい。カメラ202〜208は、設備または装置20の正面側の操作領域24の方向を向いて、操作領域24と非操作領域26〜29の間を区画するマーキング30を撮像するように操作領域24に接近して分散配置される。それによって、作業者の非操作領域26〜29への誤った侵入を表す画像の捕捉が可能となり、または作業者の操作領域24内での適正な操作の画像の捕捉が可能となる。別のカメラ210は、設備または装置20における作業員の全体の操作を監視するために、操作領域24付近の映像を広く撮影するように配置される。   In FIG. 1, a plurality of cameras 202, 204, 206, 208 and 210 are arranged in the facility or apparatus 20. The cameras 202-210 may be live cameras such as web cameras, for example. The cameras 202 to 208 are directed toward the operation area 24 on the front side of the facility or apparatus 20 and approach the operation area 24 so as to image the marking 30 that partitions the operation area 24 and the non-operation areas 26 to 29. And distributed. Thereby, it is possible to capture an image representing an erroneous entry into the non-operation areas 26 to 29 of the worker, or it is possible to capture an image of an appropriate operation in the operation area 24 of the worker. Another camera 210 is arranged so as to widely capture an image near the operation area 24 in order to monitor the entire operation of the operator in the facility or apparatus 20.

カメラ202〜210は、有線通信または無線通信で、例えばパーソナル・コンピュータのような情報処理装置100または200に結合される。カメラ202〜210は、ケーブルを介し、さらにUSBハブ146またはルータ若しくはハブ148を介して、情報処理装置100に結合されてもよい。情報処理装置100または200は、さらに有線通信または無線通信で遠隔通信用のネットワークに接続されてもよい。情報処理装置100、200は、監視装置または監視用の端末であってもよい。   The cameras 202 to 210 are coupled to the information processing apparatus 100 or 200 such as a personal computer by wired communication or wireless communication. The cameras 202 to 210 may be coupled to the information processing apparatus 100 via a cable and further via a USB hub 146 or a router or hub 148. The information processing apparatus 100 or 200 may be further connected to a remote communication network by wired communication or wireless communication. The information processing devices 100 and 200 may be monitoring devices or monitoring terminals.

図2Aは、情報処理装置100の概略的な構成(configuration)の例を示している。
情報処理装置100は、プロセッサ112、メモリ114、入出力インタフェース(I/O)116、内部バス、等を含む例えばパーソナル・コンピュータのようなコンピュータまたは装置であってもよい。プロセッサ112は、コンピュータ用のCPU(Central Processing Unit)であってもよい。プロセッサ112およびメモリ114は、入出力インタフェース116に結合されている。メモリ114には、例えば、主記憶装置および半導体メモリ等が含まれる。情報処理装置100は、さらに、入出力インタフェース(I/O)116に結合された、表示装置(DSP)122、スピーカ(SPK)124、入力部または入力装置126、記録媒体読み取り用のドライブ128、およびハードディスク・ドライブ(HDD)130を含んでいる。入力部126は、例えばキーボード、マウスまたはタッチパッドのようなポインティング・デバイス、およびタッチパネルを含んでいてもよい。ドライブ128は、例えば光ディスクのような記録媒体129を読み取るために設けられている。情報処理装置100は、さらに、入出力インタフェース(I/O)116に結合された、USBインタフェース(USB I/F)142、およびネットワーク・インタフェース(NW I/F)144を含んでいる。情報処理装置100において、USBインタフェース142および/またはネットワーク・インタフェース144は、少なくともカメラ202〜210からの画像信号を入力する入力部としても機能してもよい。
FIG. 2A shows an example of a schematic configuration of the information processing apparatus 100.
The information processing apparatus 100 may be a computer or a device such as a personal computer including a processor 112, a memory 114, an input / output interface (I / O) 116, an internal bus, and the like. The processor 112 may be a CPU (Central Processing Unit) for a computer. The processor 112 and memory 114 are coupled to an input / output interface 116. The memory 114 includes, for example, a main storage device and a semiconductor memory. The information processing apparatus 100 further includes a display device (DSP) 122, a speaker (SPK) 124, an input unit or input device 126, a recording medium reading drive 128, coupled to an input / output interface (I / O) 116. And a hard disk drive (HDD) 130. The input unit 126 may include, for example, a keyboard, a pointing device such as a mouse or a touch pad, and a touch panel. The drive 128 is provided for reading a recording medium 129 such as an optical disk. The information processing apparatus 100 further includes a USB interface (USB I / F) 142 and a network interface (NW I / F) 144 coupled to an input / output interface (I / O) 116. In the information processing apparatus 100, the USB interface 142 and / or the network interface 144 may function as an input unit that inputs at least image signals from the cameras 202 to 210.

情報処理装置100において、表示装置122、スピーカ124、入力部126およびドライブ128は、情報処理装置100の外部にあって、外部要素として情報処理装置100に結合されてもよい。   In the information processing apparatus 100, the display device 122, the speaker 124, the input unit 126, and the drive 128 may be external to the information processing apparatus 100 and coupled to the information processing apparatus 100 as external elements.

プロセッサ112は、操作監視機能を含む例えば集積回路として実装された専用のプロセッサであってもよい。また、プロセッサ112は、メモリ114および/またはハードディスク・ドライブ130に格納された操作監視機能を有するアプリケーション・プログラムに従って動作するものであってもよい。プリケーション・プログラムは、記録媒体129に格納されていて、ドライブ128によって記録媒体129から読み出されて情報処理装置100にインストールされてもよい。 The processor 112 may be a dedicated processor implemented as an integrated circuit including an operation monitoring function. The processor 112 may operate according to an application program having an operation monitoring function stored in the memory 114 and / or the hard disk drive 130. Application program is stored in the recording medium 129, it may be installed is read from the recording medium 129 to the information processing apparatus 100 by the drive 128.

カメラ202〜210は、USBケーブルによって、USBインタフェース142および任意にUSBハブ146を介して情報処理装置100に結合される。情報処理装置100は、ネットワーク・インタフェース144を介し、さらに外部ネットワーク5を介して、監視センタに設置された監視センタ装置300に接続されてもよい。監視センタ装置300は、例えばパーソナル・コンピュータのようなコンピュータであってもよく、監視員の操作に従って、情報処理装置100からカメラ210および任意にカメラ202〜208によって捕捉された画像情報を受信して、その画像を表示装置に表示してもよい。   The cameras 202 to 210 are coupled to the information processing apparatus 100 via a USB interface 142 and optionally a USB hub 146 by a USB cable. The information processing apparatus 100 may be connected to the monitoring center apparatus 300 installed in the monitoring center via the network interface 144 and further via the external network 5. The monitoring center device 300 may be a computer such as a personal computer, for example, and receives image information captured by the camera 210 and optionally the cameras 202 to 208 from the information processing device 100 in accordance with the operation of the monitor. The image may be displayed on a display device.

図2Bは、情報処理装置100のプロセッサ112の概略的な構成(configuration)の例を示している。
プロセッサ112は、例えば、制御部1120、設定部1122、画像生成部1124、領域決定部1126、動体検出部1128、動体静止判定部1130、状態判定部1132、信号発生部1134、およびその他の処理部1136を含んでいてもよい。処理部1136には例えば通信処理部が含まれていてもよい。制御部1120は、設定部1122、画像生成部1124、領域決定部1126、動体検出部1128、動体静止判定部1130、状態判定部1132、信号発生部1134および処理部1136に制御信号を供給して、これらの要素の動作を制御してもよい。
FIG. 2B shows an example of a schematic configuration of the processor 112 of the information processing apparatus 100.
The processor 112 includes, for example, a control unit 1120, a setting unit 1122, an image generation unit 1124, an area determination unit 1126, a moving object detection unit 1128, a moving object stationary determination unit 1130, a state determination unit 1132, a signal generation unit 1134, and other processing units. 1136 may be included. The processing unit 1136 may include a communication processing unit, for example. The control unit 1120 supplies control signals to the setting unit 1122, the image generation unit 1124, the region determination unit 1126, the moving object detection unit 1128, the moving object stationary determination unit 1130, the state determination unit 1132, the signal generation unit 1134, and the processing unit 1136. The operation of these elements may be controlled.

図3は、別の情報処理装置102の概略的な構成(configuration)の例を示している。図3において、情報処理装置102は、図2Aの情報処理装置100の要素112〜144を含んでいる。情報処理装置102のプロセッサ112は、図2Bに例示された情報処理装置100のプロセッサ112と同様の構成(configuration)を含んでいてもよい。   FIG. 3 shows an example of a schematic configuration of another information processing apparatus 102. In FIG. 3, the information processing apparatus 102 includes elements 112 to 144 of the information processing apparatus 100 in FIG. 2A. The processor 112 of the information processing apparatus 102 may include a configuration similar to that of the processor 112 of the information processing apparatus 100 illustrated in FIG. 2B.

図3において、情報処理装置102は、ネットワーク・インタフェース144およびルータまたはハブ148を介してカメラ202〜210に結合される。情報処理装置102のその他の構成は、図2Aの情報処理装置100のものと同様である。ネットワーク・インタフェース144およびルータまたはハブ148は、有線通信または無線通信用であってもよい。   In FIG. 3, the information processing apparatus 102 is coupled to cameras 202 to 210 via a network interface 144 and a router or hub 148. The other configuration of the information processing apparatus 102 is the same as that of the information processing apparatus 100 in FIG. 2A. Network interface 144 and router or hub 148 may be for wired or wireless communication.

図4は、カメラ202〜208の1つによって撮影された画像400、および操作監視機能用のソフト・キー412、414、416、418、420、422および428を含む、表示装置122上の画面の例を示している。画像400は、操作領域24を囲むマーキング30の物体の映像と、その隣接の非操作領域26〜29の各部分の映像とを含んでいる。マーキング30は、例えば天井の照明器具からの光を反射して、1つ以上の白く光る部分32を含むことがある。   FIG. 4 illustrates a screen on the display device 122 that includes an image 400 taken by one of the cameras 202-208 and soft keys 412, 414, 416, 418, 420, 422 and 428 for operation monitoring functions. An example is shown. The image 400 includes an image of the object of the marking 30 surrounding the operation area 24 and an image of each part of the adjacent non-operation areas 26 to 29. The marking 30 may include one or more white glowing portions 32 that reflect light from, for example, a ceiling luminaire.

ソフト・キー412は、情報処理装置100または102の操作監視機能を初期化するコマンドを入力するためのものである。ソフト・キー414は、操作監視機能の手動設定モードを設定するコマンドを入力するためのものである。ソフト・キー416は、マーキング30によって区画される非操作領域26〜29と、それ以外の操作領域24を含む領域とを表示するための領域確認用のコマンドを入力するためのものである。ソフト・キー418は、操作監視機能の通常の操作監視モードを開始するためのコマンドを入力するためのものである。ソフト・キー420は、操作監視機能における作業員の正常操作を確認するための正常操作確認モードを設定するコマンドを入力するためのものである。複数のソフト・キー422は、表示装置122に表示される画像400を撮影する監視用のカメラ202〜210の1つを選択するコマンドを入力するためのものである。   A soft key 412 is used to input a command for initializing the operation monitoring function of the information processing apparatus 100 or 102. A soft key 414 is used to input a command for setting a manual setting mode of the operation monitoring function. The soft key 416 is used to input an area confirmation command for displaying the non-operation areas 26 to 29 defined by the marking 30 and the area including the other operation area 24. A soft key 418 is used to input a command for starting a normal operation monitoring mode of the operation monitoring function. The soft key 420 is used to input a command for setting a normal operation confirmation mode for confirming the normal operation of the worker in the operation monitoring function. The plurality of soft keys 422 are used to input a command for selecting one of the monitoring cameras 202 to 210 that capture the image 400 displayed on the display device 122.

作業員は、図1に示すような形態で設備20にマーキング30を設けた後、設備20の操作領域24の周りにカメラ202〜210を取り付けて、カメラ202〜210を通信ケーブルで情報処理装置100または102に結合させる。作業員は、必要に応じて、情報処理装置100または102を外部ネットワーク5に接続してもよい。次いで、作業員は、情報処理装置100または102上で操作監視機能または操作監視用のアプリケーションを起動する。作業員は、操作監視機能の初期化の前または初期化処理中に操作監視機能の設定の調整を行ってもよい。作業員は、カメラ202〜208を選択し、表示装置122の画像400で確認しながら、カメラ202〜208の配置および角度を調整することによって、マーキング30に対するカメラ202〜208の視野を調整する。作業員は、画像400を回転または反転させるなどして、画像400の操作領域24および非操作領域26〜29を調整、変更または編集してもよい。   The worker, after providing the markings 30 on the equipment 20 in the form as shown in FIG. 1, attaches the cameras 202 to 210 around the operation area 24 of the equipment 20, and connects the cameras 202 to 210 with the communication cable. 100 or 102. The worker may connect the information processing apparatus 100 or 102 to the external network 5 as necessary. Next, the worker activates an operation monitoring function or an operation monitoring application on the information processing apparatus 100 or 102. The worker may adjust the setting of the operation monitoring function before the initialization of the operation monitoring function or during the initialization process. The operator selects the cameras 202 to 208 and adjusts the field of view of the cameras 202 to 208 with respect to the marking 30 by adjusting the arrangement and angle of the cameras 202 to 208 while confirming with the image 400 of the display device 122. The worker may adjust, change, or edit the operation area 24 and the non-operation areas 26 to 29 of the image 400 by rotating or inverting the image 400.

プロセッサ112(またはその操作監視機能)は、初期化処理をカメラ202〜208の各々に対して順次行う。初期化処理において、プロセッサ112は、マーキング30の或る端縁を認識して、その端縁より或る方向に位置する領域を非操作領域26〜29と決定する。その或る方向に位置する領域は、例えば、カメラ202〜208に近い側にあるマーキング30の端縁34、35より下、左下、右下上、右または左の領域であってもよい。カメラ202〜208の各画像400について各カメラに近い側にあるマーキング30の端縁34、35を選択しそれを境界として非操作領域26〜29とそれ以外の領域を決定することによって、非操作領域26〜29の決定と、非操作領域26〜29における操作の監視とを単純化できる。ここでは、例示のために、その或る方向に位置する領域は、マーキング30の下側の端縁34、35より下の領域と仮定する。また、プロセッサ112は、マーキング30を認識して、マーキング30の端縁よりその或る方向とは反対の方向に位置する領域を、操作領域24を含む領域と決定してもよい。ここでは、その反対の方向に位置する領域は、マーキング30の下側の端縁34、35より上の領域と仮定する。代替形態として、プロセッサ112は、カメラ202〜208に2番目に近い側にあるマーキング30の端縁38、39をも選択し、破線で示されたその端縁34、35と端縁38、39の間にある線33を境界として非操作領域26〜29とそれ以外の領域を決定してもよい。代替形態として、プロセッサ112は、マーキング30の外側の端縁34〜37によって囲まれた領域を操作領域24と決定してもよい。   The processor 112 (or its operation monitoring function) sequentially performs initialization processing for each of the cameras 202 to 208. In the initialization process, the processor 112 recognizes a certain edge of the marking 30 and determines areas located in a certain direction from the edge as non-operation areas 26 to 29. The region located in a certain direction may be, for example, a region below, lower left, upper right, right, or left below the edge 34, 35 of the marking 30 on the side closer to the cameras 202-208. By selecting the edges 34 and 35 of the marking 30 on the side closer to each camera for each image 400 of the cameras 202 to 208 and determining the non-operation areas 26 to 29 and other areas as boundaries, the non-operation The determination of the areas 26 to 29 and the monitoring of operations in the non-operation areas 26 to 29 can be simplified. Here, for the sake of illustration, it is assumed that the region located in a certain direction is a region below the lower edges 34 and 35 of the marking 30. Further, the processor 112 may recognize the marking 30 and determine an area located in a direction opposite to a certain direction from the edge of the marking 30 as an area including the operation area 24. Here, the region located in the opposite direction is assumed to be a region above the lower edges 34 and 35 of the marking 30. As an alternative, the processor 112 also selects the edge 38, 39 of the marking 30 that is second closest to the cameras 202-208, and its edge 34, 35 and edge 38, 39 shown in broken lines. The non-operation areas 26 to 29 and other areas may be determined with the line 33 between them as a boundary. Alternatively, the processor 112 may determine the operation area 24 as an area surrounded by the outer edges 34 to 37 of the marking 30.

プロセッサ112は、決定された端縁または2つ端縁の交点Iが、画像400の中心点Cの或る半径距離の範囲にない場合、画像400を撮影したカメラ202〜208の配置および角度を調整するよう指示してもよい。その指示は、スピーカ124および/または表示装置122によって音響的および/または視覚的に行われる。決定された端縁または2つ端縁の交点または角Iを画像400の中心点C付近に配置することによって、操作監視機能による非操作領域26〜29における操作の誤りの画像認識の精度が高くなる。   The processor 112 determines the placement and angle of the cameras 202-208 that captured the image 400 if the determined edge or intersection point I of the two edges is not within a radius distance range of the center point C of the image 400. You may be instructed to adjust. The instruction is given acoustically and / or visually by the speaker 124 and / or the display device 122. By arranging the determined edge or the intersection or angle I of the two edges in the vicinity of the center point C of the image 400, the accuracy of image recognition of an operation error in the non-operation areas 26 to 29 by the operation monitoring function is high. Become.

図5は、情報処理装置100または102のプロセッサ112(またはその画像生成部1124)によって実行される、カメラ202〜208の1つによって撮影された連続する複数の画像Cの平均の画像Aを生成するためのフローチャートの例を示している。この平均の画像Aの生成は、操作監視機能の初期化処理においてまたは作業員の操作に従ってその動作中に、カメラ202〜208の各々によって撮影された複数の画像Cに対して行われてもよい。プロセッサ112または操作監視機能(以下、単にプロセッサともいう)は、カメラ202〜208の1つによって撮影された最新の画像Cを捕捉しメモリ114に格納する。   5 generates an average image A of a plurality of continuous images C taken by one of the cameras 202 to 208, which is executed by the processor 112 (or the image generation unit 1124 thereof) of the information processing apparatus 100 or 102. The example of the flowchart for doing is shown. The generation of the average image A may be performed on a plurality of images C captured by each of the cameras 202 to 208 in the initialization process of the operation monitoring function or during the operation according to the operation of the worker. . The processor 112 or an operation monitoring function (hereinafter also simply referred to as a processor) captures the latest image C taken by one of the cameras 202 to 208 and stores it in the memory 114.

ステップ500において、プロセッサ112は、メモリ114における平均の画像Aのピクセルの値を初期化する。初期化されたピクセルの値は、全て0(ゼロ)のレベルまたは階調である。   In step 500, the processor 112 initializes the average image A pixel value in the memory 114. The initialized pixel values are all 0 (zero) levels or gradations.

ステップ502において、プロセッサ112は、平均の画像Aの生成に使用した最新の画像Cの合計数nが所要数N(例えば、N=10または16)に達したかどうかを判定する。ステップ502において、画像Cの数nが所要数Nに等しいと判定された場合は、手順はステップ512に進む。画像Cの数nが所要数Nに等しくないまたは所要数N未満であると判定された場合は、ステップ504において、プロセッサ112は、カメラ202〜208の中の選択された1つから最新の画像Cを取得してメモリ114に格納する。   In step 502, the processor 112 determines whether the total number n of the latest images C used to generate the average image A has reached a required number N (eg, N = 10 or 16). If it is determined in step 502 that the number n of images C is equal to the required number N, the procedure proceeds to step 512. If it is determined that the number n of images C is not equal to or less than the required number N, at step 504, the processor 112 determines that the latest image from the selected one of the cameras 202-208. C is acquired and stored in the memory 114.

ステップ506において、プロセッサ112は、画像Cの1フィールドまたは1フレーム分のピクセル値(レベル)に係数1/Nを乗算して、平均の画像Aの対応するフィールドまたはフレームのピクセル値に加算する。ステップ508において、プロセッサ112は、平均の画像Aに累積的に加算した画像Cの数nに1を加算する(n=n+1)。   In step 506, the processor 112 multiplies the pixel value (level) for one field or frame of the image C by the coefficient 1 / N and adds it to the pixel value of the corresponding field or frame of the average image A. In step 508, the processor 112 adds 1 to the number n of images C cumulatively added to the average image A (n = n + 1).

ステップ510において、プロセッサ112は、例えば100msのような或る時間遅延を生じさせる。その後、手順はステップ502に戻る。ステップ502〜510は、連続するN個の最新の画像Cの平均の画像Aが決定されるまで繰り返される。平均の画像Aを用いることによって、画像Aにおけるノイズが低減または除去できる。   In step 510, the processor 112 introduces a certain time delay, such as 100 ms. Thereafter, the procedure returns to step 502. Steps 502-510 are repeated until an average image A of N consecutive latest images C is determined. By using the average image A, noise in the image A can be reduced or removed.

ステップ512において、プロセッサ112は、その決定された平均の画像Aを表す1フィールドまたは1フレーム分のピクセル値をメモリ114に格納する。   In step 512, the processor 112 stores in the memory 114 one field or one frame worth of pixel values representing the determined average image A.

図5の平均の画像Aの生成は、例えば1時間毎に定期的に行ってもよい。それによって、周囲の明るさの条件の変化した場合に、新しい平均の画像Aを生成することができる。作業員の操作中に画像Aを更新する場合、プロセッサ112は、ステップ504において、最初の画像Aと最新の画像Cを比較して画像認識して、その画像Cにおける動体映像を除く背景部分(領域)に、画像Aにおけるその動体映像の対応位置にある背景部分(領域)を合成して画像Cとしてもよい。   The generation of the average image A in FIG. 5 may be performed periodically, for example, every hour. Thereby, a new average image A can be generated when the ambient brightness condition changes. When updating the image A during the operation of the worker, the processor 112 compares the first image A with the latest image C in step 504, recognizes the image, and the background portion (excluding the moving body image in the image C) ( The area C) may be combined with the background portion (area) at the corresponding position of the moving image in the image A to form the image C.

図6は、表示装置122の画像402を表すデータを格納したメモリ114上の領域において、マーキング30を認識して非操作領域26〜29を決定するための手順の例を説明するためのものである。この場合、画像402は平均の画像Aを表している。   FIG. 6 is a diagram for explaining an example of a procedure for recognizing the marking 30 and determining the non-operation areas 26 to 29 in the area on the memory 114 in which data representing the image 402 of the display device 122 is stored. is there. In this case, the image 402 represents the average image A.

図6において、1組の点p1〜p13は、画像402の左半分の領域においてマーキング30の下側の端縁34を求めて探索する可能な開始点を示している。1組の点q1〜q13は、画像402の右半分の領域においてマーキング30の下側の端縁35を求めて探索する可能な開始点を示している。1組の点p1〜p13と1組の点q1〜q13は、中央の垂直線に関して左右の鏡面対称の関係にあってもよい。
画像402の枠の左下の隅を原点とし、枠の横と縦の長さを基準(1)とすると、枠内の1組の点p1〜p13の座標の位置は、例えば、次の通りである。
点p1=(4/16,1/5)、
点p2=(5/16,1/5)、
点p3=(6/16,1/5)、
点p4=(7/16,1/5)、
点p5=(8/16,1/5)、
点p6=(4/16,1/4)、
点p7=(5/16,1/4)、
点p8=(6/16,1/4)、
点p9=(7/16,1/4)、
点p10=(8/16,1/4)、
点p11=(1/6,1/4)、
点p12=(1/6+1/16,1/4)、
点p13=(1/6+2/16,1/4)。
ここで、一連の点p1〜p5は水平方向に互いに1/16だけ離れている。一連の点p6〜p13も水平方向に互いに1/16だけ離れている。一連の点p11〜p13も水平方向に互いに1/16だけ離れている。1組の点q1〜q13について、画像402の枠の右下の隅を原点として、1組の点p1〜p13と対称の位置にある。
In FIG. 6, a set of points p <b> 1 to p <b> 13 indicate possible start points for searching for the lower edge 34 of the marking 30 in the left half region of the image 402. A set of points q1 to q13 represents possible starting points for searching for the lower edge 35 of the marking 30 in the right half region of the image 402. The set of points p1 to p13 and the set of points q1 to q13 may have a mirror symmetry relationship with respect to the central vertical line.
With the lower left corner of the frame of the image 402 as the origin and the horizontal and vertical lengths of the frame as a reference (1), the coordinates of a pair of points p1 to p13 in the frame are, for example, as follows: is there.
Point p1 = (4/16, 1/5),
Point p2 = (5/16, 1/5),
Point p3 = (6/16, 1/5),
Point p4 = (7/16, 1/5),
Point p5 = (8/16, 1/5),
Point p6 = (4/16, 1/4),
Point p7 = (5/16, 1/4),
Point p8 = (6/16, 1/4),
Point p9 = (7/16, 1/4),
Point p10 = (8/16, 1/4),
Point p11 = (1/6, 1/4),
Point p12 = (1/6 + 1/16, 1/4),
Point p13 = (1/6 + 2/16, 1/4).
Here, the series of points p1 to p5 are separated from each other by 1/16 in the horizontal direction. The series of points p6 to p13 are also separated from each other by 1/16 in the horizontal direction. The series of points p11 to p13 are also separated from each other by 1/16 in the horizontal direction. The set of points q1 to q13 is symmetrical with the set of points p1 to p13 with the lower right corner of the frame of the image 402 as the origin.

プロセッサ112または領域決定部1126は、矢印で示されているように、点p1〜p13の1つを開始点とする垂直方向の直線に沿って上向きに画像402の枠の上辺に向かって各ピクセルの色(色相および階調)を検査して、マーキング30の下側の端縁34を求めて探索する。プロセッサ112(領域決定部1126)は、最初の点(例えば、p1、p2)から探索を開始してもマーキング30の下側の端縁34を識別または検出できない場合には、次の点(例えば、p2、p3)から探索を再度開始してマーキング30の下側の端縁34の識別を試みる。それによって、1組の点p1〜p13のいずれかについてマーキング30の下側の或る長さ(例えば、30ピクセル長)の端縁302が識別される。   As indicated by an arrow, the processor 112 or the area determination unit 1126 moves each pixel upward along the vertical straight line starting from one of the points p1 to p13 toward the upper side of the frame of the image 402. Are checked for the lower edge 34 of the marking 30. If the processor 112 (region determination unit 1126) cannot identify or detect the lower edge 34 of the marking 30 even after starting the search from the first point (for example, p1, p2), the next point (for example, , P2, p3) to start the search again and attempt to identify the lower edge 34 of the marking 30. Thereby, an edge 302 of a certain length (eg, 30 pixels long) below the marking 30 is identified for any of the set of points p1-p13.

その後、同様に、プロセッサ112(領域決定部1126)は、点q1〜q13の1つを開始点とする垂直方向の直線に沿って上向きに画像402の枠の上辺に向かって各ピクセルの色(色相および階調)を検査してマーキング30の下側の端縁35を求めて探索する。それによって、1組の点q1〜q13のいずれかについてマーキング30の下側の或る長さの端縁306が識別される。端縁302および306は、直線状であると仮定してもよい。   After that, similarly, the processor 112 (region determination unit 1126) causes the color of each pixel (upward to the upper side of the frame of the image 402) along a vertical straight line starting from one of the points q1 to q13. Hue and gradation) are inspected to find and search for the lower edge 35 of the marking 30. Thereby, a certain length edge 306 under the marking 30 is identified for any of the set of points q1-q13. The edges 302 and 306 may be assumed to be straight.

プロセッサ112(領域決定部1126)は、さらに、メモリ114上の領域において、マーキング30の下側の端縁302、306の線分を延長して、マーキング30の下側の延長された端縁または境界線304、308をそれぞれ決定する。境界線304、308は、端縁302、306の線分を直線的に延長したものであってもよい。この場合、プロセッサ112(領域決定部1126)は、図7において暗い陰影が施された端縁304、308の下側の領域を非操作領域26〜29と決定し、非操作領域26〜29を表す画像Dのピクセル位置を表すデータをメモリ114上の領域に格納する。画像Dは1フィールドまたはフレームのデータであってもよい。   The processor 112 (region determination unit 1126) further extends the line segment of the lower edge 302, 306 of the marking 30 in the region on the memory 114 so as to extend the lower edge of the marking 30 or The boundary lines 304 and 308 are determined, respectively. The boundary lines 304 and 308 may be obtained by linearly extending the line segments of the end edges 302 and 306. In this case, the processor 112 (region determination unit 1126) determines the regions below the edges 304 and 308 that are darkly shaded in FIG. 7 as the non-operation regions 26 to 29, and sets the non-operation regions 26 to 29 as the non-operation regions 26 to 29. Data representing the pixel position of the image D to be represented is stored in an area on the memory 114. The image D may be one field or frame data.

図7は、表示装置122の画像402におけるマーキング30の下側の非操作領域26〜29を表す画像Dの映像404の例を示している。   FIG. 7 shows an example of the image 404 of the image D representing the non-operation areas 26 to 29 below the marking 30 in the image 402 of the display device 122.

初期化処理において、プロセッサ112(領域決定部1126)は、カメラ202〜208の各々に対して、非操作領域26〜29が決定されたときに、作業員による確認のために画像404を表示してもよい。画像404は、カメラ画像404の次の1つを選択するソフト・キー422がクリックされまで、または或る時間期間だけ表示されてもよい。また、作業員は、表示装置122の画面において領域確認用のソフト・キー416をクリックすることによって、暗い陰影で表される下側の非操作領域26〜29を確認してもよい。   In the initialization process, the processor 112 (area determination unit 1126) displays an image 404 for confirmation by the operator when the non-operation areas 26 to 29 are determined for the cameras 202 to 208, respectively. May be. The image 404 may be displayed until a soft key 422 that selects the next one of the camera images 404 is clicked or for a period of time. Further, the worker may confirm the lower non-operation areas 26 to 29 represented by dark shadows by clicking the area confirmation soft key 416 on the screen of the display device 122.

初期化処理において、非操作領域26〜29の端縁304および308が適切に決定できないこと、または端縁304および308の決定に失敗することがあり得る。そのような場合、作業員は、手動設定用のソフト・キー414をクリックして手動設定モードを設定してもよい。この場合、作業員は、入力部126の例えばポインティング・デバイスで端縁304および308を表す直線を入力して、下側の非操作領域26〜29を決定することができる。プロセッサ112(画像生成部1124)は、その非操作領域26〜29を表す画像Dをメモリ114上の領域に格納する。初期化処理において、作業員は、画像402におけるマーキング30の映像中の1つ以上のピクセルを、例えばポインティング・デバイスで指定して、マーキング30の色(色相および階調)を設定してもよい。代替形態として、作業員は、或る色パレットの中からマーキング30の色として使用する色(色相および階調)を選択してもよい。それによって、プロセッサ112(設定部1122)は、メモリ114上の領域にマーキング30の特定の色を表すデータを格納することができる。このような非操作領域26〜29の決定は、プロセッサ112の領域決定部1126または操作監視用のアプリケーション・プログラムの一部で実現される。   In the initialization process, the edges 304 and 308 of the non-operation areas 26 to 29 may not be properly determined, or the determination of the edges 304 and 308 may fail. In such a case, the worker may click the manual setting soft key 414 to set the manual setting mode. In this case, the worker can input the straight lines representing the edges 304 and 308 with, for example, a pointing device of the input unit 126 to determine the lower non-operation areas 26 to 29. The processor 112 (image generation unit 1124) stores the image D representing the non-operation areas 26 to 29 in an area on the memory 114. In the initialization process, the worker may specify one or more pixels in the image of the marking 30 in the image 402 by, for example, a pointing device, and set the color (hue and gradation) of the marking 30. . As an alternative, the worker may select a color (hue and gradation) to be used as the color of the marking 30 from a certain color palette. Accordingly, the processor 112 (setting unit 1122) can store data representing a specific color of the marking 30 in an area on the memory 114. Such determination of the non-operation areas 26 to 29 is realized by the area determination unit 1126 of the processor 112 or a part of an operation monitoring application program.

図8Aおよび8Bは、情報処理装置100または102のプロセッサ112によって実行される、メモリ114上の表示メモリ領域上で画像402のマーキング30を識別して非操作領域26〜29を決定するためのフローチャートの例を示している。この非操作領域26〜29の決定は、プロセッサ112の領域決定部1126または操作監視用のアプリケーション・プログラムの一部で実行される。非操作領域26〜29の決定は、操作監視機能の初期化処理において、図5のフローチャートによる平均の画像Aの生成の後で、カメラ202〜208の各々によって撮影された最新の画像Cに対して行われる。   8A and 8B are flowcharts executed by the processor 112 of the information processing apparatus 100 or 102 for identifying the marking 30 of the image 402 on the display memory area on the memory 114 and determining the non-operation areas 26 to 29. An example is shown. The determination of the non-operation areas 26 to 29 is executed by the area determination unit 1126 of the processor 112 or a part of the operation monitoring application program. The non-operation areas 26 to 29 are determined for the latest image C taken by each of the cameras 202 to 208 after the generation of the average image A according to the flowchart of FIG. 5 in the initialization process of the operation monitoring function. Done.

図8Aを参照すると、ステップ522において、プロセッサ112は、メモリ114から平均の画像Aまたは最新の画像Cを表すデータと、左側の探索開始点p1〜13の中の最初の点p1または次の点p2〜p13を表すデータとを読み込む。ステップ524において、プロセッサ112は、画像AまたはC上でマーキング30の境界を求めて上方向に探索する。そのために、プロセッサ112は、画像AまたはCのピクセルを、探索開始点p1〜p13からピクセル単位で上向きに順次移動して、マーキング30の特定の色(色相および階調)を表すピクセル値を求めて探索する。   Referring to FIG. 8A, in step 522, the processor 112 determines that the data representing the average image A or the latest image C from the memory 114 and the first point p1 or the next point in the search start points p1 to 13 on the left side. Data representing p2 to p13 is read. In step 524, processor 112 searches upward for the boundary of marking 30 on image A or C. For this purpose, the processor 112 sequentially moves the pixels of the image A or C upward in pixel units from the search start points p1 to p13, and obtains a pixel value representing a specific color (hue and gradation) of the marking 30. To explore.

ステップ526において、プロセッサ112は、マーキング30の色(色相および階調)の境界を検出したかどうかを判定する。ステップ526において境界が検出されなかったと判定された場合は、手順はステップ522に戻る。   In step 526, the processor 112 determines whether the marking 30 color (hue and tone) boundary has been detected. If it is determined in step 526 that no boundary has been detected, the procedure returns to step 522.

ステップ526において境界が検出されたと判定された場合は、ステップ528において、プロセッサ112は、マーキング30の色を有する最初および次の各ピクセルの隣接位置にある左、上、左上および左下の複数のピクセルの色(色相および階調)を検査する。マーキング30のピクセルの色は、許容誤差の範囲内のものであれば、マーキング30のピクセルと判定してよい。プロセッサ112は、その検査を複数の隣接ピクセルに対して繰り返し実行することによって、マーキング30の下側端縁302に沿ってその境界線を上向きおよび左方向にトレースし検出する。   If it is determined in step 526 that a boundary has been detected, then in step 528, processor 112 determines that the left, top, top left, and bottom left pixels in the adjacent positions of the first and next pixels having the color of marking 30 Inspect the color (hue and gradation). If the color of the pixel of the marking 30 is within the allowable error range, it may be determined as the pixel of the marking 30. The processor 112 traces and detects the boundary along the lower edge 302 of the marking 30 in the upward and left directions by repeatedly performing the inspection on a plurality of adjacent pixels.

ステップ530において、プロセッサ112は、トレースの距離が或る閾値の距離(例えば、30ピクセル長)を超えたかどうかを判定する。ステップ530においてトレースの距離が閾値の距離を超えなかったと判定された場合は、手順はステップ522に戻る。   In step 530, the processor 112 determines whether the trace distance has exceeded a threshold distance (eg, 30 pixels long). If it is determined in step 530 that the trace distance has not exceeded the threshold distance, the procedure returns to step 522.

ステップ530においてトレースの距離が閾値の距離を超えたと判定された場合は、ステップ532において、プロセッサ112は、下側端縁302を延長し、その延長線を現在の境界線304として決定してメモリ114に格納する。その後、手順は図8Bのステップ542に進む。   If it is determined in step 530 that the trace distance has exceeded the threshold distance, in step 532, the processor 112 extends the lower edge 302 and determines the extension as the current boundary 304 to store the memory. 114. Thereafter, the procedure proceeds to Step 542 in FIG. 8B.

図8Bを参照すると、ステップ542において、プロセッサ112は、メモリ114から右側の探索開始点q1〜q13の中の最初の点q1または次の点q2〜q13を表すデータを読み込む。ステップ544において、プロセッサ112は、ステップ522におけるのと同様に、画像AまたはC上でマーキング30の境界を求めて上方向に探索する。   Referring to FIG. 8B, in step 542, the processor 112 reads data representing the first point q1 or the next points q2 to q13 among the search start points q1 to q13 on the right side from the memory 114. In step 544, the processor 112 searches upward for the boundary of the marking 30 on the image A or C as in step 522.

ステップ546において、プロセッサ112は、マーキング30の色の境界を検出したかどうかを判定する。ステップ546において境界が検出されなかったと判定された場合は、手順はステップ542に戻る。   In step 546, the processor 112 determines whether a color boundary of the marking 30 has been detected. If it is determined in step 546 that no boundary has been detected, the procedure returns to step 542.

ステップ546において境界が検出されたと判定された場合は、ステップ548において、プロセッサ112は、ステップ526と同様に、マーキング30の色を有する最初および次の各ピクセルの隣接位置にある右、上、右上および右下の複数のピクセルの色を検査する。プロセッサ112は、その検査を複数の隣接ピクセルに対して繰り返し実行することによって、マーキング30の下側端縁306に沿ってその境界線を上向きおよび右方向にトレースし検出する。   If it is determined at step 546 that a boundary has been detected, then at step 548, the processor 112, similar to step 526, causes the right, top, top right to be adjacent to the first and next pixels having the marking 30 color. And inspect the color of the lower right pixels. The processor 112 traces and detects the boundary along the lower edge 306 of the marking 30 in the upward and right directions by repeatedly performing the inspection on a plurality of adjacent pixels.

ステップ550において、プロセッサ112は、トレースの距離が或る閾値距離を超えたかどうかを判定する。ステップ550においてトレースの距離が閾値距離を超えなかったと判定された場合は、手順はステップ542に戻る。   In step 550, the processor 112 determines whether the trace distance has exceeded a certain threshold distance. If it is determined in step 550 that the trace distance has not exceeded the threshold distance, the procedure returns to step 542.

ステップ550においてトレースの距離が閾値の距離を超えたと判定された場合は、ステップ552において、プロセッサ112は、下側端縁306を延長し、その延長線を現在の境界線308として決定してメモリ114に格納する。   If it is determined in step 550 that the trace distance has exceeded the threshold distance, in step 552, the processor 112 extends the lower edge 306 and determines the extension as the current boundary 308 to store the memory. 114.

ステップ554において、プロセッサ112は、境界線304および308の下側の非操作領域(26〜29)を操作禁止領域26〜29と決定する。プロセッサ112は、図7の境界線304、308と非操作領域または操作禁止領域26〜29とを表す画像Dのデータをメモリ114に格納する。   In step 554, the processor 112 determines the non-operation areas (26 to 29) below the boundary lines 304 and 308 as the operation prohibition areas 26 to 29. The processor 112 stores data of the image D representing the boundary lines 304 and 308 of FIG. 7 and the non-operation area or the operation prohibition areas 26 to 29 in the memory 114.

プロセッサ112は、ステップ522において、さらに、許容誤差の範囲でマーキング30の色(例えば、緑)を有するピクセルに囲まれたまたは挟まれた白く光る部分32のピクセルの色をマーキング30の色に置換してもよい。それによって、下側端縁302、306の検出が容易になる。   In step 522, the processor 112 further replaces the color of the pixel in the white shining portion 32 surrounded or sandwiched by pixels having the marking 30 color (eg, green) within a tolerance range with the marking 30 color. May be. Thereby, detection of the lower end edges 302 and 306 is facilitated.

代替形態としてまたはそれに加えて、ステップ528および548の境界線のトレースにおいて、一般化ハフ変換を用いて、複数の短い境界線の間にある空白を補間して長い境界線を推定してもよい。一般化ハフ変換は、始点からの距離と角度のみに基づいて直線を抽出する通常のハフ変換とは異なり、始点と終点を有する線分を抽出することができる。マーキング30の下側端縁302、306の座標を一般化ハフ変換することによって、可能性ある短い複数の線分を下側端縁302、306として抽出できる。そのような抽出された複数の線分の中で最も長いものが下側端縁302、306として選択されてもよい。代替形態として、そのような抽出された複数の線分の最も長い3乃至6本の線分の中でほぼ同一直線上にあるものが、下側端縁302、306として選択されてもよい。この場合、暫定的に選択した線分を延長して直線を生成して、その直線と複数の線分の交点が複数の線分に距離的に近い直線が、下側端縁302、306として選択されてもよい。あるいは、暫定的に選択した線分を延長して直線を生成して、複数の線分との間の角度差が小さいそのような直線が下側端縁302、306として選択されてもよい。それによって、下側端縁302、306の検出が容易になる。一般化ハフ変換の技術は、例えば、Duda他“Use of the Hugh Transformation To Detect Lines and Curves in Pictures”, Graphics Image Processing, Communication of the ACM, Issue 1, November 1970, revised January 1971に記載されている。   As an alternative or in addition, in the boundary traces of steps 528 and 548, a generalized Hough transform may be used to interpolate white space between multiple short boundaries to estimate long boundaries . The generalized Hough transform can extract a line segment having a start point and an end point, unlike a normal Hough transform that extracts a straight line based only on the distance and angle from the start point. By performing a generalized Hough transform on the coordinates of the lower edges 302 and 306 of the marking 30, a plurality of possible short line segments can be extracted as the lower edges 302 and 306. The longest of the plurality of extracted line segments may be selected as the lower edge 302, 306. As an alternative, the longest 3 to 6 line segments that are extracted and that are substantially collinear may be selected as the lower edges 302,306. In this case, the tentatively selected line segment is extended to generate a straight line, and the straight lines whose intersection points are close to the multiple line segments are the lower edges 302 and 306. It may be selected. Alternatively, a tentatively selected line segment may be extended to generate a straight line, and such a straight line having a small angle difference between the plurality of line segments may be selected as the lower end edges 302 and 306. Thereby, detection of the lower end edges 302 and 306 is facilitated. Generalized Hough transform techniques are described, for example, in Duda et al. “Use of the Hugh Transformation To Detect Lines and Curves in Pictures”, Graphics Image Processing, Communication of the ACM, Issue 1, November 1970, revised January 1971. .

図9Aは、カメラ202〜208の1つによって撮影されて生成された平均の画像Aまたは最新の画像Cにおいて、画像Dの操作領域24内に留まる動体映像40と、画像Dの非操作領域26〜29に侵入した動体映像42、44とを含む画像406の例を示している。動体映像40、42、44の動体は、例えば作業員の身体の一部、手または指、または装着した手袋、等であってもよい。   FIG. 9A shows a moving object image 40 that remains in the operation area 24 of the image D and the non-operation area 26 of the image D in the average image A or the latest image C that is captured and generated by one of the cameras 202 to 208. The example of the image 406 containing the moving body image | videos 42 and 44 which penetrated to -29 is shown. The moving body of the moving body images 40, 42, 44 may be, for example, a part of the worker's body, a hand or a finger, or a worn glove.

図9Aを参照すると、プロセッサ112(状態判定部1132)は、動体映像40全体が境界線304および308より上または奥にあると判定した場合、その動体が操作領域24内に留り、即ち非操作領域26〜29に侵入していない、と判定する。   Referring to FIG. 9A, when the processor 112 (state determination unit 1132) determines that the entire moving object image 40 is above or behind the boundary lines 304 and 308, the moving object remains in the operation region 24, that is, non-displayed. It is determined that the operation areas 26 to 29 have not been entered.

プロセッサ112(状態判定部1132)は、動体映像42、44の一部が非操作領域26〜29中に位置すると判定した場合、さらに動体映像42が境界線304、308を横切って通っているか、即ち境界線304、308を分断している(貫通)かまたは境界線304、308で分断されているかを判定する。   When the processor 112 (the state determination unit 1132) determines that a part of the moving body images 42 and 44 is located in the non-operation areas 26 to 29, whether the moving body image 42 further passes across the boundary lines 304 and 308, That is, it is determined whether the boundary lines 304 and 308 are divided (through) or the boundary lines 304 and 308 are divided.

動体映像42が境界線304、308を横切って通って非操作領域26〜29中に達していると判定した場合、プロセッサ112(状態判定部1132)は、3次元的に見て動体が非操作領域26〜29に侵入した、と判定する。一方、動体映像44が境界線304、308で分断されまたは境界線304、308を横切らずに非操作領域26〜29中に孤立して位置していると判定した場合、3次元的に見て動体が操作領域24内に留り、即ち非操作領域26〜29に侵入していない、と判定する。動体映像44では、3次元的に見て、動体が操作領域24内の奥に深く侵入しているだけで、操作領域24内に留り、非操作領域26〜29に侵入していない、と考えられる。   When it is determined that the moving object image 42 passes through the boundary lines 304 and 308 and reaches the non-operation areas 26 to 29, the processor 112 (state determination unit 1132) does not operate the moving object in three dimensions. It is determined that the area 26-29 has been entered. On the other hand, when it is determined that the moving body image 44 is divided by the boundary lines 304 and 308 or is isolated from the non-operation areas 26 to 29 without crossing the boundary lines 304 and 308, the moving image 44 is viewed in three dimensions. It is determined that the moving object remains in the operation area 24, that is, has not entered the non-operation areas 26 to 29. In the moving body image 44, the moving body has only deeply penetrated deep inside the operation area 24, and remains in the operation area 24, and has not entered the non-operation areas 26 to 29, as viewed in three dimensions. Conceivable.

図10Aおよび10Bは、プロセッサ112によって実行される、各カメラ202〜208によって撮影され生成された画像AまたはCにおいて動体映像40、42、44が非操作領域26〜29に侵入したかどうかを判定するためのフローチャートの例を示している。この判定を行う操作監視は、図9Aの表示装置122の画面において、ソフト・キー418をクリックすることによって、通常の操作監視モードにおいて実行される。   FIGS. 10A and 10B determine whether the moving body images 40, 42, 44 have entered the non-operation areas 26-29 in the images A or C captured and generated by each camera 202-208, executed by the processor 112. The example of the flowchart for doing is shown. The operation monitoring for making this determination is executed in the normal operation monitoring mode by clicking the soft key 418 on the screen of the display device 122 of FIG. 9A.

図10Aを参照すると、ステップ702において、プロセッサ112(状態判定部1132)は、カメラ202〜208の各々に関して操作禁止領域を表す画像Dのデータをメモリ114から読み込む。ステップ704において、プロセッサ112(状態判定部1132)は、カメラ202〜208の各々に関する平均の画像Aのデータをメモリ114から取得する。画像Aは、設備20の周囲の明るさの変化を反映するために新しい画像であることが好ましい。ステップ706において、プロセッサ112(状態判定部1132)は、カメラ202〜208の各々について最新の画像Cのデータをメモリ114から取得する。画像Aは、最新の画像Cにおける動体画像Mの背景画像に対応する。   Referring to FIG. 10A, in step 702, the processor 112 (state determination unit 1132) reads from the memory 114 the data of the image D representing the operation prohibited area for each of the cameras 202 to 208. In step 704, the processor 112 (state determination unit 1132) acquires the average image A data regarding each of the cameras 202 to 208 from the memory 114. The image A is preferably a new image in order to reflect a change in brightness around the facility 20. In step 706, the processor 112 (state determination unit 1132) acquires the latest image C data from the memory 114 for each of the cameras 202 to 208. The image A corresponds to the background image of the moving object image M in the latest image C.

ステップ708において、プロセッサ112(動体検出部1128)は、カメラ202〜208の各々について、最新の画像Cのデータを平均の画像Aのデータと比較して、最新の画像Cにおける平均の画像Aのデータと相違する部分の位置のピクセルを抽出する。プロセッサ112(動体検出部1128)は、その相違する部分がランダムなノイズでなく或る閾値の面積(例えば、100ピクセル)を超える1つの領域として存在すれば、その抽出されたピクセルを動体映像40、42、44として含む動体画像Mのデータを生成する。動体画像Mは、動体映像40、42、44の領域以外のピクセル値が0(ゼロ)であるような1フィールドまたはフレームのデータである。   In step 708, the processor 112 (moving object detection unit 1128) compares the data of the latest image C with the data of the average image A for each of the cameras 202 to 208, and compares the data of the average image A in the latest image C. Extract the pixel at the location that is different from the data. The processor 112 (moving object detection unit 1128), if the different part is not random noise and exists as one region exceeding a certain threshold area (for example, 100 pixels), the extracted pixel is used as the moving object image 40. , 42 and 44, the data of the moving object image M is generated. The moving body image M is data of one field or frame in which the pixel values other than the areas of the moving body images 40, 42, and 44 are 0 (zero).

ステップ848において、プロセッサ112(状態判定部1132)は、有効な動体画像Mのデータが存在するかどうかを判定する。有効な動体画像Mのデータが存在しないと判定された場合は、手順はステップ706に戻る。   In step 848, the processor 112 (state determination unit 1132) determines whether there is valid moving body image M data. If it is determined that there is no valid moving body image M data, the procedure returns to step 706.

ステップ848において有効な動体画像Mのデータが存在すると判定された場合は、プロセッサ112(状態判定部1132)は、ステップ850において、動体画像Mのデータを、操作禁止領域を表す画像Dのデータと比較する。   If it is determined in step 848 that valid moving body image M data exists, the processor 112 (state determination unit 1132) determines that the moving body image M data and the image D data representing the operation-prohibited area in step 850. Compare.

図10Bを参照すると、ステップ852において、プロセッサ112(状態判定部1132)は、カメラ202〜208の1つ以上の動体画像Mの各々について、対応する画像Dの操作禁止領域26〜29に動体映像40〜44が存在するかどうかを判定する。いずれの画像Dの操作禁止領域26〜29にも動体映像40が存在しないと判定された場合、手順は図10Aのステップ706に戻る。   Referring to FIG. 10B, in step 852, the processor 112 (state determination unit 1132), for each of the one or more moving object images M of the cameras 202 to 208, displays a moving object image in the operation prohibited areas 26 to 29 of the corresponding image D. It is determined whether or not 40 to 44 exist. If it is determined that no moving body video 40 exists in the operation prohibited areas 26 to 29 of any image D, the procedure returns to step 706 in FIG. 10A.

ステップ852においていずれかの画像Dの操作禁止領域26〜29に動体映像42、44が存在すると判定された場合、手順はステップ854に進む。ステップ854において、プロセッサ112(状態判定部1132)は、動体映像42、44とマーキング30の映像または境界線304、308との重なりまたは連続性の関係(幾何学的関係)を認識する。   If it is determined in step 852 that the moving body images 42 and 44 exist in the operation prohibited areas 26 to 29 of any image D, the procedure proceeds to step 854. In step 854, the processor 112 (state determination unit 1132) recognizes an overlapping or continuity relationship (geometric relationship) between the moving body images 42 and 44 and the marking 30 images or boundary lines 304 and 308.

図9Bは、図9Aの画像406の一部を拡大した図であり、ステップ854において、動体映像42または44がマーキング30の映像または境界線304、308を貫通して連続しているかどうかを認識する方法の例を示している。   FIG. 9B is an enlarged view of a portion of the image 406 of FIG. 9A. In step 854, it is recognized whether the moving object image 42 or 44 is continuous through the image 30 or the boundary lines 304 and 308 of the marking 30. An example of how to do that.

図9Bにおいて、プロセッサ112(状態判定部1132)は、動体映像42または44を通過するまたは動体映像42または44と接する境界線304または308の線分を求め、その線分の中点fcを求める。次いで、プロセッサ112(状態判定部1132)は、動体映像42または44において、中点fcを通る直線上にある、境界線304、308より下にある動体映像42または44上の点fdと、マーキング30上の点fuとを選択する。点fdは、中点fcから例えば下、左下または右下の位置にあり、中点fcから或る数のピクセル分の距離(例えば、4ピクセル分)だけ離れている。点fuは、中点fcから例えば上、右上または左上の位置にあり、中点fcから或る数のピクセル分の距離(例えば、4ピクセル分)だけ離れている。   In FIG. 9B, the processor 112 (state determination unit 1132) obtains a line segment of the boundary line 304 or 308 that passes through or touches the moving body image 42 or 44, and obtains a midpoint fc of the line segment. . Next, the processor 112 (state determination unit 1132) performs marking on the moving object image 42 or 44, the point fd on the moving object image 42 or 44 on the straight line passing through the middle point fc and below the boundary lines 304 and 308, and marking. A point fu on 30 is selected. The point fd is located at a position, for example, lower, lower left, or lower right from the midpoint fc, and is separated from the midpoint fc by a distance of a certain number of pixels (for example, 4 pixels). The point fu is at, for example, the upper, upper right, or upper left position from the midpoint fc, and is separated from the midpoint fc by a distance of a certain number of pixels (for example, 4 pixels).

プロセッサ112(状態判定部1132)は、点fdと中点fcの間にあるピクセルの色(色相および階調)と、中点fcと点fuの間にあるピクセルの色を判定する。点fdと中点fcの間にあるピクセル色が許容誤差の範囲で中点fcと点fuの間にあるピクセルの色と等しい場合、プロセッサ112(状態判定部1132)は、動体映像42がマーキング30を貫通していると判定する。この判定は、さらに、中点fcと点fuの間にあるピクセルの色がマーキング30の色でないことを追加的条件として行ってもよい。点fdと中点fcの間にあるピクセル色が、許容誤差の範囲を超えて中点fcと点fuの間にあるピクセルの色と異なる場合、プロセッサ112(状態判定部1132)は、動体映像44がマーキング30を貫通していないと判定する。この判定は、さらに、中点fcと点fuの間にあるピクセルの色が、許容誤差の範囲内でマーキング30の色であることを追加的条件として行ってもよい。   The processor 112 (state determination unit 1132) determines the color (hue and gradation) of the pixel between the point fd and the midpoint fc and the color of the pixel between the midpoint fc and the point fu. When the pixel color between the point fd and the midpoint fc is equal to the color of the pixel between the midpoint fc and the point fu within a tolerance range, the processor 112 (the state determination unit 1132) indicates that the moving object image 42 is marked. 30 is determined to pass through. This determination may be performed as an additional condition that the color of the pixel between the midpoint fc and the point fu is not the color of the marking 30. When the pixel color between the point fd and the midpoint fc exceeds the allowable error range and is different from the color of the pixel between the midpoint fc and the point fu, the processor 112 (state determination unit 1132) It is determined that 44 does not penetrate the marking 30. This determination may be performed as an additional condition that the color of the pixel between the midpoint fc and the point fu is the color of the marking 30 within a tolerance.

図10Bを再び参照すると、ステップ856において、プロセッサ112(状態判定部1132)は、操作禁止領域26〜29に存在する動体映像40〜44がマーキング30の映像または境界線304、308を貫通しているか(横切って伸びているか)どうかを判定する。いずれの動体画像Mについても動体映像40、44がマーキング30の映像または境界線304、308を貫通しておらず、または境界線304、308で分断されていると判定された場合には、手順は図10Aのステップ706に戻る。   Referring again to FIG. 10B, in step 856, the processor 112 (state determination unit 1132) determines that the moving body images 40 to 44 existing in the operation prohibited areas 26 to 29 pass through the images 30 or the boundary lines 304 and 308 of the marking 30. It is determined whether or not (stretching across). For any moving image M, if it is determined that the moving image 40, 44 does not penetrate the marking 30 image or the boundary lines 304, 308 or is divided by the boundary lines 304, 308, the procedure Returns to step 706 of FIG. 10A.

ステップ856においていずれかの動体画像Mについて動体映像42がマーキング30の映像または境界線304、308を貫通していると判定された場合、プロセッサ112(信号発生部1134)は、ステップ858において警告を表す信号を発生する。従って、カメラ202〜208で捕捉され生成されたいずれかの画像Cについて操作禁止領域に動体が侵入して論理和(OR)の形態で非操作領域26〜29への侵入の条件が成立した場合に、警告を表す信号が発生される。   If it is determined in step 856 that the moving body image 42 has penetrated the image 30 or the boundary lines 304 and 308 of the marking 30 for any moving body image M, the processor 112 (signal generation unit 1134) issues a warning in step 858. Generate a signal to represent. Accordingly, when any of the images C captured and generated by the cameras 202 to 208 enters the operation prohibited area and the condition for entering the non-operation areas 26 to 29 is satisfied in the form of logical sum (OR). In addition, a signal representing a warning is generated.

プロセッサ112(信号発生部1134)は、警告を表す信号をスピーカ124に供給してスピーカ124に或る時間の長さ(例えば、2秒)だけ例えばブザー音のような警告音を発生させてもよい。代替的にまたは追加的に、プロセッサ112(信号発生部1134)は、警告を表すメッセージを表示装置122に表示してもよい。それによって、作業員は、操作禁止領域26〜29における誤った動体の侵入を確認または認識することができる。その警告を表す信号またはメッセージは、プロセッサ112(制御部1120、処理部1136)によって監視センタ装置300に送信されてもよい。それによって、作業員の誤操作を監視センタ装置300で監視することができる。その後、手順は、図10Aのステップ706に戻る。   The processor 112 (the signal generator 1134) may supply a signal representing a warning to the speaker 124 to cause the speaker 124 to generate a warning sound such as a buzzer sound for a certain length of time (for example, 2 seconds). Good. Alternatively or additionally, the processor 112 (signal generator 1134) may display a message representing the warning on the display device 122. Thereby, the worker can confirm or recognize an intrusion of an erroneous moving body in the operation prohibited areas 26 to 29. A signal or message representing the warning may be transmitted to the monitoring center apparatus 300 by the processor 112 (control unit 1120, processing unit 1136). Thereby, the operator's erroneous operation can be monitored by the monitoring center device 300. Thereafter, the procedure returns to step 706 of FIG. 10A.

ステップ858において警告を表す信号を発生する代わりに、またはそれに加えて、ステップ857において、プロセッサ112(信号発生部1134)は、正常操作であることを表す信号を発生してもよい。即ち、ステップ857は、ステップ852において動体映像40は存在するがいずれの画像Dの操作禁止領域26〜29にも存在しないと判定された場合に、実行される。また、ステップ857は、ステップ856においていずれかの動体画像Mについて動体映像44が存在するがマーキング30の映像または境界線304、308を貫通するものはなく、または境界線304、308で分断されていると判定された場合に、実行される。一方、ステップ858が実行されない場合、ステップ856においていずれかの動体画像Mについて動体映像42がマーキング30の映像または境界線304、308を貫通していると判定された場合には、手順は図10Aのステップ706に戻る。   Instead of or in addition to generating a signal representing a warning in step 858, in step 857, the processor 112 (signal generation unit 1134) may generate a signal representing normal operation. That is, step 857 is executed when it is determined in step 852 that the moving body video 40 exists but does not exist in the operation prohibited areas 26 to 29 of any image D. In step 857, the moving body image 44 exists in any of the moving body images M in step 856, but none of the images of the marking 30 or the boundary lines 304 and 308 penetrates or is divided by the boundary lines 304 and 308. It is executed when it is determined that it is present. On the other hand, if step 858 is not executed, if it is determined in step 856 that the moving object image 42 has penetrated the image 30 or the boundary lines 304 and 308 of the marking 30 for any moving object image M, the procedure is as shown in FIG. Return to step 706.

プロセッサ112(信号発生部1134)は、正常操作を表す信号を発生し、スピーカ124に音信号を供給して或る時間の長さ(例えば、1秒)だけ例えばチャイム音のような音を発生させてもよい。代替的にまたは追加的に、プロセッサ112(信号発生部1134)は、正常操作を表すメッセージを表示装置122に表示してもよい。それによって、作業員は、操作領域24における適正な操作を確認または認識することができる。その正常操作を表す信号またはメッセージは、プロセッサ112(制御部1120、処理部1136)によって監視センタ装置300に送信されてもよい。それによって、作業員の誤操作を監視センタ装置300で監視することができる。その後、手順は、図10Aのステップ706に戻る。   The processor 112 (signal generation unit 1134) generates a signal indicating normal operation, supplies a sound signal to the speaker 124, and generates a sound such as a chime sound for a certain length of time (for example, 1 second). You may let them. Alternatively or additionally, the processor 112 (signal generator 1134) may display a message representing normal operation on the display device 122. Thereby, the worker can confirm or recognize an appropriate operation in the operation area 24. A signal or message indicating the normal operation may be transmitted to the monitoring center apparatus 300 by the processor 112 (control unit 1120, processing unit 1136). Thereby, the operator's erroneous operation can be monitored by the monitoring center device 300. Thereafter, the procedure returns to step 706 of FIG. 10A.

一方、作業員は、設備または装置20において、操作領域24が分かりにくい場合、例えば操作領域24が複数分散してある場合または非常に高い位置にある場合に、実際の操作前に、操作しようとする部分の位置が適切な操作領域24内にあるかどうかを予め確認したいことがある。そのような場合、初期化処理の後、作業員は、ソフト・キー418をクリックして、操作監視機能を正常操作確認モードに設定する。プロセッサ112(信号発生部1134)は、正常操作確認モードで、動体映像40、44が3次元的に操作領域24内で或る時間だけ静止した場合に、上述したような正常操作を表す信号を発生してもよい。また、プロセッサ112(信号発生部1134)は、正常操作確認モードで、動体映像42が3次元的に非操作領域26〜29で或る時間だけ静止した場合に、上述したような警告を表す信号を発生させてもよい。   On the other hand, when the operation area 24 is difficult to understand in the facility or apparatus 20, for example, when a plurality of operation areas 24 are dispersed or at a very high position, the worker tries to operate before the actual operation. There is a case where it is desired to confirm in advance whether or not the position of the portion to be operated is within the appropriate operation area 24. In such a case, after the initialization process, the worker clicks the soft key 418 to set the operation monitoring function to the normal operation confirmation mode. The processor 112 (signal generation unit 1134) outputs a signal indicating the normal operation as described above when the moving body images 40 and 44 are three-dimensionally stopped in the operation region 24 for a certain time in the normal operation confirmation mode. It may occur. Further, the processor 112 (the signal generation unit 1134) is a signal indicating a warning as described above when the moving body image 42 is three-dimensionally stationary in the non-operation areas 26 to 29 in a normal operation confirmation mode. May be generated.

図11A〜11Cは、プロセッサ112によって実行される、正常操作確認モードにおいて動体映像42〜44が正常に操作領域24内にあるかどうかを確認するためのフローチャートの例を示している。この場合、画像Aと連続する複数N個の画像Cとを合成した合成画像Bを用いて、動体画像42〜44が判定される。そのNの値は、図5のNと異なる値であってもよい。   FIGS. 11A to 11C show an example of a flowchart executed by the processor 112 for confirming whether or not the moving body images 42 to 44 are normally in the operation area 24 in the normal operation confirmation mode. In this case, the moving body images 42 to 44 are determined using the composite image B obtained by combining the image A and a plurality of consecutive N images C. The value of N may be a value different from N in FIG.

図11Aを参照すると、ステップ702〜706は図10のものと同様である。この場合、ステップ706において、プロセッサ112(状態判定部1132)は、カメラ202〜208の各々について1つまたは連続する複数の最新の画像Cのデータをメモリ114から取得してもよい。複数の画像Cの数nは、2個〜所定の数N(例えば、N=10または16)の範囲の数であってもよい。連続する複数の画像Cのデータは、或る時間間隔、例えば100ms間隔のものであってもよい。   Referring to FIG. 11A, steps 702-706 are similar to those of FIG. In this case, in step 706, the processor 112 (state determination unit 1132) may acquire data of one or a plurality of continuous latest images C for each of the cameras 202 to 208 from the memory 114. The number n of the plurality of images C may be a number ranging from 2 to a predetermined number N (for example, N = 10 or 16). The data of a plurality of continuous images C may have a certain time interval, for example, 100 ms interval.

ステップ808において、プロセッサ112(画像生成部1124)は、カメラ202〜208の各々について最新の各画像Cのデータを平均の画像Aのデータと比較して、最新の各画像Cにおける平均の画像Aのデータと許容誤差の範囲を超えて相違する部分の位置のピクセルを抽出する。プロセッサ112(画像生成部1124)は、その相違する部分がランダムなノイズでなく或る閾値の面積を超える1つの領域として存在すれば、その抽出されたピクセルを動体映像40、42、44として含む動体画像Mのデータを生成する。   In step 808, the processor 112 (image generation unit 1124) compares the latest data of each image C with the data of the average image A for each of the cameras 202 to 208, and compares the average image A of the latest images C with each other. The pixel of the position of the part which is different from the data of and exceeding the tolerance range is extracted. The processor 112 (the image generation unit 1124) includes the extracted pixels as the moving body images 40, 42, and 44 if the different portion is not random noise but exists as one region exceeding a certain threshold area. Data of the moving object image M is generated.

プロセッサ112(状態判定部1132)は、さらに、画像Dに基づいてまたは画像A、CおよびDに基づいて、動体画像Mが、操作禁止領域26〜29には存在せず境界線304、308より上にだけある動体映像40を含んでいる場合に、それを動体画像M’として決定してもよい。動体画像M’は、後で説明する図11A〜11Cの代替形態において動体画像Mの代わりに使用される。   Further, the processor 112 (state determination unit 1132) determines that the moving body image M does not exist in the operation prohibited areas 26 to 29 based on the image D or based on the images A, C, and D, based on the boundary lines 304 and 308. When the moving body image 40 only included above is included, it may be determined as the moving body image M ′. The moving body image M ′ is used in place of the moving body image M in the alternative forms of FIGS. 11A to 11C described later.

図11Bを参照すると、ステップ820において、プロセッサ112(状態判定部1132)は、動体画像Mが存在するかどうかを判定する。ステップ820において動体画像Mが存在しないと判定された場合は、プロセッサ112(状態判定部1132)は、ステップ822において、メモリ114のフラグ記憶領域に正常操作を通知するためのフラグが設定されまたはオン状態にあるかどうかを判定する。フラグが設定されていないと判定された場合、手順は図11Aのステップ706に戻る。   Referring to FIG. 11B, in step 820, the processor 112 (state determination unit 1132) determines whether or not the moving object image M exists. If it is determined in step 820 that the moving body image M does not exist, the processor 112 (state determination unit 1132) sets or turns on a flag for notifying normal operation in the flag storage area of the memory 114 in step 822. Determine if it is in a state. If it is determined that the flag is not set, the procedure returns to step 706 in FIG. 11A.

ステップ822においてフラグが設定されていると判定された場合、プロセッサ112(状態判定部1132)は、ステップ824において、現在の或る合成された画像Bを破棄し、正常操作通知用のフラグを解除しまたはオフ状態にする。ここで、合成された画像Bは、背景としての平均の画像Aに、最新の各画像C中の各動体画像Mを或る重み付けで累積的に加算して生成された画像である。画像Bは後で説明する形態で生成される。その後、手順はステップ706に戻る。   If it is determined in step 822 that the flag is set, the processor 112 (state determination unit 1132) discards the current combined image B and cancels the normal operation notification flag in step 824. Or turn it off. Here, the synthesized image B is an image generated by cumulatively adding each moving body image M in the latest image C with a certain weight to the average image A as the background. The image B is generated in the form described later. Thereafter, the procedure returns to step 706.

ステップ820において動体画像Mが存在すると判定された場合、プロセッサ112(状態判定部1132)は、ステップ826において、フラグが解除されまたはオフ状態にあるかどうかを判定する。フラグが解除されていないまたはオン状態にあると判定された場合、手順はステップ706に戻る。それによって、正常操作を表す信号の生成を表すフラグが設定状態にある期間に、正常操作を表す信号が重複してまたは冗長に生成されるのを抑止することができる。   If it is determined in step 820 that the moving body image M exists, the processor 112 (state determination unit 1132) determines in step 826 whether the flag is cleared or in an off state. If it is determined that the flag has not been cleared or is in the on state, the procedure returns to step 706. Thereby, it is possible to prevent the signal representing the normal operation from being generated redundantly or redundantly during the period in which the flag representing the generation of the signal representing the normal operation is in the set state.

ステップ826においてフラグが解除されているまたはオフ状態にあると判定された場合、プロセッサ112(状態判定部1132)は、ステップ828において、合成された画像Bが存在するかどうかを判定する。合成された画像Bが存在しないと判定された場合、プロセッサ112(画像生成部1124)は、ステップ830において、メモリ114中の画像Aをコピーして新しい初期の画像Bを生成してメモリ114に格納する。プロセッサ112(画像生成部1124)は、さらに、初期の画像Bに各動体画像Mを或る重み付けで加算することによって、動体画像Mで画像Bを更新してもよい。その後、手順はステップ706に戻る。   When it is determined in step 826 that the flag is released or in the off state, the processor 112 (state determination unit 1132) determines in step 828 whether or not the synthesized image B exists. If it is determined that the synthesized image B does not exist, the processor 112 (image generation unit 1124) copies the image A in the memory 114 to generate a new initial image B in step 830 and stores it in the memory 114. Store. The processor 112 (image generation unit 1124) may further update the image B with the moving image M by adding each moving image M to the initial image B with a certain weight. Thereafter, the procedure returns to step 706.

ステップ828において画像Bが存在すると判定された場合、プロセッサ112(画像生成部1124)は、ステップ840において、画像Bに動体画像Mを或る重み付けで加算することによって、動体画像Mで画像Bを更新する。次いで、プロセッサ112(状態判定部1132)は、最新の画像Cを合成された画像Bと比較する。   If it is determined in step 828 that the image B exists, the processor 112 (the image generation unit 1124) adds the moving image M to the image B with a certain weight in step 840, thereby adding the moving image M to the moving image M. Update. Next, the processor 112 (state determination unit 1132) compares the latest image C with the synthesized image B.

ステップ842において、プロセッサ112(動体静止判定部1130)は、画像Cが静止状態を表しているかどうかを判定する。そのために、例えば、プロセッサ112(動体静止判定部1130)は、画像Cのピクセル値(色相および階調)と画像Bの対応するピクセル値の間に誤差の許容範囲を超えて差異があるかどうかを判定してもよい。画像Cと画像Bの間に許容範囲を超えて差異があることは、動体映像Mが静止状態にないかまたは未だ動体映像Mの静止状態を決定できないことを表している。手のような動体が動いている場合には、連続的に取得された複数の画像Cが互いに異なるものとなり、画像(410)中の動体映像40はぼけたものとなり、画像Bと画像Cは許容範囲内で一致しない。また、合成された画像Cの数が或る数N(例えば、N=8または10)に満たない場合、画像410中の動体映像40は背景の画像Aの対応位置の部分と混合されて半透明状態となり、合成された画像Bと最新の画像Cは一致しない。   In step 842, the processor 112 (moving object stationary determination unit 1130) determines whether or not the image C represents a stationary state. Therefore, for example, the processor 112 (moving object stationary determination unit 1130) determines whether there is a difference between the pixel value (hue and gradation) of the image C and the corresponding pixel value of the image B beyond the allowable range of error. May be determined. The difference between the images C and B exceeding the allowable range indicates that the moving image M is not in a still state or that the moving image M has not been determined yet. When a moving object such as a hand is moving, a plurality of continuously acquired images C are different from each other, the moving object image 40 in the image (410) is blurred, and the images B and C are Does not match within tolerance. When the number of synthesized images C is less than a certain number N (for example, N = 8 or 10), the moving body video 40 in the image 410 is mixed with the corresponding position portion of the background image A and half. The image becomes transparent and the synthesized image B and the latest image C do not match.

ステップ842において画像Cが静止状態を表していないと判定された場合は、プロセッサ112(動体静止判定部1130)は、ステップ844において、合計N個の動体画像Mが初期の画像Bと合成されたかどうかを判定する。N個の動体画像Mが合成されていないと判定された場合は、手順はステップ706に戻る。ステップ844においてN個の動体画像Mが合成されたと判定された場合は、プロセッサ112(画像生成部1124)は、ステップ846において、現在の画像Bを破棄し、メモリ114中の画像Aをコピーして初期の画像Bを再度生成してメモリ114に格納する。それによって、静止していない1つ以上の動体画像Mのぼけた動体映像40を含む画像Bを使用しないようにする。プロセッサ112(画像生成部1124)は、さらに、初期の画像Bに1つの最新の動体画像Mを或る重み付けで加算することによって、最新の動体画像Mで画像Bを更新してもよい。その後、手順はステップ706に戻る。代替形態として、ステップ842において画像Cが静止状態を表していないと判定された場合、ステップ844、846を実行することなく、手順はステップ706に戻ってもよい。   If it is determined in step 842 that the image C does not represent a stationary state, the processor 112 (moving object stationary determination unit 1130) determines whether a total of N moving body images M have been combined with the initial image B in step 844. Determine if. If it is determined that N moving body images M have not been combined, the procedure returns to step 706. If it is determined in step 844 that N moving body images M have been combined, the processor 112 (image generation unit 1124) discards the current image B and copies the image A in the memory 114 in step 846. The initial image B is generated again and stored in the memory 114. Accordingly, the image B including the blurred moving body image 40 of one or more moving body images M that are not stationary is not used. The processor 112 (the image generation unit 1124) may further update the image B with the latest moving body image M by adding one latest moving body image M to the initial image B with a certain weight. Thereafter, the procedure returns to step 706. Alternatively, if it is determined in step 842 that image C does not represent a stationary state, the procedure may return to step 706 without performing steps 844, 846.

ステップ842において画像Cが静止状態を表していると判定された場合、手順は、図11Cのステップ850に進む。図11Bのステップ842において、画像Cと画像Bの間に許容範囲を超えた差異がないことは、連続する或る数N個の画像Cの期間にわたって動体が実質的に静止していることを表している。   If it is determined in step 842 that the image C represents a stationary state, the procedure proceeds to step 850 in FIG. 11C. In step 842 of FIG. 11B, the fact that there is no difference between the image C and the image B exceeding the allowable range indicates that the moving object is substantially stationary over a period of a certain number N of images C. Represents.

図12Aおよび12Bは、合成された画像Bの更新の例を示している。
上述したように、初期の画像Bは画像Aと同じである。プロセッサ112(画像生成部1124)は、連続的に取得された1つ以上の最新の画像Cから生成された各動体画像Mの動体映像40〜44の位置の対応するピクセル値に或る重み付けwFを乗じて、重み付けされた動体画像Mwのピクセルを生成する。また、プロセッサ112(画像生成部1124)は、画像Bにおける動体画像Mの動体映像40〜44に対応する位置のピクセル値にだけ或る重み付けwBを乗じて、重み付けされた画像Bwのピクセルを生成する。プロセッサ112(画像生成部1124)は、さらに、動体画像Mw中の動体映像40〜44のピクセル値を、これと対応する位置の画像Bwのピクセル値に加算する。ここで、例えば、合成する画像Cの合計数×wF+wB=1である。その組合せは、例えば、或る数がN=16の場合、1つの画像Cに対して(wF=1/5、wB=4/5)である。例えば、16個の動体画像Mで画像Bを順次更新すると、同じ動体画像Mと初期の画像Bの比率は、0.97:0.03になり、その動体画像Mが概ね平均化(加重平均化)される。画像Bの各1回の更新において、より少ない数(例えば、1つ)の動体画像Mで画像Bを更新すると、プロセッサ112の処理負荷を時間的に分散できより均一にできる。その合成によって、最初の幾つかの期間は、図12Aの画像408に示されているような、画像Aまたは初期画像Bに近い薄い半透明の動体映像40〜44を含む画像Bが生成される。ステップ840において、より多くの最新の画像Cの動体画像Mで画像Bを更新することによって、図12Bの画像410に示されているような、より濃い半透明の動体映像40〜44を含む画像Bが生成される。
12A and 12B show examples of updating the synthesized image B. FIG.
As described above, the initial image B is the same as the image A. The processor 112 (the image generation unit 1124) performs a certain weighting w on pixel values corresponding to the positions of the moving body images 40 to 44 of each moving body image M generated from one or more latest images C that are continuously acquired. Multiply F to generate a weighted moving image Mw pixel. The processor 112 (the image generation unit 1124) is multiplied by certain weights w B only pixel values of positions corresponding to the moving object image 40-44 of the moving object image M in the image B, and the pixels of the weighted image Bw Generate. The processor 112 (image generation unit 1124) further adds the pixel values of the moving body images 40 to 44 in the moving body image Mw to the pixel values of the image Bw at the position corresponding to the moving body images 40 to 44. Here, for example, the total number of images C to be combined × w F + w B = 1. For example, when a certain number is N = 16, the combination is (w F = 1/5, w B = 4/5) for one image C. For example, when the image B is sequentially updated with 16 moving image M, the ratio of the same moving image M to the initial image B becomes 0.97: 0.03, and the moving image M is approximately averaged (weighted average). ). If the image B is updated with a smaller number (for example, one) of moving body images M in each update of the image B, the processing load of the processor 112 can be distributed in time and more uniform. The synthesis produces an image B that includes a thin translucent moving video 40-44 close to image A or initial image B, as shown in image 408 of FIG. . In step 840, the image including the darker translucent moving image 40-44 as shown in the image 410 of FIG. 12B by updating the image B with the moving image M of the more recent image C. B is generated.

画像Aを初期の画像Bとして用いることによって、設備または装置20において明るさが変化して画像Cの明るさが変化しても、画像Bの背景画像を画像Aと同じにすることができる。それによって、画像Cと画像Bを比較する場合に、それらの背景部分の画像が同じになり、動体映像40〜44の比較が容易になる。   By using the image A as the initial image B, the background image of the image B can be made the same as the image A even if the brightness changes in the equipment or the apparatus 20 and the brightness of the image C changes. Thereby, when comparing the image C and the image B, the images of the background portions thereof are the same, and the comparison of the moving body images 40 to 44 is facilitated.

また、動体が動いている場合には、連続する複数N個の最新の画像Cおよびその動体映像40〜44が互いに異なり、画像410の動体映像40〜44がぼけ、特にその輪郭がぼけたものとなり、画像Bと画像Cの対応する位置のピクセル値は完全には一致しない。複数N個の動体映像40〜44が位置的に動いた場合、その輪郭付近の動き分の差の面積が誤差の許容範囲であれば、動体映像40〜44がほぼ静止していると判定してよい。動体がほぼ静止している場合には、連続する複数N個の最新の画像Cの対応するピクセル値が面積およびレベルの誤差の許容範囲内で同じになり、画像Bと画像Cの対応する大部分のピクセル値が実質的に一致する。   In addition, when a moving body is moving, a plurality of the latest N consecutive images C and their moving body images 40 to 44 are different from each other, and the moving body images 40 to 44 of the image 410 are blurred, in particular, the outline is blurred. Thus, the pixel values at the corresponding positions in the images B and C do not completely match. When a plurality of N moving body images 40 to 44 move in position, if the area of the difference in motion near the contour is within an allowable error range, it is determined that the moving body images 40 to 44 are almost stationary. It's okay. When the moving object is almost stationary, the corresponding pixel values of the N consecutive latest images C are the same within the tolerances of the area and level errors, and the corresponding large values of the images B and C are large. The pixel values of the parts substantially match.

さらに、動体映像44が、境界線304および308より下の禁止領域26〜29にもあり、境界線304および308を貫通せず境界線304および308で分断されている場合にも、図9Aおよび9Bの場合と同様に、正常な操作と見なすことができる。   Furthermore, even when the moving body image 44 is also in the prohibited areas 26 to 29 below the boundary lines 304 and 308 and does not penetrate the boundary lines 304 and 308 and is divided by the boundary lines 304 and 308, FIG. As in the case of 9B, it can be regarded as a normal operation.

図11Cにおいて、ステップ842(YES)の後のステップ850〜856は、図10Aおよび10Bのものと同様である。ステップ852において、最新の動体画像Mが操作禁止領域26〜29に存在しないと判定された場合は、手順はステップ860に進む。ステップ856においていずれの動体画像Mについても動体映像40、44がマーキング30の映像または境界線304、308を貫通しておらず、または境界線304、308で分断されていると判定された場合に、手順はステップ860に進む。   In FIG. 11C, steps 850 to 856 after step 842 (YES) are the same as those in FIGS. 10A and 10B. If it is determined in step 852 that the latest moving body image M does not exist in the operation prohibited areas 26 to 29, the procedure proceeds to step 860. When it is determined in step 856 that the moving body images 40 and 44 do not penetrate the video 30 or the boundary lines 304 and 308 of the marking 30 or are divided by the boundary lines 304 and 308 for any moving body image M. The procedure proceeds to step 860.

ステップ860において、プロセッサ112(信号発生部1134)は、或る時間期間(例えば、2秒)だけメモリ114中のフラグを設定しまたはオン状態にして正常操作を表す信号を発生する。プロセッサ112(信号発生部1134)は、正常操作を表す信号を、スピーカ124に供給してスピーカ124に或る時間の長さだけ例えばチャイム音のような音を発生させてもよい。代替形態としてまたは追加的に、プロセッサ112(信号発生部1134)は、正常操作を表すメッセージを表示装置122に表示してもよい。その後で、プロセッサ112(信号発生部1134)は、フラグを解除しまたはオフ状態にする。それによって、作業員は、操作領域24における適正な操作を確認または認識することができる。その正常操作を表す信号またはメッセージは、プロセッサ112(制御部1120、処理部1136)によって監視センタ装置300に送信されてもよい。それによって、作業員の誤操作を監視センタ装置300で監視することができる。このようにして、3次元的に見て、動体が操作領域24内にあり、またはその奥に深く侵入しているだけで、操作領域24内に留り非操作領域26〜29に侵入していない場合にも、正常な操作であることを確認することができる。その後、手順はステップ706に戻る。   In step 860, the processor 112 (signal generator 1134) sets a flag in the memory 114 for a certain period of time (for example, 2 seconds) or turns it on to generate a signal representing normal operation. The processor 112 (signal generation unit 1134) may supply a signal representing normal operation to the speaker 124 to cause the speaker 124 to generate a sound such as a chime sound for a certain length of time. Alternatively or additionally, the processor 112 (signal generator 1134) may display a message representing normal operation on the display device 122. After that, the processor 112 (signal generation unit 1134) releases the flag or turns it off. Thereby, the worker can confirm or recognize an appropriate operation in the operation area 24. A signal or message indicating the normal operation may be transmitted to the monitoring center apparatus 300 by the processor 112 (control unit 1120, processing unit 1136). Thereby, the operator's erroneous operation can be monitored by the monitoring center device 300. In this way, as viewed three-dimensionally, the moving object is in the operation area 24 or only deeply penetrates into the operation area 24 and remains in the operation area 24 and enters the non-operation areas 26 to 29. Even if there is not, it can be confirmed that the operation is normal. Thereafter, the procedure returns to step 706.

ステップ856においていずれかの動体画像Mについて動体映像42が境界線304、308を貫通していると判定された場合は、手順はステップ706に戻る。   If it is determined in step 856 that the moving body image 42 passes through the boundary lines 304 and 308 for any moving body image M, the procedure returns to step 706.

図11Bのステップ860において正常操作を表す信号を発生する代わりにまたはそれに加えて、図11Cのステップ858において、プロセッサ112(信号発生部1134)は、警告を表す信号を発生してもよい。即ち、ステップ858は、ステップ856においていずれかの動体画像Mの動体映像42が境界線304、308を貫通していると判定された場合に、実行される。ステップ852において動体映像40が禁止領域26〜29に存在せず、またはステップ856においていずれの動体画像Mについても動体映像44がマーキング30の映像または境界線304、308を貫通していないと判定された場合、手順は図11Aのステップ706に戻ってもよい。この場合、ステップ860は実行されない。   Instead of or in addition to generating a signal representing normal operation in step 860 of FIG. 11B, in step 858 of FIG. 11C, processor 112 (signal generator 1134) may generate a signal representing a warning. That is, step 858 is executed when it is determined in step 856 that the moving body image 42 of any moving body image M passes through the boundary lines 304 and 308. In step 852, it is determined that the moving body image 40 does not exist in the prohibited areas 26 to 29, or in step 856, it is determined that the moving body image 44 does not penetrate the image 30 or the boundary lines 304 and 308 of the marking 30 for any moving body image M. If so, the procedure may return to step 706 of FIG. 11A. In this case, step 860 is not executed.

代替形態として、図11A〜11Cのフローチャートにおいて、図12Aおよび12Bにおいて動体映像42および44が境界線304および308より下の禁止領域26〜29にある場合は、正常な操作と見なさないようにしてもよい。この場合、作業員は、操作領域24のマーキング30の面領域に例えば手を静止して置き、その奥に手を差し込むことなく、その位置が操作領域24にあることを確認する。この場合、ステップ820〜842において、動体画像Mの代わりに、境界線304および308より上の領域だけに動体映像40を含む動体画像M’が用いられ、図11Cのステップ850〜858が実行されず、ステップ842(YES)の後でステップ960が実行されてもよい。それによって、プロセッサ112の処理が簡単になり、その負荷が軽減される。   As an alternative, in the flowcharts of FIGS. 11A to 11C, if the moving body images 42 and 44 are in the prohibited areas 26 to 29 below the boundary lines 304 and 308 in FIGS. 12A and 12B, do not regard them as normal operations. Also good. In this case, the worker places a hand, for example, on the surface area of the marking 30 in the operation area 24 and confirms that the position is in the operation area 24 without inserting a hand in the back. In this case, in Steps 820 to 842, instead of the moving object image M, the moving object image M ′ including the moving object image 40 only in the region above the boundary lines 304 and 308 is used, and Steps 850 to 858 in FIG. 11C are executed. Instead, step 960 may be executed after step 842 (YES). Thereby, the processing of the processor 112 is simplified and the load is reduced.

図11A〜11Cのフローチャートのステップ820〜856において、全てのカメラ202〜208で生成された画像Cについて3次元的に操作禁止領域26〜29に動体映像が侵入せずに、論理積で正常操作の条件が成立した場合に、ステップ860において正常操作を表す信号が生成される。ステップ820〜856において、いずれかのカメラ202〜208で生成された画像Cについて3次元的に操作禁止領域26〜29に動体映像が侵入し、論理和で誤り操作の条件が成立した場合に、ステップ858において警告を表す信号が生成される。   In steps 820 to 856 in the flowcharts of FIGS. 11A to 11C, the moving image is not normally invaded into the operation prohibited areas 26 to 29 in three dimensions with respect to the image C generated by all the cameras 202 to 208, and the normal operation is performed by the logical product. When the above condition is satisfied, a signal indicating a normal operation is generated in step 860. In Steps 820 to 856, when the moving image enters the operation prohibited areas 26 to 29 three-dimensionally with respect to the image C generated by any of the cameras 202 to 208, and an error operation condition is established by logical sum, In step 858, a signal representing a warning is generated.

代替形態として、図11A〜11Cにおいて、画像Aの一部を背景として含む画像Bの代わりに、複数のN個の画像Cの動体画像Mを合成して生成した画像B’を用いてもよい。この場合、ステップ840において、比較のために、最新の画像Cの代わりにその画像Cの動体画像Mを用いて、動体画像Mを画像B’と比較してもよい。この場合、初期の画像B’のピクセル値は全て0(ゼロ)である。更新された画像B’は、画像Aのピクセルを含まず、即ち背景画像のピクセル値が全て0(ゼロ)となる。画像B’において、動体画像Mは、画像Bの更新と同じ形態で更新すればよい。   As an alternative, in FIGS. 11A to 11C, an image B ′ generated by synthesizing a moving body image M of a plurality of N images C may be used instead of the image B including a part of the image A as a background. . In this case, in step 840, the moving body image M may be compared with the image B ′ using the moving body image M of the image C instead of the latest image C for comparison. In this case, the pixel values of the initial image B ′ are all 0 (zero). The updated image B ′ does not include the pixels of the image A, that is, the pixel values of the background image are all 0 (zero). In the image B ′, the moving body image M may be updated in the same form as the update of the image B.

この場合、プロセッサ112(画像生成部1124)は、連続的に取得された各画像Cから生成された各動体画像Mの動体映像40〜44の位置のピクセル値に或る重み付けwFを乗じて、重み付けされた動体画像Mwのピクセルを生成する。プロセッサ112(画像生成部1124)は、さらに、動体画像Mw中の動体映像40〜44のピクセル値を、これと対応する位置の画像B’のピクセル値に加算して画像B’を更新する。例えば、或る数がN=8の場合、1つの動体画像Mに対してwF=1/8である。例えば、8つの動体画像Mで画像B’を順次更新すると、同じ動体画像Mの映像40〜44のピクセル位置の総和は8倍のピクセル値を有し、重み付けwF=1/8を乗じることによって、それが平均化される。 In this case, the processor 112 (the image generation unit 1124) multiplies the pixel values at the positions of the moving body images 40 to 44 of the moving body images M generated from the continuously acquired images C by a certain weight w F. Then, a pixel of the weighted moving image Mw is generated. The processor 112 (image generation unit 1124) further updates the image B ′ by adding the pixel values of the moving body images 40 to 44 in the moving body image Mw to the pixel values of the image B ′ at the position corresponding to the pixel values. For example, when a certain number is N = 8, w F = 1/8 for one moving body image M. For example, when the image B ′ is sequentially updated with eight moving body images M, the sum of the pixel positions of the videos 40 to 44 of the same moving body image M has a pixel value that is 8 times and is multiplied by the weight w F = 1/8. Will average it out.

動体が動いている場合には、連続する複数N個の動体画像Mの動体映像40〜44が互いに異なり、画像B’または画像410の動体映像40〜44がぼけ、特にその輪郭がぼけたものとなり、画像B’と最新の動体画像Mの対応する位置のピクセル値は完全には一致しない。前述の画像Bと比較すると、画像B’のぼやけた輪郭付近のピクセル値のレベルまたは階調が小さくなり、場合によってはそのピクセルの色相が変化することがある。しかし、動体映像40〜44が位置的に動いた場合、その輪郭付近の動き分の差の面積が誤差の許容範囲であれば、動体映像40〜44がほぼ静止していると判定してよい。動体がほぼ静止している場合には、連続する複数N個の最新の動体画像Mの対応するピクセル値が面積およびレベルの誤差の許容範囲内で同じになり、画像B’と動体画像Mの対応する大部分のピクセル値が実質的に一致する。   When the moving body is moving, the moving body images 40 to 44 of a plurality of N moving body images M that are consecutive are different from each other, and the moving body images 40 to 44 of the image B ′ or the image 410 are blurred, in particular, the outline is blurred. Thus, the pixel values at corresponding positions in the image B ′ and the latest moving object image M do not completely match. Compared with the above-mentioned image B, the level or gradation of the pixel value near the blurred outline of the image B ′ becomes small, and the hue of the pixel may change in some cases. However, when the moving body images 40 to 44 move in position, it may be determined that the moving body images 40 to 44 are substantially stationary if the area of the difference in motion near the contour is within an allowable error range. . When the moving object is almost stationary, the corresponding pixel values of the continuous N latest moving object images M are the same within the tolerances of the area and level errors. Most corresponding pixel values are substantially matched.

設備または装置20における作業または工事が終了した後で、作業員は、終了を表すソフト・キー428をクリックし、カメラ202〜210を回収し、マーキング30を外す。   After the work or construction in the facility or apparatus 20 is complete, the worker clicks on the soft key 428 indicating completion, retrieves the cameras 202-210, and removes the marking 30.

図5、8Aおよび8B、10Aおよび10B、11A〜11C、13A〜13Cに例示された各フローチャートの複数のステップは、それぞれの機能を実現する1つ以上の集積回路または装置(ユニット)で、また他の回路または装置とともにハードウェア実装することもできる。   The steps of each flowchart illustrated in FIGS. 5, 8A and 8B, 10A and 10B, 11A-11C, 13A-13C are one or more integrated circuits or devices (units) that implement the respective functions, and It can also be implemented in hardware with other circuits or devices.

ここで挙げた全ての例および条件的表現は、発明者が技術促進に貢献した発明および概念を読者が理解するのを助けるためのものであり、ここで具体的に挙げたそのような例および条件に限定することなく解釈され、また、明細書におけるそのような例の編成は本発明の優劣を示すこととは関係ない、と理解される。本発明の実施形態を詳細に説明したが、本発明の精神および範囲から逸脱することなく、それに対して種々の変更、置換および変形を施すことができる、と理解される。   All examples and conditional expressions given here are intended to help the reader understand the inventions and concepts that have contributed to the promotion of technology, such examples and It is understood that the present invention is not limited to the conditions, and that the organization of such examples in the specification is not related to the superiority or inferiority of the present invention. Although embodiments of the present invention have been described in detail, it will be understood that various changes, substitutions and variations can be made thereto without departing from the spirit and scope of the invention.

以上の実施例を含む実施形態に関して、さらに以下の付記を開示する。
(付記1) 入力部を介して画像信号を取り込んで格納する記憶部と、
前記記憶部に格納された第1の画像信号の画像における境界線と、前記境界線によって区画される非操作領域とを決定する決定部と、
前記記憶部に格納された第2の画像信号における動体映像を検出する検出部と、
前記第2の画像信号の画像における前記検出された動体映像と前記境界線の重なり関係に基づいて、前記境界線に対する前記動体映像の状態を判定する判定部と、
前記判定された状態に基づいて信号を発生する信号発生部と、
を含む、情報処理装置。
(付記2) 前記判定部は、前記検出された動体映像が前記境界線を貫通していない場合には前記動体映像の状態が第1の状態にあると判定し、前記検出された動体映像が前記境界線を貫通している場合には前記動体映像の状態が第2の状態にあると判定するものであることを特徴とする、付記1に記載の情報処理装置。
(付記3) 前記判定部は、前記第2の画像信号において前記非操作領域に位置する前記検出された動体映像上の第1の位置から前記境界線を超えて前記非操作領域でない領域に位置する前記境界線に隣接する第2の位置までのピクセルの色を検出し、前記第1の位置から前記境界線までのピクセルの色と前記第2の位置までのピクセルの色が許容誤差の範囲で同じ色の値でなかった場合に、前記動体映像の状態が前記第1の状態にあると判定し、前記第1の位置から前記境界線までのピクセルの色と前記第2の位置までのピクセルの色が許容誤差の範囲で同じ色の値であった場合に、前記動体映像の状態が前記第2の状態にあると判定するものであることを特徴とする、付記2に記載の情報処理装置。
(付記4) 前記決定部は、前記第1の画像信号の画像において仮の非操作領域における或る開始点から或る方向に探索して特定の色の領域の境界を検出し、前記特定の色の領域の前記境界が少なくとも或る距離の範囲において存在することが検出された場合に、前記境界によって形成される線を延長して、前記延長された線を前記境界線の少なくとも一部として決定するものであることを特徴とする、付記1乃至3のいずれかに記載の情報処理装置。
(付記5) 前記判定部は、前記検出された動体の映像が静止状態にあった場合に、前記第2の画像信号の画像における前記検出された動体映像と前記境界線の重なり関係に基づいて、前記動体映像の状態を判定するものであることを特徴とする、付記1乃至4のいずれかに記載の情報処理装置。
(付記6) 入力部を介して画像信号を取り込んで記憶部に格納し、
前記記憶部に格納された第1の画像信号の画像における境界線および前記境界線によって区画される非操作領域を決定し、
前記記憶部に格納された第2の画像信号における動体映像を検出し、
前記第2の画像信号の画像における前記検出された動体映像と前記境界線の重なり関係に基づいて、前記境界線に対する前記動体映像の状態を判定し、
前記判定された状態に基づいて信号を発生する、
処理を情報処理装置に実行させるプログラム。
Regarding the embodiment including the above examples, the following additional notes are further disclosed.
(Supplementary Note 1) A storage unit that captures and stores an image signal via the input unit;
A determining unit that determines a boundary line in the image of the first image signal stored in the storage unit and a non-operation area partitioned by the boundary line;
A detection unit for detecting a moving image in the second image signal stored in the storage unit;
A determination unit that determines a state of the moving body image with respect to the boundary line based on an overlapping relationship between the detected moving body image and the boundary line in the image of the second image signal;
A signal generator for generating a signal based on the determined state;
Including an information processing apparatus.
(Supplementary Note 2) When the detected moving body image does not penetrate the boundary line, the determination unit determines that the state of the moving body image is in the first state, and the detected moving body image is The information processing apparatus according to appendix 1, wherein the moving body image is determined to be in a second state when passing through the boundary line.
(Additional remark 3) The said determination part is located in the area | region which is not the said non-operation area | region beyond the said boundary line from the 1st position on the said detected moving body image located in the said non-operation area | region in the said 2nd image signal. The color of the pixel from the first position to the boundary line and the color of the pixel from the first position to the second position are within an allowable error range. If the color values are not the same, the moving image is determined to be in the first state, and the pixel color from the first position to the boundary line and the second position are determined. The information according to appendix 2, wherein the state of the moving image is determined to be in the second state when the pixel color has the same color value within an allowable error range. Processing equipment.
(Additional remark 4) The said determination part searches in a certain direction from a certain starting point in a temporary non-operation area | region in the image of the said 1st image signal, detects the boundary of the area | region of a specific color, When it is detected that the boundary of the color region exists at least within a certain distance range, a line formed by the boundary is extended, and the extended line is used as at least a part of the boundary line. The information processing apparatus according to any one of appendices 1 to 3, wherein the information processing apparatus is determined.
(Additional remark 5) The said determination part is based on the overlapping relationship of the said detected moving body image | video and the said boundary line in the image of a said 2nd image signal, when the detected moving body image | video is in a stationary state. The information processing apparatus according to any one of appendices 1 to 4, wherein the information processing apparatus determines a state of the moving body image.
(Supplementary Note 6) An image signal is captured via the input unit and stored in the storage unit.
Determining a boundary line in the image of the first image signal stored in the storage unit and a non-operation area partitioned by the boundary line;
Detecting a moving image in the second image signal stored in the storage unit;
Determining a state of the moving body image with respect to the boundary line based on an overlapping relationship between the detected moving body image and the boundary line in the image of the second image signal;
Generating a signal based on the determined state;
A program that causes an information processing apparatus to execute processing.

100、102 情報処理装置
112 プロセッサ
114 メモリ
116 入出力インタフェース
122 表示装置
124 スピーカ
126 入力部
128 記録媒体読み取り用のドライブ
130 ハードディスク・ドライブ
142 USBインタフェース
144 ネットワーク・インタフェース
1120 制御部
1122 設定部
1124 画像生成部
1126 領域決定部
1128 動体検出部
1130 動体静止判定部
1132 状態判定部
1134 信号発生部
DESCRIPTION OF SYMBOLS 100,102 Information processing apparatus 112 Processor 114 Memory 116 Input / output interface 122 Display apparatus 124 Speaker 126 Input part 128 Drive for recording medium reading 130 Hard disk drive 142 USB interface 144 Network interface 1120 Control part 1122 Setting part 1124 Image generation part DESCRIPTION OF SYMBOLS 1126 Area | region determination part 1128 Moving body detection part 1130 Moving body stationary determination part 1132 State determination part 1134 Signal generation part

Claims (5)

入力部を介して画像信号を取り込んで格納する記憶部と、
前記記憶部に格納された第1の画像信号の画像における境界線と、前記境界線によって区画される非操作領域とを決定する決定部と、
前記記憶部に格納された第2の画像信号における動体映像を検出する検出部と、
前記第2の画像信号の画像における前記検出された動体映像前記境界線を貫通しているかどうかに基づいて、前記境界線に対する前記動体映像の状態を判定する判定部と、
前記判定された状態に基づいて信号を発生する信号発生部と、
を含む、情報処理装置。
A storage unit for capturing and storing image signals via the input unit;
A determining unit that determines a boundary line in the image of the first image signal stored in the storage unit and a non-operation area partitioned by the boundary line;
A detection unit for detecting a moving image in the second image signal stored in the storage unit;
And wherein the detected moving object image in the image of the second image signal based on whether to penetrate the boundary line, judging section that judges the state of the moving object image with respect to the boundary line,
A signal generator for generating a signal based on the determined state;
Including an information processing apparatus.
前記判定部は、前記検出された動体映像が前記境界線を貫通していない場合には前記動体映像の状態が第1の状態にあると判定し、前記検出された動体映像が前記境界線を貫通している場合には前記動体映像の状態が第2の状態にあると判定するものであることを特徴とする、請求項1に記載の情報処理装置。   The determination unit determines that the state of the moving body image is in the first state when the detected moving body image does not penetrate the boundary line, and the detected moving body image indicates the boundary line. 2. The information processing apparatus according to claim 1, wherein if it is penetrating, it is determined that the state of the moving object image is in the second state. 前記決定部は、前記第1の画像信号の画像において仮の非操作領域における或る開始点から或る方向に探索して特定の色の領域の境界を検出し、前記特定の色の領域の前記境界が少なくとも或る距離の範囲において存在することが検出された場合に、前記境界によって形成される線を延長して、前記延長された線を前記境界線の少なくとも一部として決定するものであることを特徴とする、請求項1または2に記載の情報処理装置。   The determining unit detects a boundary of a specific color region by searching in a certain direction from a certain start point in the temporary non-operation region in the image of the first image signal, and detects the boundary of the specific color region. A line formed by the boundary is extended when it is detected that the boundary exists at least within a certain distance, and the extended line is determined as at least part of the boundary line; The information processing apparatus according to claim 1, wherein the information processing apparatus is provided. 前記判定部は、前記検出された動映像が静止状態にあった場合に、前記第2の画像信号の画像における前記検出された動体映像と前記境界線の重なり関係に基づいて、前記動体映像の状態を判定するものであることを特徴とする、請求項1乃至3のいずれかに記載の情報処理装置。 The determination unit, when the detected moving body image was in a stationary state, based on the overlapping relationship of the detected moving object image with the boundary line in the image of the second image signal, the moving object image The information processing apparatus according to claim 1, wherein the information processing apparatus determines a state of the information processing apparatus. 入力部を介して画像信号を取り込んで記憶部に格納し、
前記記憶部に格納された第1の画像信号の画像における境界線および前記境界線によって区画される非操作領域を決定し、
前記記憶部に格納された第2の画像信号における動体映像を検出し、
前記第2の画像信号の画像における前記検出された動体映像前記境界線を貫通しているかどうかに基づいて、前記境界線に対する前記動体映像の状態を判定し、
前記判定された状態に基づいて信号を発生する、
処理を情報処理装置に実行させるプログラム。
Capture the image signal via the input unit, store it in the storage unit,
Determining a boundary line in the image of the first image signal stored in the storage unit and a non-operation area partitioned by the boundary line;
Detecting a moving image in the second image signal stored in the storage unit;
Based on whether the detected moving object image in the image of the second image signal penetrates the boundary, to determine the status of the moving object image with respect to the boundary line,
Generating a signal based on the determined state;
A program that causes an information processing apparatus to execute processing.
JP2011002920A 2011-01-11 2011-01-11 Information processing apparatus and program Expired - Fee Related JP5696482B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011002920A JP5696482B2 (en) 2011-01-11 2011-01-11 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011002920A JP5696482B2 (en) 2011-01-11 2011-01-11 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2012147161A JP2012147161A (en) 2012-08-02
JP5696482B2 true JP5696482B2 (en) 2015-04-08

Family

ID=46790299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011002920A Expired - Fee Related JP5696482B2 (en) 2011-01-11 2011-01-11 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5696482B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6022331B2 (en) * 2012-12-05 2016-11-09 セコム株式会社 Camera system
JP6022330B2 (en) * 2012-12-05 2016-11-09 セコム株式会社 Camera system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001224011A (en) * 2000-02-04 2001-08-17 Hitachi Eng Co Ltd Abnormality supervisory method and system
US7200246B2 (en) * 2000-11-17 2007-04-03 Honeywell International Inc. Object detection
JP5099542B2 (en) * 2007-02-28 2012-12-19 学校法人東京電機大学 Operation record correctness proof system and method using camera
JP4588098B2 (en) * 2009-04-24 2010-11-24 善郎 水野 Image / sound monitoring system

Also Published As

Publication number Publication date
JP2012147161A (en) 2012-08-02

Similar Documents

Publication Publication Date Title
Fang et al. A deep learning-based method for detecting non-certified work on construction sites
Park et al. Hardhat-wearing detection for enhancing on-site safety of construction workers
Yang et al. Vision-based tower crane tracking for understanding construction activity
JP6912150B2 (en) Work support equipment, work support methods and programs
KR101562650B1 (en) Disaster detection system and providing method thereof
JP7464281B2 (en) Optical fiber sensing system, monitoring device, monitoring method, and program
EA018349B1 (en) Method for video analysis
US20230005176A1 (en) Throwing position acquisition method and apparatus, computer device and storage medium
US20210400240A1 (en) Image processing apparatus, image processing method, and computer readable medium
JP2010206475A (en) Monitoring support device, method thereof, and program
CN111368615B (en) Illegal building early warning method and device and electronic equipment
WO2020166057A1 (en) Optical fiber sensing system, activity identification device, activity identification method, and computer-readable medium
RU2713876C1 (en) Method and system for detecting alarm events when interacting with self-service device
KR101668555B1 (en) Method and apparatus for recognizing worker in working site image data
JP5696482B2 (en) Information processing apparatus and program
Ojha et al. Affordable multiagent robotic system for same-level fall hazard detection in indoor construction environments
US20230401941A1 (en) Monitoring system, monitoring apparatus, monitoring method, and computer readable medium
US20200050756A1 (en) Action monitoring apparatus, system, and method
WO2023104557A1 (en) Machine-learning for safety rule violation determination
JP6987902B2 (en) Controls, control methods and programs
JP2021060784A (en) Object detection device, system, method, and program
JP2022056219A (en) Information processor, method for processing information, and program
JP2021184163A (en) Learning device, crack detection device, learning method, and crack detection method
JP7247310B2 (en) CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM
CN105989343A (en) Detection device and method of seeing-eye dog

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150126

R150 Certificate of patent or registration of utility model

Ref document number: 5696482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees