JP2019109727A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2019109727A
JP2019109727A JP2017242532A JP2017242532A JP2019109727A JP 2019109727 A JP2019109727 A JP 2019109727A JP 2017242532 A JP2017242532 A JP 2017242532A JP 2017242532 A JP2017242532 A JP 2017242532A JP 2019109727 A JP2019109727 A JP 2019109727A
Authority
JP
Japan
Prior art keywords
signal
image processing
color
area
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017242532A
Other languages
Japanese (ja)
Other versions
JP6927015B2 (en
Inventor
晋司 上野
Shinji Ueno
晋司 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017242532A priority Critical patent/JP6927015B2/en
Publication of JP2019109727A publication Critical patent/JP2019109727A/en
Application granted granted Critical
Publication of JP6927015B2 publication Critical patent/JP6927015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • General Factory Administration (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing system capable of reducing the time and effort of initial setting when recognizing turning on and off of a signal tower by image processing.SOLUTION: An image processing system comprises: an imaging device for imaging a location where a plurality of signal towers 71 to 77 are installed; and an image processing apparatus communicably connected to the imaging device. The image processing system comprises: a storage unit for storing array data representing an array of stacked signal lights 71R, 71Y, 71G, 72R, 72Y, 72G, ... of respective colors in each of the signal towers 71 to 77; and a control unit for determining an image area in image data G2 of the signal lights 71R, 71Y, 71G, 72R, 72Y, 72G,... of the respective colors included in each of the signal towers 71 to 77 on the basis of the image data G2 obtained by imaging and the array data.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理システムおよび画像処理方法に関する。   The present invention relates to an image processing system and an image processing method.

従来、設備機械の状態等を表示する積層表示灯(以下、「シグナルタワー」とも称する)が知られている。シグナルタワーは、複数の信号灯が積層されて構成されている。   2. Description of the Related Art Conventionally, laminated indicator lights (hereinafter also referred to as "signal towers") for displaying the state of an installation machine and the like are known. The signal tower is configured by stacking a plurality of signal lights.

たとえば、特許文献1および特許文献2には、シグナルタワーをカメラで撮像することにより、当該シグナルタワーの点灯および消灯を認識する画像処理技術が知られている。   For example, Patent Document 1 and Patent Document 2 disclose image processing techniques for recognizing turning on and off of a signal tower by imaging the signal tower with a camera.

特開2002−358111号公報JP 2002-358111 A 特開2007−114967号公報JP, 2007-114967, A

シグナルタワーの点灯および消灯を画像処理で認識する場合、初期設定として、撮像対象となるシグナルタワーを構成する各信号灯の色情報(画素値)および各信号灯の画像データ内での領域(座標値)を画像処理装置に学習させる必要がある。複数台のシグナルタワーの点灯および消灯を画像処理で認識する場合、複数台分の学習処理が必要となる。このため、シグナルタワーの設置台数に応じて、初期設定の手間が増える。   When lighting and extinguishing of the signal tower are recognized by image processing, color information (pixel value) of each signal lamp constituting the signal tower to be imaged and an area (coordinate value) in image data of each signal lamp as initial setting Needs to be learned by the image processing apparatus. When the lighting and extinguishing of a plurality of signal towers are recognized by image processing, learning processing for a plurality of units is required. For this reason, the time and effort of initial setting increases according to the number of installed signal towers.

本発明は、上記の問題点に鑑みなされたものであって、その目的は、シグナルタワーの点灯および消灯を画像処理で認識する場合における初期設定の手間を低減することにある。   The present invention has been made in view of the above problems, and an object thereof is to reduce the time and effort of initial setting in the case of recognizing on and off of a signal tower by image processing.

本発明のある局面に従うと、画像処理システムは、複数の積層表示灯が設置された場所を撮像する撮像装置と、撮像装置に通信可能に接続された画像処理装置とを備える。画像処理装置は、各積層表示灯における各色の信号灯の積層の配列を表した配列データを記憶した記憶部と、撮像によって得られた第1の画像データと、配列データとに基づいて、各積層表示灯に含まれる各色の信号灯の第1の画像データ内での画像領域を決定する制御部とを有する。   According to an aspect of the present invention, an image processing system includes an imaging device for imaging a location where a plurality of laminated indicator lights are installed, and an image processing device communicably connected to the imaging device. The image processing apparatus is configured based on the storage unit storing the array data representing the array arrangement of the signal lights of each color in each laminated indicator light, the first image data obtained by imaging, and the array data. And a control unit that determines an image area in the first image data of the signal light of each color included in the display light.

上記の構成によれば、各積層表示灯に関して、制御部によって各色の信号灯の第1の画像データ内での画像領域が決定されるため、各積層表示灯の点灯および消灯を画像処理で認識する場合における初期設定の手間を低減することが可能となる。   According to the above configuration, the image area in the first image data of the signal light of each color is determined by the control unit with respect to each stacked display light, so that lighting and extinguishing of each stacked display light are recognized by image processing. It is possible to reduce the time and effort of initial setting in the case.

好ましくは、各積層表示灯は、各色の信号灯として、第1の色の第1の信号灯と、第1の信号灯に積層された第2の色の第2の信号灯とを含む。配列データは、第1の画像データ内において第1の信号灯の上側に第2の信号灯が位置することを規定している。記憶部は、第1の色に区分される第1の画素値と、第2の色に区分される第2の画素値とをさらに記憶している。制御部は、第1の画素値と第2の画素値と配列データとに基づき、第1の信号灯の第1の画像データ内での第1の画像領域と、第2の信号灯の第1の画像データ内での第2の画像領域とを決定する。   Preferably, each stacked indicator includes, as a signal light of each color, a first signal light of a first color, and a second signal light of a second color laminated to the first signal light. The array data defines that the second signal light is located above the first signal light in the first image data. The storage unit further stores a first pixel value divided into the first color and a second pixel value divided into the second color. The control unit is configured to, based on the first pixel value, the second pixel value, and the array data, generate a first image area in the first image data of the first signal light and a first image area of the second signal light. A second image area in the image data is determined.

上記の構成によれば、各積層表示灯に関して、制御部によって第1の色の信号灯と第2の色の信号灯との第1の画像データ内での画像領域が決定されるため、第1の信号灯と第2の信号灯との点灯および消灯を画像処理で認識する場合における初期設定の手間を低減することが可能となる。   According to the above configuration, the image area in the first image data of the signal light of the first color and the signal light of the second color is determined by the control unit for each stacked indicator light. It becomes possible to reduce the trouble of the initial setting in the case of recognizing the lighting and extinguishing of the signal lamp and the second signal lamp by image processing.

好ましくは、制御部は、複数の積層表示灯のうちの1つを撮像装置で撮像することによって得られた第2の画像データに基づいて、第1の色の画素値と第2の色の画素値とを算出する。制御部は、算出された第1の色の画素値を第1の画素値として記憶部に記憶させ、かつ算出された第2の色の画素値を第2の画素値として記憶部に登録させる。   Preferably, the control unit is configured to set the pixel value of the first color and the second color based on second image data obtained by imaging one of the plurality of stacked indicator lights with the imaging device. Calculate the pixel value. The control unit stores the calculated pixel value of the first color in the storage unit as a first pixel value, and registers the calculated pixel value of the second color in the storage unit as a second pixel value. .

上記の構成によれば、1つの積層表示灯の撮像によって、各色の信号灯の第1の画像データ内での画像領域を決定するために用いる、第1の画素値と第2の画素値とを算出することができる。   According to the above configuration, the first pixel value and the second pixel value used to determine the image area in the first image data of the signal light of each color by imaging of one stacked display light It can be calculated.

好ましくは、画像処理装置は、第2の画像データに基づいて、配列データを生成する。
上記の構成によれば、1つの積層表示灯の撮像によって、各色の信号灯の第1の画像データ内での画像領域を決定するために用いる、配列データを生成することが可能となる。
Preferably, the image processing device generates array data based on the second image data.
According to the above configuration, it is possible to generate array data used to determine the image area in the first image data of the signal light of each color by imaging one laminated display light.

好ましくは、第1の画素値および第2の画素値の各々は、色相と、彩度と、明度とで規定される。制御部は、第1の画素値の色相と第1の画像データにおける各画素の色相との第1の差異と、第2の画素値の色相と各画素の色相との第2の差異とを算出する。制御部は、配列データを用いて、第1の差異が予め定められた範囲内となる画素によって形成される領域のうちから第1の画像領域を抽出するとともに、第2の差異が予め定められた範囲内となる画素によって形成される領域のうちから第2の画像領域を抽出する。   Preferably, each of the first pixel value and the second pixel value is defined by hue, saturation, and lightness. The control unit determines a first difference between the hue of the first pixel value and the hue of each pixel in the first image data, and a second difference between the hue of the second pixel value and the hue of each pixel. calculate. The control unit uses the array data to extract the first image area from among the areas formed by the pixels in which the first difference falls within a predetermined range, and the second difference is determined in advance. The second image area is extracted from the area formed by the pixels within the range.

上記の構成によれば、色相を用いて、第1の信号灯の第1の画像データ内での第1の画像領域と、第2の信号灯の第1の画像データ内での第2の画像領域とを抽出するため、各積層表示灯の設置環境に応じた精度の高い領域抽出が可能となる。   According to the above configuration, using the hue, the first image area in the first image data of the first signal light and the second image area in the first image data of the second signal light Thus, it is possible to extract an area with high accuracy in accordance with the installation environment of each stacked indicator light.

好ましくは、制御部は、複数の積層表示灯のうちの第1の積層表示灯の第1の信号灯が点灯しているときの、当該第1の信号灯に対応する第1の画像領域内の各画素の画素値の平均値を、第1の積層表示灯の第1の信号灯の点灯時の基準色に設定する。制御部は、第1の積層表示灯の第1の信号灯が消灯しているときの、当該第1の信号灯に対応する第1の画像領域内の各画素の画素値の平均値を、第1の積層表示灯の第1の信号灯の消灯時の基準色に設定する。   Preferably, the control unit is configured to control each of the first image area corresponding to the first signal light when the first signal light of the first laminated signal light of the plurality of laminated signal lights is on. The average value of the pixel values of the pixels is set to the reference color when the first signal light of the first laminated display light is lit. The control unit is configured to set a first average value of pixel values of pixels in a first image area corresponding to the first signal light when the first signal light of the first stacked display light is turned off, It sets to the standard color at the time of light extinction of the 1st signal light of the lamination | stacking indicator light of this.

上記の構成によれば、第1の積層表示灯の第1の信号灯の点灯時の基準色と、第1の積層表示灯の第1の信号灯の消灯時の基準色とを、第1の積層表示灯の第1の信号灯の設置環境に応じた色に設定することが可能となる。   According to the above configuration, the reference color when the first signal light of the first laminated indicator light is turned on and the reference color when the first signal light of the first laminated indicator light is turned off are the first laminated It becomes possible to set to the color according to the installation environment of the 1st signal light of an indicator light.

好ましくは、制御部は、複数の積層表示灯のうちの第2の積層表示灯の第1の信号灯が点灯しているときの、当該第1の信号灯に対応する第1の画像領域内の各画素の画素値の平均値を、第2の積層表示灯の第1の信号灯の点灯時の基準色に設定する。制御部は、第2の積層表示灯の第1の信号灯が消灯しているときの、当該第1の信号灯に対応する第1の画像領域内の各画素の画素値の平均値を、第2の積層表示灯の第1の信号灯の消灯時の基準色に設定する。   Preferably, the control unit causes each of the first image areas corresponding to the first signal light to be lit when the first signal light of the second one of the plurality of laminated display lights is on. The average value of the pixel values of the pixels is set to the reference color when the first signal light of the second laminated display light is lit. The control unit is configured to, secondly, calculate an average value of pixel values of respective pixels in a first image area corresponding to the first signal light when the first signal light of the second laminated display light is extinguished. It sets to the standard color at the time of light extinction of the 1st signal light of the lamination | stacking indicator light of this.

上記の構成によれば、第2の積層表示灯の第1の信号灯の点灯時の基準色と、第2の積層表示灯の第1の信号灯の消灯時の基準色とを、第2の積層表示灯の第1の信号灯の設置環境に応じた色に設定することが可能となる。   According to the above configuration, the reference color when the first signal light of the second laminated indicator light is lit, and the reference color when the first signal lamp of the second laminated indicator light is unlit, It becomes possible to set to the color according to the installation environment of the 1st signal light of an indicator light.

好ましくは、制御部は、第1の積層表示灯の第1の信号灯の点灯時の基準色と消灯時の基準色とに基づき、第1の積層表示灯の第1の信号灯の点灯および消灯を判断する。   Preferably, the control unit turns on and off the first signal light of the first stacked indicator light based on the reference color when the first signal lamp of the first stacked indicator light is turned on and the reference color when the first signal light of the first stacked indicator light is turned off. to decide.

上記の構成によれば、第1の積層表示灯の第1の信号灯の点灯および消灯を正確に判断することが可能となる。   According to the above configuration, it is possible to accurately determine whether the first signal light of the first stacked display light is on or off.

本発明の他の局面に従うと、画像処理方法は、複数の積層表示灯が設置された場所を撮像する撮像装置から、場所の画像データを取得するステップと、取得された画像データと、各積層表示灯における各色の信号灯の積層の配列を表した配列データとに基づいて、各積層表示灯に含まれる各色の信号灯の画像データ内での画像領域を決定するステップとを備える。   According to another aspect of the present invention, an image processing method includes the steps of acquiring image data of a place from an imaging device for imaging a place where a plurality of laminated indicator lights are installed, acquired image data, and each lamination. Determining an image area in the image data of the signal light of each color included in each stacked display light, based on the array data representing the arrangement of the stacked layers of signal lights of each color in the display light.

上記の方法によれば、各積層表示灯に関して、制御部によって各色の信号灯の第1の画像データ内での画像領域が決定されるため、各積層表示灯の点灯および消灯を画像処理で認識する場合における初期設定の手間を低減することが可能となる。   According to the above method, for each stacked indicator, the image area in the first image data of the signal lamp of each color is determined by the control unit, so that the lighting and unlit of each stacked indicator can be recognized by image processing. It is possible to reduce the time and effort of initial setting in the case.

本発明によれば、各積層表示灯の点灯および消灯を画像処理で認識する場合における初期設定の手間を低減することが可能となる。   According to the present invention, it is possible to reduce the time and effort of initial setting when recognizing lighting and extinguishing of each stacked display lamp by image processing.

工場内の生産設備をカメラで撮像することにより得られた画像データを表した図である。It is a figure showing the image data obtained by imaging production equipment in a factory with a camera. 画像処理ステムのシステム構成例を表した図である。It is a figure showing the example of system composition of an image processing stem. 画像処理装置の機能的構成を説明するための機能ブロック図である。FIG. 2 is a functional block diagram for explaining a functional configuration of the image processing apparatus. 画像処理装置に含まれるハードウェアを示した構成図である。FIG. 2 is a block diagram showing hardware included in the image processing apparatus. 初期設定における処理の全体的な流れを表した図である。It is a figure showing the whole flow of processing in initialization. 画像データを生成する処理を説明するための図である。It is a figure for demonstrating the process which produces | generates image data. 事前設定の処理の流を説明するためのフロー図である。It is a flowchart for demonstrating the flow of a preset process. 学習データのデータ構造例を表した図である。It is a figure showing the example of a data structure of learning data. 全消灯時における領域の探索処理の流れを表したフロー図である。It is a flow figure showing the flow of the search processing of the field at the time of all the lights out. 全点灯時における領域の探索処理の流れを表したフロー図である。It is a flow figure showing the flow of the search processing of the field at the time of full lighting. 領域の探索の際に行う操作を説明するための図である。It is a figure for demonstrating the operation performed in the case of the search of an area | region. カメラによる撮像によって取得された画像データを表した図である。It is a figure showing the image data acquired by the imaging by a camera. 絞込処理の流れを説明するためのフロー図である。It is a flowchart for demonstrating the flow of narrowing-down process. 赤色の信号灯の領域を表した図である。It is a figure showing the field of the red signal light. 領域および検索対象色の本決定が終了した後に得られるデータテーブルを表した図である。It is a figure showing the data table obtained after final determination of a field and search object color is completed. 領域および探索対象色を本決定した後の確認画面を表した図である。It is a figure showing the confirmation screen after main determination of a field and search object color.

以下において、本発明の実施の形態について図面を参照しつつ説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについては詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description is not repeated about them.

§1 適用例
本例の画像処理システムは、複数のシグナルタワー(積層表示灯)が設置された場所を撮像するカメラと、カメラに通信可能に接続された画像処理装置とを備えている。カメラによる撮像により得られた画像データは、画像処理装置に格納される。
Section 1 Application Example The image processing system of the present embodiment includes a camera that captures an image of a place where a plurality of signal towers (stacked indicator lights) are installed, and an image processing apparatus communicably connected to the camera. Image data obtained by imaging with a camera is stored in the image processing apparatus.

図1は、工場内の生産設備をカメラで撮像することにより得られた画像データG2を表した図である。   FIG. 1 is a diagram showing image data G2 obtained by imaging a production facility in a factory with a camera.

図1を参照して、画像データG2には、一例として、被写体としての複数のシグナルタワー71〜77が含まれている。シグナルタワー71は、一例として、赤色信号灯71Rと、黄色信号灯71Yと、緑色信号灯71Gとを有する。シグナルタワー71では、上から順に、赤色信号灯71Rと黄色信号灯71Yと緑色信号灯71Gとが積層されている。   Referring to FIG. 1, image data G2 includes, as an example, a plurality of signal towers 71 to 77 as subjects. The signal tower 71 includes, as an example, a red signal light 71R, a yellow signal light 71Y, and a green signal light 71G. In the signal tower 71, a red signal lamp 71R, a yellow signal lamp 71Y, and a green signal lamp 71G are stacked in order from the top.

同様に、シグナルタワー72は、赤色信号灯72Rと、黄色信号灯72Yと、緑色信号灯72Gとを有する。シグナルタワー72では、上から順に、赤色信号灯72Rと黄色信号灯72Yと緑色信号灯72Gとが積層されている。また、シグナルタワー73〜77についても、上から順に、赤色信号灯と黄色信号灯と緑色信号灯とが積層されている。   Similarly, the signal tower 72 includes a red traffic light 72R, a yellow traffic light 72Y, and a green traffic light 72G. In the signal tower 72, a red traffic light 72R, a yellow traffic light 72Y, and a green traffic light 72G are stacked in order from the top. In addition, red signal lights, yellow signal lights, and green signal lights are stacked in order from the top of the signal towers 73 to 77.

なお、各シグナルタワー71〜77における信号灯の数および信号灯の配列(積層順序)は、一例であって、これに限定されるものではない。たとえば、あるシグナルタワーにおいては、上から順に、赤色信号灯と、黄色信号灯と、緑色信号灯と、青色信号灯との4つの信号灯が積層されていてもよい。   The number of signal lights and the arrangement (stacking order) of the signal lights in each of the signal towers 71 to 77 are an example, and the present invention is not limited thereto. For example, in a signal tower, four signal lights of a red light, a yellow light, a green light, and a blue light may be stacked in order from the top.

画像処理装置は、複数のシグナルタワー71〜77における各色の信号灯の積層の配列を表した配列データを記憶している。たとえば、画像処理装置は、シグナルタワー71については、上から順に、赤色信号灯71Rと、黄色信号灯71Yと、緑色信号灯71Gとが積層されていることを表すデータを記憶している。同様に、画像処理装置は、シグナルタワー72については、上から順に、赤色信号灯72Rと、黄色信号灯72Yと、緑色信号灯72Gとが積層されていることを表すデータを記憶している。   The image processing apparatus stores array data representing an array of stacked signal lights of each color in the plurality of signal towers 71-77. For example, the image processing apparatus stores, for the signal tower 71, data representing that the red signal lamp 71R, the yellow signal lamp 71Y, and the green signal lamp 71G are stacked in order from the top. Similarly, the image processing apparatus stores, for the signal tower 72, data representing that the red signal lamp 72R, the yellow signal lamp 72Y, and the green signal lamp 72G are stacked in order from the top.

画像処理装置は、カメラによる撮像によって得られた画像データG2と、配列データとに基づいて、各シグナルタワーに含まれる各色の信号灯の画像データG2内での画像領域を決定する。たとえば、画像処理装置は、シグナルタワー71については、赤色信号灯71Rの画像データG2内での領域711と、黄色信号灯71Yの画像データG2内での領域712と、緑色信号灯71Gの画像データG2内での領域713とを決定する。   The image processing apparatus determines an image area in the image data G2 of the signal lamp of each color included in each signal tower, based on the image data G2 obtained by imaging with the camera and the array data. For example, with regard to the signal tower 71, the image processing apparatus includes an area 711 in the image data G2 of the red traffic light 71R, an area 712 in the image data G2 of the yellow traffic light 71Y, and an image data G2 of the green traffic light 71G. And the area 713 of

このような構成によれば、画像処理装置は、配列データに基づいて、各シグナルタワー71〜77の各色の信号灯の画像データG2内での領域を決定することができる。   According to such a configuration, the image processing apparatus can determine the area in the image data G2 of the signal lights of the respective colors of the signal towers 71 to 77 based on the array data.

したがって、各シグナルタワー71〜77の各色の信号灯の画像データG2内での領域(座標値)を画像処理装置にユーザが入力する処理を省くことができる。それゆえ、シグナルタワーの点灯および消灯を画像処理で認識する場合における初期設定の手間を低減可能となる。   Therefore, it is possible to omit the process in which the user inputs the area (coordinate values) in the image data G2 of the signal lights of the respective colors of the signal towers 71 to 77 into the image processing apparatus. Therefore, it is possible to reduce the time and effort of initial setting in recognizing the lighting and extinguishing of the signal tower by image processing.

§2 構成例
<A.システム構成>
図2は、画像処理ステムのシステム構成例を表した図である。
22 Configuration example <A. System configuration>
FIG. 2 is a diagram showing an example of the system configuration of the image processing stem.

図2を参照して、画像処理システム1は、カメラ10と、画像処理装置30と、PLC(Programmable Logic Controller)40と、サーバ装置50と、ディスプレイ60とを備えている。工場90内には、複数のシグナルタワー71〜77が配置されている。なお、シグナルタワーの数は、特に限定されるものではない。   Referring to FIG. 2, the image processing system 1 includes a camera 10, an image processing device 30, a PLC (Programmable Logic Controller) 40, a server device 50, and a display 60. In the factory 90, a plurality of signal towers 71 to 77 are arranged. The number of signal towers is not particularly limited.

カメラ10は、工場90内に設置されている。カメラ10により、シグナルタワー71〜77を含む被写体が撮像される。なお、被写体には、生産設備、工場内の壁面、床面等も含まれる。   The camera 10 is installed in a factory 90. An object including the signal towers 71 to 77 is imaged by the camera 10. The subject also includes production equipment, wall surfaces in the factory, floor surfaces, and the like.

画像処理装置30は、カメラ10と通信可能に接続されている。画像処理装置30は、PLC40に通信可能に接続されている。PLC40は、上位の装置としてのサーバ装置50に通信可能に接続されている。   The image processing device 30 is communicably connected to the camera 10. The image processing apparatus 30 is communicably connected to the PLC 40. The PLC 40 is communicably connected to a server device 50 as a higher-level device.

画像処理装置30は、HMI(Human Machine Interface)としてのディスプレイ60に所定の画像を表示させる。典型的には、画像処理装置30は、カメラ10による撮像により得られた画像データ(たとえば、上述した画像データG2)に基づく画像をディスプレイ60に表示させる。   The image processing apparatus 30 displays a predetermined image on a display 60 as an HMI (Human Machine Interface). Typically, the image processing device 30 causes the display 60 to display an image based on image data (for example, the above-described image data G2) obtained by imaging with the camera 10.

このようなシステム構成において、画像処理装置30は、カメラ10から取得した画像データに基づき、シグナルタワーの初期設定と、初期設定後の実運用時におけるシグナルタワーの画像認証とを行う。当該画像認証として、各色の信号灯が点灯している状態であるか、あるいは消灯している状態であるかの判定処理が行なわれる。   In such a system configuration, the image processing apparatus 30 performs initial setting of the signal tower and image authentication of the signal tower in actual operation after the initial setting, based on the image data acquired from the camera 10. As the image authentication, it is determined whether the signal light of each color is on or off.

なお、以下では、説明の便宜上、複数のシグナルタワー71〜77のうちの任意のシグナルタワーを、「シグナルタワー70」とも称する。   In the following, for convenience of explanation, any one of the plurality of signal towers 71 to 77 is also referred to as a “signal tower 70”.

<B.画像処理装置>
次に、画像処理装置30の詳細について説明する。
<B. Image processing device>
Next, details of the image processing apparatus 30 will be described.

(b1.機能的構成)
図3は、画像処理装置30の機能的構成を説明するための機能ブロック図である。
(B1. Functional configuration)
FIG. 3 is a functional block diagram for explaining a functional configuration of the image processing apparatus 30. As shown in FIG.

図3を参照して、画像処理装置30は、制御部310と、記憶部320と、取得部330とを備える。   Referring to FIG. 3, the image processing apparatus 30 includes a control unit 310, a storage unit 320, and an acquisition unit 330.

取得部330は、カメラ10から画像データを取得する。
記憶部320には、初期設定の一部である事前設定に関するデータとして、画像データG1(図6参照)と、学習データD1(図8参照)とが格納されている。また、記憶部320には、事前設定以外の初期設定に関するデータとして、画像データG2(図1参照)と、データテーブルD2(図14参照)とが記憶される。
The acquisition unit 330 acquires image data from the camera 10.
In the storage unit 320, image data G1 (see FIG. 6) and learning data D1 (see FIG. 8) are stored as data related to presetting which is a part of the initial setting. Further, in the storage unit 320, image data G2 (see FIG. 1) and a data table D2 (see FIG. 14) are stored as data related to initial setting other than the presetting.

詳しくは、学習データD1は、画像データG1に基づき生成される。なお、画像データG1については後述する。データテーブルD2は、画像データG2と学習データD1とに基づき生成される。学習データD1は、上述した配列データを含む。学習データD1とデータテーブルD2とは、制御部310によって生成される。   Specifically, the learning data D1 is generated based on the image data G1. The image data G1 will be described later. The data table D2 is generated based on the image data G2 and the learning data D1. The learning data D1 includes the above-described sequence data. The learning data D1 and the data table D2 are generated by the control unit 310.

制御部310は、画像処理装置30の全体の動作を制御する。制御部310は、たとえば、シグナルタワーの初期設定と、初期設定後の実運用時におけるシグナルタワーの画像認証とを行う。また、制御部310は、カメラ10から取得した画像データと、配列データとに基づいて、各シグナルタワーに含まれる各色の信号灯の画像データG2内での画像領域を決定する。   The control unit 310 controls the overall operation of the image processing apparatus 30. The control unit 310 performs, for example, initial setting of the signal tower and image authentication of the signal tower in actual operation after the initial setting. Further, the control unit 310 determines an image area in the image data G2 of the signal lamp of each color included in each signal tower based on the image data acquired from the camera 10 and the array data.

制御部310は、事前設定部311と、探索対象色決定部312と、領域探索部313と、絞込処理部314と、表示制御部315とを有する。表示制御部315は、各種の画像をディスプレイ60に表示させる。事前設定部311と、探索対象色決定部312と、領域探索部313との各々によって実行される処理については、説明の便宜上、後述する。   The control unit 310 includes a presetting unit 311, a search target color determination unit 312, an area search unit 313, a narrowing processing unit 314, and a display control unit 315. The display control unit 315 causes the display 60 to display various images. The processing executed by each of the pre-setting unit 311, the search target color determination unit 312, and the area search unit 313 will be described later for the convenience of description.

なお、上記においては、制御部310が画像データG1に基づき学習データD1を生成する構成を例に挙げて説明したが、学習データD1はプリセットされたものであってもよい。この場合、画像処理装置30が画像データG1を取得する必要はなくなる。   In the above, the configuration in which the control unit 310 generates the learning data D1 based on the image data G1 has been described as an example, but the learning data D1 may be preset. In this case, the image processing device 30 does not have to acquire the image data G1.

以下では、画像処理装置30に含まれるハードウェアを説明した後、画像データG1の取得と、学習データD1の生成と、画像データG2の取得と、データテーブルD2の生成と、データテーブルD2を用いた処理とを、この順に説明する。   In the following, after the hardware included in the image processing apparatus 30 is described, acquisition of image data G1, generation of learning data D1, acquisition of image data G2, generation of data table D2, and data table D2 are used. The processes that have been performed will be described in this order.

(b2.ハードウェア構成)
図4は、画像処理装置30に含まれるハードウェアを示した構成図である。図4を参照して、画像処理装置30は、演算処理回路350と、メモリ360と、通信インターフェイス370とを備える。演算処理回路350は、メインプロセッサ351と、画像処理専用プロセッサ352とを有する。
(B2. Hardware configuration)
FIG. 4 is a block diagram showing hardware included in the image processing apparatus 30. As shown in FIG. Referring to FIG. 4, the image processing device 30 includes an arithmetic processing circuit 350, a memory 360, and a communication interface 370. The arithmetic processing circuit 350 has a main processor 351 and an image processing dedicated processor 352.

メモリ360は、たとえば、ROM361と、RAM362と、フラッシュメモリ363とを含んで構成される。なお、フラッシュメモリ363には、オペレーティングシステム、アプリケーションプログラム、各種のデータが記憶される。メモリ360(詳しくは、フラッシュメモリ363)は、図3に示した記憶部320に対応する。なお、メモリ360は、HDD(Hard Disk Drive)を備えて構成されていてもよい。   The memory 360 includes, for example, a ROM 361, a RAM 362, and a flash memory 363. The flash memory 363 stores an operating system, an application program, and various data. The memory 360 (specifically, the flash memory 363) corresponds to the storage unit 320 shown in FIG. The memory 360 may be configured to include an HDD (Hard Disk Drive).

なお、図3に示した、制御部310は、演算処理回路350がメモリ360に記憶されたオペレーティングシステムおよびアプリケーションプログラムを実行することにより実現される。なお、アプリケーションプログラムの実行の際には、メモリ360に記憶されている各種のデータ(たとえば、カメラ10から送られてきた画像データ)が参照される。   The control unit 310 illustrated in FIG. 3 is realized by the arithmetic processing circuit 350 executing the operating system and application program stored in the memory 360. When the application program is executed, various data (for example, image data sent from the camera 10) stored in the memory 360 are referred to.

メインプロセッサ351は、画像処理装置30の全体の動作を制御する。画像処理専用プロセッサ352は、カメラ10から送られてきた画像データに対して、予め定められた処理を実行する。なお、画像処理専用プロセッサ352の代わりに、画像処理を行うためのASIC(Application Specific Integrated Circuit)を備えていてもよい。   The main processor 351 controls the overall operation of the image processing apparatus 30. The image processing dedicated processor 352 executes predetermined processing on the image data sent from the camera 10. Note that, instead of the image processing dedicated processor 352, an application specific integrated circuit (ASIC) for performing image processing may be provided.

通信インターフェイス370は、外部装置(たとえば、カメラ10、PLC40)との通信を行なうためのものである。通信インターフェイス370は、図3の取得部330に対応する。   The communication interface 370 is for communicating with an external device (for example, the camera 10, the PLC 40). The communication interface 370 corresponds to the acquisition unit 330 of FIG.

なお、図4に示したハードウェア構成は、一例であって、これに限定されるものではない。   The hardware configuration shown in FIG. 4 is an example, and the present invention is not limited to this.

<C.設定処理>
図5は、初期設定における処理の全体的な流れを表した図である。
<C. Setting process>
FIG. 5 is a diagram showing an overall flow of processing in initialization.

図5を参照して、画像処理装置30の事前設定部311は、ステップS1において、事前設定処理を実行する。ステップS2において、画像処理装置30の探索対象色決定部312は、初期設定後の実運用で用いる複数の探索対象色(具体的には、画素値)の仮決定を行う。   Referring to FIG. 5, the presetting unit 311 of the image processing apparatus 30 executes presetting processing in step S1. In step S2, the search target color determination unit 312 of the image processing apparatus 30 temporarily determines a plurality of search target colors (specifically, pixel values) used in actual operation after the initial setting.

画素値としては、HSV色空間モデルにおける、色相(Hue)と、彩度(Saturation(またはChroma))と、明度(Value(または、Lightness,Brightness))との三つの成分を利用できる。なお、これに限らず、画素値として、RGBの三つの成分を用いてもよい。以下では、1つの画素の画素値を、HSVを用いて表す例を説明する。   As pixel values, three components in the HSV color space model can be used: hue (Hue), saturation (Saturation (or Chroma)), and lightness (Value (or Lightness, Brightness)). The present invention is not limited to this, and three components of RGB may be used as pixel values. Below, the example which represents the pixel value of one pixel using HSV is demonstrated.

ステップS3において、画像処理装置30の領域探索部313は、仮決定された各探索対象色を用いて、画像データG2内における領域の探索を行う。ステップS4において、画像処理装置30の絞込処理部314は、探索された領域において領域の絞り込みを行う。ステップS5において、画像処理装置30の探索対象色決定部312は、絞り込んだ領域に基づき座標(座標値)を決定するとともに、絞り込んだ領域における各画素の画素値に基づき、探索対象色を本決定する。   In step S3, the area search unit 313 of the image processing apparatus 30 searches for an area in the image data G2 using the temporarily determined search target colors. In step S4, the narrowing-down processing unit 314 of the image processing device 30 narrows down the area in the searched area. In step S5, the search target color determination unit 312 of the image processing apparatus 30 determines the coordinates (coordinate values) based on the narrowed area, and determines the search target color on the basis of the pixel value of each pixel in the narrowed area. Do.

以下ステップS1〜S5の詳細について説明する。
(c1.事前設定)
図5におけるステップS1の処理について説明する。
The details of steps S1 to S5 will be described below.
(C1. Preset)
The process of step S1 in FIG. 5 will be described.

図6は、画像データG1を生成する処理を説明するための図である。図6を参照して、ユーザは、カメラ10を用いて、モデルとなる1個のシグナルタワー70を撮像する。なお、シグナルタワー70は、赤色信号灯70Rと、黄色信号灯70Yと、緑色信号灯70Gとを有する。上述した撮像により、画像処理装置30は、シグナルタワー70を被写体として含む画像データG1を取得する。   FIG. 6 is a diagram for explaining the process of generating the image data G1. Referring to FIG. 6, the user uses camera 10 to image one signal tower 70 as a model. The signal tower 70 has a red signal lamp 70R, a yellow signal lamp 70Y, and a green signal lamp 70G. By the above-described imaging, the image processing apparatus 30 acquires image data G1 including the signal tower 70 as a subject.

詳しくは、各信号灯70R,70Y,70Gを点灯させた状態と、消灯させた状態とをカメラ10で撮像する。これにより、点灯時の画像データG1と、消灯時の画像データG1とが得られることになる。以下では、これらの撮像処理を含めた事前設定の流れを説明する。   Specifically, the camera 10 captures an image in which the signal lights 70R, 70Y, and 70G are turned on and a state in which the signal lights are turned off. Thereby, the image data G1 at the time of lighting and the image data G1 at the time of lighting off can be obtained. The flow of pre-setting including these imaging processes will be described below.

図7は、事前設定の処理の流を説明するためのフロー図である。
ステップS11において、ユーザは、モデルとなるシグナルタワー70の各信号灯70R,70Y,70Gを消灯させた状態で、当該モデルとなるシグナルタワー70をカメラ10で撮像する。画像処理装置30は、当該撮像により得られた消灯時の画像データG1を取得する。なお、モデルとなるシグナルタワー70は、工場90に設置されたシグナルタワーであってもよいし、同種のシグナルタワーであれば、それ以外のものであってもよい。
FIG. 7 is a flowchart for explaining the flow of preset processing.
In step S11, the user captures an image of the signal tower 70 serving as the model with the camera 10 in a state in which the respective signal lights 70R, 70Y, 70G of the signal tower 70 serving as the model are turned off. The image processing apparatus 30 acquires the image data G1 at the time of light-out obtained by the imaging. The signal tower 70 serving as a model may be a signal tower installed in the factory 90, or any other signal tower of the same type.

ステップS12において、画像処理装置30は、各々が消灯しているときの各信号灯70R,70Y,70Gの色情報(画素値(H,S,V))を学習する。ステップS13において、画像処理装置30は、消灯時の画像データG1を用いて、各信号灯70R,70Y,70Gの配列(上下の位置関係)を学習する。   In step S12, the image processing apparatus 30 learns color information (pixel values (H, S, V)) of the respective signal lights 70R, 70Y, 70G when the respective light is off. In step S13, the image processing apparatus 30 learns the arrangement (upper and lower positional relationship) of each of the signal lights 70R, 70Y, 70G using the image data G1 at the time of light off.

ステップS14において、ユーザは、モデルとなるシグナルタワー70の各信号灯70R,70Y,70Gを点灯させた状態で、当該モデルとなるシグナルタワー70をカメラ10で撮像する。画像処理装置30は、当該撮像により得られた点灯時の画像データG1を取得する。   In step S14, the user captures an image of the signal tower 70 serving as the model with the camera 10 in a state in which the signal lights 70R, 70Y, and 70G of the signal tower 70 serving as the model are turned on. The image processing apparatus 30 acquires the image data G1 at the time of lighting obtained by the imaging.

ステップS12において、画像処理装置30は、各々が点灯しているときの各信号灯70R,70Y,70Gの色情報(画素値(H,S,V))を学習する。   In step S12, the image processing apparatus 30 learns color information (pixel values (H, S, V)) of the respective signal lights 70R, 70Y, 70G when the respective light is on.

以上の処理により、画像処理装置30は、学習データD1を生成する。
なお、各信号灯70R,70Y,70Gの画素値(H,S,V)を学習する際、消灯時の画像データG1および点灯時の画像データG1に対して、ガウスぼかし等の画像処理を行なっておくことが好ましい。同じ色みの領域であっても、HSVの値にはかなりの相違が生じるためのである。
The image processing device 30 generates the learning data D1 by the above processing.
When learning the pixel values (H, S, V) of the signal lights 70R, 70Y, 70G, image processing such as Gaussian blurring is performed on the image data G1 at the time of turning off and the image data G1 at the time of turning on. Is preferable. This is because even in the same color area, considerable differences occur in the value of HSV.

図8は、学習データD1のデータ構造例を表した図である。
図8を参照して、学習データD1においては、モデルにしたシグナルタワー70のメーカ名と、型番と、各信号灯の色と、順序と、状態と、画素値と、色相(H)に関する許容誤差とが対応付けられている。本例の場合、学習データD1には、各信号灯の色として、「赤」と、「黄」と、「緑」とが格納される。
FIG. 8 is a view showing an example of the data structure of the learning data D1.
Referring to FIG. 8, in the learning data D1, the manufacturer's name of the signal tower 70 modeled, the model number, the color of each signal light, the order, the state, the pixel value, and the tolerance regarding the hue (H) And are associated with each other. In the case of this example, “red”, “yellow”, and “green” are stored in the learning data D1 as the color of each signal light.

また、学習データD1では、「赤」に対して、順序情報として、上から一番目を表す識別情報「1」が格納される。同様に、学習データD1では、「黄」に対して、順序情報として、上から二番目を表す識別情報「2」が格納される。また、学習データD1では、「緑」に対して、順序情報として、上から三番目を表す識別情報「3」が格納される。   Further, in the learning data D1, identification information "1" representing the first from the top is stored as the order information for "red". Similarly, in the learning data D1, identification information “2” representing the second from the top is stored as “order information” for “yellow”. Further, in the learning data D1, identification information “3” representing the third from the top is stored as “order information” for “green”.

学習データD1において、各信号灯70R,70Y,70Gについて、点灯時と消灯時とのHSV色空間における画素値が対応付けて格納される。たとえば、赤色の信号灯70Rについては、点灯時の画素値として、HSV=(H1,S1,V1)が対応付けられ、消灯時の画素値として、HSV=(H2,S2,V2)が対応付けられる。   In the learning data D1, for each of the signal lights 70R, 70Y, and 70G, pixel values in the HSV color space at the lighting time and at the lighting time out are stored in association with each other. For example, for the red traffic light 70R, HSV = (H1, S1, V1) is associated as a pixel value at lighting, and HSV = (H2, S2, V2) is associated as a pixel value at lighting off .

学習データD1においては、各画素値に対して、許容誤差が設定されている。詳しくは、HSV色空間においては、各画素値の色相に対して許容誤差が設定されている。本例の場合、各色相の値H1〜H6に対して、同じ値の許容誤差(±Hn)が対応付けられている。許容誤差は、典型的には、ユーザによって入力される。   In the learning data D1, an allowable error is set for each pixel value. Specifically, in the HSV color space, tolerance is set for the hue of each pixel value. In the case of this example, tolerance values (± Hn) of the same value are associated with the values H1 to H6 of the respective hues. Tolerances are typically input by the user.

なお、学習データD1における色と順序との対応付けの箇所の情報が、配列データの一例である。   The information on the location of the correspondence between the color and the order in the learning data D1 is an example of the array data.

以上のように、モデルにしたシグナルタワー70の撮像により、配列データを含む学習データD1を生成することが可能となる。   As described above, by imaging the signal tower 70 used as a model, it is possible to generate learning data D1 including array data.

なお、上述したように、学習データD1を生成することなく、メーカ毎かつ製品(型番)毎に、このようなデータを、画像処理装置30にプリセットさせておいてもよい。この場合には、ユーザは、メーカ名および型番を選択するユーザ操作を画像処理装置30に対して行うことにより、複数のプリセットデータの中から利用するプリセットデータを選択すればよい。   As described above, such data may be preset in the image processing apparatus 30 for each maker and each product (model number) without generating the learning data D1. In this case, the user may select preset data to be used from among a plurality of preset data by performing a user operation of selecting a maker name and a model number on the image processing apparatus 30.

(c2.検索対象色の仮決定)
次に、図5におけるステップS2の処理について説明する。
(C2. Temporary determination of search target color)
Next, the process of step S2 in FIG. 5 will be described.

図8に示したように、学習データD1が生成されると、画像処理装置30は、学習データD1を用いて探索対象色の仮決定を行う。画像処理装置30は、色相(H)、彩度(S)、明度(V)のうちの色相(H)のみに基づき、探索対象色を仮決定する。   As shown in FIG. 8, when the learning data D1 is generated, the image processing device 30 temporarily determines the search target color using the learning data D1. The image processing apparatus 30 temporarily determines the search target color based on only the hue (H) among the hue (H), the saturation (S), and the lightness (V).

具体的には、画像処理装置30は、学習データD1を参照し、点灯時の赤色の探索対象色を、H1−Hn≦H≦H1+Hnの条件を満たす色とする。また、画像処理装置30は、消灯時の赤色の探索対象色を、H2−Hn≦H≦H2+Hnの条件を満たす色とする。   Specifically, the image processing apparatus 30 refers to the learning data D1 and sets the red search target color at the time of lighting to a color satisfying the condition of H1-Hn ≦ H ≦ H1 + Hn. Further, the image processing device 30 sets the search target color of red when the light is off as a color satisfying the condition of H2-Hn ≦ H ≦ H2 + Hn.

同様に、画像処理装置30は、点灯時の黄色の探索対象色を、H3−Hn≦H≦H3+Hnの条件を満たす色とする。また、画像処理装置30は、消灯時の黄色の探索対象色を、H4−Hn≦H≦H4+Hnの条件を満たす色とする。   Similarly, the image processing apparatus 30 sets the yellow search target color at the time of lighting to a color that satisfies the condition H3-Hn ≦ H ≦ H3 + Hn. Further, the image processing apparatus 30 sets the yellow search target color at the time of turning off as the color satisfying the condition of H4-Hn ≦ H ≦ H4 + Hn.

さらに、画像処理装置30は、点灯時の緑色の探索対象色を、H5−Hn≦H≦H5+Hnの条件を満たす色とする。また、画像処理装置30は、消灯時の緑色の探索対象色を、H6−Hn≦H≦H6+Hnの条件を満たす色とする。   Furthermore, the image processing apparatus 30 sets the green search target color at the time of lighting as the color satisfying the condition of H5-Hn ≦ H ≦ H5 + Hn. Further, the image processing device 30 sets the green search target color at the time of turning off as the color satisfying the condition of H6-Hn ≦ H ≦ H6 + Hn.

探索対象色の仮決定に色相(H)のみを用いる理由は、工場90内の実環境では、彩度(S)および明度(V)については学習用データとは差異が大きくなる可能性があるためである。色相のみを用いることにより、精度の高い領域探索(抽出)が可能なる。   The reason why only hue (H) is used for temporary determination of the search target color is that, in a real environment in the factory 90, saturation (S) and lightness (V) may differ greatly from the learning data It is for. By using only the hue, highly accurate area search (extraction) is possible.

上記の条件をまとめると、以下のとおりである。
赤色の探索対象色(点灯時): H1−Hn≦H≦H1+Hn … (条件Q1)
赤色の探索対象色(消灯時): H2−Hn≦H≦H2+Hn … (条件Q2)
黄色の探索対象色(点灯時): H3−Hn≦H≦H3+Hn … (条件Q3)
黄色の探索対象色(消灯時): H4−Hn≦H≦H4+Hn … (条件Q4)
緑色の探索対象色(点灯時): H5−Hn≦H≦H5+Hn … (条件Q5)
緑色の探索対象色(消灯時): H6−Hn≦H≦H6+Hn … (条件Q6)
(c3.領域の検索)
次に、図5におけるステップS3の処理について説明する。以下では、各シグナルタワー70の各色の信号灯70R,70Y,70Gを一斉点灯させる場合と、個別に点灯させる場合とに分けて説明する。
The above conditions are summarized as follows.
Search target color of red (when lit): H1-Hn ≦ H ≦ H1 + Hn (condition Q1)
Search target color of red (when off): H2-Hn ≦ H ≦ H2 + Hn (condition Q2)
Yellow search target color (when lit): H3-Hn ≦ H ≦ H3 + Hn (Condition Q3)
Yellow search target color (when not lit): H4-Hn ≦ H ≦ H4 + Hn (condition Q4)
Green search target color (when lit): H5-Hn ≦ H ≦ H5 + Hn (condition Q5)
Search target color of green (when off): H6-Hn ≦ H ≦ H6 + Hn (condition Q6)
(C3. Search of area)
Next, the process of step S3 in FIG. 5 will be described. Below, the case where the signal lights 70R, 70Y, 70G of each color of each signal tower 70 are simultaneously lit and the case where they are individually lit will be described separately.

(1)一斉点灯
まず、各シグナルタワー70の各色の信号灯70R,70Y,70Gを消灯(全消灯)させた状態で、条件Q2,Q4,Q6を満たす領域の探索を行う。画像処理装置30は、全ての信号灯を消灯状態としたときに撮像された画像データをカメラ10から取得し、当該画像データ内において領域の探索を行う。
(1) Simultaneous lighting First, in a state where the signal lights 70R, 70Y and 70G of each color of each signal tower 70 are turned off (all off), a region satisfying the conditions Q2, Q4 and Q6 is searched. The image processing apparatus 30 acquires, from the camera 10, image data captured when all the signal lights are turned off, and searches for an area in the image data.

図9は、全消灯時における領域の探索処理の流れを表したフロー図である。
図9を参照して、ステップS31において、画像処理装置30は、1つの画素を選択する。ステップS32において、画像処理装置30は、選択された画素の画素値(詳しくは、色相(H))が、上述した条件Q2,Q4,Q6のいずれかの条件を満たすか否かを判断する。具体的には、画像処理装置30は、選択された画素の色相と、学習データD1に示した画素値における色相H2,H4,H6との差異が許容誤差±Hnの範囲内であるか否かを判断する。
FIG. 9 is a flow diagram showing a flow of area search processing when all the lights are off.
Referring to FIG. 9, in step S31, the image processing device 30 selects one pixel. In step S32, the image processing apparatus 30 determines whether the pixel value of the selected pixel (specifically, the hue (H)) satisfies any one of the conditions Q2, Q4, and Q6 described above. Specifically, the image processing apparatus 30 determines whether the difference between the hue of the selected pixel and the hues H2, H4 and H6 at the pixel value shown in the learning data D1 is within the range of the tolerance ± Hn. To judge.

画像処理装置30は、条件を満たすと判断した場合(ステップS32においてYES)、ステップS33において、座標と画素値(HSVの値)とを関連付けて記憶する。画像処理装置30は、条件を満たさないと判断した場合(ステップS32においてNO)、処理をステップS34に進める。   When it is determined that the condition is satisfied (YES in step S32), the image processing device 30 associates and stores coordinates and a pixel value (value of HSV) in step S33. If the image processing apparatus 30 determines that the condition is not satisfied (NO in step S32), the process proceeds to step S34.

ステップS34において、画像処理装置30は、全画素の判定が終了したか否かを判断する。画像処理装置30は、終了していないと判断した場合(ステップS34においてNO)、ステップS35において、次の画素を選択する。画素の選択は、典型的には、規則性を持って行われる。画像処理装置30は、たとえば、右隣の画素を選択したり、右隣の画素がない場合には次の行の一番左側の画素を選択する。   In step S34, the image processing apparatus 30 determines whether the determination of all the pixels is completed. If the image processing apparatus 30 determines that the process has not ended (NO in step S34), the image processing apparatus 30 selects the next pixel in step S35. The selection of pixels is typically performed with regularity. For example, the image processing apparatus 30 selects the pixel next to the right, or when there is no pixel next to the right, selects the pixel on the left side of the next row.

画像処理装置30は、全画素の判定が終了したと判断した場合(ステップS34においてYES)、ステップS36において、条件Q2,Q4,Q6毎に領域の仮決定を行う。典型的には、画像処理装置30は、条件Q2を満たした画素が集まっている領域と、条件Q4を満たした画素が集まっている領域と、条件Q6を満たした画素が集まっている領域とを決定する。なお、「条件を満たしている画素が集まっている領域」とは、典型的には、所定の割合以上、当該条件を満たした画素が含まれる領域を意味する。   If the image processing device 30 determines that the determination of all the pixels is completed (YES in step S34), the region is tentatively determined for each of the conditions Q2, Q4, and Q6 in step S36. Typically, image processing device 30 includes an area in which pixels satisfying condition Q2 are collected, an area in which pixels meeting condition Q4 are collected, and an area in which pixels satisfying condition Q6 are collected. decide. Note that “an area in which pixels satisfying the conditions are gathered” typically means an area in which pixels satisfying the conditions are included at a predetermined ratio or more.

次いで、各シグナルタワー70の各色の信号灯70R,70Y,70Gを点灯(全点灯)させた状態で、条件Q1,Q3,Q5を満たす領域の探索を行う。画像処理装置30は、全ての信号灯を点灯状態としたときに撮像された画像データをカメラ10から取得し、当該画像データ内において領域の探索を行う。   Next, in a state where the signal lights 70R, 70Y and 70G of the respective colors of the signal towers 70 are lit (full lighting), a search for an area satisfying the conditions Q1, Q3 and Q5 is performed. The image processing apparatus 30 acquires, from the camera 10, image data captured when all the signal lights are turned on, and searches for an area in the image data.

なお、画像処理装置30の上記の機器(サーバ装置50,PLC40)から全ての信号灯の点灯指示を受け付けることにより、全ての信号灯70R,70Y,70Gを点灯状態とすることができる。   In addition, by receiving the lighting instruction | indication of all the signal lights from said apparatus (server apparatus 50, PLC40) of the image processing apparatus 30, all the signal lights 70R, 70Y, and 70G can be made into a lighting state.

図10は、全点灯時における領域の探索処理の流れを表したフロー図である。
図10を参照して、ステップS31において、画像処理装置30は、1つの画素を選択する。ステップS32Aにおいて、画像処理装置30は、選択された画素の画素値(詳しくは、色相(H))が、上述した条件Q1,Q3,Q5のいずれかの条件を満たすか否かを判断する。具体的には、画像処理装置30は、選択された画素の色相と、学習データD1に示した画素値における色相H1,H3,H5との差異が許容誤差±Hnの範囲内であるか否かを判断する。
FIG. 10 is a flow diagram showing a flow of area search processing at the time of full lighting.
Referring to FIG. 10, in step S31, the image processing device 30 selects one pixel. In step S32A, the image processing apparatus 30 determines whether the pixel value (specifically, the hue (H)) of the selected pixel satisfies any one of the conditions Q1, Q3, and Q5 described above. Specifically, the image processing apparatus 30 determines whether the difference between the hue of the selected pixel and the hues H1, H3 and H5 at the pixel value shown in the learning data D1 is within the range of the tolerance ± Hn. To judge.

画像処理装置30は、条件を満たすと判断した場合(ステップS32AにおいてYES)、ステップS33において、座標と画素値(HSVの値)とを関連付けて記憶する。画像処理装置30は、条件を満たさないと判断した場合(ステップS32AにおいてNO)、処理をステップS34に進める。   When it is determined that the condition is satisfied (YES in step S32A), the image processing device 30 associates and stores coordinates and a pixel value (value of HSV) in step S33. If the image processing device 30 determines that the condition is not satisfied (NO in step S32A), the process proceeds to step S34.

ステップS34において、画像処理装置30は、全画素の判定が終了したか否かを判断する。画像処理装置30は、終了していないと判断した場合(ステップS34においてNO)、ステップS35において、次の画素を選択する。   In step S34, the image processing apparatus 30 determines whether the determination of all the pixels is completed. If the image processing apparatus 30 determines that the process has not ended (NO in step S34), the image processing apparatus 30 selects the next pixel in step S35.

画像処理装置30は、全画素の判定が終了したと判断した場合(ステップS34においてYES)、ステップS36において、条件Q1,Q3,Q5毎に領域の仮決定を行う。典型的には、画像処理装置30は、条件Q1を満たした画素が集まっている領域と、条件Q3を満たした画素が集まっている領域と、条件Q5を満たした画素が集まっている領域とを決定する。   If the image processing apparatus 30 determines that the determination of all the pixels is completed (YES in step S34), in step S36, the area is tentatively determined for each of the conditions Q1, Q3, and Q5. Typically, image processing device 30 includes an area in which pixels satisfying condition Q1 are collected, an area in which pixels meeting condition Q3 are collected, and an area in which pixels satisfying condition Q5 are collected. decide.

なお、上記のように一斉点灯を実施する構成の場合、条件Q1,Q3,Q5(あるいは、条件Q2,Q4,Q6)を満たした画素が集まっている領域が、どのシグナルタワー70のどの信号灯70R,70Y,70Gに対応する領域であるかを区別可能なように、ユーザ入力等による関連付けを行う必要がある。   In the case of the configuration in which simultaneous lighting is performed as described above, the area where the pixels meeting the conditions Q1, Q3 and Q5 (or the conditions Q2, Q4 and Q6) are gathered is which signal light 70R of which signal tower 70 , 70Y, and 70G, so as to be distinguishable from each other, it is necessary to perform association by user input or the like.

(2)個別点灯
次に、一斉点灯(一括制御)の代わりに、ユーザが各信号灯70R,Y,Gを個別に点灯させることにより、領域を決定する構成について説明する。
(2) Individual Lighting Next, instead of simultaneous lighting (collective control), a configuration will be described in which the user turns on each of the signal lights 70R, Y, G individually to determine the area.

図11は、領域の探索の際に行う操作を説明するための図である。
図11を参照して、カメラ10により、シグナルタワー71〜77を含む被写体の録画(動画像の撮像)を開始する。なお、録画開始時には、各シグナルタワー71〜77の各色の信号灯は消灯状態にあるものとする。
FIG. 11 is a diagram for describing an operation performed when searching for a region.
Referring to FIG. 11, recording of an object (image pickup of a moving image) including the signal towers 71 to 77 is started by the camera 10. At the start of recording, it is assumed that the signal lights of the respective colors of the signal towers 71 to 77 are in the off state.

ユーザは、シグナルタワー71の設置位置で赤色信号灯71Rを一時的に点灯させる操作を行なう。次いで、ユーザは、赤色信号灯71Rを消灯させた後、シグナルタワー71の黄色信号灯71Yを一時的に点灯させる操作を行なう。次いで、ユーザは、黄色信号灯71Yを消灯させた後、シグナルタワー71の緑色信号灯71Gを一時的に点灯させる操作を行なう。   The user performs an operation of temporarily lighting the red signal light 71R at the installation position of the signal tower 71. Next, the user turns off the red signal light 71R, and then temporarily turns on the yellow signal light 71Y of the signal tower 71. Next, the user turns off the yellow signal light 71Y, and then temporarily turns on the green signal light 71G of the signal tower 71.

その後、ユーザは、緑色信号灯71Gを消灯させた後、シグナルタワー72の設置位置で赤色信号灯72Rを一時的に点灯させる操作を行なう。次いで、ユーザは、赤色信号灯72Rを消灯させた後、シグナルタワー72の黄色信号灯72Yを一時的に点灯させる操作を行なう。次いで、ユーザは、黄色信号灯72Yを消灯させた後、シグナルタワー72の緑色信号灯72Gを一時的に点灯させる操作を行なう。   Thereafter, after turning off the green signal light 71G, the user performs an operation to temporarily turn on the red signal light 72R at the installation position of the signal tower 72. Next, the user turns off the red signal light 72R and then temporarily turns on the yellow signal light 72Y of the signal tower 72. Next, the user turns off the yellow signal light 72Y and then temporarily turns on the green signal light 72G of the signal tower 72.

その後、ユーザは、シグナルタワー73の設置位置で、上述した処理を繰り返す。さらに、ユーザは、シグナルタワー74〜77の設置位置で、上述した処理を繰り返す。   Thereafter, the user repeats the above-described process at the installation position of the signal tower 73. Furthermore, the user repeats the above process at the installation position of the signal towers 74-77.

図11の例の場合、期間T1において、シグナルタワー71の赤色信号灯71Rが点灯状態にある。つまり、録画データにおける期間T1の画像データは、少なくともシグナルタワー71の赤色信号灯71Rの点灯時の画像データである。そこで、画像処理装置30は、期間T1の画像データにおいて、点灯時の赤色の探索対象色の条件Q1を満たす領域を探索する。これにより、画像処理装置30は、条件Q1を満たした画素が集まっている領域を判定できる(ステップS36に対応)。   In the case of the example of FIG. 11, the red signal light 71R of the signal tower 71 is in the lighting state in the period T1. That is, the image data of the period T1 in the recording data is at least the image data when the red signal light 71R of the signal tower 71 is lit. Therefore, the image processing apparatus 30 searches for an area satisfying the condition Q1 of the red search target color at the time of lighting in the image data of the period T1. Thereby, the image processing apparatus 30 can determine the area in which the pixels satisfying the condition Q1 are gathered (corresponding to step S36).

さらに、画像処理装置30は、ユーザ入力等に基づき、条件Q1を満たした画素が集まっている領域を、シグナルタワー71の赤色信号灯71Rの領域に紐付けることも可能となる。   Furthermore, the image processing apparatus 30 can also associate the area where the pixels satisfying the condition Q1 are gathered with the area of the red signal light 71R of the signal tower 71 based on the user input or the like.

次に、画像処理装置30は、期間T2の画像データにおいて、点灯時の黄色の探索対象色の条件Q3を満たす領域を探索する。これにより、画像処理装置30は、条件Q3を満たした画素が集まっている領域を判定できる(ステップS36に対応)。さらに、画像処理装置30は、ユーザ入力等に基づき、条件Q3を満たした画素が集まっている領域を、シグナルタワー71の赤色信号灯71Yの領域に紐付けることも可能となる。   Next, the image processing apparatus 30 searches for an area satisfying the condition Q3 of the yellow search target color at the time of lighting in the image data of the period T2. Thereby, the image processing apparatus 30 can determine the area in which the pixels satisfying the condition Q3 are gathered (corresponding to step S36). Furthermore, the image processing apparatus 30 can also associate the area where the pixels satisfying the condition Q3 are gathered with the area of the red signal light 71Y of the signal tower 71 based on a user input or the like.

次に、画像処理装置30は、期間T3の画像データにおいて、点灯時の緑色の探索対象色の条件Q5を満たす領域を探索する。これにより、画像処理装置30は、条件Q5を満たした画素が集まっている領域を判定できる(ステップS36に対応)。さらに、画像処理装置30は、ユーザ入力等に基づき、条件Q5を満たした画素が集まっている領域を、シグナルタワー71の赤色信号灯71Gの領域に紐付けることも可能となる。   Next, the image processing apparatus 30 searches for an area satisfying the condition Q5 of the green search target color at the time of lighting in the image data of the period T3. Thus, the image processing apparatus 30 can determine an area in which pixels meeting the condition Q5 are collected (corresponding to step S36). Furthermore, the image processing apparatus 30 can also link the area where the pixels satisfying the condition Q5 are gathered to the area of the red signal light 71G of the signal tower 71 based on the user input or the like.

このような操作を、残りのシグナルタワー70においても順次実行することにより、条件Q1,Q3,Q5を満たした画素が集まっている領域が判断できる。さらに、これらの領域が、どのシグナルタワー70のどの信号灯70R,70Y,70Gに対応する領域であるかを区別可能となる。   By sequentially executing such operations in the remaining signal towers 70, it is possible to determine an area in which pixels meeting the conditions Q1, Q3 and Q5 are gathered. Furthermore, it becomes possible to distinguish which of these signal towers 70 corresponds to which signal lights 70R, 70Y and 70G.

また、何れの信号灯も点灯していない期間の画像データを利用することにより、条件Q2,Q4,Q6を満たした画素が集まっている領域も判断できる。さらに、上記に示した紐付け処理をこの場合にも実行することにより、これらの領域が、どのシグナルタワー70のどの信号灯70R,70Y,70Gに対応する領域であるかについても区別可能となる。   In addition, by using the image data in a period in which none of the signal lights are on, it is possible to determine an area in which pixels meeting the conditions Q2, Q4, and Q6 are gathered. Furthermore, by executing the above-described tying process also in this case, it is possible to distinguish whether these areas correspond to which signal lights 70R, 70Y, 70G of which signal tower 70.

(c4.絞り込み)
(1)配列データの利用
画像処理装置30は、上述した領域の検索処理によって仮決定された、条件Q1を満たした画素が集まっている領域と、条件Q3を満たした画素が集まっている領域と、条件Q5を満たした画素が集まっている領域とのうちから、領域の絞り込みを行う。まず、絞り込みを行う理由を説明する。
(C4. Narrow down)
(1) Use of Array Data The image processing apparatus 30 determines an area in which pixels meeting the condition Q1 and an area in which the pixels meeting the condition Q3 meet, which are temporarily determined by the above-described area search processing. The area is narrowed down from among the area in which the pixels satisfying the condition Q5 are gathered. First, the reason for narrowing down will be described.

図12は、カメラ10による撮像によって取得された画像データG2’を表した図である。   FIG. 12 is a diagram showing image data G2 'obtained by imaging with the camera 10. As shown in FIG.

図12を参照して、画像データG2’には、シグナルタワー70の信号灯ではない黄色の物体が含まれている。このため、画像処理装置30は、この物体の領域の色相(H)が条件Q3を満たす場合、この領域を黄色信号灯70Yの領域であると、誤検知してしまう。このような誤検知を排除するため、画像処理装置30は、学習データD1(図8参照)に含まれる配列データを利用する。   Referring to FIG. 12, the image data G2 'includes a yellow object which is not a signal light of the signal tower 70. Therefore, when the hue (H) of the area of the object satisfies the condition Q3, the image processing apparatus 30 erroneously detects that the area is an area of the yellow signal lamp 70Y. In order to eliminate such erroneous detection, the image processing device 30 uses the array data included in the learning data D1 (see FIG. 8).

図13は、絞込処理の流れを説明するためのフロー図である。
図13を参照して、ステップS41において、画像処理装置30は、条件Q1を満たした画素が集まっている領域(以下、「赤色の領域」とも称する)の周辺が、条件Q3を満たした画素が集まっている領域(以下、「黄色の領域」とも称する)であるか否かを判断する。赤色の領域は複数存在するため、画像処理装置30は、領域毎に上記の判断を実行する。
FIG. 13 is a flowchart for explaining the flow of the narrowing-down process.
Referring to FIG. 13, in step S41, in the image processing apparatus 30, the area around the area where pixels satisfying the condition Q1 are gathered (hereinafter also referred to as “red area”) is a pixel satisfying the condition Q3. It is determined whether or not it is a gathering area (hereinafter also referred to as "yellow area"). Since there are a plurality of red areas, the image processing apparatus 30 executes the above determination for each area.

画像処理装置30は、赤色の領域の周辺が黄色の領域であると判断した場合(ステップS41においてYES)、ステップS42において、当該赤色の領域を赤色信号灯70Rの領域として処理する。画像処理装置30は、赤色の領域の周辺が黄色の領域でないと判断した場合(ステップS41においてNO)、ステップS43において、当該赤色の領域を赤色信号灯70Rの領域ではないと判断する。このようにして、条件Q1を満たした画素が集まっている領域(赤色の領域)から、赤色信号灯70Rの領域を絞り込む。   If the image processing apparatus 30 determines that the area around the red area is a yellow area (YES in step S41), the image processing apparatus 30 processes the red area as an area of the red signal lamp 70R in step S42. If the image processing apparatus 30 determines that the area around the red area is not the yellow area (NO in step S41), it determines that the red area is not the area of the red signal light 70R in step S43. In this manner, the area of the red signal light 70R is narrowed from the area (the red area) in which the pixels satisfying the condition Q1 are collected.

ステップS44において、画像処理装置30は、条件Q3を満たした画素が集まっている領域(黄色の領域)の周辺が、条件Q1を満たした画素が集まっている領域(赤色の領域)と条件Q5を満たした画素が集まっている領域(以下、「緑色の領域」とも称する)であるか否かを判断する。黄色の領域は複数存在するため、画像処理装置30は、領域毎に上記の判断を実行する。   In step S44, the image processing apparatus 30 sets an area (red area) in which the pixels satisfying the condition Q1 are collected and a condition Q5 around the area (yellow area) in which the pixels satisfying the condition Q3 are collected. It is determined whether it is an area in which the filled pixels are gathered (hereinafter also referred to as a "green area"). Since there are a plurality of yellow areas, the image processing apparatus 30 executes the above determination for each area.

画像処理装置30は、黄色の領域の周辺が赤色の領域と緑色の領域とであると判断した場合(ステップS44においてYES)、ステップS45において、当該黄色の領域を黄色信号灯70Yの領域として処理する。画像処理装置30は、黄色の領域の周辺が赤色の領域と緑色の領域とではないと判断した場合(ステップS44においてNO)、ステップS46において、当該黄色の領域を黄色信号灯70Yの領域ではないと判断する。このようにして、条件Q3を満たした画素が集まっている領域(黄色の領域)から、黄色信号灯70Yの領域を絞り込む。   When it is determined that the periphery of the yellow area is the red area and the green area (YES in step S44), image processing device 30 processes the yellow area as the area of yellow signal lamp 70Y in step S45. . When the image processing apparatus 30 determines that the area around the yellow area is not the red area and the green area (NO in step S44), the yellow area is not the area of the yellow signal light 70Y in step S46. to decide. Thus, the area of the yellow traffic light 70Y is narrowed from the area (yellow area) in which the pixels satisfying the condition Q3 are collected.

ステップS47において、画像処理装置30は、条件Q5を満たした画素が集まっている領域(緑色の領域)の周辺が、条件Q3を満たした画素が集まっている領域(黄色の領域)であるか否かを判断する。緑色の領域は複数存在するため、画像処理装置30は、領域毎に上記の判断を実行する。   In step S47, the image processing apparatus 30 determines whether the periphery of the region (green region) in which the pixels satisfying the condition Q5 are collected is the region (yellow region) in which the pixels satisfying the condition Q3 are collected. To judge. Since there are a plurality of green areas, the image processing apparatus 30 executes the above determination for each area.

画像処理装置30は、緑色の領域の周辺が黄色の領域であると判断した場合(ステップS47においてYES)、ステップS42において、当該緑色の領域を緑色信号灯70Gの領域として処理する。画像処理装置30は、緑色の領域の周辺が黄色の領域でないと判断した場合(ステップS47においてNO)、ステップS49において、当該緑色の領域を緑色信号灯70Gの領域ではないと判断する。このようにして、条件Q5を満たした画素が集まっている領域(緑色の領域)から、緑色信号灯70Gの領域を絞り込む。   If the image processing apparatus 30 determines that the area around the green area is a yellow area (YES in step S47), the image processing apparatus 30 processes the green area as an area of the green signal lamp 70G in step S42. If the image processing device 30 determines that the area around the green area is not the yellow area (NO in step S47), it determines in step S49 that the green area is not the area of the green signal light 70G. Thus, the area of the green signal light 70G is narrowed from the area (green area) in which the pixels satisfying the condition Q5 are collected.

なお、上記においては、条件Q1を満たした画素が集まっている領域と、条件Q3を満たした画素が集まっている領域と、条件Q5を満たした画素が集まっている領域とのうちから領域の絞り込みを行ったが、これに限定されるものではない。画像処理装置30は、条件Q2を満たした画素が集まっている領域と、条件Q4を満たした画素が集まっている領域と、条件Q6を満たした画素が集まっている領域とのうちから、上述した領域の絞り込みを行ってもよい。   In the above, narrowing down of the area from among the area in which the pixels satisfying the condition Q1 are gathered, the area in which the pixels satisfying the condition Q3 are gathered, and the area in which the pixels satisfying the condition Q5 are gathered But it is not limited to this. The image processing apparatus 30 described above from among the region in which the pixels satisfying the condition Q2 are gathered, the region in which the pixels satisfying the condition Q4 are gathered, and the region in which the pixels satisfying the condition Q6 are gathered The area may be narrowed down.

(2)重複していない領域の排除
上述した絞込処理の精度を上げるために、以下の処理を併用してもよい。あるいは、上述した絞込処理の代わりに、以下の処理によって絞り込みを行なってもよい。
(2) Elimination of non-overlapping regions In order to improve the accuracy of the above-described narrowing process, the following process may be used in combination. Alternatively, instead of the above-described narrowing process, narrowing may be performed by the following process.

領域探索部313による上述した領域の探索処理(「(c3.領域の検索)」参照)において、画像処理装置30は、全消灯時において、条件Q2を満たした画素が集まっている領域と、条件Q4を満たした画素が集まっている領域と、条件Q6を満たした画素が集まっている領域とを決定した。さらに、画像処理装置30は、全点灯時において、条件Q1を満たした画素が集まっている領域と、条件Q3を満たした画素が集まっている領域と、条件Q5を満たした画素が集まっている領域とを決定した。   In the above-described area search process (see “(c3. Search of area)”) by the area search unit 313, the image processing apparatus 30 generates an area in which pixels meeting the condition Q2 are gathered when all the lights are off. An area in which pixels satisfying Q4 are gathered and an area in which pixels satisfying the condition Q6 are gathered are determined. Furthermore, the image processing apparatus 30 further includes an area in which pixels satisfying the condition Q1 are collected, an area in which pixels meeting the condition Q3 are collected, and an area in which pixels satisfying the condition Q5 are collected. And decided.

ところで、条件Q2を満たした画素が集まっている領域と、条件Q1を満たした画素が集まっている領域とは、大部分が重複しているはずである。同様に、条件Q4を満たした画素が集まっている領域と、条件Q3を満たした画素が集まっている領域とは、大部分が重複しているはずである。条件Q6を満たした画素が集まっている領域と、条件Q5を満たした画素が集まっている領域とは、大部分が重複しているはずである。   By the way, most of the area where the pixels satisfying the condition Q2 are gathered should overlap with the area where the pixels satisfying the condition Q1 are gathered. Similarly, the region in which the pixels satisfying the condition Q4 are gathered should be mostly overlapped with the region in which the pixels satisfying the condition Q3 are gathered. Most of the area in which the pixels satisfying the condition Q6 are gathered and the area in which the pixels satisfying the condition Q5 are gathered should overlap.

したがって、条件Q1を満たした画素が集まっている領域と、条件Q2を満たした画素が集まっている領域との重複領域を、赤色信号灯70Rの領域として処理してもよい。同様に、条件Q3を満たした画素が集まっている領域と、条件Q4を満たした画素が集まっている領域との重複領域を、黄色信号灯70Yの領域として処理してもよい。条件Q5を満たした画素が集まっている領域と、条件Q6を満たした画素が集まっている領域との重複領域を、緑色信号灯70Gの領域として処理してもよい。   Therefore, the overlapping area between the area in which the pixels satisfying the condition Q1 are collected and the area in which the pixels satisfying the condition Q2 are collected may be processed as the area of the red signal lamp 70R. Similarly, an overlapping area between the area in which the pixels satisfying the condition Q3 are collected and the area in which the pixels satisfying the condition Q4 are collected may be processed as the area of the yellow traffic light 70Y. An overlapping area between the area in which the pixels satisfying the condition Q5 are gathered and the area in which the pixels satisfying the condition Q6 are gathered may be processed as the area of the green signal lamp 70G.

(c5.領域および検索対象色の本決定)
次に、領域(座標)の本決定と検索対象色の本決定とについて説明する。
(This decision of c5. Area and search target color)
Next, the main determination of the area (coordinates) and the main determination of the search target color will be described.

図14は、赤色信号灯70Rの領域を表した図である。
図14を参照して、領域1301は、赤色信号灯70Rの領域として絞り込まれた領域を表している。領域1301は、通常は、不定型な外形を有する。画像処理装置30にとっては、定型な外形の領域の方がデータ処理に都合がよい。そこで、画像処理装置30は、領域1301内から、領域1301に内接する矩形状の領域1302を抽出する。
FIG. 14 is a diagram showing the area of the red signal lamp 70R.
Referring to FIG. 14, an area 1301 represents an area narrowed down as an area of the red signal lamp 70R. Region 1301 usually has an irregular outer shape. For the image processing apparatus 30, the area of the fixed outer shape is more convenient for data processing. Therefore, the image processing apparatus 30 extracts a rectangular area 1302 inscribed in the area 1301 from the area 1301.

画像処理装置30は、抽出された領域1302を検索対象領域に本決定する。なお、赤色信号灯70Rの領域として絞り込まれた領域は、赤色信号灯70Rの数(図1等の場合には7個)だけ存在するため、画像処理装置30は、当該領域毎に内接する矩形状の領域を抽出し、かつ抽出された領域1302を検索対象領域に本決定する。   The image processing apparatus 30 determines the extracted area 1302 as a search target area. The area narrowed down as the area of the red signal lamp 70R is the number of the red signal lights 70R (seven in the case of FIG. 1 etc.), so the image processing apparatus 30 has a rectangular shape inscribed in each area. An area is extracted, and the extracted area 1302 is determined as a search target area.

同様に、黄色信号灯70Yの領域として絞り込まれた領域と、緑色信号灯70Gの領域として絞り込まれた領域とに対しても、赤色信号灯70Rの領域として絞り込まれた領域に対して行った処理を実行する。   Similarly, for the area narrowed as the area of the yellow signal lamp 70Y and the area narrowed as the area of the green signal lamp 70G, the processing performed on the area narrowed as the area of the red signal lamp 70R is executed. .

これにより、シグナルタワー70毎に、画像データG2における各色信号灯70R,G,Bの領域(座標)が本決定(確定)する。   As a result, the areas (coordinates) of the respective color signal lights 70R, 70G, and 70B in the image data G2 are finally determined (fixed) for each signal tower 70.

次に、画像処理装置30は、下記のようにして検索対象色を本決定する。画像処理装置30は、上述した矩形領域に含まれる画素の画素値に基づいて、検索対象色を本決定する。具体的には、画像処理装置30は、各信号灯に関し、消灯していると判断するための検索対象色(以下、「消灯時の検索対象色」,「消灯時の基準色」とも称する)と、点灯していると判断するための検索対象色(以下、「点灯時の検索対象色」,「点灯時の基準色」とも称する)とを本決定する。   Next, the image processing apparatus 30 finally determines the search target color as follows. The image processing device 30 finally determines the search target color based on the pixel values of the pixels included in the above-described rectangular area. Specifically, the image processing apparatus 30 relates to a search target color (hereinafter also referred to as “search target color when turned off”, “reference color when turned off”) for determining that each signal light is turned off. Finally, a search target color (hereinafter also referred to as “search target color when lighted” and “reference color when light”) is determined.

より詳しくは、画像処理装置30は、図9のステップS33で関連付けて記憶された画素値に基づき、消灯時の検索対象色を決定する。また、画像処理装置30は、図10のステップS33で関連付けて記憶された画素値に基づき、点灯時の検索対象色を決定する。   More specifically, the image processing apparatus 30 determines a search target color at the time of turning off based on the pixel values stored in association in step S33 in FIG. Further, the image processing apparatus 30 determines the search target color at the time of lighting based on the pixel value stored in association in step S33 of FIG.

典型的には、画像処理装置30は、図9のステップS33で関連付けて記憶された画素値のうち矩形領域に含まれる画素の画素値の平均を算出する。具体的には、画像処理装置30は、矩形領域内の各画素の色相の平均と、矩形領域内の各画素の明度の平均と、矩形領域内の各画素の彩度の平均とを算出する。画像処理装置30は、画素の画素値の平均値を、消灯時の検索対象色に本決定する。なお、画像処理装置30は、矩形領域毎に、消灯時の検索対象色を本決定する。   Typically, the image processing device 30 calculates the average of the pixel values of the pixels included in the rectangular area among the pixel values stored in association in step S33 of FIG. Specifically, the image processing device 30 calculates the average of the hue of each pixel in the rectangular area, the average of the lightness of each pixel in the rectangular area, and the average of the saturation of each pixel in the rectangular area. . The image processing device 30 finally determines the average value of the pixel values of the pixels as the search target color when the light is turned off. The image processing apparatus 30 permanently determines the search target color at the time of turning off for each rectangular area.

同様に、画像処理装置30は、図10のステップS33で関連付けて記憶された画素値のうち矩形領域に含まれる画素の画素値の平均を算出する。具体的には、画像処理装置30は、矩形領域内の各画素の色相の平均と、矩形領域内の各画素の明度の平均と、矩形領域内の各画素の彩度の平均とを算出する。画像処理装置30は、画素の画素値の平均値を、点灯時の検索対象色に本決定する。なお、画像処理装置30は、矩形領域毎に、点灯時の検索対象色を本決定する。   Similarly, the image processing apparatus 30 calculates the average of the pixel values of the pixels included in the rectangular area among the pixel values stored in association in step S33 of FIG. Specifically, the image processing device 30 calculates the average of the hue of each pixel in the rectangular area, the average of the lightness of each pixel in the rectangular area, and the average of the saturation of each pixel in the rectangular area. . The image processing device 30 finally determines the average value of the pixel values of the pixels as the search target color at the time of lighting. Note that the image processing apparatus 30 permanently determines the search target color at the time of lighting, for each rectangular area.

矩形領域毎に上記の処理を行なう理由は、少なくとも、モデルとなるシグナルタワー70以外のシグナルタワー70は、学習時とは異なる環境に置かれるためである。また、各シグナルタワー70の設置位置も互いに異なるためである。   The reason for performing the above processing for each rectangular area is that at least signal towers 70 other than the signal tower 70 serving as a model are placed in an environment different from that at the time of learning. Further, the installation positions of the signal towers 70 are also different from each other.

特に、上記のように、色相のみならず、明度および彩度の平均を利用して検索対象色を本決定することにより、各シグナルタワー70の設置環境(場所)に影響する各種のファクタを考慮することが可能となる。それゆえ、画像処理装置30によれば、各信号灯の点灯と消灯との判定を精度よく実行することが可能となる。   In particular, as described above, various factors affecting the installation environment (place) of each signal tower 70 are taken into consideration by actually determining the search target color using not only the hue but also the average of lightness and saturation. It is possible to Therefore, according to the image processing device 30, it is possible to accurately determine whether the signal lights are on or off.

図15は、領域および検索対象色の本決定が終了した後に得られるデータテーブルD2(図3参照)を表した図である。   FIG. 15 is a diagram showing a data table D2 (see FIG. 3) obtained after the main determination of the region and the search target color is completed.

図15を参照して、データテーブルD2においては、シグナルタワー70の識別番号と、色と、座標と、状態と、画素値と、許容誤差とが対応付けられている。   Referring to FIG. 15, in the data table D2, the identification number of the signal tower 70, the color, the coordinates, the state, the pixel value, and the tolerance are associated.

座標は、本決定された領域を表している。一例として、当該領域は、矩形領域であるために、領域の左上の座標と、領域の右下の座標とがデータテーブルD2に格納される。   The coordinates represent the main determined area. As an example, since the area is a rectangular area, the upper left coordinates of the area and the lower right coordinates of the area are stored in the data table D2.

画素値は、本決定された検索対象色を表している。データテーブルD2においては、1番目のシグナルタワー70の赤色信号灯70R(たとえば、シグナルタワー71の信号灯71R)の点灯を判別するための画素値として、(H,S,V)=(H1’,S1’,V1’)が格納されている。データテーブルD2には、当該赤色信号灯70Rの消灯を判別するための画素値として、(H,S,V)=(H2’,S2’,V2’)が格納されている。   The pixel value represents the main determined search target color. In the data table D2, (H, S, V) = (H1 ′, S1) as pixel values for determining lighting of the red signal lamp 70R of the first signal tower 70 (for example, the signal lamp 71R of the signal tower 71). ', V1') is stored. In the data table D2, (H, S, V) = (H2 ', S2', V2 ') are stored as pixel values for determining the turning off of the red signal lamp 70R.

同様に、データテーブルD2には、1番目のシグナルタワー70の黄色信号灯70Yの点灯を判別するための画素値(H3’,S3’,V3’)および消灯を判別するための画素値(H4’,S4’,V4’)と、1番目のシグナルタワー70の緑色信号灯70Gの点灯を判別するための画素値(H5’,S5’,V5’)および消灯を判別するための画素値(H6’,S6’,V6’)とが格納されている。   Similarly, in the data table D2, pixel values (H3 ', S3', V3 ') for determining whether the yellow signal lamp 70Y of the first signal tower 70 is lit and pixel values (H4' for determining whether the yellow signal lamp 70Y is turned off). , S4 ', V4'), the pixel value (H5 ', S5', V5 ') for determining the lighting of the green signal lamp 70G of the first signal tower 70, and the pixel value (H6' for determining the lighting-off) , S6 ', V6') are stored.

また、データテーブルD2においては、色相と明度と彩度との各許容誤差が各画素値に対応付けて記憶されている。本例では、許容誤差が各画素値で一定の場合を例に挙げている。具体的には、色相の許容誤差が±Hnであり、明度の許容誤差が±Snであり、かつ彩度の許容誤差が±Vnである場合を例に挙げている。   Further, in the data table D2, each tolerance error of hue, lightness and saturation is stored in association with each pixel value. In this example, the case where the tolerance is constant at each pixel value is taken as an example. Specifically, the case where the hue tolerance is ± Hn, the lightness tolerance is ± Sn, and the saturation tolerance is ± Vn is described as an example.

画像処理装置30は、実運用時においては、データテーブルD2の情報を用いて、各シグナルタワー70の各信号灯70R,70Y,70Gが点灯状態にあるのか、消灯状態にあるのかを判別する。また、画像処理装置30は、点灯状態と消灯状態との時間間隔に基づき、各信号灯70R,70Y,70Gが点滅状態にあるのかも判断する。さらに、画像処理装置30は、シグナルタワー70における各信号灯の点灯および消灯に基づく、発光パターンも識別することもできる。   At the time of actual operation, the image processing apparatus 30 determines whether each signal light 70R, 70Y, 70G of each signal tower 70 is in the on state or in the off state using information in the data table D2. The image processing apparatus 30 also determines whether each of the signal lights 70R, 70Y and 70G is in the blinking state based on the time interval between the lighting state and the lighting state. Furthermore, the image processing device 30 can also identify a light emission pattern based on turning on and off of each signal light in the signal tower 70.

なお、上記においては、色相のみならず、明度と、彩度と、これらの誤差とを用いて、各シグナルタワー70の各信号灯70R,70Y,70Gが点灯状態にあるのか、消灯状態にあるのかを判別する構成を例に挙げて説明したが、これに限定されるものではない。明度および彩度を利用せずに、色相および色相の誤差のみを用いて、点灯状態と消灯状態とを判定するように、画像処理装置30を構成してもよい。   In the above, whether each of the signal lights 70R, 70Y and 70G of each signal tower 70 is on or off using not only hue but also lightness, saturation and their errors Although the configuration for determining is described as an example, the present invention is not limited to this. The image processing apparatus 30 may be configured to determine the on state and the off state using only hue and hue errors without using lightness and saturation.

(c6.確認操作)
図16は、領域および探索対象色を本決定した後の確認画面を表した図である。
(C6. Confirmation operation)
FIG. 16 is a diagram showing a confirmation screen after the area and the search target color are finally determined.

図16を参照して、画像処理装置30は、図5に示したステップS1〜S5のプロセスを経て、図15に示すデータテーブルD2に示すデータを得たのち、ユーザに対して確認とエディットとを促す画面出力を行う。画像処理装置30は、撮像された画像と、識別したシグナルタワーの位置を示す枠を透過合成した画面をディスプレイ60に表示させる。   Referring to FIG. 16, image processing device 30 obtains data shown in data table D2 shown in FIG. 15 through the process of steps S1 to S5 shown in FIG. Perform screen output prompting The image processing device 30 causes the display 60 to display a screen on which the captured image and the frame indicating the position of the identified signal tower are transparently synthesized.

詳しくは、画像処理装置30は、識別結果が正しければユーザが確定処理を行なえ、かつ正しくなければHMI操作によって補正を行える画面Zを、ディスプレイ60に表示する。なお、ユーザは、確定処理の際には、画面タップまたはマウス操作によって確定ボタン1501を選択すればよい。また、補正のためのHMI操作としては、正しくない枠を画面タップする操作、またはカーソル1503の移動を含むマウス操作によって当該枠を選択する操作等が挙げられる。   Specifically, the image processing apparatus 30 displays on the display 60 a screen Z on which the user can perform the determination processing if the identification result is correct, and can perform the correction by the HMI operation if the identification result is not correct. Note that the user may select the enter button 1501 by screen tap or mouse operation at the time of entry processing. The HMI operation for correction includes an operation of tapping an incorrect frame on the screen, or an operation of selecting the frame by a mouse operation including the movement of the cursor 1503.

また、画像処理装置30は、設定されている許容誤差を表示し、ユーザが当該許容誤差を任意に変更可能である。元となる色情報が大きく異なっていることなどが理由により許容誤差の設定では対処できない場合には、ユーザは、キャンセルボタン1502の選択操作によりステップS1の事前設定に戻って再度やり直すことができる。   Further, the image processing device 30 displays the set tolerance, and the user can arbitrarily change the tolerance. In the case where the setting of the tolerance can not be dealt with because the original color information is largely different or the like, the user can return to the pre-setting of step S1 and perform again by the selection operation of the cancel button 1502.

<D.付記>
〔構成1〕
複数の積層表示灯が設置された場所を撮像する撮像装置(10)と、
前記撮像装置(10)に通信可能に接続された画像処理装置(30)とを備え、
前記画像処理装置(30)は、
各前記積層表示灯(70)における各色の信号灯(70R,70,Y,70G)の積層の配列を表した配列データを記憶した記憶部(320)と、
前記撮像によって得られた第1の画像データ(G2)と、前記配列データとに基づいて、各前記積層表示灯(70)に含まれる前記各色の信号灯の前記第1の画像データ(G2)内での画像領域を決定する制御部(310)とを有する、画像処理システム。
<D. Appendices>
[Configuration 1]
An imaging device (10) for imaging a place where a plurality of stacked indicator lights are installed;
An image processing device (30) communicably connected to the imaging device (10);
The image processing device (30)
A storage unit (320) storing arrangement data representing an arrangement of laminations of signal lights (70R, 70, Y, 70G) of respective colors in each of the laminated indicator lights (70);
Within the first image data (G2) of the signal light of each color included in each of the stacked indicator lights (70) based on the first image data (G2) obtained by the imaging and the array data And a control unit (310) for determining an image area in the image processing system.

〔構成2〕
各前記積層表示灯(70)は、前記各色の信号灯として、第1の色の第1の信号灯(70Y)と、前記第1の信号灯(70Y)に積層された第2の色の第2の信号灯(70R)とを含み、
前記配列データは、前記第1の画像データ内において前記第1の信号灯(70Y)の上側に前記第2の信号灯(70R)が位置することを規定しており、
前記記憶部(320)は、前記第1の色に区分される第1の画素値と、第2の色に区分される第2の画素値とをさらに記憶しており、
前記制御部(310)は、前記第1の画素値と前記第2の画素値と前記配列データとに基づき、前記第1の信号灯(70Y)の前記第1の画像データ内での第1の画像領域と、前記第2の信号灯(70R)の前記第1の画像データ内での第2の画像領域とを決定する、構成1に記載の画像処理システム。
[Configuration 2]
Each of the stacked indicator lamps (70) is a first signal lamp (70Y) of a first color and a second signal lamp of a second color laminated to the first signal lamp (70Y) as the signal lamps of the respective colors. Including signal lights (70R),
The arrangement data defines that the second signal lamp (70R) is positioned above the first signal lamp (70Y) in the first image data,
The storage unit (320) further stores the first pixel value divided into the first color and the second pixel value divided into the second color,
The control unit (310) generates a first signal in the first image data of the first signal light (70Y) based on the first pixel value, the second pixel value, and the arrangement data. The image processing system according to configuration 1, wherein an image area and a second image area in the first image data of the second signal light (70R) are determined.

〔構成3〕
前記制御部(310)は、
前記複数の積層表示灯(70)のうちの1つを前記撮像装置(10)で撮像することによって得られた第2の画像データ(G1)に基づいて、前記第1の色の画素値と前記第2の色の画素値とを算出し、
算出された前記第1の色の画素値を前記第1の画素値として前記記憶部(320)に記憶させ、かつ算出された前記第2の色の画素値を前記第2の画素値として前記記憶部(320)に登録させる、構成2に記載の画像処理システム。
[Configuration 3]
The control unit (310)
And pixel values of the first color based on second image data (G1) obtained by imaging the one of the plurality of stacked indicator lights (70) with the imaging device (10). Calculating the pixel value of the second color;
The calculated pixel value of the first color is stored in the storage unit (320) as the first pixel value, and the calculated pixel value of the second color is used as the second pixel value. The image processing system according to Configuration 2, which is registered in the storage unit (320).

〔構成4〕
前記画像処理装置(30)は、前記第2の画像データ(G1)に基づいて、前記配列データを生成する、構成3に記載の画像処理システム。
[Configuration 4]
The image processing system according to Configuration 3, wherein the image processing apparatus (30) generates the array data based on the second image data (G1).

〔構成5〕
前記第1の画素値および前記第2の画素値の各々は、色相と、彩度と、明度とで規定され、
前記制御部(310)は、
前記第1の画素値の色相と前記第1の画像データにおける各画素の色相との第1の差異と、前記第2の画素値の色相と各前記画素の色相との第2の差異とを算出し、
前記配列データを用いて、前記第1の差異が予め定められた範囲内となる前記画素によって形成される領域のうちから前記第1の画像領域を抽出するとともに、前記第2の差異が前記予め定められた範囲内となる前記画素によって形成される領域のうちから前記第2の画像領域を抽出する、構成2から4のいずれか1項に記載の画像処理システム。
[Configuration 5]
Each of the first pixel value and the second pixel value is defined by hue, saturation, and lightness.
The control unit (310)
A first difference between the hue of the first pixel value and the hue of each pixel in the first image data, and a second difference between the hue of the second pixel value and the hue of each pixel Calculate
The first image area is extracted from among areas formed by the pixels in which the first difference falls within a predetermined range using the array data, and the second difference is determined in advance The image processing system according to any one of Configurations 2 to 4, wherein the second image area is extracted from an area formed by the pixels which falls within a defined range.

〔構成6〕
前記制御部(310)は、
前記複数の積層表示灯(70)のうちの第1の積層表示灯(71)の前記第1の信号灯(70Y)が点灯しているときの、当該第1の信号灯(70Y)に対応する前記第1の画像領域内の各画素の画素値の平均値を、前記第1の積層表示灯(71)の前記第1の信号灯(70Y)の点灯時の基準色に設定し、
前記第1の積層表示灯(71)の前記第1の信号灯(70Y)が消灯しているときの、当該第1の信号灯(70Y)に対応する前記第1の画像領域内の各画素の画素値の平均値を、前記第1の積層表示灯(71)の前記第1の信号灯(70Y)の消灯時の基準色に設定する、構成5に記載の画像処理システム。
[Configuration 6]
The control unit (310)
The first signal lamp (70Y) of the first laminated signal lamp (71) among the plurality of laminated signal lamps (70) is lit, the corresponding to the first signal lamp (70Y) The average value of the pixel values of the respective pixels in the first image area is set to the reference color when the first signal lamp (70Y) of the first laminated indicator lamp (71) is lit,
A pixel of each pixel in the first image area corresponding to the first signal light (70Y) when the first signal light (70Y) of the first stacked display light (71) is extinguished The image processing system according to configuration 5, wherein an average value of the values is set to a reference color when the first signal light (70Y) of the first stacked display light (71) is extinguished.

〔構成7〕
前記制御部(310)は、
前記複数の積層表示灯(70)のうちの第2の積層表示灯(72)の前記第1の信号灯(70Y)が点灯しているときの、当該第1の信号灯(70Y)に対応する前記第1の画像領域内の各画素の画素値の平均値を、前記第2の積層表示灯(72)の前記第1の信号灯(70Y)の点灯時の基準色に設定し、
前記第2の積層表示灯(72)の前記第1の信号灯(70Y)が消灯しているときの、当該第1の信号灯(70Y)に対応する前記第1の画像領域内の各画素の画素値の平均値を、前記第2の積層表示灯(72)の前記第1の信号灯(70Y)の消灯時の基準色に設定する、構成6に記載の画像処理システム。
[Configuration 7]
The control unit (310)
When the first signal light (70Y) of the second stacked display light (72) of the plurality of stacked display lights (70) is on, the above corresponding to the first signal light (70Y) The average value of the pixel values of the respective pixels in the first image area is set to the reference color when the first signal lamp (70Y) of the second laminated indicator lamp (72) is lit,
A pixel of each pixel in the first image area corresponding to the first signal light (70Y) when the first signal light (70Y) of the second stacked display light (72) is extinguished The image processing system according to configuration 6, wherein an average value is set to a reference color when the first signal light (70Y) of the second stacked display light (72) is extinguished.

〔構成8〕
前記制御部(310)は、前記第1の積層表示灯(71)の前記第1の信号灯(70Y)の点灯時の基準色と消灯時の基準色と基づき、前記第1の積層表示灯(71)の前記第1の信号灯(70Y)の点灯および消灯を判断する、構成6または7に記載の画像処理システム。
[Configuration 8]
The control unit (310) is configured to set the first stacked indicator light based on a reference color when the first signal lamp (70Y) of the first stacked indicator light (71) is turned on and a reference color when the first signal 71. The image processing system according to configuration 6 or 7, wherein it is determined whether the first signal light (70Y) is turned on or off.

〔構成9〕
複数の積層表示灯(70)が設置された場所を撮像する撮像装置(10)から、前記場所の画像データを取得するステップと、
取得された前記画像データと、各前記積層表示灯(70)における各色の信号灯の積層の配列を表した配列データとに基づいて、各前記積層表示灯(70)に含まれる前記各色の信号灯の前記画像データ内での画像領域を決定するステップとを備える、画像処理方法。
[Configuration 9]
Acquiring image data of the place from an imaging device (10) for imaging a place where a plurality of stacked indicator lights (70) are installed;
The signal light of each of the colors included in each of the stacked display lights (70) based on the acquired image data and the array data representing the arrangement of stacked layers of the signal lights of each color in each of the stacked display lights (70) Determining an image area within the image data.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiments disclosed herein are illustrative and non-restrictive in every respect. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

1 画像処理システム、10 カメラ、30 画像処理装置、40 PLC、50 サーバ装置、60 ディスプレイ、70〜77 シグナルタワー、70R,71R,72R 赤色信号灯、70Y,71Y,72Y 黄色信号灯、70G,71G,72G 黄色信号灯、310 制御部、311 事前設定部、312 探索対象色決定部、313 領域探索部、314 絞込処理部、315 表示制御部、320 記憶部、330 取得部、350 演算処理回路、351 メインプロセッサ、352 画像処理専用プロセッサ、360 メモリ、361 ROM、362 RAM、363 フラッシュメモリ、370 通信インターフェイス、711,712,713,1301,1302 領域、1501 確定ボタン、1502 キャンセルボタン、1503 カーソル、D1 学習データ、D2 データテーブル、G1,G2 画像データ。   Reference Signs List 1 image processing system, 10 cameras, 30 image processing devices, 40 PLCs, 50 server devices, 60 displays, 70 to 77 signal towers, 70R, 71R, 72R red signal lights, 70Y, 71Y, 72Y yellow signal lights, 70G, 71G, 72G Yellow traffic light, 310 control unit, 311 preset unit, 312 search target color determination unit, 313 area search unit, 314 narrowing processing unit, 315 display control unit, 320 storage unit, 330 acquisition unit, 350 arithmetic processing circuit, 351 main Processor, 352 processor dedicated to image processing, 360 memory, 361 ROM, 362 RAM, 363 flash memory, 370 communication interface, 711, 712, 713, 1301, 1302 area, 1501 confirmation button, 1502 cancel button, 15 03 Cursor, D1 learning data, D2 data table, G1, G2 image data.

Claims (9)

複数の積層表示灯が設置された場所を撮像する撮像装置と、
前記撮像装置に通信可能に接続された画像処理装置とを備え、
前記画像処理装置は、
各前記積層表示灯における各色の信号灯の積層の配列を表した配列データを記憶した記憶部と、
前記撮像によって得られた第1の画像データと、前記配列データとに基づいて、各前記積層表示灯に含まれる前記各色の信号灯の前記第1の画像データ内での画像領域を決定する制御部とを有する、画像処理システム。
An imaging device for imaging a place where a plurality of stacked indicator lights are installed;
An image processing apparatus communicably connected to the imaging apparatus;
The image processing apparatus is
A storage unit storing arrangement data representing an arrangement of laminations of signal lights of each color in each of the laminated indicator lights;
A control unit that determines an image area in the first image data of the signal light of each color included in each stacked display light based on the first image data obtained by the imaging and the array data And an image processing system.
各前記積層表示灯は、前記各色の信号灯として、第1の色の第1の信号灯と、前記第1の信号灯に積層された第2の色の第2の信号灯とを含み、
前記配列データは、前記第1の画像データ内において前記第1の信号灯の上側に前記第2の信号灯が位置することを規定しており、
前記記憶部は、前記第1の色に区分される第1の画素値と、第2の色に区分される第2の画素値とをさらに記憶しており、
前記制御部は、前記第1の画素値と前記第2の画素値と前記配列データとに基づき、前記第1の信号灯の前記第1の画像データ内での第1の画像領域と、前記第2の信号灯の前記第1の画像データ内での第2の画像領域とを決定する、請求項1に記載の画像処理システム。
Each of the stacked indicator lamps includes a first signal lamp of a first color and a second signal lamp of a second color laminated to the first signal lamp as the signal lights of the respective colors;
The arrangement data defines that the second signal light is positioned above the first signal light in the first image data,
The storage unit further stores a first pixel value divided into the first color and a second pixel value divided into the second color,
The control unit is configured to select a first image area in the first image data of the first signal light based on the first pixel value, the second pixel value, and the arrangement data. The image processing system according to claim 1, wherein a second image area in the first image data of two signal lights is determined.
前記制御部は、
前記複数の積層表示灯のうちの1つを前記撮像装置で撮像することによって得られた第2の画像データに基づいて、前記第1の色の画素値と前記第2の色の画素値とを算出し、
算出された前記第1の色の画素値を前記第1の画素値として前記記憶部に記憶させ、かつ算出された前記第2の色の画素値を前記第2の画素値として前記記憶部に登録させる、請求項2に記載の画像処理システム。
The control unit
The pixel value of the first color and the pixel value of the second color based on second image data obtained by the imaging device capturing one of the plurality of stacked display lights Calculate
The calculated pixel value of the first color is stored in the storage unit as the first pixel value, and the calculated pixel value of the second color is stored in the storage unit as the second pixel value. The image processing system according to claim 2, wherein registration is performed.
前記画像処理装置は、前記第2の画像データに基づいて、前記配列データを生成する、請求項3に記載の画像処理システム。   The image processing system according to claim 3, wherein the image processing device generates the array data based on the second image data. 前記第1の画素値および前記第2の画素値の各々は、色相と、彩度と、明度とで規定され、
前記制御部は、
前記第1の画素値の色相と前記第1の画像データにおける各画素の色相との第1の差異と、前記第2の画素値の色相と各前記画素の色相との第2の差異とを算出し、
前記配列データを用いて、前記第1の差異が予め定められた範囲内となる前記画素によって形成される領域のうちから前記第1の画像領域を抽出するとともに、前記第2の差異が前記予め定められた範囲内となる前記画素によって形成される領域のうちから前記第2の画像領域を抽出する、請求項2から4のいずれか1項に記載の画像処理システム。
Each of the first pixel value and the second pixel value is defined by hue, saturation, and lightness.
The control unit
A first difference between the hue of the first pixel value and the hue of each pixel in the first image data, and a second difference between the hue of the second pixel value and the hue of each pixel Calculate
The first image area is extracted from among areas formed by the pixels in which the first difference falls within a predetermined range using the array data, and the second difference is determined in advance The image processing system according to any one of claims 2 to 4, wherein the second image area is extracted from among areas formed by the pixels which fall within a defined range.
前記制御部は、
前記複数の積層表示灯のうちの第1の積層表示灯の前記第1の信号灯が点灯しているときの、当該第1の信号灯に対応する前記第1の画像領域内の各画素の画素値の平均値を、前記第1の積層表示灯の前記第1の信号灯の点灯時の基準色に設定し、
前記第1の積層表示灯の前記第1の信号灯が消灯しているときの、当該第1の信号灯に対応する前記第1の画像領域内の各画素の画素値の平均値を、前記第1の積層表示灯の前記第1の信号灯の消灯時の基準色に設定する、請求項5に記載の画像処理システム。
The control unit
The pixel value of each pixel in the first image area corresponding to the first signal light when the first signal light of the first laminated signal light of the plurality of laminated signal lights is on Setting the average value of the first and second signal lights of the first laminated indicator light as a reference color when the first signal light is lit,
An average value of pixel values of pixels in the first image area corresponding to the first signal light when the first signal light of the first stacked display light is extinguished is the first value. The image processing system according to claim 5, wherein the color is set to a reference color when the first signal light of the laminated indicator light is turned off.
前記制御部は、
前記複数の積層表示灯のうちの第2の積層表示灯の前記第1の信号灯が点灯しているときの、当該第1の信号灯に対応する前記第1の画像領域内の各画素の画素値の平均値を、前記第2の積層表示灯の前記第1の信号灯の点灯時の基準色に設定し、
前記第2の積層表示灯の前記第1の信号灯が消灯しているときの、当該第1の信号灯に対応する前記第1の画像領域内の各画素の画素値の平均値を、前記第2の積層表示灯の前記第1の信号灯の消灯時の基準色に設定する、請求項6に記載の画像処理システム。
The control unit
The pixel value of each pixel in the first image area corresponding to the first signal light when the first signal light of the second laminated signal light of the plurality of laminated signal lights is on Setting the average value of the reference color when the first signal light of the second laminated indicator light is on,
An average value of pixel values of pixels in the first image area corresponding to the first signal light when the first signal light of the second stacked display light is extinguished is the second value; The image processing system according to claim 6, wherein the color is set to a reference color when the first signal light of the laminated indicator light is turned off.
前記制御部は、前記第1の積層表示灯の前記第1の信号灯の点灯時の基準色と消灯時の基準色と基づき、前記第1の積層表示灯の前記第1の信号灯の点灯および消灯を判断する、請求項6または7に記載の画像処理システム。   The control unit turns on and off the first signal light of the first stacked indicator light based on a reference color when the first signal lamp of the first stacked indicator light is turned on and a reference color when the first signal light is turned off. The image processing system according to claim 6 or 7, wherein 複数の積層表示灯が設置された場所を撮像する撮像装置から、前記場所の画像データを取得するステップと、
取得された前記画像データと、各前記積層表示灯における各色の信号灯の積層の配列を表した配列データとに基づいて、各前記積層表示灯に含まれる前記各色の信号灯の前記画像データ内での画像領域を決定するステップとを備える、画像処理方法。
Acquiring image data of the place from an imaging device for imaging a place where a plurality of stacked indicator lights are installed;
Based on the acquired image data and array data representing an array of laminations of signal lights of each color in each of the laminated display lights, within the image data of the signal lights of each color included in each of the laminated display lights Determining an image area.
JP2017242532A 2017-12-19 2017-12-19 Image processing system and image processing method Active JP6927015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017242532A JP6927015B2 (en) 2017-12-19 2017-12-19 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017242532A JP6927015B2 (en) 2017-12-19 2017-12-19 Image processing system and image processing method

Publications (2)

Publication Number Publication Date
JP2019109727A true JP2019109727A (en) 2019-07-04
JP6927015B2 JP6927015B2 (en) 2021-08-25

Family

ID=67179878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017242532A Active JP6927015B2 (en) 2017-12-19 2017-12-19 Image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP6927015B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111639656A (en) * 2020-05-28 2020-09-08 东软睿驰汽车技术(沈阳)有限公司 Traffic signal lamp identification method and device
CN114217118A (en) * 2021-12-09 2022-03-22 福建省海峡智汇科技有限公司 State identification method and system for high-voltage live display of indoor substation
CN114927090A (en) * 2022-05-30 2022-08-19 卡莱特云科技股份有限公司 Method, device and system for sorting light points in special-shaped LED display screen
JP7182738B1 (en) * 2022-02-25 2022-12-02 恵一朗 比嘉 IN-FACTORY MONITORING DEVICE AND IN-FACTORY MONITORING METHOD

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353292A (en) * 1999-06-11 2000-12-19 Toshiba Corp Signal identifying device and its method
JP2002358111A (en) * 2001-05-31 2002-12-13 Toyota Motor Corp Monitor system for line operating situation and device therefor and its method
JP2006004173A (en) * 2004-06-17 2006-01-05 Toyota Motor Corp Vehicle periphery monitoring device
JP2007114967A (en) * 2005-10-19 2007-05-10 Sharp Corp Process management apparatus and method
JP2012098967A (en) * 2010-11-02 2012-05-24 Aisin Seiki Co Ltd Traffic light detector, traffic light detection method and program
JP2013164853A (en) * 2012-02-13 2013-08-22 Toyota Motor Engineering & Manufacturing North America Inc System and method for traffic signal recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353292A (en) * 1999-06-11 2000-12-19 Toshiba Corp Signal identifying device and its method
JP2002358111A (en) * 2001-05-31 2002-12-13 Toyota Motor Corp Monitor system for line operating situation and device therefor and its method
JP2006004173A (en) * 2004-06-17 2006-01-05 Toyota Motor Corp Vehicle periphery monitoring device
JP2007114967A (en) * 2005-10-19 2007-05-10 Sharp Corp Process management apparatus and method
JP2012098967A (en) * 2010-11-02 2012-05-24 Aisin Seiki Co Ltd Traffic light detector, traffic light detection method and program
JP2013164853A (en) * 2012-02-13 2013-08-22 Toyota Motor Engineering & Manufacturing North America Inc System and method for traffic signal recognition

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111639656A (en) * 2020-05-28 2020-09-08 东软睿驰汽车技术(沈阳)有限公司 Traffic signal lamp identification method and device
CN114217118A (en) * 2021-12-09 2022-03-22 福建省海峡智汇科技有限公司 State identification method and system for high-voltage live display of indoor substation
JP7182738B1 (en) * 2022-02-25 2022-12-02 恵一朗 比嘉 IN-FACTORY MONITORING DEVICE AND IN-FACTORY MONITORING METHOD
CN114927090A (en) * 2022-05-30 2022-08-19 卡莱特云科技股份有限公司 Method, device and system for sorting light points in special-shaped LED display screen
CN114927090B (en) * 2022-05-30 2023-11-28 卡莱特云科技股份有限公司 Method, device and system for ordering lamp points in special-shaped LED display screen

Also Published As

Publication number Publication date
JP6927015B2 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
JP6927015B2 (en) Image processing system and image processing method
US20210208381A1 (en) Information processing apparatus, imaging control method, program, digital microscope system, display control apparatus, display control method, and program including detection of a failure requiring reimaging
US20170208304A1 (en) Projection system, projector, and image adjustment method
CN103828345A (en) Apparatus, method, and program for image processing, storage medium, and image pickup apparatus
CN109671388B (en) Method and device for acquiring correction data
CN102213618A (en) Color measuring apparatus and color measuring method
CN112396999A (en) Abnormal display block detection method, display screen fault detection method and equipment thereof
CN108632593B (en) Method, device and equipment for correcting color convergence errors
EP1808680A2 (en) Measuring method and apparatus using color images
JP2005189542A (en) Display system, display program and display method
JP2002267574A (en) Colorimetry device for color display device, colorimetry, image quality adjustment/inspection device, and image quality adjustment/inspection method
KR101310216B1 (en) Apparatus and method for converting color of images cinematograph
US20210125321A1 (en) Abnormal state detection device, abnormal state detection method, and recording medium
JP2010177291A (en) Method of generating library data for board appearance inspection, and method of generating inspection data
JP6140255B2 (en) Image processing apparatus and image processing method
US9934593B2 (en) Status determination system
JP5338978B2 (en) Image processing apparatus and image processing program
WO2018078753A1 (en) Correction system
KR101266919B1 (en) System for converting color of images cinematograph and method thereof
JP2017175738A (en) Cable connection work support system
JP2008186487A (en) Display method for two-dimensional information code
JP2008082948A (en) Measuring region setting device and method, and spectrometer
JP6903824B2 (en) Projection device and its control method and control program
JPWO2019167277A1 (en) Image collection device, image collection system, image collection method, image generation device, image generation system, image generation method, and program
JP2020198047A (en) Operation monitoring apparatus and operation monitoring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R150 Certificate of patent or registration of utility model

Ref document number: 6927015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150