JP2018029232A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2018029232A
JP2018029232A JP2016159320A JP2016159320A JP2018029232A JP 2018029232 A JP2018029232 A JP 2018029232A JP 2016159320 A JP2016159320 A JP 2016159320A JP 2016159320 A JP2016159320 A JP 2016159320A JP 2018029232 A JP2018029232 A JP 2018029232A
Authority
JP
Japan
Prior art keywords
image
pixel
attention area
image sensor
storage means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016159320A
Other languages
Japanese (ja)
Inventor
大坪 雅俊
Masatoshi Otsubo
雅俊 大坪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016159320A priority Critical patent/JP2018029232A/en
Publication of JP2018029232A publication Critical patent/JP2018029232A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of improving visibility, even when visual examination by machine vision camera is partially performed by person.SOLUTION: An imaging apparatus 100 having an image sensor 101 includes image storage means 108 for storing the image information of multiple preset areas of interest, storage means 107 for storing the coordinate data and rotation information of the areas of interest, sensor control means 102 for controlling the photographing area of the image sensor 101 from partial reading position, position setting means 105 for reading the coordinate data from the storage means 107, and setting the partial reading position, and output control means 109 for outputting an output image, based on the rotation information, and the image information stored in the image storage means 108.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関するものである。より詳しくは、イメージセンサを有する撮像装置に関する。   The present invention relates to an imaging apparatus. More specifically, the present invention relates to an imaging apparatus having an image sensor.

近年、工場の製造ライン等の外観検査システムにおいて、イメージセンサを搭載したマシンビジョンカメラが普及している。イメージセンサには、1000万以上の高画素を有するものがある。特許文献1では、高画素化したイメージセンサの信号読み出し時間を短縮するため、全画素の一部を注目領域として指定し、該当する注目領域のみを読み出す技術が開示されている。   In recent years, machine vision cameras equipped with image sensors have become widespread in appearance inspection systems such as factory production lines. Some image sensors have 10 million or more high pixels. Japanese Patent Application Laid-Open No. 2004-228688 discloses a technique for designating a part of all pixels as a region of interest and reading out only the corresponding region of interest in order to shorten the signal readout time of an image sensor with an increased number of pixels.

特許第3484178号Japanese Patent No. 3484178

しかしながら、部品が小ロットである場合等には、マシンビジョンが自動判定するのに必要なパターンマッチング設定に時間がかかるため、人間が部分的に検査を行う必要がある。そして、特許文献1はそのような場合を考慮していない。例えば、注目領域を人間が確認する場合には、天地が逆さまに表示されていると視認性が低下し、確認が困難となる。   However, when the part is a small lot, it takes time to set the pattern matching necessary for automatic determination by the machine vision. Therefore, it is necessary for a human to perform a partial inspection. Patent Document 1 does not consider such a case. For example, when a person confirms the attention area, if the top and bottom are displayed upside down, the visibility is lowered and it is difficult to confirm.

本発明における課題を、図12に示す被写体を用いてより具体的に説明する。図12は、2枚のプリント回路板1205と1206を組み合わせている。これは、プリント回路板の元となるリジット基板が四角形であるため、所望するプリント基板がL字形状の場合の面積の無駄を低減するための工夫である。本願では、図12の様な配置で組み合わされた2枚以上のプリント回路板を組基板と呼ぶ。   The problem in the present invention will be described more specifically using the subject shown in FIG. In FIG. 12, two printed circuit boards 1205 and 1206 are combined. This is a contrivance for reducing waste of area when the desired printed circuit board is L-shaped because the rigid circuit board that is the basis of the printed circuit board is square. In the present application, two or more printed circuit boards combined in the arrangement as shown in FIG.

この組基板をマシンビジョンカメラで撮影し、注目領域1201、1202、1203、1204を検査する場合、これらの撮影個所の部分読み出しを行ったモニタは、図13のように表示される。   When this assembled substrate is photographed with a machine vision camera and the attention areas 1201, 1202, 1203, and 1204 are inspected, a monitor that has partially read these photographing locations is displayed as shown in FIG.

シルク文字1301、1302、1303、1304は、各々の注目領域1201、1202、1203、1204を切り出したものである。このとき、シルク文字1301や1302は天地が逆さまに表示されてしまう。仮に、カメラを180度回転させても今度はシルク文字1303、1304が逆さまに表示されてしまう。このような状態で人間が文字の確認を行う場合、視認性が悪く検査し難い。   Silk characters 1301, 1302, 1303, and 1304 are obtained by cutting out the respective attention areas 1201, 1202, 1203, and 1204. At this time, the silk characters 1301 and 1302 are displayed upside down. Even if the camera is rotated 180 degrees, the silk characters 1303 and 1304 are displayed upside down. When humans check characters in such a state, the visibility is poor and it is difficult to inspect.

本発明は、上記課題に鑑みてなされ、その目的は、マシンビジョンカメラによる外観検査を人間が部分的に行う場合においても、視認性を向上することを可能にした撮像装置を提供することである。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an imaging apparatus capable of improving visibility even when a human performs a partial appearance inspection using a machine vision camera. .

上記目的を達成するために、本発明は、イメージセンサを有する撮像装置であって、予め設定された複数の注目領域の画像情報を記憶する画像記憶手段と、前記注目領域の座標データ及び回転情報を記憶する記憶手段と、部分読み出し位置から前記イメージセンサの撮影領域を制御するセンサ制御手段と、前記記憶手段から座標データを読み出し、前記部分読み出し位置を設定する位置設定手段と、前記回転情報と、前記画像記憶手段に記憶された前記画像情報とに基づいて、出力画像を出力する出力制御手段と、を備えることを特徴とする。   In order to achieve the above object, the present invention is an imaging apparatus having an image sensor, and stores image information of a plurality of preset attention areas, coordinate data and rotation information of the attention areas. Storage means for storing, sensor control means for controlling the imaging area of the image sensor from a partial readout position, position setting means for reading out coordinate data from the storage means and setting the partial readout position, and the rotation information Output control means for outputting an output image based on the image information stored in the image storage means.

本発明によれば、マシンビジョンカメラによる外観検査を人間が部分的に行う場合においても視認性を向上することを可能にした撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of improving the visibility even when a human performs a partial appearance inspection using a machine vision camera.

本発明に係る実施形態の装置構成を示すブロック図。The block diagram which shows the apparatus structure of embodiment which concerns on this invention. 図12の組基板に関する全画面の撮影図。FIG. 13 is a full-screen shooting diagram relating to the assembled substrate of FIG. 12. 実施形態1のメモリ107に記憶されるデータを纏めた表。A table summarizing data stored in the memory 107 according to the first embodiment. 画像メモリ108に全画面を記憶した場合の画素とアドレスの関係を例示する図。The figure which illustrates the relationship between the pixel at the time of memorize | storing the whole screen in the image memory 108, and an address. 部分読み出し撮影した画像の各画素を画像メモリ108に記憶した場合のアドレスを例示する図。The figure which illustrates the address at the time of memorize | storing in the image memory 108 each pixel of the image which carried out partial reading imaging | photography. 画像メモリ108からのデータの出力順序を例示する図。The figure which illustrates the output order of the data from the image memory. 実施形態1の最終的な出力画像を例示する図。FIG. 3 is a diagram illustrating a final output image according to the first embodiment. 実施形態2のカラーイメージセンサの課題を例示する図。FIG. 6 is a diagram illustrating a problem of a color image sensor according to a second embodiment. 実施形態2の解決手段を例示する図。The figure which illustrates the solution means of Embodiment 2. 実施形態2の注目領域の修正処理を示すフローチャート。10 is a flowchart illustrating attention area correction processing according to the second embodiment. 実施形態2の座標系を例示する図。FIG. 6 is a diagram illustrating a coordinate system according to the second embodiment. 従来例の課題説明図。The subject explanatory drawing of a prior art example. 従来例の課題説明図。The subject explanatory drawing of a prior art example.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。なお、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。また、後述する各実施形態の一部を適宜組み合わせて構成してもよい。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment. Moreover, you may comprise combining suitably one part of each embodiment mentioned later.

(実施形態1)
まず、図1乃至7、図12及び13を参照して、実施形態1について説明する。なお、以下では、イメージセンサの撮影領域のうち検査を行う必要がある指定された領域を注目領域(関心領域)と呼ぶ。また、図12に示すような注目領域を切り出して撮影し、所定の情報を記憶し、当該注目領域の撮像信号を出力する方式を部分読み出しと呼ぶ。また、当該部分読み出しにおける撮影を部分読み出し撮影と呼ぶ。
(Embodiment 1)
First, Embodiment 1 will be described with reference to FIGS. 1 to 7 and FIGS. In the following description, a designated area that needs to be inspected among imaging areas of the image sensor is referred to as an attention area (region of interest). A method of cutting out and capturing an attention area as shown in FIG. 12, storing predetermined information, and outputting an imaging signal of the attention area is referred to as partial reading. In addition, photographing in the partial reading is referred to as partial reading photographing.

本実施形態では、被写体をモノクロ画像で部分読み出し撮影し、注目領域の一部を回転させた状態で画像情報を出力する。   In this embodiment, the subject is partially read and photographed as a monochrome image, and image information is output in a state where a part of the attention area is rotated.

図1を参照して、各実施形態の撮像装置の全体の構成を説明する。撮像装置100は、イメージセンサ101、センサ駆動制御部102、AD変換部103、部分読み出し位置設定部105、カメラ制御通信部106、メモリ107、画像メモリ108、画像メモリ制御部109、レンズ110、画像信号出力部111を備える。AD変換部103は、イメージセンサ101に構成されていてもよい。   With reference to FIG. 1, the overall configuration of the imaging apparatus of each embodiment will be described. The imaging apparatus 100 includes an image sensor 101, a sensor drive control unit 102, an AD conversion unit 103, a partial readout position setting unit 105, a camera control communication unit 106, a memory 107, an image memory 108, an image memory control unit 109, a lens 110, an image A signal output unit 111 is provided. The AD conversion unit 103 may be configured in the image sensor 101.

撮像装置100は、イメージセンサ101を含む撮像系を有し、センサ駆動制御部102、AD変換部103で撮像処理が行われる。レンズ110を通った光束は、撮像装置100のイメージセンサ101に結像する。センサ駆動制御部102は、センサ制御手段としてイメージセンサ101の蓄積動作や読み出し動作の制御を行う。イメージセンサ101からはアナログの撮像信号が出力される。アナログの撮像信号は、AD変換部103にてデジタル変換され、画像データとして、一旦、画像メモリ108に記憶される。画像メモリ108は、予め設定された複数の注目領域の画像情報を記憶する、画像記憶手段である。   The imaging apparatus 100 has an imaging system including an image sensor 101, and imaging processing is performed by the sensor drive control unit 102 and the AD conversion unit 103. The light flux that has passed through the lens 110 forms an image on the image sensor 101 of the imaging apparatus 100. The sensor drive control unit 102 controls accumulation operation and readout operation of the image sensor 101 as sensor control means. An analog imaging signal is output from the image sensor 101. The analog imaging signal is digitally converted by the AD conversion unit 103 and temporarily stored in the image memory 108 as image data. The image memory 108 is an image storage unit that stores image information of a plurality of preset regions of interest.

画像メモリ108に記憶された画像データは、出力制御手段となる画像メモリ制御部109によって出力画像の出力を制御される。画像メモリ制御部109は画像メモリ108に対してアドレスを指定してデータを取り出し、画像信号出力部111へ画像データを送信する。画像信号出力部111では画像データを出力映像フォーマットに変換し映像を出力する。   The output of the image data stored in the image memory 108 is controlled by an image memory control unit 109 serving as an output control unit. The image memory control unit 109 designates an address with respect to the image memory 108 to retrieve data, and transmits the image data to the image signal output unit 111. The image signal output unit 111 converts the image data into an output video format and outputs the video.

一方、カメラ制御通信部106は、PCや外部機器等から、撮像装置100の設定や、部分読み出しを行いたい注目領域の座標データ及び注目領域の回転情報を受信するインターフェースである。メモリ107は、カメラ制御通信部106で入力された撮像装置100の設定値や、部分読み出しを行いたい注目領域の座標データ及び注目領域の回転情報を記憶するための記憶手段である。部分読み出し位置設定部105は、メモリ107から注目領域の座標データの読み出しを行い、センサ駆動制御部102に対し部分読み出しする位置を設定する位置設定手段である。   On the other hand, the camera control communication unit 106 is an interface that receives the setting of the imaging apparatus 100, coordinate data of a region of interest for which partial reading is desired, and rotation information of the region of interest from a PC or an external device. The memory 107 is a storage unit for storing the setting value of the imaging apparatus 100 input by the camera control communication unit 106, the coordinate data of the attention area to be partially read, and the rotation information of the attention area. The partial readout position setting unit 105 is a position setting unit that reads out coordinate data of a region of interest from the memory 107 and sets a partial readout position for the sensor drive control unit 102.

センサ駆動制御部102はイメージセンサ101が注目領域の画像情報のみを出力するようにイメージセンサ101の撮影領域を制御する。画像メモリ制御部109はメモリ107からの注目領域の回転情報を受け取り、その情報に従い画像メモリ108からの画像データの読み出しを行う。注目領域の回転情報に関しては後述する。   The sensor drive control unit 102 controls the imaging area of the image sensor 101 so that the image sensor 101 outputs only image information of the attention area. The image memory control unit 109 receives the rotation information of the attention area from the memory 107 and reads the image data from the image memory 108 according to the information. The rotation information of the attention area will be described later.

次に、被写体を部分読み出し撮影し、注目領域の一部を回転させて画像を出力する方法について説明する。   Next, a method for partially reading and photographing an object and outputting an image by rotating a part of the attention area will be described.

図2は、図12の組基板に関する全画面の撮影図である。画面205における、プリント回路板201、202上には、正方形の注目領域203、204がある。座標207、208、209、210はそれぞれの注目領域の左上と右下の角の座標である。各座標値は原点206から起算して、右又は下に置くほど大きくなる。例えば、座標207、208、209、210の座標値はそれぞれ(2000,50)、(2100,150)、(1000,2000)、(1100,2100)である。   FIG. 2 is a full-screen photograph of the assembled board of FIG. On the printed circuit boards 201 and 202 in the screen 205, square attention areas 203 and 204 are present. Coordinates 207, 208, 209, and 210 are the coordinates of the upper left and lower right corners of each region of interest. Each coordinate value starts from the origin 206 and increases as it is placed to the right or below. For example, the coordinate values of the coordinates 207, 208, 209, and 210 are (2000, 50), (2100, 150), (1000, 2000), and (1100, 2100), respectively.

これら座標値は、外部機器などから図1のカメラ制御通信部106を通してメモリ107に記憶される。メモリ107内部では、図3のように各注目領域に対して左上座標と右下座標が記憶できる。図2の注目領域203は図3の注目領域NO.1、図2の注目領域204は図3の注目領域NO.2として記憶される。   These coordinate values are stored in the memory 107 through the camera control communication unit 106 in FIG. In the memory 107, upper left coordinates and lower right coordinates can be stored for each region of interest as shown in FIG. The attention area 203 in FIG. 2 is the attention area NO. 1 and the attention area 204 in FIG. Stored as 2.

また、図2の注目領域203に表示される文字列は逆さまになっており、回転させる必要があるため、図3のNO.1の回転情報として180度と記憶される。注目領域の回転情報は、0度、90度、180度、270度の4通りが記憶できる。また、当該回転情報は、実際の製造ラインにおける誤差角度においても対応可能に記憶できる。   Also, the character string displayed in the attention area 203 in FIG. 2 is upside down and needs to be rotated. As one rotation information, 180 degrees is stored. The rotation information of the attention area can be stored in four ways of 0 degree, 90 degrees, 180 degrees, and 270 degrees. Further, the rotation information can be stored so as to be compatible with an error angle in an actual production line.

次に、図4を参照して、図1の画像メモリ108に全画面を記憶した場合の画素とアドレスの関係を説明する。画像メモリ108のアドレスマップ401において、イメージセンサの画素配列402は、1アドレスにつき1画素の情報を格納する。1ライン分の4800画素を記憶するためには、0〜4799アドレスまで使用する。本件のイメージセンサは3200ラインあるため、1画面を記憶する為に4800×3200=15,360,000アドレスを用意している。   Next, the relationship between pixels and addresses when the entire screen is stored in the image memory 108 of FIG. 1 will be described with reference to FIG. In the address map 401 of the image memory 108, the pixel array 402 of the image sensor stores information of one pixel per address. In order to store 4800 pixels for one line, 0 to 4799 addresses are used. Since the image sensor of this case has 3200 lines, 4800 × 3200 = 15,360,000 addresses are prepared to store one screen.

実施形態1では注目領域203、204の合計2か所のみの切り出しを行っている。そのため、AD変換部103からの画像データは読み込んだ順に画像メモリ108に記憶される。その結果、画像メモリ108には図5のように記憶されることになる。   In the first embodiment, only a total of two attention regions 203 and 204 are cut out. Therefore, the image data from the AD conversion unit 103 is stored in the image memory 108 in the order of reading. As a result, the image memory 108 is stored as shown in FIG.

次に、図5を参照して、部分読み出し撮影をした各画素がどのアドレスに記憶されているかを説明する。画像メモリ制御部109は、メモリ107に記憶されている注目領域の座標情報と回転情報を元に画像メモリ108から呼び出すアドレスを決定する。   Next, with reference to FIG. 5, the address at which each pixel that has undergone partial readout imaging is stored will be described. The image memory control unit 109 determines an address to be called from the image memory 108 based on the coordinate information and the rotation information of the attention area stored in the memory 107.

次に、図6を参照して、画像メモリ108からのデータの出力順序を説明する。図3の注目領域NO.1は180度逆さにする情報が書き込まれているため、図6に示すような順序で画像メモリから読み込んでゆく。画像メモリ制御部109は画像メモリ108が(1)、(2)、(3)、(4)の順に画像データを出力するようにアドレスを出力し、アドレスの出力順序を制御する。   Next, the output order of data from the image memory 108 will be described with reference to FIG. The attention area NO. Since 1 is written with information to be inverted 180 degrees, it is read from the image memory in the order shown in FIG. The image memory control unit 109 outputs addresses so that the image memory 108 outputs image data in the order of (1), (2), (3), and (4), and controls the output order of the addresses.

なお、アドレスの出力順序は、注目領域の各回転情報に対応して変更できることはいうまでもない。   Needless to say, the output order of the addresses can be changed corresponding to each piece of rotation information of the region of interest.

なお、実施形態1はモノクロ画像であるため、ベイヤー配列などの画素のカラー配列を考慮する必要はない。このように読み出すことにより、注目領域の一部が回転され、図7に示すように注目領域203、204が2つとも天地が正しい状態で表示されるようになる。   Since the first embodiment is a monochrome image, it is not necessary to consider a pixel color arrangement such as a Bayer arrangement. By reading in this way, a part of the attention area is rotated, and as shown in FIG. 7, both of the attention areas 203 and 204 are displayed in a correct state.

以上のように、本実施形態によれば、マシンビジョンカメラによる外観検査を人間が部分的に行う場合においても、注目領域の一部が回転され、天地が正しい状態で表示されることにより、視認性を向上することを可能にした撮像装置を得ることが可能となる。   As described above, according to the present embodiment, even when a human performs a visual inspection by a machine vision camera, a part of the attention area is rotated and the top and bottom are displayed in a correct state, thereby enabling visual recognition. It is possible to obtain an imaging apparatus that can improve the performance.

(実施形態2)
次に、図8乃至11を参照して、本発明の実施形態2について説明する。実施形態1は、モノクロのイメージセンサを用いた、モノクロ画像における部分読み出しについて説明した。これに対し実施形態2では、カラーイメージセンサを用いた、カラー画像における部分読み出しについて説明する。カラーイメージセンサの場合、各画素は図8のベイヤー配列801のように構成される。
(Embodiment 2)
Next, Embodiment 2 of the present invention will be described with reference to FIGS. In the first embodiment, partial reading in a monochrome image using a monochrome image sensor has been described. On the other hand, in the second embodiment, partial reading in a color image using a color image sensor will be described. In the case of a color image sensor, each pixel is configured as a Bayer array 801 in FIG.

その場合、単に指定された範囲を回転させると、条件によっては、回転後の配列802、803、804のように、元の配列801とは異なるベイヤー配列となってしまう。そのため、この画像データをそのまま図1の画像信号出力部111へ渡してしまうと、画像信号出力部111は元の配列で色情報を取得するため、色が変化し正しく画像を表示できないという問題が生じる。   In that case, if the designated range is simply rotated, a Bayer array different from the original array 801 may be obtained, such as the arrays 802, 803, and 804 after the rotation, depending on conditions. Therefore, if this image data is directly passed to the image signal output unit 111 of FIG. 1, the image signal output unit 111 acquires color information in the original arrangement, so that the color changes and the image cannot be displayed correctly. Arise.

実施形態2と実施形態1の違いは、この点を改善したものである。したがって、実施形態2では図1の部分読み出し位置設定部105のみ説明をし、それ以外の部分の説明については実施形態1と同様であるため省略する。   The difference between the second embodiment and the first embodiment is an improvement of this point. Therefore, in the second embodiment, only the partial readout position setting unit 105 in FIG. 1 will be described, and the description of the other parts will be omitted because it is the same as in the first embodiment.

実施形態2における部分読み出し位置設定部105は、メモリ107から注目領域の座標データを読み出した際、その注目領域の範囲を微修正し、部分読み出し位置を設定する機能を有することにより、上記問題を解決している。   The partial reading position setting unit 105 according to the second embodiment has a function of finely correcting the range of the attention area and setting the partial reading position when the coordinate data of the attention area is read from the memory 107. It has been solved.

図9を参照して、その修正方法を説明する。カラーイメージセンサの画素配列901において、Rは赤、Gは緑、Bは青の画素である。破線で囲まれた範囲902は図1のメモリ107から読み出す注目領域の範囲である。注目領域の範囲を回転させても、配列パターンを崩さないようにするためには、4つ角がR画素の点対象の配列パターンである必要がある。   The correction method will be described with reference to FIG. In the pixel array 901 of the color image sensor, R is a red pixel, G is a green pixel, and B is a blue pixel. A range 902 surrounded by a broken line is a range of a region of interest read from the memory 107 in FIG. In order not to destroy the arrangement pattern even when the range of the attention area is rotated, the four corners need to be the arrangement pattern of the dot object of the R pixel.

つまり、範囲902を範囲903に示すような範囲に修正すればよい。修正は1画素オーダーで行われるため、注目領域の範囲が著しく変化することはない。修正後の注目領域が範囲903のような配列パターンならば90度、180度、270度、どの角度で回転させても配列パターンの変化はないため、後段の画像信号出力部111へ影響を与えることはなくなる。   That is, the range 902 may be corrected to a range as indicated by the range 903. Since the correction is performed on the order of one pixel, the range of the attention area does not change significantly. If the attention area after correction is an array pattern such as the range 903, the array pattern does not change no matter which angle is rotated by 90 degrees, 180 degrees, or 270 degrees, and this affects the subsequent image signal output unit 111. Things will disappear.

次に、図11を参照して、注目領域の修正フローにおける座標系について説明する。図1のメモリ107には、注目領域の座標データとして2座標が記憶されている。図11の座標系は、左上を原点(0,0)としており、イメージセンサの画素と対応する。PtとPbは注目領域の左上(Top)と右下(Bottom)の座標データであり、範囲1101が注目領域の範囲である。この注目領域は、正方形になるように外部から予め設定してある。これは回転させても形状が変わらないようにするためである。   Next, a coordinate system in the attention area correction flow will be described with reference to FIG. In the memory 107 of FIG. 1, two coordinates are stored as the coordinate data of the region of interest. In the coordinate system of FIG. 11, the upper left is the origin (0, 0) and corresponds to the pixel of the image sensor. Pt and Pb are coordinate data of the upper left (Top) and lower right (Bottom) of the attention area, and a range 1101 is the range of the attention area. This attention area is preset from the outside so as to be a square. This is to prevent the shape from changing even when rotated.

次に、図10を参照して、これらの注目領域の4つ角がすべてR画素になるようにPtとPb座標を修正するフローについて説明する。   Next, a flow for correcting the Pt and Pb coordinates so that all four corners of these regions of interest become R pixels will be described with reference to FIG.

図10のステップ1011では、Pb座標の画素がR画素かを判断する。R画素でないときには、処理をステップ1012に移す。   In step 1011 of FIG. 10, it is determined whether the pixel at the Pb coordinate is an R pixel. If it is not an R pixel, the process proceeds to Step 1012.

次に、ステップ1012では、Pb座標の画素がB画素かを確認する。B画素である場合は、処理をステップ1013に移す。B画素の場合は、その画素の左上、右上、左下、右下にR画素が隣接しているので、どれかをPb座標に変更すればよい。ただし、注目領域の形状を修正後も正方形にするためには、右下か左上のどちらかのR画素にしか変更できない。   Next, in step 1012, it is confirmed whether the pixel of Pb coordinate is a B pixel. If the pixel is a B pixel, the process proceeds to step 1013. In the case of the B pixel, since the R pixel is adjacent to the upper left, upper right, lower left, and lower right of the pixel, any one may be changed to the Pb coordinate. However, in order to make the shape of the attention area square after correction, it can only be changed to either the lower right or upper left R pixel.

従って、ステップ1013では、Pb画素がイメージセンサエリアの右端か下端でないことを確認し、どちらの端でもない場合は、右下のR画素に変更するため、処理をステップ1014に移す。   Therefore, in step 1013, it is confirmed that the Pb pixel is not the right end or the lower end of the image sensor area. If it is not either end, the process proceeds to step 1014 in order to change to the lower right R pixel.

次に、ステップ1014では、Pb画素の座標Xb、Ybにそれぞれ1を足し、注目領域の下1行と右1列を追加する。ステップ1013でPb画素がイメージセンサエリアの右端又は下端の場合には、ステップ1015にてXb−1、Yb−1を行い、注目領域の下1行と右1列を削除する。これにより、Pb座標の画素がB画素であった場合においてのR画素へ修正が行われる。   Next, in step 1014, 1 is added to the coordinates Xb and Yb of the Pb pixel, respectively, and the lower row and the right column of the attention area are added. If the Pb pixel is at the right end or the lower end of the image sensor area in step 1013, Xb-1 and Yb-1 are performed in step 1015, and the lower row and the right column in the region of interest are deleted. As a result, the correction is made to the R pixel when the pixel of the Pb coordinate is the B pixel.

次に、ステップ1012で、Pb座標の画素がB画素でなかった場合、つまりG画素の場合には、処理をステップ1016に移す。ステップ1016では、R画素の行にあるG画素か、B画素の行にあるG画素かを判断する。PbのY座標Ybが偶数ならR画素の行であり、その場合は、ステップ1017に進む。   Next, in step 1012, if the pixel at the Pb coordinate is not a B pixel, that is, if it is a G pixel, the process proceeds to step 1016. In step 1016, it is determined whether the pixel is a G pixel in the row of R pixels or a G pixel in the row of B pixels. If the Y coordinate Yb of Pb is an even number, it is a row of R pixels. In this case, the process proceeds to step 1017.

次に、ステップ1017では、Pb座標の画素がイメージセンサの右端かどうかの判断をしている。イメージセンサのベイヤー配列は、最終行がB画素の行であるため、R画素の行にあるG画素は下端であることを確認する必要はない。従って、ステップ1017で右端と判定した場合はステップ1018でXb−1を行い、注目領域の右側を1列削除する。これにより、Pb座標の画素がR画素に変更される。   Next, in step 1017, it is determined whether the pixel at the Pb coordinate is the right end of the image sensor. In the Bayer array of the image sensor, since the last row is a row of B pixels, it is not necessary to confirm that the G pixel in the row of R pixels is the lower end. Therefore, if it is determined at step 1017 that it is the right end, Xb-1 is performed at step 1018, and one column on the right side of the region of interest is deleted. Thereby, the pixel of Pb coordinate is changed to R pixel.

次に、ステップ1018では、注目領域の右側を1列削除すると、注目領域の形状が正方形ではなくなってしまうため、ステップ1019でXt−1を行い、注目領域の左側に1列追加する。   Next, in step 1018, if one column on the right side of the region of interest is deleted, the shape of the region of interest will no longer be square, so in step 1019 Xt-1 is performed and one column is added to the left side of the region of interest.

次に、ステップ1017で、Pb座標の画素が右端でない場合、ステップ1020でXb+1を行い、注目領域の右側に1列追加する。これにより、Pb座標の画素がR画素に変更される。ステップ1020で右側に1列追加すると、注目領域の形状が正方形ではなくなってしまうため、ステップ1021でXt+1を行い、注目領域の左側を1列削除する。   Next, when the pixel at the Pb coordinate is not the right end in step 1017, Xb + 1 is performed in step 1020, and one column is added to the right side of the attention area. Thereby, the pixel of Pb coordinate is changed to R pixel. If one column is added to the right side in step 1020, the shape of the attention area is no longer square. Therefore, Xt + 1 is performed in step 1021, and one column is deleted from the left side of the attention area.

一方、ステップ1016でPb座標の画素がB画素行のG画素と判定された場合は、ステップ1022でPb座標がイメージセンサの下端かどうかの判断をしている。B画素の行の右端にある画素は、ベイヤー配列上B画素になるため、B画素の行にあるG画素が右端であることを確認する必要はない。   On the other hand, if it is determined in step 1016 that the pixel at the Pb coordinate is a G pixel in the B pixel row, it is determined in step 1022 whether the Pb coordinate is the lower end of the image sensor. Since the pixel at the right end of the row of B pixels is a B pixel in the Bayer array, it is not necessary to confirm that the G pixel in the row of B pixels is the right end.

従って、ステップ1022で下端と判定した場合はステップ1023でYb−1を行い、注目領域の下側を1行削除する。これにより、Pb座標の画素がR画素に変更される。ステップ1023で注目領域の下側を1行削除すると、注目領域の形状が正方形ではなくなってしまうため、ステップ1024でYt−1を行い、注目領域の上側に1行追加する。ステップ1022でPb座標の画素が下端でない場合は、ステップ1025でYb+1を行い、注目領域の下側に1行追加する。これにより、Pb座標の画素がR画素に変更される。   Therefore, if it is determined in step 1022 that the lower end is reached, Yb-1 is performed in step 1023, and one line below the attention area is deleted. Thereby, the pixel of Pb coordinate is changed to R pixel. If one line below the attention area is deleted in step 1023, the shape of the attention area is no longer square. Therefore, Yt-1 is performed in step 1024 to add one line above the attention area. If the pixel at the Pb coordinate is not the lower end in step 1022, Yb + 1 is performed in step 1025, and one line is added below the attention area. Thereby, the pixel of Pb coordinate is changed to R pixel.

次に、ステップ1025で注目領域の下側に1行追加すると、注目領域の形状が正方形ではなくなってしまうため、ステップ1026でYt+1を行い、注目領域の上側を1行削除する。これらの処理により、ステップ1011でPb座標の画素がR画素ではないと判断された場合でも、注目領域は正方形を維持したまま、注目領域の右下画素PbはR画素に変更されることになる。   Next, if one line is added below the attention area in step 1025, the shape of the attention area is no longer square. Therefore, Yt + 1 is performed in step 1026, and one line above the attention area is deleted. With these processes, even if it is determined in step 1011 that the pixel of the Pb coordinate is not an R pixel, the lower right pixel Pb of the attention area is changed to an R pixel while the attention area remains square. .

このような注目領域の範囲修正を行うことにより、判断ステップ1027において注目領域の左上座標PtはR画素又はB画素になっている。なぜならば、Pb座標の画素がR画素で注目領域が正方形であるということは、図8の画素配列上、R画素かB画素でしかなりえない。   By performing such range correction of the attention area, the upper left coordinate Pt of the attention area is R pixel or B pixel in the judgment step 1027. This is because the pixel of the Pb coordinate is an R pixel and the attention area is a square, which can be either an R pixel or a B pixel in the pixel array of FIG.

従って、ステップ1027でPt座標の画素がR画素ではないと判断された場合は必ずB画素ということになる。その場合は、処理をステップ1028に移し、Xt−1, Yt−1を行うことによって注目領域を上側と左側に広げ、PtをR画素に微修正する。ここで、Pt座標の画素がB画素ということは、ベイヤー配列上イメージセンサの左端や上端ではないため、端の確認を行うことをせずXt−1,Yt−1を行うことができる。   Therefore, if it is determined in step 1027 that the pixel at the Pt coordinate is not an R pixel, it is always a B pixel. In that case, the process moves to step 1028, and the region of interest is expanded to the upper and left sides by performing Xt-1 and Yt-1, and Pt is finely corrected to R pixels. Here, the fact that the pixel of the Pt coordinate is the B pixel is not the left end or the upper end of the image sensor on the Bayer array, and therefore Xt−1 and Yt−1 can be performed without confirming the end.

上記のフローに従うことにより、注目領域は4つ角がR画素のパターンに修正され、点対象のパターン配置となる。これにより注目領域を90度、180度、270度のどの角度で回転させた場合でも必ず元のカラー配列となるため、図1の画像信号出力111にて正しく色を再現することが可能になる。その他の処理は実施例1と同様であるため、説明は省略する。   By following the above flow, the attention area is corrected to a pattern of R pixels at the four corners, and becomes a pattern arrangement of point objects. As a result, the original color arrangement is always obtained when the attention area is rotated at any angle of 90 degrees, 180 degrees, and 270 degrees, so that the color can be correctly reproduced in the image signal output 111 of FIG. . Since other processes are the same as those in the first embodiment, description thereof is omitted.

以上のように、本実施形態によれば、カラーイメージセンサを備えるマシンビジョンカメラによる外観検査を人間が部分的に行う場合に、注目領域の一部を回転させて天地が正しい状態で表示される。更に、正しく色を再現することにより、視認性を向上することを可能にした撮像装置を得ることが可能となる。   As described above, according to the present embodiment, when a person partially performs an appearance inspection using a machine vision camera including a color image sensor, the top and bottom are displayed in a correct state by rotating a part of the attention area. . Furthermore, it is possible to obtain an imaging device that can improve visibility by reproducing colors correctly.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

107 メモリ
105 部分読み出し位置設定部
109 画像メモリ制御部
107 Memory 105 Partial Reading Position Setting Unit 109 Image Memory Control Unit

Claims (3)

イメージセンサを有する撮像装置であって、
予め設定された複数の注目領域の画像情報を記憶する画像記憶手段と、
前記注目領域の座標データ及び回転情報を記憶する記憶手段と、
部分読み出し位置から前記イメージセンサの撮影領域を制御するセンサ制御手段と、
前記記憶手段から座標データを読み出し、前記部分読み出し位置を設定する位置設定手段と、
前記回転情報と、前記画像記憶手段に記憶された前記画像情報とに基づいて、出力画像を出力する出力制御手段と、
を備える撮像装置。
An imaging device having an image sensor,
Image storage means for storing image information of a plurality of attention areas set in advance;
Storage means for storing coordinate data and rotation information of the region of interest;
Sensor control means for controlling the imaging region of the image sensor from a partial readout position;
Position setting means for reading coordinate data from the storage means and setting the partial reading position;
Output control means for outputting an output image based on the rotation information and the image information stored in the image storage means;
An imaging apparatus comprising:
前記出力制御手段の前記画像情報の出力は、前記回転情報に対応して前記画像情報のアドレスを読み出す順序を制御することを特徴とする、
請求項1に記載の撮像装置。
The output of the image information of the output control means controls the order of reading out the address of the image information corresponding to the rotation information,
The imaging device according to claim 1.
前記イメージセンサは、画素配列がベイヤー配列であるカラーイメージセンサであり、且つ、
前記位置設定手段は、前記座標データを微修正して前記部分読み出し位置を設定する機能を有する、
請求項2に記載の撮像装置。
The image sensor is a color image sensor whose pixel array is a Bayer array, and
The position setting means has a function of finely correcting the coordinate data and setting the partial readout position.
The imaging device according to claim 2.
JP2016159320A 2016-08-15 2016-08-15 Imaging apparatus Pending JP2018029232A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016159320A JP2018029232A (en) 2016-08-15 2016-08-15 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016159320A JP2018029232A (en) 2016-08-15 2016-08-15 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2018029232A true JP2018029232A (en) 2018-02-22

Family

ID=61248635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016159320A Pending JP2018029232A (en) 2016-08-15 2016-08-15 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2018029232A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020059282A1 (en) * 2018-09-18 2020-03-26 コニカミノルタ株式会社 Device for measuring two-dimensional flicker
JP2022506989A (en) * 2018-11-13 2022-01-17 エイチエヌティ エレクトロニクス カンパニー リミテッド Shooting system and shooting system control method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020059282A1 (en) * 2018-09-18 2020-03-26 コニカミノルタ株式会社 Device for measuring two-dimensional flicker
CN112740003A (en) * 2018-09-18 2021-04-30 柯尼卡美能达株式会社 Two-dimensional scintillation measuring device
JPWO2020059282A1 (en) * 2018-09-18 2021-08-30 コニカミノルタ株式会社 2D flicker measuring device
CN112740003B (en) * 2018-09-18 2023-04-28 柯尼卡美能达株式会社 Two-dimensional scintillation measuring device
JP7306404B2 (en) 2018-09-18 2023-07-11 コニカミノルタ株式会社 Two-dimensional flicker measuring device
US11892350B2 (en) 2018-09-18 2024-02-06 Konica Minolta, Inc. Device for measuring two-dimensional flicker
JP2022506989A (en) * 2018-11-13 2022-01-17 エイチエヌティ エレクトロニクス カンパニー リミテッド Shooting system and shooting system control method
JP7181398B2 (en) 2018-11-13 2022-11-30 ミレ アオトス カンパニー リミテッド Imaging system and imaging system control method

Similar Documents

Publication Publication Date Title
EP3373236B1 (en) Image processing system, image generation apparatus, and image generation method
US10958883B2 (en) Projection control apparatus, projection apparatus, projection control method, and storage medium storing program
US8036482B2 (en) Image processing apparatus and method, program, and recording medium
US20210405518A1 (en) Camera system with a plurality of image sensors
JPH11161773A (en) Method for processing picture and device for inputting picture
CN109146781A (en) Method for correcting image and device, electronic equipment in laser cutting
JP6948810B2 (en) Image processing system
JP2018029232A (en) Imaging apparatus
JP4565909B2 (en) camera
JP2004239967A (en) Projector
JP2006074805A (en) Multi-projection video display device
JP3757979B2 (en) Video display system
JP2010204495A (en) Image display apparatus
JP5446955B2 (en) Imaging device
US20210097660A1 (en) Multi-eye camera system, multi-eye photographing camera head, image processing device, multi-eye photographing program and multi-eye photographing method
JP2001145012A (en) Image distorting correction device
JP3405302B2 (en) Image distortion correction device
WO2012111121A1 (en) Projector and minute information generating method
US20060165309A1 (en) Image processing apparatus and method, information processing apparatus and method, recording medium, and program
JP5742305B2 (en) Drawing image processing device
JP2011259107A (en) Projection device and control method thereof
US11119396B1 (en) Camera system with a plurality of image sensors
JP2007208926A (en) Solid state imaging apparatus and imaging equipment
JP2005210164A (en) Correction apparatus for defective pixel
JP4347181B2 (en) Solid-state imaging device