JP2017123675A - Imaging apparatus and image processing method - Google Patents

Imaging apparatus and image processing method Download PDF

Info

Publication number
JP2017123675A
JP2017123675A JP2017029559A JP2017029559A JP2017123675A JP 2017123675 A JP2017123675 A JP 2017123675A JP 2017029559 A JP2017029559 A JP 2017029559A JP 2017029559 A JP2017029559 A JP 2017029559A JP 2017123675 A JP2017123675 A JP 2017123675A
Authority
JP
Japan
Prior art keywords
unit
imaging
mark
data
imaging area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017029559A
Other languages
Japanese (ja)
Inventor
黒田 和男
Kazuo Kuroda
和男 黒田
吉田 綾子
Ayako Yoshida
綾子 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2017029559A priority Critical patent/JP2017123675A/en
Publication of JP2017123675A publication Critical patent/JP2017123675A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to cut out a necessary part of image data even if a positioning symbol is not printed on an object to be stored as the image data.SOLUTION: A mark irradiator 130 irradiates a mark to an object. An imaging unit 140 images the object and generates image data. Then, an imaging area data generation unit recognizes a position of the mark on the object and cuts out the imaging area data which is a part of the image data on the basis of the mark. Therefore, since the mark irradiator 130 irradiates the mark to the object, even if a positioning symbol is not printed on the object to be stored as the image data, only a necessary portion of the image data can be cut out.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置及び画像処理方法に関する。   The present invention relates to an imaging apparatus and an image processing method.

データの媒体としては紙が一般的であった。これに対して近年では、データの媒体として電子データが普及している。このため、紙に印刷されているデータを画像データとして保存する機会が増えている。   Paper was common as a data medium. On the other hand, in recent years, electronic data has become widespread as a data medium. For this reason, there are increasing opportunities to save data printed on paper as image data.

紙に印刷されているデータを画像データとして保存するための技術としては、例えば特許文献1に記載の技術がある。この技術は、矩形の用紙に位置決めシンボルを印刷しておき、この位置決めシンボルに基づいて、用紙を撮像した撮像データから保存すべき領域を切り出すものである。さらに特許文献1には、切り出された領域を台形補正することも記載されている。   As a technique for storing data printed on paper as image data, there is a technique described in Patent Document 1, for example. In this technique, a positioning symbol is printed on a rectangular sheet, and an area to be stored is cut out from image data obtained by imaging the sheet based on the positioning symbol. Further, Patent Document 1 also describes that the cut out region is trapezoidally corrected.

特開2012−068746号公報JP 2012-068746 A

特許文献1に記載の技術によれば、画像データのうち必要な部分のみを切り出して保存できる。しかし、特許文献1に記載の技術は、処理対象となる対象物(例えば紙)には、予め位置決めシンボルが印刷されている必要がある。このため、位置決めシンボルが印刷されていない対象物に印刷されているデータのうち必要な部分のみを電子化することはできなかった。   According to the technique described in Patent Document 1, only a necessary part of image data can be cut out and stored. However, the technique described in Patent Document 1 requires that a positioning symbol is printed in advance on an object to be processed (for example, paper). For this reason, it was not possible to digitize only the necessary part of the data printed on the object on which the positioning symbols are not printed.

本発明が解決しようとする課題としては、画像データとして保存されるべき対象物に位置決めシンボルが印刷されていなくても、画像データのうち必要な部分のみを切り出せるようにすることが一例として挙げられる。   An example of a problem to be solved by the present invention is that only a necessary portion of image data can be cut out even if a positioning symbol is not printed on an object to be stored as image data. It is done.

請求項1に記載の発明は、対象物に光を照射する照射部、及び前記照射部によって光が照射された前記対象物を撮像する撮像部を備える撮像装置と、
前記撮像装置とは分離して設けられており、前記撮像部が生成した撮像データを受信し、前記撮像データ内のマークを認識し、前記マークを用いて前記撮像データを処理する画像処理装置と、
を備えるシステムである。
The invention according to claim 1 is an imaging device including an irradiation unit that irradiates light on an object, and an imaging unit that images the object irradiated with light by the irradiation unit;
An image processing device that is provided separately from the imaging device, receives imaging data generated by the imaging unit, recognizes a mark in the imaging data, and processes the imaging data using the mark; ,
It is a system provided with.

請求項7に記載の発明は、コンピュータを画像処理装置として機能させるためのプログラムであって、
処理対象となる画像データは、切り出されるべき多角形の領域を示すマークを含んでおり、
前記マークは前記領域の角に位置しており、
前記コンピュータに、
前記画像データを外部の撮像装置から受信する処理と、
前記画像データ内のマークの位置に基づき、前記画像データの一部である撮像
エリアデータを切り出す処理と、
前記マークの位置又は形状に基づき、前記撮像エリアデータの歪みを補正する処理と、
前記撮像エリアデータを出力する処理と、
を行わせるプログラムである。
The invention according to claim 7 is a program for causing a computer to function as an image processing apparatus,
The image data to be processed includes a mark indicating a polygonal area to be cut out,
The mark is located at a corner of the region;
In the computer,
Processing for receiving the image data from an external imaging device;
A process of cutting out imaging area data that is a part of the image data based on the position of the mark in the image data;
Processing for correcting distortion of the imaging area data based on the position or shape of the mark;
Processing for outputting the imaging area data;
It is a program that performs.

上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。   The above-described object and other objects, features, and advantages will become more apparent from the preferred embodiments described below and the accompanying drawings.

第1の実施形態に係る撮像装置の構成を示す斜視図である。1 is a perspective view illustrating a configuration of an imaging apparatus according to a first embodiment. 撮像装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of an imaging device. 図2に示した撮像装置のハード構成を示す図である。It is a figure which shows the hardware constitutions of the imaging device shown in FIG. 照明パネルとしての有機ELパネルが有する有機EL素子の構造を示す断面図である。It is sectional drawing which shows the structure of the organic EL element which the organic EL panel as an illumination panel has. マーク照射部によるマークの照射の第1例を示す図である。It is a figure which shows the 1st example of mark irradiation by a mark irradiation part. マーク照射部によるマークの照射の他の例を示す図である。It is a figure which shows the other example of mark irradiation by a mark irradiation part. 制御部がマーク照射部による照射範囲を補正してマークを所望の形状にする方法の一例を示す図である。It is a figure which shows an example of the method in which a control part correct | amends the irradiation range by a mark irradiation part, and makes a mark a desired shape. マーク照射部が有する別の機能を説明するための図である。It is a figure for demonstrating another function which a mark irradiation part has. 撮像装置の動作の第1例を示すフローチャートである。3 is a flowchart illustrating a first example of the operation of the imaging apparatus. 撮像装置の動作の第2例を示すフローチャートである。It is a flowchart which shows the 2nd example of operation | movement of an imaging device. 撮像装置の動作の第3例を示すフローチャートである。12 is a flowchart illustrating a third example of the operation of the imaging apparatus. 第2の実施形態におけるマークの推定位置の演算方法を説明するための図である。It is a figure for demonstrating the calculation method of the estimated position of the mark in 2nd Embodiment. 第3の実施形態に係る撮像装置の構成を示す図である。It is a figure which shows the structure of the imaging device which concerns on 3rd Embodiment. 画像処理装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of an image processing apparatus. 画像処理装置が行う処理の第1例を説明するためのフローチャートである。3 is a flowchart for explaining a first example of processing performed by the image processing apparatus. 画像処理装置が行う処理の第2例を説明するためのフローチャートである。It is a flowchart for demonstrating the 2nd example of the process which an image processing apparatus performs.

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same reference numerals are given to the same components, and the description will be omitted as appropriate.

(第1の実施形態)
図1は、第1の実施形態に係る撮像装置10の構成を示す斜視図である。図2は、撮像装置10の機能構成を示すブロック図である。撮像装置10は、マーク照射部130、撮像部140、及び撮像エリアデータ生成部230(図2に図示)を備えている。マーク照射部130は、対象物にマークを照射する。対象物は、シート状の物、例えばデータが印刷された紙であるが、他のもの、例えば展示用の商品であってもよい。撮像部140は、対象物を撮像して画像データを生成する。撮像エリアデータ生成部230は、画像データ内におけるマークを認識し、当該マークに基づいて、画像データの一部である撮像エリアデータを切り出す。本実施形態によれば、マーク照射部130が対象物にマークを照射するため、画像データとして保存されるべき対象物に位置決めシンボルが印刷されていなくても、画像データのうち必要な部分のみを切り出せる。以下、詳細に説明する。
(First embodiment)
FIG. 1 is a perspective view illustrating a configuration of an imaging apparatus 10 according to the first embodiment. FIG. 2 is a block diagram illustrating a functional configuration of the imaging apparatus 10. The imaging apparatus 10 includes a mark irradiation unit 130, an imaging unit 140, and an imaging area data generation unit 230 (shown in FIG. 2). The mark irradiating unit 130 irradiates the target with a mark. The object is a sheet-like object such as paper on which data is printed, but may be another object such as an exhibition product. The imaging unit 140 captures an object and generates image data. The imaging area data generation unit 230 recognizes a mark in the image data, and cuts out imaging area data that is a part of the image data based on the mark. According to the present embodiment, since the mark irradiating unit 130 irradiates the object with the mark, only a necessary portion of the image data is obtained even if the positioning symbol is not printed on the object to be stored as image data. Can be cut out. Details will be described below.

まず、図1を用いて、撮像装置10の構造的な構成について説明する。図1に示すように、マーク照射部130及び撮像部140は、保持部材150の縁部155に内蔵されている。縁部155は、保持部材150に対して回転可能に取り付けられている。保持部材150を基準としたときの縁部155の向き、すなわち保持部材150に対する縁部155の角度は、位置角度検出部135によって検出されている。   First, the structural configuration of the imaging apparatus 10 will be described with reference to FIG. As shown in FIG. 1, the mark irradiation unit 130 and the imaging unit 140 are built in the edge 155 of the holding member 150. The edge 155 is rotatably attached to the holding member 150. The orientation of the edge 155 with respect to the holding member 150, that is, the angle of the edge 155 with respect to the holding member 150 is detected by the position angle detection unit 135.

保持部材150は、さらに照明部170を保持している。照明部170は、対象物を照明して、撮像データが示す画像を明るくする。保持部材150は、一端が取付部160を介してガイド部材120に取り付けられている。なお、縁部155は、保持部材150の他端側、すなわち照明部170を介して取付部160とは反対側に取り付けられている。   The holding member 150 further holds the illumination unit 170. The illumination unit 170 illuminates the object and brightens the image indicated by the imaging data. One end of the holding member 150 is attached to the guide member 120 via the attachment portion 160. The edge portion 155 is attached to the other end side of the holding member 150, that is, the side opposite to the attachment portion 160 via the illumination portion 170.

照明部170は、例えば光源として有機EL(Electroluminescence)パネルを有している。この有機ELパネルは、互いに異なるスペクトル特性を有する複数種類の有機ELを有している。これら有機EL素子は、例えば互いに異なる色の光を発光する。照明部170が発光する色の組み合わせは任意であるが、RGB(赤、緑、及び青)、又はRYB(赤、黄色、及び青)が例示される。これら複数の色の強度は、図2に示す制御部220によって制御される。このため、撮像装置10のユーザは、対象物の照明光を所望する色に調整することができる。特に照明部170が有機EL素子を有している場合、照明部170が発光する光のスペクトルをブロードにすることができる。この場合、人は、照明部170による光を自然な光と同じく、柔らかく感じることができる。なお、照明部170が有する光源は、有機ELパネルに限定されず、例えばLED(Light Emitting Diode)であってもよい。   The illumination unit 170 has, for example, an organic EL (Electroluminescence) panel as a light source. This organic EL panel has a plurality of types of organic ELs having different spectral characteristics. These organic EL elements emit light of different colors, for example. A combination of colors emitted by the illumination unit 170 is arbitrary, but RGB (red, green, and blue) or RYB (red, yellow, and blue) is exemplified. The intensity of the plurality of colors is controlled by the control unit 220 shown in FIG. For this reason, the user of the imaging device 10 can adjust the illumination light of the target to a desired color. In particular, when the illumination unit 170 includes an organic EL element, the spectrum of light emitted from the illumination unit 170 can be broadened. In this case, a person can feel the light from the illumination unit 170 as soft as natural light. In addition, the light source which the illumination part 170 has is not limited to an organic EL panel, For example, LED (Light Emitting Diode) may be sufficient.

照明部170は、複数の有機ELパネルを備えていても良い。この場合、複数の有機ELパネルは、互いに同じ色(複数の色の組み合わせも含む)の光を発光してもよい。また、少なくとも一つの有機ELパネルは、他の有機ELパネルとは異なる色の光を発光する有機EL素子を有していてもよい。また、少なくとも一つの有機ELパネルは、他の有機ELパネルとはスペクトルの広さが異なっていても良い。この場合、照明部170は、発光している有機ELパネルを切り替えても良い。   The illumination unit 170 may include a plurality of organic EL panels. In this case, the plurality of organic EL panels may emit light of the same color (including combinations of a plurality of colors). Further, at least one organic EL panel may include an organic EL element that emits light of a color different from that of other organic EL panels. Further, at least one organic EL panel may have a different spectrum width from other organic EL panels. In this case, the illumination unit 170 may switch the light emitting organic EL panel.

本実施形態において、保持部材150の平面形状は矩形である。取付部160は、保持部材150の一辺をガイド部材120に取り付けている。さらに取付部160は、保持部材150を、取付部160を支点として回転可能にガイド部材120に取り付けている。マーク照射部130及び撮像部140は、保持部材150のうちガイド部材120に取り付けられている辺とは反対側の辺に取り付けられている。   In the present embodiment, the planar shape of the holding member 150 is a rectangle. The attachment portion 160 attaches one side of the holding member 150 to the guide member 120. Further, the attachment portion 160 attaches the holding member 150 to the guide member 120 so as to be rotatable with the attachment portion 160 as a fulcrum. The mark irradiation unit 130 and the imaging unit 140 are attached to the side of the holding member 150 opposite to the side attached to the guide member 120.

ガイド部材120は、台座110に取り付けられており、台座110から上方に延伸している。保持部材150は、ガイド部材120に沿って上下方向に移動できるように、ガイド部材120に取り付けられている。取付部160は、ストッパーを内蔵している。このストッパーは、保持部材150の上下方向の位置を固定し、かつ取付部160の角度を固定するために設けられている。このため、撮像装置10のユーザは、保持部材150を所望の高さに移動させ、かつ所望の角度まで回転させた後、その高さ及び角度で固定することができる。   The guide member 120 is attached to the pedestal 110 and extends upward from the pedestal 110. The holding member 150 is attached to the guide member 120 so that it can move in the vertical direction along the guide member 120. The attachment part 160 has a stopper built therein. This stopper is provided to fix the vertical position of the holding member 150 and to fix the angle of the mounting portion 160. For this reason, the user of the imaging device 10 can move the holding member 150 to a desired height and rotate it to a desired angle, and then fix the holding member 150 at that height and angle.

さらに取付部160には、角度検出部162及び位置検出部164が内蔵されている。   Further, the attachment portion 160 includes an angle detection portion 162 and a position detection portion 164.

角度検出部162は、ガイド部材120を基準としたときの保持部材150の向き、すなわちガイド部材120に対する保持部材150の角度を検出する。台座110は、処理の対象物(例えばデータが印刷された紙)と同じ場所(例えば机の上)におかれる。また、台座110に対するガイド部材120の角度は固定(例えば90度)である。このため、撮像装置10は、角度検出部162の検出結果に基づいて、対象物のうちマークが照射される面に対するマーク照射部130及び撮像部140の角度を算出することができる。   The angle detection unit 162 detects the direction of the holding member 150 with respect to the guide member 120, that is, the angle of the holding member 150 with respect to the guide member 120. The pedestal 110 is placed at the same place (for example, on a desk) as an object to be processed (for example, paper on which data is printed). The angle of the guide member 120 with respect to the pedestal 110 is fixed (for example, 90 degrees). For this reason, the imaging device 10 can calculate the angles of the mark irradiation unit 130 and the imaging unit 140 with respect to the surface of the target that is irradiated with the mark, based on the detection result of the angle detection unit 162.

位置検出部164は、ガイド部材120に沿う方向における取付部160の位置を検出する。ガイド部材120は、台座110に固定されている。このため、撮像エリアデータ生成部230(図2に図示)は、位置検出部164の検出結果に基づいて、対象物に対するマーク照射部130及び撮像部140の距離(又は高さ)を算出することができる。   The position detection unit 164 detects the position of the attachment unit 160 in the direction along the guide member 120. The guide member 120 is fixed to the pedestal 110. Therefore, the imaging area data generation unit 230 (illustrated in FIG. 2) calculates the distance (or height) between the mark irradiation unit 130 and the imaging unit 140 with respect to the object based on the detection result of the position detection unit 164. Can do.

台座110の内部には、制御用の電子部品が内蔵されている。これら電子部品によって、撮像装置10の制御系が構成されている。   Inside the pedestal 110, electronic components for control are incorporated. A control system of the imaging device 10 is configured by these electronic components.

なお、マーク照射部130は、マークで示される撮像エリアの中心が、撮像部140による撮像エリアの中心と一致するように制御される。また、照明部170による照明領域の中心も、これらの中心と一致している。   The mark irradiation unit 130 is controlled so that the center of the imaging area indicated by the mark matches the center of the imaging area by the imaging unit 140. Further, the centers of the illumination areas by the illumination unit 170 also coincide with these centers.

次に、図2を用いて、撮像装置10の機能について説明する。撮像装置10は、撮像部140、角度検出部162、位置検出部164、及び照明部170の他に、入力部210、制御部220、撮像エリアデータ生成部230、及びデータ記憶部240を有している。   Next, the function of the imaging device 10 will be described with reference to FIG. The imaging device 10 includes an input unit 210, a control unit 220, an imaging area data generation unit 230, and a data storage unit 240 in addition to the imaging unit 140, the angle detection unit 162, the position detection unit 164, and the illumination unit 170. ing.

入力部210は、撮像装置10のユーザからの入力情報を取得する。この入力情報は、例えば、マーク照射部130によるマークで示される撮像エリアを指示する情報、照明部170による光の強度及び色調を指示する情報、及び撮像部140による画像データの生成タイミングを指示する情報である。制御部220は、入力部210から入力された情報に従って、マーク照射部130、撮像部140、及び照明部170を制御する。   The input unit 210 acquires input information from the user of the imaging device 10. This input information indicates, for example, information indicating the imaging area indicated by the mark by the mark irradiation unit 130, information indicating the light intensity and color tone by the illumination unit 170, and the generation timing of image data by the imaging unit 140. Information. The control unit 220 controls the mark irradiation unit 130, the imaging unit 140, and the illumination unit 170 according to information input from the input unit 210.

本実施形態において、撮像エリアデータ生成部230は、画像処理によって画像データ内のマークを認識し、当該マークに基づいて撮像エリアデータを切り出す。このため、高い精度で撮像エリアデータを切り出すことができる。また撮像エリアデータ生成部230は、角度検出部162及び位置検出部164の検出結果に基づいて、撮像エリアデータの歪を補正する。この補正は、例えば台形補正といわれる処理である。   In the present embodiment, the imaging area data generation unit 230 recognizes a mark in the image data by image processing, and cuts out the imaging area data based on the mark. For this reason, imaging area data can be cut out with high accuracy. Further, the imaging area data generation unit 230 corrects the distortion of the imaging area data based on the detection results of the angle detection unit 162 and the position detection unit 164. This correction is, for example, a process called trapezoid correction.

撮像エリアデータ生成部230は、撮像部140が生成した画像データ内のマークの位置(後述する図6(b)に示す例)又は形状(後述する図5又は図6(a)に示す例)に基づいて、撮像エリアデータの台形補正を行う。   The imaging area data generation unit 230 has a mark position (an example shown in FIG. 6B described later) or a shape (an example shown in FIG. 5 or FIG. 6A described later) in the image data generated by the imaging unit 140. Based on the above, the keystone correction of the imaging area data is performed.

具体的には、マーク照射部130は、撮像エリアが予め決められた形状、例えば正方形又は長方形となるように、マークを描く。そして撮像エリアデータ生成部230は、撮像エリアデータが示す形状が、上記した予め定められた形状(例えば正方形や長方形)となるように、撮像エリアデータを台形補正する。これにより、撮像エリアデータを表示したとき、表示された情報は見やすくなる。   Specifically, the mark irradiation unit 130 draws the mark so that the imaging area has a predetermined shape, for example, a square or a rectangle. Then, the imaging area data generation unit 230 corrects the imaging area data so that the shape indicated by the imaging area data becomes the above-described predetermined shape (for example, a square or a rectangle). Thereby, when the imaging area data is displayed, the displayed information is easy to see.

なお、制御部220は、角度検出部162、位置検出部164、及び位置角度検出部135の検出結果に基づいて、マーク照射部130が照射するマークの照射角度を変更し、対象物上でマークが所望の撮像エリア(例えば正方形や長方形)を示すようにする。この処理の詳細は、後述する。   Note that the control unit 220 changes the irradiation angle of the mark irradiated by the mark irradiation unit 130 based on the detection results of the angle detection unit 162, the position detection unit 164, and the position angle detection unit 135, and sets the mark on the object. Indicates a desired imaging area (for example, a square or a rectangle). Details of this processing will be described later.

また、マーク照射部130及び撮像部140は、いずれもレンズなどの光学系を有している。これらの光学系は必ず個体差を有している。このため、撮像エリアデータは、これらの個体差に起因した歪を有している。   Each of the mark irradiation unit 130 and the imaging unit 140 has an optical system such as a lens. These optical systems always have individual differences. For this reason, the imaging area data has distortion caused by these individual differences.

これに対して本実施形態では、撮像エリアデータ生成部230は、予め撮像部140及びマーク照射部130の少なくとも一方の個体差に起因した撮像エリアデータの歪を補正するための補正パラメータを記憶している。そして撮像エリアデータ生成部230は、この補正パラメータを用いて、撮像エリアデータを補正する。この補正パラメータは、例えば以下のようにして生成される。   On the other hand, in the present embodiment, the imaging area data generation unit 230 stores a correction parameter for correcting distortion of imaging area data caused by an individual difference between at least one of the imaging unit 140 and the mark irradiation unit 130 in advance. ing. Then, the imaging area data generation unit 230 corrects the imaging area data using this correction parameter. This correction parameter is generated as follows, for example.

まず、撮像装置10の保持部材150の位置及び角度、並びに縁部155の角度は、角度検出部162,位置検出部164、及び位置角度検出部135の検出値が予め定められた値になるように調整される。次いで撮像部140は、予め定められた形状を有する対象物(例えば予め定められたマークが印刷されたシート)を撮像して撮像データを生成する。撮像エリアデータ生成部230は、この撮像データが示す対象物の形状(又はマークによって定義されるエリアの形状)が予め定められた形状となるように補正パラメータを設定する。この方法によって得られる補正パラメータを用いると、撮像エリアデータ生成部230は、マーク照射部130及び撮像部140の双方の個体差に起因した撮像エリアデータの歪を補正することができる。なお、この補正パラメータの生成は、任意のタイミングで行うことができる。   First, the position and angle of the holding member 150 of the imaging device 10 and the angle of the edge portion 155 are set so that the detection values of the angle detection unit 162, the position detection unit 164, and the position angle detection unit 135 become predetermined values. Adjusted to Next, the imaging unit 140 captures an image of an object having a predetermined shape (for example, a sheet on which a predetermined mark is printed), and generates imaging data. The imaging area data generation unit 230 sets the correction parameter so that the shape of the target object (or the shape of the area defined by the mark) indicated by the imaging data becomes a predetermined shape. By using the correction parameter obtained by this method, the imaging area data generation unit 230 can correct the distortion of the imaging area data caused by the individual difference between both the mark irradiation unit 130 and the imaging unit 140. This correction parameter can be generated at an arbitrary timing.

データ記憶部240は、撮像エリアデータ生成部230によって補正された後の撮像エリアデータを記憶する。データ記憶部240は、揮発メモリ又は不揮発メモリであってもよいし、ハードディスクであっても良い。データ記憶部240は、撮像装置10に対して外付けの記憶装置(例えば外付けのハードディスクや不揮発メモリなど)であってもよいし、撮像装置10の台座110に内蔵されていても良い。   The data storage unit 240 stores the imaging area data that has been corrected by the imaging area data generation unit 230. The data storage unit 240 may be a volatile memory, a non-volatile memory, or a hard disk. The data storage unit 240 may be an external storage device (for example, an external hard disk or a non-volatile memory) with respect to the imaging device 10 or may be built in the base 110 of the imaging device 10.

また照明部170が複数の色を発光しており、かつこれら複数の色の強度が互いに独立して制御できる場合、撮像エリアデータ生成部230は、制御部220から、照明部170が照射している複数の色それぞれの強度を示す照明パラメータを取得する。そして撮像エリアデータ生成部230は、取得した照明パラメータを用いて、撮像エリアデータの色補正を行う。これにより、撮像エリアデータが示す対象物の色は、照明光の色に起因して本来の色からずれていても、本来の色に近づく。   When the illumination unit 170 emits a plurality of colors and the intensities of the plurality of colors can be controlled independently of each other, the imaging area data generation unit 230 is irradiated from the control unit 220 by the illumination unit 170. An illumination parameter indicating the intensity of each of a plurality of colors is acquired. Then, the imaging area data generation unit 230 performs color correction of the imaging area data using the acquired illumination parameter. Thereby, even if the color of the object indicated by the imaging area data deviates from the original color due to the color of the illumination light, it approaches the original color.

特に本実施形態では、マーク照射部130と撮像部140の組み合わせは固定されている。このため、色補正のためのパラメータを予め調整して固定することができる。従って、高い精度で色を補正することができる。   In particular, in this embodiment, the combination of the mark irradiation unit 130 and the imaging unit 140 is fixed. For this reason, parameters for color correction can be adjusted and fixed in advance. Therefore, the color can be corrected with high accuracy.

なお、図2に示す説明において、撮像装置10の各構成要素は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。撮像装置10の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶メディア、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置には様々な変形例がある。   In the description shown in FIG. 2, each component of the imaging device 10 is not a hardware unit configuration but a functional unit block. Each component of the imaging apparatus 10 is centered on an arbitrary computer CPU, memory, a program for realizing the components shown in the figure loaded in the memory, a storage medium such as a hard disk for storing the program, and a network connection interface. Realized by any combination of hardware and software. There are various modifications of the implementation method and apparatus.

図3は、図2に示した撮像装置10のハード構成を示す図である。本図に示す例において、マーク照射部130は、半導体レーザ131、レーザーコントローラ132、レーザドライバー133、MEMSミラー134、位置角度検出部135、ミラーコントローラ136、及びミラードライバー137を備えている。半導体レーザ131は、マークを描くためのレーザ光を発光する。レーザ光は、例えば可視光である。レーザーコントローラ132及びレーザドライバー133は、半導体レーザ131を制御する。MEMSミラー134は、半導体レーザ131が出射した光を反射する。MEMSミラー134が光の反射方向を変えることにより、マークが描かれる。MEMSミラー134による光の反射方向は、ミラーコントローラ136及びミラードライバー137によって制御される。詳細には、位置角度検出部135は、MEMSミラー134が向いている方向を検出する。そしてミラーコントローラ136は、位置角度検出部135の検出結果を用いて、ミラードライバー137を介してMEMSミラー134を制御する。   FIG. 3 is a diagram illustrating a hardware configuration of the imaging apparatus 10 illustrated in FIG. In the example shown in this drawing, the mark irradiation unit 130 includes a semiconductor laser 131, a laser controller 132, a laser driver 133, a MEMS mirror 134, a position angle detection unit 135, a mirror controller 136, and a mirror driver 137. The semiconductor laser 131 emits laser light for drawing a mark. The laser light is, for example, visible light. The laser controller 132 and the laser driver 133 control the semiconductor laser 131. The MEMS mirror 134 reflects light emitted from the semiconductor laser 131. A mark is drawn by the MEMS mirror 134 changing the light reflection direction. The direction of light reflection by the MEMS mirror 134 is controlled by a mirror controller 136 and a mirror driver 137. Specifically, the position angle detection unit 135 detects the direction in which the MEMS mirror 134 is facing. The mirror controller 136 controls the MEMS mirror 134 via the mirror driver 137 using the detection result of the position angle detection unit 135.

照明部170は、照明パネル171、照明ドライバー172、及び照明コントローラー173を備えている。照明パネル171は、例えば上記した有機ELパネルである。照明コントローラー173及び照明ドライバー172は、照明パネル171を制御する。   The illumination unit 170 includes an illumination panel 171, an illumination driver 172, and an illumination controller 173. The illumination panel 171 is, for example, the above-described organic EL panel. The lighting controller 173 and the lighting driver 172 control the lighting panel 171.

また、撮像装置10は、CPU222、メモリ242、I/Oコントローラ250、及び無線通信部252を備えている。CPU222は、図2における制御部220及び撮像エリアデータ生成部230に対応している。これらと、入力部210、レーザーコントローラ132、ミラーコントローラ136、及び照明コントローラー173は、互いに接続している。   In addition, the imaging apparatus 10 includes a CPU 222, a memory 242, an I / O controller 250, and a wireless communication unit 252. The CPU 222 corresponds to the control unit 220 and the imaging area data generation unit 230 in FIG. These, the input unit 210, the laser controller 132, the mirror controller 136, and the illumination controller 173 are connected to each other.

なお、図3に示した入力部210、CPU222、メモリ242、I/Oコントローラ250、及び無線通信部252は、台座110の中に組み込まれている。ただし、入力部210は、台座110の外部に設けられていても良い。また、図2に示した撮像エリアデータ生成部230及びデータ記憶部240は、撮像装置10の外部の装置に設けられていても良い。この場合、撮像エリアデータ生成部230及びデータ記憶部240は、通信回線、例えばインターネット等のデータ通信網を介して撮像装置10に接続しても良いし、撮像装置10に対して、例えばケーブルを用いて取り外し可能に設けられても良い。   Note that the input unit 210, the CPU 222, the memory 242, the I / O controller 250, and the wireless communication unit 252 illustrated in FIG. 3 are incorporated in the base 110. However, the input unit 210 may be provided outside the pedestal 110. In addition, the imaging area data generation unit 230 and the data storage unit 240 illustrated in FIG. 2 may be provided in a device external to the imaging device 10. In this case, the imaging area data generation unit 230 and the data storage unit 240 may be connected to the imaging device 10 via a communication line, for example, a data communication network such as the Internet, or a cable is connected to the imaging device 10, for example. It may be provided so as to be removable.

図4は、照明パネル171としての有機ELパネルが有する有機EL素子の構造を示す断面図である。この有機EL素子は、基板410上に、陽極420、正孔注入層422、正孔輸送層424、発光層426、電子輸送層428と、電子注入層430、及び陰極432をこの順に積層した積層構造を有している。基板410は、例えば石英、ガラス、金属、またはプラスチックなどの樹脂である。   FIG. 4 is a cross-sectional view showing a structure of an organic EL element included in the organic EL panel as the illumination panel 171. In this organic EL element, an anode 420, a hole injection layer 422, a hole transport layer 424, a light emitting layer 426, an electron transport layer 428, an electron injection layer 430, and a cathode 432 are stacked in this order on a substrate 410. It has a structure. The substrate 410 is a resin such as quartz, glass, metal, or plastic.

発光層426に用いられる燐光性の有機化合物としては、イリジウム錯体であるBis (3,5-difluoro-2- (2-pyridyl) phenyl- (2-carboxypyridyl) iridium (III)、Tris (2-phenylpyridine) iridium(III)、Bis (2-phenylbenzothiazolato) (acetylacetonate) iridium(III)、オスミウム錯体であるOsmium(II) bis(3-trifluoromethyl -5-(2-pyridyl) -pyrazolate)dimethylphenylphosphine、希土類化合物のTris (dibenzoylmethane) phenanthroline europium(III)、白金錯体である2,3,7,8,12,13,17,18-Octaethyl-21H, 23H- porphine,platinum(II)等を例示することができる。   Examples of the phosphorescent organic compound used for the light-emitting layer 426 include Bis (3,5-difluoro-2- (2-pyridyl) phenyl- (2-carboxypyridyl) iridium (III), Tris (2-phenylpyridine), which are iridium complexes. ) iridium (III), Bis (2-phenylbenzothiazolato) (acetylacetonate) iridium (III), Osmium (II) bis (3-trifluoromethyl-5- (2-pyridyl) -pyrazolate) dimethylphenylphosphine, a rare earth compound Tris Examples include (dibenzoylmethane) phenanthroline europium (III), platinum complexes 2,3,7,8,12,13,17,18-Octaethyl-21H, 23H-porphine, platinum (II) and the like.

また、発光層426、電子輸送層428、及び電子注入層430の主成分となる電子輸送性を有する有機化合物としては、p−テルフェニルやクアテルフェニル等の多環化合物およびそれらの誘導体、ナフタレン、テトラセン、ピレン、コロネン、クリセン、アントラセン、ジフェニルアントラセン、ナフタセン、フェナントレン等の縮合多環炭化水素化合物及びそれらの誘導体、フェナントロリン、バソフェナントロリン、フェナントリジン、アクリジン、キノリン、キノキサリン、フェナジン等の縮合複素環化合物およびそれらの誘導体や、フルオロセイン、ペリレン、フタロペリレン、ナフタロペリレン、ペリノン、フタロペリノン、ナフタロペリノン、ジフェニルブタジエン、テトラフェニルブタジエン、オキサジアゾール、アルダジン、ビスベンゾキサゾリン、ビススチリル、ピラジン、シクロペンタジエン、オキシン、アミノキノリン、イミン、ジフェニルエチレン、ビニルアントラセン、ジアミノカルバゾール、ピラン、チオピラン、ポリメチン、メロシアニン、キナクリドン、ルブレン等およびそれらの誘導体等を例示することができる。   In addition, as an organic compound having an electron transporting property which is a main component of the light emitting layer 426, the electron transporting layer 428, and the electron injecting layer 430, polycyclic compounds such as p-terphenyl and quaterphenyl and derivatives thereof, naphthalene Condensed polycyclic hydrocarbon compounds such as tetracene, pyrene, coronene, chrysene, anthracene, diphenylanthracene, naphthacene, phenanthrene and their derivatives, phenanthroline, bathophenanthroline, phenanthridine, acridine, quinoline, quinoxaline, phenazine, etc. Ring compounds and their derivatives, fluorescein, perylene, phthaloperylene, naphthaloperylene, perinone, phthaloperinone, naphthaloperinone, diphenylbutadiene, tetraphenylbutadiene, oxadiazole, alda Bisbenzoxazoline, bisstyryl, pyrazine, cyclopentadiene, oxine, aminoquinoline, imine, diphenylethylene, vinylanthracene, diaminocarbazole, pyran, thiopyran, polymethine, merocyanine, quinacridone, rubrene, etc. and their derivatives be able to.

さらに、電子輸送性を有する有機化合物として、金属キレート錯体化合物、特に金属キレート化オキサノイド化合物では、トリス(8−キノリノラト)アルミニウム、ビス(8−キノリノラト)マグネシウム、ビス[ベンゾ(f)−8−キノリノラト]亜鉛、ビス(2−メチル−8−キノリノラト)(4−フェニル−フェノラト)アルミニウム、トリス(8−キノリノラト)インジウム、トリス(5−メチル−8−キノリノラト)アルミニウム、8−キノリノラトリチウム、トリス(5−クロロ−8−キノリノラト)ガリウム、ビス(5−クロロ−8−キノリノラト)カルシウム等の8−キノリノラト或いはその誘導体を配位子として少なくとも一つ有する金属錯体も例示することができる。   Further, as an organic compound having an electron transporting property, a metal chelate complex compound, particularly a metal chelated oxanoid compound, tris (8-quinolinolato) aluminum, bis (8-quinolinolato) magnesium, bis [benzo (f) -8-quinolinolato ] Zinc, bis (2-methyl-8-quinolinolato) (4-phenyl-phenolato) aluminum, tris (8-quinolinolato) indium, tris (5-methyl-8-quinolinolato) aluminum, 8-quinolinolatolithium, tris Examples also include metal complexes having at least one 8-quinolinolato or a derivative thereof such as (5-chloro-8-quinolinolato) gallium and bis (5-chloro-8-quinolinolato) calcium as a ligand.

また、電子輸送性を有する有機化合物として、オキサジアゾール類、トリアジン類、スチルベン誘導体およびジスチリルアリーレン誘導体、スチリル誘導体、ジオレフィン誘導体も好適に使用され得る。   In addition, oxadiazoles, triazines, stilbene derivatives, distyrylarylene derivatives, styryl derivatives, and diolefin derivatives can also be suitably used as the organic compound having an electron transporting property.

さらに、電子輸送性を有する有機化合物として使用できる有機化合物として、2,5−ビス(5,7−ジ−t−ベンチル−2−ベンゾオキサゾリル)−1,3,4−チアゾール、4,4'−ビス(5,7−t−ペンチル−2−ベンゾオキサゾリル)スチルベン、4,4'−ビス[5,7−ジ−(2−メチル−2−ブチル)−2−ベンゾオキサゾリル]スチルベン、2,5−ビス(5.7−ジ−t−ペンチル−2−ベンゾオキサゾリル)チオフェン、2,5−ビス[5−(α,α−ジメチルベンジル)−2−ベンゾオキサゾリル]チオフェン、2,5−ビス[5,7−ジ−(2−メチル−2−ブチル)−2−ベンゾオキサゾリル]−3,4−ジフェニルチオフェン、2,5−ビス(5−メチル−2−ベンゾオキサゾリル)チオフェン、4,4'−ビス(2−ベンゾオキサゾリル)ビフェニル、5−メチル−2−{2−[4−(5−メチル−2−ベンゾオキサゾリル)フェニル]ビニル}ベンゾオキサゾール、2−[2−(4−クロロフェニル)ビニル]ナフト(1,2−d)オキサゾール等のベンゾオキサゾール系、2,2'−(p−フェニレンジピニレン)−ビスベンゾチアゾール等のベンゾチアゾール系、2−{2−[4−(2−ベンゾイミダゾリル)フェニル〕ビニル}ベンゾイミダゾール、2−[2−(4−カルボキシフェニル)ビニル]ベンゾイミダゾール等も挙げられる。   Furthermore, as an organic compound that can be used as an organic compound having an electron transporting property, 2,5-bis (5,7-di-t-benzyl-2-benzoxazolyl) -1,3,4-thiazole, 4, 4′-bis (5,7-t-pentyl-2-benzoxazolyl) stilbene, 4,4′-bis [5,7-di- (2-methyl-2-butyl) -2-benzoxazoly Ru] stilbene, 2,5-bis (5.7-di-t-pentyl-2-benzoxazolyl) thiophene, 2,5-bis [5- (α, α-dimethylbenzyl) -2-benzoxa Zolyl] thiophene, 2,5-bis [5,7-di- (2-methyl-2-butyl) -2-benzoxazolyl] -3,4-diphenylthiophene, 2,5-bis (5- Methyl-2-benzoxazolyl) thiophene, 4,4'-bis (2-benzoxazolyl) biphenyl, 5-methyl-2- {2- [4- (5-methyl-2-benzoxazolyl) phenyl] vinyl} benzoxazole, 2- [2- (4-chlorophenyl) ) Vinyl] naphtho (1,2-d) oxazole and other benzoxazoles, 2,2 ′-(p-phenylenedipinylene) -bisbenzothiazole and other benzothiazoles, 2- {2- [4- ( And 2-benzoimidazolyl) phenyl] vinyl} benzimidazole, 2- [2- (4-carboxyphenyl) vinyl] benzimidazole, and the like.

さらに、電子輸送性を有する有機化合物として、1,4−ビス(2−メチルスチリル)ベンゼン、1,4−ビス(3−メチルスチリル)ベンゼン、1,4−ビス(4−メチルスチリル)ベンゼン、ジスチリルベンゼン、1,4−ビス(2−エチルスチリル)ベンゼン、1,4−ビス(3−エチルスチリル)ベンゼン、1,4−ビス(2−メチルスチリル)−2−メチルベンゼン、1,4−ビス(2−メチルスチリル)−2−エチルベンゼン等も挙げられる。   Furthermore, as an organic compound having an electron transporting property, 1,4-bis (2-methylstyryl) benzene, 1,4-bis (3-methylstyryl) benzene, 1,4-bis (4-methylstyryl) benzene, Distyrylbenzene, 1,4-bis (2-ethylstyryl) benzene, 1,4-bis (3-ethylstyryl) benzene, 1,4-bis (2-methylstyryl) -2-methylbenzene, 1,4 -Bis (2-methylstyryl) -2-ethylbenzene and the like are also included.

また、さらに、電子輸送性を有する有機化合物として、2,5−ビス(4−メチルスチリル)ピラジン、2,5−ビス(4−エチルスチリル)ピラジン、2,5−ビス[2−(1−ナフチル)ビニル]ピラジン、2,5−ビス(4−メトキシスチリル)ピラジン、2,5−ビス[2−(4−ビフェニル)ビニル]ピラジン、2,5−ビス[2−(1−ピレニル)ビニル]ピラジン等が挙げられる。   Further, as an organic compound having an electron transporting property, 2,5-bis (4-methylstyryl) pyrazine, 2,5-bis (4-ethylstyryl) pyrazine, 2,5-bis [2- (1- Naphthyl) vinyl] pyrazine, 2,5-bis (4-methoxystyryl) pyrazine, 2,5-bis [2- (4-biphenyl) vinyl] pyrazine, 2,5-bis [2- (1-pyrenyl) vinyl ] Pyrazine etc. are mentioned.

その他、さらに、電子輸送性を有する有機化合物として、1,4−フェニレンジメチリディン、4,4'−フェニレンジメチリディン、2,5−キシリレンジメチリディン、2,6−ナフチレンジメチリディン、1,4−ビフェニレンジメチリディン、1,4−p−テレフェニレンジメチリディン、9,10−アントラセンジイルジメチリディン、4,4'−(2,2−ジ−t−ブチルフェニルビニル)ビフェニル、4,4'−(2,2−ジフェニルビニル)ビフェニル等、従来有機EL素子の作製に使用されている公知のものを適宜用いることができる。   In addition, as an organic compound having an electron transporting property, 1,4-phenylene dimethylidin, 4,4′-phenylene dimethylidin, 2,5-xylylene dimethylidin, 2,6-naphthylene dimethyl methacrylate Din, 1,4-biphenylene dimethylidin, 1,4-p-terephenylene dimethylidin, 9,10-anthracenediyl dimethylidin, 4,4 ′-(2,2-di-t-butylphenyl vinyl) A well-known thing conventionally used for preparation of organic electroluminescent element, such as biphenyl and 4,4'- (2, 2- diphenyl vinyl) biphenyl, can be used suitably.

一方、正孔輸送層424や正孔輸送性の発光層に用いられ、正孔輸送性を有する有機化合物としては、N,N,N',N'−テトラフェニル−4,4'−ジアミノフェニル、N,N'−ジフェニル−N,N'−ジ(3−メチルフェニル)−4,4'−ジアミノビフェニル、2,2−ビス(4−ジ−p−トリルアミノフェニル)プロパン、N,N,N',N'−テトラ−p−トリル−4,4'−ジアミノビフェニル、ビス(4−ジ−p−トリルアミノフェニル)フェニルメタン、N,N'−ジフェニル−N,N'−ジ(4−メトキシフェニル)−4,4'−ジアミノビフェニル、N,N,N',N'−テトラフェニル−4,4'−ジアミノジフェニルエーテル、4,4'−ビス(ジフェニルアミノ)クオードリフェニル、4−N,N−ジフェニルアミノ−(2−ジフェニルビニル)ベンゼン、3−メトキシ−4'−N,N−ジフェニルアミノスチルベンゼン、N−フェニルカルバゾール、1,1−ビス(4−ジ−p−トリアミノフェニル)−シクロヘキサン、1,1−ビス(4−ジ−p−トリアミノフェニル)−4−フェニルシクロヘキサン、ビス(4−ジメチルアミノ−2−メチルフェニル)−フェニルメタン、N,N,N−トリ(p−トリル)アミン、4−(ジ−p−トリルアミノ)−4'−[4(ジ−p−トリルアミノ)スチリル]スチルベン、N,N,N',N'−テトラ−p−トリル−4,4'−ジアミノ−ビフェニル、N,N,N',N'−テトラフェニル−4,4'−ジアミノ−ビフェニルN−フェニルカルバゾール、4,4'−ビス[N−(1−ナフチル)−N−フェニル−アミノ]ビフェニル、4,4''−ビス[N−(1−ナフチル)−N−フェニル−アミノ]p−ターフェニル、4,4'−ビス[N−(2−ナフチル)−N−フェニル−アミノ]ビフェニル、4,4'−ビス[N−(3−アセナフテニル)−N−フェニル−アミノ]ビフェニル、1,5−ビス[N−(1−ナフチル)−N−フェニル−アミノ]ナフタレン、4,4'−ビス[N−(9−アントリル)−N−フェニル−アミノ]ビフェニル、4,4''−ビス[N−(1−アントリル)−N−フェニル−アミノ]p−ターフェニル、4,4'−ビス[N−(2−フェナントリル)−N−フェニル−アミノ]ビフェニル、4,4'−ビス[N−(8−フルオランテニル)−N−フェニル−アミノ]ビフェニル、4,4'−ビス[N−(2−ピレニル)−N−フェニル−アミノ]ビフェニル、4,4'−ビス[N−(2−ペリレニル)−N−フェニル−アミノ]ビフェニル、4,4'−ビス[N−(1−コロネニル)−N−フェニル−アミノ]ビフェニル、2,6−ビス(ジ−p−トリルアミノ)ナフタレン、2,6−ビス[ジ−(1−ナフチル)アミノ]ナフタレン、2,6−ビス[N−(1−ナフチル)−N−(2−ナフチル)アミノ]ナフタレン、4.4''−ビス[N,N−ジ(2−ナフチル)アミノ]ターフェニル、4.4'−ビス{N−フェニル−N−[4−(1−ナフチル)フェニル]アミノ}ビフェニル、4,4'−ビス[N−フェニル−N−(2−ピレニル)−アミノ]ビフェニル、2,6−ビス[N,N−ジ(2−ナフチル)アミノ]フルオレン、4,4''−ビス(N,N−ジ−p−トリルアミノ)ターフェニル、ビス(N−1−ナフチル)(N−2−ナフチル)アミン等を例示することができる。   On the other hand, as an organic compound having a hole transporting property, which is used for the hole transporting layer 424 or the hole transporting light emitting layer, N, N, N ′, N′-tetraphenyl-4,4′-diaminophenyl is used. N, N′-diphenyl-N, N′-di (3-methylphenyl) -4,4′-diaminobiphenyl, 2,2-bis (4-di-p-tolylaminophenyl) propane, N, N , N ′, N′-tetra-p-tolyl-4,4′-diaminobiphenyl, bis (4-di-p-tolylaminophenyl) phenylmethane, N, N′-diphenyl-N, N′-di ( 4-methoxyphenyl) -4,4′-diaminobiphenyl, N, N, N ′, N′-tetraphenyl-4,4′-diaminodiphenyl ether, 4,4′-bis (diphenylamino) quadriphenyl, 4, -N, N-diphenylamino- (2-diphe Nylvinyl) benzene, 3-methoxy-4′-N, N-diphenylaminostilbenzene, N-phenylcarbazole, 1,1-bis (4-di-p-triaminophenyl) -cyclohexane, 1,1-bis ( 4-di-p-triaminophenyl) -4-phenylcyclohexane, bis (4-dimethylamino-2-methylphenyl) -phenylmethane, N, N, N-tri (p-tolyl) amine, 4- (di -P-tolylamino) -4 '-[4 (di-p-tolylamino) styryl] stilbene, N, N, N', N'-tetra-p-tolyl-4,4'-diamino-biphenyl, N, N , N ′, N′-tetraphenyl-4,4′-diamino-biphenyl N-phenylcarbazole, 4,4′-bis [N- (1-naphthyl) -N-phenyl-amino] biphenyl, 4,4 ′ '-Bis [N- (1-naphthyl) -N-phenyl-amino] p-terphenyl, 4,4'-bis [N- (2-naphthyl) -N-phenyl-amino] biphenyl, 4,4' -Bis [N- (3-acenaphthenyl) -N-phenyl-amino] biphenyl, 1,5-bis [N- (1-naphthyl) -N-phenyl-amino] naphthalene, 4,4'-bis [N- (9-anthryl) -N-phenyl-amino] biphenyl, 4,4 ″ -bis [N- (1-anthryl) -N-phenyl-amino] p-terphenyl, 4,4′-bis [N— (2-Phenanthryl) -N-phenyl-amino] biphenyl, 4,4′-bis [N- (8-fluoranthenyl) -N-phenyl-amino] biphenyl, 4,4′-bis [N- (2 -Pyrenyl) -N-phenyl-amino] biphenyl, , 4′-bis [N- (2-perylenyl) -N-phenyl-amino] biphenyl, 4,4′-bis [N- (1-coronenyl) -N-phenyl-amino] biphenyl, 2,6-bis (Di-p-tolylamino) naphthalene, 2,6-bis [di- (1-naphthyl) amino] naphthalene, 2,6-bis [N- (1-naphthyl) -N- (2-naphthyl) amino] naphthalene 4.4 ″ -bis [N, N-di (2-naphthyl) amino] terphenyl, 4.4′-bis {N-phenyl-N- [4- (1-naphthyl) phenyl] amino} biphenyl 4,4′-bis [N-phenyl-N- (2-pyrenyl) -amino] biphenyl, 2,6-bis [N, N-di (2-naphthyl) amino] fluorene, 4,4 ″- Bis (N, N-di-p-tolylamino) terphenyl, bis ( N-1-naphthyl) (N-2-naphthyl) amine and the like can be exemplified.

さらに、正孔輸送性を有する有機化合物としては、上述の有機化合物をポリマ中に分散したものや、ポリマ化したものも使用できる。ポリパラフェニレンビニレンやその誘導体等のいわゆるπ共役ポリマ、ポリ(N−ビニルカルバゾール)に代表される正孔輸送性非共役ポリマ、ポリシラン類のシグマ共役ポリマも用いることができる。   Furthermore, as the organic compound having a hole transporting property, those obtained by dispersing the above-described organic compound in a polymer or those obtained by polymerizing can be used. So-called π-conjugated polymers such as polyparaphenylene vinylene and derivatives thereof, hole-transporting non-conjugated polymers represented by poly (N-vinylcarbazole), and sigma-conjugated polymers of polysilanes can also be used.

正孔注入層422としては、特に限定はないが、銅フタロシアニン(CuPc:Copper Phthalocyanine)等の金属フタロシアニン類および無金属フタロシアニン類、カーボン膜、ポリアニリン等の導電性ポリマが好適に使用できる。   The hole injection layer 422 is not particularly limited, and conductive polymers such as metal phthalocyanines such as copper phthalocyanine (CuPc) and metal-free phthalocyanines, carbon films, and polyaniline can be preferably used.

そして、基板410上に積層された各層の厚さや材料を調節することにより、照明パネル171が発光する光のスペクトルのシャープさを調節することができる。   Then, by adjusting the thickness and material of each layer stacked on the substrate 410, the sharpness of the spectrum of light emitted from the lighting panel 171 can be adjusted.

図5は、マーク照射部130によるマークMの照射の第1例を示す図である。本図に示す例において、マーク照射部130は、撮像エリアFの全域をスキャンするように、レーザ光を照射する。   FIG. 5 is a diagram illustrating a first example of mark M irradiation by the mark irradiation unit 130. In the example shown in this figure, the mark irradiation unit 130 irradiates the laser beam so as to scan the entire imaging area F.

図6(a)は、マーク照射部130によるマークMの照射の第2例を示す図である。本図に示す例において、マーク照射部130は、撮像エリアFの縁を描くように、レーザ光を照射する。   FIG. 6A is a diagram illustrating a second example of mark M irradiation by the mark irradiation unit 130. In the example shown in the figure, the mark irradiation unit 130 irradiates the laser beam so as to draw the edge of the imaging area F.

図6(b)は、マーク照射部130によるマークMの照射の第3例を示す図である。本図に示す例において、撮像エリアFは矩形である。そしてマーク照射部130は、撮像エリアFの4つの角それぞれを示すマークを、レーザ光によって描く。   FIG. 6B is a diagram illustrating a third example of mark M irradiation by the mark irradiation unit 130. In the example shown in this figure, the imaging area F is rectangular. Then, the mark irradiation unit 130 draws marks indicating the four corners of the imaging area F with laser light.

なお、マーク照射部130によるマークMの形状およびスキャン方法は、上記した例に限定されない。   Note that the shape of the mark M and the scanning method by the mark irradiation unit 130 are not limited to the above example.

図7は、制御部220がマーク照射部130による光の照射範囲を補正してマークを所望の形状にする方法の一例を示す図である。制御部220は、撮像部140を基準としたときの対象物の方向、及び対象物から撮像部140までの距離を用いて、マーク照射部130が照射する光の照射角度を制御する。以下、具体的に説明する。   FIG. 7 is a diagram illustrating an example of a method in which the control unit 220 corrects the light irradiation range of the mark irradiation unit 130 to make the mark have a desired shape. The control unit 220 controls the irradiation angle of the light emitted from the mark irradiation unit 130 using the direction of the object when the imaging unit 140 is used as a reference and the distance from the object to the imaging unit 140. This will be specifically described below.

上記したように、角度検出部162は、ガイド部材120に対する保持部材150の角度、すなわちガイド部材120に対するマーク照射部130の角度を検出する。制御部220は、角度検出部162の検出結果から、対象物が載置されている載置部40(例えば机)の表面に対するマーク照射部130の角度θを算出する。なお、角度検出部162は、載置部40の表面に対するマーク照射部130の角度θを直接検出するように構成されていても良い。 As described above, the angle detection unit 162 detects the angle of the holding member 150 with respect to the guide member 120, that is, the angle of the mark irradiation unit 130 with respect to the guide member 120. The control unit 220 calculates an angle θ 1 of the mark irradiating unit 130 with respect to the surface of the mounting unit 40 (for example, a desk) on which the object is mounted, from the detection result of the angle detecting unit 162. The angle detection unit 162 may be configured to directly detect the angle θ 1 of the mark irradiation unit 130 with respect to the surface of the placement unit 40.

また、位置角度検出部135は、保持部材150に対するマーク照射部130の基準位置(例えば中心)の角度を検出している。また制御部220は、マーク照射部130の制御パラメータの一部として、マーク照射部130が照射している光の、マーク照射部130の基準軸(例えば中心を通る垂直な軸)に対する角度を示すデータを保持している。このため、制御部220は、マーク照射部130が照射している光の、保持部材150に対する角度θを算出することができる。角度θは、撮像部140を基準としたときの対象物の方向に相当している。 Further, the position angle detection unit 135 detects the angle of the reference position (for example, the center) of the mark irradiation unit 130 with respect to the holding member 150. Further, the control unit 220 indicates an angle of the light irradiated by the mark irradiation unit 130 with respect to a reference axis (for example, a vertical axis passing through the center) of the mark irradiation unit 130 as a part of the control parameter of the mark irradiation unit 130. Holds data. For this reason, the control unit 220 can calculate the angle θ 2 of the light irradiated by the mark irradiation unit 130 with respect to the holding member 150. The angle θ 2 corresponds to the direction of the object when the imaging unit 140 is used as a reference.

また、保持部材150の長さは固定値である。このため、制御部220は、保持部材150の長さ、及び角度θを用いることにより、載置部40に対して平行な面内でのガイド部材120からマーク照射部130までの距離(図中x方向の距離)を算出することができる。さらに制御部220は、位置検出部164による検出結果h、保持部材150の長さ、及び角度θを用いることにより、載置部40の表面を基準にしたときのマーク照射部130の高さ(図中y方向の距離)を算出することができる。この高さは、撮像部140から対象物までの距離に相当している。そして、これらの距離と、角度θ,θを用いることにより、制御部220は、ガイド部材120から光の照射位置までの距離dを算出することができる。 The length of the holding member 150 is a fixed value. For this reason, the control unit 220 uses the length of the holding member 150 and the angle θ 1 to determine the distance from the guide member 120 to the mark irradiation unit 130 in a plane parallel to the placement unit 40 (see FIG. (Distance in the middle x direction) can be calculated. Further, the control unit 220 has a length, and by using the angle theta 1, marks the height of the irradiation unit 130 when a reference surface of the mounting portion 40 of the detection result h, the holding member 150 by the position detection unit 164 (Distance in the y direction in the figure) can be calculated. This height corresponds to the distance from the imaging unit 140 to the object. Then, by using these distances and the angles θ 1 and θ 2 , the control unit 220 can calculate the distance d 1 from the guide member 120 to the light irradiation position.

そして、制御部220は、距離d1と、角度θ,θを用いることにより、マーク照射部130による光の照射位置を認識することができる。そしてこの照射位置を認識することにより、制御部220は、マークが示す撮像エリアが所望の形状になるように、マーク照射部130を制御することができる。 And the control part 220 can recognize the irradiation position of the light by the mark irradiation part 130 by using distance d1 and angle (theta) 1 , (theta) 2 . By recognizing the irradiation position, the control unit 220 can control the mark irradiation unit 130 so that the imaging area indicated by the mark has a desired shape.

図8は、マーク照射部130が有する別の機能を説明するための図である。マーク照射部130は、撮像エリアを示すマークを照射する機能のほかに、文字などの情報を描く機能も有する。マーク照射部130が描く情報は、例えば図2に示した入力部210から入力されてもよいし、制御部220が保持している情報であってもよい。マーク照射部130が描く情報は、例えば、照明パネル171の制御に用いられる照明パラメータ、又はCPU222(制御部220)などが有するカレンダーなどからの日時情報である。照明パラメータは、上記したように、照明部170が照射している複数色の光のそれぞれの強度を示す情報であるが、これに限定されない。このようにすると、撮像エリアデータに、文字情報が含まれるため、撮像エリアデータと文字情報とを一体で保存することができる。   FIG. 8 is a diagram for explaining another function of the mark irradiation unit 130. The mark irradiation unit 130 has a function of drawing information such as characters in addition to a function of irradiating a mark indicating an imaging area. Information drawn by the mark irradiation unit 130 may be input from the input unit 210 illustrated in FIG. 2, for example, or may be information held by the control unit 220. The information drawn by the mark irradiation unit 130 is, for example, illumination parameters used for controlling the illumination panel 171 or date / time information from a calendar or the like of the CPU 222 (control unit 220). As described above, the illumination parameter is information indicating the intensity of each of the light of a plurality of colors irradiated by the illumination unit 170, but is not limited thereto. In this way, since the character information is included in the imaging area data, the imaging area data and the character information can be stored together.

特に対象物が商品であり、撮像装置10の照明部170が商品を照らす照明として用いられる場合、商品の照明の照明パラメータを、商品を撮像した画像データと一体で保存することができる。このようにすると、商品の照明条件を容易に再現することができる。   In particular, when the object is a product and the illumination unit 170 of the imaging device 10 is used as illumination for illuminating the product, the illumination parameters of the product illumination can be stored together with image data obtained by capturing the product. If it does in this way, the lighting conditions of goods can be reproduced easily.

また、対象物が商品であり、撮像装置10が商品の展示場所で使用される場合、マーク照射部130が描く情報は、対象物の説明であってもよい。この場合、撮像装置10の照明部170は、商品を照らす照明として用いられる。   In addition, when the target object is a product and the imaging device 10 is used at the display site of the product, the information drawn by the mark irradiation unit 130 may be a description of the target object. In this case, the illumination unit 170 of the imaging device 10 is used as illumination for illuminating a product.

なお、マーク照射部130が文字などの情報を描くレーザは、マークを描くためのレーザとは別に設けられていても良い。この場合、文字などの情報を描くレーザを赤外線レーザにした上で、撮像部140が、可視光及び赤外光の双方を検出できるようにしてもよい。このようにすると、商品の展示場所において照明パラメータを描画しても、照明パラメータは人には見えないため、商品の展示のデザインに影響を与えない。   In addition, the laser which the mark irradiation part 130 draws information, such as a character, may be provided separately from the laser for drawing a mark. In this case, the imaging unit 140 may detect both visible light and infrared light after the laser that draws information such as characters is an infrared laser. In this way, even if the lighting parameters are drawn at the display location of the product, the lighting parameters are not visible to humans, and thus do not affect the design of the product display.

図9は、撮像装置10の動作の第1例を示すフローチャートである。まず撮像装置10のユーザは、マーク照射部130にマークを照射させつつ、保持部材150の高さ及び角度、並びに保持部材150に対する縁部155の角度を調整する。このとき、ユーザは、入力部210に入力を行うことにより、光の照射範囲を調節しても良い。これにより、ユーザは、マークが示す撮像エリアが所望の範囲になるように調整できる(ステップS10)。   FIG. 9 is a flowchart illustrating a first example of the operation of the imaging apparatus 10. First, the user of the imaging apparatus 10 adjusts the height and angle of the holding member 150 and the angle of the edge 155 with respect to the holding member 150 while irradiating the mark irradiation unit 130 with the mark. At this time, the user may adjust the light irradiation range by inputting to the input unit 210. Thereby, the user can adjust the imaging area indicated by the mark to be in a desired range (step S10).

次いで撮像部140は、ユーザから撮像指令が入力されたタイミングで画像データを生成する(ステップS20)。   Next, the imaging unit 140 generates image data at a timing when an imaging command is input from the user (step S20).

次いで撮像エリアデータ生成部230は、撮像部140が生成した画像データ内におけるマークの位置を認識し、認識したマークの位置に基づいて、画像データから撮像エリアデータを切り出す(ステップS30)。次いで撮像エリアデータ生成部230は、生成した撮像エリアデータに対して台形補正を行う(ステップS40)。その後、撮像エリアデータ生成部230は、台形補正後の撮像エリアデータを、データ記憶部240に記憶させる(ステップS50)。   Next, the imaging area data generation unit 230 recognizes the position of the mark in the image data generated by the imaging unit 140, and cuts out the imaging area data from the image data based on the recognized position of the mark (step S30). Next, the imaging area data generation unit 230 performs keystone correction on the generated imaging area data (step S40). Thereafter, the imaging area data generation unit 230 stores the imaging area data after the keystone correction in the data storage unit 240 (step S50).

図10は、撮像装置10の動作の第2例を示すフローチャートである。まず撮像装置10のユーザは、照明部170の照明パラメータを調整し、照明部170による照明の色や強度を調整する(ステップS5)。次いでユーザは、保持部材150の高さ及び角度、並びに保持部材150に対する縁部155の角度を調整し、マークが示す撮像エリアが所望の範囲になるようにする(ステップS10)。   FIG. 10 is a flowchart illustrating a second example of the operation of the imaging apparatus 10. First, the user of the imaging device 10 adjusts the illumination parameter of the illumination unit 170 and adjusts the color and intensity of illumination by the illumination unit 170 (step S5). Next, the user adjusts the height and angle of the holding member 150 and the angle of the edge 155 with respect to the holding member 150 so that the imaging area indicated by the mark falls within a desired range (step S10).

次いで撮像部140は、ユーザからの入力に従って画像データを生成する。このとき制御部220は、照明パラメータをデータ記憶部240に記憶させる(ステップS22)。   Next, the imaging unit 140 generates image data in accordance with an input from the user. At this time, the control unit 220 stores the illumination parameter in the data storage unit 240 (step S22).

その後の処理(ステップS30〜ステップS50)は、第1例と同様である。ただし、撮像エリアデータ生成部230は、ステップS50において、撮像エリアデータを、ステップS22で記憶された照明パラメータに対応付ける。   Subsequent processing (step S30 to step S50) is the same as in the first example. However, the imaging area data generation unit 230 associates the imaging area data with the illumination parameters stored in step S22 in step S50.

図11は、撮像装置10の動作の第3例を示すフローチャートである。ステップS5及びステップS10に示す処理は、第2例と同様である。ステップS10の後、制御部220は、対象物に描くべき文字データを取得し、取得した文字データをマークと共に対象物に描く(ステップS12)。撮像部140は、この状態で対象物を撮像して撮像データを生成する(ステップS20)。文字データが示す情報は、図8を用いて説明した通りである。   FIG. 11 is a flowchart illustrating a third example of the operation of the imaging apparatus 10. The processes shown in step S5 and step S10 are the same as in the second example. After step S10, the control unit 220 acquires character data to be drawn on the object, and draws the acquired character data on the object together with the mark (step S12). In this state, the imaging unit 140 captures an object and generates imaging data (step S20). The information indicated by the character data is as described with reference to FIG.

ステップS30及びステップS40に示す処理は、第2例と同様である。撮像エリアデータ生成部230は、撮像エリアデータの台形補正を行った(ステップS40)後、照明パラメータを用いて撮像エリアデータの色を補正する(ステップS42)。その後、撮像エリアデータ生成部230は、撮像エリアデータをデータ記憶部240に記憶させる(ステップS50)。   The processes shown in step S30 and step S40 are the same as in the second example. The imaging area data generation unit 230 corrects the keystone of the imaging area data (step S40), and then corrects the color of the imaging area data using the illumination parameter (step S42). Thereafter, the imaging area data generation unit 230 stores the imaging area data in the data storage unit 240 (step S50).

以上、本実施形態によれば、マーク照射部130は、対象物にマークを照射する。撮像部140は、対象物を撮像して画像データを生成する。そして、撮像エリアデータ生成部230は、対象物におけるマークの位置を認識し、当該マークに基づいて、画像データの一部である撮像エリアデータを切り出す。このため、マーク照射部130が対象物にマークを照射するため、画像データとして保存されるべき対象物に位置決めシンボルが印刷されていなくても、画像データのうち必要な部分のみを切り出せる。   As mentioned above, according to this embodiment, the mark irradiation part 130 irradiates a target with a mark. The imaging unit 140 captures an object and generates image data. Then, the imaging area data generation unit 230 recognizes the position of the mark on the object, and extracts imaging area data that is a part of the image data based on the mark. For this reason, since the mark irradiation unit 130 irradiates the target with the mark, only a necessary portion of the image data can be cut out even if the positioning symbol is not printed on the target to be stored as image data.

また本実施形態では、撮像エリアデータ生成部230は、画像データ内におけるマークの位置を認識することにより、撮像エリアデータを切り出している。このため、撮像エリアデータを生成するための演算量は少なくてすむ。   In the present embodiment, the imaging area data generation unit 230 extracts the imaging area data by recognizing the position of the mark in the image data. For this reason, the amount of calculation for generating imaging area data can be reduced.

また、制御部220は、撮像部140を基準としたときの対象物の方向、及び対象物から撮像部140までの距離を用いて、マーク照射部130が照射するマークの角度を制御し、マーク照射部130によって示される撮像エリアが所望の形状(例えば正方形や長方形)となるようにしている。このため、撮像エリアデータ生成部230による台形補正の演算量は少なくてすむ。   In addition, the control unit 220 controls the angle of the mark irradiated by the mark irradiation unit 130 using the direction of the target object with respect to the imaging unit 140 and the distance from the target object to the imaging unit 140, and the mark The imaging area indicated by the irradiation unit 130 has a desired shape (for example, a square or a rectangle). For this reason, the calculation amount of the keystone correction by the imaging area data generation unit 230 can be reduced.

また、保持部材150は、ガイド部材120に沿って上下に移動可能になっており、かつ、取付部160を中心として回転可能に取り付けられている。このため、撮像装置10のユーザは、保持部材150の高さ及び角度を調整することにより、マークが示す撮像エリアの範囲を、容易に所望の大きさに設定することができる。   Further, the holding member 150 is movable up and down along the guide member 120 and is attached to be rotatable about the attachment portion 160. For this reason, the user of the imaging device 10 can easily set the range of the imaging area indicated by the mark to a desired size by adjusting the height and angle of the holding member 150.

(第2の実施形態)
第2の実施形態に係る撮像装置10は、以下の点を除いて、第1の実施形態に係る撮像装置10と同様の構成である。
(Second Embodiment)
The imaging device 10 according to the second embodiment has the same configuration as that of the imaging device 10 according to the first embodiment except for the following points.

まず、マーク照射部130は、撮像部140が画像データを生成するとき、マークの照射を行わない。例えば制御部220は、撮像部140に対する撮像命令が入力部210から入力されると、そのタイミングでマーク照射部130によるマークの照射を終了する。そして制御部220及び撮像エリアデータ生成部230は、撮像部140の画角、マーク照射部130によるマークの照射方向、ならびに対象物からマーク照射部130及び撮像部140までの距離に基づいて、画像データ内においてマークが存在していたと推定される位置を演算する。具体的には、制御部220及び撮像エリアデータ生成部230は、角度検出部162、位置検出部164、及び位置角度検出部135の検出結果、マーク照射部130によるマークの照射方向、並びに撮像部140の画角を用いて、画像データ内においてマークが存在していたと推定される位置を演算する。そして撮像エリアデータ生成部230は、この推定位置を用いて、撮像エリアデータを生成する。   First, the mark irradiation unit 130 does not perform mark irradiation when the imaging unit 140 generates image data. For example, when an imaging command for the imaging unit 140 is input from the input unit 210, the control unit 220 ends mark irradiation by the mark irradiation unit 130 at that timing. Then, the control unit 220 and the imaging area data generation unit 230 generate an image based on the angle of view of the imaging unit 140, the irradiation direction of the mark by the mark irradiation unit 130, and the distance from the object to the mark irradiation unit 130 and the imaging unit 140. The position where the mark is estimated to exist in the data is calculated. Specifically, the control unit 220 and the imaging area data generation unit 230 include the detection results of the angle detection unit 162, the position detection unit 164, and the position angle detection unit 135, the irradiation direction of the mark by the mark irradiation unit 130, and the imaging unit. Using the angle of view of 140, the position where the mark is estimated to exist in the image data is calculated. And the imaging area data generation part 230 produces | generates imaging area data using this estimated position.

図12は、撮像エリアデータ生成部230によるマークの推定位置の演算方法を説明するための図である。マーク照射部130は、マークで示される撮像エリアの中心が、撮像部140による撮像エリアの中心と一致するように制御される。   FIG. 12 is a diagram for explaining a calculation method of the estimated position of the mark by the imaging area data generation unit 230. The mark irradiation unit 130 is controlled so that the center of the imaging area indicated by the mark coincides with the center of the imaging area by the imaging unit 140.

第1の実施形態で説明したように、制御部220は、角度検出部162の検出結果から、対象物が載置されている載置部40(例えば机)の表面に対するマーク照射部130の角度θを算出する。また、位置角度検出部135は、保持部材150に対するマーク照射部130の中心の角度θを検出する。また、制御部220は、マーク照射部130が撮像エリアを示すマークを照射しているときの照射範囲の角度αを取得することができる。このため、制御部220は、角度α,θ,θを用いて、マークが示す撮像エリアの上端に対する撮像部140の角度βを算出することができ、かつ、マークが示す撮像エリアの下端に対する撮像部140の角度を算出することができる。 As described in the first embodiment, the control unit 220 determines, based on the detection result of the angle detection unit 162, the angle of the mark irradiation unit 130 with respect to the surface of the mounting unit 40 (for example, a desk) on which the object is mounted. θ 1 is calculated. Further, the position angle detection unit 135 detects the angle θ 3 of the center of the mark irradiation unit 130 with respect to the holding member 150. In addition, the control unit 220 can acquire the angle α of the irradiation range when the mark irradiation unit 130 is irradiating the mark indicating the imaging area. Therefore, the control unit 220 can calculate the angle β 1 of the imaging unit 140 with respect to the upper end of the imaging area indicated by the mark using the angles α, θ 1 , and θ 3 , and the imaging area indicated by the mark can be calculated. The angle 2 of the imaging unit 140 with respect to the lower end can be calculated.

また、第1の実施形態で説明したように、制御部220は、ガイド部材120からマーク照射部130までの距離(図中x方向の距離)、及び載置部40の表面を基準にしたときのマーク照射部130の高さ(図中y方向の距離)を算出することができる。制御部220は、これらの距離及び高さ、並びに角度βを用いることによりガイド部材120から撮像エリアの下端までの距離dを算出することができ、かつ、これらの距離及び高さ、並びに角度βを用いることによりガイド部材120から撮像エリアの上端までの距離(d+d)を算出することができる。距離d,(d+d)は、撮像エリアを示すマークの位置を示している。 Further, as described in the first embodiment, when the control unit 220 is based on the distance from the guide member 120 to the mark irradiation unit 130 (the distance in the x direction in the drawing) and the surface of the placement unit 40, The height of the mark irradiation unit 130 (distance in the y direction in the figure) can be calculated. The control unit 220 can calculate the distance d 1 from the guide member 120 to the lower end of the imaging area by using these distances and heights, and the angle β 1 , and these distances and heights, and it can be calculated distance (d 1 + d 2) from the guide member 120 by use of the angle beta 2 to the upper end of the imaging area. The distances d 1 and (d 1 + d 2 ) indicate the positions of marks indicating the imaging area.

また、制御部220は、撮像部140の画角を記憶している。このため、制御部220は、マークの位置を算出する方法と同様の方法を用いることにより、撮像部140が生成した画像データが、載置部40の表面のどの領域を示しているかを算出することができる。さらに、保持部材150に対するマーク照射部130の中心の角度θと、撮像部140の画角の位置関係は固定である。このため、撮像エリアデータ生成部230は、制御部220が算出したデータを用いることにより、画像データ内においてマークが存在していたと推定される位置を演算することができる。 Further, the control unit 220 stores the angle of view of the imaging unit 140. Therefore, the control unit 220 calculates which region of the surface of the mounting unit 40 the image data generated by the imaging unit 140 indicates by using a method similar to the method of calculating the mark position. be able to. Further, the positional relationship between the angle θ 3 of the center of the mark irradiating unit 130 with respect to the holding member 150 and the angle of view of the imaging unit 140 is fixed. For this reason, the imaging area data generation unit 230 can calculate the position where the mark is estimated to exist in the image data by using the data calculated by the control unit 220.

本実施形態によっても、第1の実施形態と同様の効果を得ることができる。また、マーク照射部130は、撮像部140が画像データを生成するとき、マークの照射を行わない。このため、画像エリアデータに、マーク照射部130によるマークが入り込むことを抑制できる。
(第3の実施形態)
図13は、第3の実施形態に係る撮像装置10の構成を示す図であり、第1の実施形態における図1に対応している。本実施形態に係る撮像装置10は、画像処理装置30を備えている点を除いて、第1又は第2の実施形態に係る撮像装置10と同様の構成である。画像処理装置30は、第1の実施形態において撮像エリアデータ生成部230が行っていた画像処理の少なくとも一部を行う。
Also according to this embodiment, the same effect as that of the first embodiment can be obtained. In addition, the mark irradiation unit 130 does not perform mark irradiation when the imaging unit 140 generates image data. For this reason, it is possible to suppress the mark by the mark irradiation unit 130 from entering the image area data.
(Third embodiment)
FIG. 13 is a diagram illustrating a configuration of the imaging apparatus 10 according to the third embodiment, and corresponds to FIG. 1 in the first embodiment. The imaging device 10 according to the present embodiment has the same configuration as that of the imaging device 10 according to the first or second embodiment except that the imaging device 10 includes the image processing device 30. The image processing device 30 performs at least a part of the image processing performed by the imaging area data generation unit 230 in the first embodiment.

図14は、画像処理装置30の機能構成を示すブロック図である。画像処理装置30は、画像取得部310、画像処理部320、表示部325、入力部330、及びデータ記憶部340を備える。画像取得部310は、撮像装置10から、撮像エリアデータ生成部230が生成した画像エリアデータを受信する。画像取得部310は、撮像装置10のI/Oコントローラ250又は無線通信部252を介して、画像エリアデータを受信する。画像処理部320は、画像取得部310が受信した画像データを処理する。表示部325は、画像処理部320が処理した後の画像データを表示する。入力部330は、撮像装置10のユーザから入力される情報を受信する。入力される情報は、画像処理部320による画像処理のパラメータを示している。データ記憶部340は、画像処理部320が処理した後の画像データを記憶する。データ記憶部340は、不揮発メモリであってもよいし、ハードディスクであっても良い。   FIG. 14 is a block diagram illustrating a functional configuration of the image processing apparatus 30. The image processing apparatus 30 includes an image acquisition unit 310, an image processing unit 320, a display unit 325, an input unit 330, and a data storage unit 340. The image acquisition unit 310 receives the image area data generated by the imaging area data generation unit 230 from the imaging device 10. The image acquisition unit 310 receives image area data via the I / O controller 250 or the wireless communication unit 252 of the imaging device 10. The image processing unit 320 processes the image data received by the image acquisition unit 310. The display unit 325 displays the image data that has been processed by the image processing unit 320. The input unit 330 receives information input from the user of the imaging device 10. The input information indicates parameters for image processing by the image processing unit 320. The data storage unit 340 stores the image data processed by the image processing unit 320. The data storage unit 340 may be a non-volatile memory or a hard disk.

図15は、画像処理装置30が行う処理の第1例を説明するためのフローチャートである。ステップS5〜ステップS40までの処理は、第1の実施形態において図11を用いて説明した処理と同様である。撮像エリアデータ生成部230は、画像エリアデータに対して台形補正を行う(ステップS40)と、補正後の撮像エリアデータを画像処理装置30に送信する。このとき、撮像エリアデータ生成部230は、照明部170で用いた照明パラメータも合わせて画像処理装置30に送信する(ステップS41)。   FIG. 15 is a flowchart for explaining a first example of processing performed by the image processing apparatus 30. The processing from step S5 to step S40 is the same as the processing described with reference to FIG. 11 in the first embodiment. The imaging area data generation unit 230 transmits the corrected imaging area data to the image processing device 30 when performing keystone correction on the image area data (step S40). At this time, the imaging area data generation unit 230 also transmits the illumination parameters used in the illumination unit 170 to the image processing apparatus 30 (step S41).

画像処理装置30の画像取得部310は、画像処理装置30が送信してきた撮像エリアデータ及び照明パラメータを受信する。画像処理部320は、画像取得部310が受信した照明パラメータを用いて、撮像エリアデータの色の補正を行う。画像処理部320は、補正後の撮像エリアデータを表示部325に表示させる。その後、撮像装置10のユーザは、表示部325に表示された画像を見た上で、必要に応じて、入力部330に対して補正の修正指示を入力する。画像処理部320は、入力された修正指示に従って、撮像エリアデータの色の補正を修正する(ステップS45)。   The image acquisition unit 310 of the image processing device 30 receives imaging area data and illumination parameters transmitted from the image processing device 30. The image processing unit 320 corrects the color of the imaging area data using the illumination parameter received by the image acquisition unit 310. The image processing unit 320 causes the display unit 325 to display the corrected imaging area data. Thereafter, the user of the imaging apparatus 10 inputs an instruction for correction correction to the input unit 330 as necessary after viewing the image displayed on the display unit 325. The image processing unit 320 corrects the color correction of the imaging area data in accordance with the input correction instruction (step S45).

その後、画像処理部320は、補正後の画像エリアデータをデータ記憶部340に記憶させる(ステップS52)   Thereafter, the image processing unit 320 stores the corrected image area data in the data storage unit 340 (step S52).

図16は、画像処理装置30が行う処理の第2例を説明するためのフローチャートである。本図に示す例は、台形補正も画像処理装置30が行う(ステップS43)点を除いて、図14に示した第1例と同様である。   FIG. 16 is a flowchart for explaining a second example of processing performed by the image processing apparatus 30. The example shown in this figure is the same as the first example shown in FIG. 14 except that the image processing apparatus 30 also performs trapezoidal correction (step S43).

ステップS5〜ステップS30までの処理は、図15を用いて説明した処理と同様である。撮像エリアデータ生成部230は、台形補正前の画像エリアデータを、角度検出部162、位置検出部164、及び位置角度検出部135の検出結果、ならびに照明パラメータに対応付けて画像処理装置30に送信する(ステップS31)。   The processing from step S5 to step S30 is the same as the processing described with reference to FIG. The imaging area data generation unit 230 transmits the image area data before the keystone correction to the image processing apparatus 30 in association with the detection results of the angle detection unit 162, the position detection unit 164, and the position angle detection unit 135, and the illumination parameter. (Step S31).

画像処理装置30の画像取得部310は、画像処理装置30が送信してきたデータを受信する。そして画像処理部320は、台形補正を行う(ステップS43)。ここで行われる処理は、図15のステップS40で行われる処理と同様である。   The image acquisition unit 310 of the image processing apparatus 30 receives data transmitted from the image processing apparatus 30. Then, the image processing unit 320 performs keystone correction (step S43). The process performed here is the same as the process performed in step S40 of FIG.

その後の処理(ステップS45,S52)は、図15に示した第1例と同様である。   The subsequent processing (steps S45 and S52) is the same as that in the first example shown in FIG.

本実施形態によっても、第1又は第2の実施形態と同様の効果を得ることができる。また、画像処理装置30を用いて画像処理を行っているため、画像エリアデータに対して演算量が多い画像処理を行うことができる。また、画像処理部320は、ユーザの入力に従って画像処理の修正を行う。このため、画像エリアデータに対して、ユーザの好みに合わせた補正を行うことができる。   According to this embodiment, the same effect as that of the first or second embodiment can be obtained. Further, since image processing is performed using the image processing device 30, image processing with a large amount of calculation can be performed on the image area data. Further, the image processing unit 320 corrects the image processing in accordance with a user input. Therefore, it is possible to correct the image area data according to the user's preference.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。   As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable.

Claims (8)

対象物に光を照射する照射部、及び前記照射部によって光が照射された前記対象物を撮像する撮像部を備える撮像装置と、
前記撮像装置とは分離して設けられており、前記撮像部が生成した撮像データを受信し、前記撮像データ内のマークを認識し、前記マークを用いて前記撮像データを処理する画像処理装置と、
を備えるシステム。
An imaging device comprising: an irradiating unit that irradiates light on an object; and an imaging unit that images the object irradiated with light by the irradiating unit;
An image processing device that is provided separately from the imaging device, receives imaging data generated by the imaging unit, recognizes a mark in the imaging data, and processes the imaging data using the mark; ,
A system comprising:
請求項1に記載のシステムにおいて、
前記画像処理装置は、前記撮像装置のI/Oコントローラまたは無線通信部を介して前記撮像装置と通信するシステム。
The system of claim 1, wherein
The image processing apparatus is a system that communicates with the imaging apparatus via an I / O controller or a wireless communication unit of the imaging apparatus.
請求項1又は2に記載のシステムにおいて、
前記画像処理部は、前記マークを用いて、前記撮像データから取り除かれるべき領域を認識し、当該領域を取り除くシステム。
The system according to claim 1 or 2,
The image processing unit recognizes an area to be removed from the imaging data using the mark and removes the area.
請求項3に記載のシステムにおいて、
前記画像処理部は台形補正を行うシステム。
The system of claim 3, wherein
The image processing unit is a system that performs keystone correction.
請求項1〜4のいずれか一項に記載のシステムにおいて、
前記マークは、予め定められた形状を有しているシステム。
In the system according to any one of claims 1 to 4,
The mark has a predetermined shape.
請求項1〜5のいずれか一項に記載のシステムにおいて、
前記画像処理部は、前記撮像データの色を補正するシステム。
In the system according to any one of claims 1 to 5,
The image processing unit is a system that corrects the color of the imaging data.
コンピュータを画像処理装置として機能させるためのプログラムであって、
処理対象となる画像データは、切り出されるべき多角形の領域を示すマークを含んでおり、
前記マークは前記領域の角に位置しており、
前記コンピュータに、
前記画像データを外部の撮像装置から受信する処理と、
前記画像データ内のマークの位置に基づき、前記画像データの一部である撮像
エリアデータを切り出す処理と、
前記マークの位置又は形状に基づき、前記撮像エリアデータの歪みを補正する処理と、
前記撮像エリアデータを出力する処理と、
を行わせるプログラム。
A program for causing a computer to function as an image processing device,
The image data to be processed includes a mark indicating a polygonal area to be cut out,
The mark is located at a corner of the region;
In the computer,
Processing for receiving the image data from an external imaging device;
A process of cutting out imaging area data that is a part of the image data based on the position of the mark in the image data;
Processing for correcting distortion of the imaging area data based on the position or shape of the mark;
Processing for outputting the imaging area data;
A program that allows
請求項7に記載のプログラムにおいて、
前記マークは、光の照射によって生成されているプログラム。
The program according to claim 7,
The mark is a program generated by light irradiation.
JP2017029559A 2017-02-21 2017-02-21 Imaging apparatus and image processing method Pending JP2017123675A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017029559A JP2017123675A (en) 2017-02-21 2017-02-21 Imaging apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017029559A JP2017123675A (en) 2017-02-21 2017-02-21 Imaging apparatus and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014534076A Division JP6099652B2 (en) 2012-09-05 2012-09-05 Imaging apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2017123675A true JP2017123675A (en) 2017-07-13

Family

ID=59306658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017029559A Pending JP2017123675A (en) 2017-02-21 2017-02-21 Imaging apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2017123675A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019005193A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005189A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005188A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005187A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005195A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005194A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005191A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005196A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005201A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005202A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005203A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005192A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005190A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002094856A (en) * 2000-09-18 2002-03-29 Victor Co Of Japan Ltd Unit for presenting materials
JP2002325200A (en) * 2001-04-26 2002-11-08 Victor Co Of Japan Ltd Data presentation device
JP2002334297A (en) * 2001-05-08 2002-11-22 Ricoh Co Ltd Device and method for generating image, computer readable recording medium on which program for performing the method with computer is recorded, the program and code
JP2006134303A (en) * 2004-10-04 2006-05-25 Denso Wave Inc Optical information reader
JP2006259817A (en) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd Digital image binarizing device, digital image binarizing method, and digital data reproducing device
JP2010226580A (en) * 2009-03-25 2010-10-07 Denso Wave Inc Color correction method and imaging system
JP2011040914A (en) * 2009-08-07 2011-02-24 Canon Electronics Inc Image reading system, image reader, information processor, method of controlling image reader, information processing method, and position determination program
JP2011150396A (en) * 2010-01-19 2011-08-04 Fujifilm Corp Image pickup device, image processor, image processing method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002094856A (en) * 2000-09-18 2002-03-29 Victor Co Of Japan Ltd Unit for presenting materials
JP2002325200A (en) * 2001-04-26 2002-11-08 Victor Co Of Japan Ltd Data presentation device
JP2002334297A (en) * 2001-05-08 2002-11-22 Ricoh Co Ltd Device and method for generating image, computer readable recording medium on which program for performing the method with computer is recorded, the program and code
JP2006134303A (en) * 2004-10-04 2006-05-25 Denso Wave Inc Optical information reader
JP2006259817A (en) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd Digital image binarizing device, digital image binarizing method, and digital data reproducing device
JP2010226580A (en) * 2009-03-25 2010-10-07 Denso Wave Inc Color correction method and imaging system
JP2011040914A (en) * 2009-08-07 2011-02-24 Canon Electronics Inc Image reading system, image reader, information processor, method of controlling image reader, information processing method, and position determination program
JP2011150396A (en) * 2010-01-19 2011-08-04 Fujifilm Corp Image pickup device, image processor, image processing method and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019005193A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005189A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005188A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005187A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005195A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005194A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005191A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005196A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005201A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005202A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005203A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005192A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine
JP2019005190A (en) * 2017-06-23 2019-01-17 株式会社三洋物産 Game machine

Similar Documents

Publication Publication Date Title
JP2017123675A (en) Imaging apparatus and image processing method
US8649569B2 (en) Authentication apparatus, image capture apparatus, authentication method, and authentication program
JP4412914B2 (en) Controller that automatically adapts illumination light
JP6099652B2 (en) Imaging apparatus and image processing method
JP2011113982A (en) Method of manufacturing organic light-emitting display device, surface processing device for the same, and organic light-emitting display device
US7086919B2 (en) Detection and repair system and method thereof
JP3599077B2 (en) Organic electroluminescence device and method of manufacturing the same
JP2017004976A (en) Light emitting device
US9936559B2 (en) Light-emitting device
JP2017073338A (en) Inspection device, reduced-pressure drying device, and method for controlling reduced-pressure drying device
JP2004186306A (en) Detecting method of center of wafer, and pickup method and device for semiconductor chip
US11903243B2 (en) Optical film
JP2013239613A (en) Alignment device, alignment method, and holding device
US9419059B2 (en) Light emitting apparatus having first luminous body and second luminous body
CN102239582A (en) Patterned led device, method of generating a patterning, system for patterning and method of calibrating the system
JP3956963B2 (en) Image reading device
JP2005216705A (en) Organic el display device and its manufacturing method
JP6466502B2 (en) Light emitting device
WO2010046830A1 (en) Patterned oled device, method of generating a patterning, system for patterning and method of calibrating the system
JP3125551U (en) Surface light source device for image recognition
JP2006046946A (en) Coaxial vertical illuminating device and coaxial vertical illumination method
JP4090447B2 (en) Organic electroluminescence device
KR101128465B1 (en) Mask stretcher
JP6247842B2 (en) Detection device
JP2007027386A (en) Organic el device and organic el display unit

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180724