JP5858012B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5858012B2
JP5858012B2 JP2013164741A JP2013164741A JP5858012B2 JP 5858012 B2 JP5858012 B2 JP 5858012B2 JP 2013164741 A JP2013164741 A JP 2013164741A JP 2013164741 A JP2013164741 A JP 2013164741A JP 5858012 B2 JP5858012 B2 JP 5858012B2
Authority
JP
Japan
Prior art keywords
image
unit
imprint
polygonal
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013164741A
Other languages
Japanese (ja)
Other versions
JP2015035040A (en
Inventor
直知 宮本
直知 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013164741A priority Critical patent/JP5858012B2/en
Priority to CN201410387805.6A priority patent/CN104346613B/en
Publication of JP2015035040A publication Critical patent/JP2015035040A/en
Application granted granted Critical
Publication of JP5858012B2 publication Critical patent/JP5858012B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、所定の情報が画素集合の規則的な配列に符号化されたコード情報を生成する装置が知られている(例えば、特許文献1参照)。
コード情報は、例えば、紙などの記録媒体上に形成された状態で、携帯電話機やスマートフォン等の撮像装置によって撮像される。撮像装置は、撮像されたコード情報の画像情報に対して所定の復号処理を施すことで、コード情報によって表される元の所定の情報を取得する。
2. Description of the Related Art Conventionally, an apparatus that generates code information in which predetermined information is encoded in a regular array of pixel sets is known (see, for example, Patent Document 1).
The code information is imaged by an imaging device such as a mobile phone or a smartphone while being formed on a recording medium such as paper. The imaging apparatus obtains original predetermined information represented by the code information by performing a predetermined decoding process on the image information of the captured code information.

特開2007−118316号公報JP 2007-118316 A

ところで、コード情報を他の画像の周りの多角形状の枠に成形した印章を用いて、当該印章の印影を紙等の記録媒体に押印するとき、印面の全面に略均等に力が加わるように押印しないと印影の枠が歪んだり、印影に滲みやかすれが生じてしまう虞がある。また、コード情報を枠に形成する際の熱処理により当該枠が歪む虞もある。
この結果、印影を撮像した印影画像から枠の頂点を検出することができなくなり、印影画像を元の印章の多角形状の画像に変換するための射影変換処理を適正に行うことができないといった問題がある。この結果として、印影画像のコード情報からの所定の情報の読み取りを適正に行うことができなくなってしまう。
By the way, when imprinting the seal on a recording medium such as paper using a seal in which the code information is formed in a polygonal frame around another image, a force is applied to the entire surface of the stamp surface substantially evenly. Otherwise, the imprint frame may be distorted or the imprint may be blurred or blurred. Further, the frame may be distorted by heat treatment when the code information is formed on the frame.
As a result, it becomes impossible to detect the vertex of the frame from the imprint image obtained by capturing the imprint, and the projective transformation process for converting the imprint image into the polygonal image of the original seal cannot be performed properly. is there. As a result, it becomes impossible to properly read predetermined information from the code information of the seal image.

本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、印影を撮像した画像から枠部分の検出を適正に行うことができる画像処理装置、画像処理方法及びプログラムを提供することである。   The present invention has been made in view of such problems, and an object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of appropriately detecting a frame portion from an image obtained by capturing an imprint. Is to provide.

上記課題を解決するため、本発明に係る画像処理装置は、
多角形状の枠部分にコード情報が付加された印影を撮像した印影画像を取得する取得手段と、前記取得手段により取得された印影画像内で、前記枠部分の外側輪郭を構成し、前記多角形状の枠の角数に応じた所定数の直線を推定する推定手段と、前記推定手段により推定された所定数の直線により構成される前記印影画像の前記枠部分を検出する検出手段と、を備えたことを特徴としている。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
An acquisition unit that acquires an imprint image obtained by capturing an imprint in which code information is added to a polygonal frame portion; and an outer contour of the frame portion is configured in the imprint image acquired by the acquisition unit, and the polygon shape Estimation means for estimating a predetermined number of straight lines according to the number of corners of the frame, and detection means for detecting the frame portion of the imprint image composed of the predetermined number of straight lines estimated by the estimation means. It is characterized by that.

また、本発明に係る画像処理方法は、
画像処理装置を用いた画像処理方法であって、多角形状の枠部分にコード情報が付加された印影を撮像した印影画像を取得する処理と、取得された印影画像内で、前記枠部分の外側輪郭を構成し、前記多角形状の枠の角数に応じた所定数の直線を推定する処理と、推定された所定数の直線により構成される前記印影画像の前記枠部分を検出する処理と、を含むことを特徴としている。
The image processing method according to the present invention includes:
An image processing method using an image processing device, a process for acquiring an imprint image obtained by capturing an imprint in which code information is added to a polygonal frame portion, and an outside of the frame portion in the acquired imprint image A process for configuring a contour and estimating a predetermined number of straight lines according to the number of corners of the polygonal frame; and a process for detecting the frame part of the imprint image composed of the estimated predetermined number of straight lines; It is characterized by including.

また、本発明に係るプログラムは、
画像処理装置のコンピュータを、多角形状の枠部分にコード情報が付加された印影を撮像した印影画像を取得する取得手段、前記取得手段により取得された印影画像内で、前記枠部分の外側輪郭を構成し、前記多角形状の枠の角数に応じた所定数の直線を推定する推定手段、前記推定手段により推定された所定数の直線により構成される前記印影画像の前記枠部分を検出する検出手段、として機能させることを特徴としている。
The program according to the present invention is
The computer of the image processing apparatus obtains an imprint image obtained by capturing an imprint in which code information is added to a polygonal frame portion, and the outer contour of the frame portion is obtained in the imprint image obtained by the acquisition means. And detecting means for detecting the frame portion of the imprint image composed of a predetermined number of straight lines estimated by the estimating means. It is characterized by functioning as a means.

本発明によれば、印影を撮像した画像から枠部分の検出を適正に行うことができる。   According to the present invention, it is possible to appropriately detect a frame portion from an image obtained by capturing an imprint.

本発明を適用した一実施形態の携帯端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the portable terminal of one Embodiment to which this invention is applied. 図1の携帯端末によるコード読取処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the code reading process by the portable terminal of FIG. 図2のコード読取処理を説明するための図である。It is a figure for demonstrating the code reading process of FIG. 図2のコード読取処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the code reading process of FIG. 図2のコード読取処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the code reading process of FIG. 図2のコード読取処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the code reading process of FIG. 図2のコード読取処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the code reading process of FIG. 本発明を適用した変形例1の携帯端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the portable terminal of the modification 1 to which this invention is applied. 図8の携帯端末によるコード読取処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the code reading process by the portable terminal of FIG. 図9のコード読取処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the code reading process of FIG. 図9のコード読取処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the code reading process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明を適用した一実施形態の携帯端末100の概略構成を示すブロック図である。
図1に示すように、携帯端末100は、中央制御部1と、メモリ2と、撮像部3と、撮像制御部4と、画像データ生成部5と、コード処理部6と、動作処理部7と、表示部8と、表示制御部9と、送受話部10と、通信制御部11と、操作入力部12等を備えている。
また、中央制御部1、メモリ2、撮像部3、撮像制御部4、画像データ生成部5、コード処理部6、動作処理部7、表示制御部9、送受話部10及び通信制御部11は、バスライン13を介して接続されている。
FIG. 1 is a block diagram showing a schematic configuration of a mobile terminal 100 according to an embodiment to which the present invention is applied.
As shown in FIG. 1, the mobile terminal 100 includes a central control unit 1, a memory 2, an imaging unit 3, an imaging control unit 4, an image data generation unit 5, a code processing unit 6, and an operation processing unit 7. A display unit 8, a display control unit 9, a transmission / reception unit 10, a communication control unit 11, an operation input unit 12, and the like.
The central control unit 1, the memory 2, the imaging unit 3, the imaging control unit 4, the image data generation unit 5, the code processing unit 6, the operation processing unit 7, the display control unit 9, the transmission / reception unit 10, and the communication control unit 11 Are connected via a bus line 13.

なお、携帯端末100は、例えば、撮像装置、携帯電話やPHS(Personal Handy-phone System)などの移動体通信網で用いられる移動局、PDA(Personal Data Assistants)等から構成されている。   Note that the mobile terminal 100 includes, for example, an imaging device, a mobile station used in a mobile communication network such as a mobile phone or a PHS (Personal Handy-phone System), a PDA (Personal Data Assistants), and the like.

中央制御部1は、携帯端末100の各部を制御するものである。具体的には、中央制御部1は、携帯端末100の各部を制御するCPU(Central Processing Unit;図示略)を具備し、携帯端末100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 1 controls each unit of the mobile terminal 100. Specifically, the central control unit 1 includes a CPU (Central Processing Unit; not shown) that controls each part of the mobile terminal 100, and performs various control operations according to various processing programs (not shown) for the mobile terminal 100. Do.

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成されている。また、メモリ2は、中央制御部1やコード処理部6等によって処理されるデータ等を一時的に記憶するバッファメモリや、中央制御部1などのワーキングメモリ、当該携帯端末100の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。   The memory 2 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like. The memory 2 includes a buffer memory that temporarily stores data processed by the central control unit 1 and the code processing unit 6, a working memory such as the central control unit 1, and various types of functions related to the function of the mobile terminal 100. A program memory (not shown) in which programs and data are stored is provided.

撮像部3は、記録媒体Pに押印された印章Sの印影Si(図3(a)参照)を撮像する。
印章Sは、印影Siを記録媒体Pに残すための所定の印の周りに多角形状(例えば、正方形状等)の枠が成形され、当該枠に所定の情報を画素集合の規則的な配列に符号化したコード情報Scを印影Siの枠部分Swに付加できるように成形されている。
The imaging unit 3 images the seal Si (see FIG. 3A) of the seal S stamped on the recording medium P.
In the seal S, a polygonal frame (for example, a square shape) is formed around a predetermined mark for leaving the imprint Si on the recording medium P, and predetermined information is arranged in a regular array of pixel sets in the frame. The encoded code information Sc is shaped so as to be added to the frame portion Sw of the seal imprint Si.

印影Siは、印章Sが記録媒体Pに押印されることによって記録媒体P上に残され、印面に形成されている印画像Spの周りに、多角形状の枠に対応する枠部分Swが残される。
枠部分Swには、所定の情報を画素集合の規則的な配列に符号化したコード情報Scが複数付加されている。即ち、枠部分Swは、略等しい長さの複数の辺Sa、…のうち、少なくとも二つの辺Sa、Saにコード情報Scがそれぞれ付加されている。具体的には、略正方形状の枠部分Swの四つの辺Sa、…に、対角線を基準として線対称となるような向きに同一のコード情報Scがそれぞれ付加されている。つまり、印影Siには、コード情報Scが多重的に埋め込まれている。また、正方形状の枠部分Swの四つの角部の各々には、頂点Cの検出に用いられる所定形状(例えば、正方形状等)のマーカーSmが付加されている。
コード情報Scは、例えば、所定位置のマーカーSmに対して所定間隔を空けた位置から、枠部分Swの各辺Saの幅方向略中央側にて当該辺Saの延在方向(幅方向に略直交する直交方向)に沿うように所定の向きで付加されている。
ここで、コード情報Scは、元の所定の情報(例えば、URL等)を所定の符号化形式(例えば、リードソロモン符号、ゴレイ符号等)に従って符号化したものである。例えば、コード情報Scは、画素値「1」の白画素の集合と画素値「0」の黒画素の集合が所定の次元数で規則的に配列されている。
The imprint Si is left on the recording medium P when the stamp S is imprinted on the recording medium P, and a frame portion Sw corresponding to a polygonal frame is left around the stamp image Sp formed on the stamp surface. .
A plurality of code information Sc obtained by encoding predetermined information into a regular array of pixel sets is added to the frame portion Sw. That is, in the frame portion Sw, the code information Sc is added to at least two sides Sa, Sa among the plurality of sides Sa,. Specifically, the same code information Sc is added to each of the four sides Sa of the substantially square frame portion Sw in a direction that is symmetrical with respect to the diagonal line. That is, the code information Sc is embedded in the seal impression Si in a multiple manner. In addition, a marker Sm having a predetermined shape (for example, a square shape) used for detecting the vertex C is added to each of the four corners of the square frame portion Sw.
The code information Sc is, for example, the extending direction of the side Sa (substantially in the width direction) at a substantially central side in the width direction of each side Sa of the frame portion Sw from a position spaced from the marker Sm at a predetermined position. (Orthogonal direction orthogonal to each other) is added in a predetermined direction.
Here, the code information Sc is obtained by encoding original predetermined information (for example, URL) according to a predetermined encoding format (for example, Reed-Solomon code, Golay code, etc.). For example, in the code information Sc, a set of white pixels having a pixel value “1” and a set of black pixels having a pixel value “0” are regularly arranged with a predetermined number of dimensions.

なお、本実施形態では、印章Sが記録媒体Pに押印されるときに、印面の全面に略均等に力が加わらない状態で押印されたものとする。このため、例えば、印影Siの枠部分Swの一部分(例えば、図4(a)における下側の部分)が膨らみ、印影Siの一部分(例えば、図4(a)における向かって左上側部分)にかすれが生じている。   In the present embodiment, when the stamp S is stamped on the recording medium P, it is assumed that the stamp S is stamped in a state where no force is applied substantially evenly on the entire surface of the stamp. For this reason, for example, a part of the frame part Sw of the imprint Si (for example, the lower part in FIG. 4A) swells, and a part of the imprint Si (for example, the upper left part in FIG. 4A). Fading has occurred.

また、撮像部3は、レンズ部3aと、電子撮像部3bとを備えている。
レンズ部3aは、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The imaging unit 3 includes a lens unit 3a and an electronic imaging unit 3b.
The lens unit 3a includes a plurality of lenses such as a zoom lens and a focus lens.
The electronic imaging unit 3b is composed of, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and converts an optical image that has passed through various lenses of the lens unit 3a into a two-dimensional image signal. To do.
In addition, although illustration is abbreviate | omitted, the imaging part 3 may be provided with the aperture_diaphragm | restriction which adjusts the quantity of the light which passes the lens part 3a.

撮像制御部4は、撮像部3による被写体の撮像を制御する。即ち、撮像制御部4は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部4は、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部5に出力させる。
また、撮像制御部4は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体の撮像条件の調整制御を行う。
The imaging control unit 4 controls the imaging of the subject by the imaging unit 3. That is, the imaging control unit 4 includes a timing generator, a driver, and the like, although not illustrated. Then, the imaging control unit 4 scans and drives the electronic imaging unit 3b with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 3b at a predetermined period, and the electronic imaging unit 3b. The frame image is read out from the imaging area for each screen and is output to the image data generation unit 5.
In addition, the imaging control unit 4 performs adjustment control of imaging conditions of the subject such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.

画像データ生成部5は、電子撮像部3bから転送されたフレーム画像のアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。   The image data generation unit 5 appropriately adjusts the gain for each color component of RGB with respect to the analog value signal of the frame image transferred from the electronic image pickup unit 3b, and then samples and holds it by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data).

そして、画像データ生成部5は、生成された各フレーム画像のYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。   Then, the image data generation unit 5 sequentially outputs the generated YUV data of each frame image to the memory 2 and stores it in the memory 2.

コード処理部6は、画像取得部6aと、二値化部6bと、直線推定部6cと、枠検出部6dと、情報読取部6eとを具備している。
なお、コード処理部6の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The code processing unit 6 includes an image acquisition unit 6a, a binarization unit 6b, a straight line estimation unit 6c, a frame detection unit 6d, and an information reading unit 6e.
Each unit of the code processing unit 6 is configured by, for example, a predetermined logic circuit, but the configuration is an example and is not limited thereto.

画像取得部6aは、記録媒体Pに押印された印影Siが撮像された撮像画像Ia(図4(a)参照)を逐次取得する。
即ち、画像取得部(取得手段)6aは、所定の印画像Spの周りの所定幅を有する枠部分Swにコード情報Scが付加されてなる印影Siを撮像した撮像画像(印影画像)Iaを取得する。具体的には、画像取得部6aは、撮像部3により印影Siが撮像されて画像データ生成部5により生成された撮像画像Iaの所定の解像度の画像データの複製をメモリ2から取得する。
The image acquisition unit 6a sequentially acquires captured images Ia (see FIG. 4A) in which the imprint Si imprinted on the recording medium P is captured.
That is, the image acquisition unit (acquisition unit) 6a acquires a captured image (imprinted image) Ia obtained by imaging the imprint Si in which the code information Sc is added to the frame portion Sw having a predetermined width around the predetermined imprinted image Sp. To do. Specifically, the image acquisition unit 6 a acquires from the memory 2 a copy of image data having a predetermined resolution of the captured image Ia generated by the image data generation unit 5 after the impression Si is imaged by the imaging unit 3.

二値化部6bは、第1二値化画像Ib(図4(b)参照)を生成する。
即ち、二値化部6bは、画像取得部6aにより取得された撮像画像Iaの画像データ(YUVデータ)の輝度成分Yに対して、所定の閾値で二値化する二値化処理(例えば、適応型二値化処理等)を施して、第1二値化画像Ibの画像データを生成する。
また、二値化部6bは、第2二値化画像Id(図6(c)参照)を生成する。即ち、二値化部6bは、枠検出部6dの射影変換部d2により生成された射影変換済み画像Icの画像データ(YUVデータ)の輝度成分Yに対して、所定の閾値で二値化する二値化処理(例えば、適応型二値化処理等)を施して、第2二値化画像Idの画像データを生成する。
なお、上記の二値化処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The binarization unit 6b generates a first binarized image Ib (see FIG. 4B).
That is, the binarization unit 6b binarizes the luminance component Y of the image data (YUV data) of the captured image Ia acquired by the image acquisition unit 6a with a predetermined threshold (for example, Image data of the first binarized image Ib is generated by performing an adaptive binarization process or the like.
In addition, the binarization unit 6b generates a second binarized image Id (see FIG. 6C). That is, the binarization unit 6b binarizes the luminance component Y of the image data (YUV data) of the projection-converted image Ic generated by the projection conversion unit d2 of the frame detection unit 6d with a predetermined threshold. Binarization processing (for example, adaptive binarization processing or the like) is performed to generate image data of the second binarized image Id.
Note that the above binarization process is a known technique, and thus detailed description thereof is omitted here.

直線推定部(推定手段)6cは、画像取得部6aにより取得された撮像画像Ia内で、印章Sの多角形状の枠に対応する枠部分Swの外側輪郭を構成し、多角形状の枠の角数に応じた所定数の直線Lを推定する。具体的には、直線推定部6cは、輪郭特定部c1と、直線特定部c2とを具備している。   The straight line estimation unit (estimating means) 6c configures the outer contour of the frame portion Sw corresponding to the polygonal frame of the seal S in the captured image Ia acquired by the image acquisition unit 6a, and the corners of the polygonal frame A predetermined number of straight lines L corresponding to the number is estimated. Specifically, the straight line estimation unit 6c includes a contour specifying unit c1 and a straight line specifying unit c2.

輪郭特定部c1は、印影Siの枠部分Swの外側輪郭に対応する多角形状の凸包領域A1を特定する。
即ち、輪郭特定部(第1特定手段)c1は、画像取得部6aにより取得された撮像画像Iaの枠部分Swの外側輪郭に対応する多角形状の凸包領域A1(図4(c)参照)を特定する。
具体的には、輪郭特定部c1は、例えば、二値化部6bにより生成された撮像画像Iaに対応する第1二値化画像Ibの画像データを取得して、当該画像データに対して凸包処理を施すことにより、所定範囲内に存する画素値「0」の黒画素の集合の各々について、最外輪郭を構成する画素どうしを結ぶ複数の線分を算出する。これにより、所定範囲内に存する画素値「0」の黒画素は、複数の線分で包まれた状態となり、これらの線分から構成される多角形状の領域は凹部が存しない凸包領域Aとなる。このとき、輪郭特定部c1は、二値化画像内で処理対象となる範囲を変化させることで、凸包領域Aを複数形成する。
そして、輪郭特定部c1は、形成された複数の凸包領域A、…の中で、最も面積の大きい凸包領域Aを、印影Siの枠部分Swの外側輪郭に対応する多角形状(例えば、六角形状)の凸包領域A1として特定する。
なお、上記の凸包処理の内容は、一例であってこれに限られるものではなく、適宜任意に変更可能である。また、凸包領域Aは、公知の技術であるので、ここでは詳細な説明を省略する。
The contour specifying unit c1 specifies a polygonal convex hull region A1 corresponding to the outer contour of the frame portion Sw of the imprint Si.
That is, the contour specifying unit (first specifying unit) c1 is a polygonal convex hull region A1 corresponding to the outer contour of the frame portion Sw of the captured image Ia acquired by the image acquiring unit 6a (see FIG. 4C). Is identified.
Specifically, the contour specifying unit c1 acquires, for example, the image data of the first binarized image Ib corresponding to the captured image Ia generated by the binarizing unit 6b, and is convex with respect to the image data. By performing the hull process, for each set of black pixels having a pixel value “0” within a predetermined range, a plurality of line segments connecting the pixels constituting the outermost contour are calculated. As a result, a black pixel having a pixel value “0” within a predetermined range is in a state of being wrapped by a plurality of line segments, and a polygonal region formed by these line segments is defined as a convex hull region A having no recesses. Become. At this time, the contour specifying unit c1 forms a plurality of convex hull regions A by changing the range to be processed in the binarized image.
Then, the contour specifying unit c1 has a convex hull region A having the largest area among the plurality of convex hull regions A,... That corresponds to the outer contour of the frame portion Sw of the imprint Si (for example, Hexagonal convex hull region A1.
Note that the content of the convex hull processing described above is an example and is not limited to this, and can be arbitrarily changed as appropriate. Further, since the convex hull region A is a known technique, detailed description thereof is omitted here.

直線特定部c2は、印影Siの枠部分Swに対応する枠画像Waの外側輪郭を構成する所定数の直線Lを特定する(図6(a)参照)。
即ち、直線特定部(第2特定手段)c2は、輪郭特定部c1により特定された多角形状(例えば、六角形状)の凸包領域A1を構成する複数(例えば、六つ)の頂点B、…の位置に基づいて、枠画像Waの外側輪郭を構成する所定数の直線(例えば、正方形状の外側輪郭を構成する四つの直線)Lを特定する。具体的には、直線特定部c2は、多角形状の凸包領域A1を構成する何れか二つの頂点B、Bを通る複数の直線L、…の中で、各直線Lと多角形状の凸包領域A1とが重なる画素の数及び隣合う直線Lどうしの相対的な関係のうちの少なくとも一方に基づいて、枠画像Waの外側輪郭を構成する所定数の直線Lを特定する。
The straight line specifying unit c2 specifies a predetermined number of straight lines L constituting the outer contour of the frame image Wa corresponding to the frame portion Sw of the seal impression Si (see FIG. 6A).
That is, the straight line specifying unit (second specifying unit) c2 includes a plurality of (for example, six) vertices B constituting the convex hull region A1 having a polygonal shape (for example, hexagonal shape) specified by the contour specifying unit c1,. The predetermined number of straight lines (for example, four straight lines forming a square outer contour) L that specify the outer contour of the frame image Wa are specified on the basis of the positions. Specifically, the straight line specifying unit c2 includes each straight line L and a polygonal convex hull among a plurality of straight lines L passing through any two vertices B, B constituting the polygonal convex hull region A1. A predetermined number of straight lines L constituting the outer contour of the frame image Wa are specified based on at least one of the number of pixels that overlap with the area A1 and the relative relationship between the adjacent straight lines L.

即ち、直線特定部c2は、輪郭特定部c1により特定された多角形状の凸包領域A1を構成する何れか二つの頂点B、Bを通る複数の直線L、…の中で、多角形状の凸包領域A1を構成する複数の画素が重なる数が所定値よりも多い直線Lを特定し、当該直線Lを枠画像Waの外側輪郭を構成する直線Lとして特定する。
具体的には、直線特定部c2は、例えば、輪郭特定部c1により特定された多角形状の凸包領域A1を構成する画素に対して、RANSAC法による直線検出処理を施すことで、枠画像Waの外側輪郭を構成する直線Lを特定する。例えば、直線特定部c2は、凸包領域A1を構成する六つの頂点B、…の中から何れか二つの頂点B、Bを選択して、これら二つの頂点B、Bを結んでなる直線Lを、枠画像Waの正方形状の外側輪郭を構成する直線Lの候補(候補直線L)として特定する。そして、直線特定部c2は、特定された全ての候補直線Lについて、凸包領域A1を構成する複数の画素と重なっている画素数を算出し、算出された画素数が所定値よりも多い候補直線Lを枠画像Waの外側輪郭を構成する直線Lとして特定する。これにより、例えば、印影Siのかすれが生じている一部分に対応する候補直線Laや相対的に短い候補直線Lb以外の候補直線Lcが、枠画像Waの外側輪郭を構成する直線Lとして特定される(図5(a)参照)。
なお、RANSAC法による直線検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
That is, the straight line specifying part c2 is a polygonal convex line among a plurality of straight lines L passing through any two vertices B, B constituting the polygonal convex hull region A1 specified by the outline specifying part c1. A straight line L in which the number of overlapping pixels constituting the enveloping area A1 is greater than a predetermined value is specified, and the straight line L is specified as a straight line L that forms the outer contour of the frame image Wa.
Specifically, for example, the straight line specifying unit c2 performs a straight line detection process by the RANSAC method on the pixels forming the polygonal convex hull region A1 specified by the contour specifying unit c1, thereby the frame image Wa. A straight line L constituting the outer contour is identified. For example, the straight line specifying unit c2 selects any two vertices B, B from the six vertices B constituting the convex hull region A1, and connects the two vertices B, B. Is identified as a candidate for a straight line L (candidate straight line L) constituting the square outer contour of the frame image Wa. Then, the straight line specifying unit c2 calculates the number of pixels that overlap with a plurality of pixels constituting the convex hull region A1 for all the specified candidate straight lines L, and the number of calculated pixels is larger than a predetermined value. The straight line L is specified as the straight line L constituting the outer contour of the frame image Wa. As a result, for example, a candidate straight line La corresponding to a portion where the imprint Si is blurred or a candidate straight line Lc other than the relatively short candidate straight line Lb is specified as the straight line L constituting the outer contour of the frame image Wa. (See FIG. 5 (a)).
Note that the straight line detection process by the RANSAC method is a known technique, and thus detailed description thereof is omitted here.

また、直線特定部c2は、輪郭特定部c1により特定された多角形状の凸包領域A1を構成する何れか二つの頂点B、Bを通る複数の直線L、…の中で、隣合う直線Lとのなす角度が多角形状の枠の内角と略等しい直線Lを特定し、当該直線Lを構成する画素のうち多角形状の凸包領域A1と重なる画素に重みを付けて各直線L毎の評価値を算出して、算出された評価値の高い直線Lを枠画像Waの外側輪郭を構成する直線Lとして特定する。
具体的には、直線特定部c2は、例えば、全ての候補直線Lについて、隣合う候補直線Lとのなす角度が印章Sの正方形状の枠の内角(90°)と略等しい候補直線Ldを特定する。そして、直線特定部c2は、特定された候補直線Ldを構成する画素のうち、多角形状の凸包領域A1と重なる画素に重みを付けて各候補直線L毎の評価値を所定の演算式に従って算出する。例えば、印影Siの枠画像Waの一部分(例えば、図5(b)における下側の部分)が膨らんでいる場合、直線特定部c2は、この部分の三つの頂点B、…の中から何れか二つの頂点B、Bを選択して候補直線Lを特定すると、三本の候補直線L、…が特定された状態となる。そして、直線特定部c2は、これら三本の候補直線L、…の各々について、各端部にて隣合う候補直線L(図5(b)中、二点鎖線で表す左右二つの候補直線Lc)とのなす角度をそれぞれ算出し、算出された角度が90°と略等しい候補直線L(図5(b)中、一点鎖線で表す候補直線Ld)を特定する。さらに、直線特定部c2は、特定された候補直線Ldを構成する画素の中で、多角形状の凸包領域A1と重なる画素(例えば、図5(b)中、左右両端部側の画素)を特定し、特定された画素に重みを付けて所定の演算式に従って評価値を算出する。
そして、直線特定部c2は、算出された各候補直線Lの評価値を比較して、最も評価値が高い候補直線Ldを枠画像Waの外側輪郭を構成する直線Lとして特定する。例えば、一点鎖線で表す候補直線Ldは、多角形状の凸包領域A1のエッジに沿った形状をなしていないものの、左右両端部側の画素が多角形状の凸包領域A1と重なっているので、破線で表す他の候補直線Lbよりも評価値が高くなり、枠画像Waの外側輪郭を構成する直線Lとして特定される。
Further, the straight line specifying part c2 is a line L adjacent to one another among a plurality of straight lines L passing through any two vertices B, B constituting the polygonal convex hull region A1 specified by the contour specifying part c1. A straight line L that is substantially equal to the interior angle of the polygonal frame is specified, and the pixels that form the straight line L are weighted to the pixels that overlap the polygonal convex hull region A1, and each straight line L is evaluated. The value is calculated, and the straight line L with the high evaluation value is specified as the straight line L constituting the outer contour of the frame image Wa.
Specifically, for example, the straight line specifying unit c2 calculates candidate straight lines Ld that are substantially equal to the interior angle (90 °) of the square frame of the seal S with respect to all candidate straight lines L. Identify. Then, the straight line specifying unit c2 weights pixels that overlap the polygonal convex hull region A1 among the pixels constituting the specified candidate straight line Ld, and calculates an evaluation value for each candidate straight line L according to a predetermined arithmetic expression. calculate. For example, when a part of the frame image Wa of the imprint Si (for example, the lower part in FIG. 5B) is swollen, the straight line specifying part c2 is one of the three vertices B of the part. When the two vertices B and B are selected and the candidate straight line L is specified, the three candidate straight lines L,... Are specified. Then, the straight line specifying unit c2 has, for each of these three candidate straight lines L,..., Adjacent candidate straight lines L (two left and right candidate straight lines Lc represented by two-dot chain lines in FIG. 5B). ) And a candidate straight line L (candidate straight line Ld represented by a one-dot chain line in FIG. 5B) that is substantially equal to 90 ° is specified. Furthermore, the straight line specifying unit c2 selects pixels overlapping the polygonal convex hull region A1 among the pixels constituting the specified candidate straight line Ld (for example, the pixels on the left and right ends in FIG. 5B). An identification value is specified, and an evaluation value is calculated according to a predetermined arithmetic expression with a weight assigned to the identified pixel.
Then, the straight line specifying unit c2 compares the calculated evaluation values of the candidate straight lines L, and specifies the candidate straight line Ld having the highest evaluation value as the straight line L constituting the outer contour of the frame image Wa. For example, the candidate straight line Ld represented by the alternate long and short dash line does not form a shape along the edge of the polygonal convex hull region A1, but the pixels on the left and right ends overlap the polygonal convex hull region A1, The evaluation value is higher than that of the other candidate straight line Lb represented by the broken line, and is specified as a straight line L constituting the outer contour of the frame image Wa.

このようにして、直線推定部6cは、撮像画像Ia(第1二値化画像Ib)内で、印章Sの正方形状の枠に対応する枠画像Waの外側輪郭を構成する四本の直線L、…を推定する。具体的には、直線推定部6cは、正方形の上下左右の各辺に対応する直線Lとして、上辺対応直線L1、下辺対応直線L2、左辺対応直線L3及び右辺対応直線L4を推定する(図6(a)参照)。   In this way, the straight line estimation unit 6c includes the four straight lines L constituting the outer contour of the frame image Wa corresponding to the square frame of the seal S in the captured image Ia (first binarized image Ib). Estimate. Specifically, the straight line estimation unit 6c estimates an upper-side corresponding straight line L1, a lower-side corresponding straight line L2, a left-side corresponding straight line L3, and a right-side corresponding straight line L4 as straight lines L corresponding to the upper, lower, left, and right sides of the square (FIG. 6). (See (a)).

枠検出部(検出手段)6dは、直線推定部6cにより推定された所定数の直線Lにより構成される印影Siの撮像画像Iaの枠画像Waを検出する。具体的には、枠検出部6dは、頂点特定部d1と、射影変換部d2とを具備している。   The frame detection unit (detection unit) 6d detects the frame image Wa of the captured image Ia of the impression Si composed of a predetermined number of straight lines L estimated by the straight line estimation unit 6c. Specifically, the frame detection unit 6d includes a vertex specifying unit d1 and a projective transformation unit d2.

頂点特定部d1は、撮像画像Iaの枠画像Waの頂点Cを特定する(図6(b)参照)。
即ち、頂点特定部(第3特定手段)d1は、直線特定部c2により特定された所定数の直線Lどうしが交わる所定数の点Cを印影Siの枠部分Sw(枠画像Wa)の頂点Cとして特定する。具体的には、頂点特定部d1は、撮像画像Ia内で、直線特定部c2により特定された外側輪郭を構成する四本の直線L、…のうちの隣合う直線Lどうしが交わることで形成される四つの点を枠画像Waの頂点Cとして特定する。このとき、四本の直線L、…のうち、互いに交わらない直線Lどうし(例えば、上辺対応直線L1と左辺対応直線L3等)については、頂点特定部d1は、少なくとも一方の直線Lを所定方向に延長させることで、交点を求める。
そして、枠検出部6dは、頂点特定部d1により特定された所定数の頂点Cに基づいて、撮像画像Iaの枠画像Waを検出する。即ち、枠検出部6dは、特定された四つの点を頂点C、…とする領域を、印影Siの枠部分Sw(枠画像Wa)として検出する。
The vertex specifying unit d1 specifies the vertex C of the frame image Wa of the captured image Ia (see FIG. 6B).
That is, the vertex specifying unit (third specifying unit) d1 uses a predetermined number of points C where the predetermined number of straight lines L intersected by the straight line specifying unit c2 intersect with each other as the vertex C of the frame portion Sw (frame image Wa) of the imprint Si. As specified. Specifically, the vertex specifying part d1 is formed by the adjacent straight lines L of the four straight lines L,... Constituting the outer contour specified by the straight line specifying part c2 intersecting in the captured image Ia. These four points are specified as vertices C of the frame image Wa. At this time, for the straight lines L that do not intersect each other (for example, the upper side corresponding straight line L1 and the left side corresponding straight line L3) among the four straight lines L,... The intersection is obtained by extending to.
Then, the frame detection unit 6d detects the frame image Wa of the captured image Ia based on the predetermined number of vertices C specified by the vertex specification unit d1. That is, the frame detection unit 6d detects an area having the specified four points as vertices C,... As a frame portion Sw (frame image Wa) of the imprint Si.

なお、頂点特定部d1は、撮像画像Ia内で印影SiのマーカーSmに対応するマーカー画像Maの座標位置に基づいて、枠部分Sw(枠画像Wa)の頂点Cを特定しても良い。
即ち、例えば、図7(a)に示すように、印影Siの一部分(例えば、右上部分)に滲みが生じている場合、当該一部分は二値化すると画素値「0」の黒画素となってしまい、当該印影Siの撮像画像Iaから枠画像Waの外側輪郭を構成する直線Lの推定を適正に行うことができない虞がある。そこで、印面ではマーカーSmの近傍(所定範囲内)に多角形状の枠の頂点が存することを利用して、頂点特定部d1は、撮像画像Ia内でのマーカー画像Maの座標位置を考慮して枠画像Waの頂点Cを特定する。
具体的には、頂点特定部d1は、例えば、マーカーSmの形状に対応するパターン画像Pa(図7(b)参照)を用意し、当該パターン画像Paの特徴情報(例えば、SIFT(Scale-Invariant Features Transform)特徴量)を利用して、撮像画像Ia内でパターン画像Paと類似するマーカー画像Maを含む領域を特定する。そして、頂点特定部d1は、撮像画像Ia内で、マーカー画像Maの座標位置を基準とする所定範囲内から枠画像Waの頂点Cを特定する。これにより、頂点特定部d1は、印影Siの滲みが生じている部分から対応する枠画像Waの頂点Cを特定することができ、枠検出部6dによる撮像画像Iaの枠画像Waの検出を適正に行うことができる(図7(c)参照)。
The vertex specifying unit d1 may specify the vertex C of the frame portion Sw (frame image Wa) based on the coordinate position of the marker image Ma corresponding to the marker Sm of the imprint Si in the captured image Ia.
That is, for example, as shown in FIG. 7A, when blur occurs in a part (for example, the upper right part) of the imprint Si, the part becomes a black pixel having a pixel value of “0” when binarized. Therefore, there is a possibility that the straight line L constituting the outer contour of the frame image Wa cannot be properly estimated from the captured image Ia of the imprint Si. Therefore, the vertex specifying unit d1 takes into account the coordinate position of the marker image Ma in the captured image Ia by utilizing the fact that the vertex of the polygonal frame exists in the vicinity (within a predetermined range) of the marker Sm on the stamp surface. The vertex C of the frame image Wa is specified.
Specifically, for example, the vertex specifying unit d1 prepares a pattern image Pa (see FIG. 7B) corresponding to the shape of the marker Sm, and features information (for example, SIFT (Scale-Invariant) of the pattern image Pa. A region including a marker image Ma similar to the pattern image Pa in the captured image Ia is specified using the Features Transform). And the vertex specific | specification part d1 specifies the vertex C of the frame image Wa from the predetermined range on the basis of the coordinate position of the marker image Ma in the captured image Ia. Thereby, the vertex specifying unit d1 can specify the vertex C of the corresponding frame image Wa from the portion where the imprint Si is blurred, and the frame detection unit 6d can appropriately detect the frame image Wa of the captured image Ia. (See FIG. 7C).

射影変換部d2は、射影変換済み画像Ic(図6(b)参照)を生成する射影変換処理を行う。
即ち、射影変換部(生成手段)d2は、頂点特定部d1により特定された所定数の頂点Cに基づいて、画像取得部6aにより取得された撮像画像Iaに対して射影変換処理を行って多角形状の射影変換済み画像Icを生成する。具体的には、射影変換部d2は、頂点特定部d1により特定された外形が歪んだ四角形状をなす枠画像Waの四つの頂点C、…の座標位置が、正方形の四つの頂点C、…の座標位置となるような座標変換式を算出する。そして、射影変換部d2は、算出された座標変換式に従って、印影Siの撮像画像Iaに対して射影変換処理を施して、印影Siの枠部分Swに対応する枠画像Waの外形が元の印章Sの正方形状に変換された射影変換済み画像Icを生成する。
そして、枠検出部6dは、射影変換部d2により生成された射影変換済み画像Ic(多角形状の撮像画像)内で、印章Sの枠に対応する正方形状の枠部分Sw(枠画像Wa)を検出する。
なお、上記の射影変換処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The projective transformation unit d2 performs a projective transformation process for generating a projected transformed image Ic (see FIG. 6B).
That is, the projective transformation unit (generation unit) d2 performs a projective transformation process on the captured image Ia acquired by the image acquisition unit 6a on the basis of the predetermined number of vertices C specified by the vertex specifying unit d1, and performs polygon conversion. A projective transformed image Ic of the shape is generated. Specifically, the projective transformation unit d2 has a coordinate position of four vertices C,... Of a square frame image Wa having a distorted outer shape specified by the vertex specifying unit d1. A coordinate conversion formula is calculated so that the coordinate position becomes. Then, the projective transformation unit d2 performs a projective transformation process on the captured image Ia of the imprint Si in accordance with the calculated coordinate transformation formula, and the outline of the frame image Wa corresponding to the frame portion Sw of the imprint Si is the original seal. A projective transformed image Ic converted into a square shape of S is generated.
Then, the frame detection unit 6d selects a square frame portion Sw (frame image Wa) corresponding to the frame of the seal S in the projection-converted image Ic (polygonal captured image) generated by the projection conversion unit d2. To detect.
Note that the above-described projective transformation process is a known technique, and thus detailed description thereof is omitted here.

情報読取部6eは、コード情報Scから元の所定の情報を読み取る読取処理を行う。
即ち、情報読取部(読取手段)6eは、枠検出部6dにより検出された印影Siの撮像画像Iaの枠部分Sw(枠画像Wa)内のコード情報Scから所定の情報を読み取る。具体的には、情報読取部6eは、射影変換部d2により生成された射影変換済み画像Icに対応する第2二値化画像Idの枠画像Wa内のコード情報Scから所定の情報を読み取る。
例えば、情報読取部6eは、第2二値化画像Id内で、枠検出部6dにより検出された枠画像Waを構成する略平行な二本のエッジを検出し、これら二本のエッジの中間点どうしを結んでなる所定形状(例えば、正方形状等)の線をコード情報Scの読取領域D(図6(c)参照)として特定する。そして、情報読取部6eは、読取領域Dの所定位置(例えば、左上隅部等)から所定方向に沿って走査して、画素値「1」の白画素の集合と画素値「0」の黒画素の集合が存する座標位置をそれぞれ特定していく。情報読取部6eは、特定された白画素の集合及び黒画素の集合の配列に対して、コード情報Scの符号化方式に応じた復号処理を施して、コード情報Scによって表される元の所定の情報(例えば、URL等)を読み取る。
このとき、情報読取部6eは、読取領域Dのうち、枠部分Swの各辺Saに対応する領域毎に読取処理を行う。つまり、コード情報Scから元の所定の情報の読み取りは、枠部分Swの辺Saの数に応じた回数(例えば、4回)行われる。ここで、枠部分Swの各辺Saには同一のコード情報Scがそれぞれ付加されているので、情報読取部6eは、例えば、元の所定の情報が二箇所以上で検出されて複数読み取られた場合に、当該所定の情報を適正に読み取ることができたと判定するように構成しても良い。
なお、上記の読取処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The information reading unit 6e performs a reading process of reading original predetermined information from the code information Sc.
That is, the information reading unit (reading unit) 6e reads predetermined information from the code information Sc in the frame portion Sw (frame image Wa) of the captured image Ia of the seal impression Si detected by the frame detection unit 6d. Specifically, the information reading unit 6e reads predetermined information from the code information Sc in the frame image Wa of the second binarized image Id corresponding to the projection-converted image Ic generated by the projection conversion unit d2.
For example, the information reading unit 6e detects two substantially parallel edges constituting the frame image Wa detected by the frame detection unit 6d in the second binarized image Id, and an intermediate between these two edges. A line having a predetermined shape (for example, a square shape) formed by connecting the dots is specified as the reading area D of the code information Sc (see FIG. 6C). Then, the information reading unit 6e scans along a predetermined direction from a predetermined position (for example, the upper left corner) of the reading region D, and collects a set of white pixels having a pixel value “1” and black having a pixel value “0”. Each coordinate position where a set of pixels exists is specified. The information reading unit 6e performs a decoding process on the specified array of white pixels and black pixels according to the encoding method of the code information Sc, and performs the original predetermined process represented by the code information Sc. Information (for example, URL) is read.
At this time, the information reading unit 6e performs a reading process for each area corresponding to each side Sa of the frame portion Sw in the reading area D. That is, the original predetermined information is read from the code information Sc a number of times (for example, four times) corresponding to the number of sides Sa of the frame portion Sw. Here, since the same code information Sc is added to each side Sa of the frame portion Sw, the information reading unit 6e detects, for example, a plurality of original predetermined information detected at two or more locations. In this case, it may be configured to determine that the predetermined information has been properly read.
Note that the above reading process is a known technique, and thus detailed description thereof is omitted here.

動作処理部7は、情報読取部6eにより読み取られたコード情報Scの元の所定の情報に従って、所定の動作を実行する。
即ち、動作処理部(処理手段)7は、情報読取部6eにより所定の情報が所定数以上読み取られた場合に、当該所定の情報に対応する処理の実行を制御する。具体的には、例えば、所定の情報としてURLが読み取られた場合には、動作処理部7は、通信制御部11を制御して、取得されたURLに規定されているインターネットにおける特定のページにアクセスする。そして、動作処理部7は、予め設定されている各種の処理(例えば、特定の音声や画像の再生等)の実行指示に従って、表示制御部9や送受話部10等を制御して各種の処理を実行させる。
The operation processing unit 7 performs a predetermined operation according to the original predetermined information of the code information Sc read by the information reading unit 6e.
That is, the operation processing unit (processing unit) 7 controls execution of processing corresponding to the predetermined information when the information reading unit 6e reads a predetermined number or more of the predetermined information. Specifically, for example, when a URL is read as predetermined information, the operation processing unit 7 controls the communication control unit 11 to display a specific page on the Internet defined by the acquired URL. to access. Then, the operation processing unit 7 controls the display control unit 9, the transmission / reception unit 10, and the like in accordance with execution instructions for various types of processing set in advance (for example, playback of specific audio or images). Is executed.

表示部8は、例えば、液晶表示パネルから構成され、表示制御部9からのビデオ信号に基づいて撮像部3により撮像された画像(例えば、ライブビュー画像等)を表示画面に表示する。   The display unit 8 is composed of, for example, a liquid crystal display panel, and displays an image (for example, a live view image) captured by the imaging unit 3 based on a video signal from the display control unit 9 on a display screen.

表示制御部9は、メモリ2に一時的に記憶されている表示用の画像データを読み出して表示部8に表示させる制御を行う。
具体的には、表示制御部9は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部1の制御下にてメモリ2から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレート(例えば、30fps)で読み出して、これらのデータを元にビデオ信号を発生して表示部8に出力する。
例えば、表示制御部9は、撮像部3及び撮像制御部4により撮像され画像データ生成部5により生成された複数のフレーム画像、…を所定の表示フレームレートで逐次更新しながら表示部8にライブビュー表示させる。
The display control unit 9 performs control to read out display image data temporarily stored in the memory 2 and display it on the display unit 8.
Specifically, the display control unit 9 includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr read from the memory 2 and stored in the VRAM (not shown) under the control of the central control unit 1 through the VRAM controller. Are read out at a predetermined playback frame rate (for example, 30 fps), and a video signal is generated based on these data and output to the display unit 8.
For example, the display control unit 9 performs live updating on the display unit 8 while sequentially updating a plurality of frame images captured by the imaging unit 3 and the imaging control unit 4 and generated by the image data generation unit 5 at a predetermined display frame rate. Display the view.

送受話部10は、通信ネットワークNを介して接続された外部機器の外部ユーザとの通話を行う。
具体的には、送受話部10は、マイク10a、スピーカ10b、データ変換部10c等を備えている。そして、送受話部10は、マイク10aから入力されるユーザの送話音声をデータ変換部10cによりA/D変換処理して送話音声データを中央制御部1に出力するとともに、中央制御部1の制御下にて、通信制御部11から出力されて入力される受話音声データ等の音声データをデータ変換部10cによりD/A変換処理してスピーカ10bから出力する。
The transmitter / receiver unit 10 performs a call with an external user of an external device connected via the communication network N.
Specifically, the transmission / reception unit 10 includes a microphone 10a, a speaker 10b, a data conversion unit 10c, and the like. The transmission / reception unit 10 performs A / D conversion processing on the user's transmission voice input from the microphone 10a by the data conversion unit 10c and outputs the transmission voice data to the central control unit 1. Under the control, voice data such as received voice data outputted and inputted from the communication control unit 11 is D / A converted by the data conversion unit 10c and outputted from the speaker 10b.

通信制御部11は、通信ネットワークN及び通信アンテナ11aを介してデータの送受信を行う。
即ち、通信アンテナ11aは、当該携帯端末100が無線基地局(図示略)との通信で採用している所定の通信方式(例えば、W−CDMA(Wideband Code Division Multiple Access)方式、GSM(Global System for Mobile Communications;登録商標)方式等)に対応したデータの送受信が可能なアンテナである。そして、通信制御部11は、所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ11aを介してデータの送受信を行う。つまり、通信制御部11は、中央制御部1から出力されて入力される指示信号に基づいて、通信相手の外部機器に対して、当該外部機器の外部ユーザとの通話中の音声の送受信や、電子メールのデータの送受信を行う。
なお、通信制御部11の構成は一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、図示は省略するが、無線LANモジュールを搭載し、アクセスポイント(Access Point)を介して通信ネットワークNにアクセス可能な構成としても良い。
The communication control unit 11 transmits and receives data via the communication network N and the communication antenna 11a.
That is, the communication antenna 11a is connected to a predetermined communication method (for example, W-CDMA (Wideband Code Division Multiple Access) method, GSM (Global System)) used by the mobile terminal 100 for communication with a radio base station (not shown). for Mobile Communications (registered trademark) system, etc.). The communication control unit 11 transmits / receives data to / from the radio base station via the communication antenna 11a through a communication channel set in the communication method according to a communication protocol corresponding to a predetermined communication method. That is, the communication control unit 11 transmits / receives voice during a call with an external user of the external device to the external device of the communication partner based on the instruction signal output from the central control unit 1 and input, Send and receive e-mail data.
Note that the configuration of the communication control unit 11 is an example and is not limited thereto, and can be arbitrarily changed as appropriate. For example, although not shown, a wireless LAN module is mounted and an access point (Access Point) is provided. It is good also as a structure which can access the communication network N via this.

通信ネットワークNは、例えば、携帯端末100を無線基地局やゲートウェイサーバ(図示略)等を介して外部機器と接続する通信ネットワークである。
また、通信ネットワークNは、例えば、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信ネットワーク網と、IPネットワーク、VoIP(Voice over Internet Protocol)ゲートウェイ、インターネットサービスプロバイダ等が含まれる。
The communication network N is a communication network that connects the mobile terminal 100 to an external device via a wireless base station, a gateway server (not shown), or the like, for example.
The communication network N is a communication network constructed using, for example, a dedicated line or an existing general public line, and various line forms such as a LAN (Local Area Network) and a WAN (Wide Area Network) are applied. Is possible. The communication network N includes, for example, various communication network networks such as a telephone line network, ISDN line network, dedicated line, mobile communication network, communication satellite line, CATV line network, IP network, VoIP (Voice over Internet Protocol). ) Gateways, Internet service providers, etc. are included.

操作入力部12は、端末本体に対して各種指示を入力するためのものである。
具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン、電話の発着信や電子メールの送受信等の実行指示に係る通信関連ボタン、テキストの入力指示に係る数字ボタンや記号ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部12は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部12から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像、電話の発着信、電子メールの送受信等)を各部に実行させる。
The operation input unit 12 is for inputting various instructions to the terminal body.
Specifically, the operation input unit 12 executes a shutter button related to a subject photographing instruction, up / down / left / right cursor buttons and a determination button related to a selection instruction of a mode, a function, etc., making / receiving a call, sending / receiving an e-mail, etc. Various buttons (not shown) such as communication-related buttons related to instructions and numeric buttons and symbol buttons related to text input instructions are provided.
When various buttons are operated by the user, the operation input unit 12 outputs an operation instruction corresponding to the operated button to the central control unit 1. The central control unit 1 causes each unit to execute a predetermined operation (for example, imaging of a subject, incoming / outgoing calls, transmission / reception of an e-mail, etc.) according to an operation instruction output from the operation input unit 12 and input.

なお、操作入力部12は、表示部8と一体となって設けられたタッチパネルを有していても良く、ユーザによるタッチパネルの所定操作に基づいて、当該所定操作に応じた操作指示を中央制御部1に出力しても良い。   The operation input unit 12 may include a touch panel provided integrally with the display unit 8, and an operation instruction corresponding to the predetermined operation is given to the central control unit based on a predetermined operation of the touch panel by the user. 1 may be output.

<コード読取処理>
次に、携帯端末100によるコード読取処理について、図2〜図7を参照して説明する。
図2は、コード読取処理に係る動作の一例を示すフローチャートである。
なお、以下のコード読取処理にて撮像される印影Siは、例えば、葉書等の記録媒体Pの所定位置に押印されているものとする(図3(a)参照)。また、印影Siの枠部分Swの各辺Saには同一のコード情報Scがそれぞれ付加されているものとする。
<Code reading process>
Next, a code reading process performed by the mobile terminal 100 will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the code reading process.
It is assumed that the imprint Si imaged in the following code reading process is stamped at a predetermined position of the recording medium P such as a postcard (see FIG. 3A). Further, it is assumed that the same code information Sc is added to each side Sa of the frame portion Sw of the seal imprint Si.

図2に示すように、先ず、ユーザによる操作入力部12の所定操作に基づいて撮像指示が入力されると、撮像制御部4は、撮像部3に印影Siを撮像させ、画像データ生成部5は、電子撮像部3bから転送された撮像画像Iaの画像データを生成する(ステップS1;図3(b)参照)。
そして、画像データ生成部5は、生成された撮像画像IaのYUVデータをメモリ2に出力し、当該メモリ2に格納させる。
As shown in FIG. 2, first, when an imaging instruction is input based on a predetermined operation of the operation input unit 12 by the user, the imaging control unit 4 causes the imaging unit 3 to image the imprint Si, and the image data generation unit 5. Generates image data of the captured image Ia transferred from the electronic imaging unit 3b (step S1; see FIG. 3B).
Then, the image data generation unit 5 outputs the generated YUV data of the captured image Ia to the memory 2 and stores it in the memory 2.

なお、印影Siをより正方形に近い状態で撮像し易くするために、表示制御部9は、印影Siの外形に対応するガイド表示を表示部8に表示させても良い。   Note that the display control unit 9 may cause the display unit 8 to display a guide display corresponding to the outer shape of the imprint Si in order to make it easier to capture the imprint Si in a state closer to a square.

次に、コード処理部6の画像取得部6aは、メモリ2から画像データ生成部5により生成された撮像画像Iaの所定の解像度の画像データ(例えば、輝度データ)を取得する(ステップS2;図4(a)参照)。続けて、二値化部6bは、画像取得部6aにより取得された撮像画像Iaの画像データに対して、所定の閾値で二値化する二値化処理を施して、第1二値化画像Ib(図4(b)参照)の画像データを生成する(ステップS3)。   Next, the image acquisition unit 6a of the code processing unit 6 acquires image data (for example, luminance data) of a predetermined resolution of the captured image Ia generated by the image data generation unit 5 from the memory 2 (step S2; FIG. 4 (a)). Subsequently, the binarization unit 6b performs binarization processing that binarizes the image data of the captured image Ia acquired by the image acquisition unit 6a with a predetermined threshold value, so that the first binarized image is obtained. Image data of Ib (see FIG. 4B) is generated (step S3).

次に、直線推定部6cの輪郭特定部c1は、二値化部6bにより生成された第1二値化画像Ibの画像データに対して凸包処理を施すことにより、枠部分Swの外側輪郭に対応する多角形状の凸包領域A1(図4(c)参照)を特定する(ステップS4)。具体的には、輪郭特定部c1は、凸包処理により形成された複数の凸包領域A、…の中で、最も面積の大きい凸包領域Aを、印影Siの枠部分Swの外側輪郭に対応する多角形状(例えば、六角形状)の凸包領域A1として特定する。   Next, the contour specifying unit c1 of the straight line estimation unit 6c performs a convex hull process on the image data of the first binarized image Ib generated by the binarization unit 6b, thereby the outer contour of the frame portion Sw. A polygonal convex hull region A1 (see FIG. 4C) corresponding to is specified (step S4). Specifically, the contour specifying unit c1 uses the convex hull region A having the largest area among the plurality of convex hull regions A formed by the convex hull processing as the outer contour of the frame portion Sw of the imprint Si. A corresponding polygonal (for example, hexagonal) convex hull region A1 is specified.

続けて、直線特定部c2は、輪郭特定部c1により特定された多角形状の凸包領域A1を構成する何れか二つの頂点Bを通る複数の直線L、…の中で、多角形状の凸包領域A1を構成する複数の画素が重なる数が所定値よりも多い直線Lを枠部分Swに対応する枠画像Waの外側輪郭を構成する直線Lとして特定する(ステップS5)。具体的には、直線特定部c2は、凸包領域A1を構成する六つの頂点B、…の中から何れか二つの頂点B、Bを選択して、これら二つの頂点B、Bを結んでなる直線Lを、枠画像Waの正方形状の外側輪郭を構成する候補直線Lとして特定する。そして、直線特定部c2は、特定された候補直線Lの中で、凸包領域A1を構成する複数の画素と重なっている画素数が所定値よりも多い候補直線Lを枠画像Waの外側輪郭を構成する直線Lとして特定する。   Subsequently, the straight line specifying unit c2 includes a polygonal convex hull among a plurality of straight lines L passing through any two vertices B constituting the polygonal convex hull region A1 specified by the contour specifying unit c1. A straight line L in which the number of overlapping pixels constituting the region A1 is greater than a predetermined value is specified as a straight line L that forms the outer contour of the frame image Wa corresponding to the frame portion Sw (step S5). Specifically, the straight line specifying unit c2 selects any two vertices B, B from the six vertices B constituting the convex hull region A1, and connects these two vertices B, B. This straight line L is specified as a candidate straight line L constituting the square outer contour of the frame image Wa. Then, the straight line specifying unit c2 selects the candidate straight line L having the number of pixels overlapping with a plurality of pixels constituting the convex hull region A1 in the specified candidate straight line L as the outer contour of the frame image Wa. Is specified as a straight line L constituting.

次に、直線特定部c2は、多角形状の凸包領域A1を構成する何れか二つの頂点B、Bを通る複数の直線L、…の中で、隣合う直線Lとのなす角度を考慮して枠画像Waの外側輪郭を構成する直線Lを特定する(ステップS6)。具体的には、直線特定部c2は、全ての候補直線Lについて、隣合う候補直線Lとのなす角度が印章Sの正方形状の枠の内角(90°)と略等しい候補直線Lを特定し、多角形状の凸包領域A1と重なる画素に重みを付けて各候補直線L毎の評価値を所定の演算式に従って算出する。そして、直線特定部c2は、算出された各候補直線Lの評価値を比較して、最も評価値が高い候補直線Lを枠画像Waの外側輪郭を構成する直線Lとして特定する。   Next, the straight line specifying unit c2 considers an angle formed with an adjacent straight line L among a plurality of straight lines L passing through any two vertices B, B constituting the convex hull region A1 having a polygonal shape. The straight line L constituting the outer contour of the frame image Wa is specified (step S6). Specifically, the straight line specifying unit c2 specifies a candidate straight line L for which all the candidate straight lines L are substantially equal to the interior angle (90 °) of the square frame of the seal S with respect to the adjacent candidate straight line L. Then, an evaluation value for each candidate straight line L is calculated according to a predetermined arithmetic expression by weighting pixels overlapping the polygonal convex hull region A1. The straight line specifying unit c2 compares the calculated evaluation values of the candidate straight lines L, and specifies the candidate straight line L having the highest evaluation value as the straight line L constituting the outer contour of the frame image Wa.

なお、ステップS5における直線Lの特定処理と、ステップS6における直線Lの特定処理の順序は一例であってこれに限られるものではなく、例えば、逆にしても良い。   Note that the order of the process of specifying the straight line L in step S5 and the process of specifying the straight line L in step S6 is merely an example, and is not limited to this. For example, the order may be reversed.

そして、枠検出部6dの頂点特定部d1は、直線特定部c2により特定された外側輪郭を構成する所定数の直線Lどうしが交わる所定数の点を印影Siの枠部分Sw(枠画像Wa)の頂点Cとして特定する(ステップS7)。このとき、頂点特定部d1は、撮像画像Ia内でのマーカー画像Maの座標位置を考慮して枠画像Waの頂点Cを特定しても良い(図7(a)〜図7(c)参照)。
続けて、枠検出部6dは、頂点特定部d1による特定結果に基づいて、枠画像Waの頂点Cが四つ特定されたか否かを判定する(ステップS8)。ここで、枠画像Waの頂点Cが四つ特定されたと判定されると(ステップS8;YES)、射影変換部d2は、特定された四つの頂点C、…の座標位置を基準として、撮像画像Iaに対して射影変換処理を行う(ステップS9)。具体的には、射影変換部d2は、外形が歪んだ四角形状をなす枠画像Waの四つの頂点C、…の座標位置が正方形の四つの頂点C、…の座標位置となるような座標変換式を算出し、算出された座標変換式に従って、印影Siの撮像画像Iaに対して射影変換処理を施して、印影Siの枠画像Waの外形が正方形状に変換された射影変換済み画像Icを生成する。
Then, the vertex specifying unit d1 of the frame detecting unit 6d uses a predetermined number of points where the predetermined number of straight lines L constituting the outer contour specified by the straight line specifying unit c2 intersect, and the frame portion Sw of the imprint Si (frame image Wa). Is specified as a vertex C (step S7). At this time, the vertex specifying unit d1 may specify the vertex C of the frame image Wa in consideration of the coordinate position of the marker image Ma in the captured image Ia (see FIGS. 7A to 7C). ).
Subsequently, the frame detection unit 6d determines whether or not four vertices C of the frame image Wa have been identified based on the identification result by the vertex identification unit d1 (step S8). If it is determined that four vertices C of the frame image Wa have been identified (step S8; YES), the projective transformation unit d2 takes a captured image with reference to the coordinate positions of the identified four vertices C,. Projective transformation processing is performed on Ia (step S9). Specifically, the projective transformation unit d2 performs coordinate transformation such that the coordinate positions of the four vertices C,... Of the rectangular frame image Wa having a distorted outer shape become the coordinate positions of the four vertices C,. According to the calculated coordinate conversion formula, a projection conversion process is performed on the captured image Ia of the imprint Si, and a projection-converted image Ic obtained by converting the outline of the frame image Wa of the imprint Si into a square shape is obtained. Generate.

なお、ステップS8にて、枠画像Waの頂点Cが四つ特定されていないと判定されると(ステップS8;NO)、中央制御部1のCPUは、以降の処理をスキップして、当該コード読取処理を終了させる。   If it is determined in step S8 that four vertices C of the frame image Wa have not been specified (step S8; NO), the CPU of the central control unit 1 skips the subsequent processing and performs the code The reading process is terminated.

次に、枠検出部6dは、射影変換部d2により生成された射影変換済み画像Ic内で、印章Sの枠に対応する正方形状の枠部分Sw(枠画像Wa)を検出する(ステップS10)。続けて、二値化部6bは、射影変換部d2により生成された射影変換済み画像Icの画像データに対して、所定の閾値で二値化する二値化処理を施して、第2二値化画像Idの画像データを生成する(ステップS11)。   Next, the frame detection unit 6d detects a square frame portion Sw (frame image Wa) corresponding to the frame of the seal S in the projective transformed image Ic generated by the projective transformation unit d2 (step S10). . Subsequently, the binarization unit 6b performs binarization processing that binarizes the image data of the projection-converted image Ic generated by the projection conversion unit d2 with a predetermined threshold value, thereby obtaining a second binary value. Image data of the digitized image Id is generated (step S11).

次に、情報読取部6eは、射影変換部d2により生成された射影変換済み画像Icに対応する第2二値化画像Idの枠部分Sw(枠画像Wa)内のコード情報Scから所定の情報を読み取る読取処理を行う(ステップS12)。具体的には、情報読取部6eは、第2二値化画像Id内で正方形状の読取領域Dを特定し、当該読取領域Dの所定位置(例えば、左上隅部等)から所定方向に沿って走査して、画素値「1」の白画素の集合と画素値「0」の黒画素の集合が存する座標位置をそれぞれ特定していく。そして、情報読取部6eは、特定された白画素の集合及び黒画素の集合の配列に対して復号処理を施して、コード情報Scによって表される元の所定の情報(例えば、URL等)を読み取る。   Next, the information reading unit 6e obtains predetermined information from the code information Sc in the frame portion Sw (frame image Wa) of the second binarized image Id corresponding to the projection-converted image Ic generated by the projection conversion unit d2. Is read (step S12). Specifically, the information reading unit 6e identifies a square-shaped reading area D in the second binarized image Id, and follows a predetermined direction from a predetermined position (for example, the upper left corner) of the reading area D. Scanning, the coordinate positions where the set of white pixels having the pixel value “1” and the set of black pixels having the pixel value “0” exist are respectively specified. Then, the information reading unit 6e performs a decoding process on the specified array of white pixels and black pixels to obtain the original predetermined information (for example, URL) represented by the code information Sc. read.

続けて、情報読取部6eは、読取処理によりコード情報Scから元の所定の情報が複数回読み取られたか否かを判定する(ステップS13)。
ここで、元の所定の情報が複数回読み取られたと判定されると(ステップS13;YES)、情報読取部6eは、当該所定の情報を適正に読み取ることができたと判定し、動作処理部7は、情報読取部6eにより読み取られた所定の情報(例えば、URL等)に従って所定の動作(例えば、インターネットにアクセスして、特定の音声や画像の再生等)を実行する(ステップS14)。
Subsequently, the information reading unit 6e determines whether or not the original predetermined information is read a plurality of times from the code information Sc by the reading process (step S13).
Here, when it is determined that the original predetermined information has been read a plurality of times (step S13; YES), the information reading unit 6e determines that the predetermined information has been properly read, and the operation processing unit 7 Performs a predetermined operation (for example, reproduction of a specific sound or image by accessing the Internet, for example) according to predetermined information (for example, URL) read by the information reading unit 6e (step S14).

一方、ステップS13にて、元の所定の情報が複数回読み取られていないと判定されると(ステップS13;NO)、中央制御部1のCPUは、ステップS14の処理をスキップして、当該コード読取処理を終了させる。   On the other hand, if it is determined in step S13 that the original predetermined information has not been read a plurality of times (step S13; NO), the CPU of the central control unit 1 skips the process of step S14 and executes the code The reading process is terminated.

以上のように、本実施形態の携帯端末100によれば、コード情報Scが所定の印画像Spの周りの多角形状(例えば、正方形状)の枠部分Swに付加されてなる印影Siを撮像した撮像画像Ia内で、印章Sの多角形状の枠に対応する枠部分Sw(枠画像Wa)の外側輪郭を構成し、多角形状の枠の角数に応じた所定数の直線Lを推定して、推定された所定数の直線Lにより構成される撮像画像Iaの枠画像Waを検出するので、枠画像Waの外側輪郭を構成する所定数の直線Lを利用することにより撮像画像Iaの枠画像Waを適正に検出することができる。即ち、例えば、印影Siに滲みやかすれが生じてしまい、枠画像Waの頂点Cの検出を適正に行うことができない場合であっても、枠画像Waの外側輪郭を構成する所定数の直線Lを推定することで、当該直線Lを利用して撮像画像Iaから枠部分Sw(枠画像Wa)の検出を適正に行うことができる。   As described above, according to the mobile terminal 100 of the present embodiment, the imprint Si obtained by adding the code information Sc to the polygonal (for example, square) frame portion Sw around the predetermined stamp image Sp is imaged. In the captured image Ia, an outer contour of the frame portion Sw (frame image Wa) corresponding to the polygonal frame of the seal S is formed, and a predetermined number of straight lines L corresponding to the number of corners of the polygonal frame are estimated. Since the frame image Wa of the captured image Ia composed of the estimated predetermined number of straight lines L is detected, the frame image of the captured image Ia is used by using the predetermined number of straight lines L that form the outer contour of the frame image Wa. Wa can be detected appropriately. That is, for example, even if the imprint Si is blurred or blurred and the vertex C of the frame image Wa cannot be detected properly, a predetermined number of straight lines L that form the outer contour of the frame image Wa. By using the straight line L, it is possible to appropriately detect the frame portion Sw (frame image Wa) from the captured image Ia.

また、撮像画像Iaの枠部分Sw(枠画像Wa)の外側輪郭に対応する多角形状の領域(凸包領域A1)を特定し、特定された多角形状の領域を構成する複数の頂点B、…の位置に基づいて、枠画像Waの外側輪郭を構成する所定数の直線Lを特定するので、特定された所定数の直線Lを利用して、撮像画像Iaから枠画像Waの検出を適正に行うことができる。具体的には、多角形状の領域を構成する何れか二つの頂点B、Bを通る複数の直線L、…の中で、各直線Lと多角形状の領域とが重なる画素の数及び隣合う直線Lどうしの相対的な関係のうちの少なくとも一方に基づいて、枠画像Waの外側輪郭を構成する所定数の直線Lを特定することができる。
即ち、多角形状の領域を構成する何れか二つの頂点B、Bを通る複数の直線L、…の中で、多角形状の領域を構成する複数の画素が重なる数が所定値よりも多い直線Lを特定し、当該直線Lを枠画像Waの外側輪郭を構成する直線Lとして特定するので、枠画像Waの外側輪郭を構成する直線Lの候補直線Lと多角形状の領域を構成する複数の画素との重なり度合を考慮して、枠画像Waの外側輪郭を構成する直線Lの特定を適正に行うことができる。
また、多角形状の領域を構成する何れか二つの頂点B、Bを通る複数の直線L、…の中で、隣合う直線Lとのなす角度が多角形状の枠の内角と略等しい直線Lを特定し、当該直線Lを構成する画素のうち多角形状の領域と重なる画素に重みを付けて各直線L毎の評価値を算出して、算出された評価値の高い直線Lを枠画像Waの外側輪郭を構成する直線Lとして特定するので、枠画像Waの外側輪郭を構成する直線Lの候補直線Lどうしの相対的な関係を考慮して、枠画像Waの外側輪郭を構成する直線Lの特定を適正に行うことができる。
Further, a polygonal region (convex hull region A1) corresponding to the outer contour of the frame portion Sw (frame image Wa) of the captured image Ia is specified, and a plurality of vertices B constituting the specified polygonal region,. Since the predetermined number of straight lines L constituting the outer contour of the frame image Wa is specified based on the position of the frame image Wa, the detection of the frame image Wa from the captured image Ia is appropriately performed using the specified predetermined number of straight lines L. It can be carried out. Specifically, among the plurality of straight lines L passing through any two vertices B constituting the polygonal area, the number of pixels in which each straight line L and the polygonal area overlap and adjacent straight lines Based on at least one of the relative relationships between L, a predetermined number of straight lines L constituting the outer contour of the frame image Wa can be specified.
That is, among a plurality of straight lines L that pass through any two vertices B, which constitute a polygonal region, a straight line L in which the number of overlapping pixels constituting the polygonal region is greater than a predetermined value. And the straight line L is specified as the straight line L constituting the outer contour of the frame image Wa, so that the candidate straight line L of the straight line L constituting the outer contour of the frame image Wa and a plurality of pixels constituting the polygonal region The straight line L that constitutes the outer contour of the frame image Wa can be properly specified.
Further, among the plurality of straight lines L passing through any two vertices B, B constituting the polygonal region, a straight line L whose angle formed with the adjacent straight line L is substantially equal to the inner angle of the polygonal frame Identify and calculate an evaluation value for each straight line L by weighting pixels overlapping the polygonal region among the pixels constituting the straight line L, and calculate the straight line L having a high calculated evaluation value of the frame image Wa. Since it is specified as the straight line L constituting the outer contour, the relative relationship between the candidate straight lines L of the straight line L constituting the outer contour of the frame image Wa is considered, and the straight line L constituting the outer contour of the frame image Wa is considered. Identification can be performed appropriately.

また、枠部分Sw(枠画像Wa)の外側輪郭を構成する所定数の直線Lどうしが交わる所定数の点を枠画像Waの頂点Cとして特定し、特定された所定数の頂点Cに基づいて、撮像画像Iaの枠画像Waを検出するので、枠画像Waの外側輪郭を構成する所定数の直線Lどうしが交わる所定数の点(頂点C)を利用して撮像画像Iaの枠画像Waの検出を適正に行うことができる。このとき、撮像画像Ia内での、多角形状の枠の角部の所定形状のマーカーSmに対応するマーカー画像Maの座標位置に基づいて、枠画像Waの頂点Cを特定することにより、例えば、滲みが生じた印影Siを撮像した撮像画像Iaであっても枠画像Waの頂点Cを適正に特定することができ、撮像画像Iaの枠画像Waの検出を適正に行うことができる。
さらに、特定された所定数の頂点Cに基づいて、撮像画像Iaに対して射影変換処理を行って多角形状の撮像画像(射影変換済み画像Ic)を生成し、生成された多角形状の撮像画像Iaの枠に対応する枠画像Waを検出するので、滲みやかすれが生じた印影Siを撮像した撮像画像Iaであっても、枠画像Waの外側輪郭を構成する所定数の直線Lどうしが交わる所定数の点(頂点C)を利用して射影変換処理を適正に行うことができ、この結果、多角形状の枠画像Waの検出を適正に行うことができる。
Further, a predetermined number of points where a predetermined number of straight lines L that form the outer contour of the frame portion Sw (frame image Wa) intersect are specified as vertices C of the frame image Wa, and based on the specified predetermined number of vertices C Since the frame image Wa of the captured image Ia is detected, the frame image Wa of the captured image Ia is detected using a predetermined number of points (vertices C) at which a predetermined number of straight lines L forming the outer contour of the frame image Wa intersect. Detection can be performed properly. At this time, by specifying the vertex C of the frame image Wa based on the coordinate position of the marker image Ma corresponding to the marker Sm having a predetermined shape at the corner of the polygonal frame in the captured image Ia, for example, Even in the picked-up image Ia obtained by picking up the imprinted seal Si, the vertex C of the frame image Wa can be specified appropriately, and the frame image Wa of the picked-up image Ia can be detected properly.
Further, based on the specified predetermined number of vertices C, projective transformation processing is performed on the captured image Ia to generate a polygonal captured image (projection-converted image Ic), and the generated polygonal captured image Since the frame image Wa corresponding to the frame of Ia is detected, a predetermined number of straight lines L constituting the outer contour of the frame image Wa intersect even in the captured image Ia obtained by capturing the imprint Si in which blur or blur has occurred. The projective transformation process can be appropriately performed using a predetermined number of points (vertex C), and as a result, the polygonal frame image Wa can be properly detected.

また、撮像画像Iaの枠部分Sw(枠画像Wa)内のコード情報Scから所定の情報を適正に読み取ることができる。このとき、枠部分Swに同一のコード情報Scが複数付加された印影Siの撮像画像Iaから所定の情報が所定数以上読み取られた場合に、当該所定の情報に対応する処理の実行を制御するので、枠部分Swに複数のコード情報Sc、…を多重的に埋め込んでおくことで、コード情報Scから元の所定の情報を安定的に読み取ることができ、読み取られた所定の情報に対応する処理を適正に実行することができる。   Further, it is possible to appropriately read predetermined information from the code information Sc in the frame portion Sw (frame image Wa) of the captured image Ia. At this time, when a predetermined number or more of predetermined information is read from the captured image Ia of the imprint Si in which a plurality of the same code information Sc is added to the frame portion Sw, execution of a process corresponding to the predetermined information is controlled. Therefore, by embedding a plurality of code information Sc,... In the frame portion Sw in a multiple manner, the original predetermined information can be stably read from the code information Sc and corresponds to the read predetermined information. Processing can be executed properly.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
以下に、携帯端末100の変形例について説明する。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
Below, the modification of the portable terminal 100 is demonstrated.

<変形例1>
図8は、変形例1の携帯端末200の概略構成を示すブロック図である。
図8に示すように、変形例1の携帯端末200のコード処理部206は、画像取得部6a、二値化部6bと、直線推定部6c、枠検出部6d及び情報読取部6eに加えて、画素数低減部6fを具備している。
なお、変形例1の携帯端末200の構成は、以下に詳細に説明する以外の点で上記実施形態の携帯端末100と略同様であり、詳細な説明は省略する。
<Modification 1>
FIG. 8 is a block diagram illustrating a schematic configuration of the mobile terminal 200 according to the first modification.
As shown in FIG. 8, the code processing unit 206 of the mobile terminal 200 according to the first modification includes an image acquisition unit 6a, a binarization unit 6b, a straight line estimation unit 6c, a frame detection unit 6d, and an information reading unit 6e. The pixel number reduction unit 6f is provided.
Note that the configuration of the mobile terminal 200 of Modification 1 is substantially the same as the mobile terminal 100 of the above-described embodiment except for the details described below, and detailed description thereof is omitted.

画素数低減部6fは、撮像画像Iaの背景に存する画素の数を低減させる画素数低減処理を行う。
即ち、画素数低減部(画素数低減手段)6fは、画像取得部6aにより取得された撮像画像Iaに対応する第1二値化画像Ibに対して、背景に存する画素の数を相対的に低減させる処理を行う。具体的には、印影Siが色や模様が一様の記録媒体ではなく、例えば、ノートの罫線N上に押印された場合(図10(a)参照)等には、直線推定部6cによる枠部分Sw(枠画像Wa)の外側輪郭を構成する直線Lの推定を適正に行うことができない虞がある。
そこで、画素数低減部6fは、二値化部6bにより生成された第1二値化画像Ibの画像データを取得して、白画素と黒画素を反転させる処理を施した後(図10(b)参照)、第1二値化画像Ibの背景に存する所定値よりも小さい画素集合を除くための膨張処理や収縮処理を行う(図10(c)等参照)。例えば、画素数低減部6fは、第1二値化画像Ibの白黒反転画像Ie(図10(b)参照)の処理対象となる各画素に対して、画素をひとまわり加える膨張処理を施した後(図10(c)参照)、画素をふたまわりはぎ取る収縮処理を施し(図11(a)参照)、その後、画素をひとまわり加える膨張処理を施す(図11(b)参照)。これにより、第1二値化画像Ibにおける背景に存する画素数が、枠画像Waを構成する画素数に対して相対的に低減された状態となり、直線推定部6cが枠画像Waの外側輪郭を構成する直線Lを推定する際に印影Siの背景に存する画素の影響の軽減を図る。
The pixel number reduction unit 6f performs a pixel number reduction process for reducing the number of pixels existing in the background of the captured image Ia.
That is, the pixel number reduction unit (pixel number reduction unit) 6f relatively sets the number of pixels existing in the background to the first binarized image Ib corresponding to the captured image Ia acquired by the image acquisition unit 6a. Process to reduce. Specifically, when the imprint Si is not a recording medium having a uniform color or pattern, for example, when the stamp Si is stamped on the ruled line N of the notebook (see FIG. 10A), the frame by the straight line estimation unit 6c is used. There is a possibility that the straight line L constituting the outer contour of the part Sw (frame image Wa) cannot be estimated properly.
Therefore, the pixel number reduction unit 6f acquires the image data of the first binarized image Ib generated by the binarization unit 6b, and performs a process of inverting the white pixel and the black pixel (FIG. 10 ( b)), and an expansion process and a contraction process for removing a pixel set smaller than a predetermined value existing in the background of the first binarized image Ib are performed (see FIG. 10C, etc.). For example, the pixel number reduction unit 6f performs an expansion process for adding pixels around each pixel to be processed in the black and white inverted image Ie (see FIG. 10B) of the first binarized image Ib. After (see FIG. 10C), a contraction process for stripping the pixel around the lid is performed (see FIG. 11A), and then an expansion process for adding the pixel around is performed (see FIG. 11B). Thereby, the number of pixels existing in the background in the first binarized image Ib is reduced relative to the number of pixels constituting the frame image Wa, and the straight line estimation unit 6c defines the outer contour of the frame image Wa. When the straight line L to be constructed is estimated, the influence of pixels existing in the background of the imprint Si is reduced.

そして、直線推定部6cは、画素数低減部6fによる処理後の第1二値化画像Ib内で、印章Sの正方形状の枠に対応する枠部分Sw(枠画像Wa)の外側輪郭を構成する四本の直線L、…を推定した後、枠検出部6dは、撮像画像Iaの枠画像Waを検出する(図11(c)参照)。   The straight line estimation unit 6c configures the outer contour of the frame portion Sw (frame image Wa) corresponding to the square frame of the seal S in the first binarized image Ib after processing by the pixel number reduction unit 6f. After estimating the four straight lines L,..., The frame detector 6d detects the frame image Wa of the captured image Ia (see FIG. 11C).

<コード読取処理>
次に、変形例1の携帯端末200におけるコード読取処理について、図9を参照して説明する。
図9は、コード読取処理に係る動作の一例を示すフローチャートである。
なお、変形例1の携帯端末200によるコード読取処理は、以下に詳細に説明する以外の点で上記実施形態の携帯端末100によるコード読取処理と略同様であり、詳細な説明は省略する。
<Code reading process>
Next, a code reading process in the mobile terminal 200 of the first modification will be described with reference to FIG.
FIG. 9 is a flowchart illustrating an example of an operation related to the code reading process.
The code reading process performed by the mobile terminal 200 according to the first modification is substantially the same as the code reading process performed by the mobile terminal 100 according to the above-described embodiment except for the details described below, and detailed description thereof is omitted.

図9に示すように、コード処理部206は、上記実施形態の携帯端末100によるコード読取処理と同様に、ステップS1〜S3の各処理を行って、第1二値化画像Ib(図4(b)参照)の画像データを生成する。
画素数低減部6fは、生成された第1二値化画像Ibの画像データに対して画素数低減処理を行う(ステップS21)。具体的には、画素数低減部6fは、第1二値化画像Ibの画像データに対して白画素と黒画素を反転させる処理を施した後、膨張処理や収縮処理を行って、第1二値化画像Ibにおける背景に存する画素数を、枠部分Sw(枠画像Wa)を構成する画素数に対して相対的に低減させる。
As shown in FIG. 9, the code processing unit 206 performs the processes of steps S1 to S3 in the same manner as the code reading process by the mobile terminal 100 of the above-described embodiment, and performs the first binarized image Ib (FIG. 4 ( b)) is generated.
The pixel number reduction unit 6f performs pixel number reduction processing on the generated image data of the first binarized image Ib (step S21). Specifically, the pixel number reduction unit 6f performs a process of inverting the white pixel and the black pixel on the image data of the first binarized image Ib, and then performs an expansion process and a contraction process to perform the first process. The number of pixels existing in the background in the binarized image Ib is reduced relative to the number of pixels constituting the frame portion Sw (frame image Wa).

続けて、輪郭特定部c1は、画素数低減処理後の第1二値化画像Ibの画像データに対して凸包処理を施すことにより、枠部分Swの外側輪郭に対応する多角形状の凸包領域A1(図4(c)参照)を特定する(ステップS4)。
そして、コード処理部206は、上記実施形態の携帯端末100によるコード読取処理と同様に、ステップS4以降の各処理を行って、枠部分Sw(枠画像Wa)の外側輪郭を構成する直線Lの検出(ステップS5、S6)、枠部分Sw(枠画像Wa)の検出(ステップS10)、コード情報からの所定の情報の読取(ステップS12)等を行う。
Subsequently, the contour specifying unit c1 performs a convex hull process on the image data of the first binarized image Ib after the pixel number reduction process, thereby forming a polygonal convex hull corresponding to the outer contour of the frame portion Sw. An area A1 (see FIG. 4C) is specified (step S4).
Then, the code processing unit 206 performs each process after step S4 in the same manner as the code reading process by the mobile terminal 100 of the above-described embodiment, so that the straight line L that forms the outer contour of the frame portion Sw (frame image Wa). Detection (steps S5 and S6), detection of the frame portion Sw (frame image Wa) (step S10), reading of predetermined information from the code information (step S12), and the like are performed.

従って、変形例1の携帯端末200によれば、撮像画像Iaの背景に存する画素の数を相対的に低減させる処理を行って、当該処理後の撮像画像Ia内で、枠部分Sw(枠画像Wa)の外側輪郭を構成する所定数の直線Lを推定するので、印影Siが色や模様が一様の記録媒体ではない、例えば、罫線Nを有するノート上に押印された場合であっても、撮像画像Iaの背景に存する画素の数を相対的に低減させることで、撮像画像Iaの背景に存する画素の影響を軽減して、枠画像Waの外側輪郭を構成する直線Lの推定を適正に行うことができる。   Therefore, according to the mobile terminal 200 of the first modification, a process of relatively reducing the number of pixels existing in the background of the captured image Ia is performed, and the frame portion Sw (frame image) is included in the captured image Ia after the process. Since a predetermined number of straight lines L constituting the outer contour of Wa) are estimated, even if the imprint Si is not a recording medium having a uniform color or pattern, for example, it is stamped on a notebook having a ruled line N By reducing the number of pixels existing in the background of the captured image Ia relatively, the influence of the pixels existing in the background of the captured image Ia is reduced, and the estimation of the straight line L constituting the outer contour of the frame image Wa is appropriate. Can be done.

また、上記実施形態では、直線特定部c2は、多角形状の凸包領域A1を構成する何れか二つの頂点B、Bを通る複数の直線L、…の中で、各直線Lと多角形状の凸包領域A1とが重なる画素の数及び隣合う直線Lどうしの相対的な関係の両方を基準として、枠画像Waの外側輪郭を構成する所定数の直線Lを特定するようにしたが、何れか一方のみを基準としても良い。   Moreover, in the said embodiment, the straight line specific | specification part c2 is each straight line L and a polygonal shape in the some straight line L which passes along any two vertex B, B which comprises polygonal convex hull area | region A1, ... The predetermined number of straight lines L constituting the outer contour of the frame image Wa is specified based on both the number of pixels overlapping the convex hull region A1 and the relative relationship between the adjacent straight lines L. Only one of them may be used as a reference.

さらに、上記実施形態では、枠部分Swの形状を正方形状としたが、一例であってこれに限られるものではなく、例えば、正方形以外の多角形状であっても良い。   Furthermore, in the said embodiment, although the shape of the frame part Sw was made into square shape, it is an example and is not restricted to this, For example, polygonal shapes other than a square may be sufficient.

また、上記実施形態では、印影Siの枠部分Swの各辺Saに、同一のコード情報Scをそれぞれ付加するようにしたが、一例であってこれに限られるものではなく、例えば、互いに異なるコード情報Scを付加しても良く、この場合には、枠部分Swに埋め込まれるコード情報(元の所定の情報)Scの量を増大させることができる。   In the above embodiment, the same code information Sc is added to each side Sa of the frame portion Sw of the seal imprint Si. However, this is an example, and the present invention is not limited thereto. Information Sc may be added. In this case, the amount of code information (original predetermined information) Sc embedded in the frame portion Sw can be increased.

さらに、上記実施形態では、画像処理装置として、携帯端末100、200を例示したが、一例であってこれに限られるものではなく、枠部分Sw(枠画像Wa)の検出処理の実行を制御可能なものであれば適宜任意に変更可能である。   Furthermore, in the above-described embodiment, the portable terminals 100 and 200 are illustrated as the image processing apparatuses. However, the image processing apparatus is an example and is not limited thereto, and the execution of the detection process of the frame portion Sw (frame image Wa) can be controlled. Any change can be made as appropriate.

加えて、上記実施形態にあっては、取得手段、推定手段、検出手段としての機能を、携帯端末100(200)の中央制御部1の制御下にて、画像取得部6a、直線推定部6c、枠検出部6dが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリに、取得処理ルーチン、推定処理ルーチン、検出処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部1のCPUを、多角形状の枠部分Swにコード情報Scが付加された印影を撮像した撮像画像Iaを取得する手段として機能させるようにしても良い。また、推定処理ルーチンにより中央制御部1のCPUを、取得された撮像画像Ia内で、枠部分Swの外側輪郭を構成し、印章Sの多角形状の枠の角数に応じた所定数の直線Lを推定する手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部1のCPUを、推定された所定数の直線Lにより構成される撮像画像Iaの枠部分Swを検出する手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions of the acquisition unit, the estimation unit, and the detection unit are controlled by the central control unit 1 of the mobile terminal 100 (200), and the image acquisition unit 6a and the straight line estimation unit 6c. However, the present invention is not limited to this, and may be realized by a predetermined program executed by the CPU of the central control unit 1. .
That is, a program including an acquisition process routine, an estimation process routine, and a detection process routine is stored in a program memory that stores the program. Then, the CPU of the central control unit 1 may function as a means for acquiring a captured image Ia obtained by capturing an imprint in which the code information Sc is added to the polygonal frame portion Sw. Further, the CPU of the central control unit 1 configures the outer contour of the frame portion Sw in the acquired captured image Ia by the estimation processing routine, and a predetermined number of straight lines corresponding to the number of corners of the polygonal frame of the seal S You may make it function as a means to estimate L. Further, the CPU of the central control unit 1 may function as a means for detecting the frame portion Sw of the captured image Ia constituted by the estimated predetermined number of straight lines L by the detection processing routine.

同様に、第1特定手段、第2特定手段、第3特定手段、生成手段、読取手段、処理手段、画素数低減手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, a predetermined program or the like is executed by the CPU of the central control unit 1 for the first specifying means, the second specifying means, the third specifying means, the generating means, the reading means, the processing means, and the pixel number reducing means. It is good also as a structure implement | achieved by.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

〔付記〕
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
多角形状の枠部分にコード情報が付加された印影を撮像した印影画像を取得する取得手段と、
前記取得手段により取得された印影画像内で、前記枠部分の外側輪郭を構成し、前記多角形状の枠の角数に応じた所定数の直線を推定する推定手段と、
前記推定手段により推定された所定数の直線により構成される前記印影画像の前記枠部分を検出する検出手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記推定手段は、
前記取得手段により取得された印影画像の前記枠部分の外側輪郭に対応する多角形状の領域を特定する第1特定手段と、
前記第1特定手段により特定された多角形状の領域を構成する複数の頂点の位置に基づいて、前記枠部分の外側輪郭を構成する所定数の直線を特定する第2特定手段と、を有することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記第2特定手段は、更に、
前記第1特定手段により特定された多角形状の領域を構成する何れか二つの頂点を通る複数の直線の中で、各直線と前記多角形状の領域とが重なる画素の数及び隣合う直線どうしの相対的な関係のうちの少なくとも一方に基づいて、前記枠部分の外側輪郭を構成する所定数の直線を特定することを特徴とする請求項1に記載の画像処理装置。
<請求項4>
前記第2特定手段は、更に、
前記第1特定手段により特定された多角形状の領域を構成する何れか二つの頂点を通る複数の直線の中で、前記多角形状の領域を構成する複数の画素が重なる数が所定値よりも多い直線を特定し、当該直線を前記枠部分の外側輪郭を構成する直線として特定することを特徴とする請求項3に記載の画像処理装置。
<請求項5>
前記第2特定手段は、更に、
前記第1特定手段により特定された多角形状の領域を構成する何れか二つの頂点を通る複数の直線の中で、隣合う直線とのなす角度が前記多角形状の枠の内角と略等しい直線を特定し、当該直線を構成する画素のうち前記多角形状の領域と重なる画素に重みを付けて各直線毎の評価値を算出して、算出された評価値の高い直線を前記枠部分の外側輪郭を構成する直線として特定することを特徴とする請求項3又は4に記載の画像処理装置。
<請求項6>
前記検出手段は、
前記第2特定手段により特定された所定数の直線どうしが交わる所定数の点を前記枠部分の頂点として特定する第3特定手段を有し、
前記第3特定手段により特定された所定数の頂点に基づいて、前記印影画像の前記枠部分を検出することを特徴とする請求項2〜5の何れか一項に記載の画像処理装置。
<請求項7>
前記印章は、前記多角形状の枠の角部に所定形状のマーカーが成形されてなり、
前記第3特定手段は、更に、
前記取得手段により取得された印影画像内で前記マーカーに対応するマーカー画像の位置を特定し、特定された前記マーカー画像の位置に基づいて、前記枠部分の頂点を特定することを特徴とする請求項6に記載の画像処理装置。
<請求項8>
前記検出手段は、
前記第3特定手段により特定された所定数の頂点に基づいて、前記取得手段により取得された印影画像に対して射影変換処理を行って多角形状の印影画像を生成する生成手段を更に有し、
前記生成手段により生成された多角形状の印影画像の枠に対応する枠部分を検出することを特徴とする請求項7に記載の画像処理装置。
<請求項9>
前記検出手段により検出された前記印影画像の前記枠部分内の前記コード情報から所定の情報を読み取る読取手段を更に備えることを特徴とする請求項1〜8の何れか一項に記載の画像処理装置。
<請求項10>
前記コード情報は、前記印影の多角形状の枠部分に複数付加され、
前記読取手段により前記所定の情報が所定数以上読み取られた場合に、当該所定の情報に対応する処理の実行を制御する処理手段を更に備えることを特徴とする請求項9に記載の画像処理装置。
<請求項11>
前記取得手段により取得された印影画像に対して、当該印影画像の背景に存する画素の数を相対的に低減させる処理を行う画素数低減手段を更に備え、
前記推定手段は、
前記画素数低減手段による処理後の印影画像内で、前記所定数の直線を推定することを特徴とする請求項1〜10の何れか一項に記載の画像処理装置。
<請求項12>
画像処理装置を用いた画像処理方法であって、
多角形状の枠部分にコード情報が付加された印影を撮像した印影画像を取得する処理と、
取得された印影画像内で、前記枠部分の外側輪郭を構成し、前記多角形状の枠の角数に応じた所定数の直線を推定する処理と、
推定された所定数の直線により構成される前記印影画像の前記枠部分を検出する処理と、
を含むことを特徴とする画像処理方法。
<請求項13>
画像処理装置のコンピュータを、
多角形状の枠部分にコード情報が付加された印影を撮像した印影画像を取得する取得手段、
前記取得手段により取得された印影画像内で、前記枠部分の外側輪郭を構成し、前記多角形状の枠の角数に応じた所定数の直線を推定する推定手段、
前記推定手段により推定された所定数の直線により構成される前記印影画像の前記枠部分を検出する検出手段、
として機能させることを特徴とするプログラム。
[Appendix]
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
An acquisition means for acquiring an imprint image obtained by capturing an imprint in which code information is added to a polygonal frame portion;
An estimation unit that configures an outer contour of the frame portion and estimates a predetermined number of straight lines according to the number of corners of the polygonal frame in the imprint image acquired by the acquisition unit;
Detecting means for detecting the frame portion of the imprint image composed of a predetermined number of straight lines estimated by the estimating means;
An image processing apparatus comprising:
<Claim 2>
The estimation means includes
First specifying means for specifying a polygonal region corresponding to the outer contour of the frame portion of the imprint image acquired by the acquiring means;
Second specifying means for specifying a predetermined number of straight lines constituting the outer contour of the frame portion based on the positions of a plurality of vertices constituting the polygonal area specified by the first specifying means; The image processing apparatus according to claim 1.
<Claim 3>
The second specifying means further includes:
Among a plurality of straight lines passing through any two vertices constituting the polygonal area specified by the first specifying means, the number of pixels in which each straight line and the polygonal area overlap each other and adjacent straight lines The image processing apparatus according to claim 1, wherein a predetermined number of straight lines constituting the outer contour of the frame portion are specified based on at least one of the relative relationships.
<Claim 4>
The second specifying means further includes:
Among a plurality of straight lines passing through any two vertices constituting the polygonal area specified by the first specifying means, the number of overlapping pixels constituting the polygonal area is greater than a predetermined value. The image processing apparatus according to claim 3, wherein a straight line is specified, and the straight line is specified as a straight line constituting an outer contour of the frame portion.
<Claim 5>
The second specifying means further includes:
Among a plurality of straight lines that pass through any two vertices constituting the polygonal area specified by the first specifying means, a straight line having an angle that is substantially equal to an internal angle of the polygonal frame is formed. Identify and calculate an evaluation value for each straight line by weighting pixels overlapping the polygonal region among the pixels constituting the straight line, and calculate a straight line with a high evaluation value to the outer contour of the frame part 5. The image processing apparatus according to claim 3, wherein the image processing apparatus is specified as a straight line that constitutes a line.
<Claim 6>
The detection means includes
A third specifying means for specifying a predetermined number of points where the predetermined number of straight lines specified by the second specifying means intersect as vertexes of the frame portion;
The image processing apparatus according to claim 2, wherein the frame portion of the imprint image is detected based on a predetermined number of vertices specified by the third specifying unit.
<Claim 7>
The seal is formed by molding a marker of a predetermined shape at a corner of the polygonal frame,
The third specifying means further includes:
The position of the marker image corresponding to the marker is specified in the imprint image acquired by the acquisition means, and the vertex of the frame portion is specified based on the specified position of the marker image. Item 7. The image processing apparatus according to Item 6.
<Claim 8>
The detection means includes
Based on a predetermined number of vertices specified by the third specifying means, further comprising a generating means for performing a projective transformation process on the imprint image acquired by the acquiring means to generate a polygonal imprint image,
The image processing apparatus according to claim 7, wherein a frame portion corresponding to a frame of the polygonal imprint image generated by the generation unit is detected.
<Claim 9>
The image processing according to claim 1, further comprising a reading unit that reads predetermined information from the code information in the frame portion of the imprint image detected by the detection unit. apparatus.
<Claim 10>
A plurality of the code information is added to the polygonal frame portion of the imprint,
The image processing apparatus according to claim 9, further comprising a processing unit that controls execution of a process corresponding to the predetermined information when the predetermined number of the predetermined information is read by the reading unit. .
<Claim 11>
Further comprising pixel number reduction means for performing a process of relatively reducing the number of pixels existing in the background of the imprint image with respect to the imprint image acquired by the acquisition means,
The estimation means includes
The image processing apparatus according to claim 1, wherein the predetermined number of straight lines are estimated in an imprint image processed by the pixel number reducing unit.
<Claim 12>
An image processing method using an image processing apparatus,
A process of acquiring an imprint image obtained by capturing an imprint in which code information is added to a polygonal frame portion;
In the acquired imprint image, the outer contour of the frame part is configured, and a process of estimating a predetermined number of straight lines according to the number of corners of the polygonal frame;
A process of detecting the frame portion of the imprint image composed of an estimated predetermined number of straight lines;
An image processing method comprising:
<Claim 13>
The computer of the image processing device
An acquisition means for acquiring an imprint image obtained by capturing an imprint in which code information is added to a polygonal frame portion;
An estimation unit that configures an outer contour of the frame portion and estimates a predetermined number of straight lines according to the number of corners of the polygonal frame in the imprint image acquired by the acquisition unit;
Detecting means for detecting the frame portion of the imprint image constituted by a predetermined number of straight lines estimated by the estimating means;
A program characterized by functioning as

100、200 携帯端末
1 中央制御部
6、206 コード処理部
6a 画像取得部
6c 直線推定部
c1 輪郭特定部
c2 直線特定部
6d 枠検出部
d1 頂点特定部
d2 射影変換部
6e 情報読取部
6f 画素数低減部
7 動作処理部
100, 200 Mobile terminal 1 Central control unit 6, 206 Code processing unit 6a Image acquisition unit 6c Line estimation unit c1 Outline identification unit c2 Line identification unit 6d Frame detection unit d1 Vertex identification unit d2 Projection conversion unit 6e Information reading unit 6f Number of pixels Reduction unit 7 Operation processing unit

Claims (13)

多角形状の枠部分にコード情報が付加された印影を撮像した印影画像を取得する取得手段と、
前記取得手段により取得された印影画像内で、前記枠部分の外側輪郭を構成し、前記多角形状の枠の角数に応じた所定数の直線を推定する推定手段と、
前記推定手段により推定された所定数の直線により構成される前記印影画像の前記枠部分を検出する検出手段と、
を備えたことを特徴とする画像処理装置。
An acquisition means for acquiring an imprint image obtained by capturing an imprint in which code information is added to a polygonal frame portion;
An estimation unit that configures an outer contour of the frame portion and estimates a predetermined number of straight lines according to the number of corners of the polygonal frame in the imprint image acquired by the acquisition unit;
Detecting means for detecting the frame portion of the imprint image composed of a predetermined number of straight lines estimated by the estimating means;
An image processing apparatus comprising:
前記推定手段は、
前記取得手段により取得された印影画像の前記枠部分の外側輪郭に対応する多角形状の領域を特定する第1特定手段と、
前記第1特定手段により特定された多角形状の領域を構成する複数の頂点の位置に基づいて、前記枠部分の外側輪郭を構成する所定数の直線を特定する第2特定手段と、を有することを特徴とする請求項1に記載の画像処理装置。
The estimation means includes
First specifying means for specifying a polygonal region corresponding to the outer contour of the frame portion of the imprint image acquired by the acquiring means;
Second specifying means for specifying a predetermined number of straight lines constituting the outer contour of the frame portion based on the positions of a plurality of vertices constituting the polygonal area specified by the first specifying means; The image processing apparatus according to claim 1.
前記第2特定手段は、更に、
前記第1特定手段により特定された多角形状の領域を構成する何れか二つの頂点を通る複数の直線の中で、各直線と前記多角形状の領域とが重なる画素の数及び隣合う直線どうしの相対的な関係のうちの少なくとも一方に基づいて、前記枠部分の外側輪郭を構成する所定数の直線を特定することを特徴とする請求項に記載の画像処理装置。
The second specifying means further includes:
Among a plurality of straight lines passing through any two vertices constituting the polygonal area specified by the first specifying means, the number of pixels in which each straight line and the polygonal area overlap each other and adjacent straight lines The image processing apparatus according to claim 2 , wherein a predetermined number of straight lines constituting the outer contour of the frame portion are specified based on at least one of the relative relationships.
前記第2特定手段は、更に、
前記第1特定手段により特定された多角形状の領域を構成する何れか二つの頂点を通る複数の直線の中で、前記多角形状の領域を構成する複数の画素が重なる数が所定値よりも多い直線を特定し、当該直線を前記枠部分の外側輪郭を構成する直線として特定することを特徴とする請求項3に記載の画像処理装置。
The second specifying means further includes:
Among a plurality of straight lines passing through any two vertices constituting the polygonal area specified by the first specifying means, the number of overlapping pixels constituting the polygonal area is greater than a predetermined value. The image processing apparatus according to claim 3, wherein a straight line is specified, and the straight line is specified as a straight line constituting an outer contour of the frame portion.
前記第2特定手段は、更に、
前記第1特定手段により特定された多角形状の領域を構成する何れか二つの頂点を通る複数の直線の中で、隣合う直線とのなす角度が前記多角形状の枠の内角と略等しい直線を特定し、当該直線を構成する画素のうち前記多角形状の領域と重なる画素に重みを付けて各直線毎の評価値を算出して、算出された評価値の高い直線を前記枠部分の外側輪郭を構成する直線として特定することを特徴とする請求項3又は4に記載の画像処理装置。
The second specifying means further includes:
Among a plurality of straight lines that pass through any two vertices constituting the polygonal area specified by the first specifying means, a straight line having an angle that is substantially equal to an internal angle of the polygonal frame is formed. Identify and calculate an evaluation value for each straight line by weighting pixels overlapping the polygonal region among the pixels constituting the straight line, and calculate a straight line with a high evaluation value to the outer contour of the frame part 5. The image processing apparatus according to claim 3, wherein the image processing apparatus is specified as a straight line that constitutes a line.
前記検出手段は、
前記第2特定手段により特定された所定数の直線どうしが交わる所定数の点を前記枠部分の頂点として特定する第3特定手段を有し、
前記第3特定手段により特定された所定数の頂点に基づいて、前記印影画像の前記枠部分を検出することを特徴とする請求項2〜5の何れか一項に記載の画像処理装置。
The detection means includes
A third specifying means for specifying a predetermined number of points where the predetermined number of straight lines specified by the second specifying means intersect as vertexes of the frame portion;
The image processing apparatus according to claim 2, wherein the frame portion of the imprint image is detected based on a predetermined number of vertices specified by the third specifying unit.
前記印章は、前記多角形状の枠の角部に所定形状のマーカーが成形されてなり、
前記第3特定手段は、更に、
前記取得手段により取得された印影画像内で前記マーカーに対応するマーカー画像の位置を特定し、特定された前記マーカー画像の位置に基づいて、前記枠部分の頂点を特定することを特徴とする請求項6に記載の画像処理装置。
The seal is formed by molding a marker of a predetermined shape at a corner of the polygonal frame,
The third specifying means further includes:
The position of the marker image corresponding to the marker is specified in the imprint image acquired by the acquisition means, and the vertex of the frame portion is specified based on the specified position of the marker image. Item 7. The image processing apparatus according to Item 6.
前記検出手段は、
前記第3特定手段により特定された所定数の頂点に基づいて、前記取得手段により取得された印影画像に対して射影変換処理を行って多角形状の印影画像を生成する生成手段を更に有し、
前記生成手段により生成された多角形状の印影画像の枠に対応する枠部分を検出することを特徴とする請求項7に記載の画像処理装置。
The detection means includes
Based on a predetermined number of vertices specified by the third specifying means, further comprising a generating means for performing a projective transformation process on the imprint image acquired by the acquiring means to generate a polygonal imprint image,
The image processing apparatus according to claim 7, wherein a frame portion corresponding to a frame of the polygonal imprint image generated by the generation unit is detected.
前記検出手段により検出された前記印影画像の前記枠部分内の前記コード情報から所定の情報を読み取る読取手段を更に備えることを特徴とする請求項1〜8の何れか一項に記載の画像処理装置。   The image processing according to claim 1, further comprising a reading unit that reads predetermined information from the code information in the frame portion of the imprint image detected by the detection unit. apparatus. 前記コード情報は、前記印影の多角形状の枠部分に複数付加され、
前記読取手段により前記所定の情報が所定数以上読み取られた場合に、当該所定の情報に対応する処理の実行を制御する処理手段を更に備えることを特徴とする請求項9に記載の画像処理装置。
A plurality of the code information is added to the polygonal frame portion of the imprint,
The image processing apparatus according to claim 9, further comprising a processing unit that controls execution of a process corresponding to the predetermined information when the predetermined number of the predetermined information is read by the reading unit. .
前記取得手段により取得された印影画像に対して、当該印影画像の背景に存する画素の数を相対的に低減させる処理を行う画素数低減手段を更に備え、
前記推定手段は、
前記画素数低減手段による処理後の印影画像内で、前記所定数の直線を推定することを特徴とする請求項1〜10の何れか一項に記載の画像処理装置。
Further comprising pixel number reduction means for performing a process of relatively reducing the number of pixels existing in the background of the imprint image with respect to the imprint image acquired by the acquisition means,
The estimation means includes
The image processing apparatus according to claim 1, wherein the predetermined number of straight lines are estimated in an imprint image processed by the pixel number reducing unit.
画像処理装置を用いた画像処理方法であって、
多角形状の枠部分にコード情報が付加された印影を撮像した印影画像を取得する処理と、
取得された印影画像内で、前記枠部分の外側輪郭を構成し、前記多角形状の枠の角数に応じた所定数の直線を推定する処理と、
推定された所定数の直線により構成される前記印影画像の前記枠部分を検出する処理と、
を含むことを特徴とする画像処理方法。
An image processing method using an image processing apparatus,
A process of acquiring an imprint image obtained by capturing an imprint in which code information is added to a polygonal frame portion;
In the acquired imprint image, the outer contour of the frame part is configured, and a process of estimating a predetermined number of straight lines according to the number of corners of the polygonal frame;
A process of detecting the frame portion of the imprint image composed of an estimated predetermined number of straight lines;
An image processing method comprising:
画像処理装置のコンピュータを、
多角形状の枠部分にコード情報が付加された印影を撮像した印影画像を取得する取得手段、
前記取得手段により取得された印影画像内で、前記枠部分の外側輪郭を構成し、前記多角形状の枠の角数に応じた所定数の直線を推定する推定手段、
前記推定手段により推定された所定数の直線により構成される前記印影画像の前記枠部分を検出する検出手段、
として機能させることを特徴とするプログラム。
The computer of the image processing device
An acquisition means for acquiring an imprint image obtained by capturing an imprint in which code information is added to a polygonal frame portion;
An estimation unit that configures an outer contour of the frame portion and estimates a predetermined number of straight lines according to the number of corners of the polygonal frame in the imprint image acquired by the acquisition unit;
Detecting means for detecting the frame portion of the imprint image constituted by a predetermined number of straight lines estimated by the estimating means;
A program characterized by functioning as
JP2013164741A 2013-08-08 2013-08-08 Image processing apparatus, image processing method, and program Active JP5858012B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013164741A JP5858012B2 (en) 2013-08-08 2013-08-08 Image processing apparatus, image processing method, and program
CN201410387805.6A CN104346613B (en) 2013-08-08 2014-08-08 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013164741A JP5858012B2 (en) 2013-08-08 2013-08-08 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2015035040A JP2015035040A (en) 2015-02-19
JP5858012B2 true JP5858012B2 (en) 2016-02-10

Family

ID=52543543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013164741A Active JP5858012B2 (en) 2013-08-08 2013-08-08 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5858012B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7027666B2 (en) * 2002-10-01 2006-04-11 Eastman Kodak Company Method for determining skew angle and location of a document in an over-scanned image
JP4363151B2 (en) * 2003-10-14 2009-11-11 カシオ計算機株式会社 Imaging apparatus, image processing method thereof, and program
JP4712487B2 (en) * 2005-08-25 2011-06-29 株式会社リコー Image processing method and apparatus, digital camera apparatus, and recording medium recording image processing program

Also Published As

Publication number Publication date
JP2015035040A (en) 2015-02-19

Similar Documents

Publication Publication Date Title
US9633417B2 (en) Image processing device and image capture device performing restoration processing using a restoration filter based on a point spread function
JP5464656B2 (en) Image quality evaluation device, terminal device, image quality evaluation system, image quality evaluation method, and program
JP5775977B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5779724B2 (en) Image processing apparatus, imaging apparatus, computer, and program
JP5830186B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US20150207962A1 (en) Image-processing device, image-capturing device, image-processing method, and recording medium
CN104346613B (en) Image processing apparatus and image processing method
JP5799928B2 (en) Threshold setting device, subject detection device, threshold setting method and program
JP6042031B2 (en) Image processing apparatus, photographing apparatus, image processing method, and image processing program
WO2014185172A1 (en) Image processing device, image-capturing device, image processing method, and program
US10567647B2 (en) Image processing apparatus and image processing method
US10559068B2 (en) Image processing device, image processing method, and program processing image which is developed as a panorama
JP5862623B2 (en) Image processing apparatus, image processing method, and program
US20150312505A1 (en) Image processing device, imaging device, image processing method, and non-transitory computer readable medium
US20150244955A1 (en) Image capture device, image processing method, and program
JPWO2017208702A1 (en) Imaging device and imaging apparatus
JP6217225B2 (en) Image collation device, image collation method and program
JP5858012B2 (en) Image processing apparatus, image processing method, and program
JP6286919B2 (en) Image processing apparatus, image processing method, and program
JP5680803B2 (en) Image processing apparatus and method, and imaging apparatus
JP2016146546A (en) Image processing apparatus, image processing method, and program
JP2014071619A (en) Subject detection device, subject detection method, and program
JP2006079288A (en) Writing face reproducing method, apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151130

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5858012

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150