JP6244787B2 - Image recognition apparatus, image recognition method, and image recognition program - Google Patents

Image recognition apparatus, image recognition method, and image recognition program Download PDF

Info

Publication number
JP6244787B2
JP6244787B2 JP2013204764A JP2013204764A JP6244787B2 JP 6244787 B2 JP6244787 B2 JP 6244787B2 JP 2013204764 A JP2013204764 A JP 2013204764A JP 2013204764 A JP2013204764 A JP 2013204764A JP 6244787 B2 JP6244787 B2 JP 6244787B2
Authority
JP
Japan
Prior art keywords
image
display
photographing
display image
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013204764A
Other languages
Japanese (ja)
Other versions
JP2015069530A (en
Inventor
義裕 手島
義裕 手島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013204764A priority Critical patent/JP6244787B2/en
Publication of JP2015069530A publication Critical patent/JP2015069530A/en
Application granted granted Critical
Publication of JP6244787B2 publication Critical patent/JP6244787B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像認識技術に関する。   The present invention relates to an image recognition technique.

従来、被認識画像を入力し、認識テンプレート画像を記憶したデータベースから認識テンプレート画像を読み出し、この認識テンプレート画像を被認識画像と比較することにより認識を行う技術が知られている(例えば特許文献1)。   2. Description of the Related Art Conventionally, a technique for performing recognition by inputting a recognized image, reading the recognized template image from a database storing the recognized template image, and comparing the recognized template image with the recognized image (for example, Patent Document 1). ).

このような画像認識においては、認識対象となる画像に含まれる雑音成分をいかに有効に除去するかが、画像の認識精度を高める上で重要である。   In such image recognition, how to effectively remove a noise component contained in an image to be recognized is important for improving image recognition accuracy.

特開2004−151771号公報JP 2004-151771 A

ここで、画像認識の対象となる表示画像をデジタルカメラ等の撮影装置によって取り込む場合、表示画像の表示特性と撮影装置の構造に起因して生じる色縞雑音が問題となることがある。特に、デジタルミラーデバイス(DMD:Digital Mirror Device)を備えたDLP(Digital Light Processing)(「DLP」は米国Texas Instruments Incorporatedの登録商標)と呼ばれる投影装置(プロジェクタ)によって投影面(スクリーン)上に投影された画像を、自動露光制御を行うスマートフォン内蔵カメラ等で撮影した場合に、色縞雑音が顕著に現れる。   Here, when a display image to be subjected to image recognition is captured by a photographing apparatus such as a digital camera, color fringe noise caused by the display characteristics of the display image and the structure of the photographing apparatus may be a problem. In particular, a DLP (Digital Light Processing) equipped with a digital mirror device (DMD: Digital Mirror Device) ("DLP" is a registered trademark of Texas Instruments Incorporated, USA) is projected onto a projection surface (projector). When the captured image is taken with a camera with a built-in smartphone that performs automatic exposure control, color fringe noise appears prominently.

DLP投影装置では、デジタルミラーデバイスにおけるミラーのオンとオフの時間比率を制御することにより、投影面に投影される表示画像の輝度を制御する。さらに、DLP投影装置でよく使用される単板式の投影方式では、R、G、Bの光を高速で切り替えることにより、色を制御する。投影面に投影される表示画像では、非常に短い時間で観察すると、ミラーがオンで光があたっている瞬間とミラーがオフで光があたっていない瞬間や、R、G、B単色で表示されている瞬間が存在し、人間の目で見るとそれらの時間比が表示画像の輝度に感じ、R、G、Bを合成した色が表示画像の色として感じる。一方、自動露光制御の撮影装置では、表示画像の明るさに応じて、表示画像上のライン毎に露光タイミングを制御して撮影画像をライン毎に取り込む。従って、あるラインタイミングにおいては光が投影面にあたっている瞬間に表示画像の該当するライン上の各画素値が取り込まれ、他のラインタイミングにおいては光が投影面にあたっていない瞬間に表示画像の該当するライン上の各画素値が取り込まれる可能性が生じる。また、R、G、B単色が投影面にあたっている瞬間に表示画像の該当するライン上の各画素値が取り込まれる可能性が生じる。この結果、撮影画像上で、明るく撮影されるラインと暗く撮影されるラインや、R、G、B単色で撮影されるラインが存在することにより、それが色縞雑音として現れる。   In the DLP projection apparatus, the brightness of the display image projected on the projection surface is controlled by controlling the on / off time ratio of the mirror in the digital mirror device. Furthermore, in a single-plate projection method often used in a DLP projection apparatus, color is controlled by switching R, G, and B light at high speed. In a display image projected on the projection surface, when observed in a very short time, the moment when the mirror is on and the light is illuminated, the moment when the mirror is off and the light is not illuminated, and R, G, and B are displayed in a single color. When viewed with the human eye, the time ratio of the images is perceived by the brightness of the display image, and the color obtained by combining R, G, and B is felt as the color of the display image. On the other hand, in an automatic exposure control photographing apparatus, the exposure timing is controlled for each line on the display image in accordance with the brightness of the display image, and the photographed image is captured for each line. Therefore, at a certain line timing, each pixel value on the corresponding line of the display image is captured at the moment when the light hits the projection surface, and at another line timing, the corresponding line of the display image at the moment when the light does not hit the projection surface. There is a possibility that each pixel value above is captured. Further, there is a possibility that each pixel value on the corresponding line of the display image is captured at the moment when the R, G, B single colors are in contact with the projection surface. As a result, on the photographed image, there are lines that are photographed brightly and lines that are photographed darkly, and lines that are photographed in R, G, and B single colors, which appear as color fringe noise.

このような色縞雑音は、その他の表示画像の表示特性と撮影装置の構造に起因しても現れる可能性がある。   Such color fringe noise may also appear due to the display characteristics of other display images and the structure of the photographing apparatus.

そして、この色縞雑音は、撮影画像に基づいて画像認識を行う場合に、認識精度を低下させる。   And this color fringe noise reduces recognition accuracy, when performing image recognition based on a picked-up image.

このような色縞雑音は、投影装置による輝度制御タイミングと撮影装置による露光制御タイミングの組合せによりほぼランダムに発生する。このため、従来は、撮影装置で撮影した撮影画像上で発生する色縞雑音を有効に除去する従来技術は知られておらず、色縞雑音を有効に除去できないという問題点を有していた。   Such color fringe noise is generated almost randomly depending on the combination of the luminance control timing by the projection apparatus and the exposure control timing by the photographing apparatus. For this reason, conventionally, there is no known conventional technique for effectively removing the color fringe noise generated on the photographed image taken by the photographing apparatus, and there is a problem that the color fringe noise cannot be removed effectively. .

本発明は、撮影画像に基づいて撮影画像中の表示画像を認識する画像認識装置において、表示画像の表示特性と撮影装置の構造に起因して生じる色縞雑音を有効に除去して、画像認識の精度を向上させることを目的とする。   The present invention is an image recognition apparatus that recognizes a display image in a captured image based on a captured image, and that effectively eliminates the color fringe noise caused by the display characteristics of the display image and the structure of the image capturing apparatus. The purpose is to improve the accuracy.

態様の一例では、画像認識装置であって、所定の情報を示すアイコンである表示画像を撮影する撮影手段と、撮影手段が表示画像を撮影して得た撮影画像において、表示画像の表示特性と撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、色縞雑音が除去されて得られる縞除去画像中の表示画像を認識する画像認識手段とを備える。
態様の他の一例では、画像認識装置であって、所定の情報を示す表示画像を撮影する撮影手段と、撮影手段が表示画像を撮影して得た撮影画像において、表示画像の表示特性と撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、色縞雑音が除去されて得られる縞除去画像中の表示画像を認識する画像認識手段とを備え、前記表示画像はデジタルミラーデバイスを備えた投影装置によって投影面上に投影された画像である。
態様の他の一例では、画像認識装置であって、所定の情報を示す表示画像を撮影する撮影手段と、撮影手段が表示画像を撮影して得た撮影画像において、表示画像の表示特性と撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、色縞雑音が除去されて得られる縞除去画像中の表示画像を認識する画像認識手段とを備え、前記画像認識手段は、前記縞除去画像中の前記表示画像を、前記表示画像と同じ表示画像が登録されている画像データベース上の各登録画像と照合して、撮影した前記表示画像を認識し、前記画像認識手段は、前記撮影画像中の前記表示画像と前記画像データベース中の前記各登録画像との照合において、エッジベース特徴量を用いた類似度を評価するとともに、前記画像認識手段は、前記画像データベースに登録されている前記登録画像から作成したマスク画像を前記縞除去画像に適用して得られる画像領域から前記エッジベース特徴量を算出する。
態様の他の一例では、画像認識装置であって、所定の情報を示す表示画像を撮影する撮影手段と、撮影手段が表示画像を撮影して得た撮影画像において、表示画像の表示特性と撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、色縞雑音が除去されて得られる縞除去画像中の表示画像を認識する画像認識手段とを備え、前記画像認識手段は、前記縞除去画像中の前記表示画像を、前記表示画像と同じ表示画像が登録されている画像データベース上の各登録画像と照合して、撮影した前記表示画像を認識し、前記画像認識手段は、前記撮影画像中の前記表示画像と前記画像データベース中の前記各登録画像との照合において、エッジベース特徴量を用いた類似度を評価するとともに、前記画像認識手段は、前記撮影画像または前記縞除去画像から作成したマスク画像を前記縞除去画像に適用して得られる画像領域から前記エッジベース特徴量を算出する。
態様の他の一例では、画像認識装置であって、所定の情報を示す表示画像を撮影する撮影手段と、撮影手段が表示画像を撮影して得た撮影画像において、表示画像の表示特性と撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、色縞雑音が除去されて得られる縞除去画像中の表示画像を認識する画像認識手段とを備え、前記色縞雑音除去手段は、前記撮影画像の色成分を除去する。
In an example of the aspect, the image recognition apparatus is an imaging unit that captures a display image that is an icon indicating predetermined information, and a display characteristic of the display image in a captured image obtained by capturing the display image by the imaging unit. Color fringe noise removing means for removing color fringe noise caused by the structure of the photographing means, and image recognition means for recognizing a display image in the fringe-removed image obtained by removing the color fringe noise.
In another example of the aspect, the image recognition apparatus includes a photographing unit that captures a display image indicating predetermined information, and a display characteristic and a photographing of the display image in a captured image obtained by the photographing unit capturing the display image. Color fringe noise removing means for removing color fringe noise caused by the structure of the means, and image recognition means for recognizing a display image in the fringe-removed image obtained by removing the color fringe noise, the display image Is an image projected on the projection plane by a projection apparatus equipped with a digital mirror device.
In another example of the aspect, the image recognition apparatus includes a photographing unit that captures a display image indicating predetermined information, and a display characteristic and a photographing of the display image in a captured image obtained by the photographing unit capturing the display image. Color fringe noise removing means for removing color fringe noise caused by the structure of the means, and image recognition means for recognizing a display image in the fringe-removed image obtained by removing the color fringe noise. The means compares the display image in the striped image with each registered image on an image database in which the same display image as the display image is registered, recognizes the captured display image, and recognizes the image The means evaluates the similarity using an edge-based feature amount in the collation between the display image in the captured image and each registered image in the image database, and the image recognition means The mask image created from the registered image registered in the base to calculate the edge-based feature value from an image area obtained by applying the fringe removed image.
In another example of the aspect, the image recognition apparatus includes a photographing unit that captures a display image indicating predetermined information, and a display characteristic and a photographing of the display image in a captured image obtained by the photographing unit capturing the display image. Color fringe noise removing means for removing color fringe noise caused by the structure of the means, and image recognition means for recognizing a display image in the fringe-removed image obtained by removing the color fringe noise. The means compares the display image in the striped image with each registered image on an image database in which the same display image as the display image is registered, recognizes the captured display image, and recognizes the image The means evaluates the similarity using an edge-based feature amount in the comparison between the display image in the photographed image and each registered image in the image database, and the image recognition means comprises the photographed image Other calculates the edge-based feature value from an image area obtained by applying a mask image created from the fringe removed image on the fringe removed image.
In another example of the aspect, the image recognition apparatus includes a photographing unit that captures a display image indicating predetermined information, and a display characteristic and a photographing of the display image in a captured image obtained by the photographing unit capturing the display image. Color fringe noise removing means for removing color fringe noise caused by the structure of the means, and image recognizing means for recognizing a display image in the striped image obtained by removing the color fringe noise, The noise removing unit removes the color component of the captured image.

本発明によれば、撮影画像に基づいて撮影画像中の表示画像を認識する画像認識装置において、表示画像の表示特性と撮影装置の構造に起因して生じる色縞雑音を有効に除去して、画像認識の精度を向上させることが可能となる。   According to the present invention, in an image recognition device that recognizes a display image in a photographed image based on the photographed image, the color fringe noise caused by the display characteristics of the display image and the structure of the photographing device is effectively removed, It is possible to improve the accuracy of image recognition.

本発明の一実施形態に係る画像認識装置のブロック図である。1 is a block diagram of an image recognition apparatus according to an embodiment of the present invention. マスク枠の例を示す図である。It is a figure which shows the example of a mask frame. マスク画像の説明図である。It is explanatory drawing of a mask image. 第1の画像認識処理の説明図である。It is explanatory drawing of a 1st image recognition process. 第2の画像認識処理におけるマスク画像の生成処理の説明図である。It is explanatory drawing of the production | generation process of the mask image in a 2nd image recognition process. 画像認識装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of an image recognition apparatus. 第1の画像認識処理を含む本実施形態の処理例を示すフローチャートである。It is a flowchart which shows the process example of this embodiment including a 1st image recognition process. 第2の画像認識処理を含む本実施形態の処理例を示すフローチャートである。It is a flowchart which shows the process example of this embodiment including a 2nd image recognition process. HOG特徴量算出処理の例を示すフローチャートである。It is a flowchart which shows the example of a HOG feature-value calculation process.

以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。
図1は、本発明の一実施形態に係る画像認識装置100のブロック図である。本実施形態の画像認識装置100は、撮影手段101、色縞雑音除去手段102、画像認識手段103、および位置合せ手段107を備える。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram of an image recognition apparatus 100 according to an embodiment of the present invention. The image recognition apparatus 100 according to this embodiment includes a photographing unit 101, a color fringe noise removing unit 102, an image recognition unit 103, and an alignment unit 107.

撮影手段101は、所定の情報を示す表示画像104を撮影する。この表示画像104は例えば、所定の情報を示すアイコンである。また、このアイコンは例えば、白黒データである。表示画像104は例えば、デジタルミラーデバイスを備えた投影装置によって投影面上に投影された画像である。   The photographing unit 101 photographs a display image 104 indicating predetermined information. The display image 104 is an icon indicating predetermined information, for example. The icon is, for example, black and white data. The display image 104 is, for example, an image projected on a projection surface by a projection apparatus provided with a digital mirror device.

色縞雑音除去手段102は、撮影手段101が表示画像104を撮影して得た撮影画像105において、表示画像104の表示特性と撮影手段101の構造に起因して生じる色縞雑音を除去する。表示画像104の表示特性は例えば、デジタルミラーデバイスを備えた投影装置が投影面上に表示画像104を投影させるときのミラーのオンとオフのタイミング特性である。撮影手段101の構造は例えば、撮影手段101におけるラインスキャン時の露光タイミングを制御する構造である。ここで、撮影画像105に現れる色縞雑音は、投影に使用する光源の色や、それらを混ぜた色として表れる。そのため、色縞雑音除去手段102は、撮影画像105の画素毎の色成分の除去により色縞雑音の除去を行う。より具体的には、色縞雑音除去手段102は、撮影画像105の画素ごとに、HSV色空間の彩度値(S値)を0にする処理を実行し、縞除去画像106を生成する。あるいは、色縞雑音除去手段102は、撮影画像105の画素ごとに、R成分値、G成分値、およびB成分値を各成分値の中の最大値で置き換える処理を実行し、縞除去画像106を生成する。この結果、図1に例示されるような色縞雑音の影響を受けた撮影画像105から、その色縞雑音の影響を軽減させた図1に例示されるような縞除去画像106を生成することができる。   The color fringe noise removing unit 102 removes color fringe noise caused by the display characteristics of the display image 104 and the structure of the photographing unit 101 in the photographed image 105 obtained by photographing the display image 104 by the photographing unit 101. The display characteristic of the display image 104 is, for example, a timing characteristic of turning on and off the mirror when the projection apparatus including the digital mirror device projects the display image 104 on the projection plane. The structure of the imaging unit 101 is, for example, a structure that controls the exposure timing during line scanning in the imaging unit 101. Here, the color fringe noise appearing in the captured image 105 appears as a color of a light source used for projection or a color obtained by mixing them. For this reason, the color fringe noise removing unit 102 removes the color fringe noise by removing the color component for each pixel of the captured image 105. More specifically, the color fringe noise removing unit 102 executes a process of setting the saturation value (S value) of the HSV color space to 0 for each pixel of the photographed image 105 to generate the fringe removed image 106. Alternatively, the color fringe noise removing unit 102 executes a process of replacing the R component value, the G component value, and the B component value with the maximum value among the component values for each pixel of the captured image 105, and the fringe removed image 106. Is generated. As a result, a fringe-removed image 106 as illustrated in FIG. 1 in which the influence of the color fringe noise is reduced is generated from the captured image 105 affected by the color fringe noise as illustrated in FIG. Can do.

画像認識手段103は、色縞雑音が除去されて得られる縞除去画像106中の表示画像104を認識する。画像認識手段103は例えば、縞除去画像106中の表示画像104を、表示画像104と同じ表示画像104が登録されている画像データベース108上の各登録画像と照合して、撮影した表示画像104を認識する。画像データベース108は例えば、画像認識装置100に内蔵される。あるいは、画像データベース108は、画像認識装置100とは異なる特には図示しないサーバ装置に内蔵される。この場合、画像認識手段103は、サーバ装置内の画像データベース108と通信することにより、表示画像104を認識する処理を実行する。   The image recognition means 103 recognizes the display image 104 in the fringe-removed image 106 obtained by removing the color fringe noise. For example, the image recognizing unit 103 collates the display image 104 in the striped image 106 with each registered image on the image database 108 in which the same display image 104 as the display image 104 is registered, and displays the captured display image 104. recognize. For example, the image database 108 is built in the image recognition apparatus 100. Alternatively, the image database 108 is built in a server device (not shown) that is different from the image recognition device 100. In this case, the image recognition unit 103 executes processing for recognizing the display image 104 by communicating with the image database 108 in the server device.

ここで、例えば色縞雑音除去手段102と画像認識手段103の間(撮影手段101と色縞雑音除去手段102の間でもよい)に、位置合せ手段107を備えてよい。この場合、表示画像104は、アイコンと、色縞雑音の向きと異なる向きの線で構成されアイコンの周囲に配置されるアイコン枠とから構成され、位置合せ手段107は、縞除去画像106(または撮影画像105)からアイコン枠を検出することにより、アイコンの位置合せを行う。この位置合せの処理は、画像認識手段103が画像認識のために算出する特徴量が、表示画像104の位置等により変化してしまうことを防止するための処理である。画像認識手段103が算出する特徴量が、表示画像104の位置やサイズに不変な特徴量の場合は、位置合せ手段107は備えなくてもよい。アイコン枠としては例えば、図2(a)に示されるひし形の枠が使用される。この形状は、色縞雑音の縞と平行する成分を含まないため、アイコン枠の検出の際に色縞雑音の影響を受けにくい。位置合せ処理では、まず、ハフ変換によりひし形の枠の四辺の直線が検出され、検出された直線の交点(ひし形の頂点)が算出される。そして、算出された4つの交点を使って、射影変換により位置合せが行われる。アイコン枠の形状としては、図2(a)に示されるひし形以外にも、図2(b)に示される円形など、色縞雑音の縞と平行な成分を含まない(検出に使用しない)形状であればよい。   Here, for example, an alignment unit 107 may be provided between the color fringe noise removing unit 102 and the image recognition unit 103 (or between the photographing unit 101 and the color fringe noise removing unit 102). In this case, the display image 104 includes an icon and an icon frame that is configured by a line having a direction different from the direction of the color fringe noise and is arranged around the icon, and the alignment unit 107 includes the stripe removal image 106 (or The icon is aligned by detecting the icon frame from the photographed image 105). This alignment process is a process for preventing the feature amount calculated for image recognition by the image recognition unit 103 from being changed depending on the position of the display image 104 or the like. If the feature quantity calculated by the image recognition means 103 is a feature quantity that does not change with the position or size of the display image 104, the alignment means 107 may not be provided. For example, a diamond-shaped frame shown in FIG. 2A is used as the icon frame. Since this shape does not include a component parallel to the fringe of the color fringe noise, it is not easily affected by the color fringe noise when detecting the icon frame. In the alignment process, first, straight lines on the four sides of the rhombus frame are detected by the Hough transform, and the intersection of the detected straight lines (the apex of the rhombus) is calculated. Then, alignment is performed by projective transformation using the calculated four intersections. As the shape of the icon frame, in addition to the rhombus shown in FIG. 2 (a), a shape that does not include a component parallel to the color fringe noise stripe (such as a circle shown in FIG. 2 (b)) (not used for detection). If it is.

図1の構成において、画像認識手段103は例えば、撮影画像105中の表示画像104と画像データベース108中の各登録画像との照合において、HOG(Histogram of Oriented Gradients:輝度勾配ヒストグラム)特徴量等のエッジベース特徴量を用いた類似度を評価する。   In the configuration of FIG. 1, the image recognition unit 103, for example, compares the display image 104 in the captured image 105 with each registered image in the image database 108, such as HOG (Histogram of Oriented Gradients) feature amount. Evaluate the degree of similarity using edge-based features.

エッジベース特徴量を用いた類似度の評価に関する画像認識手段103の具体的な動作例として、画像認識手段103が第1の画像認識処理を実行する場合の動作について説明する。この場合、画像認識手段103は、画像データベース108に登録されている登録画像から作成した各マスク画像を縞除去画像106にそれぞれ適用して得られる各画像領域から各エッジベース特徴量を算出する。
図3は、マスク画像の説明図、図4は、第1の画像認識処理の説明図である。
As a specific operation example of the image recognition unit 103 related to the similarity evaluation using the edge-based feature amount, an operation when the image recognition unit 103 executes the first image recognition process will be described. In this case, the image recognition unit 103 calculates each edge-based feature amount from each image region obtained by applying each mask image created from the registered image registered in the image database 108 to the fringe-removed image 106.
FIG. 3 is an explanatory diagram of the mask image, and FIG. 4 is an explanatory diagram of the first image recognition process.

図3は、表示画像104とそれに対応するマスク画像301の関係を示す図である。マスク画像301が表示画像104に適用されたときに、図3(b)に例示される白い色の部分は表示画像104上の画素をそのまま出力し、図3(b)に例示される黒い色の部分は表示画像104上の画素はマスクして出力しない。   FIG. 3 is a diagram showing the relationship between the display image 104 and the mask image 301 corresponding thereto. When the mask image 301 is applied to the display image 104, the white color portion illustrated in FIG. 3B outputs the pixels on the display image 104 as they are, and the black color illustrated in FIG. In this part, the pixels on the display image 104 are masked and not output.

ここで、画像データベース108には、表示画像104のさまざまなパターンのアイコンと同じアイコンが登録されている。この登録アイコンの種類数を例えばN種類とする。すなわち、画像データベース108には、N種類の登録アイコンが登録されている。   Here, in the image database 108, the same icons as those of various patterns of the display image 104 are registered. For example, the number of types of registered icons is N. That is, N types of registration icons are registered in the image database 108.

また、画像認識手段103が第1の画像認識処理を実行する場合には、画像データベース108には、N種類の登録アイコンに対応して、それぞれのアイコンの輪郭部分以外の部分をマスクするように作成された、例えば図4に示されるN種類のマスク画像401(#1)から401(#N)が登録されている。   When the image recognition unit 103 executes the first image recognition process, the image database 108 is configured to mask portions other than the outline portion of each icon corresponding to the N types of registered icons. For example, N types of mask images 401 (# 1) to 401 (#N) shown in FIG. 4 are registered.

画像認識手段103は、図4の各マスク画像401(#1)〜401(#N)をそれぞれ、縞除去画像106に適用して得られる画像領域から、特徴量402(#1)〜402(#N)を算出する。この特徴量が例えばHOG特徴量であれば、特徴量402(#1)〜402(#N)はそれぞれ、輝度勾配ヒストグラムとなる。   The image recognizing unit 103 uses the feature values 402 (# 1) to 402 (from the image regions obtained by applying the mask images 401 (# 1) to 401 (#N) of FIG. #N) is calculated. If this feature quantity is, for example, an HOG feature quantity, each of the feature quantities 402 (# 1) to 402 (#N) is a luminance gradient histogram.

ここで、例えば図4において、マスク画像401(#1)のように、縞除去画像106上のアイコンによく一致するマスク画像が縞除去画像106に適用された場合には、それより算出される特徴量402(#1)は、縞除去画像106中のアイコンの特徴を良く示す特徴量となる。この特徴量402(#1)について、画像データベース108に記憶されているマスク画像401(#1)に対応する登録アイコンの特徴量との間で距離計算が実行された場合には、その計算結果は非常に近い距離を示すことになる。   Here, for example, in FIG. 4, when a mask image that closely matches the icon on the fringe removal image 106 is applied to the fringe removal image 106 as in the mask image 401 (# 1), the calculation is performed based thereon. The feature amount 402 (# 1) is a feature amount that well indicates the feature of the icon in the striped image 106. When distance calculation is performed between the feature amount 402 (# 1) and the feature amount of the registered icon corresponding to the mask image 401 (# 1) stored in the image database 108, the calculation result Indicates a very close distance.

一方、例えば図4において、マスク画像401(#2)〜401(#N)のように、縞除去画像106上のアイコンに一致しないマスク画像が縞除去画像106に適用された場合には、それより算出される特徴量402(#2)〜402(#N)は、縞除去画像106中のアイコンの特徴をほとんど示さないものとなる。これらの特徴量402(#2)〜402(#N)が、画像データベース108に記憶されている各マスク画像401(#1)〜401(#N)に対応する各登録アイコンの各特徴量との間で各距離計算が実行された場合には、どの計算結果も遠い距離を示すことになる。   On the other hand, when a mask image that does not match the icon on the striped image 106 is applied to the striped image 106 as in the mask images 401 (# 2) to 401 (#N) in FIG. The feature amounts 402 (# 2) to 402 (#N) calculated from the values hardly show the feature of the icon in the fringe-removed image 106. These feature amounts 402 (# 2) to 402 (#N) are the feature amounts of the registered icons corresponding to the mask images 401 (# 1) to 401 (#N) stored in the image database 108, respectively. If each distance calculation is executed between the two, any calculation result indicates a far distance.

以上のようにして、画像認識手段103が第1の画像認識処理を実行する場合、マスク画像401(#1)〜401(#N)は、縞除去画像106上のアイコンの存在をより際立たせる効果を有するとともに、色縞雑音の影響をさらに除去する効果を有し、これにより、画像認識率を向上させることが可能となる。   As described above, when the image recognition unit 103 executes the first image recognition process, the mask images 401 (# 1) to 401 (#N) make the presence of the icon on the striped image 106 more prominent. This has the effect of further removing the influence of the color fringe noise, thereby making it possible to improve the image recognition rate.

次に、エッジベース特徴量を用いた類似度の評価に関する画像認識手段103の具体的な他の動作例として、画像認識手段103が第2の画像認識処理を実行する場合の動作について説明する。この場合、画像認識手段103は、撮影画像105または縞除去画像106自身から作成したマスク画像を縞除去画像106に適用して得られる画像領域からエッジベース特徴量を算出する。   Next, an operation when the image recognition unit 103 executes the second image recognition process will be described as another specific operation example of the image recognition unit 103 related to the similarity evaluation using the edge-based feature amount. In this case, the image recognizing unit 103 calculates an edge-based feature amount from an image area obtained by applying the mask image created from the captured image 105 or the striped image 106 itself to the striped image 106.

この場合のマスク画像は、次のようにして生成される。図5は、第2の画像認識処理におけるマスク画像の生成処理の説明図である。まず、図1の色縞雑音除去手段102により、撮影画像105から色縞雑音成分が除去されて、縞除去画像106が得られる。次に、この縞除去画像106からエッジ成分501が抽出されて第1のデータ501とされる。一方、撮影画像105から色相成分502が抽出され、その色相成分502からエッジ成分503が抽出され、さらにそのエッジ成分503中の各エッジ部分が膨張させられてエッジ膨張成分504が作成されて第2のデータ504とされる。この第2のデータのエッジ膨張成分504によって、第1のデータのエッジ成分501をマスキングすることにより、色縞雑音の影響が除かれたアイコンおよびアイコン枠部分のマスク画像505が算出される。   The mask image in this case is generated as follows. FIG. 5 is an explanatory diagram of a mask image generation process in the second image recognition process. First, the color fringe noise removing unit 102 in FIG. 1 removes the color fringe noise component from the captured image 105 to obtain a fringe-removed image 106. Next, an edge component 501 is extracted from the fringe-removed image 106 and used as first data 501. On the other hand, a hue component 502 is extracted from the photographed image 105, an edge component 503 is extracted from the hue component 502, and each edge portion in the edge component 503 is further expanded to create an edge expansion component 504. Data 504. By masking the edge component 501 of the first data with the edge expansion component 504 of the second data, the mask image 505 of the icon and the icon frame portion from which the influence of the color fringe noise has been removed is calculated.

画像認識手段103は、以上のようにして撮影画像105または縞除去画像106自身から作成したマスク画像505を縞除去画像106に適用して得られる画像領域から、エッジベース特徴量を算出する。この特徴量が例えばHOG特徴量であれば、特徴量506は、輝度勾配ヒストグラムとなる。   The image recognizing unit 103 calculates the edge base feature amount from the image region obtained by applying the mask image 505 created from the captured image 105 or the striped image 106 itself to the striped image 106 as described above. If this feature amount is, for example, an HOG feature amount, the feature amount 506 is a luminance gradient histogram.

図5において、マスク画像505は、撮影画像105または縞除去画像106自身から作成されているため、縞除去画像106上のアイコンによく一致するマスク画像となっている。従って、そのマスク画像505が縞除去画像106に適用された場合には、それより算出される特徴量506は、縞除去画像106中のアイコンの特徴を良く示す特徴量となる。この特徴量506について、画像データベース108に記憶されている各登録アイコンの各特徴量との間で各距離計算が実行されることにより、縞除去画像106中のアイコンに最も良く似たアイコンを含む登録アイコンの特徴量との距離を最も小さくすることができる。これにより、画像認識手段103は、正しい画像認識結果を得ることが可能となる。   In FIG. 5, since the mask image 505 is created from the captured image 105 or the striped image 106 itself, it is a mask image that closely matches the icon on the striped image 106. Therefore, when the mask image 505 is applied to the stripe-removed image 106, the feature amount 506 calculated from the mask image 505 is a feature amount that well indicates the feature of the icon in the stripe-removed image 106. The feature amount 506 includes an icon most similar to the icon in the stripe-removed image 106 by performing each distance calculation between each feature amount of each registered icon stored in the image database 108. The distance from the feature amount of the registered icon can be minimized. As a result, the image recognition unit 103 can obtain a correct image recognition result.

以上のようにして、図1に示される画像認識装置100により、表示画像104の表示特性と撮影手段101の構造に起因して生じる色縞雑音を有効に除去して、画像認識の精度を向上させることが可能となる。   As described above, the image recognition apparatus 100 shown in FIG. 1 effectively removes the color fringe noise caused by the display characteristics of the display image 104 and the structure of the photographing unit 101, thereby improving the accuracy of image recognition. It becomes possible to make it.

図6は、図1の画像認識装置100のハードウェア構成例を示すブロック図である。   FIG. 6 is a block diagram illustrating a hardware configuration example of the image recognition apparatus 100 in FIG.

この画像認識装置100は例えば、いわゆるスマートフォンなどの携帯情報端末であるコンピュータシステム上に実現される。   The image recognition apparatus 100 is realized on a computer system that is a portable information terminal such as a so-called smartphone.

画像認識装置100は、CPU(Central Processing Unit:中央演算処理装置)602と、ROM(Read Only Memory)603と、RAM(Random Access Memory)604を備える。また、画像認識装置100は、ソリッド記憶装置等の外部記憶装置605と、通信インタフェース606と、タッチパネルディスプレイ装置などの入力装置607および表示装置608を備える。さらに、画像認識装置100は、マイクロSDメモリカードやUSB(Universal Serial Bus)メモリカードなどの可搬記録媒体160をセット可能な可搬記録媒体駆動装置609を備える。撮像装置612は、静止画像やビデオ画像を撮像することのできるデジタルカメラ機構であり、レンズ、オートフォーカス駆動制御装置、露出制御装置、撮像センサ等を備える。上述の各機器602〜609および612は、バス611によって相互に接続される。   The image recognition apparatus 100 includes a CPU (Central Processing Unit) 602, a ROM (Read Only Memory) 603, and a RAM (Random Access Memory) 604. The image recognition apparatus 100 includes an external storage device 605 such as a solid storage device, a communication interface 606, an input device 607 such as a touch panel display device, and a display device 608. Further, the image recognition apparatus 100 includes a portable recording medium driving device 609 capable of setting a portable recording medium 160 such as a micro SD memory card or a USB (Universal Serial Bus) memory card. The imaging device 612 is a digital camera mechanism that can capture still images and video images, and includes a lens, an autofocus drive control device, an exposure control device, an imaging sensor, and the like. The devices 602 to 609 and 612 described above are connected to each other by a bus 611.

ROM603には、スマートフォン全体の一般的な動作を制御するプログラムのほか、後述する図7から図9のフローチャートによって示される画像認識処理の制御プログラムが記憶されている。CPU602は、ROM603から、この制御プログラムを読み出し、RAM604をワークメモリとして実行することにより、図1のブロックで示される画像認識機能が実現される。この結果、例えばユーザが、撮像装置612によってアイコンを含む表示画像104を撮像して得られる撮影画像105から、アイコンを認識する画像認識処理が実行される。図1の画像データベース108は、図6の外部記憶装置605に内蔵されてもよいが、例えば特には図示しないインターネット上のサーバ装置に内蔵されてもよい。この場合には、CPU602は、通信インタフェース606からインターネットを介してサーバ装置内の画像データベース108と通信をして、画像認識処理を実行する。CPU602は、アイコン等の画像認識結果を、表示装置608に表示させる。   In addition to a program for controlling general operations of the entire smartphone, the ROM 603 stores a control program for image recognition processing shown by flowcharts in FIGS. The CPU 602 reads this control program from the ROM 603 and executes the RAM 604 as a work memory, thereby realizing the image recognition function shown by the block in FIG. As a result, for example, an image recognition process for recognizing an icon from the captured image 105 obtained by the user capturing the display image 104 including the icon with the imaging device 612 is executed. The image database 108 in FIG. 1 may be built in the external storage device 605 in FIG. 6, but may be built in, for example, a server device on the Internet (not shown). In this case, the CPU 602 communicates with the image database 108 in the server device via the communication interface 606 via the Internet, and executes image recognition processing. The CPU 602 causes the display device 608 to display an image recognition result such as an icon.

図7は、図6のCPU602が実行する、前述した画像認識手段103による第1の画像認識処理(図4参照)を含む本実施形態の処理例を示すフローチャートである。この処理は、CPU602が、ROM603またはRAM604に記憶された制御プログラムを実行する動作として実現される。   FIG. 7 is a flowchart showing a processing example of the present embodiment including the first image recognition processing (see FIG. 4) by the image recognition unit 103 described above, which is executed by the CPU 602 of FIG. This process is realized as an operation in which the CPU 602 executes a control program stored in the ROM 603 or the RAM 604.

まず、CPU602は、前処理を実行する(ステップS701)。ここでは、CPU602は、図1で前述した撮影画像105の取得(撮影手段101の機能)と、撮影画像105からの色縞雑音の除去による縞除去画像106の生成(色縞雑音除去手段102の機能)、および位置合わせの処理(位置合せ手段107の機能)を実行する。   First, the CPU 602 executes preprocessing (step S701). Here, the CPU 602 obtains the captured image 105 described above with reference to FIG. 1 (function of the imaging unit 101) and generates a fringe-removed image 106 by removing the color fringe noise from the captured image 105 (of the color fringe noise removing unit 102). Function) and alignment processing (function of the alignment means 107).

具体的には、CPU602は、撮像装置612を制御することにより、撮影画像105を、例えばRAM604に取得する。   Specifically, the CPU 602 acquires the captured image 105 in, for example, the RAM 604 by controlling the imaging device 612.

色縞雑音の除去では、CPU602は、前述したように、取得した撮影画像105の画素ごとに、HSV色空間の彩度値(S値)を0にする処理、あるいはR成分値、G成分値、およびB成分値を各成分値の中の最大値で置き換える処理を実行する。CPU602は、この結果得られる縞除去画像106を、例えばRAM604に記憶させる。   In removing the color fringe noise, as described above, the CPU 602 performs processing for setting the saturation value (S value) of the HSV color space to 0 for each pixel of the acquired captured image 105, or R component value and G component value. , And a process of replacing the B component value with the maximum value among the component values. The CPU 602 stores the striped image 106 obtained as a result in, for example, the RAM 604.

位置合わせの処理では、CPU602は、前述したように、ハフ変換により例えばひし形(図2(a)参照)の枠の四辺の直線を検出し、検出した直線の交点(ひし形の頂点)を算出し、その4つの交点を使って射影変換により位置合せを行う。   In the alignment process, as described above, the CPU 602 detects, for example, the straight lines on the four sides of the frame of the rhombus (see FIG. 2A) by the Hough transform, and calculates the intersection (the apex of the rhombus) of the detected line. Then, alignment is performed by projective transformation using the four intersections.

次に、CPU602は、前述した第1の画像認識処理を実行する(ステップS702→S703→S704の繰返し処理→S705)。   Next, the CPU 602 executes the above-described first image recognition process (steps S702 → S703 → S704 repetition process → S705).

まず、CPU602は、外部記憶装置605に記憶されたまたは通信インタフェース606からアクセス可能な画像データベース108から、各登録アイコンに対応するマスク画像401(#1〜#N)(図4参照)を順次取得し、取得した1つのマスク画像401を縞除去画像106に適用し、その結果得られる画像に対して、特徴量抽出を実行する(ステップS702)。特徴量抽出の詳細については、図9で後述する。   First, the CPU 602 sequentially acquires mask images 401 (# 1 to #N) (see FIG. 4) corresponding to each registered icon from the image database 108 stored in the external storage device 605 or accessible from the communication interface 606. Then, the acquired one mask image 401 is applied to the fringe-removed image 106, and feature amount extraction is executed on the resulting image (step S702). Details of the feature amount extraction will be described later with reference to FIG.

CPU602は、マスク画像401に対応して得た特徴量402(#1〜#Nのうちのいずれか)(図4参照)について、画像データベース108内の各登録アイコンの各特徴量との間で特徴量距離を計算する(ステップS703)。   The CPU 602 determines the feature amount 402 (any one of # 1 to #N) (see FIG. 4) obtained corresponding to the mask image 401 and the feature amount of each registered icon in the image database 108. A feature distance is calculated (step S703).

CPU602は、全ての登録アイコンについて処理が終了したか否かを判定する(ステップS704)。   The CPU 602 determines whether or not processing has been completed for all registered icons (step S704).

ステップS704の判定がNOならば、CPU602は、さらに次の登録アイコンのマスク画像401を用いて、ステップS702とS703の処理を繰り返し実行する。   If the determination in step S704 is NO, the CPU 602 repeatedly executes the processes in steps S702 and S703 using the mask image 401 of the next registered icon.

ステップS704の判定がYESになったら、CPU602は、ステップS703の特徴量距離計算の結果が最も近い距離を示したときの画像データベース108上の登録アイコンを、認識結果として選択し、表示装置608に出力する(ステップS705)。   If the determination in step S704 is YES, the CPU 602 selects the registered icon on the image database 108 when the result of the feature distance calculation in step S703 indicates the closest distance as a recognition result, and displays it on the display device 608. Output (step S705).

図8は、図6のCPU602が実行する、前述した画像認識手段103による第2の画像認識処理(図5参照)を含む本実施形態の処理例を示すフローチャートである。この処理は、図7の場合と同様に、CPU602が、ROM603またはRAM604に記憶された制御プログラムを実行する動作として実現される。   FIG. 8 is a flowchart showing a processing example of this embodiment including the second image recognition processing (see FIG. 5) by the above-described image recognition means 103, which is executed by the CPU 602 of FIG. This process is realized as an operation in which the CPU 602 executes the control program stored in the ROM 603 or the RAM 604, as in the case of FIG.

まず、CPU602は、前処理を実行する(ステップS801)。ここでの処理は、図7のステップS701と同様であり、CPU602は、撮影画像105の取得と、撮影画像105からの色縞雑音の除去による縞除去画像106の生成、および位置合わせの処理を実行する。   First, the CPU 602 executes preprocessing (step S801). The processing here is the same as that in step S701 in FIG. 7, and the CPU 602 performs processing of acquiring the captured image 105, generating the fringe-removed image 106 by removing color fringe noise from the captured image 105, and alignment processing. Run.

次に、CPU602は、前述した第2の画像認識処理を実行する(ステップS802→S803→S804とS805の繰返し処理→S806)。   Next, the CPU 602 executes the second image recognition process described above (repeating process of steps S802 → S803 → S804 and S805 → S806).

まず、CPU602は、マスク画像505(図5参照)の生成処理を実行する。図5で説明したように、CPU602は、縞除去画像106から第1のデータであるエッジ成分501を抽出してRAM604に記憶する。一方、CPU602は、撮影画像105から色相成分502を抽出し、その色相成分502からエッジ成分503を抽出し、さらにそのエッジ成分503中の各エッジ部分を膨張さてエッジ膨張成分504を作成して第2のデータ504としてRAM604に記憶する。CPU602は、RAM604上の第2のデータのエッジ膨張成分504によって、RAM604上の第1のデータのエッジ成分501をマスキングすることにより、色縞雑音の影響が除かれたアイコンおよびアイコン枠部分のマスク画像505を算出し、RAM604に記憶させる。   First, the CPU 602 executes processing for generating a mask image 505 (see FIG. 5). As described with reference to FIG. 5, the CPU 602 extracts the edge component 501 as the first data from the striped image 106 and stores it in the RAM 604. On the other hand, the CPU 602 extracts the hue component 502 from the captured image 105, extracts the edge component 503 from the hue component 502, and further expands each edge portion in the edge component 503 to create an edge expansion component 504. Second data 504 is stored in the RAM 604. The CPU 602 masks the edge component 501 of the first data on the RAM 604 by masking the edge component 501 of the first data on the RAM 604 with the edge expansion component 504 of the second data on the RAM 604, thereby masking the icons and icon frame portions. An image 505 is calculated and stored in the RAM 604.

CPU602は、RAM604に生成したマスク画像505を縞除去画像106に適用し、その結果得られる画像に対して、特徴量抽出を実行する(ステップS803)。この処理は、図7のステップS702と異なり、1回だけ実行されればよい。特徴量抽出の詳細については、図9で後述する。   The CPU 602 applies the mask image 505 generated in the RAM 604 to the fringe-removed image 106, and executes feature amount extraction on the resulting image (step S803). This process need only be executed once, unlike step S702 in FIG. Details of the feature amount extraction will be described later with reference to FIG.

CPU602は、マスク画像505に対応して得た特徴量506(図5参照)について、画像データベース108内の各登録アイコンの各特徴量との間で特徴量距離を計算する(ステップS804)。   The CPU 602 calculates the feature amount distance between the feature amount 506 (see FIG. 5) obtained corresponding to the mask image 505 and the feature amount of each registered icon in the image database 108 (step S804).

CPU602は、全ての登録アイコンについて処理が終了したか否かを判定する(ステップS805)。   The CPU 602 determines whether or not processing has been completed for all registered icons (step S805).

ステップS805の判定がNOならば、CPU602は、さらに次の登録アイコンについて、ステップS804の特徴量距離計算を繰り返し実行する。   If the determination in step S805 is NO, the CPU 602 repeatedly executes the feature amount distance calculation in step S804 for the next registered icon.

ステップS805の判定がYESになったら、CPU602は、ステップS804の特徴量距離計算の結果が最も近い距離を示したときの画像データベース108上の登録アイコンを、認識結果として選択し、表示装置608に出力する(ステップS806)。   If the determination in step S805 is YES, the CPU 602 selects the registered icon on the image database 108 when the result of the feature amount distance calculation in step S804 indicates the closest distance, and displays it on the display device 608. Output (step S806).

図9は、図7のステップS702または図8のステップS803の特徴量抽出の処理であるHOG特徴量算出処理の例を示すフローチャートである。   FIG. 9 is a flowchart illustrating an example of a HOG feature amount calculation process that is a feature amount extraction process in step S702 of FIG. 7 or step S803 of FIG.

HOG特徴量は、画像の局所領域から輝度勾配・輝度強度を算出して得られる特徴量であり、アイコンの大まかな形状を表現可能な特徴量である。   The HOG feature amount is a feature amount obtained by calculating a luminance gradient / luminance intensity from a local region of an image, and is a feature amount that can represent a rough shape of an icon.

CPU602はまず、マスク適用された後の画像をブロックに分割する(ステップS901)。   First, the CPU 602 divides the image after the mask application into blocks (step S901).

次に、CPU602は、ブロックを画像内で移動させながら、ブロックをさらに分割したセル毎に、輝度勾配と輝度強度を算出する(ステップS902)。   Next, the CPU 602 calculates a luminance gradient and luminance intensity for each cell obtained by further dividing the block while moving the block in the image (step S902).

CPU602は、上記ブロック内のセル毎に、輝度勾配ヒストグラムのステップS902で算出した輝度勾配に対応する要素に、ステップS902で算出した輝度強度を累積してゆく(ステップS903)。   For each cell in the block, the CPU 602 accumulates the luminance intensity calculated in step S902 on the element corresponding to the luminance gradient calculated in step S902 of the luminance gradient histogram (step S903).

次に、CPU602は、ブロックごとに輝度勾配ヒストグラムを正規化する(ステップS904)。正規化処理により輝度勾配ヒストグラムの形状を整えることができるので、明るさの変化に対応可能である。   Next, the CPU 602 normalizes the luminance gradient histogram for each block (step S904). Since the shape of the luminance gradient histogram can be adjusted by normalization processing, it is possible to cope with changes in brightness.

CPU602は、画像内の全ブロックについて処理が終了したか判定する(ステップS905)。   The CPU 602 determines whether the processing has been completed for all blocks in the image (step S905).

ステップS905の判定がNOならば、CPU602は、次のブロックについて、ステップS902からS904の一連の処理を実行する。   If the determination in step S905 is NO, the CPU 602 executes a series of processing in steps S902 to S904 for the next block.

ステップS905の判定がYESになったら、CPU602は、HOG特徴量抽出の処理を終了する。   If the determination in step S905 is YES, the CPU 602 ends the HOG feature amount extraction process.

以上のようにして、本実施形態では、前処理として色成分の除去をすることで、特徴量計算における色縞雑音の影響を軽減することが可能となる。
また、マスクを使用して特徴量の計算をすることで、特徴量に対する色縞雑音の影響をさらに軽減することが可能となる。
ここで、マスクを、登録アイコンから作成することで、色縞雑音の影響をより軽減することが可能となる。
あるいは、マスクを、撮影画像または縞除去画像から作成することで、特徴量の計算が1度ですむため、高速に認識処理を実行することが可能となる。
本実施形態では、色縞雑音の縞と平行な成分を含まない形状のアイコン枠を使用して位置合せを行うことにより、色縞雑音に影響されないアイコン枠の検出が可能となる。
As described above, in the present embodiment, it is possible to reduce the influence of the color fringe noise in the feature amount calculation by removing the color component as the preprocessing.
Further, by calculating the feature amount using the mask, it is possible to further reduce the influence of the color fringe noise on the feature amount.
Here, by creating a mask from a registered icon, it is possible to further reduce the influence of color fringe noise.
Alternatively, by creating the mask from the captured image or the striped image, the feature amount needs to be calculated only once, so that the recognition process can be executed at high speed.
In the present embodiment, the icon frame that is not affected by the color fringe noise can be detected by performing alignment using an icon frame having a shape that does not include a component parallel to the stripes of the color fringe noise.

以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
所定の情報を示す表示画像を撮影する撮影手段と、
前記撮影手段が前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する画像認識手段と、
を備えることを特徴とする画像認識装置。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
Photographing means for photographing a display image showing predetermined information;
In the photographed image obtained by photographing the display image by the photographing means, color fringe noise removing means for removing color fringe noise caused by the display characteristics of the display image and the structure of the photographing means;
Image recognition means for recognizing the display image in a striped image obtained by removing the color fringe noise;
An image recognition apparatus comprising:

(付記2)
前記表示画像は前記所定の情報を示すアイコンである、
ことを特徴とする付記1に記載の画像認識装置。
(Appendix 2)
The display image is an icon indicating the predetermined information.
The image recognizing device according to Supplementary Note 1, wherein

(付記3)
前記アイコンは白黒データである、
ことを特徴とする付記2に記載の画像認識装置。
(Appendix 3)
The icon is black and white data.
The image recognizing device according to Supplementary Note 2, wherein

(付記4)
前記表示画像はデジタルミラーデバイスを備えた投影装置によって投影面上に投影された画像である、
ことを特徴とする付記1乃至3の何れか一項に記載の画像認識装置。
(Appendix 4)
The display image is an image projected on a projection plane by a projection apparatus including a digital mirror device.
The image recognition device according to any one of appendices 1 to 3, wherein

(付記5)
前記画像認識手段は、前記縞除去画像中の前記表示画像を、前記表示画像と同じ表示画像が登録されている画像データベース上の各登録画像と照合して、撮影した前記表示画像を認識する、
ことを特徴とする付記1乃至3の何れか一項に記載の画像認識装置。
(Appendix 5)
The image recognition means compares the display image in the striped image with each registered image on an image database in which the same display image as the display image is registered, and recognizes the captured display image.
The image recognition device according to any one of appendices 1 to 3, wherein

(付記6)
前記画像データベースは前記画像認識装置に内蔵される、
ことを特徴とする付記5に記載の画像認識装置。
(Appendix 6)
The image database is built in the image recognition device.
The image recognizing device according to appendix 5, characterized in that:

(付記7)
前記画像データベースは前記画像認識装置とは異なるサーバ装置に内蔵され、
前記画像認識手段は、前記サーバ装置内の前記画像データベースと通信することにより、前記表示画像を認識する処理を実行する、
ことを特徴とする付記5に記載の画像認識装置。
(Appendix 7)
The image database is built in a server device different from the image recognition device,
The image recognition means executes a process of recognizing the display image by communicating with the image database in the server device.
The image recognizing device according to appendix 5, characterized in that:

(付記8)
前記表示画像は、前記アイコンと、前記色縞雑音の向きと異なる向きの線で構成され前記アイコンの周囲に配置されるアイコン枠とから構成され、
前記撮影画像から前記アイコン枠を検出することにより、前記アイコンの位置合せを行う位置合せ手段をさらに備える、
ことを特徴とする付記2又は3に記載の画像認識装置。
(Appendix 8)
The display image is composed of the icon and an icon frame configured by a line having a direction different from the direction of the color fringe noise and arranged around the icon.
Alignment means for aligning the icon by detecting the icon frame from the captured image,
The image recognizing device according to appendix 2 or 3, characterized by the above.

(付記9)
前記アイコン枠はひし形の枠である、
ことを特徴とする付記8に記載の画像認識装置。
(Appendix 9)
The icon frame is a diamond frame,
The image recognizing device according to appendix 8, characterized by:

(付記10)
前記アイコン枠は円形の枠である、
ことを特徴とする付記8に記載の画像認識装置。
(Appendix 10)
The icon frame is a circular frame.
The image recognizing device according to appendix 8, characterized by:

(付記11)
前記色縞雑音除去手段は、前記撮影画像の色成分を除去する、
ことを特徴とする付記1乃至10の何れか一項に記載の画像認識装置。
(Appendix 11)
The color fringe noise removing means removes a color component of the captured image;
The image recognition apparatus according to any one of appendices 1 to 10, wherein

(付記12)
前記色縞雑音除去手段は、前記撮影画像の画素ごとに、HSV色空間の彩度値を0にする処理を実行し、前記縞除去画像を生成する、
ことを特徴とする付記11に記載の画像認識装置。
(Appendix 12)
The color fringe noise removing unit executes a process of setting the saturation value of the HSV color space to 0 for each pixel of the captured image, and generates the fringe removed image.
The image recognition apparatus according to appendix 11, wherein

(付記13)
前記色縞雑音除去手段は、前記撮影画像の画素ごとに、R成分値、G成分値、およびB成分値を当該各成分値の中の最大値で置き換える処理を実行し、前記縞除去画像を生成する、
ことを特徴とする付記11に記載の投影画像認識システム。
(Appendix 13)
The color fringe noise removing unit performs a process of replacing the R component value, the G component value, and the B component value with the maximum value among the component values for each pixel of the captured image, and Generate,
The projection image recognition system according to appendix 11, wherein

(付記14)
前記画像認識手段は、前記撮影画像中の前記表示画像と前記画像データベース中の前記各登録画像との照合において、エッジベース特徴量を用いた類似度を評価する、
ことを特徴とする付記5乃至7の何れか一項に記載の画像認識装置。
(Appendix 14)
The image recognition means evaluates similarity using an edge-based feature amount in collation between the display image in the captured image and each registered image in the image database;
The image recognition device according to any one of appendices 5 to 7, characterized in that:

(付記15)
前記画像認識手段は、前記画像データベースに登録されている前記登録画像から作成したマスク画像を前記縞除去画像に適用して得られる画像領域から前記エッジベース特徴量を算出する、
ことを特徴とする付記14に記載の画像認識装置。
(Appendix 15)
The image recognition means calculates the edge-based feature amount from an image region obtained by applying a mask image created from the registered image registered in the image database to the fringe-removed image;
15. The image recognition device according to appendix 14, wherein

(付記16)
前記画像認識手段は、前記撮影画像または前記縞除去画像から作成したマスク画像を前記縞除去画像に適用して得られる画像領域から前記エッジベース特徴量を算出する、
ことを特徴とする付記14に記載の画像認識装置。
(Appendix 16)
The image recognition means calculates the edge-based feature amount from an image region obtained by applying a mask image created from the captured image or the fringe-removed image to the fringe-removed image.
15. The image recognition device according to appendix 14, wherein

(付記17)
前記マスク画像は、前記撮影画像の色成分を除去した後に、エッジ抽出した第1のデータと、前記撮影画像の色相成分から抽出したエッジを膨張した第2のデータから作成する、
ことを特徴とする付記16に記載の画像認識装置。
(Appendix 17)
The mask image is created from first data obtained by edge extraction after removing the color component of the photographed image and second data obtained by expanding the edge extracted from the hue component of the photographed image.
Item 17. The image recognition device according to appendix 16, wherein

(付記18)
前記エッジベース特徴量は、HOG特徴量である、
ことを特徴とする付記14乃至17の何れか一項に記載の画像認識装置。
(Appendix 18)
The edge-based feature value is a HOG feature value.
18. The image recognition device according to any one of appendices 14 to 17, characterized in that:

(付記19)
所定の情報を示す表示画像を撮影し、
前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去し、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する、
ことを特徴とする画像認識方法。
(Appendix 19)
Take a display image showing the predetermined information,
In the photographed image obtained by photographing the display image, color fringe noise caused by the display characteristics of the display image and the structure of the photographing means is removed,
Recognizing the display image in a striped image obtained by removing the color fringe noise;
An image recognition method characterized by the above.

(付記20)
コンピュータに、
所定の情報を示す表示画像を撮影する撮影ステップと、
前記撮影ステップで前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去ステップと、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する画像認識ステップと、
を実行させるための画像認識プログラム。
(Appendix 20)
On the computer,
A shooting step of shooting a display image showing predetermined information;
In a photographed image obtained by photographing the display image in the photographing step, a color fringe noise removing step for removing color fringe noise caused by the display characteristics of the display image and the structure of the photographing means;
An image recognition step for recognizing the display image in the striped image obtained by removing the color fringe noise;
An image recognition program for executing

(付記21)
所定の情報を示す画像を投影する投影装置と、当該投影装置が投影した投影画面に映る前記画像を撮影し撮影した前記画像を認識する撮影装置と、からなる投影画像認識システムにおいて、
前記投影装置と前記撮影装置の構造に起因する撮影画像の色縞雑音を除去する色縞雑音除去手段を備える、
ことを特徴とする投影画像認識システム。
(Appendix 21)
In a projection image recognition system comprising: a projection device that projects an image showing predetermined information; and a photographing device that captures and captures the image captured on the projection screen projected by the projection device;
Color fringe noise removing means for removing color fringe noise of a photographed image caused by the structure of the projection device and the photographing device;
A projected image recognition system characterized by that.

100 画像認識装置
602 CPU
603 ROM
604 RAM
605 外部記憶装置
606 通信インタフェース
607 入力装置
608 表示装置
609 可搬記録媒体駆動装置
610 可搬記録媒体
611 バス
612 撮像装置
100 Image recognition device 602 CPU
603 ROM
604 RAM
605 External storage device 606 Communication interface 607 Input device 608 Display device 609 Portable recording medium driving device 610 Portable recording medium 611 Bus 612 Imaging device

Claims (19)

所定の情報を示すアイコンである表示画像を撮影する撮影手段と、
前記撮影手段が前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する画像認識手段と、
を備えることを特徴とする画像認識装置。
Photographing means for photographing a display image which is an icon indicating predetermined information;
In the photographed image obtained by photographing the display image by the photographing means, color fringe noise removing means for removing color fringe noise caused by the display characteristics of the display image and the structure of the photographing means;
Image recognition means for recognizing the display image in a striped image obtained by removing the color fringe noise;
An image recognition apparatus comprising:
前記アイコンは白黒データである、
ことを特徴とする請求項1に記載の画像認識装置。
The icon is black and white data.
The image recognition apparatus according to claim 1 .
前記表示画像は、前記アイコンと、前記色縞雑音の向きと異なる向きの線で構成され前記アイコンの周囲に配置されるアイコン枠とから構成され、
前記縞除去画像または前記撮影画像から前記アイコン枠を検出することにより、前記アイコンの位置合せを行う位置合せ手段をさらに備える、
ことを特徴とする請求項1又は2に記載の画像認識装置。
The display image is composed of the icon and an icon frame configured by a line having a direction different from the direction of the color fringe noise and arranged around the icon.
Alignment means for aligning the icon by detecting the icon frame from the striped image or the captured image,
The image recognition apparatus according to claim 1 , wherein the image recognition apparatus is an image recognition apparatus.
前記アイコン枠はひし形の枠である、
ことを特徴とする請求項3に記載の画像認識装置。
The icon frame is a diamond frame,
The image recognition apparatus according to claim 3 .
前記アイコン枠は円形の枠である、
ことを特徴とする請求項3に記載の画像認識装置。
The icon frame is a circular frame.
The image recognition apparatus according to claim 3 .
所定の情報を示す表示画像を撮影する撮影手段と、
前記撮影手段が前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する画像認識手段と、
を備え
前記表示画像はデジタルミラーデバイスを備えた投影装置によって投影面上に投影された画像である、
ことを特徴とする画像認識装置。
Photographing means for photographing a display image showing predetermined information;
In the photographed image obtained by photographing the display image by the photographing means, color fringe noise removing means for removing color fringe noise caused by the display characteristics of the display image and the structure of the photographing means;
Image recognition means for recognizing the display image in a striped image obtained by removing the color fringe noise;
Equipped with a,
The display image is an image projected on a projection plane by a projection apparatus including a digital mirror device.
An image recognition apparatus characterized by that.
所定の情報を示す表示画像を撮影する撮影手段と、
前記撮影手段が前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する画像認識手段と、
を備え
前記画像認識手段は、前記縞除去画像中の前記表示画像を、前記表示画像と同じ表示画像が登録されている画像データベース上の各登録画像と照合して、撮影した前記表示画像を認識し、
前記画像認識手段は、前記撮影画像中の前記表示画像と前記画像データベース中の前記各登録画像との照合において、エッジベース特徴量を用いた類似度を評価するとともに、
前記画像認識手段は、前記画像データベースに登録されている前記登録画像から作成したマスク画像を前記縞除去画像に適用して得られる画像領域から前記エッジベース特徴量を算出する、
ことを特徴とする画像認識装置。
Photographing means for photographing a display image showing predetermined information;
In the photographed image obtained by photographing the display image by the photographing means, color fringe noise removing means for removing color fringe noise caused by the display characteristics of the display image and the structure of the photographing means;
Image recognition means for recognizing the display image in a striped image obtained by removing the color fringe noise;
Equipped with a,
The image recognition means compares the display image in the striped image with each registered image on an image database in which the same display image as the display image is registered, and recognizes the captured display image,
The image recognition means evaluates the similarity using an edge-based feature amount in collation between the display image in the captured image and each registered image in the image database,
The image recognition means calculates the edge-based feature amount from an image region obtained by applying a mask image created from the registered image registered in the image database to the fringe-removed image;
An image recognition apparatus characterized by that.
所定の情報を示す表示画像を撮影する撮影手段と、
前記撮影手段が前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する画像認識手段と、
を備え
前記画像認識手段は、前記縞除去画像中の前記表示画像を、前記表示画像と同じ表示画像が登録されている画像データベース上の各登録画像と照合して、撮影した前記表示画像を認識し、
前記画像認識手段は、前記撮影画像中の前記表示画像と前記画像データベース中の前記各登録画像との照合において、エッジベース特徴量を用いた類似度を評価するとともに、
前記画像認識手段は、前記撮影画像または前記縞除去画像から作成したマスク画像を前記縞除去画像に適用して得られる画像領域から前記エッジベース特徴量を算出する、
ことを特徴とする画像認識装置。
Photographing means for photographing a display image showing predetermined information;
In the photographed image obtained by photographing the display image by the photographing means, color fringe noise removing means for removing color fringe noise caused by the display characteristics of the display image and the structure of the photographing means;
Image recognition means for recognizing the display image in a striped image obtained by removing the color fringe noise;
Equipped with a,
The image recognition means compares the display image in the striped image with each registered image on an image database in which the same display image as the display image is registered, and recognizes the captured display image,
The image recognition means evaluates the similarity using an edge-based feature amount in collation between the display image in the captured image and each registered image in the image database,
The image recognition means calculates the edge-based feature amount from an image region obtained by applying a mask image created from the captured image or the fringe-removed image to the fringe-removed image.
An image recognition apparatus characterized by that.
前記画像データベースは前記画像認識装置に内蔵される、
ことを特徴とする請求項7又は8に記載の画像認識装置。
The image database is built in the image recognition device.
The image recognition apparatus according to claim 7 or 8 , wherein
前記画像データベースは前記画像認識装置とは異なるサーバ装置に内蔵され、
前記画像認識手段は、前記サーバ装置内の前記画像データベースと通信することにより、前記表示画像を認識する処理を実行する、
ことを特徴とする請求項7又は8に記載の画像認識装置。
The image database is built in a server device different from the image recognition device,
The image recognition means executes a process of recognizing the display image by communicating with the image database in the server device.
The image recognition apparatus according to claim 7 or 8 , wherein
前記マスク画像は、前記撮影画像の色成分を除去した後に、エッジ抽出した第1のデータと、前記撮影画像の色相成分から抽出したエッジを膨張した第2のデータから作成する、
ことを特徴とする請求項7又は8に記載の画像認識装置。
The mask image is created from first data obtained by edge extraction after removing the color component of the photographed image and second data obtained by expanding the edge extracted from the hue component of the photographed image.
The image recognition apparatus according to claim 7 or 8 , wherein
前記エッジベース特徴量は、HOG特徴量である、
ことを特徴とする請求項7乃至11の何れか一項に記載の画像認識装置。
The edge-based feature value is a HOG feature value.
The image recognition apparatus according to claim 7 , wherein the image recognition apparatus is an image recognition apparatus.
所定の情報を示す表示画像を撮影する撮影手段と、
前記撮影手段が前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去手段と、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する画像認識手段と、
を備え
前記色縞雑音除去手段は、前記撮影画像の色成分を除去する、
ことを特徴とする画像認識装置。
Photographing means for photographing a display image showing predetermined information;
In the photographed image obtained by photographing the display image by the photographing means, color fringe noise removing means for removing color fringe noise caused by the display characteristics of the display image and the structure of the photographing means;
Image recognition means for recognizing the display image in a striped image obtained by removing the color fringe noise;
Equipped with a,
The color fringe noise removing means removes a color component of the captured image;
An image recognition apparatus characterized by that.
前記色縞雑音除去手段は、前記撮影画像の画素ごとに、HSV色空間の彩度値を0にする処理を実行し、前記縞除去画像を生成する、
ことを特徴とする請求項13に記載の画像認識装置。
The color fringe noise removing unit executes a process of setting the saturation value of the HSV color space to 0 for each pixel of the captured image, and generates the fringe removed image.
The image recognition apparatus according to claim 13 .
前記色縞雑音除去手段は、前記撮影画像の画素ごとに、R成分値、G成分値、およびB成分値を当該各成分値の中の最大値で置き換える処理を実行し、前記縞除去画像を生成する、
ことを特徴とする請求項13に記載の画像認識装置
The color fringe noise removing unit performs a process of replacing the R component value, the G component value, and the B component value with the maximum value among the component values for each pixel of the captured image, and Generate,
The image recognition apparatus according to claim 13 .
所定の情報を示すアイコンである表示画像を撮影し、
前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去し、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する、
ことを特徴とする画像認識方法。
Take a display image, which is an icon that shows certain information,
In the photographed image obtained by photographing the display image, color fringe noise caused by the display characteristics of the display image and the structure of the photographing means is removed,
Recognizing the display image in a striped image obtained by removing the color fringe noise;
An image recognition method characterized by the above.
画像認識装置のコンピュータに、
所定の情報を示すアイコンである表示画像を撮影する撮影ステップと、
前記撮影ステップで前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去ステップと、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する画像認識ステップと、
を実行させるための画像認識プログラム。
In the computer of the image recognition device ,
A shooting step of shooting a display image that is an icon indicating predetermined information;
In a photographed image obtained by photographing the display image in the photographing step, a color fringe noise removing step for removing color fringe noise caused by the display characteristics of the display image and the structure of the photographing means;
An image recognition step for recognizing the display image in the striped image obtained by removing the color fringe noise;
An image recognition program for executing
所定の情報を示す表示画像を撮影し、
前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去し、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識し、
前記色縞雑音の除去は、前記撮影画像の色成分を除去する、
ことを特徴とする画像認識方法。
Take a display image showing the predetermined information,
In the photographed image obtained by photographing the display image, color fringe noise caused by the display characteristics of the display image and the structure of the photographing means is removed,
Recognizing the display image in the striped image obtained by removing the color fringe noise ;
The removal of the color fringe noise removes a color component of the captured image.
An image recognition method characterized by the above.
画像認識装置のコンピュータに、
所定の情報を示す表示画像を撮影する撮影ステップと、
前記撮影ステップで前記表示画像を撮影して得た撮影画像において、前記表示画像の表示特性と前記撮影手段の構造に起因して生じる色縞雑音を除去する色縞雑音除去ステップと、
前記色縞雑音が除去されて得られる縞除去画像中の前記表示画像を認識する画像認識ステップと、
を実行させ、
前記色縞雑音除去ステップは、前記撮影画像の色成分を除去する、
像認識プログラム。
In the computer of the image recognition device ,
A shooting step of shooting a display image showing predetermined information;
In a photographed image obtained by photographing the display image in the photographing step, a color fringe noise removing step for removing color fringe noise caused by the display characteristics of the display image and the structure of the photographing means;
An image recognition step for recognizing the display image in the striped image obtained by removing the color fringe noise;
Was executed,
The color fringe noise removing step removes a color component of the captured image;
Images recognition program.
JP2013204764A 2013-09-30 2013-09-30 Image recognition apparatus, image recognition method, and image recognition program Active JP6244787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013204764A JP6244787B2 (en) 2013-09-30 2013-09-30 Image recognition apparatus, image recognition method, and image recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013204764A JP6244787B2 (en) 2013-09-30 2013-09-30 Image recognition apparatus, image recognition method, and image recognition program

Publications (2)

Publication Number Publication Date
JP2015069530A JP2015069530A (en) 2015-04-13
JP6244787B2 true JP6244787B2 (en) 2017-12-13

Family

ID=52836092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013204764A Active JP6244787B2 (en) 2013-09-30 2013-09-30 Image recognition apparatus, image recognition method, and image recognition program

Country Status (1)

Country Link
JP (1) JP6244787B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111815578A (en) * 2020-06-23 2020-10-23 浙江大华技术股份有限公司 Image stripe detection method, video monitoring system and related device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11184445A (en) * 1997-12-24 1999-07-09 Hitachi Ltd Display image image picking method for display device and image displaying performance inspecting method and device therefor
JP2007315967A (en) * 2006-05-26 2007-12-06 Sharp Corp Defect detection apparatus, defect detection method, defect detection program, and computer-readable recording medium stored with the progtram

Also Published As

Publication number Publication date
JP2015069530A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
KR101538935B1 (en) Method for classifying elements of face using depth difference
JP6688277B2 (en) Program, learning processing method, learning model, data structure, learning device, and object recognition device
US10339657B2 (en) Character detection apparatus and method
JP2016134803A (en) Image processor and image processing method
JP2022092004A (en) Calculation device, processing method, program and storage medium
JP2019109624A (en) Information processing apparatus, program, and information processing method
US20150003681A1 (en) Image processing apparatus and image processing method
JP2009134587A (en) Image processing device
TWI749370B (en) Face recognition method and computer system using the same
US9979858B2 (en) Image processing apparatus, image processing method and program
WO2019159414A1 (en) Reading system, reading method, and storage medium
JP6229554B2 (en) Detection apparatus and detection method
JP2017212638A (en) Display device, control method for display device, and program
US10373329B2 (en) Information processing apparatus, information processing method and storage medium for determining an image to be subjected to a character recognition processing
JP6244787B2 (en) Image recognition apparatus, image recognition method, and image recognition program
JP2021108022A5 (en)
JP7258632B2 (en) object detector
JP6175583B1 (en) Image processing apparatus, actual dimension display method, and actual dimension display processing program
CN107515844B (en) Font setting method and device and mobile device
KR20150107581A (en) Image processing apparatus and image processing method
JP2018097707A (en) Information processor, character recognition method, computer program, and storage medium
JP2013029996A (en) Image processing device
CN107589834B (en) Terminal device operation method and device and terminal device
JP2008152611A (en) Image recognition device, electronic equipment, image recognition method, and image recognition program
JP6736916B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6244787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150