JP7405528B2 - Media discrimination device, medium discrimination system, and medium discrimination method - Google Patents
Media discrimination device, medium discrimination system, and medium discrimination method Download PDFInfo
- Publication number
- JP7405528B2 JP7405528B2 JP2019139725A JP2019139725A JP7405528B2 JP 7405528 B2 JP7405528 B2 JP 7405528B2 JP 2019139725 A JP2019139725 A JP 2019139725A JP 2019139725 A JP2019139725 A JP 2019139725A JP 7405528 B2 JP7405528 B2 JP 7405528B2
- Authority
- JP
- Japan
- Prior art keywords
- medium
- character recognition
- type
- recognition area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012850 discrimination method Methods 0.000 title claims description 9
- 238000001514 detection method Methods 0.000 claims description 46
- 238000012937 correction Methods 0.000 claims description 25
- 238000000034 method Methods 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Description
本発明は、媒体判別装置、媒体判別システム及び媒体判別方法に関する。 The present invention relates to a medium discrimination device, a medium discrimination system, and a medium discrimination method.
従来、帳票等といった文字が記入された媒体の種類を、当該媒体の画像から判別する技術が知られている。 2. Description of the Related Art Conventionally, a technique is known for determining the type of medium, such as a form, on which characters are written based on an image of the medium.
例えば、特許文献1には、帳票画像から縦罫線及び横罫線の特徴を抽出し、抽出した罫線特徴を照合して複数の有力候補帳票を選択し、選択した有力候補帳票の所定の位置の印字文字と、帳票画像上の対応する領域で認識された文字との合致度に基づいて帳票の種類判別結果を出力する手法が開示されている。また、特許文献1には、取り込んだ帳票画像の縦罫線及び横罫線をそれぞれ基準の方向と平行となるように帳票画像の傾きを補正すること(例えば、段落[0021]、[0032]参照)、有力候補帳票と帳票画像の間に位置ずれが存在する場合は、この位置ずれを考慮して有力候補帳票の印字文字が印字される領域を補正すること(例えば、段落[0030]、[0067-0070]参照)、標準ヒストグラムと比較し易くするために罫線のエッジに基づくヒストグラムを圧縮することによって正規化すること(例えば、段落[0038]、[0046]、[0066]参照)等が記載されている。 For example, in Patent Document 1, features of vertical ruled lines and horizontal ruled lines are extracted from a form image, a plurality of promising candidate forms are selected by comparing the extracted ruled line features, and printing is performed at a predetermined position of the selected promising candidate forms. A method is disclosed that outputs a form type determination result based on the degree of matching between a character and a character recognized in a corresponding area on a form image. Further, Patent Document 1 describes that the inclination of the document image is corrected so that the vertical ruled lines and horizontal ruled lines of the imported document image are parallel to the reference direction (for example, see paragraphs [0021] and [0032]). , if there is a positional shift between the likely candidate form and the form image, the area where the printed characters of the likely candidate form are printed should be corrected in consideration of this positional deviation (for example, paragraphs [0030], [0067] -0070]), normalization by compressing the histogram based on the edges of ruled lines to make it easier to compare with the standard histogram (see, for example, paragraphs [0038], [0046], and [0066]), etc. has been done.
しかしながら、特許文献1に記載の手法では、帳票画像の回転角度が大きすぎると、上述の傾き補正や位置ずれ補正を行ったとしても当該帳票の種類を精度良く判別することは困難である。また、スキャナではなくカメラで帳票画像を取り込む場合では、帳票端が画像からはみ出した場合のように帳票端が検出できないと、上述の正規化を行ったとしても、当該帳票の種類を判別できないことがある。更に、スキャナではなくカメラで帳票画像を取り込む場合は、帳票画像の大きさ(解像度)が撮影状況により一致しないことに起因して、当該帳票の種類を判別できないこともある。そもそも、特許文献1に記載の手法では、罫線がない媒体の種類を判別することはできない。 However, in the method described in Patent Document 1, if the rotation angle of the form image is too large, it is difficult to accurately determine the type of the form even if the above-described tilt correction and positional deviation correction are performed. In addition, when capturing a form image with a camera rather than a scanner, if the edge of the form cannot be detected, such as when the edge of the form protrudes from the image, it may not be possible to determine the type of the form, even if the above-mentioned normalization is performed. There is. Furthermore, when capturing a form image with a camera rather than a scanner, the type of the form may not be determined because the size (resolution) of the form image does not match depending on the shooting situation. In the first place, the method described in Patent Document 1 cannot determine the type of medium without ruled lines.
本発明は、上記現状に鑑みてなされたものであり、種々の媒体について撮像された向き及び大きさによらずそれらの種類を高精度に判別可能な媒体判別装置、媒体判別システム及び媒体判別方法を提供することを目的とするものである。 The present invention has been made in view of the above-mentioned current situation, and provides a medium discriminating device, a medium discriminating system, and a medium discriminating method that are capable of discriminating the types of various media with high precision regardless of the orientation and size in which images are taken. The purpose is to provide the following.
上述した課題を解決し、目的を達成するために、本発明は、媒体判別装置であって、媒体の画像に基づいて、前記媒体の複数の特徴部を検出する特徴検出部と、前記複数の特徴部に基づいて、前記媒体の種類を判別する種類判別部と、を備えることを特徴とする。 In order to solve the above-mentioned problems and achieve the objects, the present invention is a medium discrimination device, which includes a feature detection unit that detects a plurality of characteristic parts of the medium based on an image of the medium, and a feature detection unit that detects a plurality of characteristic parts of the medium based on an image of the medium. The present invention is characterized by comprising a type determination unit that determines the type of the medium based on the characteristic portion.
また、本発明は、上記発明において、前記媒体判別装置は、前記複数の特徴部の間の相対位置と、前記媒体の前記種類とに基づいて、文字認識の対象となる文字認識領域を特定する認識領域特定部と、前記文字認識領域内の文字を認識する文字認識部と、を更に備えることを特徴とする。 Further, in the present invention, in the above invention, the medium discrimination device specifies a character recognition area to be subjected to character recognition based on the relative positions between the plurality of characteristic parts and the type of the medium. The present invention is characterized in that it further includes a recognition area specifying section and a character recognition section that recognizes characters within the character recognition area.
また、本発明は、上記発明において、前記媒体判別装置は、前記複数の特徴部の間の前記相対位置に基づいて、前記文字認識領域の向きを補正する文字認識用向き補正部を更に備え、前記文字認識部は、向きが補正された前記文字認識領域内の文字を認識することを特徴とする。 Further, in the present invention, in the above invention, the medium discrimination device further includes a character recognition orientation correction unit that corrects the orientation of the character recognition area based on the relative position between the plurality of characteristic parts, The character recognition unit is characterized in that it recognizes characters within the character recognition area whose orientation has been corrected.
また、本発明は、上記発明において、前記媒体判別装置は、前記媒体の前記画像を表示する表示部と、前記複数の特徴部の間の相対位置に基づいて、前記表示部に表示する前記画像の向きを補正する表示用向き補正部と、を更に備えることを特徴とする。 Further, in the above invention, the present invention provides that the medium discrimination device displays the image displayed on the display unit based on the relative position between the display unit that displays the image of the medium and the plurality of characteristic parts. The display device further includes a display orientation correction unit that corrects the orientation of the display.
また、本発明は、上記発明において、前記特徴検出部は、機械学習された推論モデルを用いて、前記複数の特徴部を検出することを特徴とする。 Further, the present invention is characterized in that, in the above invention, the feature detection unit detects the plurality of feature parts using a machine-learned inference model.
また、本発明は、上記発明において、前記媒体判別装置は、前記複数の特徴部と、前記媒体の前記種類とに基づいて、前記媒体の大きさを判定するとともに、前記媒体の全体が前記画像中に撮像されているか否かを判定する判定部を更に備えることを特徴とする。 Further, in the above invention, the present invention provides that the medium determining device determines the size of the medium based on the plurality of characteristic parts and the type of the medium, and that the entire medium is in the image. The device is characterized by further comprising a determination unit that determines whether or not an image is being captured inside.
また、本発明は、媒体判別システムであって、前記媒体判別装置と、媒体の画像を撮像する撮像装置と、を備えることを特徴とする。 Further, the present invention is a medium discrimination system characterized by comprising the medium discrimination device and an imaging device that captures an image of the medium.
また、本発明は、媒体判別方法であって、媒体の画像に基づいて、前記媒体の複数の特徴部を検出する特徴検出ステップと、前記複数の特徴部に基づいて、前記媒体の種類を判別する種類判別ステップと、前記複数の特徴部の間の相対位置と、前記媒体の前記種類とに基づいて、文字認識の対象となる文字認識領域を特定する認識領域特定ステップと、前記文字認識領域内の文字を認識する文字認識ステップと、を含むことを特徴とする。 The present invention also provides a medium discrimination method, which includes a feature detection step of detecting a plurality of characteristic portions of the medium based on an image of the medium, and a step of determining the type of the medium based on the plurality of characteristic portions. a recognition area specifying step of specifying a character recognition area to be subjected to character recognition based on the relative positions between the plurality of characteristic parts and the type of the medium; A character recognition step of recognizing characters within.
本発明の媒体判別装置、媒体判別システム及び媒体判別方法によれば、種々の媒体について撮像された向き及び大きさによらずそれらの種類を高精度に判別することができる。 According to the medium discriminating device, medium discriminating system, and medium discriminating method of the present invention, the types of various media can be discriminated with high precision regardless of the orientation and size of images of the media.
以下、本発明に係る媒体判別装置、媒体判別システム及び媒体判別方法の好適な実施形態を、図面を参照しながら説明する。本発明において、媒体判別装置、媒体判別システム及び媒体判別方法が判別する媒体の具体的な種類は、特に限定されず、例えば、切符(交通機関で発行される乗車券や定期券)、レシート(流通店舗等で発行されるレシート)、処方箋、テーマパーク等の入場券、ギフト券、商品券等の紙媒体が挙げられる。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of a medium discrimination device, a medium discrimination system, and a medium discrimination method according to the present invention will be described below with reference to the drawings. In the present invention, the specific types of media that are determined by the media discriminating device, the media discriminating system, and the media discriminating method are not particularly limited. Examples include paper media such as receipts issued at distribution stores, prescriptions, admission tickets to theme parks, etc., gift certificates, and gift certificates.
<媒体の判別手法の概要>
まず、実施形態1における媒体の判別手法の概要について説明する。本実施形態では、媒体の種類の判別に必要な複数個所の特徴部を予め登録及び機械学習することによって、判別対象の媒体の映像から当該媒体の種類を判別し、更に、当該媒体に記載された読み取りたい部分を文字認識する。また、このとき、認識した複数個所の特徴部の位置関係に基づき媒体の向きを判断し、文字が読める向きに当該媒体の映像を回転して補正する。以下、図1及び2を用いて、より詳しく説明する。
<Overview of media discrimination method>
First, an overview of the medium discrimination method in the first embodiment will be explained. In this embodiment, the type of medium is determined from the image of the medium to be determined by registering and machine learning in advance multiple characteristic parts necessary for determining the type of medium, and furthermore, the type of medium is determined from the image of the medium to be determined. Recognizes characters in the part you want to read. Also, at this time, the orientation of the medium is determined based on the recognized positional relationship of the plurality of characteristic parts, and the image of the medium is rotated and corrected in an orientation in which the characters can be read. A more detailed explanation will be given below using FIGS. 1 and 2.
まず、機械学習段階では、図1に示すように、事前に各種の媒体Mを撮影し、キーワードやロゴ等の判別に用いる複数の特徴部Maに矩形のバウンディングボックスを媒体毎に設定する。この設定内容に基づき教師データを作成し、Single Shot Multibox Detector(SSD)と呼ばれる機械学習アルゴリズムにより、各特徴部Maを学習する。また、図1に示したように、媒体毎に、各特徴部Maと、文字認識の対象となる文字認識領域Mbとの間の相対的な位置関係を特定し、媒体の基準情報に登録しておく。 First, in the machine learning stage, as shown in FIG. 1, various media M are photographed in advance, and rectangular bounding boxes are set for each medium in a plurality of feature parts Ma used for determining keywords, logos, etc. Teacher data is created based on the settings, and each feature Ma is learned using a machine learning algorithm called Single Shot Multibox Detector (SSD). In addition, as shown in FIG. 1, for each medium, the relative positional relationship between each characteristic part Ma and the character recognition area Mb that is the target of character recognition is specified and registered in the standard information of the medium. I'll keep it.
続いて、媒体の判別段階では、図2に示すように、まず、上記教師データを学習した推論プログラム(学習済みモデル)により、撮影した媒体Mの映像から複数の特徴部Maを検出し、検出した複数の特徴部Maの組み合わせに基づき当該媒体Mを判別する。次に、検出した複数の特徴部Maの間の相対的な位置関係と、基準情報とに基づき文字認識領域Mbを特定する。最後に、特定した文字認識領域Mb内の文字を認識する。なお、特定及び認識する文字認識領域Mbの数は、一つでも複数でもよい。 Next, in the medium discrimination stage, as shown in FIG. The medium M is determined based on the combination of the plurality of characteristic parts Ma. Next, a character recognition area Mb is specified based on the relative positional relationship between the plurality of detected feature parts Ma and the reference information. Finally, the characters within the specified character recognition area Mb are recognized. Note that the number of character recognition areas Mb to be specified and recognized may be one or more.
本実施形態によれば、推論プログラム(学習済みモデル)を用いて特徴部を検出するため、媒体の向き、大きさ(画像サイズ)といった条件に関係なく、特徴部を検出することができる。また、特徴部のみから媒体の判別を行うため、特徴部以外の手書き部分やスタンプ部分といった媒体によって変動する箇所の影響を受けにくい。 According to the present embodiment, since the characteristic portion is detected using the inference program (trained model), the characteristic portion can be detected regardless of conditions such as the orientation and size (image size) of the medium. Furthermore, since the medium is discriminated only from the characteristic parts, it is less susceptible to the influence of parts other than the characteristic parts, such as handwritten parts and stamp parts, which vary depending on the medium.
<媒体判別システムの全体構成>
次に、図3を用いて、本実施形態の媒体判別システムの全体構成について説明する。図3に示すように、本実施形態の媒体判別システム1は、媒体Mを撮像する撮像装置としてのカメラ2と、媒体判別装置3と、を備えている。カメラ2は、媒体判別装置3と通信可能に接続されている。本実施形態では、図3に示すように、上面が平らな読取台6の上面に載置された媒体Mをカメラ1によって撮像する。
<Overall configuration of media discrimination system>
Next, the overall configuration of the medium discrimination system of this embodiment will be described using FIG. 3. As shown in FIG. 3, the medium discrimination system 1 of this embodiment includes a
カメラ2は、読取台6の上方に固定されており、読取台6の上面を含む所定エリアの画像、ここでは動画像(映像)を取得する。撮影された映像(動画像)は、媒体判別装置3に出力される。カメラ2は、RGBのカラー映像を取得してもよいし、モノクロ映像を取得してもよい。
The
媒体判別装置3には、撮影した映像等を表示する表示部としてのモニタ(表示装置)4と、操作者が種々の入力操作を行う入力デバイス(例えばキーボードやマウス等)5とが通信可能に接続されている。なお、モニタ4及び入力デバイス5は、タッチパネルディスプレイ等の入力機能付きの表示装置から構成されてもよい。
The
媒体判別装置3は、操作者が、モニタ4によって、カメラ2で撮像された映像をリアルタイムで閲覧できるように構成されている。
The
<媒体判別装置の構成>
次に、図4を用いて、媒体判別装置3の構成について更に説明する。媒体判別装置3は、一般的なパーソナルコンピューター相当の機能を有する情報処理装置から構成され、図4に示すように、制御部10及び記憶部20を備えている。
<Configuration of medium discrimination device>
Next, the configuration of the
制御部10は、映像入力部11と、特徴検出部12と、種類判定部13と、認識領域特定部14と、文字認識用向き補正部15と、文字認識部16と、表示用向き補正部17と、判定部18との機能を備えている。制御部10は、例えば、各種の処理を実現するためのソフトウェアプログラムと、該ソフトウェアプログラムを実行するCPU(Central Processing Unit)と、該CPUによって制御される各種ハードウェア等によって構成されている。機械学習時及び学習済みモデルの実行時における処理の高速化のために、制御部10は、CPUに加えて、GPU(Graphics Processing Unit)等のハードウェアを含む構成であってもよい。制御部10の動作に必要なソフトウェアプログラムやデータは記憶部20に記憶される。
The
記憶部20は、ハードディスク装置や不揮発性メモリ等の記憶装置から構成され、推論モデル21及び基準情報22を記憶している。
The
映像入力部11は、カメラ2から映像を取得する処理を行い、映像を特徴検出部12に出力する。
The
特徴検出部12は、映像入力部11から出力された媒体の映像(画像)に基づいて、媒体の複数の特徴部を検出する。すなわち、媒体を撮影した映像において、当該媒体を特徴付ける部分、例えば特定の文字列等を少なくとも二つ検出する。特徴検出部12は、画像の中から特定の物体の位置及びカテゴリー(クラス)を検出する物体検出の手法を用いて実現されるものである。すなわち、特徴検出部12は、媒体上の所定の位置に特徴部が存在するか否かを判定するものではなく、媒体上をくまなく検索し、事前に登録された特徴部を媒体上の任意の場所で見つけ出し、かつその種類を認識するものである。また、特徴検出部12は、事前に登録された特徴部をその回転角度及び大きさ(解像度)によらず、すなわち媒体の回転角度及び大きさ(解像度)によらず、媒体上で見つけ出し、かつその種類を認識する。
The
本実施形態では、特徴検出部12は、記憶部20に記憶された推論モデル21を用いて、複数の特徴部を検出(推定)する。
In this embodiment, the
ここで、推論モデル21について説明する。推論モデル21は、ラベル情報(正解データ)が付されたデータセット(教師データ)の教師あり機械学習により作成される。より具体的には、推論モデル21は、媒体の画像(二次元の静止画像)を入力データとし、その媒体の各特徴部に付与された位置やクラス(種類)等の情報をラベルとして、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を利用した学習用プログラムにより深層学習(ディープラーニング)を行うことによって作成される。本実施形態では、畳み込みニューラルネットワークとして、SSDを利用する。
Here, the
教師あり機械学習により作成された推論モデル21は、学習済みパラメータが組み込まれた推論プログラム(学習済みモデル)として機能する。なお、学習済みパラメータは、データセットを用いた学習の結果、得られたパラメータ(係数)である。また。推論プログラムは、入力として与えられた媒体の映像(映像を構成する各静止画像)に対して、学習の結果として取得された学習済みパラメータを適用し、当該映像に対する結果(具体的には、上述したような各特徴部の位置やクラス等)を出力するための一連の演算手順を規定したプログラムである。
The
機械学習に用いるデータセットは、例えば、以下のようにして生成することができる。まず、各種の媒体の画像(二次元の静止画像)を取得する。このとき、回転角度や形状(皺や折り目)、手書きやスタンプの有無等を適宜変更して様々な状態の媒体の画像を取得する。そして、取得した各画像において、各媒体の各特徴部に、矩形のバウンディングボックスを設定することによって、バウンディングボックスの左上及び右下の座標を各特徴部の位置に指定する。また、各特徴部について、クラス(種類)を設定する。このとき、一つの媒体に対して少なくとも二つの特徴部の位置及びクラスを登録する。また、このとき、取得した各画像において、機械学習に用いられない領域として無効領域を指定してもよい。これにより、手書き部分やスタンプ部分等、同一の種類であっても媒体によって変動する箇所が存在する場合に、そのような箇所を無効領域に指定することができるため、より効果的に特徴部を学習することができる。以上の結果、各画像に対して、各特徴部の位置及びクラスがラベル情報として付されたデータセットが生成される。これにより、各種の媒体における各特徴部の画像と、その特徴部の位置及びクラスとが対応付けられることとなる。 A dataset used for machine learning can be generated, for example, as follows. First, images (two-dimensional still images) of various media are acquired. At this time, images of the medium in various states are obtained by appropriately changing the rotation angle, shape (wrinkles or creases), presence or absence of handwriting or stamps, etc. Then, in each acquired image, by setting a rectangular bounding box for each characteristic part of each medium, the coordinates of the upper left and lower right of the bounding box are designated as the position of each characteristic part. Furthermore, a class (type) is set for each characteristic part. At this time, the positions and classes of at least two characteristic parts are registered for one medium. Further, at this time, an invalid area may be designated as an area that is not used for machine learning in each acquired image. As a result, if there are parts of the same type that vary depending on the medium, such as handwritten parts or stamp parts, such parts can be designated as invalid areas, making it possible to more effectively identify characteristic parts. can be learned. As a result of the above, a data set is generated for each image, in which the position and class of each feature are attached as label information. As a result, images of each characteristic part in various media are associated with the position and class of the characteristic part.
なお、作成された推論モデル21は、その後、追加学習されてもよい。すなわち、推論モデル21に異なるデータセットを適用し、更なる学習を行うことによって、新たに学習済みパラメータを生成し、この新たな学習済みパラメータが組み込まれた推論プログラムを推論モデル21として利用してもよい。
Note that the created
また、機械学習は、媒体判別装置3が備えるプロセッサにより実行してもよいが、専用のサーバやクラウド上のサーバといった演算処理能力に優れたコンピュータにより実行することが好ましい。
Furthermore, although machine learning may be executed by a processor included in the
種類判別部13は、特徴検出部12によって検出された複数の特徴部に基づいて、媒体の種類を判別する。
The
より詳細には、基準情報22は、媒体の種類毎に、当該媒体がもつ複数の特徴部の組み合わせを示す組合せ情報を含んでおり、種類判別部13は、特徴検出部12によって検出された複数の特徴部の組み合わせを組合せ情報と比較して、媒体の種類を判別する。
More specifically, the
なお、複数の特徴部のクラスの組み合わせは、異なる種類の媒体間で一致しないように設定されているが、異なる種類の媒体間で一部の特徴部のクラスは重複していてもよい。具体的には、例えば、特徴部のクラスとして、a~dの4つがあり、媒体Aの特徴部の組み合わせが(a,b)であり、媒体Bの特徴部の組み合わせが(c,d)であり、媒体Cの特徴部の組み合わせが(a,c)であってもよい。もちろん、異なる種類の媒体間で、特徴部のクラスが全く重複していなくてもよい。すなわち、例えば、特徴部のクラスとして、a~fの6つがあり、媒体Aの特徴部の組み合わせが(a,b)であり、媒体Bの特徴部の組み合わせが(c,d)であり、媒体Cの特徴部の組み合わせが(e,f)であってもよい。 Note that although the combination of classes of a plurality of feature parts is set so as not to match between different types of media, some classes of feature parts may overlap between different types of media. Specifically, for example, there are four classes of feature parts, a to d, and the combination of feature parts of medium A is (a, b), and the combination of feature parts of medium B is (c, d). , and the combination of the characteristic parts of medium C may be (a, c). Of course, the classes of feature parts do not need to overlap at all between different types of media. That is, for example, there are six classes of feature parts a to f, the combination of feature parts of medium A is (a, b), the combination of feature parts of medium B is (c, d), The combination of features of medium C may be (e, f).
また、異なる種類の媒体間で、複数の特徴部の組み合わせの数は異なっていてもよい。例えば、ある媒体では、二つの特徴部のクラスの組み合わせに基づいて、その媒体の種類を判別し、他の媒体では、三つ以上の特徴部のクラスの組み合わせに基づいて、その媒体の種類を判別してもよい。 Additionally, the number of combinations of features may vary between different types of media. For example, for some media, the type of the medium is determined based on a combination of two feature classes; for other media, the type of the media is determined based on a combination of three or more feature classes. May be determined.
このように、媒体の特徴部とは、複数の特徴部の組み合わせによって当該媒体の種類を特定し得る特徴であればよく、例えば、キーワードやタイトル等の特定の文字 列、意匠、ロゴ等が挙げられる。各特徴部は、予め人為的に決定されたものであってもよいし、予め機械的に決定されたものであってもよい。後者の場合は、例えば、同一の種類の複数の媒体の画像から変動が小さい部分を抽出する画像処理を行い、その部分を特徴部に決定してもよい。これにより、手書き部分やスタンプ部分等、同一の種類であっても媒体によって変動する箇所が存在する場合に、検出するのにより効果的な特徴部を容易に決定することができる。 In this way, a feature of a medium may be any feature that can identify the type of medium by a combination of multiple features, such as a specific character string such as a keyword or title, a design, a logo, etc. It will be done. Each characteristic portion may be determined artificially in advance, or may be determined mechanically in advance. In the latter case, for example, image processing may be performed to extract a portion with small variations from images of multiple media of the same type, and that portion may be determined as the characteristic portion. As a result, when there are portions of the same type that vary depending on the medium, such as a handwritten portion or a stamp portion, it is possible to easily determine a characteristic portion that is more effective for detection.
認識領域特定部14は、特徴検出部12によって検出された複数の特徴部の間の相対位置と、種類判別部13によって判別された媒体の種類とに基づいて、文字認識の対象となる文字認識領域を特定する。
The recognition
より詳細には、基準情報22は、媒体の種類毎に、基準となる各特徴部及び文字認識領域のそれぞれの位置を示す位置情報を含んでおり、認識領域特定部14は、複数の特徴部間の相対的な位置関係と、当該媒体の種類に対応する位置情報とに基づいて、文字認識領域の位置を算出する。
More specifically, the
図5を用いて更に具体的に説明すると、例えば、基準情報22の位置情報は、図5(a)に示すように、二つの特徴部A及びBのそれぞれの基準の位置(座標)と、文字認識領域Cの基準の位置(座標)とを含んでおり、認識領域特定部14は、特徴検出部12によって検出された特徴部A’及びB’の座標を(図5(b)参照)、一方の特徴部A’の位置が対応する特徴部Aの基準の位置に一致するように、特徴部A’及びB’の相対的な位置関係を維持しつつ平行移動させる(図5(a)参照)。そして、図5(a)に示すように、一致させた特徴部A’(A)から特徴部Bへ向かう方向に対する特徴部A’(A)から特徴部B’へ向かう方向の回転角θを算出する。この回転角θは、撮像された媒体の基準の方向に対する回転角度に相当する。また、特徴部Aから特徴部Bまでの長さLと、特徴部A’から特徴部B’までの長さL’の比Rを算出する(L’=R×L)。この長さの比Rは、撮像された媒体の基準の画像に対する拡大率に相当する。その後、図5(b)に示すように、認識領域特定部14は、基準情報22の位置情報から特徴部Aに対する文字認識領域Cの相対的な位置(特徴部Aから文字認識領域Cへ向かう方向と長さの比R)から特徴検出部12によって検出された特徴部A’に対する仮の文字認識領域C’’の位置を算出し、特徴部A’を中心にして文字認識領域C’’の位置を回転角θだけ回転し、目的の文字認識領域C’の位置を算出する。
To explain more specifically using FIG. 5, for example, the position information of the
なお、媒体判別装置3は、特徴検出部12及び認識領域特定部14による出力結果をモニタ4に表示可能なように構成されていてもよい。例えば、図2に示したように、モニタにおいて、媒体Mの映像上に、各特徴部Ma及び各文字認識領域Mbを囲むバウンディングボックスがオーバーレイ表示されてもよい。
Note that the
文字認識用向き補正部15は、特徴検出部12によって検出された複数の特徴部の間の相対位置に基づいて、認識領域特定部14によって特定された文字認識領域の向きを補正する。これにより、文字認識部16が文字認識領域内の文字を誤認識する割合を低減することが可能である。例えば、認識すべき文字列が「069」であった場合、当該媒体が反対向きに配置されてしまうと、その文字列を「690」と誤って認識してしまうが、上述のように、文字認識用向き補正部15によって文字認識領域の向きを補正することによって、このような誤認識を防止することが可能である。
The character recognition
より詳細には、文字認識用向き補正部15は、上述のように認識領域特定部14によって複数の特徴部の間の相対位置に基づいて算出された回転角θに対して反対方向の回転角(-θ)だけ回転するように、文字認識領域をアフィン変換する。
More specifically, the character recognition
文字認識部16は、文字認識用向き補正部15によって向きが補正された文字認識領域内の文字を認識(光学文字認識:OCR)する。
The
より詳細には、記憶部20には、判別対象の媒体の文字認識領域に使用され得る全種類の文字が文字画像として記憶されており、文字認識部16は、向きが補正された文字認識領域内の文字列の各構成文字を文字画像と比較して各構成文字を特定し、最終的に、それらの特定した文字を結合することにより文字認識領域内の文字列を認識する。
More specifically, the
表示用向き補正部17は、特徴検出部12によって検出された複数の特徴部の間の相対位置に基づいて、モニタ4に表示する媒体の映像の向きを補正する。これにより、操作者が文字認識領域内の文字を視認し易い向きで媒体の映像をモニタ4に表示することが可能である。
The display
より詳細には、表示用向き補正部17は、上述のように認識領域特定部14によって複数の特徴部の間の相対位置に基づいて算出された回転角θに対して反対方向の回転角(-θ)だけ回転するように、媒体の映像全体をアフィン変換する。
More specifically, the display
判定部18は、特徴検出部12によって検出された複数の特徴部と、種類判別部13によって判別された媒体の種類とに基づいて、当該媒体の大きさを判定するとともに、当該媒体の全体が映像中に撮像されているか否かを判定する。これにより、媒体の一部、例えば文字認識領域が撮像されていない場合に、そのことを知らせるエラーメッセージを操作者に報知することが可能である。
The determining
より詳細には、基準情報22は、媒体の種類毎に、当該媒体の外形を規定する媒体領域を示す第一の媒体領域情報と、媒体領域に対応する各特徴部に対する当該媒体領域の相対的な位置関係を示す第二の媒体領域情報とを含んでおり、判定部18は、種類判別部13によって判別された媒体の種類に対応する第一の媒体領域情報に基づいて、当該媒体の媒体領域を特定することによって当該媒体の大きさを判定する。また、判定部18は、特徴検出部12によって検出された各特徴部の位置と、種類判別部13によって判別された媒体の種類に対応する第二の媒体領域情報とに基づいて、当該媒体の媒体領域の映像内における位置を特定し、そして、当該媒体の全体が映像中に撮像されているか否かを判定する。
More specifically, the
判定部18は、特徴検出部12によって検出された複数の特徴部と、種類判別部13によって判別された媒体の種類と、認識領域特定部14によって特定された文字認識領域とに基づいて、当該文字認識領域の全体が映像中に撮像されているか否かを判定してもよい。これにより、文字認識領域の少なくとも一部が撮像されていない場合に、そのことを知らせるエラーメッセージを操作者に報知することが可能である。
The determining
この場合、判定部18は、認識領域特定部14によって特定された文字認識領域の位置に基づいて、当該文字認識領域の全体が映像中に撮像されているか否かを判定する。
In this case, the determining
<媒体判別処理の手順>
次に、図6を用いて、媒体判別システム1で行われる媒体判別処理の手順について説明する。
<Procedure for media discrimination processing>
Next, the procedure of the medium discrimination process performed by the medium discrimination system 1 will be explained using FIG.
図6に示すように、まず、映像入力部11に、カメラ2から媒体の映像が入力される(映像入力ステップS11)。
As shown in FIG. 6, first, a video of a medium is input from the
次に、特徴検出部12が、推論モデル21を用いて、映像入力ステップS11で入力された媒体の映像から、媒体の複数の特徴部を検出する(特徴検出ステップS12)。このとき、特徴部が一つしか検出されないか、又は全く検出されなかった場合は、当該媒体を判別不能な媒体として処理する。例えば、判別不能な媒体である旨を操作者に報知する処理を行う。
Next, the
次に、種類判別部13が、特徴検出ステップS12で検出された複数の特徴部に基づいて、媒体の種類を判別する(種類判別ステップS13)。このとき、検出された全ての特徴部の組み合わせが、登録されたいずれかの媒体種の組合せ情報に一致する場合は、当該媒体をその種類に判別する。他方、検出された全ての特徴部の組み合わせが登録されたいずれの媒体種の組合せ情報にも一致しない場合は、当該媒体を判別不能な媒体として処理する。例えば、判別不能な媒体である旨を操作者に報知する処理を行う。
Next, the
次に、認識領域特定部14が、特徴検出ステップS12で検出された複数の特徴部の間の相対位置と、種類判別ステップS13で判別された媒体の種類とに基づいて、文字認識の対象となる文字認識領域を特定する(認識領域特定ステップS14)。
Next, the recognition
次に、判定部18が、特徴検出ステップS12で検出された複数の特徴部と、種類判別ステップS13で判別された媒体の種類とに基づいて、当該媒体の大きさを判定するとともに、当該媒体の全体が映像中に撮像されているか否かを判定する(判定ステップS15)。
Next, the
判定部18は、判定ステップS15において、特徴検出ステップS12で検出された複数の特徴部と、種類判別ステップS13で判別された媒体の種類と、認識領域特定ステップS14で特定された文字認識領域とに基づいて、当該文字認識領域の全体が映像中に撮像されているか否かを判定してもよい。
In the determination step S15, the
次に、文字認識用向き補正部15が、特徴検出ステップS12で検出された複数の特徴部の間の相対位置に基づいて、認識領域特定ステップS14で特定された文字認識領域の向きを補正する(文字認識用向き補正ステップS16)。
Next, the character recognition
次に、文字認識部16が、認識領域補正ステップS16で向きが補正された文字認識領域内の文字を認識する(文字認識ステップS17)。
Next, the
次に、表示用向き補正部17が、特徴検出ステップS12で検出された複数の特徴部の間の相対位置に基づいて、モニタ4に表示する媒体の映像の向きを補正する(表示用向き補正ステップS18)。
Next, the display
そして、モニタ4が、表示用向き補正ステップS18で向きが補正された媒体の映像を表示し(表示ステップS19)、媒体判別処理を終了する。
Then, the
なお、表示用向き補正ステップS18及び表示ステップS19の処理実行タイミングは、特徴検出ステップS12以降であれば特に限定されず、適宜、変更可能である。 Note that the processing execution timing of the display orientation correction step S18 and the display step S19 is not particularly limited as long as it is after the feature detection step S12, and can be changed as appropriate.
以上説明したように、本実施形態では、特徴検出部12が、媒体の映像(画像)に基づいて、媒体の複数の特徴部を検出し、種類判別部13が、特徴検出部12によって検出された複数の特徴部に基づいて、媒体の種類を判別することから、特徴検出部12によって、事前に登録された複数の特徴部をそれらの回転角度によらず媒体上の任意の場所で見つけ出し、かつそれらの種類を認識することができ、種類判別部13によって、検出された複数の特徴部の組み合わせから当該媒体の種類を判別することができる。したがって、種々の媒体について撮像された向きによらずそれらの種類を判別することができる。また、複数の特徴部に基づいて媒体の種類を判別することから、一つの特徴部に基づいて媒体の種類を判別する場合に比べて、より高精度に当該媒体の種類を判別することができる。
As described above, in the present embodiment, the
また、本実施形態では、認識領域特定部14が、特徴検出部12によって検出された複数の特徴部の間の相対位置と、種類判別部13によって判別された媒体の種類とに基づいて、文字認識の対象となる文字認識領域を特定し、文字認識部16が、認識領域特定部14によって特定された文字認識領域内の文字を認識することから、文字認識すべき領域を正確に特定でき、かつ当該領域内で文字認識を行うことができる。したがって、媒体の向き、画像サイズといった状態によらず、目的の領域の文字を正確に認識することができる。
Further, in the present embodiment, the recognition
なお、上記実施形態では、媒体の動画像(映像)において当該媒体の種類を判別する場合について説明したが、使用する画像は、静止画であってもよい。 Note that in the above embodiment, a case has been described in which the type of medium is determined based on a moving image (video) of the medium, but the image used may be a still image.
また、上記実施形態では、推論モデル21が畳み込みニューラルネットワークを利用した深層学習により構築された場合について説明したが、推論モデル21は、機械学習により作成されたものであれば特に限定されず、推論モデル21は、深層学習以外の機械学習により作成されたものであってもよい。ただし、媒体の特徴部の検出処理を様々な対象へ適用できることから、上述のSSDや、You Only Look Once(YOLO)、Regions with Convolutional Neural Networks(R-CNN)といった、畳み込みニューラルネットワークを利用した深層学習により構築されることが好ましい。特に、SSDが好ましい。
Further, in the above embodiment, a case has been described in which the
また、上記実施形態では、特徴検出部12が機械学習により作成された推論モデル21を用いて複数の特徴部を検出する場合について説明したが、特徴検出部12による特徴部の検出手法は、画像の回転角度及び大きさ(解像度)によらず物体を検出可能な物体検出の手法であればよく、機械学習を利用した検出手法に特に限定されない。例えば、Scale-Invariant Feature Transform(SIFT)やSpeeded-Up Robust Features(SURF)等の局所特徴量を用いた物体検出の手法を用いてもよい。
Furthermore, in the above embodiment, a case has been described in which the
また、上記実施形態では、媒体判別装置3を一つの装置として構成する場合について説明したが、媒体判別装置3の各機能を適宜複数の装置に分散した分散処理システムにより実現してもよい。
Further, in the above embodiment, a case has been described in which the
具体的には、例えば、図7に示すように、カメラ102と、カメラ102と通信可能に接続されたクラウドサーバ103と、クラウドサーバ103と通信可能に接続されたモニタを備えるパーソナルコンピューター104とから媒体判別システムを構成してもよい。そして、カメラ102に上述の特徴検出部12の機能を持たせ、クラウドサーバ103に上述の種類判定部13、認識領域特定部14、文字認識用向き補正部15、文字認識部16、表示用向き補正部17及び判定部18の機能を持たせ、パーソナルコンピューター104のモニタを表示部として利用し、当該モニタに媒体の映像や、特徴検出部12及び認識領域特定部14による出力結果を表示してもよい。
Specifically, as shown in FIG. 7, for example, a
以上、図面を参照しながら本発明の実施形態を説明したが、本発明は、上記実施形態に限定されるものではない。また、各実施形態の構成は、本発明の要旨を逸脱しない範囲において適宜組み合わされてもよいし、変更されてもよい。 Although the embodiments of the present invention have been described above with reference to the drawings, the present invention is not limited to the above embodiments. Furthermore, the configurations of each embodiment may be combined or modified as appropriate without departing from the gist of the present invention.
以上のように、本発明は、種々の媒体の種類を判別するのに有用な技術である。 As described above, the present invention is a technique useful for determining the types of various media.
1:媒体判別システム
2、102:カメラ
3:媒体判別装置
4:モニタ
5:入力デバイス
6:読取台
10:制御部
11:映像入力部
12:特徴検出部
13:種類判定部
14:認識領域特定部
15:文字認識用向き補正部
16:文字認識部
17:表示用向き補正部
18:判定部
20:記憶部
21:推論モデル
22:基準情報
103:クラウドサーバ
104:パーソナルコンピューター
M:媒体
Ma:特徴部
Mb:文字認識領域
1:
Claims (8)
前記複数の特徴部に基づいて、前記媒体の種類を判別する種類判別部と、
前記複数の特徴部の間の相対位置と、前記媒体の前記種類とに基づいて、文字認識の対象となる文字認識領域を特定する認識領域特定部と、
前記文字認識領域内の文字を認識する文字認識部と、
を備え、
前記複数の特徴部は、各々、特定の文字列及びロゴの少なくとも一方を含み、
前記認識領域特定部は、媒体の種類毎に設定された位置情報であって、各特徴部及び文字認識領域のそれぞれの位置を示す位置情報のうち、前記種類判別部によって判別された前記媒体の前記種類に対応する位置情報と、前記特徴検出部によって検出された前記複数の特徴部間の相対的な位置関係とに基づいて、前記文字認識領域の位置を算出する
ことを特徴とする媒体判別装置。 a feature detection unit that detects a plurality of characteristic parts of the medium based on an image of the medium;
a type determination unit that determines the type of the medium based on the plurality of characteristic parts;
a recognition area specifying unit that specifies a character recognition area that is a target of character recognition based on the relative positions between the plurality of characteristic parts and the type of the medium;
a character recognition unit that recognizes characters within the character recognition area;
Equipped with
Each of the plurality of feature parts includes at least one of a specific character string and a logo,
The recognition area specifying unit selects the position information of the medium determined by the type determining unit from among the position information set for each type of medium and indicating the respective positions of each characteristic part and character recognition area. The position of the character recognition area is calculated based on the position information corresponding to the type and the relative positional relationship between the plurality of feature parts detected by the feature detection unit.
A medium discrimination device characterized by:
前記文字認識部は、向きが補正された前記文字認識領域内の文字を認識する
ことを特徴とする請求項1記載の媒体判別装置。 Further comprising a character recognition orientation correction unit that corrects the orientation of the character recognition area based on the relative position between the plurality of feature parts,
2. The medium discrimination device according to claim 1 , wherein the character recognition unit recognizes characters within the character recognition area whose orientation has been corrected.
前記複数の特徴部の間の相対位置に基づいて、前記表示部に表示する前記画像の向きを補正する表示用向き補正部と、を更に備える
ことを特徴とする請求項1又は2記載の媒体判別装置。 a display unit that displays the image of the medium;
The medium according to claim 1 or 2, further comprising a display orientation correction unit that corrects the orientation of the image displayed on the display unit based on relative positions between the plurality of characteristic parts. Discrimination device.
ことを特徴とする請求項1~3のいずれかに記載の媒体判別装置。 4. The medium discrimination device according to claim 1, wherein the feature detection unit detects the plurality of feature parts using a machine-learned inference model.
ことを特徴とする請求項1~4のいずれかに記載の媒体判別装置。 The feature detection unit detects the plurality of feature parts using an inference model machine-learned using a data set in which positions and classes of at least two feature parts are attached as label information for the medium. The medium discrimination device according to any one of claims 1 to 4 .
ことを特徴とする請求項1~5のいずれかに記載の媒体判別装置。 The method further includes a determining unit that determines the size of the medium based on the plurality of characteristic parts and the type of the medium, and determines whether the entire medium is captured in the image. The medium discrimination device according to any one of claims 1 to 5 .
媒体の画像を撮像する撮像装置と、
を備えることを特徴とする媒体判別システム。 A medium discrimination device according to any one of claims 1 to 6 ,
an imaging device that captures an image of a medium;
A medium discrimination system comprising:
前記複数の特徴部に基づいて、前記媒体の種類を判別する種類判別ステップと、
前記複数の特徴部の間の相対位置と、前記媒体の前記種類とに基づいて、文字認識の対象となる文字認識領域を特定する認識領域特定ステップと、
前記文字認識領域内の文字を認識する文字認識ステップと、
を含み、
前記複数の特徴部は、各々、特定の文字列及びロゴの少なくとも一方を含み、
前記認識領域特定ステップは、媒体の種類毎に設定された位置情報であって、各特徴部及び文字認識領域のそれぞれの位置を示す位置情報のうち、前記種類判別ステップによって判別された前記媒体の前記種類に対応する位置情報と、前記特徴検出ステップによって検出された前記複数の特徴部間の相対的な位置関係とに基づいて、前記文字認識領域の位置を算出する
ことを特徴とする媒体判別方法。 a feature detection step of detecting a plurality of features of the medium based on an image of the medium;
a type determination step of determining the type of the medium based on the plurality of characteristic parts;
a recognition area specifying step of specifying a character recognition area to be subjected to character recognition based on the relative positions between the plurality of feature parts and the type of the medium;
a character recognition step of recognizing characters within the character recognition area;
including;
Each of the plurality of feature parts includes at least one of a specific character string and a logo,
The recognition area specifying step includes position information set for each type of medium, which indicates the respective positions of each characteristic part and character recognition area, of the medium determined in the type determination step. The position of the character recognition area is calculated based on the position information corresponding to the type and the relative positional relationship between the plurality of features detected by the feature detection step.
A medium discrimination method characterized by the following.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019139725A JP7405528B2 (en) | 2019-07-30 | 2019-07-30 | Media discrimination device, medium discrimination system, and medium discrimination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019139725A JP7405528B2 (en) | 2019-07-30 | 2019-07-30 | Media discrimination device, medium discrimination system, and medium discrimination method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021022285A JP2021022285A (en) | 2021-02-18 |
JP7405528B2 true JP7405528B2 (en) | 2023-12-26 |
Family
ID=74573299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019139725A Active JP7405528B2 (en) | 2019-07-30 | 2019-07-30 | Media discrimination device, medium discrimination system, and medium discrimination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7405528B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015002906A1 (en) | 2013-06-30 | 2015-01-08 | Google Inc. | Payment card ocr with relaxed alignment |
JP6430672B1 (en) | 2018-03-16 | 2018-11-28 | 株式会社三井E&Sマシナリー | Reading system and reading method |
JP6490860B1 (en) | 2018-07-31 | 2019-03-27 | 株式会社メルカリ | Program, information processing method, information processing apparatus |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3673616B2 (en) * | 1997-06-24 | 2005-07-20 | グローリー工業株式会社 | Gift certificate identification method and apparatus |
JPH11224307A (en) * | 1998-02-05 | 1999-08-17 | Canon Inc | Device and method for recognizing document |
-
2019
- 2019-07-30 JP JP2019139725A patent/JP7405528B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015002906A1 (en) | 2013-06-30 | 2015-01-08 | Google Inc. | Payment card ocr with relaxed alignment |
JP6430672B1 (en) | 2018-03-16 | 2018-11-28 | 株式会社三井E&Sマシナリー | Reading system and reading method |
JP6490860B1 (en) | 2018-07-31 | 2019-03-27 | 株式会社メルカリ | Program, information processing method, information processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2021022285A (en) | 2021-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9665790B2 (en) | Robust and efficient image identification | |
JP7113657B2 (en) | Information processing device, information processing method, and program | |
JP4928310B2 (en) | License plate recognition device, control method thereof, computer program | |
Amerini et al. | Geometric tampering estimation by means of a SIFT-based forensic analysis | |
Gebhardt et al. | Document authentication using printing technique features and unsupervised anomaly detection | |
US11030436B2 (en) | Object recognition | |
CN108596867A (en) | A kind of picture bearing calibration and system based on ORB algorithms | |
Bak et al. | Improving person re-identification by viewpoint cues | |
JP4694613B2 (en) | Document orientation determination apparatus, document orientation determination method, program, and recording medium therefor | |
US10204284B2 (en) | Object recognition utilizing feature alignment | |
Biadgie et al. | Feature detector using adaptive accelerated segment test | |
CN110717492B (en) | Method for correcting direction of character string in drawing based on joint features | |
CN102737240B (en) | Method of analyzing digital document images | |
WO2023024766A1 (en) | Object size identification method, readable storage medium and object size identification system | |
CN110288040B (en) | Image similarity judging method and device based on topology verification | |
US20130050765A1 (en) | Method and apparatus for document authentication using image comparison on a block-by-block basis | |
CN111881938B (en) | Image authenticity identification method based on blind forensics technology | |
KR102223754B1 (en) | Method and Apparatus for Enhancing Face Image | |
JP7405528B2 (en) | Media discrimination device, medium discrimination system, and medium discrimination method | |
JP2011107878A (en) | Position detection apparatus and position detection method | |
JP2007140729A (en) | Method and device detecting position and attitude of article | |
JP2009223612A (en) | Image recognition device and program | |
Konishi et al. | Fast and precise template matching based on oriented gradients | |
JP2017138743A (en) | Image processing apparatus, image processing method, and program | |
Alnagdawi et al. | ORB-PC feature-based image registration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230720 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231115 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7405528 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |