JP6430914B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6430914B2
JP6430914B2 JP2015193735A JP2015193735A JP6430914B2 JP 6430914 B2 JP6430914 B2 JP 6430914B2 JP 2015193735 A JP2015193735 A JP 2015193735A JP 2015193735 A JP2015193735 A JP 2015193735A JP 6430914 B2 JP6430914 B2 JP 6430914B2
Authority
JP
Japan
Prior art keywords
region
image processing
image
area
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015193735A
Other languages
English (en)
Other versions
JP2016119059A5 (ja
JP2016119059A (ja
Inventor
泰 稲葉
泰 稲葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Imaging Systems Inc
Original Assignee
Canon Imaging Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Imaging Systems Inc filed Critical Canon Imaging Systems Inc
Priority to PCT/JP2015/084585 priority Critical patent/WO2016104156A1/ja
Publication of JP2016119059A publication Critical patent/JP2016119059A/ja
Priority to US15/287,066 priority patent/US10007846B2/en
Publication of JP2016119059A5 publication Critical patent/JP2016119059A5/ja
Application granted granted Critical
Publication of JP6430914B2 publication Critical patent/JP6430914B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/1475Inclination or skew detection or correction of characters or of image to be recognised
    • G06V30/1478Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)
  • Geometry (AREA)

Description

本発明は、マラソン大会などのイベントで撮影された写真の画像処理システムに関するものである。
検出したランナーの顔位置に基づき、ゼッケンの位置を推定し、ゼッケン番号をOCR(Optical Character Reader)によって読み取る技術が従来技術として知られている(非特許文献1参照)。
Idan Ben-Ami、Tali Basha、Shai Avidan著、「Racing Bib Number Recognition」、http://www.eng.tau.ac.il/~avidan/papers/RBNR.pdf
しかしながら、非特許文献1は撮影した画像内から人物のゼッケン番号を読み込む際に、画像内の背景にある看板や道路標識等の文字をゼッケン番号として誤検出してしまうという課題がある。また、画像内から人物の顔を検出できない場合や、ゼッケンが大きく変形し形状が歪んでいる場合に正しくOCRによる文字認識でゼッケン番号を読み取ることができない。そして、ランナーの体に張り付けたゼッケンは、横方向から撮影された場合に奥行きに対して端になるほど変形しており、文字間隔が変化しているという特徴がある。非特許文献1はランナーを正面から撮影した場合を想定しているため、正しくOCRによってゼッケン番号を読み取ることができない。
また、他人との重なりや本人の手などがゼッケンの前に配置されることによって、ゼッケンの一部が隠れてしまい、正しくゼッケン番号を認識できないという課題がある。このようにゼッケン番号の一部のみを検出した場合、正しくゼッケン番号が検出できたかの判断も困難である。
本発明は、上記課題に鑑みてなされたものであり、イベントで撮影した参加者の画像において、検出したゼッケン領域に対して画像処理を行うことでゼッケン番号の認識精度を高め、認識されたゼッケン番号と画像内の人物との紐付けを行う画像処理装置を提供することを目的とする。
上記の課題を解決するために、請求項1に記載の画像処理装置は、入力画像から特定の被写体を1つまたは複数検出する被写体検出部と、前記被写体検出部が検出した前記被写体の位置から前記被写体を特定するための識別情報が存在する第一の領域を推定する第一領域推定部と、前記第一領域推定部が推定した前記第一の領域内において前記識別情報を含む第二の領域を検出する第二領域検出部と、前記第二領域検出部が検出した前記第二の領域に対して画像処理を行う画像処理部と、前記画像処理部の処理結果に対して前記識別情報の認識処理を行い、当該認識処理結果と前記入力画像との紐付けを行う識別情報認識部と、を備え、前記画像処理部は、前記被写体検出部が検出した前記被写体の向きに基づいて、前記第二の領域内に配置されていると推定した前記識別情報に対して所定の画像処理の実行を制御することを特徴とする。
本発明によれば、撮影画像内から効率よくゼッケン領域を検出し、当該ゼッケン領域に対して画像処理を行うことでゼッケン番号の認識精度を高め、認識されたゼッケン番号と人物画像との紐付けを行うことが可能となる。
本発明の第1の実施形態による画像処理装置100の一例を示すブロック図である。 画像処理装置100が、撮影画像を読み込みゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。 被写体検出部102が処理する各領域について説明する図である。 画像処理部105がゼッケン文字領域304に対して行う傾き補正に関して説明する図である。 画像処理部105が奥行きのあるゼッケン文字領域に対して行う奥行き補正に関して説明する図である。 本発明の第2の実施形態による画像処理装置110の一例を示すブロック図である。 画像処理装置110が、撮影画像を読み込みゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。 ゼッケンのフレームと文字領域の検出について説明するための図である。 本発明の第3の実施形態による画像処理装置900の一例を示すブロック図である。 画像処理装置900が、動画再生の同期を行い、ユーザが選択したゼッケン番号のランナーを動画再生するまでを説明するためのフローチャートである。
以下、本発明の実施形態による画像処理装置の一例について図面を参照して説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態による画像処理装置100の一例を示すブロック図である。
<画像処理装置100の構成>
図示の画像処理装置100は、パーソナルコンピュータ(PC)などの装置である。携帯電話や、PDA、スマートフォンやタブレット端末などの装置でもよい。
画像処理装置100は、ハードウェア構成として、CPU、メモリ、通信部、および記憶部(ともに不図示)を備えている。
CPUは画像処理装置100の全体の制御を司る。メモリはRAMおよびROMなどであある。
通信部はLAN、無線通信路およびシリアルインターフェースなどに接続するためのインターフェースであって、画像処理装置に撮影画像を送信するための撮影装置とのデータ送受信を行うための機能部である。
記憶部には、ソフトウェアであるオペレーティングシステム(以下、OSと呼ぶ:不図示)、画像読み込み部101、被写体検出部102、ゼッケン領域推定部103、ゼッケン文字領域検出部104、画像処理部105、および文字認識部106が記憶されるとともに、他の機能に係るソフトウェアが記憶されている。なお、これらのソフトウェアはメモリに読み出されて、CPUの制御に従い動作する。
画像読み込み部101は、撮影画像およびディスプレイ描画などをメモリから読み込み、画像処理装置100のメモリ上に展開させる。具体的には、JPEGファイルなどの圧縮されたイメージファイルを解凍し、各画素単位のRGB値順に配列したラスターイメージに展開し、PC内のメモリ上に展開させる。このとき、読み込んだ撮影画像の画素数が十分に大きくない場合は、被写体検出部102における人物領域の検出や、画像処理部105、文字認識部106での認識精度を十分に保つため、画素間を補間し、十分な画素数に拡大してもよい。また、必要以上に画素数が大きい場合は、処理を高速化させるために、画素を間引いて、縮小してもよい。また、撮影画像の縦横関係を補正するために、必要に応じて撮影画像を回転させてもよい。
被写体検出部102は、撮影画像内の人物領域を検出する。人物の検出方法は、人物の顔、口や目などの器官の特徴による検出方法や、頭部から肩にかけたΩ(オメガ)に似た形状による検出方法、人物の肌領域などの色相による検出などがあり、これに限定したものではなく、複数の検出方法を組み合わせてもよい。
ゼッケン領域推定部103は、被写体検出部102により検出された撮影画像内の人物領域から、顔の位置や肩幅のサイズに基づき、顔より下方向の胴体部分にゼッケン文字領域が存在していると推測する。なお、ゼッケンだけに限定したものではなく、ユニフォームの背番号や被写体の一部に直接書かれた識別情報などでもよい。また、下方向に限定し推測するものではなく、人物の姿勢や撮影画像の構図によって適宜変更可能である。
ゼッケン文字領域検出部104は、ゼッケン領域推定部103により算出された各領域に対して、文字となりうる領域を検出する。ここで文字は、数字、アルファベット、平仮名、片仮名、漢字、数字および記号やバーコードのパターンなど被写体を一意に識別できる識別子のことである。
画像処理部105は、ゼッケン文字領域検出部104の各領域に対して、文字認識を行うための前処理となる画像処理を行う。
文字認識部106は、画像処理部105が処理した画像に対して、候補となる文字の画像特徴を記載した辞書データベースに基づき、文字認識を行いその認識結果を人物画像と紐付ける。人物画像とは、撮影画像中の人物が存在する部分である。
<画像処理装置100の処理フロー>
図2は、図1に示す画像処理装置100が、撮影画像を読み込みゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。
撮影画像が指定されると、処理を開始し画像読み込み部101が入力画像として撮影画像の読み込みを行う(ステップS201)。
次に、被写体検出部102が読み込んだ入力画像のラスターイメージ全体をスキャンし、人物の可能性のある画像領域を検出する(ステップS202)。
被写体検出部102が入力画像内に人物の可能性がある画像領域が存在するかを判断し(ステップS203)、人物が存在する場合は、ステップS204へ進む。人物が存在しない場合は、ステップS205へ進む。
ステップS203において、一人以上の人物が存在する場合、ゼッケン領域推定部103が各人物領域毎にゼッケン文字領域が含まれていると推定してスキャンする領域を決定する(ステップS204)。スキャンする領域は、入力画像の上下および人物領域の幅より決定し、人物の顔より下方向の領域に設定する。ここで、被写体検出部102が用いる検出方法によってスキャンする領域の上下サイズおよび幅を変更してもよい。
ステップS203において、人物が存在しない場合、入力画像内全体をスキャンする領域に決定する(ステップS205)。
人物毎に決定されたスキャンする領域から、ゼッケン文字領域検出部104がゼッケン文字領域を検出する(ステップS206)。ゼッケン文字領域の候補として、数字や文字などのゼッケン番号と予想される画像領域を検出し、一文字または複数文字を含む画像領域を検出する。ここでゼッケン番号と表現しているが、数字に限定されるものではない。
入力画像内の全ての人物に対して、ゼッケン文字領域検出部104が画像領域を検出したかを判断し(ステップS207)、未検出の人物が存在する場合(ステップS207でNo)は、ステップS204の処理に戻り、全ての人物に対してゼッケン文字領域の検出を行う。ステップS201〜ステップS207で述べた各領域については、図3を用いて詳細を説明する。
全ての人物のゼッケン文字領域の検出が終了すると(ステップS207でYes。なお、ステップS203において人物の可能性がある画像領域が見つからない場合を含む)、検出した各ゼッケン文字領域に対して、画像処理部105が文字認識を行うための前処理となる画像処理を行う(ステップS208)。ここで画像処理とは、歪み補正、傾き補正、奥行き補正などである。傾き補正、奥行き補正の詳細は図4、図5を用いて後述する。歪み補正については種々の周知技術が適用可能であるため説明を割愛する。
全てのゼッケン文字領域の画像処理が終了すると、各ゼッケン文字領域に対して、文字認識部106が文字認識を行う(ステップS209)。
文字認識部106が文字認識の結果を人物画像に対して紐付ける(ステップS210)。すべてのゼッケン文字領域の文字認識が終了するとゼッケン番号と人物画像との紐付け処理を終了する。
<検出領域について>
図3は、図2において被写体検出部102、ゼッケン領域推定部103およびゼッケン文字領域検出部104が、入力画像内の人物毎に処理を行う各領域を説明する図である。
画像フレーム301は撮影した画像のフレームであり、画像読み込み部101がイメージデータをメモリ上に展開する。
人物領域302は被写体検出部102によって検出された人物領域である。
ゼッケン推定領域303は、人物領域302に対してゼッケン領域推定部103が推定したゼッケン推定領域である。ここでゼッケン推定領域303を矩形として例示したが、これに限定されるものではなく、人物領域302を中心として扇形などであってもよい。
ゼッケン文字領域304は、ゼッケン推定領域303に対してゼッケン文字領域検出部104が検出したゼッケン文字領域である。
<傾き補正について>
図4は、画像処理部105がゼッケン文字領域304に対して行う傾き補正に関して説明する図である。
画像401は、ゼッケン文字領域304であり、一つまたは複数の文字を含む画像である。画像401は、ランナーの衣服に貼り付けられているため、各文字が歪んでおり、全体としても水平より傾いた画像になっている。そのため画像401のままでは、各文字を適切に抽出できないため文字認識部106での文字認識が困難である。
中間画像402、中間画像403および中間画像404は画像処理部105によって補正された中間画像で、ゼッケン文字領域304から算出された基準線(水平方向)からの傾き角度に基づいて、アフィン変換により画像401を水平方向に写像したものである。なお、ここでいう基準線とは、撮影画像のX軸(水平方向)またはY軸(垂直方向)に基づいた基準線である。横書きの文字列の場合はX軸、縦書きの文字列の場合はY軸を基準線とし、その基準線からの傾き角度に基づいた処理を行う。
中間画像402、中間画像403および中間画像404を見ると、それぞれの文字が歪んで、異なる傾きを有している。そのため、中間画像404のように垂直方向に隙間がなく文字同士が非常に近接した画像となる場合がある。
中間画像402および中間画像403は、一文字として認識できる画像だが、中間画像404はそれぞれの文字の傾きが異なるため、複数の文字が一文字として認識される画像である。したがって、中間画像404のような場合は、文字認識部106が正しく各文字を認識することができない。
画像405〜画像409は、中間画像404から画像処理部105によって更に補正を加えた画像である。画像処理部105は、中間画像402、中間画像403および中間画像404から、各文字の輪郭と位置を検出する。検出した各文字の輪郭の横幅に基づき、垂直方向に各文字の間隔ができるように各文字の位置を水平方向に調整し、画像405〜画像409を生成する。このように各文字を分離させることで、文字認識部106が正しく各文字を認識することが可能となる。
<奥行き補正について>
図5は、画像処理部105が奥行きのあるゼッケン文字領域に対して行う奥行き補正に関して説明する図である。
画像フレーム501は撮影した画像のフレームである。人物領域502は被写体検出部102によって検出された人物領域である。ゼッケン推定領域503は人物領域302に対してゼッケン領域推定部103が推定したゼッケン推定領域である。ゼッケン文字領域504は、ゼッケン推定領域503に対してゼッケン文字領域検出部104が検出したゼッケン文字領域である。
ゼッケン文字領域504のように、横方向を向いた人物のゼッケンは、ゼッケン文字領域の画像に奥行きが生じ、手前から奥へ行くほど、文字幅と文字間隔が狭くなってしまう。このようにゼッケン文字領域504のような画像では、文字認識部106が、異なる文字幅の影響や隣り合う文字同士を結合して一つの文字として認識してしまうため、正しく文字認識することができない。
そこで被写体検出部102は、人物領域502において、人物の顔にある口や目などの器官が、正面方向からではなく、右方向または左方向に偏って存在している場合、人物は横向きであると判断する。そして、その偏りの程度から、顔の向き角度を算出する。
画像処理部105が、算出した顔の向き角度から画像の補正を行う。
胴体505は、上部から人物の胴体を模式化したものである。ここで、胴体505は楕円形であり、その向きは顔の向き角度と同等であると推定し、その角度を向き角度506とする。これにより、ゼッケン文字領域504の画像509は、楕円形の前面に貼り付けられた画像であると近似することが可能である。
胴体505に対して、ゼッケンが向き角度506に基づいたカーブを描いていると想定する。水平軸507に対して各文字の間隔を算出し、その間隔(比率)で画像509が撮影されたものと想定し、これを想定密度とする。
曲線510は、向き角度506によって生成された曲線である。画像509の文字の傾きを算出し、画像509のセンターライン508の水平方向(水平軸507と同じ方向)に想定密度の逆数を算出する。算出した想定密度の逆数で画像509のピクセル間隔を補正するための曲線が曲線510である。
曲線510の単位角度毎の横方向の局所線分511の幅は、画像509において、手前から奥に行くほど狭くなっている。
傾き補正を行いながら曲線510に基づいて、画像509の各文字の画素位置を算出し、各画素の水平方向を伸長および収縮させて文字幅を補正することで補正画像512を生成する。なお、伸長および収縮において、画像509の画素値の想定密度の逆数倍をそのまま転写してもよく、画像の滑らかさを出すために、近傍位置の画素値から算出した値を使用してもよい。画素値とは、その画素が持つ色の種類や明るさを表す数値である。
このような画像処理を画像処理部105が行うことにより、奥行きのあるゼッケン文字領域に対しても文字幅と文字間隔を補正し、文字認識部106において正しく文字認識することが可能となる。
また、図4の傾き補正処理と、図5の奥行き補正処理を別個に説明したが、一つの画像処理として、傾き補正と奥行き補正を行ってもよい。
以上、説明したとおり、本発明の第1実施形態によれば、撮影画像内から人物のゼッケンを検出し、傾き補正や奥行き補正といった画像補正することでゼッケン番号を読み取り、ゼッケン番号と人物画像の紐付けを行うことが可能である。
[第2の実施形態]
続いて、本発明の第2の実施形態について説明する。第2の実施形態は、他人との重なりや本人の手などがゼッケンの前に配置されることによって、ゼッケンの一部が隠れてしまい、正しくゼッケン番号を認識できないという課題に対して、検出したゼッケン文字領域から隠れているゼッケン番号を推測することが特徴である。
第2の実施形態による画像処理装置110の一例を説明する。本実施形態では第1の実施形態で説明した画像処理装置100の構成にフレーム領域検出部107および文字数推測部108を追加している。
図6は、本発明の第2の実施形態による画像処理装置110の一例を示すブロック図である。なお、図1に示す画像処理装置100と同様の構成要素については同一の参照番号を付して説明を省略する。
フレーム領域検出部107は、ゼッケン領域推定部103より算出された各ゼッケン推定領域に対して、ゼッケンのフレームとなりうるフレーム領域を検出する。
文字数推測部108は、フレーム領域検出部107が検出したフレーム領域のフレーム幅などから、均等配置されている各桁の位置座標を推測し、その桁数を算出する。なお、ここでいうフレーム幅とは、ゼッケンの文字が並ぶ方向(長辺方向)のことである。また、フレーム幅に限定するものではなくフレーム高にも適用可能である。
<画像処理装置110の処理フロー>
図7は、図6に示す画像処理装置110が、撮影画像を読み込みゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。
撮影画像が指定されると、処理を開始し画像読み込み部101が入力画像として撮影画像の読み込みを行う(ステップS701)。
次に、被写体検出部102が読み込んだ入力画像のラスターイメージ全体をスキャンし、人物の可能性のある画像領域を検出する(ステップS702)。
被写体検出部102が入力画像内に人物の可能性がある画像領域が存在するかを判断し(ステップS703)、人物が存在する場合は、ステップS704へ進む。人物が存在しない場合は、ステップS705へ進む。
ステップS703において、一人以上の人物が存在する場合、ゼッケン領域推定部103が人物領域毎にゼッケン文字領域が含まれていると推定してスキャンする領域を決定する(ステップS704)。スキャンする領域は、入力画像の上下および人物領域の幅より決定し、人物の顔より下方向の領域に設定する。ここで、被写体検出部102が用いる検出方法によってスキャンする領域の上下サイズおよび幅を変更してもよい。
ステップS703において、人物が存在しない場合、入力画像内全体をスキャンする領域に決定する(ステップS705)。
以下に説明するステップS706とステップS707〜ステップS709は並列処理を行う。
人物毎に決定されたスキャンする領域から、ゼッケン文字領域検出部104がゼッケン文字領域を検出する(ステップS706)。ゼッケン文字領域の候補として、数字や文字などのゼッケン番号と予想される画像領域を検出し、一文字または複数文字を含む画像領域を検出する。
各スキャンする領域において、フレーム領域検出部107が垂直方向および水平方向のエッジ線を検出し、その位置関係からゼッケンのフレーム領域を検出する(ステップS707)。
一つ以上のゼッケンのフレーム領域が検出された場合(ステップS708でYes)は、文字数推測部108がステップS707で検出したフレーム領域のフレーム幅などから、各桁の位置座標の領域を算出する(ステップS709)。
ゼッケンのフレーム領域が検出されなかった場合(ステップS708でNo)は、ステップS709の処理は行わず、ステップS710へ進む。
入力画像内の全ての人物に対して、ゼッケン文字領域検出部104が画像領域を検出したかを判断し(ステップS710)、未検出の人物が存在する場合(ステップS710でNo)は、ステップS704の処理に戻り、全ての人物に対してゼッケン文字領域の検出を行う。
全ての人物のゼッケン文字領域の検出が終了すると(ステップS710でYes。なお、ステップS703において人物の可能性がある画像領域が見つからない場合を含む)、検出した各ゼッケン文字領域と各フレーム領域に対して、画像処理部105が文字認識を行うための画像処理を行う(ステップS711)。なお、ステップS706で検出したゼッケン文字領域と、ステップS709で算出した領域が同等の場合、一つの領域として取り扱うためにゼッケン文字領域と各桁の位置座標の領域を結合してもよい。
全てのゼッケン文字領域の画像処理が終了すると、各ゼッケン文字領域に対して、文字認識部106が文字認識を行う(ステップS712)。
文字認識部106が文字認識の結果を人物画像に対して紐付ける(ステップS713)。すべてのゼッケン文字領域の文字認識が終了するとゼッケン番号と人物画像との紐付け処理を終了する。
<隠れている文字の推測について>
図8は、ゼッケンのフレームと文字領域の検出について説明するための図である。
図8(A)は撮影された画像である。画像フレーム801は撮影した画像のフレームであり、画像読み込み部101がイメージデータをメモリ上に展開する。
人物領域802は被写体検出部102によって検出された人物領域である。
ゼッケン推定領域803は、人物領域802に対してゼッケン領域推定部103が推定したゼッケン推定領域である。
ゼッケン文字領域804は、ゼッケン推定領域303に対してゼッケン文字領域検出部104が検出したゼッケン文字領域である。
ここで、ゼッケン文字領域804の一部が、前方の人物との重なりによって隠れてしまい、文字の一部が文字認識部106にて読み取ることができない。
図8(B)の画像805は、一部が隠れたゼッケンの画像の例示である。
フレーム領域検出部107は、ゼッケン推定領域803内の垂直方向および水平方向に連続した近辺の画素値と閾値以上の変化量を有する画素値のエッジとなる画素(エッジ画素)を検出する。垂直方向および水平方向のエッジ画素の位置、および連続する画素数からゼッケンのフレームとなる近似直線を生成する。
図8(C)に示すゼッケンフレーム領域806は、フレーム領域検出部107が生成した近似直線により構成されたゼッケンフレーム領域である。
文字数推測部108は、検出されたゼッケンフレーム領域806の垂直方向の中間付近を検索し、文字領域とする。
文字領域807、文字領域808、文字領域809、文字領域810および文字領域811は、文字数推測部108が検出した文字領域である。
ここで、文字領域807は、ゼッケン文字領域804のように隠れている文字に対応する文字領域であり、正しく文字領域が検出されない。
一方、正しく文字領域が検出された文字領域808〜文字領域811は、各桁の文字幅および垂直方向の位置が等しく検出されている。
文字数推測部108は、文字幅が等しい文字領域808〜文字領域811の各桁と、文字幅が異なる文字領域807の関係から、一桁の任意文字と四桁の固定文字の画像であると判断することができる。四桁の固定文字は、画像処理部105および文字認識部106によって文字認識される。一桁の任意文字は、取りうる文字を当てはめることによって、ゼッケンフレーム内の文字を仮に生成する。ここで、当てはめる文字は、数字の0〜9などの文字を当てはめてもよく、事前に設定したイベントの全ゼッケン番号の文字リストを参照して当てはめてもよい。また、同一画像内には同じ文字列を付けた人物は存在しないことを利用し、排他的に生成することも可能である。
なお、例として文字幅から隠れている文字を推測する場合を図6〜図8を用いて説明したが、これに限定されるものではなく、例示した方向と垂直な方向である文字の高さであってもよい。また、ゼッケン番号の各桁に特定の色を使用しているような場合、検出した文字領域に特定の色が含まれているかどうかで判断することも可能である。
以上、説明したとおり、本発明の第2の実施形態によれば、撮影画像内から効率よく人物のゼッケンを検出し、文字領域の文字幅などから隠れたゼッケン番号の文字を推測することが可能である。
また、本発明の第2の実施形態では、ゼッケン文字領域検出部104の処理とフレーム領域検出部107および文字数推測部108の処理を並列で行うと説明したが、並列に限定するものではなく直列の処理であっても、どちらか一方の処理であってもよい。
[第3の実施形態]
続いて、本発明の第3の実施形態について説明する。本実施形態では動画の再生時間ごとに写っている人物のゼッケン番号を認識させて動画の再生時間とゼッケン番号とを紐付ける動画への適用例について例示する。
第3の実施形態は、動画を再生している動画再生アプリケーション(不図示)を画像処理装置が監視し、逐次、静止画像として切り出して、文字認識を行う。次に切り出した静止画像の動画再生時の再生時間と認識文字を記録する。これにより、ユーザが指定した特定のゼッケン番号の人物が写っている動画の再生時間から再生を開始できることが特徴である。
図9は、本発明の第3の実施形態による画像処理装置900の一例を示すブロック図である。第1の実施形態における画像処理装置100(図1)の構成に動画再生部901を追加している。図1と同一の構成要素については同一の参照番号を付している。第1の実施形態と第2の実施形態と異なる動画再生部901、画像読み込み部101および文字認識部106について以下に説明する。
画像読み込み部101は、第1の実施形態および第2の実施形態で説明した機能に加え、動画から静止画を切り出す(生成する)機能を備えている。ここで、動画の切り出し方は、例えば、所定の時間間隔や動画のフレーム毎である。
動画再生部901は、動画再生に必要な情報を取り扱う機能部である。必要な情報とは、再生時間情報や、ユーザから指定された情報などである。再生時間情報とは、動画の開始時点から終了時点までの相対的な時間を示した情報である。ユーザから指定された情報とは、被写体のゼッケン番号である。
動画再生部901は、画像処理装置900が認識対象となる動画(対象動画)の再生時間を指定または検出することによって、動画再生部901の内部で保持する再生時間情報を動画再生時間に合わせる。動画再生時間とは、対象となる動画の再生時間である。再生時間情報は画像処理装置900の動画再生部901が保持している情報である。動画再生時間とは動画再生アプリケーションが保持する情報であり、対象となる動画が再生されている先頭からの再生時間に関する情報である。
ここで、再生時間の指定とは、画像処理装置900から動画再生アプリケーションを起動して、再生開始させることによって、動画再生時間を推定することによる。また再生時間の検出とは、動画再生部901が動画再生アプリケーションの画面上に表示されている経過時間の認識や、動画再生アプリケーションからの通知等によって、再生時間情報を検出することである。
動画再生部901は、画像処理装置900内の再生経過時間を計測することによって、再生時間情報を逐次更新し、動画の現在の再生時間を推測する。
文字認識部106は、第1の実施形態および第2の実施形態で説明した機能に加え、動画再生部901によって算出した再生時間情報毎に、画像読み込み部101、被写体検出部102、ゼッケン領域推定部103、ゼッケン文字領域検出部104、画像処理部105および文字認識部106の各機能部の処理を通して認識した文字を再生時間と紐付けてデータベース(不図示)などの記憶部に記録する。
動画再生部901は、文字認識部106がデータベースなどに記録した再生時間情報を参照して、ユーザの所定の操作または外部入力にて選択されたゼッケン番号が認識された再生時間を算出し、対象動画に対して、再生時間を指定しながら、動画再生を行う。
ここで、再生時間の指定は、動画再生アプリケーションに対して、対象動画の指定とともに行う引数等であり、例えば、インターネットのYouTube(登録商標)の動画再生においては、ブラウザアプリケーションに対して、対象動画のパスと共に#t=(再生開始時間)を記載して、開始する再生時間を指定することができる。
<画像処理装置900の処理フロー>
図10は、図9に示す画像処理装置900が、動画再生の同期を行い、ユーザが選択したゼッケン番号のランナーを動画再生するためのフローチャートである。ここで同期とは、再生時間情報を動画再生時間に合わせることをいう。
対象動画を動画再生部901にて、再生開始時間を指定して再生、または再生中の動画の現在の再生時間を検出することにより、動画再生部901の再生時間情報を動画再生時間に合わせる(ステップS1001)。例えば、画像処理装置900から動画再生を始めから開始させることによって、再生時間情報=0として、同期させることができる。ここで、対象動画は、単体のアプリケーションが再生する動画ファイルでもよい。例えば、インターネットのサーバから配信されるストリーミング動画であり、動画再生アプリケーションの表示ウィンドウ領域内に動画再生されていればよい。
次に、逐次、動画から静止画として画像読み込みと文字認識処理を行うにあたって、動画表示領域内から再生時間の認識や、同期後の再生時間情報のカウントによって、動画の現在の再生時間情報をデータベースの文字認識結果と再生時間情報を紐付けるために算出する(ステップS1002)。
画像読み込み部101は、特定の動画再生アプリケーションの表示ウィンドウ領域を検出し、表示されているイメージ内容をメモリまたはファイルにコピーし、認識処理の入力画像(静止画)を生成する(ステップS1003)。
ステップS1003にて生成された入力画像に対して文字認識を行う(ステップS1004)。文字認識の詳細については、第1の実施形態の図2のフローチャート(ステップS201〜ステップS210)または第2の実施形態の図7のフローチャート(ステップS701〜ステップS713)を適用する。
動画再生部901は、ステップS1002にて算出した再生時間情報とステップS1004で認識した文字を記録する(ステップS1005)。ここで、記録先は、画像処理装置900に配置されているメモリやファイルであり、またインターネットのサーバに対する通知としてもよい。
対象動画の再生が終了したかを確認し、対象動画の再生が続行している場合(ステップS1006でNo)は、ステップS1002に戻り、次の再生時間情報の算出と入力画像の文字認識を行う。
対象動画の再生が終了した場合(ステップS1006でYes)は、ステップS1005で記録した認識文字の情報に基づき、認識文字をダイアログ等に表示し、ユーザに所定の操作により選択させる(ステップS1007)。なお、外部入力によって選択させてもよく、その場合の一例として他のアプリケーションから再生したい認識文字の指定がなされてもよい。
ユーザが特定の認識文字を選択しない場合(ステップS1008でNo)は、処理を終了させる。
ユーザがダイアログ内に表示された認識文字の中から、特定の認識文字を選択した場合(ステップS1008でYes)は、ステップS1005で記録した再生時間情報を参照して、ステップS1008にて選択された認識文字の再生時間を検出し、対象動画に対して、再生時間を指定しながら、動画再生を行う(ステップS1009)。
ここで、再生時間を指定するオプションは、動画ファイルを再生するアプリケーションや、ストリーミング動画を再生するインターネットサーバに対して行うものである。
なお、図10の処理フローにおいて、動画再生が終了した後に、ユーザの認識文字選択ステップ(ステップS1007)と時間指定を伴う動画再生ステップ(ステップS1009)を設けた。しかし、サーバと複数のクライアントコンピュータから構成されるインターネットのストリーミング動画のような場合は、一台のクライアントコンピュータ上の本画像処理装置のステップS1006にて動画再生が終了する前に、ステップS1005でサーバに通知した再生時間情報と認識文字の情報により、他のクライアントコンピュータにてステップS1007の認識文字選択ステップとステップS1009の動画再生ステップを行うことも可能である。
動画内の複数シーンにおいて、ユーザが選択した認識文字が出現する場合は、ステップS1009にて、複数回の時間指定のオプションを用いて、動画再生を行ってもよい。
以上、説明したとおり、本発明の第3の実施形態によれば、再生動画の中から人物のゼッケンを検出し、再生時間とゼッケン番号を紐付けて記憶し、そのゼッケン番号を指定することによって、再生動画の中から特定のゼッケン番号の人物が映っている動画を再生することが可能である。
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において適宜変更可能である。
なお、本実施形態では被写体を人物として説明したが、人物に限定したものではなく被写体は動物、車両などでもよい。また、撮影画像内の人物画像に文字認識結果を紐付けるとして説明したが、撮影画像そのものに紐付けてもよい。
加えて、横書きの文字列を例に説明したが、これに限定されるものではなく、縦書きの文字列や斜め方向の文字列などに適用してもよい。
また、本発明の目的は、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給システム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出して処理を実行することによっても達成することができる。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶したコンピュータで読み取り可能な記憶媒体は本発明を構成することになる。
また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現されるように構成しても良い。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれたあと、このプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を実行し、その処理に応じて上述した実施形態が実現される場合も含んでいる。
なお、プログラムコードを供給するため、例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CDやDVDに代表される光ディスク、磁気テープ、不揮発性のメモリカード、ROM等の記憶媒体を用いることができる。または、プログラムコードは、ネットワークを介してダウンロードしてもよい。
100、110、900:画像処理装置
101:画像読み込み部
102:被写体検出部
103:ゼッケン領域推定部
104:ゼッケン文字領域検出部
105:画像処理部
106:文字認識部
107:フレーム領域検出部
108:文字数推測部
901:動画再生部

Claims (9)

  1. 入力画像から特定の被写体を1つまたは複数検出する被写体検出部と、
    前記被写体検出部が検出した前記被写体の位置から前記被写体を特定するための識別情報が存在する第一の領域を推定する第一領域推定部と、
    前記第一領域推定部が推定した前記第一の領域内において前記識別情報を含む第二の領域を検出する第二領域検出部と、
    前記第二領域検出部が検出した前記第二の領域に対して画像処理を行う画像処理部と、
    前記画像処理部の処理結果に対して前記識別情報の認識処理を行い、当該認識処理結果と前記入力画像との紐付けを行う識別情報認識部と、を備え、
    前記画像処理部は、前記被写体検出部が検出した前記被写体の向きに基づいて、前記第二の領域内に配置されていると推定した前記識別情報に対して所定の画像処理の実行を制御することを特徴とする画像処理装置。
  2. 入力画像から特定の被写体を1つまたは複数検出する被写体検出部と、
    前記被写体検出部が検出した前記被写体の位置から前記被写体を特定するための識別情報が存在する第一の領域を推定する第一領域推定部と、
    前記第一の領域内において前記識別情報のサイズまたは領域を示す情報から第三の領域を検出する第三領域検出部と、
    前記第三領域検出部が検出した前記第三の領域から前記識別情報内の情報数を推測する情報数推測部と、
    前記第三領域検出部が検出した前記第三の領域に対して画像処理を行う画像処理部と、
    前記画像処理部の処理結果に対して前記識別情報の認識処理を行い、当該認識処理結果と前記入力画像との紐付けを行う識別情報認識部と、を備え、
    前記情報数に応じた情報領域を算出し、前記情報領域のうち他の領域と幅または高さが異なる領域が存在するか否かに基づき、当該領域に対応する仮の情報を割り当てる処理の実行を制御することを特徴とする画像処理装置。
  3. 入力画像から特定の被写体を1つまたは複数検出する被写体検出ステップと、
    前記被写体検出ステップにおいて検出した前記被写体の位置から前記被写体を特定するための識別情報が存在する第一の領域を推定する第一領域推定ステップと、
    前記第一領域推定ステップにおいて推定した前記第一の領域内において前記識別情報を含む第二の領域を検出する第二領域検出ステップと、
    前記第二領域検出ステップにおいて検出した前記第二の領域に対して画像処理を行う画像処理ステップであって、前記被写体検出ステップにおいて検出した前記被写体の向きに基づいて、前記第二の領域内に配置されていると推定した前記識別情報に対して所定の画像処理の実行を制御する画像処理ステップと、
    前記画像処理ステップの処理結果に対して前記識別情報の認識処理を行い、当該認識処理結果と前記入力画像との紐付けを行う識別情報認識ステップと、
    を備えることを特徴とする画像処理方法。
  4. 前記第一の領域内において前記識別情報のサイズまたは領域を示す情報から第三の領域を検出する第三領域検出ステップと、
    前記第三領域検出ステップにおいて検出した前記第三の領域から前記識別情報内の情報数を推測する情報数推測ステップをさらに備え、
    前記画像処理ステップは、前記第二領域検出ステップにおいて検出した前記第二の領域または前記情報数推測ステップにおいて検出した前記情報数に応じた前記第三の領域内の各領域に対して画像処理を行うことを特徴とする請求項3に記載の画像処理方法。
  5. 前記情報数推測ステップは、前記第三の領域の幅または高さから前記情報数を推測し、前記第三の領域内の各領域のうち他の領域と幅または高さが異なる領域が存在する場合に、当該領域に対して、仮の情報を割り当てることを特徴とする請求項4に記載の画像処理方法。
  6. 前記被写体検出ステップは、前記被写体の顔位置、前記被写体の頭部から肩にかけた形状、前記被写体の肌領域の少なくとも1つを検出することで被写体を検出することを特徴とする請求項3乃至請求項5の何れか1項に記載の画像処理方法。
  7. 前記画像処理ステップは、前記第二の領域の画像を前記入力画像の基準線に対する傾き角度から所定方向に写像し、文字の間隔を調整する画像処理を行うことを特徴とする請求項3乃至請求項6の何れか1項に記載の画像処理方法。
  8. 入力画像から特定の被写体を1つまたは複数検出する被写体検出ステップと、
    前記被写体検出ステップにおいて検出した前記被写体の位置から前記被写体を特定するための識別情報が存在する第一の領域を推定する第一領域推定ステップと、
    前記第一の領域内において前記識別情報のサイズまたは領域を示す情報から第三の領域を検出する第三領域検出ステップと、
    前記第三領域検出ステップにおいて検出した前記第三の領域から前記識別情報内の情報数を推測する情報数推測ステップであって、前記情報数に応じた情報領域を算出し、前記情報領域のうち他の領域と幅または高さが異なる領域が存在するか否かに基づき、当該領域に対する仮の情報を割り当てる処理の実行を制御する情報数推測ステップと、
    前記第三領域検出ステップにおいて検出した前記第三の領域に対して画像処理を行う画像処理ステップと、
    前記画像処理ステップの処理結果に対して前記識別情報の認識処理を行い、当該認識処理結果と前記入力画像との紐付けを行う識別情報認識ステップと、
    を備えることを特徴とする画像処理方法。
  9. 前記情報数推測ステップは、前記第三の領域の幅または高さから前記情報数を推測することを特徴とする請求項8に記載の画像処理方法。
JP2015193735A 2014-12-22 2015-09-30 画像処理装置および画像処理方法 Active JP6430914B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2015/084585 WO2016104156A1 (ja) 2014-12-22 2015-12-03 画像処理方法
US15/287,066 US10007846B2 (en) 2014-12-22 2016-10-06 Image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014259258 2014-12-22
JP2014259258 2014-12-22

Publications (3)

Publication Number Publication Date
JP2016119059A JP2016119059A (ja) 2016-06-30
JP2016119059A5 JP2016119059A5 (ja) 2018-11-15
JP6430914B2 true JP6430914B2 (ja) 2018-11-28

Family

ID=56243121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015193735A Active JP6430914B2 (ja) 2014-12-22 2015-09-30 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US10007846B2 (ja)
JP (1) JP6430914B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6251336B1 (ja) * 2016-08-01 2017-12-20 株式会社アールビーズ ゼッケンの組およびゼッケン画像管理システム
TWI607387B (zh) * 2016-11-25 2017-12-01 財團法人工業技術研究院 字符辨識系統及其字符辨識方法
JP2020119284A (ja) * 2019-01-24 2020-08-06 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
EP3912132A4 (en) 2019-02-28 2022-12-07 Stats Llc SYSTEM AND METHOD FOR GENERATION OF PLAYER TRACKING DATA FROM BROADCAST VIDEO
CN111814514A (zh) * 2019-04-11 2020-10-23 富士通株式会社 号码识别装置、方法以及电子设备
TWI702547B (zh) * 2019-07-03 2020-08-21 利凌企業股份有限公司 車牌辨識方法及其系統
US11176362B1 (en) 2020-06-24 2021-11-16 Bank Of America Corporation System for character recognition in a digital image processing environment
CN112036319B (zh) * 2020-08-31 2023-04-18 北京字节跳动网络技术有限公司 一种图片处理方法、装置、设备及存储介质
JP2024036017A (ja) * 2022-09-05 2024-03-15 ダイキン工業株式会社 情報端末、文字認識方法及び文字認識プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03250280A (ja) * 1990-02-28 1991-11-08 Hitachi Ltd 文字認識方法及び装置並びに情報処理装置
TW197509B (ja) 1990-01-31 1993-01-01 Hitachi Seisakusyo Kk
JP4659569B2 (ja) * 2005-09-13 2011-03-30 キヤノン株式会社 撮像装置
WO2010075430A1 (en) * 2008-12-24 2010-07-01 Strands, Inc. Sporting event image capture, processing and publication
JP2011078009A (ja) * 2009-10-01 2011-04-14 Olympus Corp 撮像装置および撮像装置用プログラム
JP5598751B2 (ja) * 2010-03-05 2014-10-01 日本電気株式会社 動作認識装置
US8774558B2 (en) * 2010-11-29 2014-07-08 Microsoft Corporation Rectification of characters and text as transform invariant low-rank textures
JP5762730B2 (ja) * 2010-12-09 2015-08-12 パナソニック株式会社 人検出装置および人検出方法
JP5647919B2 (ja) * 2011-03-07 2015-01-07 株式会社Nttドコモ 文字認識装置、文字認識方法、文字認識システム、および文字認識プログラム
US9092674B2 (en) * 2011-06-23 2015-07-28 International Business Machines Corportion Method for enhanced location based and context sensitive augmented reality translation
JP5845764B2 (ja) 2011-09-21 2016-01-20 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
CN104346370B (zh) * 2013-07-31 2018-10-23 阿里巴巴集团控股有限公司 图像搜索、获取图像文本信息的方法及装置
US10354145B2 (en) * 2014-09-11 2019-07-16 Carnegie Mellon University Associating a user identity with a mobile device identity

Also Published As

Publication number Publication date
US10007846B2 (en) 2018-06-26
US20170024626A1 (en) 2017-01-26
JP2016119059A (ja) 2016-06-30

Similar Documents

Publication Publication Date Title
JP6430914B2 (ja) 画像処理装置および画像処理方法
CN106254933B (zh) 字幕提取方法及装置
JP5106271B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
US9536132B2 (en) Facilitating image capture and image review by visually impaired users
JP5695257B1 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2009211177A (ja) 特徴点位置決定方法及び装置
CN109886223B (zh) 人脸识别方法、底库录入方法、装置及电子设备
JP2011076255A (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
KR20130064039A (ko) 실루엣 보정 방법 및 시스템과 실루엣 묘출 방법 및 시스템
JP6061502B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2016194858A (ja) 画像処理装置、画像処理方法および画像処理システム
KR20190080388A (ko) Cnn을 이용한 영상 수평 보정 방법 및 레지듀얼 네트워크 구조
US20230410361A1 (en) Image processing system, processing method, and non-transitory storage medium
CN111182207B (zh) 图像拍摄方法、装置、存储介质及电子设备
WO2016104156A1 (ja) 画像処理方法
JP5861530B2 (ja) 利用者検知装置、方法、及びプログラム
CN113490009B (zh) 内容信息植入方法、装置、服务器和存储介质
JP4522323B2 (ja) 画像処理装置及びその制御方法
Wu et al. FlagDetSeg: Multi-nation flag detection and segmentation in the wild
JP2015060421A (ja) 類似画像検索方法及び類似画像検索装置
JP6256738B2 (ja) 動画選択装置、動画選択方法とプログラム
JP2000132692A (ja) 曲線の特徴点抽出方法及びこの方法を記録した記録媒体
JP2017033390A (ja) 画像解析装置及びプログラム
JP2021026723A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180928

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180928

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181101

R150 Certificate of patent or registration of utility model

Ref document number: 6430914

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150