JP2016194858A - 画像処理装置、画像処理方法および画像処理システム - Google Patents

画像処理装置、画像処理方法および画像処理システム Download PDF

Info

Publication number
JP2016194858A
JP2016194858A JP2015075185A JP2015075185A JP2016194858A JP 2016194858 A JP2016194858 A JP 2016194858A JP 2015075185 A JP2015075185 A JP 2015075185A JP 2015075185 A JP2015075185 A JP 2015075185A JP 2016194858 A JP2016194858 A JP 2016194858A
Authority
JP
Japan
Prior art keywords
image
unit
identification information
feature amount
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015075185A
Other languages
English (en)
Other versions
JP6535196B2 (ja
JP2016194858A5 (ja
Inventor
泰 稲葉
Yasushi Inaba
泰 稲葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Imaging Systems Inc
Original Assignee
Canon Imaging Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Imaging Systems Inc filed Critical Canon Imaging Systems Inc
Priority to JP2015075185A priority Critical patent/JP6535196B2/ja
Priority to PCT/JP2016/059785 priority patent/WO2016158811A1/ja
Priority to US15/562,014 priority patent/US20180107877A1/en
Publication of JP2016194858A publication Critical patent/JP2016194858A/ja
Publication of JP2016194858A5 publication Critical patent/JP2016194858A5/ja
Application granted granted Critical
Publication of JP6535196B2 publication Critical patent/JP6535196B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Studio Devices (AREA)

Abstract

【課題】大量の撮影画像を処理する画像処理装置において、ゼッケン番号が不明確な場合に、高速で撮影画像間で被写体とゼッケン番号の紐付けを行う画像処理装置を提供する。【解決手段】画像ソート部が決定した処理順序に従い処理対象となる対象画像と時系列に連続した前の参照画像または後の参照画像との比較を行う時系列画像比較部と、時系列画像比較部の比較結果に基づいて識別情報認識部が紐付けた前の参照画像または後の参照画像の識別情報を対象画像に紐付ける識別情報紐付け部とを備える。【選択図】図1

Description

本発明は、マラソン大会などのイベントで撮影された写真の画像処理方法に関するものである。
テーマパークやイベント会場などで来園者やイベント参加者などの人物画像をカメラで撮影してデータベースに登録し、来園者やイベント参加者などがデータベースを検索し、所望の人物画像を選択して購入できる画像注文システムがある。
本出願人は、この様な画像注文システムにおいて、人物画像からイベント参加者のゼッケン番号の認識精度を向上させる目的で、入力画像から人物を検出し、検出した人物の顔位置からゼッケンが存在する領域を推定し、推定した領域からゼッケン番号を含む領域を検出することで、検出した領域に対して画像処理を行い、画像処理後の画像からゼッケン番号の文字認識を行い、認識結果と入力画像との紐付けを行う画像処理装置を提案している(特許文献1参照)。
特願2014−259258
本発明は、出願人自らが先に提案した特許文献1の画像処理装置をさらに拡張・発展させ、大量の撮影画像を処理する画像処理装置において、ゼッケン番号が不明確な場合にも、複数の入力画像間で画像を比較することにより被写体とゼッケン番号の紐付けを行う画像処理装置を提供することを目的とする。
上記の課題を解決するために、請求項1に記載の画像処理装置は、複数の入力画像を順次または並列に対象画像として繰り返し処理を行う画像処理装置であって、撮影環境情報に基づいて前記複数の入力画像の処理順序を決定する画像ソート部と、前記画像ソート部で決定された前記処理順序に従って、前記対象画像内に存在する被写体を特定するための識別情報の認識処理を行い、当該認識処理結果と前記対象画像との紐付けを行う識別情報認識部と、前記識別情報認識部で処理された前記対象画像内に前記識別情報が紐付けられていない被写体が存在する場合に、前記対象画像と前記処理順序の時系列において前または後に連続して位置する参照画像との類似度の比較を行う時系列画像比較部と、前記時系列画像比較部の比較結果に基づいて前記参照画像のいずれか1つに紐付けられた識別情報を前記対象画像に紐付ける識別情報紐付け部と、を備えることを特徴とする。
本発明によれば、複数の入力画像間で被写体または特徴量の類似度を利用して、入力画像内の被写体とゼッケン番号を高速に紐付けることが可能となる。
本発明の第1の実施形態による画像処理装置100の一例を示すブロック図である。 画像処理装置100が、被写体の顔特徴量に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。 画像処理装置100が、顔の特徴量に基づいてゼッケン番号と人物画像との紐付けを行うまでの実施例の画像である。 本発明の第2の実施形態による画像処理装置200の一例を示すブロック図である。 画像処理装置200が、人物の相対位置関係に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。 画像処理装置200が、人物の相対位置関係に基づいてゼッケン番号と人物画像との紐付けを行うまでの実施例の画像である。 本発明の第3の実施形態による画像処理装置300の一例を示すブロック図である。 画像処理装置300が、画像情報、構図特徴量および画像特徴量に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。 画像処理装置300が、画像情報と画像の特徴量に基づいてゼッケン番号と人物画像との紐付けを行うまでの実施例の画像である。 本発明の第4の実施形態による画像処理装置400の一例を示すブロック図である。 画像処理装置400が、前後画像のゼッケン番号の情報に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。 画像処理装置400が、前後画像のゼッケン番号の情報に基づいてゼッケン番号と人物画像との紐付けを行うまでの実施例の画像である。
以下、本発明の実施形態による画像処理装置の一例について図面を参照して説明する。
[第1の実施形態]
<画像処理装置100の構成>
図1は、本発明の第1の実施形態による画像処理装置100の一例を示すブロック図である。
図示の画像処理装置100は、パーソナルコンピュータ(PC)などの装置である。携帯電話や、PDA、スマートフォンやタブレット端末などの装置でもよい。
画像処理装置100は、ハードウェア構成として、CPU、メモリ、通信部、および記憶部(ともに不図示)を備えている。
CPUは画像処理装置100の全体の制御を司る。メモリはRAMおよびROMなどである。
通信部はLAN、無線通信路およびシリアルインターフェースなどに接続するためのインターフェースであって、撮影装置から撮影画像を受信するための機能部である。
記憶部には、ソフトウェアであるオペレーティングシステム(以下、OSと呼ぶ:不図示)、画像読み込み部101、画像ソート部102、一枚処理部110、複数枚処理部120および他の機能に係るソフトウェアが記憶されている。なお、これらのソフトウェアはメモリに読み出されて、CPUの制御に従い動作する。
以下、各機能部が備える機能について詳述していく。
画像読み込み部101は、撮影画像およびディスプレイ描画などを入力画像としてメモリから読み込み、画像処理装置100のメモリ上に展開させる。具体的には、JPEGファイルなどの圧縮されたイメージファイルを解凍し、各画素単位のRGB値順に配列したラスターイメージに展開し、PC内のメモリ上に展開させる。このとき、読み込んだ入力画像の画素数が十分に大きくない場合は、被写体検出部111における被写体の検出や、画像処理部114、文字認識部115での認識精度を十分に保つため、画素間を補間し、十分な画素数に拡大してもよい。また、必要以上に画素数が大きい場合は、処理を高速化させるために、画素を間引いて、縮小してもよい。また、入力画像の縦横関係を補正するために、必要に応じて入力画像を回転させてもよい。
画像ソート部102は、画像処理装置100のメモリ上に展開された入力画像を所定の順序でソートする。例えば、入力画像の更新時間・作成時間または入力画像内に記録されたイメージの撮影時間を取得し、時系列で入力画像をソートする。ここで、入力画像のファイルフォーマットは例えばJPEGであり、入力画像が数万枚以上と膨大になる場合には、ソート処理に膨大な時間がかかるため、数十枚単位で区分するなどソートする単位を変更してもよい。
一枚処理部110は、被写体検出部111、ゼッケン領域推定部112、ゼッケン文字領域検出部113、画像処理部114および文字認識部115を備え、画像ソート部102でソートされた順に入力画像を一枚ずつ(順次または並列して)処理する機能部である。例えば、時系列に早い順または遅い順で並んだ入力画像を処理する。
被写体検出部111は、入力画像内に存在するそれぞれの被写体領域を検出する。被写体の検出方法は、例えば、被写体が人物である場合、人物の顔、口や目などの器官の特徴による検出方法や、頭部の形状特徴による検出方法、人物の肌領域などの色相による検出などがあり、これに限定したものではなく、複数の検出方法を組み合わせてもよい。以下、被写体を人物として説明する。
ゼッケン領域推定部112は、被写体検出部111により検出された入力画像内の人物領域から、顔の位置や肩幅のサイズに基づき、顔より下方向の胴体部分にゼッケン文字領域が存在していると推測する。なお、ゼッケンだけに限定したものではなく、ユニフォームの背番号や被写体の一部に直接書かれた識別情報などでもよい。また、下方向に限定し推測するものではなく、人物の姿勢や入力画像の構図によって適宜変更可能である。
ゼッケン文字領域検出部113は、ゼッケン領域推定部112により推定された各領域に対して、文字となりうる領域を検出する。ここで文字は、数字、アルファベット、平仮名、片仮名、漢字、数字および記号やバーコードのパターンなど被写体を一意に識別できる識別子のことである。
画像処理部114は、ゼッケン文字領域検出部113の各領域に対して、文字認識を行うための前処理となる画像処理を行う。
文字認識部115は、画像処理部114が処理した入力画像に対して、候補となる文字の画像特徴を記載した辞書データベース(不図示)に基づき、文字認識を行い、その認識結果を人物画像と紐付ける。人物画像とは、入力画像中の人物が存在する部分である。
複数枚処理部120は、顔特徴量算出部121、類似度算出部122、文字紐付け部123を備えており、一枚処理部110の処理結果に基づき、対象とする入力画像を時間的に前後する入力画像を参照して処理するための機能部である。
顔特徴量算出部121は、被写体検出部111にて、各入力画像内の人物の顔を検出した被写体に対して、目や口などの器官を元にした顔特徴量を算出する。
類似度算出部122は、各入力画像間において、各人物の顔特徴量をそれぞれ比較し類似度を算出する。
文字紐付け部123では、対象とする入力画像内に文字が紐付けされていない人物がいる場合、類似度算出部122で算出した類似度に基づき、他の入力画像から最も当該人物と推測される被写体を検出し、紐付けされている文字を、対象とする入力画像の人物に紐付ける。
<画像処理装置100の処理フロー>
図2は、図1に示す画像処理装置100が、被写体の顔特徴量に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。
以下の説明において、対象とする入力画像を対象画像、ソートによって対象画像と連続し、時間的に連続した前後n枚ずつの入力画像を参照画像とする。ここで、前後n枚ずつの入力画像の枚数は、イベント状況や撮影画像の撮影間隔などによって変化させてもよい。また、入力画像(例えばJPEG画像)内の撮影時刻などに基づいて一定時間内に撮影された入力画像という条件で可変することも可能である。加えて、参照画像は必ずしも対象画像の前後の参照画像ではなく、前のみの参照画像、後のみの参照画像または前後の参照画像がない場合もある。
まず、撮影画像全体の処理について図2Aのフローチャートを用いて説明する。
画像読み込み部101が入力画像として対象画像および前後n枚ずつの(2n+1)枚の読み込みを行い処理を開始し、画像ソート部102が読み込んだ(2n+1)枚を撮影時間などに基づき時間的に連続した画像としてソートを行う(ステップS201)。ソートすることによって、顔認証した場合に、時系列で前後する他の入力画像内に対象人物が写っている場合が多くなるためである。
一枚処理部110および複数枚処理部120が、入力画像として読み込んだ(2n+1)枚について順次または並列で処理を行う(ステップS202)。詳細は図2Bで後述する。
複数枚処理部120が、すべての撮影画像について処理が完了したか判断する(ステップS203)。処理が完了した場合(ステップS203でYes)は、処理フローを終了する。すべての撮影画像について処理が完了していない場合(ステップS203でNo)は、ステップS201へ戻り次の入力画像として(2n+1)枚を読み込む。
次に、ステップS202の処理について図2Bのフローチャートを用いて説明する。
ステップS211〜ステップS218までは一枚処理部110が行う処理であり、ステップS219〜ステップS227は複数枚処理部120が行う処理である。
まず、被写体検出部111が読み込んだ対象画像のラスターイメージ全体をスキャンし、人物の可能性のある画像領域が存在するか判断する(ステップS211)。
対象画像内に人物の可能性がある画像領域が存在する場合(ステップS211でYes)は、ステップS212へ進む。対象画像内に人物の可能性がある画像領域が存在しない場合(ステップS211でNo)は、処理フローを終了する。
被写体検出部111が対象画像内の人物の可能性がある画像領域から人物を検出する(ステップS212)。
ゼッケン領域推定部112は、被写体検出部111が検出した人物領域毎にゼッケン文字領域が含まれていると推定してスキャンする領域を決定する(ステップS213)。スキャンする領域は、入力画像の上下および人物領域の幅より決定し、人物の顔より下方向の領域に設定する。ここで、被写体検出部111が用いる検出方法によってスキャンする領域の上下サイズおよび幅を変更してもよい。
人物毎に決定されたスキャンする領域から、ゼッケン文字領域検出部113がゼッケン文字領域を検出する(ステップS214)。ゼッケン文字領域の候補として、数字や文字などのゼッケン番号と予想される画像領域を検出し、一文字または複数文字を含む画像領域を検出する。ここでゼッケン番号と表現しているが、数字に限定されるものではない。
対象画像内のすべての人物に対して、ゼッケン文字領域検出部113が画像領域を検出したかを判断し(ステップS215)、未検出の人物が存在する場合(ステップS215でNo)は、ステップS213の処理に戻り、すべての人物に対してゼッケン文字領域の検出を行う。
対象画像内のすべての人物についてゼッケン文字領域の検出が終了(ステップS215でYes)すると、検出した各ゼッケン文字領域に対して、画像処理部114が文字認識を行うための前処理となる画像処理を行う(ステップS216)。ここで画像処理とは、歪み補正、傾き補正、奥行き補正などである。詳細な処理の説明は、本出願人が先に提出した特願2014−259258にて説明している。
すべてのゼッケン文字領域の画像処理が終了すると、各ゼッケン文字領域に対して、文字認識部115が文字認識を行う(ステップS217)。
文字認識部115が文字認識の結果を人物画像に対して紐付ける(ステップS218)。
すべてのゼッケン文字領域の文字認識が終了すると1枚の入力画像(ここでは対象画像)の処理を終了する。
同様に前後n枚ずつの参照画像においても、ステップS211〜ステップS218の人物検出と文字認識を行い、人物画像に対して紐付けられた文字の結果を得ることができる。
複数枚処理部120が、対象画像と同様に参照画像について文字認識の結果について紐付けを終えているか判断する(ステップS219)。対象画像と参照画像について紐付けがすべて終わっている場合はステップS220へ進み、終わっていない場合はステップS219へ戻り、対象画像および参照画像の(2n+1)枚の紐付けが終わるまで待機する。
文字認識部115が対象画像内で文字が紐付けられていない人物がいるか検出する(ステップS220)。対象画像内のすべての人物に適当な文字が紐付けられている場合(ステップS220でNo)、処理フローを終了する。
何らかの文字が紐付けられていない人物がいる場合(ステップS220でYes)、文字認識部115が前後n枚ずつの参照画像内の何らかの文字が紐付けられた人物を検出する(ステップS221)。
参照画像内で何らかの文字が紐付けられた人物がいる場合(ステップS221でYes)、顔特徴量算出部121が対象画像内の文字が紐付けられていない人物の顔の特徴量を算出する(ステップS222)。参照画像内で何らかの文字が紐付けられた人物がいない場合(ステップS221でNo)、処理フローを終了する。
次に、顔特徴量算出部121が参照画像内で何らかの文字が紐付けられた人物の顔の特徴量を算出する(ステップS223)。
類似度算出部122が対象画像の文字が紐付けられていない人物の顔の特徴量と、参照画像内で文字が紐付けられた人物の顔の各特徴量において、それぞれの類似度を算出する(ステップS224)。類似度は、例えば値100を持って規格化され、類似度が高いほどそれぞれの特徴量が酷似しており、同一人物である可能性が高い事を示している。
ここで、顔の器官に基づいた特徴量は、顔の向きに依存する傾向がある。対象画像内の人物が右向きならば、特徴量は右向きの影響を受けていると考えられる。そこでより正確な類似度を算出するため、参照画像内の右向きの人物だけを抽出し、顔特徴量算出部121が特徴量を算出し、類似度算出部122が各特徴量を比較し類似度を算出してもよい。
そしてステップS224で算出された類似度の中から、類似度算出部122が、類似度の最大値を算出する(ステップS225)。
類似度の最大値が、事前に決定づけられた閾値以上あるかを判断する(ステップS226)。閾値以上の場合(ステップS226でYes)は、文字紐付け部123が参照画像内の最大値にあたる特徴量に対応する人物に紐付けられた文字を、対象画像内の文字が紐付けられていない人物に紐付けする(ステップS227)。閾値未満の場合(ステップS226でNo)は、処理フローを終了する。
ここで、類似度の閾値は、機械学習等によって算出された固定の値でもよく。また、顔向き毎に閾値を変えてもよい。また対象画像の解像度や状態等によって、動的に変化させることも可能である。
図3は、入力画像の一例であり、本図を使って、画像処理装置100が、顔の特徴量に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明する。
画像301および画像302は同じ人物を撮影した画像であり、画像ソート部102がソートした場合に時間的に連続する入力画像である。この画像301および画像302を用いて図2Bで説明したフローの各ステップを説明する。
画像301は、顔が正面を向いているが、胴体が横向きでありゼッケン番号の一部が隠れてしまい、ゼッケン番号を文字認識部115がすべて認識することができない。画像処理部114および文字認識部115にて、画像処理して数字を認識するが、正しく数字を認識できない結果となることがステップS211〜ステップS218を通して分かっているものとする。
また、画像302は、同様に顔は正面を向いており、ゼッケン番号を文字認識部115がすべて正しく認識することができることがステップS211〜ステップS218を通して分かっているものとする。
ステップS219において、複数枚処理部120が画像301と画像302の紐付けを終了したと判断し、ステップS220に進む。
ステップS220において、文字認識部115が画像301で人物検出したが、紐付けられている文字がないため、ステップS221にて文字認識部115が、連続した画像302に文字が紐付けられた人物がいるかを判断する。
ステップS222において、顔特徴量算出部121が画像301の人物の顔の特徴量を算出する。次にステップS223にて、顔特徴量算出部121が画像302の人物の顔特徴量を算出する。
ステップS224において、類似度算出部122が、ステップS222およびステップS223で算出した顔の特徴量の類似度を算出する。
ステップS225において、類似度算出部122が類似度の最大値を算出する。ステップS226にて、閾値と比較し、類似度の最大値が閾値以上であるので、ステップS227において文字紐付け部123が画像302の文字を画像301の人物に紐付ける。
以上、説明したとおり、本発明の第1実施形態によれば、入力画像内のゼッケンの文字が正しく認識できない場合に、時間的に連続した他の入力画像の人物の顔の特徴量を用いることで、他の画像の文字列を紐付けすることが可能である。
[第2の実施形態]
<画像処理装置200の構成>
続いて、本発明の第2の実施形態について説明する。
第1の実施形態は、顔の器官検出と顔特徴量を算出し、対象画像と参照画像において、人物の顔向きが同様であり、参照画像において、ゼッケンの文字が正しく認識されている場合という条件が必要であった。
しかしながら、実際のイベントの撮影画像では、ランニングのフォームによりゼッケンが腕と重なるなど、全桁のゼッケン文字がすべて正しく認識できない場合も多く発生する。第2の実施形態は、第1の実施形態が適用できない場合に補間するものであり、他の入力画像内の人物や基準物との相対的な位置関係から対象となる人物を推測し、他の入力画像の文字列を紐付けることが特徴である。
図4は、第2の実施形態による画像処理装置200の一例を示すブロック図である。
本実施形態では第1の実施形態で説明した画像処理装置100の構成と画像読み込み部101〜文字認識部115が同様である。第1の実施形態とは、複数枚処理部120の人物位置検出部124と相対位置量算出部125が異なる。なお、図1に示す画像処理装置100と同様の構成要素については同一の参照番号を付して説明を省略する。
人物位置検出部124は、被写体検出部111にて検出した人物に対して、入力画像内における人物位置を算出する。
相対位置量算出部125は、複数の入力画像間における基準物と人物の相対位置の動き量を算出する。ここで基準物とは、対象となる人物の相対位置が推測可能である並進する人物や、沿道のガードレールやビルなどの静体物である。相対位置が推測可能であれば、これに限定するものではない。
文字紐付け部123は、相対位置量算出部125により、基準物からの相対位置が同じと判断された場合、参照画像の該当人物の文字を対象画像の人物に紐付ける。
<画像処理装置200の処理フロー>
図5は、図4に示す画像処理装置200が、人物の相対位置関係に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。
以下の説明において、第1の実施形態と同様に、対象とする入力画像を対象画像、ソートによって対象画像と連続し、時間的に連続した前後n枚ずつの入力画像を参照画像とする。
撮影画像全体の処理は、第1の実施形態において図2Aで説明したステップS201〜ステップS203と同様である。一枚処理部110と複数枚処理部120が、入力画像として読み込んだ(2n+1)枚について順次または並列で行うステップS202の本実施形態における詳細について図5を用いて説明する。
ステップS501〜ステップS508までは一枚処理部110が行う処理であり、ステップS509〜ステップS517は複数枚処理部120が行う処理である。
ステップS501〜ステップS508までは、第1の実施形態において図2Bのフローチャートで説明したステップS211〜ステップS218と同様である。
被写体検出部111が読み込んだ対象画像のラスターイメージ全体をスキャンし、人物の可能性のある画像領域が存在するか判断する(ステップS501)。
対象画像内に一人以上の人物の可能性がある画像領域が存在する場合(ステップS501でYes)は、ステップS502へ進む。対象画像内に人物の可能性がある画像領域が存在しない場合(ステップS501でNo)は、処理フローを終了する。
被写体検出部111が対象画像内の人物の可能性がある画像領域から人物を検出する(ステップS502)。
ゼッケン領域推定部112は、被写体検出部111が検出した人物領域毎にゼッケン文字領域が含まれていると推定してスキャンする領域を決定する(ステップS503)。スキャンする領域は、入力画像の上下および人物領域の幅より決定し、人物の顔より下方向の領域に設定する。ここで、被写体検出部111が用いる検出方法によってスキャンする領域の上下サイズおよび幅を変更してもよい。
人物毎に決定されたスキャンする領域から、ゼッケン文字領域検出部113がゼッケン文字領域を検出する(ステップS504)。ゼッケン文字領域の候補として、数字や文字などのゼッケン番号と予想される画像領域を検出し、一文字または複数文字を含む画像領域を検出する。
対象画像内のすべての人物に対して、ゼッケン文字領域検出部113が画像領域を検出したかを判断し(ステップS505)、未検出の人物が存在する場合(ステップS505でNo)は、ステップS503の処理に戻り、すべての人物に対してゼッケン文字領域の検出を行う。
対象画像内のすべての人物についてゼッケン文字領域の検出が終了(ステップS505でYes)すると、検出した各ゼッケン文字領域に対して、画像処理部114が文字認識を行うための前処理となる画像処理を行う(ステップS506)。
すべてのゼッケン文字領域の画像処理が終了すると、各ゼッケン文字領域に対して、文字認識部115が文字認識を行う(ステップS507)。
文字認識部115が文字認識の結果を人物画像に対して紐付ける(ステップS508)。
すべてのゼッケン文字領域の文字認識が終了すると1枚の入力画像(ここでは対象画像)の処理を終了する。
同様に前後n枚ずつの参照画像においても、ステップS501〜ステップS508の人物検出と文字認識を行い、人物画像に対して紐付けられた文字の結果を得ることができる。
複数枚処理部120が、対象画像と同様に参照画像について文字認識の結果について紐付けを終えているか判断する(ステップS509)。対象画像と参照画像についての紐付けがすべて終わっている場合はステップS510へ進み、終わっていない場合はステップS509へ戻り、対象画像および参照画像の(2n+1)枚の紐付けが終わるまで待機する。
文字認識部115が対象画像内で文字が紐付けられていない人物がいるか検出する(ステップS510)。対象画像内のすべての人物に適当な文字が紐付けられている場合(ステップS510でNo)、処理フローを終了する。
何らかの文字が紐付けられていない人物aがいる場合(ステップS510でYes)、対象画像内に何らか紐付けられた文字がある人物bがいるかを検索する(ステップS511)。紐付けられた文字がある人物がいない場合(ステップS511でNo)は、処理フローを終了する。
紐付けられた文字がある人物bがいる場合(ステップS511でYes)、前後n枚ずつの参照画像において、人物bに紐付けられた文字と同じ文字に紐付けられた人物b´がいるかを検出する(ステップS512)。
同じ文字に紐付けられた人物b´がいる場合(ステップS512でYes)、人物位置検出部124が対象画像における人物aと人物bのそれぞれの位置を検出する(ステップS513)。同じ文字に紐付けられた人物b´がいない場合(ステップS512でNo)は、処理フローを終了する。
さらに、相対位置量算出部125が、対象画像内の人物aと人物bの位置から相対位置を算出する(ステップS514)。
そして、人物位置検出部124が前後n枚ずつの参照画像の人物b´の位置を検出する(ステップS515)。
相対位置量算出部125が、参照画像内の人物b´に対して、ステップS514で算出した対象画像内の人物aと人物bの相対位置において、人物が存在し、かつ紐付けられた文字があるかを検出する(ステップS516)。
紐付けられた文字があった場合(ステップS516でYes)、文字紐付け部123が紐付けられた文字を対象画像の人物aに紐付ける(ステップS517)。紐付けられた文字がなかった場合(ステップS516でNo)は、処理フローを終了する。
図6は、入力画像の一例であり、本図を使って、画像処理装置200が、人物の相対位置関係に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明する。
画像601および画像604は並走する二人の同じ人物を撮影した画像であり、画像ソート部102がソートした場合に時間的に連続する入力画像である。この画像601および画像604を用いて図5で説明したフローの各ステップを説明する。
画像601には、人物602と人物603が撮影されている。人物602のゼッケンの文字は、文字認識部115ですべて認識できるが、人物603のゼッケンは一部手で隠れているためすべて認識することはできないことがステップS501〜ステップS508を通して分かっているものとする。
また、時間的に連続した画像604において、人物605と人物606が撮影されており、文字認識部115が、二人(人物605および人物606)のゼッケンの文字が認識することができることがステップS501〜ステップ508を通して分かっているものとする。
ステップS509において、複数枚処理部120が画像601と画像604の紐付けを終了したと判断し、ステップS510に進む。
ステップS510において、画像601内で紐付けられた文字がない人物aとして、人物603が該当する。
ステップS511において、画像601内で文字が紐付けられた人物bとして、人物602が該当する。
ステップS512において、画像604内で人物bと同じ文字が紐付けられた人物b´として、人物605が検出される。
ステップS513において、人物位置検出部124が人物602と人物603の位置を検出する。
ステップS514において、相対位置量算出部125が人物602に対する人物603の相対位置を算出する。
ステップS515において、人物位置検出部124が人物605の位置を検出する。
ステップS516において、相対位置量算出部125が人物605の相対位置から人物606を検出する。
ステップS517において、文字紐付け部123が人物606のゼッケンの文字を人物603に紐付ける。
ここで、人物603へ相対位置の基準物として、並走している人物602を選択したが、基準物は相対位置が推測可能である沿道のガードレールやビルなどの静体物でもよい。
以上、説明したとおり、本発明の第2の実施形態によれば、入力画像内のゼッケンが正しく認識できない場合に、時間的に連続した他の入力画像の人物や基準物との相対的な位置関係を用いることで、他の入力画像の文字列を紐付けすることが可能である。
[第3の実施形態]
<画像処理装置300の構成>
続いて、本発明の第3の実施形態について説明する。
第1および第2の実施形態は、入力画像内における人物を検索し、人物に紐付けられている文字を対象となる画像の人物に紐付ける方法だった。
第3の実施形態は、入力画像内から背景画像を除いた人物領域を抽出し、その特徴量を比較することで、人物に紐付けられた文字を人物に対して転写するのではなく、参照画像に紐付けられている文字を対象画像に対して転写し、処理を高速化することが特徴である。
図7は、第3の実施形態による画像処理装置300の一例を示すブロック図である。
本実施形態では第1の実施形態で説明した画像処理装置100の構成と画像読み込み部101〜文字認識部115が同様である。第1の実施形態とは、複数枚処理部120の画像情報取得部126、人物領域抽出部127、人物構図算出部128および画像特徴量算出部129が異なる。なお、図1に示す画像処理装置100と同様の構成要素については同一の参照番号を付して説明を省略する。
画像情報取得部126は、入力画像の縦横のサイズ、撮影条件および撮影位置情報といった画像情報を取得する。ここで、撮影条件とは、絞り、ズームやフォーカスなどのカメラの設定情報である。また、撮影位置情報とは、例えばカメラに取り付けられたGPSまたは、カメラの通信部においてWi−FiやiBeaconなどの情報から推測された位置情報である。
人物領域抽出部127は、入力画像内から背景画像を除いた人物が写っている人物領域を抽出する。入力画像内から背景画像を除いた領域を抽出することで背景画像の影響を低減させることができる。また、入力画像内の人物は一人でも複数人でもよい。
人物構図算出部128は、画像全体に対する人物領域の位置から、撮影構図に基づいた構図特徴量を算出する。
画像特徴量算出部129は、人物領域の画像の色相分布に基づいた画像特徴量を算出する。
文字紐付け部123は、時間的に連続した入力画像の画像サイズがほぼ同等であり、画像特徴量算出部129で算出した画像特徴量が類似している場合は、同等の対象者に対する入力画像であると判断し、参照画像に紐付けされている文字のすべてを対象画像に紐付ける。
<画像処理装置300の処理フロー>
図8は、図7に示す画像処理装置300が、画像情報、構図特徴量および画像特徴量に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。
以下の説明において、文字の紐付けを行う入力画像を対象画像として、時間的に連続し対象画像より早いn枚の入力画像を前の参照画像とする。一方、時間的に連続し対象画像より遅いn枚の入力画像を後の参照画像とする。
ここで、nは1でも複数でもよく、入力画像間の撮影時間の差を考慮して可変としてもよい。
撮影画像全体の処理は、第1の実施形態において図2Aで説明したステップS201〜ステップS203と同様である。一枚処理部110と複数枚処理部120が、入力画像として読み込んだ(2n+1)枚について順次または並列で行うステップS202の本実施形態における詳細について図8を用いて説明する。
ステップS801は、第1の実施形態において説明した図2BのステップS211〜ステップS218に相当し、各入力画像の人物を検出し、文字認識結果を紐付ける。
文字認識部115が、前の参照画像に紐付けられた文字列を抽出する(ステップS802)。
文字認識部115が、前の参照画像内の人物に紐付けられている文字が一つ以上あるかを判断する(ステップS803)。紐付けられている文字が一つ以上ある場合(ステップS803でYes)は、ステップS804に進む。紐付けられている文字がない場合(ステップS803でNo)は、ステップS812に進む。
画像情報取得部126が、対象画像と紐付けられている文字の画像の縦横サイズ、撮影条件および撮影位置情報を取得し、画像情報が同様であるかを判断する(ステップS804)。画像情報が同様(一致するかほぼ同等)であった場合(ステップS804でYes)、ステップS805に進む。画像情報が異なっている場合は(ステップS804でNo)、撮影対象を変化させているとみなしステップS812に進む。
人物領域抽出部127が、前の参照画像と対象画像から被写体検出部111で検出した人物領域に基づいて背景画像を除いた人物領域を抽出する(ステップS805)。
人物構図算出部128が、対象画像および前の参照画像の画像全体に対して、人物領域がどのような位置にあるかによって、人物の構図による構図特徴量を算出する(ステップS806)。ここで、構図とは、画像の中央付近に人物を配置した日の丸構図や、人物全体を画像の3分割に配置した3分割構図などを示す。構図特徴量は、構図の度合いに応じて数値化したものである。
人物構図算出部128が、前の参照画像と対象画像の構図特徴量を比較する(ステップS807)。前の参照画像と対象画像の構図特徴量が同等である場合(ステップS807でYes)、ステップS808に進む。構図特徴量が異なっている場合(ステップS807でNo)は、ステップS812に進む。
画像特徴量算出部129が、対象画像および前の参照画像の色相分布から画像特徴量を算出する(ステップS808)。ここで、色相分布を算出する色相は画像全体ではなく、背景部分を削除した人物が撮影されている区域のみとしてもよい。また、画像特徴量としては色相分布のみならず、明暗分布も考慮してもよい。加えて、入力画像を小区域に分割した区域毎の特徴量とその位置関係としてもよい。
画像特徴量算出部129が、対象画像の画像特徴量と前の参照画像の画像特徴量を比較する(ステップS809)。
対象画像と前の参照画像の画像特徴量が類似している場合(ステップS809でYes)、対象画像に既に紐付けられている文字があるか判断する(ステップS810)。画像特徴量が類似していない場合(ステップS809でNo)は、ステップS812に進む。
前の参照画像に紐付けられている文字で、対象画像に紐付けられていない文字がある場合は(ステップS810でNo)、対象画像に前の参照画像の文字を紐付ける(ステップS811)。対象画像に紐付けられていない文字がない場合は(ステップS810でYes)、ステップS812に進む。
ステップS812〜ステップS821は、ステップS801〜ステップS811の処理を、後の参照画像に対して、前の参照画像と同様に施したものである。
文字認識部115が、後の参照画像に紐付けられた文字列を抽出する(ステップS812)。
文字認識部115が、後の参照画像内の人物に紐付けられている文字が一つ以上あるかを判断する(ステップS813)。紐付けられている一つ以上ある場合(ステップS813でYes)は、ステップS814に進む。紐付けられている文字がない場合(ステップS813でNo)は、処理フローを終了する。
画像情報取得部126が、対象画像と紐付けられている文字の画像の縦横サイズ、撮影条件および撮影位置情報を取得し、画像情報がほぼ同等であるかを判断する(ステップS814)。画像情報がほぼ同等であった場合(ステップS814でYes)、ステップS815に進む。画像情報が大きく異なっている場合は(ステップS814でNo)、撮影対象を変化させているとみなし処理フローを終了する。
人物領域抽出部127が、後の参照画像と対象画像から被写体検出部111で検出した人物領域に基づいて背景画像を除いた人物領域を抽出する(ステップS815)。
人物構図算出部128が、対象画像および後の参照画像の画像全体に対して、人物領域がどのような位置にあるかによって、人物の構図による構図特徴量を算出する(ステップS816)。
人物構図算出部128が、後の参照画像と対象画像の構図特徴量を比較する(ステップS817)。後の参照画像と対象画像の構図特徴量が同等である場合(ステップS817でYes)、ステップS818に進む。構図特徴量が異なっている場合(ステップS817でNo)は、処理フローを終了する。
画像特徴量算出部129が、対象画像および後の参照画像の色相分布から画像特徴量を算出する(ステップS818)。
画像特徴量算出部129が、対象画像の画像特徴量と後の参照画像の画像特徴量を比較する(ステップS819)。
対象画像と後の参照画像の画像特徴量が類似している場合(ステップS819でYes)、対象画像に既に紐付けられている文字があるか判断する(ステップS820)。画像特徴量が類似していない場合(ステップS819でNo)は、処理フローを終了する。
後の参照画像に紐付けられている文字で、対象画像に紐付けられていない文字がある場合は(ステップS820でNo)、文字紐付け部123が対象画像に後の参照画像の文字を紐付ける(ステップS821)。対象画像に紐付けられていない文字がない場合(ステップS820でYes)は、処理フローを終了する。
ただし、ステップS820において、対象画像Aに紐付けられている文字を検索する場合は、ステップS811にて、前の参照画像から既に紐付けられた文字も含めてチェックし、同様の文字は紐付けないよう排他する。
図9は、入力画像の一例であり、本図を使って、画像処理装置300が、画像情報と入力画像の特徴量に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明する。
画像901および画像902は、画像ソート部102がソートした時間的に連続する入力画像である。この画像901および画像902を用いて図8で説明したフローの各ステップを説明する。ここで、画像902を対象画像とし、画像901を前の参照画像とする。ステップS801〜ステップ802の処理を既に行い、画像902に画像901の文字がまだ紐付けられていないものとする。また、前の参照画像のみある場合の例として説明し、後の参照画像についてのステップS812〜ステップS821の処理は省略する。
ステップS803において、文字認識部115が、画像901に人物に紐付けられている文字が一つ以上あると判断する。
ステップS804において、画像情報取得部126が、画像901と画像902の入力画像の縦横サイズ、撮影条件および撮影位置情報を取得し、画像情報がほぼ同等であると判断する。
ステップS805において、人物領域抽出部127が画像901および画像902から背景画像を除いた人物領域を切り出す。
ステップS806において、人物構図算出部128が画像901と画像902の構図特徴量を算出する。
ステップS807において、人物構図算出部128が画像901と画像902の構図特徴量を比較し、その構図特徴量が同等であると判断する。
ステップS808において、画像特徴量算出部129が、画像901および画像902の色相分布を画像特徴量として算出する。
ステップS809において、画像特徴量算出部129が、画像901と画像902の画像特徴量を比較し、画像特徴量が類似していると判断する。
ここで、画像特徴量について類似の判定は、例えば、色相分布の各抽出点を算出し、その最大値をもって100に規格化し、各抽出点での差分量から判断する。
ステップS810において、文字紐付け部123が、画像902に画像901の文字が紐付けられていないと判断する。
ステップS811において、文字紐付け部123が、画像901に紐付けられた文字を画像902に紐付ける。
以上、説明したとおり、本発明の第3実施形態によれば、入力画像内のゼッケンが正しく認識できない場合に、入力画像内から背景画像を除いた人物領域を抽出し、時間的に連続した他の入力画像の構図特徴量や画像特徴量を用いて、他の入力画像の文字列を紐付けすることが可能である。
[第4の実施形態]
<画像処理装置400の構成>
続いて、本発明の第4の実施形態について説明する。
第1〜第3の実施形態は、入力画像内の特徴量(顔特徴量、相対位置、構図特徴量および画像特徴量)を算出し、他の入力画像の文字を紐付ける方法であった。第4の実施形態では、画像内のイメージを参照することなく、入力画像の時間的な連続性を利用して、対象画像に対して文字を紐付ける方法である。画像処理を伴わないため、高速に処理することが特徴である。
図10は、第4の実施形態による画像処理装置400の一例を示すブロック図である。
本実施形態では第1の実施形態で説明した画像処理装置100の構成と画像読み込み部101および画像ソート部102が同様である。第一の実施形態とは、文字取得部130および文字比較部131が異なる。
文字取得部130は、複数枚の入力画像に対してそれぞれの画像に紐付けられた文字を抽出する。
文字比較部131は、文字取得部130が抽出した複数文字を比較する。
文字紐付け部123は、文字比較部131で比較した結果、対象画像の前および後に同一の文字が存在し、対象画像に当該文字が紐付けられていない場合、対処画像に文字を紐付ける。
<画像処理装置400の処理フロー>
図11は、図10に示す画像処理装置400が、前後画像のゼッケン番号の情報に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明するためのフローチャートである。
以下の説明において、文字の紐付けを行う入力画像を対象画像として、時間的に連続し対象画像より早いn枚の入力画像を前の参照画像とする。一方、時間的に連続し対象画像より遅いn枚の入力画像を後の参照画像とする。
撮影画像全体の処理は、第1の実施形態において図2Aで説明したステップS201〜ステップS203と同様である。一枚処理部110と複数枚処理部120が、入力画像として読み込んだ(2n+1)枚について順次または並列で行うステップS202の本実施形態における詳細について図11を用いて説明する。
ステップS1101は、第1の実施形態において説明した図2BのステップS211〜ステップS218に相当し、各入力画像の人物を検出し、文字認識結果を紐付ける。
文字取得部130が、対象画像の前の参照画像の文字列を抽出する(ステップS1102)。
次に、文字取得部130が、ステップS1102の抽出結果として文字が一つ以上あるかを判断する(ステップS1103)。
前の参照画像に文字が一つもない場合(ステップS1103でNo)、処理フローを終了する。
前の参照画像に文字が一つ以上ある場合(ステップS1103でYes)、次のステップS1104に進む。
文字取得部130が、対象画像の後の参照画像の文字列を抽出する(ステップS1104)。
次に、文字取得部130が、ステップS1104の抽出結果として文字が一つ以上あるかを判断する(ステップS1105)。
後の参照画像に文字が一つもない場合(ステップS1105でNo)、処理フローを終了する。
後の参照画像に文字が一つ以上ある場合(ステップS1105でYes)、次のステップS1106に進む。
対象画像の前の参照画像の文字と、後の参照画像の文字で、同一のものがあるか検索する(ステップS1106)。同一の文字がない場合(ステップS1106でNo)、処理フローを終了する。同一の文字がある場合(ステップS1106でYes)、ステップS1107に進む。
文字比較部131が、対象画像に同一の文字があるか検索する(ステップS1107)。
対象画像に同一の文字がある場合(ステップS1107でYes)、処理フローを終了する。
対象画像に同一の文字がない場合(ステップS1107でNo)、文字紐付け部123が前後の同一文字を対象画像に紐付ける(ステップS1108)。
図12は、入力画像の一例であり、本図を使って、画像処理装置400が、前後の入力画像のゼッケン番号の情報に基づいてゼッケン番号と人物画像との紐付けを行うまでを説明する。
画像1201〜画像1203は、画像ソート部102がソートした時間的に連続する入力画像である。この画像1201〜画像1203を用いて図11で説明したフローの各ステップを説明する。ここで、画像1202を対象画像とし、画像1201を前の参照画像、画像1203を後の参照画像とする。また、画像1201〜画像1203についてステップS1101の処理を既に行ったものとする。
ステップS1102〜ステップS1103において、文字取得部130が、画像1201から文字列を抽出し、ゼッケン番号として「43659」を取得する。
同様にステップS1104〜ステップS1105において、文字取得部130が、画像1203から文字列を抽出し、ゼッケン番号として「43659」を取得する。
ステップS1106において、画像1201で取得した文字列と画像1203で取得した文字列とが同一であると判断する。
ステップS1107において、画像1201は人物のゼッケンが隠れており、文字が認識できないと判断する。
ステップS1108において、前の参照画像である画像1201と、後の参照画像である画像1203において、認識された文字が同一である場合、画像1202に同一の文字を紐付ける。
以上、説明したとおり、本発明の第4実施形態によれば、入力画像内のゼッケンが正しく認識できない場合に、時間的に連続した前後の入力画像の文字の同一性に基づいて、他の入力画像の文字列を紐付けすることが可能である。
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
実施に当たっては、第1の実施形態〜第4の実施形態の何れかを用いてもよいし、何れか複数を組み合わせてもよい。また、複数の実施形態を組み合わせる場合は、入力画像内の人物の密集度等の情報から、より精度が高まるよう組み合わせる順番を変化させてもよい。
なお、第3の実施形態で前の参照画像で同じ文字が紐付けられている場合に、後の参照画像では紐付けないよう排他する例示をしたが、第1の実施形態、第2の実施形態および第4の実施形態についても同様に排他してもよい。
以上のように第1の実施形態〜第4の実施形態によれば、イベント参加者の写真にゼッケン文字を紐付けするシステムにおいて、ゼッケン文字を入力画像から正しく認識できない場合においても、他の入力画像に紐付けられた文字を高速に紐付けることにより、写真撮影から公開までの時間的遅延を減らし購入意欲を向上させ、画像注文システムの購買率向上が期待できる。
なお、本実施形態では被写体を人物として説明したが、人物に限定したものではなく被写体は動物、車両などでもよい。また、撮影画像内の人物画像に文字認識結果を紐付けるとして説明したが、撮影画像そのものに紐付けてもよい。
また、本発明の目的は、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出して処理を実行することによっても達成することができる。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶したコンピュータで読み取り可能な記憶媒体は本発明を構成することになる。
また、プログラムコードの指示に基づき、コンピュータ上で稼働しているOS等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現されるように構成してもよい。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれたあと、このプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を実行し、その処理に応じて上述した実施形態が実現される場合も含んでいる。
なお、プログラムコードを供給するため、例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CDやDVDに代表される光ディスク、磁気テープ、不揮発性のメモリカード、ROM等の記憶媒体を用いることができる。または、プログラムコードは、ネットワークを介してダウンロードしてもよい。
100、200、300、400:画像処理装置
101:画像読み込み部
102:画像ソート部
110:一枚処理部
111:被写体検出部
112:ゼッケン領域推定部
113:ゼッケン文字領域検出部
114:画像処理部
115:文字認識部
120:複数枚処理部
121:顔特徴量算出部
122:類似度算出部
123:文字紐付け部
124:人物位置検出部
125:相対位置量算出部
126:画像情報取得部
127:人物領域抽出部
128:人物構図算出部
129:画像特徴量算出部
130:文字取得部
131:文字比較部

Claims (13)

  1. 複数の入力画像を順次または並列に対象画像として繰り返し処理を行う画像処理装置であって、
    撮影環境情報に基づいて前記複数の入力画像の処理順序を決定する画像ソート部と、
    前記画像ソート部で決定された前記処理順序に従って、前記対象画像内に存在する被写体を特定するための識別情報の認識処理を行い、当該認識処理結果と前記対象画像との紐付けを行う識別情報認識部と、
    前記識別情報認識部で処理された前記対象画像内に前記識別情報が紐付けられていない被写体が存在する場合に、前記対象画像と前記処理順序の時系列において前または後に連続して位置する参照画像との類似度の比較を行う時系列画像比較部と、
    前記時系列画像比較部の比較結果に基づいて前記参照画像のいずれか1つに紐付けられた識別情報を前記対象画像に紐付ける識別情報紐付け部と、を備えること
    を特徴とする画像処理装置。
  2. 前記画像処理装置は、前記被写体の顔の目や口の器官位置に基づき顔特徴量を算出する顔特徴量算出部をさらに備え、
    前記時系列画像比較部は、前記顔特徴量算出部が算出した前記顔特徴量に基づいた比較を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像処理装置は、前記入力画像内の基準物と前記被写体との位置に基づき相対位置量を算出する相対位置量算出部をさらに備え、
    前記時系列画像比較部は、前記相対位置量算出部が算出した前記相対位置量に基づいた比較を行うことを特徴とする請求項1に記載の画像処理装置。
  4. 前記画像処理装置は、
    前記入力画像のサイズ、撮影条件または撮影位置情報のうち一つまたは複数を取得する画像情報取得部と、
    前記入力画像のうち背景部分を除いた被写体領域を抽出する被写体抽出部と、
    前記被写体領域の構図に基づき構図特徴量を算出する構図特徴量算出部と、
    前記被写体領域の色相分布に基づき画像特徴量を算出する画像特徴量算出部と、をさらに備え、
    前記時系列画像比較部は、前記画像情報取得部が取得した画像情報、前記構図特徴量算出部が算出した前記構図特徴量または前記画像特徴量算出部が算出した前記画像特徴量に基づいた比較を行うことを特徴とする請求項1に記載の画像処理装置。
  5. 前記画像処理装置は、前記識別情報認識部が紐付けた前記識別情報を取得する識別情報取得部をさらに備え、
    前記時系列画像比較部は、前記識別情報取得部が取得した前記識別情報に基づいた比較を行うことを特徴とする請求項1に記載の画像処理装置。
  6. 前記識別情報紐付け部は、前記対象画像に既に前記前の参照画像または前記後の参照画像と同じ識別情報が紐づけられている場合に、前記識別情報を紐付けないことを特徴とする請求項1乃至請求項5の何れか1項に記載の画像処理装置。
  7. 複数の入力画像を順次または並列に対象画像として繰り返し処理を行う画像処理装置の画像処理方法であって、
    撮影環境情報に基づいて前記複数の入力画像の処理順序を決定する画像ソートステップと、
    前記画像ソートステップで決定された前記処理順序に従って、前記対象画像内に存在する被写体を特定するための識別情報の認識処理を行い、当該認識処理結果と前記対象画像との紐付けを行う識別情報認識ステップと、
    前記識別情報認識ステップで処理された前記対象画像内に前記識別情報が紐付けられていない被写体が存在する場合に、前記対象画像と前記処理順序の時系列において前または後に連続して位置する参照画像との類似度の比較を行う時系列画像比較ステップと、
    前記時系列画像比較ステップの比較結果に基づいて前記参照画像のいずれか1つに紐付けられた識別情報を前記対象画像に紐付ける識別情報紐付けステップと、を備えること
    を特徴とする画像処理方法。
  8. 前記画像処理方法は、前記被写体の顔の目や口の器官位置に基づき顔特徴量を算出する顔特徴量算出ステップをさらに備え、
    前記時系列画像比較ステップは、前記顔特徴量算出ステップが算出した前記顔特徴量に基づいた比較を行うことを特徴とする請求項7に記載の画像処理方法。
  9. 前記画像処理方法は、前記入力画像内の基準物と前記被写体との位置に基づき相対位置量を算出する相対位置量算出ステップをさらに備え、
    前記時系列画像比較ステップは、前記相対位置量算出ステップが算出した前記相対位置量に基づいた比較を行うことを特徴とする請求項7に記載の画像処理方法。
  10. 前記画像処理方法は、
    前記入力画像のサイズ、撮影条件または撮影位置情報のうち一つまたは複数を取得する画像情報取得ステップと、
    前記入力画像のうち背景部分を除いた被写体領域を抽出する被写体抽出ステップと、
    前記被写体領域の構図に基づき構図特徴量を算出する構図特徴量算出ステップと、
    前記被写体領域の色相分布に基づき画像特徴量を算出する画像特徴量算出ステップと、をさらに備え、
    前記時系列画像比較ステップは、前記画像情報取得ステップが取得した画像情報、前記構図特徴量算出ステップが算出した前記構図特徴量または前記画像特徴量算出ステップが算出した前記画像特徴量に基づいた比較を行うことを特徴とする請求項7に記載の画像処理方法。
  11. 前記画像処理方法は、前記識別情報認識ステップが紐付けた前記識別情報を取得する識別情報取得ステップをさらに備え、
    前記時系列画像比較ステップは、前記識別情報取得ステップが取得した前記識別情報に基づいた比較を行うことを特徴とする請求項7に記載の画像処理方法。
  12. 前記識別情報紐付けステップは、前記対象画像に既に前記前の参照画像または前記後の参照画像と同じ識別情報が紐づけられている場合に、前記識別情報を紐付けないことを特徴とする請求項7乃至請求項11の何れか1項に記載の画像処理方法。
  13. 被写体を撮影する撮像装置と有線または無線を介して前記撮像装置と接続された画像処理装置から成る画像処理システムにおいて、
    複数の入力画像を順次または並列に対象画像として繰り返し処理を行う画像処理装置であって、
    撮影環境情報に基づいて前記複数の入力画像の処理順序を決定する画像ソート部と、
    前記画像ソート部で決定された前記処理順序に従って、前記対象画像内に存在する被写体を特定するための識別情報の認識処理を行い、当該認識処理結果と前記対象画像との紐付けを行う識別情報認識部と、
    前記識別情報認識部で処理された前記対象画像内に前記識別情報が紐付けられていない被写体が存在する場合に、前記対象画像と前記処理順序の時系列において前または後に連続して位置する参照画像との類似度の比較を行う時系列画像比較部と、
    前記時系列画像比較部の比較結果に基づいて前記参照画像のいずれか1つに紐付けられた識別情報を前記対象画像に紐付ける識別情報紐付け部と、を備えること
    を特徴とする画像処理システム。
JP2015075185A 2015-04-01 2015-04-01 画像処理装置、画像処理方法および画像処理システム Expired - Fee Related JP6535196B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015075185A JP6535196B2 (ja) 2015-04-01 2015-04-01 画像処理装置、画像処理方法および画像処理システム
PCT/JP2016/059785 WO2016158811A1 (ja) 2015-04-01 2016-03-18 画像処理装置、画像処理方法および画像処理システム
US15/562,014 US20180107877A1 (en) 2015-04-01 2016-03-18 Image processing apparatus, image processing method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015075185A JP6535196B2 (ja) 2015-04-01 2015-04-01 画像処理装置、画像処理方法および画像処理システム

Publications (3)

Publication Number Publication Date
JP2016194858A true JP2016194858A (ja) 2016-11-17
JP2016194858A5 JP2016194858A5 (ja) 2018-05-17
JP6535196B2 JP6535196B2 (ja) 2019-06-26

Family

ID=57006785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015075185A Expired - Fee Related JP6535196B2 (ja) 2015-04-01 2015-04-01 画像処理装置、画像処理方法および画像処理システム

Country Status (3)

Country Link
US (1) US20180107877A1 (ja)
JP (1) JP6535196B2 (ja)
WO (1) WO2016158811A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI607387B (zh) * 2016-11-25 2017-12-01 財團法人工業技術研究院 字符辨識系統及其字符辨識方法
JP6859364B2 (ja) * 2016-12-22 2021-04-14 Necソリューションイノベータ株式会社 未搭乗者捜索装置、未搭乗者捜索方法、及びプログラム
CN107609108A (zh) * 2017-09-13 2018-01-19 杭州景联文科技有限公司 一种基于号码牌识别和人脸识别的运动员照片分拣方法
JP2020119284A (ja) * 2019-01-24 2020-08-06 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
FR3099269B1 (fr) 2019-07-22 2023-08-04 Bull Sas Procédé d’identification d’une personne dans une vidéo, par une signature visuelle de cette personne, programme d’ordinateur et dispositif correspondants
FR3099270B1 (fr) 2019-07-22 2021-10-29 Bull Sas Procédé d’identification d’une personne dans une vidéo, par un numéro porté par cette personne, programme d’ordinateur et dispositif correspondants
FR3099278B1 (fr) 2019-07-22 2023-08-04 Bull Sas Procédé de surveillance vidéo du franchissement d’une ligne par des personnes, programme d’ordinateur et dispositif correspondants
US11176362B1 (en) 2020-06-24 2021-11-16 Bank Of America Corporation System for character recognition in a digital image processing environment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01130288A (ja) * 1987-11-16 1989-05-23 Toyo Syst Kaihatsu Kk コンピュータによる移動物体の動作解析方法
JP2008187591A (ja) * 2007-01-31 2008-08-14 Fujifilm Corp 撮像装置及び撮像方法

Also Published As

Publication number Publication date
JP6535196B2 (ja) 2019-06-26
WO2016158811A1 (ja) 2016-10-06
US20180107877A1 (en) 2018-04-19

Similar Documents

Publication Publication Date Title
WO2016158811A1 (ja) 画像処理装置、画像処理方法および画像処理システム
US10755086B2 (en) Picture ranking method, and terminal
US11527055B2 (en) Feature density object classification, systems and methods
JP2019109709A (ja) 画像処理装置、画像処理方法およびプログラム
JP5361524B2 (ja) パターン認識システム及びパターン認識方法
CN112016353B (zh) 一种基于视频的人脸图像进行身份识别方法及装置
JP2016162232A (ja) 画像認識方法及び装置、プログラム
US10650234B2 (en) Eyeball movement capturing method and device, and storage medium
CN105095853B (zh) 图像处理装置及图像处理方法
US20200258236A1 (en) Person segmentations for background replacements
JP2016119059A (ja) 画像処理装置および画像処理方法
US11631277B2 (en) Change-aware person identification
CN112101195A (zh) 人群密度预估方法、装置、计算机设备和存储介质
JP6762754B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2017162010A (ja) 本人照合システムおよび本人照合方法
CN109583471A (zh) 用于智能手机识别的方法及装置
JP2019185349A (ja) 検索装置、検索方法及びプログラム
US11854146B1 (en) Three-dimensional body composition from two-dimensional images of a portion of a body
Nguyen et al. Development of a Human Daily Action Recognition System for Smart-Building Applications
US11887252B1 (en) Body model composition update from two-dimensional face images
KR102435581B1 (ko) 얼굴인식을 이용한 출석체크 시스템 및 이를 이용한 출석체크 방법
WO2022172430A1 (ja) 判定方法、判定プログラム、及び情報処理装置
JP2018101248A (ja) 画像処理装置および画像処理方法
JP6662582B2 (ja) 画像処理装置、画像処理方法および画像処理システム
JP2015001871A (ja) 人物判定装置、人物判定方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190531

R150 Certificate of patent or registration of utility model

Ref document number: 6535196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees