JP2016039539A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2016039539A
JP2016039539A JP2014162573A JP2014162573A JP2016039539A JP 2016039539 A JP2016039539 A JP 2016039539A JP 2014162573 A JP2014162573 A JP 2014162573A JP 2014162573 A JP2014162573 A JP 2014162573A JP 2016039539 A JP2016039539 A JP 2016039539A
Authority
JP
Japan
Prior art keywords
image
unit
human body
recognition
installation direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014162573A
Other languages
English (en)
Other versions
JP2016039539A5 (ja
JP6381353B2 (ja
Inventor
黛 いち子
Ichiko Mayuzumi
いち子 黛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014162573A priority Critical patent/JP6381353B2/ja
Priority to EP15002118.6A priority patent/EP2988248B1/en
Priority to US14/804,766 priority patent/US20160028951A1/en
Priority to CN201510434886.5A priority patent/CN105306813B/zh
Publication of JP2016039539A publication Critical patent/JP2016039539A/ja
Publication of JP2016039539A5 publication Critical patent/JP2016039539A5/ja
Application granted granted Critical
Publication of JP6381353B2 publication Critical patent/JP6381353B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】魚眼レンズを介して撮像された画像上の認識対象を効率よく検出する画像処理装置、画像処理方法およびプログラムを提供する。
【解決手段】カメラの設置方向に応じて、撮像される画像の領域のうち相対的に人体が多く検出される領域を優先領域として設定する。そして、設定した優先領域から、人体の検出処理を優先的に開始する。
【選択図】図5

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関し、特に、魚眼レンズを介して画像を撮像するために用いて好適なものである。
魚眼レンズや全方位ミラー等を備えた広範囲撮像装置を用いて、通常の画角の撮像装置に比べて広い範囲を一度に撮像する方式が知られている。これら広範囲撮像装置は、広い範囲を一度に捉えることができる一方で、広範囲撮像装置で撮像された画像は、円形に歪み、円周部に近づくほど歪みは大きくなる。また、広範囲撮像装置では、撮像される範囲が広いことや、画像に歪みがあることに起因して、撮像画像から人を検出するための処理に時間がかかる傾向がある。
特許文献1には、魚眼レンズカメラで撮像された画像から人体を検出するとき、画像の領域ごとに重みづけを行ってから、人体を検出することが開示されている。特許文献1では、魚眼レンズカメラで撮像された画像の中心部分と周辺部分との歪みの大きさに応じて異なる重み係数を乗じた特徴量を元に、領域抽出を行う。画像の周辺部の重み係数を2とし、画像の円周付近の重み係数を1として特徴量を計算することで、画像の周辺部に存在する人体を検出しやすくする。
また、特許文献2には、音声で異常を検知し、検知した方向の画像を取得し、取得した画像上の特徴量を抽出することが開示されている。特許文献2では、音声の異常を検知した方向の画像に限定して、特徴量を抽出する。
特開2007−244734号公報 特開2003−152826号公報
しかしながら、魚眼レンズカメラで撮影された画像は、その撮像範囲が広いために、画像全体で人体の検出を行うと、処理に時間を要する。
特許文献1では、画像の領域ごとに重みづけを行い、人体の検出しやすさを制御する。しかしながら、人体の検出処理では、画像を端からラスタースキャンする必要がある。このために、人体の検出処理にかかる時間は依然長いままである。
また、特許文献2では、音声の異常を検知した方向の画像に限定して特徴量を抽出する方法である。このため、音声の異常が検知されなかった領域における画像の特徴量を抽出することができない。
そこで、本発明は、魚眼レンズを介して撮像された画像上の認識対象を効率よく検出することを目的とする。
本発明の画像処理装置は、魚眼レンズを備える撮像装置の設置方向に応じて、当該撮像装置で撮像された画像の歪みを補正する補正手段と、前記補正手段により歪みが補正された画像に対して所定の認識対象の認識処理を行う認識手段と、前記魚眼レンズを備える撮像装置の設置方向に応じて、前記認識対象の認識処理を開始する位置を決定する決定手段と、を有し、前記認識手段は、前記決定手段により決定された位置から、前記認識処理を開始することを特徴とする。
本発明によれば、魚眼レンズを介して撮像された画像上の認識対象を効率よく検出することができる。
画像処理装置の構成の第1の例を示す図である。 フレーム間隔、人体検出処理間隔、人体処理時間の関係を示す図である。 撮像画像の第1の例を示す図である。 撮像画像の第2の例を示す図である。 画像処理装置の動作の第1の例を説明するフローチャートである。 画像処理装置の構成の第2の例を示す図である。 画像処理装置の動作の第2の例を説明するフローチャートである。 画像処理装置のハードウェアの構成を示す図である。
以下、添付の図面を参照して、本発明の実施形態を説明する。尚、以下の実施形態において示す構成は一例に過ぎず、本発明は、以下の実施形態の構成に限定されるものではない。
<第1の実施形態>
まず、第1の実施形態を説明する。
図1は、本実施形態の画像処理装置100の構成の一例を示すブロック図である。
図1において、画像処理装置100は、画像取得部101、解像度変換部102、設置方向取得部103、人体検出優先領域決定部104、歪み補正部105、認識処理部106、配信・記録部107、および制御部108を有する。
画像取得部101は、魚眼レンズ、魚眼レンズを介した画像を撮像する撮像素子、およびフレームメモリを有する。魚眼レンズ介して撮像された画像は、一旦、フレームメモリに保存され、所定のフレームレートで解像度変換部102へ送られる。このように本実施形態では、画像処理装置100が撮像装置である場合を例に挙げて説明する。以下の説明では、画像処理装置100を必要に応じてカメラと称する。尚、魚眼レンズを備える画像取得部101を撮像装置として画像処理装置100の外部に設けてもよい。このようにした場合、画像処理装置100は、当該撮像装置から魚眼レンズを介して撮像された画像を取得する。
解像度変換部102は、画像取得部101で取得された画像を、画像解析用に低解像度の画像に変換したり、配信用に適した解像度の画像に変換したりする。また、解像度変換部102は、解像度の変換のみでなく、フレームレートの変換も必要により行う。
設置方向取得部103は、カメラの設置方向の情報を取得する。本実施形態では、設置方向取得部103は、カメラが天井に設置されているか、または、カメラが壁面(側面)に設置されているかという情報を、カメラの設置方向の情報の一例として取得する。カメラが天井に設置されている場合には、カメラの中心光軸は鉛直方向を向く。すなわち、カメラの中心光軸と、水平面(地面や天井面)とが垂直に交わる。また、カメラが壁面に設置されている場合には、カメラの中心光軸は垂直方向を向く。すなわち、カメラの中心光軸と、水平面(地面や天井面)とが平行になる。
このように本実施形態では簡単のため、カメラの設置を、天井または壁面に行う場合に限定する。しかしながら、カメラの設置方向は、このようなものに限定されない。カメラを壁面に対し角度をつけて設置する等、カメラを任意の方向に設置する場合であっても、本実施形態で説明する手法を適用することができる。
カメラの設置方向を取得する方法は限定されない。例えば、ユーザがカメラの設置方向を画像処理装置100に対して手動で設定する方法や、画像取得部101で取得された画像からカメラの設置方向を画像処理装置100が自動で取得する方法等、どのような方法でカメラの設置方向を取得してもよい。
図1に示す例では、画像取得部101で取得された画像からカメラの設置方向を画像処理装置100が自動で取得できるように、解像度変換部102から設置方向取得部103に、解像度が変換された画像を出力できるようにしている。具体的に、解像度変換部102は、例えば、画像取得部101で最初に取得された画像に対し、歪み補正部105に出力する画像よりも低解像度に変換した画像を設置方向取得部103に出力する。設置方向取得部103は、解像度変換部102から出力された画像の特徴に基づいて、カメラの設置方向を判定する。画像の特徴としては、例えば、後述する図3、図4の左図に示す人体の配置が挙げられる。
このようにする場合、後述する認識処理部106における人体の検出処理を画像の全体の領域に対して行うのが好ましい。カメラの設置方向の判定は、1回行えばよい。従って、画像取得部101で最初に取得された画像から人体が検出され、カメラの設置方向の判定に成功した場合、画像取得部101で2回目以降に取得された画像については、解像度変換部102から設置方向取得部103に出力しなくてよい。最初に取得された画像から人体が検出されず、カメラの設置方向が取得できなかった場合、カメラの設置方向が取得できるまで、解像度変換部102から設置方向取得部103へ画像が出力されることになる。
尚、設置方向取得部103に出力する画像の解像度は、必ずしも、歪み補正部105に出力する画像よりも低解像度である必要はない。例えば、歪み補正部105に出力する画像と同じ解像度の画像を設置方向取得部103に出力してもよい。また、設置方向取得部103が取得する画像は、画像取得部101で最初に取得された画像に限定されない。また、ユーザがカメラの設置方向を画像処理装置100に対して手動で設定する場合、設置方向取得部103は、解像度変換部102から画像を取得する必要はない。
人体検出優先領域決定部104は、カメラの設置方向に応じて、認識対象の一例である人体の検出処理を開始する領域を決定する。本実施形態の説明では、この領域を必要に応じて優先領域と称する。このように、本実施形態では、撮像された画像全体の端からラスタースキャンするのではなく、カメラの設置方向に応じた優先領域から人体の検出処理を開始する。本実施形態では、魚眼レンズを介して撮像される画像の特性から、カメラの設置方向別に決定された優先領域を、画像処理装置100に事前に記憶しておく。人体検出優先領域決定部104は、カメラの設置方向と相互に関連付けられて記憶されている優先領域を、当該カメラの設置方向に応じた優先領域として決定する。
歪み補正部105は、解像度変換部102で解像度が変換された画像の全体の領域に対して、カメラの設置方向に適した歪み補正処理を行う。本実施形態では、カメラの設置方向別に決定された歪み補正処理の方法を、画像処理装置100に事前に記憶しておく。そして、歪み補正部105は、解像度変換部102で解像度が変換された画像に対して、設置方向取得部103で取得されたカメラの設置方向に関連付けられて記憶されている方法の歪み補正処理を行う。
認識処理部106は、歪み補正部105で歪み補正処理が行われた後の画像の全体の領域のうち、人体検出優先領域決定部104で決定された優先領域から、人体の検出処理(認識処理)を実行する。認識処理部106は、例えば、画像の特徴量と、予め登録されている人体の特徴量とを比較することにより、人体の領域を抽出する等、公知の画像認識処理を利用して、人体の検出処理を行うことができる。
認識処理部106による人体の検出結果は、画像取得部101で取得された画像、あるいは、解像度変換部102で解像度が変換画像や歪み補正部105で歪みが補正された画像と共に、配信・記録部107により外部へ配信または録画装置等へ記録される。尚、配信と記録の双方を行ってもよい。
制御部108は、CPU等によって構成され、画像処理装置100全体を統括制御する。
図2は、画像のフレーム間隔、人体検出処理間隔および人体処理時間の関係の一例を示す図である。
画像のフレーム間隔201は、画像取得部101で取得される画像のフレーム間隔を示す。すなわち、図2に示す例では、画像取得部101は、このフレーム間隔で画像を取得する。
人体検出処理間隔202は、人体の検出処理の間隔を示す。図2に示す例では、3フレーム分のフレーム間隔201(3フレーム分の画像を取得するのに要する時間)で、1枚の画像上の人体の検出を実行する。図2に示す例では、認識処理部106は、この人体検出処理間隔202で人体の認識処理を行う。
人体検出処理時間203は、人体の検出処理に要する時間を示す。時間204、205、206は、人体の検出処理に要する時間の例である。時間204、205、206のように、人体の検出処理に要する時間は、画像の複雑具合や、人体の存在数により大幅に異なる。例えば、時間204のように、2フレーム分のフレーム間隔201で人体の検出処理が終了する場合がある一方、時間205のように、3フレーム分のフレーム間隔201でも人体の検出処理が終了しない場合もある。
そこで、画像処理システムを実時間で動作させるときには、次のようにする。すなわち、一定の人体検出処理間隔202(一定のフレーム間隔)で人体の検出処理が終了しない場合、その時点で人体の検出処理を打ち切り(時間205の中に示されている白と黒の境界線を参照)、次の人体の検出処理を開始する(時間206を参照)。そのため、本来、人体の検出処理を行うべき時間205の残りの時間207には、人体の検出処理の打ち切りのために、当該人体の検出処理は実行されない。したがって、この残りの時間207で検出されるべき人体は未検出となる。これは、人体の検出精度に影響を及ぼし、人体の検出精度が低下する原因となる。
人体の検出精度を保ち、さらに実時間の動作を可能にするためには、人体の検出処理期間の開始部分で人体を多く検出できれば、人体の検出処理の打ち切りがあっても、人体の検出精度をそれほど低下させることなく、実時間での処理が可能になる。そのため、本実施形態の画像処理装置では、人体をより多く検出できる優先領域を人体検出優先領域決定部104にて決定し、決定した優先領域から優先して人体の検出処理を行う。
人体検出優先領域決定部104は、人体をより多く検出できる領域を、魚眼レンズを介して撮像される画像の特性から決定する。魚眼レンズを介して撮像される画像では、カメラの設置方向により、人体が検出される領域が異なる。このような特徴を使い、それぞれの設置方向別に、人体の検出処理を優先的に処理する領域を決定することで、人体検出処理期間の開始部分でより多くの人体を検出することができる。
図3は、魚眼レンズを備えるカメラを天井に設置した場合の撮像画像と、当該撮像画像を展開した画像の一例を概念的に示す図である。また、図4は、魚眼レンズを備えるカメラを壁面(側壁)に設置した場合の撮像画像と、当該撮像画像を展開した画像の一例を概念的に示す図である。
まず、図3を参照しながら、カメラを天井に設置した場合の画像の展開処理と人体の認識処理の一例を説明する。
図3の左図(白抜き矢印線よりも左側の図)において、撮像画像301は、魚眼レンズを備えるカメラが出力する画像である。円環画像302は、魚眼レンズを備えるカメラにより撮像される画像である。円環画像302には、人体303a、304a、305aが映し出されている。魚眼レンズを備えるカメラを天井に設置した場合、円環画像302の中心部306の内部では、人体は上からの撮影で頭部と肩部分が撮影されるので、人体として検出されにくい。そのため、カメラを天井に設置した場合、人体は、ほぼ、円環画像302の中心部306と円周部307の間の領域で検出される。
また、魚眼レンズを備えるカメラを天井に設置した場合、人体は、図3の左図に示す人体303a、304a、305aのように、円環画像302上において、放射状に検出される特徴がある。図3の左図に示すように、カメラを天井に設置した場合には、円環画像302の中心部306と円周部307の間の領域で人体が検出されやすい。
したがって、人体検出優先領域決定部104は、例えば、この領域を、優先領域として決定する。また、前述したように、本実施形態では、歪み補正部105は、図3の左図に示す円環画像302の全ての領域に対して歪み補正処理を行う。具体的に、歪み補正部105は、図3の右図(白抜き矢印線よりも右側の図)のように、図3の左図に示す円環画像302の全ての領域をダブルパノラマ展開する。
このように図3の右図は、図3の左図に示す円環画像302をダブルパノラマ展開した画像である。人体303b、304b、305bは、それぞれ、人体303a、304a、305aが展開されたものである。
認識処理部106は、このようにしてダブルパノラマ展開された画像に対して人体の検出処理を行う。このとき、認識処理部106は、ダブルパノラマ展開された画像の領域のうち、人体検出優先領域決定部104で決定された優先領域から、人体の検出処理を行う。このように、ダブルパノラマ展開された画像の領域に対し、優先領域をその他の領域よりも優先して人体の検出処理を行うことで、人体の検出処理の期間の開始部分でより多くの人体を検出することができる。その結果、人体の検出処理の打ち切りがあっても、人体の検出処理の精度を保つことが可能となる。
本実施形態では、展開方法を、円環画像302をダブルパノラマ展開とする場合を例に挙げて説明した。しかしながら、カメラを天井に設置した場合に適した展開方法であれば、その他の展開方法であっても構わない。
また、本実施形態では、円環画像302の全ての領域をダブルパノラマ展開する場合を例に挙げて説明した。このようにすれば、例えば、ダブルパノラマ展開された画像を、人体の検出処理以外の用途に使用することができる。しかしながら、例えば、ダブルパノラマ展開された画像を人体の検出処理だけに用いる場合には、円環画像302の領域のうち、人体検出優先領域決定部104で決定された優先領域のみをダブルパノラマ展開してもよい。このようにする場合、優先領域を示す情報は、人体検出優先領域決定部104から認識処理部106ではなく、歪み補正部105に出力される。また、ダブルパノラマ展開された画像の領域は優先領域のみであるので、認識処理部106は、当該画像の全体に対し、人体の検出処理を行う。さらに、当該人体の検出処理が終了しても、人体の検出処理が打ち切られない場合、例えば、円環画像302の領域のうち、その他の領域をダブルパノラマ展開し、当該ダブルパノラマ展開された画像に対し、人体の検出処理を行うことができる。
次に、図4を参照しながら、カメラを壁面(側壁)に設置した場合の画像の展開処理と人体の認識処理の一例を説明する。
図4の左図(白抜き矢印線よりも左側の図)において、撮像画像401は、魚眼レンズを備えるカメラが出力する画像である。円環画像402は、魚眼レンズを備えるカメラにより撮像される画像である。円環画像402には、人体403a、404a、405aが映し出されている。魚眼レンズを備えるカメラを壁面に設置した場合、人体は、円環画像402の中央部406の内部で検出される。円環画像402の上部或いは下部の領域は、天井であったり床面であったりするため、この領域に人体が存在する可能性は低い。
このように、カメラを壁面に設置した場合には、円環画像402の中心部406の内部で人体が検出されやすい。したがって、人体検出優先領域決定部104は、例えば、この領域を、優先領域として決定する。また、前述したように、本実施形態では、歪み補正部105は、図3の左図に示す円環画像402の全ての領域に対して歪み補正処理を行う。具体的に、歪み補正部105は、図4の右図(白抜き矢印線よりも右側の図)のように、図4の左図に示す円環画像402の全ての領域をパノラマ展開する。
このように図4の右図は、図4の左図に示す円環画像402をパノラマ展開した画像である。人体403b、404b、405bは、それぞれ、人体403a、404a、405aが展開されたものである。
認識処理部106は、このようにしてパノラマ展開された画像に対して人体の検出処理を行う。このとき、認識処理部106は、パノラマ展開された画像の領域のうち、人体検出優先領域決定部104で決定された優先領域から、人体の検出処理を行う。このように、パノラマ展開された画像の領域に対し、優先領域をその他の領域よりも優先して人体の検出処理を行うことで、人体の検出処理の期間の開始部分でより多くの人体を検出することができる。その結果、人体の検出処理の打ち切りがあっても、人体の検出処理の精度を保つことが可能となる。
本実施形態では、展開方法をパノラマ展開とする場合を例に挙げて説明した。しかしながら、カメラを壁面に設置した場合に適した展開方法であれば、その他の展開方法であっても構わない。
また、本実施形態では、円環画像402の全ての領域をパノラマ展開する場合を例に挙げて説明した。しかしながら、図3を参照しながら説明したのと同様に、例えば、円環画像402の領域のうち、人体検出優先領域決定部104で決定された優先領域のみをパノラマ展開してもよい。
次に、図5のフローチャートを参照しながら、前記の動作を実現するための本実施形態の画像処理装置100の動作の一例を説明する。
まず、ステップS501において、画像取得部101は、魚眼レンズを介して撮像した画像を取得し、内部のフレームメモリに保存する。フレームメモリに保存された画像は、解像度変換部102へ送られる。
次に、ステップS502において、解像度変換部102は、画像取得部101で取得された画像を、後段の処理(配信または記録)に適した解像度およびフレームレートの画像に変換する。後段の処理に適した解像度およびフレームレートに変換された画像は、後段の設置方向取得部103、歪み補正部105、および配信・記録部107へ送られる。
次に、ステップS503において、設置方向取得部103は、カメラの設置方向の情報を取得する。前述したように本実施形態では、カメラの設置方向は、カメラが天井に設置されていることと、壁面に設置されていることと、の何れかになる。また、前述したように、カメラの設置方向は、撮像画像から自動で判断しても、ユーザにより事前に設定される情報から判断してもよい。取得されたカメラの設置方向の情報は、人体検出優先領域決定部104と歪み補正部105へ送られる。
次に、ステップS504において、人体検出優先領域決定部104は、カメラの設置方向の情報に基づいて、カメラが天井に設置されているか否かを判断する。この判断の結果、カメラが天井に設置されている場合、処理はステップS505に進む。一方、カメラが天井に設置されていない場合、すなわち、カメラが壁面に設置されている場合には、ステップS508へ処理が進む。
まず、ステップS505において、人体検出優先領域決定部104は、円環画像302の中心部306と円周部307の間の領域に優先領域を設定する(図3の左図を参照)。設定された優先領域を示す情報は、認識処理部106へ送られる。
次に、ステップS506において、歪み補正部105は、カメラが天井に設置されている場合の画像の歪み補正としてダブルパノラマ変換を円環画像302に対して行う(図3の右図を参照)。ダブルパノラマ変換された画像は認識処理部106へ送られる。
次に、ステップS507において、認識処理部106は、ステップS506でダブルパノラマ変換された画像の領域のうち、ステップS505で設定された優先領域から人体の検出処理を実行する。優先領域における人体の検出処理が終了しても、人体検出処理間隔202に対応する時間が経過していない場合、認識処理部106は、ステップS506でダブルパノラマ変換された画像のその他の領域に対して人体の検出処理を実行する。検出された結果は、配信・記録部107へ送られる。そして、後述するステップS510に進む。尚、優先領域やその他の領域に対する人体の検出処理は、例えば、ラスタースキャン順に行われる。
前述したように、ステップS504において、カメラが天井に設置されていない(カメラが壁面に設置されている)と判断された場合、処理はステップS508へ進む。ステップS508に進むと、人体検出優先領域決定部104は、円環画像402の中央部406に優先領域を設定する(図4の左図を参照)。設定された優先領域を示す情報は、認識処理部106へ送られる。
次に、ステップS509において、歪み補正部105は、カメラが壁面に設置されている場合の画像の歪み補正としてパノラマ変換を円環画像402に対して行う(図4の右図を参照)。パノラマ変換された画像は認識処理部106へ送られる。
そして、前述したようにステップS507に進み、認識処理部106は、ステップS509でパノラマ変換された画像の領域のうち、ステップS508で設定された優先領域から人体の検出処理を実行する。優先領域における人体の検出処理が終了しても、人体検出処理間隔202に対応する時間が経過していない場合、認識処理部106は、ステップS509でパノラマ変換された画像のその他の領域に対して人体の検出処理を実行する。検出された結果は、配信・記録部107へ送られる。そして、ステップS510に進む。尚、優先領域やその他の領域に対する人体の検出処理は、例えば、ラスタースキャン順に行われる。
ここで、前述した例では、優先領域における人体の検出処理が終了しても、人体検出処理間隔202に対応する時間が経過していない場合、その他の領域に対して人体の検出処理を行うようにした(ステップS507の説明を参照)。しかしながら、このような場合であっても、当該その他の領域における人体の検出処理を行わないようにしてもよい。
ステップS510に進むと、配信・記録部107は、認識処理部106において認識された結果と、解像度変換部102において配信または記録に適した解像度およびフレームレートに変換された画像とを、配信または記録する。そして、図5のフローチャートによる処理を終了する。
以上のように本実施形態では、カメラの設置方向に応じて、撮像される画像の領域のうち相対的に人体が多く検出される領域を優先領域として設定する。そして、設定した優先領域から、人体の検出処理を優先的に開始する。したがって、人体検出処理間隔202が短い実時間処理においても、検出精度を大きく落とすことなく効率的に人体を検出することが可能になる。
尚、本実施形態では、カメラの設置方向が、天井の設置または壁面の設置に限定した場合を例に挙げて説明した。しかしながら、カメラの設置方向は、これら2つの方向に限られない。任意のカメラの設置方向における画像上の特徴から、相対的に人体が多く検出される領域を決定し、決定した領域を当該設置方向に対応する優先領域として人体の検出処理を実行することが可能である。
また、本実施形態では、認識処理部106が人体の検出処理を行う場合を例に挙げて説明した。しかしながら、検出対象は人体に限定されない。例えば、検出処理により、個人を識別することができるようにしていればよく、例えば、顔の検出処理等であってもよい。
また、本実施形態では、優先領域を設定する場合を例に挙げて説明した。しかしながら、歪み補正を開始する位置を指定できるようにしていれば、必ずしもこのようにする必要はない。例えば、優先領域のうち、ラスタースキャン順で最初の画素を指定してもよい。
<第2の実施形態>
次に、第2の実施形態を説明する。
第1の実施形態では、人体の検出処理を開始する位置(優先領域)を、カメラの設置方向のみに応じて設定する場合を例に挙げて説明した。これに対し、本実施形態では、人体の検出処理を開始する位置(優先領域)を、カメラの設置方向と、動体検出結果とに応じて設定する。このように本実施形態と第1の実施形態とは、人体の検出処理を開始する位置(優先領域)を設定する方法の一部が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図5に付した符号と同一の符号を付す等して詳細な説明を省略する。
図6において、画像処理装置100は、画像取得部101、設置方向取得部103、歪み補正部105、認識処理部106、配信・記録部107、解像度変換部601、動体検出部602、人体検出優先領域決定部603、および制御部604を有する。画像取得部101、設置方向取得部103、歪み補正部105、認識処理部106、および配信・記録部107は、図1に示したものと同じである。
解像度変換部601は、第1の実施形態の解像度変換部102と同様に、画像取得部101で取得された画像を、画像解析用に低解像度の画像に変換したり、配信用に適した解像度の画像に変換したりする。また、解像度変換部601は、解像度の変換のみでなく、フレームレートの変換も必要により行う。
第1の実施形態では、解像度変換部102は、例えば、設置方向取得部103においてカメラの設置方向が取得されるまでの画像についてのみ、解像度を変換した画像を設置方向取得部103に出力すればよい。これに対し、本実施形態の解像度変換部601は、例えば、画像取得部101で取得された各フレームの画像について、解像度を変換した画像を動体検出部602に出力する。後述する動体検出部602における動体の検出には、各フレームの画像が必要だからである。
また、解像度変換部601は、歪み補正部105に出力する画像よりも低解像度の画像を動体検出部602に出力する。第1の実施形態では、解像度変換部102から設置方向取得部103への画像の出力は、設置方向取得部103がカメラの設置方向を取得するまででよい。これに対し、本実施形態では、解像度変換部601から動体検出部602への画像は、毎フレーム出力される。したがって、低解像度の画像を動体検出部602に出力することによる処理時間の短縮効果は、第1の実施形態よりも第2の実施形態の方が大きい。ただし、処理時間を確保することができれば、動体検出部602に出力する画像の解像度を、必ずしも、歪み補正部105に出力する画像よりも低解像度にする必要はない。例えば、歪み補正部105に出力する画像と同じ解像度の画像を動体検出部602に出力してもよい。
動体検出部602は、解像度変換部601により解像度等が変換された画像上に存在する人等の動く物体を検出する。動く物体の検出は、例えば、背景差分法により行うことができる。ただし、動く物体の検出方法は、背景差分法に限定されない。例えば、動きベクトルを用いて動く物体を検出してもよい。
人体検出優先領域決定部603は、動体検出部602で得られた動体が存在する領域と、設置方向取得部103によって得られたカメラの設置方向に応じた領域とが重なる領域を設定する。本実施形態では、この重なる領域を必要に応じて優先領域と称する。ここで、設置方向取得部103によって得られたカメラの設置方向に応じた領域は、第1の実施形態で説明した優先領域(カメラの設置方向における画像上の特徴から定められる領域であって、相対的に人体が多く検出される領域)である。具体的に、当該領域は、図3の左図に示す例では、円環画像302の中心部306と円周部307の間の領域であり、図4の左図に示す例では、円環画像402の中央部406の領域である。
制御部604は、CPU等によって構成され、画像処理装置600全体を統括制御する。
次に、図7のフローチャートを参照しながら、本実施形態の画像処理装置600の動作の一例を説明する。
まず、ステップS701において、画像取得部101は、魚眼レンズを介して撮像した画像を取得し、内部のフレームメモリに保存する。フレームメモリに保存された画像は、解像度変換部601に送られる。
次に、ステップS702において、解像度変換部601は、画像取得部101で取得された画像を、後段の処理(配信または記録)に適した解像度およびフレームレートの画像に変換する。後段の処理に適した解像度およびフレームレートに変換された画像は、動体検出部602、歪み補正部105、および配信・記録部107へ送られる。
次に、ステップS703において、動体検出部602は、解像度変換部601から出力された画像上の動体を検出する。検出された結果は、設置方向取得部103を経由し、人体検出優先領域決定部603へ送られる。
次に、ステップS704において、設置方向取得部103は、カメラの設置方向の情報を取得する。本実施形態でも第1の実施形態で説明した図5のフローチャートと同様に、カメラの設置方向が、カメラが天井に設置されていることと、壁面に設置されていることと、の何れかである場合を例に挙げて説明する。また、第1の実施形態で説明したように、設置方向取得部103は、カメラの設置方向を、撮像画像から自動で判断しても、ユーザにより事前に手動で設定される情報から判断してもよい。取得されたカメラの設置方向の情報は、人体検出優先領域決定部603と歪み補正部105へ送られる。
次に、ステップS705において、人体検出優先領域決定部603は、カメラの設置方向の情報に基づいて、カメラが天井に設置されているか否かを判断する。この判断の結果、カメラが天井に設置されている場合、処理はステップS706に進む。一方、カメラが天井に設置されていない場合、すなわち、カメラが壁面に設置されている場合には、ステップS709へ処理が進む。
まず、ステップS706において、人体検出優先領域決定部603は、動体の検出結果と、カメラの設置方向とに基づいて、優先領域を設定する。ここでは、カメラは天井に設置されていることから、図3に示す円環画像302の中心部306と円周部307の間の領域において人体が検出されやすい。したがって、人体検出優先領域決定部603は、動体の検出結果から、円環画像302の中心部306と円周部307の間の領域内に存在する動体の領域を、優先領域として設定する。設定された優先領域を示す情報は、認識処理部106へ送られる。
次に、ステップS707において、歪み補正部105は、カメラが天井に設置されている場合の画像の歪み補正としてダブルパノラマ変換を円環画像302に対して行う(図3の右図を参照)。ダブルパノラマ変換された画像は認識処理部106へ送られる。
次に、ステップS708において、認識処理部106は、ステップS707でダブルパノラマ変換された画像の領域のうち、ステップS706で設定された優先領域から人体の検出処理を実行する。優先領域における人体の検出処理が終了しても、人体検出処理間隔202に対応する時間が経過していない場合、認識処理部106は、ステップS707でダブルパノラマ変換された画像のその他の領域に対して人体の検出処理を実行する。検出された結果は、配信・記録部107へ送られる。そして、後述するステップS711に進む。尚、優先領域やその他の領域に対する人体の検出処理は、例えば、ラスタースキャン順に行われる。
前述したように、ステップS705において、カメラが天井に設置されていない(カメラが壁面に設置されている)と判断された場合、処理はステップS709へ進む。ステップS709に進むと、人体検出優先領域決定部603は、動体の検出結果と、カメラの設置方向とに基づいて、優先領域を設定する。ここでは、カメラは壁面に設置されていることから、図4に示す円環画像402の中央部406の内部の領域において人体が検出されやすい。したがって、人体検出優先領域決定部603は、動体検知の結果から、円環画像402の中央部406の領域内に存在する動体の領域を、優先領域として設定する。設定された優先領域を示す情報は、認識処理部106へ送られる。
次に、ステップS710において、歪み補正部105は、カメラが壁面に設置されている場合の画像の歪み補正としてパノラマ変換を円環画像402に対して行う(図4の右図を参照)。パノラマ変換された画像は認識処理部106へ送られる。そして、ステップS708に進む。
そして、前述したようにステップS708に進み、認識処理部106は、ステップS710でパノラマ変換された画像の領域のうち、ステップS709で設定された優先領域から人体の検出処理を実行する。優先領域における人体の検出処理が終了しても、人体検出処理間隔202に対応する時間が経過していない場合、認識処理部106は、ステップS710でパノラマ変換された画像のその他の領域に対して人体の検出処理を実行する。検出された結果は、配信・記録部107へ送られる。そして、ステップS711に進む。尚、優先領域やその他の領域に対する人体の検出処理は、例えば、ラスタースキャン順に行われる。
ステップS711に進むと、配信・記録部107は、認識処理部106において認識された結果と、解像度変換部601から出力された画像とを、配信または記録する。そして、図5のフローチャートによる処理を終了する。
以上のように本実施形態では、カメラの設置方向と画像における動体の検出結果とに基づいて、撮像される画像の領域のうち相対的に人体が多く検出される領域のうち、動体の領域を優先領域として設定する。そして、設定した優先領域から、人体の検出処理を優先的に開始する。したがって、動く動体をより優先的に検出することができる。したがって、人体検出処理間隔202が短い実時間処理においても、検出精度を大きく落とすことなくより効率的に人体を検出することが可能になる。
本実施形態においても第1の実施形態で説明した種々の変形例を採用することができる。例えば、カメラの設置方向は、前述した2つの方向に限られない。本実施形態でも、任意のカメラの設置方向における画像上の特徴から、相対的に人体が多く検出される領域を特定し、特定した領域のうち動体の領域を、当該設置方向に対応する優先領域として人体の検出処理を実行することが可能である。
また、検出対象は人体に限定されない。例えば、検出処理により、個人を識別することができるようにしていればよく、例えば、顔の検出処理等であってもよい。
その他、解像度変換部601で解像度等が変換された画像の領域のうち、優先領域に対して歪み補正を行い、当該歪み補正を行った画像に対して人体の検出処理を行うようにしてもよい。また、歪み補正を開始する位置を指定できるようにしていれば、優先領域(そのもの)を設定しなくてもよい。
図8は、前述した第1、第2の実施形態の画像処理装置100、600のハードウェアの構成の一例を示す図である。
画像処理装置は、魚眼レンズ801、撮像素子802、A/D変換回路803、画像処理回路804、フレームメモリ805、CPU806、記憶媒体807および通信装置808を有する。
魚眼レンズ801を通過した光は、撮像素子802の撮像面上に結像する。A/D変換回路803は、撮像素子802から送られてきたアナログ信号をデジタル信号(画像信号)に変換する。画像処理回路804は、A/D変換回路803から画像信号を読み出してフレームメモリ805に保存し、所定のフレームレートで各種の信号処理を行う。記憶媒体807は、例えば、ROM、RAMおよびHDD等を備える。記憶媒体807は、前述した図5、図7のフローチャート等を実行するプログラムを記憶する。記憶媒体807は、その他、前述した各実施形態の処理で必要な各種の情報を記憶する。CPU806は、記憶媒体807に記憶されたプログラムを実行して、前述した各実施形態の処理を行う。その他、CPU806は、画像処理装置全体を統括制御するための処理を行う。通信装置808は、外部装置との通信を行うためのものである。入出力装置809は、ユーザインターフェースであり、各種の操作部を備える。また、入出力装置809は、ディスプレイを備えていてもよい。
<その他の実施形態>
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良い。また、一つの機器からなる装置に適用しても良い。
また、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
103:設置方向取得部、104、603:人体検出優先領域決定部、105:歪み補正部、106:認識処理部、602:動体検出部

Claims (9)

  1. 魚眼レンズを備える撮像装置の設置方向に応じて、当該撮像装置で撮像された画像の歪みを補正する補正手段と、
    前記補正手段により歪みが補正された画像に対して所定の認識対象の認識処理を行う認識手段と、
    前記魚眼レンズを備える撮像装置の設置方向に応じて、前記認識対象の認識処理を開始する位置を決定する決定手段と、を有し、
    前記認識手段は、前記決定手段により決定された位置から、前記認識処理を開始することを特徴とする画像処理装置。
  2. 前記魚眼レンズを備える撮像装置で撮像された画像に含まれる動体を検出する検出手段を更に有し、
    前記決定手段は、前記魚眼レンズを備える撮像装置の設置方向と、前記検出手段により検出された動体の位置と、に応じて、前記認識対象の認識処理を開始する位置を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記魚眼レンズを備える撮像装置で撮像された画像の領域のうち、前記認識対象の認識処理を優先的に行う領域を決定し、
    前記認識手段は、前記決定手段により決定された領域に対し、前記画像のその他の領域よりも優先して前記認識処理を行うことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記補正手段は、前記魚眼レンズを備える撮像装置で撮像された画像の全体の領域を補正し、
    前記認識手段は、前記補正手段により歪みが補正された後の前記画像の全体の領域のうち、前記決定手段により決定された領域に対し、当該歪みが補正された後の画像のその他の領域よりも優先して前記認識処理を行うことを特徴とする請求項3に記載の画像処理装置。
  5. 前記魚眼レンズを備える撮像装置の設置方向の情報を取得する取得手段を更に有することを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
  6. 前記認識対象は、人体または顔であることを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。
  7. 前記魚眼レンズを備える撮像装置の設置方向は、前記撮像装置の中心光軸と水平面とが垂直に交わる方向である鉛直方向と、前記撮像装置の中心光軸と水平面とが平行になる方向である垂直方向との何れかであることを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。
  8. 魚眼レンズを備える撮像装置の設置方向に応じて、当該撮像装置で撮像された画像の歪みを補正する補正工程と、
    前記補正工程により歪みが補正された画像に対して所定の認識対象の認識処理を行う認識工程と、
    前記魚眼レンズを備える撮像装置の設置方向に応じて、前記認識対象の認識処理を開始する領域を決定する決定工程と、を有し、
    前記認識工程は、前記決定工程により決定された領域から、前記認識処理を開始することを特徴とする画像処理方法。
  9. 請求項1〜7の何れか1項に記載の画像処理装置の各手段としてコンピュータを機能させることを特徴とするプログラム。
JP2014162573A 2014-07-22 2014-08-08 画像処理装置、撮像装置、画像処理方法およびプログラム Active JP6381353B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014162573A JP6381353B2 (ja) 2014-08-08 2014-08-08 画像処理装置、撮像装置、画像処理方法およびプログラム
EP15002118.6A EP2988248B1 (en) 2014-07-22 2015-07-16 Image processing apparatus, image processing method, information processing apparatus, information processing method, and program
US14/804,766 US20160028951A1 (en) 2014-07-22 2015-07-21 Image processing apparatus, image processing method, information processing apparatus, information processing method, and program
CN201510434886.5A CN105306813B (zh) 2014-07-22 2015-07-22 图像处理装置及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014162573A JP6381353B2 (ja) 2014-08-08 2014-08-08 画像処理装置、撮像装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2016039539A true JP2016039539A (ja) 2016-03-22
JP2016039539A5 JP2016039539A5 (ja) 2017-09-21
JP6381353B2 JP6381353B2 (ja) 2018-08-29

Family

ID=55530286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014162573A Active JP6381353B2 (ja) 2014-07-22 2014-08-08 画像処理装置、撮像装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6381353B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042105A (ja) * 2016-09-07 2018-03-15 東芝テリー株式会社 監視画像処理装置及び監視画像処理方法
JP2018042129A (ja) * 2016-09-08 2018-03-15 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018149990A (ja) * 2017-03-14 2018-09-27 オムロン株式会社 運転者の着座判定装置
JP2019115031A (ja) * 2017-12-25 2019-07-11 キヤノン株式会社 情報処理装置、システム、情報処理方法及びプログラム
US10965858B2 (en) 2017-11-30 2021-03-30 Canon Kabushiki Kaisha Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium for detecting moving object in captured image
DE112019006414T5 (de) 2018-12-26 2021-09-16 Omron Corporation Vorrichtung und Verfahren zur Detektion von Menschen
DE112019006463T5 (de) 2018-12-27 2021-09-16 Omron Corporation Personendetektionsvorrichtung und personendetektionsverfahren
DE112020001202T5 (de) 2019-03-11 2021-12-09 Omron Corporation Objektverfolgungsvorrichtung und Objektverfolgungsverfahren
DE112020001706T5 (de) 2019-04-01 2022-01-05 Omron Corporation Personenerkennungsvorrichtung und personenerkennungsverfahren
US11341670B2 (en) 2018-10-18 2022-05-24 Panasonic Intellectual Property Corporation Of America Information processing device, information processing method, and recording medium
US11983951B2 (en) 2018-12-26 2024-05-14 Omron Corporation Human detection device and human detection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007055335A1 (ja) * 2005-11-11 2007-05-18 Sony Corporation 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体
WO2008035411A1 (fr) * 2006-09-20 2008-03-27 Fujitsu Limited Dispositif de détection d'informations de corps mobile, procédé de détection d'informations de corps mobile et programme de détection d'informations de corps mobile
JP2009015313A (ja) * 2007-06-05 2009-01-22 Yamaha Corp カメラシステム
WO2013001941A1 (ja) * 2011-06-27 2013-01-03 日本電気株式会社 物体検知装置、物体検知方法および物体検知プログラム
JP2014036323A (ja) * 2012-08-08 2014-02-24 Ntt Docomo Inc 表示端末、操作受付方法及びプログラム
JP2014042160A (ja) * 2012-08-22 2014-03-06 Ntt Docomo Inc 表示端末、動体検知の対象領域の設定方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007055335A1 (ja) * 2005-11-11 2007-05-18 Sony Corporation 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体
WO2008035411A1 (fr) * 2006-09-20 2008-03-27 Fujitsu Limited Dispositif de détection d'informations de corps mobile, procédé de détection d'informations de corps mobile et programme de détection d'informations de corps mobile
JP2009015313A (ja) * 2007-06-05 2009-01-22 Yamaha Corp カメラシステム
WO2013001941A1 (ja) * 2011-06-27 2013-01-03 日本電気株式会社 物体検知装置、物体検知方法および物体検知プログラム
JP2014036323A (ja) * 2012-08-08 2014-02-24 Ntt Docomo Inc 表示端末、操作受付方法及びプログラム
JP2014042160A (ja) * 2012-08-22 2014-03-06 Ntt Docomo Inc 表示端末、動体検知の対象領域の設定方法及びプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042105A (ja) * 2016-09-07 2018-03-15 東芝テリー株式会社 監視画像処理装置及び監視画像処理方法
JP2018042129A (ja) * 2016-09-08 2018-03-15 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018149990A (ja) * 2017-03-14 2018-09-27 オムロン株式会社 運転者の着座判定装置
US10965858B2 (en) 2017-11-30 2021-03-30 Canon Kabushiki Kaisha Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium for detecting moving object in captured image
JP2019115031A (ja) * 2017-12-25 2019-07-11 キヤノン株式会社 情報処理装置、システム、情報処理方法及びプログラム
US11341670B2 (en) 2018-10-18 2022-05-24 Panasonic Intellectual Property Corporation Of America Information processing device, information processing method, and recording medium
DE112019006414T5 (de) 2018-12-26 2021-09-16 Omron Corporation Vorrichtung und Verfahren zur Detektion von Menschen
US11983951B2 (en) 2018-12-26 2024-05-14 Omron Corporation Human detection device and human detection method
DE112019006463T5 (de) 2018-12-27 2021-09-16 Omron Corporation Personendetektionsvorrichtung und personendetektionsverfahren
US11770504B2 (en) 2018-12-27 2023-09-26 Omron Corporation Person detection device and person detection method
DE112020001202T5 (de) 2019-03-11 2021-12-09 Omron Corporation Objektverfolgungsvorrichtung und Objektverfolgungsverfahren
US11869199B2 (en) 2019-03-11 2024-01-09 Omron Corporation Object tracking device and object tracking method
DE112020001706T5 (de) 2019-04-01 2022-01-05 Omron Corporation Personenerkennungsvorrichtung und personenerkennungsverfahren
US11948363B2 (en) 2019-04-01 2024-04-02 Omron Corporation Person detection device and person detection method

Also Published As

Publication number Publication date
JP6381353B2 (ja) 2018-08-29

Similar Documents

Publication Publication Date Title
JP6381353B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5906028B2 (ja) 画像処理装置、画像処理方法
EP2988248B1 (en) Image processing apparatus, image processing method, information processing apparatus, information processing method, and program
JP6335701B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5757063B2 (ja) 情報処理装置および方法、並びにプログラム
JP2015210702A (ja) 画像処理装置及び画像処理方法
JP5799863B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2011165008A (ja) 画像認識装置および方法
JP6656035B2 (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
US10404912B2 (en) Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium
JP5477777B2 (ja) 画像取得装置
JP5911227B2 (ja) 判定装置、判定方法及びプログラム
JP2012141972A (ja) 画像生成装置、画像生成方法及びプログラム
KR101324250B1 (ko) 영상 처리를 통한 광축 오차 보상 방법 및 시스템, 광축 오차 보상 기능이 구현된 줌 카메라
KR20150136225A (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
JP2013218432A (ja) 画像処理装置、画像処理方法、画像処理用プログラム、および、記録媒体
JP4281338B2 (ja) 画像検出装置及び画像検出方法
JP6406044B2 (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
US20120188437A1 (en) Electronic camera
JP2009239391A (ja) 複眼撮影装置およびその制御方法並びにプログラム
JP2009009206A (ja) 画像中の輪郭抽出方法及びその画像処理装置
JP2016111561A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP2009239392A (ja) 複眼撮影装置およびその制御方法並びにプログラム
JP2020113247A5 (ja)
JP5896781B2 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180731

R151 Written notification of patent or utility model registration

Ref document number: 6381353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151