JP2015121524A - 画像処理装置およびその制御方法、撮像装置、プログラム - Google Patents
画像処理装置およびその制御方法、撮像装置、プログラム Download PDFInfo
- Publication number
- JP2015121524A JP2015121524A JP2014040522A JP2014040522A JP2015121524A JP 2015121524 A JP2015121524 A JP 2015121524A JP 2014040522 A JP2014040522 A JP 2014040522A JP 2014040522 A JP2014040522 A JP 2014040522A JP 2015121524 A JP2015121524 A JP 2015121524A
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation change
- data
- depth
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 188
- 238000000034 method Methods 0.000 title claims description 145
- 238000003384 imaging method Methods 0.000 title claims description 35
- 230000008859 change Effects 0.000 claims abstract description 258
- 230000033001 locomotion Effects 0.000 claims abstract description 146
- 239000013598 vector Substances 0.000 claims description 81
- 238000012937 correction Methods 0.000 claims description 28
- 238000000605 extraction Methods 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000003068 static effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 abstract description 136
- 230000008569 process Effects 0.000 description 89
- 238000010586 diagram Methods 0.000 description 19
- 238000013519 translation Methods 0.000 description 14
- 238000012217 deletion Methods 0.000 description 11
- 230000037430 deletion Effects 0.000 description 11
- 230000010354 integration Effects 0.000 description 8
- 238000000354 decomposition reaction Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
位置姿勢変化の算出に使用する注目領域を算出する方法として、背景領域の算出を行うことが多い。従来の背景領域抽出では、連続するフレーム間の差分を用いることで背景および動く被写体の特定を行う方法が一般的である。特許文献3には、動画像から1シーンを構成する画像の差分を比較することで、前景と背景の領域を特定して分離し、画像処理に使用している。
例えば静止領域を領域の大小で判断して、位置姿勢の変化または位置姿勢の推定を行うと、動体領域が静止領域よりも大きい場合、動体領域の動きによる影響を被り易くなる。このため、静止シーンを基準とした撮像装置の位置姿勢の変化や、位置姿勢の軌跡であるカメラワークの推定が困難になる可能性がある。
本発明の目的は、画像データおよび奥行データを用いて対象の位置姿勢を検出する画像処理装置において、画像内に動体領域と静止領域が存在する場合に、動体領域の動きによる影響を抑えて位置姿勢の推定精度を高めることである。
[第1実施形態]
図1は、本発明の第1実施形態に係る撮像装置の構成例を示すブロック図である。撮像装置1は、画像取得装置101と、奥行画像取得装置102と、第1処理部200および第2処理部300と、画像処理部100と、位置姿勢推定結果保存部(以下、単に保存部という)108と、制御部110を備える。
画像取得装置101は、被写体を撮影して2次元画像のデータを取得するユニットである。画像取得装置101の画像データは、第1処理部200と第2処理部300に出力される。本実施形態では、奥行データを使用した第1処理部200と、動きベクトルを使用した第2処理部300を用いる。
第2処理部300は、画像取得装置101によって撮影された画像データを使用して動きベクトルを検出して位置姿勢変化を推定する。このとき、第2処理部300は、保存部108から過去における位置姿勢変化の推定結果を取得して、姿勢変化推定に利用することもある。第2処理部300は、動きベクトルを使用した位置姿勢変化の推定結果を画像処理部100に出力する。
奥行データを使用した位置姿勢変化の推定結果が入力される第1入力部103は、第1処理部200に接続されている。第1処理部200により奥行データを使用して推定された、第1の位置姿勢変化の演算結果(以下、第1演算結果という)は、第1入力部103から静止領域決定部105および推定決定部107に出力される。
動きベクトルを使用した位置姿勢変化の推定結果が入力される第2入力部104は、第2処理部300に接続されている。第2処理部300により動きベクトルを使用して推定された、第2の位置姿勢変化の演算結果(以下、第2演算結果という)は、第2入力部104から静止領域決定部105および推定決定部107に出力される。
推定決定部107は、第1演算結果および第2演算結果と、静止領域決定部105によって決定された静止領域の情報を用いて画像全体の位置姿勢変化を決定する第2決定処理を実行する。第2決定処理にて決定された位置姿勢変化の演算結果は保存部108に送られて保存される。保存部108には、位置姿勢変化の推定結果が過去演算結果として記憶されている。保存部108は、第1処理部200と、第2処理部300と、第3入力部106に接続されており、過去演算結果を必要に応じて各部に出力する。
画像入力部201には、画像取得装置101からの画像データが入力され、奥行画像入力部202には、奥行画像取得装置102からの奥行画像データが入力される。3次元点群生成部203は、画像データおよび奥行画像データを、画像入力部201および奥行画像入力部202からそれぞれ取得して、後述する3次元点群を生成する。3次元点群のデータは、奥行分割部204と第1推定部205に出力される。
奥行分割部204は、奥行画像入力部202から入力された奥行画像を使用して、3次元点群生成部203が生成した3次元点群を奥行ごとに分割処理する。処理結果は第1推定部205に出力される。第1推定部205は、奥行ごとの位置姿勢変化を推定する処理を実行する。その際、第1推定部205は、3次元点群生成部203により生成された3次元点群を非基準フレームとし、奥行分割部204によって分割された奥行データをもつ3次元点群を基準フレームとする。第1推定部205は、分割された奥行ごとに非基準フレームに対して位置姿勢変化を推定し、推定結果をグループ化処理部206に出力する。
画像入力部301は画像取得装置101に接続され、画像取得装置101が撮影する画像データが入力される。動きベクトル算出部302は、画像入力部301から入力される、基準フレームの画像と非基準フレームの画像の各データを比較して画像間の動きベクトルを算出して領域算出部303に出力する。ロバスト推定によるモーションごとの領域算出部303は、動きベクトル算出部302が算出した動きベクトルの情報を用いてモーションごとの領域の動きベクトルを算出する。位置姿勢変化の推定部304は、領域算出部303によって算出された領域ごとの動きベクトルを取得して位置姿勢変化を推定し、推定結果を、領域内特徴点の削除部305に出力する。削除部305は、領域算出部303によって算出された領域内の特徴点を削除して処理結果を、全体の位置姿勢変化を推定する推定部306に出力する。推定部306は、位置姿勢変化の推定部304によって推定されたモーションごとの領域の位置姿勢変化から、1つを選び出して第2演算結果とする。例えば、モーションごとの領域のうちで画像内に占める割合が最大である領域の位置姿勢変化が選択される。推定部306の出力は、第2入力部104を介して画像処理部100に入力される。過去演算結果が入力される入力部307は保存部108に接続されている。過去演算結果は入力部307を介して推定部306に入力される。
S401では、画像取得装置101による画像データと、奥行画像取得装置102による奥行画像データが、第1処理部200へ入力される。第1処理部200は第1演算結果を算出し、第1入力部103へ出力する。第1処理部200が行う処理の詳細については、図5に示すフローチャートを用いて後述する。
S501において、位置姿勢変化の推定処理に用いるデータが入力される。具体的には、画像取得装置101による画像の撮影と、奥行画像取得装置102による奥行画像の撮影が同時に行われる。画像データは画像入力部201を介して第1処理部200へ入力され、奥行画像データは奥行画像入力部202を介して第1処理部200へ入力される。
図12(A)はグループ化処理を簡略化して説明するための図である。ある一つの並進成分の位置姿勢変化を横軸とし、奥行クラスタの度数を縦軸としている。奥行が占める割合(以下、占有率という)を表す度数分布に対して、極値を探索する処理が実行され、各ローカルの極値の近傍ごとにセグメントをまとめてグループ化が行われる。グループ間の距離が近い場合、同一のグループとみなされる。ここで、グループ間の距離が近いとは、例えば下記条件を満たす場合とする。
・第1条件:位置姿勢変化の平行ベクトルの向きを示す符号が同一であり、かつ平行ベクトルの大きさの差が閾値以内であること。
・第2条件:回転移動の回転角度の大きさが閾値以内、つまりクォータニオンのノルムの差が一定値以内であること。
図12(A)ではローカルの極値が4箇所に現れており、それぞれグループ1、グループ2、グループ3、グループ4である。この場合、グループ3とグループ4とは、極値間の距離が近いため、上記条件を満たしている。このようにグループ間の距離が近い場合、グループ4とグループ3の各推定結果については類似の位置姿勢変化の推定結果とみなされる。つまりグループ4をグループ3に含めることができる。この場合、グループ4がグループ3に統合されるので、度数の一番多いグループは、グループ3となる。
S507では、S506で選択されたグループが複数存在しているか否かについて識別処理が実行される。図12(A)の例では、生成された3つのグループのうち、グループ3の奥行クラスタの度数が最大であるので、奥行領域が最大であると判断される。2番目に奥行クラスタの度数が多いグループ1、および3番目に奥行クラスタの度数が多いグループ2と、グループ3の奥行クラスタの度数の差をそれぞれ計算し、予め設定された閾値と比較する処理が行われる。計算結果が閾値以上であれば、単数のグループが存在すると判断され、奥行データを使用した位置姿勢変化の推定処理を終了する。また、1つでも閾値以下の計算結果が得られた場合、複数のグループが算出されたことが判断され、S508へ進む。図12(A)の例では、グループ3に対して、グループ1、グループ2ともに奥行クラスタの度数の差が閾値以上である。よって、奥行領域が最大のグループは単数(グループ3のみ)であると判断される。また、図12(B)の例では、グループ3とグループ1とで、奥行クラスタの度数の差が閾値以下である。よって、奥行領域が最大のグループが複数であると判断され、S508へ進む。
S509では、保存部108に保存されている過去演算結果が、入力部208を介して第2推定部207に入力される。S510で第2推定部207は、S509で入力された過去演算結果を利用して、動体領域を識別する。第2推定部207は、S505にてグループ化された位置姿勢変化推定の結果から、静止領域の位置姿勢変化を選択することにより、全体の位置姿勢変化を推定する。
S601で奥行分割部204は、奥行を分割するための基準として閾値を設定する。この設定は、奥行を分割する際、連続的な奥行の長さが閾値を超えないようにするために行われる。S602では、撮影物体の3次元座標上での奥行について、手前側から奥側へと順に点群が存在しているかどうかが判断される。連続的な奥行の長さが、S601で設定した閾値を超えているか否が判定される。図8(A)は撮像装置から見た場合に手前から順に配置された立方体、第1の円柱、第2の円柱を撮影対象とする例を示す。図8(B)に示すように、連続的な奥行の長さが閾値を超えない場合、S603へ処理を進める。図8(D)は立方体、第1の円柱、第2の円柱に加えて、直方体がさらに配置された例を示す。図8(E)に示すように直方体の画像は、手前側から奥側へ連続して3次元点群が存在しているので、S602では連続的な奥行の長さが閾値を超えたと判断され、S604へ進む。
図10(C)は、第1奥行「奥行1」での位置姿勢変化の推定結果を示し、立方体の位置変化を例示する。図10(D)は、第2奥行「奥行2」での位置姿勢変化の推定結果を示し、立方体の奥に配置された第1の円柱の位置変化を例示する。図10(E)は、第3奥行「奥行3」での位置姿勢変化の推定結果を示し、最も奥に配置された第2の円柱の位置変化を例示する。図10(C),(D),(E)では、それぞれに分割された奥行ごとに、図10(A)と(B)の各フレームの画像を比較することで、3次元点群の位置姿勢変化が推定される。
本実施形態では、時間軸方向に連なる複数のフレーム間で位置姿勢変化の推定を行うものとし、基準フレームと非基準フレームは時間軸方向にて互いに関連しているフレームとする。両フレーム同士は必ずしも隣接していなくてもよい。3次元点群間の位置姿勢変化の推定には、例えば、ICPアルゴリズムを使用する。
S701では、位置姿勢変化の推定に用いる画像データが入力される。具体的には、画像取得装置101により画像が撮影され、撮影後の画像データは、画像入力部301を介して動きベクトル算出部302に入力される。S702で動きベクトル算出部302は、S701で入力された画像の動きベクトルを算出する。本実施形態では、基準フレームの画像から特徴点が検出される。次に、非基準フレームの画像から特徴点が検出され、基準フレームの画像の特徴点と非基準フレームの画像の特徴点とを対応付ける処理が行われる。2枚の画像間にて対応する特徴点の移動量から、動きベクトルが算出される。例えば、特徴点の検出と対応付けには、SIFT(Scale-invariant feature transform) を利用する。SIFTでは、まずDifference−of−Gaussian(DoG)フィルタによるフィルタリング処理を行い、生成されたDoG画像内の極値を特徴点の候補とする。次に、特徴点の候補のうちで、主曲率がある一定以上の点と、コントラストがある一定以下の点が除去され、残った点が特徴点として決定される。これらの特徴点の周囲(例えば16×16画素)の各画素の輝度勾配を計算することで、特徴点の特徴量が算出される。最後に特徴点の特徴量を画像間で比較し、類似度の高い組み合わせを求めることで、画像間の対応付けが行われる。尚、特徴点の検出および対応付けの方式についてはSIFTに限らず、SURF(Speeded Up Robust Feature)等を使ってもよく、画像間での対応付けが可能な方式に制限はない。例えば、SSD(Sum of Squared Difference)やNCC(Normalized Cross Correlation)等での微小領域の相関探索により動きベクトルを求める方法がある。勾配法によるオプティカルフロー探索手法、符号化で用いられるブロックマッチング等を用いてもよい。
(x,y):基準フレーム上のピクセル座標。
(ud,vd):歪みを含む正規化画像座標。
(u,v):歪みを除去した正規化画像座標。
射影ホモグラフィHの符号は、平面上の全ての対応点をベクトル、
例えば、複数のカメラを使用する場合、第1カメラの参照系を採用し、3次元平面を、
ζ=1/d(≧0)は、平面に対する距離の逆数である。参照系において、第1カメラは3行4列の射影行列、
3つの積、
H1において、ベクトル積、
ここで、
方向ベクトル
対応点、
尚、説明は省略するが、ピンホールカメラモデルを想定した、非平面シーンに対するカメラの姿勢推定方法である基本行列に基づく姿勢推定(非特許文献3)および5点法(非特許文献4)については、公知技術をベースにして実現可能である。
図13(A)では、モーション3に対し、モーション1、モーション2ともに被写体クラスタの度数の差が閾値以上である。よって、最大領域のモーション3は単数である。一方、図13(B)では、モーション3とモーション1との間で被写体クラスタの度数の差が閾値以下である。よって、最大領域のモーションは複数である。
次のS711で推定部306は、S710で入力された過去演算結果を利用して動体領域を識別する。推定部306は、S705で推定された位置姿勢変化の結果から、静止領域の位置姿勢変化の推定結果を選択することで、全体の位置姿勢変化を決定する。過去演算結果を利用した動体領域の識別処理では、過去演算結果に一番近い位置姿勢変化の推定結果が選択される。例えば、フレームレート60fpsで動画撮影を行う場合、現在の位置姿勢変化の推定結果と、過去演算結果との間隔は1/60秒である。この短い間隔のため、静止領域の位置姿勢変化は、像振れがあった場合でも現在の位置姿勢変化と過去の位置姿勢変化とで非常に近い値になる可能性が高い。従って、推定部306は、過去演算結果に近い位置姿勢変化を静止領域の位置姿勢変化とし、全体の位置姿勢変化の推定結果と決定する。これにより、画角内に瞬間的に侵入する移動体への対策を講じることができるので、安定した推定結果が得られる。つまり、画角内に一瞬の間のみ侵入する移動体によって、推定結果への影響を被ることがない。
図9(A)は非基準フレームの画像内の領域の割合を示し、図9(B)は基準フレームの画像内の領域の割合を示す。また、図9(C)は、非基準フレームにおいて動体領域および静止領域に係る奥行の割合を示す。図9(D)は、基準フレームにおいて動体領域および静止領域に係る奥行の割合を示す。図9(E)は本実施形態による位置姿勢変化の推定結果を説明する図である。図9(F)は従来法による位置姿勢変化の推定結果を説明する図である。
これに対して、図9(C)、図9(D)の画像において本実施形態で位置姿勢変化を推定すると、奥行を占める割合の多い静止領域で位置姿勢変化が推定される。図9(E)に示すように静止領域の位置が不変であり、すなわち動体領域を計算結果から除外し、動体領域に引きずられにくい位置姿勢変化推定が可能となる。
但し、この処理方法だけでは、動体領域が奥行を占める割合において最大となった場合、間違った推定結果となる可能性がある。そこで、動きベクトルを使用した位置姿勢変化の推定と、奥行を使用した位置姿勢変化の推定とが並行して行われ、画像内の領域を多く占める領域での位置姿勢変化が推定されることになる。このように2つの処理方法による位置姿勢変化の推定の整合性をとることで、推定精度をより高めることが可能となる。例えば、撮像装置の像振れ補正(防振制御)において、従来の補正では動体領域に引きずられた不自然な補正になる可能性がある。これに対して、本実施形態では、動体領域に引きずられにくい像振れ補正を実現できる。
次に、第1実施形態の変形例を説明する。
変形例では、以下の点が前記実施形態と相違する。
(A)奥行データを使用した第1処理部200と、動きベクトルを使用した第2処理部300において、それぞれの過去の推定結果を利用し、最大領域以外の位置姿勢変化の推定結果が選択されること。
前記実施形態では第1処理部200および第2処理部300で、それぞれ割合が最大である、一つの領域に係る位置姿勢変化の推定結果が選択される。画像処理部100はそれぞれの位置姿勢変化の推定結果の類似や、過去演算結果との比較によって全体の位置姿勢変化推定結果を算出する。これに対して、変形例では最大領域に係る位置姿勢変化の推定結果が選択されるとは限らず、過去の推定結果との比較結果に依存する。
この場合、静止領域の判断基準の設定処理は、奥行データを使用した位置姿勢変化の全ての推定結果と、動きベクトルを使用した位置姿勢変化の全ての推定結果と、過去の位置姿勢変化の推定結果を比較して実行される。さらには、ユーザが意図する結果と合致する判断基準を手動選択する処理を組み合わせることにより、ユーザが期待する、動体領域に引きずられにくい位置姿勢変化の推定結果を得ることができる。
次に、本発明の第2実施形態を説明する。なお、第1実施形態の場合と同様の構成部については既に使用した符号を用いることにより、それらの詳細な説明を省略する。
図14は、第2の実施形態である撮像装置の構成例を示すブロック図である。撮像装置10は、画像取得装置101と奥行画像取得装置102を備える。
画像取得装置101は、被写体を撮影して2次元画像のデータを取得するユニットである。画像取得装置101の画像データは、第1処理部2000と第2処理部3000にそれぞれ出力される。本実施形態では、奥行データを使用する第1処理部2000と、画像の動きを示すデータを使用する第2処理部3000を用いる。画像の動きとは、動きベクトルまたは対応点または注目点の軌跡であり、本実施形態では動きベクトルを例示する。
第2処理部3000は、画像取得装置101によって撮影された画像データを使用して動きベクトルを検出して、背景領域候補と位置姿勢変化を推定する。第2処理部3000は、動きベクトルを使用した背景領域候補の推定結果と位置姿勢変化の推定結果を位置姿勢推定部1000に出力する。
奥行データを使用した背景領域候補と位置姿勢変化の各推定結果が入力される第1入力部1003は、第1処理部2000に接続されている。第1処理部2000により奥行データを使用して推定された、第1の背景領域候補と位置姿勢変化の演算結果(以下、第1の演算結果という)は、第1入力部1003から静止領域決定部1005および推定決定部1006に出力される。また、動きベクトルを使用した背景領域候補と位置姿勢変化の各推定結果が入力される第2入力部1004は、第2処理部3000に接続されている。第2処理部3000により動きベクトルを使用して推定された、第2の背景領域候補と位置姿勢変化の演算結果(以下、第2の演算結果という)は、第2入力部1004から静止領域決定部1005および推定決定部1006に出力される。
撮像装置10の制御部1007はCPU(中央演算処理装置)を備え、推定決定部1006が決定した画像全体の位置姿勢変化のデータを取得して像振れ補正量を算出する。制御部1007の基本的機能は、図1に示す制御部110と同様である。
画像入力部2001には、画像取得装置101からの画像データが入力され、奥行画像入力部2002には、奥行画像取得装置102からの奥行画像データが入力される。3次元点群生成部2003は、画像データおよび奥行画像データを、画像入力部2001および奥行画像入力部2002からそれぞれ取得して、後述する3次元点群を生成する。3次元点群のデータは、ICPによる最多適合領域算出部2004に出力される。最多適合領域算出部2004は、3次元点群生成部2003が生成した3次元点群に対し、ICPアルゴリズムを使用して領域ごとに分割処理する。処理結果は第1の位置姿勢変化推定部2005に出力される。
画像入力部3001は画像取得装置101に接続され、画像取得装置101が撮影する画像データが入力される。動きベクトル算出部3002は、画像入力部3001から入力される、基準フレームの画像と非基準フレームの画像の各データを比較して画像間の動きベクトルを算出して領域算出部3003に出力する。ロバスト推定によるモーションごとの領域算出部3003は、動きベクトル算出部3002が算出した動きベクトルの情報を用いてモーションごとの領域の動きベクトルを算出する。
S1702では、画像取得装置101による画像データが、第2処理部3000へ入力される。第2処理部3000は第2の演算結果を算出し、第2入力部1004へ出力する。第2処理部3000が行う処理の詳細については、図19に示すフローチャートを用いて後述する。
S1801において、位置姿勢変化の推定処理に用いるデータが入力される。具体的には、画像取得装置101による画像の撮影と、奥行画像取得装置102による奥行画像の撮影が同時に行われる。画像データは画像入力部2001を介して第1処理部2000へ入力され、奥行画像データは奥行画像入力部2002を介して第1処理部2000へ入力される。S1802で3次元点群生成部2003は、S1801で入力された画像データおよび奥行画像データを取得して3次元点群を生成する。本実施形態の3次元点群とは、3次元座標上に少なくとも画素(色・諧調)情報と位置情報を持った点の集合のことである。奥行画像を利用して、画像の各画素を3次元座標上にマッピングすることで3次元点群を生成することができる。各点の情報については法線の情報等を含んでもよい。3次元点群を生成する理由は、2次元の画像と2次元の奥行画像の各データに基づき、撮影対象と撮像装置10についての、3次元空間での位置および姿勢の関係を求めるためである。
S1804で第1の位置姿勢変化推定部2005は、S1803で分割した領域に対応した位置姿勢変化推定結果を、該変化が適合する当該3次元点群の位置姿勢変化とする。S1805で削除部2006は、S1803で算出された領域内の3次元点群を削除する。S1806で削除部2006は、S1803にて算出された領域外に3次元点群点が残っているか否かを判定する。領域外に3次元点群点が残っている場合、S1803に処理を戻す。S1805で削除されなかった3次元点群点で対応付けが再度行われ、残りの3次元点群で領域が算出される。このように段階的に領域の算出を行うことにより、複数の位置姿勢変化の異なる領域の算出が可能となる。S1806で領域外に3次元点群点が残っていなかった場合、S1807に進む。
S1907で削除部3005は、S1904にて算出されたモーション領域外に特徴点が残っているか否かを判定する。モーション領域外に特徴点が残っている場合、S1902に処理を戻す。S1906で削除されなかった特徴点で対応付けが再度行われ、動きベクトルの算出と残りの領域でモーションごとの領域が算出される。このように段階的にモーションごとの領域の算出を行うことにより、複数のモーションの算出が可能となる。S1907でモーション領域外に特徴点が残っていなかった場合、S1908に進む。S1908で第2の背景領域候補推定部3006は、S1904で算出したモーションごとの領域のうちから、画像を使用した背景領域候補推定法により背景領域候補を推定し、動きベクトルを使用した第2処理を終了する。
図20(A)を参照して、第2の背景領域候補推定部3006の構成を説明する。本例では、局所特徴量を画像から抽出する第1の抽出処理と第2の抽出処理が行われる。第1の局所特徴量抽出部3006aは、入力画像データから局所特徴量を抽出して、照合部3006dに出力する。第2の局所特徴量抽出部3006bは、事前に学習した画像の画像データから局所特徴量を抽出してデータベース作成部3006cに出力する。データベース作成部3006cは、第2の局所特徴量抽出部3006bが抽出した局所特徴量からデータベースを作成する。照合部3006dは、第1の局所特徴量抽出部3006aが抽出した局所特徴量を取得して、データベース作成部3006cが作成したデータベースと照合する。これにより、テクスチャ認識を利用した背景領域候補の推定処理が行われる。処理例について図20(B)のフローチャートを参照して説明する。
S2101で静止領域決定部1005は、第1の背景領域候補および第1の位置姿勢変化推定の各データと、第2の背景領域候補および第2の位置姿勢変化推定の各データについてそれぞれ整合が取れているか否かについて比較する。具体的には、背景領域候補の比較では、領域の重心座標のズレが閾値以下であるか、または領域サイズの差が閾値以下である場合、2つの背景領域候補は整合していると判断される。また、位置姿勢変化推定のデータの比較では、位置姿勢変化の平行ベクトルの向き(符号)が同一であり、かつ大きさの差が閾値以下であり、回転角度の大きさが閾値以下である場合、2つの位置姿勢変化推定のデータは整合していると判断される。比較の結果、2つの背景領域候補(第1および第2の背景領域候補)、および位置姿勢変化推定の間で整合が取れていると判断された場合、S2102に処理を進め、整合が取れていないと判断された場合、S2103に移行する。
S2102では、第1の背景領域候補または第2の背景領域候補が背景領域として決定される。そして、S2107に処理を進める。
・第1処理モードA(S2104参照)の場合、静止領域決定部1005は、任意の領域を背景領域と判断する。例えば第1入力部1003によって入力された第1の背景領域候補の次に最奥である領域を第1の背景領域候補として更新することにより、第2入力部1004で入力された第2の背景領域候補との整合をとることができる。さらには、両背景領域候補の間で整合が取れるまで第1の背景領域候補の更新処理を続行してもよい。この他には、選択部1009を用いた操作により、画像内の任意の領域を背景領域としてユーザが自由に指定してもよい。
・第2処理モードB(S2105参照)の場合、静止領域決定部1005は、保存部1008に保存されている過去のデータ(静止領域および位置姿勢変化のデータ)を使用し、第1の背景領域候補と第2の背景領域候補から静止領域を決定する。具体的には、過去演算結果との差が小さい方の推定結果に係る領域を静止領域として設定する処理が行われる。例えば、フレームレート60fps(frames per second)で動画撮影を行う場合を想定する。現在の位置姿勢変化の推定結果と過去演算結果とで時間間隔は、1/60秒という短い時間である。このため、静止領域の位置姿勢変化や領域の重心座標や領域サイズは、像振れがあった場合でも現在の演算結果と過去の演算結果とで非常に近い値になる可能性が高い。従って過去演算結果に近い推定結果に係る領域が背景領域として決定される。
・第3処理モードC(S2106参照)の場合、静止領域決定部1005は、背景領域の選択を不可として全体の処理を終了する。
図22(A)は、被写界の奥にある静止領域に対し、手前に動体領域のあるシーンをカメラで撮影する状況を例示する。ここでは分かり易いようにカメラを固定して撮影を行うものとする。図22(B)は非基準フレームの画像例を示し、図22(C)は基準フレームの画像例を示す。図22(B)と図22(C)に示す2枚のフレームは時間的に連続しており、図22(B)は図22(C)に比べて過去のフレームとなっている。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100 画像処理部
101 画像取得装置
102 奥行画像取得装置
105,1005 静止領域決定部
107,1006 推定決定部
108,1008 保存部
200,2000 第1処理部
204 奥行分割部
206 グループ化処理部
300,3000 第2処理部
302,3002 動きベクトル算出部
Claims (21)
- 画像データおよび奥行データを取得して、処理対象の位置姿勢変化を算出する画像処理装置であって、
前記奥行データを取得して奥行ごとに分割し、分割された奥行データから奥行ごとの位置姿勢変化を算出し、第1の位置姿勢変化のデータを算出する第1処理手段と、
複数のフレームの前記画像データから画像の動きを検出してモーションごとの領域の位置姿勢変化を算出し、前記モーションごとの領域の位置姿勢変化から第2の位置姿勢変化のデータを算出する第2処理手段と、
前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータを取得して画像の静止領域を決定する第1決定手段と、
前記第1決定手段により決定された静止領域と、前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータから画像全体の位置姿勢変化を決定する第2決定手段と、を有することを特徴とする画像処理装置。 - 前記第1処理手段は、前記分割された奥行データをグループにまとめるグループ化処理手段を備えることを特徴とする請求項1に記載の画像処理装置。
- 被写体像の占める領域が最大である領域を、前記第1決定手段が前記静止領域として決定した場合、前記第2決定手段は前記第2の位置姿勢変化のデータにより画像全体の位置姿勢変化を決定することを特徴とする請求項1または2に記載の画像処理装置。
- 奥行の占める割合が最大である領域を、前記第1決定手段が前記静止領域として決定した場合、前記第2決定手段は第1の位置姿勢変化のデータにより画像全体の位置姿勢変化を決定することを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。
- 前記静止領域の判断基準を操作にしたがって選択する選択手段を備え、
前記第1決定手段は、前記選択手段により選択された前記判断基準に従って前記静止領域を決定することを特徴とする請求項1ないし4のいずれか1項に記載の画像処理装置。 - 前記第1処理手段は、前記奥行ごとのグループのうちで画像全体に占める割合が最大のグループに対応する位置姿勢変化を選択することを特徴とする請求項2に記載の画像処理装置。
- 前記第2処理手段は、前記モーションごとの領域のうちで画像全体に占める割合が最大の領域に対応する位置姿勢変化を選択することを特徴とする請求項1ないし6のいずれか1項に記載の画像処理装置。
- 前記第2決定手段は、前記第1の位置姿勢変化のデータと前記第2の位置姿勢変化のデータとの差が閾値以下である場合、重み付け演算を行って画像全体の位置姿勢変化を決定することを特徴とする請求項1ないし6のいずれか1項に記載の画像処理装置。
- 前記第2決定手段により決定された画像全体の位置姿勢変化のデータを記憶する記憶手段を備え、
前記第2決定手段は、前記第1の位置姿勢変化のデータと前記第2の位置姿勢変化のデータとの差が閾値を超える場合、前記記憶手段に記憶されたデータを読み出して、前記第1の位置姿勢変化のデータと前記第2の位置姿勢変化のデータのうち、読み出した前記データの示す位置姿勢変化との差が小さい方の位置姿勢変化のデータを、画像全体の位置姿勢変化のデータとして決定することを特徴とする請求項1ないし8のいずれか1項に記載の画像処理装置。 - 前記第2決定手段は、前記第1の位置姿勢変化のデータと前記第2の位置姿勢変化のデータとが異なり、かつ前記記憶手段に前記位置姿勢変化のデータが記憶されていない場合、前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータを、画像全体の位置姿勢変化のデータとして使用しないことを特徴とする請求項9の画像処理装置。
- 前記第1処理手段は、
前記奥行データを取得して奥行ごとに分割する奥行分割手段と、
前記奥行分割手段により分割された奥行データから少なくとも最奥の奥行を含む同一の位置姿勢変化の奥行データを算出する算出手段と、
前記最奥の奥行を含む同一の位置姿勢変化の奥行データから第1の背景領域候補を推定する第1の推定手段と、を備えることを特徴とする請求項1に記載の画像処理装置。 - 前記画像の動きとは、動きベクトルまたは対応点または注目点の軌跡であることを特徴とする請求項1ないし11のいずれか1項に記載の画像処理装置。
- 前記第2処理手段は、前記モーションごとの領域について第2の背景領域候補を推定する第2の推定手段を備えることを特徴とする請求項11または12に記載の画像処理装置。
- 前記第2の推定手段は、
前記画像データから局所特徴量を抽出する第1の抽出手段と、
事前に学習した画像の画像データから局所特徴量を抽出する第2の抽出手段と、
前記第2の抽出手段が抽出した前記局所特徴量からデータベースを作成するデータベース作成手段と、
前記第1の抽出手段が抽出した前記局所特徴量を前記データベースのデータと照合する照合手段と、を備え、
前記照合手段が前記第2の背景領域候補を推定することを特徴とする請求項13に記載の画像処理装置。 - 前記第1決定手段は、前記第1の背景領域候補および前記第1の位置姿勢変化のデータと、前記第2の背景領域候補および前記第2の位置姿勢変化のデータによって背景領域を決定し、前記背景領域から前記静止領域を決定することを特徴とする請求項13または14に記載の画像処理装置。
- 前記第2決定手段は、前記第1決定手段により前記背景領域から決定された前記静止領域と、前記第1の位置姿勢変化のデータと、前記第2の位置姿勢変化のデータによって画像全体の位置姿勢変化を決定することを特徴とする請求項15に記載の画像処理装置。
- 撮影光学系および撮像素子により撮像された画像の画像データを入力する第1入力手段と、
前記画像データと対をなす奥行データを入力する第2入力手段と、
請求項1ないし16のいずれか1項に記載の画像処理装置を備えることを特徴とする撮像装置。 - 前記画像データに係る像振れ補正を行う補正手段と、
前記第2決定手段によって決定された画像全体の位置姿勢変化のデータを取得して像振れ補正量を算出し、前記補正手段を制御する制御手段と、を備えることを特徴とする請求項17に記載の撮像装置。 - 画像データおよび奥行データから処理対象の位置姿勢変化を算出する画像処理装置にて実行される制御方法であって、
前記画像処理装置により、
前記画像データおよび奥行データを取得するステップと、
前記奥行データを奥行ごとに分割し、分割された奥行データから奥行ごとの位置姿勢変化を算出し、第1の位置姿勢変化のデータを算出する第1処理ステップと、
複数のフレームの前記画像データから画像の動きを検出してモーションごとの領域の位置姿勢変化を算出し、前記モーションごとの領域の位置姿勢変化から第2の位置姿勢変化のデータを算出する第2処理ステップと、
前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータを取得して画像の静止領域を決定する第1決定ステップと、
前記第1決定ステップで決定された静止領域と、前記第1の位置姿勢変化のデータおよび前記第2の位置姿勢変化のデータから画像全体の位置姿勢変化を決定する第2決定ステップと、を有することを特徴とする画像処理装置の制御方法。 - 前記第2決定ステップで決定された画像全体の位置姿勢変化のデータを用いて像振れ補正を行う補正ステップを有することを特徴とする請求項19に記載の画像処理装置の制御方法。
- 請求項19または20に記載した画像処理装置の制御方法の各ステップをコンピュータに実行させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014040522A JP6429466B2 (ja) | 2013-11-19 | 2014-03-03 | 画像処理装置およびその制御方法、撮像装置、プログラム |
US14/541,700 US10311595B2 (en) | 2013-11-19 | 2014-11-14 | Image processing device and its control method, imaging apparatus, and storage medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013238880 | 2013-11-19 | ||
JP2013238880 | 2013-11-19 | ||
JP2014040522A JP6429466B2 (ja) | 2013-11-19 | 2014-03-03 | 画像処理装置およびその制御方法、撮像装置、プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015121524A true JP2015121524A (ja) | 2015-07-02 |
JP2015121524A5 JP2015121524A5 (ja) | 2017-04-06 |
JP6429466B2 JP6429466B2 (ja) | 2018-11-28 |
Family
ID=53533251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014040522A Expired - Fee Related JP6429466B2 (ja) | 2013-11-19 | 2014-03-03 | 画像処理装置およびその制御方法、撮像装置、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6429466B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019075097A (ja) * | 2017-09-14 | 2019-05-16 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | ドライバ支援システムの特徴に基づく周辺情報のデータ低減方法および装置 |
KR20200037502A (ko) * | 2018-10-01 | 2020-04-09 | 삼성전자주식회사 | 포즈 정보를 출력하는 방법 및 장치 |
US10853960B2 (en) | 2017-09-14 | 2020-12-01 | Samsung Electronics Co., Ltd. | Stereo matching method and apparatus |
KR102323413B1 (ko) * | 2020-05-12 | 2021-11-09 | 광주과학기술원 | 카메라 포즈 추정 방법 |
WO2023210095A1 (ja) * | 2022-04-28 | 2023-11-02 | テンソル・コンサルティング株式会社 | 動画識別装置、動画識別方法、および動画識別プログラム |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07192199A (ja) * | 1993-12-27 | 1995-07-28 | Fuji Heavy Ind Ltd | 車輌用走行案内装置 |
JPH11112871A (ja) * | 1997-09-30 | 1999-04-23 | Sony Corp | 画像抜き出し装置および画像抜き出し方法、画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、画像記録装置および画像記録方法、画像再生装置および画像再生方法、並びに記録媒体 |
JP2001285762A (ja) * | 2000-03-30 | 2001-10-12 | Fuji Xerox Co Ltd | 画像印刷装置 |
JP2001356004A (ja) * | 2000-06-12 | 2001-12-26 | Fuji Photo Film Co Ltd | 画像撮像装置及び距離測定方法 |
JP2002056393A (ja) * | 2000-08-14 | 2002-02-20 | Canon Inc | 画像処理方法及び装置並びに記憶媒体 |
JP2004171189A (ja) * | 2002-11-19 | 2004-06-17 | Honda Motor Co Ltd | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム |
JP2007243660A (ja) * | 2006-03-09 | 2007-09-20 | Fujifilm Corp | 監視システム、監視方法、及び監視プログラム |
JP2008304268A (ja) * | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2010038907A (ja) * | 2008-07-08 | 2010-02-18 | Nissan Motor Co Ltd | 物体検出装置及び物体検出方法 |
JP2011253521A (ja) * | 2010-05-31 | 2011-12-15 | Primesense Ltd | 3次元場面の分析 |
WO2012093147A1 (en) * | 2011-01-05 | 2012-07-12 | Softkinetic Software | Natural gesture based user interface methods and systems |
JP2012134670A (ja) * | 2010-12-20 | 2012-07-12 | Nikon Corp | 画像演算装置、撮像装置および画像演算プログラム |
JP2012222743A (ja) * | 2011-04-13 | 2012-11-12 | Canon Inc | 撮像装置 |
JP2013036987A (ja) * | 2011-07-08 | 2013-02-21 | Canon Inc | 情報処理装置及び情報処理方法 |
JP2013036988A (ja) * | 2011-07-08 | 2013-02-21 | Canon Inc | 情報処理装置及び情報処理方法 |
-
2014
- 2014-03-03 JP JP2014040522A patent/JP6429466B2/ja not_active Expired - Fee Related
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07192199A (ja) * | 1993-12-27 | 1995-07-28 | Fuji Heavy Ind Ltd | 車輌用走行案内装置 |
JPH11112871A (ja) * | 1997-09-30 | 1999-04-23 | Sony Corp | 画像抜き出し装置および画像抜き出し方法、画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、画像記録装置および画像記録方法、画像再生装置および画像再生方法、並びに記録媒体 |
JP2001285762A (ja) * | 2000-03-30 | 2001-10-12 | Fuji Xerox Co Ltd | 画像印刷装置 |
JP2001356004A (ja) * | 2000-06-12 | 2001-12-26 | Fuji Photo Film Co Ltd | 画像撮像装置及び距離測定方法 |
JP2002056393A (ja) * | 2000-08-14 | 2002-02-20 | Canon Inc | 画像処理方法及び装置並びに記憶媒体 |
JP2004171189A (ja) * | 2002-11-19 | 2004-06-17 | Honda Motor Co Ltd | 移動物体検出装置、移動物体検出方法及び移動物体検出プログラム |
JP2007243660A (ja) * | 2006-03-09 | 2007-09-20 | Fujifilm Corp | 監視システム、監視方法、及び監視プログラム |
JP2008304268A (ja) * | 2007-06-06 | 2008-12-18 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2010038907A (ja) * | 2008-07-08 | 2010-02-18 | Nissan Motor Co Ltd | 物体検出装置及び物体検出方法 |
JP2011253521A (ja) * | 2010-05-31 | 2011-12-15 | Primesense Ltd | 3次元場面の分析 |
JP2012134670A (ja) * | 2010-12-20 | 2012-07-12 | Nikon Corp | 画像演算装置、撮像装置および画像演算プログラム |
WO2012093147A1 (en) * | 2011-01-05 | 2012-07-12 | Softkinetic Software | Natural gesture based user interface methods and systems |
JP2012222743A (ja) * | 2011-04-13 | 2012-11-12 | Canon Inc | 撮像装置 |
JP2013036987A (ja) * | 2011-07-08 | 2013-02-21 | Canon Inc | 情報処理装置及び情報処理方法 |
JP2013036988A (ja) * | 2011-07-08 | 2013-02-21 | Canon Inc | 情報処理装置及び情報処理方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019075097A (ja) * | 2017-09-14 | 2019-05-16 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | ドライバ支援システムの特徴に基づく周辺情報のデータ低減方法および装置 |
US10853960B2 (en) | 2017-09-14 | 2020-12-01 | Samsung Electronics Co., Ltd. | Stereo matching method and apparatus |
KR20200037502A (ko) * | 2018-10-01 | 2020-04-09 | 삼성전자주식회사 | 포즈 정보를 출력하는 방법 및 장치 |
CN110992405A (zh) * | 2018-10-01 | 2020-04-10 | 三星电子株式会社 | 用于输出姿态信息的方法和装置 |
KR102559203B1 (ko) * | 2018-10-01 | 2023-07-25 | 삼성전자주식회사 | 포즈 정보를 출력하는 방법 및 장치 |
KR102323413B1 (ko) * | 2020-05-12 | 2021-11-09 | 광주과학기술원 | 카메라 포즈 추정 방법 |
WO2023210095A1 (ja) * | 2022-04-28 | 2023-11-02 | テンソル・コンサルティング株式会社 | 動画識別装置、動画識別方法、および動画識別プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6429466B2 (ja) | 2018-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10311595B2 (en) | Image processing device and its control method, imaging apparatus, and storage medium | |
CN107230225B (zh) | 三维重建的方法和装置 | |
JP6489551B2 (ja) | 画像のシーケンスにおいて前景を背景から分離する方法およびシステム | |
JP6147172B2 (ja) | 撮像装置、画像処理装置、画像処理方法、及びプログラム | |
JP5631086B2 (ja) | 情報処理装置及びその制御方法、プログラム | |
US11030478B1 (en) | System and method for correspondence map determination | |
JP6429466B2 (ja) | 画像処理装置およびその制御方法、撮像装置、プログラム | |
US8416989B2 (en) | Image processing apparatus, image capture apparatus, image processing method, and program | |
JP2019114103A (ja) | 物体認識処理装置、物体認識処理方法及びプログラム | |
CN108369739B (zh) | 物体检测装置和物体检测方法 | |
CN116051736A (zh) | 一种三维重建方法、装置、边缘设备和存储介质 | |
JP6285686B2 (ja) | 視差画像生成装置 | |
CN114981845A (zh) | 图像扫描方法及装置、设备、存储介质 | |
JP2010231350A (ja) | 人物識別装置、そのプログラム、及び、その方法 | |
JP2006113832A (ja) | ステレオ画像処理装置およびプログラム | |
JP7298687B2 (ja) | 物体認識装置及び物体認識方法 | |
WO2019230965A1 (ja) | 物体らしさ推定装置、方法、およびプログラム | |
KR101673144B1 (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
JP6080424B2 (ja) | 対応点探索装置、そのプログラムおよびカメラパラメータ推定装置 | |
JP6843552B2 (ja) | 画像処理装置、画像処理方法およびプログラム。 | |
WO2017042852A1 (en) | Object recognition appratus, object recognition method and storage medium | |
Ganbold et al. | Coarse-to-fine evolutionary method for fast horizon detection in maritime images | |
WO2013173383A1 (en) | Methods and apparatus for processing image streams | |
JP6344903B2 (ja) | 画像処理装置およびその制御方法、撮像装置、プログラム | |
JP6042289B2 (ja) | 姿勢推定装置、姿勢推定方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170303 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181030 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6429466 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |