JP5651659B2 - 物体検出システムおよびプログラム - Google Patents

物体検出システムおよびプログラム Download PDF

Info

Publication number
JP5651659B2
JP5651659B2 JP2012192409A JP2012192409A JP5651659B2 JP 5651659 B2 JP5651659 B2 JP 5651659B2 JP 2012192409 A JP2012192409 A JP 2012192409A JP 2012192409 A JP2012192409 A JP 2012192409A JP 5651659 B2 JP5651659 B2 JP 5651659B2
Authority
JP
Japan
Prior art keywords
unit
image
feature amount
calculated
detection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012192409A
Other languages
English (en)
Other versions
JP2014048966A (ja
Inventor
英貴 大平
英貴 大平
関根 真弘
真弘 関根
正志 西山
正志 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012192409A priority Critical patent/JP5651659B2/ja
Priority to US13/915,979 priority patent/US10210414B2/en
Publication of JP2014048966A publication Critical patent/JP2014048966A/ja
Application granted granted Critical
Publication of JP5651659B2 publication Critical patent/JP5651659B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Description

本発明の実施形態は、物体検出システムおよびプログラムに関する。
画像認識技術を用いて拡張現実感を実現する手法として、マーカを利用する手法が知られている。しかし、無機質なマーカはデザインを損ねるという問題がある。この問題に対し、マーカを用いずに局所特徴量を使って対象物を特定する技術が知られている。
特表2010−541053号公報
特に拡張現実を実現するための画像認識(画像からの物体検出)では、様々な現実環境で撮像された画像が用いられることが多い。このため、環境等の変化に対しても頑健な画像認識技術が望まれている。
本発明は、上記に鑑みてなされたものであって、画像を撮像する環境などの変化に対して、より頑健な物体検出システムおよびプログラムを提供することを目的とする。
実施形態の物体検出システムは、取得部と推定部と設定部と算出部と検出部とを備える。取得部は、対象物が撮像された画像を取得する。推定部は、対象物の状態を推定する。設定部は、相対的な位置関係および形状の少なくとも1つを状態に応じて変化させた複数の領域を画像内に設定する。算出部は、領域の画像の特徴量を算出する。検出部は、算出された特徴量と、予め定められた登録物体の特徴量とを比較することにより、対象物に対応する登録物体を検出する。
本発明によれば、画像を撮像する環境などの変化に対して、より頑健な物体検出システムおよびプログラムを提供することができるという効果を奏する。
第1の実施形態にかかる物体検出装置のブロック図。 推定部による推定方法の一例を示す図。 推定部による推定方法の一例を示す図。 領域およびサンプリング点の設定例を示す図。 領域およびサンプリング点の設定例を示す図。 領域およびサンプリング点の設定例を示す図。 領域の設定例と輝度勾配の抽出例とを示した図。 第1の実施形態における物体検出処理のフローチャート。 第2の実施形態にかかる物体検出装置のブロック図。 第2の実施形態における物体検出処理の全体の流れを示すフローチャート。 第3の実施形態にかかる物体検出システムのブロック図。 第3の実施形態の特徴算出処理のフローチャート。 第3の実施形態の比較処理のフローチャート。 第4の実施形態にかかる物体検出システムのブロック図。 第4の実施形態の画像取得処理のフローチャート。 第4の実施形態の比較処理のフローチャート。 第5の実施形態にかかる物体検出装置のブロック図。 第5の実施形態における物体検出処理のフローチャート。 実施形態にかかる物体検出システムのハードウェア構成図。
以下に添付図面を参照して、この発明にかかる物体検出システムの好適な実施形態を詳細に説明する。
(第1の実施形態)
局所特徴量による画像認識で、画像を撮像する環境などの変化(対象物の状態の変化)に対応するためには、多くのキーポイントから最適な組み合わせを選ばなくてはならない。このため、処理コストが高くなり、多くの物体を認識しようとすると快適に動作しない。対象物の状態に応じて画像をアフィン変換する手法も考えられる。しかし、この手法は、アフィン変換の処理コストが高く、多くの物体を認識しようとすると快適に動作しない。また、アフィン変換による情報の劣化やノイズによって、認識性能が落ちるという問題もある。
第1の実施形態にかかる物体検出システムは、画像内のサンプリング点の周辺領域から、エッジ(輝度勾配)を特徴量として算出する。このとき、サンプリング点と周辺領域との設定を、検出の対象となる物体(対象物)の状態に応じて変化させる。これにより、特徴量を用いた画像認識(物体検出)が物体の状態変化に頑健になる。また、周辺領域を使ったエッジ算出は、各サンプリング点が大局的な形状を抽出できるため、少数のサンプリング点でも物体全体の形状を抽出できるという性質がある。このため、少ないメモリ参照回数による低処理コストの特徴量抽出が可能となり、素早い応答速度で物体を特定できる。
第1の実施形態では、1つの装置である物体検出装置として物体検出システムを実現した例を説明する。物体検出装置は、例えば、タブレットおよびスマートフォンなどの携帯端末としてもよい。物体検出システムを実現する装置構成はこれに限られるものではない。後述するように複数の装置に機能を分散して物体検出システムを実現してもよい。また、1つの機能を複数の装置に備えるように構成してもよい。
図1は、第1の実施形態にかかる物体検出装置100の構成の一例を示すブロック図である。図1に示すように、物体検出装置100は、記憶部121と、表示部131と、取得部101と、推定部102と、設定部103と、第1算出部104と、第2算出部105と、検出部106と、とを備えている。
記憶部121は、予め定められた登録物体を特定する情報と、登録物体の画像から求められた特徴量とを対応づけて記憶する。後述する検出部106は、記憶部121に記憶された特徴量と、撮像された画像から求められた対象物の特徴量とを照合することにより、対象物に適合する登録物体を検出する。なお、記憶部121は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。
表示部131は、各種情報を表示するものであり、例えば液晶ディスプレイやタッチパネル式ディスプレイなどの表示装置により実現できる。
取得部101は、対象物が撮像された画像を取得する。取得部101は、例えば、物体検出装置100に撮像部(カメラ)が搭載されている場合は、カメラにより撮像された画像を取得するように構成できる。取得部101が、物体検出装置100の外部装置から画像を取得するように構成してもよい。
推定部102は、画像に撮像された対象物の状態を推定する。対象物は、どのような物体であってもよい。例えば、雑誌、ポスター、パンフレット、絵、服、および、人物などが対象物となりうる。対象物の状態とは、例えば、カメラに対する対象物の相対的な位置関係、対象物の湾曲の度合い、および、対象物の照明環境などである。カメラに対する対象物の相対的な位置関係には、例えば、対象物とカメラとの距離、カメラに対する対象物の方向、および、カメラに対する対象物の相対的な角度(ロール、ピッチ、ヨー)が含まれる。
推定部102による状態の推定方法としては、従来から用いられているあらゆる方法を適用できる。例えば、推定部102は、画像からハフ変換によって対象物の形状を抽出し、抽出した対象物とカメラとの位置関係(距離、方向、角度)、対象物の湾曲具合を算出する。推定部102は、予め登録されている形状とのテンプレートマッチングによって、画像から対象物の形状を求めてもよい。
推定部102は、図2に示すように、画像から一部の画像を切り出し、切り出した画像の中心位置から輝度の重心位置へのベクトルを算出し、算出したベクトルの方向を使って対象物の相対的な角度を推定することもできる。例えば、推定部102は、登録物体の画像から算出したベクトルと、撮影した画像から算出したベクトルとの角度差から、対象物の角度を推定できる。重心位置の算出は、切り出した画像内の全ての画素から算出してもよいし、一部の画素から算出することで低処理コスト化してもよい。また、輝度の重心は、切り出した画像内に複数の領域を設定し、その領域を使って算出することもできる。例えば、切り出した画像内に設定されたn個の領域S(i=1,2,・・・,n)の位置をx、輝度値の合計をyとすると、重心Cは以下の数1で表すことができる。
Figure 0005651659
推定部102は、図3に示すように、画像から抽出した輝度勾配の統計量のピークから対象物の相対的な角度を推定することもできる。例えば、登録物体の画像の統計量のピークと、撮影された画像の統計量のピークとの位置関係から、対象物の角度を推定できる。統計量は、画像内に複数の領域を設定し、その領域を使って算出してもよいし、HOG(Histograms of Oriented Gradients)など、従来の輝度算出方法を使って算出してもよい。ピークは統計量の値が最大の位置でもよいし、関連する統計量(例えば図3のピーク値301の箇所とピーク値301の左右の箇所)の和が最大の位置でもよい。
推定部102は、画像から切り出した一部の画像の勾配方向から対象物の相対的な角度を推定することもできる。例えば、推定部102は、登録物体の画像から切り出した一部の画像の勾配方向と、撮影された画像から切り出した一部の画像の勾配方向との角度差から、対象物の角度を推定できる。
推定部102は、画像の輝度の重み付き和から対象物の照明環境を推定できる。例えば、推定部102は、重み付き和が小さい場合、対象物が暗い照明環境下に存在すると推定し、重み付き和が大きい場合、対象物が明るい照明環境下に存在すると推定する。
推定部102は、焦点距離、開口数、および露出時間などのカメラのパラメータを用いて、カメラに対する対象物の相対的な位置関係、および、対象物の照明環境を推定してもよい。
対象物が固定位置に存在する場合、推定部102は、GPSなどの位置検出機能により検出したカメラ(物体検出装置100)の位置と固定位置とから、カメラに対する対象物の相対的な位置関係を推定できる。
物体検出装置100が距離センサを備える場合は、推定部102は、距離センサから得られる対象物とカメラとの距離を用いて、カメラに対する対象物の相対的な位置関係、および、対象物の湾曲具合を推定してもよい。物体検出装置100が加速度センサやジャイロセンサを備える場合は、推定部102は、これらのセンサから得られる情報を用いて対象物とカメラとの角度を推定してもよい。推定部102は、物体検出装置100に備えられる照度センサ、または、物体検出装置100が存在する環境に備えられる照度センサから得られる照度の情報から、対象物の照明環境を推定してもよい。
設定部103は、画像内に、特徴量を算出するための複数のサンプリング点および複数の領域(周辺領域)を設定する。このとき、設定部103は、対象物の状態に応じて、複数の領域の相対的な位置関係および形状の少なくとも1つを変化させる。また、設定部103は、対象物の状態に応じて、サンプリング点の位置、複数のサンプリング点間の間隔、および、サンプリング点が並ぶ方向などを変化させる。サンプリング点とは、特徴量を抽出する領域の基準となる点である。領域とは、画像から輝度を抽出する範囲である。領域は、矩形や円形など、任意の形状である。
例えば、設定部103は、カメラに対する対象物の相対的な位置関係と、画像全体に対する複数の領域の相対的な位置関係とが一致するように、複数の領域の相対的な位置関係および形状を変化させる。
以下、設定部103による領域およびサンプリング点の設定方法の例を説明する。
設定部103は、対象物がカメラに対して左寄りに存在する場合は、サンプリング点を左寄りに配置する。設定部103は、対象物がカメラに対して右寄りに存在する場合は、サンプリング点を右寄りに配置する。
設定部103は、対象物がカメラの近くに存在する場合は、サンプリング点の間隔を広く設定する。設定部103は、対象物がカメラから遠くに存在する場合は、サンプリング点の間隔を狭く設定する。対象物の形状およびカメラに対する対象物の角度等から、対象物の一部がカメラの近くに存在し、他の部分がカメラから遠くに存在すると推定されるような場合は、設定部103は、対象物の各部の位置、および、各部とカメラとの距離と一致するように、複数のサンプリング点、および、サンプリング点の間隔を設定する。
設定部103は、カメラに対する対象物の角度が変化した場合は、サンプリング点どうしの角度を変化させる。例えば、対象物の上下方向がカメラの上下方向から角度αずれた場合、推定部102は、角度αの方向で縦に並び、角度(α+90°)の方向で横に並ぶようにサンプリング点を設定する。
設定部103は、対象物の状態とサンプリング点の位置とを基準に領域を設定する。例えば、対象物がカメラの近くに存在する場合は、設定部103は、領域を大きく、かつ、サンプリング点から遠く設定する。対象物がカメラから遠くに存在する場合は、設定部103は、領域を小さく、かつ、サンプリング点から近く設定する。
対象物とカメラとの俯角(ロール、ピッチ)が変化した場合は、設定部103は、領域の矩形の幅と高さを俯角に応じて設定する。対象物とカメラとの回転角(ヨー)が変化した場合は、サンプリング点に対する領域の位置を回転角に応じて設定する。
対象物が暗い照明環境下に存在する場合、検出の精度を高めるため、設定部103は、対象物が暗い照明環境下に存在する場合より領域の間隔およびサンプリング点の間隔の少なくとも1つを小さく設定する。
図4〜図6は、領域およびサンプリング点の設定例を示す図である。図4は、雑誌などの矩形である対象物が、奥行方向に傾いて撮像された場合の例を示す。この場合、対象物は画像上では台形になる。このような場合、設定部103は、画像上の対象物と同様の台形状に並ぶようにサンプリング点を設定する。また、設定部103は、台形の上底に近いほどサンプリング点の間隔が狭くなるように設定する。また、設定部103は、図4に示すように対象物と同様の台形状の領域を設定する。
なお、領域を台形にせず、対象物の状態に応じて辺の長さを変化させた矩形としてもよい。後述するように、領域が矩形の場合、輝度平均の算出等のアルゴリズムとしてIntegral Imageを用いることができ、算出処理を高速化できる。
図5は、対象物とカメラとの回転角(ヨー)が変化した場合の例を示す。この場合、対象物は画像上ではある角度(α)傾いた状態になる。このような場合、設定部103は、画像上の対象物と同様に角度α傾いた方向に並ぶようにサンプリング点を設定する。また、設定部103は、角度α傾いた方向に並ぶように領域を設定する。
図6は、対象物が湾曲している場合の例を示す。このような場合、設定部103は、対象物と同様に湾曲した形状に並ぶようにサンプリング点を設定する。また、設定部103は、対象物と同様に湾曲した形状に並ぶように、湾曲した形状の領域を設定する。
以上のような処理により、対象物の状態が変化した場合でも、変化前と同じような特徴量を算出することができる。従って、より高精度に物体を検出可能となる。
図1に戻り、第1算出部104は、設定された領域間の輝度勾配を算出する。輝度勾配は、各サンプリング点に対応する複数の領域から抽出した輝度値から算出する。例えば、座標xのサンプリング点に対応するn個の領域の輝度値L(i)(i=1,2,・・・,n)から算出した垂直方向の輝度勾配の方向V(x)、および、水平方向の輝度勾配の方向H(x)は、それぞれ以下の数1および数2で表される。
Figure 0005651659
Figure 0005651659
ここで、aは領域iの重みである。U(x)はxの垂直方向の輝度勾配を算出するときに使用する領域の集合である。U(x)はxの水平方向の輝度勾配を算出するときに使用する領域の集合である。領域の輝度値とは、領域内の画素の輝度値の重み付き和や、領域内の画素の輝度値の重み付き平均のことをいう。輝度値の重みは一定でもよいし、ガウシアンフィルタなどを使って決めてもよいし、任意の値に設定してもよい。領域が矩形の場合、輝度平均はIntegral Imageを用いると高速に算出できる。
図4〜図6の例では、サンプリング点の周辺に8つの領域を設定する例を示した。領域間の輝度勾配を用いる場合は、少なくとも4つの領域が設定されればよい。例えば、垂直方向の輝度勾配を算出するために垂直方向に並ぶ2つの領域と、水平方向の輝度勾配を算出するために水平方向に並ぶ2つの領域と、の合計4つの領域が設定されればよい。
第2算出部105は、輝度勾配の統計量(統計データ)を算出する。統計データとは、輝度勾配の方向を量子化し、ヒストグラム化したデータである。ここで、サンプリング点xにおける輝度勾配の方向θ(x)は、以下の数3などの式で表される。
Figure 0005651659
輝度勾配の方向は、d方向、または、d方向および方向なしに離散化(量子化)した後、ヒストグラムに加算する。ヒストグラムへ加算する量は一定でもよいし、重み付けしてもよい。重み付けに用いる重みの値は、任意の値でよい。例えば、輝度勾配の強度、領域内の画素の輝度値の分散、各種センサ(加速度センサ、ジャイロセンサ等)の出力値、および、これらの値の少なくとも2つを掛け合わせた値を、重みの値として用いてもよい。
ここで、サンプリング点xにおける輝度勾配の強度m(x)は、以下の数4などの式で表される。
Figure 0005651659
ヒストグラムは、一部のサンプリング点から抽出した輝度勾配を使って作成してもよいし、全部のサンプリング点から抽出した輝度勾配を使って作成してもよいし、一部のサンプリング点から抽出した輝度勾配を使って作成したヒストグラムを組み合わせて作成してもよい。
第1算出部104および第2算出部105は、設定された領域の画像の特徴量を算出する算出部として機能する。なお、特徴量は、輝度勾配の統計量に限られるものではなく、従来から用いられているあらゆる特徴量を適用できる。
例えば、輝度勾配に加えて、対象物の色特徴量も統計データに加えることで、認識精度を向上させることができる。例えば、CbやCrなどの色差信号の値そのものや、色差信号の値から算出した勾配を使ってヒストグラムを算出し、これを統計データに加えることもできる。
また、例えば、領域の輝度自体を特徴量としてもよい。また、バイナリコードで特徴を表すBRIEF(Binary Robust Independent Elementary Features)を用いてもよい。この場合、例えば複数の領域の輝度値(領域内の輝度値の平均値など)の大小比較結果をバイナリデータとしてもよい。複数の領域からランダムに選択した2点の輝度値の大小比較結果をバイナリデータとしてもよい。
検出部106は、算出された統計データと、記憶部121に記憶された登録物体の特徴量(統計データ)とを比較し、算出された統計データと類似または一致する統計データを有する登録物体を、対象物に対応する登録物体として特定(検出)する。登録物体の統計データは、第1算出部104および第2算出部105と同様の手法により事前に算出される。検出部106は、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、および、正規化相互相関などによって、統計データ間の類似度を算出してもよい。また、検出部106が、SVM(Support vector machine)などの識別器によって対象物に対応する登録物体を検出するように構成してもよい。
図7は、領域の設定例と輝度勾配の抽出例とを示した図である。設定部103は、画像内にサンプリング点701を設定する。また、設定部103は、サンプリング点701を基準として、周辺の8方向に領域702を設定する。上述のように、本実施形態では、周辺の領域702の輝度値から輝度勾配の強度(エッジ強度)を算出する。このため、図7の中段に示すように仮にサンプリング点での輝度の変化が大きい場合であっても、位置の変化(対象物の見え方の変化)に対するエッジ強度の頑健性が向上する。
また、図7には示していないが、設定部103は、対象物の状態に応じて、サンプリング点の位置等、および、領域の形状等を変化させる。従って、画像を撮像する環境などの変化に対しても頑健性を向上させることができる。また、サンプリング点の個数を減らしても、物体全体の形状を頑健に抽出できる。サンプリング点の個数を減らせるため、例えばメモリの参照回数を低減し、応答速度を高速化することができる。
また、物体を登録する際、登録する画像のほかに、回転などや照明変動などの画像処理を加えた画像を登録してもよい。これにより、物体の見え方の変化に対してさらに頑健になる。
次に、このように構成された第1の実施形態にかかる物体検出装置100による物体検出処理について図8を用いて説明する。図8は、第1の実施形態における物体検出処理の一例を示すフローチャートである。
取得部101は、例えばカメラで撮像された画像を取得する(ステップS101)。推定部102は、取得された画像に撮像された対象物の状態を推定する(ステップS102)。設定部103は、推定された状態に応じて、取得された画像内に複数のサンプリング点および複数の領域を設定する(ステップS103)。第1算出部104は、設定された領域間の輝度勾配を算出する(ステップS104)。第2算出部105は、算出された輝度勾配を用いて、輝度勾配の統計データを算出する(ステップS105)。検出部106は、画像から算出された統計データと、記憶部121に記憶された登録物体の統計データとを比較する(ステップS106)。検出部106は、対応する登録物体、すなわち、統計データが類似または一致する登録物体が検出されたか否かを判断する(ステップS107)。検出された場合(ステップS107:Yes)、検出部106は、物体が検出されたことを出力し(ステップS108)、物体検出処理を終了する。対応する登録物体が検出されなかった場合(ステップS107:No)、検出部106は物体検出処理を終了する。
物体が検出されたことは、通信部(図示せず)などを介して外部装置に出力してもよいし、表示部131に出力(表示)してもよい。検出部106が、検出結果に応じたコンテンツを表示部131に表示してもよい。例えば、検出部106が、検出結果に応じた映像を表示部131にストリーミング配信したり、検出結果に応じたホームページを表示部131に表示したりしてもよい。これにより、ユーザに特定結果をフィードバックすることができる。映像の配信や、ホームページの表示に時間がかかる場合は、物体を認識(検出)したことを示すアニメーションを表示部131に表示してもよい。これにより、物体を認識したか否かをユーザに素早くフィードバックすることができる。
このように、第1の実施形態にかかる物体検出システムでは、撮像された対象物の状態を推定し、物体検出に用いる特徴量を算出するための領域を、推定した状態に応じて設定する。これにより、物体の状態変化に頑健な物体検出を実現できる。
(第2の実施形態)
第2の実施形態にかかる物体検出システムは、領域およびサンプリング点だけでなく、統計データの算出方法を、対象物の状態に応じて変化させる。
図9は、第2の実施形態にかかる物体検出装置100−2の構成の一例を示すブロック図である。図9に示すように、物体検出装置100−2は、記憶部121と、表示部131と、取得部101と、推定部102と、設定部103と、第1算出部104と、第2算出部105−2と、検出部106と、とを備えている。
第2の実施形態では、第2算出部105−2の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる物体検出装置100の構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
第2算出部105−2は、第1の実施形態の第2算出部105の機能に加えて、対象物の状態に応じて統計データの算出方法(例えばヒストグラムの作成方法)を変更する機能を備える。これにより、対象物の認識精度をさらに向上させることができる。
例えば、対象物の回転角が変化した場合、第2算出部105−2は、輝度勾配の方向とヒストグラムのビンとの対応関係が登録物体の統計データと同じになるように、回転角に応じて輝度勾配の方向とヒストグラムのビンとの対応関係を変化させる。また、対象物の照明環境が変化した場合、第2算出部105−2は、照明環境(例えば照度)に応じて、方向なしを判定するための閾値を変更する。例えば、第2算出部105−2は、暗い照明環境下では、方向なしを判定するための閾値を小さくする。これにより、精度の高い方向ありのデータのみを物体検出に用いることができる。
次に、このように構成された第2の実施形態にかかる物体検出装置100−2による物体検出処理について図10を用いて説明する。図10は、第2の実施形態における物体検出処理の全体の流れを示すフローチャートである。
第2の実施形態では、ステップS205が追加されたことが、第1の実施形態の物体検出処理を示す図8と異なっている。ステップS201からステップS204、ステップS206からステップS209は、図8のステップS101からステップS108までと同様の処理なので、その説明を省略する。
ステップS205で、第2算出部105−2は、推定された状態に応じて、統計データの算出方法を設定する(ステップS205)。例えば、上述のように第2算出部105−2は、カメラに対する対象物の角度に応じて、輝度勾配の方向とヒストグラムのビンとの対応関係を変化させる。
このように、第2の実施形態にかかる物体検出システムでは、対象物の状態に応じて統計データの算出方法を変化させる。これにより、物体の状態変化に対して、より頑健な物体検出を実現できる。
(第3の実施形態)
第3の実施形態にかかる物体検出システムは、複数の装置に機能を分散して物体検出システムを実現する。具体的には、本実施形態では、特徴量(統計データ)の算出までを1つの装置(クライアント)で実行し、特徴量による物体の検出を他の装置(サーバ)で実行する例を説明する。
図11は、第3の実施形態にかかる物体検出システムの構成の一例を示すブロック図である。図11に示すように、第3の実施形態にかかる物体検出システムは、クライアント100−3と、サーバ200−3とを備えている。クライアント100−3は、表示部131と、取得部101と、推定部102と、設定部103と、第1算出部104と、第2算出部105と、通信部107と、を備えている。サーバ200−3は、通信部201と、検出部106と、記憶部121と、を備えている。
このように、第3の実施形態では、第1の実施形態の物体検出装置100の機能のうち、表示部131、取得部101、推定部102、設定部103、第1算出部104、および、第2算出部105をクライアント100−3に備え、検出部106および記憶部121をサーバ200−3に備える。また、クライアント100−3およびサーバ200−3が、両装置間のデータの送受信に用いる通信部107および通信部201を、それぞれ備える。第1の実施形態と同様の機能には同一符号を付し説明は省略する。
通信部107は、サーバ200−3などの外部装置との間でデータを送受信する。例えば、通信部107は、第2算出部105が算出した特徴量(統計データ)をサーバ200−3に送信する。
通信部201は、クライアント100−3などの外部装置との間でデータを送受信する。例えば、通信部201は、クライアント100−3から送信された特徴量を受信する。受信された特徴量は、検出部106による物体検出処理で利用される。
次に、このように構成された第3の実施形態にかかる物体検出システムによる物体検出処理について図12および図13を用いて説明する。第3の実施形態の物体検出処理は、クライアント100−3で実行される特徴算出処理(図12)と、サーバ200−3で実行される比較処理(図13)とに分けられる。
図12は、第3の実施形態の特徴算出処理の全体の流れを示すフローチャートである。ステップS301からステップS305までは、第1の実施形態の物体検出処理(図8)のステップS101からステップS105までと同様の処理なので、その説明を省略する。ステップS305で統計データが算出されると、通信部107は、算出された統計データをサーバ200−3に送信し(ステップS306)、特徴算出処理を終了する。
図13は、第3の実施形態の比較処理の全体の流れを示すフローチャートである。サーバ200−3の通信部201は、クライアント100−3から送信された統計データを受信する(ステップS401)。ステップS402からステップS404までは、第1の実施形態の物体検出処理(図8)のステップS106からステップS108までと同様の処理なので、その説明を省略する。なお、ステップS404で、検出部106は、通信部201を介して検出結果をクライアント100−3に出力(送信)するように構成してもよい。
このように、第3の実施形態の物体検出システムでは、物体検出処理に用いる複数の機能を2つの装置に分散させる。例えば、対象物の特定(検出)を計算性能の高いサーバで行うように構成することができる。これにより、登録物体の数が多い場合でも高速に計算することが可能となる。
なお、第3の実施形態では、第1の実施形態の物体検出装置100の機能を2つの装置(クライアント、サーバ)に分散した例を説明したが、第2の実施形態の物体検出装置100−2の機能を2つの装置(クライアント、サーバ)に分散してもよい。例えば、第3の実施形態の第2算出部105の代わりに、クライアント100−3が第2算出部105−2を備えてもよい。
(第4の実施形態)
第4の実施形態では、複数の装置に機能を分散して物体検出システムを実現する他の例を説明する。具体的には、本実施形態では、画像の取得までを1つの装置(クライアント)で実行し、対象物の状態の推定以降の処理を他の装置(サーバ)で実行する例を説明する。
図14は、第4の実施形態にかかる物体検出システムの構成の一例を示すブロック図である。図14に示すように、第4の実施形態にかかる物体検出システムは、クライアント100−4と、サーバ200−4とを備えている。クライアント100−4は、表示部131と、取得部101と、通信部107−4と、を備えている。サーバ200−4は、通信部201−4と、推定部102と、設定部103と、第1算出部104と、第2算出部105と、検出部106と、記憶部121と、を備えている。
このように、第4の実施形態では、第1の実施形態の物体検出装置100の機能のうち、表示部131および取得部101をクライアント100−4に備え、推定部102、設定部103、第1算出部104、第2算出部105、検出部106および記憶部121をサーバ200−4に備える。また、クライアント100−4およびサーバ200−4が、両装置間のデータの送受信に用いる通信部107−4および通信部201−4を、それぞれ備える。第1の実施形態と同様の機能には同一符号を付し説明は省略する。
通信部107−4は、サーバ200−4などの外部装置との間でデータを送受信する。例えば、通信部107−4は、取得部101が取得した画像をサーバ200−4に送信する。
通信部201−4は、クライアント100−4などの外部装置との間でデータを送受信する。例えば、通信部201−4は、クライアント100−4から送信された画像を受信する。受信された画像は、例えば推定部102による推定処理、および、第1算出部104による算出処理で利用される。
次に、このように構成された第4の実施形態にかかる物体検出システムによる物体検出処理について図15および図16を用いて説明する。第4の実施形態の物体検出処理は、クライアント100−4で実行される画像取得処理(図15)と、サーバ200−4で実行される比較処理(図16)とに分けられる。
図15は、第4の実施形態の画像取得処理の全体の流れを示すフローチャートである。ステップS501は、第1の実施形態の物体検出処理(図8)のステップS101と同様の処理なので、その説明を省略する。ステップS501で画像が取得されると、通信部107−4は、取得された画像をサーバ200−4に送信し(ステップS502)、画像取得処理を終了する。
図16は、第4の実施形態の比較処理の全体の流れを示すフローチャートである。サーバ200−4の通信部201−4は、クライアント100−4から送信された画像を受信する(ステップS601)。ステップS602からステップS608までは、第1の実施形態の物体検出処理(図8)のステップS102からステップS108までと同様の処理なので、その説明を省略する。なお、ステップS608で、検出部106は、通信部201−4を介して検出結果をクライアント100−4に出力(送信)するように構成してもよい。
なお、第4の実施形態では、第1の実施形態の物体検出装置100の機能を2つの装置(クライアント、サーバ)に分散した例を説明したが、第2の実施形態の物体検出装置100−2の機能を2つの装置(クライアント、サーバ)に分散してもよい。例えば、第4の実施形態の第2算出部105の代わりに、サーバ200−4が第2算出部105−2を備えてもよい。
(第5の実施形態)
第5の実施形態にかかる物体検出システムは、統計データの算出方法のみを対象物の状態に応じて変化させる。
図17は、第5の実施形態にかかる物体検出装置100−5の構成の一例を示すブロック図である。図17に示すように、物体検出装置100−5は、記憶部121と、表示部131と、取得部101と、推定部102と、設定部103−5と、第1算出部104と、第2算出部105−2と、検出部106と、とを備えている。
第5の実施形態では、設定部103−5および第2算出部105−2の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる物体検出装置100の構成を表すブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。なお第2算出部105−2の機能は、第2の実施形態と同様であるため同一符号を付し、ここでの説明は省略する。
設定部103−5は、特徴量を算出するための複数のサンプリング点および複数の領域(周辺領域)を画像内に設定する。第5の実施形態では、対象物の状態に応じてサンプリング点および領域は変化させない。例えば、設定部103−5は、予め定められた間隔でサンプリング点を設定し、設定したサンプリング点の周辺に、予め定められた間隔および形状の領域を設定する。
第5の実施形態では、第2算出部105−2が、対象物の状態に応じて統計データの算出方法を変化させる。これにより、画像を撮像する環境などの変化に対して、より頑健な物体検出処理が実現できる。
次に、このように構成された第5の実施形態にかかる物体検出装置100−5による物体検出処理について図18を用いて説明する。図18は、第5の実施形態における物体検出処理の全体の流れを示すフローチャートである。
ステップS701からステップS702は、図8のステップS101からステップS102までと同様の処理なので、その説明を省略する。
設定部103−5は、画像内に複数の領域を設定する(ステップS703)。上述のように、第5の実施形態の設定部103−5は、対象物の状態に応じて領域の設定を変更しない。
ステップS704は、図8のステップS104と同様の処理なので、その説明を省略する。
第2算出部105−2は、推定された状態に応じて、統計データの算出方法を設定する(ステップS705)。この処理は例えば第2の実施形態の物体検出処理(図10)のステップS205と同様である。
ステップS706からステップS709は、図8のステップS105からステップS108までと同様の処理なので、その説明を省略する。
このように、第5の実施形態にかかる物体検出システムでは、対象物の状態に応じて統計データの算出方法を変化させる。これにより、物体の状態変化に対して、より頑健な物体検出を実現できる。
次に、上記実施形態にかかる物体検出システムの各装置(物体検出装置、クライアント、サーバ)のハードウェア構成について図19を用いて説明する。図19は、上記実施形態にかかる物体検出システムのハードウェア構成を示す説明図である。
上記実施形態にかかる物体検出システムは、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
上記実施形態にかかる物体検出システムで実行されるプログラムは、ROM52等に予め組み込まれて提供される。
上記実施形態にかかる物体検出システムで実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、上記実施形態にかかる物体検出システムで実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上記実施形態にかかる物体検出システムで実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
上記実施形態にかかる物体検出システムで実行されるプログラムは、コンピュータを上述した物体検出システムの各部(取得部、推定部、設定部、第1算出部、第2算出部、検出部等)として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
なお、本発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。
100 物体検出装置
101 取得部
102 推定部
103 設定部
104 第1算出部
105 第2算出部
106 検出部
107 通信部
121 記憶部
131 表示部

Claims (14)

  1. 対象物が撮像された画像を取得する取得部と、
    前記対象物の状態を推定する推定部と、
    前記画像内のサンプリング点の周辺に、複数の領域であって、複数の前記領域間の相対的な位置関係および、複数の前記領域の形状の少なくとも1つを前記状態に応じて変化させた複数の前記領域を設定する設定部と、
    複数の前記領域のうち輝度勾配を算出する第1方向に応じて定められる前記領域内の画素の輝度値を用いて、前記第1方向の輝度勾配を算出し、算出した前記輝度勾配の統計量である、前記領域の画像の特徴量を算出する算出部と、
    算出された前記特徴量と、予め定められた登録物体の特徴量とを比較することにより、前記対象物に対応する前記登録物体を検出する検出部と、
    を備える物体検出システム。
  2. 前記算出部は、前記状態に応じて前記統計量の算出方法を変更する、
    請求項1に記載の物体検出システム。
  3. 前記算出部は、さらに前記領域の色特徴量を算出し、算出した前記輝度勾配および前記色特徴量の統計量である前記特徴量を算出する、
    請求項1に記載の物体検出システム。
  4. 前記設定部は、さらに、複数の前記サンプリング点の相対的な位置関係を、前記状態に応じて変化させる、
    請求項1に記載の物体検出システム。
  5. 前記推定部は、前記画像を撮像した撮像部に対する前記対象物の相対的な位置関係、前記対象物の湾曲状態、および、前記対象物の照明環境の少なくとも1つである前記状態を推定する、
    請求項1に記載の物体検出システム。
  6. 前記取得部、前記推定部、前記設定部および前記算出部を備えるクライアント装置と、前記検出部を備えるサーバ装置と、を備え、
    前記クライアント装置は、
    前記算出部により算出された前記特徴量を前記サーバ装置に送信する通信部をさらに備え、
    前記検出部は、前記クライアント装置から送信された前記特徴量と、前記登録物体の特徴量とを比較することにより、前記対象物に対応する前記登録物体を検出する、
    請求項1に記載の物体検出システム。
  7. 前記取得部を備えるクライアント装置と、前記推定部、前記設定部、前記算出部および前記検出部を備えるサーバ装置と、を備え、
    前記クライアント装置は、
    前記取得部により取得された前記画像を前記サーバ装置に送信する通信部をさらに備え、
    前記設定部は、複数の前記領域を、前記クライアント装置から送信された画像内に設定する、
    請求項1に記載の物体検出システム。
  8. 対象物が撮像された画像を取得する取得部と、
    前記対象物の状態を推定する推定部と、
    前記画像内のサンプリング点の周辺に複数の領域を設定する設定部と、
    複数の前記領域のうち輝度勾配を算出する第1方向に応じた前記領域内の画素の輝度値を用いて、前記第1方向の輝度勾配を算出し、前記状態に応じて変更した算出方法により、前記輝度勾配の統計量である特徴量を算出する算出部と、
    算出された前記特徴量と、予め定められた登録物体の特徴量とを比較することにより、前記対象物に対応する前記登録物体を検出する検出部と、
    を備える物体検出システム。
  9. 前記算出部は、さらに前記領域の色特徴量を算出し、算出した前記輝度勾配および前記色特徴量の統計量である前記特徴量を算出する、
    請求項8に記載の物体検出システム。
  10. 前記推定部は、前記画像を撮像した撮像部に対する前記対象物の相対的な位置関係、前記対象物の湾曲状態、および、前記対象物の照明環境の少なくとも1つである前記状態を推定する、
    請求項8に記載の物体検出システム。
  11. 前記取得部、前記推定部、前記設定部および前記算出部を備えるクライアント装置と、前記検出部を備えるサーバ装置と、を備え、
    前記クライアント装置は、
    前記算出部により算出された前記特徴量を前記サーバ装置に送信する通信部をさらに備え、
    前記検出部は、前記クライアント装置から送信された前記特徴量と、前記登録物体の特徴量とを比較することにより、前記対象物に対応する前記登録物体を検出する、
    請求項8に記載の物体検出システム。
  12. 前記取得部を備えるクライアント装置と、前記推定部、前記設定部、前記算出部および前記検出部を備えるサーバ装置と、を備え、
    前記クライアント装置は、
    前記取得部により取得された前記画像を前記サーバ装置に送信する通信部をさらに備え、
    前記設定部は、複数の領域を、前記クライアント装置から送信された画像内に設定する、
    請求項8に記載の物体検出システム。
  13. コンピュータを、
    対象物が撮像された画像を取得する手段と、
    前記対象物の状態を推定する手段と、
    前記画像内のサンプリング点の周辺に、複数の領域であって、複数の前記領域間の相対的な位置関係および、複数の前記領域の形状の少なくとも1つを前記状態に応じて変化させた複数の前記領域を設定する手段と、
    複数の前記領域のうち輝度勾配を算出する第1方向に応じて定められる前記領域内の画素の輝度値を用いて、前記第1方向の輝度勾配を算出し、算出した前記輝度勾配の統計量である、前記領域の画像の特徴量を算出する手段と、
    算出された前記特徴量と、予め定められた登録物体の特徴量とを比較することにより、前記対象物に対応する前記登録物体を検出する手段、
    として機能させるためのプログラム。
  14. コンピュータを、
    対象物が撮像された画像を取得する手段と、
    前記対象物の状態を推定する手段と、
    前記画像内のサンプリング点の周辺に複数の領域を設定する手段と、
    複数の前記領域のうち輝度勾配を算出する第1方向に応じた前記領域内の画素の輝度値を用いて、前記第1方向の輝度勾配を算出し、前記状態に応じて変更した算出方法により、前記輝度勾配の統計量である特徴量を算出する手段と、
    算出された前記特徴量と、予め定められた登録物体の特徴量とを比較することにより、前記対象物に対応する前記登録物体を検出する手段、
    として機能させるためのプログラム。
JP2012192409A 2012-08-31 2012-08-31 物体検出システムおよびプログラム Active JP5651659B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012192409A JP5651659B2 (ja) 2012-08-31 2012-08-31 物体検出システムおよびプログラム
US13/915,979 US10210414B2 (en) 2012-08-31 2013-06-12 Object detection system and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012192409A JP5651659B2 (ja) 2012-08-31 2012-08-31 物体検出システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2014048966A JP2014048966A (ja) 2014-03-17
JP5651659B2 true JP5651659B2 (ja) 2015-01-14

Family

ID=50187663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012192409A Active JP5651659B2 (ja) 2012-08-31 2012-08-31 物体検出システムおよびプログラム

Country Status (2)

Country Link
US (1) US10210414B2 (ja)
JP (1) JP5651659B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186520A (ja) 2013-03-22 2014-10-02 Toshiba Corp 画像処理装置、画像処理方法およびプログラム
JP2015032211A (ja) 2013-08-05 2015-02-16 株式会社東芝 画像処理装置、方法およびプログラム
JP6539469B2 (ja) * 2015-03-30 2019-07-03 パイオニア株式会社 特徴量抽出装置、特徴量抽出方法及び特徴量抽出用プログラム
CN105740792B (zh) * 2016-01-25 2019-03-12 浙江生辉照明有限公司 目标检测方法和装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0851374B1 (en) * 1996-12-30 2003-09-10 DATALOGIC S.p.A. Method of locating an object-applied code
US7003161B2 (en) * 2001-11-16 2006-02-21 Mitutoyo Corporation Systems and methods for boundary detection in images
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
JP2011061247A (ja) 2007-11-15 2011-03-24 Panasonic Corp マルチリモコン制御装置
JP2010020594A (ja) * 2008-07-11 2010-01-28 Kddi Corp 瞳画像認識装置
JP4547639B2 (ja) * 2008-08-26 2010-09-22 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4626692B2 (ja) * 2008-09-12 2011-02-09 ソニー株式会社 物体検出装置、撮像装置、物体検出方法およびプログラム
JP5361530B2 (ja) 2009-05-20 2013-12-04 キヤノン株式会社 画像認識装置、撮像装置及び画像認識方法
JP5182229B2 (ja) * 2009-06-02 2013-04-17 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
WO2011007390A1 (ja) 2009-07-15 2011-01-20 株式会社 東芝 画像処理装置、及びインターフェース装置
JP5451302B2 (ja) * 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体
JP5554984B2 (ja) * 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
JP5588165B2 (ja) * 2009-12-24 2014-09-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US8582889B2 (en) * 2010-01-08 2013-11-12 Qualcomm Incorporated Scale space normalization technique for improved feature detection in uniform and non-uniform illumination changes
US8509526B2 (en) * 2010-04-13 2013-08-13 International Business Machines Corporation Detection of objects in digital images
JP5759161B2 (ja) * 2010-12-16 2015-08-05 キヤノン株式会社 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム
JP5631229B2 (ja) * 2011-01-31 2014-11-26 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP5734810B2 (ja) 2011-11-14 2015-06-17 株式会社東芝 機器制御装置、その方法、及び、そのプログラム

Also Published As

Publication number Publication date
US20140064556A1 (en) 2014-03-06
JP2014048966A (ja) 2014-03-17
US10210414B2 (en) 2019-02-19

Similar Documents

Publication Publication Date Title
US9928656B2 (en) Markerless multi-user, multi-object augmented reality on mobile devices
CN106920279B (zh) 三维地图构建方法和装置
JP5480777B2 (ja) オブジェクト表示装置及びオブジェクト表示方法
CN106897648B (zh) 识别二维码位置的方法及其系统
US9704230B2 (en) Feedback to user for indicating augmentability of an image
JP6566768B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5951043B2 (ja) 画像計測装置
US9064178B2 (en) Edge detection apparatus, program and method for edge detection
US10122912B2 (en) Device and method for detecting regions in an image
JP5651659B2 (ja) 物体検出システムおよびプログラム
JP2021108193A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2019109624A (ja) 情報処理装置、プログラム及び情報処理方法
JP2014186520A (ja) 画像処理装置、画像処理方法およびプログラム
JP6452361B2 (ja) 情報処理装置、情報処理方法、プログラム
US10915772B2 (en) Apparatus and method for registering face pose for face recognition
CN116958795A (zh) 翻拍图像的识别方法、装置、电子设备及存储介质
KR101509105B1 (ko) 증강현실 제공 장치 및 그 방법
US11205064B1 (en) Measuring quality of depth images in real time
US11263784B2 (en) Determine image capture position information based on a quasi-periodic pattern
US9245192B2 (en) Ad collateral detection
CN109977746B (zh) 用于登记面部姿态以用于面部识别的设备和方法
JP4938065B2 (ja) 画像パラメータ調整装置及び方法及びプログラム
JP2015032211A (ja) 画像処理装置、方法およびプログラム
CN109727261A (zh) 一种基于图像局部区域的亚像素边缘检测方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141117

R151 Written notification of patent or utility model registration

Ref document number: 5651659

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350