JP5549605B2 - 視線位置検出装置、視線位置検出方法、及びコンピュータプログラム - Google Patents
視線位置検出装置、視線位置検出方法、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP5549605B2 JP5549605B2 JP2011005080A JP2011005080A JP5549605B2 JP 5549605 B2 JP5549605 B2 JP 5549605B2 JP 2011005080 A JP2011005080 A JP 2011005080A JP 2011005080 A JP2011005080 A JP 2011005080A JP 5549605 B2 JP5549605 B2 JP 5549605B2
- Authority
- JP
- Japan
- Prior art keywords
- visual
- image
- target image
- line
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 25
- 238000004590 computer program Methods 0.000 title claims description 4
- 230000000007 visual effect Effects 0.000 claims description 310
- 238000000605 extraction Methods 0.000 claims description 81
- 238000000034 method Methods 0.000 claims description 64
- 230000008569 process Effects 0.000 claims description 50
- 230000009466 transformation Effects 0.000 claims description 28
- 239000000284 extract Substances 0.000 claims description 16
- 238000009795 derivation Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 7
- 230000014509 gene expression Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、このような問題点に鑑みてなされたものであり、ユーザの視野画像に基づいて、ユーザが何を見ているのかを容易に且つ確実に自動で検出できるようにすることを目的とする。
図1は、視線位置検出装置の機能的な構成の一例を示す図である。本実施形態では、作業者(ユーザ)が視認する対象となる領域の二次元画像を予めデジタルカメラで得ておく(以下の説明では、「作業者が視認する対象となる領域の二次元画像」を必要に応じて「視認対象画像」と称する)。また、頭部装着型の視野カメラを作業者の頭部に装着させ、作業者の視野範囲を撮像した二次元画像を当該頭部装着型の視野カメラで得る(以下の説明では、「作業者の視野範囲を撮像した二次元画像」を必要に応じて「視野カメラ画像」と称する)。視線位置検出装置100は、これら視認対象画像と視野画像とを入力し、「視野画像における視線位置(視野画像における作業者の注視点)」と画像上での位置が相互に対応する「視認対象画像上の位置」を視認対象画像上視線位置として検出する機能を有する。
以下、視線位置検出装置100が有する機能の詳細を説明する。視線位置検出装置100のハードウェアは、例えば、CPU、ROM、RAM、HDD、及び各種のインターフェースを備えた情報処理装置を用いることにより実現することができる。
画像取得部101は、作業者がその頭部に装着した頭部装着型の視野カメラで撮像された視野カメラ画像(動画像)を取り込む。尚、頭部装着型の視野カメラは、作業者の視野範囲を撮像するものであり、公知の技術で実現できるものであるので、ここでは、その詳細を省略する。また、以下の説明では、「頭部装着型の視野カメラ」を必要に応じて「視野カメラ」と略称する。
また、画像取得部101は、デジタルカメラで撮像された視認対象画像を取り込む。
画像取得部101は、例えば、画像インターフェースが視野カメラで得られた視野カメラ画像の信号や、デジタルカメラで得られた視認対象画像の信号を受信し、CPUが、その画像信号をVRAM等に記憶することにより実現できる。
特徴点抽出部102は、画像取得部101で取得された「視野カメラ画像と視認対象画像」の特徴点(特徴量ベクトル)を抽出する。ここで、特徴点抽出部102は、視野カメラ画像の各フレームの特徴点を抽出する。本実施形態では、画像の特徴点の抽出に、Scale-Invariant Feature Transform(SIFT)を用いるようにしている。SIFTは、画像の中から注目する画素を特徴点として決定し、特徴点の周辺の領域における輝度の分布から特徴量を算出する手法であり、回転やスケール変化等に頑健な特徴量を記述可能なことから、同一画像をデータベース中から検索する画像検索などの用途で主に用いられる。尚、SIFTのアルゴリズムは、非特許文献2等に記載されているように公知の技術で実現できるので、ここでは、その詳細な説明を省略する。
図2は、視野カメラ画像のSIFT特徴点(図2(a))と、視認対象画像のSIFT特徴点(図2(b))の一例を概念的に示す図(写真)である。図2では、作業者が、高炉の操業状態を表示するモニターを見ている場合を例に挙げて示している。図2では、SIFT特徴点を白丸で示している。
視野カメラ画像のSIFT特徴点Siは、以下の(1)式で表され、視認対象画像のSIFT特徴点Tjは、以下の(2)式で表される。すなわち、SIFT特徴点Si、Tjはともに、128次元の要素を持つベクトルである。
特徴点抽出部102は、例えば、CPUが、VRAM等から、視野カメラ画像と視認対象画像のデータを読み出し、それらのSIFT特徴点を、SIFTのアルゴリズムにより抽出し、抽出したSIFT特徴点の情報をRAM等に記憶することにより実現できる。
特徴点マッチング部103は、視野カメラ画像のSIFT特徴点Siの特徴量と、視認対象画像のSIFT特徴点Tjの特徴量との誤差を、以下の(3)式のように、これらのユークリッド距離d(i,j)として導出する。
次に、特徴点マッチング部103は、視野カメラ画像のSIFT特徴点Siと、視認対象画像のSIFT特徴点Tj(i,0)とのユークリッド距離d(i,j(i,0))と、視野カメラ画像のSIFT特徴点Siと、視認対象画像のSIFT特徴点Tj(i,1)とのユークリッド距離d(i,j(i,1))とを比較し、以下の(4)式を満たすか否かを判定する。
その後、特徴点マッチング部103は、同一の「視野カメラ画像のSIFT特徴点Si」に対し、複数の対応点(複数の「視認対象画像のSIFT特徴点Tj(i,0)」)が設定されたか否かを判定する。この判定の結果、複数の対応点が設定された場合、特徴点マッチング部103は、それらの対応点の対のうち、ユークリッド距離d(i,j)が最も近い対応点の対を選択し、それ以外の対応点の対を除去する。
誤対応除去部104は、特徴点マッチング部103により得られた対応点の対(視野カメラ画像のSIFT特徴点Siと、当該視野カメラ画像のSIFT特徴点Siと特徴量が相互に対応する視認対象画像のSIFT特徴点Tj(i,0))をランダムに4つ選択する。
次に、誤対応除去部104は、選択した4つの対応点の対の画像上の座標を用いて、以下の(5)式及び(6)式で示される「射影変換のためのパラメータa1〜a8」を導出する。
次に、誤対応除去部104は、射影変換のためのパラメータa1〜a8の導出のために使用していない対応点の対を選択する。そして、誤対応除去部104は、選択した対応点の対の一方である「視野カメラ画像のSIFT特徴点Si」の視野カメラ画像上の座標(x,y)とパラメータa1〜a8とを(5)式及び(6)式に代入して射影変換を行い、視認対象画像上の座標(x',y')を導出する。そして、誤対応除去部104は、導出した「視認対象画像上の座標(x',y')」と、選択した対応点の他方である「視認対象画像のSIFT特徴点Tj(i,0)」の視認対象画像上の座標(x',y')との誤差である投影誤差を導出する。そして、誤対応除去部104は、求めた投影誤差が閾値以下である場合、変数Cに1を加算する。一方、求めた投影誤差が閾値を超える場合には、変数Cは変化しない。
誤対応除去部104は、射影変換のためのパラメータa1〜a8の導出のために使用していない対応点の対の全てについて、投影誤差の導出と、投影誤差と閾値との比較と、変数Cの加算とを行う。
次に、誤対応除去部104は、得られた変数Cの最大値Cmaxを選択し、最大値Cmaxを得るために導出したパラメータa1〜a8を最適射影変換パラメータとして設定する。
次に、誤対応除去部104は、選択した対応点の対の一方である「視野カメラ画像のSIFT特徴点Si」の視野カメラ画像上の座標(x,y)と最適射影変換パラメータa1〜a8とを(5)式及び(6)式に代入して射影変換を行い、視認対象画像上の座標(x',y')を導出する。そして、誤対応除去部104は、導出した「視認対象画像上の座標(x',y')」と、選択した対応点の他方である「視認対象画像のSIFT特徴点Tj(i,0)」の視認対象画像上の座標(x',y')との誤差である投影誤差を導出する。そして、誤対応除去部104は、求めた投影誤差が閾値を超える場合、選択した対応点の対を誤対応の対応点の対であるとして除去する。
誤対応除去部104は、以上の対応点の対の選択と、投影誤差の導出と、投影誤差と閾値との比較と、対応点の対の除去とを、特徴点マッチング部103により得られた対応点の対の全てについて行う。
図3は、誤対応の対応点の対を除去した後の、対応点の対(視野カメラ画像のSIFT特徴点Siと、当該視野カメラ画像のSIFT特徴点Siと特徴量が相互に対応する視認対象画像のSIFT特徴点Tj(i,0))の一例を概念的に示す図(写真)である。図3では、視野カメラ画像301のSIFT特徴点Siと、視認対象画像302のSIFT特徴点Tj(i,0)との対応点の対が96個得られた場合を例に挙げて示している。尚、図3では、白い直線の両端が対応点となるが、この直線は、説明の便宜のために示したものであり、実際の画像に表示されるものではない。
視線位置近傍特徴点抽出部105は、対応点として設定されている視野カメラ画像のSIFT特徴点Siを全て選択する。
次に、視線位置近傍特徴点抽出部105は、視野カメラ画像のSIFT特徴点Siの視野カメラ画像上の座標(x,y)を頂点とする三角形を、ドロネーの三角分割法(Delaunay Triangulation)を用いて作成する(この三角形をドロネー三角形と称する)。
そのために、視線位置近傍特徴点抽出部105は、ボロノイ図(Voronoi Diagram)を作成する。ボロノイ図とは、以下の(7)式を満たすボロノイ領域(Voronoi Region)V(pi)で空間を分割したものをいう。
このようなボロノイ図において、隣接する点(ボロノイジェネレータ)同士を相互に繋いだ図をドロネー三角形分割という。このようにドロネー三角形分割を行うと、三角形の最小の内角が最大になる(三角形をなるべく細長くしない)ようにドロネー三角形が作成される。また、ドロネー三角形分割では、作成された任意のドロネー三角形に外接する円の内部には、他のドロネー三角形の頂点が含まれないという性質(外接円特性)がある。尚、ドロネー三角形分割のアルゴリズムは、非特許文献3等に記載されているように公知の技術で実現できるので、ここでは、これ以上の詳細な説明を省略する。
図4において、視野カメラ画像のSIFT特徴点Siの視野カメラ画像上の座標(x,y)の点が、ボロノイジェネレータp1〜p8となる。
以上のようにしてドロネー三角形が得られると、視線位置近傍特徴点抽出部105は、視野カメラ画像における作業者の視線位置を検出し、検出した作業者の視線位置がドロネー三角形の内部にあるか否かを判定する。この判定の結果、作業者の視線位置がドロネー三角形の内部にある場合、視線位置近傍特徴点抽出部105は、当該ドロネー三角形の3つの頂点を構成する「視野カメラ画像のSIFT特徴点Si」を視線位置近傍特徴点A、B、Cとして設定する(A、B、Cは、視野カメラ画像における座標を表すものとする)。
次に、視線位置近傍特徴点抽出部105は、視野カメラ画像のSIFT特徴点Siのうち、作業者の視線位置とのユークリッド距離が最も近い特徴点Siを、選択した「2つの視野カメラ画像のSIFT特徴点A、B」以外から選択する(ここで選択した「視野カメラ画像のSIFT特徴点Si」をCとする。また、Cは、視野カメラ画像における座標を表すものとする)。
次に、視線位置近傍特徴点抽出部105は、選択した「視野カメラ画像のSIFT特徴点A、B、C」に基づく角度(∠ACB)が以下の(8)式を満たすか否かを判定する。
30°<∠ACB<150° ・・・(8)
(8)式は、視野カメラ画像のSIFT特徴点Siの「視野カメラ画像における座標の点A、B、C」を頂点とする三角形をなるべく細長くしないようにするためのものである。よって、∠ACBの下限、上限は、それぞれ、30°、150°に限定されず、この主旨を逸脱しない範囲で、∠ACBの下限と上限とを定めることができる。
次に、視線位置近傍特徴点抽出部105は、以下の(9)式に示す2次元ベクトルの外積の符号と、以下の(10)式に示す2次元ベクトルの外積の符号とが同じであるか否かを判定する。この判定の結果、これらの外積の符号が同じである場合、視線位置近傍特徴点抽出部105は、選択した視野カメラ画像のSIFT特徴点A、B、Cを視線位置近傍特徴点A、B、Cとする。
また、(8)式を満たさない場合、視線位置近傍特徴点抽出部105は、「2つの視野カメラ画像のSIFT特徴点Si」の「視野カメラ画像における座標の点A、B」以外の点を全て選択したか否かを判定する。
この判定の結果、全ての点を選択したにもかかわらず、点Cを選択する条件である(8)式、(9)式、(10)式の条件を満たす点が無かった場合には、視線位置近傍特徴点抽出部105は、視野カメラ画像のこれまで選択したSIFT特徴点Siのうち、作業者の視線位置とのユークリッド距離が最も近い特徴点Siを、選択した「2つの視野カメラ画像のSIFT特徴点A、B」以外から選択し直す(ここで選択した「視野カメラ画像のSIFT特徴点Si」をCとする。また、Cは、視野カメラ画像における座標を表すものとする)。そして、視線位置近傍特徴点抽出部105は、視線位置近傍特徴点抽出部105は、選択した「視野カメラ画像のSIFT特徴点A、B、C」を視線位置近傍特徴点A、B、Cとする。
この様にして、作業者の視線位置がドロネー三角形の内部にない場合の視線位置近傍特徴点が決定される。
図5は、「視野カメラ画像における作業者の視線位置の点P」と画像上での位置が相互に対応する「視認対象画像における作業者の視線位置の点P´」の一例を示す図である。
図5の左図において、視線位置近傍特徴点抽出部105で得られた「視線位置近傍特徴点A、B、Cの点Aを原点とし、線分AB、ACを軸とする斜交座標系で表すと、視野カメラ画像における作業者の視線位置の点Pは、以下の(11)式のように表される。この(11)式を変形すると、パラメータs、tは、以下の(12)式のように表される。尚、(11)式及び(12)式において、A、B、C、Pは、それぞれ視野カメラ画像における座標を表す。
図6の左図の点ua、ub、uc、peは、それぞれ、視線位置近傍特徴点A、B、C、視野カメラ画像における作業者の視線位置の点Pに対応する。一方、図6の右図の点Ua、Ub、Uc、Peは、それぞれ、視認対象画像の点A´、B´、C´、視認対象画像における作業者の視線位置の点P´に対応する。
視認対象画像上視線位置表示部107は、視認対象画像上視線位置導出部106で導出された「視認対象画像における作業者の視線位置の点P´」の情報を、液晶ディスプレイ等の表示装置に表示する。例えば、視認対象画像上視線位置表示部107は、図2(b)に示す視認対象画像上に、図6の右図に示したような点Peを示すマーク(図6の右図では白色の×)を表示装置に表示することができる。
視認対象画像上視線位置表示部107は、例えば、CPUが、RAM等から、視認対象画像における作業者の視線位置の点P´の情報を読み出し、その情報を表示するための表示データを生成し、生成した表示データを表示装置に出力することによって実現することができる。
次に、図7のフローチャートを参照しながら、視線位置検出装置100の動作の一例を説明する。
まず、ステップS701において、画像取得部101は、視認対象画像を取得する。
次に、ステップS702において、画像取得部101は、視野カメラ画像を取得する。
次に、ステップS703において、特徴点抽出部102は、ステップS701で取得された視認対象画像から、視認対象画像のSIFT特徴点を抽出する。
次に、ステップS704において、特徴点抽出部102は、ステップS702で取得された視野カメラ画像のフレームを、その取得順に1つ選択する。
次に、ステップS706において、特徴点マッチング部103は、視認対象画像のSIFT特徴点Siと、当該視野カメラ画像のSIFT特徴点Siと特徴量が相互に対応する視認対象画像のSIFT特徴点Tj(i,0)とを対応点として求める特徴点マッチング処理を行う。特徴点マッチング処理の詳細については、図8を参照しながら後述する。
次に、ステップS707において、誤対応除去部104は、ステップS706で得られた対応点の対のうち、誤対応の対応点の対を除去する誤対応除去処理を行う。誤対応除去処理の詳細については、図9を参照しながら後述する。
次に、ステップS709において、視認対象画像上視線位置導出部106は、視認対象画像における作業者の視線位置の点P´を導出する視認対象画像上視線位置導出処理を行う。視認対象画像上視線位置導出処理の詳細については、図11を参照しながら後述する。
次に、ステップS711において、特徴点抽出部102は、ステップS702で取得された視野カメラ画像の全てのフレームを取得したか否かを判定する。この判定の結果、視野カメラ画像の全てのフレームを取得していない場合には、ステップS704に戻る。一方、視野カメラ画像の全てのフレームを取得した場合には、図7のフローチャートによる処理を終了する。
まず、ステップS801において、特徴点マッチング部103は、未選択の視野カメラ画像のSIFT特徴点Siを、ステップS705で抽出されたものの中から1つ選択する。
次に、ステップS802において、特徴点マッチング部103は、ステップS705で選択された視野カメラ画像のSIFT特徴点Siの特徴量と、ステップS703で抽出された視認対象画像のSIFT特徴点Tjの特徴量のそれぞれとの誤差として、これらのユークリッド距離d(i,j)を、(3)式を用いて導出する。
次に、ステップS803において、特徴点マッチング部103は、視野カメラ画像のSIFT特徴点Siとのユークリッド距離d(i,j)が最も小さな視認対象画像のSIFT特徴点Tj(i,0)を探索する。
次に、ステップS804において、特徴点マッチング部103は、視野カメラ画像のSIFT特徴点Siとのユークリッド距離d(i,j)が2番目に小さな視認対象画像のSIFT特徴点Tj(i,1)を探索する。
この判定の結果、(4)式を満たさない場合には、視野カメラ画像のSIFT特徴点Siと、視認対象画像のSIFT特徴点Tj(i,0)とを対応点としないので、ステップS806を省略して後述するステップS807に進む。
次に、ステップS807において、特徴点マッチング部103は、ステップS705で抽出された視野カメラ画像のSIFT特徴点Siを全て選択したか否かを判定する。この判定の結果、視野カメラ画像のSIFT特徴点Siを全て選択していない場合には、ステップS801に戻る。
ステップS809に進むと、特徴点マッチング部103は、それらの対応点のうち、ユークリッド距離d(i,j)が最も近い対応点の対を選択し、それ以外の対応点を除去する。これにより、視野カメラ画像のSIFT特徴点Siと、当該視野カメラ画像のSIFT特徴点Siと特徴量が相互に対応する視認対象画像のSIFT特徴点Tj(i,0)とが1対1の関係になる。そして、図7のステップS707に進む。
一方、複数の対応点が設定されていない場合には、対応点を除去する必要はないので、ステップS809を省略して図7のステップS707に進む。
まず、ステップS901において、誤対応除去部104は、図7のステップS706(図8のフローチャート)で得られた4つの対応点の対(視野カメラ画像のSIFT特徴点Siと、当該視野カメラ画像のSIFT特徴点Siと特徴量が相互に対応する視認対象画像のSIFT特徴点Tj(i,0))であって、未選択の対応点の対を選択する。
次に、ステップS902において、誤対応除去部104は、ステップS901で選択した4つの対応点の対の画像上の座標を用いて、(5)式及び(6)式で示される「射影変換のためのパラメータa1〜a8」を導出する。
次に、ステップS904において、誤対応除去部104は、ステップS903で選択した対応点の対の一方である「視野カメラ画像のSIFT特徴点Si」の視野カメラ画像上の座標(x,y)とパラメータa1〜a8とを(5)式及び(6)式に代入して射影変換を行い、視認対象画像上の座標(x',y')を導出する。そして、誤対応除去部104は、導出した「視認対象画像上の座標(x',y')」と、ステップS903で選択した選択した対応点の他方である「視認対象画像のSIFT特徴点Tj(i,0)」の視認対象画像上の座標(x',y')との誤差である投影誤差を導出する。
一方、投影誤差が閾値以下である場合には、ステップS906に進む。ステップS906に進むと、誤対応除去部104は、変数Cに1を加算する。
一方、射影変換のためのパラメータa1〜a8の導出のために使用していない対応点の対を全て選択した場合には、ステップS908に進む。ステップS908に進むと、誤対応除去部104は、図7のステップS706(図8のフローチャート)で得られた4つの対応点の対の組み合わせを全て選択したか否かを判定する。この判定の結果、4つの対応点の対の組み合わせを全て選択していない場合には、ステップS901に戻る。一方、4つの対応点の対の組み合わせを全て選択した場合には、ステップS909に進む。ステップS909に進む場合には、4つの「対応点の対」の全ての組み合わせと同数の変数Cが得られている。
次に、ステップS910において、誤対応除去部104は、ステップS706(図8のフローチャート)で得られた対応点の対のうち未選択の対応点の対を1つ選択する。
次に、ステップS911において、誤対応除去部104は、ステップS910で選択した対応点の対の一方である「視野カメラ画像のSIFT特徴点Si」の視野カメラ画像上の座標(x,y)と最適射影変換パラメータa1〜a8とを(5)式及び(6)式に代入して射影変換を行い、視認対象画像上の座標(x',y')を導出する。そして、誤対応除去部104は、導出した「視認対象画像上の座標(x',y')」と、選択した対応点の他方である「視認対象画像のSIFT特徴点Tj(i,0)」の視認対象画像上の座標(x',y')との誤差である投影誤差を導出する。
一方、投影誤差が閾値以下でない場合には、ステップS913に進む。ステップS913に進むと、誤対応除去部104は、ステップS910で選択した対応点の対を誤対応の対応点の対であるとして除去する。
次に、ステップS914において、誤対応除去部104は、ステップS706(図8のフローチャート)で得られた対応点の対を全て選択したか否かを判定する。この判定の結果、対応点の対を全て選択していない場合には、ステップS910に戻る。一方、対応点の対を全て選択した場合には、図7のステップS708に進む。
まず、ステップS1001において、視線位置近傍特徴点抽出部105は、図7のステップS707(図9のフローチャート)で誤対応のものが除去された対応点として設定されている視野カメラ画像のSIFT特徴点Siを全て選択する。
次に、ステップS1002において、視線位置近傍特徴点抽出部105は、ステップS1001で選択した「視野カメラ画像のSIFT特徴点Si」の視野カメラ画像上の座標(x,y)を頂点とするドロネー三角形を作成する(図4(b)を参照)。
ステップS1004に進むと、視線位置近傍特徴点抽出部105は、当該ドロネー三角形の3つの頂点を構成する「視野カメラ画像のSIFT特徴点Si」を視線位置近傍特徴点A、B、Cとして設定する。そして、図7のステップS709に進む。
一方、作業者の視線位置がドロネー三角形の内部にない場合には、ステップS1005に進む。ステップS1005に進むと、視線位置近傍特徴点抽出部105は、作業者の視線位置にユークリッド距離が最も近いドロネー三角形の辺の両端点を構成する「視野カメラ画像のSIFT特徴点A、B」を選択する。
次に、ステップS1006において、視線位置近傍特徴点抽出部105は、視野カメラ画像の未選択のSIFT特徴点Siのうち、作業者の視線位置とのユークリッド距離が最も近い特徴点Cを、ステップS1005で選択した「2つの視野カメラ画像のSIFT特徴点A、B」以外から選択する。
次に、ステップS1007において、視線位置近傍特徴点抽出部105は、ステップS1005で選択した「視野カメラ画像のSIFT特徴点A、B」と、ステップS1006で選択した「視野カメラ画像のSIFT特徴点C」とに基づく角度(∠ACB)が(8)式を満たすか否かを判定する。
ステップS1008に進むと、視線位置近傍特徴点抽出部105は、ステップS1005で選択した「視野カメラ画像のSIFT特徴点A、B」と、ステップS1006で選択した「視野カメラ画像のSIFT特徴点C」と特徴量が相互に対応する「視認対象画像のSIFT特徴点A´、B´、C´」を選択する。
次に、ステップS1009において、視線位置近傍特徴点抽出部105は、(9)式に示す2次元ベクトルの外積の符号と、(10)式に示す2次元ベクトルの外積の符号とが同じであるか否かを判定する。この判定の結果、これらの外積の符号が同じでない場合には、視野カメラ画像のSIFT特徴点A、B、Cにより構成される三角形の頂点の位置関係と、視認対象画像のSIFT特徴点A´、B´、C´により構成される三角形の頂点の位置関係とが異なっていることになる。よって、視野カメラ画像のSIFT特徴点A、B、Cを視線位置近傍特徴点とすることはできない。そこで、ステップS1006に戻る。
前述したように、ステップS1007において、(8)式を満たさない場合には、ステップS1011に進む。ステップS1011に進むと、視線位置近傍特徴点抽出部105は、ステップS1005で選択した「2つの視野カメラ画像のSIFT特徴点A、B」以外の点を視野カメラ画像のSIFT特徴点Cとして全て選択したか否かを判定する。この判定の結果、2つの視野カメラ画像のSIFT特徴点A、B以外の点を全て選択していない場合には、ステップS1006に戻る。
まず、図11のステップS1101において、視認対象画像上視線位置導出部106は、図7のステップS708(図10のフローチャート)で得られた視線位置近傍特徴点A、B、Cに基づいて、(12)式により、パラメータs、tを導出する。(11)式及び(12)式に示すように、このパラメータs、tは、視線位置近傍特徴点Aを原点とし、且つ、視線位置近傍特徴点A、Bを両端とする辺ABと、視線位置近傍特徴点A、Cを両端とする辺ACとを軸とした斜交座標系における視線位置の点P(視野カメラ画像における座標)を表すためのパラメータである。
以上のように本実施形態では、まず、視線位置検出対象である三次元空間を、デジタルカメラなどで撮影した視認対象画像(二次元平面)に変換して、実際の視線位置検出処理を、その二次元平面に限定する。そして、移動型視線計測カメラの画像である視野カメラ画像のSIFT特徴点Siと、視認対象画像のSIFT特徴点Tjとを抽出し、抽出したSIFT特徴点Si、Tjの対応点を導出する。次に、対応点である「視野カメラ画像のSIFT特徴点Si」の視野カメラ画像上の座標(x,y)を頂点とするドロネー三角形を形成する。次に、形成したドロネー三角形の頂点の中から、作業者の視線位置の近傍の三点を視線位置近傍特徴点A、B、Cとして選択する。次に、選択した「視線位置近傍特徴点A、B、C」から見た場合の「視野カメラ画像における作業者の視線位置の点P」の位置関係と同じになるように、「視線位置近傍特徴点A、B、C」と特徴量が相互に対応する「視認対象画像のSIFT特徴点A´、B´、C´」の画像上の座標から、「視認対象画像における作業者の視線位置の点P´」を求める。したがって、二次元の視野カメラ画像と、二次元の視認対象画像との特徴点を相互に対応付けることができ、しかも、視野カメラ画像における作業者の視線位置の点Pを囲む視線位置近傍特徴点A、B、Cが極端につぶれてしまう(三角形の内角の一つが極端に小さくなる)ことを防止することができる。よって、現実の3次元空間で何を見ているかを、三次元座標を必要とせず、また三次元の射影変換を行わずに、視認対象画像における作業者の視線位置の点P´を簡単な計算処理で精度良く求めることができる。よって、射影変換のパラメータの誤差の影響を受けることなく、視認対象画像における作業者の視線位置の点P´を求めることができる。また、射影変換のパラメータの誤差を少なくするための「画像の歪みを除去する前処理」を行わなくても、視認対象画像における作業者の視線位置の点P´を正確に求めることができる。以上のように、本実施形態では、作業者が見ている視野カメラ画像と、作業者の視認対象となる領域として予め得られている視認対象画像との対応をとることによって、作業者が何を見ているのかを容易に且つ確実に自動で検出することができる。
また、本実施形態では、誤対応の対応点を除去した上で、視線位置近傍特徴点A、B、Cを抽出するようにしたので、視認対象画像における作業者の視線位置の点P´をより一層正確に求めることができる。
本実施形態では、一般の画像に適用できることに加え、高い頑健性を有しているという特徴があるので、視野カメラ画像と視認対象画像の特徴点の抽出のために、SIFTを用いるようにした。しかしながら、特徴点を抽出することができれば、その手法は、SIFTに限定されない。
また、本実施形態では、誤対応除去部104による「対応点の対の選択、パラメータa1〜a8の導出、投影誤差の導出、投影誤差と閾値との比較、及び変数Cの加算」(ステップS901〜S908)を、4つの「対応点の対」の全ての組み合わせについて行うようにした。しかしながら、必ずしもこのようにする必要はない。例えば、これらの処理を、4つの「対応点の対」の全ての組み合わせについて行った結果、これらの処理を行う回数が、4つの「対応点の対」の全ての組み合わせの数よりも少ない回数であっても、4つの「対応点の対」の全ての組み合わせについてこれらの処理を行ったのと同様の最適射影変換パラメータが得られることが確認された場合には、当該回数だけ、これらの処理を行うようにしてもよい。
また、作業者の視野範囲を撮像することができ、撮像した画像における作業者の視線位置を検出することができれば、撮像装置は、頭部装着型の視野カメラでなくてもよい。
本実施形態では、例えば、画像取得部101を用いることにより、視認対象画像取得手段及び視野画像取得手段が実現される。また、本実施形態では、例えば、特徴点抽出部102を用いることにより、視認対象画像特徴点抽出手段及び視野画像特徴点抽出手段が実現される。
また、本実施形態では、例えば、特徴点マッチング部103を用いることにより、対応点抽出手段が実現される。具体的に、例えば、特徴点マッチング部103がステップS802の処理を行うことにより導出手段が実現される。また、例えば、特徴点マッチング部103がステップS803、S804の処理を行うことにより探索手段が実現される。また、例えば、特徴点マッチング部103がステップS805、S806の処理を行うことにより抽出手段が実現される。ここで、(4)式の関係を満たす場合が、誤差が最も小さくなる視認対象画像の特徴点の誤差と、前記誤差が二番目に小さくなる視認対象画像の特徴点の誤差との差が閾値よりも大きい場合の一例である。
また、本実施形態では、例えば、視線位置近傍特徴点抽出部105を用いることにより、視線位置近傍特徴点抽出手段が実現される。また、本実施形態では、例えば、視認対象画像上視線位置導出部106を用いることにより、視認対象画像上視線位置導出手段が実現される。
また、本実施形態では、例えば、誤対応除去部104を用いることにより、対応点除去手段が実現される。ここで、例えば、誤対応除去部104がステップS901、S902の処理を行うことにより、前記視野画像の点と前記視認対象画像の点とを射影変換するためのパラメータを導出することが実現される。また、例えば、誤対応除去部104がステップS910〜S912、S914の処理を行うことにより、導出したパラメータを用いて前記対応点の一方を射影変換して得られた画像上の位置と、当該対応点の他方の画像上の位置とを、前記対応点抽出手段により抽出された対応点のそれぞれについて比較することが実現される。
また、以上説明した本発明の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
101 画像取得部
102 特徴点抽出部
103 特徴点マッチング部
104 誤対応除去部
105 視線位置近傍特徴点抽出部
106 視認対象画像上視線位置導出部
107 視認対象画像上視線位置表示部
Claims (11)
- ユーザが視認する対象となる領域の二次元画像である視認対象画像を取得する視認対象画像取得手段と、
ユーザが装着している撮像手段で撮像された二次元画像である視野画像を取得する視野画像取得手段と、
前記視認対象画像取得手段で取得された視認対象画像と、前記視野画像取得手段により取得された視野画像とを対応付ける為の、該視認対象画像中の点である特徴点を抽出する視認対象画像特徴点抽出手段と、
前記視認対象画像取得手段で取得された視認対象画像と、前記視野画像取得手段により取得された視野画像とを対応付ける為の、該視野画像中の点である特徴点を抽出する視野画像特徴点抽出手段と、
前記視野画像特徴点抽出手段により抽出された視野画像の特徴点と、当該視野画像の特徴点に対し特徴量が相互に対応する、前記視認対象画像特徴点抽出手段により抽出された視認対象画像の特徴点とを、対応点として抽出する対応点抽出手段と、
前記対応点抽出手段により対応点として抽出された視野画像の特徴点から、前記視野画像取得手段により取得された視野画像におけるユーザの視線位置を内部に包含する三角形を構成する3つの特徴点を、視線位置近傍特徴点として抽出する視線位置近傍特徴点抽出手段と、
前記視野画像におけるユーザの視線位置に対し画像上での位置が相互に対応する、前記視認対象画像における位置を、当該視認対象画像におけるユーザの視線位置として導出する視認対象画像上視線位置導出手段と、を有し、
前記視認対象画像上視線位置導出手段は、前記3つの視線位置近傍特徴点から定まる座標系から見た場合の、前記視野画像におけるユーザの視線位置の座標と、当該3つの視線位置近傍特徴点に対応する3つの視認対象画像の特徴点から定まる座標系から見た場合に同一の座標となる位置を、前記視認対象画像におけるユーザの視線位置として導出することを特徴とする視線位置検出装置。 - 前記視線位置近傍特徴点抽出手段は、前記対応点抽出手段により対応点として抽出された視野画像の特徴点に対してドロネー三角形分割を行い、当該ドロネー三角形分割が行われることにより得られたドロネー三角形のうちで、前記視野画像におけるユーザの視線位置が内部に含まれているドロネー三角形の頂点を構成する3つの視野画像の特徴点を、視線位置近傍特徴点として抽出することを特徴とする請求項1に記載の視線位置検出装置。
- 前記対応点抽出手段により抽出された対応点の画像上の座標に基づいて、前記視野画像の点と前記視認対象画像の点とを射影変換するためのパラメータを導出し、導出したパラメータを用いて前記対応点の一方を射影変換して得られた画像上の位置と、当該対応点の他方の画像上の位置とを、前記対応点抽出手段により抽出された対応点のそれぞれについて比較し、比較した結果に基づいて、当該対応点を除去する対応点除去手段を有することを特徴とする請求項1又は2に記載の視線位置検出装置。
- 前記対応点抽出手段は、前記視野画像特徴点抽出手段により抽出された視野画像の特徴点の特徴量と、前記視認対象画像特徴点抽出手段により抽出された視認対象画像の特徴点の特徴量との誤差を導出する導出手段と、
前記視認対象画像特徴点抽出手段により抽出された視認対象画像の特徴点の中から、前記視野画像特徴点抽出手段により抽出された視野画像の特徴点に対し、前記導出手段により導出された誤差が最も小さくなる視認対象画像の特徴点と、該誤差が二番目に小さくなる視認対象画像の特徴点とを探索する探索手段と、
前記誤差が最も小さくなる視認対象画像の特徴点の誤差と、前記誤差が二番目に小さくなる視認対象画像の特徴点の誤差との差が閾値よりも大きい場合に、前記視野画像の特徴点と、前記誤差が最も小さくなる視認対象画像の特徴点とを、前記対応点として抽出する抽出手段と、を更に有することを特徴とする請求項1〜3の何れか1項に記載の視線位置検出装置。 - 前記視認対象画像特徴点抽出手段は、前記視認対象画像取得手段で取得された視認対象画像の特徴点を、SIFT(Scale-Invariant Feature Transform)によって抽出し、
前記視野画像特徴点抽出手段は、前記視野画像取得手段により取得された視野画像の特徴点を、SIFT(Scale-Invariant Feature Transform)によって抽出することを特徴とする請求項1〜4の何れか1項に記載の視線位置検出装置。 - ユーザが視認する対象となる領域の二次元画像である視認対象画像を取得する視認対象画像取得工程と、
ユーザが装着している撮像手段で撮像された二次元画像である視野画像を取得する視野画像取得工程と、
前記視認対象画像取得工程で取得された視認対象画像と、前記視野画像取得工程により取得された視野画像とを対応付ける為の、該視認対象画像中の点である特徴点を抽出する視認対象画像特徴点抽出工程と、
前記視認対象画像取得工程で取得された視認対象画像と、前記視野画像取得工程により取得された視野画像とを対応付ける為の、該視野画像中の点である特徴点を抽出する視野画像特徴点抽出工程と、
前記視野画像特徴点抽出工程により抽出された視野画像の特徴点と、当該視野画像の特徴点に対し特徴量が相互に対応する、前記視認対象画像特徴点抽出工程により抽出された視認対象画像の特徴点とを、対応点として抽出する対応点抽出工程と、
前記対応点抽出工程により対応点として抽出された視野画像の特徴点から、前記視野画像取得工程により取得された視野画像におけるユーザの視線位置を内部に包含する三角形を構成する3つの特徴点を、視線位置近傍特徴点として抽出する視線位置近傍特徴点抽出工程と、
前記視野画像におけるユーザの視線位置に対し画像上での位置が相互に対応する、前記視認対象画像における位置を、当該視認対象画像におけるユーザの視線位置として導出する視認対象画像上視線位置導出工程と、を有し、
前記視認対象画像上視線位置導出工程は、前記3つの視線位置近傍特徴点から定まる座標系から見た場合の、前記視野画像におけるユーザの視線位置の座標と、当該3つの視線位置近傍特徴点に対応する3つの視認対象画像の特徴点から定まる座標系から見た場合に同一の座標となる位置を、前記視認対象画像におけるユーザの視線位置として導出することを特徴とする視線位置検出方法。 - 前記視線位置近傍特徴点抽出工程は、前記対応点抽出工程により対応点として抽出された視野画像の特徴点に対してドロネー三角形分割を行い、当該ドロネー三角形分割が行われることにより得られたドロネー三角形のうちで、前記視野画像におけるユーザの視線位置が内部に含まれているドロネー三角形の頂点を構成する3つの視野画像の特徴点を、視線位置近傍特徴点として抽出することを特徴とする請求項6に記載の視線位置検出方法。
- 前記対応点抽出工程により抽出された対応点の画像上の座標に基づいて、前記視野画像の点と前記視認対象画像の点とを射影変換するためのパラメータを導出し、導出したパラメータを用いて前記対応点の一方を射影変換して得られた画像上の位置と、当該対応点の他方の画像上の位置とを、前記対応点抽出工程により抽出された対応点のそれぞれについて比較し、比較した結果に基づいて、当該対応点を除去する対応点除去工程を有することを特徴とする請求項6又は7に記載の視線位置検出方法。
- 前記対応点抽出工程は、前記視野画像特徴点抽出工程により抽出された視野画像の特徴点の特徴量と、前記視認対象画像特徴点抽出工程により抽出された視認対象画像の特徴点の特徴量との誤差を導出する導出工程と、
前記視認対象画像特徴点抽出工程により抽出された視認対象画像の特徴点の中から、前記視野画像特徴点抽出工程により抽出された視野画像の特徴点に対し、前記導出工程により導出された誤差が最も小さくなる視認対象画像の特徴点と、該誤差が二番目に小さくなる視認対象画像の特徴点とを探索する探索工程と、
前記誤差が最も小さくなる視認対象画像の特徴点の誤差と、前記誤差が二番目に小さくなる視認対象画像の特徴点の誤差との差が閾値よりも大きい場合に、前記視野画像の特徴点と、前記誤差が最も小さくなる視認対象画像の特徴点とを、前記対応点として抽出する抽出工程と、を更に有することを特徴とする請求項6〜8の何れか1項に記載の視線位置検出方法。 - 前記視認対象画像特徴点抽出工程は、前記視認対象画像取得工程で取得された視認対象画像の特徴点を、SIFT(Scale-Invariant Feature Transform)によって抽出し、
前記視野画像特徴点抽出工程は、前記視野画像取得工程により取得された視野画像の特徴点を、SIFT(Scale-Invariant Feature Transform)によって抽出することを特徴とする請求項6〜9の何れか1項に記載の視線位置検出方法。 - 請求項6〜10の何れか1項に記載の視線位置検出方法の各工程をコンピュータに実行させることを特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011005080A JP5549605B2 (ja) | 2011-01-13 | 2011-01-13 | 視線位置検出装置、視線位置検出方法、及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011005080A JP5549605B2 (ja) | 2011-01-13 | 2011-01-13 | 視線位置検出装置、視線位置検出方法、及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012146199A JP2012146199A (ja) | 2012-08-02 |
JP5549605B2 true JP5549605B2 (ja) | 2014-07-16 |
Family
ID=46789689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011005080A Expired - Fee Related JP5549605B2 (ja) | 2011-01-13 | 2011-01-13 | 視線位置検出装置、視線位置検出方法、及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5549605B2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6080424B2 (ja) * | 2012-08-06 | 2017-02-15 | 日本放送協会 | 対応点探索装置、そのプログラムおよびカメラパラメータ推定装置 |
JP6055307B2 (ja) * | 2012-12-27 | 2016-12-27 | 日本放送協会 | 対応点探索装置およびカメラ姿勢推定装置ならびにこれらのプログラム |
JP6126979B2 (ja) * | 2013-12-11 | 2017-05-10 | 日本電信電話株式会社 | 特徴選択装置、方法、及びプログラム |
JP6680207B2 (ja) | 2014-06-30 | 2020-04-15 | 凸版印刷株式会社 | 視線計測システム、視線計測方法、及びプログラム |
JP6586730B2 (ja) * | 2015-02-04 | 2019-10-09 | 凸版印刷株式会社 | 画像処理システム、視線計測システム、画像処理方法、視線計測方法及びプログラム |
JP6717423B2 (ja) * | 2017-03-23 | 2020-07-01 | 東芝三菱電機産業システム株式会社 | 鉄鋼プラントの分析支援装置 |
JP7063165B2 (ja) * | 2018-07-26 | 2022-05-09 | 富士通株式会社 | 計測装置、計測方法及び計測プログラム |
JP7342409B2 (ja) * | 2019-04-16 | 2023-09-12 | 凸版印刷株式会社 | 観察状態表示システム、観察状態表示方法及びプログラム |
CN110399931B (zh) * | 2019-07-30 | 2021-07-06 | 燕山大学 | 一种鱼眼图像匹配方法及系统 |
CN111046906B (zh) * | 2019-10-31 | 2023-10-31 | 中国资源卫星应用中心 | 一种面状特征点可靠加密匹配方法和系统 |
CN112560769B (zh) * | 2020-12-25 | 2023-08-29 | 阿波罗智联(北京)科技有限公司 | 用于检测障碍物的方法、电子设备、路侧设备和云控平台 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2778194B2 (ja) * | 1990-04-19 | 1998-07-23 | 日本電気株式会社 | パターン認識方法および装置 |
JP4753072B2 (ja) * | 2005-11-14 | 2011-08-17 | 独立行政法人産業技術総合研究所 | 映像内の複数広告看板の認識方法 |
CN102047651B (zh) * | 2008-06-02 | 2013-03-13 | 松下电器产业株式会社 | 生成法线信息的图像处理装置、方法及视点变换图像生成装置 |
JP5182229B2 (ja) * | 2009-06-02 | 2013-04-17 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2011
- 2011-01-13 JP JP2011005080A patent/JP5549605B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012146199A (ja) | 2012-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5549605B2 (ja) | 視線位置検出装置、視線位置検出方法、及びコンピュータプログラム | |
US10074179B2 (en) | Image measurement device | |
JP4829141B2 (ja) | 視線検出装置及びその方法 | |
US10360444B2 (en) | Image processing apparatus, method and storage medium | |
JP6314251B2 (ja) | 操作入力装置、操作入力方法及びプログラム | |
JP6403115B2 (ja) | 3次元情報復元装置、3次元情報復元システム、及び3次元情報復元方法 | |
JP2017182302A (ja) | 画像処理プログラム、画像処理装置、及び画像処理方法 | |
US20200074666A1 (en) | Method of operating measurement device, measurement device, and recording medium | |
JP6880618B2 (ja) | 画像処理プログラム、画像処理装置、及び画像処理方法 | |
US11908151B2 (en) | System and method for mobile 3D scanning and measurement | |
US20150339859A1 (en) | Apparatus and method for navigating through volume image | |
US10410051B2 (en) | Method of extracting a region in a distance image, storage medium, and head mounted display apparatus | |
JP2014102746A (ja) | 被写体認識装置及び被写体認識プログラム | |
WO2014087622A1 (ja) | 見え方提示システム、方法およびプログラム | |
WO2017003424A1 (en) | Metric 3d stitching of rgb-d data | |
JP6026050B1 (ja) | 表示制御システム、表示制御装置、表示制御方法、及びプログラム | |
JP2016021097A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2016086245A (ja) | 画像処理装置、画像処理システム、画像処理装置の制御方法およびプログラム | |
JP5876121B2 (ja) | 画像処理装置、方法、及びプログラム | |
WO2023054661A1 (ja) | 注視位置分析システム及び注視位置分析方法 | |
JP2019070898A (ja) | 推定プログラム、推定装置、及び推定方法 | |
Lie et al. | Contour-based image registration with local deformations | |
JP6716897B2 (ja) | 操作検出方法、操作検出装置、及び操作検出プログラム | |
JP2022159806A (ja) | データ処理方法、データ処理装置、およびプログラム | |
JP2019159375A (ja) | 情報処理装置,重畳表示プログラム,重畳表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140422 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140505 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5549605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |