JP7364052B2 - 情報処理装置、制御方法及びプログラム - Google Patents

情報処理装置、制御方法及びプログラム Download PDF

Info

Publication number
JP7364052B2
JP7364052B2 JP2022514882A JP2022514882A JP7364052B2 JP 7364052 B2 JP7364052 B2 JP 7364052B2 JP 2022514882 A JP2022514882 A JP 2022514882A JP 2022514882 A JP2022514882 A JP 2022514882A JP 7364052 B2 JP7364052 B2 JP 7364052B2
Authority
JP
Japan
Prior art keywords
label
feature
additional information
feature point
symmetry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022514882A
Other languages
English (en)
Other versions
JPWO2021210046A1 (ja
JPWO2021210046A5 (ja
Inventor
亮介 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021210046A1 publication Critical patent/JPWO2021210046A1/ja
Publication of JPWO2021210046A5 publication Critical patent/JPWO2021210046A5/ja
Application granted granted Critical
Publication of JP7364052B2 publication Critical patent/JP7364052B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、画像に基づく特徴抽出を行う情報処理装置、制御方法及び記憶媒体の技術分野に関する。
拡張現実(AR:Augmented Reality)を提供する装置において、カメラで撮像した画像に基づき、ユーザが視認する風景に重ねて表示する画像(所謂AR画像)の表示位置を決定する技術が存在する。例えば、特許文献1には、物体の外観の特徴を表す特徴データを記憶し、撮像装置から得られる画像及び上記の特徴データに基づいて、実空間内に存在する物体の特徴抽出を行うことで、当該物体の位置を表現する環境マップを構築し、環境マップを参照して実空間内で遂行すべき作業の一連の手順に関する説明を表示する画像処理装置が開示されている。
特開2011-159162号公報
対称性を有する物体の特徴抽出では、対称となる位置に存在する各特徴点に付すべきラベルは観察する位置によって変わるため、このような特徴点についてはラベル識別の混同が生じやすくなり、識別精度が低下するという問題があった。そこで、本開示では、特徴抽出を好適に実行することが可能な情報処理装置、制御方法及び記憶媒体を提供する。
情報処理装置の一の態様は、情報処理装置であって、撮像部が撮像した撮像画像に基づき、対称性を有する対称物の特徴点の位置と、当該特徴点に固有の第1ラベルを前記対称性に基づき統合又は変更するように定義された第2ラベルとの組合せを取得する特徴点取得手段と、前記対称性を破るための付加情報と、前記第2ラベルとに基づき、前記特徴点の各々に対して付すべき前記第1ラベルを決定するラベル決定手段と、を有する。
制御方法の一の態様は、コンピュータにより、撮像部が撮像した撮像画像に基づき、対称性を有する対称物の特徴点の位置と、当該特徴点に固有の第1ラベルを前記対称性に基づき統合又は変更するように定義された第2ラベルとの組合せを取得し、前記対称性を破るための付加情報と、前記第2ラベルとに基づき、前記特徴点の各々に対して付すべき前記第1ラベルを決定する、制御方法である。
プログラムの一の態様は、撮像部が撮像した撮像画像から、対称性を有する対称物の特徴点の位置と、当該特徴点に固有の第1ラベルを前記対称性に基づき統合又は変更するように定義された第2ラベルとの組合せを取得する特徴点取得手段と、前記対称性を破るための付加情報と、前記第2ラベルとに基づき、前記特徴点の各々に対して付すべき前記第1ラベルを決定するラベル決定手段としてコンピュータを機能させるプログラである。
本開示によれば、対称性を有する対称物の特徴抽出を的確に実行することができる。
第1実施形態に係る表示装置の概略構成図である。 制御部の機能的な構成を示すブロック図である。 特徴点を第1ラベルと共に明示したテニスコートの俯瞰図である。 特徴点を第2ラベルと共に明示したテニスコートの俯瞰図である。 (A)第1特徴点情報を撮像画像上に明示した図である。(B)第2特徴点情報を撮像画像上に明示した図である。 学習装置の概略構成を示す。 学習装置の制御部の機能ブロックの一例である。 第1実施形態において学習装置が実行する処理概要を示すフローチャートの一例である。 第1実施形態において表示装置が実行する特徴抽出処理に関するフローチャートの一例である。 変形例1に係る制御部の機能ブロックの一例である。 変形例1において表示装置が実行する特徴抽出処理に関するフローチャートの一例である。 (A)人を正面視した図である。(B)鏡越しに人を正面視した図である。 (A)並進対称性を有する対称物を正面視した図である。(B)対称物の破線枠内を拡大した図である。 変形例3に係る表示システムの概略構成図である。 第3実施形態における情報処理装置の概略構成を示す。 第3実施形態における情報処理装置の処理手順を示すフローチャートの一例である。
以下、図面を参照しながら、情報処理装置、制御方法及び記憶媒体の実施形態について説明する。
<第1実施形態>
(1)概略構成
図1は、第1実施形態に係る表示装置1の概略構成図である。表示装置1は、ユーザが装着可能な装置であり、例えば眼鏡型に構成されたシースルー型であって、ユーザの頭部に装着可能に構成されている。そして、表示装置1は、スポーツ観戦や劇(コンサートを含む)の観賞などにおいて、実在する風景に視覚情報を重ねて表示することで、拡張現実(AR:Augmented Reality)を実現する。上記の視覚情報は、2次元又は3次元により表された仮想のオブジェクトであり、以後では、「仮想オブジェクト」とも呼ぶ。なお、表示装置1は、ユーザの片眼にのみ仮想オブジェクトを表示してもよく、両眼に対して仮想オブジェクトを表示してもよい。
本実施形態では、表示装置1は、仮想オブジェクトを表示する際の基準となる静止構造物(「基準構造物Rtag」とも呼ぶ。)の特徴抽出を行い、その特徴抽出結果に基づき、仮想オブジェクトを基準構造物Rtag上又はその周辺に重畳表示する。ここで、基準構造物Rtagは、スポーツやゲームなどが行われるフィールド等であり、仮想オブジェクトは、ユーザがスポーツ観戦や劇の観賞を行う際に補助となる付加的な情報を示す。仮想オブジェクトは、例えば、テニスの場合には、テニスコート上方に表示する点数ボード、競泳の場合には、競泳中のプールにリアルタイム重畳表示する世界記録ライン、観劇などの場合には、ステージ上に重畳表示するバーチャル出演者などが該当する。
また、基準構造物Rtagは、対称性を有する対称物である。対称性は、n回対称性(nは2以上の自然数であり、「n=2」は点対称)、線対称性、鏡映対称性、並進対称性のいずれであってもよい。このような基準構造物Rtagは、例えば、テニス、競泳、サッカー、卓球、バスケットボール、ラグビーなどの各スポーツのフィールド、将棋又は囲碁などの各ゲームのフィールド、劇のステージ、スポーツフィールドなどの模型が該当する。ここで、一般に、スポーツのフィールドなどの対称性の高い基準構造物Rtagについては、対称の位置に存在する特徴点同士の識別が困難となる。以上を勘案し、本実施形態に係る表示装置1は、基準構造物Rtagの各特徴点の位置と当該各特徴点に固有のラベルとの組合せを好適に抽出する。
図1に示すように、表示装置1は、光源ユニット10と、光学素子11と、通信部12と、入力部13と、記憶部14と、撮像部(カメラ)15と、位置姿勢検出センサ16と、制御部17とを有する。
光源ユニット10は、レーザ光源やLCD(Liquid Crystal Display)光源などの光源を有しており、制御部17から供給される駆動信号に基づき、光を射出する。光学素子11は、所定の透過率を有し、外光の少なくとも一部を透過してユーザの眼球に入射させると共に、光源ユニット10からの光の少なくとも一部を、ユーザの眼球に向けて反射する。これにより、表示装置1によって形成された仮想オブジェクトに対応する虚像が、風景と重なってユーザに視認されることとなる。なお、光学素子11は、透過率と反射率とが概ね等しいハーフミラーであってもよく、透過率と反射率とが等しくないようなミラー(所謂ビームスプリッタ)であってもよい。光源ユニット10及び光学素子11は、「表示部」の一例である。
通信部12は、制御部17の制御に基づき、外部装置とのデータの授受を行う。例えば、ユーザがスポーツ観戦や劇の観賞などに表示装置1を使用する場合には、通信部12は、制御部17の制御に基づき、興行者が管理するサーバ装置から表示装置1が表示すべき仮想オブジェクトに関する情報を受信する。
入力部13は、ユーザの操作に基づく入力信号を生成して制御部17に送信する。入力部13は、例えば、ユーザが表示装置1に対して指示を行うためのボタン、十字キー、音声入力装置等である。
撮像部15は、制御部17の制御に基づき、表示装置1の前方を撮像した画像を生成し、生成した画像(「撮像画像Im」とも呼ぶ。)を制御部17に供給する。
位置姿勢検出センサ16は、表示装置1の位置及び姿勢(向き)を検出するセンサ(センサ群)であり、例えば、GPS(Global Positioning Satellite)受信機などの測位センサと、ジャイロセンサ、加速度センサ、IMU(Inertial Measurement Unit)などの表示装置1の相対的な姿勢の変化を検出する姿勢検出センサとを含む。位置姿勢検出センサ16は、生成した表示装置1の位置及び姿勢に関する検出信号を制御部17へ供給する。なお、位置姿勢検出センサ16は、測位センサから表示装置1の位置を検出する代わりに、例えば、会場に設けられたビーコン端末や無線LAN機器から受信する信号に基づき、表示装置1の位置を特定してもよい。他の例では、位置姿勢検出センサ16は、ARマーカを用いた位置推定技術に基づき、表示装置1の位置を特定してもよい。これらの場合、位置姿勢検出センサ16は、測位センサを含まなくともよい。
制御部17は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)などのプロセッサ、プロセッサの作業メモリとして機能する揮発性メモリなどを有しており、表示装置1の全体的な制御を行う。
記憶部14は、制御部17が表示装置1の制御に必要な種々の情報を記憶する不揮発性メモリを有する。記憶部14は、フラッシュメモリなどの着脱自在な記憶媒体を含んでもよい。また、記憶部14には、制御部17が実行するプログラムが記憶される。
また、記憶部14は、特徴抽出器パラメータD1と、付加情報生成データD2とを記憶している。
特徴抽出器パラメータD1は、撮像部15が生成する撮像画像Imから基準構造物Rtagの特徴点を抽出する特徴抽出器を構成するためのパラメータに関する情報である。特徴抽出器は、例えば、撮像画像Imが入力された場合に、抽出対象となる特徴点の位置と、当該特徴点の分類を示すラベルとの組合せに関する情報を出力するように学習された学習モデルである。例えば、特徴抽出器は、撮像画像Imに存在する特徴点毎に、該当するラベルと、対象の特徴点の撮像画像Im内の位置に関する信頼度マップ又は座標値との組合せを出力する。信頼度マップは、特徴点の座標値ごとの信頼度を示す画像上のマップである。「座標値」は、ピクセル単位での画像内の位置を示す値であってもよく、サブピクセル単位での画像内の位置を示す値であってもよい。特徴抽出器の学習に用いる学習モデルは、ニューラルネットワークに基づく学習モデルであってもよく、サポートベクターマシーンなどの他の種類の学習モデルであってもよく、これらの組み合わせであってもよい。例えば、上述の学習モデルが畳み込みニューラルネットワークなどのニューラルネットワークである場合、特徴抽出器パラメータD1は、層構造、各層のニューロン構造、各層におけるフィルタ数及びフィルタサイズ、並びに各フィルタの各要素の重みなどの各種パラメータである。
以後において、「第1ラベル」は、基準構造物Rtagから抽出すべき特徴点に一意に割り当てられたラベル(識別情報)を指し、「第2ラベル」は、基準構造物Rtagの対称性に基づき第1ラベルを割り直したラベルを指す。本実施形態では、第2ラベルは、対称の位置に存在する特徴点が同一ラベルとなるように割り当てられる。以後では、1つの第1ラベルに対して対称性に基づき対応付けられる第2ラベルの個数を、「ラベル統合数N」とも呼ぶ。特徴抽出器パラメータD1に基づき構成された特徴抽出器は、撮像画像Imが入力された場合に、第2ラベルと特徴点の画像内の位置に関する信頼度マップ又は座標値との組合せを特徴点毎に出力するように学習される。この場合、特徴抽出器は、第2ラベル毎に構成されてもよい。
付加情報生成データD2は、基準構造物Rtagの対称性を破る情報である付加情報「Ia」の生成に用いるデータである。ここで、付加情報Iaは、言い換えると、撮像画像Im内での基準構造物Rtagの向きを一意に特定することで、第2ラベルを第1ラベルに変換するための情報である。例えば、付加情報Iaは、表示装置1と基準構造物Rtagとの位置関係に応じた、1~N(Nはラベル統合数)のいずれかを示す情報となる。
付加情報生成データD2の第1の例は、表示装置1の装着者が基準構造物Rtagを観察する際の座席の位置を示す座席情報である。この座席情報は、基準構造物Rtagとの位置関係(即ち一方を基準とした場合の他方の方位)を把握可能な情報である。付加情報生成データD2の第2の例は、基準構造物Rtagの絶対的な位置情報である。この場合、表示装置1は、後述するように、位置姿勢検出センサ16が検出する表示装置1の現在位置と付加情報生成データD2が示す基準構造物Rtagの位置とに基づき、表示装置1と基準構造物Rtagとの位置関係に応じた付加情報Iaを生成する。付加情報生成データD2の第3の例は、基準構造物Rtagの周辺に存在する特徴物と基準構造物Rtagとの位置関係を撮像画像Imに基づき推論するための推論器(「特徴物推論器」とも呼ぶ。)のパラメータである。なお、特徴物推論器は、付加情報Iaを直接出力するようにモデル化されてもよい。
ここで、特徴物は、基準構造物Rtagに対する位置関係が予め定まっている物体である。例えば、特徴物は、テニスコートの審判台、将棋の駒置き等、基準構造物Rtagにおいて行われる競技又はゲームにおいて必要な(必ず設置される)物である。他の例では、特徴物は、基準構造物Rtagへの入場口、基準構造物Rtag周辺における特有な色又はパターンを有する床部分など、基準構造物Rtagが設けられたスタジアムが有する特徴部分であってもよい。
なお、図1に示す表示装置1の構成は一例であり、この構成に対して種々の変更を行ってもよい。例えば、表示装置1は、制御部17の制御に基づき、音声を出力するスピーカをさらに備えてもよい。また、表示装置1は、ユーザの視線の位置に応じて仮想オブジェクトの表示有無や仮想オブジェクトの表示位置を変更するための視線検出用カメラを備えてもよい。
(2)機能ブロック
図2は、制御部17の機能的な構成を示すブロック図である。図2に示すように、制御部17は、機能的には、撮像画像取得部40と、付加情報生成部41と、第2ラベル特徴抽出部42と、第1ラベル決定部43と、調整部44と、表示制御部45と、を有する。以下に説明するように、制御部17は、撮像画像Imから抽出した特徴点に対し、付加情報Iaに基づき、付加すべき第1ラベルを決定する。これにより、制御部17は、対称性を有する基準構造物Rtagに対しても正確な特徴抽出処理を行う。なお、図2では、データの授受が行われるブロック同士を実線(かつデータの授受が必須でないブロック同士を破線)により結んでいるが、データの授受が行われるブロックの組合せは図2に限定されない。後述する他の機能ブロックの図においても同様である。
撮像画像取得部40は、撮像部15が生成する撮像画像Imを取得し、付加情報生成部41及び第2ラベル特徴抽出部42に撮像画像Imを供給する。なお、付加情報生成部41が撮像画像Imを用いずに付加情報Iaを生成する場合には、撮像画像取得部40は、付加情報生成部41に撮像画像Imを供給しなくともよい。
付加情報生成部41は、付加情報生成データD2に基づき、基準構造物Rtagの対称性を破る付加情報Iaを生成する。
例えば、付加情報生成データD2が表示装置1の装着者の座席情報である場合、付加情報生成部41は、座席情報から特定される、表示装置1と基準構造物Rtagとの位置関係に応じた付加情報Iaを生成する。例えば、座席情報が座席番号を示す場合、付加情報生成部41は、座席番号毎に表示装置1と基準構造物Rtagとの位置関係(例えば一方に対する他方の方位)を示したテーブル情報を参照することで、付加情報Iaを生成する。この場合、例えば、付加情報生成部41は、上記の位置関係として、表示装置1が基準構造物Rtagに対して北側、南側、西側、東側のいずれに存在するかを判定し、その判定結果に応じた付加情報Iaを生成する。なお、付加情報生成部41は、ラベル統合数Nが大きいほど、詳細な方位を示す付加情報Iaを生成する。言い換えると、付加情報生成部41は、少なくともラベル統合数Nにより分割された方位のいずれであるかを特定可能な情報を、付加情報Iaとして生成する。また、座席情報が座席位置を示す場合、付加情報生成部41は、当該座席情報と、予め記憶部14等に記憶された基準構造物Rtagの位置情報とに基づき、表示装置1と基準構造物Rtagとの位置関係を特定し、特定した位置関係に応じた付加情報Iaを生成する。
また、付加情報生成部41は、付加情報生成データD2が特徴物推論器のパラメータである場合、付加情報生成データD2に基づき構成した特徴物推論器に対し、撮像画像取得部40から供給される撮像画像Imを入力する。この場合、付加情報生成部41は、基準構造物Rtagの周辺に存在する特徴物と基準構造物Rtagとの撮像画像Im内での位置関係に応じた付加情報Iaを生成する。
また、付加情報生成部41は、位置姿勢検出センサ16が出力する表示装置1の位置情報に基づき、付加情報Iaを生成してもよい。この場合、付加情報生成データD2は、例えば基準構造物Rtagの位置情報であり、位置姿勢検出センサ16の出力と付加情報生成データD2とに基づき表示装置1と基準構造物Rtagとの位置関係を特定し、特定した位置関係に応じた付加情報Iaを生成する。付加情報生成部41の処理の具体例については、図3~図5を参照して後述する。
第2ラベル特徴抽出部42は、特徴抽出器パラメータD1に基づき構成した特徴抽出器に撮像画像Imを入力することで特徴抽出器から出力される情報に基づき、基準構造物Rtagの対称性に応じた第2ラベルが付加された特徴点を抽出する。第2ラベル特徴抽出部42は、特徴点の撮像画像Im内の座標値と第2ラベルとの組合せを示す情報(「第1特徴点情報F1」とも呼ぶ。)を、第1ラベル決定部43へ供給する。
第1ラベル決定部43は、第2ラベル特徴抽出部42から供給された第1特徴点情報F1において各特徴点に付された第2ラベルを、付加情報Iaに基づき第1ラベルに変換する。第1ラベル決定部43は、第1特徴点情報F1が示す各特徴点の座標値と各特徴点に対応する第1ラベルとの組合せを示す情報(「第2特徴点情報F2」とも呼ぶ。)を、調整部44に供給する。付加情報Iaに基づく第1ラベルへの変換方法については後述する。
調整部44は、第2特徴点情報F2に基づき、実世界空間と表示装置1が認識する空間とを対応付けるためのキャリブレーション処理を行う。このキャリブレーション処理では、調整部44は、表示装置1が基準とする3次元空間の座標系(「デバイス座標系」とも呼ぶ。)を、基準構造物Rtagを基準とした3次元空間の座標系(「構造座標系」とも呼ぶ。)に変換するための座標変換情報「Ic」を生成する。そして、調整部44は、生成した座標変換情報Icを表示制御部45に供給する。
表示制御部45は、調整部44から供給される座標変換情報Icに基づき、光源ユニット10を駆動するための駆動信号を生成し、駆動信号を光源ユニット10に供給することで光源ユニット10に仮想オブジェクトを表示するための光(「表示光」とも呼ぶ。)を光学素子11に射出させる。これにより、制御部17は、仮想オブジェクトをユーザに視認させる。なお、調整部44及び表示制御部45は、任意のARデバイスの方式に従い、キャリブレーション及び表示制御を行ってもよい。
なお、図2において説明した撮像画像取得部40、付加情報生成部41、第2ラベル特徴抽出部42、第1ラベル決定部43、調整部44及び表示制御部45の各構成要素は、例えば、制御部17がプログラムを実行することによって実現できる。より具体的には、各構成要素は、記憶部14に格納されたプログラムを、制御部17が実行することによって実現され得る。また、必要なプログラムを任意の不揮発性記憶媒体に記録しておき、必要に応じてインストールすることで、各構成要素を実現するようにしてもよい。なお、これらの各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、これらの各構成要素は、例えばFPGA(field-programmable gate array)又はマイコン等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、上記の各構成要素から構成されるプログラムを実現してもよい。このように、各構成要素は、プロセッサ以外のハードウェアにより実現されてもよい。以上のことは、後述する他の実施の形態においても同様である。
(3)具体例
次に、図2において説明した制御部17の処理について、基準構造物Rtagをテニスコートとした例を用いて具体例に説明する。
図3及び図4は、基準構造物Rtagであるテニスコートの俯瞰図である。図3では、抽出すべき特徴点を○により囲むと共に、各特徴点に対応する第1ラベル「Pa0」~「Pa13」を明示している。また、図4では、抽出すべき特徴点を○により囲むと共に、第2ラベル「Pa0」~「Pa6」を明示している。また、テニスコートの北側には、審判台9が存在している。
図3に示すように、抽出すべきテニスコートの各特徴点には、夫々に一意のラベルである第1ラベルPa0~Pa13が割り当てられている。ここでは、基準構造物Rtagの特徴点のうち西側コートサイドのベースラインの4つの特徴点に対し、南から北に向かって順に第1ラベルPa0~Pa3を設定し、同一サイドのサービスライン上の3つの特徴点に対して同様に第1ラベルPa4~Pa6を設定している。また、東側コートサイドのサービスラインの3つの特徴点に対し、南から北に向かって順に第1ラベルPa7~Pa9を設定し、同一サイドのベースライン上の4つの特徴点に対して同様に第1ラベルPa10~Pa13を設定している。このように、第1ラベルは、基準構造物Rtagの周辺に存在する特徴物(ここでは審判台9)と基準構造物Rtagとの方位等を基準とした絶対的な位置関係又は特徴点間の絶対的な位置関係に基づき、一意に特定することが可能である。
また、図4に示すように、テニスコートはラベル統合数Nが「2」となる点対称であることから、点対称となる位置に存在する特徴点の2個の組合せに対し、同一の第2ラベルが付されている。例えば、基準構造物Rtagの重心に対して点対称の位置に存在する第1ラベルPa0及び第1ラベルPa13の各特徴点には、同一の第2ラベルPb0が割り当てられている。
図5(A)は、撮像画像Imに基づき生成された第1特徴点情報F1を撮像画像Im上に明示した図である。ここでは、一例として、特徴抽出器パラメータD1に基づき構成される特徴抽出器は、入力された撮像画像Imに対し、第2ラベル毎に特徴点の位置に関する信頼度マップを出力するものとする。図5(A)は、説明便宜上、信頼度が0とならない主要な部分領域(ここでは3×3又は4×4の矩形領域)のみに対して信頼度マップを明示している。信頼度マップの各画素は、濃いほど信頼度が高いことを示すものとする。また、図5(A)では、各特徴点の位置に関する信頼度マップと共に、各信頼度マップが対応する特徴点の第2ラベル「Pb0」~「Pb6」を明示している。なお、図5(A)では、全ての特徴点の位置に関する信頼度マップを1つの画像内に表示しているが、実際には、ラベル毎の信頼度マップが特徴抽出器から出力される。
この場合、図5(A)に示すように、特徴抽出器パラメータD1に基づき構成される特徴抽出器は、基準構造物Rtagの対称性に基づき、第2ラベル毎にラベル統合数N個分(ここでは2箇所)のピークを有する信頼度を出力する。よって、第2ラベル特徴抽出部42は、この場合、第2ラベルPb0~Pb6の各々について、ラベル統合数Nに相当する2箇所において信頼度が極大値となる位置(座標値)を、対象の第2ラベルに対応する特徴点として抽出する。
図5(B)は、第2特徴点情報F2を撮像画像Im上に明示した図である。ここでは、説明便宜上、第1ラベルPa0~Pa13に対応する特徴点を小さな丸印により明示している。この場合、付加情報生成部41は、付加情報生成データD2に基づき、表示装置1と基準構造物Rtagとの絶対的な位置関係、又は、審判台9とテニスコートとの撮像画像Im上での位置関係を特定し、特定した位置関係に応じた付加情報Iaを生成する。そして、第1ラベル決定部43は、付加情報Iaと、第2ラベルPb0~Pb6との組合せに基づき、各特徴点に対応する第1ラベルPa0~Pa13を決定する。
ここで、一例として、0又は1となる付加情報Iaを生成する場合の付加情報生成部41及び第1ラベル決定部43の処理について検討する。
このとき、付加情報生成部41は、座席情報等に基づき表示装置1が基準構造物Rtagに対して北側又は東側に存在すると判定した場合には、付加情報Iaを「0」とし、表示装置1が基準構造物Rtagに対して南側又は西側に存在すると判定した場合には、付加情報Iaを「1」とする。同様に、付加情報生成部41は、撮像画像Imに基づき、審判台9が基準構造物Rtagに対して手前側又は右側に存在すると判定した場合、表示装置1が基準構造物Rtagに対し北側又は東側に存在する場合に等しいことから、付加情報Iaを「0」とする。また、付加情報生成部41は、撮像画像Imに基づき、審判台9が基準構造物Rtagに対して奥側又は左側に存在すると判定した場合、表示装置1が基準構造物Rtagに対し南側又は西側に存在する場合に等しいことから、付加情報Iaを「1」とする。図5(A)、(B)の例では、付加情報生成部41は、表示装置1が基準構造物Rtagに対して東側に存在する、又は、審判台9が基準構造物Rtagに対して右側に存在すると判定し、付加情報Iaを「0」とする。
そして、第1ラベル決定部43は、付加情報Iaが「0」の場合、奥側又は右側に存在するコートサイドの特徴点に対して第1ラベルPa0~Pa6を付し、手前側又は左側に存在するコートサイドの特徴点に対して第1ラベルPa7~Pa13を付す。一方、第1ラベル決定部43は、付加情報Iaが「1」の場合、手前側又は左側に存在するコートサイドの特徴点に対して第1ラベルPa0~Pa6を付し、奥側又は右側に存在するコートサイドの特徴点に対して第1ラベルPa7~Pa13を付す。図5(A)、(B)の例では、第1ラベル決定部43は、付加情報Iaが「0」であることから、奥側に存在する西側コートサイドの特徴点に対して第1ラベルPa0~Pa6を付し、手前側に存在する東側コートサイドの特徴点に対して第1ラベルPa7~Pa13を付す。
ここで、付加情報Iaに基づく第1ラベルの決定方法について、ラベル統合数Nを一般化して説明する。
まず、第1ラベル決定部43は、対称性を有する領域毎に基準構造物Rtagを分割する。この場合、分割された領域(「分割領域」とも呼ぶ。)は、ラベル統合数N個(図3及び図4では西側コートサイド及び東側コートサイド)だけ存在する。また、各分割領域は、互いに形状が等しい領域であり、第2ラベルが重複しない特徴点(図3及び図4では、第2ラベルPb0~Pb6)が夫々存在する。そして、第1ラベル決定部43は、分割したラベル統合数N個分の各分割領域の撮像画像Imでの位置関係と、付加情報Iaとに基づき、各分割領域の絶対的な(例えば方位を基準とした)位置関係を識別する。上述した図5(A)及び図5(B)の例では、第1ラベル決定部43は、付加情報Iaに基づき、撮像画像Imにおいて奥側に存在するコートサイドを西側コートサイドとして識別し、撮像画像Imにおいて手前側に存在するコートサイドを東側コートサイドとして識別する。好適には、各分割領域の絶対的な位置関係に基づき予め識別番号などの識別情報が各分割領域に予め割り当てられており、第1ラベル決定部43は、各分割領域の識別情報を認識する。そして、第1ラベル決定部43は、識別した分割領域毎に、各特徴点に対して第1ラベルを付与する。この場合、例えば分割領域の識別情報毎に第1ラベルと第2ラベルとの対応テーブルを予め記憶部14に記憶しておき、第1ラベル決定部43は、分割領域毎に適切な対応テーブルを参照することで、各分割領域に存在する特徴点の第2ラベルを第1ラベルに変換する。
このように、第1ラベル決定部43は、分割したラベル統合数N個分の各分割領域の撮像画像Imでの位置関係と、付加情報Iaとに基づき、分割領域毎に存在する各特徴点に対して第1ラベルを付与することができる。
(4)特徴抽出器及び特徴物推論器の学習
ここで、特徴抽出器及び特徴物推論器の学習について説明する。
図6は、特徴抽出器パラメータD1と特徴物推論器のパラメータである付加情報生成データD2とを生成する学習装置3の概略構成を示す。
学習装置3は、表示装置1がユーザに使用される前段階(表示装置1の製造段階等)において、特徴抽出器パラメータD1の学習(「第1学習」とも呼ぶ。)と、特徴物推論器のパラメータである付加情報生成データD2との学習(「第2学習」とも呼ぶ。)を行う。なお、学習装置3は、表示装置1であってもよく、表示装置1以外の任意の装置(例えばパーソナルコンピュータ等)であってもよい。また、学習装置3は、複数の装置から構成されてもよい。この場合、第1学習と、第2学習との学習は、夫々異なる装置により実行されてもよい。また、表示装置1が特徴物推論器を用いることなく付加情報Iaを生成する場合には、第2学習は行われなくともよい。
学習装置3は、表示部30と、通信部31と、入力部32と、制御部33と、記憶部34とを有する。制御部33は、例えばCPU、GPU、量子プロセッサなどのプロセッサ、プロセッサの作業メモリとして機能する揮発性メモリなどを有しており、学習装置3の全体的な制御を行う。記憶部34は、制御部33が学習に必要な種々の情報を記憶する不揮発性メモリを有する。記憶部34は、学習後に生成される特徴抽出器パラメータD1及び付加情報生成データD2と、学習に用いられる学習データD3とを記憶する。
学習データD3は、基準構造物Rtagが撮像された学習用の画像(学習画像)と、当該学習画像における正解の特徴点の位置及び第1ラベルとを含む正解データとの複数の組合せを含む。この場合、好適には、基準構造物Rtagを種々の撮像環境(例えば照明の有無や度合の異なる環境)、撮影位置や角度(例えば、種々の観客席からなどや、コートの一部のみが写っているような)において撮像した学習画像が学習データD3に含まれているとよい。なお、種々のサーフェスの種類を含めたコートへの適用を想定している場合には、複数の場所に存在する各バリエーションの基準構造物Rtag(例えばテニスコートの場合には各サーフェスに対応したテニスコート)が撮像された学習画像が学習データD3に含まれていてもよい。また、学習データD3には、基準構造物Rtagの周辺に存在する特徴物(例えば審判台9)の位置に関する正解データがさらに含まれている。なお、学習装置3は、学習データD3を自ら記憶する代わりに、学習装置3と有線又は無線により接続する他の装置に記憶された学習データD3を読み出すことで使用する学習データD3を取得してもよい。同様に、学習装置3は、学習により生成した特徴抽出器パラメータD1及び付加情報生成データD2を、学習装置3と有線又は無線により接続する他の装置に記憶させてもよい。また、学習装置3は、複数の装置から構成されてもよい。
図7は、学習装置3の制御部33の機能ブロックの一例を示す。図7に示すように、学習装置3の制御部33は、機能的には、対称性判定部35と、ラベル変換部36と、第1学習部37と、第2学習部38とを有する。
対称性判定部35は、第1学習及び第2学習の実行前に、基準構造物Rtagの対称性を判定する。対称性判定部35は、例えば、入力部32からの入力に基づき、基準構造物Rtagの対称性を判定してもよく、基準構造物Rtagの対称性を撮像画像Imに基づき自動判定してもよい。
ここで、n回対称の自動判定方法について説明する。対称性判定部35は、例えば複数の撮像画像Imから正射変換を行うことで基準構造物Rtagのオルソ画像を生成し、当該オルソ画像での基準構造物Rtagの特徴点の重心を軸にオルソ画像を回転させる。そして、対称性判定部35は、360°回転させる前に、回転前のオルソ画像での特徴点と回転後のオルソ画像での特徴点とが過不足なく一致する場合には、対称性が存在すると判定する。そして、対称性判定部35は、対称性が存在する場合には、一致させるのに必要な回転角度に応じてn回対称の整数「n」を判定する。この場合、ラベル統合数Nは、上記の整数nに等しい。
次に、線対称性の自動判定方法について説明する。まず、対称性判定部35は、オルソ画像内の基準構造物Rtagに対し、「セット内の2点が特徴点の重心と等距離にある」という性質を満たす2つの特徴点からなる特徴点のセットを選択する。そして、対称性判定部35は、2点が重なるように基準構造物Rtagを折り曲げた場合に、残りの特徴点が過不足なく重なる場合、線対称性が存在すると判定する。なお、対称性判定部35は、基準構造物Rtagの周辺に基準構造物Rtagの向きを特定するための特徴物が存在しないと判定した場合、n回対称又は線対称性等の判定結果に関わらず、対称性がないと判定してもよい。
なお、対称性の判定後、学習装置3は、学習データD3に含める特徴点の定義の指定又は修正に関する入力を入力部32により受け付けてもよい。例えば、学習装置3は、ユーザ入力に基づき、判定した対称性に従い対称となる位置に、抽出すべき特徴点が存在するように特徴点の位置を定めてもよい。
ラベル変換部36は、対称性判定部35による対称性の判定結果に基づき、学習データD3に含まれる第1ラベルを第2ラベルに変換する。この場合、ラベル変換部36は、対称の位置となる特徴点同士が同一の第1ラベルになるように、各特徴点に対して第2ラベルを設定する。なお、ラベル変換部36は、この場合の第1ラベルと第2ラベルとの対応関係を示すテーブル情報等を、付加情報生成データD2の一部として記憶してもよい。なお、ラベル変換部36は、入力部32により、統合する(即ち同一の第2ラベルと対応付ける)第1ラベルの組を指定する入力を受け付けることで、第2ラベルを設定してもよい。
第1学習部37は、ラベル変換部36により第2ラベルが特徴点毎に付加された学習データD3に基づき、特徴抽出器に対する学習(第1学習)を行うことで、特徴抽出器パラメータD1を生成する。この場合、第1学習部37は、例えば、学習画像を特徴抽出器に入力した場合に特徴抽出器が出力する特徴点の情報及び第2ラベルと、これらの正解データとの誤差(損失)が最小となるように、特徴抽出器のパラメータを決定する。損失を最小化するように上述のパラメータを決定するアルゴリズムは、勾配降下法や誤差逆伝播法などの機械学習において用いられる任意の学習アルゴリズムであってもよい。そして、第1学習部37は、学習後の特徴抽出器のパラメータを、特徴抽出器パラメータD1として記憶する。なお、特徴抽出器パラメータD1は、通信部31により表示装置1に直ちに送信されてもよく、学習装置3及び表示装置1に着脱可能な記憶媒体を介して表示装置1に供給されてもよい。
第2学習部38は、学習データD3に含まれる学習画像と、学習画像内に含まれる特徴物の位置に関する正解データとに基づき、特徴物推論器の学習(第2学習)を行う。この場合、例えば、第2学習部38は、撮像画像Imが入力された場合に、撮像画像Imにおける基準構造物Rtagに対する特徴物の位置関係を出力するように特徴物推論器の学習を行う。他の例では、第2学習部38は、撮像画像Imが入力された場合に、撮像画像Im内の特徴物の座標位置を出力するように特徴物推論器の学習を行う。さらに別の例では、第2学習部38は、撮像画像Imが入力された場合に、基準構造物Rtagと特徴物との位置関係に応じた付加情報Ia(図5(A)、(B)の例では、0又は1の番号)を出力するように特徴物推論器の学習を行う。この場合、第2学習部38は、対称性判定部35が判定した対称性を破るのに必要な(即ちラベル統合数Nに応じた情報量を有する)付加情報Iaが出力されるように特徴物推論器の学習を行う。そして、第2学習部38は、第2学習により得られた特徴物推論器のパラメータを付加情報生成データD2として記憶する。なお、付加情報生成データD2は、通信部31により表示装置1に直ちに送信されてもよく、学習装置3及び表示装置1に着脱可能な記憶媒体を介して表示装置1に供給されてもよい。
(5)処理フロー
図8は、第1実施形態において学習装置3が実行する処理概要を示すフローチャートの一例である。
まず、学習装置3の対称性判定部35は、基準構造物Rtagの対称性の判定を行う(ステップS11)。例えば、対称性判定部35は、学習データD3の学習画像から生成した基準構造物Rtagのオルソ画像に基づき対称性の有無、及び、対称性がある場合の対称性の種類を判定する。
次に、学習装置3のラベル変換部36は、対称性がある場合には、判定した対称性に基づき、特徴抽出器の学習に用いる学習データD3に含まれる第1ラベルを第2ラベルに変換する(ステップS12)。この場合、ラベル変換部36は、判定した対称性の種類に基づき、基準構造物Rtagの特徴点に対する第1ラベルを、対称性に基づき統合した第2ラベルに変換する。
そして、学習装置3の第1学習部37は、学習データD3に含まれる、サンプル画像と第2ラベルを含む正解データとに基づき、特徴点抽出器の学習を行う(ステップS13)。これにより、第1学習部37は、特徴抽出器パラメータD1を生成する。なお、学習装置3の第2学習部38は、特徴物推論器の学習である第2学習を行う必要がある場合には、学習データD3に基づき、特徴物推論器の学習を行う(ステップS14)。これにより、第2学習部38は、特徴物推論器のパラメータに相当する付加情報生成データD2を生成する。
図9は、第1実施形態において表示装置1が実行する特徴抽出処理に関するフローチャートの一例である。
まず、表示装置1の撮像画像取得部40は、撮像部15が生成した撮像画像Imを取得する(ステップS21)。次に、表示装置1の第2ラベル特徴抽出部42は、ステップS21で取得した撮像画像Imに基づき、基準構造物Rtagの特徴点の位置及び対応する第2ラベルの組合せを抽出する(ステップS22)。この場合、第2ラベル特徴抽出部42は、特徴抽出器パラメータD1に基づき構成した特徴抽出器に撮像画像Imを入力することで特徴抽出器が出力するデータに基づき、第2ラベル毎にラベル統合数N個分の特徴点の座標位置を取得する。
また、付加情報生成部41は、付加情報生成データD2に基づき、付加情報Iaを取得する(ステップS23)。この場合、付加情報生成部41は、付加情報生成データD2に基づき、表示装置1と基準構造物Rtagとの位置関係を特定し、特定した位置関係に応じた付加情報Iaを生成する。また、付加情報生成部41は、付加情報生成データD2が特徴物推論器のパラメータである場合には、付加情報生成データD2に基づき構成した特徴物推論器に対して撮像画像Imを入力した場合の推論結果に基づき付加情報Iaを取得する。なお、ステップS23の付加情報Iaの取得処理は、ステップS21の前又はステップS22の前に行われてもよい。
次に、第1ラベル決定部43は、ステップS23で取得された付加情報Iaに基づき、ステップS22で抽出された各特徴点に一意の第1ラベルを決定する(ステップS24)。これにより、第1ラベル決定部43は、特徴点毎に適切な第1ラベルが関連付けられた第2特徴点情報F2を好適に生成することができる。
(6)変形例
次に、上述した第1実施形態に好適な変形例について説明する。以下の変形例は、任意に組み合わせてもよい。
(変形例1)
表示装置1は、特徴点の位置と当該特徴点が属する第1ラベルとに関する情報を出力するように学習された特徴抽出器の出力と、付加情報Iaとに基づき、各特徴点への正確な第1ラベルの付与を行ってもよい。
図10は、変形例1に係る制御部17の機能ブロックの一例である。変形例1に係る制御部17は、機能的には、撮像画像取得部40と、付加情報生成部41と、第1ラベル特徴抽出部42axと、第2ラベル決定部42ayと、第1ラベル決定部43と、調整部44と、表示制御部45とを有する。なお、撮像画像取得部40、付加情報生成部41、第1ラベル決定部43、調整部44、表示制御部45は、図2に示す機能ブロックと同一の処理を行う。
第1ラベル特徴抽出部42axは、撮像画像取得部40から供給される撮像画像Imに対し、第1ラベル毎の特徴抽出を行い、抽出した特徴点の撮像画像Im内の座標値と第1ラベルとの組合せを示す第1特徴点情報「Fa1」を、第2ラベル決定部42ayに供給する。この場合、第1ラベル特徴抽出部42axは、予め実行された第1学習により生成された特徴抽出器パラメータ「Da1」に基づき特徴抽出器を構成し、当該特徴抽出器に撮像画像Imを入力することで、第1特徴点情報Fa1を生成する。なお、特徴抽出器パラメータDa1の学習段階では、学習装置3は、図7に示すラベル変換部36による第1ラベルから第2ラベルへの変換を行うことなく、学習画像と、正解となる特徴点の位置及び第1ラベルの組を示す正解データとに基づく学習を行うことで、特徴抽出器パラメータDa1を生成する。
第2ラベル決定部42ayは、第1ラベル特徴抽出部42axから供給される第1特徴点情報Fa1に含まれる第1ラベルを、基準構造物Rtagの対称性に基づき第2ラベルに変換する。この場合、第2ラベル決定部42ayは、学習装置3のラベル変換部36と同一処理を行うことで、第1ラベルから第2ラベルへの変換を行う。これにより、第2ラベル決定部42ayは、第1特徴点情報Fa1を、代表的な実施形態において説明した第1特徴点情報F1に変換し、当該第1特徴点情報F1を第1ラベル決定部43に供給する。なお、第1ラベル決定部43は、上述した実施形態と同様、付加情報Iaと第1特徴点情報F1とに基づき、第2特徴点情報F2を生成する。
図11は、変形例1において表示装置1が実行する特徴抽出処理に関するフローチャートの一例である。
まず、表示装置1の撮像画像取得部40は、撮像部15が生成した撮像画像Imを取得する(ステップS31)。次に、表示装置1の第1ラベル特徴抽出部42axは、特徴点の位置及びに当該特徴点に固有の第1ラベルの組合せを抽出する(ステップS32)。この場合、第1ラベル特徴抽出部42axは、特徴抽出器パラメータDa1に基づき構成した特徴抽出器に撮像画像Imを入力した場合の出力データに基づき、第1ラベル毎の特徴点の座標位置を示す第1特徴点情報Fa1を生成する。そして、第2ラベル決定部42ayは、第1ラベル特徴抽出部42axが生成した第1特徴点情報Fa1の第1ラベルを、基準構造物Rtagの対称性に基づき統合した第2ラベルに変換する(ステップS33)。また、付加情報生成部41は、付加情報生成データD2に基づき、付加情報Iaを取得する(ステップS34)。なお、ステップS34の処理は、ステップS31の前、ステップS32の前、又はステップS33の前に実行されてもよい。
次に、第1ラベル決定部43は、ステップS34で取得された付加情報Iaと、ステップS33で変換された各特徴点の第2ラベルとに基づき、各特徴点に固有の第1ラベルを決定する(ステップS35)。これにより、第1ラベル決定部43は、第1ラベルと対応する特徴点の座標位置とが的確に関連付けられた第2特徴点情報F2を好適に生成することができる。
このように、本変形例によっても、表示装置1は、付加情報に基づき、対称性を有する基準構造物Rtagの特徴点の位置を、対応する固有の第1ラベルと共に的確に抽出することができる。
(変形例2)
特徴抽出の対象となる対称物は、スポーツやゲームなどのフィールド等の基準構造物Rtagに限定されず、また、対称性はn回対称に限らず、他の対称性を有してもよい。
図12(A)は、人を正面視した図であり、図12(B)は、鏡越しに人を正面視した図である。ここでは、特徴抽出の対象となる対称物は人であり、右手と左手を夫々適切に抽出する特徴抽出について考察する。一般に、鏡に映った人(図12(B)参照)の右手と左手は、鏡に映っていない人(図12(A)参照)の右手と左手と反転している。以後では、便宜上、右手のラベルを「R」とし、左手のラベルを「L」とする。
この場合、特徴抽出器パラメータD1により構成する特徴抽出器の学習段階では、鏡に映っているか否かによらず、撮像画像Im内において右側の手に第2ラベル「R」を付し、撮像画像Im内において左側の手に第2ラベル「L」を付す。そして、学習装置3は、第2ラベルが付された学習データD3に基づき、特徴抽出器の学習を行うことで、特徴抽出器パラメータD1を生成する。また、推論段階では、表示装置1は、撮像画像Imに基づき鏡に映っているか否かを示す付加情報Iaを生成する。そして、表示装置1は、学習した特徴抽出器に撮像画像Imを入力することで出力される第2ラベルを、生成した付加情報Iaに基づき、第1ラベルに変換する。この場合、表示装置1は、付加情報が鏡に映っていることを示す場合には、第1ラベルの「R」と「L」を入れ替えた第2ラベルを決定し、付加情報が鏡に映っていないことを示す場合には、第2ラベルを第1ラベルと同一とする。なお、表示装置1は、例えば、撮像画像Imから人が鏡に映っているか否かを識別する識別器を予め学習しておき、学習された識別器に撮像画像Imを入力することで、付加情報Iaを生成してもよい。
図13(A)は、並進対称性を有する対称物80を正面視した図であり、図13(B)は、対称物80の破線枠81内を拡大した図である。図13(A)では、特徴抽出の対象箇所を破線枠により示すと共に、各箇所に付された第1ラベル「1」~「14」を明示している。対称物80は、ここでは、7段を有する梯子であり、段ごとに並進対称性を有する。そして、各段における縦棒と横棒の結合部分が特徴抽出の対象箇所として定められている。
この場合、図13(B)に示すように、特徴抽出器パラメータD1により構成する特徴抽出器の学習段階では、対称物80において何段目であるかに関わらず、左側の対象箇所に第2ラベル「0」を付し、右側の対象箇所に第2ラベル「1」を付す。そして、学習装置3は、第2ラベルが付された学習データD3に基づき、特徴抽出器の学習を行うことで、特徴抽出器パラメータD1を生成する。また、推論段階では、表示装置1は、対称物80の全体を映した撮像画像Imを解析することで、各対象箇所が何段目に相当するかを示す付加情報Iaを生成する。そして、表示装置1は、学習した特徴抽出器に撮像画像Imを入力することで出力される第2ラベルを、生成した付加情報Iaに基づき、第1ラベルに変換する。この場合、表示装置1は、第2ラベルが「0」の場合、付加情報が示す段数の2倍に1を引いた値を第1ラベルとし、第2ラベルが「1」の場合、付加情報が示す段数の2倍を第2ラベルとする。例えば、図13(B)に示される3段目の第2ラベルが「0」の対象箇所の第1ラベルは「5」(=3×2-1)となり、3段目の第2ラベルが「1」の対象箇所の第2ラベルは「6」(=3×2)となる。なお、対称物80を線対称とみなして同様の処理を行ってもよい。この場合、第2ラベルを段数とし、表示装置1は、例えば、右側又は左側を示す付加情報に基づき、第2ラベルを第1ラベルに変換する。
このように、表示装置1は、任意の対称性を有する任意の対称物を対象とする場合においても、対称の位置に存在する各特徴点のラベルを正確に識別することができる。
(変形例3)
表示装置1が実行する処理を、表示装置1と通信を行うサーバ装置が実行してもよい。
図14は、第2実施形態に係る表示システムの概略構成図である。図14に示すように、第2実施形態に係る表示システムは、表示装置1Aと、サーバ装置2とを有する。
表示装置1Aは、サーバ装置2がキャリブレーション処理等を行うために必要な情報であるアップロード信号「S1」をサーバ装置2に送信する。この場合、アップロード信号S1には、例えば、撮像部15が生成する撮像画像Im及び位置姿勢検出センサ16の出力信号が含まれている。そして、表示装置1Aは、サーバ装置2から送信される配信信号「S2」を受信した場合、配信信号S2に基づき、光源ユニット10の光の射出制御を行うことで、仮想オブジェクトを表示する。
サーバ装置2は、表示装置1Aから受信するアップロード信号S1に基づき、配信信号S2の生成及び表示装置1Aへの配信信号S2の配信を行う。また、サーバ装置2は、複数の装置から構成されたクラウドサーバであってもよい。サーバ装置2は、入力部26と、制御部27と、通信部28と、記憶部29とを有する。
制御部27は、例えばCPU、GPUなどのプロセッサ、プロセッサの作業メモリとして機能する揮発性メモリなどを有しており、サーバ装置2の全体的な制御を行う。記憶部29は、制御部27がサーバ装置2の制御に必要な種々の情報を記憶する不揮発性メモリである。記憶部29には、制御部27が実行するプログラムが記憶される。記憶部29は、特徴抽出器パラメータD1と、付加情報生成データD2とを有する。なお、記憶部29は、サーバ装置2に接続又は内蔵されたハードディスクなどの外部記憶装置であってもよく、フラッシュメモリなどの記憶媒体であってもよい。また、記憶部29は、サーバ装置2とデータ通信を行うサーバ装置(即ち、他の装置から参照可能に情報を記憶する装置)であってもよい。また、この場合、記憶部29は、複数のサーバ装置から構成され、特徴抽出器パラメータD1と、付加情報生成データD2とを分散して記憶してもよい。
サーバ装置2の制御部27は、図2に示される制御部17の機能ブロックと同様の機能ブロックを有する。そして、制御部27は、表示装置1Aから撮像画像Imを含むアップロード信号S1を受信した場合に、図11のフローチャート等に示される特徴抽出処理を実行することで、基準構造物Rtagの第1ラベル毎の特徴点の抽出を行う。そして、制御部27は、キャリブレーション処理及び配信信号S2の生成処理を行い、配信信号S2を通信部28により表示装置1Aへ送信する。
この態様によっても、サーバ装置2は、基準構造物Rtagの特徴点毎の第1ラベルを正確に把握し、キャリブレーション処理を好適に実行することができる。なお、本変形例では、サーバ装置2は、「情報処理装置」の一例である。
(変形例4)
表示装置1が使用される位置が基準構造物Rtagに対して相対的に予め定まっている場合には、付加情報Iaは、予め記憶部14に記憶されてもよい。この場合、第1ラベル決定部43は、記憶部14から付加情報Iaを読み出すことで取得する。この場合、付加情報生成部41は存在しなくともよい。
(変形例5)
表示装置1は、ユーザの頭部に装着可能に構成されたARデバイスに限定されない。これに代えて、表示装置1は、カメラと表示ディスプレイ(表示部)を有するスマートフォンなどの表示端末であってもよい。この場合、表示装置1は、図1の構成において、光源ユニット1に代えてディスプレイを有し、撮像部15が撮像した風景の画像に対して基準構造物Rtagの特徴抽出等を行う。そして、表示装置1は、基準構造物Rtagに対して何らかの情報を示した画像に相当する仮想オブジェクトを、上記の風景の画像に重畳してディスプレイに表示する。この場合であっても、表示装置1は、基準構造物Rtagの特徴抽出を的確に行い、仮想オブジェクトを適切な位置に表示させることができる。
<第3実施形態>
図15は、第3実施形態における情報処理装置4の概略構成を示す。図14に示すように、情報処理装置4は、特徴点取得手段41Aと、ラベル決定手段43Aとを有する。情報処理装置4は、例えば、表示装置1の制御部17又はサーバ装置2の制御部27により実現される。
特徴点取得手段41Aは、撮像部15Aが撮像した撮像画像「Im」に基づき、対称性を有する対称物の特徴点の位置と、当該特徴点に固有の第1ラベルを対称物の対称性に基づき統合又は変更するように定義された第2ラベルとの組合せを取得する。例えば、特徴点取得手段41Aは、図2の第2ラベル特徴抽出部42、又は、図10の第1ラベル特徴抽出部42ax及び第2ラベル決定部42ayの組合せとすることができる。
ラベル決定手段43Aは、対称性を破るための付加情報と、第2ラベルとに基づき、特徴点の各々に対して付すべき第1ラベルを決定する。ラベル決定手段43Aは、図2又は図10の第1ラベル決定部43とすることができる。
図16は、第3実施形態において表示装置1Aが実行するフローチャートの一例である。まず、情報処理装置4の特徴点取得手段41Aは、撮像部15Aが撮像した撮像画像Imに基づき、対称性を有する対称物の特徴点の位置と、第2ラベルとの組合せを取得する(ステップS41)。次に、情報処理装置4のラベル決定手段43Aは、対称性を破るための付加情報と、第2ラベルとに基づき、特徴点の各々に対して付すべき第1ラベルを決定する(ステップS42)。
第3実施形態によれば、情報処理装置4は、対称性を有する対称物の特徴点の位置を、対応する一意のラベルである第1ラベルと共に好適に特定することができる。なお、情報処理装置4は、第1実施形態において言及したAR表示を行う表示装置1又は当該表示装置1に表示用の信号を送信するサーバ装置2に限らず、対称性を有する対称物の特徴抽出が必要な任意の用途に用いることができる。
なお、上述した各実施形態において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータであるプロセッサ等に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記憶媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記憶媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記憶媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
その他、上記の実施形態(変形例を含む、以下同じ)の一部又は全部は、以下の付記のようにも記載され得るが以下には限られない。
[付記1]
撮像部が撮像した撮像画像に基づき、対称性を有する対称物の特徴点の位置と、当該特徴点に固有の第1ラベルを前記対称性に基づき統合又は変更するように定義された第2ラベルとの組合せを取得する特徴点取得手段と、
前記対称性を破るための付加情報と、前記第2ラベルとに基づき、前記特徴点の各々に対して付すべき前記第1ラベルを決定するラベル決定手段と、
を有する情報処理装置。
[付記2]
前記対称物と前記撮像部との位置関係に応じた前記付加情報を生成する付加情報生成手段を有する、付記1に記載の情報処理装置。
[付記3]
前記付加情報生成手段は、前記撮像部の装着者の座席情報又は前記撮像部の位置を示す位置情報に基づき、前記位置関係を認識する、付記2に記載の情報処理装置。
[付記4]
前記撮像画像に基づき、前記付加情報を生成する付加情報生成手段を有する、付記1に記載の情報処理装置。
[付記5]
前記付加情報生成手段は、前記撮像画像における、前記対称物の周辺に存在する特徴物と前記対称物との位置関係に基づき、前記付加情報を生成する、付記4に記載の情報処理装置。
[付記6]
前記特徴点取得手段は、入力された画像から前記第2ラベルと前記特徴点の位置との組合せを出力するように学習された特徴抽出器に前記撮像画像を入力することで、前記第2ラベルと前記特徴点の位置との組合せを取得する、付記1~5のいずれか一項に記載の情報処理装置。
[付記7]
前記対称物が撮像された学習画像において正解となる特徴点の位置及び第1ラベルの組合せを示す正解データの当該第1ラベルを、前記対称性に基づき統合又は変更した第2ラベルに変換するラベル変換手段と、
前記学習画像と、前記第2ラベルを含む前記正解データとに基づき、前記特徴抽出器の学習を行う学習手段と、
を有する付記6に記載の情報処理装置。
[付記8]
前記学習画像に基づき、前記対称物の対称性を判定する対称性判定手段をさらに有する、付記7に記載の情報処理装置。
[付記9]
前記特徴点取得手段は、入力された画像から前記第1ラベルと前記特徴点の位置との組合せを抽出するように構成された特徴抽出器に前記撮像画像を入力することで、前記第1ラベルと前記特徴点の位置との組合せを取得後、前記第1ラベルを前記対称性に基づき前記第2ラベルに変換することで、前記第2ラベルと前記特徴点の位置との組合せを取得する、付記1~8のいずれか一項に記載の情報処理装置。
[付記10]
前記撮像部と、
前記第1ラベル毎の特徴点の位置に基づき、風景に重ねて、又は撮像部が当該風景を撮像した画像に重ねて仮想オブジェクトを表示する表示部と、
を有する表示装置である、付記1~9のいずれか一項に記載の情報処理装置。
[付記11]
前記撮像部を有し、風景に重ねて仮想オブジェクトを表示する表示装置に対し、前記仮想オブジェクトを表示するための表示信号を送信するサーバ装置である、付記1~10のいずれか一項に記載の情報処理装置。
[付記12]
コンピュータにより、
撮像部が撮像した撮像画像から、対称性を有する対称物の特徴点の位置と、当該特徴点に固有の第1ラベルを前記対称性に基づき統合又は変更するように定義された第2ラベルとの組合せを取得し、
前記対称性を破るための付加情報と、前記第2ラベルとに基づき、前記特徴点の各々に対して付すべき前記第1ラベルを決定する、
制御方法。
[付記13]
撮像部が撮像した撮像画像から、対称性を有する対称物の特徴点の位置と、当該特徴点に固有の第1ラベルを前記対称性に基づき統合又は変更するように定義された第2ラベルとの組合せを取得する特徴点取得手段と、
前記対称性を破るための付加情報と、前記第2ラベルとに基づき、前記特徴点の各々に対して付すべき前記第1ラベルを決定するラベル決定手段
としてコンピュータを機能させるプログラムを格納する記憶媒体。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
1、1A 表示装置
2 サーバ装置
3 学習装置
4 情報処理装置
10 光源ユニット
11 光学素子
12 通信部
13 入力部
14 記憶部
15 撮像部
16 位置姿勢検出センサ

Claims (10)

  1. 撮像部が撮像した撮像画像に基づき、対称性を有する対称物の特徴点の位置と、当該特徴点に固有の第1ラベルを前記対称性に基づき統合又は変更するように定義された第2ラベルとの組合せを取得する特徴点取得手段と、
    前記対称性を破るための付加情報と、前記第2ラベルとに基づき、前記特徴点の各々に対して付すべき前記第1ラベルを決定するラベル決定手段と、
    を有する情報処理装置。
  2. 前記対称物と前記撮像部との位置関係に応じた前記付加情報を生成する付加情報生成手段を有する、請求項1に記載の情報処理装置。
  3. 前記付加情報生成手段は、前記撮像部の装着者の座席情報又は前記撮像部の位置を示す位置情報に基づき、前記位置関係を認識する、請求項2に記載の情報処理装置。
  4. 前記撮像画像に基づき、前記付加情報を生成する付加情報生成手段を有する、請求項1に記載の情報処理装置。
  5. 前記付加情報生成手段は、前記撮像画像における、前記対称物の周辺に存在する特徴物と前記対称物との位置関係に基づき、前記付加情報を生成する、請求項4に記載の情報処理装置。
  6. 前記特徴点取得手段は、入力された画像から前記第2ラベルと前記特徴点の位置との組合せを出力するように学習された特徴抽出器に前記撮像画像を入力することで、前記第2ラベルと前記特徴点の位置との組合せを取得する、請求項1~5のいずれか一項に記載の情報処理装置。
  7. 前記対称物が撮像された学習画像において正解となる特徴点の位置及び第1ラベルの組合せを示す正解データの当該第1ラベルを、前記対称性に基づき統合又は変更した第2ラベルに変換するラベル変換手段と、
    前記学習画像と、前記第2ラベルを含む前記正解データとに基づき、前記特徴抽出器の学習を行う学習手段と、
    を有する請求項6に記載の情報処理装置。
  8. 前記学習画像に基づき、前記対称物の対称性を判定する対称性判定手段をさらに有する、請求項7に記載の情報処理装置。
  9. コンピュータにより、
    撮像部が撮像した撮像画像から、対称性を有する対称物の特徴点の位置と、当該特徴点に固有の第1ラベルを前記対称性に基づき統合又は変更するように定義された第2ラベルとの組合せを取得し、
    前記対称性を破るための付加情報と、前記第2ラベルとに基づき、前記特徴点の各々に対して付すべき前記第1ラベルを決定する、
    制御方法。
  10. 撮像部が撮像した撮像画像から、対称性を有する対称物の特徴点の位置と、当該特徴点に固有の第1ラベルを前記対称性に基づき統合又は変更するように定義された第2ラベルとの組合せを取得する特徴点取得手段と、
    前記対称性を破るための付加情報と、前記第2ラベルとに基づき、前記特徴点の各々に対して付すべき前記第1ラベルを決定するラベル決定手段
    としてコンピュータを機能させるプログラ
JP2022514882A 2020-04-13 2020-04-13 情報処理装置、制御方法及びプログラム Active JP7364052B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/016311 WO2021210046A1 (ja) 2020-04-13 2020-04-13 情報処理装置、制御方法及び記憶媒体

Publications (3)

Publication Number Publication Date
JPWO2021210046A1 JPWO2021210046A1 (ja) 2021-10-21
JPWO2021210046A5 JPWO2021210046A5 (ja) 2022-12-23
JP7364052B2 true JP7364052B2 (ja) 2023-10-18

Family

ID=78084733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022514882A Active JP7364052B2 (ja) 2020-04-13 2020-04-13 情報処理装置、制御方法及びプログラム

Country Status (3)

Country Link
US (1) US20230186591A1 (ja)
JP (1) JP7364052B2 (ja)
WO (1) WO2021210046A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119412A1 (ja) * 2021-12-21 2023-06-29 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
US12062201B2 (en) * 2022-08-26 2024-08-13 Adobe Inc. Generating symmetrical repeat edits for images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010104181A1 (ja) 2009-03-13 2010-09-16 日本電気株式会社 特徴点生成システム、特徴点生成方法および特徴点生成プログラム
JP2010272092A (ja) 2009-05-25 2010-12-02 Canon Inc 画像検索装置およびその方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012038795A (ja) * 2010-08-04 2012-02-23 Nikon Corp 検出条件最適化方法、プログラム作成方法、並びに露光装置及びマーク検出装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010104181A1 (ja) 2009-03-13 2010-09-16 日本電気株式会社 特徴点生成システム、特徴点生成方法および特徴点生成プログラム
JP2010272092A (ja) 2009-05-25 2010-12-02 Canon Inc 画像検索装置およびその方法

Also Published As

Publication number Publication date
US20230186591A1 (en) 2023-06-15
JPWO2021210046A1 (ja) 2021-10-21
WO2021210046A1 (ja) 2021-10-21

Similar Documents

Publication Publication Date Title
JP7494862B2 (ja) 情報処理装置、制御方法及びプログラム
US20200193671A1 (en) Techniques for rendering three-dimensional animated graphics from video
US10488659B2 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
US20170043252A1 (en) Reconfiguring reality using a reality overlay device
CN109865289B (zh) 一种基于增强现实技术的实景环境娱乐系统及其方法
CN108519676A (zh) 一种头戴式助视装置
US20090237564A1 (en) Interactive immersive virtual reality and simulation
JP7364052B2 (ja) 情報処理装置、制御方法及びプログラム
CN108292040A (zh) 优化头戴式显示器屏幕上的内容定位的方法
CN106843460A (zh) 基于多摄像头的多目标位置捕获定位系统及方法
JP7405734B2 (ja) 表示システム及びサーバ
CN107436608A (zh) 用于无人机的控制装置及用于导游的系统
US10665034B2 (en) Imaging system, display apparatus and method of producing mixed-reality images
CN114730210A (zh) 共享人工现实环境中的共同定位姿势估计
CN106471523A (zh) 使用红外成像的颜色标识
CN114648625A (zh) 显示系统、显示装置以及程序
JP6811323B2 (ja) 情報処理システム、プレイヤ側装置、制御方法、及びプログラム
WO2023119412A1 (ja) 情報処理装置、制御方法及び記憶媒体
WO2023281593A1 (ja) 情報処理装置、制御方法及び記憶媒体
US20220270363A1 (en) Image processing apparatus, image processing method, and program
US20230021345A1 (en) Information processing device, control method, and storage medium
WO2023281587A1 (ja) 情報処理装置、制御方法及び記憶媒体
WO2023281585A1 (ja) 情報処理装置、制御方法及び記憶媒体
US20230162388A1 (en) Learning device, control method, and storage medium
KR102433085B1 (ko) 가상 현실 게임용 중계 화면 생성 방법 및 이를 수행하는 가상 현실 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230918

R151 Written notification of patent or utility model registration

Ref document number: 7364052

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151