JP2020201863A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2020201863A
JP2020201863A JP2019110204A JP2019110204A JP2020201863A JP 2020201863 A JP2020201863 A JP 2020201863A JP 2019110204 A JP2019110204 A JP 2019110204A JP 2019110204 A JP2019110204 A JP 2019110204A JP 2020201863 A JP2020201863 A JP 2020201863A
Authority
JP
Japan
Prior art keywords
dimensional model
information processing
contact
model
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019110204A
Other languages
English (en)
Other versions
JP7401199B2 (ja
Inventor
大地 阿達
Taichi Adachi
大地 阿達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019110204A priority Critical patent/JP7401199B2/ja
Priority to US16/896,491 priority patent/US11501577B2/en
Publication of JP2020201863A publication Critical patent/JP2020201863A/ja
Application granted granted Critical
Publication of JP7401199B2 publication Critical patent/JP7401199B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】オブジェクトに関する解析の利便性を向上させること。【解決手段】情報処理装置200は、接触対象の前景オブジェクトの三次元モデルと、被接触対象の背景オブジェクトの三次元モデルとを含む三次元モデル180を取得するモデル取得部210と、前景オブジェクトの三次元モデルを部位ごとに識別するモデル部位識別部230と、前景オブジェクトの三次元モデルが背景オブジェクトの三次元モデルに接触する接触箇所を部位ごとに導出する接触箇所導出部220と、導出された接触箇所の解析をする接触箇所処理部250と、を有する。【選択図】図1

Description

本発明は、オブジェクトの三次元モデルを解析する技術に関するものである。
複数のカメラを異なる位置に設置して同期撮像し、当該撮像により複数の視点で得られた複数の撮像画像を用いて仮想視点画像を生成する技術が注目されている。このような技術によれば、例えば、サッカーまたはバスケットボール等のハイライトシーンを様々な角度から視聴することができるため、通常の画像と比較してユーザに高臨場感を与えることが出来る。
特許文献1には、複数のカメラを用いて取得した複数の撮像画像に基づいてオブジェクトの三次元モデルを生成し、当該三次元モデルを用いて仮想視点画像を生成する技術が記載されている。
特開2017−212592号公報
サッカーの試合における選手の動きの解析など、所定のオブジェクトに関する解析を行うために、従来技術により生成されるオブジェクトの三次元モデルを用いることが考えられる。しかしながら、オブジェクトに関する解析の利便性をさらに向上させることが求められる。例えば、オブジェクトの三次元モデルを利用すれば、オブジェクトと地面との接触を判定できる。しかしながら、オブジェクトのどの部位が接触したかがわからなければ、選手の歩幅や足の向きなどを解析することはできない。
本発明は上記課題に鑑み、オブジェクトに関する解析の利便性を向上させることを目的とする。
本発明の一態様に係る情報処理装置は、接触対象の第1のオブジェクトの三次元モデルと、被接触対象の第2のオブジェクトの三次元モデルとを含む三次元モデルを取得する取得手段と、前記第1のオブジェクトの前記三次元モデルを部位ごとに識別する識別手段と、前記第1のオブジェクトの三次元モデルが前記第2のオブジェクトの三次元モデルに接触する接触箇所を部位ごとに導出する導出手段と、前記導出手段によって導出された接触箇所の解析をする解析手段と、を有することを特徴とする。
本発明によれば、オブジェクトに関する解析の利便性を向上させることができる。
システムの全体構成を示す図。 情報処理装置のハードウェア構成図。 情報処理装置の処理の流れを示すフローチャート。 オブジェクトの三次元モデルを説明する図。 接触箇所の三次元座標の集合を示す図。 識別結果を説明する図。 仮想視点画像に解析結果が重畳して表示されている例を示す図。 システムの全体構成を示す図。 情報処理装置の処理の流れを示すフローチャート。 接触箇所の方向を説明する図。 解析結果を示す画像の一例。 解析結果の例を示す図。 解析結果の画像を示す図。 システムの全体構成を示す図。 情報処理装置の処理の流れを示すフローチャート。 モデル部位識別用UIの一例を示す図。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
<<実施形態1>>
本実施形態では、サッカースタジアムに複数のカメラを設置し、それら複数のカメラによって撮像された複数の画像データを用いて生成される三次元モデルを解析するシステムを例に挙げて説明する。また、解析結果を仮想視点画像に重畳表示する例を説明する。
<システムの全体構成>
図1は、本実施形態で用いられるシステムの全体構成を示す図である。システムは、複数のカメラ110、コントローラ120、サーバ130、画像生成装置140、記憶装置160、情報処理装置200、および表示装置300を有する。情報処理装置200は、モデル取得部210、接触箇所導出部220、モデル部位識別部230、および接触箇所処理部240を有する。情報処理装置200は、オブジェクトの部位の動きを解析する解析装置として機能する。なお、図1に示した構成は一例に過ぎず、図1に示した複数の装置の機能を集約した装置を有してもよい。また、例えば情報処理装置200の機能が複数の装置によって分散処理されてもよい。また、情報処理装置200と画像生成装置140とが同一の装置によって実現されてもよい。
複数のカメラ110は、サッカーフィールド上のオブジェクトを複数の方向から撮像するように設置されている。複数のカメラ110は、撮像によって得られたそれぞれの撮像データを、ネットワークを介してサーバ130へ送信する。なお、複数のカメラ110は同一符号を用いて説明するが、性能および機種が異なっていてもよい。本実施形態では、カメラ110は、計26台のカメラで構成されるが台数はこれに限らない。
サーバ130は、複数のカメラ110から送信される撮像データを用いて、前景オブジェクト(例えばサッカープレーヤーおよびボール)を抽出する。また、サーバ130は、ステレオ計測の原理から前景オブジェクトの三次元モデル180を生成し、ネットワークを介して記憶装置160に記憶する。また、サーバ130はあらかじめレーザースキャナの計測により得られる背景オブジェクト(サッカースタジアム、サッカーフィールド、およびサッカーゴール)の三次元モデル180を記憶装置160に記憶する。
コントローラ120は、ネットワークを介して接続されている画像生成装置140にユーザの指示を送信するユーザインタフェース(UI)である。コントローラ120は、ユーザの操作に基づき仮想視点の位置、姿勢、および焦点距離の情報を生成し、画像生成装置140に送信する。
画像生成装置140は、コントローラ120、記憶装置160、および情報処理装置200とネットワークを介して接続する。画像生成装置140は、記憶装置160に記憶されているオブジェクトの三次元モデル180およびコントローラ120からの情報に基づき、仮想視点画像を生成する。また、画像生成装置140は、情報処理装置200から送信された解析結果を重畳した画像を生成する。画像生成装置140は、表示装置300とネットワークまたはSDI(Serial Digital Interface)などの映像伝送経路を介して接続し、解析結果を仮想視点画像に重畳した画像を表示装置300に表示する。
記憶装置160に記憶される三次元モデル学習データ170は、予めオブジェクト(本例では人間)の三次元モデルを、その部位とともに学習して作成されたデータである。三次元モデル学習データ170は、予め記憶装置160に記憶されているものとする。
<情報処理装置の構成>
情報処理装置200のモデル取得部210は、記憶装置160とネットワークを介して接続し、オブジェクトの三次元モデル180を取得する。接触箇所導出部220は、前景オブジェクトの三次元モデルと背景オブジェクトの三次元モデルとの間の接触箇所を導出する。モデル部位識別部230は、三次元モデル学習データ170を取得し、前景オブジェクトの三次元モデル180の部位を識別する。接触箇所処理部240は、モデル部位識別部230で識別された部位の接触箇所を解析する解析部である。接触箇所処理部240は、ネットワークを介して接続されている画像生成装置140へ解析結果を送信する。
図2は、情報処理装置200のハードウェア構成図である。情報処理装置200は、CPU201、ROM202、RAM203、記憶部204、及び通信部205を有する。
CPU201は、情報処理装置200の全体を制御する中央演算ユニットであり、情報処理装置200の処理シーケンスを統括的に制御する。ROM202及び記憶部204は、後述する処理フローを実現するためのプログラムおよびデータを格納する。RAM203は、データの一時保存およびプログラムのロードに使用される。通信部205は、ネットワーク206を介した外部装置との間でデータ送受信を行う。通信部205は、接触箇所処理部240で解析した結果を画像生成装置140へ送信する。情報処理装置200の各構成要素は、バス207を介して相互に接続される。なお、情報処理装置200がCPU201とは異なる専用の1又は複数のハードウェアあるいはGPU(Graphics Processing Unit)を有してもよい。そして、CPU201による処理の少なくとも一部をGPUあるいは専用のハードウェアが行うようにしてもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(field programmable gate array)、またはDSP(デジタルシグナルプロセッサ)等がある。
<フローチャート>
図3は、本実施形態における情報処理装置200の処理の流れを示すフローチャートである。図3は、情報処理装置200が、接触箇所の解析対象となる所定の期間の三次元モデルを取得して解析を行い、当該期間の仮想視点画像が表示装置300に表示される一連の処理を示している。図3のフローチャートで示される一連の処理は、CPU201がROM202に記憶されているプログラムコードをRAM203に展開し実行することにより行われる。あるいはまた、図3におけるステップの一部または全部の機能をASICまたは電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。
S301においてモデル取得部210は、記憶装置160から所定の期間におけるオブジェクトの三次元モデル180を取得する。三次元モデルは、メッシュポリゴンまたは点群データとして表現され、オブジェクト(人または物)ごとに三次元モデルを記述するフォーマット、例えばWavefront OBJフォーマットで記述されたファイルを読み出すことで取得される。このように、三次元モデルは、所定のフォーマットで記述されたデータである。
また、モデル取得部210は、背景オブジェクトの三次元モデルと前景オブジェクトの三次元モデルとを、区別して取得する。即ち、モデル取得部210は、接触対象のオブジェクト(ここでは前景オブジェクト)の三次元モデルと、被接触対象のオブジェクト(ここでは背景オブジェクト)の三次元モデルとを、区別して取得する。
図4は、オブジェクトの三次元モデルを説明する図である。図4(a)は、所定の期間における、ある時点のオブジェクトの三次元モデルを示す図である。図4(b)は、当該時点のカメラ110の撮像画像を示す図である。図4(b)では、カメラ110a〜110zのうち、代表的にカメラ110aの撮像画像とカメラ110kの撮像画像とを示している。図4(a)は、サッカーフィールド01のメッシュポリゴン、ならびに、選手02〜05およびボール06を点群で表現した三次元モデルを含む。図4(a)は、それぞれオブジェクト(人または物)ごとにファイル単位で分割された三次元モデルを読み込むことで世界座標系の各位置に三次元モデルが現れる。なお、ここでは説明のために図示しているものであり、情報処理装置200が接続する不図示の表示部などに図4(a)に示す画面が表示されているものではない(もちろん、表示されてもよい)。図4(b)において像22〜26は、それぞれ図4(a)の選手02〜05およびボール06に対応している。
S302においてモデル部位識別部230は、記憶装置160から三次元モデル学習データ170を取得する。三次元モデル学習データ170は、人体の距離画像と距離画像中の部位(頭、肩、右肘、左肘、右手、左手、腰、右膝、左膝、右足、左足)の位置および方向とを用いて予め学習されているデータである。この学習データは、例えばMicrosoft Kinect(登録商標)で用いられている公知の方法で作成されている。すなわち、様々な姿勢の人体の距離画像を入力として、距離画像中の画素と部位とを決定木を用いて教師あり学習することで作成されたデータである。なお、学習の方法についてはこれに限らず、ニューラルネットワークまたはサポートベクターマシンなどの回帰学習を用いてもよい。人体のほかにサッカーボールまたはラグビーボールを追加で学習させてもよい。また、本実施形態では距離画像を用いて学習したデータを用いるが、RGBカラー画像を用いて人体の部位を学習したデータを用いてもよい。なお、図3のフローチャートでは、S302で三次元モデル学習データ170を取得する例を示しているが、後述するS306のモデル部位を識別する処理の前に三次元モデル学習データ170が取得されていればよい。
S303において接触箇所導出部220は、背景オブジェクトの三次元モデルと前景オブジェクトの三次元モデルとの間の接触計算を行い、接触が発生した箇所(以下、接触箇所という)を導出する。接触計算は、物理演算およびCGシミュレーションの分野で広く用いられているBlenderを用いることができる。なお、接触計算は、これに限らず、任意の手法を用いてよい。接触箇所は、世界座標系の三次元座標の集合で表現される。また、接触箇所導出部220は、接触箇所の三次元座標の集合をクラスタリングして、その集合の重心座標を求める。
図5は、接触箇所の三次元座標の集合を示す図である。クラスタリングにより、集合は、4つのクラスタ11〜14に区分される。各クラスタは、それぞれ重心座標が(x,y,z)=(−39.0,9.2,0)、(−37.8,12.7,0)、(−38.4,16.9,0)、(−37.1,19.4,0)として導出されている。接触箇所導出部220は、所定の期間の三次元モデルの接触計算を時刻ごとに行い、各時刻の接触箇所をそれぞれ導出する。
S301で取得される三次元モデルは、オブジェクトごとのデータであるので、接触箇所導出部220は、各クラスタがどのオブジェクト(人物またはボール)に属するクラスタであるかも導出可能である。接触箇所導出部220によって導出された接触箇所の集合の重心座標は、オブジェクトを識別する情報と関連付けて時刻ごとのデータとしてRAM203に記憶される。
S304において接触箇所導出部220は、接触計算の結果、接触箇所があるかを判定する。例えば、RAM203を参照して、接触箇所を表す三次元座標の数が0であるか、または0より大きいかを判定する。接触箇所がある場合、S306へ進む。接触箇所がない場合、S305に進む。
S305において情報処理装置200は、画像生成装置140に仮想視点画像を生成させる。例えば情報処理装置200は、重畳すべきものがないことを示す指示を画像生成装置140に送信する。画像生成装置140は、コントローラ120から指定された仮想視点を示すパラメータ等に従って、所定の期間における仮想視点画像を生成し、表示装置300に表示させる。仮想視点画像は、仮想視点から見た画像をコンピュータグラフィックスの技術を用いることで生成することができる。この生成処理には公知の技術を適宜適用すればよい。そして、処理を終了する。
S306においてモデル部位識別部230は、各三次元モデルの部位を、S302で取得した学習データを用いて識別する。識別の結果、各三次元モデルに属する点データが、いずれかの部位に関連付けられる。なお、S306の処理は、接触箇所以外の部位も識別する処理であるが、接触箇所の部位だけを識別する処理としてもよい。これにより、S304で導出した接触箇所のクラスタが、いずれの部位であるかが識別される。
図6は、S306の識別結果を説明する図である。図6(a)は、部位識別の結果を示している。図6(b)は、部位ごとの接触箇所を時系列でテーブル情報として記憶した結果を示している。この例では、オブジェクト(選手)02〜05の左足は、それぞれ02−01,03−01,04−01,05−01と識別IDを付けて識別される。オブジェクト02〜05の右足は、それぞれ02−02,03−02,04−02,05−02と識別IDを付けて識別される。また、図6(b)に示すように、各部位の接触箇所の重心座標が、接触時刻と紐づけてRAM203に記憶される。なお、図示しないがオブジェクト02の頭、肩、右肘、左肘、右手、左手、腰、右膝、左膝は、それぞれ02−03,02−04,02−05,02−06,02−07,02−08,02−09,02−10,02−11として識別IDを付けて識別される。これらの接触箇所があれば、図6(b)のように、各部位の接触箇所の重心座標が、接触時刻と紐づけてテーブル情報としてRAM203に記憶される。
S307において接触箇所処理部240は、RAM203に記憶されている接触箇所の解析を行い、解析結果を画像生成装置140へ送信する。本実施形態の接触箇所処理部240は、オブジェクトの歩幅を導出する。前述したように、モデル部位識別部230によって、特定のオブジェクト(例えばオブジェクト03)の左足および右足が識別されている。歩幅は、一方の足の接触終了位置から、他方の足の接触開始位置までの距離として求めることができる。そこで、接触箇所処理部240は、RAM203に記憶されているテーブル情報を参照して、第1注目部位03−02(オブジェクト03の右足)の接触終了から第2注目部位03−01(オブジェクト03の左足)の接触開始に至るまでの接触位置を特定する。そして、これらの接触位置間の距離を計算することで、第1注目部位03−02の接触終了位置(−36.2,12.3,0)から第2注目部位03−01の接触開始位置(−37.8,12.7,0)までの距離が導出される。本例では、オブジェクト03の歩幅が1.65mとして導出される。接触箇所処理部240は、このように求めた接触終了位置、接触開始位置、および歩幅の値を画像生成装置140へ送信する。上記の説明では、オブジェクト03を例に挙げて説明したが、各オブジェクトの接触箇所の解析処理が同様に行われてよい。なお、接触箇所処理部240によってどのような解析を行うのか(本例では、歩幅の解析)は、予め情報処理装置100にユーザからの指示が入力され、その指示に基づいて設定がされているものとする。
S308において情報処理装置200は、解析結果を重畳した仮想視点画像を生成する指示を画像生成装置140に送信する。画像生成装置140は、この指示に従い、S305で説明した処理と同様に仮想視点画像を生成し、さらに、解析結果を仮想視点画像に重畳させた画像を表示装置300に表示させる。
図7は、表示装置300において仮想視点画像に解析結果が重畳して表示されている例を示す図である。画像生成装置140は、接触箇所処理部240から送信された接触終了位置、接触開始位置、および歩幅の値を、所定の大きさの円と矢印のオブジェクトとを用いて仮想視点画像に重畳した画像を生成し、表示装置300に表示する。図7においては、オブジェクト03の地面との接触位置および歩幅が、その足元に表示される。なお、図7においては、簡略的にオブジェクト03の歩幅のみが表示されているに過ぎず、画像生成装置140は、接触箇所処理部240から送信された各オブジェクトの接触終了位置、接触開始位置、および歩幅の値を、同様に表示することができる。
以上述べたように、本実施形態では、前景のオブジェクトの三次元モデルと、背景のオブジェクトの三次元モデルとの間の接触箇所を部位ごとに識別することで、オブジェクトの部位ごとの動きを容易に解析することができる。例えば、選手ごとに歩幅を導出し、仮想視点画像に重畳することができる。これにより特定のサッカー選手がプレー中にどれくらいの歩幅で移動しているかを容易に解析することができる。また、複数の選手のプレー中の動きを容易に解析することもできる。また、オブジェクトの部位ごとに識別がされているので、例えば地面に手をついたり、転倒してしまっていたりして生じた接触箇所が、誤って歩幅の導出に用いられてしまうことを抑制することができる。
なお、本実施形態では背景オブジェクトのメッシュポリゴンと前景オブジェクトの点群との接触を計算したが、メッシュポリゴン同士、点群同士、または点群とメッシュポリゴンの組み合わせでもよい。また、接触箇所は、三次元座標の集合でなく、メッシュIDとテクスチャ座標とによって表現されてもよい。また、歩幅は、右足の接触箇所と左足の接触箇所との間の距離であるとして説明したが、右足同士の接触箇所、または、左足同士の接触箇所の距離として導出してもよいし、そのほかの部位の組み合わせでもよい。
また、S307では肩または腰が地面と接触している場合に異常とみなして異常事態であることを記憶するとともに画像生成装置140にその情報を出力してもよい。そして、画像生成装置140は、仮想視点画像に所定の通知、例えば、異常事態であることを示す情報を重畳してもよい。
また、画像生成装置140は、解析結果を仮想視点画像に重畳する例を説明したが、このとき全ての解析結果を重畳せず、一部の解析結果のみを重畳させてもよい。例えば、コントローラ120から解析対象とすべきオブジェクトの指定があった場合には、画像生成装置140は、指定されたオブジェクトの解析結果のみを仮想視点画像に重畳して表示してもよい。
また、S307における解析処理および結果の送信は、解析対象の所定の期間の結果をまとめて画像生成装置140に送信し、画像生成装置140において、該当する時刻の画像に重畳表示する例を説明したが、これに限られない。例えば、S307における解析処理および結果の送信は、所定の期間における時刻ごとに都度、処理が行われてもよい。例えば、第1時刻における解析の結果、所定のオブジェクトに接触があった場合には、その解析処理の結果が画像生成装置140に送信されて、第1時刻の画像の所定のオブジェクト上に重畳表示が行われる。その後、第2時刻における解析の結果、接触がない場合には、重畳表示される解析結果は更新されず、そのまま第2時刻の画像に第1時刻の解析結果が重畳表示される。その後、第3時刻における解析の結果、所定のオブジェクトに再度の接触があった場合には、その解析処理の結果が画像生成装置140に送信されて、第3時刻の画像の所定のオブジェクト上に、第3時刻における解析結果の重畳表示が行われる。即ち、第1時刻の解析結果は、第2時刻には更新されず、第3時刻の解析結果で更新される。このように、解析結果を逐次追加表示してもよい。
<<実施形態2>>
実施形態1では、解析によってオブジェクトの歩幅を求める例を中心に説明した。本実施形態では、解析によって接触箇所の部位の向き(例えば足の向き)を求める例について説明する。また、本実施形態では、仮想視点画像に解析結果を重畳表示せず、情報処理装置200が、解析結果を表示装置300に表示する例を説明する。また、本実施形態では、情報処理装置200のモデル取得部210が取得する三次元モデルが、実施形態1と異なり、オブジェクトごとのモデルデータでない場合の処理も併せて説明する。
このように、本実施形態は、実施形態1と異なる構成および処理などを含んだものであるが、主な相違点は、解析の目的が相違する点である。他の点は、実施形態1と同様としてもよい。即ち、仮想視点画像に足の向きを重畳表示させてもよいし、モデル取得部210が取得する三次元モデルが実施形態1と同様に、オブジェクトごとのモデルデータであってもよい。実施形態1と同様の構成、処理フローについては説明を省略する。
<システムの全体構成>
図8は、本実施形態のシステムの全体構成を示す図である。図8に示すシステムでは、図1に示したコントローラ120および画像生成装置140を有していない。接触箇所処理部240は、表示装置300とネットワークまたはSDIなどの映像伝送経路を介して接続し、接触箇所の向きの解析結果を画像として表示装置300に表示させる。
本実施形態の記憶装置160に記憶されているオブジェクトの三次元モデル180は、実施形態1と異なり、前景オブジェクトに関してオブジェクトごとに区別されていないデータである。モデル取得部210は、ファイル読み出しによりオブジェクトの三次元モデル180を取得する。モデル取得部210は、被接触対象の背景オブジェクトの三次元モデルと接触対象の前景オブジェクトの三次元モデルとを、区別して取得する。
本実施形態のモデル部位識別部230は、実施形態1と異なり、接触箇所の導出前にモデル部位の識別処理を行う構成となっているが、実施形態1と同様に、接触箇所の導出後にモデル部位の識別処理を行ってもよい。
モデル部位識別部230は、前景オブジェクトの三次元モデルをオブジェクトごとに区別(分割)しながら、三次元モデル学習データ170に基づいて各オブジェクトの部位を識別する。接触箇所導出部220は、モデル部位識別部230によって識別されたオブジェクトの三次元モデル180の接触箇所を、モデル部位識別部230によって識別された部位ごとに導出する。接触箇所処理部240は、接触箇所の各部位を解析して、各部位の方向を三次元ベクトルとしてRAM203に記憶する。
<フローチャート>
図9は、本実施形態における情報処理装置200の処理の流れを示すフローチャートである。図9は、情報処理装置200が、接触箇所の解析対象となる所定の期間の三次元モデルを取得して解析を行い、当該期間の解析結果が表示装置300に表示される一連の処理を示している。
S901においてモデル取得部210は、所定の期間におけるオブジェクトの三次元モデル180を記憶装置160から取得する。本実施形態の三次元モデル180は、前景オブジェクトに関してオブジェクトごとに区別されていないデータである。
S902においてモデル部位識別部230は、記憶装置160から三次元モデル学習データ170を取得する。実施形態1でも説明したように、三次元モデル学習データ170は、人体の距離画像と距離画像中の部位(頭、肩、右肘、左肘、右手、左手、腰、右膝、左膝、右足、左足)の位置および方向とを用いて予め学習されているデータである。即ち、三次元モデル学習データ170の各部位は、方向のデータを有するものである。例えば、足の部位の場合、かかとからつま先の方向を正の方向とするデータを有する。
S903においてモデル部位識別部230は、モデル部位を識別する処理を行う。S903でモデル部位識別部230は、まずS901で取得された前景オブジェクトの三次元モデルをクラスタリングすることにより、データをオブジェクトごとに区別する。そしてモデル部位識別部230は、三次元モデル学習データ170を用いて各オブジェクトの部位を識別する。識別の結果、オブジェクトに属する点データは、いずれかの部位に関連付けられる。また、三次元モデル学習データ170中の各部位は方向のデータを有するので、モデル部位識別部230は、方向を示す三次元ベクトルを識別結果に関連付ける。
なお、本実施形態でモデル取得部210が取得するオブジェクトの三次元モデル180は、オブジェクトごとに区別されていないデータである。このため、時間方向の動きを特定するため、モデル部位識別部230は、オブジェクト(全体)の重心を導出し、直前の時刻のオブジェクト重心位置との距離が最小になるように時間方向にオブジェクトを関連付けることでトラッキングする。これにより、時間方向の動きも特定することができ、実施形態1で説明したようなオブジェクトごとに区別されているデータを取得した状態と同等の状態となる。なお、オブジェクト(全体)の重心を導出する代わりに、部位ごとの重心を導出して、トラッキングしてもよい。
S904において接触箇所導出部220は、区別され時間方向にトラッキングされたオブジェクトごとに、背景オブジェクトの三次元モデルと前景オブジェクトの三次元モデルと間の接触計算を行い、接触箇所を導出する。接触箇所導出部220は、導出した接触箇所に、オブジェクトと、オブジェクトの部位と、部位の方向と、を関連付けて時刻ごとのデータとしてRAM203に記憶する。
なお、本実施形態では、モデル部位を識別した後に、接触箇所の導出を行う例を示しているが、実施形態1で説明したように、接触箇所の導出を行った後に、モデル部位を識別してもよい。接触箇所の導出およびモデル部位の識別が行われれば処理順はいずれでもよい(実施形態1についても同様である)。
S905において接触箇所導出部220は、接触計算の結果、接触箇所があるかを判定する。例えば、RAM203を参照して、接触箇所に対応する部位の方向を示す数が0であるか、または0より大きいかを判定する。接触箇所がある場合、S906に進む。接触箇所がない場合、処理を終了する。
S906において接触箇所処理部240は、接触箇所を解析する。接触箇所処理部240は、接触箇所の接触面内における方向を導出する。図10は、接触箇所の方向を説明する図である。図10(a)は、識別した部位の方向(例えば足の向き)を示す図であり、部位02−01、03−01の方向が、それぞれ三次元ベクトル02−01v、03−01vで示されている。同様に、部位02−02、03−02の方向が、それぞれ三次元ベクトル02−02v、03−02vで示されている。本例の三次元ベクトルは、単位ベクトルであり、方向のみの情報を現わしているものとする。即ち、図中の矢印は、単に方向を現わすものであり、大きさの情報を有していない。接触箇所処理部240は、図示しない他の接触箇所の部位についても方向を取得する。
図10(b)は、接触面内における接触箇所と各部位の方向とを示す図である。図10(b)の接触面内には、クラスタ11およびクラスタ12が含まれている。クラスタ11は、部位02−01の接触部位に相当し、クラスタ12は、部位03−01の接触部位に相当する。接触箇所02−01,03−01の接触面内における方向は、三次元ベクトル02−01v、03−01vを接触面に射影することで、それぞれ(x、y、z)=(−0.25,0.68,0)、(−0.6,0.2,0)として導出される。この座標は、全オブジェクトで共通の世界座標であり、各クラスタの重心位置からの三次元ベクトル02−01v、03−01v(単位ベクトル)を接触面に射影することで導出される。本実施形態では、接触面は地面であるので、z軸は、「0」の値となる。なお、接触箇所の座標は、実施形態1で説明したように、接触箇所導出部220によって導出されているものとする。
図10(c)は、接触箇所の方向を時刻とともに記憶したテーブルである。接触箇所処理部240は、解析処理の結果、図10(c)に示すような情報をRAM203に記憶する。図10(c)に示すテーブルにおいて、時刻06:32:06.25の解析結果が、図10(b)に示す接触面内における部位の方向に該当する。このように、接触箇所処理部240は、時刻ごとの接触箇所の部位の方向を解析して、結果を記憶する。なお、図示していないが、実施形態1で説明したように、各クラスタの集合の重心位置が時刻とともにRAM203に記憶されていてもよい。
S907において接触箇所処理部240は、解析結果を示す画像を生成して、表示装置300へ画像を送信する。表示装置300は、送信された画像を表示する。図11は、解析結果を示す画像の一例である。接触箇所処理部240は、オブジェクトごとに接触箇所を時系列で描画するとともに、各接触箇所の方向と時刻とを矢印およびテキストで表示する画像を生成する。また、オブジェクトごとに時系列の接触箇所を矩形で囲み、オブジェクト番号(図11では、「02」および「03」)を付与する。接触箇所処理部240は、こうして生成した画像を表示装置300へ送信し表示する。なお、この例では、解析対象期間は、時刻06:32:05.32から時刻06:32:06.25である例を示している。
本実施形態では、三次元ベクトルは、方向の情報のみを用いる例を説明したが、各部位を時間方向にトラッキングして速度を導出してもよい。そして、導出した速度を用いて三次元ベクトルの大きさとしてもよい。この場合、接触箇所ごとに、接触直前の速度または前回接触からの平均速度(または最大速度)を関連付けて記憶すればよい。
以上説明したように、本実施形態によれば、接触箇所の向きを導出し、図示して表示することで、例えば特定のサッカー選手のプレー中の足の向きを容易に解析することができる。
なお、解析結果の表現方法は上記に限らず、複数時刻の解析結果を動画形式で逐次表示してもよいし、各部位の方向と接触箇所の方向とを同時に三次元的に描画してもよい。また、実施形態1で説明した接触部位の動き(歩幅)と合わせて、接触箇所の位置および方向を仮想視点画像に重畳表示してもよい。
<<実施形態3>>
実施形態1および2においては、サッカー選手の足の歩幅または足の向きを解析する例を中心に説明した。本実施形態では、競輪における選手および自転車の動きとゴールシーンとを解析する例を述べる。即ち、接触対象が、人間ではない例を説明する。
以下では、実施形態2と同様の構成および処理フローを元に説明を行うものとする。なお、実施形態1と同様の構成および処理フローに従って処理を行ってもよい。以下、実施形態2との相違部分を中心に説明を行う。
本実施形態におけるオブジェクトの三次元モデル180は、前景オブジェクト(選手および自転車)の三次元モデルおよび背景オブジェクトの三次元モデルに加え、仮想的なゴールライン上の垂直面(ゴール面と呼ぶ)のメッシュポリゴンモデルを含む。ゴール面は、背景オブジェクトの一種として扱われる。
本実施形態における三次元モデル学習データ170は、自転車および自転車上の選手の三次元モデルを学習したデータを含む。自転車の部位は、前輪、後輪、その他、の3つに分けて学習して得られたデータである。
本実施形態における接触箇所の解析結果は、自転車の前輪および後輪の接触箇所となる。また、本実施形態では、接触対象の前景オブジェクトと非接触対象のゴール面との接触箇所も解析する。ゴール面の接触箇所を解析することで先着したオブジェクトを解析することができる。本実施形態では、S906において上記の解析が行われる。
S907で接触箇所処理部240は、S906の解析の結果を表示装置300に送信する。図12は、表示装置300に表示される解析結果の例を示す図である。図12に示すように、前輪および後輪の接触箇所が、所定の時間間隔、例えば0.5秒ごとに接触面に描画され、方向を示す矢印およびテキストを付与して解析結果画像として表示される。
図13は、解析対象の所定の期間にゴール面を通過する期間が含まれている場合の解析結果の画像を示す図である。図13(a)は、ゴール面におけるオブジェクトの様子を示す図である。図13(b)は、ゴール面内における接触箇所を示す。ゴール面09に接触箇所がある場合、接触箇所処理部240は、ゴール面09内の接触箇所18に、オブジェクト番号「08」または選手の背番号「2」をテキストとして付与して別途解析結果画像として表示する。
以上述べたように、本実施形態によれば、人物が直接地面に足を接触させる以外の競技においても、接触部位の動きを解析することができる。即ち、競輪における選手および自転車の動きとゴールシーンとを解析することができる。また、競輪に限らず、競馬などのレース競技においても同様の解析をすることができる。
<<実施形態4>>
実施形態1から3においては、三次元モデル学習データ170を取得し、三次元モデルと学習データとを比較することでモデル部位を識別する例を中心に説明した。本実施形態では、学習データを用いずにモデル部位の識別を行う例を説明する。本実施形態では、ユーザが、入力デバイスを用いてモデル部位を指定するものとする。なお、モデル部位の動きを解析するには、解析対象となる所定の期間において、時系列上の代表時点でそれぞれモデル部位が特定されている必要がある。本実施形態では、ユーザは、時系列上の代表時点それぞれでモデル部位を指定する必要はなく、所定の時点でモデル部位を指定すればよいものとして説明する。
図14は、本実施形態におけるシステムの全体構成を示す図である。以下、実施形態2と異なる点を中心に説明する。なお、実施形態1で説明したように、解析結果を仮想視点画像に表示させる形態としてもよい、本実施形態の記憶装置160は、学習データを記憶していない。本実施形態のシステムは、実施形態2の構成と比べて、入力デバイスである部位指定コントローラ190と、第2の表示装置310とをさらに有している。部位指定コントローラ190は、情報処理装置200のモデル部位識別部230に指示を出力する。モデル部位識別部230は、第2の表示装置310の表示を制御する。
部位指定コントローラ190は、例えばマウスである。ユーザは、第2の表示装置310に表示されるオブジェクトの三次元モデル180上の部位と方向とを、マウスドラッグで指定する。モデル部位識別部230は、部位指定コントローラ190とネットワークを介して接続し、ユーザが部位をクリックで指定するためのユーザインタフェース画面を生成する。また、モデル部位識別部230は、第2の表示装置310とネットワークまたはSDIなどの映像伝送経路を介して接続し、ユーザが部位を指定するためにオブジェクトの三次元モデルを描画した画像を第2の表示装置310に表示させる。即ち、モデル部位識別部230は、第2の表示装置310の表示を制御する表示制御部として機能する。なお、図14では、2つの表示装置を有する例を示しているが、モデル部位識別部230が接続する第2の表示装置310と、接触箇所導出部220が接続する表示装置300とは、同じ装置でもよい。
図15は、本実施形態における情報処理装置200の処理の流れを示すフローチャートである。図15は、情報処理装置200が、接触箇所の解析対象となる所定の期間の三次元モデルを取得して解析を行い、当該期間の解析結果が表示装置300に表示される一連の処理を示している。
S1501においてモデル取得部210は、記憶装置160から所定の期間におけるオブジェクトの三次元モデル180を取得する。本実施形態の三次元モデル180は、前景オブジェクトに関してオブジェクトごとに区別されていないデータである。
S1502においてモデル部位識別部230は、モデル部位識別用のUIを生成する。まず、モデル部位識別部230は、まず前景オブジェクトの三次元モデルをクラスタリングによりオブジェクトごとに区別する。そして、モデル部位識別部230は、オブジェクトごとにモデル部位識別用UIを生成し、オブジェクトの三次元モデルの描画結果(画像データ)とともに第2の表示装置310へ出力する。
図16は、モデル部位識別用UIの一例を示す図である。図16では、部位指定コントローラ190が情報処理装置200に接続されており、情報処理装置200と第2の表示装置310とが接続されている例を模している。また、図16では、第2の表示装置310に表示されているモデル部位識別用UI画面を示している。モデル部位識別用UI画面は、オブジェクトの三次元モデルの画像を表示する領域と、ユーザからの指定を受け付ける受付領域とを含む。
S1503においてモデル部位識別部230は、モデル部位識別用UI画面を通じてユーザによって指定された指示を用いてモデル部位を識別する。ユーザは、モデル部位識別用UI画面を見ながら次の手順で部位を指定する。まず、プルダウンボタン311をクリックし部位「右足」を選択する。次にユーザは、「右足」と認識している部位の始点から終点まで(部位の範囲)をドラッグする。この例では、点pから点qまでドラッグするものとする。この点pおよびqは、オブジェクト上の三次元の点である。モデル部位識別部230は、指定された点pに隣接する点を所定の数、例えば1000点になるまで連鎖的に選択して部位02−02と決定する。また、モデル部位識別部230は、点pからqへ向かうベクトルを、選択中の部位「右足」の方向02−02vとして導出する。ユーザは、上記作業を、部位を選択しながら全ての部位について行い、最後に「進む」または「戻る」ボタンをクリックしてオブジェクトを切り替える。以上の作業を全オブジェクトの全ての部位について繰り返すことで、モデル部位識別部230は、部位を識別することができる。
さらに本実施形態においてモデル部位識別部230は、オブジェクトごとに重心を導出し、直前または直後の時刻のオブジェクト重心位置との距離が最小になるように時間方向にオブジェクトを関連付けることでトラッキングを行う。また、直前または直後のオブジェクト同士の三次元モデルをICP(Iterative Closest Point)アルゴリズムで位置合わせして各部位を対応付けることで各部位のトラッキングを行う。また、点p、qについてもICPによりトラッキングされる。これによりユーザは、ある時刻においてのみ手動で部位を指定することで、その他の時刻については、モデル部位識別部230が部位および部位の方向をトラッキングして自動で指定することができる。
即ち、本実施形態では、ユーザによる手動でのオブジェクトの部位を指定する動作が行われることになるが、これらの指定は、解析対象の所定の期間を通じて、1回の指定で済む。即ち、時刻ごとに、ユーザがオブジェクトの部位を指定する動作を行わなくて済む。S1504〜S1507の処理は、実施形態2で説明したS904〜S907の処理と同等の処理であるので、ここでの説明は省略する。
以上説明したように、本実施形態によれば、モデル部位識別用UIを生成し、ユーザが部位を識別することで、学習データを用いずにモデル部位の識別を行うことができる。また、ユーザによる部位の指定は、時間ごとに行わなくてよいので、ユーザの煩雑な作業も抑制することができる。
<<その他の実施形態>>
実施形態1または2では、選手と地平面との接触箇所を解析したが、他の三次元モデル間での接触を解析してもよい。例えば、ボールと肩、右肘、左肘、右手、または左手のいずれかとの接触がある場合にペナルティとみなして記憶するとともに、仮想視点画像に重畳してもよい。即ち、前景オブジェクト同士の接触箇所を解析してもよい。接触対象の三次元モデルと、被接触対象の三次元モデルとの接触箇所の解析ができればよい。また、選手同士の接触箇所を解析してもよい。この場合、選手Aおよび選手Bの部位をそれぞれ識別し、接触した部位を解析して特定する形態でもよい。他にも、歩幅および時間間隔から速度を導出して記憶し、表示してもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
200 情報処理装置
210 モデル取得部
220 接触箇所導出部
230 モデル部位識別部
240 接触箇所処理部

Claims (18)

  1. 接触対象の第1のオブジェクトの三次元モデルと、被接触対象の第2のオブジェクトの三次元モデルとを含む三次元モデルを取得する取得手段と、
    前記第1のオブジェクトの前記三次元モデルを部位ごとに識別する識別手段と、
    前記第1のオブジェクトの三次元モデルが前記第2のオブジェクトの三次元モデルに接触する接触箇所を部位ごとに導出する導出手段と、
    前記導出手段によって導出された接触箇所の解析をする解析手段と、
    を有することを特徴とする情報処理装置。
  2. 前記取得手段は、解析対象の所定の期間に対応する前記三次元モデルを取得することを特徴とする請求項1に記載の情報処理装置。
  3. 前記識別手段は、前記取得手段で取得した前記第1のオブジェクトの前記三次元モデルと、部位ごとの特徴を予め学習した学習データと、を用いて部位ごとの識別を行うことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記識別手段は、前記第1のオブジェクトを示す画像を含むUI画面を通じて入力された指示に応じて、部位ごとの識別を行うことを特徴とする請求項1または2に記載の情報処理装置。
  5. 前記識別手段は、前記第1のオブジェクトの三次元モデルにおける、前記指示に対応するクラスタをトラッキングすることで、解析対象の所定の期間に対応する部位ごとの識別を行うことを特徴とする請求項4に記載の情報処理装置。
  6. 前記導出手段は、前記接触が発生した時刻と前記接触が発生した部位とを関連付けて記憶することを特徴とする請求項1から5のいずれか一項に記載の情報処理装置。
  7. 前記解析手段は、第1の時刻の接触箇所と、第2の時刻の接触箇所との間の距離を解析することを特徴とする請求項6に記載の情報処理装置。
  8. 前記解析手段は、前記第1のオブジェクトの第1の部位の前記第1の時刻における接触箇所と、前記第1のオブジェクトの前記第1の部位または前記第1の部位とは異なる第2の部位の前記第2の時刻における接触箇所との間の前記距離を解析することを特徴とする請求項7に記載の情報処理装置。
  9. 前記学習データは、前記部位ごとの特徴として、部位の向きを含み、
    前記解析手段は、接触面内における前記部位の向きを導出することを特徴とする請求項3に記載の情報処理装置。
  10. 前記指示は、部位の向きの指定を含み、
    前記解析手段は、接触面内における前記部位の向きを導出することを特徴とする請求項4または5に記載の情報処理装置。
  11. 前記三次元モデルに基づく仮想視点画像を生成する生成手段に前記解析手段による解析結果を出力する出力手段をさらに有し、
    前記解析結果は、前記仮想視点画像に重畳されることを特徴とする請求項1から10のいずれか一項に記載の情報処理装置。
  12. 前記解析手段による解析結果を表示手段に出力する出力手段をさらに有することを特徴とする請求項1から10のいずれか一項に記載の情報処理装置。
  13. 前記出力手段は、前記第1のオブジェクトが前記第2のオブジェクトと異なるオブジェクトと接触する場合、所定の通知を出力する請求項11または12に記載の情報処理装置。
  14. 前記第1のオブジェクトは、前景オブジェクトであり、前記第2のオブジェクトは、背景オブジェクトであることを特徴とする請求項1から13のいずれか一項に記載の情報処理装置。
  15. 解析対象の所定の期間において、接触対象の第1のオブジェクトの三次元モデルが被接触対象の第2のオブジェクトの三次元モデルに接触する接触箇所を解析するためのインタフェース画面を表示手段に表示させる情報処理装置であって、
    前記所定の期間における任意の時点における前記第1のオブジェクトの三次元モデルを示す画像を前記表示手段に表示させる表示制御手段と、
    前記表示手段に表示されている前記三次元モデルの部位の識別の指定を受け付ける第一受付手段と、
    前記表示手段に表示されている前記三次元モデルの部位の範囲の指定を受け付ける第二受付手段と、
    を有することを特徴とする情報処理装置。
  16. 接触対象の第1のオブジェクトの三次元モデルと、被接触対象の第2のオブジェクトの三次元モデルとを含む三次元モデルを取得する取得工程と、
    前記第1のオブジェクトの前記三次元モデルを部位ごとに識別する識別工程と、
    前記第1のオブジェクトの三次元モデルが前記第2のオブジェクトの三次元モデルに接触する接触箇所を部位ごとに導出する導出工程と、
    前記導出工程によって導出された接触箇所の解析をする解析工程と、
    を有することを特徴とする情報処理方法。
  17. 解析対象の所定の期間において、接触対象の第1のオブジェクトの三次元モデルが被接触対象の第2のオブジェクトの三次元モデルに接触する接触箇所を解析するためのインタフェース画面を表示手段に表示させる情報処理方法であって、
    前記所定の期間における任意の時点における前記第1のオブジェクトの三次元モデルを示す画像を前記表示手段に表示させる表示制御工程と、
    前記表示手段に表示されている前記三次元モデルの部位の識別の指定を受け付ける第一受付工程と、
    前記表示手段に表示されている前記三次元モデルの部位の範囲の指定を受け付ける第二受付工程と、
    を有することを特徴とする情報処理方法。
  18. コンピュータを、請求項1から15のいずれか一項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2019110204A 2019-06-13 2019-06-13 情報処理装置、情報処理方法、およびプログラム Active JP7401199B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019110204A JP7401199B2 (ja) 2019-06-13 2019-06-13 情報処理装置、情報処理方法、およびプログラム
US16/896,491 US11501577B2 (en) 2019-06-13 2020-06-09 Information processing apparatus, information processing method, and storage medium for determining a contact between objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019110204A JP7401199B2 (ja) 2019-06-13 2019-06-13 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020201863A true JP2020201863A (ja) 2020-12-17
JP7401199B2 JP7401199B2 (ja) 2023-12-19

Family

ID=73742681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110204A Active JP7401199B2 (ja) 2019-06-13 2019-06-13 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11501577B2 (ja)
JP (1) JP7401199B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022176444A1 (ja) * 2021-02-17 2022-08-25 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2023189690A1 (ja) * 2022-03-28 2023-10-05 日本電気通信システム株式会社 リアルタイムコミュニケーション支援システム及びその方法、携帯端末、サーバ並びにコンピュータ可読媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009539155A (ja) * 2006-06-02 2009-11-12 イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム
JP2010193458A (ja) * 2009-02-19 2010-09-02 Sony Europe Ltd 画像処理装置、画像処理システム及び画像処理方法
JP2013232181A (ja) * 2012-04-06 2013-11-14 Canon Inc 画像処理装置、画像処理方法
JP2014106685A (ja) * 2012-11-27 2014-06-09 Osaka Univ 車両周辺監視装置
JP2019009752A (ja) * 2017-06-20 2019-01-17 一般社団法人 日本画像認識協会 画像処理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6080063A (en) * 1997-01-06 2000-06-27 Khosla; Vinod Simulated real time game play with live event
US6072504A (en) * 1997-06-20 2000-06-06 Lucent Technologies Inc. Method and apparatus for tracking, storing, and synthesizing an animated version of object motion
US10360685B2 (en) * 2007-05-24 2019-07-23 Pillar Vision Corporation Stereoscopic image capture with performance outcome prediction in sporting environments
US20050130725A1 (en) * 2003-12-15 2005-06-16 International Business Machines Corporation Combined virtual and video game
US7403202B1 (en) * 2005-07-12 2008-07-22 Electronic Arts, Inc. Computer animation of simulated characters using combinations of motion-capture data and external force modelling or other physics models
WO2007032819A2 (en) * 2005-07-21 2007-03-22 Regents Of The University Of Minnesota Camera placement and virtual-scene construction
US9370704B2 (en) * 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
GB2452546B (en) * 2007-09-07 2012-03-21 Sony Corp Video processing system and method
US8073190B2 (en) * 2007-11-16 2011-12-06 Sportvision, Inc. 3D textured objects for virtual viewpoint animations
US8175326B2 (en) * 2008-02-29 2012-05-08 Fred Siegel Automated scoring system for athletics
US8295454B2 (en) * 2009-01-07 2012-10-23 Google Inc. Digital photo frame with dial-a-tag functionality
ES2378708B1 (es) * 2010-01-12 2013-02-25 Foxtenn Bgreen, S.L. Método, sistema y aparato de recogida automática y entrega de elementos esféricos de juego.
US9401178B2 (en) * 2010-08-26 2016-07-26 Blast Motion Inc. Event analysis system
US8448056B2 (en) * 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
HUE028841T2 (en) * 2012-07-04 2017-01-30 Virtually Live (Switzerland) Gmbh Process and system for 3D rendering of real-time live scenes and a computer-readable device
JP6482498B2 (ja) 2016-05-25 2019-03-13 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP7408298B2 (ja) * 2019-06-03 2024-01-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009539155A (ja) * 2006-06-02 2009-11-12 イジュノシッヒ テクニッヒ ホッフシューラ チューリッヒ 動的に変化する3次元のシーンに関する3次元表現を生成するための方法およびシステム
JP2010193458A (ja) * 2009-02-19 2010-09-02 Sony Europe Ltd 画像処理装置、画像処理システム及び画像処理方法
JP2013232181A (ja) * 2012-04-06 2013-11-14 Canon Inc 画像処理装置、画像処理方法
JP2014106685A (ja) * 2012-11-27 2014-06-09 Osaka Univ 車両周辺監視装置
JP2019009752A (ja) * 2017-06-20 2019-01-17 一般社団法人 日本画像認識協会 画像処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022176444A1 (ja) * 2021-02-17 2022-08-25 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2023189690A1 (ja) * 2022-03-28 2023-10-05 日本電気通信システム株式会社 リアルタイムコミュニケーション支援システム及びその方法、携帯端末、サーバ並びにコンピュータ可読媒体

Also Published As

Publication number Publication date
JP7401199B2 (ja) 2023-12-19
US11501577B2 (en) 2022-11-15
US20200394394A1 (en) 2020-12-17

Similar Documents

Publication Publication Date Title
US11721114B2 (en) Method, system, and device of generating a reduced-size volumetric dataset
US7974443B2 (en) Visual target tracking using model fitting and exemplar
US8565476B2 (en) Visual target tracking
US8588465B2 (en) Visual target tracking
US8577084B2 (en) Visual target tracking
US8577085B2 (en) Visual target tracking
JP6641163B2 (ja) オブジェクト追跡装置及びそのプログラム
JP7277085B2 (ja) 情報処理装置、情報処理方法及びプログラム
US8565477B2 (en) Visual target tracking
JP7023696B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20140045593A1 (en) Virtual joint orientation in virtual skeleton
JP7401199B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2016071645A (ja) オブジェクト3次元モデル復元方法、装置およびプログラム
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN112637665A (zh) 增强现实场景下的展示方法、装置、电子设备及存储介质
Bikos et al. An interactive augmented reality chess game using bare-hand pinch gestures
JP7479793B2 (ja) 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム
JP2019057070A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6684336B1 (ja) データ補正装置およびプログラム
JP2019197278A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
US20230334767A1 (en) Image processing apparatus, image processing method, and storage medium
JP7458731B2 (ja) 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム
US20240037843A1 (en) Image processing apparatus, image processing system, image processing method, and storage medium
Guo et al. Sports Analysis and VR Viewing System Based on Player Tracking and Pose Estimation with Multimodal and Multiview Sensors
JP2023018253A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231207

R151 Written notification of patent or utility model registration

Ref document number: 7401199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151