JP7030355B1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP7030355B1
JP7030355B1 JP2020195640A JP2020195640A JP7030355B1 JP 7030355 B1 JP7030355 B1 JP 7030355B1 JP 2020195640 A JP2020195640 A JP 2020195640A JP 2020195640 A JP2020195640 A JP 2020195640A JP 7030355 B1 JP7030355 B1 JP 7030355B1
Authority
JP
Japan
Prior art keywords
subject
image information
information processing
generated
body model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020195640A
Other languages
English (en)
Other versions
JP2022084054A (ja
Inventor
尚史 柳原
平佳 小松
アドナン モスタファ サブリ モタズ
Original Assignee
株式会社Ridge-i
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Ridge-i filed Critical 株式会社Ridge-i
Priority to JP2020195640A priority Critical patent/JP7030355B1/ja
Application granted granted Critical
Publication of JP7030355B1 publication Critical patent/JP7030355B1/ja
Publication of JP2022084054A publication Critical patent/JP2022084054A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】被写体の身体モデルを従来よりも容易に生成することが可能な情報処理装置、情報処理方法及び情報処理プログラムを提供する。【解決手段】情報処理装置は、1つの方向から被写体としての第1被写体を撮像することに基づく画像情報を受け付ける受付部と、受付部によって受け付けた画像情報に基づいて、第1被写体を複数の方向から視認するような場合の複数の画像情報を生成し、その複数の画像情報に基づいて、第1被写体の身体モデルを生成する生成部と、生成部によって生成された身体モデルを出力する出力部と、を備える。【選択図】図1

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
従来から、被写体のモデルを作成する技術が存在する。特許文献1に記載された技術は、被写体の周囲に画像センサ及び距離センサを配置し、画像センサにより撮像された被写体の画像と、距離センサにより得られた被写体までの距離とに基づいて、被写体の3次元モデルを生成する。
特開2020-67393号公報
しかし、特許文献1に記載された技術は、被写体の周囲に複数のセンサを配置しなければならず、被写体の3次元モデルを生成するために特殊な装置が必要となる。このため、特許文献1では、3次元モデルを種々の用途に利用するのに装置を設置する手間と装置の費用が必要になり、3次元モデルを種々の用途に利用させるのが難しくなる。
本発明は、被写体の身体モデルを従来よりも容易に生成することが可能な情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。
一態様の情報処理装置は、1つの方向から被写体としての第1被写体を撮像することに基づく画像情報を受け付ける受付部と、受付部によって受け付けた画像情報に基づいて、第1被写体を複数の方向から視認するような場合の複数の画像情報を生成し、その複数の画像情報に基づいて、第1被写体の身体モデルを生成する生成部と、生成部によって生成された身体モデルを出力する出力部と、を備える。
一態様の情報処理装置では、生成部は、受付部によって受け付けた画像情報に基づいて、被写体の奥行方向の深度情報を有する第1被写体の複数の画像情報を生成することとしてもよい。
一態様の情報処理装置では、生成部は、複数の方向から被写体としての第2被写体を視認した場合の画像情報を学習することにより生成される学習モデルと、受付部によって受け付けた画像情報とに基づいて、第1被写体を複数の方向から視認する場合の複数の画像情報を生成することとしてもよい。
一態様の情報処理装置では、生成部は、複数の画像情報に基づいて生成される第1被写体の3次元の姿勢に基づいて、第1被写体の身体モデルを生成することとしてもよい。
一態様の情報処理装置では、生成部は、複数の画像情報に基づいて生成される被写体の3次元の姿勢と、被写体の実在する立体的な画像とを学習することにより生成される学習モデルを利用することにより、第1被写体の3次元の姿勢に基づいて第1被写体の身体モデルを生成することとしてもよい。
一態様の情報処理装置では、生成部は、身体モデルとして第1被写体の3次元の姿勢を示す身体モデルを生成することとしてもよい。
一態様の情報処理方法では、コンピュータが、1つの方向から被写体としての第1被写体を撮像することに基づく画像情報を受け付ける受付ステップと、受付ステップによって受け付けた画像情報に基づいて、第1被写体を複数の方向から視認するような場合の複数の画像情報を生成し、その複数の画像情報に基づいて、第1被写体の身体モデルを生成する生成ステップと、生成ステップによって生成された身体モデルを出力する出力ステップと、を実行する。
一態様の情報処理プログラムは、コンピュータに、1つの方向から被写体としての第1被写体を撮像することに基づく画像情報を受け付ける受付機能と、受付機能によって受け付けた画像情報に基づいて、第1被写体を複数の方向から視認するような場合の複数の画像情報を生成し、その複数の画像情報に基づいて、第1被写体の身体モデルを生成する生成機能と、生成機能によって生成された身体モデルを出力する出力機能と、を実現させる。
一態様の情報処理装置は、1つの方向から被写体としての第1被写体を撮像することに基づく画像情報に基づいて、第1被写体を複数の方向から視認するような場合の複数の画像情報を生成し、その複数の画像情報に基づいて、第1被写体の身体モデルを生成し、その身体モデルを出力するので、被写体の身体モデルを従来よりも容易に生成することができる。
また、一態様の情報処理方法及び情報処理プログラムは、上述した一態様の情報処理装置と同様の効果を奏することができる。
一実施形態に係る情報処理システムについて説明するための図である。 一実施形態に係る情報処理装置について説明するためのブロック図である。 第1被写体、第1被写体の立体的な画像(複数の画像情報)及び身体モデルについて説明するための図である。 VAEGANを利用した生成部について説明するためのブロック図である。 一実施形態に係る情報処理方法について説明するためのフローチャートである。
以下、本発明の一実施形態について説明する。
本明細書では、「情報」の文言を使用しているが、「情報」の文言は「データ」と言い換えることができ、「データ」の文言は「情報」と言い換えることができる。
まず、情報処理システム1の概略について説明する。
図1は、一実施形態に係る情報処理システム1について説明するための図である。
情報処理システム1は、カメラ部10、サーバ20及び情報処理装置30を備える。
カメラ部10は、例えば、室内及び室外等に配され、被写体を撮像する。被写体は、例えば、人物等であってもよいし、動物等を始めとする生物及び車両等の物体等であってもよい。カメラ部10は、例えば、監視カメラ等であってもよいし、それ以外の用途で使用される種々のカメラであってもよい。カメラ部10は、例えば、静止画又は動画等によって被写体を撮像し、画像情報を生成する。カメラ部10は、例えば、画像情報をサーバ20又は情報処理装置30に送信してもよい。カメラ部10は、図1に示すように1つ有ってもよく、又は、複数あってもよい。カメラ部10は、複数ある場合に、同一の位置を異なる方向から撮像するように配されてもよく、異なる位置を撮像するように配されてもよい。カメラ部10は、異なる位置を撮像する場合、一例として、複数の部屋があるときにはそれぞれの部屋(異なる部屋)に配されてもよく、同一の部屋の異なる位置を撮像するように配されてもよい。
サーバ20は、カメラ部10によって送信された画像情報を蓄積する。サーバ20は、情報処理装置30から要求があった場合に、例えば、要求のあった画像情報を情報処理装置30に送信する。
情報処理装置30は、例えば、パーソナルコンピュータ、ラップトップ及びサーバ等である。情報処理装置30は、カメラ部10又はサーバ20から画像情報を取得する。情報処理装置30は、画像情報に記録される被写体(第1被写体100)の姿勢を示す身体モデル101を生成して出力する。この場合、まず、情報処理装置30は、1つの方向から被写体(第1被写体100)を撮像した画像情報に基づいて、その被写体(第1被写体100)を複数の方向から撮像したような画像情報(立体的な画像102(図3(B)参照))を生成する。次に、情報処理装置30は、その被写体を複数の方向から撮像したような画像情報(立体的な画像102)に基づいて、被写体(第1被写体100)の身体モデル101を生成する。情報処理装置30は、例えば、身体モデル101として、その被写体の姿勢を示すようなモデルを生成する。情報処理装置30は、例えば、身体モデル101として、その被写体(第1被写体100)の3次元の姿勢を示すモデルを生成してもよい。身体モデル101は、例えば、被写体(例えば、人物)の関節の位置と、互いに隣接する関節を結ぶ線とで示されるモデルであってもよい。
次に、情報処理装置30について詳細に説明する。
図2は、一実施形態に係る情報処理装置30について説明するためのブロック図である。
情報処理装置30は、通信部35、記憶部36、表示部37、受付部32、生成部33及び出力制御部34を備える。通信部35、記憶部36及び表示部37は、本発明の「出力部」の一実施形態であってもよい。受付部32、生成部33及び出力制御部34は、情報処理装置30の制御部31(例えば、演算処理装置等)の一機能として実現されてもよい。
通信部35は、例えば、サーバ20及びカメラ部10との間で情報の送受信を行う。通信部35は、例えば、外部装置(図示せず)との間で情報の送受信を行うこととしてもよい。外部装置は、例えば、携帯端末及び情報端末等であってもよい。携帯端末は、例えば、携帯電話及びタブレット等であってもよい。情報端末は、例えば、パーソナルコンピュータ及びラップトップ等であってもよい。外部装置は、カメラ装置(図示せず)を有していてもよく、カメラ装置を有していなくともよい。外部装置は、カメラ装置を有している場合、そのカメラ装置で生成される画像情報をサーバ20又は情報処理装置30に送信することとしてもよい。
通信部35は、例えば、サーバ20及びカメラ部10から画像情報を取得する。また、通信部35は、外部装置がカメラ装置を有している場合には、その外部装置から画像情報を取得することとしてもよい。
記憶部36は、例えば、種々の情報及びプログラムを記憶する。記憶部36は、例えば、後述する出力制御部34の制御に基づいて後述する受付部32によって受け付けた画像情報を記憶することとしてもよい。記憶部36は、例えば、後述する生成部33によって生成される身体モデル101の情報を記憶することとしてもよい。なお、記憶部36は、身体モデル101の情報を記憶する場合、出力制御部34の制御に基づいて、身体モデル101の情報と、その身体モデル101を生成する際に基礎となった画像情報とを対応付けて、その身体モデル101の情報を記憶部36に記憶してもよい。
表示部37は、例えば、文字及び画像等を表示する。表示部37は、例えば、後述する出力制御部34の制御に基づいて後述する受付部32によって受け付けた画像情報を表示することとしてもよい。表示部37は、例えば、生成部33によって生成される身体モデル101を表示することとしてもよい。表示部37は、身体モデル101を表示する場合、出力制御部34の制御に基づいて、身体モデル101と、その身体モデル101を生成する際に基礎となった画像情報に対応する画像との両方を表示してもよい。
受付部32は、例えば、通信部35によって受信した画像情報を受け付ける。この場合、画像情報は、1つの方向から被写体(第1被写体100)を撮像することに基づく画像情報であってもよい。すなわち、受付部32は、1つのカメラ部10及びカメラ装置(図示せず)によって第1被写体100を撮像することによって生成される画像情報を受け付けることとしてもよい。第1被写体100は、種々のものであってよく、例えば、人物であってもよいし、動物等を始めとする生物及び車両等の物体等であってもよい。すなわち、第1被写体100は、後述する身体モデル101(モデル)を生成する対象であってよい。
図3は、第1被写体100、第1被写体100の立体的な画像102(複数の画像情報)及び身体モデル101について説明するための図である。
生成部33は、受付部32によって受け付けた画像情報に基づいて、第1被写体100を複数の方向から視認するような場合の複数の画像情報を生成する。すなわち、生成部33は、図3(A)に例示するような第1被写体100が画像情報に記録される場合、図3(B)に例示するように、その第1被写体100を複数の方向から見たような立体的な画像102(複数の画像情報)を生成する。
次に、生成部33は、その複数の画像情報に基づいて、第1被写体100の身体モデル101を生成する。すなわち、生成部33は、図3(B)に例示する立体的な画像102(複数の画像情報)に基づいて、2次元空間で表現される立体的な身体モデル101を生成する。
一例として、生成部33は、VAEGAN等を利用して、身体モデル101を生成することとしてもよい。VAEGANは、VAE(Variational Autoencoder)とGAN(Generative Adversarial Network)を利用する。VAEは複数の視点からの画像情報を生成し、GANはVAEが生成した複数の画像情報から3次元の姿勢を推定すると共に真贋を推定する。
具体的には、VAEは、例えば、第1被写体100を1つの方向から撮像した画像情報に基づいて、第1被写体100を複数の方向から視認するよう複数の画像情報を生成することとしてもよい。GANは、複数の画像情報に基づいて第1被写体100の2次元空間上での姿勢を生成すると共に、生成された姿勢の真贋を見極めることとしてもよい。GANは、複数の画像情報に基づいて立体的な第1被写体100の姿勢を推定し、その推定結果を2次元空間上での第1被写体100の姿勢へと射影してもよい。GANは、その投射の際の誤差をゼロにするように学習する。
図4は、VAEGANを利用した生成部33について説明するためのブロック図である。
生成部33は、エンコーダ331、ジェネレータ332及びディスクリミネータ333を備える。
エンコーダ(Encoder)331は、2次元で第1被写体100が記録される画像情報(入力画像)から深度情報を有する画像(立体的な画像102)を生成する。すなわち、エンコーダ331は、1つの方向から第1被写体100を見た場合の画像情報から、複数の方向(N個の方向(N=2,3,4…))から第1被写体100を見た場合の複数の画像情報(Nカメラビュー)を生成する。この場合、エンコーダ331は、画像情報(入力画像)に記録される第1被写体100を低次元のモデルに変換する。低次元のモデルは、例えば、第1被写体100(一例として、人物)の複数の特徴点(一例として、関節等)と、互いに隣接する特徴点を接続した線とで構成されるモデル等であってもよい。
ジェネレータ(Generator)332は、複数の画像情報に基づいて生成される第1被写体100の姿勢を出力する。
ディスクリミネータ(Discriminator)333は、例えば、ジェネレータ332から出力される第1被写体100の姿勢に基づいて、運動チェーンスペース(KCS:Kinematic Chain Space)で記述された第1被写体100の3次元姿勢(姿勢情報)の真贋を見分けようとする。ディスクリミネータ333によって第1被写体100の3次元姿勢の真贋が見分けられた後、リプロジェクション(Reprojection)(図示せず)によって第1被写体100の3次元姿勢が2次元の画像に射影される。
この際、ディスクリミネータ333は、Wasserstein損失関数が最小になるように、実在する立体的な画像とジェネレータ332が生成した実在しない立体的な画像102を学習して学習モデルを生成する。ディスクリミネータ333は、ジェネレータ332が生成した第1被写体100の立体的な画像102を入力し、その姿勢と、学習モデルとに基づいて、ジェネレータ332が生成した第1被写体100の立体的な画像102の真贋を判定する。ディスクリミネータ333による判定の結果、ジェネレータ332が生成した第1被写体の立体的な画像102が正しい場合、リプロジェクションによって第1被写体100の立体的な画像102を2次元の画像に射影する。
KSCは、第1被写体100(一例として、人物等)の姿勢を表す身体モデル101の「骨」の繋がりを表す運動学的な空間であり、概略すると関節同士の距離(例えば、「骨」の長さ)が定数であるように記述するものである。ディスクリミネータ333は、前述した運動学的な空間上で画像情報が生成されたものか実世界のものかを見破ろうとするように設計されている。
以下、生成部33について具体的に説明する。
生成部33は、複数の画像情報を生成することとして、受付部32によって受け付けた画像情報に基づいて、被写体の奥行方向の深度情報を有する第1被写体100の複数の画像情報を生成することとしてもよい。複数の方向から被写体を視認する場合、その被写体を立体的に観察することが可能である。この場合、立体的に観察することによって、被写体は深度情報を有すると考えることが可能である。本実施形態の場合も同様に、複数の方向から第1被写体100を視認したような画像情報を生成する場合、画像情報は、深度情報を有すると考えることが可能である。
生成部33は、複数の画像情報として、すなわち、少なくとも2つ以上の方向から見た画像情報を生成する。この場合、例えば、生成部33は、第1被写体100の周囲、すなわち、第1被写体100が配される平面の方向に沿って間隔をあけて囲むようにその第1被写体100を見た複数の画像情報を生成することとしてもよい。また、例えば、生成部33は、複数の画像情報を生成する場合、第1被写体100の平面方向に加えて、第1被写体100に対して高さ方向の視点を有する複数の画像情報を生成することとしてもよい。
より具体的には、生成部33は、複数の画像情報を生成することとして、学習モデル(第1学習モデル)と、受付部32によって受け付けた画像情報とに基づいて、第1被写体100を複数の方向から視認する場合の複数の画像情報を生成することとしてもよい。第1学習モデルは、例えば、複数の方向から被写体(第2被写体)を視認した場合の画像情報を学習することにより生成されてもよい。第1学習モデルは、情報処理装置30(例えば、生成部33又は制御部31等)によって生成されてもよいし、情報処理装置30の外部で生成されたものを生成部33が取得してもよい。一例として、生成部33は、1の方向から第2被写体を見た場合の画像情報と、その時に第2被写体を他の1又は複数の方向から見た場合の画像情報とを学習することにより、第2被写体の姿勢を示す第1学習モデルを生成する。第2被写体は、身体モデルの生成の対象となる第1被写体100と同類のものである。例えば、第1被写体100が人物の場合には、第2被写体も人物となる。
生成部33は、第1学習モデルと、第1被写体100が記録される画像情報に基づいて、第1被写体100の立体的な(深度情報を有する)姿勢を推定する複数の画像情報を生成する。
次に、生成部33は、身体モデル101を生成することとして、複数の画像情報に基づいて生成される第1被写体100の3次元の姿勢に基づいて、第1被写体100の身体モデル101を生成することとしてもよい。生成部33は、上述したように第1被写体100の立体的な姿勢が推定されると、その第1被写体100の姿勢と、後述する学習モデル(第2学習モデル)とに基づいて、第1被写体100の身体モデル101を生成する。この場合、生成部33は、身体モデル101として第1被写体100の3次元の姿勢を示す身体モデルを生成することとしてもよい。身体モデル101は、第1被写体100の複数の特徴点(例えば、関節等)と、互いに隣接する特徴点を結ぶ線とで構成されるモデル等であってもよい。
上述したように、生成部33は、身体モデル101を生成することとして、学習モデル(第2学習モデル)と、第1被写体100の複数の画像情報とに基づいて、第1被写体100の身体モデル101を生成することとしてもよい。第2学習モデルは、例えば、被写体としての第3被写体の姿勢との真贋を見分けるように学習することにより生成されてもよい。例えば、情報処理装置30(例えば、生成部33又は制御部31等)は、学習モデル(第2学習モデル)を生成してもよい。なお、第2学習モデルは、前述したように情報処理装置30(例えば、生成部33又は制御部31等)によって生成されてもよいし、情報処理装置30の外部で生成されたものを生成部33が取得してもよい。一例として、情報処理装置30(例えば、生成部33又は制御部31等)は、複数の画像情報に基づいて生成される被写体(第3被写体)の立体的な(3次元の)姿勢と、その第3被写体の実在する立体的な画像(姿勢)とを学習することに基づいて、第2学習モデルを生成してもよい。実在する立体的な画像(姿勢)は、上述したジェネレータ332によって生成される画像ではないというような意味であり、一例として、被写体の立体的な画像(姿勢)を撮像するカメラ部(一例として、3次元カメラ等)(図示せず)によって生成される画像等を始めとする種々の立体的な画像であってもよい。第3被写体は、身体モデル101の生成の対象となる第1被写体100と同類のものである。例えば、第1被写体100が人物の場合には、第3被写体も人物となる。
生成部33は、複数の画像情報に基づいて生成される被写体の3次元の姿勢と、被写体の実在する立体的な画像とを学習することにより生成された学習モデル(第2学習モデル)を利用することにより、上述したように生成部33によって生成された第1被写体100を複数の方向から見たような複数の画像情報に基づいて、第1被写体100の身体モデル101を生成する。
出力制御部34は、生成部33によって生成された身体モデル101を出力するよう出力部を制御する。出力部は、上述したように、例えば、通信部35、記憶部36及び表示部37等であってもよい。
出力制御部34は、例えば、身体モデル101の情報を外部に送信するよう通信部35を制御してもよい。出力制御部34は、例えば、サーバ20及び外部装置等の少なくとも一方に身体モデル101の情報を送信するよう制御してもよい。
出力制御部34は、例えば、身体モデル101の情報を記憶部36に記憶するよう制御してもよい。
出力制御部34は、例えば、身体モデル101を表示部37に表示するよう制御してもよい。
情報処理装置30では、上述したように生成される身体モデル101は、第1被写体100を示すものである。すなわち、情報処理装置30は、第1被写体100の特徴を有するように身体モデル101を生成する。第1被写体100の特徴は、例えば、互いに隣接する関節の長さ(骨の長さ)であってもよい。したがって、情報処理装置30は、受付部32によって受け付ける画像情報に複数の被写体が記録される場合には、それぞれの身体モデル101を生成することにより、被写体それぞれを識別することが可能である。情報処理装置30は、受付部32によって受け付ける画像情報(画像)が、時間的に連続して若しくは間欠的に生成される静止画、又は、動画の場合には、複数の被写体それぞれの移動を追跡することが可能になる。
また、情報処理装置30は、複数のカメラ部10又はカメラ装置(図示せず)によって画像情報が生成される場合でも、例えば、1のカメラ部10によって生成される画像情報に基づいて第1被写体100の身体モデル101を生成することにより、他のカメラ部10によって生成される画像情報に第1被写体100が記録されるときには、1のカメラ部10及び他のカメラ部10それぞれで生成される画像情報に基づいて第1被写体100の身体モデル101を生成することにより、それぞれの第1被写体100が同一か否かを推定することが可能になる。
したがって、一例として、情報処理装置30は、1のカメラ部10によって生成される画像情報に第1被写体100が記録され、他のカメラ部10によって生成される画像情報にその第1被写体100が記録されていない場合に、その第1被写体100が移動して他のカメラ部10によって生成される画像情報にその第1被写体100が記録されるようになるときでも、2つの画像情報に基づいてそれぞれの第1被写体100の身体モデル101を生成することにより、第1被写体100が同一(同一人物)か否かを推定することが可能になる。
次に、一実施形態に係る情報処理方法について説明する。
図5は、一実施形態に係る情報処理方法について説明するためのフローチャートである。
ステップST101において、受付部32は、画像情報を受け付ける。受付部32は、例えば、カメラ部10、サーバ20及び外部装置(図示せず)等から送信される画像情報を、通信部35を介して受け付ける。画像情報は、1つの方向から被写体(第1被写体100)を撮像することに基づく画像情報であってもよい。
ステップST102において、生成部33は、ステップST101で受け付けた画像情報に基づいて、その画像情報に記録される第1被写体100を複数の方向から視認するような場合の複数の画像情報を生成する。この場合、複数の画像情報は、第1被写体100を複数の方向から視認することにより、第1被写体100に対する奥行方向の情報(深度情報)を有すると考えることが可能である。生成部33は、一例として、VAEを利用して、複数の画像情報を生成することとしてもよい。
ステップST103において、生成部33は、ステップST102で生成された複数の画像情報に基づいて、第1被写体100の身体モデル101を生成する。この場合、生成部33は、ステップST102で生成される複数の画像情報に基づいて生成される第1被写体100の3次元の姿勢と、第2学習モデルとに基づいて、第1被写体100の身体モデル101を生成することとしてもよい。すなわち、生成部33は、一例として、GANを利用して、第1被写体100の身体モデル101を生成してもよい。この場合、生成部33は、2次元空間で表現される立体的な身体モデル101を生成してもよい。
ステップST104において、出力制御部34は、ステップST103で生成された身体モデル101を出力するよう制御する。出力制御部34は、例えば、身体モデル101の情報を外部に送信するよう通信部35を制御してもよい。出力制御部34は、例えば、身体モデル101の情報を記憶部36に記憶するよう制御してもよい。出力制御部34は、例えば、身体モデル101を表示部37に表示するよう制御してもよい。
次に、本実施形態の効果について説明する。
情報処理装置30は、1つの方向から被写体としての第1被写体100を撮像することに基づく画像情報を受け付ける受付部32と、受付部32によって受け付けた画像情報に基づいて、第1被写体100を複数の方向から視認するような場合の複数の画像情報を生成し、その複数の画像情報に基づいて、第1被写体100の身体モデル101を生成する生成部33と、生成部33によって生成された身体モデル101を出力する出力部と、を備える。
これにより、情報処理装置30は、第1被写体100の身体モデル101を従来よりも容易に生成することができる。
また、情報処理装置30は、生成部33に例えばVAEGANを利用して身体モデル101を生成するため、より正確な身体モデル101を生成することができる。
また、情報処理装置30では、生成される身体モデル101は第1被写体100を示すものである。このため、情報処理装置30は、身体モデル101に基づいて第1被写体100を特定することが可能である。例えば、情報処理装置30は、受付部32によって受け付けた画像情報に複数の被写体(一例として、人物等)が記録される場合には、それぞれの被写体の身体モデル101を生成することができ、身体モデル101に基づいて複数の被写体を識別することができる。したがって、情報処理装置30は、時間的に連続して又は間欠的に撮像される静止画又は動画を画像情報として受け付けることにより、複数の被写体それぞれが移動する場合でも、それらの被写体を追跡することができる。
情報処理装置30では、生成部33は、受付部32によって受け付けた画像情報に基づいて、被写体の奥行方向の深度情報を有する第1被写体100の複数の画像情報を生成することとしてもよい。
これにより、情報処理装置30は、第1被写体100の立体的な画像102を得ることができ、第1被写体100の立体的な姿勢を推定することができる。
情報処理装置30では、生成部33は、複数の方向から被写体としての第2被写体を視認した場合の画像情報を学習することにより生成される学習モデルと、受付部32によって受け付けた画像情報とに基づいて、第1被写体100を複数の方向から視認する場合の複数の画像情報を生成することとしてもよい。
これにより、情報処理装置30は、例えば、VAE等を利用して、複数の画像情報を生成することができる。情報処理装置30は、学習を相対的に多くすることにより、第1被写体100の種々の姿勢に応じた複数の画像情報を生成することができる。
情報処理装置30では、生成部33は、複数の画像情報に基づいて生成される、第1被写体100の3次元の姿勢に基づいて、第1被写体100の身体モデル101を生成することとしてもよい。
すなわち、情報処理装置30は、第1被写体100の身体モデル101を生成することができる。
情報処理装置30では、生成部33は、複数の画像情報に基づいて生成される被写体の3次元の姿勢と、被写体の実在する立体的な画像とを学習することにより生成される学習モデルを利用することにより、第1被写体100の3次元の姿勢に基づいて、第1被写体100の身体モデル101を生成することとしてもよい。
これにより、情報処理装置30は、例えば、GANを利用して、第1被写体100の身体モデル101を生成することができる。情報処理装置30は、例えば、GANを利用することで、生成される身体モデル101の真贋を推定するため、より正確な身体モデル101を生成することができる。
情報処理装置30では、生成部33は、身体モデル101として第1被写体100の3次元の姿勢を示す身体モデル101を生成することとしてもよい。
すなわち、情報処理装置30は、第1被写体100の立体的な姿勢を推定した後、2次元空間で表現される身体モデル101を生成することができる。
情報処理方法では、コンピュータが、1つの方向から被写体としての第1被写体100を撮像することに基づく画像情報を受け付ける受付ステップと、受付ステップによって受け付けた画像情報に基づいて、第1被写体100を複数の方向から視認するような場合の複数の画像情報を生成し、その複数の画像情報に基づいて、第1被写体100の身体モデル101を生成する生成ステップと、生成ステップによって生成された身体モデル101を出力する出力ステップと、を実行する。
これにより、情報処理方法は、第1被写体100の身体モデル101を従来よりも容易に生成することができる。
また、情報処理装置30は、生成ステップにおいて例えばVAEGANを利用して身体モデル101を生成するため、より正確な身体モデル101を生成することができる。
また、情報処理方法では、生成される身体モデル101は第1被写体100を示すものである。このため、情報処理方法は、身体モデル101に基づいて第1被写体100を特定することが可能である。例えば、情報処理方法は、受付部32によって受け付けた画像情報に複数の被写体(一例として、人物等)が記録される場合には、それぞれの被写体の身体モデル101を生成することができ、身体モデル101に基づいて複数の被写体を識別することができる。したがって、情報処理方法は、時間的に連続して又は間欠的に撮像される静止画又は動画を画像情報として受け付けることにより、複数の被写体それぞれが移動する場合でも、それらの被写体を追跡することができる。
情報処理プログラムは、コンピュータに、1つの方向から被写体としての第1被写体100を撮像することに基づく画像情報を受け付ける受付機能と、受付機能によって受け付けた画像情報に基づいて、第1被写体100を複数の方向から視認するような場合の複数の画像情報を生成し、その複数の画像情報に基づいて、第1被写体100の身体モデル101を生成する生成機能と、生成機能によって生成された身体モデル101を出力する出力機能と、を実現させる。
これにより、情報処理プログラムは、第1被写体100の身体モデル101を従来よりも容易に生成することができる。
また、情報処理装置30は、生成機能に例えばVAEGANを利用して身体モデル101を生成するため、より正確な身体モデル101を生成することができる。
また、情報処理プログラムでは、生成される身体モデル101は第1被写体100を示すものである。このため、情報処理プログラムは、身体モデル101に基づいて第1被写体100を特定することが可能である。例えば、情報処理プログラムは、受付部32によって受け付けた画像情報に複数の被写体(一例として、人物等)が記録される場合には、それぞれの被写体の身体モデル101を生成することができ、身体モデル101に基づいて複数の被写体を識別することができる。したがって、情報処理プログラムは、時間的に連続して又は間欠的に撮像される静止画又は動画を画像情報として受け付けることにより、複数の被写体それぞれが移動する場合でも、それらの被写体を追跡することができる。
上述した情報処理装置30の各部は、コンピュータの演算処理装置等の機能として実現されてもよい。すなわち、情報処理装置30の受付部32、生成部33及び出力制御部34は、コンピュータの演算処理装置等による受付機能、生成機能及び出力制御機能としてそれぞれ実現されてもよい。
情報処理プログラムは、上述した各機能をコンピュータに実現させることができる。情報処理プログラムは、外部メモリ又は光ディスク等の、コンピュータで読み取り可能な非一時的な記録媒体に記録されていてもよい。
また、上述したように、情報処理装置30の各部は、コンピュータの演算処理装置等で実現されてもよい。その演算処理装置等は、例えば、集積回路等によって構成される。このため、情報処理装置30の各部は、演算処理装置等を構成する回路として実現されてもよい。すなわち、情報処理装置30の受付部32、生成部33及び出力制御部34は、コンピュータの演算処理装置等を構成する受付回路、生成回路及び出力制御回路として実現されてもよい。
また、情報処理装置30の通信部35、記憶部36及び表示部37(出力部)は、例えば、演算処理装置等の機能を含む通信機能、記憶機能及び表示機能(出力機能)として実現されもよい。また、情報処理装置30の通信部35、記憶部36及び表示部37(出力部)は、例えば、集積回路等によって構成されることにより通信回路、記憶回路及び表示回路(出力回路)として実現されてもよい。また、情報処理装置30の通信部35、記憶部36及び表示部37(出力部)は、例えば、複数のデバイスによって構成されることにより通信装置、記憶装置及び表示装置(出力装置)として構成されてもよい。
1 情報処理システム
10 カメラ部
20 サーバ
30 情報処理装置
31 制御部
32 受付部
33 生成部
34 出力制御部
35 通信部
36 記憶部
37 表示部

Claims (8)

  1. 1つの方向から被写体としての第1被写体を撮像することに基づく画像情報を受け付ける受付部と、
    前記受付部によって受け付けた画像情報に基づいて、前記第1被写体を複数の方向から視認するような場合の複数の画像情報を生成し、当該複数の画像情報に基づいて、前記第1被写体の身体モデルを生成する生成部と、
    前記生成部によって生成された身体モデルを出力する出力部と、
    を備える情報処理装置。
  2. 前記生成部は、前記受付部によって受け付けた画像情報に基づいて、被写体の奥行方向の深度情報を有する前記第1被写体の複数の画像情報を生成する
    請求項1に記載の情報処理装置。
  3. 前記生成部は、複数の方向から被写体としての第2被写体を視認した場合の画像情報を学習することにより生成される学習モデルと、前記受付部によって受け付けた画像情報とに基づいて、前記第1被写体を複数の方向から視認する場合の複数の画像情報を生成する
    請求項1又は2に記載の情報処理装置。
  4. 前記生成部は、前記複数の画像情報に基づいて生成される前記第1被写体の3次元の姿勢に基づいて、第1被写体の身体モデルを生成する
    請求項1~3のいずれか1項に記載の情報処理装置。
  5. 前記生成部は、前記複数の画像情報に基づいて生成される被写体の3次元の姿勢と、被写体の実在する立体的な画像とを学習することにより生成される学習モデルを利用することにより、前記第1被写体の3次元の姿勢に基づいて前記第1被写体の身体モデルを生成する
    請求項4に記載の情報処理装置。
  6. 前記生成部は、身体モデルとして前記第1被写体の3次元の姿勢を示す身体モデルを生成する
    請求項1~5のいずれか1項に記載の情報処理装置。
  7. コンピュータが、
    1つの方向から被写体としての第1被写体を撮像することに基づく画像情報を受け付ける受付ステップと、
    前記受付ステップによって受け付けた画像情報に基づいて、前記第1被写体を複数の方向から視認するような場合の複数の画像情報を生成し、当該複数の画像情報に基づいて、前記第1被写体の身体モデルを生成する生成ステップと、
    前記生成ステップによって生成された身体モデルを出力する出力ステップと、
    を実行する情報処理方法。
  8. コンピュータに、
    1つの方向から被写体としての第1被写体を撮像することに基づく画像情報を受け付ける受付機能と、
    前記受付機能によって受け付けた画像情報に基づいて、前記第1被写体を複数の方向から視認するような場合の複数の画像情報を生成し、当該複数の画像情報に基づいて、前記第1被写体の身体モデルを生成する生成機能と、
    前記生成機能によって生成された身体モデルを出力する出力機能と、
    を実現させる情報処理プログラム。
JP2020195640A 2020-11-26 2020-11-26 情報処理装置、情報処理方法及び情報処理プログラム Active JP7030355B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020195640A JP7030355B1 (ja) 2020-11-26 2020-11-26 情報処理装置、情報処理方法及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020195640A JP7030355B1 (ja) 2020-11-26 2020-11-26 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP7030355B1 true JP7030355B1 (ja) 2022-03-07
JP2022084054A JP2022084054A (ja) 2022-06-07

Family

ID=81215079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020195640A Active JP7030355B1 (ja) 2020-11-26 2020-11-26 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7030355B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004718A (ja) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP2017049676A (ja) * 2015-08-31 2017-03-09 セコム株式会社 姿勢判定装置および物体検知装置
US10445930B1 (en) * 2018-05-17 2019-10-15 Southwest Research Institute Markerless motion capture using machine learning and training with biomechanical data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004718A (ja) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd 画像生成装置及び画像生成方法
JP2017049676A (ja) * 2015-08-31 2017-03-09 セコム株式会社 姿勢判定装置および物体検知装置
US10445930B1 (en) * 2018-05-17 2019-10-15 Southwest Research Institute Markerless motion capture using machine learning and training with biomechanical data

Also Published As

Publication number Publication date
JP2022084054A (ja) 2022-06-07

Similar Documents

Publication Publication Date Title
JP6715441B2 (ja) 拡張現実表示システム、端末装置および拡張現実表示方法
US6570566B1 (en) Image processing apparatus, image processing method, and program providing medium
US7825948B2 (en) 3D video conferencing
JP5093053B2 (ja) 電子カメラ
JP4775474B2 (ja) 撮像装置、撮像制御方法、及びプログラム
CN104717481A (zh) 摄像装置、图像处理装置、摄像方法
JP2012014690A (ja) 3次元拡張現実提供装置及び方法
JP2021060868A (ja) 情報処理装置、情報処理方法、およびプログラム
CN111193918B (zh) 影像处理系统及影像处理方法
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
CN105340258A (zh) 位置检测装置
JP2011113206A (ja) 映像コミュニケーションシステム、及び映像コミュニケーション方法
US20160127617A1 (en) System for tracking the position of the shooting camera for shooting video films
JP7030355B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2016070884A (ja) 映像データ処理方法、映像データ処理装置及び映像データ処理プログラム
JP4446114B2 (ja) 画像撮影装置
KR102019880B1 (ko) 분산 가상 카메라를 이용한 게임 내 360 vr 영상 획득 시스템 및 방법
WO2017057426A1 (ja) 投影装置、コンテンツ決定装置、投影方法、および、プログラム
JP5833525B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
Rabbani et al. A Survey on RealSense: in context of Research and Application
JP2022131778A5 (ja)
JP5647813B2 (ja) 映像提示システム、プログラム及び記録媒体
JP2007292657A (ja) カメラ運動情報取得装置、カメラ運動情報取得方法および記録媒体
JP7124746B2 (ja) 物体の部分位置推定プログラム、物体の部分位置推定用ニューラルネットワーク構造、物体の部分位置推定方法、および物体の部分位置推定装置
CN112215928B (zh) 基于视觉图像的动作捕捉方法及数字动画制作方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220215

R150 Certificate of patent or registration of utility model

Ref document number: 7030355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150