JP2020062322A - 人形造形システム、情報処理方法及びプログラム - Google Patents
人形造形システム、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2020062322A JP2020062322A JP2018197365A JP2018197365A JP2020062322A JP 2020062322 A JP2020062322 A JP 2020062322A JP 2018197365 A JP2018197365 A JP 2018197365A JP 2018197365 A JP2018197365 A JP 2018197365A JP 2020062322 A JP2020062322 A JP 2020062322A
- Authority
- JP
- Japan
- Prior art keywords
- doll
- dimensional model
- user
- scene
- selecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Toys (AREA)
Abstract
【課題】ユーザが希望する人形を作成することを目的とする。【解決手段】シーンを選択する第1の選択手段と、シーンに含まれる人形化の対象のオブジェクトを選択する第2の選択手段と、人形化の対象のオブジェクトの三次元モデルを生成する生成手段と、三次元モデルに基づいて人形を造形する造形手段と、を有する。【選択図】図2
Description
本発明は、人形造形システム、情報処理方法及びプログラムに関する。
被写体の立体的特徴を測定して立体物を作成するための立体物作成装置が特許文献1に開示されている。
また、立体形状の顔型に利用者の顔写真が印刷された人形を制作可能な方法が特許文献2に開示されている。
また、立体形状の顔型に利用者の顔写真が印刷された人形を制作可能な方法が特許文献2に開示されている。
しかしながら特許文献1に示された技術は、モデルの立体的形状を忠実に再現するものではなく、またユーザが希望するシーンを再現できるものではなかった。
また特許文献2に示された技術は、やはり既定の形状を有する人間をベースとしており、ユーザが希望するシーンを再現できるものではなかった。また、既定の顔型に写真を印刷する方法であることから、目、鼻、口、耳及び髪型等の個人の特徴を決定づける立体形状を再現することは難しかった。
また特許文献2に示された技術は、やはり既定の形状を有する人間をベースとしており、ユーザが希望するシーンを再現できるものではなかった。また、既定の顔型に写真を印刷する方法であることから、目、鼻、口、耳及び髪型等の個人の特徴を決定づける立体形状を再現することは難しかった。
本発明の人形造形システムは、シーンを選択する第1の選択手段と、前記シーンに含まれる人形化の対象のオブジェクトを選択する第2の選択手段と、前記人形化の対象のオブジェクトの三次元モデルを生成する生成手段と、前記三次元モデルに基づいて人形を造形する造形手段と、を有する。
本発明によれば、ユーザが希望する人形を作成することができる。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
本実施形態では、ユーザが希望するシーンに基づいて三次元モデルを生成し、三次元モデル情報を基にして三次元プリンタによりユーザが希望する人形を作成する人形作成システムの例を示す。人形作成システムは、人形造形システムの一例である。
また本実施形態では、人形を作成する対象とするシーンをスポーツの試合(特に例としてサッカー)であるものとして説明するが、シーンはこれに限るものではない。
例えば、シーンは、映画、又はTV放送におけるシーンであってもよい。
<実施形態1>
本実施形態では、ユーザが希望するシーンに基づいて三次元モデルを生成し、三次元モデル情報を基にして三次元プリンタによりユーザが希望する人形を作成する人形作成システムの例を示す。人形作成システムは、人形造形システムの一例である。
また本実施形態では、人形を作成する対象とするシーンをスポーツの試合(特に例としてサッカー)であるものとして説明するが、シーンはこれに限るものではない。
例えば、シーンは、映画、又はTV放送におけるシーンであってもよい。
図1は、PC200のハードウェア構成の一例を示す図である。
PC200は、ハードウェア構成として、CPU(Central Processing Unit)201、記憶部202、入力部204、表示部203、通信部205、を含む。
CPU201は、PC200の全体を制御する。表示部203は、液晶画面等で構成され、CPU201による情報処理等の結果を表示する。入力部204は、スイッチ及びタッチパネル等によって構成され、利用者による操作を感知して操作情報を入力する。タッチパネルの代わりにマウス、トラックボール等の他のポインティングデバイスが用いられてもよい。記憶部202は、メモリ、又はハードディスク等の記録メディアによって構成され、プログラム、画像等を記憶する。記録メディアの代わりに、PC200は、記憶部202としてNAS(Network Attached Storage)、又はSAN(Storage Area Network)等のネットワーク上のストレージを用いてもよい。通信部205は、PC200をネットワーク等に接続し、他の装置との通信等を制御する。CPU201が記憶部202に記録されたプログラムに基づき処理を実行することによって、後述する図2、図6、図9、図12に示すPC200の機能構成、及び図3、図7、図10、図13のフローチャートのPC200の情報処理が実現される。他の例としては、PC200の機能の少なくとも一部は、例えば複数のCPU、記憶部を協働させることにより実現してもよい。また、他の例としては、PC200の機能の少なくとも一部は、ハードウェア回路を用いて実現されてもよい。また、他の例としては、PC200の機能は、複数の装置が協働して実現されてもよい。
三次元プリンタ300も少なくともCPU、記憶部、通信部等を有する。三次元プリンタ300のCPUが三次元プリンタ300の記憶部に記憶されたプログラムに基づき処理を実行することによって三次元プリンタ300の機能が実現される。
PC200は、ハードウェア構成として、CPU(Central Processing Unit)201、記憶部202、入力部204、表示部203、通信部205、を含む。
CPU201は、PC200の全体を制御する。表示部203は、液晶画面等で構成され、CPU201による情報処理等の結果を表示する。入力部204は、スイッチ及びタッチパネル等によって構成され、利用者による操作を感知して操作情報を入力する。タッチパネルの代わりにマウス、トラックボール等の他のポインティングデバイスが用いられてもよい。記憶部202は、メモリ、又はハードディスク等の記録メディアによって構成され、プログラム、画像等を記憶する。記録メディアの代わりに、PC200は、記憶部202としてNAS(Network Attached Storage)、又はSAN(Storage Area Network)等のネットワーク上のストレージを用いてもよい。通信部205は、PC200をネットワーク等に接続し、他の装置との通信等を制御する。CPU201が記憶部202に記録されたプログラムに基づき処理を実行することによって、後述する図2、図6、図9、図12に示すPC200の機能構成、及び図3、図7、図10、図13のフローチャートのPC200の情報処理が実現される。他の例としては、PC200の機能の少なくとも一部は、例えば複数のCPU、記憶部を協働させることにより実現してもよい。また、他の例としては、PC200の機能の少なくとも一部は、ハードウェア回路を用いて実現されてもよい。また、他の例としては、PC200の機能は、複数の装置が協働して実現されてもよい。
三次元プリンタ300も少なくともCPU、記憶部、通信部等を有する。三次元プリンタ300のCPUが三次元プリンタ300の記憶部に記憶されたプログラムに基づき処理を実行することによって三次元プリンタ300の機能が実現される。
図2は、人形作成システム100のシステム構成の一例を示す図である。
図2に示すように、本実施形態における人形作成システム100は、シーン選択部1と、人形化対象選択部2と、三次元モデル生成部3と、三次元モデル編集部4と、三次元造形部5とを含んでいる。
より具体的には、シーン選択部1は、PC200上で動作するアプリケーションとして実現され、ユーザがモニタ画面に表示される指示に従い、動画及び画像より所望のシーンを選択することを可能とする機能を果たす。
人形化対象選択部2は、PC200上で動作するアプリケーションとして実現され、特にユーザがモニタ画面に表示される指示に従い、所望のシーンに含まれる、ユーザが人形化を希望する対象人物及びオブジェクトを選択することを可能とする機能を果たす。
三次元モデル生成部3は、PC200上で動作するアプリケーションとして実現され、ユーザにより選択された、ユーザが人形化を希望する対象人物及びオブジェクトの情報を基に、三次元モデルを生成する機能を果たす。
三次元モデル編集部4は、PC200上で動作するアプリケーションとして実現され、特にユーザが、モニタ画面に表示される指示に従い、人形化対象人物及びオブジェクトの三次元モデルの情報を編集することを可能とする機能を果たす。
三次元造形部5は、三次元プリンタ300により構成されており、三次元モデルに基づいて人形を製造する機能を果たす。
図2に示すように、本実施形態における人形作成システム100は、シーン選択部1と、人形化対象選択部2と、三次元モデル生成部3と、三次元モデル編集部4と、三次元造形部5とを含んでいる。
より具体的には、シーン選択部1は、PC200上で動作するアプリケーションとして実現され、ユーザがモニタ画面に表示される指示に従い、動画及び画像より所望のシーンを選択することを可能とする機能を果たす。
人形化対象選択部2は、PC200上で動作するアプリケーションとして実現され、特にユーザがモニタ画面に表示される指示に従い、所望のシーンに含まれる、ユーザが人形化を希望する対象人物及びオブジェクトを選択することを可能とする機能を果たす。
三次元モデル生成部3は、PC200上で動作するアプリケーションとして実現され、ユーザにより選択された、ユーザが人形化を希望する対象人物及びオブジェクトの情報を基に、三次元モデルを生成する機能を果たす。
三次元モデル編集部4は、PC200上で動作するアプリケーションとして実現され、特にユーザが、モニタ画面に表示される指示に従い、人形化対象人物及びオブジェクトの三次元モデルの情報を編集することを可能とする機能を果たす。
三次元造形部5は、三次元プリンタ300により構成されており、三次元モデルに基づいて人形を製造する機能を果たす。
図3は、人形作成システム100により、ユーザが希望するシーンに基づいて三次元モデルを生成し、三次元モデル情報を基にして三次元プリンタ300によりユーザが希望する人形を作成する情報処理の一例を示すフローチャートである。
図3に示すように、情報処理は、S6からS10までの工程を含んでいる。
S6とS7とS8とS9とS10とに関しては、それぞれシーン選択部1と人形化対象選択部2と三次元モデル生成部3と三次元モデル編集部4と三次元造形部5とに対応しており、それぞれに対応する部によって処理が実現される。
図3を用いて、さらに処理の詳細を説明する。
まず本実施形態においては、ユーザは人形作成システム100に対して各種入力を実行する際に、各自が所有する端末機器を利用するものとする。
例えば図4には、ユーザ12がタブレット端末11を使用し、通信回線13を介して人形作成システム100にアクセスする例を示している。
この場合、シーン選択部1、人形化対象選択部2、三次元モデル生成部3、三次元モデル編集部4は、WEBアプリケーションとして実現されており、ユーザは各自の端末上に表示される指示に基づき、各種データの入力及び操作を行うことができる。
まずユーザは、WEBアプリケーション上で、人形作成処理を開始するために、図5Aに示されたスタートボタンをタップする。
ここでタップとは、通常のタブレット端末における操作方法である、指で端末画面をタッチする操作を意味している。
以降の説明では、タブレット端末において情報の入力及び操作を行うための方法として、一般的なタブレット端末における操作方法を想定しており、特に断りが無ければユーザはそれらの操作により情報の入力及び操作を行うものとする。
図3に示すように、情報処理は、S6からS10までの工程を含んでいる。
S6とS7とS8とS9とS10とに関しては、それぞれシーン選択部1と人形化対象選択部2と三次元モデル生成部3と三次元モデル編集部4と三次元造形部5とに対応しており、それぞれに対応する部によって処理が実現される。
図3を用いて、さらに処理の詳細を説明する。
まず本実施形態においては、ユーザは人形作成システム100に対して各種入力を実行する際に、各自が所有する端末機器を利用するものとする。
例えば図4には、ユーザ12がタブレット端末11を使用し、通信回線13を介して人形作成システム100にアクセスする例を示している。
この場合、シーン選択部1、人形化対象選択部2、三次元モデル生成部3、三次元モデル編集部4は、WEBアプリケーションとして実現されており、ユーザは各自の端末上に表示される指示に基づき、各種データの入力及び操作を行うことができる。
まずユーザは、WEBアプリケーション上で、人形作成処理を開始するために、図5Aに示されたスタートボタンをタップする。
ここでタップとは、通常のタブレット端末における操作方法である、指で端末画面をタッチする操作を意味している。
以降の説明では、タブレット端末において情報の入力及び操作を行うための方法として、一般的なタブレット端末における操作方法を想定しており、特に断りが無ければユーザはそれらの操作により情報の入力及び操作を行うものとする。
S6において、シーン選択部1は、ハイライト動画リストからユーザによる希望の動画及び動画のシーンの選択操作を受け付ける。
例えば図5Bに示すように、タブレット端末の画面に表示されたWEBアプリケーション上に、サッカーの試合の動画リストが表示され、ユーザはその中から自分が希望する動画を選択する。
例えば本実施形態では、ユーザは自分がスタジアムで実際に観戦した動画Aを選択するものとする。
ユーザは、選択した動画を再生し、自分が人形を作成したい選手及びオブジェクトを含むシーンを選択する。
例えば本実施形態では、ユーザは図5Cに示すシーンにおける選手とボールとを人形化対象としたいと希望したものとする。
より具体的には、ユーザは動画を希望するシーンにおいて一時停止することで、シーンの選択を行うことができる。
例えば図5Bに示すように、タブレット端末の画面に表示されたWEBアプリケーション上に、サッカーの試合の動画リストが表示され、ユーザはその中から自分が希望する動画を選択する。
例えば本実施形態では、ユーザは自分がスタジアムで実際に観戦した動画Aを選択するものとする。
ユーザは、選択した動画を再生し、自分が人形を作成したい選手及びオブジェクトを含むシーンを選択する。
例えば本実施形態では、ユーザは図5Cに示すシーンにおける選手とボールとを人形化対象としたいと希望したものとする。
より具体的には、ユーザは動画を希望するシーンにおいて一時停止することで、シーンの選択を行うことができる。
S7において、人形化対象選択部2は、ユーザによる人形化を希望する対象選手及びオブジェクトの選択を受け付ける。
より具体的には、例えば図5Dに示すように、ユーザはWEBアプリケーションの画面上で点線枠を描画することにより、人形化対象選手を指定し、一点鎖線枠を描画することにより人形化対象オブジェクトを指定する。
選択が完了した後に、ユーザが画面上のOKボタンをタップすると、ユーザが希望した選手及びボールの領域が切り出され、画面に表示される。
ここでユーザが希望した選手及びボールを切り出す処理は、画像から人体又はオブジェクトを認識し、その領域を切り出す処理により実現される。
例えば、人形化対象選択部2は、事前に撮影した背景画像をシーンの画像から差し引くことにより、背景画像に含まれていない選手及びボールのみを切り出すことができる。
又は本実施形態では、試合の状況を複数台のカメラで撮影していることを想定しており、人形化対象選択部2は、該当する選手を同時に撮影している複数台のカメラによる画像から、三角測量の原理に基づく手法により、選手及びボールの空間的な三次元情報を算出することもできる。
この場合は、ユーザが指定した領域に含まれる選手及びボールは、端末画面に表示されている画像を撮影したカメラとの位置関係により容易に特定することができる。
ユーザが指定した選手及びボールを画像中から抽出する手法に関しては本実施形態の主眼とするものではなく、同様の効果が得られるものであればどのような手法を用いるものであってもよい。
表示された画像が、ユーザが人形化を希望する人物及びオブジェクトとして間違いがない場合、ユーザはさらに画面上のOKボタンをタップする。
より具体的には、例えば図5Dに示すように、ユーザはWEBアプリケーションの画面上で点線枠を描画することにより、人形化対象選手を指定し、一点鎖線枠を描画することにより人形化対象オブジェクトを指定する。
選択が完了した後に、ユーザが画面上のOKボタンをタップすると、ユーザが希望した選手及びボールの領域が切り出され、画面に表示される。
ここでユーザが希望した選手及びボールを切り出す処理は、画像から人体又はオブジェクトを認識し、その領域を切り出す処理により実現される。
例えば、人形化対象選択部2は、事前に撮影した背景画像をシーンの画像から差し引くことにより、背景画像に含まれていない選手及びボールのみを切り出すことができる。
又は本実施形態では、試合の状況を複数台のカメラで撮影していることを想定しており、人形化対象選択部2は、該当する選手を同時に撮影している複数台のカメラによる画像から、三角測量の原理に基づく手法により、選手及びボールの空間的な三次元情報を算出することもできる。
この場合は、ユーザが指定した領域に含まれる選手及びボールは、端末画面に表示されている画像を撮影したカメラとの位置関係により容易に特定することができる。
ユーザが指定した選手及びボールを画像中から抽出する手法に関しては本実施形態の主眼とするものではなく、同様の効果が得られるものであればどのような手法を用いるものであってもよい。
表示された画像が、ユーザが人形化を希望する人物及びオブジェクトとして間違いがない場合、ユーザはさらに画面上のOKボタンをタップする。
ユーザがOKをタップした場合、S8において、三次元モデル生成部3は、選択された選手とボールとの三次元モデルを生成する。
ここで三次元モデルとは、ユーザが選択した人物及びオブジェクトの立体形状を所定の縮尺で縮小した形状の情報を意味しており、三次元プリンタ300に対する入力データとなる。
三次元モデルを生成する手法としては、例えば上述したように本実施形態で想定している複数台のカメラによって撮像された画像から三角測量の原理に基づく手法により、選手及びボールの空間的な三次元情報(即ち立体形状のデータ)を得ることができる。
またそれ以外にも、測距センサ等をカメラと組み合わせて用いることにより、三次元モデルを生成することもできる。
三次元モデルを生成する手法に関しては本実施形態の主眼とするものではなく、同様の効果が得られるものであればどのような手法を用いるものであってもよい。
三次元モデル生成部3により人形化対象人物及びオブジェクトの三次元モデルが生成されると、図5Eに示すように、タブレット端末の画面上に三次元モデルが表示される。
ここでは、複数のカメラにより撮像された画像から抽出された色情報に基づいて、三次元モデルに対して対応する着色が施されている。
またユーザは、タブレット端末の画面上を指でタッチしてドラッグすることにより、表示されている三次元モデルを自由に回転させることができる。
これにより、ユーザは人形化対象人物及びオブジェクトを任意の方向から確認することができる。
またここでは、ユーザは人物及びオブジェクトの位置関係を変更することもできる。
例えば本実施形態では、オブジェクトであるボールに対して画面上で2回連続してタップすることにより選択し、さらに選択したボールを指でタッチしたままドラッグすることにより三次元モデル空間内でのボールの位置を変更することができる。
ここでユーザは、タブレット端末の画面上を指でタッチしてドラッグすることで三次元モデルを回転させる操作を組み合わせることで、二次元的な画面上の操作によって、オブジェクトの三次元空間内での位置を変更することができる。
人物及びオブジェクトの位置関係を変更するための操作方法は、その他の方法によるものであってもよく、上述した操作方法は一例に過ぎない。
ユーザは、画面に表示された三次元モデルを確認した後、人形として作成することを選択した選手及びオブジェクトの三次元モデルを編集するかどうかを入力する。
より具体的には、図5Eの画面において選手及びオブジェクトの情報を編集するのであればYESのボタンを、編集しないのであればNOのボタンをタップする。
ここではまず、ユーザが編集を希望して、YESをタップした場合について説明を行う。
ここで三次元モデルとは、ユーザが選択した人物及びオブジェクトの立体形状を所定の縮尺で縮小した形状の情報を意味しており、三次元プリンタ300に対する入力データとなる。
三次元モデルを生成する手法としては、例えば上述したように本実施形態で想定している複数台のカメラによって撮像された画像から三角測量の原理に基づく手法により、選手及びボールの空間的な三次元情報(即ち立体形状のデータ)を得ることができる。
またそれ以外にも、測距センサ等をカメラと組み合わせて用いることにより、三次元モデルを生成することもできる。
三次元モデルを生成する手法に関しては本実施形態の主眼とするものではなく、同様の効果が得られるものであればどのような手法を用いるものであってもよい。
三次元モデル生成部3により人形化対象人物及びオブジェクトの三次元モデルが生成されると、図5Eに示すように、タブレット端末の画面上に三次元モデルが表示される。
ここでは、複数のカメラにより撮像された画像から抽出された色情報に基づいて、三次元モデルに対して対応する着色が施されている。
またユーザは、タブレット端末の画面上を指でタッチしてドラッグすることにより、表示されている三次元モデルを自由に回転させることができる。
これにより、ユーザは人形化対象人物及びオブジェクトを任意の方向から確認することができる。
またここでは、ユーザは人物及びオブジェクトの位置関係を変更することもできる。
例えば本実施形態では、オブジェクトであるボールに対して画面上で2回連続してタップすることにより選択し、さらに選択したボールを指でタッチしたままドラッグすることにより三次元モデル空間内でのボールの位置を変更することができる。
ここでユーザは、タブレット端末の画面上を指でタッチしてドラッグすることで三次元モデルを回転させる操作を組み合わせることで、二次元的な画面上の操作によって、オブジェクトの三次元空間内での位置を変更することができる。
人物及びオブジェクトの位置関係を変更するための操作方法は、その他の方法によるものであってもよく、上述した操作方法は一例に過ぎない。
ユーザは、画面に表示された三次元モデルを確認した後、人形として作成することを選択した選手及びオブジェクトの三次元モデルを編集するかどうかを入力する。
より具体的には、図5Eの画面において選手及びオブジェクトの情報を編集するのであればYESのボタンを、編集しないのであればNOのボタンをタップする。
ここではまず、ユーザが編集を希望して、YESをタップした場合について説明を行う。
S9において、三次元モデル編集部4は、前三次元モデルの編集を行う。
より具体的には、例えば図5Fに示すように、ユーザはWEBアプリケーションの画面上に表示された三次元モデルに関して、編集を行いたいパーツの情報をリストから選択してタップにより入力する。
本実施形態においては、編集対象とするパーツとして、ユーザが"表情"と"肌の色"とを選択するものとする。
まずユーザがパーツのリストから"表情"を選択すると、三次元モデル編集部4は、図5Gに示すように三次元モデルの顔領域を拡大表示し、さらに表情に関わるより詳細なパーツリストを画面に表示する。パーツリストはパーツ一覧の一例である。
本実施形態の場合、ユーザが選択したシーンにおいて選手の眼が閉じているため、ユーザは選手の眼を開いた状態で、かつ、ボールに視線を向けた状態に変更したいものとする。
そこでユーザがパーツリストから眼を選択すると、三次元モデル編集部4は、ユーザが選択した選手の眼に関する複数の画像情報を、図5Gに示すように画面下部に表示する。
ここで、該当する選手の眼の画像情報は、過去の試合の映像より、例えば、顔器官検出機能及び顔認識機能を用いて、事前に抽出されたものをリスト化したものである。
本実施形態においては、眼に関する画像情報を参照する際に、顔認識機能を用いて当該選手であることを識別している。
これに関しては、必ずしも顔認識機能により自動で該当する選手を識別するものでなくても、例えばユーザが出場選手リストの中から、該当する選手に対応する選手名を選択する等の他の手法を用いるものであってもよい。
本実施形態では、ユーザは眼のリストの中から、眼が開いていてボールに視線を向けている左端に表示されたパーツを選択する。
その結果、三次元モデル編集部4は、顔認識機能において既に認知されている眼の領域の三次元モデルを、ユーザが選択した眼の三次元モデルによって、図5Hに示すように置き換える。
より具体的には、例えば図5Fに示すように、ユーザはWEBアプリケーションの画面上に表示された三次元モデルに関して、編集を行いたいパーツの情報をリストから選択してタップにより入力する。
本実施形態においては、編集対象とするパーツとして、ユーザが"表情"と"肌の色"とを選択するものとする。
まずユーザがパーツのリストから"表情"を選択すると、三次元モデル編集部4は、図5Gに示すように三次元モデルの顔領域を拡大表示し、さらに表情に関わるより詳細なパーツリストを画面に表示する。パーツリストはパーツ一覧の一例である。
本実施形態の場合、ユーザが選択したシーンにおいて選手の眼が閉じているため、ユーザは選手の眼を開いた状態で、かつ、ボールに視線を向けた状態に変更したいものとする。
そこでユーザがパーツリストから眼を選択すると、三次元モデル編集部4は、ユーザが選択した選手の眼に関する複数の画像情報を、図5Gに示すように画面下部に表示する。
ここで、該当する選手の眼の画像情報は、過去の試合の映像より、例えば、顔器官検出機能及び顔認識機能を用いて、事前に抽出されたものをリスト化したものである。
本実施形態においては、眼に関する画像情報を参照する際に、顔認識機能を用いて当該選手であることを識別している。
これに関しては、必ずしも顔認識機能により自動で該当する選手を識別するものでなくても、例えばユーザが出場選手リストの中から、該当する選手に対応する選手名を選択する等の他の手法を用いるものであってもよい。
本実施形態では、ユーザは眼のリストの中から、眼が開いていてボールに視線を向けている左端に表示されたパーツを選択する。
その結果、三次元モデル編集部4は、顔認識機能において既に認知されている眼の領域の三次元モデルを、ユーザが選択した眼の三次元モデルによって、図5Hに示すように置き換える。
置き換えられた三次元モデルをユーザが確認し、OKボタンがタップされると、三次元モデル編集部4は、画面を再びユーザが編集対象とするパーツを選択する画面に戻す。今度は、ユーザは"肌の色"を選択したものとする。
本実施形態の場合、試合が夜間に行われたものであり、映像から抽出した選手の肌の色が三次元モデル上で暗く見えるため、ユーザは肌の色を明るく変更したいものとする。
そこでユーザがパーツリストから"肌の色"を選択すると、三次元モデル編集部4は、画面上に"肌の色"に関わる色リストを表示する。
ユーザが、色リストから所望のものを選択してタップすると、三次元モデル編集部4は、三次元モデルの肌色を選択した色に変更する。
三次元モデルにおいて、変更対象とする肌色の領域は、例えば、顔認識機能により識別した顔領域の色を基準の肌色とし、三次元モデル上の色に関して、色空間上で基準の肌色から所定の範囲内に収まる肌色の部分を変更対象とする手法を用いることができる。
又は三次元モデルから、ユニフォーム、靴、ソックス等の領域を推定し、肌が露出している領域を特定することにより、変更対象とする肌色の領域を決定するものであってもよい。
置き換えられた三次元モデルをユーザが確認し、OKボタンがタップされると、三次元モデル編集部4は、画面を再びユーザが編集対象とするパーツを選択する画面に戻す。ユーザは変更後の三次元モデルに満足すればさらにOKボタンをタップすることで、生成された三次元モデルを人形化することを決定する。
本実施形態では、編集対象とするパーツとして、ユーザが"表情"と"肌の色"とを選択した場合に関して説明を行ったが、それ以外のパーツを編集対象とする場合に関しても同様の処理を行うことにより実現することができる。
編集対象とするパーツに関して特に限定するものではない。
本実施形態の場合、試合が夜間に行われたものであり、映像から抽出した選手の肌の色が三次元モデル上で暗く見えるため、ユーザは肌の色を明るく変更したいものとする。
そこでユーザがパーツリストから"肌の色"を選択すると、三次元モデル編集部4は、画面上に"肌の色"に関わる色リストを表示する。
ユーザが、色リストから所望のものを選択してタップすると、三次元モデル編集部4は、三次元モデルの肌色を選択した色に変更する。
三次元モデルにおいて、変更対象とする肌色の領域は、例えば、顔認識機能により識別した顔領域の色を基準の肌色とし、三次元モデル上の色に関して、色空間上で基準の肌色から所定の範囲内に収まる肌色の部分を変更対象とする手法を用いることができる。
又は三次元モデルから、ユニフォーム、靴、ソックス等の領域を推定し、肌が露出している領域を特定することにより、変更対象とする肌色の領域を決定するものであってもよい。
置き換えられた三次元モデルをユーザが確認し、OKボタンがタップされると、三次元モデル編集部4は、画面を再びユーザが編集対象とするパーツを選択する画面に戻す。ユーザは変更後の三次元モデルに満足すればさらにOKボタンをタップすることで、生成された三次元モデルを人形化することを決定する。
本実施形態では、編集対象とするパーツとして、ユーザが"表情"と"肌の色"とを選択した場合に関して説明を行ったが、それ以外のパーツを編集対象とする場合に関しても同様の処理を行うことにより実現することができる。
編集対象とするパーツに関して特に限定するものではない。
該当する三次元モデルを人形化することをユーザが承認すると、ユーザによる人形作成代金の支払いが行われる。
また、上述した図5Eの画面において、選手及びオブジェクトの情報を編集しないものとして、ユーザがNOのボタンをタップした場合も、同様に人形作成代金の支払いが行われる。
例えば本実施形態では、ユーザはWEBアプリケーション上でクレジットカードによる支払い処理を実行する。
人形代金の支払い処理に関しては、人形作成システムの運用形態によって変更される可能性がある。
例えば、ユーザが人形を引き取る際に支払いを行うように変更することも可能であるし、又は人形作成サービスを無料で提供する場合等は支払い工程自体が必要なくなる。この様に、人形代金の支払い処理に関しては様々な形態が考えられるため、詳細な説明は割愛し、かつ、図3のフローチャートにも記載してしない。
また、上述した図5Eの画面において、選手及びオブジェクトの情報を編集しないものとして、ユーザがNOのボタンをタップした場合も、同様に人形作成代金の支払いが行われる。
例えば本実施形態では、ユーザはWEBアプリケーション上でクレジットカードによる支払い処理を実行する。
人形代金の支払い処理に関しては、人形作成システムの運用形態によって変更される可能性がある。
例えば、ユーザが人形を引き取る際に支払いを行うように変更することも可能であるし、又は人形作成サービスを無料で提供する場合等は支払い工程自体が必要なくなる。この様に、人形代金の支払い処理に関しては様々な形態が考えられるため、詳細な説明は割愛し、かつ、図3のフローチャートにも記載してしない。
S10において、三次元造形部5は、生成された三次元モデルを人形として造形する処理を実行する。
本実施形態で想定している三次元プリンタ300は、入力された三次元モデルを基にして着色された三次元形状を造形する機能を有するものを想定している。
三次元プリンタ300の機能に関しては、本実施形態の主眼とするところではないため、詳細な説明は割愛する。
造形された人形は、必要に応じて一部パーツの組み立てが行われ、ユーザに対して郵送等により引き渡される。
以上説明したように、人形作成システム100により、ユーザは動画及び画像から所望のシーンを選択し、さらにシーンの中から所望の人物及びオブジェクトを選択し、さらに希望に応じて所望の編集を行った上で人物及びオブジェクトの人形を作成することができる。
本実施形態で想定している三次元プリンタ300は、入力された三次元モデルを基にして着色された三次元形状を造形する機能を有するものを想定している。
三次元プリンタ300の機能に関しては、本実施形態の主眼とするところではないため、詳細な説明は割愛する。
造形された人形は、必要に応じて一部パーツの組み立てが行われ、ユーザに対して郵送等により引き渡される。
以上説明したように、人形作成システム100により、ユーザは動画及び画像から所望のシーンを選択し、さらにシーンの中から所望の人物及びオブジェクトを選択し、さらに希望に応じて所望の編集を行った上で人物及びオブジェクトの人形を作成することができる。
<実施形態2>
本実施形態における人形作成システム400は、ユーザが選択した所望のシーンには含まれていない人物及びオブジェクトの情報をユーザが追加で入力することを可能とする点が実施形態1と相違しており、その他の構成及び処理に関しては実施形態1と同様である。
したがって、本実施形態では実施形態1と相違する部分について説明を行い、その他の部分に関しては実施形態1と同様として説明を省略する。
本実施形態における人形作成システム400は、ユーザが選択した所望のシーンには含まれていない人物及びオブジェクトの情報をユーザが追加で入力することを可能とする点が実施形態1と相違しており、その他の構成及び処理に関しては実施形態1と同様である。
したがって、本実施形態では実施形態1と相違する部分について説明を行い、その他の部分に関しては実施形態1と同様として説明を省略する。
図6は、人形作成システム400のシステム構成の一例を示す図である。
図6の人形作成システム400は、実施形態1で説明した図2に示す人形作成システム100に対して、さらに追加情報入力部14と、三次元モデル変更部15と、追加情報編集部16と、が追加されている。
より具体的には、追加情報入力部14は、PC200上で動作するアプリケーションとして実現され、特にユーザが選択した所望のシーンには含まれていない人物及びオブジェクトの情報をユーザが追加で入力することを可能とする機能を果たす。
三次元モデル変更部15は、PC200上で動作するアプリケーションとして実現され、特に追加で入力した人物及びオブジェクトの情報を基にして、ユーザが人形化対象人物及びオブジェクトの三次元モデルの一部を変更することを可能とする機能を果たす。
追加情報編集部16は、PC200上で動作するアプリケーションとして実現され、特に追加で入力した情報に基づいて変更された三次元モデルの一部を変更することを可能とする機能を果たす。
図6の人形作成システム400は、実施形態1で説明した図2に示す人形作成システム100に対して、さらに追加情報入力部14と、三次元モデル変更部15と、追加情報編集部16と、が追加されている。
より具体的には、追加情報入力部14は、PC200上で動作するアプリケーションとして実現され、特にユーザが選択した所望のシーンには含まれていない人物及びオブジェクトの情報をユーザが追加で入力することを可能とする機能を果たす。
三次元モデル変更部15は、PC200上で動作するアプリケーションとして実現され、特に追加で入力した人物及びオブジェクトの情報を基にして、ユーザが人形化対象人物及びオブジェクトの三次元モデルの一部を変更することを可能とする機能を果たす。
追加情報編集部16は、PC200上で動作するアプリケーションとして実現され、特に追加で入力した情報に基づいて変更された三次元モデルの一部を変更することを可能とする機能を果たす。
図7は、人形作成システム400により、ユーザが希望するシーンに基づいて三次元モデルを生成し、さらにシーンには含まれていない情報を追加して三次元モデルを修正し、三次元モデル情報を基にして三次元プリンタによりユーザが希望する人形を作成する情報処理の一例を示すフローチャートである。
図7に示すように、実施形態1で説明した図3に示す人形作成システム100のフローチャートに対して、さらにS17からS19までの工程が追加されている。
S17とS18とS19とに関しては、それぞれ追加情報入力部14と三次元モデル変更部15と追加情報編集部16とに対応しており、それぞれに対応する部によって処理が実現される。
図7を用いて、さらに処理の詳細を説明する。
まず本実施形態においては、図7に示したS6からS9までの処理及びS10の処理は、実施形態1と同様に実行される。
したがって、以降では、実施形態1と異なるS17からS19までに関して説明を行う。
図7に示すように、実施形態1で説明した図3に示す人形作成システム100のフローチャートに対して、さらにS17からS19までの工程が追加されている。
S17とS18とS19とに関しては、それぞれ追加情報入力部14と三次元モデル変更部15と追加情報編集部16とに対応しており、それぞれに対応する部によって処理が実現される。
図7を用いて、さらに処理の詳細を説明する。
まず本実施形態においては、図7に示したS6からS9までの処理及びS10の処理は、実施形態1と同様に実行される。
したがって、以降では、実施形態1と異なるS17からS19までに関して説明を行う。
実施形態1と同様にユーザが編集後の三次元モデルに満足し、図5HのOKボタンをタップすると、追加情報入力部14は、ユーザが選択したシーンには含まれていない情報を入力するかどうかの入力を即す画面を表示する。
より具体的には、ユーザが選択したシーンには含まれていない選手及びオブジェクトの情報を入力するのであればYESのボタンを、入力しないのであればNOのボタンをタップする。
ここではまず、ユーザがYESをタップした場合について説明を行う。
ユーザがYESをタップすると、S17において、追加情報入力部14は、追加情報入力処理を実行する。
追加情報入力部14は、まず図8Aに示すようにWEBアプリケーションの画面上に、三次元モデルに関して入れ替え可能なパーツリストを表示する。
ここでユーザは、三次元モデルに関して入れ替えを希望するパーツを選択する。
例えば本実施形態においては、ユーザは選択したシーンにおける選手の顔をユーザ自身の顔に変更することを希望しているとする。
そこでユーザは、画面上のリスト中の"顔"というアイコンをタップすると、追加情報入力部14は、画面上には、ユーザが入れ替えを希望する顔(この場合はユーザ自身の顔)が含まれる画像を入力するように指示を表示する。
ユーザは、自分の顔を異なる方向より撮影した複数の画像を入力するか、又はタブレットに付属するカメラにより自分の顔を異なる方向より複数回撮影してWEBアプリケーション上でアップロードする。
本実施形態では、例えばユーザは図8Bに示すように、自分の顔を異なる方向より撮影した5種類の画像をWEBアプリケーション上にアップロードしたものとする。
追加情報入力部14は、ユーザが入力した5種類の画像情報を基にして、PC200上でユーザの顔の三次元モデルを生成する。
本実施形態における三次元モデルを生成する手法としては、まず5種類の画像のそれぞれに対して、認識手法である顔器官検出を適用し、画像中のユーザの顔領域、及び眼、鼻、口、耳等の顔器官の位置を検出する。
追加情報入力部14は、各画像から求められた顔器官位置の情報を基にして、三次元モデル生成手法である三角測量を応用した手法により、ユーザの顔に関する三次元モデルを生成する。
より具体的には、ユーザが選択したシーンには含まれていない選手及びオブジェクトの情報を入力するのであればYESのボタンを、入力しないのであればNOのボタンをタップする。
ここではまず、ユーザがYESをタップした場合について説明を行う。
ユーザがYESをタップすると、S17において、追加情報入力部14は、追加情報入力処理を実行する。
追加情報入力部14は、まず図8Aに示すようにWEBアプリケーションの画面上に、三次元モデルに関して入れ替え可能なパーツリストを表示する。
ここでユーザは、三次元モデルに関して入れ替えを希望するパーツを選択する。
例えば本実施形態においては、ユーザは選択したシーンにおける選手の顔をユーザ自身の顔に変更することを希望しているとする。
そこでユーザは、画面上のリスト中の"顔"というアイコンをタップすると、追加情報入力部14は、画面上には、ユーザが入れ替えを希望する顔(この場合はユーザ自身の顔)が含まれる画像を入力するように指示を表示する。
ユーザは、自分の顔を異なる方向より撮影した複数の画像を入力するか、又はタブレットに付属するカメラにより自分の顔を異なる方向より複数回撮影してWEBアプリケーション上でアップロードする。
本実施形態では、例えばユーザは図8Bに示すように、自分の顔を異なる方向より撮影した5種類の画像をWEBアプリケーション上にアップロードしたものとする。
追加情報入力部14は、ユーザが入力した5種類の画像情報を基にして、PC200上でユーザの顔の三次元モデルを生成する。
本実施形態における三次元モデルを生成する手法としては、まず5種類の画像のそれぞれに対して、認識手法である顔器官検出を適用し、画像中のユーザの顔領域、及び眼、鼻、口、耳等の顔器官の位置を検出する。
追加情報入力部14は、各画像から求められた顔器官位置の情報を基にして、三次元モデル生成手法である三角測量を応用した手法により、ユーザの顔に関する三次元モデルを生成する。
さらに、追加情報入力部14は、入れ替え対象である選手の三次元モデルを参照し、生成した三次元モデルを適切なサイズに縮小(又は拡大)する。
三次元モデルを生成する手法は、上述した顔検出手法を用いるものに限ることはなく、例えばアップロードした画像に対して、WEBアプリケーション上の画像編集ツールを用いて、ユーザ自身が顔領域を線分で区切る等して指定したり、眼、鼻、口、耳等の顔器官の位置を同様に手動で指定したりするものであってもよい。
また三次元モデルの算出手法自体もどのような手法を用いてもよい。
また本実施形態では、追加で入力するデータに関して、ユーザ自身が撮影する場合に関して説明を行ったが、その他に人形作成システムとして専用の撮影ブースを有するものであってもよい。
この場合、ユーザは専用ブースにおいて、例えばレンジファインダー等によって三次元モデルの生成に必要な立体形状を測定する。
以上の三次元モデルの生成方法に関しては、本実施形態の主眼とするものではなく、その他のものであってもよい。
三次元モデルを生成する手法は、上述した顔検出手法を用いるものに限ることはなく、例えばアップロードした画像に対して、WEBアプリケーション上の画像編集ツールを用いて、ユーザ自身が顔領域を線分で区切る等して指定したり、眼、鼻、口、耳等の顔器官の位置を同様に手動で指定したりするものであってもよい。
また三次元モデルの算出手法自体もどのような手法を用いてもよい。
また本実施形態では、追加で入力するデータに関して、ユーザ自身が撮影する場合に関して説明を行ったが、その他に人形作成システムとして専用の撮影ブースを有するものであってもよい。
この場合、ユーザは専用ブースにおいて、例えばレンジファインダー等によって三次元モデルの生成に必要な立体形状を測定する。
以上の三次元モデルの生成方法に関しては、本実施形態の主眼とするものではなく、その他のものであってもよい。
S18において、三次元モデル変更部15は、図8Cに示す画面を表示し、ユーザが選択した選手の三次元モデルに関して、選手の頭部と、上述したように生成したユーザ自身の顔(頭部)の三次元モデルとを入れ替える。
三次元モデル変更部15は、選手の顔器官位置とユーザの顔器官位置とのずれの総和値が最小となるように自動で位置合わせを行い、入れ替え後の三次元モデルを図8Cに示すように表示する。
ここでユーザは、入れ替え後の頭部の位置をWEBアプリケーションの画面上で調整することが可能である。
例えば、三次元モデルにおける首と胴体の接続部を支点として、画面に表示された三次元モデルの頭部を指でタッチしドラッグすることにより、頭部の方向・傾き等を希望するように変更することができる。
ユーザは、画面に表示された指示に基づき、変更した三次元モデルの情報(本実施形態では自分の顔・頭部の三次元モデル)を編集するかどうかを入力する。
より具体的には、図8Dの画面において自分の顔、頭部の三次元モデルの情報を編集するのであればYESのボタンを、編集しないのであればNOのボタンをタップする。
ここではまず、ユーザが編集を希望して、YESをタップした場合について説明を行う。
三次元モデル変更部15は、選手の顔器官位置とユーザの顔器官位置とのずれの総和値が最小となるように自動で位置合わせを行い、入れ替え後の三次元モデルを図8Cに示すように表示する。
ここでユーザは、入れ替え後の頭部の位置をWEBアプリケーションの画面上で調整することが可能である。
例えば、三次元モデルにおける首と胴体の接続部を支点として、画面に表示された三次元モデルの頭部を指でタッチしドラッグすることにより、頭部の方向・傾き等を希望するように変更することができる。
ユーザは、画面に表示された指示に基づき、変更した三次元モデルの情報(本実施形態では自分の顔・頭部の三次元モデル)を編集するかどうかを入力する。
より具体的には、図8Dの画面において自分の顔、頭部の三次元モデルの情報を編集するのであればYESのボタンを、編集しないのであればNOのボタンをタップする。
ここではまず、ユーザが編集を希望して、YESをタップした場合について説明を行う。
S19において、追加情報編集部16は、三次元モデルの編集を行う。
より具体的には、追加情報編集部16は、図8Eに示す画面を表示する。ユーザはWEBアプリケーションの画面上に表示された三次元モデルに追加された顔、頭部の情報に関して、編集を行いたいパーツの情報をリストから選択してタップにより入力する。
本実施形態においては、編集対象とするパーツとして、ユーザが"鼻"を選択するものとする。
ユーザがパーツリストから"鼻"を選択すると、追加情報編集部16は、"鼻"に関する複数の画像情報を、図8Eに示すように画面に表示する。
ここで、"鼻"に関する複数の画像情報は、バリエーションを有する鼻の画像情報を事前に人形作成システム400にリスト化して登録したものである。
本実施形態では、ユーザは鼻のリストの中から、所望の鼻のパーツを選ぶ。
その結果、上述した顔器官検出機能において既に認知されている鼻の領域の三次元モデルが、図8Fに示すようにユーザが選択した鼻の三次元モデルによって置き換えられる。
置き換えられた三次元モデルをユーザが確認し、OKボタンをタップすると、追加情報編集部16は、画面を再びユーザが編集対象とするパーツを選択する画面に戻す。ユーザは変更後の三次元モデルに満足すればさらにOKボタンをタップすることで、生成された三次元モデルを人形化することを決定する。
これ以降の、支払い処理を含む三次元造形処理は実施形態1と同様であるため説明を省略する。
より具体的には、追加情報編集部16は、図8Eに示す画面を表示する。ユーザはWEBアプリケーションの画面上に表示された三次元モデルに追加された顔、頭部の情報に関して、編集を行いたいパーツの情報をリストから選択してタップにより入力する。
本実施形態においては、編集対象とするパーツとして、ユーザが"鼻"を選択するものとする。
ユーザがパーツリストから"鼻"を選択すると、追加情報編集部16は、"鼻"に関する複数の画像情報を、図8Eに示すように画面に表示する。
ここで、"鼻"に関する複数の画像情報は、バリエーションを有する鼻の画像情報を事前に人形作成システム400にリスト化して登録したものである。
本実施形態では、ユーザは鼻のリストの中から、所望の鼻のパーツを選ぶ。
その結果、上述した顔器官検出機能において既に認知されている鼻の領域の三次元モデルが、図8Fに示すようにユーザが選択した鼻の三次元モデルによって置き換えられる。
置き換えられた三次元モデルをユーザが確認し、OKボタンをタップすると、追加情報編集部16は、画面を再びユーザが編集対象とするパーツを選択する画面に戻す。ユーザは変更後の三次元モデルに満足すればさらにOKボタンをタップすることで、生成された三次元モデルを人形化することを決定する。
これ以降の、支払い処理を含む三次元造形処理は実施形態1と同様であるため説明を省略する。
本実施形態では、追加した三次元モデルにおいて変更対象とするパーツとして、ユーザが"顔"を選択した場合に関して説明を行ったが、それ以外のパーツを編集対象とする場合に関しても同様に変更を行うことができる。
例えば、選手の胴体をユーザ自身の胴体に変更したい場合には、ユーザは選択したシーンにおける選手と同様の姿勢を取り、それを異なる方向から撮像した複数の画像として入力することで、胴体を入れ替えた三次元モデルを生成することができる。
その際、入れ替え前に選手が来ていたユニフォームを入れ替え後のユーザの胴体に合成することもできる。
また例えば、選手のユニフォームをユーザが希望するデザインのユニフォームに変更したい場合は、変更対象となるユニフォームを撮影した複数の画像を登録し、選手のユニフォームの領域の三次元モデルと置き換えることにより実現できる。
また、オブジェクトの変更を選択し、例えば異なるデザインのボールに変更することもできる。
また、追加した情報の変さらに関しても、本実施形態ではユーザが"鼻"を変更することを選択した場合に関して説明を行ったが、それ以外のパーツを編集対象とする場合に関しても同様に行うことができる。
これは、実施形態1において説明した、選手のパーツを変更する場合と同様である。
以上説明したように、人形作成システム400により、動画及び画像から選択した人物及びオブジェクトに対して、ユーザ自身が希望する追加情報を用いて変更を加えることにより、選択シーンには実際には含まれない人物及びオブジェクトの情報が含まれる人形を作成することができる。
例えば、選手の胴体をユーザ自身の胴体に変更したい場合には、ユーザは選択したシーンにおける選手と同様の姿勢を取り、それを異なる方向から撮像した複数の画像として入力することで、胴体を入れ替えた三次元モデルを生成することができる。
その際、入れ替え前に選手が来ていたユニフォームを入れ替え後のユーザの胴体に合成することもできる。
また例えば、選手のユニフォームをユーザが希望するデザインのユニフォームに変更したい場合は、変更対象となるユニフォームを撮影した複数の画像を登録し、選手のユニフォームの領域の三次元モデルと置き換えることにより実現できる。
また、オブジェクトの変更を選択し、例えば異なるデザインのボールに変更することもできる。
また、追加した情報の変さらに関しても、本実施形態ではユーザが"鼻"を変更することを選択した場合に関して説明を行ったが、それ以外のパーツを編集対象とする場合に関しても同様に行うことができる。
これは、実施形態1において説明した、選手のパーツを変更する場合と同様である。
以上説明したように、人形作成システム400により、動画及び画像から選択した人物及びオブジェクトに対して、ユーザ自身が希望する追加情報を用いて変更を加えることにより、選択シーンには実際には含まれない人物及びオブジェクトの情報が含まれる人形を作成することができる。
<実施形態3>
本実施形態における人形作成システム500は、作成される人形の重心を事前に算出し、人形が自立困難な場合には人形が自立可能となるように所定の処理を実行する点が実施形態1及び2と相違しており、その他の構成及び処理に関しては実施形態1及び2と同様である。
したがって、本実施形態では実施形態1及び2と相違する部分について説明を行い、その他の部分に関しては実施形態1及び2と同様として説明を省略する。
本実施形態における人形作成システム500は、作成される人形の重心を事前に算出し、人形が自立困難な場合には人形が自立可能となるように所定の処理を実行する点が実施形態1及び2と相違しており、その他の構成及び処理に関しては実施形態1及び2と同様である。
したがって、本実施形態では実施形態1及び2と相違する部分について説明を行い、その他の部分に関しては実施形態1及び2と同様として説明を省略する。
図9は、人形作成システム500のシステム構成の一例を示す図である。
図9の人形作成システム500は、実施形態2で説明した図6に示す人形作成システム400に対して、さらに変更シーン候補提示部20と、修正三次元モデル候補提示部21と、支持部材候補提示部22と、支持部材設定部23と、が追加されている。
より具体的には、変更シーン候補提示部20は、PC200上で動作するアプリケーションとして実現され、特に作成される人形の重心を事前に算出し、人形が自立困難な場合、人形が自立可能な変更候補シーンをユーザに対して提示することを可能とする機能を果たす。
修正三次元モデル候補提示部21は、PC200上で動作するアプリケーションとして実現され、特に作成される人形の重心を事前に算出し、人形が自立困難な場合、人形が自立可能な姿勢となるように三次元モデルに対して修正を加え、ユーザに対して修正三次元モデル候補として提示することを可能とする機能を果たす。
支持部材候補提示部22は、PC200上で動作するアプリケーションとして実現され、特に作成される人形の重心を事前に算出し、人形が自立困難な場合、人形の自立を可能とする支持部材の設定設置及び支持部材構成の候補リストをユーザに対して提示することを可能とする機能を果たす。候補リストは、候補一覧の一例である。
支持部材設定部23は、PC200上で動作するアプリケーションとして実現され、特に作成される人形の重心を事前に算出し、人形が自立困難な場合、ユーザが支持部材設定位置及び支持部材構成を設定することを可能とする機能を果たす。
図9の人形作成システム500は、実施形態2で説明した図6に示す人形作成システム400に対して、さらに変更シーン候補提示部20と、修正三次元モデル候補提示部21と、支持部材候補提示部22と、支持部材設定部23と、が追加されている。
より具体的には、変更シーン候補提示部20は、PC200上で動作するアプリケーションとして実現され、特に作成される人形の重心を事前に算出し、人形が自立困難な場合、人形が自立可能な変更候補シーンをユーザに対して提示することを可能とする機能を果たす。
修正三次元モデル候補提示部21は、PC200上で動作するアプリケーションとして実現され、特に作成される人形の重心を事前に算出し、人形が自立困難な場合、人形が自立可能な姿勢となるように三次元モデルに対して修正を加え、ユーザに対して修正三次元モデル候補として提示することを可能とする機能を果たす。
支持部材候補提示部22は、PC200上で動作するアプリケーションとして実現され、特に作成される人形の重心を事前に算出し、人形が自立困難な場合、人形の自立を可能とする支持部材の設定設置及び支持部材構成の候補リストをユーザに対して提示することを可能とする機能を果たす。候補リストは、候補一覧の一例である。
支持部材設定部23は、PC200上で動作するアプリケーションとして実現され、特に作成される人形の重心を事前に算出し、人形が自立困難な場合、ユーザが支持部材設定位置及び支持部材構成を設定することを可能とする機能を果たす。
図10は、人形作成システム500により、作成される人形の重心を事前に算出し、人形が自立困難な場合には人形が自立可能となるように所定の処理を実行し、三次元プリンタによりユーザが希望する人形を作成する情報処理の一例を示すフローチャートである。
図10に示すように、実施形態2で説明した図7に示す人形作成システム400のフローチャートに対して、さらにS24〜S27の工程が追加されている。
S24とS25とS26とS27とに関しては、それぞれ変更シーン候補提示部20と修正三次元モデル候補提示部21と支持部材候補提示部22と支持部材設定部23とに対応しており、それぞれに対応する部によって処理が実現される。
図10を用いて、さらに処理の詳細を説明する。
まず本実施形態においては、図10に示したS6からS8まで、S9及びS10は、実施形態2と同様に実行される。
したがって、以降では、実施形態2と異なるS24からS27までの処理に関して説明を行う。
S8において、三次元モデル生成部3は、図11Aに示すように、タブレット端末の画面上に表示されたWEBアプリケーション上に、生成された三次元モデルを表示する。
図10に示すように、実施形態2で説明した図7に示す人形作成システム400のフローチャートに対して、さらにS24〜S27の工程が追加されている。
S24とS25とS26とS27とに関しては、それぞれ変更シーン候補提示部20と修正三次元モデル候補提示部21と支持部材候補提示部22と支持部材設定部23とに対応しており、それぞれに対応する部によって処理が実現される。
図10を用いて、さらに処理の詳細を説明する。
まず本実施形態においては、図10に示したS6からS8まで、S9及びS10は、実施形態2と同様に実行される。
したがって、以降では、実施形態2と異なるS24からS27までの処理に関して説明を行う。
S8において、三次元モデル生成部3は、図11Aに示すように、タブレット端末の画面上に表示されたWEBアプリケーション上に、生成された三次元モデルを表示する。
ユーザが三次元モデルを確認してOKボタンをタップすると、図10に示すS24が実行される。
S24において、変更シーン候補提示部20は、決定した三次元モデルと、S10で人形を作成するために用いられる材料の特性を基にして、完成状態における人形の重心位置を算出し、人形が自立可能かどうか判定をする。
例えば、仮に図11Bに示すような人形が作成される場合、重心位置30(図中黒三角部)が、接地点28・29(図中黒塗り部)となる人形の両足を結ぶ直線状に存在するため、特に支持部材を用いることなく人形は自立可能である。
この場合は、S25からS27までの処理はスキップされて、S9に処理が進む。
これに対して、図11Cに示すような人形が作成される場合、重心位置32(図中黒三角部)は接地点31(図中黒塗り部)である人形の足裏を外れており、人形は自立不可能である。
この場合、変更シーン候補提示部20は、ユーザが選択したシーンの近傍(例えば前後3秒以内)のシーンにおける人形化対象選手の三次元モデルを生成し、それを基に作成される人形の重心位置を算出することで、自立可能な姿勢を取るシーンを探索する。
例えば、変更シーン候補提示部20は、図11Cに示した、ボールを蹴るために足を振り上げたシーンに対して、近傍シーンの中から、図11Bに示したボールを蹴る瞬間のシーンを選択する。
近傍シーンにおいて自立可能な姿勢を取るシーンが見つかった場合は、変更シーン候補提示部20は、図11Dに示すように、WEBアプリケーションの画面上に該当するシーンにおける選手の三次元モデルを表示し、ユーザに対して人形化対象を三次元モデルに変更するかどうかを確認する。
ここでユーザが変更を承認した場合は、以降のS25からS27までの処理はスキップされて、S9に処理が進む。
ユーザが変更を承認しない場合は、S25に処理が進む。
ここで、仮に近傍シーンにおいて自立可能な姿勢を取るシーンが見つからない場合は、同様にS25に処理が進む。
S24において、変更シーン候補提示部20は、決定した三次元モデルと、S10で人形を作成するために用いられる材料の特性を基にして、完成状態における人形の重心位置を算出し、人形が自立可能かどうか判定をする。
例えば、仮に図11Bに示すような人形が作成される場合、重心位置30(図中黒三角部)が、接地点28・29(図中黒塗り部)となる人形の両足を結ぶ直線状に存在するため、特に支持部材を用いることなく人形は自立可能である。
この場合は、S25からS27までの処理はスキップされて、S9に処理が進む。
これに対して、図11Cに示すような人形が作成される場合、重心位置32(図中黒三角部)は接地点31(図中黒塗り部)である人形の足裏を外れており、人形は自立不可能である。
この場合、変更シーン候補提示部20は、ユーザが選択したシーンの近傍(例えば前後3秒以内)のシーンにおける人形化対象選手の三次元モデルを生成し、それを基に作成される人形の重心位置を算出することで、自立可能な姿勢を取るシーンを探索する。
例えば、変更シーン候補提示部20は、図11Cに示した、ボールを蹴るために足を振り上げたシーンに対して、近傍シーンの中から、図11Bに示したボールを蹴る瞬間のシーンを選択する。
近傍シーンにおいて自立可能な姿勢を取るシーンが見つかった場合は、変更シーン候補提示部20は、図11Dに示すように、WEBアプリケーションの画面上に該当するシーンにおける選手の三次元モデルを表示し、ユーザに対して人形化対象を三次元モデルに変更するかどうかを確認する。
ここでユーザが変更を承認した場合は、以降のS25からS27までの処理はスキップされて、S9に処理が進む。
ユーザが変更を承認しない場合は、S25に処理が進む。
ここで、仮に近傍シーンにおいて自立可能な姿勢を取るシーンが見つからない場合は、同様にS25に処理が進む。
S25において、修正三次元モデル候補提示部21は、現状では自立が不可能と推定される人形の三次元モデルに対して、自立を可能とするように修正を加える。
例えば、図11Cに示すような人形に対して、図11Eに示すように重心34が人形の足裏接地面33上に存在するように三次元モデルの形状を変更すれば、特に支持部材を用いることなく人形は自立可能である。
この場合、例えば三次元モデルの高さ方向の中心点から上の部位(上半身)を接地点方向に移動させることにより三次元モデルの重心34の位置を修正することができる。
三次元モデルの重心位置の変更方法は上述のように、事前にルールベースで決定しておいてもよいし、又は三次元モデルの部位ごとに微小な変形を加え、人形が自立可能となる重心位置を探索するシミュレーションベースの手法を用いるものであってもよい。
本実施形態は、重心位置の変更を方法に関して限定するものではなく、どのような手法を用いるものであってもよい。
修正三次元モデル候補提示部21は、図11Eに示すように、人形が自立可能な重心位置を有する三次元モデル変更案を決定した後、三次元モデル変更案をWEBアプリケーションの画面に表示する。そして、修正三次元モデル候補提示部21は、図11Fに示すように、ユーザに対して三次元モデルを三次元モデル変更案のように変更するかどうかを確認する。
ここでユーザが変更を承認した場合は、以降のS26及びS27はスキップされて、S9に処理が進む。
ユーザが変更を承認しない場合は、図10に示す次のS26に処理が進む。
また例えば、図11Gに示すように、選手が空中に飛び上がっているシーンにおける三次元モデルの場合、ルールベース及びシミュレーションベースのどちらであっても、三次元モデル形状の修正では人形が自立可能な重心位置の変更が困難である。
このように、人形が自立可能な三次元モデル変更案を見つけられなかった場合も、自動的に次のS26に処理が進む。
例えば、図11Cに示すような人形に対して、図11Eに示すように重心34が人形の足裏接地面33上に存在するように三次元モデルの形状を変更すれば、特に支持部材を用いることなく人形は自立可能である。
この場合、例えば三次元モデルの高さ方向の中心点から上の部位(上半身)を接地点方向に移動させることにより三次元モデルの重心34の位置を修正することができる。
三次元モデルの重心位置の変更方法は上述のように、事前にルールベースで決定しておいてもよいし、又は三次元モデルの部位ごとに微小な変形を加え、人形が自立可能となる重心位置を探索するシミュレーションベースの手法を用いるものであってもよい。
本実施形態は、重心位置の変更を方法に関して限定するものではなく、どのような手法を用いるものであってもよい。
修正三次元モデル候補提示部21は、図11Eに示すように、人形が自立可能な重心位置を有する三次元モデル変更案を決定した後、三次元モデル変更案をWEBアプリケーションの画面に表示する。そして、修正三次元モデル候補提示部21は、図11Fに示すように、ユーザに対して三次元モデルを三次元モデル変更案のように変更するかどうかを確認する。
ここでユーザが変更を承認した場合は、以降のS26及びS27はスキップされて、S9に処理が進む。
ユーザが変更を承認しない場合は、図10に示す次のS26に処理が進む。
また例えば、図11Gに示すように、選手が空中に飛び上がっているシーンにおける三次元モデルの場合、ルールベース及びシミュレーションベースのどちらであっても、三次元モデル形状の修正では人形が自立可能な重心位置の変更が困難である。
このように、人形が自立可能な三次元モデル変更案を見つけられなかった場合も、自動的に次のS26に処理が進む。
S26において、支持部材候補提示部22は、現状では自立が不可能と推定される人形の三次元モデルに対して、自立を可能とするように支持部材を加える。
例えば、図11Hに示すような人形に対して、足の裏に丸い板35を設置し、重心位置32の鉛直方向の延長線が丸い板35の範囲に入るようにすれば、人形を自立させることができる。
又は、図11Iに示すように、三次元モデルの重心位置の近傍である人形の腰の位置に支持棒36を設置することによっても人形を自立させることができる。
以上のように、支持部材候補提示部22は、人形を自立可能とする支持部材を付加した三次元モデル変更案を決定した後、三次元モデル変更案をWEBアプリケーションの画面に表示する。そして、支持部材候補提示部22は、ユーザに対して三次元モデルを三次元モデル変更案のように変更するかどうかを確認する。
本実施形態の場合は、支持部材候補提示部22は、上述した2種類の変更案を提示する。
ここでユーザがどちらかの変更を承認した場合は、以降のS27はスキップされて、S9に処理が進む。
また、ユーザが変更を承認しない場合は、図10に示す次のS27に処理が進む。
例えば、図11Hに示すような人形に対して、足の裏に丸い板35を設置し、重心位置32の鉛直方向の延長線が丸い板35の範囲に入るようにすれば、人形を自立させることができる。
又は、図11Iに示すように、三次元モデルの重心位置の近傍である人形の腰の位置に支持棒36を設置することによっても人形を自立させることができる。
以上のように、支持部材候補提示部22は、人形を自立可能とする支持部材を付加した三次元モデル変更案を決定した後、三次元モデル変更案をWEBアプリケーションの画面に表示する。そして、支持部材候補提示部22は、ユーザに対して三次元モデルを三次元モデル変更案のように変更するかどうかを確認する。
本実施形態の場合は、支持部材候補提示部22は、上述した2種類の変更案を提示する。
ここでユーザがどちらかの変更を承認した場合は、以降のS27はスキップされて、S9に処理が進む。
また、ユーザが変更を承認しない場合は、図10に示す次のS27に処理が進む。
S27において、支持部材設定部23は、現状では自立が不可能と推定される人形の三次元モデルに対して、自立を可能とするように支持部材を加える。このことはS26と同様であるが、S27では、支持部材設定部23は、支持部材の構成及び設置位置をユーザ自身に選択させる。
まず、支持部材設定部23は、WEBアプリケーションの画面上に、例えば設置可能な支持部材のリストを図11Jのように表示する。
図11Jでは、足裏に設置するための丸板及び角板と、人形に設置するための2種類の支持棒とのリストが表示されている。
ユーザが、リストの中から希望する支持部材をタップして選択すると、支持部材設定部23は、画面上に選択された支持部材の三次元モデルを表示する。
支持部材の三次元モデルはユーザが指で画面にタッチし、ドラッグすることで元の三次元モデルの好きな位置に対して、適当な長さとして付加することができる。
例えば本実施形態では、ユーザは図11Kに示すように、人形の膝に対して角棒からなる支持部材37を設置し、表示された三次元モデルを確認したら、画面上のOKボタンをタップする。
OKボタンがタップされると、支持部材設定部23は、三次元モデルの重心位置を算出し、作成される人形が自立可能であるかどうかを判定する。
支持部材設定部23は、人形が自立不可能と判定した場合、図11Lに示すように支持部材を変更又は設置し直すようにユーザに対してメッセージを表示する。支持部材設定部23は、人形が自立可能な三次元モデルとなるまで処理を繰り返す。
最終的に人形が自立可能と判定されると、次のS9に処理が進む。
S9以降の処理工程は全て実施形態2と同様であるため説明を省略する。
まず、支持部材設定部23は、WEBアプリケーションの画面上に、例えば設置可能な支持部材のリストを図11Jのように表示する。
図11Jでは、足裏に設置するための丸板及び角板と、人形に設置するための2種類の支持棒とのリストが表示されている。
ユーザが、リストの中から希望する支持部材をタップして選択すると、支持部材設定部23は、画面上に選択された支持部材の三次元モデルを表示する。
支持部材の三次元モデルはユーザが指で画面にタッチし、ドラッグすることで元の三次元モデルの好きな位置に対して、適当な長さとして付加することができる。
例えば本実施形態では、ユーザは図11Kに示すように、人形の膝に対して角棒からなる支持部材37を設置し、表示された三次元モデルを確認したら、画面上のOKボタンをタップする。
OKボタンがタップされると、支持部材設定部23は、三次元モデルの重心位置を算出し、作成される人形が自立可能であるかどうかを判定する。
支持部材設定部23は、人形が自立不可能と判定した場合、図11Lに示すように支持部材を変更又は設置し直すようにユーザに対してメッセージを表示する。支持部材設定部23は、人形が自立可能な三次元モデルとなるまで処理を繰り返す。
最終的に人形が自立可能と判定されると、次のS9に処理が進む。
S9以降の処理工程は全て実施形態2と同様であるため説明を省略する。
S23において、支持部材を取り外し可能とするかどうかに関して、又は支持部材の色等に関しても、ユーザが好みに応じて選択可能とするものであってもよい。
また、以上説明した処理工程の処理の順番も、上述したものに限定することなく、必要に応じて変更することができる。
また、処理の途中において、随時以前の処理工程、又は以降の処理工程に処理を移行させるようにしてもよい。
図11Gのように、三次元モデルが空中に存在する場合には、該当するシーンを再現するためには図11Mに示すように支持部材41の設置が必要となるが、この場合は支持部材41の色を透明として選択することにより、より自然に見える人形を作成することができる。
また図11Nに示すように、オブジェクト(ボール)42が人物43と分離して空中に存在する場合には、実施形態1で示した操作により、人物とオブジェクトの位置関係を図11Gのように変更し、両者を一体化することによりオブジェクト(ボール)に対する個別の支持部材の設置を回避することができる。
人物とオブジェクトとの位置関係を変更しない場合には、オブジェクトに対する個別の支持部材(人物との接続用、又は接地用)の設置が必要となる。
以上説明したように、人形作成システム500により、動画及び画像から選択した人物及びオブジェクトに対して、ユーザの希望に基づいて、シーン又は三次元モデルの変更を行い、又は支持部材の情報を追加することにより、自立可能な人形を作成することができる。
また、以上説明した処理工程の処理の順番も、上述したものに限定することなく、必要に応じて変更することができる。
また、処理の途中において、随時以前の処理工程、又は以降の処理工程に処理を移行させるようにしてもよい。
図11Gのように、三次元モデルが空中に存在する場合には、該当するシーンを再現するためには図11Mに示すように支持部材41の設置が必要となるが、この場合は支持部材41の色を透明として選択することにより、より自然に見える人形を作成することができる。
また図11Nに示すように、オブジェクト(ボール)42が人物43と分離して空中に存在する場合には、実施形態1で示した操作により、人物とオブジェクトの位置関係を図11Gのように変更し、両者を一体化することによりオブジェクト(ボール)に対する個別の支持部材の設置を回避することができる。
人物とオブジェクトとの位置関係を変更しない場合には、オブジェクトに対する個別の支持部材(人物との接続用、又は接地用)の設置が必要となる。
以上説明したように、人形作成システム500により、動画及び画像から選択した人物及びオブジェクトに対して、ユーザの希望に基づいて、シーン又は三次元モデルの変更を行い、又は支持部材の情報を追加することにより、自立可能な人形を作成することができる。
<実施形態4>
本実施形態における人形作成システム600は、過去のシーン情報を基に作成した、適切な表情と姿勢との組合せ辞書を基にして、作成される人形の表情と姿勢との組合せを自動で選択する処理を実行する点が実施形態1〜3と相違しており、その他の構成及び処理に関しては実施形態1〜3と同様である。
したがって、本実施形態では実施形態1〜3と相違する部分について説明を行い、その他の部分に関しては実施形態1〜3と同様として説明を省略する。
本実施形態における人形作成システム600は、過去のシーン情報を基に作成した、適切な表情と姿勢との組合せ辞書を基にして、作成される人形の表情と姿勢との組合せを自動で選択する処理を実行する点が実施形態1〜3と相違しており、その他の構成及び処理に関しては実施形態1〜3と同様である。
したがって、本実施形態では実施形態1〜3と相違する部分について説明を行い、その他の部分に関しては実施形態1〜3と同様として説明を省略する。
図12は、人形作成システム600のシステム構成の一例を示す図である。
図12の人形作成システム600は、実施形態3で説明した図9に示す人形作成システム500に対して、さらに表情姿勢組合せ選択部38が追加されている。
より具体的には、表情姿勢組合せ選択部38は、PC200上で動作するアプリケーションとして実現され、過去のシーン情報を基に作成した、適切な表情と姿勢との組合せ辞書を基にして、作成される人形の表情と姿勢との組合せを自動で選択することを可能とする機能を果たす。
即ち、実施形態1〜3で説明したように動画中からあるシーンを選択する場合、そのシーンにおける人物の表情と姿勢とが適切でない場合が生じ得る。
例えばサッカーにおいて、ゴールを決めたキックにおける選手の表情が、たまたま目を閉じていたり、笑っているように見えたりすることがしばしば生じる。
本実施形態で説明する表情姿勢組合せ選択部38は、これらの表情と姿勢との不適切な組み合わせを解消するものである。
図12の人形作成システム600は、実施形態3で説明した図9に示す人形作成システム500に対して、さらに表情姿勢組合せ選択部38が追加されている。
より具体的には、表情姿勢組合せ選択部38は、PC200上で動作するアプリケーションとして実現され、過去のシーン情報を基に作成した、適切な表情と姿勢との組合せ辞書を基にして、作成される人形の表情と姿勢との組合せを自動で選択することを可能とする機能を果たす。
即ち、実施形態1〜3で説明したように動画中からあるシーンを選択する場合、そのシーンにおける人物の表情と姿勢とが適切でない場合が生じ得る。
例えばサッカーにおいて、ゴールを決めたキックにおける選手の表情が、たまたま目を閉じていたり、笑っているように見えたりすることがしばしば生じる。
本実施形態で説明する表情姿勢組合せ選択部38は、これらの表情と姿勢との不適切な組み合わせを解消するものである。
図13は、人形作成システム600により、過去のシーン情報を基に作成した、適切な表情と姿勢との組合せ辞書を基にして、作成される人形の表情と姿勢との組合せを自動で選択し、三次元プリンタによりユーザが希望する人形を作成する情報処理の一例を示すフローチャートである。
図13に示すように、実施形態3で説明した図10に示す人形作成システム600のフローチャートに対して、さらにS39の工程が追加されている。
S39は、表情姿勢組合せ選択部38によって処理が実現される。
図13を用いて、さらに処理の詳細を説明する。
まず本実施形態においては、図13に示したS6からS27まで、及びS9からS10までは、実施形態3と同様に実行される。
したがって、以降では、実施形態3と異なる本実施形態におけるS39に関して説明を行う。
S27でユーザが人形化を希望する人物及びオブジェクトの三次元モデルが生成されると、S39において、表情姿勢組合せ選択部38は、人形の表情と姿勢との組合せを判定する。
図13に示すように、実施形態3で説明した図10に示す人形作成システム600のフローチャートに対して、さらにS39の工程が追加されている。
S39は、表情姿勢組合せ選択部38によって処理が実現される。
図13を用いて、さらに処理の詳細を説明する。
まず本実施形態においては、図13に示したS6からS27まで、及びS9からS10までは、実施形態3と同様に実行される。
したがって、以降では、実施形態3と異なる本実施形態におけるS39に関して説明を行う。
S27でユーザが人形化を希望する人物及びオブジェクトの三次元モデルが生成されると、S39において、表情姿勢組合せ選択部38は、人形の表情と姿勢との組合せを判定する。
表情姿勢組合せ選択部38は、事前に過去の類似のシーン(本実施形態ではサッカーシーン)を集めたデータベースから、ハイライトシーンにおける選手の表情と姿勢との組合せの尤度をマッピングした表情/姿勢辞書を有している。
ここで、まず表情/姿勢辞書の作成方法に関して説明する。
表情/姿勢辞書40は、例えば図14に示すようなデータにより構成されている。
まず選手の姿勢は、サッカーの試合においてよく見られる複数の姿勢カテゴリ(キック、ヘディング、トラップ、ガッツポーズ等)に分けられている。
これらのカテゴリ分けは、例えば一般的な認識アルゴリズムである姿勢推定アルゴリズムを用いて、過去の試合の動画から選手の姿勢を抽出することにより実現することができる。
動画より抽出された姿勢における選手の表情が複数の表情カテゴリに分類されている。
本実施形態では、例えば表情カテゴリを(笑顔、集中、閉眼)の3種類に分けるものとする。
表情の識別に関しては、例えば一般的な認識アルゴリズムである表情認識アルゴリズムを用いて、それぞれの姿勢における表情を画像より抽出することで実現することができる。
以上の処理により、過去の動画より各姿勢カテゴリとそのときの選手の表情とに関する、複数の組合せが得られる。
ここで、まず表情/姿勢辞書の作成方法に関して説明する。
表情/姿勢辞書40は、例えば図14に示すようなデータにより構成されている。
まず選手の姿勢は、サッカーの試合においてよく見られる複数の姿勢カテゴリ(キック、ヘディング、トラップ、ガッツポーズ等)に分けられている。
これらのカテゴリ分けは、例えば一般的な認識アルゴリズムである姿勢推定アルゴリズムを用いて、過去の試合の動画から選手の姿勢を抽出することにより実現することができる。
動画より抽出された姿勢における選手の表情が複数の表情カテゴリに分類されている。
本実施形態では、例えば表情カテゴリを(笑顔、集中、閉眼)の3種類に分けるものとする。
表情の識別に関しては、例えば一般的な認識アルゴリズムである表情認識アルゴリズムを用いて、それぞれの姿勢における表情を画像より抽出することで実現することができる。
以上の処理により、過去の動画より各姿勢カテゴリとそのときの選手の表情とに関する、複数の組合せが得られる。
それらの複数の組合せを用いて、各姿勢カテゴリに対応して識別された表情の尤度(発生確率)を算出することができる。
例えば、過去の複数の試合から算出された各姿勢カテゴリに対応した3種類の表情カテゴリの尤度分布が図14のように算出され、これが表情/姿勢辞書40として設定されている。
姿勢及び表情のカテゴリ分けに関しては、人間が動画を確認しながら手動で実行することも可能であり、本実施形態は特にその手法を限定するものではない。
また姿勢及び表情のそれぞれのカテゴリ種別に関しても、上述したものはあくまで一例であり、これに限るものではない。
表情姿勢組合せ選択部38は、表情/姿勢辞書40を用いて人形の表情と姿勢との組合せを判定する。
S39において、まず、表情姿勢組合せ選択部38は、既に生成された、ユーザが人形化を希望する人物及びオブジェクトの三次元モデルに関して、表情と姿勢とのそれぞれのカテゴリ推定を実行する。
これは、例えば上述した表情認識アルゴリズム、及び姿勢推定アルゴリズムにより実現される。
ここで例えば、図15Aに示す三次元モデルに関して、姿勢は"キック"、表情は"笑顔"と推定されたとする。
表情姿勢組合せ選択部38は、表情/姿勢辞書40を用いて、推定した姿勢における各表情カテゴリの尤度を参照する。
この場合は、各表情カテゴリは、図14より(笑顔:0.05、集中:0.8、閉眼:0.15)であることが分かる。
一方、三次元モデルより推定された表情カテゴリは"笑顔"であるが、その尤度は0.05であり、過去の試合では起こりにくい表情であったことが分かる。
本実施形態では、推定された表情カテゴリが、表情/姿勢辞書40における尤度が1位の表情カテゴリと異なる場合、表情姿勢組合せ選択部38は、ユーザに対して、三次元モデルの表情を変更することを促すものとする。
例えば、過去の複数の試合から算出された各姿勢カテゴリに対応した3種類の表情カテゴリの尤度分布が図14のように算出され、これが表情/姿勢辞書40として設定されている。
姿勢及び表情のカテゴリ分けに関しては、人間が動画を確認しながら手動で実行することも可能であり、本実施形態は特にその手法を限定するものではない。
また姿勢及び表情のそれぞれのカテゴリ種別に関しても、上述したものはあくまで一例であり、これに限るものではない。
表情姿勢組合せ選択部38は、表情/姿勢辞書40を用いて人形の表情と姿勢との組合せを判定する。
S39において、まず、表情姿勢組合せ選択部38は、既に生成された、ユーザが人形化を希望する人物及びオブジェクトの三次元モデルに関して、表情と姿勢とのそれぞれのカテゴリ推定を実行する。
これは、例えば上述した表情認識アルゴリズム、及び姿勢推定アルゴリズムにより実現される。
ここで例えば、図15Aに示す三次元モデルに関して、姿勢は"キック"、表情は"笑顔"と推定されたとする。
表情姿勢組合せ選択部38は、表情/姿勢辞書40を用いて、推定した姿勢における各表情カテゴリの尤度を参照する。
この場合は、各表情カテゴリは、図14より(笑顔:0.05、集中:0.8、閉眼:0.15)であることが分かる。
一方、三次元モデルより推定された表情カテゴリは"笑顔"であるが、その尤度は0.05であり、過去の試合では起こりにくい表情であったことが分かる。
本実施形態では、推定された表情カテゴリが、表情/姿勢辞書40における尤度が1位の表情カテゴリと異なる場合、表情姿勢組合せ選択部38は、ユーザに対して、三次元モデルの表情を変更することを促すものとする。
より具体的には、推定された姿勢カテゴリに対して、表情/姿勢辞書40において尤度が1位の表情カテゴリは"集中"となっているため、表情姿勢組合せ選択部38は、表情/姿勢辞書40の作成時に"集中"と判定された同一選手の画像より作成された顔領域の三次元モデルを用いて、現状の三次元モデルの顔領域を変換し、図15Bに示すようにWEBアプリケーションの表示画面に表示する。
表情/姿勢辞書40の作成時に"集中"と判定された画像から、同一の選手の画像を探索する手法としては、顔認識技術が用いられている。
ユーザは、表示された修正後の三次元モデルを画面上で確認し、その三次元モデルを人形化することを承認すればOKボタンをタップし、もしも修正前の三次元モデルを人形化することを希望するのであればNOボタンをタップする。
又は、別の修正用の表情の三次元モデルを探索することを希望する場合には、Retryボタンをタップすることで、表情/姿勢辞書40の作成時に"集中"と判定された同一選手の異なる画像より作成された顔領域の三次元モデルを用いて、再度三次元モデルを修正することもできる。
表情/姿勢辞書40の作成時に"集中"と判定された画像から、同一の選手の画像を探索する手法としては、顔認識技術が用いられている。
ユーザは、表示された修正後の三次元モデルを画面上で確認し、その三次元モデルを人形化することを承認すればOKボタンをタップし、もしも修正前の三次元モデルを人形化することを希望するのであればNOボタンをタップする。
又は、別の修正用の表情の三次元モデルを探索することを希望する場合には、Retryボタンをタップすることで、表情/姿勢辞書40の作成時に"集中"と判定された同一選手の異なる画像より作成された顔領域の三次元モデルを用いて、再度三次元モデルを修正することもできる。
また上述した例では、表情/姿勢辞書において尤度が1位の表情カテゴリに対応する修正案を提示するものとしたが、さらに1位以下の表情カテゴリに対応する修正案を提示するものであってもよい。
また上述した例では、表情/姿勢辞書の作成時に同一表情カテゴリと判定された顔領域の三次元モデル(即ち過去のデータ)を用いて変換を行ったが、これ以外にもユーザが選択した動画中で同一表情カテゴリと判定される顔領域の三次元モデルを用いて変換を行うものであってもよい。
また、辞書の内容や表情と姿勢との組合せに関する評価方法(本実施形態では尤度)等は、あくまで一例に過ぎず、人形の表情と姿勢とを適切な組み合わせに変換することが可能であればその他の方法であってもよい。
以上説明したように、人形作成システム600により、動画及び画像から選択した人物に関して、表情と姿勢とが適切な組み合わせである人形を作成することができる。
また上述した例では、表情/姿勢辞書の作成時に同一表情カテゴリと判定された顔領域の三次元モデル(即ち過去のデータ)を用いて変換を行ったが、これ以外にもユーザが選択した動画中で同一表情カテゴリと判定される顔領域の三次元モデルを用いて変換を行うものであってもよい。
また、辞書の内容や表情と姿勢との組合せに関する評価方法(本実施形態では尤度)等は、あくまで一例に過ぎず、人形の表情と姿勢とを適切な組み合わせに変換することが可能であればその他の方法であってもよい。
以上説明したように、人形作成システム600により、動画及び画像から選択した人物に関して、表情と姿勢とが適切な組み合わせである人形を作成することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
上述した実施形態を任意に組み合わせて実施してもよい。
上述した実施形態を任意に組み合わせて実施してもよい。
以上、上述した各実施形態によれば、ユーザが希望する人形を作成することができる。なお、本実施形態では、人物とオブジェクトを分けて説明したが、人物もオブジェクトの一種ととらえることもできる。
200 PC
201 CPU
201 CPU
Claims (13)
- シーンを選択する第1の選択手段と、
前記シーンに含まれる人形化の対象のオブジェクトを選択する第2の選択手段と、
前記人形化の対象のオブジェクトの三次元モデルを生成する生成手段と、
前記三次元モデルに基づいて人形を造形する造形手段と、
を有する人形造形システム。 - 前記造形手段は三次元プリンタである請求項1に記載の人形造形システム。
- 前記三次元モデルを編集するためのパーツ一覧を表示し、表示したパーツ一覧の中から選択された情報に基づいて前記三次元モデルを編集する第1の編集手段をさらに有する請求項1又は2に記載の人形造形システム。
- 前記シーンに含まれていないオブジェクトの情報を入力する入力手段と、
前記オブジェクトの情報に基づいて前記三次元モデルを変更する変更手段と、
をさらに有する請求項1乃至3の何れか1項に記載の人形造形システム。 - 前記入力手段により入力されたオブジェクトの情報を編集する第2の編集手段をさらに有する請求項4に記載の人形造形システム。
- 前記第2の編集手段は、前記オブジェクトの情報を編集するためのパーツ一覧を表示し、表示したパーツ一覧の中から選択された情報に基づいて前記オブジェクトの情報を編集する請求項5に記載の人形造形システム。
- 前記人形の重心より自立困難であると判定された場合、前記人形が自立可能な候補シーンを提示する第1の提示手段をさらに有する請求項1乃至6の何れか1項に記載の人形造形システム。
- 前記人形の重心より自立困難であると判定された場合、前記人形の自立を可能とする支持部材の設置位置と前記支持部材構成との候補一覧を提示する第2の提示手段をさらに有する請求項1乃至6の何れか1項に記載の人形造形システム。
- 前記人形の重心より自立困難であると判定された場合、前記人形の自立を可能とする支持部材の設置位置と前記支持部材構成とを設定する設定手段をさらに有する請求項1乃至8の何れか1項に記載の人形造形システム。
- 過去のシーンに基づいて作成された表情と姿勢との組合せの辞書に基づいて作成される前記人形の表情と姿勢とを選択する選択手段をさらに有する請求項1乃至9の何れか1項に記載の人形造形システム。
- 前記オブジェクトは人物とボールのうち、少なくともいずれかを含む請求項1乃至10の何れか1項に記載の人形造形システム。
- 人形造形システムが実行する情報処理方法であって、
シーンを選択する第1の選択工程と、
前記シーンに含まれる人形化の対象のオブジェクトを選択する第2の選択工程と、
前記人形化の対象のオブジェクトの三次元モデルを生成する生成工程と、
前記三次元モデルに基づいて人形を造形する造形工程と、
を含む情報処理方法。 - コンピュータを、
シーンを選択する第1の選択手段と、
前記シーンに含まれる人形化の対象のオブジェクトを選択する第2の選択手段と、
前記人形化の対象のオブジェクトの三次元モデルを生成する生成手段と、
して機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018197365A JP2020062322A (ja) | 2018-10-19 | 2018-10-19 | 人形造形システム、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018197365A JP2020062322A (ja) | 2018-10-19 | 2018-10-19 | 人形造形システム、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020062322A true JP2020062322A (ja) | 2020-04-23 |
Family
ID=70387953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018197365A Pending JP2020062322A (ja) | 2018-10-19 | 2018-10-19 | 人形造形システム、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020062322A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4049734A1 (en) | 2021-02-26 | 2022-08-31 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and computer program |
JP7492932B2 (ja) | 2021-03-19 | 2024-05-30 | 株式会社ミマキエンジニアリング | 造形システム及び造形方法 |
-
2018
- 2018-10-19 JP JP2018197365A patent/JP2020062322A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4049734A1 (en) | 2021-02-26 | 2022-08-31 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and computer program |
JP7492932B2 (ja) | 2021-03-19 | 2024-05-30 | 株式会社ミマキエンジニアリング | 造形システム及び造形方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9348950B2 (en) | Perceptually guided capture and stylization of 3D human figures | |
CN103140879B (zh) | 信息呈现装置、数字照相机、头戴式显示器、投影仪、信息呈现方法和信息呈现程序 | |
US20210358214A1 (en) | Matching meshes for virtual avatars | |
US10699461B2 (en) | Telepresence of multiple users in interactive virtual space | |
US20240005808A1 (en) | Individual viewing in a shared space | |
US10945514B2 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
CN106170083B (zh) | 用于头戴式显示器设备的图像处理 | |
GB2564745B (en) | Methods for generating a 3D garment image, and related devices, systems and computer program products | |
JP2021008126A (ja) | 3dプリントされたカスタム着用物の生成 | |
JP5857133B2 (ja) | 顔検出を使用した画像の再構成 | |
KR20180070688A (ko) | 인물 얼굴 모델의 표정 애니메이션 생성 방법 및 장치 | |
KR20110139694A (ko) | 제스쳐 인식 방법 및 시스템 | |
JP2013190974A (ja) | 情報処理装置および情報処理方法、ならびに、プログラム | |
JP2020505712A (ja) | 人の3次元仮想表現を作成する方法 | |
WO2020145224A1 (ja) | 映像処理装置、映像処理方法、及び映像処理プログラム | |
JP2020062322A (ja) | 人形造形システム、情報処理方法及びプログラム | |
US20220277520A1 (en) | Information processing apparatus, information processing method, and storage medium | |
US11386615B2 (en) | Creating a custom three-dimensional body shape model | |
JP6376591B2 (ja) | データ出力装置、データ出力方法及び3次元物体製造システム | |
JP6868673B1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
KR20190074911A (ko) | 실감형 영상 콘텐츠 제공 방법 및 이를 이용한 서버 | |
JP7401199B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6803111B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP6398938B2 (ja) | 投影制御装置、及びプログラム | |
JP2005339363A (ja) | 人体パーツ自動分割装置及び人体パーツ自動分割方法 |