JP7372717B1 - プログラム、情報処理装置及び方法 - Google Patents

プログラム、情報処理装置及び方法 Download PDF

Info

Publication number
JP7372717B1
JP7372717B1 JP2023055234A JP2023055234A JP7372717B1 JP 7372717 B1 JP7372717 B1 JP 7372717B1 JP 2023055234 A JP2023055234 A JP 2023055234A JP 2023055234 A JP2023055234 A JP 2023055234A JP 7372717 B1 JP7372717 B1 JP 7372717B1
Authority
JP
Japan
Prior art keywords
person
screen
avatar
motion
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023055234A
Other languages
English (en)
Other versions
JP2024142869A (ja
Inventor
剛 川▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mirrorx
Original Assignee
Mirrorx
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mirrorx filed Critical Mirrorx
Priority to JP2023055234A priority Critical patent/JP7372717B1/ja
Application granted granted Critical
Publication of JP7372717B1 publication Critical patent/JP7372717B1/ja
Priority to PCT/JP2024/005902 priority patent/WO2024202706A1/ja
Publication of JP2024142869A publication Critical patent/JP2024142869A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】仮想空間上でユーザが違和感なく移動しているように体感させるための技術を提供する。【解決手段】アバターサービス提供システム1の端末装置10は、その機能として、動いている人物をカメラで撮影した撮影画像を取得するステップと、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップと、特定した骨格情報から、人物の動作を検出するステップと、画面上に、人物に対応するアバターを表示させるステップと、検出した人物の第1の動作に応じて、画面上に表示されているアバターが画面上における前後方向に移動しているように制御して、画面上に表示させるステップと、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されているアバターが画面上で移動する移動方向を変更しているように制御して、画面上に表示させるステップと、を実行させる。【選択図】図10

Description

特許法第30条第2項適用 https://www.xrkaigi.com/pages/future_pitch
特許法第30条第2項適用 https://mirrorx.jimdosite.com/%E3%81%8A%E7%9F%A5%E3%82%89%E3%81%9B/
特許法第30条第2項適用 https://apps.apple.com/jp/app/mirrorx/id1621968722
特許法第30条第2項適用 https://prtimes.jp/main/html/re/p/000000001.000114425.html
特許法第30条第2項適用 https://youtu.be/2oTwXA_ksZI
本開示は、プログラム、情報処理装置及び方法に関する。
昨今、スマートフォン等の携帯端末が備えるカメラを利用して人物を撮影し、仮想空間において撮影された人物に関連付けられたキャラクタであるアバターを表示し、仮想空間上で各種サービスを提供することが行われている。このようなサービスは、実際の人物の外観を表示させずに各種サービスを提供するため、当該人物の外観を不特定のユーザに晒すことなく各種サービスの提供を受けることが可能であるため、一定のユーザにより利用されている。
特許文献1には、ユーザーアカウントに関連したアバター情報および骨格情報に基づいて人物オブジェクトがアバターに代替された合成画像を生成する技術が開示されている。
特開2021-157800号公報
ところで、仮想空間において、携帯端末で撮影された人物のアバターをリアルタイムで表示し、人物の動きに合わせて仮想空間上でアバターを移動させることが行われている。このようにアバターを移動させることにより、仮想空間上でユーザに各種の疑似体験をさせるサービスが提供されている。
しかしながら、アバターに仮想空間を移動させようとして、実際にユーザが移動してしまうと、携帯端末で撮影可能な範囲から逸脱してしまうことが起こり得る。そのため、ユーザは実際には移動することなく、仮想空間上を移動しているようにユーザに体感させる手法が必要となっていた。
そこで、本開示では、仮想空間上でユーザが違和感なく移動しているように体感させるための技術について説明する。
本開示の一実施の形態によると、プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムが提供される。プログラムは、プロセッサに、動いている人物をカメラで撮影した撮影画像を取得するステップと、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップと、特定した骨格情報から、人物の動作を検出するステップと、画面上に、人物に対応するアバターを表示させるステップと、検出した人物の第1の動作に応じて、画面上に表示されているアバターが画面上における前方向に移動しているように制御して、画面上に表示させるステップと、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されているアバターが画面上で移動する移動方向を変更しているように制御して、画面上に表示させるステップと、を実行させる。
本開示によれば、撮影した人物の動作に応じて画面上に表示されているアバターが画面上における前方向に移動しているように表示させる。また、撮影した人物の動作に応じて画面上に表示されているアバターが画面上で移動する移動方向を変更しているように表示させる。これにより、仮想空間上でユーザが違和感なく移動しているように体感させることが可能になる。
本開示に係るアバターサービス提供システムの概略を示す構成図である。 実施の形態のアバターサービス提供システム1の全体の構成を示す構成図である。 本実施の形態のアバターサービス提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。 本実施の形態のアバターサービス提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。 本実施の形態のアバターサービス提供システム1によるユーザ認証処理を行う流れの一例を示すフローチャートである。 本実施の形態のアバターサービス提供システム1によるアバター表示処理を行う流れの一例を示すフローチャートである。 本実施の形態のアバターサービス提供システム1によるアバター移動制御処理を行う流れの一例を示すフローチャートである。 本実施の形態のアバターサービス提供システム1によるアバター方向変更制御処理を行う流れの一例を示すフローチャートである。 表示画面30に仮想空間VRとアバターAが表示された画面例を示す図である。 表示画面30に表示されたアバターAが前方向へ移動する画面例を示す図である。 表示画面30に表示されたアバターAが移動する方向を変更する画面例を示す図である。
以下、図面を参照しつつ、本開示の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称及び機能も同じである。従って、それらについての詳細な説明は繰り返さない。
<概要>
以下、本開示に係るアバターサービス提供システムについて説明する。このアバターサービス提供システムは、スマートフォン等の携帯端末が備えるカメラを利用して人物を撮影し、仮想空間において撮影された人物に関連付けられたキャラクタであるアバターを表示し、仮想空間上で各種サービスを提供するするためのシステムである。仮想空間上で提供される各種サービスとは、例えば、アバターをユーザの動きにより操作して行うゲームのようなエンターテインメント、複数のアバターをそれぞれのユーザの動きにより表示させて行うオンラインフィットネスサービス、複数のアバターによるコミュニケーションサービス等が挙げられる。本開示に係るアバターサービス提供システムは、このようなユーザを投影したアバターを介して行う各種サービスを、例えばWebサービスとして提供するシステムであり、クラウドサーバ等によりWebサービスとして、いわゆるSaaS(Software as a Service)によって提供されるシステムである。また、アバターサービス提供システムは、このようなユーザを投影したアバターを介して行う各種サービスを、例えばスマートフォン等の携帯端末によって(Webサーバを介してもよく、介さなくてもよい)提供されるシステムである。
図1は、本開示に係るアバターサービス提供システムの概略を示す構成図である。図1に示すように、アバターサービス提供システムは、スマートフォン等の端末装置10と、表示画面30とを含む。端末装置10は、スマートフォン、タブレット等の携帯端末である。表示画面30は、ディスプレイ、テレビジョン、プロジェクタ等の画像表示装置であり、一定の離れた位置で見ることが可能な大きさに構成されている。端末装置10のディスプレイ132には仮想空間が表示されており、端末装置10で人物Hを撮影すると、端末装置10のディスプレイ132に表示されている仮想空間上に、人物Hに関連付けられたキャラクタであるアバターAが表示される。また、表示画面30にも、仮想空間とアバターAが表示される。アバターAは、人物Hの身体の動きに対応して動くように構成されており、人物Hが移動する動きに対応してアバターAも仮想空間上を移動し、アバターAの動きにより各種サービスが提供される。さらに、アバターAの情報はWebサーバ等により共有されてもよく、共有されている複数のアバターAが表示画面30に表示されて各種サービスが提供されてもよい。
なお、このような仮想空間上には、アバターAを表示しないように構成してもよい。具体的には、ディスプレイ132及び表示画面30には、アバターAの視点からの仮想空間を表示する一人称視点(FPV:First person view)を表示し、仮想カメラの位置とアバターAの頭部とを一致させるように制御してもよい。このように制御することにより、ユーザの仮想空間への没入感を向上させることが可能になる。
ここで、端末装置10で人物Hの身体の動きを撮影して、人物Hの動きに合わせて仮想空間上でアバターを移動させようとすると、人物Hが実際に移動するため、端末装置10で撮影可能な範囲から逸脱してしまうことが起こり得る。例えば、人物Hが移動して端末装置10の撮影範囲から逸脱するたびに、人物Hが元の位置に戻るように構成すると、人物Hが何度も元の位置に戻る必要があるため、人物Hの仮想空間への没入感を損なわせ、人物Hにとって煩わしい動作が必要となる。
そのため、本開示に係るアバターサービス提供システムでは、人物Hの所定の動作(第1の動作)に応じて、画面上に表示されているアバターAが画面上における前方向に移動しているように表示させる。例えば、表示画面30に各種サービスを提供するための仮想空間を表示させ、人物Hの所定の動作(第1の動作)、具体的には人物Hが最初の位置から移動することなく、移動しているように体感させる動作に応じて、アバターAが画面上における前方向に移動しているように表示させる。これにより、アバターサービス提供システムの仮想空間上でユーザが違和感なく移動しているように体感させ、仮想空間への没入感を損なわせることのない各種サービスの提供を可能にしている。
また、本開示に係るアバターサービス提供システムでは、人物Hの所定の動作(第2の動作)に応じて、画面上に表示されているアバターAが画面上で移動する移動方向を変更しているように表示させる。例えば、表示画面30に各種サービスを提供するための仮想空間を表示させ、人物Hの所定の動作(第2の動作)、具体的には人物Hが最初の位置から移動することなく、移動方向を変更しているように体感させる動作に応じて、アバターAが画面上における移動方向を変更しているように表示させる。これにより、アバターサービス提供システムの仮想空間上でユーザが違和感なく移動しているように体感させ、仮想空間への没入感を損なわせることのない各種サービスの提供を可能にしている。
<実施の形態>
以下、アバターサービス提供システム1について説明する。以下の説明では、例えば、端末装置10がサーバ20へアクセスすることにより、サーバ20が、端末装置10で画面を生成するための情報を応答する。端末装置10は、サーバ20から受信した情報に基づいて画面を生成し表示する。
<1 アバターサービス提供システム1の全体構成>
図2は、アバターサービス提供システム1の全体の構成を示す構成図である。図2に示すように、アバターサービス提供システム1は、複数の端末装置(図2では、端末装置10A及び端末装置10Bを示している。以下、総称して「端末装置10」ということもある)と、サーバ20とを含む。端末装置10とサーバ20とは、ネットワーク80を介して相互に通信可能に接続されている。ネットワーク80は、有線または無線ネットワークにより構成される。
端末装置10は、各ユーザが操作する装置である。端末装置10は、移動体通信システムに対応したスマートフォン、タブレット等の携帯端末等により実現される。この他、端末装置10は、例えば持ち運び可能なノートPC(Personal Computer)、ラップトップPCであるとしてもよい。端末装置10を操作するユーザとは、アバターサービス提供システム1において仮想空間上にアバターを表示させて各種サービスの提供を受ける者であり、例えば、アバターサービス提供システム1に会員登録している者である。
端末装置10は、ネットワーク80を介してサーバ20と通信可能に接続される。端末装置10は、4G、5G、LTE(Long Term Evolution)等の通信規格に対応した無線基地局81、IEEE(Institute of Electrical and Electronics Engineers)802.11等の無線LAN(Local Area Network)規格に対応した無線LANルータ82等の通信機器と通信することにより、ネットワーク80に接続される。図2に端末装置10Bとして示すように、端末装置10は、通信IF(Interface)12と、入力装置13と、出力装置14と、メモリ15と、記憶部16と、プロセッサ19とを備える。
通信IF12は、端末装置10が外部の装置と通信するため、信号を入出力するためのインタフェースである。入力装置13は、ユーザからの入力操作を受け付けるための入力装置(例えば、タッチパネルや、タッチパッド、キーボード、マウス等のポインティングデバイス等)である。出力装置14は、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)である。メモリ15は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。記憶部16は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ19は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
サーバ20は、ユーザから各種サービスの提供を受けるための入力を受け付け、仮想空間上にアバターを表示して仮想空間上で各種サービスを提供するサービスをWebサービスとして配信して提供する装置である。なお、アバターサービス提供システム1は、端末装置10のみで各種サービスを提供してもよく、この場合、サーバ20は必須の構成ではない。
サーバ20は、ネットワーク80に接続されたコンピュータである。サーバ20は、通信IF22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備える。
通信IF22は、サーバ20が外部の装置と通信するため、信号を入出力するためのインタフェースである。入出力IF23は、ユーザからの入力操作を受け付けるための入力装置、及び、ユーザに対し情報を提示するための出力装置とのインタフェースとして機能する。メモリ25は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。ストレージ26は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)である。プロセッサ29は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路等により構成される。
<1.1 端末装置10の構成>
図3は、本実施の形態のアバターサービス提供システム1を構成する端末装置10の機能的な構成を示すブロック図である。図3に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130(タッチ・センシティブ・デバイス131及びディスプレイ132を含む)と、音声処理部140と、マイク141と、スピーカ142と、位置情報センサ150と、カメラ160と、記憶部170と、制御部180とを含む。端末装置10は、図3では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路等)も有している。図3に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。
アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。
第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理等を行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理等を行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路等を含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部180へ与える。
操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、タッチスクリーンとして構成され、タッチ・センシティブ・デバイス131と、ディスプレイ(画面)132とを含む。なお、操作受付部130は、例えばキーボードやマウス等により構成してもよい。
タッチ・センシティブ・デバイス131は、端末装置10のユーザの入力操作を受け付ける。タッチ・センシティブ・デバイス131は、例えば静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する。タッチ・センシティブ・デバイス131は、タッチパネルにより検出したユーザの接触位置を示す信号を入力操作として制御部180へ出力する。
ディスプレイ132は、制御部180の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。
音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部180へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
位置情報センサ150は、端末装置10の位置を検出するセンサであり、例えばGPS(Global Positioning System)モジュールである。GPSモジュールは、衛星測位システムで用いられる受信装置である。衛星測位システムでは、少なくとも3個または4個の衛星からの信号を受信し、受信した信号に基づいて、GPSモジュールが搭載される端末装置10の現在位置を検出する。
カメラ160は、受光素子により光を受光して、撮影画像として出力するためのデバイスである。カメラ160は、例えば、カメラ160から撮影対象までの距離を検出できる深度カメラである。
記憶部170は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータ及びプログラムを記憶する。ある局面において、記憶部170は、ユーザ情報171を記憶する。
ユーザ情報171は、端末装置10を使用してアバターサービス提供システム1の機能である、仮想空間上にアバターを表示させて各種サービスの提供を受けるユーザの情報である。ユーザの情報としては、ユーザを識別する情報(ユーザID)やパスワード、ユーザの氏名や名称、仮称等の情報、アバターの画像情報等が含まれる。
制御部180は、記憶部170に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部180は、例えば予め端末装置10にインストールされているアプリケーションである。制御部180は、プログラムに従って動作することにより、入力操作受付部181と、送受信部182と、通知制御部183と、データ処理部184としての機能を発揮する。
入力操作受付部181は、タッチ・センシティブ・デバイス131等の入力装置に対するユーザの入力操作を受け付ける処理を行う。入力操作受付部181は、タッチ・センシティブ・デバイス131に対してユーザが自己の指等を接触させた座標の情報に基づき、ユーザの操作がフリック操作であるか、タップ操作であるか、ドラッグ(スワイプ)操作であるか等の操作の種別を判定する。また、入力操作受付部181は、マイク141からのユーザの音声を受け付ける処理を行う。
送受信部182は、端末装置10が、サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。
通知制御部183は、ユーザに対し情報を提示する処理を行う。通知制御部183は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理、振動をカメラ160に発生させる処理等を行う。
データ処理部184は、端末装置10が入力を受け付けたデータに対し、プログラムに従って演算を行い、演算結果をメモリ等に出力する処理を行う。
また、データ処理部184は、端末装置10のプロセッサ19がプログラムに従って処理を行うことにより、各種モジュールとして、動いている人物をカメラで撮影した撮影画像を取得し、取得した撮影画像を解析して解析結果に基づき人物の骨格情報を特定し、特定した骨格情報から人物の動作を検出し、ディスプレイ132の画面上に、人物に対応するアバターを表示させ、検出した人物の第1の動作に応じて画面上に表示されているアバターが画面上における前方向に移動しているように制御して、画面上に表示させ、検出した人物の第2の動作に応じて画面上に表示されているアバターが画面上で移動する移動方向を変更しているように制御して、画面上に表示させる機能を発揮する。
<1.2 サーバ20の機能的な構成>
図4は、本実施の形態のアバターサービス提供システム1を構成するサーバ20の機能的な構成を示すブロック図である。図4に示すように、サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
通信部201は、サーバ20が外部の装置と通信するための処理を行う。
記憶部202は、サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、ユーザデータベース2021等を記憶する。
ユーザデータベース2021は、アバターサービス提供システム1において、仮想空間上にアバターを表示させて各種サービスの提供を受けるユーザに関する情報を保持するためのデータベースである。ユーザに関する情報としては、ユーザを識別する情報(ユーザID)やパスワード、ユーザの氏名や名称、仮称等の情報、アバターの画像情報等が含まれる。
制御部203は、サーバ20のプロセッサがプログラムに従って処理を行うことにより、各種モジュールとして受信制御モジュール2031、送信制御モジュール2032、ユーザ認証モジュール2033に示す機能を発揮する。
受信制御モジュール2031は、サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
送信制御モジュール2032は、サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理を制御する。
ユーザ認証モジュール2033は、サーバ20にアクセスするユーザが正当なユーザであることを認証する処理を制御する。ユーザ認証モジュール2033によるユーザの認証は、例えば、ユーザIDが登録されていること、当該ユーザIDのパスワードとして登録されているパスワードと同一のパスワードが入力されたこと、等により行われる。
<2 動作>
以下、図5ないし図7を参照しながら、第1の実施の形態におけるアバターサービス提供システム1によるユーザ認証処理、アバター表示処理、アバター移動制御処理、及びアバター方向変更制御処理について説明する。
図5は、本実施の形態のアバターサービス提供システム1によるユーザ認証処理を行う流れの一例を示すフローチャートである。なお、アバターサービス提供システム1は、端末装置10のみで各種サービスを提供してもよく、この場合、図5に示すユーザ認証処理は行わなくてもよい。
ステップS111において、端末装置10の入力操作受付部181は、ユーザの操作によりアバターサービス提供システム1の専用アプリケーションを起動する。送受信部182は、ユーザID、パスワード等のユーザの情報を、サーバ20へ送信する。送受信部182は、サーバ20から送信された、仮想空間上にアバターを表示させて各種サービスの提供を受けるための各種情報を受け付ける。通知制御部183は、受け付けた各種情報を、ディスプレイ132に表示させる。
ステップS121において、サーバ20のユーザ認証モジュール2033は、端末装置10から送信されたユーザの情報を、通信部201を介して受け付ける。サーバ20のユーザ認証モジュール2033は、受け付けたユーザの情報が正当なユーザからのものであることを認証する。サーバ20は、受け付けたユーザの情報が正当なものであると判定した場合、仮想空間上にアバターを表示させて各種サービスを提供するための各種情報を当該ユーザの端末装置10のディスプレイ132に表示させるため、端末装置10へ通信部201を介して送信する。
図6は、本実施の形態のアバターサービス提供システム1によるアバター表示処理を行う流れの一例を示すフローチャートである。
ステップS211において、端末装置10のデータ処理部184は、ユーザの操作により、動いている人物をカメラ160で撮影した撮影画像を取得する。例えば、データ処理部184は、図1に示すように、端末装置10がカメラ160のレンズ部分が人物Hの方向に向けられた状態で固定された状態で、アバターサービス提供システム1の専用アプリケーションにより人物Hを撮影した撮影画像、例えば動画を取得する。なお、このとき、人物Hを撮影する装置は端末装置10のカメラ160に限られず、外部装置としてのカメラであってもよく、例えば、LIDAR(Light Detection and Ranging)カメラ(センサ)、光学式または機械式(Inertial Measurement Unit)のモーションキャプチャシステム等であってもよい。端末装置10のデータ処理部184は、撮影画像を画像データとして記憶部170に記憶させる。
ステップS212において、端末装置10のデータ処理部184は、ステップS211で取得した撮影画像に基づく画像データを解析し、解析結果に基づき、撮影された人物の骨格情報を特定する。例えば、データ処理部184は、画像データの解析により、撮影画像の人物を、既知の画像認識技術を用いて身体の部位を特定し、それぞれの身体の部位を示す点の間を直線で結び、点と線で得られた情報を骨格情報とする。データ処理部184は、撮影画像における点の位置を撮影画像における座標の情報とする。この点は、例えば身体の関節部分に配置され、身体の動きに合わせて直線部分との角度を変更するように構成される。このような構成により、身体の動きを点と直線とで表現することを可能にしている。端末装置10のデータ処理部184は、特定した骨格情報を記憶部170に記憶させる。
ステップS213において、端末装置10のデータ処理部184は、ステップS212で特定した骨格情報から、撮影された人物の動作を検出する。例えば、データ処理部184は、画像データの解析により、撮影画像の人物の身体の部位を特定し、特定された身体の部位に配置された点の情報、例えば点の座標の情報を抽出し、人物の動作を検出する。このとき、データ処理部184は、人物の動作を、身体の部位に配置された点(座標)の移動情報として人物の動作を検出してもよく、例えば機械学習モデル等のアノテーションにより、当該人物の身体の移動情報から解釈される、当該人物の動作の情報(例えば、手を叩く、上半身を捻る、片手または両手を上げる、等)として人物の動作を検出してもよい。
ステップS214において、端末装置10のデータ処理部184は、端末装置10のディスプレイ132上に、人物に対応するアバターを表示させる。アバターは、撮影された人物(ユーザ)に関連付けられたキャラクタであり、当該人物の分身として、例えば仮想空間に表示されるキャラクタである。ここでアバターは、例えば人間を模したアニメーション画像やCG(Computer Graphics)上のキャラクタでもよく、人間以外の動物(想像上の動物でもよい)やロボット、その他のキャラクタでもよい。アバターの画像データは、記憶部170に記憶されたものである。また、端末装置10のデータ処理部184は、アバターを、ディスプレイ132に表示させると共に、図1に示すような表示画面30に表示させる。なお、このとき、データ処理部184は、各種サービスを提供するするための仮想空間を表示してもよく、アバターを含む仮想空間を表示することで各種サービスを提供してもよい。
以上のように、アバターサービス提供システム1では、画面上(仮想空間上)に、人物に対応するアバターを表示させる。
図7は、本実施の形態のアバターサービス提供システム1によるアバター移動制御処理を行う流れの例を示すフローチャートである。
ステップS311において、端末装置10のデータ処理部184は、ステップS213で検出した人物の動作が、人物の所定の動作(第1の動作)に該当することを検出する。ここで、人物の所定の動作(第1の動作)とは、例えば人物が最初に立っている位置から移動することなく、移動しているように体感させる動作であり、具体的には、人物による足を交互に上げる動作、いわゆる足踏み動作を含む。
このとき、ステップS311において端末装置10のデータ処理部184は、例えば、画像データの解析により、撮影画像の人物の膝の位置と腰の位置とを特定し、膝の位置と腰の位置との距離を推測する。そして、データ処理部184は、人物の膝の位置と腰の位置との距離が所定の値(実際の距離でもよく、人物の身体の大きさによる相対的な距離でもよい)以下である場合、足を上げる動作をしていると判定する。さらに、データ処理部184は、この足を上げる動作が両方の足により交互に行われると、第1の動作である足を交互に上げる動作をしていると判定してもよい。
ステップS312において、端末装置10のデータ処理部184は、ステップS311で検出した人物の動作が所定の動作(第1の動作)であることを検出すると、それに応じて、端末装置10のディスプレイ132上に表示されているアバターが画面上における前方向に移動しているように制御して、画面上に表示させる。このとき、データ処理部184は、人物の所定の動作(第1の動作)に応じて、アバターが仮想空間上における前方向に移動しているように制御してもよい。
以上のように、アバターサービス提供システム1では、人物の所定の動作(第1の動作)に応じて、アバターが画面上における前方向に移動しているように表示させる。これにより、アバターサービス提供システム1の仮想空間上でユーザが違和感なく移動しているように体感させ、仮想空間への没入感を損なわせることのない各種サービスの提供を可能にしている。
図8は、本実施の形態のアバターサービス提供システム1によるアバター方向変更制御処理を行う流れの例を示すフローチャートである。
ステップS411において、端末装置10のデータ処理部184は、ステップS213で検出した人物の動作が、人物の所定の動作(第2の動作)に該当することを検出する。ここで、人物の所定の動作(第2の動作)とは、例えば人物が最初に立っている位置から移動することなく、移動方向を変更しているように体感させる動作であり、具体的には、人物による上半身を捻る動作(上半身を水平方向に回転させる動作)を含む。
このとき、ステップS411において端末装置10のデータ処理部184は、例えば、画像データの解析により、撮影画像の人物の首の向きと腰の向きとを特定し、人物の首の向きと腰の向きとからなる水平方向の捻り角度を推測する。そして、データ処理部184は、人物の首の向きと腰の向きとからなる水平方向の捻り角度が所定の値以上である場合、第2の動作である上半身を捻る動作をしていると判定する。
ステップS412において、端末装置10のデータ処理部184は、ステップS411で検出した人物の動作が所定の動作(第2の動作)であることを検出すると、それに応じて、端末装置10のディスプレイ132上に表示されているアバターが画面上で移動する移動方向を変更しているように制御して、画面上に表示させる。このとき、データ処理部184は、人物の所定の動作(第2の動作)に応じて、アバターが仮想空間上における移動方向を変更しているように制御してもよい。
以上のように、アバターサービス提供システム1では、人物の所定の動作(第2の動作)に応じて、アバターが画面上における移動方向を変更しているように表示させる。これにより、アバターサービス提供システムの仮想空間上でユーザが違和感なく移動しているように体感させ、仮想空間への没入感を損なわせることのない各種サービスの提供を可能にしている。
<3 画面例>
以下、図9ないし図11を参照しながら、アバターサービス提供システム1におけるアバター移動の画面例について説明する。
図9は、表示画面30に仮想空間VRとアバターAが表示された画面例を示す図である。図9の画面例は、図1に示す表示画面30に、人物Hに関連付けられたキャラクタであるアバターAが、各種サービスを提供するための仮想空間VR内に表示された画面例を示す。図6のステップS214に相当する。
図9に示すように、表示画面30には、人物Hに関連付けられたキャラクタであるアバターAが表示されている。この状態で、人物Hが身体を動かすと、その動きに合わせてアバターAが動くように構成されている。例えば、人物Hが右手を上げる動作をすると、その動きに合わせてアバターAも右手を上げるように表示される。
図10は、表示画面30に表示されたアバターAが前方向へ移動する画面例を示す図である。図10の画面例は、ユーザが所定の動作(第1の動作)をしたことに応じて、図9に示す表示画面30に表示されているアバターAが画面上における前方向に移動しているように表示された状態の画面例を示す。図7のステップS312に相当する。
図10に示すように、人物Hは、所定の動作(第1の動作)として、自己の足F1,F2を交互に上げて足踏み動作をする。すると、撮影画像における人物Hの膝の位置と腰の位置との距離が推測される。人物Hの膝の位置と腰の位置との距離が所定の値以下である場合、人物Hが足を上げる動作をしていると判定される。さらに、人物Hが自己の足F1,F2を交互に上げていると判定されると、人物Hが第1の動作である足を交互に上げる動作をしていると判定される。なお、このとき、人物Hが自己の足F1,F2を交互に上げて足踏み動作をする動作に代えて、人物Hが所定の動作(第1の動作)として腕を交互に振る動作をし、アバターAを画面上における前方向に移動するように制御してもよい。この制御により、足を動かすことが困難なユーザにも対応可能である。
すると、図10に示すように、表示画面30に表示されているアバターAの足F3,F4が交互に移動し、アバターAが歩いているような(自然な)状態で表示される。そして、アバターAが仮想空間VR内を矢印L1方向、すなわち前方向に移動しているように表示される。このとき、人物Hが足F1,F2を交互に上げている動作と、アバターAが足F3,F4を交互に移動する動作とは対応している。また、例えば、人物Hが膝の位置を高く上げるように動作すると、その高さに応じて仮想空間におけるアバターAの歩幅が広がり、高速で移動しているように制御する。これにより、アバターサービス提供システム1の仮想空間VR上で、人物Hが違和感なく移動しているように体感させることを可能にしている。
図11は、表示画面30に表示されたアバターAが移動する方向を変更する画面例を示す図である。図11の画面例は、ユーザが所定の動作(第2の動作)をしたことに応じて、図9に示す表示画面30に表示されているアバターAが画面上で移動する移動方向を変更しているように表示された状態の画面例を示す。図8のステップS412に相当する。
図11に示すように、人物Hは、所定の動作(第2の動作)として、自己の上半身を矢印L2方向へ捻る動作(上半身を水平方向に回転させる動作)をする。すると、撮影画像における人物Hの首の向きと腰の向きとからなる水平方向の捻り角度が推測される。人物Hの首の向きと腰の向きとからなる水平方向の捻り角度が所定の値以上である場合、人物Hが第2の動作である上半身を捻る動作をしていると判定される。
すると、図11に示すように、表示画面30に表示されているアバターAの向きが変更され、矢印L3方向に移動する方向が変更されているように表示される。このとき、人物Hが上半身を捻る角度と、アバターAが移動する方向を変更する、正面方向からの角度とは対応している。この状態で、人物Hが足F1,F2を交互に上げる動作を行うと、アバターAは矢印L3方向に移動する。なお、人物Hが自己の上半身を捻る動作をし続けると、アバターAの向きが回転し、360°回転する。これにより、アバターサービス提供システム1の仮想空間VR上で、人物Hが違和感なく移動しているように体感させることを可能にしている。
<小括>
以上のように、本実施の形態によると、人物の所定の動作(第1の動作)に応じて、アバターが画面上における前方向に移動しているように表示させる。これにより、アバターサービス提供システム1の仮想空間上でユーザが違和感なく移動しているように体感させ、仮想空間への没入感を損なわせることのない各種サービスの提供を可能にしている。
また、本実施の形態によると、人物の所定の動作(第2の動作)に応じて、アバターが画面上における移動方向を変更しているように表示させる。これにより、アバターサービス提供システムの仮想空間上でユーザが違和感なく移動しているように体感させ、仮想空間への没入感を損なわせることのない各種サービスの提供を可能にしている。
以上、開示に係る実施の形態について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換及び変更を行なって実施することができる。これらの実施の形態及び変形例ならびに省略、置換及び変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。
<付記>
以上の各実施の形態で説明した事項を、以下に付記する。
(付記1)プロセッサ29と、メモリ25とを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、プログラムは、プロセッサ29に、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から、人物の動作を検出するステップ(S213)と、画面上に、人物に対応するアバターを表示させるステップ(S214)と、検出した人物の第1の動作に応じて、画面上に表示されているアバターが画面上における前方向に移動しているように制御して、画面上に表示させるステップ(S311,S312)と、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されているアバターが画面上で移動する移動方向を変更しているように制御して、画面上に表示させるステップ(S411,S412)と、を実行させる、プログラム。
(付記2)画面上にアバターを表示させるステップにおいて、画面上に、アバターを含む仮想空間を表示させ、アバターが画面上における前方向に移動しているように表示させるステップにおいて、第1の動作に応じて、アバターが仮想空間上における前方向に移動しているように制御し、アバターが画面上で移動する移動方向を変更しているように表示させるステップにおいて、第2の動作に応じて、アバターが仮想空間上で移動する移動方向を変更しているように制御する、(付記1)に記載のプログラム。
(付記3)第1の動作は、人物による足を交互に上げる動作、及び腕を交互に振る動作を含む、(付記1)または(付記2)に記載のプログラム。
(付記4)人物の動作を検出するステップにおいて、人物の膝の位置と腰の位置との距離を推測して当該距離が所定の値以下である場合、人物による第1の動作を検出する、(付記3)に記載のプログラム。
(付記5)第2の動作は、前記人物による上半身を捻る動作を含む、(付記1)または(付記2)に記載のプログラム。
(付記6)人物の動作を検出するステップにおいて、人物の首の向きと腰の向きとからなる水平方向の捻り角度を推測して当該角度が所定の値以上である場合、人物による第2の動作を検出する、(付記5)に記載のプログラム。
(付記7)制御部180と、記憶部170とを備え、画面上に表示させる画像を生成する情報処理装置であって、制御部180は、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から、人物の動作を検出するステップ(S213)と、画面上に、人物に対応するアバターを表示させるステップ(S214)と、検出した人物の第1の動作に応じて、画面上に表示されているアバターが画面上における前方向に移動しているように制御して、画面上に表示させるステップ(S311,S312)と、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されているアバターが画面上で移動する移動方向を変更しているように制御して、画面上に表示させるステップ(S411,S412)と、を実行する、情報処理装置。
(付記8)プロセッサ29と、メモリ25とを備えるコンピュータにより実行され、画面上に表示させる画像を生成するための方法であって、方法は、プロセッサ29が、動いている人物をカメラで撮影した撮影画像を取得するステップ(S211)と、取得した撮影画像を解析し、解析結果に基づき人物の骨格情報を特定するステップ(S212)と、特定した骨格情報から、人物の動作を検出するステップ(S213)と、画面上に、人物に対応するアバターを表示させるステップ(S214)と、検出した人物の第1の動作に応じて、画面上に表示されているアバターが画面上における前方向に移動しているように制御して、画面上に表示させるステップ(S311,S312)と、検出した人物の、第1の動作とは異なる第2の動作に応じて、画面上に表示されているアバターが画面上で移動する移動方向を変更しているように制御して、画面上に表示させるステップ(S411,S412)と、を実行する、方法。
1 :アバターサービス提供システム
10 :端末装置
10A :端末装置
10B :端末装置
13 :入力装置
14 :出力装置
15 :メモリ
16 :記憶部
19 :プロセッサ
20 :サーバ
25 :メモリ
26 :ストレージ
29 :プロセッサ
30 :表示画面
80 :ネットワーク
81 :無線基地局
82 :無線LANルータ
111 :アンテナ
112 :アンテナ
121 :第1無線通信部
122 :第2無線通信部
130 :操作受付部
131 :デバイス
132 :ディスプレイ
140 :音声処理部
141 :マイク
142 :スピーカ
150 :位置情報センサ
160 :カメラ
170 :記憶部
171 :ユーザ情報
180 :制御部
181 :入力操作受付部
182 :送受信部
183 :通知制御部
184 :データ処理部
201 :通信部
202 :記憶部
203 :制御部
2021 :ユーザデータベース
2031 :受信制御モジュール
2032 :送信制御モジュール
2033 :ユーザ認証モジュール
A :アバター
H :人物
VR :仮想空間

Claims (8)

  1. プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、
    前記プログラムは、前記プロセッサに、
    動いている人物をカメラで撮影した撮影画像を取得するステップと、
    取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
    特定した前記骨格情報から、前記人物の動作を検出するステップと、
    前記画面上に、前記人物に対応するアバターを表示させるステップと、
    検出した前記人物の第1の動作に応じて、前記画面上に表示されている前記アバターが前記画面上における前方向に移動しているように制御して、前記画面上に表示させるステップと、
    検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記アバターが前記画面上で移動する移動方向を変更しているように制御して、前記画面上に表示させるステップと、を実行させ、
    前記人物の動作を検出するステップにおいて、前記人物の膝の位置と腰の位置との距離を推測して当該距離が所定の値以下である場合、前記人物が足を上げる動作をしていると判定し、前記人物が足を上げる動作を交互にしている場合、前記人物による前記第1の動作を検出し、
    前記人物の膝の位置の高さに応じて、前記アバターの歩幅を制御する、プログラム。
  2. プロセッサと、メモリとを備えるコンピュータに実行させ、画面上に表示させる画像を生成するためのプログラムであって、
    前記プログラムは、前記プロセッサに、
    動いている人物をカメラで撮影した撮影画像を取得するステップと、
    取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
    特定した前記骨格情報から、前記人物の動作を検出するステップと、
    前記画面上に、前記人物に対応するアバターを表示させるステップと、
    検出した前記人物の第1の動作に応じて、前記画面上に表示されている前記アバターが前記画面上における前方向に移動しているように制御して、前記画面上に表示させるステップと、
    検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記アバターが前記画面上で移動する移動方向を変更しているように制御して、前記画面上に表示させるステップと、を実行させ、
    前記第2の動作は、前記人物による上半身を捻る動作を含み、
    前記人物の動作を検出するステップにおいて、前記人物の首の向きと腰の向きとからなる水平方向の捻り角度を推測して当該角度が所定の値以上である場合、前記人物による前記第2の動作を検出する、プログラム。
  3. 前記画面上に前記アバターを表示させるステップにおいて、前記画面上に、前記アバターを含む仮想空間を表示させ、
    前記アバターが前記画面上における前方向に移動しているように表示させるステップにおいて、前記第1の動作に応じて、前記アバターが前記仮想空間上における前方向に移動しているように制御し、
    前記アバターが前記画面上で移動する移動方向を変更しているように表示させるステップにおいて、前記第2の動作に応じて、前記アバターが前記仮想空間上で移動する移動方向を変更しているように制御する、請求項1または請求項2に記載のプログラム。
  4. 前記第1の動作は、前記人物による足を交互に上げる動作、及び腕を交互に振る動作を含む、請求項1または請求項2に記載のプログラム。
  5. 制御部と、記憶部とを備え、画面上に表示させる画像を生成する情報処理装置であって、
    前記制御部は、
    動いている人物をカメラで撮影した撮影画像を取得するステップと、
    取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
    特定した前記骨格情報から、前記人物の動作を検出するステップと、
    前記画面上に、前記人物に対応するアバターを表示させるステップと、
    検出した前記人物の第1の動作に応じて、前記画面上に表示されている前記アバターが前記画面上における前方向に移動しているように制御して、前記画面上に表示させるステップと、
    検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記アバターが前記画面上で移動する移動方向を変更しているように制御して、前記画面上に表示させるステップと、を実行し、
    前記人物の動作を検出するステップにおいて、前記人物の膝の位置と腰の位置との距離を推測して当該距離が所定の値以下である場合、前記人物が足を上げる動作をしていると判定し、前記人物が足を上げる動作を交互にしている場合、前記人物による前記第1の動作を検出し、
    前記人物の膝の位置の高さに応じて、前記アバターの歩幅を制御する、情報処理装置。
  6. 制御部と、記憶部とを備え、画面上に表示させる画像を生成する情報処理装置であって、
    前記制御部は、
    動いている人物をカメラで撮影した撮影画像を取得するステップと、
    取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
    特定した前記骨格情報から、前記人物の動作を検出するステップと、
    前記画面上に、前記人物に対応するアバターを表示させるステップと、
    検出した前記人物の第1の動作に応じて、前記画面上に表示されている前記アバターが前記画面上における前方向に移動しているように制御して、前記画面上に表示させるステップと、
    検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記アバターが前記画面上で移動する移動方向を変更しているように制御して、前記画面上に表示させるステップと、を実行し、
    前記第2の動作は、前記人物による上半身を捻る動作を含み、
    前記人物の動作を検出するステップにおいて、前記人物の首の向きと腰の向きとからなる水平方向の捻り角度を推測して当該角度が所定の値以上である場合、前記人物による前記第2の動作を検出する、情報処理装置。
  7. プロセッサと、メモリとを備えるコンピュータに実行され、画面上に表示させる画像を生成するための方法であって、
    前記方法は、前記プロセッサが、
    動いている人物をカメラで撮影した撮影画像を取得するステップと、
    取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
    特定した前記骨格情報から、前記人物の動作を検出するステップと、
    前記画面上に、前記人物に対応するアバターを表示させるステップと、
    検出した前記人物の第1の動作に応じて、前記画面上に表示されている前記アバターが前記画面上における前方向に移動しているように制御して、前記画面上に表示させるステップと、
    検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記アバターが前記画面上で移動する移動方向を変更しているように制御して、前記画面上に表示させるステップと、を実行し、
    前記人物の動作を検出するステップにおいて、前記人物の膝の位置と腰の位置との距離を推測して当該距離が所定の値以下である場合、前記人物が足を上げる動作をしていると判定し、前記人物が足を上げる動作を交互にしている場合、前記人物による前記第1の動作を検出し、
    前記人物の膝の位置の高さに応じて、前記アバターの歩幅を制御する、方法。
  8. プロセッサと、メモリとを備えるコンピュータに実行され、画面上に表示させる画像を生成するための方法であって、
    前記方法は、前記プロセッサが、
    動いている人物をカメラで撮影した撮影画像を取得するステップと、
    取得した前記撮影画像を解析し、解析結果に基づき前記人物の骨格情報を特定するステップと、
    特定した前記骨格情報から、前記人物の動作を検出するステップと、
    前記画面上に、前記人物に対応するアバターを表示させるステップと、
    検出した前記人物の第1の動作に応じて、前記画面上に表示されている前記アバターが前記画面上における前方向に移動しているように制御して、前記画面上に表示させるステップと、
    検出した前記人物の、前記第1の動作とは異なる第2の動作に応じて、前記画面上に表示されている前記アバターが前記画面上で移動する移動方向を変更しているように制御して、前記画面上に表示させるステップと、を実行し、
    前記第2の動作は、前記人物による上半身を捻る動作を含み、
    前記人物の動作を検出するステップにおいて、前記人物の首の向きと腰の向きとからなる水平方向の捻り角度を推測して当該角度が所定の値以上である場合、前記人物による前記第2の動作を検出する、方法。
JP2023055234A 2023-03-30 2023-03-30 プログラム、情報処理装置及び方法 Active JP7372717B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023055234A JP7372717B1 (ja) 2023-03-30 2023-03-30 プログラム、情報処理装置及び方法
PCT/JP2024/005902 WO2024202706A1 (ja) 2023-03-30 2024-02-20 プログラム、情報処理装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023055234A JP7372717B1 (ja) 2023-03-30 2023-03-30 プログラム、情報処理装置及び方法

Publications (2)

Publication Number Publication Date
JP7372717B1 true JP7372717B1 (ja) 2023-11-01
JP2024142869A JP2024142869A (ja) 2024-10-11

Family

ID=88510004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023055234A Active JP7372717B1 (ja) 2023-03-30 2023-03-30 プログラム、情報処理装置及び方法

Country Status (2)

Country Link
JP (1) JP7372717B1 (ja)
WO (1) WO2024202706A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334443A (ja) * 2006-06-12 2007-12-27 Kyushu Institute Of Technology アバター動作制御システム、そのプログラム及び方法
JP2014510336A (ja) * 2011-02-11 2014-04-24 得鋒 黄 ヒューマンコンピュータインタラクションの制御方法及びその運用
JP2022187952A (ja) * 2021-06-08 2022-12-20 三菱ケミカルグループ株式会社 プログラム、方法、情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334443A (ja) * 2006-06-12 2007-12-27 Kyushu Institute Of Technology アバター動作制御システム、そのプログラム及び方法
JP2014510336A (ja) * 2011-02-11 2014-04-24 得鋒 黄 ヒューマンコンピュータインタラクションの制御方法及びその運用
JP2022187952A (ja) * 2021-06-08 2022-12-20 三菱ケミカルグループ株式会社 プログラム、方法、情報処理装置

Also Published As

Publication number Publication date
JP2024142869A (ja) 2024-10-11
WO2024202706A1 (ja) 2024-10-03

Similar Documents

Publication Publication Date Title
US20210150806A1 (en) 3d body model generation
US11615592B2 (en) Side-by-side character animation from realtime 3D body motion capture
CN109284445B (zh) 网络资源的推荐方法、装置、服务器及存储介质
EP3671549B1 (en) Electronic device for assisting a user during exercise
CN112581571B (zh) 虚拟形象模型的控制方法、装置、电子设备及存储介质
US20220358662A1 (en) Image generation method and device
JP2021531589A (ja) 目標対象の動作認識方法、装置及び電子機器
CN112711335B (zh) 虚拟环境画面的显示方法、装置、设备及存储介质
CN113289327A (zh) 移动终端的显示控制方法及装置、存储介质及电子设备
US20160266661A1 (en) Spatial motion-based user interactivity
WO2017061890A1 (en) Wireless full body motion control sensor
KR102665456B1 (ko) 2차원 이미지에 기초한 3차원 가상 의류 착용방법 및 그 시스템
WO2024131479A1 (zh) 虚拟环境的显示方法、装置、可穿戴电子设备及存储介质
WO2024073675A1 (en) Mixed reality media content
JP7372717B1 (ja) プログラム、情報処理装置及び方法
JP7386583B1 (ja) プログラム、情報処理装置及び方法
JP7182324B1 (ja) プログラム、情報処理装置及び方法
CN112084041A (zh) 资源处理方法、装置、电子设备及存储介质
CN114004922B (zh) 骨骼动画显示方法、装置、设备、介质及计算机程序产品
JP7373090B1 (ja) 情報処理システム、情報処理装置、プログラム及び情報処理方法
KR102167066B1 (ko) 모션 인식 기반의 에어팬을 이용한 특수 효과 제공 시스템 및 그 방법
US12118148B1 (en) EMG-based speech detection and communication
US20240355059A1 (en) Scannable codes as landmarks for augmented-reality content
KR20240109157A (ko) 가상 공간에서 컨텐츠를 제공하는 전자 장치 및 그 방법
KR20230081695A (ko) 증강현실 제공 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230512

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20230421

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230512

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231013

R150 Certificate of patent or registration of utility model

Ref document number: 7372717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150