JP2017188020A - モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム - Google Patents
モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム Download PDFInfo
- Publication number
- JP2017188020A JP2017188020A JP2016078072A JP2016078072A JP2017188020A JP 2017188020 A JP2017188020 A JP 2017188020A JP 2016078072 A JP2016078072 A JP 2016078072A JP 2016078072 A JP2016078072 A JP 2016078072A JP 2017188020 A JP2017188020 A JP 2017188020A
- Authority
- JP
- Japan
- Prior art keywords
- data
- part data
- modeling
- avatar
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
【解決手段】各パーツデータの動作に関する情報を動作制御データとして取得し、特定のパーツデータの移動量を評価し、この評価された移動量に応じて、パーツデータの大きさや、仮想空間上におけるカメラ視点の撮影設定を変更し、変更されたパーツデータ又は撮影設定でアバターを出力する。この際、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、特定のパーツデータを選択し、その移動量を評価する。
【選択図】 図1
Description
上記課題を解決するために、本発明は、仮想空間上において、複数のパーツデータで構成されたアバターに関するモデリングデータを動作させるモデリング制御システムであって、
前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析部と、
前記動作解析部が評価した移動量に応じて、前記パーツデータの大きさを変更する強調処理部と、
前記強調処理部により大きさが変更されたパーツデータを含む前記複数のパーツデータで構成されたアバターを出力する出力部と
を備え、
前記動作解析部は、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価することを特徴とする。
前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析部と、
前記動作解析部が評価した移動量に応じて、前記仮想空間上における前記アバターに対するカメラ視点又は撮影設定を変更する強調処理部と、
前記強調処理部により撮影設定が変更されたカメラ視点において前記アバターを仮想的に撮影した映像を出力する出力部と
を備え、
前記動作解析部は、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価することを特徴とする。
さらに、本発明は、仮想空間上において、複数のパーツデータで構成されたアバターに関するモデリングデータを動作させるモデリング制御方法であって、
動作解析部が、前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析ステップと、
強調処理部が、前記動作解析ステップにより評価された移動量に応じて、前記パーツデータの大きさを変更する強調処理ステップと、
出力部が、前記強調処理ステップにより大きさが変更されたパーツデータを含む前記複数のパーツデータで構成されたアバターを出力する出力ステップと
を含み、
前記動作解析ステップでは、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価する
ことを特徴とする。
動作解析部が、前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析ステップと、
強調処理部が、前記動作解析ステップにより評価された移動量に応じて、前記仮想空間上における前記アバターに対するカメラ視点又は撮影設定を変更する強調処理ステップと、
出力部が、前記強調処理ステップにより撮影設定が変更されたカメラ視点において前記アバターを仮想的に撮影した映像を出力する出力ステップと
を含み、
前記動作解析ステップでは、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価する
ことを特徴とする。
さらに、本発明は、仮想空間上において、複数のパーツデータで構成されたアバターに関するモデリングデータを動作させるモデリング制御プログラムであって、コンピューターを、
前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析部と、
前記動作解析部が評価した移動量に応じて、前記パーツデータの大きさを変更する強調処理部と、
前記強調処理部により大きさが変更されたパーツデータを含む前記複数のパーツデータで構成されたアバターを出力する出力部として機能させ、
前記動作解析部は、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価することを特徴とする。
前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析部と、
前記動作解析部が評価した移動量に応じて、前記仮想空間上における前記アバターに対するカメラ視点又は撮影設定を変更する強調処理部と、
前記強調処理部により撮影設定が変更されたカメラ視点において前記アバターを仮想的に撮影した映像を出力する出力部として機能させ、
前記動作解析部は、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価することを特徴とする。
本実施形態に係るモデリング制御システムは、パーソナルコンピューターやサーバー装置などの汎用コンピューターに、本実施形態に係るモデリング制御プログラムをインストールし、実行することにより実現される。
パーツデータは、人体の身体各部(本実施形態では頭部を除く。)のボーンデータ周囲の外表面を形作るスキンデータの他、人体やキャラクターの頭部や目などのボーンデータとの直接的な関係を有しないポリゴンデータなどが、相対位置関係に従ってグループ化され、グループ毎にアバターの部位としてまとめられたデータセットの1要素であり、仮想空間上において一塊のオブジェクトとして扱われる。なお、本実施形態のモデリングデータは、頭部や目などのパーツの他、上記身体のスキンデータも、すべてポリゴンデータで構成される。
ボーンデータは、仮想空間上における所定の2点により定義され所定の長さを有し、アバターの骨となるデータであり、図3に示すように、複数のボーンデータB1〜242が複数連結されてアバターの骨格となるスケルトンデータが構成される。ボーンデータにはその端における関節に相当するジョイントデータが含まれ、このジョイントデータにより、連結されたボーンの主従関係が決められ、従属するボーンの、親のボーンに対する相対移動範囲が規定される。
スキンデータは、本実施形態では、主に身体パーツのように、一つ又は複数のボーンデータに対して関連づけられて、オブジェクト(パーツ、アバター自身が含まれる)の外表面を定義するポリゴンデータである。具体的には、多数の頂点座標により定義された多面形状をなすポリゴンデータであり、各頂点座標は、所定のボーンデータに対する相対的位置関係や、相対移動範囲が規定されている。
形状規制データには、各ボーンデータに関連づけられたスキンデータに対する影響度を定義するウェイトデータ(Skin_Weightデータ)と、又は頭部や目などのようにボーンデータに直接的には関連づけられていないが、間接的に動作が規定されるパーツデータの動作に関する情報(Blend_Shapeデータ)とが含まれる。Skin_Weightデータは、主にアバターの身体の動きを制御するためのデータであり、Blend_Shapeデータは、顔部分や顔に付随する各パーツの動きを制御するためのデータである。このような形状規制データは、パーツデータとともに、相互の位置関係に基づいた階層構造に従ってデータセットに格納又は関連づけされ、モデリングデータを構成する。
動作制御データは、モデリングデータを動作させて、ポーズを付けたり、アクションを付けたりしてアニメーションを作成するためのスクリプトデータであり、モデリングデータ中の各ボーンデータ相互の相対位置や、仮想空間上の座標位置などの変位を時系列順に記述している。この動作制御データに記述されたスクリプトに従って、ボーンデータの相対位置及び座標位置が時系列順に変化され、このボーンデータの変化に応じて、各パーツのスキンデータが形状規制データのウェイトデータに従って移動・変形される。これにより、アバターのモデリングデータが、アニメーションのコマ(フレーム)毎にポージングされ、各コマを連続的に再生することによりアバターがアクションするアニメーションが生成される。
図4及び図5は、本実施形態に係る情報処理端末の概略構成、及びアプリケーション実行部14上に構築される機能モジュールを示す図である。本実施形態において、モデリングシステムは、仮想空間上において所定の立体的形状が定義されたアバターに関するモデリングデータを、動作制御するシステムであり、パーソナルコンピューター等の情報処理端末1上で、本発明のモデリング制御プログラムを実行することにより、CPU上に各機能モジュールが仮想的に構築される。
差分の値 × 体部位再現図における重み × EmotionIntention(感情意図値) (1)
なお、上式においてEmotionIntentionは、表現されている感情の程度を表す補正値であり、強調処理の強弱を調整するための補正値である。この補正値は、デフォルトで1.0に設定しておき、特に強弱を調整したい場合に設定することができ、例えば、「とても起こっているとき」に2.0と設定したり、「あまり起こっていないとき・ふざけているとき」には0.2と設定することができる。
なお、本実施形態のモデリング制御プログラムは、情報処理端末の他、Webサーバー等のサーバーコンピューターにインストールし、サーバー上で実行することにより、上述した各機能を有するモデリング制御システムを、通信ネットワークを通じて利用可能に構築することができる。また、このモデリング制御プログラムは、例えば、通信回線を通じて配布することが可能であり、またパッケージアプリケーションとして譲渡することができる。そして、このようなモデリング制御プログラムは、パーソナルコンピューターで読み取り可能な記録媒体に記録することができ、汎用のコンピューターや専用コンピューターを用いて、上述したモデリング制御システム及びモデリング制御方法を実施することが可能となるとともに、モデリング制御プログラムの保存、運搬及びインストールを容易に行うことができる。
以上説明した構成を備えたモデリング動作制御システムによるモデリング制御方法について説明する。図6は、本実施形態に係るモデリング制御方法の手順を示すフローチャート図である。
以上説明した本実施形態によれば、ホムンクルス等の体部位再現に従って、手や顔、目、口などの特定のパーツデータを選択し、その移動量を評価し、算出した移動量に応じて、パーツデータの大きさを変更したり、仮想空間上におけるカメラ視点の撮影設定を変更することによって、視覚的な強調処理を行うことができる。
R1,R2…体部位再現の面積
B1〜242…ボーンデータ
D1…モデリングデータ
D2…動作制御データ
D3…シーンデータ
P1…頭部パーツ
P11…頭髪パーツ
P13…目パーツ
P2…身体パーツ
P3…装飾パーツ
1…情報処理端末
11…通信インターフェース
12…入力インターフェース
13…出力インターフェース
13a…表示部
14…アプリケーション実行部
15…記憶部
100…階層構造
141…モデリング編集部
141a…パーツ選択部
141b…パーツ編集部
141c…パーツ交換部
142…モーション処理部
142a…アニメーション生成部
142b…動作解析部
142c…強調処理部
142d…レンダリング部
151…モデリングデータベース
152…動作制御データベース
Claims (6)
- 仮想空間上において、複数のパーツデータで構成されたアバターに関するモデリングデータを動作させるモデリング制御システムであって、
前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析部と、
前記動作解析部が評価した移動量に応じて、前記パーツデータの大きさを変更する強調処理部と、
前記強調処理部により大きさが変更されたパーツデータを含む前記複数のパーツデータで構成されたアバターを出力する出力部と
を備え、
前記動作解析部は、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価することを特徴とするモデリング制御システム。 - 仮想空間上において、複数のパーツデータで構成されたアバターに関するモデリングデータを動作させるモデリング制御システムであって、
前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析部と、
前記動作解析部が評価した移動量に応じて、前記仮想空間上における前記アバターに対するカメラ視点又は撮影設定を変更する強調処理部と、
前記強調処理部により撮影設定が変更されたカメラ視点において前記アバターを仮想的に撮影した映像を出力する出力部と
を備え、
前記動作解析部は、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価することを特徴とするモデリング制御システム。 - 仮想空間上において、複数のパーツデータで構成されたアバターに関するモデリングデータを動作させるモデリング制御方法であって、
動作解析部が、前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析ステップと、
強調処理部が、前記動作解析ステップにより評価された移動量に応じて、前記パーツデータの大きさを変更する強調処理ステップと、
出力部が、前記強調処理ステップにより大きさが変更されたパーツデータを含む前記複数のパーツデータで構成されたアバターを出力する出力ステップと
を含み、
前記動作解析ステップでは、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価する
ことを特徴とするモデリング制御方法。 - 仮想空間上において、複数のパーツデータで構成されたアバターに関するモデリングデータを動作させるモデリング制御方法であって、
動作解析部が、前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析ステップと、
強調処理部が、前記動作解析ステップにより評価された移動量に応じて、前記仮想空間上における前記アバターに対するカメラ視点又は撮影設定を変更する強調処理ステップと、
出力部が、前記強調処理ステップにより撮影設定が変更されたカメラ視点において前記アバターを仮想的に撮影した映像を出力する出力ステップと
を含み、
前記動作解析ステップでは、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価する
ことを特徴とするモデリング制御方法。 - 仮想空間上において、複数のパーツデータで構成されたアバターに関するモデリングデータを動作させるモデリング制御プログラムであって、コンピューターを、
前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析部と、
前記動作解析部が評価した移動量に応じて、前記パーツデータの大きさを変更する強調処理部と、
前記強調処理部により大きさが変更されたパーツデータを含む前記複数のパーツデータで構成されたアバターを出力する出力部として機能させ、
前記動作解析部は、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価することを特徴とするモデリング制御プログラム。 - 仮想空間上において、複数のパーツデータで構成されたアバターに関するモデリングデータを動作させるモデリング制御プログラムであって、コンピューターを、
前記各パーツデータの動作に関する情報を動作制御データとして取得し、特定の前記パーツデータの移動量を評価する動作解析部と、
前記動作解析部が評価した移動量に応じて、前記仮想空間上における前記アバターに対するカメラ視点又は撮影設定を変更する強調処理部と、
前記強調処理部により撮影設定が変更されたカメラ視点において前記アバターを仮想的に撮影した映像を出力する出力部として機能させ、
前記動作解析部は、人間の脳の体性感覚に関わる領域である体性感覚野における、身体を構成する特定の体部位から来る体性感覚の区分の面積割り当て、又は体性感覚の密度に応じて、前記パーツデータを選択し、その移動量を評価することを特徴とするモデリング制御プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016078072A JP6574401B2 (ja) | 2016-04-08 | 2016-04-08 | モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム |
PCT/JP2016/087731 WO2017175423A1 (ja) | 2016-04-08 | 2016-12-19 | モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016078072A JP6574401B2 (ja) | 2016-04-08 | 2016-04-08 | モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017188020A true JP2017188020A (ja) | 2017-10-12 |
JP6574401B2 JP6574401B2 (ja) | 2019-09-11 |
Family
ID=60000290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016078072A Active JP6574401B2 (ja) | 2016-04-08 | 2016-04-08 | モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6574401B2 (ja) |
WO (1) | WO2017175423A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190048507A (ko) * | 2017-10-31 | 2019-05-09 | 에스케이텔레콤 주식회사 | 3차원 메쉬 데이터 간소화 방법 및 장치 |
JP2020047237A (ja) * | 2018-09-19 | 2020-03-26 | 未來市股▲ふん▼有限公司 | データ融合を用いた顔表情生成の方法 |
KR20200087338A (ko) * | 2018-12-31 | 2020-07-21 | 한국과학기술연구원 | 행동 인식 학습용 동적 데이터베이스 구축 장치 및 방법 |
KR20210047423A (ko) * | 2019-10-21 | 2021-04-30 | 제주대학교 산학협력단 | 차량 소프트웨어 정의 네트워킹에서 확장 칼만필터를 이용하는 차량 궤적 예측시스템 및 그 방법, 그 방법을 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체 |
US20230005206A1 (en) * | 2020-03-20 | 2023-01-05 | LINE Plus Corporation | Method and system for representing avatar following motion of user in virtual space |
WO2024069944A1 (ja) * | 2022-09-30 | 2024-04-04 | 株式会社Vrc | 情報処理装置、情報処理方法、及びプログラム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533761B (zh) * | 2018-05-23 | 2024-01-12 | 华硕电脑股份有限公司 | 影像显示方法、电子装置及非瞬时电脑可读取记录媒体 |
EP4191541A4 (en) * | 2020-07-27 | 2024-08-14 | Vrc Inc | INFORMATION PROCESSING DEVICE AND METHOD |
CN113050794A (zh) * | 2021-03-24 | 2021-06-29 | 北京百度网讯科技有限公司 | 用于虚拟形象的滑块处理方法及装置 |
CN113058259B (zh) * | 2021-04-22 | 2024-04-19 | 杭州当贝网络科技有限公司 | 基于游戏内容的体感动作识别方法、系统及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3934074B2 (ja) * | 2003-03-24 | 2007-06-20 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及びゲーム装置 |
US9818216B2 (en) * | 2014-04-08 | 2017-11-14 | Technion Research And Development Foundation Limited | Audio-based caricature exaggeration |
-
2016
- 2016-04-08 JP JP2016078072A patent/JP6574401B2/ja active Active
- 2016-12-19 WO PCT/JP2016/087731 patent/WO2017175423A1/ja active Application Filing
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190048507A (ko) * | 2017-10-31 | 2019-05-09 | 에스케이텔레콤 주식회사 | 3차원 메쉬 데이터 간소화 방법 및 장치 |
KR102005492B1 (ko) | 2017-10-31 | 2019-07-30 | 에스케이텔레콤 주식회사 | 3차원 메쉬 데이터 간소화 방법 및 장치 |
JP2020047237A (ja) * | 2018-09-19 | 2020-03-26 | 未來市股▲ふん▼有限公司 | データ融合を用いた顔表情生成の方法 |
KR20200087338A (ko) * | 2018-12-31 | 2020-07-21 | 한국과학기술연구원 | 행동 인식 학습용 동적 데이터베이스 구축 장치 및 방법 |
KR102241287B1 (ko) | 2018-12-31 | 2021-04-16 | 한국과학기술연구원 | 행동 인식 학습용 동적 데이터베이스 구축 장치 및 방법 |
KR20210047423A (ko) * | 2019-10-21 | 2021-04-30 | 제주대학교 산학협력단 | 차량 소프트웨어 정의 네트워킹에서 확장 칼만필터를 이용하는 차량 궤적 예측시스템 및 그 방법, 그 방법을 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체 |
US20230005206A1 (en) * | 2020-03-20 | 2023-01-05 | LINE Plus Corporation | Method and system for representing avatar following motion of user in virtual space |
WO2024069944A1 (ja) * | 2022-09-30 | 2024-04-04 | 株式会社Vrc | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2017175423A1 (ja) | 2017-10-12 |
JP6574401B2 (ja) | 2019-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6574401B2 (ja) | モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム | |
US11868515B2 (en) | Generating textured polygon strip hair from strand-based hair for a virtual character | |
KR102241153B1 (ko) | 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템 | |
US12054227B2 (en) | Matching meshes for virtual avatars | |
US11557076B2 (en) | Computer generated hair groom transfer tool | |
JP7504968B2 (ja) | アバター表示装置、アバター生成装置及びプログラム | |
JP5785254B2 (ja) | 顔の表情のリアルタイムアニメーション | |
KR20210119438A (ko) | 얼굴 재연을 위한 시스템 및 방법 | |
US9196074B1 (en) | Refining facial animation models | |
KR101306221B1 (ko) | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 | |
TWI780919B (zh) | 人臉影像的處理方法、裝置、電子設備及儲存媒體 | |
US20220237846A1 (en) | Generation and simultaneous display of multiple digitally garmented avatars | |
KR101977893B1 (ko) | 영상컨텐츠 적용 디지털액터의 운용방법 | |
JP6340313B2 (ja) | モデリングシステム、モデリングプログラム、及びモデリング方法 | |
CN114026524A (zh) | 利用纹理操作的动画化人脸 | |
KR102108422B1 (ko) | Ai 기반의 표정 분류 및 리타겟팅을 통한 가상 캐릭터의 표정 최적화 시스템 및 방법, 및 컴퓨터 판독 가능한 저장매체 | |
KR101780496B1 (ko) | 컴퓨터그래픽 툴에 의한 캐릭터 모델링 기반 3d 디지털액터 영상 구현방법 | |
JP2011215709A (ja) | 漫画作成支援装置、漫画作成支援方法及びプログラム | |
JP7356662B2 (ja) | コンピュータプログラム、及び方法 | |
JP7145359B1 (ja) | 推論モデル構築方法、推論モデル構築装置、プログラム、記録媒体、構成装置及び構成方法 | |
KR20190109639A (ko) | 인공지능을 이용한 3d 어플리케이션 생성 방법 및 장치 | |
WO2024203099A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法 | |
de Carvalho Cruz et al. | A review regarding the 3D facial animation pipeline | |
Yang | 2D animation comic character action generation technology based on biomechanics simulation and artificial intelligence | |
CN117425017A (zh) | 一种数字人表情的调整方法、装置及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20170418 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20171124 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6574401 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |