JP2022022222A - 端末装置、当該端末装置における方法、サーバ装置及びプログラム - Google Patents

端末装置、当該端末装置における方法、サーバ装置及びプログラム Download PDF

Info

Publication number
JP2022022222A
JP2022022222A JP2021182642A JP2021182642A JP2022022222A JP 2022022222 A JP2022022222 A JP 2022022222A JP 2021182642 A JP2021182642 A JP 2021182642A JP 2021182642 A JP2021182642 A JP 2021182642A JP 2022022222 A JP2022022222 A JP 2022022222A
Authority
JP
Japan
Prior art keywords
terminal device
emotion
display
user
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021182642A
Other languages
English (en)
Other versions
JP7144588B2 (ja
Inventor
広海 石先
Hiromi Ishisaki
修 水田
Osamu Mizuta
義浩 伊藤
Yoshihiro Ito
泰博 畑瀬
Yasuhiro Hatase
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018050936A external-priority patent/JP6976206B2/ja
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021182642A priority Critical patent/JP7144588B2/ja
Publication of JP2022022222A publication Critical patent/JP2022022222A/ja
Application granted granted Critical
Publication of JP7144588B2 publication Critical patent/JP7144588B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想物体の動作をより現実の人間や動物の様に制御することができる技術を提供する。【解決手段】端末装置は、端末装置は、ディスプレイと、第1撮像手段と、第2撮像手段と、仮想物体の感情を表現する感情パラメータを管理する管理手段と、前記感情パラメータに基づき決定される表示態様により前記仮想物体を前記第1撮像手段が撮像した撮像画像に重畳させて前記ディスプレイに表示する表示処理手段と、を備えており、前記管理手段は、前記第2撮像手段が撮像するユーザの表情に基づき判定される当該ユーザの感情又は前記ユーザが前記端末装置に入力した内容に基づき、前記感情パラメータを変更する。【選択図】図2

Description

本発明は、携帯型の端末装置に表示する仮想物体の制御技術に関する。
非特許文献1及び非特許文献2に記載されている様に、スマートフォンやタブレット等の携帯型の端末装置で使用されるオペレーティングシステム(OS)は、拡張現実(AR)を実現するためのフレームワークを提供している。これらのフレームワークを使用することで、端末装置は、加速度センサ及びジャイロセンサの出力に基づき、自装置の位置及び方向を判定することができる。なお、端末装置の位置の原点は、処理を開始した際の端末装置の位置であり、その座標系の方向は、例えば、処理を開始した際の端末装置の撮像部の光軸の方向等、端末装置に予め設定されている基準方向に基づき決定される。これらのフレームワークを使用することで、実際には存在しない仮想物体があたかも存在する様に、端末装置の撮像部が撮像する撮像画像に仮想物体を自然な形で重ねて端末装置のディスプレイに表示することができる。
また、特許文献1は、ディスプレイにキャラクタを表示し、当該キャラクタが、あたかもユーザと会話しているかのように、キャラクタを動作させ、かつ、音声を出力する画像表示装置を開示している。
特許第6165302号公報
第837回:ARKitとは-ケータイWatch、[online]、[平成30年2月13日検索]、インターネット、<URL:https://k-tai.watch.impress.co.jp/docs/column/keyword/1099054.html> ARCore-Google Developer、[online]、[平成30年2月13日検索]、インターネット、<URL:https://developers.google.com/ar/>
非特許文献1及び非特許文献2に記載の技術により各ユーザは、それぞれ独自の仮想物体を端末装置のディスプレイに自然な形で表示することができる。また、特許文献1に記載されている様に、端末装置のユーザと、端末装置のディスプレイに表示している仮想物体とが会話する様に、ディスプレイに表示している仮想物体の動作を制御することができる。
ここで、仮想物体をディスプレイに表示してAR環境を提供するにあたり、仮想物体の動作をより現実の人間や動物の様に制御することが求められている。
本発明は、仮想物体の動作をより現実の人間や動物の様に制御することができる技術を提供するものである。
本発明の一態様によると、端末装置は、ディスプレイと、第1撮像手段と、第2撮像手段と、仮想物体の感情を表現する感情パラメータを管理する管理手段と、前記感情パラメータに基づき決定される表示態様により前記仮想物体を前記第1撮像手段が撮像した撮像画像に重畳させて前記ディスプレイに表示する表示処理手段と、を備えており、前記管理手段は、前記第2撮像手段が撮像するユーザの表情に基づき判定される当該ユーザの感情又は前記ユーザが前記端末装置に入力した内容に基づき、前記感情パラメータを変更することを特徴とする。
本発明によると、仮想物体の動作をより現実の人間や動物の様に制御することができる。
一実施形態による端末装置の構成図。 一実施形態による制御部の機能ブロック図。 一実施形態による感情パラメータを示す図。
以下、本発明の例示的な実施形態について図面を参照して説明する。なお、以下の実施形態は例示であり、本発明を実施形態の内容に限定するものではない。また、以下の各図においては、実施形態の説明に必要ではない構成要素については図から省略する。
図1は、本実施形態による端末装置10の概略的な構成図である。端末装置10は、例えば、スマートフォン、タブレットといった携帯型の通信装置である。スピーカ101は、制御部100から出力する音声信号を音声に変換する。マイク102は、音声を音声信号に変換して制御部100に出力する。第1撮像部103及び第2撮像部104は、レンズ及びCCDセンサを有し、画像情報を取得して制御部100に出力する。ディスプレイ105は、本実施形態では、タッチセンシティブディスプレイであり、ユーザへの情報の提示に加え、ユーザ操作の入力部としても機能する。なお、ディスプレイがタッチセンシティブディスプレイではない場合、別に、入力部を設ける。深さセンサ106は、オブジェクトまでの距離(深さ)を測定して測定結果を深さ情報として制御部100に出力する。通信部107は、移動通信網や無線LAN等を介した通信処理を行う。GPS処理部108は、GPS衛星からの信号を受信し、受信した信号に基づき、緯度、経度、高度を含む位置情報を制御部100に出力する。なお、GPS衛星ではなく、準天頂衛星の様な、他の測位システムの衛星からの信号に基づき位置情報を出力する構成であっても良い。加速度センサ109は、加速度を検出して加速度情報を制御部100に出力する。ジャイロセンサ110は、角速度を検出して角速度情報を制御部100に出力する。
なお、本実施形態において、第1撮像部103は、ユーザが、ディスプレイ105をユーザ側に向けた状態で、ユーザが見ている側と同じ方向の画像を撮像する。一方、第2撮像部104は、ユーザが、ディスプレイ105をユーザ側に向けた状態で、ユーザ側を撮像する。以下では、第1撮像部103が撮像する画像を第1撮像画像と呼び、第2撮像部104が撮像する画像を第2撮像画像と呼ぶものとする。
制御部100は、端末装置全体の制御部であり、1つ以上のプロセッサとメモリ部と、を備えている。なお、メモリ部は、プロセッサが一時的なデータの保存用として使用するRAMや、プロセッサが実行するオペレーティングシステム及びアプリケーションと、電源断となっても保持すべきデータとが格納されるフラッシュメモリを有する。フラッシュメモリには、端末装置10の第1撮像画像に重ねて表示する仮想物体を示す画像データが格納されている。なお、仮想物体は、所謂、キャラクタを示すキャラクタ画像であり、画像データは、当該キャラクタの3Dモデルと、当該キャラクタの動作を示すモーションデータとを含んでいる。
図2は、制御部100の機能ブロック図である。位置判定部1001は、加速度センサ109が出力する加速度情報及びジャイロセンサ110が出力する角速度情報に基づき、非特許文献1又は非特許文献2に記載されている技術に従い端末装置10の位置及び方向を判定する。なお、端末装置10が使用する座標系は、位置判定部1001が位置及び方向の判定を開始したときの端末装置10の位置を原点とし、例えば、位置判定部1001が位置及び方向の判定を開始したときの第1撮像部103の光軸の方向をX軸の方向とすることができる。なお、本実施形態においては、端末装置の方向とは、第1撮像部103の光軸の方向を意味するものとする。位置判定部1001は、判定した端末装置10の位置及び方向を位置情報として出力する。
表示処理部1002は、処理の開始時、キャラクタ画像を最初に立たせる初期位置を決定する。この初期位置は、表示処理部1002が処理を開始したときの端末装置10の位置及び方向に対する相対位置に基づき決定される。なお、この相対位置は、予め制御部100に格納されている。例えば、相対位置は、表示処理部1002がキャラクタ画像の表示処理を開始したときの端末装置10の方向において、端末装置10の位置から所定の距離とすることができる。その後、表示処理部1002は、後述する感情パラメータに基づきキャラクタ画像の配置位置を決定する。そして、表示処理部1002は、キャラクタ画像の配置位置が第1撮像画像に含まれていると、キャラクタが配置位置にいる様に、キャラクタ画像を第1撮像画像に重畳させてディスプレイ105に表示する。
感情判定部1003は、キャラクタの感情を示す感情パラメータを管理する。図3は、本実施形態で使用する感情パラメータを示している。本実施形態では、喜怒哀楽の4つの感情をそれぞれ10段階で表現する。なお、キャラクタ画像のディスプレイ105への表示の開始時の感情パラメータの各感情の初期値は任意であり、例えば、総て1とする。本実施形態では、様々な要因に応じて、4つの感情のレベルを増減させる。なお、要因と、どの感情レベルをどれだけ増減させるかについては予め決定して制御部100に格納しておく。
本実施形態においては、端末装置10の位置及び方向と、キャラクタ画像の配置位置との関係を感情のレベルを変化させる要因の1つとする。例えば、端末装置10の位置及び方向から第1撮像画像内にキャラクタの配置位置が含まれるかを判定し、第1撮像画像内にキャラクタの配置位置が含まれないと、"怒"又は"哀"のレベルを所定数だけ上げ、"喜"又は"楽"のレベルを所定数だけ下げることができる。なお、例えば、上げるレベル及び下げるレベルは、第1撮像画像内にキャラクタの配置位置が含まれなくなってからの時間が長いほど多くすることができる。逆に、第1撮像画像内にキャラクタの配置位置が含まれていると、"喜"又は"楽"のレベルを所定数だけ上げ、"怒"又は"哀"のレベルを所定数だけ下げることができる。さらに、第1撮像画像内にキャラクタの配置位置が含まれていても、端末装置1と配置位置との距離が所定範囲内にない場合、つまり、遠すぎる場合や、近すぎる場合に、それぞれの感情のレベルを変化させることができる。
さらに、キャラクタの配置位置と端末装置10の位置との間の距離と、時間とにより感情のレベルを変化させることができる。後述する様に、本実施形態では、感情のレベルによりキャラクタの配置位置を決定するが、例えば、"怒"のレベルが上昇したことによりキャラクタの表示位置を端末装置10から遠くに設定した後、所定時間が経過する度に"怒"のレベルを下げていくことができる。
また、端末装置10に対してユーザが入力した内容を感情のレベルを変化させる要因の1つとすることができる。例えば、ユーザは、マイク102を使用して音声入力をしたり、タッチパネルであるディスプレイ105を使用してテキスト入力をしたりできる。感情判定部1003は、入力される音声やテキストが示す意味を解析して、各感情のレベルを調整することができる。例えば、音声やテキストが示す意味が、誉め言葉の様なポジティブな内容であると、"喜"のレベルを所定数だけ上げ、"怒"又は"哀"のレベルを所定数だけ下げることができる。さらに、第2撮像画像にユーザの顔が含まれる場合、ユーザの表情からユーザの感情を推定して、推定したユーザの感情を感情のレベルを変化させる要因の1つとすることができる。例えば、ユーザの感情が怒りであると、"哀"のレベルを所定数だけ上げることができる。
さらに、GPS処理部108が取得する緯度、経度及び高度に基づき判定できる現在の場所を感情のレベルを変化させる要因の1つとすることができる。例えば、GPS処理部108が取得する緯度、経度及び高度と、地図情報に基づき、現在、遊園地等にいると判定されると、"楽"のレベルを所定数だけ上げることができる。また、例えば、GPS処理部108が取得する高度が高くなると、"楽"のレベルを所定数だけ下げることができる。さらに、時刻を感情のレベルを変化させる要因の1つとすることができる。例えば、午前中は、"楽"及び"喜"のレベルを所定数だけ下げることができる。
感情判定部1003は、上述した様に、予め決められた要因に基づき、予め決められたように感情パラメータを変更し、一番レベルの高い感情を判定して、表示処理部1003に一番レベルの高い感情を出力する。そして、表示処理部1002は、一番レベルの高い感情に従ってキャラクタ画像を表示する。例えば、一番レベルの高い感情が"怒"であるろ、キャラクタが怒っているかの様にディスプレイに表示する。また、一番レベルの高い感情に従ってキャラクタ画像の配置位置を変更する。例えば、一番レベルの高い感情が"喜"及び"楽"といったポジティブな内容であると、ユーザに近づくようにキャラクタの配置位置を変更し、一番レベルの高い感情が"怒"及び"哀"といったネガティブな内容であると、ユーザから遠ざかる様にキャラクタの配置位置を変更することができる。さらに、一番高い感情と、さらにはそのレベルの大きさに応じて、キャラクタ画像の配置位置やキャラクタ画像の表示の態様を変化させる構成とすることもできる。つまり、例えば、一番レベルの高い感情が"喜"であり、そのレベルが10であると、レベルが5である場合より、より喜んでいる様にキャラクタ画像をディスプレイ105に表示し、より端末装置10に近い位置にキャラクタ画像の配置位置を変更することができる。さらに、端末装置10が出力するキャラクタの音声も、一番高い感情と、さらにはそのレベルの大きさに応じて制御することができる。例えば、一番レベルの高い感情が"喜"である場合には、音声のトーンを高くし、一番レベルの高い感情が"哀"であると、音声のトーンを低くすることができる。
なお、表示処理部1002は、キャラクタ画像の配置位置を決定するために、感情判定部1003から入力される一番高いレベルの感情を使用するが、この一番高いレベルの感情のみで配置位置を決定する必要はない。例えば、深さセンサ106により、配置位置に机等、何らかのものがあることが検出されると、それらのものを避けた配置位置に調整することができる。また、端末装置10との距離が閾値以上になると、一番高いレベルの感情に拘わらず、端末装置10との距離が閾値となる位置を配置位置とすることができる。また、感情パラメータとして管理する感情の数は4つに限定されず、例えば、ポジティブとネガティブの2つとすることもできる。つまり、2つ以上の感情を設ければ良い。また、各感情に対してレベルを設けるのではなく、2つ以上の感情間の状態遷移図を作成し、要因に応じていずれか1つの感情の状態に遷移させる構成とすることもできる。さらに、レベルを管理する感情の2つ以上の組み合わせでキャラクタの動作を制御することができる。例えば、一番高い感情レベルと、2番目に高い感情レベルの組み合わせでキャラクタの動作を制御することができる。
以上、感情を変化させる要因それぞれについて、感情の変化量を示す変化情報を予め作成して制御部10に保存しておく。或いは、要因と感情間の遷移の関係を示す変化情報を予め作成して制御部10に保存しておく。そして、感情判定部1003は、変化情報に基づきキャラクタの感情をシミュレートする。さらに、感情、或いは、感情とそのレベルの組み合わせと、キャラクタ画像の表示態様及び制御内容、並びに、キャラクタ画像の配置位置の変化量及び変化方向を示す制御情報を予め作成して制御部10に保存しておく。そして、表示処理部1002は、感情判定部1003が判定したキャラクタの感情と制御情報に少なくとも基づいてキャラクタ画像をディスプレイ105に表示してその動作を制御する。この構成により、仮想物体の動作をより現実の人間や動物の様に制御することができる。なお、仮想物体の動作とは、表示態様のみならず、仮想物体が発生する音声として端末装置10が出力する音声のトーンや、当該音声が示す内容(会話内容)を含む。
<その他の形態>
上記実施形態では、端末装置10が、端末装置10の位置及び方向を判定し、キャラクタの配置位置を判定し、キャラクタの感情を管理していた。しかしながら、ネットワークにサーバ装置を設け、サーバ装置が、キャラクタの感情の管理し、端末装置10にキャラクタの動作に関する制御を指示する構成とすることもできる。この場合、端末装置10は、キャラクタの表示処理を開始する際、端末装置10の位置判定部1001が判定した、端末装置10の初期位置を示す位置情報(位置及び方向を含み、座標系は、位置判定部1001が使用する座標系)と、第1撮像部103により撮像できる範囲を通知する。その後、端末装置10は、位置判定部1001が判定する位置情報を繰り返し送信し、かつ、キャラクタの感情を変化させる要因のうち、端末装置10でのみ取得される情報もサーバ装置に送信する。具体的には、音声入力、テキスト入力、第2撮像画像、GPS等で取得できる緯度、経度及び高度情報をサーバ装置に送信する。なお、緯度、経度及び高度情報は、サーバ装置が端末装置10の場所を判定するために使用する。サーバ装置は、端末装置が表示しているキャラクタの感情を管理し、キャラクタの感情、又は、感情とそのレベルに基づき、キャラクタの配置位置や、その動作を決定して端末装置10に通知する。なお、サーバ装置では、キャラクタの感情、又は、感情とそのレベルを管理して端末装置10に通知し、感情、又は、感情とそのレベルに基づくキャラクタの動作制御については端末装置10で決定する構成であっても良い。
なお、本発明による端末装置10や、上記サーバ装置は、それぞれ、コンピュータを端末装置10や、上記サーバ装置として動作させるプログラムにより実現することができる。これらコンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。
105:ディスプレイ、103:第1撮像部、1003:感情判定部、1002:表示処理部

Claims (10)

  1. 端末装置であって、
    ディスプレイと、
    第1撮像手段と、
    第2撮像手段と、
    仮想物体の感情を表現する感情パラメータを管理する管理手段と、
    前記感情パラメータに基づき決定される表示態様により前記仮想物体を前記第1撮像手段が撮像した撮像画像に重畳させて前記ディスプレイに表示する表示処理手段と、
    を備えており、
    前記管理手段は、前記第2撮像手段が撮像するユーザの表情に基づき判定される当該ユーザの感情又は前記ユーザが前記端末装置に入力した内容に基づき、前記感情パラメータを変更することを特徴とする端末装置。
  2. 前記管理手段は、前記第1撮像手段の位置及び方向にさらに基づき前記感情パラメータを変更することを特徴とする請求項1に記載の端末装置。
  3. 前記端末装置の緯度、経度及び高度を取得し、地図情報に基づき当該端末装置の場所を判定する判定手段をさらに備えており、
    前記管理手段は、前記場所にさらに基づき、前記感情パラメータを変更することを特徴とする請求項1又は2に記載の端末装置。
  4. 前記管理手段は、時刻にさらに基づき、前記感情パラメータを変更することを特徴とする請求項1から3のいずれか1項に記載の端末装置。
  5. 前記表示処理手段は、前記感情パラメータを使用して前記仮想物体の動作を制御することを特徴とする請求項1から4のいずれか1項に記載の端末装置。
  6. 前記表示処理手段は、前記感情パラメータを使用して前記仮想物体の配置位置を決定し、前記第1撮像手段が撮像した前記撮像画像に前記配置位置が含まれる場合、前記仮想物体を前記撮像画像に重畳させて前記ディスプレイに表示することを特徴とする請求項1から5のいずれか1項に記載の端末装置。
  7. 請求項1から6のいずれか1項に記載の端末装置としてコンピュータを機能させることを特徴とするプログラム。
  8. 第1撮像手段、第2撮像手段及びディスプレイを備える端末装置における方法であって、
    仮想物体の感情を表現する感情パラメータを管理することと、
    前記感情パラメータに基づき決定される表示態様により前記仮想物体を前記第1撮像手段が撮像した撮像画像に重畳させて前記ディスプレイに表示することと、
    を含み、
    前記感情パラメータを管理することは、前記第2撮像手段が撮像するユーザの表情に基づき判定される当該ユーザの感情又は前記ユーザが前記端末装置に入力した内容に基づき、前記感情パラメータを変更することを含む、ことを特徴とする方法。
  9. 第1撮像手段及び第2撮像手段を有する端末装置から前記第2撮像手段が撮像する撮像画像又は前記端末装置のユーザが前記端末装置に入力した内容を示す情報を受信する受信手段と、
    前記第1撮像手段が撮像した撮像画像に重畳させて、前記端末装置がディスプレイに表示している仮想物体の感情を表現する感情パラメータを管理する管理手段と、
    前記感情パラメータに基づき、前記端末装置が前記ディスプレイに表示している前記仮想物体の動作を前記端末装置に通知する通知手段と、
    を備えており、
    前記管理手段は、前記第2撮像手段が撮像する撮像画像に含まれる前記ユーザの表情に基づき判定される当該ユーザの感情又は前記ユーザが前記端末装置に入力した内容に基づき、前記感情パラメータを変更することを特徴とするサーバ装置。
  10. 請求項9に記載のサーバ装置としてコンピュータを機能させることを特徴とするプログラム。
JP2021182642A 2018-03-19 2021-11-09 端末装置、当該端末装置における方法、サーバ装置及びプログラム Active JP7144588B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021182642A JP7144588B2 (ja) 2018-03-19 2021-11-09 端末装置、当該端末装置における方法、サーバ装置及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018050936A JP6976206B2 (ja) 2018-03-19 2018-03-19 端末装置、サーバ装置及びプログラム
JP2021182642A JP7144588B2 (ja) 2018-03-19 2021-11-09 端末装置、当該端末装置における方法、サーバ装置及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018050936A Division JP6976206B2 (ja) 2018-03-19 2018-03-19 端末装置、サーバ装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2022022222A true JP2022022222A (ja) 2022-02-03
JP7144588B2 JP7144588B2 (ja) 2022-09-29

Family

ID=87888193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021182642A Active JP7144588B2 (ja) 2018-03-19 2021-11-09 端末装置、当該端末装置における方法、サーバ装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7144588B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029862A (ja) * 2002-05-23 2004-01-29 Open Interface Inc 動画像生成装置及び動画像生成方法並びにそのプログラム
JP2009153692A (ja) * 2007-12-26 2009-07-16 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像表示制御装置
JP2015526168A (ja) * 2012-07-26 2015-09-10 クアルコム,インコーポレイテッド 拡張現実を制御するための方法および装置
JP2018013894A (ja) * 2016-07-19 2018-01-25 Gatebox株式会社 画像表示装置、話題選択方法、話題選択プログラム
JP2019164451A (ja) * 2018-03-19 2019-09-26 Kddi株式会社 端末装置、サーバ装置及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029862A (ja) * 2002-05-23 2004-01-29 Open Interface Inc 動画像生成装置及び動画像生成方法並びにそのプログラム
JP2009153692A (ja) * 2007-12-26 2009-07-16 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像表示制御装置
JP2015526168A (ja) * 2012-07-26 2015-09-10 クアルコム,インコーポレイテッド 拡張現実を制御するための方法および装置
JP2018013894A (ja) * 2016-07-19 2018-01-25 Gatebox株式会社 画像表示装置、話題選択方法、話題選択プログラム
JP2019164451A (ja) * 2018-03-19 2019-09-26 Kddi株式会社 端末装置、サーバ装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石井 徹: "AR空間内のキャラクターと話せるシステムをKDDIが開発、CEATECで展示", IMPRESS ケータイWATCH, JPN6021008599, 28 September 2017 (2017-09-28), pages 1 - 2, ISSN: 0004746344 *

Also Published As

Publication number Publication date
JP7144588B2 (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
US11423509B2 (en) Method and apparatus for displaying face of virtual role, computer device, and readable storage medium
US11908243B2 (en) Menu hierarchy navigation on electronic mirroring devices
US20190279432A1 (en) Method and device for editing virtual scene, and non-transitory computer-readable storage medium
US11962930B2 (en) Method and apparatus for controlling a plurality of virtual characters, device, and storage medium
EP3968223A1 (en) Method and apparatus for acquiring positions of target, and computer device and storage medium
KR20220030263A (ko) 텍스처 메시 빌딩
US11978283B2 (en) Mirroring device with a hands-free mode
US11809633B2 (en) Mirroring device with pointing based navigation
US11962897B2 (en) Camera movement control method and apparatus, device, and storage medium
US20220197027A1 (en) Conversation interface on an eyewear device
US20220210328A1 (en) Camera mode for capturing multiple video clips within a messaging system
US11797162B2 (en) 3D painting on an eyewear device
US20220198603A1 (en) Recentering ar/vr content on an eyewear device
EP4268056A1 (en) Conversation interface on an eyewear device
US20230022826A1 (en) Media content discard notification system
WO2022147151A1 (en) Real-time video communication interface with haptic feedback
WO2022140117A1 (en) 3d painting on an eyewear device
CN113747199A (zh) 视频编辑方法、装置、电子设备、存储介质及程序产品
EP4315265A1 (en) True size eyewear experience in real-time
JP6976206B2 (ja) 端末装置、サーバ装置及びプログラム
WO2022146795A1 (en) Camera mode for capturing multiple video clips
JP2022022222A (ja) 端末装置、当該端末装置における方法、サーバ装置及びプログラム
US11671559B2 (en) Real time video editing
WO2022204031A1 (en) True size eyewear in real time
US20240070950A1 (en) Avatar call on an eyewear device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220915

R150 Certificate of patent or registration of utility model

Ref document number: 7144588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150