JP2010244322A - Communication character device and program therefor - Google Patents
Communication character device and program therefor Download PDFInfo
- Publication number
- JP2010244322A JP2010244322A JP2009092727A JP2009092727A JP2010244322A JP 2010244322 A JP2010244322 A JP 2010244322A JP 2009092727 A JP2009092727 A JP 2009092727A JP 2009092727 A JP2009092727 A JP 2009092727A JP 2010244322 A JP2010244322 A JP 2010244322A
- Authority
- JP
- Japan
- Prior art keywords
- character
- communication
- subject
- communication character
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明はコミュニケーションキャラクター装置、及びそのプログラム、特にキャラクター動作制御機構の改良に関する。 The present invention relates to a communication character device and a program thereof, and particularly to an improvement of a character motion control mechanism.
近年のコンピュータの急速な発展に伴い、パーソナルコンピュータレベルでも、そのユーザーがあたかもコンピュータ内のキャラクターの一員として仮想空間を移動できるゲーム等が開発され、注目されている(特許文献1〜3等)。
これらの技術によれば、ユーザー自身のデジタル写真などをコンピュータ内に取り込み、キャラクターの表示に用いることで、より臨場感を演出することもできる。
前記従来のゲーム等は、コンピュータ内に形成される仮想空間にユーザーがいかに溶け込めるかという観点が重視されていたが、一方で一部のロボットなどに見られるように現実空間の一員としてキャラクターを引き出すことができれば、単にゲームという枠を超え、日常的なコミュニケーションの対象としてコンピュータが作り出すキャラクタを用いることもできる。
With the rapid development of computers in recent years, games and the like that allow a user to move in a virtual space as a member of a character in the computer have been developed and attracted attention even at the personal computer level (Patent Documents 1 to 3).
According to these technologies, a user's own digital photograph or the like can be taken into a computer and used for displaying a character, thereby providing a more realistic feeling.
In the conventional game, etc., the viewpoint of how the user can be integrated into the virtual space formed in the computer has been emphasized. On the other hand, as seen in some robots, the character is used as a member of the real space. If it can be pulled out, it is possible to use a character created by a computer as an object of daily communication beyond the game.
本発明は前記従来技術に鑑みなされたものであり、その解決すべき課題はコンピュータ等が形成するキャラクターが現実空間の対象者に対応して動作するコミュニケーションキャラクター装置、及びそのプログラムを提供することにある。 The present invention has been made in view of the prior art, and the problem to be solved is to provide a communication character device in which a character formed by a computer or the like operates corresponding to a subject in real space, and a program thereof. is there.
前記課題を解決するために本発明にかかるコミュニケーションキャラクター装置は、
対象者の画像を撮影する撮像手段と、
コミュニケーションキャラクターを表示可能な表示手段と、
該対象者画像より対象者の特定部位の位置及び/又は形状を認識する認識手段と、
前記撮像手段による撮影画像を、前記コミュニケーションキャラクターによる目視領域として設定し、該目視領域内での対象者の特定部位の位置及び/又は形状により、コミュニケーションキャラクターに対応動作を取らせるキャラクター動作制御手段と、
を備えたことを特徴とする。
In order to solve the above problems, a communication character device according to the present invention includes:
Imaging means for capturing an image of the subject;
Display means capable of displaying communication characters;
Recognition means for recognizing the position and / or shape of the specific part of the subject from the subject image;
Character action control means for setting a photographed image by the imaging means as a viewing area by the communication character and causing the communication character to take a corresponding action according to the position and / or shape of the specific part of the subject within the viewing area. ,
It is provided with.
また、前記装置において、キャラクター動作制御手段は、表示手段の表示面と撮影画面を仮想的に離隔配置し、撮影画面上での対象者顔面位置及び仮想離隔距離により対象者顔面位置を推定し、表示面上のコミュニケーションキャラクターに対象者顔面推定位置方向にキャラクターの視線ないし姿勢を向けさせることが好適である。
また、前記装置において、キャラクター動作制御手段は、コミュニケーションキャラクターを仮想空間内に配置し、対象者顔面推定位置からコミュニケーションキャラクター目視した場合の仮想空間背景を、コミュニケーションキャラクター背景に表示させることが好適である。
また、前記装置において、キャラクター動作制御手段は、撮影画面内に対象者顔面が特定できない場合には仮想空間内の奥にコミュニケーションキャラクターを配置し、撮影画面内に対象者画面が特定された場合は、コミュニケーションキャラクターを前面に移動させることが好適である。
Further, in the above apparatus, the character motion control means virtually arranges the display surface of the display means and the photographing screen, and estimates the subject face position from the subject face position and the virtual separation distance on the photographing screen, It is preferable to direct the character's line of sight or posture in the direction of the estimated position of the subject's face to the communication character on the display surface.
In the above apparatus, it is preferable that the character motion control means arranges the communication character in the virtual space and displays the virtual space background when the communication character is viewed from the estimated face position of the target person on the communication character background. .
Further, in the above apparatus, the character motion control means arranges a communication character in the back of the virtual space when the target person's face cannot be specified in the shooting screen, and when the target person screen is specified in the shooting screen. It is preferable to move the communication character to the front.
また、本発明にかかるプログラムは、対象者の画像を撮影する撮像手段と、コミュニケーションキャラクターを表示可能な表示手段と、を備えたコンピュータまたはゲーム機用プログラムであって、
該対象者画像より対象者の特定部位の位置及び/又は形状を認識する認識手段と、
前記撮像手段による撮影画像を前記コミュニケーションキャラクターによる目視領域として設定し、該目視領域内での対象者の特定部位の位置及び/又は形状により、コミュニケーションキャラクターに対応動作を取らせるキャラクター動作制御手段と、
を備えたことを特徴とする。
Further, a program according to the present invention is a program for a computer or game machine including an imaging unit that captures an image of a subject and a display unit that can display a communication character,
Recognition means for recognizing the position and / or shape of the specific part of the subject from the subject image;
Character action control means for setting a photographed image by the imaging means as a viewing area by the communication character, and taking action corresponding to the communication character according to a position and / or shape of a specific part of the subject in the viewing area;
It is provided with.
以上説明したように本発明にかかるコミュニケーションキャラクター装置ないしそのプログラムによれば、コンピュータ等で形成されたコミュニケーションキャラクターの目をカメラにより代用させ、対象者の動作を視覚的に認識して仮想空間内で所定の動作を取らせることが可能となる。 As described above, according to the communication character apparatus or the program thereof according to the present invention, the eyes of the communication character formed by a computer or the like are substituted by a camera, and the movement of the target person is visually recognized in the virtual space. It is possible to take a predetermined action.
以下、図面に基づき本発明の好適な実施形態について説明する。
図1は本発明の一実施形態にかかるコミュニケーションキャラクター装置10を示しており、実際には家庭用のパーソナルコンピューターにより代用することができる。
同図に示すように、本実施形態にかかるコミュニケーションキャラクター装置10は、パーソナルコンピュータ12と、モニター14と、USB接続等によりコンピュータに接続されたカメラ16、マイク18、スピーカー20を有する。
そして、前記カメラ16は、たとえばモニター14上部等、ユーザー22のおおよそ正面に位置する部分に設置され、ユーザー22(対象者)の画像を撮影する撮像手段として機能する。
また、モニター14は、コミュニケーションキャラクターを表示可能な表示手段として機能する。
また、コンピュータ12は、カメラによって撮影された画像の認識を行う認識手段24、およびモニター14に表示されるコミュニケーションキャラクターに対して所望の動作を取らせるキャラクター動作制御手段26として機能する。
Preferred embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 shows a communication character device 10 according to an embodiment of the present invention. In practice, the communication character device 10 can be replaced by a home personal computer.
As shown in the figure, a communication character device 10 according to the present embodiment includes a personal computer 12, a monitor 14, and a camera 16, a microphone 18, and a speaker 20 connected to the computer by a USB connection or the like.
The camera 16 is installed in a portion located approximately in front of the user 22 such as the upper part of the monitor 14 and functions as an imaging unit that captures an image of the user 22 (subject).
The monitor 14 functions as a display unit that can display a communication character.
The computer 12 also functions as a recognition unit 24 that recognizes an image captured by the camera, and a character operation control unit 26 that causes the communication character displayed on the monitor 14 to take a desired action.
そして、本実施形態においては、モニター14に映し出されるキャラクターの「目」として前記カメラ16を用い、「耳」として前記マイク18を用い、さらに口(音声発生)としてスピーカー20を用いるものである。
すなわち、図2に示すように、本実施形態においては、制御手段26はコミュニケーションキャラクター30および該キャラクター30が存在する仮想空間32を作成する。
そして、キャラクター30は、仮想空間32内を自由に移動でき、キャラクター30の目視領域(カメラ16の視野A)内にユーザー22の顔が認識されない間は、仮想空間奥側(図中、点線キャラクター30)に位置する。
In this embodiment, the camera 16 is used as the “eye” of the character displayed on the monitor 14, the microphone 18 is used as the “ear”, and the speaker 20 is used as the mouth (sound generation).
That is, as shown in FIG. 2, in this embodiment, the control means 26 creates a communication character 30 and a virtual space 32 where the character 30 exists.
The character 30 can freely move in the virtual space 32, and while the face of the user 22 is not recognized in the viewing area of the character 30 (the field of view A of the camera 16), 30).
これに対し、カメラ視野A内にユーザー22の顔が認識されると、動作制御手段26はキャラクター30を仮想空間前面側(図中、実線キャラクター30)に移動させる。この際、たとえば図2に示すように仮想空間32内に形成された道34にそって移動するようにすることも好適である。 On the other hand, when the face of the user 22 is recognized in the camera view A, the motion control means 26 moves the character 30 to the front side of the virtual space (solid character 30 in the figure). At this time, for example, it is also preferable to move along a road 34 formed in the virtual space 32 as shown in FIG.
そして、ユーザー22は、モニター14をはさんで仮想空間32内のキャラクター30と対峙する。このこめ、仮想空間32の一端面32aに近接してモニター画面14が位置しているように、該モニター画面14にはキャラクター30およびその背景が表示される。すなわち、図2においてカメラ視野A左端にいるユーザー22は、仮想空間32への窓として機能するモニター14を介してキャラクター30、およびその背景(仮想空間右側のモニター表示領域)を見ることができる。そして、カメラ16の画像36内におけるユーザー22の位置により、ユーザー22の実位置を推定することが可能であり、キャラクター30はユーザー22に相対するように視線Bを向ける。このユーザー22の実位置は、ユーザー22とモニター14の一般的な離隔距離Cの位置に撮影画像36を位置させ、画像36内でのユーザー顔面位置から推定することができる。無論、カメラにフェーストラッキング機能及びオートフォーカス機能を持たせ、そのトラッキング及びフォーカス位置からユーザー顔面位置を推定させることもできる。そして、ユーザー22がキャラクター30(モニター)に近づいてくる、あるいは遠ざかる等の距離情報を利用し、キャラクター30の動作(近づく、遠ざかる等)を、よりリアルに実行させることもできる。同様に、顔面の大きさの変化により、ユーザー22とキャラクター30との距離変化を認識することも好適である。
この状態で、ユーザー22の音声をマイク18で採取し、その特定のキーワードなどに反応して、キャラクター30(制御手段26)がスピーカー20を介して返答をするようにしてもよい。
また、ユーザー22はコンピュータに汎用される他の入力手段、たとえばマウス操作、キーボード操作によりキャラクターと会話、動作指示を行うこともできる。
Then, the user 22 faces the character 30 in the virtual space 32 across the monitor 14. In this way, the character 30 and its background are displayed on the monitor screen 14 so that the monitor screen 14 is positioned close to the one end surface 32a of the virtual space 32. That is, the user 22 at the left end of the camera view A in FIG. 2 can see the character 30 and the background (monitor display area on the right side of the virtual space) through the monitor 14 functioning as a window to the virtual space 32. The actual position of the user 22 can be estimated from the position of the user 22 in the image 36 of the camera 16, and the character 30 directs the line of sight B so as to face the user 22. The actual position of the user 22 can be estimated from the position of the user's face in the image 36 by positioning the captured image 36 at a general distance C between the user 22 and the monitor 14. Of course, the camera can have a face tracking function and an autofocus function, and the user face position can be estimated from the tracking and focus positions. Then, by using distance information such as the user 22 approaching or moving away from the character 30 (monitor), the action of the character 30 (approaching or moving away) can be executed more realistically. Similarly, it is also preferable to recognize a change in the distance between the user 22 and the character 30 based on a change in the size of the face.
In this state, the voice of the user 22 may be collected by the microphone 18 and the character 30 (control unit 26) may respond via the speaker 20 in response to the specific keyword or the like.
In addition, the user 22 can also perform a conversation with a character and give an operation instruction by other input means generally used for a computer, for example, a mouse operation or a keyboard operation.
図3にはキャラクター30によるユーザー22への相対状態が示されている。
同図に示すようにカメラ16での撮影画像が、そのままキャラクター30の目視領域として設定され、該目視領域の左側にユーザー22の顔が認識されれば、それに対応してキャラクター30は顔、ないし視線Bをユーザー側に向け(同図(A))、同様に目視領域中央にユーザー22が認識されればその方へ(同図(B))、目視領域右側に認識されればそちらへ(同図(C))、それぞれキャラクター30は顔ないし視線Bを向ける。このため、ユーザー22はあたかもキャラクター30が意思を持って現実空間のユーザー22と相対し、対話しているかのように感じることができる。
FIG. 3 shows a relative state of the character 30 to the user 22.
As shown in the figure, if an image captured by the camera 16 is set as a viewing area of the character 30 as it is and the face of the user 22 is recognized on the left side of the viewing area, the character 30 corresponds to the face or The line of sight B is directed toward the user side (FIG. (A)). Similarly, if the user 22 is recognized in the center of the viewing area (FIG. (B)), if the user 22 is recognized on the right side of the viewing area, ( (C)), each character 30 faces the face or line of sight B. For this reason, the user 22 can feel as if the character 30 has an intention and is interacting with the user 22 in the real space.
また、図4にはキャラクター30がユーザー22を認識した際の移動状態が示されている。
同図に示すように、カメラ14による撮影画像36(視野A)内にユーザー22が認識されていない状態では、キャラクター30は仮想空間32奥に位置しており、視野A内にユーザー22を認識すると手前に向かい仮想空間内を移動してくる。このため、ユーザー22は、キャラクター30が現実空間におけるユーザーの行動を認識しているかのように感じることができる。
FIG. 4 shows a movement state when the character 30 recognizes the user 22.
As shown in the figure, when the user 22 is not recognized in the captured image 36 (view A) by the camera 14, the character 30 is located in the virtual space 32 and recognizes the user 22 in the view A. Then, it moves toward the front and moves in the virtual space. For this reason, the user 22 can feel as if the character 30 recognizes the user's action in the real space.
さらに、図5は、カメラ視野A内でユーザー22が移動した際のモニター14に表示される画像の変化を示している。
同図に示すように、モニター14は仮想空間32の端面に配置された窓のように設定され、モニター14中心と推定ユーザー22位置を結ぶ線を中心にモニタ14枠で制限された角度領域のキャラクター30およびその背景画像を観察することができる。
なお、本実施形態において、ユーザー22の認識は、カメラによる撮影画像を二値化し、眼窩、鼻梁、口唇部等の顔面特異形状の位置を認識するなど、公知の手法を用いることができる。
Further, FIG. 5 shows a change in an image displayed on the monitor 14 when the user 22 moves within the camera view A.
As shown in the figure, the monitor 14 is set like a window arranged on the end face of the virtual space 32, and has an angle region limited by the monitor 14 frame around a line connecting the center of the monitor 14 and the estimated user 22 position. The character 30 and its background image can be observed.
In the present embodiment, the user 22 can recognize the user 22 by using a known method such as binarizing the image captured by the camera and recognizing the position of the face-specific shape such as the eye socket, nose bridge, and lip.
図6には、モニターへのキャラクターおよび背景(仮想空間)の表示例が示されており、神社境内という仮想空間内に、少女(キャラクター)を配置している。そして、カメラによる撮影画像を二値化した画像が図中右下に表示され、これがキャラクターによるユーザー認識状態である。そして、顔面位置は、顔面特徴点を囲う状態で矩形枠にて示されている。無論、実際の使用時には、このような二値化画像を並置させる必要はない。
また、上記説明においては、キャラクター30は水平面内での移動、あるいはユーザー22への相対動作について説明したが、たとえばカメラ16視野内でユーザー22の顔が上部に位置し、あるいは下部に位置した場合などには、それに対応してキャラクター30の顔、姿勢ないし視線を上下方向に角度変更することができる。
また、本発明において、たとえばユーザーの指の形状を認識可能とし、じゃんけん等の動作を行うこともできる。
FIG. 6 shows a display example of a character and background (virtual space) on a monitor, and a girl (character) is arranged in a virtual space called a shrine precinct. An image obtained by binarizing the image captured by the camera is displayed at the lower right in the figure, and this is a user recognition state by the character. The face position is indicated by a rectangular frame surrounding the face feature point. Of course, in actual use, it is not necessary to juxtapose such binarized images.
In the above description, the character 30 has been described as moving in the horizontal plane or relative to the user 22. For example, when the face of the user 22 is positioned at the top or the bottom within the field of view of the camera 16. For example, the face, posture or line of sight of the character 30 can be changed in the vertical direction correspondingly.
Further, in the present invention, for example, the shape of the user's finger can be recognized, and an operation such as Janken can be performed.
10 コミュニケーションキャラクター装置
14 モニター
16 カメラ
22 ユーザー(対象者)
24 認識手段
26 キャラクター動作制御手段
30 コミュニケーションキャラクター
32 仮想空間
36 撮影画像
10 Communication character device
14 Monitor
16 Camera 22 User (subject)
24 recognition means 26 character motion control means 30 communication character 32 virtual space 36 photographed image
Claims (5)
コミュニケーションキャラクターを表示可能な表示手段と、
該対象者画像より対象者の特定部位の位置及び/又は形状を認識する認識手段と、
前記撮像手段による撮影画像を前記コミュニケーションキャラクターの目視領域として設定し、該目視領域内での対象者の特定部位の位置及び/又は形状により、コミュニケーションキャラクターに対応動作を取らせるキャラクター動作制御手段と、
を備えたことを特徴とするコミュニケーションキャラクター装置。 Imaging means for capturing an image of the subject;
Display means capable of displaying communication characters;
Recognition means for recognizing the position and / or shape of the specific part of the subject from the subject image;
Character action control means for setting a captured image by the imaging means as a viewing area of the communication character, and taking action corresponding to the communication character according to the position and / or shape of the specific part of the subject within the viewing area;
A communication character device characterized by comprising:
コミュニケーションキャラクターを表示可能な表示手段と、を備えたコンピュータまたはゲーム機用プログラムであって、
該対象者画像より対象者の特定部位の位置及び/又は形状を認識する認識手段と、
前記撮像手段による撮影画像を前記コミュニケーションキャラクターの目視領域として設定し、該目視領域内での対象者の特定部位の位置及び/又は形状により、コミュニケーションキャラクターに対応動作を取らせるキャラクター動作制御手段と、
を備えたことを特徴とするコミュニケーションキャラクタープログラム。 Imaging means for capturing an image of the subject;
A computer or game machine program comprising display means capable of displaying a communication character,
Recognition means for recognizing the position and / or shape of the specific part of the subject from the subject image;
Character action control means for setting a captured image by the imaging means as a viewing area of the communication character, and taking action corresponding to the communication character according to the position and / or shape of the specific part of the subject within the viewing area;
A communication character program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009092727A JP2010244322A (en) | 2009-04-07 | 2009-04-07 | Communication character device and program therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009092727A JP2010244322A (en) | 2009-04-07 | 2009-04-07 | Communication character device and program therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010244322A true JP2010244322A (en) | 2010-10-28 |
Family
ID=43097273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009092727A Pending JP2010244322A (en) | 2009-04-07 | 2009-04-07 | Communication character device and program therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010244322A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014010605A (en) * | 2012-06-29 | 2014-01-20 | Toshiba Corp | Information processing apparatus, information display device, and information processing method and program |
JP2015109080A (en) * | 2014-11-12 | 2015-06-11 | 株式会社東芝 | Information processor, information display, information processing method and program |
JP2015231443A (en) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | Program and game system |
JP2018140176A (en) * | 2018-03-08 | 2018-09-13 | 株式会社バンダイナムコエンターテインメント | Program and game system |
JP2021037404A (en) * | 2020-12-10 | 2021-03-11 | 株式会社バンダイナムコエンターテインメント | Program and electronic apparatus |
JP2021041241A (en) * | 2020-12-10 | 2021-03-18 | 株式会社バンダイナムコエンターテインメント | Program and electronic apparatus |
JP2021176541A (en) * | 2016-11-10 | 2021-11-11 | 株式会社バンダイナムコエンターテインメント | Game system and program |
JP2022526512A (en) * | 2019-11-28 | 2022-05-25 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | Interactive object drive methods, devices, equipment, and storage media |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10214344A (en) * | 1997-01-31 | 1998-08-11 | Fujitsu Ltd | Interactive display device |
JP2000276610A (en) * | 1999-03-26 | 2000-10-06 | Mr System Kenkyusho:Kk | User interface method, information processor and program storing medium |
JP2002366271A (en) * | 2001-06-13 | 2002-12-20 | Sharp Corp | System and method for displaying image |
-
2009
- 2009-04-07 JP JP2009092727A patent/JP2010244322A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10214344A (en) * | 1997-01-31 | 1998-08-11 | Fujitsu Ltd | Interactive display device |
JP2000276610A (en) * | 1999-03-26 | 2000-10-06 | Mr System Kenkyusho:Kk | User interface method, information processor and program storing medium |
JP2002366271A (en) * | 2001-06-13 | 2002-12-20 | Sharp Corp | System and method for displaying image |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014010605A (en) * | 2012-06-29 | 2014-01-20 | Toshiba Corp | Information processing apparatus, information display device, and information processing method and program |
JP2015231443A (en) * | 2014-06-09 | 2015-12-24 | 株式会社バンダイナムコエンターテインメント | Program and game system |
JP2015109080A (en) * | 2014-11-12 | 2015-06-11 | 株式会社東芝 | Information processor, information display, information processing method and program |
JP2021176541A (en) * | 2016-11-10 | 2021-11-11 | 株式会社バンダイナムコエンターテインメント | Game system and program |
JP7238028B2 (en) | 2016-11-10 | 2023-03-13 | 株式会社バンダイナムコエンターテインメント | Game system, game providing method and program |
JP7445798B2 (en) | 2016-11-10 | 2024-03-07 | 株式会社バンダイナムコエンターテインメント | Game system, game provision method and program |
JP2018140176A (en) * | 2018-03-08 | 2018-09-13 | 株式会社バンダイナムコエンターテインメント | Program and game system |
JP2022526512A (en) * | 2019-11-28 | 2022-05-25 | 北京市商▲湯▼科技▲開▼▲發▼有限公司 | Interactive object drive methods, devices, equipment, and storage media |
JP2021037404A (en) * | 2020-12-10 | 2021-03-11 | 株式会社バンダイナムコエンターテインメント | Program and electronic apparatus |
JP2021041241A (en) * | 2020-12-10 | 2021-03-18 | 株式会社バンダイナムコエンターテインメント | Program and electronic apparatus |
JP7051993B2 (en) | 2020-12-10 | 2022-04-11 | 株式会社バンダイナムコエンターテインメント | Programs and electronic devices |
JP7155227B2 (en) | 2020-12-10 | 2022-10-18 | 株式会社バンダイナムコエンターテインメント | Program, electronic device and control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102098277B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
JP6095763B2 (en) | Gesture registration device, gesture registration program, and gesture registration method | |
US10691934B2 (en) | Real-time visual feedback for user positioning with respect to a camera and a display | |
JP2010244322A (en) | Communication character device and program therefor | |
US11170580B2 (en) | Information processing device, information processing method, and recording medium | |
EP3117290B1 (en) | Interactive information display | |
JP6452440B2 (en) | Image display system, image display apparatus, image display method, and program | |
WO2019187862A1 (en) | Information processing device, information processing method, and recording medium | |
KR102159767B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
EP3528024B1 (en) | Information processing device, information processing method, and program | |
US11151804B2 (en) | Information processing device, information processing method, and program | |
KR20140002009A (en) | Input device, input method and recording medium | |
JP7499819B2 (en) | Head-mounted display | |
JP2016213677A (en) | Remote communication system, and control method and program for the same | |
CN113498531A (en) | Head-mounted information processing device and head-mounted display system | |
CN111801725A (en) | Image display control device and image display control program | |
JP2016213674A (en) | Display control system, display control unit, display control method, and program | |
US20190369807A1 (en) | Information processing device, information processing method, and program | |
KR20090040839A (en) | Augmented reality computer device | |
KR20110070514A (en) | Head mount display apparatus and control method for space touch on 3d graphic user interface | |
US11589001B2 (en) | Information processing apparatus, information processing method, and program | |
KR20180074124A (en) | Method of controlling electronic device with face recognition and electronic device using the same | |
KR102312601B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
WO2021245823A1 (en) | Information acquisition device, information acquisition method, and recording medium | |
WO2019138682A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130625 |