JP2020087003A - Character display method - Google Patents

Character display method Download PDF

Info

Publication number
JP2020087003A
JP2020087003A JP2018221324A JP2018221324A JP2020087003A JP 2020087003 A JP2020087003 A JP 2020087003A JP 2018221324 A JP2018221324 A JP 2018221324A JP 2018221324 A JP2018221324 A JP 2018221324A JP 2020087003 A JP2020087003 A JP 2020087003A
Authority
JP
Japan
Prior art keywords
character
sight
line
screen
trigger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018221324A
Other languages
Japanese (ja)
Other versions
JP7128473B2 (en
Inventor
裕玄 三武
Hirotsune Mitake
裕玄 三武
晶一 長谷川
Shoichi Hasegawa
晶一 長谷川
新山 聡
Satoshi Niiyama
聡 新山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
AGC Inc
Original Assignee
Asahi Glass Co Ltd
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Glass Co Ltd, Tokyo Institute of Technology NUC filed Critical Asahi Glass Co Ltd
Priority to JP2018221324A priority Critical patent/JP7128473B2/en
Publication of JP2020087003A publication Critical patent/JP2020087003A/en
Application granted granted Critical
Publication of JP7128473B2 publication Critical patent/JP7128473B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To provide character display means which uses a planar screen and which is suitable for causing sensation of being gazed by a character to a person who observes the character.SOLUTION: There is provided a method for displaying a character Ch in a planar screen Sc toward a target person Tg existing on a front side of the screen Sc. The character Ch is displayed so that a visual line of the character Ch continuously comes out of a front direction of the screen Sc by a first trigger including an actuation condition that a drift angle p of polar coordinates of the target person using a display position of the character Ch as an origin is within an angle range for generating a Mona Lisa effect. The visual line of the character Ch is smoothly changed by animation so that the visual line of the same character Ch turns to the front direction of the screen Sc by a second trigger including an actuation condition that display of the character Ch at least by the first trigger continues for predetermined time.SELECTED DRAWING: Figure 4

Description

本発明は表示方法に関する。 The present invention relates to a display method.

特許文献1には平面的な画面の中にキャラクターを表示する方法が開示されている。この表示方法ではキャラクターが横を向いても、キャラクターの視線を常に正面に向けるようにする。その結果、横を向いているキャラクターにも、ユーザーに語りかけるような画面を表示することができるようになる(段落[0033])。 Patent Document 1 discloses a method of displaying a character on a flat screen. With this display method, the character's line of sight is always directed to the front, even if the character is facing sideways. As a result, it is possible to display a screen that speaks to the user even if the character is facing sideways (paragraph [0033]).

特開2012−050791号公報JP 2012-050791 A

ACM Transactions on Interactive Intelligent Systems, Vol. 1, No. 2, Article 11, Pub. date: January 2012., Taming Mona Lisa: Communicating Gaze Faithfully in 2D and 3D Facial Projections, SAMER AL MOUBAYED, JENS EDLUND, and JONAS BESKOW, KTH Royal Institute of TechnologyACM Transactions on Interactive Intelligent Systems, Vol. 1, No. 2, Article 11, Pub. date: January 2012., Taming Mona Lisa: Communicating Gaze Faithfully in 2D and 3D Facial Projections, SAMER AL MOUBAYED, JENS EDLUND, and JONAS BESKOW , KTH Royal Institute of Technology 三澤 加奈,外 2 名,“LiveMask : 立体顔形状ディスプレイを用いたテレプレゼンスシステムにおけるコミュニケーションの評価”,[online],2012 年 3 月 15 日,情報処理学会 インタラクション 2012(IPSJ Interaction 2012),[平成 30 年 11 月 8 日検索],インターネット <URL:http://www.interaction-ipsj.org/archives/paper2012/data/Interaction2012/oral/data/pdf/12INT006.pdf>Kana Misawa, 2 others, “LiveMask: Evaluation of communication in telepresence system using 3D face shape display”, [online], March 15, 2012, IPSJ Interaction 2012 (IPSJ Interaction 2012), [Heisei Era] Search on November 8, 2018], Internet <URL: http://www.interaction-ipsj.org/archives/paper2012/data/Interaction2012/oral/data/pdf/12INT006.pdf>

上記方法ではコンピューターが画面内のキャラクターの視線を常に正面に向ける。このため、ユーザーはキャラクターがユーザーに語りかけるような感覚を得ることができる。しかしながらこの方法によっては、ユーザーが、画面内のキャラクターから自分自身が注視されているという感覚を満足に得られない。あるいはユーザーが、自分自身が画面内のキャラクターとアイコンタクトをとっているという感覚を満足に得られない。対象人物が実在の他の人物から視線を受ける場合と比較するとこの傾向は顕著である。 In the above method, the computer always directs the eyes of the character on the screen to the front. Therefore, the user can get a feeling that the character speaks to the user. However, this method does not allow the user to satisfactorily obtain the feeling that the character on the screen is gazing at himself. Or the user is not happy with the feeling that he or she is in eye contact with the on-screen character. This tendency is remarkable as compared with the case where the target person receives a line of sight from another real person.

上述の現象は対象人物の主観や思い込みの範囲を超えて、心理学的な自然法則として一般化されるものである。本発明の課題は、平面的な画面を用いたキャラクター表示手段であって、キャラクターに注視された感覚を、キャラクターを観察する者に惹起するのに適したものを提供することである。 The above-mentioned phenomenon is generalized as a psychological natural law beyond the scope of subjectivity and assumptions of the target person. An object of the present invention is to provide a character display unit using a flat screen, which is suitable for inducing a person who observes the character to feel the character's gaze.

[1] 平面的な画面の手前側に存在する対象者に向けて、前記画面の中にキャラクターを表示する方法であって、
キャラクターの表示位置を原点とする前記対象者の極座標の偏角pがモナリザ効果を生ずる角度範囲にあることを作動条件として含む第1トリガーによって、キャラクターの視線が画面の正面の方向から継続的に外れるようにキャラクターを表示し、
少なくとも前記第1トリガーによるキャラクターの表示が所定時間継続したことを作動条件として含む第2トリガーによって、同一のキャラクターの視線が画面の正面の方向を向くようにキャラクターの視線をアニメーションで滑らかに変更する、
方法。
[2] 前記第1トリガーは、前記キャラクターの表示位置と対象者との距離dが所定値R1より大きい状態から、所定値R1より小さい状態に変化したことをさらに条件として含む、
[1]に記載の方法。
[3] 前記第2トリガーは、少なくとも前記所定時間経過後の前記距離dが所定値R1より小さい所定値R2より小さくなることを条件として含む、
[2]に記載の方法。
[4] 前記第1トリガーの作動から、前記距離dが所定値R1より小さい所定値R2より小さくなるまでの時間の経過を、前記第1トリガーによるキャラクターの表示が所定時間継続したこととみなす、
[3]に記載の方法。
[5] 前記第2トリガーの作動後、対象者の極座標の偏角pが変化しても、キャラクターの視線とキャラクターの顔の方向とを画面の正面の方向に固定し続ける、
[3]に記載の方法。
[6] 前記第2トリガーの作動後、キャラクターの視線を画面の正面の方向に固定しながら、キャラクターの顔の方向を対象者の極座標の偏角pの変化に追随するようにアニメーションで滑らかに動かす、
[3]に記載の方法。
[7] 前記第1トリガーによってキャラクターを表示する際、それ以前に画面の正面の方向に向いていたキャラクターの視線が画面の正面の方向から外れるようにキャラクターの視線をアニメーションで滑らかに動かす、
[1]に記載の方法。
[8] 前記第1トリガーによって前記キャラクターの視線が画面の正面の方向から外れるよう前記キャラクターを表示する間、キャラクターの視線をアニメーションで動かし続ける、
[7]に記載の方法。
[9] 前記キャラクターの視線を動かし続ける際、キャラクターの視線が画面の正面の方向を通過するものの、画面の正面の方向を凝視しないようにする、
[8]に記載の方法。
[10] 前記所定時間経過後に前記対象者の極座標の偏角pがモナリザ効果を生ずる角度範囲にあっても、前記第2トリガーによる視線の変更を行う、
[1]に記載の方法。
[11] 前記所定時間経過後に前記対象者が前記表示位置の正面に存在しても、前記第2トリガーによる視線の変更を行う、
[1]に記載の方法。
[12] 前記第2トリガーによりキャラクターの視線が変化しても、キャラクターの顔の方向は変化しない、
[1]に記載の方法。
[13] 前記極座標は画面の表示方向と平行な面を平面視したときの円座標である、
[1]に記載の方法。
[14] 前記画面は自発光型のディスプレイの表示領域にハーフミラーが貼り付けられることで構成されており、
前記ディスプレイの表示領域は、前記対象者から前記ハーフミラー越しに観察される、
[1]に記載の方法。
[15] センサーから検知信号を受けるとともにディスプレイに対して映像信号を送るコントローラーであって、
前記ディスプレイは平面的な画面を有するとともに、前記映像信号を受けてこれを元にキャラクターを前記画面の中の所定の表示位置に表示するものであり、
前記センサーは、前記画面の前側に対象者の存在することを検知信号として前記コントローラーに送るものであり、ここで、前記センサーは、前記キャラクターの表示位置を原点とする前記対象者の極座標の偏角pがモナリザ効果を生ずる角度範囲にある場合において、対象者の存在を検知可能なものであり、
前記コントローラーは、
前記検知信号を受けたときに、前記画面の正面の方向から視線を外しているキャラクターを継続的に前記表示位置に表示する映像信号を送り、さらに
視線を外しているキャラクターの表示が所定時間継続した後に、同一のキャラクターが画面の正面の方向に向かって視線を滑らかに移動させるアニメーションを前記表示位置に表示する映像信号を送る、
コントローラー。
[16] 前記対象者が前記表示位置の正面に存在していても、これを前記検知信号として前記コントローラーに送るものであり、
前記コントローラーは、前記対象者が前記表示位置の正面に存在していても、前記検知信号を受けたときに、前記視線を外しているキャラクターを表示する映像信号を送る、
[15]に記載のコントローラー。
[17] コンピューターを[15]に記載のコントローラーとして動作させるためのプログラム。
[18] [17]に記載のプログラムを、ネットワークを介して前記コンピューターへ送信するとともに前記コンピューターにインストールすること。
[19] [17]に記載のプログラムを記憶しているサーバーであって、ネットワークを介して当該プログラムを前記コンピューターへ送信するサーバー。
[1] A method of displaying a character in the screen toward a target person existing on the front side of a flat screen,
By the first trigger including as an operating condition that the polar coordinate declination p of the subject whose origin is the display position of the character is in the angular range that produces the monaural effect, the character's line of sight is continuously changed from the front of the screen. Display the character so that it will come off,
The second trigger including at least the display of the character by the first trigger continued for a predetermined time as an operating condition smoothly changes the line of sight of the character by animation so that the line of sight of the same character faces the front direction of the screen. ,
Method.
[2] The first trigger further includes, as a condition, that the distance d between the display position of the character and the target person has changed from being larger than a predetermined value R1 to being smaller than a predetermined value R1.
The method according to [1].
[3] The second trigger includes, as a condition, at least the distance d after the lapse of the predetermined time is smaller than a predetermined value R2 smaller than the predetermined value R1.
The method described in [2].
[4] A lapse of time from the actuation of the first trigger until the distance d becomes smaller than a predetermined value R2 smaller than a predetermined value R1 is regarded as the display of the character by the first trigger continued for a predetermined time,
The method described in [3].
[5] After the operation of the second trigger, even if the polar angle p of the subject changes, the character's line of sight and the direction of the character's face continue to be fixed in the direction of the front of the screen.
The method described in [3].
[6] After the operation of the second trigger, while fixing the line of sight of the character in the direction of the front of the screen, the direction of the character's face is smoothly animated by following the change in the polar coordinate declination p of the subject. move,
The method described in [3].
[7] When the character is displayed by the first trigger, the character's line of sight is smoothly moved by an animation so that the line of sight of the character, which was facing the front of the screen before that, deviates from the front of the screen.
The method according to [1].
[8] While the character is displayed by the first trigger so that the character's line of sight deviates from the direction of the front of the screen, the character's line of sight continues to be animated.
The method according to [7].
[9] When the character's line of sight continues to move, the character's line of sight passes in the front direction of the screen, but does not stare in the front direction of the screen.
The method according to [8].
[10] The line of sight is changed by the second trigger even if the polar coordinate declination p of the subject is within the angular range that produces the monaural effect after the lapse of the predetermined time.
The method according to [1].
[11] Even if the subject is present in front of the display position after the lapse of the predetermined time, the line of sight is changed by the second trigger,
The method according to [1].
[12] Even if the line of sight of the character changes due to the second trigger, the direction of the character's face does not change,
The method according to [1].
[13] The polar coordinates are circular coordinates when a plane parallel to the display direction of the screen is viewed in plan.
The method according to [1].
[14] The screen is configured by attaching a half mirror to a display area of a self-luminous display,
The display area of the display is observed from the subject through the half mirror,
The method according to [1].
[15] A controller that receives a detection signal from a sensor and sends a video signal to a display,
The display has a flat screen, and receives the video signal to display a character at a predetermined display position in the screen based on the video signal.
The sensor sends, as a detection signal, the presence of a subject on the front side of the screen to the controller, wherein the sensor is a polar coordinate of the subject whose origin is the display position of the character. In the case where the angle p is in the angular range that produces the Mona Lisa effect, the presence of the subject can be detected,
The controller is
When it receives the detection signal, it sends a video signal to continuously display the character in the line of sight from the front of the screen at the display position, and the character in the line of sight continues to be displayed for a predetermined time. After that, the same character sends a video signal for displaying an animation in which the line of sight moves smoothly toward the front of the screen at the display position,
controller.
[16] Even if the subject is present in front of the display position, the subject is sent to the controller as the detection signal.
The controller sends a video signal that displays the character that is out of the line of sight when the detection signal is received even when the subject is present in front of the display position,
The controller according to [15].
[17] A program for operating a computer as the controller according to [15].
[18] Transmitting the program according to [17] to the computer via a network and installing the program on the computer.
[19] A server storing the program according to [17], which transmits the program to the computer via a network.

本発明により、平面的な画面を用いたキャラクター表示手段であって、キャラクターに注視された感覚をキャラクターを観察する者に惹起するのに適したものを提供することができる。 According to the present invention, it is possible to provide a character display means using a flat screen, which is suitable for causing a person who observes the character to feel the gaze of the character.

観察者とキャラクターの平面図1。Top view of observer and character 1. 観察者とキャラクターの平面図2。Plan view of the observer and character 2. 表示方法の流れ図。Flow chart of display method. キャラクターの画像1。Character image 1. キャラクターの画像2。Character image 2. 対象者の位置とキャラクターの視線との遷移図。Transition diagram of the position of the target person and the line of sight of the character. キャラクターの視線の遷移図。Transition diagram of the character's line of sight. 対象者の位置の遷移図。Transition diagram of the position of the target person. 対象者の移動図1。Movement of the subject Figure 1. 対象者の移動図2。Movement of the subject Figure 2. コントローラーと他の装置の接続図。Connection diagram of the controller and other devices. 画面の観察図。Observation view of the screen. 対象者とキャラクターの平面図。Top view of the target person and the character. コントローラーの論理構成図。Logical configuration diagram of the controller.

<モナリザ効果> <Mona Lisa effect>

本実施形態はモナリザ効果の生じる条件下において利用される。モナリザ効果の一般的な概念は非特許文献1に説明されている。図1にはキャラクターCh、観察者Ob1及びOb2を平面視したときの位置関係が示されている。キャラクターChは本来、画面Scの中に平面的に表示されるものである。図中でのキャラクターChの表現は仮想的なものである。キャラクターChは画面Scの正面の方向に視線を向けている。観察者Ob1はその視線の先にいる。観察者Ob2も画面Scの正面側にいる。しかしながら、観察者Ob2はキャラクターChから見て左側にずれた場所にいる。 This embodiment is used under the condition where the mona Lisa effect occurs. The general concept of the Mona Lisa effect is described in [1]. FIG. 1 shows the positional relationship when the character Ch and the observers Ob1 and Ob2 are viewed in a plan view. The character Ch is originally displayed flat on the screen Sc. The representation of the character Ch in the figure is virtual. The character Ch is looking toward the front of the screen Sc. The observer Ob1 is ahead of his line of sight. The observer Ob2 is also on the front side of the screen Sc. However, the observer Ob2 is at a position displaced to the left when viewed from the character Ch.

図1において観察者Ob1には、自分自身がキャラクターChに注視されているという感覚を生じる。キャラクターChの視線の先に観察者Ob1がいることから、これは自然に理解されるところである。仮にキャラクターChが実在の人物であっても観察者Ob1にはキャラクターChに注視されているという感覚を生じる。 In FIG. 1, the observer Ob1 has a feeling that he or she is gazing at the character Ch. This is naturally understood because the observer Ob1 is ahead of the line of sight of the character Ch. Even if the character Ch is a real person, the observer Ob1 feels that the character Ch is gazing at the character Ch.

一方、図1において観察者Ob2はキャラクターChの視線の先にいない。しかしながら観察者Ob2にも自分自身がキャラクターChに注視されているという感覚を生じる。これがいわゆるモナリザ効果である。仮にキャラクターChが実在の人物であったならば観察者Ob2にはキャラクターChに注視されているという感覚を生じえない。視線が観察者Ob2に向かう方向と全くずれているからである。すなわちモナリザ効果は平面的な画面上に表示されたキャラクターに特有の現象である。 On the other hand, in FIG. 1, the observer Ob2 is not in the line of sight of the character Ch. However, the observer Ob2 also feels as if he or she is gazing at the character Ch. This is the so-called Mona Lisa effect. If the character Ch is a real person, the observer Ob2 cannot have a feeling that the character Ch is gazing at the character Ch. This is because the line of sight is completely deviated from the direction toward the observer Ob2. That is, the mona Lisa effect is a phenomenon peculiar to a character displayed on a flat screen.

図1において、観察者Ob1にモナリザ効果が潜在的に生じているのかどうかは分からない。本明細書では、観察者Ob1がモナリザ効果の生じてない範囲にいるという前提で実施形態を説明する。また観察者Ob2がモナリザ効果の生じる範囲にいるという前提で実施形態を説明する。これらはいずれも技術的な説明の便宜である。本明細書の記載は局面によっては心理学的な自然法則を正確に表していない可能性がある。 In FIG. 1, it is not known whether the observer Ob1 is potentially having the mona Lisa effect. In the present specification, the embodiment will be described on the assumption that the observer Ob1 is in a range where the monaural effect is not generated. Further, the embodiment will be described on the assumption that the observer Ob2 is in a range where the monaural effect occurs. All of these are for convenience of technical explanation. In some aspects, the description herein may not accurately represent a psychological natural law.

図2においても、キャラクターChと観察者Ob1及びOb2を平面視したときの位置関係が示されている。キャラクターChはキャラクターChから見て左側にずれた方向に視線を向けている。このため観察者Ob1には、キャラクターChが視線を自分自身から外しているという感覚を生じる。あるいは観察者Ob1には、観察者Ob2がキャラクターChに注視されているという感覚を生じる。観察者Ob1からはキャラクターChの視線の先に観察者Ob2がいるように見えることから、これは自然に理解されるところである。 FIG. 2 also shows the positional relationship when the character Ch and the observers Ob1 and Ob2 are viewed in a plan view. The character Ch is looking toward the left side of the character Ch. For this reason, the observer Ob1 feels that the character Ch is looking away from himself. Alternatively, the observer Ob1 has a feeling that the observer Ob2 is gazing at the character Ch. From the viewpoint of the observer Ob1, it seems that the observer Ob2 is ahead of the line of sight of the character Ch, which is naturally understood.

一方、図2において観察者Ob2にもキャラクターChが視線を自分自身から外しているという感覚を生じる。観察者Ob2からはキャラクターChの視線はキャラクターChから見て自分自身よりももっと左にずれたところに向いているように感じる。これはモナリザ効果の一つの側面である。 On the other hand, in FIG. 2, the observer Ob2 also feels as if the character Ch is looking away from himself. From the viewpoint of the observer Ob2, it is felt that the line of sight of the character Ch is facing to a position further to the left than himself as seen from the character Ch. This is one aspect of the Mona Lisa effect.

<キャラクター表示方法> <Character display method>

図3の流れ図は本実施形態のキャラクター表示方法を示す。図4及び5は対象者TgとキャラクターChの平面図である。この表示方法では平面的な画面Scの中にキャラクターChを表示する。この時、画面Scの手前側に存在する対象者Tgに向かってキャラクターChを表示する。以下、これらの図を適時に参照しながら説明する。対象者TgはキャラクターChを観察していてもよく、していなくてもよい。したがって本実施形態では潜在的な観察者である人物を対象者Tgと表現する。本実施形態の方法の一態様は、対象者TgがキャラクターChを観察しているという仮定の下に自動化された表示を行うものである。 The flowchart of FIG. 3 shows the character display method of this embodiment. 4 and 5 are plan views of the target person Tg and the character Ch. In this display method, the character Ch is displayed on the flat screen Sc. At this time, the character Ch is displayed toward the target person Tg existing on the front side of the screen Sc. Hereinafter, description will be given with reference to these figures in a timely manner. The subject Tg may or may not be observing the character Ch. Therefore, in this embodiment, a person who is a potential observer is expressed as a target person Tg. One aspect of the method of the present embodiment is to perform automated display under the assumption that the subject Tg is observing the character Ch.

図4及び5に示すように、キャラクターChの瞳を対象者Tgに向けながら、キャラクターChを画面Scの中に表示する。キャラクターChの例として少女の胸像のイラストが示されている。 As shown in FIGS. 4 and 5, the character Ch is displayed in the screen Sc while the eyes of the character Ch are directed toward the target person Tg. An illustration of a bust of a girl is shown as an example of the character Ch.

図4及び5において、キャラクターChの瞳の描写を変更することで、その視線の向きを様々に表示できる。瞳の描写には少なくとも白目と虹彩(iris)の描写が必要と考えられる。なお医学的に瞳とは虹彩に取り囲まれた瞳孔のこと言う。しかしながら本実施形態は描写の仕方を論じるものであることから、特に白目に囲まれた虹彩を「瞳」と呼ぶものとする。 4 and 5, by changing the depiction of the pupil of the character Ch, the direction of the line of sight can be displayed in various ways. It is considered that the depiction of the eyes requires at least depiction of the white eye and iris. Medically, the pupil is the pupil surrounded by the iris. However, since the present embodiment discusses how to draw, the iris surrounded by white eyes is called a "pupil".

図3に示すようにステップS31にて、第1トリガーの作動条件が満たされたかどうかを判定する。第1トリガーが作動するとステップS32にてキャラクターの視線を正面から外してキャラクターを表示する。第1トリガーは少なくとも対象者Tgにモナリザ効果の生じることを作動条件としている。第1トリガーはその他の付加的な作動条件を有していてもよい。 As shown in FIG. 3, in step S31, it is determined whether the operating condition of the first trigger is satisfied. When the first trigger is activated, the line of sight of the character is removed from the front in step S32 to display the character. The operation condition of the first trigger is that at least the subject Tg has a mona Lisa effect. The first trigger may have other additional operating conditions.

図4に示すように、モナリザ効果を生じるか否かは、キャラクターChの表示位置を原点とする、水平方向に広がる極座標系(円座標系)内で考えることができる。この極座標系は画面Scの表示方向と平行な面で平面視したときの、キャラクターChの表示位置を中心とする極座標系である。 As shown in FIG. 4, whether or not the monaural effect is produced can be considered in a horizontal coordinate system (circular coordinate system) having the display position of the character Ch as the origin and extending in the horizontal direction. The polar coordinate system is a polar coordinate system centered on the display position of the character Ch when viewed in a plane parallel to the display direction of the screen Sc.

図4において、画面Scの後方に設定されているキャラクターChの仮想的な存在位置の中心を極座標系の原点としている。極座標系の原点は画面Sc上に表示されるキャラクターChの正中線としてもよい。 In FIG. 4, the center of the virtual existence position of the character Ch set behind the screen Sc is the origin of the polar coordinate system. The origin of the polar coordinate system may be the midline of the character Ch displayed on the screen Sc.

図4に示すように、画面Scの真正面の方向を0度とする。対象者Tgの方向を偏角pとする。p=0であれば対象者TgはキャラクターChの表示位置の正面に位置することになる。図中では対象者Tgは原点よりも右側に位置している。対象者Tgが原点よりも左側に位置していてもよい。図中の左側をp<0のエリアと考えることもできる。しかしながら本明細書ではpの正負は考慮しない。pは絶対値として考慮される。 As shown in FIG. 4, the direction directly in front of the screen Sc is 0 degree. The direction of the subject Tg is defined as the argument p. If p=0, the target person Tg is located in front of the display position of the character Ch. In the figure, the subject Tg is located on the right side of the origin. The target person Tg may be located on the left side of the origin. The left side in the figure can be considered as an area of p<0. However, the positive/negative of p is not taken into consideration in this specification. p is considered as an absolute value.

さらに図4に示すように対象者Tgと原点との間の距離をdとする。距離dは極座標系の動径に当たる。キャラクターChと画面Scと対象者Tgとの間の位置関係は偏角p及び距離dによって特定できる。偏角pが所定の角度範囲にあれば対象者Tgにとってのモナリザ効果を生じる。 Further, as shown in FIG. 4, the distance between the target person Tg and the origin is d. The distance d corresponds to the radius vector of the polar coordinate system. The positional relationship among the character Ch, the screen Sc, and the subject Tg can be specified by the argument p and the distance d. If the declination angle p is within a predetermined angle range, the monaural effect for the subject Tg is produced.

図4に示すように、所定の角度範囲をMn1<p<Mn2とする。角度Mn1は0度より大きい。角度Mn1は実験的に取得してもよい。本実施形態において角度Mn1は10度である(非特許文献2)。p<Mn1においては、キャラクターChからの視線を感じるか否かにモナリザ効果の影響はない。角度Mn2は90度まで拡大できる。 As shown in FIG. 4, the predetermined angle range is Mn1<p<Mn2. The angle Mn1 is greater than 0 degrees. The angle Mn1 may be experimentally obtained. In this embodiment, the angle Mn1 is 10 degrees (Non-Patent Document 2). When p<Mn1, there is no influence of the mona Lisa effect on whether or not the line of sight from the character Ch is felt. The angle Mn2 can be expanded up to 90 degrees.

条件が満たされて第1トリガーが作動すると、図4に示すようにキャラクターChの視線が画面Scの正面の方向から外れるようにキャラクターChが表示される。キャラクターChの視線が外れた状態は継続的である。 When the condition is satisfied and the first trigger is activated, the character Ch is displayed such that the line of sight of the character Ch deviates from the front direction of the screen Sc as shown in FIG. The state where the character Ch's line of sight is off is continuous.

図4において、キャラクターChの視線の向きは瞳の描画によって変更できる。キャラクターChはイラストであるから、その性質上キャラクターChの視線の向きというのは観察者の主観に依存するものである。そこで例えば図2に示すように正面の観察者Ob1にキャラクターChを観察させて、予め描かれたキャラクターの視線の向きを評価してもよい。評価は統計的に行ってもよい。 In FIG. 4, the direction of the line of sight of the character Ch can be changed by drawing the pupil. Since the character Ch is an illustration, the direction of the line of sight of the character Ch depends on the subjectivity of the observer. Therefore, for example, as shown in FIG. 2, the observer Ob1 in the front may observe the character Ch and evaluate the direction of the line of sight of the character drawn in advance. The evaluation may be performed statistically.

図4においてキャラクターの視線の向きを偏角gで表している。g=0のとき、視線は画面Scの正面の方向に対して平行である。キャラクターChの視線が画面Scの正面の方向から外れたこと(Averting)をg>Avで表す。角度Avは0より大きい。角度Avは実験的に取得してもよい。偏角gが角度Av以上であればキャラクターChの視線が外れたといえる。図中では視線の偏角gは対象者Tgの偏角pより小さい。偏角gは偏角pより大きくてもよい。偏角gは偏角pと一致してもよい。 In FIG. 4, the direction of the character's line of sight is represented by the argument g. When g=0, the line of sight is parallel to the front direction of the screen Sc. The fact that the line of sight of the character Ch has deviated from the front direction of the screen Sc (Averting) is represented by g>Av. The angle Av is greater than zero. The angle Av may be experimentally acquired. If the argument g is greater than the angle Av, it can be said that the line of sight of the character Ch has deviated. In the figure, the line-of-sight declination g is smaller than the subject's Tg declination p. The deflection angle g may be larger than the deflection angle p. The deflection angle g may match the deflection angle p.

次に図3に示すように、ステップS33において第2トリガーの作動条件が満たされたかどうかを判定する。判定のために時間の経過のモニタリングをする。第2トリガーが作動するとステップS34にてキャラクターの視線は正面に動く。第2トリガーは第1トリガーによるキャラクターの表示(ステップS32)が所定時間継続したことを作動条件としている。ここで所定時間は長くとも数秒であることが好ましい。所定時間を設定する上では生身の人間同士の自然なコミュニケーションに要する時間を考慮する。第2トリガーはその他の付加的な作動条件を有していてもよい。後述するように第2トリガーの判定は時間の経過のモニタリングを伴わなくともよい。 Next, as shown in FIG. 3, it is determined in step S33 whether or not the operating condition of the second trigger is satisfied. Monitor the passage of time for judgment. When the second trigger is activated, the line of sight of the character moves to the front in step S34. The operation condition of the second trigger is that the character display (step S32) by the first trigger continues for a predetermined time. Here, the predetermined time is preferably several seconds at the longest. In setting the predetermined time, the time required for natural communication between living human beings is considered. The second trigger may have other additional operating conditions. As will be described later, the determination of the second trigger does not have to be accompanied by monitoring the passage of time.

条件が満たされて第2トリガーが作動すると、図5に示すようにキャラクターChの視線が動く。図5に示すキャラクターChは図4に示したキャラクターChと同一のキャラクターである。同一のキャラクターにて視線外しと視線の正面方向への変更を行う。 When the condition is satisfied and the second trigger is activated, the line of sight of the character Ch moves as shown in FIG. The character Ch shown in FIG. 5 is the same character as the character Ch shown in FIG. Remove the line of sight and change the line of sight to the front direction with the same character.

視線が動いた結果、図5に示すようにキャラクターChの視線が画面Scの正面の方向に向くようにキャラクターChが表示される。視線を動かす際にはアニメーションで滑らかに動かす。図4から図5への変化では、視線がキャラクターChにとっての左斜め方向から正面の方向に遷移する。 As a result of the movement of the line of sight, the character Ch is displayed so that the line of sight of the character Ch faces the front of the screen Sc as shown in FIG. When moving the line of sight, move smoothly with animation. In the change from FIG. 4 to FIG. 5, the line of sight makes a transition from the diagonal left direction for the character Ch to the front direction.

図4に示すように第2トリガーによるキャラクターChの視線の変化はキャラクターChの顔面の方向の変化に追随しない。一態様において第2トリガーによりキャラクターChの視線が変化しても、キャラクターChの顔面の方向は変化しない。図中では視線が遷移する間、キャラクターChの顔面は画面Scの正面方向を向いたままである。他の態様においてキャラクターChの顔面は正面以外の方向を向いていてもよい。 As shown in FIG. 4, the change in the line of sight of the character Ch due to the second trigger does not follow the change in the direction of the face of the character Ch. In one aspect, even if the line of sight of the character Ch changes due to the second trigger, the face direction of the character Ch does not change. In the figure, the face of the character Ch remains facing the front direction of the screen Sc while the line of sight changes. In another aspect, the face of the character Ch may face a direction other than the front.

図5において、キャラクターChの視線が正面を向いた状態は継続的である。キャラクターChは正面を凝視する。図中ではOb2はモナリザ効果の生ずる範囲(Mn1<p<Mn2)に位置している。モナリザ効果により、キャラクターChが自分自身に視線を向けているように対象者Tgは感じる。対象者TgがキャラクターChを注視している場合、対象者TgはキャラクターChから自分自身が注視されたと強く感じる。さらに対象者TgはキャラクターChと目が合ったと感じる。 In FIG. 5, the state in which the line of sight of the character Ch faces the front is continuous. The character Ch gazes at the front. In the figure, Ob2 is located in the range (Mn1<p<Mn2) where the mona Lisa effect occurs. Due to the mona Lisa effect, the subject Tg feels that the character Ch is looking at himself. When the target person Tg is gazing at the character Ch, the target person Tg strongly feels that the character Ch is gazing himself. Furthermore, the target person Tg feels that his eyes match the character Ch.

<使用するキャラクターの特徴> <Characteristics of characters used>

図4及び5において、キャラクターChは瞬きしてもよい。図4及び5において、キャラクターChは表情や感情を表してもよい。例えば第1トリガーの作動時(図4)に表情を表さず、第2トリガーの作動時(図5)において視線を正面に向けながら微笑みを浮かべてもよい。表示方法を娯楽の提供に利用する場合は観察者を驚かしたり、睨みつけたりする表情を表すことも有効である。 4 and 5, the character Ch may blink. In FIGS. 4 and 5, the character Ch may represent facial expressions and emotions. For example, a facial expression may not be displayed when the first trigger is activated (FIG. 4), and a smile may be made while the line of sight is directed to the front when the second trigger is activated (FIG. 5). When the display method is used to provide entertainment, it is also effective to present a facial expression that surprises or gazes at the observer.

図4及び5において、虹彩は白目よりも濃い色で表されてもよい。濃い色で塗りつぶした虹彩に、ハイライトを付け加える表現手法は本実施形態の一態様に含まれる。白目は純白に限定されない。白目は目の中の虹彩の周囲の領域と考えてよい。濃淡を反転させる表現手法においては虹彩を白目より明るくする場合がある。濃淡を反転させる表現手法としては影絵調などがある。 In Figures 4 and 5, the iris may be represented by a darker color than the white eye. An expression method of adding a highlight to an iris filled with a dark color is included in one aspect of this embodiment. White eyes are not limited to pure white. The white eye can be thought of as the area around the iris in the eye. An iris may be made brighter than a white eye in the expression method of reversing the light and shade. There is a shadow tone as an expression method for reversing the shading.

図4及び5において、キャラクターChは少なくとも瞳を有する顔面を有する。キャラクターChは顔面像でもよく、胸像でもよく、上半身像でもよく、全身像でもよい。キャラクターChは座像でもよく、立像でもよい。キャラクターChの顔面が正面側を向いていれば、そのポーズは制限されない。図中ではキャラクターChは正面を向いている。表現として視線を画面Scの正面側に向けられる限り、顔面の向きに制限はない。 4 and 5, the character Ch has a face having at least pupils. The character Ch may be a face image, a bust image, an upper body image, or a full body image. The character Ch may be a sitting image or a standing image. If the face of the character Ch faces the front side, the pose is not limited. In the figure, the character Ch faces the front. As an expression, as long as the line of sight can be directed to the front side of the screen Sc, the orientation of the face is not limited.

図4及び5において、キャラクターChは裸眼である。キャラクターChは眼鏡やゴーグルをかけていてもよい。眼鏡の種類は制限されない。ただし外部からは視線の向きが全く分からなくなることから、濃いサングラスの着用は適当ではない。濃いゴーグルも適当ではない。 4 and 5, the character Ch is the naked eye. The character Ch may wear glasses or goggles. The type of glasses is not limited. However, it is not appropriate to wear dark sunglasses because the direction of the line of sight cannot be seen from the outside. Thick goggles are also not suitable.

図4及び5において、キャラクターChは瞳の一方は髪の毛や眼帯によって隠されていてもよい。またキャラクターChが物陰から正面を覗いているような表現も有効である。 In FIGS. 4 and 5, one of the eyes of the character Ch may be hidden by the hair or the eyepatch. It is also effective to make the character Ch look into the front from behind.

図4及び5において、瞳の向きを変える場合は双方の目において、瞳の向きが異なるものとなっていてもよい。表現技法に合わせて表現することが可能である。このような表現方法は顔面の向きが正面を向いていない場合などに有用と考えられる。対象者TgがキャラクターChの視線の向きを違和感なく特定できればよいものとする。これとは別にキャラクターChが斜視を有することを表現することも本実施形態の一態様に含まれる。 In FIGS. 4 and 5, when the orientation of the pupil is changed, the orientation of the pupil may be different in both eyes. It is possible to express according to the expression technique. Such an expression method is considered to be useful when the face does not face the front. It suffices that the target person Tg can specify the direction of the line of sight of the character Ch without any discomfort. Apart from this, expressing that the character Ch has a squint is also included in one aspect of the present embodiment.

図4及び5においてキャラクターChは人物の実物映像でもよい。キャラクターChはよりデフォルメされたイラストでもよい。キャラクターChは3DCGモデリングで作られたものでもよい。キャラクターChはヒト及びヒト以外の動物をモチーフにしてもよい。キャラクターChはロボットや空想上の生き物でもよい。なおキャラクターChは対象者から見てその視線の向きが分かる程度に擬人化したものであることが好ましい。例えば昆虫は複眼で周囲を見るから、そもそも視線を有しない。キャラクターChが昆虫のイラストがであれば、イラスト中の瞳をコミカルな瞳に置き換えることは有効である。 In FIGS. 4 and 5, the character Ch may be an actual image of a person. The character Ch may be a more deformed illustration. The character Ch may be made by 3DCG modeling. The character Ch may use humans and animals other than humans as motifs. The character Ch may be a robot or a fantasy creature. The character Ch is preferably anthropomorphic to the extent that the direction of the line of sight of the character can be seen by the subject. For example, since insects look around with compound eyes, they do not have a line of sight in the first place. If the character Ch has an insect illustration, it is effective to replace the eyes in the illustration with comical eyes.

<高さ方向の考慮> <Consideration of height direction>

図4及び5に示すところのキャラクターChの表示位置を中心とする極座標系は、画面Scの表示方向と平行な面を平面視したときの円座標である。一態様においてモナリザ効果に関して高さ方向を考慮することもできる。第1トリガーに基づきキャラクターChが視線を外す場合には高さ方向に視線を外してもよい。視線の方向は円柱座標系又は球座標系で定義してもよい。さらに第2トリガーに基づきキャラクターChが視線を正面に向ける場合は、視線を水平に向けることが好ましい。例えば対象者が背の低い子供であっても第2トリガーの作動時にキャラクターChの視線を下向きにしなくてもよい。 The polar coordinate system centered on the display position of the character Ch shown in FIGS. 4 and 5 is circular coordinates when the plane parallel to the display direction of the screen Sc is viewed in plan view. In one aspect, the height direction can also be considered for the Mona Lisa effect. When the character Ch removes the line of sight based on the first trigger, the line of sight may be removed in the height direction. The direction of the line of sight may be defined in a cylindrical coordinate system or a spherical coordinate system. Furthermore, when the character Ch directs his or her line of sight to the front based on the second trigger, it is preferable that the line of sight be directed horizontally. For example, even if the subject is a short child, the character Ch does not have to look downward when the second trigger is activated.

<第1トリガーの作動前の視線> <Gaze before actuation of the first trigger>

一態様において、第1トリガーの作動前の状態を考慮してもよい。図6にはキャラクターChの視線と観察者の位置との遷移が示されている。まずキャラクターChの視線の変化に的を絞って説明する。図の上段の元の状態(Original)においてキャラクターChの視線は画面Scの正面の方向を向いている。 In one aspect, the state before actuation of the first trigger may be considered. FIG. 6 shows the transition between the line of sight of the character Ch and the position of the observer. First, the change in the line of sight of the character Ch will be described. In the original state (Original) in the upper part of the figure, the line of sight of the character Ch faces the front of the screen Sc.

次に図6の中段に示すように第1トリガーによってキャラクターChの視線が画面Scの正面から外れている状態を表示する。この際、キャラクターChの視線をアニメーションで滑らかに動かす。一態様において、この間、キャラクターChの顔面は画面Scの正面方向を向いたままでもある。他の態様においてキャラクターChの顔面は正面以外の方向を向いていてもよい。 Next, as shown in the middle part of FIG. 6, a state in which the line of sight of the character Ch is deviated from the front of the screen Sc by the first trigger is displayed. At this time, the line of sight of the character Ch is smoothly moved by animation. In one aspect, during this time, the face of the character Ch is still facing the front direction of the screen Sc. In another aspect, the face of the character Ch may face a direction other than the front.

図6の中段では、視線がキャラクターChにとっての元の状態にあたる正面の方向から左斜めの方向に遷移する。対象者TgがキャラクターChを注視している場合でも、対象者TgはキャラクターChから自分自身が注視されていないと感じる。しかしながら対象者Tgは、キャラクターChがキャラクターにとっての前方にある何かを見ているものと認識する。対象者Tgにとっては対象者Tgよりも右側の方向である。 In the middle part of FIG. 6, the line of sight transitions from the front direction, which is the original state for the character Ch, to the diagonal left direction. Even when the subject Tg is gazing at the character Ch, the subject Tg feels that the character Ch is not gazing himself. However, the subject Tg recognizes that the character Ch is looking at something ahead of the character. For the subject Tg, the direction is on the right side of the subject Tg.

さらに図6の下段に示すように、第2トリガーによってキャラクターChの視線が画面Scの正面の方向を向いている状態を表示する。この動作は先に述べた通りである。キャラクターChの視線をアニメーションで滑らかに動かす。一態様において、この間、キャラクターChの顔面は画面Scの正面方向を向いたままである。他の態様においてキャラクターChの顔面は正面以外の方向を向いていてもよい。 Further, as shown in the lower part of FIG. 6, the state in which the line of sight of the character Ch faces the front of the screen Sc by the second trigger is displayed. This operation is as described above. Move the character's line of sight smoothly with animation. In one aspect, the face of the character Ch remains facing the front of the screen Sc during this period. In another aspect, the face of the character Ch may face a direction other than the front.

図6の下段では視線がキャラクターChにとっての左斜めの方向から正面の方向に遷移する。対象者TgがキャラクターChを注視している場合、対象者TgはキャラクターChから自分自身が注視されたと強く感じる。さらに対象者TgはキャラクターChと目が合ったと感じる。 In the lower part of FIG. 6, the line of sight transitions from the diagonal left direction for the character Ch to the front direction. When the target person Tg is gazing at the character Ch, the target person Tg strongly feels that the character Ch is gazing himself. Furthermore, the target person Tg feels that his eyes match the character Ch.

他の態様では第1トリガー作動前に、キャラクターChの視線は画面Scの正面以外を向いていてもよい。すなわち一態様において、開始状態ではキャラクターChの視線は画面Scの正面か正面以外かどちらを向いていてもよい。しかしながら第1トリガーによって視線が正面以外を向く。さらに第2トリガーによって視線が正面を向く。 In another aspect, the sight line of the character Ch may be directed to a position other than the front of the screen Sc before the first trigger is activated. That is, in one aspect, in the starting state, the line of sight of the character Ch may be facing either the front of the screen Sc or the other than the front. However, the first trigger causes the line of sight to be directed to a position other than the front. Furthermore, the line of sight turns to the front by the second trigger.

<観察者の接近> <Approach of observer>

図6においては、さらに観察者の位置が変化している。図に示す例では対象者Tgが画面Scに向かって近づいてきている。具体的にはキャラクターChに向かって近づいてきている。図の上段に示す元の状態(Original)において、距離dは所定値R1よりも大きい。 In FIG. 6, the position of the observer has further changed. In the example shown in the figure, the subject Tg is approaching the screen Sc. Specifically, he is approaching the character Ch. In the original state (Original) shown in the upper part of the figure, the distance d is larger than the predetermined value R1.

図6の中段に示すように対象者TgがキャラクターChに向かって近づく。図において、キャラクターChの表示位置と対象者Tgとの距離dは所定値R1よりも小さい。一態様において、距離dが所定値R1より小さいことが、第1トリガーの付加的な作動条件となっていてもよい。他の態様では、元の状態において所定値R1より大きかった距離dが、所定値R1より小さくなったことが第1トリガーの付加的な作動条件となっていてもよい。言い換えれば対象者Tgが近づいてきたことを探知することで第1トリガーを作動させてもよい。 As shown in the middle part of FIG. 6, the subject Tg approaches the character Ch. In the figure, the distance d between the display position of the character Ch and the target person Tg is smaller than the predetermined value R1. In one aspect, the distance d smaller than the predetermined value R1 may be an additional operating condition of the first trigger. In another aspect, the additional operating condition of the first trigger may be that the distance d, which was larger than the predetermined value R1 in the original state, becomes smaller than the predetermined value R1. In other words, the first trigger may be activated by detecting that the subject Tg is approaching.

図6の下段に示すように対象者TgがキャラクターChに向かってさらに近づく。図において、キャラクターChの表示位置と対象者Tgとの距離dは第2トリガー作動に至る所定の表示時間経過後において所定値R2よりも小さい。なお所定値R2は所定値R1より小さい。 As shown in the lower part of FIG. 6, the target person Tg further approaches the character Ch. In the figure, the distance d between the display position of the character Ch and the target person Tg is smaller than the predetermined value R2 after the lapse of a predetermined display time until the second trigger operation. The predetermined value R2 is smaller than the predetermined value R1.

図6の下段に示すように一態様において、距離dが所定値R2より小さいことが、第2トリガーの付加的な作動条件となっていてもよい。他の態様では、元の状態において所定値R2より大きかった距離dが、所定値R2より小さくなったことが第2トリガーの付加的な作動条件となっていてもよい。一態様において所定の表示時間経過後、さらに対象者Tgがより近づいてきたことを探知することで第2トリガーを作動させる。 As shown in the lower part of FIG. 6, in one aspect, the distance d being smaller than the predetermined value R2 may be an additional operating condition of the second trigger. In another aspect, the additional operation condition of the second trigger may be that the distance d, which was larger than the predetermined value R2 in the original state, becomes smaller than the predetermined value R2. In one aspect, after the lapse of a predetermined display time, the second trigger is activated by detecting that the subject Tg is further approaching.

対象者Tgの接近の考慮には様々な態様がある。例えば図6において、距離dがR1からR2に遷移する間の時間を第2トリガーの作動条件にあたる所定の表示時間としてもよい。この場合、第1トリガーの作動から第2トリガーの作動までの時間経過のモニタリングは距離dのモニタリングに含まれる。すなわち時間経過に関する直接的な作動条件は用いず、少なくとも第1トリガー作動後のキャラクターChの表示が継続している間に、距離dがR2を下回ったことが第2トリガー作動条件となっていてもよい。言い換えれば距離dが変化したことをもって時間が経過したものとみなして第2トリガーを作動してもよい。例えば距離dが所定の表示時間経過前に所定値R2より小さくなったら、実際に所定の表示時間が経過する前に所定の表示時間が経過したものとしてもよい。他の態様において、距離dが所定の表示時間経過前に所定値R2より小さくなっても、実際に所定の表示時間が経過するまでは第2トリガーを作動しないものとしてもよい。他の態様において、距離dが第1トリガーの作動の時点において所定値R2よりも小さいことも考えられる。この場合は距離dに関係なく所定の表示時間経過を第2トリガーの作動条件とすればよい。他の態様において観察者の接近は一切考慮しなくともよい。 There are various modes for considering the approach of the subject Tg. For example, in FIG. 6, the time during which the distance d transits from R1 to R2 may be set as the predetermined display time that is the operating condition of the second trigger. In this case, monitoring the elapsed time from the actuation of the first trigger to the actuation of the second trigger is included in the monitoring of the distance d. That is, the second trigger operating condition is that the distance d is less than R2 while at least the display of the character Ch after the first trigger operating is continued without using the direct operating condition regarding the elapsed time. Good. In other words, it may be considered that the time has elapsed when the distance d has changed, and the second trigger may be activated. For example, if the distance d becomes smaller than the predetermined value R2 before the predetermined display time elapses, the predetermined display time may elapse before the predetermined display time actually elapses. In another aspect, even if the distance d becomes smaller than the predetermined value R2 before the predetermined display time elapses, the second trigger may not be activated until the predetermined display time actually elapses. In another aspect, it is also conceivable that the distance d is smaller than the predetermined value R2 at the time of actuation of the first trigger. In this case, the lapse of a predetermined display time may be set as the operation condition of the second trigger regardless of the distance d. In another aspect, the approach of the observer need not be considered at all.

<第1トリガーにより視線の外すときの表現> <Expression when removing the line of sight with the first trigger>

一態様において、第1トリガーの作動後の状態を考慮してもよい。図7にはキャラクターChの視線の遷移が示されている。図7の上段に示すように第1トリガーによって、視線を外しているキャラクターChを表示する。ここで第2トリガーが作動するまでは一定の時間経過を伴う。この間(Interval)にキャラクターChの視線を固定しなくてもよい。 In one aspect, the state after actuation of the first trigger may be considered. FIG. 7 shows the transition of the line of sight of the character Ch. As shown in the upper part of FIG. 7, the character Ch that is off the line of sight is displayed by the first trigger. It takes a certain amount of time until the second trigger is activated. The line of sight of the character Ch may not be fixed during this period (Interval).

図7の中段では視線がキャラクターChにとっての左斜めの方向から右斜めの正面の方向に遷移する。視線を外しているキャラクターChを一旦表示した後も、キャラクターChの視線を動かし続けてもよい。この際、キャラクターChの視線はアニメーションで滑らかに動かす。所定の時間経過後、図7の下段に示すように、第2トリガーによってキャラクターChの視線が正面に向く。この動作は先に述べた通りである。 In the middle part of FIG. 7, the line of sight changes from the diagonal left direction for the character Ch to the diagonal right front direction. Even after displaying the character Ch whose eyes are off line, the eyes of the character Ch may be kept moving. At this time, the line of sight of the character Ch is smoothly moved by animation. After a predetermined time has passed, as shown in the lower part of FIG. 7, the line of sight of the character Ch is turned to the front by the second trigger. This operation is as described above.

図7の中段においてキャラクターChの視線を動かし続ける際、キャラクターChの視線が画面Scの正面の方向を通過してもよい。ただし視線が、画面の正面の方向を凝視しないようにする。キャラクターChの視線が画面Scの正面の方向を一切通過しないようにしてもよい。 When continuing to move the line of sight of the character Ch in the middle part of FIG. 7, the line of sight of the character Ch may pass in the front direction of the screen Sc. However, the line of sight should not stare in the direction of the front of the screen. The sight line of the character Ch may be set so as not to pass in the direction in front of the screen Sc.

以上の通り視線を制御することで第2トリガーの作動までの間、モナリザ効果の生じない状態を維持することができる。 By controlling the line of sight as described above, it is possible to maintain the state in which the monaural effect is not generated until the operation of the second trigger.

<モナリザ効果の生じる位置と第2トリガー> <The position where the Mona Lisa effect occurs and the second trigger>

図4から図5にかけて、対象者Tgは同じ場所に留まっている。この間においてモナリザ効果は常に対象者Tgに影響を与える。視線を対象者Tgのいる方向から外すことで、対象者Tgに対してキャラクターChに注視されているという感覚を生じる。これはモナリザ効果によるものである。 4 to 5, the target person Tg remains in the same place. During this period, the Mona Lisa effect always affects the subject Tg. By removing the line of sight from the direction in which the target person Tg is present, a feeling that the character Ch is gazing at the target person Tg is generated. This is due to the Mona Lisa effect.

図5に示される態様は、所定の表示時間経過後に対象者Tgの極座標の偏角pがモナリザ効果を生ずる角度範囲にあっても、第2トリガーによる視線の変更を行うという点で特徴を有する。対象者Tgがモナリザ効果の生じている位置にいることを第2トリガーの付加的な作動条件としてもよい。対象者Tgが第1トリガーの作動時と同じ場所に留まっていることを第2トリガーの付加的な作動条件としてもよい。 The mode shown in FIG. 5 is characterized in that the line of sight is changed by the second trigger even if the polar coordinate declination p of the subject Tg is within the angular range that produces the monaural effect after a predetermined display time. .. The subject Tg being in a position where the monaural effect is occurring may be an additional operating condition of the second trigger. The subject Tg remaining in the same place as when the first trigger is activated may be an additional activation condition for the second trigger.

図8に示すように、他の態様において対象者Tgの位置は遷移してもよい。キャラクターChの視線が外れている間に、対象者Tgはモナリザ効果の影響がない範囲に移動してもよい。一例として図の中段では対象者TgがキャラクターChの正面に移動している。 As shown in FIG. 8, the position of the subject Tg may change in another aspect. The subject Tg may move to a range that is not affected by the Mona Lisa effect while the character Ch is out of sight. As an example, in the middle of the figure, the target person Tg is moving to the front of the character Ch.

図8の下段に示すように所定の表示時間経過後、第2トリガーによってキャラクターChの視線が画面Scの正面の方向を向いている状態を表示する。対象者TgがキャラクターChの表示位置の正面に存在しても、第2トリガーによる視線の変更を行う。第2トリガーの作動条件の中に対象者Tgがモナリザ効果の生じている位置にいることが含まれていなくともよい。対象者Tgがモナリザ効果の生じている位置にいないことを第2トリガーの付加的な作動条件としてもよい。 As shown in the lower part of FIG. 8, after a predetermined display time has elapsed, a state in which the line of sight of the character Ch faces the front of the screen Sc by the second trigger is displayed. Even if the target person Tg exists in front of the display position of the character Ch, the line of sight is changed by the second trigger. The operation condition of the second trigger may not include the subject Tg being in the position where the monaural effect is occurring. The fact that the subject Tg is not in the position where the monaural effect is occurring may be an additional operating condition of the second trigger.

<移動者に対する表示> <Display for migrants>

図9及び図10には画面Scの前を横切るように移動する対象者の位置P0〜P5が示されている。表示方法の設計上の便宜のために、極座標系の原点(Origin)を画面Sc上に表示されるキャラクターChの正中線にとる。位置が変化するにつれて偏角pが変化する。図中の偏角pは位置P4における偏角を表す。位置P3がキャラクターChの正面に当たるものとする。 9 and 10 show the positions P0 to P5 of the target person moving across the front of the screen Sc. For convenience of designing the display method, the origin of the polar coordinate system is set to the midline of the character Ch displayed on the screen Sc. The argument p changes as the position changes. The declination p in the figure represents the declination at the position P4. It is assumed that the position P3 is in front of the character Ch.

図9及び図10において、位置P0で第1トリガーによる視線外しを行い、さらに位置P1で第2トリガーによる視線変更を行う。さらに対象者がキャラクターChの前を位置P2、P3、P4及びP5の順で通り過ぎるものとする。 In FIGS. 9 and 10, the line of sight is removed by the first trigger at the position P0, and the line of sight is changed by the second trigger at the position P1. Furthermore, it is assumed that the target person passes in front of the character Ch in the order of positions P2, P3, P4, and P5.

図9では画面Sc上に、視線の方向も顔面の方向も正面向きに固定したキャラクターChの像を表示している。この状態は第2トリガーの作動後のものである。移動者がキャラクターChを観察していれば、移動者には自分がキャラクターChに注視されているという感覚が生じる。この感覚は移動者がP1〜P5のいずれの位置においても生じる。すなわち移動者の立ち位置によらないで生じる感覚である。 In FIG. 9, an image of the character Ch is displayed on the screen Sc with the direction of sight and the direction of the face fixed in the front direction. This state is after activation of the second trigger. If the mover observes the character Ch, the mover feels that he or she is gazing at the character Ch. This sensation occurs at any position of P1 to P5 by the moving person. That is, it is a sensation that occurs regardless of the standing position of the mover.

図9において、対象者から見てキャラクターChの顔面は動いていないように感じる。またキャラクターChの顔面は事実としてその向きを変えていない。このためキャラクターChが対象者を視線で追跡しているという感覚は対象者に生じにくい。モナリザ効果により注視されているという感覚が生じる。しかしながら、さらに視線で追跡されているという感覚までも有効に生じるわけではない。 In FIG. 9, the face of the character Ch feels as if it is not moving when viewed from the subject. Moreover, the face of the character Ch has not changed its direction in fact. For this reason, it is difficult for the subject to have the feeling that the character Ch is tracking the subject with his or her line of sight. The Mona Lisa effect creates the feeling of being watched. However, even the feeling of being tracked by the line of sight does not effectively occur.

図10に示すようにキャラクターChの顔面の向きが変化するように、キャラクターChを画面Scに表示する。キャラクターChの視線の方向は正面向きに固定しつつ、その顔面の方向を移動者に追随させる。キャラクターChの顔面の方向は移動者の位置P1〜P5に連動する。対象者の極座標の偏角pの変化に追随するようにキャラクターChの顔面の方向をアニメーションで滑らかに変化させる。 The character Ch is displayed on the screen Sc so that the face direction of the character Ch changes as shown in FIG. The direction of the line of sight of the character Ch is fixed to the front, and the face of the character is followed by the moving person. The direction of the face of the character Ch is linked to the positions P1 to P5 of the mover. The direction of the face of the character Ch is smoothly changed by animation so as to follow the change in the polar angle p of the target person.

図10ではキャラクターChが視線で移動者を追跡しているように、移動者に感じさせることができる。あるいは図9で示した方法よりも強く、そのような感覚を移動者に感じさせることができる。 In FIG. 10, the moving person can be made to feel as if the character Ch is tracking the moving person with his or her line of sight. Alternatively, it is possible to make the moving person feel such a feeling stronger than the method shown in FIG.

<コントローラーと他の装置の接続> <Connection between controller and other devices>

以下、本実施形態の表示方法を実施するための装置を中心に説明する。当該装置は例示であり、上記表示方法を実行するための唯一の機械的手段ではない。図11にはコントローラー40とこれらに接続する各装置が示されている。コントローラー40には表示装置41が接続している。この接続はネットワークを介していてもよく、適切な映像信号配線を介していてもよい。この接続は有線でも無線でもよい。 Hereinafter, a device for carrying out the display method of the present embodiment will be mainly described. The device is an example and is not the only mechanical means for carrying out the display method. FIG. 11 shows the controller 40 and each device connected to them. A display device 41 is connected to the controller 40. This connection may be via a network or via suitable video signal wiring. This connection may be wired or wireless.

図11に示すように表示装置41はディスプレイ42及びハーフミラー43を備える。ディスプレイ42は例えば液晶ディスプレイや有機ELディスプレイである。ディスプレイ42は凹凸がなく平坦である。ここで視認できないほど微細な凹凸は考慮しない。平坦とは表示像の基本的な造形に影響を与える程度に大きな凹凸を有しないことである。ハーフミラー43はディスプレイ42の表示領域44上に設置されている。ハーフミラー43はディスプレイ42の表示領域44上に貼り付けられていてもよい。 As shown in FIG. 11, the display device 41 includes a display 42 and a half mirror 43. The display 42 is, for example, a liquid crystal display or an organic EL display. The display 42 has no irregularities and is flat. Here, the minute irregularities that cannot be visually recognized are not considered. Flatness means that there is no large unevenness to the extent that it affects the basic shaping of the displayed image. The half mirror 43 is installed on the display area 44 of the display 42. The half mirror 43 may be attached to the display area 44 of the display 42.

図11に示す表示領域44は対象者45a及び45bに向かって映像を提示する。映像はハーフミラー43越しに表示される。便宜的にハーフミラー43の前側、図中では左側、の表面を画面Scとする。ハーフミラー43は表示領域44よりも一回り大きい。 The display area 44 shown in FIG. 11 presents an image to the subjects 45a and 45b. The image is displayed through the half mirror 43. For convenience, the front surface of the half mirror 43, that is, the left surface in the figure is the screen Sc. The half mirror 43 is one size larger than the display area 44.

図11において、コントローラー40にはセンサーに当たるカメラ39が接続している。この接続はネットワークを介していてもよく、適切な映像信号配線を介していてもよい。この接続は有線でも無線でもよい。カメラ39はCMOS(Complementary metal-oxide-semiconductor)センサーで撮像するものでもよい。カメラ39はその他の光学センサー、例えば赤外線センサーなどで置き換えてもよい。 In FIG. 11, a camera 39 corresponding to a sensor is connected to the controller 40. This connection may be via a network or via suitable video signal wiring. This connection may be wired or wireless. The camera 39 may be a camera that captures an image with a CMOS (Complementary metal-oxide-semiconductor) sensor. The camera 39 may be replaced with another optical sensor such as an infrared sensor.

図11において、コントローラー40はカメラ39から検知信号を受ける。さらにコントローラー40はディスプレイ42に映像信号を送る。ディスプレイ42はコントローラー40から映像信号を受ける。ディスプレイ42は映像信号を元にキャラクターChを表示領域44の中の所定の表示位置に表示する。 In FIG. 11, the controller 40 receives a detection signal from the camera 39. Further, the controller 40 sends a video signal to the display 42. The display 42 receives a video signal from the controller 40. The display 42 displays the character Ch at a predetermined display position in the display area 44 based on the video signal.

図11においてカメラ39は、対象者45a及び45bの少なくともいずれかを撮影する。カメラ39は画面Scの前側に対象者45a及び45bの少なくともいずれかの存在することを表す情報を、検知信号としてコントローラー40に送る。検知信号はカメラ39の生成したビデオ信号でもよい。 In FIG. 11, the camera 39 photographs at least one of the subjects 45a and 45b. The camera 39 sends information indicating that at least one of the subjects 45a and 45b exists on the front side of the screen Sc to the controller 40 as a detection signal. The detection signal may be a video signal generated by the camera 39.

図11においてカメラ39は、その撮影範囲内に対象者がいようといまいと、継続的に撮影をし、継続的にビデオ信号を生成し、継続的にビデオ信号をコントローラー40に送ってもよい。カメラ39はコントローラー40から要求されたときに撮影をし、ビデオ信号を生成し、ビデオ信号を送ってもよい。 In FIG. 11, the camera 39 may continuously shoot images, continuously generate video signals, and continuously send video signals to the controller 40 regardless of whether the subject is within the shooting range. The camera 39 may shoot, generate video signals, and send video signals when requested by the controller 40.

図12は表示装置41の画面Scを示す。表示領域44内にキャラクターChが表示されている。表示領域44に表示されているキャラクターChのまわりの背景は暗黒である。このため、画面Sc上で、ハーフミラー43の働きにより、ディスプレイからの光がハーフミラーを透過することで表示されるキャラクターChの周りに、ハーフミラーの反射による現実の背景が映っている。画面Scには現実の背景とキャラクターChが重畳的に映っている。 FIG. 12 shows the screen Sc of the display device 41. The character Ch is displayed in the display area 44. The background around the character Ch displayed in the display area 44 is dark. Therefore, on the screen Sc, the function of the half mirror 43 causes a real background due to the reflection of the half mirror to appear around the character Ch displayed by the light from the display passing through the half mirror. The real background and the character Ch are superposed on the screen Sc.

図12において、画面Scは凹凸がなく平坦である。画面Scに表示されるキャラクターChの顔面付近に特別に凹凸を設けることでキャラクターChの顔面や瞳を立体化する、といった工夫はなされていない。 In FIG. 12, the screen Sc is flat without any unevenness. No attempt has been made to make the face and eyes of the character Ch three-dimensional by providing irregularities in the vicinity of the face of the character Ch displayed on the screen Sc.

図11に戻る。コントローラー40にはセンサーとしてカメラ39がさらに接続している。カメラ39はハーフミラー43の後ろ側、図中では右側に配置されている。カメラ39は対象者45a及び45bを撮影する。図12に示すように対象者からはカメラ39は視認できない。ハーフミラー43によりカメラ39が視界から遮られているからである。 Return to FIG. A camera 39 is further connected to the controller 40 as a sensor. The camera 39 is arranged behind the half mirror 43, on the right side in the figure. The camera 39 photographs the subjects 45a and 45b. As shown in FIG. 12, the camera 39 cannot be visually recognized by the subject. This is because the camera 39 is blocked from the field of view by the half mirror 43.

なお図11及び12に示す画面Scを形成するための装置構成は上記に限定されない。画面Scは小さな凹凸を持たない。ただし画面Scは一様にゆるやかに湾曲していてもよい。顔の幅が20cm程度のキャラクターChを表示場合、画面Scの曲率半径は10cmより大きいことが好ましく、画面Scは平面であることが好ましい。画面Scはハーフミラーを備える表示装置に代えて、投影型のスクリーンで形成してもよい。係るスクリーンは光の反射を用いるフロント型スクリーンでもよく、光の透過を用いるリア型スクリーンでもよい。ハーフミラー43は無くともよい。すなわち表示装置41はディスプレイ42のみ備えるものでもよい。ディスプレイ42は例えば液晶ディスプレイや有機ELディスプレイである。 Note that the device configuration for forming the screen Sc shown in FIGS. 11 and 12 is not limited to the above. The screen Sc does not have small irregularities. However, the screen Sc may be uniformly and gently curved. When displaying a character Ch having a face width of about 20 cm, the radius of curvature of the screen Sc is preferably larger than 10 cm, and the screen Sc is preferably a flat surface. The screen Sc may be formed by a projection screen instead of the display device including the half mirror. Such a screen may be a front type screen using reflection of light or a rear type screen using transmission of light. The half mirror 43 may be omitted. That is, the display device 41 may include only the display 42. The display 42 is, for example, a liquid crystal display or an organic EL display.

図13を用いてカメラの働きを説明する。図は平面視した対象者45a及び45bとキャラクターChとを表している。図にはさらに対象者45cが示されているが、この人物については後述する。キャラクターChは顔面の方向Fcを対象者45aに向けている。キャラクターChは視線の方向Gz1又はGz2を画面Scの正面側に向けている。図中において視線の方向Gz1は、画面Scの正面の方向から外した方向である。図中において視線の方向Gz2は、画面Scの正面の方向である。 The operation of the camera will be described with reference to FIG. The figure shows the subjects 45a and 45b and the character Ch in a plan view. The figure further shows a target person 45c, which will be described later. The character Ch is facing the direction Fc of the face toward the target person 45a. The character Ch directs the line-of-sight direction Gz1 or Gz2 toward the front side of the screen Sc. In the figure, the line-of-sight direction Gz1 is a direction removed from the front direction of the screen Sc. In the figure, the line-of-sight direction Gz2 is the front direction of the screen Sc.

図13において、カメラ39は、対象者45a及び45bの少なくともいずれかがモナリザ効果を生ずる範囲にある場合において、対象者の存在を検知可能なセンサーである。モナリザ効果を生ずる範囲とは、キャラクターChの表示位置を原点とする、対象者45a及び45bの少なくともいずれかの極座標の偏角pがモナリザ効果を生ずる角度範囲に位置することをいう。かかる角度範囲については図4及び5を用いて上述した通りである。図中の偏角pは対象者45aの極座標の偏角を表している。 In FIG. 13, a camera 39 is a sensor capable of detecting the presence of the subject person when at least one of the subject persons 45a and 45b is in a range where the monaural effect is produced. The range in which the monaural effect is generated means that the polar angle p of at least one of the subjects 45a and 45b, whose origin is the display position of the character Ch, is located in the angular range in which the monaural effect is generated. The angle range is as described above with reference to FIGS. 4 and 5. The argument p in the figure represents the argument of polar coordinates of the target person 45a.

<システムと第1トリガー> <System and first trigger>

図14はコントローラー40を構成するシステムの構造を記述したものである。このシステムはコンピューターと、コンピューターをコントローラーとして動作させるためのプログラムとで構成してもよい。プログラムは映像生成ソフトウェアの一種である。プログラムは一つのプログラムで構成されていなくともよい。ネットワークを介してプログラムの一部又は全部を記憶しているサーバーから当該プログラムの一部又は全部をコンピューターに送信してもよい。例えばキャラクターさらにコンピューターにプログラムをインストールしてもよい。プログラムは不揮発性のメモリやディスクメディアに収納してもよい。コンピューターは一台で構成されていなくてもよい。コントローラーとして作動するシステムの一部をクラウドネットワーク上に配置してもよい。 FIG. 14 describes the structure of the system that constitutes the controller 40. This system may be composed of a computer and a program for operating the computer as a controller. The program is a kind of video generation software. The program does not need to be composed of one program. You may transmit some or all of the program to a computer from the server which memorize|stores some or all of the program via a network. For example, the character may be further installed with a program on a computer. The program may be stored in a non-volatile memory or a disk medium. The computer does not have to be composed of a single computer. A part of the system that operates as a controller may be arranged on the cloud network.

コントローラー40の映像生成ソフトウェアはコンポーネント51〜54を備える。コンポーネント51〜54は一態様において各々ソフトウェアコンポーネントである。コントローラー40と外部との信号のやり取りにはこれに適した信号変換器といったハードウェアが必要になる場合もあるが、図中では省略されている。 The video generation software of the controller 40 includes components 51 to 54. Components 51-54 are each software components in one aspect. Although hardware such as a signal converter suitable for this may be required for exchanging signals between the controller 40 and the outside, it is omitted in the drawing.

図14において第1トリガーに係る処理は以下のとおりである。コントローラー40は、カメラ39から受けた検知信号を変換する。検知信号を変換するのはコンポーネント51である。コンポーネント51は変換された検知信号に基づき対象者の位置を特定するための情報を生成する。コンポーネント51は対象者の位置を収納する。対象者は検出されない場合もある。2名以上の対象者が同時に検出されることもある。コンポーネント51はモーションキャプチャ―機能を有していてもよい。図13の例に倣えばコンポーネント51は対象者45aの偏角pを特定する情報を生成する。 The processing relating to the first trigger in FIG. 14 is as follows. The controller 40 converts the detection signal received from the camera 39. It is the component 51 that converts the detection signal. The component 51 generates information for identifying the position of the subject based on the converted detection signal. The component 51 stores the position of the subject. The subject may not be detected. More than one subject may be detected at the same time. The component 51 may have a motion capture function. According to the example of FIG. 13, the component 51 generates information that specifies the argument p of the target person 45a.

図14においてコントローラー40は背景情報を生成する。背景情報を生成するのはコンポーネント52である。コンポーネント52は仮想背景物体とその位置を予め収納している。コンポーネント52は不図示のネットワークを介して仮想背景物体とその位置を予め取得してもよい。図13の例に倣えば仮想背景物体B01〜B09とそれらの位置を予め収納している。仮想背景物体の位置とはいわばキャラクターの視線の向きと顔面の向きとの偏角の代表的な値を提供するものである。仮想背景物体B05の位置はいわば画面Scの正面の方向を提供するものである。 In FIG. 14, the controller 40 generates background information. It is the component 52 that generates the background information. The component 52 stores the virtual background object and its position in advance. The component 52 may acquire the virtual background object and its position in advance via a network (not shown). According to the example of FIG. 13, virtual background objects B01 to B09 and their positions are stored in advance. The position of the virtual background object provides, so to speak, a typical value of the deviation angle between the direction of the line of sight of the character and the direction of the face. The position of the virtual background object B05 provides the direction of the front of the screen Sc, so to speak.

図14においてコントローラー40は注視対象を選択する。注視対象を選択するのはコンポーネント53である。コンポーネント53はコンポーネント51の対象者の位置を参照する。コンポーネント53はコンポーネント52の仮想背景物体の位置を参照する。図13の例に倣えばコンポーネント53は仮想背景物体B01〜B09の位置と対象者45aの位置とを参照する。コンポーネント53はさらに対象者45bの位置を参照してもよい。 In FIG. 14, the controller 40 selects a gaze target. It is the component 53 that selects the gaze target. The component 53 refers to the position of the target person of the component 51. The component 53 refers to the position of the virtual background object of the component 52. According to the example of FIG. 13, the component 53 refers to the positions of the virtual background objects B01 to B09 and the position of the target person 45a. The component 53 may further refer to the location of the target person 45b.

図14においてコンポーネント53は対象者45aの位置がモナリザ効果を生ずるか否かを判定する。当該位置がモナリザ効果を生ずるものであれば、次にコンポーネント53は仮想背景物体の位置のうち、正面方向ではないものを注視対象として選択する。コンポーネント53は選択した注視対象を収納する。図13の例に倣えばコンポーネント53は仮想背景物体B05以外の仮想背景物体を注視対象として選択する。図中では仮想背景物体B07が注視対象として選択されている。コンポーネント53は仮想背景物体B07に代えて対象者45bの位置を注視対象として選択してもよい。コンポーネント53はさらに第1トリガーの作動の記録を時刻の記録ととともに収納してもよい。 In FIG. 14, the component 53 determines whether the position of the target person 45a produces the monaural effect. If the position produces the monaural effect, then the component 53 selects a position of the virtual background object that is not in the front direction as a gaze target. The component 53 stores the selected gaze target. According to the example of FIG. 13, the component 53 selects a virtual background object other than the virtual background object B05 as a gaze target. In the figure, the virtual background object B07 is selected as a gaze target. The component 53 may select the position of the target person 45b as a gaze target instead of the virtual background object B07. The component 53 may also store a record of the actuation of the first trigger along with a record of the time of day.

図14においてコントローラー40は顔向け対象を選択する。顔向け対象を選択するのはコンポーネント53である。図13の例に倣えば対象者45aの位置を顔向け対象としてもよく、仮想背景物体B01〜B09を顔向け対象としてもよい。顔向け対象は注視対象と一致してなくてもよい。コンポーネント53は選択した顔向け対象を収納する。 In FIG. 14, the controller 40 selects a face-oriented target. It is the component 53 that selects the face target. According to the example of FIG. 13, the position of the target person 45a may be the target for the face, and the virtual background objects B01 to B09 may be the target for the face. The face target does not have to match the gaze target. The component 53 stores the selected face target.

図14においてコントローラー40は視線の方向を設定する。視線の方向を設定するのはコンポーネント54である。コンポーネント54はコンポーネント53によって選択された注視対象を参照する。コンポーネント54は設定した視線の方向を収納する。図13の例に倣えば視線の方向Gz1を収納する。 In FIG. 14, the controller 40 sets the direction of the line of sight. It is the component 54 that sets the direction of the line of sight. The component 54 refers to the gaze target selected by the component 53. The component 54 stores the set line-of-sight direction. According to the example of FIG. 13, the line-of-sight direction Gz1 is stored.

図14においてコントローラー40は顔面の方向を設定する。顔面の方向を設定するのはコンポーネント54である。コンポーネント54はコンポーネント53によって選択された顔向け対象を参照する。コンポーネント54は設定した顔面の方向を収納する。図13の例に倣えば顔面の方向Fcを収納する。 In FIG. 14, the controller 40 sets the direction of the face. It is the component 54 that sets the orientation of the face. The component 54 refers to the face-oriented target selected by the component 53. The component 54 stores the set face direction. According to the example of FIG. 13, the face direction Fc is stored.

図14においてコンポーネント55はコンポーネント54の視線の方向と顔面の方向とを参照する。コンポーネント55はキャラクターのCGモデルを収納している。コンポーネント55は不図示のネットワークを介してキャラクターのCGモデルを予め取得してもよい。コンポーネント55はキャラクターのCGモデルを参照する。キャラクターのCGモデルは少なくとも仮想背景物体を標的にして視線の方向と顔面の方向と設定できるものである。またこれらの仮想背景物体の間を標的にして、視線の方向と顔面の方向とが変化するアニメーションを表示できるものである。 In FIG. 14, the component 55 refers to the direction of the line of sight and the direction of the face of the component 54. The component 55 contains the CG model of the character. The component 55 may previously acquire the CG model of the character via a network (not shown). The component 55 refers to the character's CG model. The CG model of the character can set the direction of the line of sight and the direction of the face at least by targeting the virtual background object. Further, it is possible to display an animation in which the direction of the line of sight and the direction of the face change by targeting between these virtual background objects.

図14においてコンポーネント55は視線の方向と顔面の方向とキャラクターのCGモデルとを元に描画をする。描画に基づき映像信号が生成される。図13の例に倣えば映像信号はキャラクターChを継続的に画面Sc中の所定の表示位置に表示するものである。この映像信号は、キャラクターChが視線を滑らかに移動させながら画面Scの正面の方向から視線を外すようなアニメーションを含む。キャラクターChは視線を方向Gz1に遷移させる。なお図13中では視線は正確に描かれていない。この映像信号は、キャラクターChが顔面を方向Fcに向けることを含む。 In FIG. 14, the component 55 draws based on the direction of the line of sight, the direction of the face, and the CG model of the character. A video signal is generated based on the drawing. According to the example of FIG. 13, the video signal continuously displays the character Ch at a predetermined display position on the screen Sc. The video signal includes an animation in which the character Ch moves the line of sight smoothly and removes the line of sight from the front direction of the screen Sc. The character Ch changes the line of sight in the direction Gz1. Note that the line of sight is not accurately drawn in FIG. This video signal includes that the character Ch has his/her face directed in the direction Fc.

図14においてコントローラー40は、映像信号を表示装置41に送る。映像信号を送るのはコンポーネント55である。表示装置41は視線を滑らかに移動させるキャラクターをアニメーション表示した後、視線を外しているキャラクターの表示を所定時間継続する。その後以下の通り第2トリガーが作動する。 In FIG. 14, the controller 40 sends a video signal to the display device 41. It is the component 55 that sends the video signal. The display device 41 animation-displays the character whose line of sight moves smoothly, and then continues to display the character whose line of sight is off for a predetermined time. After that, the second trigger is activated as follows.

<システムと第2トリガー> <System and second trigger>

図14において第2トリガーに係る処理は以下のとおりである。コンポーネント51は、改めてカメラ39から受けた検知信号を変換する。コンポーネント51は変換された検知信号に基づき対象者の位置を特定するための情報を生成する。コンポーネント51は対象者の位置を収納する。対象者は検出されない場合もある。2名以上の対象者が同時に検出されることもある。 The processing relating to the second trigger in FIG. 14 is as follows. The component 51 converts the detection signal received from the camera 39 again. The component 51 generates information for identifying the position of the subject based on the converted detection signal. The component 51 stores the position of the subject. The subject may not be detected. More than one subject may be detected at the same time.

図14においてコンポーネント53はコンポーネント51の対象者の位置を参照する。コンポーネント51の対象者が参照できなければ以降の動作を行わなくてもよい。例えば第1トリガーを作動させる結果をもたらした対象者がカメラで検知可能な範囲外に移動することなどが例として挙げられる。 In FIG. 14, the component 53 refers to the position of the target person of the component 51. If the target person of the component 51 cannot refer to it, the subsequent operation may not be performed. For example, the subject having caused the result of actuating the first trigger moves to a position outside the range detectable by the camera.

図14においてコンポーネント53はさらに第1トリガーの作動時刻を参照する。コンポーネント53は第1トリガーの作動から所定の表示時間が経過したかどうかを判定する。第1トリガーの作動から所定の表示時間が経過したのであれば、次にコンポーネント53は改めて注視対象を選択する。コンポーネント53はコンポーネント52の仮想背景物体を参照する。図13の例に倣えばコンポーネント53は画面Scの正面の方向を表す仮想背景物体B05を参照する。図13の例に倣えば仮想背景物体B05を注視対象として選択する。コンポーネント53は選択した仮想背景物体B05を収納する。 In FIG. 14, the component 53 further refers to the activation time of the first trigger. The component 53 determines whether or not a predetermined display time has elapsed since the activation of the first trigger. If the predetermined display time has elapsed from the operation of the first trigger, the component 53 next selects the gaze target again. The component 53 refers to the virtual background object of the component 52. According to the example of FIG. 13, the component 53 refers to the virtual background object B05 that represents the front direction of the screen Sc. According to the example of FIG. 13, the virtual background object B05 is selected as a gaze target. The component 53 stores the selected virtual background object B05.

図14においてコンポーネント54は視線の方向を設定する。視線の方向を設定するのはコンポーネント54である。コンポーネント54は選択された仮想背景物体B05を参照する。コンポーネント54は設定した視線の方向を収納する。図13の例に倣えば視線の方向Gz2を収納する。 In FIG. 14, the component 54 sets the direction of the line of sight. It is the component 54 that sets the direction of the line of sight. The component 54 refers to the selected virtual background object B05. The component 54 stores the set line-of-sight direction. According to the example of FIG. 13, the line-of-sight direction Gz2 is stored.

図14においてコンポーネント55はコンポーネント54の視線の方向を参照する。コンポーネント55は第1トリガーによって表示したキャラクターと同一のキャラクターのCGモデルを参照する。コンポーネント55は視線の方向と当該キャラクターのCGモデルとを元に描画をする。描画に基づき映像信号が生成される。図13の例に倣えば、この映像信号は、第1トリガーによって表示したキャラクターChと同一のキャラクターChの視線が画面Scの正面の方向を向くようになっているものである。このとき、映像信号はキャラクターChが視線を滑らかに移動させるようなアニメーションを含む。コンポーネント55は、映像信号を表示装置41に送る。 In FIG. 14, the component 55 refers to the direction of the line of sight of the component 54. The component 55 refers to the CG model of the same character displayed by the first trigger. The component 55 draws based on the direction of the line of sight and the CG model of the character. A video signal is generated based on the drawing. According to the example of FIG. 13, this video signal is such that the line of sight of the character Ch, which is the same as the character Ch displayed by the first trigger, faces the front of the screen Sc. At this time, the video signal includes an animation in which the character Ch smoothly moves his line of sight. The component 55 sends the video signal to the display device 41.

図14においてコンポーネント55は、映像信号を表示装置41に送る。表示装置41は視線を方向Gz1から方向Gz2に向けて滑らかに移動させるキャラクターをアニメーション表示した後、視線を正面に向けているキャラクターの表示を継続する。モナリザ効果により、対象者にはキャラクターから注視されているという感覚が生じる。 In FIG. 14, the component 55 sends the video signal to the display device 41. The display device 41 animation-displays a character whose sight line is smoothly moved from the direction Gz1 to the direction Gz2, and then continues to display the character whose sight line is directed to the front. The Mona Lisa effect gives the subject a sense of being gazed at by the character.

<コントローラーの多用途性> <Controller versatility>

図13に示すコントローラー40は上述の表示方法を実行するのに適している。コントローラー40及びこれに接続する装置は、上述の表示方法を実行する機能だけを有しているものに限定されない。コントローラー40は、モナリザ効果の生じない位置に対象者が存在していても、キャラクターに視線を外す動作をさせることができるものでもよい。このような対象者のためのキャラクターChの提示は、図14に示すシステムを用いて実行してもよい。 The controller 40 shown in FIG. 13 is suitable for executing the above-mentioned display method. The controller 40 and the device connected thereto are not limited to those having only the function of executing the above-described display method. The controller 40 may be capable of causing the character to take an action of removing the line of sight even when the subject is present at a position where the monaural effect is not generated. The presentation of the character Ch for such a subject may be performed using the system shown in FIG.

図13に示すように対象者45cがキャラクターChの表示位置の正面に存在する。対象者45cにはモナリザ効果は生じない。カメラ39は対象者45cを含めて画面Scの前方を全体的に撮影する。カメラ39は対象者45cの存在を含む検知信号をコントローラー40に送る。 As shown in FIG. 13, the target person 45c exists in front of the display position of the character Ch. The Mona Lisa effect does not occur in the subject 45c. The camera 39 takes an image of the entire area in front of the screen Sc including the target person 45c. The camera 39 sends a detection signal including the presence of the target person 45c to the controller 40.

図13においてコントローラー40は、対象者45cがキャラクターChの表示位置の正面に存在していても、その検知信号を受けたときに、視線を外しているキャラクターChを表示する映像信号を表示装置に送る。画面Scには視線を方向Gz1に向けているキャラクターChが表示される。さらに所定の表示時間経過後、画面ScにはキャラクターChが視線を方向Gz2に向けるアニメーションが表示される。対象者45cはキャラクターChが対象者45cを注視していると感じる。 13, even if the target person 45c is present in front of the display position of the character Ch, the controller 40, when receiving the detection signal thereof, causes the display device to display a video signal for displaying the character Ch that is out of the line of sight. send. The character Ch whose line of sight is directed in the direction Gz1 is displayed on the screen Sc. Further, after a lapse of a predetermined display time, an animation in which the character Ch directs his or her line of sight in the direction Gz2 is displayed on the screen Sc. The target person 45c feels that the character Ch is gazing at the target person 45c.

<背景情報生成部と仮想背景物体の省略について> <Omission of background information generator and virtual background object>

図11〜14に示す実施態様において注視対象の選択と視線の方向設定とを分離したのは実装上の便宜のためである。他の態様において視線の方向設定のみで、コントローラー40に表示方法を実施させることも可能である。背景情報を生成するコンポーネント52は不要である。また仮想背景物体B01〜B09は不要である。注視対象を選択するコンポーネント53は不要である。 In the embodiments shown in FIGS. 11 to 14, the selection of the gaze target and the setting of the direction of the line of sight are separated for the convenience of mounting. In another aspect, it is possible to cause the controller 40 to carry out the display method only by setting the direction of the line of sight. The component 52 that generates background information is unnecessary. Further, the virtual background objects B01 to B09 are unnecessary. The component 53 for selecting a gaze target is unnecessary.

まず図13に示すようにセンサーにあたるカメラ39は対象者45a及び45bの位置を検出する。次に検出された対象者の範囲で、第1トリガーを作動させる位置に対象者がいるか否かを判定する。第1トリガーを作動させる位置に対象者がいれば、キャラクターChの視線の方向として正面以外の方向を設定する。キャラクターChの顔面の方向は正面以外に設定してもよい。またしなくてもよい。 First, as shown in FIG. 13, the camera 39 serving as a sensor detects the positions of the subjects 45a and 45b. Next, it is determined whether or not the target person is present at the position where the first trigger is activated within the range of the detected target person. If the target person is at the position to activate the first trigger, the direction other than the front is set as the direction of the line of sight of the character Ch. The direction of the face of the character Ch may be set to other than the front. You don't have to.

次に検出された対象者の範囲で、第2トリガーを作動させる位置に対象者がいるかを判定する。第2トリガーを作動させる位置に対象者がいれば、キャラクターChの視線の方向として正面の方向Gz2を設定する。 Next, it is determined whether or not the target person is present at the position where the second trigger is activated within the range of the detected target person. If the target person is at the position to activate the second trigger, the front direction Gz2 is set as the direction of the line of sight of the character Ch.

また、図10に示すようにキャラクターChの顔面の向きが変化するようにしてもよい。顔面の方向は第2トリガーを作動させる位置にいた対象者の方向を設定する。コンポーネント54はコンポーネント51の対象者の位置を直接に参照する。キャラクターChの顔面の方向を当該対象者の方向に設定する。この処理は、キャラクターChの顔面を当該対象者以外の方向に設定すべき他の原因が発生するまで継続される。他の原因とは、例えば他の対象者が第2トリガーを作動させることなどである。 Further, as shown in FIG. 10, the orientation of the face of the character Ch may be changed. The face direction sets the direction of the subject who was in the position to activate the second trigger. The component 54 directly references the location of the subject of the component 51. The direction of the face of the character Ch is set to the direction of the subject. This process is continued until another cause occurs in which the face of the character Ch should be set in a direction other than the target person. The other cause is, for example, another subject actuating the second trigger.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、 The present invention is not limited to the above-mentioned embodiments, but can be modified as appropriate without departing from the spirit of the present invention. For example,

39 カメラ
40 コントローラー
41 表示装置
42 ディスプレイ
43 ハーフミラー
44 表示領域
45a−c 対象者
51−55 コンポーネント
Av 角度
B01−B09 仮想背景物体
Ch キャラクター
d 距離
Fc 顔面の方向
g 視線の偏角
Gz1 視線の方向
Gz2 視線の方向
Mn1 角度
Mn2 角度
Ob1 観察者
Ob2 観察者
p 偏角
P0−P5 位置
R1 所定値
R2 所定値
S31−S34 ステップ
Sc 画面
Tg 対象者
39 camera 40 controller 41 display device 42 display 43 half mirror 44 display area 45a-c target person 51-55 component Av angle B01-B09 virtual background object Ch character d distance Fc face direction g line-of-sight angle Gz1 line-of-sight direction Gz2 Direction of line of sight Mn1 angle Mn2 angle Ob1 observer Ob2 observer p declination P0-P5 position R1 predetermined value R2 predetermined value S31-S34 step Sc screen Tg target person

Claims (19)

平面的な画面の手前側に存在する対象者に向けて、前記画面の中にキャラクターを表示する方法であって、
キャラクターの表示位置を原点とする前記対象者の極座標の偏角pがモナリザ効果を生ずる角度範囲にあることを作動条件として含む第1トリガーによって、キャラクターの視線が画面の正面の方向から継続的に外れるようにキャラクターを表示し、
少なくとも前記第1トリガーによるキャラクターの表示が所定時間継続したことを作動条件として含む第2トリガーによって、同一のキャラクターの視線が画面の正面の方向を向くようにキャラクターの視線をアニメーションで滑らかに変更する、
方法。
A method of displaying a character in the screen toward the target person existing on the front side of the flat screen,
With the first trigger that includes as an operating condition that the polar coordinate declination p of the subject whose origin is the display position of the character is within an angle range that produces the mona Lisa effect, the character's line of sight continuously from the front direction of the screen Display the character so that it will come off,
The second trigger including at least the display of the character by the first trigger for a predetermined time as an operating condition smoothly changes the line of sight of the same character by animation so that the line of sight of the same character faces the front of the screen. ,
Method.
前記第1トリガーは、前記キャラクターの表示位置と対象者との距離dが所定値R1より大きい状態から、所定値R1より小さい状態に変化したことをさらに条件として含む、
請求項1に記載の方法。
The first trigger further includes, as a condition, that the distance d between the display position of the character and the subject changes from a state larger than a predetermined value R1 to a state smaller than a predetermined value R1.
The method of claim 1.
前記第2トリガーは、少なくとも前記所定時間経過後の前記距離dが所定値R1より小さい所定値R2より小さくなることを条件として含む、
請求項2に記載の方法。
The second trigger includes at least the condition that the distance d after the predetermined time has elapsed is smaller than a predetermined value R2 that is smaller than a predetermined value R1.
The method of claim 2.
前記第1トリガーの作動から、前記距離dが所定値R1より小さい所定値R2より小さくなるまでの時間の経過を、前記第1トリガーによるキャラクターの表示が所定時間継続したこととみなす、
請求項3に記載の方法。
The lapse of time from the actuation of the first trigger until the distance d becomes smaller than the predetermined value R2 smaller than the predetermined value R1 is regarded as the display of the character by the first trigger continued for a predetermined time,
The method of claim 3.
前記第2トリガーの作動後、対象者の極座標の偏角pが変化しても、キャラクターの視線とキャラクターの顔の方向とを画面の正面の方向に固定し続ける、
請求項3に記載の方法。
After the operation of the second trigger, even if the polar angle p of the subject changes, the gaze of the character and the direction of the face of the character continue to be fixed in the direction of the front of the screen.
The method of claim 3.
前記第2トリガーの作動後、キャラクターの視線を画面の正面の方向に固定しながら、キャラクターの顔の方向を対象者の極座標の偏角pの変化に追随するようにアニメーションで滑らかに動かす、
請求項3に記載の方法。
After the actuation of the second trigger, the character's line of sight is fixed in the direction of the front of the screen, and the direction of the character's face is smoothly moved by animation so as to follow the change in the polar coordinate declination p of the subject.
The method of claim 3.
前記第1トリガーによってキャラクターを表示する際、それ以前に画面の正面の方向に向いていたキャラクターの視線が画面の正面の方向から外れるようにキャラクターの視線をアニメーションで滑らかに動かす、
請求項1に記載の方法。
When the character is displayed by the first trigger, the character's line of sight is smoothly moved by animation so that the line of sight of the character that was facing the front of the screen before that deviates from the front of the screen.
The method of claim 1.
前記第1トリガーによって前記キャラクターの視線が画面の正面の方向から外れるよう前記キャラクターを表示する間、キャラクターの視線をアニメーションで動かし続ける、
請求項7に記載の方法。
While the character is displayed by the first trigger so that the character's line of sight deviates from the direction of the front of the screen, the character's line of sight continues to be animated.
The method of claim 7.
前記キャラクターの視線を動かし続ける際、キャラクターの視線が画面の正面の方向を通過するものの、画面の正面の方向を凝視しないようにする、
請求項8に記載の方法。
While continuing to move the character's line of sight, the character's line of sight passes in the direction of the front of the screen, but does not stare in the direction of the front of the screen.
The method of claim 8.
前記所定時間経過後に前記対象者の極座標の偏角pがモナリザ効果を生ずる角度範囲にあっても、前記第2トリガーによる視線の変更を行う、
請求項1に記載の方法。
Even if the polar angle declination p of the subject is within the angular range that produces the monaural effect after the predetermined time, the line of sight is changed by the second trigger.
The method of claim 1.
前記所定時間経過後に前記対象者が前記表示位置の正面に存在しても、前記第2トリガーによる視線の変更を行う、
請求項1に記載の方法。
Even if the subject is present in front of the display position after the predetermined time has elapsed, the line of sight is changed by the second trigger,
The method of claim 1.
前記第2トリガーによりキャラクターの視線が変化しても、キャラクターの顔の方向は変化しない、
請求項1に記載の方法。
Even if the sight line of the character changes due to the second trigger, the direction of the character's face does not change,
The method of claim 1.
前記極座標は画面の表示方向と平行な面を平面視したときの円座標である、
請求項1に記載の方法。
The polar coordinates are circular coordinates when a plane parallel to the display direction of the screen is viewed in plan,
The method of claim 1.
前記画面は自発光型のディスプレイの表示領域にハーフミラーが貼り付けられることで構成されており、
前記ディスプレイの表示領域は、前記対象者から前記ハーフミラー越しに観察される、
請求項1に記載の方法。
The screen is configured by attaching a half mirror to the display area of a self-luminous display,
The display area of the display is observed from the subject through the half mirror,
The method of claim 1.
センサーから検知信号を受けるとともにディスプレイに対して映像信号を送るコントローラーであって、
前記ディスプレイは平面的な画面を有するとともに、前記映像信号を受けてこれを元にキャラクターを前記画面の中の所定の表示位置に表示するものであり、
前記センサーは、前記画面の前側に対象者の存在することを検知信号として前記コントローラーに送るものであり、ここで、前記センサーは、前記キャラクターの表示位置を原点とする前記対象者の極座標の偏角pがモナリザ効果を生ずる角度範囲にある場合において、対象者の存在を検知可能なものであり、
前記コントローラーは、
前記検知信号を受けたときに、前記画面の正面の方向から視線を外しているキャラクターを継続的に前記表示位置に表示する映像信号を送り、さらに
視線を外しているキャラクターの表示が所定時間継続した後に、同一のキャラクターが画面の正面の方向に向かって視線を滑らかに移動させるアニメーションを前記表示位置に表示する映像信号を送る、
コントローラー。
A controller that receives the detection signal from the sensor and sends the video signal to the display,
The display has a flat screen, and receives the video signal and displays a character at a predetermined display position in the screen based on the video signal.
The sensor sends, as a detection signal, the presence of a subject on the front side of the screen to the controller, wherein the sensor is a polar coordinate of the subject whose origin is the display position of the character. In the case where the angle p is in the angular range that produces the Mona Lisa effect, the presence of the subject can be detected,
The controller is
When it receives the detection signal, it sends a video signal to continuously display the character in the line of sight from the front of the screen at the display position, and the character in the line of sight continues to be displayed for a predetermined time. After that, the same character sends a video signal for displaying an animation in which the line of sight moves smoothly toward the front of the screen at the display position,
controller.
前記対象者が前記表示位置の正面に存在していても、これを前記検知信号として前記コントローラーに送るものであり、
前記コントローラーは、前記対象者が前記表示位置の正面に存在していても、前記検知信号を受けたときに、前記視線を外しているキャラクターを表示する映像信号を送る、
請求項15に記載のコントローラー。
Even if the target person is present in front of the display position, this is sent to the controller as the detection signal,
The controller sends a video signal that displays a character that is out of the line of sight when receiving the detection signal, even when the subject is present in front of the display position,
The controller according to claim 15.
コンピューターを請求項15に記載のコントローラーとして動作させるためのプログラム。 A program for operating a computer as the controller according to claim 15. 請求項17に記載のプログラムを、ネットワークを介して前記コンピューターへ送信するとともに前記コンピューターにインストールすること。 Transmitting the program according to claim 17 to the computer via a network and installing the program on the computer. 請求項17に記載のプログラムを記憶しているサーバーであって、ネットワークを介して当該プログラムを前記コンピューターへ送信するサーバー。 A server storing the program according to claim 17, which transmits the program to the computer via a network.
JP2018221324A 2018-11-27 2018-11-27 Character display method Active JP7128473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018221324A JP7128473B2 (en) 2018-11-27 2018-11-27 Character display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221324A JP7128473B2 (en) 2018-11-27 2018-11-27 Character display method

Publications (2)

Publication Number Publication Date
JP2020087003A true JP2020087003A (en) 2020-06-04
JP7128473B2 JP7128473B2 (en) 2022-08-31

Family

ID=70908297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018221324A Active JP7128473B2 (en) 2018-11-27 2018-11-27 Character display method

Country Status (1)

Country Link
JP (1) JP7128473B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024255A1 (en) * 2020-07-29 2022-02-03 日本電信電話株式会社 Line of sight reproduction system, line of sight reproduction method, and program
WO2022024254A1 (en) * 2020-07-29 2022-02-03 日本電信電話株式会社 Gaze tracking system, gaze tracking method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009053328A (en) * 2007-08-24 2009-03-12 Nec Corp Image display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009053328A (en) * 2007-08-24 2009-03-12 Nec Corp Image display device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024255A1 (en) * 2020-07-29 2022-02-03 日本電信電話株式会社 Line of sight reproduction system, line of sight reproduction method, and program
WO2022024254A1 (en) * 2020-07-29 2022-02-03 日本電信電話株式会社 Gaze tracking system, gaze tracking method, and program
JP7448856B2 (en) 2020-07-29 2024-03-13 日本電信電話株式会社 Gaze reproduction system, gaze reproduction method, and program
JP7448855B2 (en) 2020-07-29 2024-03-13 日本電信電話株式会社 Line-of-sight tracking system, line-of-sight tracking method, and program

Also Published As

Publication number Publication date
JP7128473B2 (en) 2022-08-31

Similar Documents

Publication Publication Date Title
JP7487265B2 (en) Automatic control of a wearable display device based on external conditions
US10986270B2 (en) Augmented reality display with frame modulation functionality
US20240005808A1 (en) Individual viewing in a shared space
US11615596B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN113196209A (en) Rendering location-specific virtual content at any location
CN115769174A (en) Avatar customization for optimal gaze recognition
KR20200096617A (en) Context-based rendering of virtual avatars
US11493989B2 (en) Modes of user interaction
US11380072B2 (en) Neutral avatars
US11669218B2 (en) Real-time preview of connectable objects in a physically-modeled virtual space
WO2020018938A1 (en) Content interaction driven by eye metrics
JP7128473B2 (en) Character display method
Mania et al. Gaze-aware displays and interaction
WO2023237023A1 (en) Image processing method and apparatus, storage medium, and head-mounted display device

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20181226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220810

R150 Certificate of patent or registration of utility model

Ref document number: 7128473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150