JP2021117479A - Display device and the like - Google Patents

Display device and the like Download PDF

Info

Publication number
JP2021117479A
JP2021117479A JP2020064321A JP2020064321A JP2021117479A JP 2021117479 A JP2021117479 A JP 2021117479A JP 2020064321 A JP2020064321 A JP 2020064321A JP 2020064321 A JP2020064321 A JP 2020064321A JP 2021117479 A JP2021117479 A JP 2021117479A
Authority
JP
Japan
Prior art keywords
display device
character
image
voice
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020064321A
Other languages
Japanese (ja)
Other versions
JP7475027B2 (en
Inventor
利夫 黒瀬
Toshio Kurose
利夫 黒瀬
真一 西村
Shinichi Nishimura
真一 西村
裕 山下
Yutaka Yamashita
裕 山下
英樹 石橋
Hideki Ishibashi
英樹 石橋
隆之 水野
Takayuki Mizuno
隆之 水野
勇喜 清水
Yuki Shimizu
勇喜 清水
幹雄 島津江
Mikio Shimazue
幹雄 島津江
圭三 高橋
Keizo Takahashi
圭三 高橋
篤 石橋
Atsushi Ishibashi
篤 石橋
康一 野口
Koichi Noguchi
康一 野口
隆 浅野
Takashi Asano
隆 浅野
茂 小池
Shigeru Koike
茂 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yupiteru Corp
Original Assignee
Yupiteru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yupiteru Corp filed Critical Yupiteru Corp
Publication of JP2021117479A publication Critical patent/JP2021117479A/en
Priority to JP2024004254A priority Critical patent/JP2024032778A/en
Application granted granted Critical
Publication of JP7475027B2 publication Critical patent/JP7475027B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a display device and the like that can obtain high visibility about a display image.SOLUTION: A display device 1 includes a housing 10, an image display unit 20, and a light reducing member 30. The housing 10 includes an opening 5 through which an image is viewed in a first direction side in an internal space 100 where light is blocked. The image display unit 20 is disposed in the internal space 100. The light reducing member 30 is disposed apart from the image display unit 20 on the first direction side relative to the image display unit 20.SELECTED DRAWING: Figure 6

Description

例えば、画像を表示可能な表示装置等に関する。 For example, the present invention relates to a display device capable of displaying an image.

画像表示部を有し、当該画像表示部に二次元画像や三次元画像を表示する表示装置が存在する。例えば特許文献1には、画像表示部に三次元画像を表示する表示装置が示されている。 There is a display device having an image display unit and displaying a two-dimensional image or a three-dimensional image in the image display unit. For example, Patent Document 1 discloses a display device that displays a three-dimensional image on an image display unit.

特開2003−295113号公報Japanese Unexamined Patent Publication No. 2003-295113

しかしながら、特許文献1等に記載されているような表示装置では、その表示装置の構成によっては、例えば画像表示部からの画像光と外光とが相まって、表示画像に関する視認性が低下し得ることがあるという知見を本願の発明者は得た。 However, in a display device as described in Patent Document 1 or the like, depending on the configuration of the display device, for example, the image light from the image display unit and the external light may be combined to reduce the visibility of the displayed image. The inventor of the present application has obtained the finding that there is.

本発明は、表示画像に関して高い視認性を得ることができる表示装置等を提供することを目的の一つとする。 One of the objects of the present invention is to provide a display device or the like capable of obtaining high visibility of a display image.

本発明の目的はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「〜できる」と記載した箇所を「〜が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、各々の課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙示的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正または分割出願にて特許請求の範囲とする意思を有する。またこれら独立の課題を組み合わせた課題を解決する構成についても開示しているものであり、権利取得する意思を有する。 The object of the present invention is not limited to this, and there is an intention to acquire the right by divisional application, amendment, or the like with respect to the structure for the purpose of obtaining the effect obtained from the part of the structure disclosed in the present specification, drawings, and the like. For example, the present specification discloses a problem in which the part described as "can be" is replaced with "is a problem" in the present specification. The issues are described as independent, and the intention is to acquire the rights to solve each issue independently by divisional application, amendment, etc. Even if the subject matter is implicitly grasped from the description in the specification, the applicant intends to make a part of the structure described in the specification amended or to be claimed in the divisional application. It also discloses a structure that solves problems that combine these independent problems, and has the intention to acquire rights.

本発明の目的は、例えば、以下の(1)〜(23)の形態により達成することができる。 The object of the present invention can be achieved, for example, by the following forms (1) to (23).

(1)画像を表示する表示装置であって、遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、前記内部空間に配置された画像表示部と、前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、を備える表示装置とするとよい。 (1) A display device for displaying an image, a housing provided with an opening for viewing the image on the first direction side in a shaded internal space, and an image display unit arranged in the internal space. It is preferable that the display device includes a dimming member arranged on the first direction side of the image display unit at a distance from the image display unit.

このようにすれば、筐体の内部空間へと外光が入り込むことを抑制できるとともに、画像表示部からの画像光が目視者の目に直接届くことが抑制される。したがって、筐体の内部空間に認識される画像を、画像表示部からの画像光と外光とが相まって視認し難くなることを抑制でき、表示画像に関して高い視認性を得ることができる表示装置を提供することができる。 By doing so, it is possible to prevent outside light from entering the internal space of the housing, and it is also possible to prevent the image light from the image display unit from directly reaching the eyes of the viewer. Therefore, it is possible to prevent the image recognized in the internal space of the housing from being difficult to see due to the combination of the image light from the image display unit and the external light, and a display device capable of obtaining high visibility of the displayed image. Can be provided.

(2)前記減光部材は、前記開口部と前記画像表示部との間に配置されるとよい。 (2) The dimming member may be arranged between the opening and the image display.

このようにすれば、筐体の内部において減光部材よりも画像を見る側に空間領域が形成されるので、当該空間領域を所定の用途に利用することができる。 In this way, a space area is formed inside the housing on the side where the image is viewed rather than the dimming member, so that the space area can be used for a predetermined purpose.

(3)前記減光部材の前記第1方向側の面は、前記画像表示部の表示面に対して傾斜しているとよい。 (3) The surface of the dimming member on the first direction side may be inclined with respect to the display surface of the image display unit.

このようにすれば、目視者が減光部材を介して画像表示部を見た際に、当該減光部材に目視者の顔が反射により映り込むことを軽減できる。 By doing so, when the viewer looks at the image display unit through the dimming member, it is possible to reduce the reflection of the viewer's face on the dimming member.

(4)前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示するとよい。 (4) The image display unit may display, as an image recognized as a three-dimensional image, a first image recognized that at least a part thereof exists on the opening side of the dimming member.

このようにすれば、目視者は、三次元画像として認識できる画像に触れることができるような感覚を得ることができる。 In this way, the viewer can obtain a feeling of being able to touch an image that can be recognized as a three-dimensional image.

(5)前記画像表示部は、三次元画像として認識される画像として、前記第1の画像と、前記第1の画像よりも前記第1方向側または前記第1方向側とは反対の第2方向側に存在すると認識される第2の画像とを含む複数の画像のいずれかを選択的に表示するとよい。 (5) The image display unit displays the first image and a second image that is opposite to the first image and the first direction side or the first direction side as an image recognized as a three-dimensional image. It is preferable to selectively display any one of a plurality of images including the second image recognized to exist on the directional side.

このようにすれば、目視者によって三次元の画像として認識される画像が存在すると認識される位置が異なる第1の画像と第2の画像とを含む複数の画像のいずれかを選択的に表示することができるので、目視者に与える立体感を変更することができる。 In this way, any one of a plurality of images including the first image and the second image having different positions recognized as having an image recognized as a three-dimensional image by the viewer is selectively displayed. Therefore, it is possible to change the three-dimensional effect given to the viewer.

(6)前記筐体に設けられた音声出力部をさらに有し、前記音声出力部は、前記筐体の前記内部空間に面する第1面のうち、前記減光部材よりも前記第1方向側で、かつ前記開口部との距離よりも前記減光部材との距離が小さい位置に設けられるとよい。 (6) Further having an audio output unit provided in the housing, the audio output unit is in the first direction of the first surface of the housing facing the internal space with respect to the dimming member. It is preferable that the lamp is provided on the side and at a position where the distance from the dimming member is smaller than the distance from the opening.

このようにすれば、音声出力部により出力された音声が減光部材に反射して目視者に伝達されることがあるため、目視者に対して、例えば画像表示部に表示された画像自体から音声が聞こえているように感じさせることができる。また、音声出力部が目視者から見え難い位置に配置されていることにより、表示装置のデザイン性を高めることもできる。 In this way, the sound output by the sound output unit may be reflected by the dimming member and transmitted to the viewer, so that the image itself displayed on the image display unit, for example, can be transmitted to the viewer. You can make it feel like you are hearing the sound. Further, since the audio output unit is arranged at a position where it is difficult for the viewer to see, the design of the display device can be improved.

(7)前記開口部の上端部は、前記画像表示部の表示面の上端部よりもさらに上方に設けられており、前記内部空間の上面は、前記開口部の上端部から前記表示面の上端部へと向かうに従って下方に傾斜しているとよい。 (7) The upper end of the opening is provided further above the upper end of the display surface of the image display, and the upper surface of the internal space is from the upper end of the opening to the upper end of the display surface. It is better to incline downward toward the part.

このようにすれば、画像表示部に表示された画像を見下ろしながら視認することができるので、目視者に自然な姿勢で画像を視認させやすくすることができる。 In this way, the image displayed on the image display unit can be visually recognized while looking down, so that it is easy for the viewer to visually recognize the image in a natural posture.

(8)前記画像表示部は、光源と、前記光源からの光を変調して画像を表示する表示体とを有するとよい。 (8) The image display unit may include a light source and a display body that modulates the light from the light source to display an image.

光源からの光を変調して画像を表示する画像表示部において、光源からの光が漏れ出てしまってその光源の位置が目視者に認識されてしまうことにより、内部空間に画像が浮かび上がっているような浮遊感が損なわれてしまうおそれがある。減光部材の存在により、光源から漏れ出た光が視認され難くなるので、画像のより高い浮遊感を与えることができる。 In the image display unit that modulates the light from the light source and displays the image, the light from the light source leaks out and the position of the light source is recognized by the viewer, so that the image emerges in the internal space. There is a risk that the floating feeling will be impaired. The presence of the dimming member makes it difficult for the light leaked from the light source to be visually recognized, so that a higher floating feeling of the image can be given.

(9)前記開口部の上端部は、前記開口部の下端部よりも前記第1方向側に突出しているとよい。 (9) It is preferable that the upper end portion of the opening projectes toward the first direction side with respect to the lower end portion of the opening.

このようにすれば、表示装置の上方からの光が減光部材に反射することによって画像表示部における画像の視認性が低下すること、を抑制することができる。 In this way, it is possible to prevent the light from above the display device from being reflected by the dimming member, thereby reducing the visibility of the image on the image display unit.

(10)前記筐体は、前記筐体の上面にカバー部を有するとともに、前記カバー部と前記筐体の内周面のうちの上面との間に収容空間を有し、前記表示装置に関する制御部は、前記収容空間に配置されるとよい。 (10) The housing has a cover portion on the upper surface of the housing and has a storage space between the cover portion and the upper surface of the inner peripheral surface of the housing, and controls the display device. The unit may be arranged in the accommodation space.

このようにすれば、表示装置に関する制御部のメンテナンスを、筐体の上面に設けられたカバー部を外して行うことができる。したがって、表示装置のメンテナンス性を向上させることができる。 In this way, maintenance of the control unit related to the display device can be performed by removing the cover unit provided on the upper surface of the housing. Therefore, the maintainability of the display device can be improved.

(11)前記筐体の前記内部空間よりも下方に設けられた電源部を備え、前記電源部と前記制御部とを電気的に接続する接続コードは、前記筐体の外周壁と前記内部空間との間に確保された隙間領域を通るように配線されるとよい。 (11) A connection cord provided with a power supply unit provided below the internal space of the housing and electrically connecting the power supply unit and the control unit is the outer peripheral wall of the housing and the internal space. It is preferable to wire so as to pass through the gap area secured between and.

このようにすれば、電源部が目立ち難い位置に配置されるとともに表示装置の重心位置を低くすることができ、その姿勢を安定させやすくする。また、電源部と制御部とを接続する接続コードを目視者の目に触れないように配線することができる。 In this way, the power supply unit can be arranged at a position that is inconspicuous, and the position of the center of gravity of the display device can be lowered, which makes it easier to stabilize the posture. Further, the connection cord connecting the power supply unit and the control unit can be wired so as not to be seen by a visual eye.

(12)前記カバー部は、複数の取付位置で前記筐体の本体部に対して取り付けられるとともに、前記カバー部と前記本体部とは、前記複数の取付位置のうち前記第1方向側の第1の取付位置では、前記筐体の外周壁よりも内側の位置において第1の固定具を用いて結合され、前記表示装置の第1の取付位置よりも前記第1方向とは反対側の第2方向側の第2の取付位置では、前記筐体の外周壁の外側から第2の固定具を用いて結合されるとよい。 (12) The cover portion is attached to the main body portion of the housing at a plurality of mounting positions, and the cover portion and the main body portion are the first of the plurality of mounting positions on the first direction side. At the mounting position 1, the first fixture is used to connect the housing at a position inside the outer peripheral wall of the housing, and the first mounting position of the display device is opposite to the first mounting position. At the second mounting position on the two-way side, it is preferable that the housing is joined from the outside of the outer peripheral wall of the housing by using a second fixture.

このようにすれば、目視者の目に触れ難い第2の取付位置においては、外周壁の外側から着脱できる第2の固定具を用いて筐体の外周壁の外側からカバー部と本体部とが結合されるとともに、目視者の目に触れ易い第1の取付位置においては、目視者に目視され難い場所で第1の固定具を用いてカバー部と本体部とが結合されるので、表示装置のデザイン性を高めることができる。 In this way, at the second mounting position, which is difficult for the eyes to see, the cover portion and the main body portion can be connected from the outside of the outer peripheral wall of the housing by using the second fixture that can be attached and detached from the outside of the outer peripheral wall. At the first mounting position, which is easily visible to the visual eye, the cover portion and the main body portion are coupled by using the first fixture in a place where it is difficult for the visual visual to see. The design of the device can be improved.

(13)前記筐体のうち、前記開口部よりも前記第1方向側の前記筐体の下側部分に設けられた操作部、をさらに備える表示装置とするとよい。 (13) Among the housings, the display device may further include an operation unit provided in a lower portion of the housing on the first direction side of the opening.

このようにすれば、目視者が操作部を操作する際に、例えば目視者の手が画像表示部の表示画像に重なることがなく、目視者は、画像表示部の表示画像を見ながら操作部を操作することができる。したがって、目視者が操作部に対する操作を行い易くなるので、表示装置の操作性を向上させることができる。 By doing so, when the viewer operates the operation unit, for example, the hand of the viewer does not overlap with the display image of the image display unit, and the viewer can operate the operation unit while looking at the display image of the image display unit. Can be operated. Therefore, it becomes easier for the visual operator to operate the operation unit, and the operability of the display device can be improved.

(14)複数の前記減光部材が着脱可能に設けられているとよい。 (14) It is preferable that the plurality of the dimming members are detachably provided.

このようにすれば、画像表示部に表示される画像の明るさを、別途の調整部材を設けることなく調整することができる。 In this way, the brightness of the image displayed on the image display unit can be adjusted without providing a separate adjusting member.

(15)前記画像表示部には、特定のキャラクターが表示され、目視者の動作を検出可能な動作検出手段と、前記動作検出手段による検出結果に応じて前記特定のキャラクターの動作を制御する動作制御手段と、をさらに備える表示装置とするとよい。 (15) A specific character is displayed on the image display unit, and an motion detecting means capable of detecting the motion of a viewer and an motion of controlling the motion of the specific character according to a detection result by the motion detecting means. It is preferable that the display device further includes a control means.

このようにすれば、目視者の動作が検出されると、その検出結果に応じて特定のキャラクターが動作するから、目視者と当該特定のキャラクターとのコミュニケーションを再現することができる。 In this way, when the movement of the visual person is detected, the specific character operates according to the detection result, so that the communication between the visual person and the specific character can be reproduced.

(16)前記動作検出手段は、物体の挙動を検出可能な挙動検出センサであり、前記挙動検出センサは、前記筐体の内部空間で行われたジェスチャーを検出するように配置されているとよい。 (16) The motion detecting means is a behavior detecting sensor capable of detecting the behavior of an object, and the behavior detecting sensor may be arranged so as to detect a gesture performed in the internal space of the housing. ..

このようにすれば、挙動検出センサが、例えば、筐体の内部空間で目視者のジェスチャーを検出することができる。したがって、挙動検出センサが筐体の外周面に配置されている場合と比較して、挙動検出センサの感度の低下を抑制することができる。 In this way, the behavior detection sensor can detect the gesture of the viewer, for example, in the internal space of the housing. Therefore, it is possible to suppress a decrease in the sensitivity of the behavior detection sensor as compared with the case where the behavior detection sensor is arranged on the outer peripheral surface of the housing.

(17)前記挙動検出センサは、前記筐体の内周面のうちの上面に配置されているとよい。 (17) The behavior detection sensor may be arranged on the upper surface of the inner peripheral surface of the housing.

このようにすれば、挙動検出センサが、筐体の内周面のうち外部からの光がより入り込み難い面に設けられるので、挙動検出センサの感度の低下を抑制することができる。 In this way, since the behavior detection sensor is provided on the inner peripheral surface of the housing where it is more difficult for light from the outside to enter, it is possible to suppress a decrease in the sensitivity of the behavior detection sensor.

(18)前記挙動検出センサは、光を出射してその反射光を受光して前記ジェスチャーを検出し、前記光の出射方向に設けられ、当該出射した光が当該挙動検出センサに受光されることを抑制する部材、をさらに備える表示装置とするとよい。 (18) The behavior detection sensor is provided in the direction in which the light is emitted by emitting light and receiving the reflected light to detect the gesture, and the emitted light is received by the behavior detection sensor. It is preferable that the display device further includes a member for suppressing the above.

このようにすれば、挙動検出センサの光の出射方向に存在する筐体の部位からの反射光を受光しにくくなるので、挙動検出センサの感度の低下を更に抑制することができる。 By doing so, it becomes difficult to receive the reflected light from the portion of the housing existing in the light emitting direction of the behavior detection sensor, so that the decrease in the sensitivity of the behavior detection sensor can be further suppressed.

(19)においを検知するにおいセンサと、前記においセンサによる検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記においセンサによる検知結果に応じた音声を前記画像表示部に表示された前記キャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、をさらに備えるとよい。 (19) An odor sensor that detects an odor, a display output operation that displays an image of the character performing a movement according to the detection result of the odor sensor on the image display unit, and a sound corresponding to the detection result of the odor sensor. It is preferable to further include an operation control means for executing at least one of the sound output operation output as the sound emitted by the character displayed on the image display unit.

このようにすれば、表示装置の画像表示部に表示されたキャラクターとユーザとの間でにおいに関するコミュニケーションを再現することができる。例えば、においセンサによってにおいが検知されると、キャラクターが「何かにおう」などの音声を発する音声出力動作や、においを嗅ぐ動作をキャラクターが行う映像の表示出力動作が行われるように制御され得る。したがって、当該キャラクターとユーザとの間でより多様なコミュニケーションを図ることができる。 In this way, it is possible to reproduce the communication regarding the odor between the character displayed on the image display unit of the display device and the user. For example, when an odor is detected by an odor sensor, it is controlled so that a voice output operation in which the character emits a voice such as "smell something" or a video display output operation in which the character sniffs the odor is performed. obtain. Therefore, more diverse communication can be achieved between the character and the user.

(20)前記表示出力動作は、検知されたにおいの種類に応じた動きを前記キャラクターが行う映像を前記画像表示部に表示する動作であり、前記音声出力動作は、検知されたにおいの種類に応じた音声を前記キャラクターが発する音声として出力する動作であるとよい。 (20) The display output operation is an operation of displaying an image of the character performing a movement according to the type of the detected odor on the image display unit, and the voice output operation is an operation of displaying the movement according to the type of the detected odor on the image display unit. It is preferable that the operation is to output the corresponding voice as the voice emitted by the character.

このようにすれば、画像表示部に表示されたキャラクターとユーザとの間でにおいの種類に関するコミュニケーションを再現することができる。例えば、タバコのにおいが検知されたときには、煙たがる動きをキャラクターが行う映像を表示する表示出力動作やユーザの健康に気遣う言葉を発する音声出力動作が実行され得る。また、アロマオイルなどの香料のにおいが検知されたときには、香料に関する質問を発する音声出力動作が実行され得る。このような制御が行われることにより、画像表示部に表示されたキャラクターとユーザとの間でのコミュニケーションの幅を広げることができ、当該キャラクターへのユーザの愛着を増大させることができる。 In this way, it is possible to reproduce the communication regarding the type of odor between the character displayed on the image display unit and the user. For example, when the odor of cigarettes is detected, a display output operation for displaying an image of a character performing a smoke-desired movement or a voice output operation for uttering words that care about the user's health can be executed. Further, when the odor of a fragrance such as aroma oil is detected, a voice output operation for asking a question about the fragrance can be executed. By performing such control, the range of communication between the character displayed on the image display unit and the user can be widened, and the user's attachment to the character can be increased.

(21)音声を検出可能な音声検出手段と、検知対象領域における人の存在を検知可能な検知手段と、をさらに備え、前記音声検出手段は、前記検知対象領域における人の存在が検知されると、前記画像表示部に表示されたキャラクターとの対話を行うための音声認識を有効化するとよい。 (21) A voice detecting means capable of detecting voice and a detecting means capable of detecting the presence of a person in the detection target area are further provided, and the voice detecting means detects the presence of a person in the detection target area. And, it is preferable to enable voice recognition for performing a dialogue with the character displayed on the image display unit.

このようにすれば、ユーザと画像表示部に表示されたキャラクターと対話するにあたって、例えばユーザが音声認識を有効化するためのトリガーワードを発声する必要がなく、より自然にコミュニケーションをとることができる。 In this way, when interacting with the user and the character displayed on the image display unit, for example, the user does not need to utter a trigger word for enabling voice recognition, and communication can be performed more naturally. ..

(22)風を検知する風検知手段と、前記風検知手段による検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記風検知センサによる検知結果に応じた音声を前記画像表示部に表示されたキャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、をさらに備えるとよい。 (22) According to the wind detection means for detecting the wind, the display output operation for displaying the image of the character performing the movement according to the detection result by the wind detection means on the image display unit, and the detection result by the wind detection sensor. It is preferable to further include an operation control means for executing at least one of an audio output operation for outputting the sound as a sound emitted by the character displayed on the image display unit.

このようにすれば、画像表示部に表示されたキャラクターとユーザとの間で表示装置に与えられた風に関するコミュニケーションを再現することができる。風は、例えばユーザ人為的に起こしたものとするとよく、例えば表示装置に向けて手を振る等の身体の部位を動かすことによって発生する風や息を吹きかけることによって発生する風とするとよい。 In this way, it is possible to reproduce the communication regarding the wind given to the display device between the character displayed on the image display unit and the user. The wind may be, for example, artificially generated by the user, and may be generated by moving a part of the body such as waving toward a display device or by blowing a breath.

(23)前記動作制御手段は、前記風検知手段による検知結果に基づき、ユーザの吹きかけた息に応じて前記表示出力動作または前記音声出力動作を行うとよい。 (23) The motion control means may perform the display output operation or the voice output operation according to the breath blown by the user based on the detection result by the wind detecting means.

このようにすれば、画像表示部に表示されたキャラクターとユーザとの間で、表示装置に吹きかけた息に応じたコミュニケーションを再現することができる。 In this way, it is possible to reproduce the communication between the character displayed on the image display unit and the user according to the breath blown on the display device.

本発明によれば、表示画像に関して高い視認性を得ることができる表示装置等を提供することができる。 According to the present invention, it is possible to provide a display device or the like capable of obtaining high visibility with respect to a display image.

なお、本願の発明の効果はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「〜できる」「〜可能である」などと記載した箇所などは奏する効果を明示する記載であり、また「〜できる」「〜可能である」などといった記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。 The effect of the invention of the present application is not limited to this, and the effect produced from the portion of the configuration disclosed in the present specification, drawings, etc. is also disclosed, and the configuration exhibiting the effect is also disclosed by divisional application, amendment, etc. Have the intention to acquire the right. For example, in this specification, the parts such as "-can" and "-possible" clearly indicate the effect to be performed, and even if there is no description such as "-can" and "-possible", the effect can be obtained. There is a part to show. Moreover, even if there is no such description, there is an effect that can be grasped by the configuration.

本発明の一例に係る表示装置を示す斜視図である。It is a perspective view which shows the display device which concerns on one example of this invention. (A)本発明の一例に係る表示装置を示す正面図、(B)本発明の一例に係る表示装置を示す背面図である。(A) is a front view showing a display device according to an example of the present invention, and (B) is a rear view showing a display device according to an example of the present invention. (A)本発明の一例に係る表示装置を示す右側面図、(B)本発明の一例に係る表示装置を示す左側面図である。(A) is a right side view showing a display device according to an example of the present invention, and (B) is a left side view showing a display device according to an example of the present invention. (A)本発明の一例に係る表示装置を示す平面図、(B)本発明の一例に係る表示装置を示す底面図である。(A) is a plan view showing a display device according to an example of the present invention, and (B) is a bottom view showing a display device according to an example of the present invention. 本発明の一例に係る表示装置を示す分解斜視図である。It is an exploded perspective view which shows the display device which concerns on one example of this invention. 図2(A)のA−A線矢視位置における断面図である。FIG. 2 is a cross-sectional view taken along the line AA of FIG. 2A. 上面カバー部が取り外された状態の表示装置を説明する斜視図である。It is a perspective view explaining the display device in the state which the upper surface cover part was removed. 上面カバー部の裏面を示す図である。It is a figure which shows the back surface of the upper surface cover part. 一実施例に係る表示装置における制御ブロック図である。It is a control block diagram in the display device which concerns on one Example. 一実施例に係る表示装置の概要を説明する図である。It is a figure explaining the outline of the display device which concerns on one Example. 一実施例に係る表示装置の概要を説明する図である。It is a figure explaining the outline of the display device which concerns on one Example. 一実施例に係るキャラクターを説明する図である。It is a figure explaining the character which concerns on one Example. 3Dキャラクターが立体視されている状態を示す図である。It is a figure which shows the state which a 3D character is stereoscopically viewed. (A)においに関するコミュニケーションを再現するためのフローチャート、(B)においに関する音声管理テーブルを示す図である。It is a figure which shows (A) the flowchart for reproducing the communication about odor, and (B) the voice management table about odor. 滞在頻度に関するコミュニケーションを再現するためのフローチャートである。It is a flowchart for reproducing communication about stay frequency. (A)滞在場所に関するコミュニケーションを再現するためのフローチャート、(B)滞在頻度に関する音声管理テーブルを示す図である。It is a figure which shows (A) the flowchart for reproducing the communication about the stay place, and (B) the voice management table about the stay frequency. (A)滞在回数に関するコミュニケーションを再現するためのフローチャート、(B)滞在回数に関する音声管理テーブルを示す図である。It is a figure which shows (A) the flowchart for reproducing the communication about the number of stays, and (B) the voice management table about the number of stays. (A)滞在時間に関するコミュニケーションを再現するためのフローチャート、(B)滞在時間に関する音声管理テーブルを示す図である。It is a figure which shows (A) the flowchart for reproducing the communication about staying time, and (B) the voice management table about staying time. (A)行動パターンに関するコミュニケーションを再現するためのフローチャート、(B)行動パターンに関する音声管理テーブルを示す図である。It is a figure which shows (A) the flowchart for reproducing the communication about a behavior pattern, and (B) the voice management table about a behavior pattern. 不審者の検知に関する動作を再現するためのフローチャートである。It is a flowchart for reproducing the operation about the detection of a suspicious person. (A)3Dキャラクターが減光部材よりも後方側に存在する状態を示す図、(B)3Dキャラクターが減光部材よりも前方側に存在する状態を示す図である。(A) is a diagram showing a state in which the 3D character is present on the rear side of the dimming member, and (B) is a diagram showing a state in which the 3D character is present on the front side of the dimming member. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example. 一実施例に係る表示装置に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the display device which concerns on one Example.

[表示装置の概略構成]
図1は、本発明の一例に係る表示装置1を示す斜視図である。図2(A)は、本発明の一例に係る表示装置1を示す正面図であり、図2(B)は、本発明の一例に係る表示装置1を示す背面図である。図3(A)は、本発明の一例に係る表示装置1を示す右側面図であり、図3(B)は、本発明の一例に係る表示装置1を示す左側面図である。図4(A)は、本発明の一例に係る表示装置1を示す平面図であり、図4(B)は、本発明の一例に係る表示装置1を示す底面図である。図5は、本発明の一例に係る表示装置1を示す分解斜視図である。図6は、図2(A)のA−A線矢視位置における断面図である。以下、図1〜図6を参照して、本発明の一例に係る表示装置1の概略構成について説明する。
[Outline configuration of display device]
FIG. 1 is a perspective view showing a display device 1 according to an example of the present invention. FIG. 2A is a front view showing a display device 1 according to an example of the present invention, and FIG. 2B is a rear view showing a display device 1 according to an example of the present invention. FIG. 3A is a right side view showing the display device 1 according to an example of the present invention, and FIG. 3B is a left side view showing the display device 1 according to an example of the present invention. FIG. 4A is a plan view showing a display device 1 according to an example of the present invention, and FIG. 4B is a bottom view showing a display device 1 according to an example of the present invention. FIG. 5 is an exploded perspective view showing a display device 1 according to an example of the present invention. FIG. 6 is a cross-sectional view taken along the line AA of FIG. 2A. Hereinafter, a schematic configuration of the display device 1 according to an example of the present invention will be described with reference to FIGS. 1 to 6.

なお、各図等において、表示装置1の左右方向をX方向とし、表示装置1の左側から右側へと向かう方向を+X方向(X方向の正方向)とする。また、表示装置1の前後方向(奥行方向)をY方向とし、表示装置1の正面側(前方側)から背面側(後方側)へと向かう方向を+Y方向(Y方向の正方向)とする。また、表示装置1の上下方向をZ方向とし、表示装置1の下面側から上面側へと向かう方向を+Z方向(Z方向の正方向)とする。 In each drawing and the like, the left-right direction of the display device 1 is the X direction, and the direction from the left side to the right side of the display device 1 is the + X direction (positive direction in the X direction). Further, the front-rear direction (depth direction) of the display device 1 is the Y direction, and the direction from the front side (front side) to the back side (rear side) of the display device 1 is the + Y direction (positive direction in the Y direction). .. Further, the vertical direction of the display device 1 is the Z direction, and the direction from the lower surface side to the upper surface side of the display device 1 is the + Z direction (positive direction in the Z direction).

表示装置1は、種々の用途に用いられる。例えば、表示装置1は、商業用(例えば集客用、広告宣伝用)、娯楽用(人を楽しませる用途)、玩具等とするとよい。例えば、商業用または娯楽用の場合、表示装置1は店舗その他の商業施設等の公共の場所に設置されるとよい。表示装置1は、製品あるいはサービスの展示会等の会場において、特定のキャラクターが製品あるいはサービスを紹介または宣伝等する画像を表示することによって集客を図るとともに、来場者を楽しませるためなどに用いられるとよい。あるいは、表示装置1は、各種のアミューズメント施設等に設置され、アミューズメント施設の訪問者を楽しませるためなどに用いられるとよい。玩具の場合、表示装置1はユーザの自宅等に設置される。また、後述するように表示装置1に三次元画像が表示される場合には、目視者に表示対象物の立体視を体験させることによって当該目視者を楽しませるためなどに用いられるとよい。目視者は、例えば、表示装置1を使用するユーザである。 The display device 1 is used for various purposes. For example, the display device 1 may be used for commercial purposes (for example, for attracting customers, for advertising), for entertainment (for entertaining people), toys, and the like. For example, in the case of commercial or entertainment use, the display device 1 may be installed in a public place such as a store or other commercial facility. The display device 1 is used to attract customers by displaying an image in which a specific character introduces or promotes a product or service at a venue such as an exhibition of a product or service, and to entertain visitors. It is good. Alternatively, the display device 1 may be installed in various amusement facilities or the like and used to entertain visitors to the amusement facilities. In the case of a toy, the display device 1 is installed at the user's home or the like. Further, when a three-dimensional image is displayed on the display device 1 as described later, it may be used to entertain the viewer by allowing the viewer to experience the stereoscopic view of the display object. The viewer is, for example, a user who uses the display device 1.

図5に示されるように、表示装置1は、筐体10と、表示対象物の画像を表示可能な画像表示部20と、減光部材30とを備えている。 As shown in FIG. 5, the display device 1 includes a housing 10, an image display unit 20 capable of displaying an image of an object to be displayed, and a dimming member 30.

筐体10は、表示装置1の外形をなす箱型の部材である。筐体10は、幅方向(左右方向ともいう)、高さ方向(上下方向ともいう。)、及び奥行き方向(前後方向ともいう。)の長さ(最大長)の比が、およそ1:1:1である。ただし、この長さの比は一例であり、少なくとも一部が異なっていてもよい。筐体10は、角部がR形状である。例えば表示装置1を正面側から見たとき、筐体10の4つの角部がそれぞれ丸みを帯びている。 筐体10は、その内部に所定サイズ(例えば、17インチサイズ)の画像表示部20を収容可能な大きさとするとよい。 The housing 10 is a box-shaped member that forms the outer shape of the display device 1. The housing 10 has a ratio of length (maximum length) in the width direction (also referred to as the left-right direction), the height direction (also referred to as the up-down direction), and the depth direction (also referred to as the front-rear direction) to be approximately 1: 1. It is 1. However, this length ratio is an example and may differ at least in part. The housing 10 has an R-shaped corner. For example, when the display device 1 is viewed from the front side, the four corners of the housing 10 are each rounded. The housing 10 may be large enough to accommodate an image display unit 20 of a predetermined size (for example, 17-inch size) inside the housing 10.

筐体10は、表示装置1の正面側(各図において−Y側)に開口部5を有している。表示装置1の正面側は、表示装置1が表示する画像を目視者が見る側に相当する。開口部5は、筐体10の内部空間における表示装置1の正面側に形成される。例えば、当該開口部5は、図2(A)に示されるように、表示装置1の正面側から見て矩形状に形成されている。筐体10は、内部空間100を有する。内部空間100は、筐体10の内部の空間で画像が表示される空間である。内部空間100が開口部5以外の部分が遮光性部材で囲まれている(図6参照)。筐体10を構成する部材を通して、内部空間100に外光は進入しない。そのため、筐体10は、その全体が外光を遮断する素材で形成されてもよいが、外側表面や、内部空間100に面している面が光を遮断する素材で覆われたりしてもよい。図6において、当該内部空間100は、一点鎖線で示されており、当該内部空間100を減光部材30で区分した2つの空間領域101,102は、二点鎖線で示されている。空間領域101は減光部材30より背面側の空間である。空間領域101は奥側ほど高さ方向の寸法が大きく、正面側に移動するにつれてその寸法が小さくなる。空間領域102は減光部材30より正面側の空間である。空間領域102は奥側ほど高さ方向の寸法が小さく、正面側に移動するにつれてその寸法が大きくなる。本実施例では、開口部5は、空間領域101を外部空間に通じさせる面状の領域により特定される。よって、開口部5は開口面と読み替えられてもよい。内部空間100は、筐体10の奥行方向(前後方向)に一定程度の領域を有しており、筐体10は、図6のYZ断面に示すように、奥行方向における長さは上端の方が下端よりも長い。当該内部空間100は、例えば、立体視表示されるキャラクターの居室空間として目視者によって認識されるようにするとよい。 The housing 10 has an opening 5 on the front side (-Y side in each drawing) of the display device 1. The front side of the display device 1 corresponds to the side on which the viewer sees the image displayed by the display device 1. The opening 5 is formed on the front side of the display device 1 in the internal space of the housing 10. For example, as shown in FIG. 2A, the opening 5 is formed in a rectangular shape when viewed from the front side of the display device 1. The housing 10 has an internal space 100. The internal space 100 is a space in which an image is displayed in the space inside the housing 10. A portion of the internal space 100 other than the opening 5 is surrounded by a light-shielding member (see FIG. 6). External light does not enter the internal space 100 through the members constituting the housing 10. Therefore, the housing 10 may be entirely formed of a material that blocks external light, but the outer surface or the surface facing the internal space 100 may be covered with a material that blocks light. good. In FIG. 6, the internal space 100 is indicated by a alternate long and short dash line, and the two spatial regions 101 and 102 in which the internal space 100 is divided by the dimming member 30 are indicated by the alternate long and short dash line. The space area 101 is a space on the back side of the dimming member 30. The space region 101 has a larger dimension in the height direction toward the back side, and the dimension becomes smaller as it moves toward the front side. The space area 102 is a space on the front side of the dimming member 30. The space region 102 has a smaller dimension in the height direction toward the back side, and the dimension becomes larger as it moves toward the front side. In this embodiment, the opening 5 is specified by a planar region that connects the space region 101 to the external space. Therefore, the opening 5 may be read as an opening surface. The internal space 100 has a certain area in the depth direction (front-back direction) of the housing 10, and the housing 10 has a length in the depth direction toward the upper end as shown in the YZ cross section of FIG. Is longer than the bottom edge. The internal space 100 may be recognized by the viewer as, for example, a living room space of a character to be stereoscopically displayed.

例えば、筐体10は、樹脂部材等で形成されているとともに、その表面(例えば、外周面と内周面との少なくとも一方)に、暗色系(例えば、黒色)のラバー塗装が施されている。これにより、当該開口部5以外の部分からは筐体10の内部空間100へと光が進入しないように構成されている。なお、内部空間100が開口部5以外の部分の全てにおいて遮光性部材で囲まれていることは必須ではなく、内部空間100が或る程度暗くなるように遮光性部材で囲まれていればよい。筐体10は、樹脂材料以外の材料、例えば金属またはその他の素材で形成されてもよい。また、筐体10の外側表面の色は問わないが、例えば高級感またはシンプルさを醸し出す白色または黒色等としてもよい。筐体10の表面は、つや消し加工で質感を出すように加工されてもよい。 For example, the housing 10 is made of a resin member or the like, and its surface (for example, at least one of an outer peripheral surface and an inner peripheral surface) is coated with a dark color (for example, black) rubber. .. As a result, light is prevented from entering the internal space 100 of the housing 10 from a portion other than the opening 5. It is not essential that the internal space 100 is surrounded by the light-shielding member in all the portions other than the opening 5, and the internal space 100 may be surrounded by the light-shielding member so as to be darkened to some extent. .. The housing 10 may be made of a material other than the resin material, for example, metal or other material. Further, the color of the outer surface of the housing 10 is not limited, but may be, for example, white or black that brings out a sense of quality or simplicity. The surface of the housing 10 may be processed so as to give a texture by a matte process.

また、図5に示されるように、筐体10は、本体部11と、上面カバー部12と、減光部材30の配置部13と、底面カバー部14と、背面カバー部15とを有している。なお、各部材12〜15は、上面カバー部12の一部分(後述)を除き、ネジ等の固定具によって本体部11に取り付けられる。 Further, as shown in FIG. 5, the housing 10 includes a main body portion 11, a top cover portion 12, an arrangement portion 13 of the dimming member 30, a bottom cover portion 14, and a back cover portion 15. ing. Each member 12 to 15 is attached to the main body portion 11 by a fixing tool such as a screw, except for a part (described later) of the upper surface cover portion 12.

次に、画像表示部20について説明する。画像表示部20は、光源を有する表示部である。画像表示部20としては、例えば液晶ディスプレイが挙げられる。この場合、画像表示部20は、光源の一例であるバックライトと、表示素子の一例である液晶素子を二次元配置した表示体28(図5参照)とを含む。光源は例えば白色光源である。液晶素子は、画素単位でバックライトからの光を変調する。液晶素子は、例えば、画素単位に設けられる画素電極と複数の画素で共通の共通電極とで液晶分子を挟持した構成である。画像表示部20は、赤(R)、緑(G)、青(B)の3原色に基づいてカラー(多色)の画像を表示する。画像表示部20は、本実施例では三次元画像として認識されるように画像を表示する。画像表示部20は、本実施例では17インチの液晶ディスプレイである。 Next, the image display unit 20 will be described. The image display unit 20 is a display unit having a light source. Examples of the image display unit 20 include a liquid crystal display. In this case, the image display unit 20 includes a backlight which is an example of a light source and a display body 28 (see FIG. 5) in which a liquid crystal element which is an example of a display element is two-dimensionally arranged. The light source is, for example, a white light source. The liquid crystal element modulates the light from the backlight on a pixel-by-pixel basis. The liquid crystal element has, for example, a configuration in which liquid crystal molecules are sandwiched between a pixel electrode provided for each pixel and a common electrode common to a plurality of pixels. The image display unit 20 displays a color (multicolor) image based on the three primary colors of red (R), green (G), and blue (B). The image display unit 20 displays an image so as to be recognized as a three-dimensional image in this embodiment. The image display unit 20 is a 17-inch liquid crystal display in this embodiment.

画像表示部20は、表示対象物の三次元画像を表示可能に構成されているとよく、裸眼による立体視表示が可能なディスプレイとするとよい。また、画像表示部20は、三次元画像と二次元画像とを切替可能に構成されていると尚よい。画像表示部20には、例えば、特定のキャラクター(例えば、人あるいは動物等)などの表示対象物の画像が表示されるようにするとよい。例えば、人型のキャラクター1000が、図13に示されるように目視者によって立体視されるように画像表示部20において表示制御されるとよい。キャラクター1000は、ここでは歴史上の人物を模したキャラクターであるが、女性のキャラクター、動物(例えば猫)のキャラクター、その他のキャラクターでもよい。これに限定されず、画像表示部20には、様々な画像が表示され得る。また、以下において、立体視表示されるキャラクター(表示されるオブジェクトの一例)は、「3Dキャラクター」などとも称される。3Dキャラクターは、3Dオブジェクトの一例である。 The image display unit 20 is preferably configured to be capable of displaying a three-dimensional image of a display object, and is preferably a display capable of stereoscopic display with the naked eye. Further, it is more preferable that the image display unit 20 is configured so that the three-dimensional image and the two-dimensional image can be switched. The image display unit 20 may display an image of a display object such as a specific character (for example, a person or an animal). For example, it is preferable that the humanoid character 1000 is displayed and controlled in the image display unit 20 so as to be stereoscopically viewed by a viewer as shown in FIG. The character 1000 is a character imitating a historical person here, but may be a female character, an animal (for example, a cat) character, or another character. Not limited to this, various images can be displayed on the image display unit 20. Further, in the following, a character that is stereoscopically displayed (an example of a displayed object) is also referred to as a "3D character" or the like. A 3D character is an example of a 3D object.

このように、表示装置1は、裸眼による立体視表示を再現可能な装置とするとよい。このような表示装置1は、例えば、「裸眼立体視表示装置」などとも称される。 As described above, the display device 1 may be a device capable of reproducing the stereoscopic display by the naked eye. Such a display device 1 is also referred to as, for example, a "naked-eye stereoscopic display device".

裸眼立体視表示は、例えばレンチキュラーレンズ方式の画像表示部20を用いることにより再現されるとよい。例えば、画像表示部20の表示面29には、複数の半円筒状レンズが配列されたレンチキュラーレンズが設けられており、画像表示部20は、三次元画像に関してインターレース処理された複数の画像列の組み合わせにより構成される画像列群(レンチキュラー画像、などとも称される)を表示する。そして、目視者が適切な位置からレンチキュラーレンズを介して当該画像列群を見ると、両眼の視差に起因する錯視によって当該三次元画像が立体的に見える。 The autostereoscopic display may be reproduced by using, for example, a lenticular lens type image display unit 20. For example, the display surface 29 of the image display unit 20 is provided with a lenticular lens in which a plurality of semi-cylindrical lenses are arranged, and the image display unit 20 is a plurality of image sequences interlaced with respect to a three-dimensional image. Displays a group of image strings (also called lenticular images, etc.) composed of combinations. Then, when the viewer looks at the image sequence group from an appropriate position through the lenticular lens, the three-dimensional image appears three-dimensionally due to the optical illusion caused by the parallax of both eyes.

図6等に示されるように、画像表示部20は、表示装置1の正面側に設けられた開口部5から画像を視認可能となるように筐体10の内部空間100に配置される。例えば、画像表示部20は、筐体10の内周面のうちの背面(内壁面)に沿って配置されている。本実施例では、図6に示されるように、筐体10の内周面における背面は、筐体10の底面に対して略垂直に設けられており、画像表示部20も、筐体10の底面に対して略垂直に設けられている。 As shown in FIG. 6 and the like, the image display unit 20 is arranged in the internal space 100 of the housing 10 so that the image can be visually recognized from the opening 5 provided on the front side of the display device 1. For example, the image display unit 20 is arranged along the back surface (inner wall surface) of the inner peripheral surface of the housing 10. In this embodiment, as shown in FIG. 6, the back surface of the inner peripheral surface of the housing 10 is provided substantially perpendicular to the bottom surface of the housing 10, and the image display unit 20 is also provided on the housing 10. It is provided approximately perpendicular to the bottom surface.

次に、減光部材30について説明する。減光部材30は、開口部5を介して内部空間100に進入する外光を減じる光学部材である。減光部材30は板状(パネル状を含む。)またはフィルム状の部材である。また、減光部材30は、画像表示部20からの光(例えば、画像表示部20のバックライトからの光)の光量を低減可能である。減光部材30は、内部空間100を暗い状態に維持するために設けられている。その理由は後述する。また、減光部材30は、開口部5を介して画像を見ている目視者自身が減光部材30に映ってしまう映り込みの発生を抑えることや、内部空間100の内部の部品を視認され難くすることにも寄与する。減光部材30は、スモークパネル、スモークフィルムなどと呼ばれる部材であってもよい。減光部材30は、少なくとも画像表示部20からの画像光を正面側に透過させるから、光学的に、透明の部材ということができる。減光部材30としては、例えば、所定の透光率(例えば、約6%)を有する暗色のパネル部材が挙げられる。なお、これに限定されず、減光部材30は、例えば所定の透光率を有する暗色系のフィルムを無色透明のパネル部材に貼付したものであってもよい。減光部材30は、黒系等の暗色系の部材であるが、青系その他の色であってもよい。 Next, the dimming member 30 will be described. The dimming member 30 is an optical member that reduces external light entering the internal space 100 through the opening 5. The dimming member 30 is a plate-shaped (including a panel-shaped) or film-shaped member. Further, the dimming member 30 can reduce the amount of light from the image display unit 20 (for example, the light from the backlight of the image display unit 20). The dimming member 30 is provided to maintain the internal space 100 in a dark state. The reason will be described later. Further, the dimming member 30 suppresses the occurrence of reflection reflected on the dimming member 30 by the viewer who is viewing the image through the opening 5, and the internal parts of the internal space 100 can be visually recognized. It also contributes to making it difficult. The dimming member 30 may be a member called a smoke panel, a smoke film, or the like. Since the dimming member 30 transmits at least the image light from the image display unit 20 to the front side, it can be said to be an optically transparent member. Examples of the dimming member 30 include a dark-colored panel member having a predetermined light transmittance (for example, about 6%). The dimming member 30 is not limited to this, and may be, for example, a dark-colored film having a predetermined light transmittance attached to a colorless and transparent panel member. The dimming member 30 is a dark-colored member such as black, but may be bluish or other colors.

減光部材30は、筐体10の内部空間100において、画像表示部20よりも正面側に画像表示部20とは間隔を空けて配置される。本実施例では、画像表示部20との間に空間領域101(図6)を有するように開口部5と画像表示部20との間に配置される。 The dimming member 30 is arranged in the internal space 100 of the housing 10 on the front side of the image display unit 20 at a distance from the image display unit 20. In this embodiment, it is arranged between the opening 5 and the image display unit 20 so as to have a space area 101 (FIG. 6) between the image display unit 20 and the image display unit 20.

以上のようにすれば、遮光された内部空間100を筐体10が有することによって、筐体10の内部空間100へと外光が入り込むことを抑制できるとともに、例えば画像表示部20よりも正面側に、当該画像表示部20とは間隔を空けて減光部材30が配置されていることによって、画像表示部20からの画像光が目視者の目に直接届くことが抑制される。したがって、筐体10の内部空間100に認識される画像を、画像表示部20からの画像光と外光とが相まって視認し難くなることを抑制でき、表示画像に関して高い視認性を得ることができる表示装置1を提供することができる。 As described above, since the housing 10 has the light-shielded internal space 100, it is possible to prevent outside light from entering the internal space 100 of the housing 10, and for example, the front side of the image display unit 20. In addition, since the dimming member 30 is arranged at a distance from the image display unit 20, it is possible to prevent the image light from the image display unit 20 from directly reaching the eyes of the viewer. Therefore, it is possible to prevent the image recognized in the internal space 100 of the housing 10 from being difficult to see due to the combination of the image light from the image display unit 20 and the external light, and it is possible to obtain high visibility of the displayed image. The display device 1 can be provided.

また、減光部材30が、開口部5と画像表示部20との間に配置されていることによって、筐体10の内部において減光部材30の正面側に空間領域(例えば、空間領域102(図6参照))が形成されるので、当該空間領域を所定の用途に利用することができる。 Further, since the dimming member 30 is arranged between the opening 5 and the image display unit 20, a space area (for example, a space area 102 (for example, a space area 102) is provided on the front side of the dimming member 30 inside the housing 10. Since (see FIG. 6)) is formed, the space area can be used for a predetermined purpose.

ここで、仮に減光部材30がなく、表示対象物の三次元画像が表示された画像表示部20自体を目視者がそのまま見たときには、光源からの光が漏れ出てしまってその光源の位置が目視者に認識されてしまうことにより、目視者が「画像表示部20に表示対象物が映っている」と認識できてしまう。その結果、内部空間100に表示対象物画像が浮かび上がっているような浮遊感を十分に得られないことがある。 Here, if there is no dimming member 30, and the viewer directly looks at the image display unit 20 itself on which the three-dimensional image of the display object is displayed, the light from the light source leaks out and the position of the light source. Is recognized by the viewer, so that the viewer can recognize that "the display object is reflected in the image display unit 20". As a result, it may not be possible to sufficiently obtain a floating feeling as if the image of the display object is floating in the internal space 100.

これに対して、上記のように減光部材30が設けられている場合には、画像表示部20において表示対象物の周辺領域から発せられる画像光の光量が減光部材30によって抑制され、目視者からは当該周辺領域が見え難くなる。その結果、目視者が「画像表示部20に表示対象物が映っている」と感じることがなく、表示対象物の浮遊感を得られる。したがって、表示対象物の表示画像に関して視認性を高めることができる。 On the other hand, when the dimming member 30 is provided as described above, the amount of image light emitted from the peripheral region of the display object in the image display unit 20 is suppressed by the dimming member 30, and the image display unit 20 visually suppresses the amount of light. It becomes difficult for a person to see the surrounding area. As a result, the visual eye does not feel that the display object is reflected on the image display unit 20, and a floating feeling of the display object can be obtained. Therefore, it is possible to improve the visibility of the display image of the display object.

また、例えば表示対象物の三次元画像が表示された画像表示部20自体を目視者がそのまま見たときには、目視者からは表示対象物が立体的に見えているにもかかわらず、当該表示対象物の周辺にぼやけ画像が見えてしまうことがある。このような場合、目視者が表示対象物の三次元画像を見難いと感じる虞がある。 Further, for example, when the viewer sees the image display unit 20 itself on which the three-dimensional image of the display target is displayed as it is, the display target is displayed even though the display target is three-dimensionally viewed by the viewer. Blurred images may appear around objects. In such a case, the viewer may find it difficult to see the three-dimensional image of the display object.

これに対して、上記のように減光部材30が設けられている場合には、画像表示部20から発せられる光の光量が減光部材30によって低減されるとともに、表示対象物の周辺におけるぼやけ画像の画像光が減光部材30によって低減される。その結果、目視者からは当該ぼやけ画像が見え難くなり、表示対象物を三次元画像として認識しやすくなる。さらに減光部材30が設けられていることで、内部空間100に存在する部品を視認されにくくなるので、そのような部品が視認できることにより目視者が興ざめしてしまうことも起こりにくい。 On the other hand, when the dimming member 30 is provided as described above, the amount of light emitted from the image display unit 20 is reduced by the dimming member 30 and blurring around the display object. The image light of the image is reduced by the dimming member 30. As a result, it becomes difficult for the viewer to see the blurred image, and it becomes easy to recognize the display object as a three-dimensional image. Further, since the dimming member 30 is provided, it becomes difficult to visually recognize the parts existing in the internal space 100, so that it is unlikely that the viewer will be excited by being able to visually recognize such parts.

[各要素の詳細構成]
次に、各要素10,20,30の詳細構成について説明する。
[Detailed configuration of each element]
Next, the detailed configuration of each element 10, 20, and 30 will be described.

減光部材30は、正面側の面が鉛直方向に対して傾斜している。本実施例では、図6に示されるように、減光部材30は、その上端部31から下端部32に向けて開口部5側(表示装置1の正面側)に、例えば筐体10の底面に対して所定の角度(例えば、約50度の角度)で傾斜して設けられている。例えば、図5に示されるように、減光部材30の配置部13の上面は、筐体10の底面に対して所定の角度で傾斜しており、当該配置部13の上面に、減光部材30が配置される。 The front surface of the dimming member 30 is inclined with respect to the vertical direction. In this embodiment, as shown in FIG. 6, the dimming member 30 is located on the opening 5 side (front side of the display device 1) from the upper end 31 to the lower end 32, for example, the bottom surface of the housing 10. It is provided so as to be inclined at a predetermined angle (for example, an angle of about 50 degrees). For example, as shown in FIG. 5, the upper surface of the arrangement portion 13 of the dimming member 30 is inclined at a predetermined angle with respect to the bottom surface of the housing 10, and the upper surface of the arrangement portion 13 has a dimming member. 30 is arranged.

このようにすれば、減光部材30に入射した光の反射光の光路が目視者の目(あるいは顔)側とは異なる方向に存在することになる。よって、目視者が減光部材30を介して画像表示部20を見た際に、当該減光部材30に目視者の顔が反射により映り込むことを防止できる。かかる目的を達成できるのであれば、減光部材30の傾斜角や傾斜方向は種々の変形が可能である。したがって、より視認性の高い表示装置1を提供することができる。 In this way, the optical path of the reflected light of the light incident on the dimming member 30 exists in a direction different from that of the visual eye (or face) side. Therefore, when the viewer sees the image display unit 20 through the dimming member 30, it is possible to prevent the face of the viewer from being reflected on the dimming member 30 due to reflection. If such an object can be achieved, the inclination angle and the inclination direction of the dimming member 30 can be variously deformed. Therefore, it is possible to provide a display device 1 having higher visibility.

また、筐体10の内部において、減光部材30よりも開口部5側に、目視者の手を入れる空間領域102(図6参照)を設けることができる。 Further, inside the housing 10, a space area 102 (see FIG. 6) in which a viewer's hand can be placed can be provided on the opening 5 side of the dimming member 30.

そして、画像表示部20においては、目視者によって立体視される表示対象物の少なくとも一部分(例えば、特定のキャラクターの身体の一部)が減光部材30の配置位置に存在するように表示制御されるとよい。このようにすれば、目視者は、減光部材30よりも開口部5側の空間領域102に手を入れることにより、当該空間領域102に浮かび上がって立体的に見えている表示対象物(例えば、人型のキャラクター1000(図13参照)等。第1画像の一例。)に触れることができるような感覚を得ることができる。したがって、例えば娯楽性に優れた表示装置を提供することができる。 Then, in the image display unit 20, at least a part of the display object (for example, a part of the body of a specific character) that is stereoscopically viewed by the viewer is displayed and controlled so as to exist at the arrangement position of the dimming member 30. It is good. In this way, the viewer touches the space region 102 on the opening 5 side of the dimming member 30, so that the display object emerges in the space region 102 and appears three-dimensionally (for example,). , Humanoid character 1000 (see FIG. 13), etc. An example of the first image) can be obtained. Therefore, for example, it is possible to provide a display device having excellent entertainment properties.

また、上記のような空間領域102が設けられていることにより、後述するジェスチャーセンサ63等の配置位置の自由度を高めることもできる。 Further, by providing the space area 102 as described above, it is possible to increase the degree of freedom in the arrangement position of the gesture sensor 63 and the like, which will be described later.

図2(A)および図6に示されるように、筐体10は、スピーカ62(音声出力部の一例)をさらに有している。スピーカ62は、筐体10の内部空間100に面している面のうち、減光部材30よりも正面側で、かつ開口部5との距離よりも減光部材30との距離が小さい位置に設けられる。本実施例では、当該スピーカ62は、筐体10の内部空間100の上面85であって、減光部材30の上端部21と開口部5の上端部51との中間位置201よりも減光部材30側(筐体10の奥側)に設けられている。 As shown in FIGS. 2A and 6, the housing 10 further includes a speaker 62 (an example of an audio output unit). The speaker 62 is located on the surface of the housing 10 facing the internal space 100 on the front side of the dimming member 30 and at a position where the distance to the dimming member 30 is smaller than the distance to the opening 5. It will be provided. In this embodiment, the speaker 62 is the upper surface 85 of the internal space 100 of the housing 10, and is a dimming member from the intermediate position 201 between the upper end 21 of the dimming member 30 and the upper end 51 of the opening 5. It is provided on the 30 side (the back side of the housing 10).

このようにすれば、スピーカ62により出力された音声が減光部材30に反射して目視者に伝達されることがあるため、目視者に対して、例えば画像表示部20に表示された表示対象物(例えば、特定のキャラクター)自体から音声が聞こえているように感じさせることができる。この効果は、目視者によって立体視される表示対象物の少なくとも一部分(例えば、特定のキャラクターの身体の一部)が減光部材30の配置位置に存在するように表示制御されているときに特に有効である。また、スピーカ62が目視者から見え難い位置に配置されていることにより、表示装置1のデザイン性を高めることもできる。 In this way, the sound output by the speaker 62 may be reflected by the dimming member 30 and transmitted to the viewer, so that the display target displayed on the image display unit 20, for example, is displayed to the viewer. It can make the object (for example, a specific character) feel as if the sound is being heard from itself. This effect is particularly effective when the display is controlled so that at least a part of the display object (for example, a part of the body of a specific character) that is stereoscopically viewed by the viewer is present at the arrangement position of the dimming member 30. It is valid. Further, since the speaker 62 is arranged at a position where it is difficult for the viewer to see, the design of the display device 1 can be improved.

また、図6に示されるように、開口部5の上端部51は、画像表示部20(詳細には、表示面29)の上端部21よりも上方に設けられており、筐体10の内部空間100の上面85は、開口部5の上端部51から当該上端部21へと向かうに従って下方(図6において−Z方向)に傾斜して設けられている。このようにすれば、画像表示部20の上端部21よりも高い位置から、当該画像表示部20に表示された画像を見下ろしながら視認することができる。このため、目視者に自然な姿勢で画像を視認させやすくすることができる。例えば、表示装置1は机の上に置かれる。表示装置1の正面側(前方側)には、立っているまたはイスに座っている目視者が存在する。目視者の目の位置は、表示装置1の上面よりも高い位置にあることが想定される。このため、目視者は表示装置1を、角度θで見下ろすようにして視認する。角度θは水平方向と目視者の視線方向との間の角度である。角度θは、例えば15度であることが想定されるが、表示装置1の使用状況によっても異なるものである。このような角度θの想定に基づいて、目視者が画像表示部20の表示面の全体または目視者に視認させるべき画像の表示領域の全体を視認できるように上面85の傾斜角が決められるとよい。また、後述する制御部用の空間領域110を比較的広く確保することもできる。 Further, as shown in FIG. 6, the upper end portion 51 of the opening 5 is provided above the upper end portion 21 of the image display unit 20 (specifically, the display surface 29), and is provided inside the housing 10. The upper surface 85 of the space 100 is provided so as to be inclined downward (in the −Z direction in FIG. 6) from the upper end 51 of the opening 5 toward the upper end 21. In this way, the image displayed on the image display unit 20 can be visually recognized while looking down from a position higher than the upper end portion 21 of the image display unit 20. Therefore, it is possible to make it easier for the viewer to visually recognize the image in a natural posture. For example, the display device 1 is placed on a desk. On the front side (front side) of the display device 1, there is a visual person standing or sitting on a chair. It is assumed that the position of the eyes of the viewer is higher than the upper surface of the display device 1. Therefore, the visual operator visually recognizes the display device 1 by looking down at an angle θ. The angle θ is the angle between the horizontal direction and the line-of-sight direction of the viewer. The angle θ is assumed to be, for example, 15 degrees, but it varies depending on the usage status of the display device 1. Based on the assumption of such an angle θ, the inclination angle of the upper surface 85 is determined so that the viewer can visually recognize the entire display surface of the image display unit 20 or the entire display area of the image to be visually recognized by the viewer. good. Further, it is possible to secure a relatively wide space area 110 for the control unit, which will be described later.

また、図6に示されるように、筐体10の開口部5の上端部51は、開口部5の下端部52よりも正面側(第1方向側の一例)に突出して設けられている。この突出した部分は、庇とも称される。このようにすれば、表示装置1の上方からの光が減光部材30に反射することによって画像表示部20における画像の視認性が低下すること、を抑制することができる。 Further, as shown in FIG. 6, the upper end portion 51 of the opening 5 of the housing 10 is provided so as to project toward the front side (an example of the first direction side) from the lower end portion 52 of the opening 5. This protruding part is also called an eaves. By doing so, it is possible to suppress that the light from above the display device 1 is reflected by the dimming member 30 and the visibility of the image on the image display unit 20 is lowered.

図1および図6に示されるように、筐体10の下側部分における開口部5側(正面側)には、斜行部84が設けられている。そして、開口部5の側部53(図3参照)は、開口部5の上端部51から当該斜行部84の上部88付近へと向かうように所定の角度で傾斜して設けられている。例えば、開口部5の側部53は、減光部材30に対して略垂直となるように傾斜して設けられている。 As shown in FIGS. 1 and 6, an oblique portion 84 is provided on the opening 5 side (front side) in the lower portion of the housing 10. The side portion 53 of the opening 5 (see FIG. 3) is provided so as to be inclined at a predetermined angle from the upper end portion 51 of the opening portion 5 toward the vicinity of the upper portion 88 of the oblique portion 84. For example, the side portion 53 of the opening 5 is provided so as to be inclined so as to be substantially perpendicular to the dimming member 30.

また、図6に示されるように、当該斜行部84の上部88は、画像表示部20の下端部22よりも上方に設けられており、筐体10の内部空間100の下面86は、当該斜行部84の上部88から画像表示部20の下端部22へと向かうに従って下方に傾斜して設けられている。 Further, as shown in FIG. 6, the upper portion 88 of the skew portion 84 is provided above the lower end portion 22 of the image display portion 20, and the lower surface 86 of the internal space 100 of the housing 10 is the said. It is provided so as to be inclined downward from the upper portion 88 of the oblique portion 84 toward the lower end portion 22 of the image display unit 20.

ここで、裸眼立体視表示に関しては、所謂3D感(三次元効果)を大きくするほど、目視者によって立体視される表示対象物が小さくなることがある。内部空間100の下面86を上記のように傾斜させることによれば、3D感を大きくした場合であっても、立体視表示される表示対象物の下部(例えば、特定のキャラクターの足部)を当該斜行部84の上部88付近に表示させることができる。 Here, with respect to the stereoscopic display with the naked eye, the larger the so-called 3D feeling (three-dimensional effect), the smaller the display object to be stereoscopically viewed by the viewer. By inclining the lower surface 86 of the internal space 100 as described above, even when the 3D feeling is increased, the lower part of the display object (for example, the foot of a specific character) to be displayed stereoscopically is displayed. It can be displayed near the upper portion 88 of the skew portion 84.

また、図1に示されるように、表示装置1は、表示装置1に対する操作を受け付ける操作部40を備えている。例えば、表示装置1においては、音声入力を行う(音声認識の開始を指示する、ともいう)ための操作部41と、三次元画像に関する表示設定(例えば、視差に関する設定値)を変更するための操作部42との2つの操作部40が設けられている。 Further, as shown in FIG. 1, the display device 1 includes an operation unit 40 that receives an operation on the display device 1. For example, in the display device 1, an operation unit 41 for performing voice input (also referred to as instructing the start of voice recognition) and a display setting for a three-dimensional image (for example, a setting value for parallax) are changed. Two operation units 40 with the operation unit 42 are provided.

これらの操作部40(41,42)は、筐体10のうち、開口部5よりも正面側(第1方向側の一例)の筐体10の下側部分に設けられている。詳細には、図1に示されるように、これらの操作部40(41,42)は、筐体10の下側部分における開口部5側に設けられた斜行部84に配置されている。このようにすれば、目視者が操作部40を操作する際に、例えば目視者の手が画像表示部20の表示画像に重なることがなく、目視者は、画像表示部20の表示画像を見ながら操作部40を操作することができる。したがって、目視者が操作部40に対する操作を行い易くなるので、表示装置1の操作性を向上させることができる。また、操作部40が斜行部84に設けられていることにより、目視者が操作部40を容易に見つけることができる。 These operation units 40 (41, 42) are provided in the lower portion of the housing 10 on the front side (an example of the first direction side) of the housing 10 with respect to the opening 5. In detail, as shown in FIG. 1, these operation units 40 (41, 42) are arranged in the oblique portion 84 provided on the opening 5 side in the lower portion of the housing 10. By doing so, when the viewer operates the operation unit 40, for example, the hand of the viewer does not overlap with the display image of the image display unit 20, and the viewer sees the display image of the image display unit 20. While operating the operation unit 40. Therefore, since it becomes easier for the visual operator to operate the operation unit 40, the operability of the display device 1 can be improved. Further, since the operation unit 40 is provided in the oblique portion 84, the visual operator can easily find the operation unit 40.

次に、表示装置1に設けられている各種センサについて説明する。 Next, various sensors provided in the display device 1 will be described.

表示装置1は、マイク61とジェスチャーセンサ63との2つの動作検出部(目視者の動作を検出可能な動作検出手段の一例)を更に備えている(図6参照)。なお、これらの2つの部材61,63の双方が表示装置1に設けられていることは必須ではなく、マイク61とジェスチャーセンサ63とのうちのいずれか一方のみが、動作検出手段として表示装置1に設けられていてもよい。 The display device 1 further includes two motion detection units (an example of motion detection means capable of detecting the motion of the viewer) of the microphone 61 and the gesture sensor 63 (see FIG. 6). It is not essential that both of these two members 61 and 63 are provided in the display device 1, and only one of the microphone 61 and the gesture sensor 63 is used as the motion detecting means in the display device 1. It may be provided in.

マイク61は、ユーザ等の目視者の音声(例えば、音声入力動作)を検出可能な音声検出手段として構成されている。マイク61は、例えば、上述の斜行部84に配置されている(図1参照)。なお、マイク61を用いて入力された音声に対しては、例えば統括制御部73(後述)によって音声認識処理が実行され、例えばテキストデータ等で示された音声認識結果が取得される。なお、音声認識処理は、表示装置1内に別途設けられる音声認識装置によって実行されてもよく、あるいは、表示装置1とは別の外部サーバ等で実行されてもよい。 The microphone 61 is configured as a voice detecting means capable of detecting the voice of a visual person such as a user (for example, a voice input operation). The microphone 61 is arranged, for example, in the oblique portion 84 described above (see FIG. 1). For the voice input using the microphone 61, for example, the general control unit 73 (described later) executes voice recognition processing, and for example, the voice recognition result indicated by text data or the like is acquired. The voice recognition process may be executed by a voice recognition device separately provided in the display device 1, or may be executed by an external server or the like different from the display device 1.

ジェスチャーセンサ63(物体検出センサの一例)は、物体の挙動を検出可能に構成されている。ジェスチャーセンサ63として、例えば、赤外線センサなどが挙げられる。ジェスチャーセンサ63は、光(例えば、赤外光)の出射部と受光部とを有している。ジェスチャーセンサ63の出射部から出射(照射、とも称される)された光は、検知対象物に当たって反射し受光部によって受光される。そして、ジェスチャーセンサ63は、受光部に受光された光(反射光)に基づいて、検知対象物の挙動を検出する。例えば、ジェスチャーセンサ63に予め登録された特定の挙動と同じ挙動が検出されると、目視者によって当該特定の挙動が行われたと判定される。 The gesture sensor 63 (an example of an object detection sensor) is configured to be able to detect the behavior of an object. Examples of the gesture sensor 63 include an infrared sensor and the like. The gesture sensor 63 has a light (for example, infrared light) emitting portion and a light receiving portion. The light emitted (also referred to as irradiation) from the exit portion of the gesture sensor 63 hits the detection object, is reflected, and is received by the light receiving portion. Then, the gesture sensor 63 detects the behavior of the object to be detected based on the light (reflected light) received by the light receiving unit. For example, when the same behavior as the specific behavior registered in advance in the gesture sensor 63 is detected, it is determined by the visual operator that the specific behavior has been performed.

例えば、ジェスチャーセンサ63は、所定の挙動であるか否かを手の動きに応じて検出可能な機能(Wave検出機能、とも称される)を備えている。そして、例えば目視者がジェスチャーセンサ63の検出範囲内において手を振る動作(「バイバイ」)または撫でる動作(「ナデナデ」)を行うと、ジェスチャーセンサ63が、Wave動作を検出し、「バイバイ」または「ナデナデ」と判定するとよい。 For example, the gesture sensor 63 has a function (also referred to as a Wave detection function) that can detect whether or not the behavior is a predetermined behavior according to the movement of the hand. Then, for example, when the visual operator performs a waving motion (“bye bye”) or a stroking motion (“nadenade”) within the detection range of the gesture sensor 63, the gesture sensor 63 detects the wave motion and “bye bye” or It is advisable to judge it as "nadenade".

ジェスチャーセンサ63は、当該ジェスチャーセンサ63への接近離反方向(例えば、図2(A)ではZ方向)における検出対象物の位置と、当該接近離反方向を法線とする平面(例えば、図2(A)ではXY平面)上における検出対象物の位置とを検出可能なものとするとよい。例えば、当該平面は、ジェスチャーセンサ63の受光部を原点として4象限をとるものとするとよい。このとき、X軸は、筐体10の前面の左右方向の辺と平行に設定されるとよい。 The gesture sensor 63 has a position of a detection object in the approaching / separating direction to the gesture sensor 63 (for example, the Z direction in FIG. 2A) and a plane having the approaching / separating direction as a normal (for example, FIG. 2 (for example)). In A), it is preferable that the position of the object to be detected on the XY plane) can be detected. For example, the plane may have four quadrants with the light receiving portion of the gesture sensor 63 as the origin. At this time, the X-axis may be set parallel to the left-right side of the front surface of the housing 10.

図2(A)に示されるように、ジェスチャーセンサ63は、左右方向(図2(A)のX方向)において筐体10の内周面の略中央位置に設置される。 As shown in FIG. 2A, the gesture sensor 63 is installed at a substantially central position on the inner peripheral surface of the housing 10 in the left-right direction (X direction in FIG. 2A).

また、図6に示されるように、ジェスチャーセンサ63(詳細には、ジェスチャーセンサ63の検出面)は、筐体10の内周面において、当該筐体10の内方側に向けて配置されており、ジェスチャーセンサ63の検出方向が、筐体10の内方側に向けられている。このようにすれば、例えば、筐体10の内部空間100、本実施例では、空間領域102で目視者のジェスチャーが検出される。したがって、ジェスチャーセンサ63が筐体10の外周面に配置されている場合と比較して、ジェスチャーセンサ63の感度の低下を抑制することができる。 Further, as shown in FIG. 6, the gesture sensor 63 (specifically, the detection surface of the gesture sensor 63) is arranged on the inner peripheral surface of the housing 10 toward the inner side of the housing 10. The detection direction of the gesture sensor 63 is directed toward the inside of the housing 10. In this way, for example, the gesture of the viewer is detected in the internal space 100 of the housing 10, and in the present embodiment, the space area 102. Therefore, it is possible to suppress a decrease in the sensitivity of the gesture sensor 63 as compared with the case where the gesture sensor 63 is arranged on the outer peripheral surface of the housing 10.

また、ジェスチャーセンサ63が筐体10の外周面に配置されているときには、例えば、表示装置1の周辺を人が通っただけでもジェスチャーセンサ63が検知対象物の挙動を検出する可能性がある。これに対して、ジェスチャーセンサ63が筐体10の内周面において当該筐体10の内方側に向けて配置されているときには、そのような誤検出を防止することができる。 Further, when the gesture sensor 63 is arranged on the outer peripheral surface of the housing 10, for example, the gesture sensor 63 may detect the behavior of the object to be detected even if a person passes around the display device 1. On the other hand, when the gesture sensor 63 is arranged on the inner peripheral surface of the housing 10 toward the inward side of the housing 10, such erroneous detection can be prevented.

特に、ジェスチャーセンサ63は、図6に示されるように、筐体10の内周面のうちの上面85において、下面86に向けて配置されるとよい。このようにすれば、ジェスチャーセンサ63が、筐体10の内周面のうち外部からの光が入り込み難い面に設けられている。したがって、ジェスチャーセンサ63が上面85以外の他の面に設けられる場合と比較して、ジェスチャーセンサ63の感度の低下を更に抑制することができる。 In particular, as shown in FIG. 6, the gesture sensor 63 may be arranged on the upper surface 85 of the inner peripheral surface of the housing 10 toward the lower surface 86. In this way, the gesture sensor 63 is provided on the inner peripheral surface of the housing 10 where light from the outside does not easily enter. Therefore, the decrease in sensitivity of the gesture sensor 63 can be further suppressed as compared with the case where the gesture sensor 63 is provided on a surface other than the upper surface 85.

また、ジェスチャーセンサ63は、筐体10の内周面の上面85において、斜行部84の上部88と減光部材30の下端部32との境界位置202(図6参照)に対向する位置に配置されているとよい。そして、減光部材30の面上に特定のキャラクターの足部が三次元表示されるように表示制御されるとよい。このようにすれば、目視者が、減光部材30の面上に浮かび上がって立体的に見えている特定のキャラクターの全体(全身)を触ることができるような感覚を得ることができる。なお、上記のような表示制御は、例えば、三次元表示に関する3Dアプリケーションにおける視差設定値を変更することにより再現されるとよい。 Further, the gesture sensor 63 is located on the upper surface 85 of the inner peripheral surface of the housing 10 at a position facing the boundary position 202 (see FIG. 6) between the upper portion 88 of the oblique portion 84 and the lower end portion 32 of the dimming member 30. It should be arranged. Then, it is preferable that the display is controlled so that the foot portion of the specific character is three-dimensionally displayed on the surface of the dimming member 30. In this way, it is possible to obtain a sensation that the viewer can touch the entire (whole body) of the specific character that appears three-dimensionally on the surface of the dimming member 30. The display control as described above may be reproduced, for example, by changing the parallax setting value in the 3D application related to the three-dimensional display.

また、筐体10の内周面において、ジェスチャーセンサ63が出射する光の出射方向に存在する領域、例えばジェスチャーセンサ63の配置位置に対向する領域202には、ジェスチャーセンサ63からの出射光(例えば、赤外光)がジェスチャーセンサ63に受光されることを抑制する部材が設けられているとよい。このようにすれば、領域202又はその周辺で反射した光がジェスチャーセンサ63で受光される受光量が減るので、ジェスチャーセンサ63の感度の低下を更に抑制することができる。「ジェスチャーセンサ63に受光されることを抑制する部材」としては、例えば、ジェスチャーセンサ63からの光を吸収可能な吸光部材、ジェスチャーセンサ63からの光を拡散反射する部材などが挙げられる。「吸光部材」としては、黒い紙、ラバー塗装された部材、あるいは、赤外線吸収素材で形成された部材(赤外線反射防止シート等)などが例示される。 Further, on the inner peripheral surface of the housing 10, the region 202 existing in the emission direction of the light emitted by the gesture sensor 63, for example, the region 202 facing the arrangement position of the gesture sensor 63, is the light emitted from the gesture sensor 63 (for example). , Infrared light) may be provided with a member that prevents the gesture sensor 63 from receiving light. By doing so, the amount of light received by the gesture sensor 63 for the light reflected in or around the region 202 is reduced, so that the decrease in sensitivity of the gesture sensor 63 can be further suppressed. Examples of the "member that suppresses light reception by the gesture sensor 63" include a light absorbing member that can absorb the light from the gesture sensor 63, a member that diffusely reflects the light from the gesture sensor 63, and the like. Examples of the "absorbent member" include black paper, a rubber-coated member, and a member made of an infrared absorbing material (infrared antireflection sheet, etc.).

表示装置1においては、以上のような動作検出手段(例えば、マイク61およびジェスチャーセンサ63)による検出結果に応じた所定の処理が、画像表示部20に表示された特定のキャラクターの動作として実行されるとよい。このような制御は、例えば、後述する制御部70によって実行されるとよい。 In the display device 1, a predetermined process according to the detection result by the motion detection means (for example, the microphone 61 and the gesture sensor 63) as described above is executed as the motion of the specific character displayed on the image display unit 20. It is good. Such control may be executed, for example, by the control unit 70 described later.

このようにすれば、目視者の動作が検出されると、その検出結果に応じて特定のキャラクターが動作するから、目視者と当該特定のキャラクターとのコミュニケーションを再現することができる。このような目視者と特定のキャラクターとのコミュニケーションを再現する機能、または目視者と特定のキャラクターとの疑似的なコミュニケーションを再現する機能を、「コミュニケーション機能」という。したがって、例えば娯楽性の高い表示装置1を提供することができる。 In this way, when the movement of the visual person is detected, the specific character operates according to the detection result, so that the communication between the visual person and the specific character can be reproduced. Such a function of reproducing communication between a visual person and a specific character, or a function of reproducing pseudo communication between a visual person and a specific character is referred to as a "communication function". Therefore, for example, it is possible to provide a highly entertaining display device 1.

例えば、目視者が「バイバイ」と発声すると、マイク61が目視者の音声「バイバイ」を検出し、制御部70が、音声認識結果「バイバイ」に基づいて、特定のキャラクターの動作を決定する。なお、表示装置1においては、特定の語句と当該特定の語句に対応する動作とが関連付けられてデータテーブル等に予め登録されている。そして、制御部70は、決定した動作に対応する処理を実行する。例えば、「バイバイ」との音声をスピーカ62から出力させる音声出力処理と、特定のキャラクターが手を振る動作を行っている映像を画像表示部20に表示出力させる表示出力処理との少なくとも一方が実行される。このようにすれば、目視者は、自身が発声した音声に対して、画像表示部20に表示された特定のキャラクターが反応してくれたと感じる。したがって、例えば娯楽性の高い表示装置1を提供することができる。 For example, when the visual person utters "bye bye", the microphone 61 detects the visual person's voice "bye bye", and the control unit 70 determines the action of a specific character based on the voice recognition result "bye bye". In the display device 1, a specific phrase and an operation corresponding to the specific phrase are associated and registered in advance in a data table or the like. Then, the control unit 70 executes the process corresponding to the determined operation. For example, at least one of a voice output process for outputting the voice of "bye bye" from the speaker 62 and a display output process for displaying and outputting a video in which a specific character is waving to the image display unit 20 is executed. Will be done. In this way, the viewer feels that the specific character displayed on the image display unit 20 has responded to the voice uttered by himself / herself. Therefore, for example, it is possible to provide a highly entertaining display device 1.

また、例えば、目視者が内部空間100に手を入れて手を振ると、ジェスチャーセンサ63が目視者のジェスチャー「バイバイ」を検出し、制御部70が、ジェスチャー検出結果「バイバイ」に基づいて、特定のキャラクターの動作を決定する。なお、表示装置1においては、特定の動作と当該特定の動作に対応する動作とが関連付けられてデータテーブル等に予め登録されている。そして、制御部70は、決定した動作に対応する処理を実行する。例えば、上記と同様に、「バイバイ」との音声をスピーカ62から出力させる音声出力処理と、特定のキャラクターが手を振る動作を行っている映像を画像表示部20に表示出力させる表示出力処理との少なくとも一方が実行される。このようにすれば、目視者は、自身が行ったジェスチャーに対して、画像表示部20に表示された特定のキャラクターが反応してくれたと感じる。したがって、例えば娯楽性の高い表示装置1を提供することができる。 Further, for example, when the visual person puts his / her hand in the internal space 100 and waves his / her hand, the gesture sensor 63 detects the visual person's gesture "bye bye", and the control unit 70 detects the gesture detection result "bye bye". Determines the behavior of a particular character. In the display device 1, a specific operation and an operation corresponding to the specific operation are associated and registered in advance in a data table or the like. Then, the control unit 70 executes the process corresponding to the determined operation. For example, similarly to the above, a voice output process for outputting the voice of "bye bye" from the speaker 62 and a display output process for displaying and outputting a video of a specific character waving to the image display unit 20. At least one of them is executed. In this way, the viewer feels that the specific character displayed on the image display unit 20 has responded to the gesture he / she has made. Therefore, for example, it is possible to provide a highly entertaining display device 1.

また、表示装置1は、表示装置1を基準として所定の範囲(例えば、検知対象空間とも称される)内における人の存在を検出可能な人感センサ64(図6参照)を更に備えている。当該人感センサ64としては、例えば、移動する物体の速度およびドップラー信号の有無によって物体の存在を検知可能なドップラーセンサ(例えば、マイクロ波ドップラーセンサ)などが挙げられる。 Further, the display device 1 further includes a motion sensor 64 (see FIG. 6) capable of detecting the presence of a person within a predetermined range (for example, also referred to as a detection target space) with the display device 1 as a reference. .. Examples of the motion sensor 64 include a Doppler sensor (for example, a microwave Doppler sensor) that can detect the presence of an object based on the speed of a moving object and the presence or absence of a Doppler signal.

当該人感センサ64は、開口部5の上端部51付近において表示装置1の正面側に向けて配置されており、人感センサ64の検知対象領域は表示装置1の正面側に設けられている。このようにすれば、表示装置1の正面側に人が居ることをより確実に検出することができる。 The motion sensor 64 is arranged near the upper end 51 of the opening 5 toward the front side of the display device 1, and the detection target area of the motion sensor 64 is provided on the front side of the display device 1. .. By doing so, it is possible to more reliably detect that a person is on the front side of the display device 1.

詳細には、人感センサ64は、後述する配置領域110(図7参照)における前方側(正面側)において、筐体10の前方側の外周壁80に接触しない程度の間隔をあけて配置されている。 Specifically, the motion sensors 64 are arranged on the front side (front side) in the arrangement area 110 (see FIG. 7) described later at intervals so as not to come into contact with the outer peripheral wall 80 on the front side of the housing 10. ing.

表示装置1においては、当該所定の範囲内にまで人が近づいてきたことが人感センサ64によって検出されることを条件に、画像表示部20の表示画像が三次元画像に切り替えられるように制御されるとよい。なお、それ以外のときは、二次元画像が表示されてもよく、あるいは、画像表示部20の表示画像が非表示化されてもよい。このようにすれば、例えば、画像表示部20の表示対象物(例えば、特定のキャラクター)が立体視できない位置に人が居るうちは、三次元画像が画像表示部20に表示されず、表示対象物が立体視できる範囲内にまで人が近づくと、三次元画像が画像表示部20に表示される。したがって、表示対象物を立体視できない位置から当該表示対象物を見たことに起因して周辺人物が表示装置1に対する興味を逸してしまうこと、を回避することができる。 In the display device 1, the display image of the image display unit 20 is controlled to be switched to a three-dimensional image on condition that the motion sensor 64 detects that a person has approached within the predetermined range. It should be done. In other cases, the two-dimensional image may be displayed, or the display image of the image display unit 20 may be hidden. In this way, for example, while a person is in a position where the display object (for example, a specific character) of the image display unit 20 cannot be viewed stereoscopically, the three-dimensional image is not displayed on the image display unit 20 and is displayed. When a person approaches within a range in which an object can be viewed stereoscopically, a three-dimensional image is displayed on the image display unit 20. Therefore, it is possible to prevent a peripheral person from losing interest in the display device 1 due to viewing the display object from a position where the display object cannot be viewed stereoscopically.

[制御部の配置空間等に関する構成]
表示装置1は、制御部70を有している。例えば、表示装置1は、表示装置1の電源を制御する電源制御部71、画像表示部20に表示される表示画像を制御する表示制御部72、これらの制御部71,72等を統括する統括制御部73などを含む複数の制御部70を有している(図7参照)。なお、図7は、上面カバー部12が取り外された状態の表示装置1を説明する斜視図である。本実施例では、複数の制御部70の各々が異なる基板に実装されてもよいが、2以上の制御部70が単一の基板に実装されてもよい。これに伴い、各制御部70の配置位置が適宜変更されてもよい。
[Structure related to the layout space of the control unit]
The display device 1 has a control unit 70. For example, the display device 1 controls the power supply control unit 71 that controls the power supply of the display device 1, the display control unit 72 that controls the display image displayed on the image display unit 20, the control units 71, 72, and the like. It has a plurality of control units 70 including a control unit 73 and the like (see FIG. 7). Note that FIG. 7 is a perspective view illustrating the display device 1 in a state where the upper surface cover portion 12 is removed. In this embodiment, each of the plurality of control units 70 may be mounted on different boards, but two or more control units 70 may be mounted on a single board. Along with this, the arrangement position of each control unit 70 may be changed as appropriate.

図5に示されるように、筐体10は、上面カバー部12を有している。また、図6に示されるように、筐体10は、当該上面カバー部12と筐体10の内周面のうちの上面85との間に空間領域110を有している。そして、制御部70は、当該空間領域110に配置される。このようにすれば、表示装置1を制御する制御部70のメンテナンスを、筐体10の上面に設けられた上面カバー部12を外して行うことができる。したがって、表示装置1のメンテナンス性を向上させることができる。なお、当該空間領域110は、制御部70等を収容する収容空間、とも称される。 As shown in FIG. 5, the housing 10 has an upper surface cover portion 12. Further, as shown in FIG. 6, the housing 10 has a space area 110 between the upper surface cover portion 12 and the upper surface 85 of the inner peripheral surfaces of the housing 10. Then, the control unit 70 is arranged in the space area 110. In this way, maintenance of the control unit 70 that controls the display device 1 can be performed by removing the upper surface cover unit 12 provided on the upper surface of the housing 10. Therefore, the maintainability of the display device 1 can be improved. The space area 110 is also referred to as an accommodation space for accommodating the control unit 70 and the like.

制御部70が筐体10の上面部分に設けられている一方で、表示装置1の電源部90は、筐体10の下面部分14に設けられている(図4(B)参照)。 While the control unit 70 is provided on the upper surface portion of the housing 10, the power supply unit 90 of the display device 1 is provided on the lower surface portion 14 of the housing 10 (see FIG. 4B).

そして、電源部90と制御部70(詳細には、電源制御部71)とを接続する接続コード91(図7参照)は、筐体10の外周壁80(例えば、筐体10の左側壁等)と内部空間100との間に確保された隙間領域89を通るように配線される。このようにすれば、電源部90を目立ち難い位置に配置することができるとともに、電源部90と制御部70とを接続する接続コード91を、外側および内部空間100側(開口部5側)から目視者の目に触れないように配線することができる。したがって、表示装置1のデザイン性を高めることができる。また、電源部90が内部空間100よりも下方に存在するので、電源部90が目立ち難い位置に配置されるとともに表示装置1の重心位置を低くすることができ、その姿勢を安定させやすくすることができる。 The connection cord 91 (see FIG. 7) that connects the power supply unit 90 and the control unit 70 (specifically, the power supply control unit 71) is the outer peripheral wall 80 of the housing 10 (for example, the left wall of the housing 10). ) And the internal space 100, the wiring is made so as to pass through the gap region 89 secured. In this way, the power supply unit 90 can be arranged in an inconspicuous position, and the connection cord 91 for connecting the power supply unit 90 and the control unit 70 can be connected from the outside and the internal space 100 side (opening 5 side). Wiring can be done so that it is not visible to the viewer. Therefore, the design of the display device 1 can be improved. Further, since the power supply unit 90 exists below the internal space 100, the power supply unit 90 can be arranged at a position that is inconspicuous and the position of the center of gravity of the display device 1 can be lowered, so that the posture can be easily stabilized. Can be done.

また、表示装置1の底面には、通気孔99(図4(B)参照)が設けられている。通気孔99は内部空間の下方の空間と通じている。またこの空間は、接続コード91が配線される隙間領域89を介して内部空間100の上方の空間領域110と空間的に通じている。よって、空間領域110が上面カバー部12により塞がれている場合でも、空間領域100内で発生した熱を、通気孔99を介して外部に放出することができる。なお、空間領域110で発生した熱を外部に放出するための通気口が上面カバー部12に設けられてもよいし、ヒートシンクその他の吸熱または放熱用の部材が空間領域110やそのほかの場所に設けられてもよい。 Further, a ventilation hole 99 (see FIG. 4B) is provided on the bottom surface of the display device 1. The ventilation hole 99 communicates with the space below the internal space. Further, this space is spatially communicated with the space area 110 above the internal space 100 via the gap area 89 in which the connection cord 91 is wired. Therefore, even when the space region 110 is blocked by the upper surface cover portion 12, the heat generated in the space region 100 can be released to the outside through the ventilation holes 99. A vent for releasing the heat generated in the space area 110 to the outside may be provided in the upper surface cover portion 12, and a heat sink or other member for absorbing or radiating heat may be provided in the space area 110 or another place. May be done.

また、上面カバー部12は、複数の取付位置(例えば、9箇所の取付位置211〜219)で筐体10の本体部11に対して取り付けられる。例えば、上面カバー部12は、筐体10の前方側(正面側)においては2箇所の取付位置211,212で、筐体10の右側においては2箇所の取付位置213,214で、筐体10の左側においては2箇所の取付位置215,216で、筐体10の後方側(背面側)においては3箇所の取付位置217〜219で筐体10の本体部11に対して取り付けられる。 Further, the upper surface cover portion 12 is attached to the main body portion 11 of the housing 10 at a plurality of attachment positions (for example, nine attachment positions 211 to 219). For example, the upper surface cover portion 12 has two mounting positions 211 and 212 on the front side (front side) of the housing 10, and two mounting positions 213 and 214 on the right side of the housing 10. It is attached to the main body 11 of the housing 10 at two mounting positions 215 and 216 on the left side of the housing 10 and at three mounting positions 217 to 219 on the rear side (rear side) of the housing 10.

例えば、図7および図8に示されるように、当該複数の取付位置211〜219のうち表示装置1の正面側の取付位置211,212(第1の取付位置の一例)では、上面カバー部12と筐体10の本体部11とは、筐体10の外周壁80よりも内側の位置において、第1の固定具を用いて結合される。「第1の固定具」としては、例えば、嵌め込み部材95と、嵌め込み部材95を着脱可能に構成された受け部材96とが例示される。なお、図8は、上面カバー部12の裏面を示す図である。例えば、嵌め込み部材95は、凸状に形成されており、受け部材96は、凸状の嵌め込み部材95を挿入自在に形成されている。 For example, as shown in FIGS. 7 and 8, at the mounting positions 211 and 212 (an example of the first mounting position) on the front side of the display device 1 among the plurality of mounting positions 211 to 219, the upper surface cover portion 12 And the main body 11 of the housing 10 are connected to each other by using the first fixture at a position inside the outer peripheral wall 80 of the housing 10. Examples of the "first fixture" include a fitting member 95 and a receiving member 96 in which the fitting member 95 is detachably configured. Note that FIG. 8 is a diagram showing the back surface of the upper surface cover portion 12. For example, the fitting member 95 is formed in a convex shape, and the receiving member 96 is formed so that the convex fitting member 95 can be inserted freely.

一方で、複数の取付位置211〜219のうち表示装置1の背面側の取付位置217〜219(第2の取付位置の一例)(図7参照)では、筐体10の本体部11と上面カバー部12とは、筐体10の外周壁80の外側の位置において、第2の固定具を用いて結合される。「第2の固定具」としては、例えばネジ98(図8参照)が例示される。 On the other hand, among the plurality of mounting positions 211 to 219, at the mounting positions 217 to 219 on the back side of the display device 1 (an example of the second mounting position) (see FIG. 7), the main body 11 and the top cover of the housing 10 The portion 12 is connected to the portion 12 at a position outside the outer peripheral wall 80 of the housing 10 by using a second fixture. As the "second fixture", for example, a screw 98 (see FIG. 8) is exemplified.

このようにすれば、目視者の目に触れ難い第2の取付位置(例えば、取付位置217〜219)においては、第2の固定具(例えばネジ98)を用いて筐体10の外周壁80の外側から上面カバー部12と本体部11とが結合される。その一方で、目視者の目に触れ易い第1の取付位置(例えば、取付位置211,212)においては、目視者に目視され難い場所で第1の固定具(例えば、嵌め込み部材95および受け部材96)を用いて上面カバー部12と本体部11とが結合される。したがって、表示装置1のデザイン性を高めることができる。 In this way, at the second mounting position (for example, mounting positions 217 to 219), which is difficult for the eyes to see, the outer peripheral wall 80 of the housing 10 is used by using the second fixing tool (for example, screw 98). The upper surface cover portion 12 and the main body portion 11 are connected from the outside of the above. On the other hand, in the first mounting position (for example, mounting positions 211 and 212) that is easily visible to the visual eye, the first fixture (for example, the fitting member 95 and the receiving member) is located in a place that is difficult for the visual visual to see. 96) is used to connect the upper surface cover portion 12 and the main body portion 11. Therefore, the design of the display device 1 can be improved.

また、第1の固定具(例えば、嵌め込み部材95および受け部材96)は、第2の固定具(例えばネジ98)よりも容易に着脱可能であり、第1の固定具を用いることにより表示装置1のメンテナンス性を高めることができる。さらに、全ての取付位置211〜219において、当該第1の固定具を用いて上面カバー部12と本体部11とが結合されるのではなく、複数の取付位置211〜219のうちの一部では、第2の固定具を用いて上面カバー部12と本体部11とが結合される。したがって、表示装置1のメンテナンス性を高めつつ、第三者によって上面カバー部12が取り外されることを抑制することもできる。 Further, the first fixture (for example, the fitting member 95 and the receiving member 96) can be attached and detached more easily than the second fixture (for example, the screw 98), and the display device can be used by using the first fixture. The maintainability of 1 can be improved. Further, in all the mounting positions 211 to 219, the upper surface cover portion 12 and the main body portion 11 are not connected by using the first fixture, but in a part of the plurality of mounting positions 211 to 219. , The upper surface cover portion 12 and the main body portion 11 are connected by using the second fixture. Therefore, it is possible to prevent the upper surface cover portion 12 from being removed by a third party while improving the maintainability of the display device 1.

なお、本実施例に係る表示装置1では、複数の取付位置211〜219のうち、筐体10の側方側の取付位置213〜216に関して、正面側の取付位置211,212と同様に、上面カバー部12と筐体10の本体部11とが第1の固定具を用いて結合されている。ただし、これに限定されず、筐体10の側方側の取付位置213〜216に関して、背面側の取付位置217〜219と同様に、上面カバー部12と筐体10の本体部11とが第2の固定具を用いて結合されてもよい。 In the display device 1 according to the present embodiment, among the plurality of mounting positions 211 to 219, regarding the mounting positions 213 to 216 on the side side of the housing 10, the upper surface is the same as the mounting positions 211 and 212 on the front side. The cover portion 12 and the main body portion 11 of the housing 10 are connected by using the first fixture. However, the present invention is not limited to this, and with respect to the mounting positions 213 to 216 on the side side of the housing 10, the upper surface cover portion 12 and the main body portion 11 of the housing 10 are the same as the mounting positions 217 to 219 on the back side. It may be joined using the fixture of 2.

[制御部の詳細構成について]
図9は、一実施例に係る表示装置1が有する制御部70の制御ブロック図である。上述したように、制御部70は、統括制御部73を有している。統括制御部73は、演算処理等を実行する演算処理装置として機能するCPU701、および、ワークエリアとして使用されるRAM703と制御用のプログラム等を記憶したROM702とを含むメモリ等を有するコントローラである。当該ROM702内には各種プログラムが記憶されており、統括制御部73は、これらのプログラムを実行することにより各種の機能を再現する。例えば、ROM702内には、ユーザとキャラクターとの対話を再現するための音声認識アプリケーション(音声認識エンジンの機能を有するアプリケーション)が記憶されており、統括制御部73は、各種センサ61,63,64,65等あるいはGPS受信機60等からの入力信号等に基づいて当該音声認識アプリケーションを実行することにより、ユーザとキャラクターとの対話を再現する。また、統括制御部73(動作制御手段の一例)は、画像表示部20に表示される画像等を制御する表示制御回路704(例えば、表示制御部72等)と、スピーカ62から出力される音声を制御する音声制御回路705とを有している。さらに、統括制御部73は、他の機器(例えば、図示しない外部の音声認識サーバ(音声認識エンジンとも称される)、および図示しない外部の対話サーバ(対話エンジン、とも称される)等)との通信を制御する通信制御回路706を有している。また、統括制御部73は、表示装置1の電源を制御する電源制御部71からの入力信号に基づいて、表示装置1の電源状態を制御する。
[Detailed configuration of control unit]
FIG. 9 is a control block diagram of the control unit 70 included in the display device 1 according to the embodiment. As described above, the control unit 70 has a general control unit 73. The integrated control unit 73 is a controller having a CPU 701 that functions as an arithmetic processing device that executes arithmetic processing and the like, and a memory and the like that include a RAM 703 used as a work area and a ROM 702 that stores a control program and the like. Various programs are stored in the ROM 702, and the overall control unit 73 reproduces various functions by executing these programs. For example, a voice recognition application (an application having a voice recognition engine function) for reproducing a dialogue between a user and a character is stored in the ROM 702, and the integrated control unit 73 has various sensors 61, 63, 64. , 65, etc., or by executing the voice recognition application based on an input signal from the GPS receiver 60, etc., the dialogue between the user and the character is reproduced. Further, the integrated control unit 73 (an example of the operation control means) is a display control circuit 704 (for example, a display control unit 72 or the like) that controls an image or the like displayed on the image display unit 20, and a sound output from the speaker 62. It has a voice control circuit 705 that controls the above. Further, the integrated control unit 73 may be connected to other devices (for example, an external voice recognition server (also referred to as a voice recognition engine) (not shown), an external dialogue server (also referred to as a dialogue engine) not shown), and the like. It has a communication control circuit 706 that controls the communication of the above. Further, the integrated control unit 73 controls the power supply state of the display device 1 based on the input signal from the power supply control unit 71 that controls the power supply of the display device 1.

[表示装置に表示されるキャラクターについて]
ここで、制御部70の統括制御部73による制御内容について説明する前に、表示装置1の画像表示部20にて表示され得るキャラクターについて、図10〜図12を参照しつつ説明する。
[Characters displayed on the display device]
Here, before explaining the control contents by the integrated control unit 73 of the control unit 70, the characters that can be displayed by the image display unit 20 of the display device 1 will be described with reference to FIGS. 10 to 12.

図10は、一実施例に係る表示装置1の概要を説明する図であり、詳細には、3Dキャラクター1100が表示装置1に表示されている状態を示す図である。3Dキャラクター1100は、女性のキャラクターである。表示装置1(詳細には、統括制御部73)は、さらに、3Dキャラクター1100の下にステージを意味するステージ映像2100を表示する。ステージ映像2100は、ここでは魔法陣を示す。この表示を見た目視者は、ステージ上に3Dキャラクター1100が立っているような印象を受けることができる。3Dキャラクター1100およびステージ映像2100の色は特に問わない。例えば3Dキャラクター1100の皮膚は肌色である。3Dキャラクター1100の髪色および上半身の衣装は比較的淡い青色系の色(例えば、水色)、膝に当てられている装飾品はそれよりも濃い青色系の色(例えば、青色)、スカートおよび靴は白色である。ステージ映像2100は比較的濃い青色系の色(例えば、濃い水色)である。なお、図10および次述の図11では、表示装置1の真正面よりもやや上方から筐体10内を見下ろして視認している図が示されている。 FIG. 10 is a diagram for explaining the outline of the display device 1 according to the embodiment, and in detail, is a diagram showing a state in which the 3D character 1100 is displayed on the display device 1. The 3D character 1100 is a female character. The display device 1 (specifically, the overall control unit 73) further displays a stage image 2100, which means a stage, under the 3D character 1100. The stage image 2100 shows the magic circle here. A viewer who sees this display can get the impression that the 3D character 1100 is standing on the stage. The colors of the 3D character 1100 and the stage image 2100 are not particularly limited. For example, the skin of the 3D character 1100 is flesh-colored. The hair color and upper body outfit of the 3D character 1100 are relatively pale bluish (eg, light blue), and the ornaments on the knees are darker bluish (eg, blue), skirts and shoes. Is white. The stage image 2100 is a relatively dark blue color (for example, dark light blue). In addition, in FIG. 10 and FIG. 11 described below, a view is shown in which the inside of the housing 10 is viewed from slightly above the front of the display device 1.

図11は、一実施例に係る表示装置1の概要を説明する図であり、詳細には、3Dキャラクター1200が表示装置1に表示されている状態を示す図である。3Dキャラクター1200は、猫のキャラクターである。図11(B)に示す場合、表示装置1は、3Dキャラクター1200および3Dキャラクター1200の下にステージを意味するステージ映像2200を表示する。ステージ映像2200は、ここでは、「Yupiteru」という文字列、および3Dキャラクター1200の名称である「Juno」(「ユノ」と称呼する。)を示す文字列が、円形のステージの外周に沿って交互に表記されている。3Dキャラクター1200およびステージ映像2200の色は特に問わない。 FIG. 11 is a diagram for explaining the outline of the display device 1 according to the embodiment, and in detail, is a diagram showing a state in which the 3D character 1200 is displayed on the display device 1. The 3D character 1200 is a cat character. In the case shown in FIG. 11B, the display device 1 displays the stage image 2200, which means a stage, under the 3D character 1200 and the 3D character 1200. In the stage image 2200, here, the character string "Yupiteru" and the character string indicating "Juno" (referred to as "Juno"), which is the name of the 3D character 1200, alternate along the outer circumference of the circular stage. It is written in. The colors of the 3D character 1200 and the stage image 2200 are not particularly limited.

ここで、3Dキャラクター1200およびステージ映像2200について、図12を参照してより具体的に説明する。3Dキャラクター1200は、キャラクター本体1210と、首輪1220とに大別される。キャラクター本体1210は、猫のキャラクター自体である。キャラクター本体1210は、身体の部位のうち、白色で示された部位を含み、例えば、眉間、鼻および口の周辺、腹部、並びに足のうちの正面側の部位がこれに該当する。キャラクター本体1210の身体の部位のうち、薄いグレーで示された部位は、比較的淡い茶色系の色(例えば、黄土色)であり、例えば、顔部のうちの目の上および横の部位、胴体部のうちの上側の部分、足のうちの正面側以外の部位がこれに該当する。キャラクター本体1210の身体の部位のうち、さらに濃いグレーで示された部位は、さらに濃い茶色系の色(例えば、茶色)であり、例えば、顔部、頭部、胴体、足の細い線で示された縞模様の部位がこれに該当する。首輪1220は、キャラクター本体1210の首の位置に表示された首輪を意味する。首輪1220は、赤系の色(例えば、赤色)である。首輪1220のうち、キャラクター本体1210の顔の下に位置には、札1221が取り付けられている。札1221は円形であり、所定の標識が表記されている。当該標識は、「V」状の記号の下方に「●」(内側を塗りつぶした円)を配置した標識であって、それぞれを赤色系の色(例えば、赤色)で表記されている標識である。札1221に表記される標識は、表示装置1の出所を示す商標としての機能を発揮するものとしてもよい。ステージ映像2200は全体として茶色系の色で、円および文字列は比較的濃い茶系の色(例えば、茶色)、円の内側の煙を模した画像はそれよりも薄い茶色系の色(例えば、黄土色)である。 Here, the 3D character 1200 and the stage image 2200 will be described more specifically with reference to FIG. The 3D character 1200 is roughly divided into a character body 1210 and a collar 1220. The character body 1210 is the cat character itself. The character body 1210 includes parts of the body shown in white, such as the glabellar, around the nose and mouth, the abdomen, and the anterior part of the foot. Of the body parts of the character body 1210, the parts shown in light gray are relatively light brownish colors (eg, ocher), for example, the parts above and beside the eyes in the face. This corresponds to the upper part of the torso and the part of the foot other than the front side. Of the body parts of the character body 1210, the parts shown in darker gray are darker brownish colors (for example, brown), and are shown by, for example, thin lines on the face, head, torso, and legs. The striped part corresponds to this. The collar 1220 means a collar displayed at the position of the neck of the character body 1210. The collar 1220 is a reddish color (eg, red). A tag 1221 is attached to the collar 1220 below the face of the character body 1210. The tag 1221 is circular and has a predetermined sign. The sign is a sign in which "●" (a circle filled in the inside) is arranged below the "V" -shaped symbol, and each is marked in a reddish color (for example, red). .. The sign displayed on the tag 1221 may function as a trademark indicating the source of the display device 1. The stage image 2200 is a brownish color as a whole, the circle and the character string are a relatively dark brownish color (for example, brown), and the image imitating the smoke inside the circle is a lighter brownish color (for example, brown). It is ocher).

図10〜図12において、3Dキャラクター1100,1200の背景は黒色で示されているが、真っ黒に限られるものではなく、比較的暗い色の背景(例えば、黒色その他の暗色系の色)としてもよい。 In FIGS. 10 to 12, the backgrounds of the 3D characters 1100 and 1200 are shown in black, but the background is not limited to pure black, and may be a relatively dark background (for example, black or other dark color). good.

なお、図10〜図12に示すキャラクターは一例である。表示装置1は、人型のキャラクターを表示する場合、表示装置1は、女性のキャラクターに限られず、男性のキャラクター(例えば、キャラクター1000(図13参照))を表示してもよい。表示装置1は、実在する人物(例えば、家族)もしくは過去に実在していた人物(例えば、歴史上の人物)、架空の人物のキャラクター(例えば、漫画やアニメ等のフィクションの作品に登場するキャラクター等)のいずれを表示してもよい。人型でない動物のキャラクターを表示する場合、表示装置1は、猫のキャラクターに限られず、犬やハムスター等の一般家庭で飼育されうる動物のキャラクター、それ以外の馬や牛等の動物のキャラクター、並びに架空の動物のキャラクター(例えば、漫画やアニメその他のフィクションの作品に登場するキャラクター等)のいずれを表示してもよい。また、表示装置1は、首輪1220を有する他のキャラクターを表示するものであってもよい。 The characters shown in FIGS. 10 to 12 are examples. When the display device 1 displays a humanoid character, the display device 1 is not limited to a female character, and may display a male character (for example, a character 1000 (see FIG. 13)). The display device 1 is a real person (for example, a family member), a real person in the past (for example, a historical person), or a fictitious person character (for example, a character appearing in a work of fiction such as a cartoon or an animation). Etc.) may be displayed. When displaying a non-human animal character, the display device 1 is not limited to a cat character, but is an animal character such as a dog or a hamster that can be bred in a general household, or another animal character such as a horse or a cow. In addition, any of the fictitious animal characters (for example, characters appearing in cartoons, animations, and other fiction works) may be displayed. Further, the display device 1 may display another character having the collar 1220.

表示装置1(詳細には、統括制御部73)は、コミュニケーション機能に基づいて、キャラクターの身体の部位を動かしたり、キャラクターの発話を模した音声を出力したりする。コミュニケーション機能は、目視者とキャラクターとのコミュニケーションを再現する機能、または疑似的なコミュニケーションを再現する機能である。コミュニケーション機能においては、目視者の挙動(例えば、発話や身体の動き)に応答してキャラクターが動く。例えば、3Dキャラクター1100は、ダンスなど体全体を動かしたり、表情を変化(例えば、喜怒哀楽の感情を表現)させたりする、といった人間が通常行う動作を再現した動作をする。例えば、3Dキャラクター1200は、動物が通常行う動作(例えば、あくびをする、尻尾を動かす、歩行する等)を再現した動きをする。また、表示装置1は、例えば、3Dキャラクター1100の動作に合わせて、3Dキャラクター1100が歌唱しているかのような歌唱音声を出力したり、目視者との対話に係る音声を出力したりする。表示装置1は、例えば、3Dキャラクター1200の動作に合わせて、猫の鳴き声を意味する音声を出力したり、目視者との対話に係る音声を出力したりする。このような映像や音声の出力は、コミュニケーション機能に限られず、表示装置1が有する種々の機能で行われるようにしてもよい。 The display device 1 (specifically, the integrated control unit 73) moves a part of the character's body or outputs a voice imitating the character's utterance based on the communication function. The communication function is a function that reproduces the communication between the viewer and the character, or a function that reproduces a pseudo communication. In the communication function, the character moves in response to the behavior of the viewer (for example, utterance or body movement). For example, the 3D character 1100 performs actions that reproduce the actions normally performed by humans, such as moving the entire body such as dancing and changing facial expressions (for example, expressing emotions of emotions). For example, the 3D character 1200 makes movements that reproduce the movements normally performed by animals (for example, yawning, moving the tail, walking, etc.). Further, the display device 1 outputs, for example, a singing voice as if the 3D character 1100 is singing in accordance with the operation of the 3D character 1100, or outputs a voice related to a dialogue with a visual viewer. The display device 1 outputs, for example, a voice meaning a cat's bark or a voice related to a dialogue with a visual person in accordance with the operation of the 3D character 1200. Such video and audio output is not limited to the communication function, and may be performed by various functions of the display device 1.

なお、コミュニケーション機能におけるユーザとの対話は、例えば、統括制御部73のROM702内に記憶された音声認識アプリケーションと、上述した外部の音声認識サーバと対話サーバとによって再現される。例えば、操作部40がユーザによって押下されると、統括制御部73は、音声認識アプリケーションを起動させる。これにより、キャラクターとの対話を行うための音声認識が有効化される。そして、ユーザにより発せられた音声(ユーザ音声、とも称する)が、統括制御部73の通信制御回路706から音声認識サーバへと送信され、音声認識サーバによってユーザ音声に対する音声認識処理が実行されて音声認識結果が出力される。対話サーバには、入力され得る文字列毎に、画像表示部20に表示されたキャラクター(例えば、3Dキャラクター1100)が発する音声(キャラクター音声、とも称する)が互いに対応付けて予め登録されている。そして、音声認識サーバによる音声認識結果(例えば、文字列で示された音声認識結果)が対話サーバに入力され、当該音声認識結果に対応するキャラクター音声が対話サーバから表示装置1へと送信される。そして、統括制御部73は、対話サーバから受信したキャラクター音声を、表示装置1のスピーカ61から出力する。このようにして、ユーザによる音声に対する応答処理が実行され、ユーザとキャラクターとの対話が再現される。 The dialogue with the user in the communication function is reproduced, for example, by the voice recognition application stored in the ROM 702 of the general control unit 73, and the external voice recognition server and the dialogue server described above. For example, when the operation unit 40 is pressed by the user, the overall control unit 73 activates the voice recognition application. This enables voice recognition for dialogue with the character. Then, the voice emitted by the user (also referred to as user voice) is transmitted from the communication control circuit 706 of the general control unit 73 to the voice recognition server, and the voice recognition server executes voice recognition processing for the user voice to perform voice. The recognition result is output. For each character string that can be input, the voice (also referred to as character voice) emitted by the character (for example, 3D character 1100) displayed on the image display unit 20 is registered in advance in the dialogue server in association with each other. Then, the voice recognition result by the voice recognition server (for example, the voice recognition result indicated by the character string) is input to the dialogue server, and the character voice corresponding to the voice recognition result is transmitted from the dialogue server to the display device 1. .. Then, the overall control unit 73 outputs the character voice received from the dialogue server from the speaker 61 of the display device 1. In this way, the response processing to the voice by the user is executed, and the dialogue between the user and the character is reproduced.

<3Dキャラクター1100に関するコミュニケーション機能について>
以下では、3Dキャラクター1100とユーザとのコミュニケーションを再現するための種々の制御について、図14〜図20を参照して順に説明する。
<Communication function related to 3D character 1100>
In the following, various controls for reproducing the communication between the 3D character 1100 and the user will be described in order with reference to FIGS. 14 to 20.

<1.においに関するコミュニケーション機能について>
例えば、においを検知するにおいセンサ65(図9参照)を表示装置1に設けておき、統括制御部73は、においセンサ65による検知結果に応じた音声を3Dキャラクター1100のキャラクター音声として出力する音声出力動作を実行するとよい。においセンサ65は、例えば、あるにおいの強度に応じて変化する信号を出力したり、においに含まれる成分(におい成分)に応じて変化する信号を出力したりするものがある。においセンサ65は、例えば、においの種類に応じて変化する信号を出力する。においセンサ65は、例えば、脱臭フィルタ等を用いて特定のにおい成分(タール、アンモニア、アルコール、二酸化炭素等)の濃度を検知可能に構成されている。このようにすれば、統括制御部73は、表示装置1の画像表示部20に表示されたキャラクターとユーザとの間でにおいに関するコミュニケーションを再現することができ、当該キャラクターとユーザとの間でより多様なコミュニケーションを再現することができる。なお、においセンサ65は、表示装置1の外周面上、例えば、表示装置1における筐体10の斜行部84等に設けられるとよい。
<1. Communication function related to odor>
For example, an odor sensor 65 (see FIG. 9) for detecting an odor is provided in the display device 1, and the general control unit 73 outputs a voice corresponding to the detection result by the odor sensor 65 as a character voice of the 3D character 1100. It is good to execute the output operation. The odor sensor 65 may, for example, output a signal that changes according to the intensity of a certain odor, or output a signal that changes according to a component (odor component) contained in the odor. The odor sensor 65 outputs, for example, a signal that changes according to the type of odor. The odor sensor 65 is configured to be able to detect the concentration of a specific odor component (tar, ammonia, alcohol, carbon dioxide, etc.) by using, for example, a deodorizing filter or the like. In this way, the overall control unit 73 can reproduce the communication regarding the odor between the character and the user displayed on the image display unit 20 of the display device 1, and the communication between the character and the user can be reproduced. It is possible to reproduce various communications. The odor sensor 65 may be provided on the outer peripheral surface of the display device 1, for example, on the oblique portion 84 of the housing 10 of the display device 1.

統括制御部73は、例えば、検知されたにおいの種類に応じた音声を3Dキャラクター1100のキャラクター音声として出力する音声出力動作を実行するとよい。なお、複数種類のにおい成分を識別可能な単一のセンサが、においセンサとして構成されていてもよく、互いに異なる種類のにおい成分を識別可能な複数のセンサが、においセンサとして構成されていてもよい。 For example, the integrated control unit 73 may execute a voice output operation that outputs a voice corresponding to the type of the detected odor as the character voice of the 3D character 1100. A single sensor capable of identifying a plurality of types of odor components may be configured as an odor sensor, and a plurality of sensors capable of identifying different types of odor components may be configured as an odor sensor. good.

図14(A)は、においに関するコミュニケーションを再現するためのフローチャートであり、図14(B)は、においに関する音声管理テーブル(音声管理表、とも称される)を示す図である。音声管理テーブルは、例えば、表示装置1の統括制御部73内、あるいは対話サーバ内に格納されている。図14(B)に示されるように、音声管理テーブルには、においセンサ65によって検知可能なにおい成分(におい物質、とも称される)の種類ごとに、そのにおい成分を主に含有するにおいの種類と、3Dキャラクター1100が発する音声(キャラクター音声と称する)とが予め登録されている。例えば、音声管理テーブルにおいては、タールを主に含有するタバコ臭がタールと対応付けて登録されているとともに、タバコ臭が検知された際のキャラクター音声として、「タバコの吸い過ぎはよくないよ〜」などのユーザの健康に気遣う言葉が登録されている。 FIG. 14A is a flowchart for reproducing communication related to odor, and FIG. 14B is a diagram showing a voice management table (also referred to as a voice management table) related to odor. The voice management table is stored in, for example, the integrated control unit 73 of the display device 1 or the dialogue server. As shown in FIG. 14 (B), the voice management table mainly contains the odor component for each type of odor component (also referred to as odor substance) that can be detected by the odor sensor 65. The type and the sound (referred to as character sound) emitted by the 3D character 1100 are registered in advance. For example, in the voice management table, the odor of tobacco, which mainly contains tar, is registered in association with tar, and as the character voice when the odor of tobacco is detected, "Tobacco smoking is not good. Words that care about the user's health such as "" are registered.

そして、まず、ステップS11において、統括制御部73は、におい成分が検知されたか否かを判断する。例えば、統括制御部73は、においセンサ65によって検知されたにおい成分の濃度が特定のにおいに関する所定の閾値(基準値)を上回ると、そのにおい成分が検知されたと判断する。ステップS12において、統括制御部73は、音声管理テーブルにおいて、検知されたにおい成分に対応付けて登録されているにおいの種類を判断する。例えば、所定の閾値を上回る濃度のタールが検知された場合は、タバコ臭が検知されたと判断される。そして、統括制御部73は、検知されたにおいの種類に応じたキャラクター音声をスピーカ62から出力する。例えば、タバコ臭が検知されたと判断されると、統括制御部73は、ユーザの健康に気遣う言葉の音声(ここでは、「タバコの吸い過ぎはよくないよ〜」)をキャラクター音声として出力する音声出力動作を実行する。なお、他の例としては、以下のようなものが挙げられる。例えば、アロマオイルなどの香料や食事などに含まれる特定の主成分の濃度が所定の基準値を上回ると、統括制御部73は、香料や食事などのにおいが検知されたと判断し、においの元に関して質問する音声をキャラクター音声として出力する。また、所定の基準値を上回るアルコールが検知されると、統括制御部73は、アルコール臭が検知されたと判断し、「お酒くさ〜い」や「また飲んできたの、いい加減にしなさいよ」などの音声を3Dキャラクター1100のキャラクター音声として出力する。また、所定の基準値を上回る口臭成分(例えば、硫化水素、メチルメルカプタン、ジメルサルファイド等)が検知されると、統括制御部73は、口臭が検知されたと判断し、「ちょっとお口臭うよ、歯磨きしてる?」や「歯槽膿漏気を付けてね」などの音声を3Dキャラクター1100のキャラクター音声として出力する。また、ターシャリーブチルメルカプタン、ジメチルサルファイドあるいはテトラヒドロチオフェンなど、ガス燃料に含有されるにおい成分が検知されると、統括制御部73は、ガス燃料のにおいが検知されたと判断し、「ガス臭いんだけど!」などの音声を3Dキャラクター1100のキャラクター音声として出力する。 Then, first, in step S11, the overall control unit 73 determines whether or not the odor component has been detected. For example, when the concentration of the odor component detected by the odor sensor 65 exceeds a predetermined threshold value (reference value) for a specific odor, the general control unit 73 determines that the odor component has been detected. In step S12, the overall control unit 73 determines the type of odor registered in association with the detected odor component in the voice management table. For example, when tar having a concentration exceeding a predetermined threshold value is detected, it is determined that tobacco odor has been detected. Then, the integrated control unit 73 outputs the character voice according to the type of the detected odor from the speaker 62. For example, when it is determined that a cigarette odor is detected, the overall control unit 73 outputs a voice of words that care about the user's health (here, "It is not good to smoke too much") as a character voice. Perform output operations. Other examples include the following. For example, when the concentration of a specific main component contained in a fragrance such as aroma oil or a meal exceeds a predetermined reference value, the general control unit 73 determines that an odor such as a fragrance or a meal has been detected, and is the source of the odor. Outputs the voice asking a question about as a character voice. In addition, when alcohol exceeding a predetermined reference value is detected, the overall control unit 73 determines that an alcohol odor has been detected, and "drinks" or "I've been drinking again, please do not hesitate." Etc. are output as the character voice of the 3D character 1100. Further, when a halitosis component exceeding a predetermined reference value (for example, hydrogen sulfide, methyl mercaptan, dimethyl sulfide, etc.) is detected, the overall control unit 73 determines that the halitosis has been detected and "slightly smells. , "Are you brushing your teeth?" Or "Please be careful of alveolar pyorrhea" is output as the character voice of the 3D character 1100. In addition, when an odor component contained in gas fuel such as tertiary butyl mercaptan, dimethyl sulfide, or tetrahydrothiophene is detected, the general control unit 73 determines that the odor of gas fuel has been detected, and says, "It smells like gas. The sound such as "!" Is output as the character sound of the 3D character 1100.

このように、統括制御部73は、検知されたにおいの種類に応じた音声を3Dキャラクター1100のキャラクター音声として出力する制御を実行するとよい。このような制御が行われることにより、画像表示部20に表示されたキャラクターとユーザとの間でのコミュニケーションの幅を広げることができ、当該キャラクターへのユーザの愛着を増大させることができる。 In this way, the overall control unit 73 may execute control to output the voice corresponding to the type of the detected odor as the character voice of the 3D character 1100. By performing such control, the range of communication between the character displayed on the image display unit 20 and the user can be widened, and the user's attachment to the character can be increased.

表示装置1は、音声管理テーブルに基づいて出力する音声を特定するものに限らない。表示装置1は、例えば、過去の対話の内容(対話の履歴)に基づいてキャラクターの発話内容が変化するシナリオに従って、出力する音声を特定してもよい。このシナリオは、キャラクターの出力する音声を特定するデータがツリー構造で管理された分岐シナリオを規定するものでもよい。 The display device 1 is not limited to specifying the voice to be output based on the voice management table. The display device 1 may specify the voice to be output according to a scenario in which the utterance content of the character changes based on the content of the past dialogue (history of dialogue), for example. This scenario may define a branching scenario in which data specifying the voice output by the character is managed in a tree structure.

ここでは、においセンサ65による検知結果に応じた音声の音声出力動作が例示されているが、これに限定されず、統括制御部73は、においセンサ65による検知結果に応じた動きをキャラクターが行う映像を画像表示部20に表示する表示出力動作を実行してもよい。例えば、音声管理テーブルと同様に、表示管理テーブル(不図示)を予め設けておき、統括制御部73は、検知されたにおいの種類に応じた動きを3Dキャラクター1100が行う映像を画像表示部20に表示する表示出力動作を実行するとよい。表示管理テーブルは、例えば、におい成分とにおいの種類とに対応付けて3Dキャラクター1100を規定するデータを登録したテーブルとするとよい。3Dキャラクター1100を規定するデータは、表示する3Dキャラクター1100の映像を示すデータでもよいし、3Dキャラクター1100の動きの内容を規定するデータでもよい。例えば、何らかのにおい成分が検知されると、統括制御部73は、においを嗅ぐ動きを3Dキャラクター1100が行う映像を画像表示部20に表示するとよい。また、統括制御部73は、例えばタバコ臭が検知されたと判断すると、煙たがる動きを3Dキャラクター1100が行う映像を画像表示部20に表示するとよい。なお、この際、統括制御部73は、煙を模した映像を画像表示部20に表示してもよい。さらに、統括制御部73は、上記のような音声出力動作と表示出力動作との双方を実行してもよい。例えば、においセンサ65によって何らかのにおい成分が検知されると、統括制御部73は、においを嗅ぐ動きを3Dキャラクター1100が行う映像を画像表示部20に表示しつつ、「何かにおう」などの音声を3Dキャラクター1100のキャラクター音声としてスピーカ62から出力するようにしてもよい。 Here, the voice output operation of the voice according to the detection result by the odor sensor 65 is illustrated, but the present invention is not limited to this, and the character performs the movement according to the detection result by the odor sensor 65 in the integrated control unit 73. A display output operation for displaying an image on the image display unit 20 may be executed. For example, similarly to the voice management table, a display management table (not shown) is provided in advance, and the overall control unit 73 displays an image in which the 3D character 1100 moves according to the type of detected odor. It is advisable to execute the display output operation to be displayed in. The display management table may be, for example, a table in which data defining the 3D character 1100 is registered in association with the odor component and the type of odor. The data that defines the 3D character 1100 may be data that indicates an image of the 3D character 1100 to be displayed, or data that defines the content of the movement of the 3D character 1100. For example, when some odor component is detected, the overall control unit 73 may display an image of the 3D character 1100 performing the odor-sniffing movement on the image display unit 20. Further, when the integrated control unit 73 determines that, for example, the odor of tobacco is detected, it is preferable that the image display unit 20 displays an image of the 3D character 1100 performing a smoke-desired movement. At this time, the overall control unit 73 may display an image imitating smoke on the image display unit 20. Further, the overall control unit 73 may execute both the audio output operation and the display output operation as described above. For example, when some odor component is detected by the odor sensor 65, the general control unit 73 displays an image of the 3D character 1100 performing the odor-sniffing movement on the image display unit 20, such as "smell something". The sound may be output from the speaker 62 as the character sound of the 3D character 1100.

さらには、統括制御部73は、においセンサ65によって検知されたにおい成分の濃度(検出強度ともいう)に応じて3Dキャラクター1100の反応が変更するように制御するとよい。例えば、統括制御部73が、におい成分の濃度に応じて、段階的に設けられた複数の動きの映像(例えば、「顔をしかめる(嫌そうな表情をする)」、「冷や汗を流す」、「青ざめる」および「気絶する」等)のいずれかを選択的に表示するとよい。 Further, the integrated control unit 73 may control the reaction of the 3D character 1100 so as to change according to the concentration (also referred to as the detection intensity) of the odor component detected by the odor sensor 65. For example, the integrated control unit 73 performs images of a plurality of movements provided in stages according to the concentration of the odor component (for example, "grimacing (making an unpleasant expression)", "sweating cold", etc. Either "pale" or "faint") may be selectively displayed.

表示装置1は、タバコ臭とタバコ臭以外のにおい(臭さ)とを区別する方法として例えば、煙を検知する煙センサや、カメラ画像(例えば撮影部227の撮影した画像)、サーモカメラの画像など、別のセンサ等との組み合わせで、ユーザがタバコを吸っていることを検知可能してもよい。 The display device 1 is, for example, a smoke sensor for detecting smoke, a camera image (for example, an image taken by the photographing unit 227), or an image of a thermo camera as a method for distinguishing between a cigarette odor and an odor (odor) other than the tobacco odor. In combination with another sensor or the like, it may be possible to detect that the user is smoking.

統括制御部73は、ユーザがタバコを吸っていることを検知した場合に、3Dキャラクター1100に重ねて(3Dキャラクター1100の前に)、煙を模した画像(煙がモクモクとしと現われている様子を再現した映像)を表示してもよい。この際、統括制御部73は、3Dキャラクター1100の顔を前に突き出して顔をアップし、さも嫌そうな表情をさせた表情をさせてもよい。統括制御部73は、ユーザと3Dキャラクター1100との親密さの度合いである親密度に応じて、3Dキャラクター1100が嫌がる程度を変化させた表示をしてもよい。統括制御部73は、例えば、親密度が所定値以上である場合は、愛しているから許してあげるというような3Dキャラクター1100の表情にし、所定値未満である場合は3Dキャラクター1100を不快な表情にする、という具合である。統括制御部73は、例えば、ユーザによる表示装置1の使用実績(例えば、過去の使用時間や過去の対話内容)に応じて親密度を特定するとよい。親密度の特定についてのアルゴリズムはこれに限らない。 When the general control unit 73 detects that the user is smoking, the image imitating smoke (smoke appears as mokumoku) is superimposed on the 3D character 1100 (in front of the 3D character 1100). An image that reproduces) may be displayed. At this time, the overall control unit 73 may project the face of the 3D character 1100 forward to raise the face, and make the facial expression look unpleasant. The integrated control unit 73 may display a display in which the degree to which the 3D character 1100 dislikes is changed according to the degree of intimacy between the user and the 3D character 1100. The integrated control unit 73 makes the 3D character 1100 look like, for example, if the intimacy is equal to or higher than a predetermined value, it will be forgiven because it is loved, and if it is less than the predetermined value, the 3D character 1100 has an unpleasant facial expression. And so on. The integrated control unit 73 may specify the intimacy according to, for example, the usage record of the display device 1 by the user (for example, the past usage time and the past dialogue content). The algorithm for identifying intimacy is not limited to this.

<2.ユーザの位置情報に基づくコミュニケーション機能について>
また、例えば、表示装置1がGPS(Global Positioning System)受信機60(図9参照)を有しており、ユーザの位置情報に基づいて以下のような制御が実行されるとよい。なお、ここでは、表示装置1が携帯型であることを想定する。そして、例えば、統括制御部73が、GPS受信機60からの信号に基づいて、ユーザが所持(携帯)している表示装置1の位置情報をユーザ自身の位置情報として取得し、取得した位置情報に基づいて以下のような制御を実行するとよい。
<2. Communication function based on user's location information>
Further, for example, it is preferable that the display device 1 has a GPS (Global Positioning System) receiver 60 (see FIG. 9), and the following control is executed based on the user's position information. Here, it is assumed that the display device 1 is a portable type. Then, for example, the integrated control unit 73 acquires the position information of the display device 1 possessed (portable) by the user as the user's own position information based on the signal from the GPS receiver 60, and the acquired position information. It is advisable to execute the following control based on.

例えば、ユーザの位置情報に基づき特定された場所にユーザが滞在した滞在頻度(訪問頻度、とも称される)に応じた音声がキャラクター音声として出力されるように制御されるとよい。図15は、滞在頻度に関するコミュニケーションを再現するためのフローチャートである。 For example, it is preferable to control so that the voice corresponding to the stay frequency (also referred to as the visit frequency) in which the user stays at the place specified based on the user's position information is output as the character voice. FIG. 15 is a flowchart for reproducing communication regarding the frequency of stay.

例えば、ステップS21において、統括制御部73は、GPS受信機60からユーザの位置情報が受信されたか否かを判断する。ユーザの位置情報が受信されると、ステップS22において、統括制御部73は、ユーザの位置情報に基づき特定された場所にユーザが滞在した滞在頻度が所定値(例えば、「2」)以上であるか否かを判断する。なお、滞在頻度は、所定期間(例えば、1日あるいは1週間等)において一の場所にユーザが滞在した回数である。例えば、統括制御部73は、GPS受信機60から取得された位置情報(例えば、ユーザの現在の位置情報)に基づいて、ネットワーク等を利用してユーザの滞在場所を検索して特定する。そして、統括制御部73は、特定された場所にユーザが滞在した滞在回数に基づいてユーザの滞在頻度を算出し、ユーザの滞在頻度が所定値以上であるか否かを判断する。例えば、ユーザの滞在頻度が所定値以上である場合、ステップS23において、統括制御部73は、ユーザの滞在頻度に関して予め登録された所定のキャラクター音声がスピーカ62から出力されるように制御する。統括制御部73は、例えば、ユーザが同一日に同一の場所に2回行った場合、ユーザの滞在頻度が所定値以上であると判断し、「あれ、さっきも行ったじゃん」などのキャラクター音声を出力する。 For example, in step S21, the overall control unit 73 determines whether or not the user's position information has been received from the GPS receiver 60. When the user's position information is received, in step S22, the overall control unit 73 has a stay frequency of the user staying at a place specified based on the user's position information being equal to or higher than a predetermined value (for example, "2"). Judge whether or not. The frequency of stay is the number of times the user stays at one place in a predetermined period (for example, one day or one week). For example, the integrated control unit 73 searches and identifies the user's place of stay using a network or the like based on the position information (for example, the user's current position information) acquired from the GPS receiver 60. Then, the integrated control unit 73 calculates the stay frequency of the user based on the number of stays of the user at the specified place, and determines whether or not the stay frequency of the user is equal to or higher than a predetermined value. For example, when the user's stay frequency is equal to or higher than a predetermined value, in step S23, the overall control unit 73 controls so that a predetermined character voice registered in advance regarding the user's stay frequency is output from the speaker 62. For example, when the user goes to the same place twice on the same day, the overall control unit 73 determines that the frequency of stay of the user is equal to or higher than a predetermined value, and character voice such as "Oh, I went there a while ago". Is output.

また、統括制御部73は、取得した位置情報に基づき特定された場所に応じた音声を3Dキャラクター1100のキャラクター音声として出力するように制御するとよい。図16(A)は、滞在場所に関するコミュニケーションを再現するためのフローチャートであり、図16(B)は、滞在場所に関するキャラクター音声の音声管理テーブルを示す図である。 Further, the overall control unit 73 may control to output the voice corresponding to the location specified based on the acquired position information as the character voice of the 3D character 1100. FIG. 16A is a flowchart for reproducing communication regarding the place of stay, and FIG. 16B is a diagram showing a voice management table of character voices regarding the place of stay.

例えば、ステップS31において、統括制御部73は、GPS受信機60からユーザの位置情報が受信されたか否かを判断する。ユーザの位置情報が受信されると、ステップS32において、統括制御部73は、ユーザの位置情報に基づいて、ネットワーク等を利用してユーザの滞在場所を検索して特定する。そして、ステップS33において、統括制御部73は、図16(B)の音声管理テーブルに基づいて、特定された場所に応じたキャラクター音声をスピーカ62から出力する。統括制御部73は、例えば、ユーザがスーパーマーケットに行った際には「今日の夕食なにつくる?」などのキャラクター音声、或いは、ユーザが病院に行った際には「大丈夫?体調わるいの?」などのキャラクター音声を出力する。また、統括制御部73は、例えばユーザが遊園地に行った際には「いっぱい遊んだね」などのキャラクター音声を出力する。 For example, in step S31, the overall control unit 73 determines whether or not the user's position information has been received from the GPS receiver 60. When the user's position information is received, in step S32, the overall control unit 73 searches for and identifies the user's place of stay using a network or the like based on the user's position information. Then, in step S33, the overall control unit 73 outputs the character voice corresponding to the specified location from the speaker 62 based on the voice management table of FIG. 16 (B). For example, when the user goes to the supermarket, the general control unit 73 makes a character voice such as "What do you want to make for today's supper?", Or when the user goes to the hospital, "Is it okay? Are you feeling well?" Output character voice such as. In addition, the integrated control unit 73 outputs a character voice such as "I played a lot" when the user goes to the amusement park, for example.

また、統括制御部73は、取得した位置情報に基づき特定した場所にユーザが滞在した滞在回数(訪問回数、などとも称される)に応じた音声を3Dキャラクター1100のキャラクター音声として出力するように制御するとよい。図17(A)は、滞在回数に関するコミュニケーションを再現するためのフローチャートであり、図17(B)は、滞在回数に関するキャラクター音声の音声管理テーブルを示す図である。 Further, the overall control unit 73 outputs the voice according to the number of stays (also referred to as the number of visits, etc.) that the user stays at the specified location based on the acquired position information as the character voice of the 3D character 1100. It is good to control. FIG. 17A is a flowchart for reproducing communication regarding the number of stays, and FIG. 17B is a diagram showing a voice management table of character voices regarding the number of stays.

図17(A)のステップS41,S42は、図16(A)のステップS31,S32と同様であるため、説明を省略する。ステップS43において、統括制御部73は、ステップS42において特定された場所へのユーザの滞在回数を取得する。そして、ステップS44において、統括制御部73は、図17(B)の音声管理テーブルに基づいて、ユーザの滞在回数に応じたキャラクター音声をスピーカ62から出力する。統括制御部73は、例えば、ユーザが或るゲームセンターに初めて行った際には、「ゲーム楽しかったね」などのキャラクター音声を出力する。そして、統括制御部73は、ユーザが当該或るゲームセンターに再び行った際には、「また行きたいと思ってたんだ」などのキャラクター音声を出力する。さらに、統括制御部73は、ユーザが当該或るゲームセンターに所定回数以上(例えば、10回以上)行った際には、「またゲームするの〜」などのキャラクター音声を出力する。 Since steps S41 and S42 in FIG. 17A are the same as steps S31 and S32 in FIG. 16A, description thereof will be omitted. In step S43, the overall control unit 73 acquires the number of times the user stays at the place specified in step S42. Then, in step S44, the integrated control unit 73 outputs the character voice according to the number of stays of the user from the speaker 62 based on the voice management table of FIG. 17 (B). The integrated control unit 73 outputs, for example, a character voice such as "I enjoyed the game" when the user goes to a certain game center for the first time. Then, when the user goes to the certain game center again, the overall control unit 73 outputs a character voice such as "I wanted to go again". Further, when the user goes to the certain game center a predetermined number of times or more (for example, 10 times or more), the integrated control unit 73 outputs a character voice such as "I will play the game again".

また、統括制御部73は、取得された位置情報に基づき特定された場所でのユーザの滞在時間に応じた音声を3Dキャラクター1100のキャラクター音声として出力するように制御するとよい。図18(A)は、滞在時間に関するコミュニケーションを再現するためのフローチャートであり、図18(B)は、滞在時間に関するキャラクター音声の音声管理テーブルを示す図である。 Further, the overall control unit 73 may control to output the voice according to the staying time of the user at the specified place based on the acquired position information as the character voice of the 3D character 1100. FIG. 18A is a flowchart for reproducing the communication regarding the staying time, and FIG. 18B is a diagram showing a voice management table of the character voice regarding the staying time.

図18(A)のステップS51,S52は、図16(A)のステップS31,S32と同様であるため、説明を省略する。ステップS53において、統括制御部73は、ステップS52において特定された場所へのユーザの滞在時間を取得する。そして、ステップS54において、統括制御部73は、図18(B)の音声管理テーブルに基づいて、ユーザの滞在時間に応じたキャラクター音声をスピーカ62から出力する。例えば、コンビニエンスストアでのユーザの滞在時間が5分以内であるときには、統括制御部73は、「早かったね。待ってたからうれしい」などのキャラクター音声を出力する。また、コンビニエンスストアでのユーザの滞在時間が5分以上且つ10分未満(5〜10分)であるときには、統括制御部73は、「何買ってきたの?」などのキャラクター音声を出力する。さらに、コンビニエンスストアでのユーザの滞在時間が10分を超えたときには、統括制御部73は、「遅かったね。心配しちゃったよ」などのキャラクター音声を出力する。 Since steps S51 and S52 in FIG. 18A are the same as steps S31 and S32 in FIG. 16A, description thereof will be omitted. In step S53, the overall control unit 73 acquires the user's staying time at the place specified in step S52. Then, in step S54, the overall control unit 73 outputs the character voice according to the staying time of the user from the speaker 62 based on the voice management table of FIG. 18 (B). For example, when the user stays at the convenience store for less than 5 minutes, the overall control unit 73 outputs a character voice such as "It was early. I'm glad I waited." Further, when the user stays at the convenience store for 5 minutes or more and less than 10 minutes (5 to 10 minutes), the overall control unit 73 outputs a character voice such as "what did you buy?". Further, when the user's staying time at the convenience store exceeds 10 minutes, the overall control unit 73 outputs a character voice such as "It was late. I was worried."

統括制御部73は、GPS受信機60等を用いて取得されたユーザの位置情報に基づいて、以上のような制御を行うとよい。このようにすれば、ユーザは、自身の行動に応じた反応をキャラクターが示してくれたという感覚を得ることができ、当該キャラクターへのユーザの愛着が増大する。 The integrated control unit 73 may perform the above control based on the user's position information acquired by using the GPS receiver 60 or the like. In this way, the user can obtain the feeling that the character has shown a reaction according to his / her own action, and the user's attachment to the character is increased.

なお、上記では、携帯型の表示装置1が例示されているが、例えば、据え置き型の表示装置1であってもよい。例えば、統括制御部73(詳細には、通信制御回路706)が、ユーザのスマートフォン(GPS受信機を備えるスマートフォン)等と通信して、外出中のユーザの位置情報(ユーザが所持しているスマートフォンの位置情報)を取得する。そして、ユーザが帰宅等した後に3Dキャラクター1100とコミュニケーションをとる際に、統括制御部73が、上記のような動作が実行されるように制御するとよい。なお、この際のキャラクター音声や動きの内容は適宜変更されるとよい。 In the above, the portable display device 1 is illustrated, but for example, it may be a stationary display device 1. For example, the integrated control unit 73 (specifically, the communication control circuit 706) communicates with the user's smartphone (smartphone equipped with a GPS receiver) or the like, and the location information of the user who is out (smartphone possessed by the user). (Position information of) is acquired. Then, when the user communicates with the 3D character 1100 after returning home or the like, the overall control unit 73 may control so that the above-mentioned operation is executed. The character voice and the content of the movement at this time may be changed as appropriate.

<3.ユーザの行動パターンに関するコミュニケーション機能について>
また、ユーザの行動パターンが所定の行動パターンに合致すると判断されると、当該所定の行動パターンに応じた音声が3Dキャラクター1100のキャラクター音声として出力されるように制御されるとよい。図19(A)は、行動パターンに関するコミュニケーションを再現するためのフローチャートであり、図19(B)は、行動パターンに関するキャラクター音声の音声管理テーブルを示す図である。
<3. Communication functions related to user behavior patterns>
Further, when it is determined that the user's behavior pattern matches the predetermined behavior pattern, it is preferable to control so that the voice corresponding to the predetermined behavior pattern is output as the character voice of the 3D character 1100. FIG. 19A is a flowchart for reproducing communication related to an action pattern, and FIG. 19B is a diagram showing a voice management table of character voices related to an action pattern.

例えば、統括制御部73において、ユーザが出勤する曜日(例えば、月曜日〜金曜日)と出勤時刻(例えば、8時30分)と出勤時に利用する特定の経路とが、「出勤時の行動パターン」としてユーザ等によって予め登録される。そして、例えば、GPS受信機60からユーザの位置情報が受信される(ステップS61)と、統括制御部73は、ユーザの位置情報に基づいて、ユーザの行動パターンが所定の行動パターンに合致するか否かを判断する(ステップS62)。例えば、ユーザが火曜日の8時30分に特定の経路を通過した場合、統括制御部73は、ユーザの行動パターンが「出勤時の行動パターン」に合致すると判断する。そして、ステップS63において、統括制御部73は、図19(B)の音声管理テーブルに基づいて、「出勤時の行動パターン」に対応付けて登録された音声(例えば、「お仕事がんばってきてね」)を3Dキャラクター1100のキャラクター音声としてスピーカ62から出力する。このようにして、ユーザの行動に応じた反応をキャラクターが示してくれることにより、当該キャラクターへのユーザの愛着を増大させることができる。なお、所定の行動パターン(例えば、出勤時の行動パターン)がユーザによって予め登録されていることは必須ではなく、例えば、統括制御部73が学習機能を有しており、ユーザの行動パターンを学習することによって、所定の行動パターンが登録されるようにしてもよい。 For example, in the overall control unit 73, the day of the week (for example, Monday to Friday) when the user goes to work, the time of work (for example, 8:30), and the specific route used at the time of work are set as the "behavior pattern at work". It is registered in advance by a user or the like. Then, for example, when the user's position information is received from the GPS receiver 60 (step S61), the overall control unit 73 determines whether the user's action pattern matches the predetermined action pattern based on the user's position information. It is determined whether or not (step S62). For example, when the user passes a specific route at 8:30 on Tuesday, the overall control unit 73 determines that the user's behavior pattern matches the "commuting behavior pattern". Then, in step S63, the overall control unit 73 uses the voice management table of FIG. 19 (B) to associate with the “behavior pattern at work” and the registered voice (for example, “Please do your best at work”. ") Is output from the speaker 62 as the character voice of the 3D character 1100. In this way, the character shows a reaction according to the user's behavior, so that the user's attachment to the character can be increased. It is not essential that a predetermined behavior pattern (for example, a behavior pattern at the time of commuting) is registered in advance by the user. For example, the integrated control unit 73 has a learning function to learn the behavior pattern of the user. By doing so, a predetermined behavior pattern may be registered.

<4.不審者の検知に関するコミュニケーション機能について>
また、検知対象空間において検知された人が不審者であると判断されると、所定の動作が実行されるとよい。そして、当該所定の動作が実行された後において、表示装置1のユーザが検知されると、不審者の検知に関する音声が3Dキャラクター1100のキャラクター音声として出力されるとよい。図20は、不審者の検知に関する動作を再現するためのフローチャートである。
<4. Communication function for detecting suspicious persons>
Further, when it is determined that the person detected in the detection target space is a suspicious person, a predetermined operation may be executed. Then, when the user of the display device 1 is detected after the predetermined operation is executed, the voice related to the detection of the suspicious person may be output as the character voice of the 3D character 1100. FIG. 20 is a flowchart for reproducing the operation related to the detection of a suspicious person.

例えば、表示装置1において、表示装置1の正面側に、目視者(ユーザ等)を撮影する撮影部(例えば、カメラ)(不図示)が設けられ、当該撮影部(詳細には、撮影部が有するセンサ)が、検知対象空間における人の存在を検知する検知手段として用いられるとよい。「検知対象空間」としては、例えば、表示装置1が載置されている空間(例えば、ユーザの自宅)における撮影部の画角範囲(撮影可能範囲)が挙げられる。撮影部は、例えばレンズおよび撮像素子(例えばCCDまたはCMOS)を含み、多色の画像を撮影する。撮影部のレンズは、目視者(特に顔)を撮影可能な位置に設けられる。例えば、撮影部のレンズは、上端部51のうち、表示装置1の幅方向における中心付近に設けられる。撮影部は、例えば、R、G、Bの各色成分の画像信号を制御部70に出力する。統括制御部73は、この画像信号を処理して撮影画像を生成する。 For example, in the display device 1, a photographing unit (for example, a camera) (not shown) for photographing a viewer (user or the like) is provided on the front side of the display device 1, and the photographing unit (specifically, the photographing unit) is provided. The sensor) may be used as a detection means for detecting the presence of a person in the detection target space. Examples of the “detection target space” include an angle of view range (photographable range) of a photographing unit in a space in which the display device 1 is placed (for example, the user's home). The photographing unit includes, for example, a lens and an image pickup device (for example, a CCD or CMOS), and captures a multicolored image. The lens of the photographing unit is provided at a position where the viewer (particularly the face) can be photographed. For example, the lens of the photographing unit is provided near the center of the upper end portion 51 in the width direction of the display device 1. The photographing unit outputs, for example, an image signal of each color component of R, G, and B to the control unit 70. The integrated control unit 73 processes this image signal to generate a captured image.

統括制御部73は、当該撮影部を用いて検知対象空間を監視する(ステップS71)。そして、統括制御部73は、検知対象空間において人の存在が検知されると、ステップS72において、例えば顔認証等のユーザ認証を行い、ステップS73において、検知された人物が表示装置1の登録ユーザであるか否かを判断する。統括制御部73は、例えば、撮影部によって撮影された人が表示装置1の登録ユーザであると判断すると、その人物は不審者でないと判断する。一方で、撮影部によって撮影された人が未登録ユーザであると判断されると、ステップS74において、統括制御部73は、その人物は不審者であると判断し、所定の動作を実行する。「所定の動作」としては、例えば、撮影部による録画を開始する動作や、比較的大きな音量で警報を発する動作、予め登録された警備会社に通報する動作などが挙げられる。あるいは、「所定の動作」は、3Dキャラクター1100が不審者に声掛け(例えば、「誰!?合言葉を言って!」)を行う動作であってもよい。そして、不審者と判断された人から返事がない場合、あるいは合言葉が間違っている場合に、上記の録画開始動作等が実行されてもよい。なお、合言葉が間違っている場合に、統括制御部73は、「違うよ!?もう一度言って」などの音声を3Dキャラクター1100のキャラクター音声として出力し、再度合言葉が間違っていると判断したときに、上記の録画開始動作等を実行してもよい。これらのようにすれば、例えば不審者を検知対象空間から撤退させることができ、検知対象空間における防犯性を高めることができる。 The overall control unit 73 monitors the detection target space using the photographing unit (step S71). Then, when the presence of a person is detected in the detection target space, the integrated control unit 73 performs user authentication such as face recognition in step S72, and the detected person is the registered user of the display device 1 in step S73. Judge whether or not. When the integrated control unit 73 determines that the person photographed by the photographing unit is a registered user of the display device 1, for example, the integrated control unit 73 determines that the person is not a suspicious person. On the other hand, when it is determined that the person photographed by the photographing unit is an unregistered user, in step S74, the overall control unit 73 determines that the person is a suspicious person and executes a predetermined operation. Examples of the "predetermined operation" include an operation of starting recording by the photographing unit, an operation of issuing an alarm at a relatively loud volume, an operation of notifying a pre-registered security company, and the like. Alternatively, the "predetermined action" may be an action in which the 3D character 1100 speaks to a suspicious person (for example, "who !? Say the secret word!"). Then, when there is no reply from the person determined to be a suspicious person, or when the password is incorrect, the above-mentioned recording start operation or the like may be executed. When the password is incorrect, the overall control unit 73 outputs a voice such as "No !? Say it again" as the character voice of the 3D character 1100, and when it is determined that the password is incorrect again. , The above recording start operation and the like may be executed. By doing so, for example, a suspicious person can be withdrawn from the detection target space, and crime prevention in the detection target space can be enhanced.

そして、統括制御部73は、所定の動作の実行後において、表示装置1のユーザが検知されると、不審者の検知に関する音声を3Dキャラクター1100のキャラクター音声として出力するとよい。「不審者の検知に関する音声」としては、例えば「怖かったよー」などが挙げられる。このようにすれば、画像表示部20に表示されたキャラクターへのユーザの愛着を増大させることができる。 Then, when the user of the display device 1 is detected after the execution of the predetermined operation, the integrated control unit 73 may output the voice related to the detection of the suspicious person as the character voice of the 3D character 1100. Examples of the "voice related to the detection of a suspicious person" include "I was scared". In this way, the user's attachment to the character displayed on the image display unit 20 can be increased.

また、表示装置1を用いて検知対象空間が監視されている場合、不審者の検知に限らず、次のような動作が行われてもよい。 Further, when the detection target space is monitored by using the display device 1, the following operations may be performed, not limited to the detection of a suspicious person.

例えば、企業の受付スペースに表示装置1が配置され、3Dキャラクター1100が所謂受付嬢として受付業務を行うような表示をするものであってもよい。具体的には、マイクロ波ドップラーセンサ(検知手段の一例)によって検知対象空間(例えば受付スペース)における人の接近が検知されると、統括制御部73は、「いらっしゃいませ。どちらの部署に御用でしょうか?」などの音声を3Dキャラクター1100のキャラクター音声として出力するとよい。そして、統括制御部73は、検知された人(来客者)からの返答に基づいて、来客者の所望の部署に電話を掛けるように制御するとよい。 For example, the display device 1 may be arranged in the reception space of the company to display the 3D character 1100 as a so-called receptionist. Specifically, when a microwave Doppler sensor (an example of detection means) detects the approach of a person in the detection target space (for example, reception space), the overall control unit 73 says, "Welcome. Which department do you use? It is advisable to output a voice such as "?" As the character voice of the 3D character 1100. Then, the overall control unit 73 may control to make a call to the desired department of the visitor based on the response from the detected person (visitor).

<5.表示装置1の起動時間に関するコミュニケーション機能について>
また、統括制御部73は、3Dキャラクター1100のキャラクター音声での言葉使いが所定の時点(例えば、初回の起動時点)からの表示装置1の起動時間(例えば、累積起動時間)に応じて、コミュニケーションの内容が変化するように制御するとよい。例えば、統括制御部73は、次述するように、表示装置1の起動時間が長くなるほど、3Dキャラクター1100がユーザに対して親しい言葉使いで発話するように制御するとよい。
<5. Communication function related to the startup time of display device 1>
Further, the overall control unit 73 communicates with the 3D character 1100 in terms of wording in the character voice according to the activation time (for example, cumulative activation time) of the display device 1 from a predetermined time point (for example, the first activation time). It is good to control so that the contents of are changed. For example, as described below, the overall control unit 73 may control the 3D character 1100 to speak in familiar language to the user as the activation time of the display device 1 becomes longer.

例えば、上述のような種々のキャラクター音声について、敬語調、ユーザと友人関係であるような言葉調、およびユーザと恋人関係であるような言葉調の3パターンのキャラクター音声が予め音声管理テーブルに登録されるとよい。そして、例えば、所定の時点からの表示装置1の起動時間が100時間未満のときには、統括制御部73は、音声管理テーブルに登録されている3パターンのキャラクター音声のうち、敬語調のキャラクター音声を出力する。また、当該起動時間が100時間以上且つ1000時間未満のときには、統括制御部73は、音声管理テーブルに登録されている3パターンのキャラクター音声のうち、ユーザと友人関係であるような言葉調のキャラクター音声を出力する。さらに、起動時間が1000時間を超えると、統括制御部73は、音声管理テーブルに登録されている3パターンのキャラクター音声のうち、ユーザと恋人関係であるような言葉調のキャラクター音声を出力する。 For example, for the various character voices described above, three patterns of character voices, such as honorific tone, language tone that has a friendship with the user, and language tone that has a lover relationship with the user, are registered in the voice management table in advance. It should be done. Then, for example, when the activation time of the display device 1 from a predetermined time point is less than 100 hours, the general control unit 73 selects the honorific character voice among the three patterns of character voices registered in the voice management table. Output. When the activation time is 100 hours or more and less than 1000 hours, the overall control unit 73 has a character with a tone that seems to have a friendship with the user among the three patterns of character voices registered in the voice management table. Output audio. Further, when the activation time exceeds 1000 hours, the overall control unit 73 outputs a character voice having a tone that seems to have a lover relationship with the user among the three patterns of character voices registered in the voice management table.

このようにすると、ユーザは、ユーザ自身に対するキャラクターの言葉使いが変化したことによって、当該キャラクターとの関係性(例えば親密度)が変化したことを感じることができる。 In this way, the user can feel that the relationship (for example, intimacy) with the character has changed due to the change in the wording of the character with respect to the user himself / herself.

なお、統括制御部73は、前回の起動からの経過時間によっては、ユーザに対する3Dキャラクター1100の親密度を低下させるように制御してもよい。例えば、表示装置1の累積起動時間が100時間を超えている場合であっても、前回の起動から1週間が経過しているときには、統括制御部73は、ユーザと対等な言葉調ではなく、敬語調のキャラクター音声を出力するようにしてもよい。このようにすれば、ユーザが、画像表示部20に表示されたキャラクターとの親密度を維持するために極力間隔を空けずに当該キャラクターと接するようになり、当該キャラクターへの愛着を更に増大させることができる。 The integrated control unit 73 may be controlled so as to reduce the intimacy of the 3D character 1100 with respect to the user depending on the elapsed time from the previous activation. For example, even if the cumulative start-up time of the display device 1 exceeds 100 hours, when one week has passed since the previous start-up, the overall control unit 73 is not in the same tone as the user. The honorific character voice may be output. In this way, the user comes into contact with the character with as little space as possible in order to maintain intimacy with the character displayed on the image display unit 20, further increasing the attachment to the character. be able to.

また、統括制御部73は、初回の起動時点では「初めまして」などの挨拶の音声をキャラクター音声として出力し、初回の起動時点から所定期間(例えば、1カ月など区切りの良い期間)が経過した時点では、記念日を示す内容(例えば、「出会って1カ月だね」)の音声をキャラクター音声として出力するとよい。このようにすれば、3Dキャラクター1100への愛着を更に増大させることができる。 Further, the overall control unit 73 outputs a greeting voice such as "Nice to meet you" as a character voice at the time of the first start-up, and a predetermined period (for example, a well-separated period such as one month) has elapsed from the first start-up time. At this point, it is advisable to output a voice indicating an anniversary (for example, "It's been a month since we met") as a character voice. In this way, the attachment to the 3D character 1100 can be further increased.

<6.他の機器との連携によるコミュニケーション機能について>
また、例えば据え置き型の表示装置1において、他の機器との連携によって次述のような動作が実行されてもよい。例えば、表示装置1と通信可能な機器(以下、他の機器と称する)が設置されている場所にユーザが訪問すると、当該他の機器の制御部(CPU等)が、次述のようにして、ユーザを識別するとともに、当該ユーザに適した情報(例えば、グルメ情報やイベント情報)を自動的に案内するようにしてもよい。例えば、表示装置と他の機器との連携システムを利用する利用ユーザの顔画像と当該利用ユーザが所有する表示装置(例えばIPアドレス等)とが対応付けられて予め外部サーバ等に登録される。当該他の機器の制御部は、例えば当該他の機器に設けられた撮影部が有するセンサによって人が検知されると、撮影画像において検知された人の顔画像と外部サーバに登録された利用ユーザの顔画像とを比較することによって表示装置1のユーザを識別する。そして、当該他の機器の制御部は、外部サーバにおいて当該ユーザに対応付けて登録されている表示装置1(例えば、表示装置1のIPアドレス等)を特定し、表示装置1のユーザが検知されたことを示す情報を当該表示装置1に送信する。表示装置1の統括制御部73には、「ユーザに適した情報」(例えば、グルメ情報やイベント情報)が予め登録されており、統括制御部73は、当該他の機器からの信号受信に応じて、登録されている「ユーザに適した情報」を当該他の機器に送信する。そして、当該他の機器の制御部は、表示装置1から受信された「ユーザに適した情報」を出力(例えば、音声出力)する。なお、「ユーザに適した情報」の案内に際して、当該他の機器は、その表示画面に3Dキャラクター1100を表示させるとよい。また、ユーザに案内した情報等が当該他の機器から表示装置1に送信され、表示装置1の統括制御部73においてユーザ情報として蓄積されるとよい。そして、例えば表示装置1がユーザの自宅に設置されている場合、ユーザの帰宅が検知されると、統括制御部73は、「**に行ってきたでしょ、どうだった?」などの音声を3Dキャラクター1100のキャラクター音声として出力するとよい。このようにすれば、画像表示部20に表示されたキャラクターへのユーザの愛着を増大させることができる。
<6. Communication function by linking with other devices>
Further, for example, in the stationary display device 1, the following operations may be executed in cooperation with other devices. For example, when a user visits a place where a device capable of communicating with the display device 1 (hereinafter referred to as another device) is installed, a control unit (CPU or the like) of the other device moves as described below. , The user may be identified, and information suitable for the user (for example, gourmet information or event information) may be automatically guided. For example, a face image of a user who uses a system for linking a display device with another device and a display device (for example, an IP address) owned by the user are associated with each other and registered in advance in an external server or the like. When a person is detected by a sensor provided in the photographing unit provided in the other device, for example, the control unit of the other device includes the face image of the person detected in the photographed image and the user registered in the external server. The user of the display device 1 is identified by comparing with the face image of. Then, the control unit of the other device identifies the display device 1 (for example, the IP address of the display device 1) registered in association with the user on the external server, and the user of the display device 1 is detected. Information indicating that the fact is transmitted to the display device 1. "Information suitable for the user" (for example, gourmet information and event information) is registered in advance in the integrated control unit 73 of the display device 1, and the integrated control unit 73 responds to signal reception from the other device. Then, the registered "information suitable for the user" is transmitted to the other device. Then, the control unit of the other device outputs (for example, voice output) "information suitable for the user" received from the display device 1. In addition, when guiding "information suitable for the user", the other device may display the 3D character 1100 on its display screen. Further, it is preferable that the information or the like guided to the user is transmitted from the other device to the display device 1 and stored as user information in the integrated control unit 73 of the display device 1. Then, for example, when the display device 1 is installed at the user's home, when the user's return home is detected, the overall control unit 73 makes a voice such as "You went to **, how was it?" It is preferable to output it as the character voice of the 3D character 1100. In this way, the user's attachment to the character displayed on the image display unit 20 can be increased.

<7.その他のコミュニケーション機能について>
さらに、種々のセンサによる検知結果に基づいて次のような制御が行われてもよい。
<7. About other communication functions >
Further, the following control may be performed based on the detection results by various sensors.

例えば、風(例えば、風速)を検知可能な風検知手段(例えば、風センサ)が表示装置1の開口部5の下端部52付近に設けられ、当該風センサによる検知結果に基づいて次のような制御が行われてもよい。風は、例えばユーザが人為的に起こしたものとするとよく、例えば表示装置1に向けて手を振る等の身体の部位を動かすことによって発生する風や息(呼気)を吹きかけることによって発生する風とするとよい。例えば、所定値以上の風速の風が風センサによって検知されると、統括制御部73は、画像表示部20に表示されたキャラクター(例えば、3Dキャラクター1100)の毛(例えば、髪の毛)や衣服(例えば、スカート)がなびく映像を表示出力するとよい。また、例えば、火のついたろうそくの映像が画像表示部20に表示されている場合において、風センサによって風が検知されると、統括制御部73は、ろうそくの火が消える映像に切り替えるとよい。さらには、検知された風が所定の閾値よりも強い(風速が所定の閾値よりも大きい)ときには3Dキャラクター1100の衣服がより大きくなびくなど、統括制御部73は、検知された風の強度(例えば、風速)に応じて映像を切り替えるとよい。 For example, a wind detecting means (for example, a wind sensor) capable of detecting wind (for example, wind speed) is provided near the lower end portion 52 of the opening 5 of the display device 1, and is as follows based on the detection result by the wind sensor. Control may be performed. The wind may be artificially generated by, for example, the wind generated by moving a part of the body such as waving toward the display device 1 or the wind generated by blowing breath (breath). It is good to say. For example, when a wind with a wind speed equal to or higher than a predetermined value is detected by the wind sensor, the general control unit 73 determines the hair (for example, hair) or clothes (for example, hair) of the character (for example, 3D character 1100) displayed on the image display unit 20. For example, it is preferable to display and output an image in which the skirt) is fluttering. Further, for example, when an image of a lit candle is displayed on the image display unit 20, when the wind is detected by the wind sensor, the overall control unit 73 may switch to an image in which the candle is extinguished. .. Further, when the detected wind is stronger than the predetermined threshold value (the wind speed is larger than the predetermined threshold value), the clothes of the 3D character 1100 flutter more, and the control unit 73 determines the detected wind intensity (for example, , Wind speed), it is good to switch the image.

また、例えば、対象物の有無(存否)および対象物までの距離を検知可能な物体検出手段(例えば、超音波センサ)が表示装置1の筐体10の内周面において筐体10の内方側に向けて設置され、当該超音波センサによる検知結果に基づいて次のような制御が行われてもよい。例えば、統括制御部73は、超音波センサによる検知結果に基づいて、筐体10内において立体視表示されている3Dキャラクター1100に目視者の手が触れていると判断すると、当該3Dキャラクター1100が反応を示す映像を表示出力するとよい。また、統括制御部73は、3Dキャラクター1100において目視者によって触れられた部位に応じて異なる反応を示すように表示制御するとよい。3Dキャラクター1100において観察者によって触れられる部位は、例えば、頭部、胸部、腹部、臀部または脚部等で例示される身体の部位とするとよい。また、3Dキャラクター1100において観察者によって触れられる部位は、3Dキャラクター1100の衣服(例えば洋服、スカート)や装飾物(例えば、アクセサリー)とするとよい。 Further, for example, an object detecting means (for example, an ultrasonic sensor) capable of detecting the presence / absence (presence / absence) of an object and the distance to the object is inside the housing 10 on the inner peripheral surface of the housing 10 of the display device 1. It may be installed facing the side, and the following control may be performed based on the detection result by the ultrasonic sensor. For example, when the general control unit 73 determines that the 3D character 1100 that is stereoscopically displayed in the housing 10 is touched by the viewer's hand based on the detection result by the ultrasonic sensor, the 3D character 1100 determines that the 3D character 1100 is touching. It is advisable to display and output an image showing the reaction. Further, the overall control unit 73 may display and control the 3D character 1100 so as to show a different reaction depending on the part touched by the viewer. The part touched by the observer in the 3D character 1100 may be, for example, a part of the body exemplified by the head, chest, abdomen, buttocks, legs, or the like. Further, the portion of the 3D character 1100 that is touched by the observer may be the clothes (for example, clothes, skirt) or decoration (for example, accessories) of the 3D character 1100.

また、例えば、地震を感知し震度を測定可能な地震検知手段(例えば、感震センサ)が表示装置1に設けられ、統括制御部73は、当該感震センサによって地震が検知されると、地震警報を発するとよい。 Further, for example, an earthquake detection means (for example, a seismic sensor) capable of detecting an earthquake and measuring a seismic intensity is provided in the display device 1, and when the general control unit 73 detects an earthquake by the seismic sensor, an earthquake occurs. You should issue an alarm.

また、例えば、天気を計測可能な天気センサが表示装置1に設けられ、統括制御部73は、当該天気センサによる計測結果に基づいて、天気の変化や天気予報等を通知するとよい。なお、天気センサは、例えば、気圧センサと温度センサと湿度センサとを有し、各センサの検知結果に基づいて天気を計測可能に構成されているとよい。 Further, for example, a weather sensor capable of measuring the weather may be provided in the display device 1, and the integrated control unit 73 may notify a change in the weather, a weather forecast, or the like based on the measurement result by the weather sensor. The weather sensor may include, for example, a barometric pressure sensor, a temperature sensor, and a humidity sensor, and may be configured to be capable of measuring the weather based on the detection results of each sensor.

また、統括制御部73は、温度センサによって検知された温度または/および湿度センサによって検知された湿度に応じて、画像表示部20に表示されたキャラクターの表情や動き(モーションともいう)が変化する映像を表示するとよい。 Further, the integrated control unit 73 changes the facial expression and movement (also referred to as motion) of the character displayed on the image display unit 20 according to the temperature and / or the humidity detected by the temperature sensor. It is good to display the image.

また、統括制御部73は、マイクロ波ドップラーセンサなどの人感センサによる検知結果(例えば、表示装置1と目視者との距離)に応じて、画像表示部20に表示されたキャラクターの表情や動きが変化する映像を表示するとよい。 Further, the integrated control unit 73 receives the facial expression and movement of the character displayed on the image display unit 20 according to the detection result (for example, the distance between the display device 1 and the viewer) by a human sensor such as a microwave Doppler sensor. It is good to display an image in which is changing.

また、統括制御部73は、湿度センサを利用して、ユーザによって息が吹きかけられたか否かを判断するとよい。さらには、統括制御部73は、温度センサをも利用して、ユーザによって吹きかけられた息の種類を判断するとよい。なお、これらのセンサは、例えば、表示装置1の開口部5の下端部52付近に設けられるとよい。 In addition, the integrated control unit 73 may use the humidity sensor to determine whether or not the user has blown. Further, the integrated control unit 73 may also use the temperature sensor to determine the type of breath blown by the user. It is preferable that these sensors are provided near the lower end portion 52 of the opening portion 5 of the display device 1, for example.

ここで、ユーザによって吹きかけられる息には、例えば、「フー」と吹きかける息、および「ハー」と吹きかける息、の2種類の息がある。なお、一般に、冷たい息を吹きかけるときには、速く「フー」と息を吹くことから、ここでは、「フー」と吹きかける息を「冷たい息」と呼ぶ。また、一般に、暖かい息を吹きかけるときには、ゆっくり「ハー」と息を吹くことから、ここでは、「ハー」と吹きかける息を「暖かい息」と呼ぶ。 Here, there are two types of breaths blown by the user, for example, a breath blown with "fu" and a breath blown with "har". In general, when a cold breath is blown, the person blows quickly with "fu". Therefore, the breath blown with "fu" is referred to as "cold breath" here. In general, when a warm breath is blown, the breath is slowly blown with "har", so here, the breath blown with "har" is referred to as "warm breath".

この2種類の息に関して、本願の発明者は、実験等により次のような知見を得た。詳細には、まず、湿度に関して、温湿度センサ(例えば、温度センサと湿度センサとが一体化されたセンサ)から所定程度離れた位置において当該温湿度センサに向けて「フー」と息を吹きかけると、その直後に湿度が定常状態から急激に上昇する、との測定結果が得られた。また、その後、息を吹きかけている間は湿度が単調増加し、息の吹きかけを停止すると、元の定常状態に戻るまでに数十秒の時間を要する、との測定結果が得られた。同条件で温湿度センサに向けて「ハー」と息を吹きかけたときも、同様の測定結果が得られた。一方で、温度に関しては、「フー」と息を吹きかけた場合は、温度が定常状態から若干低下するかほぼ横ばいとなり、「ハー」と息を吹きかけた場合は、温度が上昇する、との測定結果が得られた。なお、ユーザが表示装置1に吹きかける息は、表示装置1に当たる風の一例である。 Regarding these two types of breath, the inventor of the present application obtained the following findings through experiments and the like. Specifically, first, regarding humidity, when a temperature / humidity sensor (for example, a sensor in which a temperature sensor and a humidity sensor are integrated) is separated from the temperature / humidity sensor by a predetermined degree, a breath is blown toward the temperature / humidity sensor. Immediately after that, the measurement result was obtained that the humidity rises sharply from the steady state. After that, the humidity increased monotonically while breathing, and when the breathing was stopped, it took several tens of seconds to return to the original steady state. Similar measurement results were obtained when a breath was blown toward the temperature / humidity sensor under the same conditions. On the other hand, regarding the temperature, it is measured that when you blow "Fu", the temperature drops slightly from the steady state or becomes almost flat, and when you blow "Har", the temperature rises. Results were obtained. The breath that the user blows on the display device 1 is an example of the wind that hits the display device 1.

このような知見等を考慮して、例えば、湿度センサが設けられた表示装置1において、湿度が定常状態から急激に上昇したことが湿度センサによって検知されると、統括制御部73は、目視者によって息が吹きかけられたと判断(決定ともいう)するとよい。さらに、その後において湿度の単調増加が検知されなくなると、統括制御部73は、息の吹きかけが停止されたと判断するとよい。あるいは、湿度の急激な上昇が検知されてから所定時間(例えば、通常息を吐くのに要する時間(例えば、3秒程度))が経過すると、統括制御部73は、その時点での湿度の検知結果にかかわらず、息の吹きかけが停止されたと判断するとよい。 In consideration of such knowledge and the like, for example, in the display device 1 provided with the humidity sensor, when the humidity sensor detects that the humidity has risen sharply from the steady state, the integrated control unit 73 causes the viewer. It is good to judge (also called a decision) that the breath was blown by. Further, when the monotonous increase in humidity is no longer detected after that, the overall control unit 73 may determine that the blowing of breath has been stopped. Alternatively, when a predetermined time (for example, the time normally required for exhaling (for example, about 3 seconds)) elapses after the sudden rise in humidity is detected, the integrated control unit 73 detects the humidity at that time. Regardless of the result, it is good to judge that the breathing has stopped.

さらに、湿度の急激な上昇が湿度センサによって検知された際に、(例えば、ほぼ同じタイミングで)温度が定常状態から上昇したことが温度センサによって検知されると、統括制御部73は、目視者によって吹きかけられた息の種類が「暖かい息」であると判断するとよい。逆に、湿度の急激な上昇が湿度センサによって検知された際に、温度が定常状態から変化していないこと、あるいは定常状態から下降したことが温度センサによって検知されると、統括制御部73は、目視者によって吹きかけられた息の種類が「冷たい息」であると判断するとよい。 Further, when the humidity sensor detects a sudden rise in humidity and the temperature sensor detects that the temperature has risen from the steady state (for example, at almost the same timing), the integrated control unit 73 tells the viewer. It is advisable to judge that the type of breath blown by is "warm breath". On the contrary, when the humidity sensor detects a sudden rise in humidity and the temperature sensor detects that the temperature has not changed from the steady state or has fallen from the steady state, the integrated control unit 73 , It is advisable to judge that the type of breath blown by the viewer is "cold breath".

そして、統括制御部73は、息の吹きかけが検知されたことに応じた映像や音声を、画像表示部20に表示されたキャラクターの動きやキャラクター音声として出力するとよい。また、統括制御部73は、吹きかけられた息の種類に応じた映像や音声を、画像表示部20に表示されたキャラクターの動きやキャラクター音声として出力するとよい。例えば、統括制御部73は、目視者によって吹きかけられた息の種類が「冷たい息」である場合は、当該キャラクターの衣服がなびく映像を表示出力し、目視者によって吹きかけられた息の種類が「暖かい息」である場合は、当該キャラクターが息を避けるような動きを行う映像を表示出力するとよい。 Then, the overall control unit 73 may output the video or sound corresponding to the detection of the blowing of breath as the movement of the character displayed on the image display unit 20 or the character sound. Further, the overall control unit 73 may output a video or sound according to the type of breath blown as a character movement or character sound displayed on the image display unit 20. For example, when the type of breath blown by the viewer is "cold breath", the overall control unit 73 displays and outputs an image of the character's clothes fluttering, and the type of breath blown by the viewer is "". In the case of "warm breath", it is advisable to display and output an image in which the character moves to avoid breathing.

また、本願の発明者は、種々のガスセンサを用いて次のような知見も得た。詳細には、ガスセンサから所定程度(例えば約10cm)離れた位置において当該ガスセンサに向けて「フー」と息を吹きかけると、その直後にガスセンサの出力値が下降し、息を吹き終えると、その直後にガスセンサの出力値が上昇に転じる、との測定結果が得られた。逆に、当該ガスセンサに向けて「ハー」と息を吹きかけると、その直後にガスセンサの出力値が上昇し、息を吹き終えると、その直後にガスセンサの出力値が下降に転じる、との測定結果が得られた。また、例えば送風機(例えば、扇風機)から送られた風がガスセンサに当たると、ガスセンサの出力値が下がり、扇風機からの風がガスセンサに当たらなくなると、ガスセンサの出力値が上がる、との測定結果が得られた。 In addition, the inventor of the present application has also obtained the following findings using various gas sensors. Specifically, when a breath is blown toward the gas sensor at a predetermined position (for example, about 10 cm) away from the gas sensor, the output value of the gas sensor drops immediately after that, and immediately after the breath is finished. The measurement result was obtained that the output value of the gas sensor started to increase. On the contrary, the measurement result shows that when a breath is blown toward the gas sensor, the output value of the gas sensor rises immediately after that, and when the breath is finished, the output value of the gas sensor starts to fall immediately after that. was gotten. Further, for example, when the wind sent from the blower (for example, a fan) hits the gas sensor, the output value of the gas sensor decreases, and when the wind from the fan does not hit the gas sensor, the output value of the gas sensor increases. Was done.

このような知見等を考慮して、統括制御部73は、例えば、ガスセンサが設けられた表示装置1において、ガスセンサの出力値が定常状態から急激に下降すると、目視者によって吹きかけられた息の種類が「冷たい息」であると判断するとよい。逆に、ガスセンサの出力値が定常状態から急激に上昇すると、統括制御部73は、目視者によって吹きかけられた息の種類が「暖かい息」であると判断するとよい。 In consideration of such knowledge, the integrated control unit 73, for example, in the display device 1 provided with the gas sensor, when the output value of the gas sensor suddenly drops from the steady state, the type of breath blown by the visual operator. Should be judged to be "cold breath". On the contrary, when the output value of the gas sensor rises sharply from the steady state, the overall control unit 73 may determine that the type of breath blown by the visual operator is "warm breath".

風センサを用いて息を検出する構成とすることもできる。本願の発明者は、風センサによると紙で仰ぐ程度の比較的弱い風を捉えることができることがあり、風センサに息を吹きかけるとすぐにピークになり、風が吹き始めるときの応答性が良いことを確認した。ただし、息を吹きつづけると、ピークからすぐに落ちてしまう。フーっと吹く息のような強い風だとヒーターが冷やされ、回復するのに時間が掛かることが考えられる。 It is also possible to use a wind sensor to detect breath. According to the wind sensor, the inventor of the present application may be able to catch a relatively weak wind as high as a piece of paper, peaks as soon as the wind sensor is blown, and has good responsiveness when the wind starts to blow. It was confirmed. However, if you keep breathing, it will fall off the peak immediately. A strong wind like a fluffy breath may cool the heater and take some time to recover.

風センサを用いて息を検出する構成に関連し、以下のような構成をしてもよい。 In relation to the configuration in which breath is detected using a wind sensor, the following configuration may be used.

統括制御部73は、風センサにより持続的に所定の風量を検出している場合、息を吹きかけられている状態ではない方向の処理をするとよい。息を吹きかけられている状態ではない方向の処理は、例えば、息が吹きかけられていないと判断する処理である。この場合に、統括制御部73は、風センサにより風の検出が始まってから終わるまでの時間が、息の吹きかけが可能な時間内であるとき、息を吹きかけられている状態である方向の処理を行うようにするとよい。 When the integrated control unit 73 continuously detects a predetermined air volume by the wind sensor, it is preferable to perform processing in a direction other than the state in which breath is being blown. The process in the direction in which the breath is not blown is, for example, the process of determining that the breath is not blown. In this case, the integrated control unit 73 processes the direction in which the wind is being blown when the time from the start to the end of the wind detection by the wind sensor is within the time during which the breath can be blown. It is good to do.

この場合において、前記風センサは、風を受けることで奪われた熱を電気的に計測することで風を検出するセンサであってもよい。このセンサにおいては、当該センサに受ける風が、息が吹きかけられた風量に相当する。このセンサは、センサに受ける風が、息が吹きかけられた時間に相当する時間持続した場合に、当該持続の時間中に実際の風量よりも少ない値に落ち込むよう設定されており、センサに受ける風が、息が吹きかけられた風量よりも小さい場合にはこの落ち込みが発生しにくいように設定されているとよい。 In this case, the wind sensor may be a sensor that detects the wind by electrically measuring the heat taken away by receiving the wind. In this sensor, the wind received by the sensor corresponds to the amount of air blown by the sensor. This sensor is set so that when the wind received by the sensor lasts for a time corresponding to the time when the breath is blown, it drops to a value less than the actual air volume during the duration, and the wind received by the sensor. However, when the air volume is smaller than the air volume blown by the breath, it is preferable that the setting is made so that this dip is unlikely to occur.

表示装置1においては、前記風センサとして複数の風センサに対して、息の流入経路を共通とした風を流入させる流路が設けられてもよい。前記流路は、異なる風センサに対して、1:1ではない所定の比率で風が入るように構成されているとよい。統括制御部73は、当該比率及び複数の風センサの特性の違いに基づいて息を吹きかけの大きさ及び時間を判定するとよい。表示装置1は前記持続の時間中に実際の風量よりも少ない値に落ち込むタイミングの異なる複数の風センサを備え、統括制御部73は当該複数の風センサの出力に基づいて、息を吹きかけの大きさ及び時間を判定するとよい。表示装置1は、前記複数の風センサとして、ガスセンサではない風センサと、カスセンサとを少なくとも備えてもよい。 In the display device 1, as the wind sensor, a flow path for inflowing wind having a common breath inflow path may be provided for a plurality of wind sensors. The flow path may be configured so that wind enters different wind sensors at a predetermined ratio other than 1: 1. The overall control unit 73 may determine the size and time of breathing based on the ratio and the difference in the characteristics of the plurality of wind sensors. The display device 1 includes a plurality of wind sensors having different timings of dropping to a value smaller than the actual air volume during the duration, and the overall control unit 73 blows a large amount of breath based on the outputs of the plurality of wind sensors. It is good to judge the time and time. The display device 1 may include at least a wind sensor other than a gas sensor and a cas sensor as the plurality of wind sensors.

また、前記風センサとして所定のガスを検出するためのガスセンサを用いるとよい。前記風センサとして所定のガスを検出するためのガスセンサであって、ヒーターを備えるガスセンサを用いるとよい。この場合に、前記ヒーターを備えるガスセンサは、息の吹きかけの程度が相対的に小さいときに(息に含まれるガスを検出した結果)ガスの検出量が大きくなる方向の出力をする一方、息の吹きかけの程度が相対的に大きいときに(息の風によるヒーターの冷却によって)ガスの検出量が小さくなる方向の出力をする特性を有するものを用いるとよい。 Further, it is preferable to use a gas sensor for detecting a predetermined gas as the wind sensor. As the wind sensor, a gas sensor for detecting a predetermined gas, which is provided with a heater, may be used. In this case, the gas sensor provided with the heater outputs in the direction in which the amount of gas detected increases when the degree of breath blowing is relatively small (as a result of detecting the gas contained in the breath), while the breath When the degree of spraying is relatively large (by cooling the heater with the wind of breath), it is preferable to use a gas having a characteristic of outputting in a direction in which the detected amount of gas becomes small.

統括制御部73が、息が吹きかけられていると判定したとき、その強さが相対的に大きいときには(例えば、風量が閾値以上であるときには)、3Dキャラクター1100の服・髪などを動かすアニメーションを表示する一方、その強さが相対的に小さいときには3Dキャラクター1100の服・髪などを動かすアニメーションとは別のアニメーションを表示するとよい。 When the general control unit 73 determines that breath is being blown, when the strength is relatively large (for example, when the air volume is equal to or higher than the threshold value), an animation for moving clothes, hair, etc. of the 3D character 1100 is performed. On the other hand, when the strength is relatively small, it is preferable to display an animation different from the animation of moving the clothes, hair, etc. of the 3D character 1100.

ところで、息の検出にガスセンサを用いる場合、ガスセンサは、人間の息に含まれる成分(例えば、二酸化炭素)に反応して上記出力値を出力する。そして、「フー」という息が吹きかけられた場合と、「ハー」という息が吹きかけられた場合とで、ガスセンサの出力値が異な理由としては、「フー」という息が吹きかけられた場合は、吹きかけられた息の速度が高く、ガスセンサに衝突した後すぐに周囲に拡散しやすい一方、「ハー」という息が吹きかけられた場合は、吹きかけられた息の速度が低く、ガスセンサに衝突した後もその場に息の成分がとどまりやすいということがあると考えられる。 By the way, when a gas sensor is used for breath detection, the gas sensor outputs the above output value in response to a component (for example, carbon dioxide) contained in human breath. The reason why the output value of the gas sensor is different between the case where the breath "Fu" is blown and the case where the breath "Har" is blown is that when the breath "Fu" is blown, it is sprayed. The speed of the breath is high and it is easy to diffuse to the surroundings immediately after colliding with the gas sensor, while when the breath "Har" is blown, the speed of the blown breath is low and even after colliding with the gas sensor. It is thought that the components of breath tend to stay in the field.

さらに、統括制御部73は、例えば湿度センサによる湿度の検知結果をも用いて、検知された風が、目視者による息の吹きかけによるものであるか、送風機によるものであるか、を判別するとよい。例えば、表示装置1において、ガスセンサの出力値が定常状態から急激に下降し、且つ、湿度が定常状態から急激に上昇したことが湿度センサによって検知されると、統括制御部73は、ユーザによって息が吹きかけられたと判断するとよい。一方、ガスセンサの出力値が定常状態から急激に下降したものの、湿度が定常状態のままであるときには、統括制御部73は、送風機によって風が送られていると判断するとよい。さらに、統括制御部73は、温度センサによる温度の検知結果をも用いて、ユーザによって息が吹きかけられたと判断された際において、その息の種類を判断するとよい。また、比較的短い一定期間内においてガスセンサの出力値の上昇と下降とが繰り返された場合、統括制御部73は、首振りしている扇風機の風が当たっていると判断するとよい。 Further, the integrated control unit 73 may also use, for example, the humidity detection result by the humidity sensor to determine whether the detected wind is due to the blow of breath by the visual eye or due to the blower. .. For example, in the display device 1, when the humidity sensor detects that the output value of the gas sensor suddenly drops from the steady state and the humidity rises sharply from the steady state, the integrated control unit 73 breathes by the user. It is good to judge that was sprayed. On the other hand, when the output value of the gas sensor drops sharply from the steady state but the humidity remains in the steady state, the overall control unit 73 may determine that the wind is being sent by the blower. Further, the integrated control unit 73 may also use the temperature detection result of the temperature sensor to determine the type of breath when it is determined that the user has blown. Further, when the output value of the gas sensor is repeatedly increased and decreased within a relatively short fixed period, the overall control unit 73 may determine that the wind of the swinging fan is hitting.

なお、風を検知するために用いられる、風センサ、湿度センサ、温度センサ、温湿度センサ、およびガスセンサは風検知手段の一例である。表示装置1は、風を検知するセンサとして、気圧センサを有してもよい。風の発生やその強さによって気圧の変化が発生し得るからである。 The wind sensor, humidity sensor, temperature sensor, temperature / humidity sensor, and gas sensor used for detecting the wind are examples of the wind detecting means. The display device 1 may have a barometric pressure sensor as a sensor for detecting wind. This is because changes in atmospheric pressure can occur depending on the generation of wind and its strength.

以上のような種々の制御が実行され得る。なお、上記のような制御は、3Dキャラクター1100に限らず、他のキャラクター(例えば、3Dキャラクター1200)に関するコミュニケーション機能について行われてもよい。 Various controls as described above can be executed. The above control is not limited to the 3D character 1100, and may be performed for a communication function related to another character (for example, the 3D character 1200).

[三次元画像等の表示例]
以上のような構成を備える表示装置1において、三次元画像(特に、例えば、3Dキャラクターを表示する三次元画像)に関して以下のような表示が行われるとよい。以下のような表示は、例えば、上述した「コミュニケーション機能」の一例として実行されるとよい。なお、以下のような表示は、例えば、統括制御部73がROM702内の3Dアプリケーションを実行することによって再現されるとよい。
[Display example of 3D image, etc.]
In the display device 1 having the above configuration, the following display may be performed on a three-dimensional image (particularly, a three-dimensional image displaying a 3D character). The following display may be executed as an example of the above-mentioned "communication function", for example. The following display may be reproduced, for example, by the integrated control unit 73 executing the 3D application in the ROM 702.

例えば、図示を省略するが、統括制御部73が、キャラクターの身体の一部に動きがあるときに当該キャラクターのパース(例えば、パース画像とも称される)を変更するとよい。このようにすれば、当該キャラクターに躍動感を与えることができる。 For example, although not shown, the overall control unit 73 may change the perspective of the character (also referred to as a perspective image) when a part of the character's body is moving. In this way, the character can be given a sense of dynamism.

例えば、図示を省略するが、キャラクターと目視者との会話によってキャラクターが怒り、当該キャラクターがパンチを繰り出す演出が行われるときには、統括制御部73が、3Dアプリケーション内におけるカメラの手前側にキャラクターの手が映るようにカメラ位置を制御するとともに、パースを通常の状態よりも強調した状態へと、少なくともパンチをしている期間に亘って変更するように制御するとよい。そして、統括制御部73は、キャラクターのパンチが終わると、パースを通常の状態に戻すように制御するとよい。 For example, although not shown, when the character gets angry due to the conversation between the character and the viewer and the character punches out, the general control unit 73 moves the character's hand to the front side of the camera in the 3D application. It is advisable to control the camera position so that the image can be seen, and to change the perspective to a state in which the perspective is emphasized more than the normal state, at least during the punching period. Then, the overall control unit 73 may control the perspective to return to the normal state when the punching of the character is completed.

また、裸眼立体視で3Dキャラクターを減光部材30よりも前面に飛び出して見せるように左右のカメラの間隔(例えば、3Dアプリケーションでの間隔設定値)を調整するときにおいて、飛び出し具合を大きくすると、3Dキャラクターが前後方向に間延びして見える、という問題がある。このような問題を考慮して、統括制御部73が、飛び出し具合を大きくするにつれて(例えば、左右カメラの間隔を広げるにつれて)、3Dキャラクターの前後方向を押しつぶすように画像処理を実行するとよい。特に、飛び出しの度合いに応じた押しつぶし量が設けられ、3Dキャラクターが前面側に飛び出すほど、押しつぶし量が大きくなるようにするとよい。 In addition, when adjusting the distance between the left and right cameras (for example, the distance setting value in a 3D application) so that the 3D character appears to protrude in front of the dimming member 30 in autostereoscopic viewing, if the degree of protrusion is increased, There is a problem that the 3D character appears to be extended in the front-back direction. In consideration of such a problem, it is preferable that the overall control unit 73 performs image processing so as to crush the front-back direction of the 3D character as the pop-out condition is increased (for example, as the distance between the left and right cameras is widened). In particular, it is preferable that the crushing amount is provided according to the degree of popping out, and the crushing amount increases as the 3D character pops out to the front side.

また、図示を省略するが、統括制御部73が、3Dキャラクターの身体の様々な部分(例えば、女性のキャラクターの場合は胸部等)が揺れるように表示するとよい。この場合、3Dキャラクターの立体感をより強調するために、例えば、3Dキャラクターが正面ではなく斜め前方を向いている画像が表示されるとよい。 Further, although not shown, it is preferable that the overall control unit 73 displays the 3D character so that various parts of the body (for example, the chest in the case of a female character) sway. In this case, in order to further emphasize the stereoscopic effect of the 3D character, for example, it is preferable to display an image in which the 3D character faces diagonally forward instead of the front.

また、統括制御部73が、画像表示部20に表示されるキャラクターに応じて、3Dアプリケーションにおける各種のパラメータ(カメラの離し度合い、向き、表示対象物までの距離等)を適切な値に設定するとよい。なお、統括制御部73による自動設定に限らず、上記の3Dアプリケーションにおける各種のパラメータを調整可能な物理的なスライダーが筐体10に設けられ、目視者等が3Dキャラクターを見ながら各種パラメータの調整を容易に行えるようにされてもよい。 Further, when the overall control unit 73 sets various parameters (degree of camera separation, orientation, distance to the display object, etc.) in the 3D application to appropriate values according to the character displayed on the image display unit 20. good. In addition to the automatic setting by the integrated control unit 73, a physical slider capable of adjusting various parameters in the above 3D application is provided in the housing 10, and the viewer or the like can adjust various parameters while looking at the 3D character. May be made easy.

また、図示を省略するが、統括制御部73が、所定の物体(例えば、板等)が減光部材30と同じ位置に描画されるように表示するとよい。このようにすれば、減光部材30が存在していることを映像で目視者に知らせることができ、目視者が空間領域102(図6)に手を入れた際に、目視者の手が減光部材30にぶつかることを抑制することができる。なお、所定の物体と減光部材30とが同じ位置となるように、表示装置1に、種々のパラメータをキャリブレーションする機能が設けられていると尚よい。 Further, although not shown, it is preferable that the overall control unit 73 displays a predetermined object (for example, a plate or the like) so as to be drawn at the same position as the dimming member 30. By doing so, it is possible to inform the visual viewer of the existence of the dimming member 30 by an image, and when the visual viewer puts his / her hand in the space region 102 (FIG. 6), the visual eye's hand It is possible to suppress the collision with the dimming member 30. It is more preferable that the display device 1 is provided with a function of calibrating various parameters so that the predetermined object and the dimming member 30 are at the same position.

また、減光部材30よりも前方側(開口部5側)まで3Dキャラクターが飛び出した状態の映像と、減光部材30の後方側(画像表示部20側)にしか3Dキャラクターが飛び出さない状態の映像とを予め設け、それぞれの状態で異なるアクションが行われるようにするとよい。たとえば、図示を省略するが、統括制御部73が、3Dキャラクターが前方側まで飛び出した映像を画像表示部20に表示したときは、当該3Dキャラクターが握手を求めるなど、目視者に対して積極的に3Dキャラクターを触らせるアクションを当該3Dキャラクターが行う映像を画像表示部20に表示するとよい。逆のときには、そのような動作を行わない映像が表示されるとよい。また、統括制御部73が、例えば、傾斜配置された減光部材30の面上に滑り台の画像を表示し、その上(正面側)をキャラクターが滑る映像を描画するとよい。 In addition, an image in which the 3D character protrudes to the front side (opening 5 side) of the dimming member 30 and a state in which the 3D character protrudes only to the rear side (image display unit 20 side) of the dimming member 30. It is advisable to provide a video of the above in advance so that different actions can be performed in each state. For example, although not shown, when the general control unit 73 displays an image in which the 3D character jumps out to the front side on the image display unit 20, the 3D character asks for a handshake, and is positive to the viewer. It is preferable to display the image of the 3D character performing the action of touching the 3D character on the image display unit 20. In the opposite case, it is preferable to display an image that does not perform such an operation. Further, for example, the overall control unit 73 may display an image of the slide on the surface of the dimming member 30 arranged at an angle, and draw an image in which the character slides on the slide (front side).

また、統括制御部73が、画像表示部20において、三次元画像として認識される画像として、次述の第1画と第2画像とを含む複数の画像のいずれかを選択的に表示するようにしてもよい。第1の画像は、3Dキャラクター1000の少なくとも一部分が減光部材30よりも前方側(開口部5側)に存在するように目視者によって立体視可能な画像(図21(B)の3Dキャラクター1000参照)とするとよい。第2の画像は、第1の画像よりも正面側または背面側に存在すると認識される画像とするとよい。例えば、画像表示部20において、3Dキャラクター1000(「目視者によって立体視される表示対象物」の一例)が減光部材30よりも後方側(画像表示部20側)に存在するように目視者によって立体視可能な第2の画像(図21(A)参照)と、3Dキャラクター1000の足よりも上側の部分が減光部材30よりも前方側(開口部5側)に存在するように目視者によって立体視可能な第1の画像(図21(B)参照)とが切り替えられて表示されるとよい。なお、第1の画像においては、当該3Dキャラクター1000の全部分が減光部材30よりも前方側に存在するように目視者によって立体視可能な画像であってもよい。このようにすれば、目視者によって三次元の画像として認識される画像が存在すると認識される位置が異なる第1の画像と第2の画像とを含む複数の画像のいずれかを選択的に表示することができるので、目視者に与える立体感を変更することができる。その結果、例えば、目視者をより楽しませることができる。なお、3Dキャラクター1000の画像自体は画像表示部20の表示面に表示されており、図13では、目視者によって立体視された(画像表示部20から飛び出して見える、とも表現される)3Dキャラクター1000が示されている。 Further, the overall control unit 73 selectively displays any one of a plurality of images including the first image and the second image described below as an image recognized as a three-dimensional image on the image display unit 20. It may be. The first image is an image that can be stereoscopically viewed by a viewer so that at least a part of the 3D character 1000 is on the front side (opening 5 side) of the dimming member 30 (3D character 1000 in FIG. 21 (B)). See). The second image may be an image that is recognized to exist on the front side or the back side of the first image. For example, in the image display unit 20, the viewer so that the 3D character 1000 (an example of a “display object stereoscopically viewed by the viewer”) is located behind the dimming member 30 (on the image display unit 20 side). The second image (see FIG. 21 (A)) that can be viewed stereoscopically by the image and the portion above the foot of the 3D character 1000 are visually observed so as to be on the front side (opening 5 side) of the dimming member 30. It is preferable that the first image (see FIG. 21B) that can be viewed stereoscopically is switched and displayed by a person. The first image may be an image that can be viewed stereoscopically by a viewer so that the entire portion of the 3D character 1000 is located in front of the dimming member 30. In this way, any one of a plurality of images including the first image and the second image having different positions recognized as having an image recognized as a three-dimensional image by the viewer is selectively displayed. Therefore, it is possible to change the three-dimensional effect given to the viewer. As a result, for example, the viewer can be more entertained. The image itself of the 3D character 1000 is displayed on the display surface of the image display unit 20, and in FIG. 13, the 3D character that is stereoscopically viewed by the viewer (also expressed as popping out from the image display unit 20). 1000 is shown.

例えば、統括制御部73が、3Dキャラクター1000が減光部材30の後方側にしか飛び出さない状態の画像(図21(A)参照)から、3Dキャラクター1000(3Dキャラクター1000の全部あるいは一部分)が減光部材30の前方側にまで飛び出した状態の画像(図21(B)参照)へと遷移させることによって、画像表示部20の表示画像を切り替えるとよい。三次元の画像が認識される位置は、目視者による操作部40の操作またはその他の操作により切り替え可能になっていてもよい。目視者は三次元画像が立体的に見える位置に、画像が表示されるように操作してもよい。また、三次元画像の切り替え可能な位置は3種類以上でもよい。三次元画像が立体的に見えるか否かは個人差によるところもあるからである。 For example, from the image (see FIG. 21 (A)) in which the 3D character 1000 protrudes only to the rear side of the dimming member 30, the general control unit 73 can see the 3D character 1000 (all or a part of the 3D character 1000). It is preferable to switch the display image of the image display unit 20 by transitioning to an image (see FIG. 21B) in a state of protruding to the front side of the dimming member 30. The position where the three-dimensional image is recognized may be switchable by an operation of the operation unit 40 by a viewer or another operation. The viewer may operate so that the image is displayed at a position where the three-dimensional image can be seen three-dimensionally. Moreover, the switchable position of the three-dimensional image may be three or more types. This is because whether or not a three-dimensional image looks three-dimensional depends on individual differences.

また、第1の画像と第2の画像との間での表示移行に際して、統括制御部73が、3Dキャラクター1000が減光部材30の後方側から前方側へと(あるいは、減光部材30の前方側から後方側へと)徐々に移動する移動過程の画像(映像)を表示してもよい。 Further, when the display is shifted between the first image and the second image, the overall control unit 73 causes the 3D character 1000 to move from the rear side to the front side of the dimming member 30 (or the dimming member 30). An image (video) of a moving process that gradually moves (from the front side to the rear side) may be displayed.

このような画像遷移に際して、統括制御部73が、例えば、減光部材30の存在を示すアクションを3Dキャラクターが行う映像を画像表示部20に表示するとよい。例えば、3Dキャラクターが減光部材30の後方側位置から減光部材30を叩くと、穴が開いた画像を減光部材30と同位置に配置して、当該3Dキャラクターがその穴から飛び出して手前側に移動するような映像が表示されるとよい。 At the time of such an image transition, the integrated control unit 73 may display, for example, an image on the image display unit 20 in which the 3D character performs an action indicating the existence of the dimming member 30. For example, when a 3D character hits the dimming member 30 from the rear side position of the dimming member 30, an image with a hole is placed at the same position as the dimming member 30, and the 3D character pops out from the hole and is in front of the dimming member 30. It is good to display an image that moves to the side.

[表示装置1に表示される映像の具体例]
次に、図22〜図36を参照しつつ、表示装置1に表示される映像の具体例を説明する。図22〜図36は、本実施例に係る表示装置1に表示されるキャラクター(図11,12で説明した3Dキャラクター1200を含む映像)の一例を示す図である。図22〜図36に示される各映像は、表示装置1において表示され、開口部5を介して目視者が見ることのできる画像である。なお、図22〜図36にはステージ映像2200が表示されているが、これが表示されずに3Dキャラクター1200が表示されるようにしてもよい。
[Specific example of the image displayed on the display device 1]
Next, a specific example of the image displayed on the display device 1 will be described with reference to FIGS. 22 to 36. 22 to 36 are diagrams showing an example of a character (a video including the 3D character 1200 described with reference to FIGS. 11 and 12) displayed on the display device 1 according to the present embodiment. Each of the images shown in FIGS. 22 to 36 is an image displayed on the display device 1 and visible to the visual eye through the opening 5. Although the stage image 2200 is displayed in FIGS. 22 to 36, the 3D character 1200 may be displayed without displaying the stage image 2200.

表示装置1(詳細には、統括制御部73)は、図22〜図28に示される3Dキャラクター1200の映像を、コミュニケーション機能に基づいて、目視者の動作を待機する期間に規則的またはランダムに切り替えて表示する。表示装置1(詳細には、統括制御部73)は、コミュニケーション機能に基づいて、3Dキャラクター1200の表示を変化させる。例えば、図22(A)のように、3Dキャラクター1200は、表示装置1の正面側(画像を見る側)の方向を向いて立ってる姿勢で表示される。表示装置1は、この姿勢を基本姿勢とし、コミュニケーション機能に基づくコミュニケーションが行われていない期間の表示としてもよい。例えば、図22(B)のように、3Dキャラクター1200が自身の前足を舐めるような動作をする。例えば、図22(C)および図23(A)のように、3Dキャラクター1200は、自身の左右を交互に見るような動作をする。例えば、図23(B)のように、3Dキャラクター1200は、地面の方向を向く動作をする。例えば、図23(C)のように、3Dキャラクター1200は、座ったまま伸びをするような動作をする。例えば、図24(A)のように、3Dキャラクター1200は、地面をのぞき込むような動作をする。さらに例えば、図24(B)および図24(C)のように、3Dキャラクター1200は、正面側に歩く動作をする。例えば、図25(A)に示すように、3Dキャラクター1200は、自身の腹部をのぞき込むような動作をする。例えば、図25(B)に示すように、3Dキャラクター1200は、首を傾げる動作をする。例えば、図25(C)に示すように、3Dキャラクター1200は、自身の目をこする動作をする。例えば、図26(A)に示すように、3Dキャラクター1200は、あくびをする動作をする。例えば、図26(B)に示すように、3Dキャラクター1200は、座ったまま自身の前足を舐める動作をする。例えば、図26(C)に示すように、3Dキャラクター1200は、自身の左前方を見るような動作をする。例えば、図27(A)に示すように、3Dキャラクター1200は、自身の右前方を見るような動作をする。図27(B)に示すように、3Dキャラクター1200は、伸びをする動作をする。例えば、図27(C)のように、3Dキャラクター1200は、地面をのぞき込むような動作をする。例えば、図28(A)に示すように、3Dキャラクター1200は、表示装置1の右斜め前方の方向を向き、その次に図28(B)に示すように正面を向く。図28(C)に示すように、3Dキャラクター1200は、自身の前足を舐める動作をする。 The display device 1 (specifically, the integrated control unit 73) regularly or randomly displays the images of the 3D character 1200 shown in FIGS. 22 to 28 during the period of waiting for the movement of the viewer based on the communication function. Switch and display. The display device 1 (specifically, the integrated control unit 73) changes the display of the 3D character 1200 based on the communication function. For example, as shown in FIG. 22 (A), the 3D character 1200 is displayed in a standing posture facing the front side (the side for viewing the image) of the display device 1. The display device 1 may use this posture as a basic posture and display a period during which communication based on the communication function is not performed. For example, as shown in FIG. 22 (B), the 3D character 1200 behaves like licking its own forefoot. For example, as shown in FIGS. 22 (C) and 23 (A), the 3D character 1200 behaves as if looking at its left and right alternately. For example, as shown in FIG. 23 (B), the 3D character 1200 operates toward the ground. For example, as shown in FIG. 23C, the 3D character 1200 behaves as if it were sitting and stretching. For example, as shown in FIG. 24 (A), the 3D character 1200 behaves as if looking into the ground. Further, for example, as shown in FIGS. 24 (B) and 24 (C), the 3D character 1200 walks to the front side. For example, as shown in FIG. 25 (A), the 3D character 1200 behaves as if looking into its own abdomen. For example, as shown in FIG. 25 (B), the 3D character 1200 has an action of tilting its head. For example, as shown in FIG. 25 (C), the 3D character 1200 makes an action of rubbing its own eyes. For example, as shown in FIG. 26 (A), the 3D character 1200 yawns. For example, as shown in FIG. 26 (B), the 3D character 1200 performs an action of licking its own forefoot while sitting. For example, as shown in FIG. 26C, the 3D character 1200 behaves as if looking to the left front of itself. For example, as shown in FIG. 27 (A), the 3D character 1200 behaves as if looking forward to the right of itself. As shown in FIG. 27 (B), the 3D character 1200 operates to stretch. For example, as shown in FIG. 27 (C), the 3D character 1200 behaves as if looking into the ground. For example, as shown in FIG. 28 (A), the 3D character 1200 faces diagonally forward to the right of the display device 1, and then faces the front as shown in FIG. 28 (B). As shown in FIG. 28 (C), the 3D character 1200 performs an action of licking its own forefoot.

図29〜図36は、表示装置1(詳細には、統括制御部73)が対話処理時に対コミュニケーション機能に基づいて行う3Dキャラクター1200の表示の一例である。図29〜図36に示す文字列は、音声認識で認識可能な文字列で、3Dキャラクター1200の上方に表示される。図29(A)は、表示装置1が「おいでおいで〜」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図29(B)〜図30(B)は、表示装置1が「おすわり」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図30(C)は、表示装置1が「おなか減ったかなぁ」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図31(A)は、表示装置1が「おまわり」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図31(B),(C)は、表示装置1が「おやつの時間だよ」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図32(A)は、表示装置1が「お手」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図32(B)〜図33(B)は、表示装置1が「可愛いね」との目視者の発話を認識したときに表示すされるもので、これに応答して音声が出力される。図33(C)は、表示装置1が「こんにちは」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図34(A)は、表示装置1が「ご飯食べる」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図34(B)、(C)は、表示装置1が「女の子かな」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図35(A)は、表示装置1が「待て」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図35(B)は、表示装置1が「いい子ねー」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図35(C)、図36は、表示装置1が「ユノ」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。 29 to 36 are examples of the display of the 3D character 1200 performed by the display device 1 (specifically, the integrated control unit 73) based on the communication function during the dialogue processing. The character strings shown in FIGS. 29 to 36 are character strings that can be recognized by voice recognition and are displayed above the 3D character 1200. FIG. 29A is displayed when the display device 1 recognizes the visual utterance of "Come on", and the voice is output in response to this. 29 (B) to 30 (B) are displayed when the display device 1 recognizes the visual utterance of "sitting", and the voice is output in response to this. FIG. 30C is displayed when the display device 1 recognizes a visual utterance of "I wonder if I am hungry", and a voice is output in response to this. FIG. 31A is displayed when the display device 1 recognizes a visual utterance of "around", and a voice is output in response to this. 31 (B) and 31 (C) are displayed when the display device 1 recognizes the visual utterance of "It's snack time", and the voice is output in response to this. FIG. 32A is displayed when the display device 1 recognizes a visual utterance of "hand", and a voice is output in response to this. 32 (B) to 33 (B) are displayed when the display device 1 recognizes the visual utterance of "it's cute", and the voice is output in response to this. FIG. 33C is displayed when the display device 1 recognizes the visual utterance of "hello", and the voice is output in response to this. FIG. 34A is displayed when the display device 1 recognizes the visual utterance of "eating rice", and the voice is output in response to this. FIGS. 34 (B) and 34 (C) are displayed when the display device 1 recognizes a visual utterance of "a girl", and a voice is output in response to this. FIG. 35A is displayed when the display device 1 recognizes the visual utterance of "wait", and the voice is output in response to this. FIG. 35B is displayed when the display device 1 recognizes the visual utterance of "good boy", and the voice is output in response to this. 35 (C) and 36 are displayed when the display device 1 recognizes the visual utterance of "Yuno", and the voice is output in response to this.

<3Dキャラクター1200のより詳細な説明>
図22〜図36で説明した3Dキャラクター1200についてより詳細に説明する。以下の説明において、表示装置1を処理主体とした説明については、制御部70(より詳細には、統括制御部73)が行う処理としてよい。3Dキャラクター1200は、概ね約3等身で描画すされると特によい。このようにすると奥行き感が特に強調されることを見出した。表示装置1は、側面側(横側)から見て上下方向に概ね、頭部が3分の1、胴体が3分の1、足が3分の1の高さを占めるように、3Dキャラクター1200を描画するとよい。表示装置1は、尾以外について、側面側から見て左右方向に概ね、頭部が3分の1、胴体が3分の2を占めるように3Dキャラクター1200を描画するとよい。
<More detailed explanation of 3D character 1200>
The 3D character 1200 described with reference to FIGS. 22 to 36 will be described in more detail. In the following description, the description in which the display device 1 is the processing subject may be the processing performed by the control unit 70 (more specifically, the overall control unit 73). It is particularly preferable that the 3D character 1200 is drawn in about 3 life forms. It was found that the sense of depth was particularly emphasized in this way. The display device 1 is a 3D character so that the head occupies a height of about one-third, the torso one-third, and the legs one-third in the vertical direction when viewed from the side surface side (horizontal side). It is good to draw 1200. The display device 1 may draw the 3D character 1200 so that the head occupies about one-third and the body occupies two-thirds in the left-right direction when viewed from the side surface side except for the tail.

表示装置1は、正面に顔がある状態で、尾が見えない状態と尾が見える状態との間で相互に変位する描画をする機能を備え、尾が見える状態の時間を尾が見えない状態の時間より短くするとよい。尾は頭よりも奥側に描画されることになるが、ときどき尾が見えることで、立体感を大きく感じることができるとともに、常に立体感を大きく感じることで目や頭が疲労してしまうことを防止できる。特に、表示装置1は、音声認識の待受状態でこのような描画処理を行うとよい。表示装置1は、尾が見える状態へ変位するときには、頭の頂上部分から尾が現れるように描画する機能を備えるとよい。このようにすれば、通常は、顔の目に目視者の視線がありその中心上部からいきなり尾が頭の上方へ飛び出すことで、驚きと面白みを与えることができる。 The display device 1 has a function of drawing a mutual displacement between a state in which the tail cannot be seen and a state in which the tail can be seen in a state where the face is in front, and a state in which the tail cannot be seen during the time when the tail is visible. It should be shorter than the time of. The tail will be drawn on the back side of the head, but sometimes you can see the tail and you can feel a big three-dimensional effect, and you can always feel the three-dimensional effect so that your eyes and head get tired. Can be prevented. In particular, the display device 1 may perform such drawing processing in the standby state for voice recognition. The display device 1 may have a function of drawing so that the tail appears from the top portion of the head when the tail is displaced so as to be visible. In this way, the eyes of the face usually have the eyes of the viewer, and the tail suddenly pops out from the upper center of the eyes to the upper part of the head, which can give surprise and fun.

表示装置1は、3Dキャラクター1200の頭の頂上に正面視で平らな部分を設けるとよく、特に左右の耳の間の頭部分は正面視で平らにして描画するとよい。このようにすれば、立体感が弱い平らな頭の頂上からいきなり立体感のある尾が頭上に現れることとなり、より驚きと面白みを与えることができる。また、表示装置1は、頭上から尾が現れるように描画した後、尾の先端寄りの部分を動かす描画を行うとよい。このようにすれば、視点を顔より奥側の尾の部分に集めることができ、より立体感を感じさせることができる。表示装置1は、同様に胴体の左右から尾を出現させるように描画してもよい。表示装置1は、左右から尾を出現させる場合には、頭上から尾を出現させる場合に比べて、尾の出現する長さ、および/または、時間を短くするとよい。表示装置1は、左右から出現させる場合にはチラチラっと出現させる描画を行うとよい。表示装置1は、視線をときどき奥側に動かす描画をするようにしてもよく、より立体感を感じさせることができる。表示装置1は、音声の認識中は尾を頭の上から出現させる一方、猫からの音声の出力の際には尾を左右いずれかの方向から出現させる描画を行うとよい。表示装置1は、尾には長さ方向に所定の間隔で他の部分と違う描画態様を有する部分を設けるとよい。例えば一定間隔で尾の円筒面上に環状または円弧状に所定の幅を持つ模様を付すとよい。このようにすれば、尾の動きが3次元空間で、よりダイナミックに動くように感じられることを発明者らは見出した。 The display device 1 may be provided with a flat portion in front view on the top of the head of the 3D character 1200, and in particular, the head portion between the left and right ears may be drawn flat in front view. In this way, a three-dimensional tail suddenly appears above the head from the top of a flat head with a weak three-dimensional effect, which can give more surprise and fun. Further, the display device 1 may draw so that the tail appears from above, and then move the portion near the tip of the tail. In this way, the viewpoint can be concentrated on the tail portion on the back side of the face, and a more three-dimensional effect can be felt. Similarly, the display device 1 may draw so that the tails appear from the left and right sides of the body. When the tail appears from the left and right, the display device 1 may shorten the length and / or the time at which the tail appears as compared with the case where the tail appears from overhead. When the display device 1 is made to appear from the left and right, it is preferable to perform drawing in which the display device 1 is made to appear flickering. The display device 1 may draw a drawing that moves the line of sight to the back side from time to time, and can give a more three-dimensional effect. The display device 1 may draw the tail appearing from above the head while recognizing the voice, while the tail appears from either the left or right direction when outputting the voice from the cat. The display device 1 may be provided with a portion of the tail having a drawing mode different from that of other portions at predetermined intervals in the length direction. For example, a pattern having a predetermined width may be formed on the cylindrical surface of the tail at regular intervals in an annular or arc shape. In this way, the inventors have found that the movement of the tail feels more dynamic in three-dimensional space.

表示装置1は、音声認識中は同一の姿勢になるように、音声認識中でない状態からの音声認識中の状態に変化があった場合に現在の姿勢を前記同一の姿勢に変化させる描画を行うとよい。表示装置1は、音声認識の開始前に「おしゃべりするにゃ」と発話させるとよい。表示装置1は、目視者の動作を検出する機能(例えばセンサやスイッチ)を備え、目視者からの動作を検出した場合に「なんにゃ?」と発話する機能を備えるとよい。両機能は「なんにゃ?」「おしゃべりするにゃ」という形で連続して実行し、その後音声認識状態に入るように処理を行うとよい。 The display device 1 performs drawing that changes the current posture to the same posture when there is a change in the state during voice recognition from the state during voice recognition so that the posture is the same during voice recognition. It is good. The display device 1 may utter "Talking Nya" before the start of voice recognition. The display device 1 may be provided with a function of detecting the movement of the visual eye (for example, a sensor or a switch), and may have a function of uttering "what?" When the movement of the visual visual is detected. Both functions should be executed continuously in the form of "What?" And "Talking Nya", and then processed so that they enter the voice recognition state.

表示装置1は、音声認識の語句として、「かわいいね」など、褒められる内容の語句の情報を備え、褒められる内容の語句を認識した場合には、体の姿勢を変化させるとよい。さらに歩くなど、猫自体の位置を移動させるとなおよい。このようにすれば目視者は猫の姿勢の変化や移動の動きを見たいために、褒める言動・行動をとるようになり、行動や言動の改善などのセラピーの優れた効果が得られる。 The display device 1 is provided with information on words and phrases with complimented contents such as "cute" as words and phrases for voice recognition, and when the words and phrases with complimented contents are recognized, it is preferable to change the posture of the body. It is even better to move the position of the cat itself, such as walking further. In this way, the viewer will be able to take complimenting behaviors and behaviors in order to see the changes in the cat's posture and movements, and the excellent effects of therapy such as improvement of behaviors and behaviors can be obtained.

表示装置1は、ご飯をあげることに対応する音声認識の語句を備え、当該語句を認識した場合には、尾を他の場合に比べ早く振る描画を行うとよい。このようにすれば、より猫が実際に生きているかのような感覚を目視者に与えることができる。 The display device 1 is provided with a speech recognition phrase corresponding to feeding rice, and when the phrase is recognized, it is preferable to perform drawing in which the tail is swung faster than in other cases. In this way, it is possible to give the viewer a feeling that the cat is actually alive.

表示装置1は、猫の目の外郭を概ね円形状とし、黒目部分は縦長の楕円形状として描画処理するとよい。表示装置1は、黒目部分は上下方向に濃淡のグラデーションをつけて描画するとよく、下方にいくにしたがって明るい色に描画するとよい。表示装置1は、黒目の中心部には概ね円形または楕円形の周辺よりも黒い部分を設けるとよい。表示装置1は、黒目部分の上方の顔の外側寄りの部分には黒目の外縁に沿った三日月形状ないし半月状の白色領域を設けて描画するとよい。これに対し、表示装置1は、黒目の下方の顔の中心寄り位置には円形の白色領域を設けて描画するとよい。表示装置1は、この白色領域の描画は3Dキャラクター1200の位置の変化(姿勢の変化など)、ないし、カメラやライトの位置の変化があった場合でも、描画させつづけるとよい。通常は、ライト等の反射としてハイライトは演算で入れられることが多い。しかし、このようにすることで、音声認識の話しかけの際に最も見られる目の部分の猫の個性を強調とすることができ、個性のある猫として、音声認識をしている短時間で印象づけることができる。 In the display device 1, the outer shell of the cat's eyes may be substantially circular, and the black eye portion may be drawn as a vertically long elliptical shape. In the display device 1, the black eye portion may be drawn with a gradation of light and shade in the vertical direction, and the black eye portion may be drawn in a brighter color as it goes downward. The display device 1 may be provided with a black portion at the center of the black eye rather than the periphery of a generally circular or elliptical shape. The display device 1 may draw by providing a crescent-shaped or half-moon-shaped white region along the outer edge of the black eye on the outer portion of the face above the black eye portion. On the other hand, the display device 1 may draw by providing a circular white region at a position near the center of the face below the black eye. The display device 1 may continue to draw the white area even if the position of the 3D character 1200 changes (change in posture, etc.) or the position of the camera or light changes. Usually, highlights are often added by calculation as reflections of lights and the like. However, by doing this, it is possible to emphasize the individuality of the cat in the most visible part of the voice recognition when talking, and impress as a unique cat in a short time while performing voice recognition. be able to.

表示装置1は、顔が正面を向いている状態と、下側を向いている状態とをとり、顔が正面を向いているときは目の外郭は概ね円形状で描画する一方、顔が下を向いている状態では、目を横長の楕円形状で描画するとよい。 The display device 1 takes a state in which the face is facing the front and a state in which the face is facing downward. When the face is facing the front, the outer shell of the eye is drawn in a substantially circular shape, while the face is downward. It is advisable to draw the eyes in a horizontally long oval shape when facing.

表示装置1は、顔の上端が胴体の上端より上にある状態と、顔の上端が胴体の上端より下にある状態とをとり、顔の上端が胴体の上端より上にある状態では目の外郭は概ね円形状で描画する一方、顔の上端が胴体の上端よりも下にある状態では、目を横長の楕円形状で描画するとよい。表示装置1は、口を開けてあくびをする状態を描画する機能を備え、この描画の際には目を閉じる描画を行うとよい。 The display device 1 takes a state in which the upper end of the face is above the upper end of the torso and a state in which the upper end of the face is below the upper end of the torso. The outer shell is drawn in a generally circular shape, while the eyes are drawn in a horizontally long oval shape when the upper end of the face is below the upper end of the torso. The display device 1 has a function of drawing a state in which the mouth is opened and yawning, and it is preferable to draw with the eyes closed at the time of drawing.

表示装置1は、3Dキャラクター1200には待機時のモーションを複数のパターン用意しておき、これらのパターンのなかから1のパターンを選択して描画する処理を繰り返すとよい。待機時のモーションとしては、足をなめるモーション、顔を手で撫でるモーション、お尻をなめるモーション、正面を向くモーション、左右を見渡すモーション、地面をなめるモーション、伸びをするモーション、あくびをするモーション、歩くモーションなどがある。 The display device 1 may prepare a plurality of patterns of standby motions for the 3D character 1200, and repeat the process of selecting and drawing one pattern from these patterns. The standby motions include licking the legs, stroking the face with hands, licking the buttocks, facing the front, looking left and right, licking the ground, stretching, yawning, and so on. There is a walking motion and so on.

表示装置1は、耳は顔の移動に遅れて移動するように描画するとよい。例えば、顔が移動開始してもしばらく耳は位置を保つように描画するとよい。表示装置1は、なめるモーションを行うときには、尾を左右に振るモーションを同時に行う機能を備えるとよい。
表示装置1は、3Dキャラクター1200を正面からみた際に胴体の模様は左右非対称とするとよい。このようにすれば、個性ある猫として覚えられやすくなるとともに、右面が見えているのか左面が見えているのかが容易に判別できるようになる。特に3Dキャラクター1200の全体像がみえないほど拡大した場面を設けるときに有用である。特に、模様は三毛猫の模様とするとよく、特にトラ猫の模様とするとよい。このようにすると特に立体感を把握しやすくなることを発明者らは見出した。特に、頭上の模様は前後方向に設ける一方、胴体の模様は上下方向に設けるなど、その模様の方向を異なる方向とするとよい。このようにすれば、カメラや猫の位置が変化したことを、いずれの方向に移動してもより認識しやすくなる。
The display device 1 may draw the ears so that the ears move behind the movement of the face. For example, it is advisable to draw the ears so that they remain in position for a while even when the face starts to move. The display device 1 may have a function of simultaneously performing a motion of swinging the tail left and right when performing a licking motion.
The display device 1 may have a body pattern that is asymmetrical when the 3D character 1200 is viewed from the front. In this way, it becomes easier to remember as a unique cat, and it becomes easier to distinguish whether the right side is visible or the left side is visible. This is especially useful when setting up a scene in which the entire image of the 3D character 1200 cannot be seen. In particular, the pattern may be a calico cat pattern, and particularly a tabby cat pattern. The inventors have found that this makes it particularly easy to grasp the three-dimensional effect. In particular, the overhead pattern may be provided in the front-rear direction, while the body pattern may be provided in the vertical direction, and the directions of the patterns may be different. In this way, it becomes easier to recognize that the position of the camera or the cat has changed, regardless of the direction in which the camera or cat is moved.

表示装置1は、「ニャ」という鳴き声を発する機能を備え、「ニャ」という鳴き声には複数のイントネーションのものを備え、それぞれの鳴き声に対して異なるモーションが対応づけられる構成とするとよい。イントネーションの中には、疑問形のイントネーションを備え、モーションとしては首を傾げるモーションを備えるとよい。 The display device 1 may have a function of emitting a cry of "Nya", and the cry of "Nya" may be provided with a plurality of intonations, and different motions may be associated with each of the calls. The intonation should include an interrogative intonation, and the motion should include a motion of tilting the head.

<3Dキャラクター1200に関するコミュニケーション機能について>
3Dキャラクター1200に関するコミュニケーション機能について補足する。以下のようにすれば、目視者に対し、3Dキャラクター1200とのより質の高いコミュニケーション機能を提供することができる。ここでは、飼い慣らすまでにする人の行動と3Dキャラクター1200との行動ストーリーの概略について説明する。この実施例では、表示装置1の正面側に、目視者を撮影する撮影部が設けられている。
<Communication function related to 3D character 1200>
The communication function related to the 3D character 1200 is supplemented. By doing the following, it is possible to provide the viewer with a higher quality communication function with the 3D character 1200. Here, the outline of the behavior of the person to be tamed and the behavior story with the 3D character 1200 will be described. In this embodiment, a photographing unit for photographing a viewer is provided on the front side of the display device 1.

(1)第一ステップ:飼い慣らすまでの段階
通常、野良猫等の猫は、人を見るだけで逃げる、または人が近づくと逃げる色々なタイプの猫がいる。そのとき、猫の行動は、何度も振り返りながら人の様子を見ながら逃げるように見える。ここで、制御部70は、撮影部を用いて撮影した撮影画像に基づいて目視者の存在を認識し、かつ人感センサ64により測定されるマイクロ波の強度が閾値を超えた場合、3Dキャラクター1200が逃げるような動作を行う映像を表示させる。猫に人が近づいたとみなすためである。撮影部で目視者を認識するのは、3Dキャラクター1200が逃げる場面を目視者に見せるためである。つまり、目視者が正面側から表示装置1に近づかないと、3Dキャラクター1200が逃げる動作をしないようにしている。
(1) First step: Stage until tame Normally, cats such as stray cats run away just by looking at a person, or there are various types of cats that run away when a person approaches. At that time, the behavior of the cat seems to escape while looking back at the person's appearance many times. Here, when the control unit 70 recognizes the presence of the viewer based on the captured image captured by the photographing unit and the intensity of the microwave measured by the motion sensor 64 exceeds the threshold value, the 3D character Display an image in which the 1200 operates as if it escapes. This is because it is considered that a person has approached the cat. The reason why the photographing unit recognizes the viewer is to show the viewer the scene where the 3D character 1200 escapes. That is, the 3D character 1200 does not escape unless the viewer approaches the display device 1 from the front side.

次に、人は猫に対して「しゃがんで(目の位置を落として)」、「おいで、おいで」などの声を掛けると考えられる。そのときに立ち止まり、様子をうかがう猫もいる。しかし、人が近付くと猫は逃げる。何度かこのことが繰り返される。このような人の行動では、猫は慣れてくれないと考えられる。そこで、制御部70は、3Dキャラクター1200が逃げている映像を表示している期間に、人感センサ64により測定されるマイクロ波の強度がある閾値以下であり、かつ例えば「おいで」という3Dキャラクター1200に呼びかけることを示す言葉を音声認識した場合、3Dキャラクター1200が立ち止まるような動作を行う映像を表示させる。ここで、マイクロ波の強度を閾値以下になることを条件としているのは、人間が立ち止まる状態を想定しているからである。 Next, it is thought that a person calls out to the cat, such as "squat (drop the eye position)" or "come, come". At that time, some cats stop and watch. However, when a person approaches, the cat runs away. This is repeated several times. It is thought that cats are not accustomed to the behavior of such people. Therefore, the control unit 70 has a microwave intensity measured by the motion sensor 64 that is below a certain threshold while the 3D character 1200 is displaying the escaped image, and the 3D character, for example, "come". When the word indicating that the 1200 is called is recognized by voice, an image in which the 3D character 1200 stops is displayed. Here, the condition that the intensity of the microwave is equal to or less than the threshold value is because it is assumed that a human being stops.

次に、人は立ち止った猫に餌を与えることが考えられる。しかし、人が猫に近づくと、猫は逃げるので、猫がよく来る場所に餌を置いておくしかないと考えられる。そこで、表示装置1は、映像表示空間内に餌が置かれる映像を表示する機能を有する。例えば、制御部70は、所定の操作(例えば、操作部41または操作部42の操作)を受け付けた場合、またはジェスチャーセンサ63で餌を置くことを指示する所定のジェスチャーが検出された場合に、餌がおかれたとして、映像の中に餌を示す映像を表示させる。このようにすれば、目視者は、例えば毎日、餌を置くようにする。制御部70は、この際、3Dキャラクター1200が遠くからその様子を見ているような表示をさせるとよい。制御部70は、人感センサ64を用いて目視者の存在を認識せず、かつ撮影部で目視者が撮影されていない場合に、3Dキャラクター1200が餌を食べる映像を表示させる。ここでは、猫が人を前にして餌を食べない状況を再現している。目視者からすると、いつの間にか餌が空になっている、という状況をつくっている。制御部70は、目視者が餌を与えた回数をカウントしておき、これを記憶しておく。しばらくはこの状態が続くが、制御部70は、餌を与える回数によって、次第に目視者と3Dキャラクター1200と人との距離(目視者が感じる距離)を縮めていくような表示をさせるとよい。例えば、制御部70は、餌を与え始めて、餌を与えた回数とともに、3Dキャラクター1200をより大きく表示するようにして、距離を縮めてきた(つまり、少し慣れてきた)ことを再現するとよい。さらに、餌を与えた回数が増加して所定の閾値に達すると、猫が慣れててきたとして、目視者がキャラクターを見ていても、つまり、制御部70は、人感センサ64を用いて目視者の存在を認識し、かつ撮影部で目視者が撮影されている場合でも、3Dキャラクター1200が餌を食べる映像を表示させる。このときに初めて、目視者は、3Dキャラクター1200が餌を食べる様子を目視することができる。 Next, it is conceivable that a person feeds a stopped cat. However, when a person approaches a cat, the cat runs away, so it is thought that there is no choice but to put food in a place where the cat often comes. Therefore, the display device 1 has a function of displaying an image in which food is placed in the image display space. For example, when the control unit 70 receives a predetermined operation (for example, an operation of the operation unit 41 or the operation unit 42), or when the gesture sensor 63 detects a predetermined gesture instructing the bait to be placed. Assuming that the food has been placed, the image showing the food is displayed in the image. In this way, the viewer will, for example, place food daily. At this time, the control unit 70 may display the 3D character 1200 as if it were watching the situation from a distance. The control unit 70 uses the motion sensor 64 to display an image of the 3D character 1200 eating food when the presence of the viewer is not recognized and the viewer is not photographed by the photographing unit. Here, the situation where a cat does not eat food in front of a person is reproduced. From the point of view of the viewer, the food is empty before you know it. The control unit 70 counts the number of times the visual eye is fed and stores this. Although this state continues for a while, the control unit 70 may display the distance between the viewer, the 3D character 1200, and the person (the distance felt by the viewer) gradually depending on the number of times the food is fed. For example, the control unit 70 may start feeding and display the 3D character 1200 in a larger size with the number of times of feeding to reproduce that the distance has been shortened (that is, a little accustomed). Further, when the number of feedings increases and reaches a predetermined threshold value, it is assumed that the cat has become accustomed to it, and even if the viewer is looking at the character, that is, the control unit 70 uses the motion sensor 64. Even when the presence of the viewer is recognized and the viewer is photographed by the photographing unit, the image of the 3D character 1200 eating food is displayed. Only then can the viewer see the 3D character 1200 eating food.

ただし、猫がいつ餌を食べるかは人が分からないことも少なくない。そこで、制御部70は、3Dキャラクター1200が餌を食べる時間帯(これに代えて、一時点の時刻としてもよい。)を決めておき、その時間帯に3Dキャラクター1200に餌を食べる映像を表示させてもよい。目視者に、どうもこの時間帯に餌を食べるみたいだということを気づかせるためである。制御部70は、目視者が3Dキャラクター1200に触ろうとすることが検出されると、3Dキャラクター1200に所定の発話内容「シャー」または「シャーシャー」という音声を出力させるとともに、3Dキャラクター1200が逃げる映像を表示させる。目視者が3Dキャラクター1200に触ろうことは、3Dキャラクター1200が餌を食べている動作をしているときに、人感センサ64により検出されるマイクロ波の強度が閾値を超えたこと、または第1センサ2331が所定のジェスチャーを検出したことにより特定されるとよい。 However, it is not uncommon for people to not know when a cat will eat. Therefore, the control unit 70 determines a time zone in which the 3D character 1200 eats food (instead of this, it may be a time of a temporary point), and displays an image of eating food in the 3D character 1200 in that time zone. You may let me. This is to remind the viewer that he seems to eat food during this time. When the control unit 70 detects that the viewer tries to touch the 3D character 1200, the control unit 70 causes the 3D character 1200 to output a voice of the predetermined utterance content "Shah" or "Shah Shah", and the 3D character 1200 escapes. Display the image. When the viewer touches the 3D character 1200, the intensity of the microwave detected by the motion sensor 64 exceeds the threshold value when the 3D character 1200 is eating food, or the third It is preferable that the sensor 2331 is identified by detecting a predetermined gesture.

このような状況がしばらく続くが、制御部70は、少しずつ、目視者の手を3Dキャラクター1200に近接させることのできる距離を縮めていくとよい。所定の距離まで近づくようになると、制御部70は、3Dキャラクター1200が目視者に慣れてきたとして、人前で毛繕いやくつろいだ動作を行う映像を表示させるとよい。制御部70は、具体的には、マイクロ波の強度に対する閾値を上げていく、またはジェスチャーが行われるときの表示装置1からの距離に対する閾値を上げていく。このようにして、制御部70は、検知感度を下げていき、目視者の動きに対し3Dキャラクター1200の反応を鈍くしていき、「シャー」または「シャーシャー」といった発話もさせないようにする。 Although such a situation continues for a while, it is preferable that the control unit 70 gradually shortens the distance at which the viewer's hand can be brought close to the 3D character 1200. When approaching a predetermined distance, the control unit 70 may display an image of grooming and relaxing movements in public, assuming that the 3D character 1200 has become accustomed to the viewer. Specifically, the control unit 70 raises the threshold value for the intensity of the microwave, or raises the threshold value for the distance from the display device 1 when the gesture is performed. In this way, the control unit 70 lowers the detection sensitivity, slows down the reaction of the 3D character 1200 to the movement of the viewer, and prevents the utterance of "shah" or "shah shah".

猫は、常に警戒はするが、毛繕いや寝そべり、爪研ぎ、顔拭きなどの行動を加えていく。猫がだんだんと人や人の手に慣れてくると、人は手で猫に触れられるようになる。そこで、制御部70は、人感センサ64によるマイクロ波の検知結果を、3Dキャラクター1200の動作に反映させなくするとよい。制御部70は、第1センサ2331をモーションセンサとして機能させて、目視者の上下左右、前後方向のジェスチャーの検知結果に従って、3Dキャラクター1200が撫でると気持ち良さそうにする映像を表示させるとよい。制御部70は、さらに、マイク61により目視者の声を認識して、3Dキャラクター1200がこれに反応する映像を表示させるとよい。例えば、制御部70は、どのような言葉を認識した場合でも、発話内容として「にゃ」という鳴き声を発するようにするとよい。 Cats are always vigilant, but they add actions such as grooming, lying down, sharpening their claws, and wiping their faces. As cats become more and more accustomed to people and their hands, they become able to touch them with their hands. Therefore, the control unit 70 may not reflect the detection result of the microwave by the motion sensor 64 in the operation of the 3D character 1200. The control unit 70 may make the first sensor 2331 function as a motion sensor to display an image that makes the 3D character 1200 feel comfortable when it is stroked according to the detection results of gestures in the up / down / left / right and front / back directions of the viewer. The control unit 70 may further recognize the voice of the viewer with the microphone 61 and display an image in which the 3D character 1200 reacts to the voice. For example, the control unit 70 may make a cry of "nya" as the utterance content regardless of what kind of words are recognized.

制御部70は、さらに、時間が経過すると、3Dキャラクター1200が餌をねだるような映像を表示させるとよい。制御部70は、撮影部により目視者の存在を認識し、かつ人感センサ64により目視者の存在を検知しているときに、時間帯(例えば、朝、昼、晩)を決めて、「ニャーニャー」という鳴き声を発するようにし、顔をすりすりする動作を行う映像を表示させるとよい。さらに、制御部70は、目視者が3Dキャラクター1200に声を掛けていくと、3Dキャラクター1200が自分の名前を覚えていく様子を再現するとよい。例えば、制御部70は「ユノ」という言葉にのみ反応して、「にゃ」という鳴き声を発するようにしてもよいし、「ユノ」、「餌だよ」という声掛けに反応して、甘えた行動をとるようにしたり、嬉しそうにすりすりしたりする映像を表示させるとよい。 The control unit 70 may further display an image in which the 3D character 1200 begs for food as time passes. The control unit 70 determines the time zone (for example, morning, noon, and evening) when the photographing unit recognizes the presence of the viewer and the motion sensor 64 detects the presence of the viewer. It is advisable to make a cry of "meow meow" and display an image of the action of rubbing the face. Further, the control unit 70 may reproduce how the 3D character 1200 remembers its own name when the viewer calls out to the 3D character 1200. For example, the control unit 70 may respond only to the word "Yuno" and make a cry of "Nya", or may respond to the voices of "Yuno" and "It's bait" and spoil it. It's a good idea to display a video that encourages you to take action or rubs happily.

(2)第二ステップ:言語(日本語)を覚えていく段階
制御部70は、あるときに「ユノ」という目視者の声掛けを認識した場合に、「何?」という応答を示す音声を出力する。ここからは、3Dキャラクター1200が言葉を覚えていくという段階となる。制御部70は、声掛された回数をカウントして、累計平均/日をとり、餌の与えた回数の累計平均/日×声掛された回数の累計平均×ランダム係数により算出される値(以下。「累積平均値」という)に応じた応答をする。この声掛けは、例えば、「おはよう」、「こんにちは」、「こんばんは」、「元気?」、「餌欲しい?」などの所定の声かけである。制御部70は、累計平均値に応じて、応答をしなくなったり(つまり、3Dキャラクター1200が言葉を忘れたことを再現したり)、応答する言葉を増加させたりする。例えば、制御部70は、累積平均値が小さいほど、応答する言葉を減少させ、累積平均値が大きいほど、応答する言葉を増加させるとよい。累積平均値は、表示装置1の使用開始時点から現在時点までに声掛けされた回数に基づいて算出されるが、現在時点から過去に所定期間遡った時点から現在時点までに声掛けされた回数に基づいて算出されてもよい。所定期間は、1か月など固定的に決められていてもよいし、表示装置1が一定期間使用されなかった場合は、その期間後使用が開始された時点以降の期間としてもよい。表示装置1の使用が開始された最初の頃は、累積平均値は大きく変化し得るので、例えば目視者が1日に1回も声を掛けない場合は、3Dキャラクター1200は応答しなくなることもあるが、声掛けの回数が増えるにしたがって、累積平均値は大きく変化しなくなる。このようにすれば、3Dキャラクター1200が言葉を忘れるのに時間が掛かる様子を再現することができる。累積平均値の算出に用いられるランダム係数は、猫の気まぐれさを再現するための値で、気まぐれ係数といってもよい。ランダム係数は、キャラクター1200が餌をおねだりしたときに餌を与える/与えない、3Dキャラクター1200が寝ているときに声を掛けたり、触ったりして起こす行動をとったりするなど、3Dキャラクター1200および目視者の行動によって変化させるとよい。
(2) Second step: The stage of memorizing the language (Japanese) When the control unit 70 recognizes the visual voice of "Yuno" at a certain time, the control unit 70 makes a voice indicating a response of "what?" Output. From here, the 3D character 1200 will learn the words. The control unit 70 counts the number of times of being called, takes a cumulative average / day, and calculates a value calculated by the cumulative average of the number of times of feeding / day × the cumulative average of the number of times of being called × a random coefficient ( The response is based on the following (referred to as "cumulative average value"). This voice is a predetermined voice such as "Good morning", "Hello", "Good evening", "How are you?", "Do you want food?" The control unit 70 stops responding (that is, reproduces that the 3D character 1200 has forgotten a word) or increases the number of responding words according to the cumulative average value. For example, the control unit 70 may reduce the number of responding words as the cumulative average value is smaller, and increase the number of responding words as the cumulative average value is larger. The cumulative average value is calculated based on the number of times the display device 1 has been called from the start of use to the present time, but the number of times the call has been made from the time when the display device 1 has been called back to the present time by a predetermined period in the past. It may be calculated based on. The predetermined period may be fixedly determined, such as one month, or if the display device 1 has not been used for a certain period of time, it may be a period after that period when the use is started. Since the cumulative average value can change significantly at the beginning of the use of the display device 1, for example, if the viewer does not speak even once a day, the 3D character 1200 may stop responding. However, as the number of calls increases, the cumulative average value does not change significantly. In this way, it is possible to reproduce how the 3D character 1200 takes time to forget the words. The random coefficient used to calculate the cumulative average value is a value for reproducing the whims of a cat, and may be called a whimsical coefficient. The random coefficient is the 3D character 1200 and visual observation, such as giving / not feeding when the character 1200 asks for food, and taking actions such as calling out or touching when the 3D character 1200 is sleeping. It is good to change it according to the behavior of the person.

制御部70は、さらに累計平均値が或る閾値を超えると、3Dキャラクター1200から目視者に話し掛けたり、天気、ニュース等の所定の情報に関する質問に対して応答したりするようにするとよい。もちろん、目視者が餌を与える回数を減らすと、累積平均値は減少するので、制御部70はこの応答の種類を減らしたり、応答しなくなったりする。つまり、目視者の餌の与え方がずさんであったり、適当に声掛けをしていないと、3Dキャラクター1200が応答する機能が維持さなかったり、維持していたとしても「気まぐれ」によって応答しない場合もある以上のようにして、目視者に対し、3Dキャラクター1200とのより質の高いコミュニケーション機能を提供することができる。 When the cumulative average value exceeds a certain threshold value, the control unit 70 may further talk to the viewer from the 3D character 1200 or respond to a question regarding predetermined information such as weather and news. Of course, if the number of times the viewer feeds is reduced, the cumulative average value is reduced, so that the control unit 70 reduces the types of this response or stops responding. In other words, if the viewer's feeding method is sloppy, or if he / she does not speak properly, the function of the 3D character 1200 to respond will not be maintained, or even if it is maintained, it will not respond due to "capriciousness". In some cases, as described above, it is possible to provide the viewer with a higher quality communication function with the 3D character 1200.

さらに以下のようにしてもよい。 Further, the following may be performed.

例えば、レンチキュラー方式のディスプレイでは、画像が立体的に見える位置から数センチ右または左に目の位置が移動しただけで画像が立体的に見えなくなることがある。この場合、目視者が「画像が立体的に見えない」と諦めてしまう虞がある。この点を考慮して、制御部70が、例えば人感センサ64の検知結果に基づいて、「私が2人に見えるときは、右にあと3センチ移動してみて」といった指示が出されるように制御してもよい。このようにすれば、立体的に見えないことによって飽きられてしまうことを抑制できる。なお、指示は、例えば、スピーカ62から音声出力されるとよい。また、指示を出すタイミングは、表示装置1の周辺に人が居ない状態から人が居る状態に遷移したことを人感センサ64が認識したタイミングとするとよい。また、指示を出すタイミングは、未登録の人物が認識されたタイミングとするとよく、定期的なタイミングであってもよい。 For example, in a lenticular display, the image may not be seen three-dimensionally even if the eye position is moved to the right or left by a few centimeters from the position where the image looks three-dimensional. In this case, the viewer may give up as "the image cannot be seen three-dimensionally". In consideration of this point, the control unit 70 is instructed, for example, based on the detection result of the motion sensor 64, "when I look like two people, try moving another 3 cm to the right". It may be controlled to. In this way, it is possible to prevent people from getting bored because they do not look three-dimensional. The instruction may be output by voice from the speaker 62, for example. Further, the timing of issuing the instruction may be the timing at which the motion sensor 64 recognizes that the state in which there is no person in the vicinity of the display device 1 has changed to the state in which there is a person. Further, the timing of issuing the instruction may be the timing at which an unregistered person is recognized, and may be a regular timing.

また、例えば、表示装置1が、キャラクターの複数の部位のそれぞれの動作に関する物理演算を実行可能である場合、キャラクターの特定の部位(例えば胸部)が比較的小さいときには、当該特定の部位の動作に関する物理演算が実行されないようにするとよい。 Further, for example, when the display device 1 can execute physical calculations related to the movements of each of a plurality of parts of the character, when the specific parts (for example, the chest) of the character are relatively small, the movements of the specific parts are related. It is good to prevent physics operations from being executed.

また、キャラクターの身体にはモーションを付加する一方で、キャラクターの衣服にはモーションを付加せず、衣服をキャラクターの身体の動きに応じて物理演算で動かすように制御されるとよい。このようにすれば、物理演算における計算量を低減することができる。 Further, it is preferable that the motion is added to the character's body, but the motion is not added to the character's clothes, and the clothes are controlled to be moved by a physical calculation according to the movement of the character's body. In this way, the amount of calculation in the physical calculation can be reduced.

また、例えば、制御部70が、音声認識中であるか否かを示すためのオブジェクトを画像表示部20に表示するとよい。例えば、画像表示部20において、ランプを模した画像が音声認識中のみにおいて点灯するように表示制御されるとよい。当該オブジェクトは、例えば、特定のキャラクターの背面側であって画像表示部20の表示領域の端部分に目立たないように(比較的目立たない明るさ、色、形、大きさなどで)表示されるとよい。 Further, for example, the control unit 70 may display an object on the image display unit 20 to indicate whether or not voice recognition is in progress. For example, it is preferable that the image display unit 20 controls the display so that the image imitating the lamp lights up only during voice recognition. The object is displayed, for example, inconspicuously (with relatively inconspicuous brightness, color, shape, size, etc.) at the edge of the display area of the image display unit 20 on the back side of the specific character. It is good.

また、例えば、制御部70が、音声認識によって認識された語句(文章)を、特定のキャラクターのオブジェクトよりも目視者視点側(正面側)において、音声認識後から所定時間に亘って表示し、当該所定時間の経過後に非表示化するとよい(図29〜図35参照)。そして、当該語句(音声認識結果)が非表示化されてからキャラクターが話し出すように制御されるとよい。 Further, for example, the control unit 70 displays the words (sentences) recognized by the voice recognition on the viewer's viewpoint side (front side) of the object of the specific character for a predetermined time after the voice recognition. It is preferable to hide the display after the lapse of the predetermined time (see FIGS. 29 to 35). Then, it is preferable that the character is controlled to speak after the phrase (speech recognition result) is hidden.

また、ステージ上にキャラクターが存在する三次元画像が表示される場合、制御部70が、相対的に奥行方向の長さが比較的小さいキャラクター(例えば、人型のキャラクター)は、ステージの中央ではなくステージの前方側に表示させ、その一方で、相対的に奥行方向の長さが比較的大きいキャラクター(例えば、猫のキャラクター)は、ステージの中央に表示させるとよい。また、例えば、人型のキャラクターが表示される場合は、ステージ自体の長さを強調する表示を行って奥行き感を出すように表示制御されるとよい。 Further, when a three-dimensional image in which a character exists is displayed on the stage, the control unit 70 displays a character having a relatively small depth direction (for example, a humanoid character) in the center of the stage. On the other hand, a character having a relatively large depth direction (for example, a cat character) should be displayed in the center of the stage. Further, for example, when a humanoid character is displayed, it is preferable to control the display so as to emphasize the length of the stage itself to give a sense of depth.

また、制御部70は、ステージの中央以外の位置(例えば、前方側の位置)にキャラクターの画像を表示させる場合において、キャラクターが回転する映像を表示するときには、ステージも当該キャラクターと同様に回転する映像を表示するとよい。 Further, when the control unit 70 displays the image of the character at a position other than the center of the stage (for example, the position on the front side), when the image of the character rotating is displayed, the stage also rotates in the same manner as the character. It is good to display the image.

また、奥行方向に比較的距離のある形状のステージを表示させ、そのようなステージの内側において当該ステージの外縁に沿ってキャラクターを移動させる映像(例えば、円形のステージの外縁に沿って猫のキャラクターが歩く映像)が表示されるとよい。 Also, an image of displaying a stage with a shape that is relatively distant in the depth direction and moving the character along the outer edge of the stage inside such a stage (for example, a cat character along the outer edge of a circular stage). (Video of walking) should be displayed.

また、キャラクターに歩く動作をさせるときには、ステージ等(道路なども含む)を描画せず、キャラクターがその場で足踏みしてキャラクターの全体的な位置をほぼ動かさない映像が描画されるようにするとよい。そして、キャラクターが歩く動作以外の動作を行うときに、キャラクターの足元にステージ等が描画されるようにするとよい。 Also, when making the character walk, it is better not to draw the stage etc. (including the road etc.), but to draw an image in which the character steps on the spot and hardly moves the overall position of the character. .. Then, when the character performs an action other than the walking action, it is preferable that the stage or the like is drawn at the feet of the character.

[変形例]
以上、本発明の実施例の一例について説明したが、本発明は、上記の実施例に限られるものではなく、様々な変更が可能である。例えば、次のような変形例が実施されてもよい。
[Modification example]
Although an example of the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made. For example, the following modification may be implemented.

(1)例えば、上記の実施例に係る表示装置1において、さらに、複数(例えば、2つ)の減光部材30が着脱可能に設けられているとよい。このようにすれば、画像表示部20に表示される画像の明るさや浮遊感を、別途の調整部材を設けることなく調整することができる。 (1) For example, in the display device 1 according to the above embodiment, it is preferable that a plurality of (for example, two) dimming members 30 are detachably provided. In this way, the brightness and floating feeling of the image displayed on the image display unit 20 can be adjusted without providing a separate adjusting member.

(2)また、上記の実施例および各変形例に係る表示装置1において、筐体10の底面に対して傾斜配置された減光部材30(図6参照)に加えて、筐体10の底面に対して垂直配置された減光部材がさらに設けられてもよい。 (2) Further, in the display device 1 according to the above embodiment and each modification, in addition to the dimming member 30 (see FIG. 6) inclined with respect to the bottom surface of the housing 10, the bottom surface of the housing 10 Further, a dimming member arranged vertically with respect to the subject may be further provided.

(3)また、上記の実施例では、ジェスチャーセンサ63(挙動検出センサの一例)が、筐体10の内周面において筐体10の内方側に向けて配置されている(図6参照)が、これに限定されない。例えば、ジェスチャーセンサ63(詳細には、ジェスチャーセンサ63の検出面)が、開口部5の上部において斜め前方且つ下方に向けて配置されてもよい。このようにすれば、目視者によるジェスチャーが開口部5の外側で行われた場合であっても、当該ジェスチャーを検出することができる。 (3) Further, in the above embodiment, the gesture sensor 63 (an example of the behavior detection sensor) is arranged on the inner peripheral surface of the housing 10 toward the inner side of the housing 10 (see FIG. 6). However, it is not limited to this. For example, the gesture sensor 63 (specifically, the detection surface of the gesture sensor 63) may be arranged obliquely forward and downward at the upper part of the opening 5. In this way, even when the gesture by the visual operator is performed outside the opening 5, the gesture can be detected.

(4)また、例えば、上記の実施例および各変形例に係る表示装置1において、さらに、透過率(あるいは透過度)を調整可能な透過ディスプレイが設けられてもよい。当該透過ディスプレイは、例えば、筐体10の内部空間100において減光部材30よりも正面側(前方側)に設けられるとよい。特に、当該透過ディスプレイが、減光部材30と同様にして傾斜配置されるとよい。 (4) Further, for example, in the display device 1 according to the above-described embodiment and each modification, a transmissive display whose transmittance (or transparency) can be adjusted may be further provided. The transmissive display may be provided, for example, in the internal space 100 of the housing 10 on the front side (front side) of the dimming member 30. In particular, it is preferable that the transmissive display is tilted in the same manner as the dimming member 30.

あるいは、当該透過ディスプレイに代えて、透過率(あるいは透過度)を調整可能なフィルムが設けられてもよい。このようにすれば、立体視表示されるキャラクターが徐々に見え始めるような演出を行うことができる。 Alternatively, instead of the transmissive display, a film whose transmittance (or transmissivity) can be adjusted may be provided. In this way, it is possible to produce an effect in which the stereoscopically displayed character gradually begins to appear.

(5)また、上記の実施例および各変形例に係る表示装置1において、さらに、目視者の顔を嵌め込むことが可能なパネル(所謂、顔はめパネル)が開口部5付近に設けられていてもよい。当該パネルは、裸眼立体視可能な位置に設置されているとよい。また、当該パネルにおける筐体10側に絵を描画しておき、目視者が自身の顔を当該パネルに嵌めている状態で目視者の顔が撮影されるようにしてもよい。そして、その撮影画像が、「私を見ているときのあなた」としてSNS(ソーシャル・ネットワーキング・サービス)にアップロードされる仕組みとするとよい。 (5) Further, in the display device 1 according to the above-described embodiment and each modification, a panel (so-called face-fitting panel) into which the face of the viewer can be fitted is further provided in the vicinity of the opening 5. You may. The panel may be installed at a position where it can be viewed stereoscopically with the naked eye. Alternatively, a picture may be drawn on the housing 10 side of the panel so that the viewer's face is photographed with his / her face fitted in the panel. Then, it is preferable that the captured image is uploaded to the SNS (Social Networking Service) as "you when looking at me".

(6)また、片目を閉じて明瞭に(くっきり、ともいう)映像が見える位置に頭を左右に動かし、片目を閉じて明瞭に映像が見える位置で両目を開けるように指示を出力する裸眼立体視表示装置とするとよい。さらに、片目を閉じて明瞭に映像が見える位置で両目を開けた際に映像が2重に見える場合には、再度片目を閉じて更に左右いずれかに移動して、明瞭に映像が見える位置で両目を開けるように指示を出力する裸眼立体視表示装置とするとよい。 (6) Also, a naked-eye stereoscopic image that outputs an instruction to close one eye and move the head left and right to a position where the image can be clearly seen (also called clear), and to close one eye and open both eyes at the position where the image can be clearly seen. It is preferable to use a visual display device. Furthermore, if the image looks double when both eyes are opened at a position where one eye is closed and the image can be clearly seen, close one eye again and move to the left or right to clearly see the image. It is preferable to use an autostereoscopic display device that outputs an instruction to open both eyes.

(7)また、上記の実施例および各変形例に係る表示装置1とともに、当該表示装置1で音声認識可能な語句を印刷した印刷物を同梱したシステムとするとよい。さらに、当該表示装置1とともに、当該表示装置1で音声認識可能な語句を印刷した印刷物を、表示装置1の近傍に設置可能としたシステムとするとよい。 (7) Further, it is preferable that the system includes a printed matter printed with words and phrases that can be recognized by voice by the display device 1 together with the display device 1 according to the above embodiment and each modification. Further, it is preferable to use a system in which a printed matter printed with words and phrases that can be voice-recognized by the display device 1 can be installed in the vicinity of the display device 1 together with the display device 1.

(8)また、音声認識装置が内蔵されており且つ特定方向(例えば、正面方向)に音声の指向性を有する表示装置1を備え、その特定方向とは逆向きに同一の表示装置を配置することを特徴とするシステムとするとよい。例えば、2台の表示装置1のそれぞれの開口部5が互いに反対向きとなるように当該2台の表示装置1が配置されるとよい。このようにすれば、例えば、一方の表示装置1(詳細には、表示装置1のマイク61)において、他方の表示装置1を利用している人物の音声や他方の表示装置1のスピーカ62から出力された音声が入力されてしまうこと、を回避することができる。 (8) Further, a display device 1 having a built-in voice recognition device and having voice directivity in a specific direction (for example, the front direction) is provided, and the same display device is arranged in the direction opposite to the specific direction. It is good to have a system characterized by this. For example, it is preferable that the two display devices 1 are arranged so that the openings 5 of the two display devices 1 are opposite to each other. In this way, for example, in one display device 1 (specifically, the microphone 61 of the display device 1), the voice of a person using the other display device 1 or the speaker 62 of the other display device 1 can be heard. It is possible to avoid inputting the output voice.

(9)また、画像表示部20の表示方式としては、レンチキュラーレンズ方式、パララックスバリア方式などの裸眼立体視方式とするほか、眼鏡を用いて三次元の映像として認識できる表示方式などでもよい。表示装置1の筐体は、直方体形状、立方体形状、円筒形状、その他の多面体形状、球状その他の形状でもよい。また、上述した表示装置1の各構成要素の形状、構造、寸法、色、模様、配置等は一例に過ぎない。また、上述した表示装置1が備える構成要素の一部が省かれてもよいし、別の構成要素が追加されてもよい。表示装置1は据え置き型の表示装置とすることが考えられるが、携帯型あるいは目視者の頭部に装着可能に構成された頭部装着型、眼鏡型などとすることも考えられる。かかる場合に、減光部材としては、目視者の左目で見る画像の画像光と右目で見る画像の画像光との光路上に共通の(単一の)減光部材が配置されるようにするとよい。開口部5は、正面側から見て正方形状でなくてもよく、円形状その他の形状に形成されていてもよい。画像表示部20は、表示素子として有機ELやデジタルミラーデバイスその他の表示素子を用いた画像表示部であってもよい。画像表示部20がバックライト以外の光源を有する表示装置であっても、光源からの光の漏れが視認される可能性があれば、減光部材の存在により、目視者に与えることができる浮遊感を向上させることができる。 (9) The display method of the image display unit 20 may be a lenticular lens method, a paralux barrier method, or other autostereoscopic method, or a display method that can be recognized as a three-dimensional image using eyeglasses. The housing of the display device 1 may have a rectangular parallelepiped shape, a cubic shape, a cylindrical shape, another polyhedral shape, a spherical shape, or another shape. Further, the shape, structure, dimensions, colors, patterns, arrangements, and the like of each component of the display device 1 described above are merely examples. Further, a part of the components included in the display device 1 described above may be omitted, or another component may be added. The display device 1 may be a stationary display device, but it may also be a portable type, a head-worn type, a spectacles type, or the like that can be worn on the head of a viewer. In such a case, as the dimming member, a common (single) dimming member is arranged on the optical path of the image light of the image viewed by the left eye of the viewer and the image light of the image viewed by the right eye. good. The opening 5 does not have to be square when viewed from the front side, and may be formed in a circular shape or other shape. The image display unit 20 may be an image display unit that uses an organic EL, a digital mirror device, or other display element as the display element. Even if the image display unit 20 is a display device having a light source other than the backlight, if there is a possibility that light leakage from the light source can be visually recognized, floating that can be given to the viewer due to the presence of the dimming member. The feeling can be improved.

(10)表示装置1は、画像表示部20以外の1または複数の画像表示部を有してもよい。例えば、第2の画像表示部として、内部空間100の床の全体または一部に、表示面が上方(例えば、鉛直上方向)を向くように配置された表示部が設けられてもよい。第2の画像表示部は、例えば液晶ディスプレイであるが、他方式の表示部でもよい。制御部70が、画像表示部20以外の1または複数の画像表示部の表示を制御するとよい。この場合に、第2の画像表示部にステージ映像が表示され、画像表示部20に3Dキャラクターがされてもよい。このようにすれば、内部空間100の床に画像を用いた演出を行うことができる。また、第2の画像表示部に代えて、発光体(例えば発光ダイオード)と、導光部材と、遮光部材とを用いて床の演出が行われてもよい。この場合、内部空間100の床に導光部材を配置しておき、導光部材の上には所定の模様(例えば魔法陣)に応じた遮光部材が配置される。導光部材に発光体の光を入射すると、導光部材の上面のうち遮光部材が配置されていない領域から光が上方に出射し、目視者はこれを見ることができる。 (10) The display device 1 may have one or a plurality of image display units other than the image display unit 20. For example, as the second image display unit, a display unit arranged so that the display surface faces upward (for example, vertically upward) may be provided on the entire or a part of the floor of the internal space 100. The second image display unit is, for example, a liquid crystal display, but may be a display unit of another type. The control unit 70 may control the display of one or more image display units other than the image display unit 20. In this case, the stage image may be displayed on the second image display unit, and the 3D character may be displayed on the image display unit 20. In this way, it is possible to produce an effect using an image on the floor of the internal space 100. Further, instead of the second image display unit, the floor may be produced by using a light emitting body (for example, a light emitting diode), a light guide member, and a light shielding member. In this case, a light guide member is arranged on the floor of the internal space 100, and a light shielding member corresponding to a predetermined pattern (for example, a magic circle) is arranged on the light guide member. When the light of the light emitting body is incident on the light guide member, the light is emitted upward from the region of the upper surface of the light guide member where the light shielding member is not arranged, and the visual eye can see this.

(11)上記の実施例では、操作部41の押下操作に応じて、画像表示部20に表示されたキャラクターとの対話を行うための音声認識が有効化されているが、これに限定されない。例えば、全周マイクロ波ドップラーセンサなどの人感センサ(検知手段の一例)の検知対象領域において人の存在が検知されると、統括制御部73は、当該音声認識を有効化するようにしてもよい。このようにすれば、ユーザが、画像表示部20に表示されたキャラクターと対話するにあたって、例えば音声認識を有効化するための操作を行う必要やトリガーワードを発声する必要がなく、より自然にコミュニケーションを再現することができる。 (11) In the above embodiment, voice recognition for interacting with the character displayed on the image display unit 20 is enabled in response to the pressing operation of the operation unit 41, but the present invention is not limited to this. For example, when the presence of a person is detected in the detection target area of a motion sensor (an example of a detection means) such as an all-around microwave Doppler sensor, the integrated control unit 73 may enable the voice recognition. good. In this way, when the user interacts with the character displayed on the image display unit 20, for example, it is not necessary to perform an operation for enabling voice recognition or to utter a trigger word, and the user communicates more naturally. Can be reproduced.

この際、例えば、表示装置1内の音声認識アプリケーションでの音声認識と音声認識サーバでの音声認識との双方が有効化されるとよい。ただし、次述するように、表示装置1内の音声認識アプリケーションでの音声認識の有効化と音声認識サーバでの音声認識の有効化とが、段階的に実行されてもよい。例えば、当該人感センサ等の検知対象領域において人の存在が検知されると、表示装置1内の音声認識アプリケーションでの音声認識が有効化され、その後、目視者による声掛けや挨拶が当該音声認識アプリケーションによって検出されると、音声認識サーバでの音声認識が有効化されるようにしてもよい。 At this time, for example, it is preferable that both the voice recognition by the voice recognition application in the display device 1 and the voice recognition by the voice recognition server are enabled. However, as described below, the activation of voice recognition in the voice recognition application in the display device 1 and the activation of voice recognition in the voice recognition server may be executed step by step. For example, when the presence of a person is detected in the detection target area of the human sensor or the like, voice recognition by the voice recognition application in the display device 1 is enabled, and then the voice is spoken or greeted by the visual operator. When detected by the recognition application, speech recognition on the speech recognition server may be enabled.

また、表示装置1がカメラ等の撮影部(検知手段の一例)を備えている場合、表示装置1の正面側(開口部5側)に検知対象空間が設けられ、統括制御部73は、表示装置1の正面側において人の存在が検知されると、音声認識を有効化するようにしてもよい。このようにすれば、画像表示部20に表示されたキャラクターに対して目視者が話しかけようとしていることをより確実に判断した上で、音声認識を有効化することができる。 When the display device 1 is provided with a photographing unit (an example of detection means) such as a camera, a detection target space is provided on the front side (opening 5 side) of the display device 1, and the integrated control unit 73 displays. When the presence of a person is detected on the front side of the device 1, voice recognition may be enabled. In this way, it is possible to enable voice recognition after more reliably determining that the viewer is trying to speak to the character displayed on the image display unit 20.

さらには、検知対象領域において人が検知された後において、ユーザ認証が成功したことを条件に、統括制御部73は、当該音声認識を有効化するように構成されているとよい。なお、ユーザ認証の認証手法は、例えば、ユーザの手操作を要しない認証手法(顔認証、声帯認証等)とするとよい。このようにすれば、例えば表示装置1に登録された登録ユーザ以外の人に対してユーザ認証が行われて当該ユーザ認証が失敗したときには、音声認識が有効化されず、画像表示部20に表示されたキャラクターと対話することができない。逆に言えば、登録ユーザ以外の人に対しては、画像表示部20に表示されたキャラクターが反応を示さない。これにより、当該キャラクターへのユーザの愛着を増大させることができる。 Further, it is preferable that the overall control unit 73 is configured to enable the voice recognition on condition that the user authentication is successful after the person is detected in the detection target area. The user authentication authentication method may be, for example, an authentication method (face authentication, vocal cord authentication, etc.) that does not require manual operation by the user. In this way, for example, when user authentication is performed for a person other than the registered user registered in the display device 1 and the user authentication fails, voice recognition is not enabled and the image display unit 20 displays the image. Cannot interact with the character being played. Conversely, the character displayed on the image display unit 20 does not respond to a person other than the registered user. As a result, the user's attachment to the character can be increased.

また、表示装置1あるいは外部サーバに搭載された対話サーバに予め登録された文言以外の文言の音声が検出された場合は、音声認識が有効化されないようにしてもよい。 Further, when the voice of the wording other than the wording registered in advance is detected in the display device 1 or the dialogue server mounted on the external server, the voice recognition may not be enabled.

また、音声認識を有効化するための手段として、においセンサが用いられてもよい。例えば、表示装置1の登録ユーザのにおいを予め表示装置1に登録しておき、登録ユーザのにおいがにおいセンサによって検知されると、音声認識が有効化されるようにしてもよい。 In addition, an odor sensor may be used as a means for enabling voice recognition. For example, the odor of the registered user of the display device 1 may be registered in the display device 1 in advance, and when the odor of the registered user is detected by the odor sensor, voice recognition may be enabled.

また、これらのようにして音声認識が有効化されたとしても、例えば、画像表示部20に表示されたキャラクター(例えば、3Dキャラクター1100)の音声が直ちに出力されるのではなく、ユーザからの声掛けが無ければ当該キャラクターの音声が出力されないようにするとよい。例えば、統括制御部73は、音声認識が有効化されたことに応答して「おかえり」とのキャラクター音声を直ちに出力するのではなく、音声認識が有効化された状態で「ただいま」とのユーザ音声が検出されたことを条件に、「おかえり」とのキャラクター音声を出力するとよい。さらには、例えば、対話システムにおいて、目視者とキャラクター(例えば3Dキャラクター1100)との間で次のような対話を再現するための分岐シナリオが作成されているとよい。例えば、平日であれば、
ユーザ:ただいま
キャラクター:お帰り〜
ユーザ:アッチー
キャラクター:暑い中お疲れでした
のような対話が再現され、休日であれば、
ユーザ:ただいま
キャラクター:あーお帰り
ユーザ:アッチー
キャラクター:暑い中わざわざ出かけたんだから文句言わない
ユーザ:仕事だよ仕事
キャラクター:ホントだったらごめん、お疲れ様でした
のような対話が再現されるように分岐シナリオが作成されているとよい。
Further, even if voice recognition is enabled in this way, for example, the voice of the character (for example, 3D character 1100) displayed on the image display unit 20 is not immediately output, but the voice from the user. If there is no hook, the voice of the character should not be output. For example, the integrated control unit 73 does not immediately output the character voice of "Welcome back" in response to the voice recognition being enabled, but the user with "I'm home" with the voice recognition enabled. It is advisable to output the character voice of "Welcome back" on condition that the voice is detected. Further, for example, in a dialogue system, it is preferable that a branching scenario for reproducing the following dialogue between the viewer and the character (for example, 3D character 1100) is created. For example, on weekdays
User: I'm home Character: Welcome back ~
User: Atchi Character: If the dialogue is reproduced as if you were tired in the hot weather, and if it is a holiday,
User: I'm home Character: Ah, return User: Atchi Character: I didn't complain because I went out all the way in the hot weather User: It's work Work character: I'm sorry if it's true, branching scenario so that the dialogue like thank you for your hard work is reproduced Should have been created.

また、においセンサによる検知結果に応じた分岐シナリオが作成されていてもよい。例えば、
ユーザ:ごはん美味しくできたよー
キャラクター:「えー、嗅がせて。クンクン。いいにおい!」あるいは「んんー!?塩分多くない?身体に気を付けてね!」
のような対話が再現されるようにしてもよい。
Further, a branching scenario may be created according to the detection result by the odor sensor. for example,
User: The rice was delicious. Character: "Well, smell it. Kunkun. It smells good!" Or "Hmm !? Isn't it salty? Be careful with your body!"
The dialogue such as may be reproduced.

また、他の例として、においセンサによってにおいが検知されると、
キャラクター:クンクン、ん?このにおいはなんだ?
ユーザ:アロマ焚いたんだ
キャラクター:ああ、どうりでリラックスすると思った
のような対話が再現されるようにしてもよい。なお、においの種類の質問に対する目視者の返答内容が分岐シナリオに登録されていない場合、例えば「ほぉー、そうなんだー!」などの音声がキャラクター音声として一律に出力されるとよい。
As another example, when an odor is detected by an odor sensor,
Character: Kunkun, huh? What is this smell?
User: Aroma-fired Character: Oh, you may want to recreate the dialogue that you thought you would relax. If the visual response to the odor type question is not registered in the branch scenario, it is preferable that a voice such as "Wow, that's right!" Is uniformly output as a character voice.

(12)また、統括制御部73は、例えば直近の所定時間(例えば、15秒程度)の音声を常時録音しておき、音声認識を有効化するためのトリガーワードの音声が検出されると、当該音声認識を有効化するようにしてもよい。例えば、表示装置1の音声認識アプリケーションは常時(あるいは、、操作部41の押下操作等に応じて)有効化され、音声認識サーバによる音声認識は、トリガーワードの検出によって有効化されるとよい。そして、この際、統括制御部73(詳細には、通信制御回路706)は、マイク61(音声検出手段の一例)によって検出された検出音声(例えば、検出開始時点から検出終了時点までの間に検出された音声)から当該トリガーワードの音声を除いた音声の音声データを、音声認識サーバに送信するとよい。例えば、「明日東京に行くんだけどレイたん天気教えて」とのユーザ音声が検出されたことを想定する。なお、ここでは、3Dキャラクター1100の愛称である「レイたん」がトリガーワードである。この場合、統括制御部73は、検出音声「明日東京に行くんだけどレイたん天気教えて」からトリガーワードの音声「レイたん」を除いた音声「明日東京に行くんだけどレイたん天気教えて」を音声認識サーバに送信する。 (12) Further, the integrated control unit 73 constantly records, for example, the voice of the latest predetermined time (for example, about 15 seconds), and when the voice of the trigger word for enabling voice recognition is detected, The voice recognition may be enabled. For example, the voice recognition application of the display device 1 may be activated at all times (or in response to a pressing operation of the operation unit 41, etc.), and voice recognition by the voice recognition server may be enabled by detecting a trigger word. At this time, the integrated control unit 73 (specifically, the communication control circuit 706) receives the detected voice (for example, from the detection start time to the detection end time) detected by the microphone 61 (an example of the voice detection means). It is preferable to transmit the voice data of the voice obtained by excluding the voice of the trigger word from the detected voice) to the voice recognition server. For example, suppose that a user voice saying "I'm going to Tokyo tomorrow, but tell me the weather" was detected. Here, the trigger word is "Reitan," which is the nickname of the 3D character 1100. In this case, the general control unit 73 removes the trigger word voice "Reitan" from the detection voice "I'm going to Tokyo tomorrow but tell me the weather" and the voice "I'm going to Tokyo tomorrow but tell me the weather". To the voice recognition server.

ここで、例えば上記のような検出音声「明日東京に行くんだけどレイたん天気教えて」がそのまま音声認識サーバに送信されると、音声認識結果の中に「レイたん」が含まれていることに起因して、対話サーバにおいて音声認識結果に対応するキャラクター音声が正確に抽出されず、ユーザとの対話が噛み合わなくなる虞がある。これに対して、上記のようにすれば、一文の途中でトリガーワードが発声された場合であっても、トリガーワードを除く音声の音声データが音声認識サーバに送信される。したがって、一文の途中にトリガーワードが含まれた状態で音声認識が行われたことに起因してユーザとの対話が噛み合わなくなること、を抑制できる。 Here, for example, if the above-mentioned detection voice "I'm going to Tokyo tomorrow, but tell me the weather" is sent to the voice recognition server as it is, "Rei-tan" is included in the voice recognition result. As a result, the character voice corresponding to the voice recognition result may not be accurately extracted in the dialogue server, and the dialogue with the user may not be engaged. On the other hand, according to the above, even if the trigger word is uttered in the middle of one sentence, the voice data of the voice excluding the trigger word is transmitted to the voice recognition server. Therefore, it is possible to prevent the dialogue with the user from being disengaged due to the voice recognition being performed with the trigger word included in the middle of the sentence.

(13)また、ユーザと画像表示部20に表示されたキャラクターとの対話を音声認識サーバとの連携によって再現するにあたって、音声認識サーバの構成に応じて、次述のような動作が実行されてもよい。 (13) Further, in reproducing the dialogue between the user and the character displayed on the image display unit 20 in cooperation with the voice recognition server, the following operations are executed according to the configuration of the voice recognition server. May be good.

例えば、音声認識サーバが、音声データファイルの受信が完了してから音声認識処理を開始するように構成されている場合、統括制御部73は、マイク61による検出音声のうち、トリガーワードの前後の音声の各音声データファイルを個別に音声認識サーバへと送信するとよい。例えば、検出開始時点から検出終了時点までの間の検出音声のうち、トリガーワードの音声よりも前に検出されたユーザ音声(前半部分のユーザ音声ともいう)の音声データファイルが、トリガーワードの音声よりも後に検出されたユーザ音声(後半部分のユーザ音声ともいう)の音声データファイルに先行して音声認識サーバに送信されるとよい。 For example, when the voice recognition server is configured to start the voice recognition process after the reception of the voice data file is completed, the general control unit 73 has the voice detected by the microphone 61 before and after the trigger word. It is advisable to individually send each voice data file of voice to the voice recognition server. For example, among the detected voices from the detection start time to the detection end time, the voice data file of the user voice (also referred to as the user voice of the first half) detected before the voice of the trigger word is the voice of the trigger word. It is preferable that the voice data file of the user voice (also referred to as the user voice in the latter half) detected later is transmitted to the voice recognition server prior to the voice data file.

このようにすれば、音声認識サーバにおいて、前半部分のユーザ音声に対する音声認識処理が、後半部分のユーザ音声の音声データファイルの受信完了を待たずに開始される。そのため、前半部分のユーザ音声と後半部分のユーザ音声とをまとめた音声の音声データファイルを音声認識サーバに送信する場合と比較して、音声認識処理を効率的に行うことができる。その結果、表示装置1は、対話サーバからのキャラクター音声をより早期に受信することができ、ユーザの音声に対して応答されるまでのユーザの待機時間を短縮できる。 In this way, the voice recognition server starts the voice recognition process for the user voice in the first half without waiting for the completion of receiving the voice data file of the user voice in the second half. Therefore, the voice recognition process can be performed more efficiently as compared with the case where the voice data file of the voice in which the user voice of the first half portion and the user voice of the second half portion are combined is transmitted to the voice recognition server. As a result, the display device 1 can receive the character voice from the dialogue server earlier, and can shorten the waiting time of the user until the user's voice is responded to.

また、例えば、音声認識サーバが、表示装置1からの音声データをストリーム再生して音声認識処理をリアルタイムで実行するように構成されている場合、前半部分の音声データがリアルタイムで音声認識サーバに送信される際に、前半部分のユーザ音声の再生速度T1が標準再生速度T0より速く(T1>T0)なるように制御されるとよい。例えば、統括制御部73は、音声認識サーバにおいて当該前半部分のユーザ音声が標準再生速度T0に対して25%速く再生されるように設定変更して当該前半部分の音声データを送信する。このようにすれば、音声認識サーバにおいて、前半部分のユーザ音声が標準再生速度T0で再生される場合と比較して、前半部分のユーザ音声に対する音声認識処理をより早期に終了させることができ、後半部分のユーザ音声に対する音声認識処理をより早期に開始することができる。その結果、表示装置1は、対話サーバからのキャラクター音声をより早期に受信することができ、ユーザの音声に対して応答されるまでのユーザの待機時間を短縮できる。 Further, for example, when the voice recognition server is configured to stream-reproduce the voice data from the display device 1 and execute the voice recognition process in real time, the voice data of the first half is transmitted to the voice recognition server in real time. At that time, it is preferable that the reproduction speed T1 of the user voice in the first half portion is controlled to be faster than the standard reproduction speed T0 (T1> T0). For example, the overall control unit 73 changes the setting so that the user voice of the first half portion is reproduced 25% faster than the standard reproduction speed T0 on the voice recognition server, and transmits the voice data of the first half portion. In this way, in the voice recognition server, the voice recognition process for the user voice in the first half can be completed earlier than in the case where the user voice in the first half is played back at the standard playback speed T0. The voice recognition process for the user voice in the latter half can be started earlier. As a result, the display device 1 can receive the character voice from the dialogue server earlier, and can shorten the waiting time of the user until the user's voice is responded to.

さらに、後半部分のユーザ音声の音声データがリアルタイムで音声認識サーバに送信される際に、後半部分の音声の再生速度T2が標準再生速度T0よりも速く且つ前半部分のユーザ音声の再生速度T1よりも遅くなる(つまり、T0<T2<T1の関係を満たす)ように制御されるとよい。例えば、統括制御部73は、音声認識サーバにおいて後半部分のユーザ音声が標準再生速度T0に対して10%速く再生されるように設定変更して当該後半部分の音声データを送信する。このようにすれば、前半部分のユーザ音声と後半部分のユーザ音声との双方が標準再生速度T0よりも速くストリーム再生されて、音声認識サーバにおいて音声認識処理が実行される。その結果、ユーザの音声に対して応答されるまでのユーザの待機時間を更に短縮できる。他方で、後半部分のユーザ音声は、標準再生速度T0よりは速いものの、前半部分のユーザ音声の再生速度T1よりは遅い速度で再生される。そのため、音声認識システムにおける音声認識精度の低下を抑制できる。したがって、音声認識精度の低下を抑制しつつ、ユーザの待機時間をより短縮することができる。 Further, when the voice data of the user voice in the latter half is transmitted to the voice recognition server in real time, the voice reproduction speed T2 in the latter half is faster than the standard playback speed T0 and is higher than the user voice playback speed T1 in the first half. It is also preferable that the speed is controlled so as to be slow (that is, the relationship of T0 <T2 <T1 is satisfied). For example, the overall control unit 73 changes the setting so that the user voice of the latter half portion is reproduced 10% faster than the standard reproduction speed T0 on the voice recognition server, and transmits the voice data of the latter half portion. In this way, both the user voice of the first half portion and the user voice of the second half portion are stream-reproduced faster than the standard reproduction speed T0, and the voice recognition process is executed in the voice recognition server. As a result, the waiting time of the user until the response to the user's voice can be further shortened. On the other hand, the user voice of the latter half portion is reproduced at a speed faster than the standard reproduction speed T0, but slower than the reproduction speed T1 of the user voice of the first half portion. Therefore, it is possible to suppress a decrease in voice recognition accuracy in the voice recognition system. Therefore, the waiting time of the user can be further shortened while suppressing the deterioration of the voice recognition accuracy.

なお、音声認識サーバにおいて、音声データのストリーム再生による音声認識処理がリアルタイムで実行される場合、例えば、マイク61によって検出されたユーザ音声がリアルタイムで音声認識サーバへと送信されるものの、トリガーワードの音声が検出されるまでは音声認識サーバでの音声認識が開始されないように制御されるとよい。 When the voice recognition process is executed in real time by playing a stream of voice data in the voice recognition server, for example, the user voice detected by the microphone 61 is transmitted to the voice recognition server in real time, but the trigger word is used. It is preferable to control so that the voice recognition by the voice recognition server is not started until the voice is detected.

[その他の拡張例等]
上述の実施例および各変形例は例示であり、上記の実施例および各変形例で示した構成の部分的な置換または組み合わせが可能であることは言うまでもなく、また、上記の実施例および各変形例に記載の各構成要素は、任意に組み合わせるとよい。例えば、制御部70は、上記の実施例および各変形例のうちのいずれか一の処理と他の処理とを並行して(例えばマルチタスク等で)実行するようにしてもよい。
[Other extended examples, etc.]
It goes without saying that the above-described examples and each modification are examples, and it is possible to partially replace or combine the configurations shown in the above-mentioned examples and each modification, and the above-mentioned examples and each modification are possible. Each component described in the example may be combined arbitrarily. For example, the control unit 70 may execute the process of any one of the above-described embodiment and each modification and the other process in parallel (for example, by multitasking).

また、課題を解決する手段に記載の発明や各構成要素を、上記の実施例および各変形例の各構成要素の組み合わせにさらに適用してもよい。複数の実施例および複数の変形例の同様の構成による同様の作用効果については実施例および変形例ごとには逐次言及しない。さらに、本発明は上述の実施例に制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。 Further, the invention and each component described in the means for solving the problem may be further applied to the combination of each component of the above-described embodiment and each modification. Similar effects and effects due to the similar configuration of the plurality of examples and the plurality of modifications will not be mentioned sequentially for each of the examples and the modifications. Furthermore, the present invention is not limited to the above-mentioned examples. For example, it will be obvious to those skilled in the art that various changes, improvements, combinations, etc. are possible.

1 表示装置
5 開口部
10 筐体
11 筐体の本体部
12 上面カバー部
20 画像表示部
30 減光部材
40 操作部
61 マイク
62 スピーカ
63 ジェスチャーセンサ
64 人感センサ
1 Display device 5 Opening 10 Housing 11 Main body of housing 12 Top cover 20 Image display 30 Dimming member 40 Operation unit 61 Microphone 62 Speaker 63 Gesture sensor 64 Human sensor

Claims (23)

画像を表示する表示装置であって、
遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
前記内部空間に配置された画像表示部と、
前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
を備える表示装置。
A display device that displays images
A housing provided with an opening for viewing the image on the first direction side in a shaded internal space, and a housing.
An image display unit arranged in the internal space and
A dimming member arranged on the first direction side of the image display unit at a distance from the image display unit.
A display device comprising.
前記減光部材は、前記開口部と前記画像表示部との間に配置される
請求項1に記載の表示装置。
The display device according to claim 1, wherein the dimming member is arranged between the opening and the image display unit.
前記減光部材の前記第1方向側の面は、前記画像表示部の表示面に対して傾斜している
請求項2に記載の表示装置。
The display device according to claim 2, wherein the surface of the dimming member on the first direction side is inclined with respect to the display surface of the image display unit.
前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示する
請求項3に記載の表示装置。
The display device according to claim 3, wherein the image display unit displays a first image recognized as an image recognized as a three-dimensional image, at least a part of which is recognized to be on the opening side of the dimming member. ..
前記画像表示部は、三次元画像として認識される画像として、前記第1の画像と、前記第1の画像よりも前記第1方向側または前記第1方向側とは反対の第2方向側に存在すると認識される第2の画像とを含む複数の画像のいずれかを選択的に表示する
請求項4に記載の表示装置。
The image display unit is, as an image recognized as a three-dimensional image, on the first image and a second direction side opposite to the first direction side or the first direction side of the first image. The display device according to claim 4, wherein any of a plurality of images including a second image recognized as existing is selectively displayed.
前記筐体に設けられた音声出力部をさらに有し、
前記音声出力部は、前記筐体の前記内部空間に面する第1面のうち、前記減光部材よりも前記第1方向側で、かつ前記開口部との距離よりも前記減光部材との距離が小さい位置に設けられる
請求項2〜請求項5のいずれか1項に記載の表示装置。
Further having an audio output unit provided in the housing,
The audio output unit is on the first surface of the housing facing the internal space, on the first direction side of the dimming member, and with the dimming member rather than the distance from the opening. The display device according to any one of claims 2 to 5, which is provided at a position where the distance is small.
前記開口部の上端部は、前記画像表示部の表示面の上端部よりもさらに上方に設けられており、
前記内部空間の上面は、前記開口部の上端部から前記表示面の上端部へと向かうに従って下方に傾斜している
請求項1〜請求項6のいずれか1項に記載の表示装置。
The upper end portion of the opening is provided further above the upper end portion of the display surface of the image display unit.
The display device according to any one of claims 1 to 6, wherein the upper surface of the internal space is inclined downward from the upper end of the opening toward the upper end of the display surface.
前記画像表示部は、光源と、前記光源からの光を変調して画像を表示する表示体とを有する
請求項1〜請求項7のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 7, wherein the image display unit includes a light source and a display body that modulates the light from the light source to display an image.
前記開口部の上端部は、前記開口部の下端部よりも前記第1方向側に突出している
請求項1〜請求項7のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 7, wherein the upper end portion of the opening protrudes toward the first direction side from the lower end portion of the opening.
前記筐体は、前記筐体の上面にカバー部を有するとともに、前記カバー部と前記筐体の内周面のうちの上面との間に収容空間を有し、
前記表示装置に関する制御部は、前記収容空間に配置される
請求項1〜請求項9のいずれか1項に記載の表示装置。
The housing has a cover portion on the upper surface of the housing and has a storage space between the cover portion and the upper surface of the inner peripheral surface of the housing.
The display device according to any one of claims 1 to 9, wherein the control unit related to the display device is arranged in the accommodation space.
前記筐体の前記内部空間よりも下方に設けられた電源部を備え、
前記電源部と前記制御部とを電気的に接続する接続コードは、前記筐体の外周壁と前記内部空間との間に確保された隙間領域を通るように配線される
請求項10に記載の表示装置。
A power supply unit provided below the internal space of the housing is provided.
The tenth aspect of the present invention, wherein the connection cord for electrically connecting the power supply unit and the control unit is wired so as to pass through a gap region secured between the outer peripheral wall of the housing and the internal space. Display device.
前記カバー部は、複数の取付位置で前記筐体の本体部に対して取り付けられるとともに、
前記カバー部と前記本体部とは、
前記複数の取付位置のうち前記第1方向側の第1の取付位置では、前記筐体の外周壁よりも内側の位置において第1の固定具を用いて結合され、
前記表示装置の第1の取付位置よりも前記第1方向とは反対側の第2方向側の第2の取付位置では、前記筐体の外周壁の外側から第2の固定具を用いて結合される
請求項10または請求項11に記載の表示装置。
The cover portion is attached to the main body portion of the housing at a plurality of attachment positions, and is attached to the main body portion of the housing.
The cover portion and the main body portion
Among the plurality of mounting positions, at the first mounting position on the first direction side, the first mounting tool is used to connect the housing at a position inside the outer peripheral wall of the housing.
At the second mounting position on the side opposite to the first direction from the first mounting position of the display device, a second fixture is used to connect the display device from the outside of the outer peripheral wall of the housing. The display device according to claim 10 or 11.
前記筐体のうち、前記開口部よりも前記第1方向側の前記筐体の下側部分に設けられた操作部、をさらに備える
請求項1〜請求項12のいずれか1項に記載の表示装置。
The display according to any one of claims 1 to 12, further comprising an operation unit provided in a lower portion of the housing on the first direction side of the housing. Device.
複数の前記減光部材が着脱可能に設けられている
請求項1〜請求項13のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 13, wherein a plurality of the dimming members are detachably provided.
前記画像表示部には、特定のキャラクターが表示され、
目視者の動作を検出可能な動作検出手段と、
前記動作検出手段による検出結果に応じて前記特定のキャラクターの動作を制御する動作制御手段と、
をさらに備える
請求項1〜請求項14のいずれか1項に記載の表示装置。
A specific character is displayed on the image display unit.
Motion detection means that can detect the motion of the viewer,
An motion control means that controls the motion of the specific character according to a detection result by the motion detection means, and
The display device according to any one of claims 1 to 14.
前記動作検出手段は、物体の挙動を検出可能な挙動検出センサであり、
前記挙動検出センサは、前記筐体の内部空間で行われたジェスチャーを検出するように配置されている
請求項15に記載の表示装置。
The motion detecting means is a behavior detection sensor capable of detecting the behavior of an object.
The display device according to claim 15, wherein the behavior detection sensor is arranged so as to detect a gesture performed in the internal space of the housing.
前記挙動検出センサは、前記筐体の内周面のうちの上面に配置されている
請求項16に記載の表示装置。
The display device according to claim 16, wherein the behavior detection sensor is arranged on the upper surface of the inner peripheral surface of the housing.
前記挙動検出センサは、光を出射してその反射光を受光して前記ジェスチャーを検出し、
前記光の出射方向に設けられ、当該出射した光が当該挙動検出センサに受光されることを抑制する部材、
をさらに備える
請求項16または請求項17に記載の表示装置。
The behavior detection sensor emits light, receives the reflected light, and detects the gesture.
A member provided in the light emitting direction and suppressing the emitted light from being received by the behavior detection sensor.
The display device according to claim 16 or 17, further comprising.
においを検知するにおいセンサと、
前記においセンサによる検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記においセンサによる検知結果に応じた音声を前記画像表示部に表示された前記キャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、
をさらに備える
請求項1〜請求項14のいずれか1項に記載の表示装置。
An odor sensor that detects odors and
The display output operation of displaying the image of the character performing the movement according to the detection result by the odor sensor on the image display unit, and the character displaying the voice according to the detection result of the odor sensor on the image display unit An operation control means that executes at least one of an audio output operation that is output as an emitted sound, and an operation control means that executes at least one of them.
The display device according to any one of claims 1 to 14.
前記表示出力動作は、検知されたにおいの種類に応じた動きを前記キャラクターが行う映像を前記画像表示部に表示する動作であり、
前記音声出力動作は、検知されたにおいの種類に応じた音声を前記キャラクターが発する音声として出力する動作である
請求項19に記載の表示装置。
The display output operation is an operation of displaying an image of the character performing a movement according to the type of detected odor on the image display unit.
The display device according to claim 19, wherein the voice output operation is an operation of outputting a voice corresponding to the type of detected odor as a voice emitted by the character.
音声を検出可能な音声検出手段と、
検知対象領域における人の存在を検知可能な検知手段と、
をさらに備え、
前記音声検出手段は、前記検知対象領域における人の存在が検知されると、前記画像表示部に表示されたキャラクターとの対話を行うための音声認識を有効化する
請求項1〜請求項20のいずれか1項に記載の表示装置。
A voice detection means that can detect voice and
A detection means that can detect the presence of a person in the detection target area,
With more
13. The display device according to any one item.
風を検知する風検知手段と、
前記風検知手段による検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記風検知センサによる検知結果に応じた音声を前記画像表示部に表示されたキャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、
をさらに備える
請求項1〜請求項14のいずれか1項に記載の表示装置。
Wind detection means to detect wind and
A display output operation that displays an image of the character performing a movement according to the detection result by the wind detection means on the image display unit, and a character that displays a voice according to the detection result by the wind detection sensor on the image display unit. An operation control means that executes at least one of the audio output operations that are output as audio emitted by
The display device according to any one of claims 1 to 14.
前記動作制御手段は、前記風検知手段による検知結果に基づき、ユーザの吹きかけた息に応じて前記表示出力動作または前記音声出力動作を行う
請求項22に記載の表示装置。
The display device according to claim 22, wherein the motion control means performs the display output operation or the voice output operation according to the breath blown by the user based on the detection result by the wind detecting means.
JP2020064321A 2020-01-23 2020-03-31 Display devices, etc. Active JP7475027B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024004254A JP2024032778A (en) 2020-01-23 2024-01-16 Display device and the like

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020009457 2020-01-23
JP2020009457 2020-01-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024004254A Division JP2024032778A (en) 2020-01-23 2024-01-16 Display device and the like

Publications (2)

Publication Number Publication Date
JP2021117479A true JP2021117479A (en) 2021-08-10
JP7475027B2 JP7475027B2 (en) 2024-04-26

Family

ID=77174802

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020064321A Active JP7475027B2 (en) 2020-01-23 2020-03-31 Display devices, etc.
JP2024004254A Pending JP2024032778A (en) 2020-01-23 2024-01-16 Display device and the like

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024004254A Pending JP2024032778A (en) 2020-01-23 2024-01-16 Display device and the like

Country Status (1)

Country Link
JP (2) JP7475027B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119527A1 (en) * 2021-12-22 2023-06-29 マクセル株式会社 Mobile information terminal and information processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1062717A (en) * 1996-08-20 1998-03-06 Nippon Sheet Glass Co Ltd Picture embossing display device
JP2000219060A (en) * 1999-01-29 2000-08-08 Nippon Seiki Co Ltd Display
US20030035086A1 (en) * 2001-08-20 2003-02-20 Robinson Douglas L. Real image projection device incorporating e-mail register
JP2005141102A (en) * 2003-11-07 2005-06-02 Pioneer Electronic Corp Stereoscopic two-dimensional image display device and its method
WO2006035816A1 (en) * 2004-09-30 2006-04-06 Pioneer Corporation Pseudo-3d two-dimensional image display device
JP2010277019A (en) * 2009-06-01 2010-12-09 Pioneer Electronic Corp Image display device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1062717A (en) * 1996-08-20 1998-03-06 Nippon Sheet Glass Co Ltd Picture embossing display device
JP2000219060A (en) * 1999-01-29 2000-08-08 Nippon Seiki Co Ltd Display
US20030035086A1 (en) * 2001-08-20 2003-02-20 Robinson Douglas L. Real image projection device incorporating e-mail register
JP2005141102A (en) * 2003-11-07 2005-06-02 Pioneer Electronic Corp Stereoscopic two-dimensional image display device and its method
WO2006035816A1 (en) * 2004-09-30 2006-04-06 Pioneer Corporation Pseudo-3d two-dimensional image display device
JP2010277019A (en) * 2009-06-01 2010-12-09 Pioneer Electronic Corp Image display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119527A1 (en) * 2021-12-22 2023-06-29 マクセル株式会社 Mobile information terminal and information processing method

Also Published As

Publication number Publication date
JP2024032778A (en) 2024-03-12
JP7475027B2 (en) 2024-04-26

Similar Documents

Publication Publication Date Title
KR102014623B1 (en) Image display apparatus, topic selection method, topic selection program, image display method and image display program
JP6165302B1 (en) Image display device, topic selection method, topic selection program
US10366689B2 (en) Communication robot
CN112512653B (en) Amusement park sight spot based on light field display system
JP2018014575A (en) Image display device, image display method, and image display program
JP6682475B2 (en) Image display device, topic selection method, topic selection program
JP2019139170A (en) Image display device, image display method, and image display program
JP2024032778A (en) Display device and the like
JP7448142B2 (en) Display device etc.
JP2023035270A (en) Display device, etc
JP6667878B1 (en) Costume effect support device, costume effect support system, and costume effect support method
JP2022157245A (en) System and the like
JP2022157238A (en) System and the like
JP7329457B2 (en) Costume production support device, costume production support system, and costume production support method
JP2019139169A (en) Image display device, image display method, and image display program
CA3149177A1 (en) Light field display system for gaming environments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240116

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240409

R150 Certificate of patent or registration of utility model

Ref document number: 7475027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150