JP2024032778A - Display device etc. - Google Patents

Display device etc. Download PDF

Info

Publication number
JP2024032778A
JP2024032778A JP2024004254A JP2024004254A JP2024032778A JP 2024032778 A JP2024032778 A JP 2024032778A JP 2024004254 A JP2024004254 A JP 2024004254A JP 2024004254 A JP2024004254 A JP 2024004254A JP 2024032778 A JP2024032778 A JP 2024032778A
Authority
JP
Japan
Prior art keywords
display device
character
image
display
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024004254A
Other languages
Japanese (ja)
Inventor
利夫 黒瀬
真一 西村
裕 山下
英樹 石橋
隆之 水野
勇喜 清水
幹雄 島津江
圭三 高橋
篤 石橋
康一 野口
隆 浅野
茂 小池
Original Assignee
株式会社ユピテル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ユピテル filed Critical 株式会社ユピテル
Publication of JP2024032778A publication Critical patent/JP2024032778A/en
Pending legal-status Critical Current

Links

Abstract

【課題】表示画像に関して高い視認性を得ることができる表示装置等を提供する。【解決手段】表示装置1は、筐体10と、画像表示部20と、減光部材30とを備える。筐体10には、遮光された内部空間100において第1方向側に画像を見るための開口部5が設けられており、画像表示部20は、当該内部空間100に配置されている。減光部材30は、画像表示部20よりも当該第1方向側に、画像表示部20とは間隔を空けて配置されている。【選択図】図6The present invention provides a display device and the like that can provide high visibility of displayed images. A display device (1) includes a housing (10), an image display section (20), and a dimming member (30). The housing 10 is provided with an opening 5 for viewing an image in the first direction in a light-shielded internal space 100, and the image display section 20 is disposed in the internal space 100. The light attenuation member 30 is arranged closer to the first direction than the image display section 20 and spaced apart from the image display section 20 . [Selection diagram] Figure 6

Description

例えば、画像を表示可能な表示装置等に関する。 For example, the present invention relates to a display device capable of displaying images.

画像表示部を有し、当該画像表示部に二次元画像や三次元画像を表示する表示装置が存在する。例えば特許文献1には、画像表示部に三次元画像を表示する表示装置が示されている。 There is a display device that has an image display section and displays a two-dimensional image or a three-dimensional image on the image display section. For example, Patent Document 1 discloses a display device that displays a three-dimensional image on an image display section.

特開2003-295113号公報Japanese Patent Application Publication No. 2003-295113

しかしながら、特許文献1等に記載されているような表示装置では、その表示装置の構成によっては、例えば画像表示部からの画像光と外光とが相まって、表示画像に関する視認性が低下し得ることがあるという知見を本願の発明者は得た。 However, in the display device described in Patent Document 1 etc., depending on the configuration of the display device, for example, the image light from the image display unit and external light may combine, resulting in a decrease in the visibility of the displayed image. The inventor of the present application has obtained the knowledge that there is.

本発明は、表示画像に関して高い視認性を得ることができる表示装置等を提供することを目的の一つとする。 One of the objects of the present invention is to provide a display device and the like that can obtain high visibility of displayed images.

本発明の目的はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」と記載した箇所を「~が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、各々の課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙示的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正または分割出願にて特許請求の範囲とする意思を有する。またこれら独立の課題を組み合わせた課題を解決する構成についても開示しているものであり、権利取得する意思を有する。 The purpose of the present invention is not limited to this, and we intend to acquire rights through divisional applications, amendments, etc. for structures that aim to obtain effects from the parts of the structures disclosed in this specification, drawings, etc. For example, the present specification discloses a problem in which the phrase ``can be done'' is replaced with ``the problem is.'' Each issue is described as an independent entity, and we intend to acquire rights to the structure for solving each issue individually through divisional applications, amendments, etc. Even if the problem is implicitly understood from the description of the specification, the present applicant has the intention of claiming a part of the structure described in the specification in an amendment or divisional application. The company also discloses a structure that solves a problem that combines these independent problems, and has the intention to acquire the rights to it.

本発明の目的は、例えば、以下の(1)~(23)の形態により達成することができる。 The object of the present invention can be achieved, for example, by the following embodiments (1) to (23).

(1)画像を表示する表示装置であって、遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、前記内部空間に配置された画像表示部と、前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、を備える表示装置とするとよい。 (1) A display device for displaying an image, comprising: a housing provided with an opening for viewing the image in a first direction in a light-shielded interior space; and an image display section disposed in the interior space. The display device may further include a light attenuating member disposed closer to the first direction than the image display section and spaced apart from the image display section.

このようにすれば、筐体の内部空間へと外光が入り込むことを抑制できるとともに、画像表示部からの画像光が目視者の目に直接届くことが抑制される。したがって、筐体の内部空間に認識される画像を、画像表示部からの画像光と外光とが相まって視認し難くなることを抑制でき、表示画像に関して高い視認性を得ることができる表示装置を提供することができる。 In this way, it is possible to suppress external light from entering the internal space of the casing, and it is also possible to suppress image light from the image display section from directly reaching the viewer's eyes. Therefore, it is possible to suppress the image light from the image display section and the outside light from making it difficult to see the image recognized in the internal space of the casing, and to obtain a display device that can obtain high visibility of the displayed image. can be provided.

(2)前記減光部材は、前記開口部と前記画像表示部との間に配置されるとよい。 (2) The light attenuation member may be disposed between the opening and the image display section.

このようにすれば、筐体の内部において減光部材よりも画像を見る側に空間領域が形成されるので、当該空間領域を所定の用途に利用することができる。 In this way, a spatial region is formed inside the housing on the side where the image is viewed rather than the light attenuation member, so that the spatial region can be used for a predetermined purpose.

(3)前記減光部材の前記第1方向側の面は、前記画像表示部の表示面に対して傾斜しているとよい。 (3) The surface of the light attenuation member on the first direction side may be inclined with respect to the display surface of the image display section.

このようにすれば、目視者が減光部材を介して画像表示部を見た際に、当該減光部材に目視者の顔が反射により映り込むことを軽減できる。 In this way, when the viewer views the image display section through the light attenuation member, it is possible to reduce the possibility that the viewer's face is reflected on the light attenuation member.

(4)前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示するとよい。 (4) The image display unit preferably displays a first image that is recognized as being at least partially located closer to the opening than the light attenuation member, as the image that is recognized as a three-dimensional image.

このようにすれば、目視者は、三次元画像として認識できる画像に触れることができるような感覚を得ることができる。 In this way, the viewer can feel as if he or she can touch an image that can be recognized as a three-dimensional image.

(5)前記画像表示部は、三次元画像として認識される画像として、前記第1の画像と、前記第1の画像よりも前記第1方向側または前記第1方向側とは反対の第2方向側に存在すると認識される第2の画像とを含む複数の画像のいずれかを選択的に表示するとよい。 (5) The image display unit displays the first image and a second image on the first direction side or opposite to the first direction side from the first image as images recognized as three-dimensional images. It is preferable to selectively display any one of a plurality of images including a second image recognized to exist on the direction side.

このようにすれば、目視者によって三次元の画像として認識される画像が存在すると認識される位置が異なる第1の画像と第2の画像とを含む複数の画像のいずれかを選択的に表示することができるので、目視者に与える立体感を変更することができる。 In this way, it is possible to selectively display one of the plurality of images including the first image and the second image in different positions where the image recognized as a three-dimensional image by the viewer is recognized as existing. Therefore, the three-dimensional effect given to the viewer can be changed.

(6)前記筐体に設けられた音声出力部をさらに有し、前記音声出力部は、前記筐体の前記内部空間に面する第1面のうち、前記減光部材よりも前記第1方向側で、かつ前記開口部との距離よりも前記減光部材との距離が小さい位置に設けられるとよい。 (6) The casing further includes an audio output unit provided in the casing, and the audio output unit is arranged in the first direction from the light attenuation member on a first surface facing the internal space of the casing. It is preferable that the light attenuating member be provided at a position where the distance from the light attenuation member is smaller than the distance from the opening.

このようにすれば、音声出力部により出力された音声が減光部材に反射して目視者に伝達されることがあるため、目視者に対して、例えば画像表示部に表示された画像自体から音声が聞こえているように感じさせることができる。また、音声出力部が目視者から見え難い位置に配置されていることにより、表示装置のデザイン性を高めることもできる。 In this way, since the sound output by the sound output section may be reflected by the light reduction member and transmitted to the viewer, it is possible for the viewer to hear the sound output from the image itself displayed on the image display section. It can make you feel like you can hear the voice. Furthermore, by arranging the audio output section in a position that is difficult for the viewer to see, the design of the display device can be improved.

(7)前記開口部の上端部は、前記画像表示部の表示面の上端部よりもさらに上方に設けられており、前記内部空間の上面は、前記開口部の上端部から前記表示面の上端部へと向かうに従って下方に傾斜しているとよい。 (7) The upper end of the opening is provided further above the upper end of the display surface of the image display section, and the upper surface of the internal space extends from the upper end of the opening to the upper end of the display surface. It is preferable that it slopes downward toward the lower part.

このようにすれば、画像表示部に表示された画像を見下ろしながら視認することができるので、目視者に自然な姿勢で画像を視認させやすくすることができる。 In this way, the image displayed on the image display section can be viewed while looking down, making it easier for the viewer to view the image in a natural posture.

(8)前記画像表示部は、光源と、前記光源からの光を変調して画像を表示する表示体とを有するとよい。 (8) The image display section preferably includes a light source and a display body that modulates light from the light source to display an image.

光源からの光を変調して画像を表示する画像表示部において、光源からの光が漏れ出てしまってその光源の位置が目視者に認識されてしまうことにより、内部空間に画像が浮かび上がっているような浮遊感が損なわれてしまうおそれがある。減光部材の存在により、光源から漏れ出た光が視認され難くなるので、画像のより高い浮遊感を与えることができる。 In an image display unit that modulates the light from a light source to display an image, the light from the light source leaks out and the position of the light source is recognized by the viewer, causing the image to appear in the internal space. There is a risk that the floating feeling of being in a room will be lost. The presence of the light attenuation member makes it difficult for the light leaking from the light source to be visually recognized, making it possible to give the image a more floating feeling.

(9)前記開口部の上端部は、前記開口部の下端部よりも前記第1方向側に突出しているとよい。 (9) The upper end of the opening may protrude more toward the first direction than the lower end of the opening.

このようにすれば、表示装置の上方からの光が減光部材に反射することによって画像表示部における画像の視認性が低下すること、を抑制することができる。 In this way, it is possible to prevent the visibility of the image on the image display section from being reduced due to reflection of light from above the display device by the light attenuation member.

(10)前記筐体は、前記筐体の上面にカバー部を有するとともに、前記カバー部と前記筐体の内周面のうちの上面との間に収容空間を有し、前記表示装置に関する制御部は、前記収容空間に配置されるとよい。 (10) The casing has a cover part on the top surface of the casing, and has an accommodation space between the cover part and the top surface of the inner circumferential surface of the casing, and controls the display device. A portion may be disposed in the accommodation space.

このようにすれば、表示装置に関する制御部のメンテナンスを、筐体の上面に設けられたカバー部を外して行うことができる。したがって、表示装置のメンテナンス性を向上させることができる。 In this way, maintenance of the control section related to the display device can be performed by removing the cover section provided on the top surface of the casing. Therefore, maintainability of the display device can be improved.

(11)前記筐体の前記内部空間よりも下方に設けられた電源部を備え、前記電源部と前記制御部とを電気的に接続する接続コードは、前記筐体の外周壁と前記内部空間との間に確保された隙間領域を通るように配線されるとよい。 (11) A power supply unit is provided below the internal space of the casing, and a connection cord that electrically connects the power supply unit and the control unit is connected to an outer peripheral wall of the casing and the internal space. It is preferable that the wiring be routed through a gap area provided between the two.

このようにすれば、電源部が目立ち難い位置に配置されるとともに表示装置の重心位置を低くすることができ、その姿勢を安定させやすくする。また、電源部と制御部とを接続する接続コードを目視者の目に触れないように配線することができる。 In this way, the power supply section can be disposed in a less conspicuous position, and the center of gravity of the display device can be lowered, making it easier to stabilize its posture. Further, the connection cord connecting the power supply section and the control section can be wired so as not to come into contact with the viewer's eyes.

(12)前記カバー部は、複数の取付位置で前記筐体の本体部に対して取り付けられるとともに、前記カバー部と前記本体部とは、前記複数の取付位置のうち前記第1方向側の第1の取付位置では、前記筐体の外周壁よりも内側の位置において第1の固定具を用いて結合され、前記表示装置の第1の取付位置よりも前記第1方向とは反対側の第2方向側の第2の取付位置では、前記筐体の外周壁の外側から第2の固定具を用いて結合されるとよい。 (12) The cover portion is attached to the main body portion of the casing at a plurality of attachment positions, and the cover portion and the main body portion are connected to the first direction side of the plurality of attachment positions. At the first mounting position, the display device is coupled using a first fixture at a position inside the outer peripheral wall of the casing, and at a position opposite to the first direction from the first mounting position of the display device. At the second attachment position on the two-direction side, it is preferable that the housing be coupled from the outside of the outer peripheral wall of the housing using a second fixture.

このようにすれば、目視者の目に触れ難い第2の取付位置においては、外周壁の外側から着脱できる第2の固定具を用いて筐体の外周壁の外側からカバー部と本体部とが結合されるとともに、目視者の目に触れ易い第1の取付位置においては、目視者に目視され難い場所で第1の固定具を用いてカバー部と本体部とが結合されるので、表示装置のデザイン性を高めることができる。 In this way, in the second mounting position that is difficult for viewers to see, the cover part and the main body part can be attached from the outside of the outer peripheral wall of the casing using the second fixing device that can be attached and detached from the outside of the outer peripheral wall. At the first mounting position, which is easily visible to the viewer, the cover part and the main body part are joined using the first fixing tool at a place that is difficult to see by the viewer, so that the display is not visible. The design of the device can be improved.

(13)前記筐体のうち、前記開口部よりも前記第1方向側の前記筐体の下側部分に設けられた操作部、をさらに備える表示装置とするとよい。 (13) The display device may further include an operation section provided in a lower part of the casing on a side in the first direction of the casing.

このようにすれば、目視者が操作部を操作する際に、例えば目視者の手が画像表示部の表示画像に重なることがなく、目視者は、画像表示部の表示画像を見ながら操作部を操作することができる。したがって、目視者が操作部に対する操作を行い易くなるので、表示装置の操作性を向上させることができる。 In this way, when the viewer operates the operation section, for example, the viewer's hand does not overlap the display image on the image display section, and the viewer operates the operation section while looking at the display image on the image display section. can be operated. Therefore, it becomes easier for the viewer to operate the operation unit, so that the operability of the display device can be improved.

(14)複数の前記減光部材が着脱可能に設けられているとよい。 (14) It is preferable that a plurality of the light attenuation members are detachably provided.

このようにすれば、画像表示部に表示される画像の明るさを、別途の調整部材を設けることなく調整することができる。 In this way, the brightness of the image displayed on the image display section can be adjusted without providing a separate adjustment member.

(15)前記画像表示部には、特定のキャラクターが表示され、目視者の動作を検出可能な動作検出手段と、前記動作検出手段による検出結果に応じて前記特定のキャラクターの動作を制御する動作制御手段と、をさらに備える表示装置とするとよい。 (15) A specific character is displayed on the image display section, and includes a motion detection means capable of detecting the viewer's motion, and an operation for controlling the motion of the specific character according to a detection result by the motion detection means. The display device may further include a control means.

このようにすれば、目視者の動作が検出されると、その検出結果に応じて特定のキャラクターが動作するから、目視者と当該特定のキャラクターとのコミュニケーションを再現することができる。 In this way, when the viewer's motion is detected, the specific character moves in accordance with the detection result, making it possible to reproduce the communication between the viewer and the specific character.

(16)前記動作検出手段は、物体の挙動を検出可能な挙動検出センサであり、前記挙動検出センサは、前記筐体の内部空間で行われたジェスチャーを検出するように配置されているとよい。 (16) The motion detection means is preferably a behavior detection sensor capable of detecting the behavior of an object, and the behavior detection sensor is preferably arranged to detect a gesture performed in the internal space of the casing. .

このようにすれば、挙動検出センサが、例えば、筐体の内部空間で目視者のジェスチャーを検出することができる。したがって、挙動検出センサが筐体の外周面に配置されている場合と比較して、挙動検出センサの感度の低下を抑制することができる。 In this way, the behavior detection sensor can detect the gesture of the viewer in the internal space of the housing, for example. Therefore, compared to the case where the behavior detection sensor is arranged on the outer peripheral surface of the housing, it is possible to suppress a decrease in the sensitivity of the behavior detection sensor.

(17)前記挙動検出センサは、前記筐体の内周面のうちの上面に配置されているとよい。 (17) The behavior detection sensor may be disposed on an upper surface of the inner peripheral surface of the housing.

このようにすれば、挙動検出センサが、筐体の内周面のうち外部からの光がより入り込み難い面に設けられるので、挙動検出センサの感度の低下を抑制することができる。 In this way, the behavior detection sensor is provided on the inner circumferential surface of the casing where light from the outside is less likely to enter, so it is possible to suppress a decrease in the sensitivity of the behavior detection sensor.

(18)前記挙動検出センサは、光を出射してその反射光を受光して前記ジェスチャーを検出し、前記光の出射方向に設けられ、当該出射した光が当該挙動検出センサに受光されることを抑制する部材、をさらに備える表示装置とするとよい。 (18) The behavior detection sensor detects the gesture by emitting light and receiving the reflected light, and is provided in the direction in which the light is emitted, and the emitted light is received by the behavior detection sensor. The display device may further include a member that suppresses

このようにすれば、挙動検出センサの光の出射方向に存在する筐体の部位からの反射光を受光しにくくなるので、挙動検出センサの感度の低下を更に抑制することができる。 In this way, it becomes difficult to receive reflected light from a portion of the casing that exists in the light emission direction of the behavior detection sensor, so it is possible to further suppress a decrease in the sensitivity of the behavior detection sensor.

(19)においを検知するにおいセンサと、前記においセンサによる検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記においセンサによる検知結果に応じた音声を前記画像表示部に表示された前記キャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、をさらに備えるとよい。 (19) A smell sensor that detects a smell, a display output operation that displays on the image display section an image of a character making a movement according to the detection result of the smell sensor, and a display output operation that displays a sound according to the detection result of the smell sensor. It is preferable that the image display device further includes an operation control means for performing at least one of a voice output operation and a voice output operation that is output as a voice uttered by the character displayed on the image display section.

このようにすれば、表示装置の画像表示部に表示されたキャラクターとユーザとの間でにおいに関するコミュニケーションを再現することができる。例えば、においセンサによってにおいが検知されると、キャラクターが「何かにおう」などの音声を発する音声出力動作や、においを嗅ぐ動作をキャラクターが行う映像の表示出力動作が行われるように制御され得る。したがって、当該キャラクターとユーザとの間でより多様なコミュニケーションを図ることができる。 In this way, it is possible to reproduce the communication regarding smell between the character displayed on the image display section of the display device and the user. For example, when a smell is detected by a smell sensor, the system is controlled so that an audio output operation in which the character makes a sound such as "something smells" or an image display output operation in which the character performs an action to sniff the odor is performed. obtain. Therefore, more diverse communication can be achieved between the character and the user.

(20)前記表示出力動作は、検知されたにおいの種類に応じた動きを前記キャラクターが行う映像を前記画像表示部に表示する動作であり、前記音声出力動作は、検知されたにおいの種類に応じた音声を前記キャラクターが発する音声として出力する動作であるとよい。 (20) The display output operation is an operation of displaying on the image display section an image of the character making a movement according to the type of detected odor, and the audio output operation is an operation according to the type of detected odor. It is preferable that the action outputs the corresponding sound as the sound uttered by the character.

このようにすれば、画像表示部に表示されたキャラクターとユーザとの間でにおいの種類に関するコミュニケーションを再現することができる。例えば、タバコのにおいが検知されたときには、煙たがる動きをキャラクターが行う映像を表示する表示出力動作やユーザの健康に気遣う言葉を発する音声出力動作が実行され得る。また、アロマオイルなどの香料のにおいが検知されたときには、香料に関する質問を発する音声出力動作が実行され得る。このような制御が行われることにより、画像表示部に表示されたキャラクターとユーザとの間でのコミュニケーションの幅を広げることができ、当該キャラクターへのユーザの愛着を増大させることができる。 In this way, communication regarding the type of smell can be reproduced between the character displayed on the image display section and the user. For example, when the smell of cigarettes is detected, a display output operation may be performed to display an image of a character making a smoke-like motion, or an audio output operation may be performed to utter words that concern the user's health. Furthermore, when the smell of a fragrance such as aroma oil is detected, an audio output operation that asks a question regarding the fragrance may be performed. By performing such control, the range of communication between the character displayed on the image display section and the user can be expanded, and the user's attachment to the character can be increased.

(21)音声を検出可能な音声検出手段と、検知対象領域における人の存在を検知可能な検知手段と、をさらに備え、前記音声検出手段は、前記検知対象領域における人の存在が検知されると、前記画像表示部に表示されたキャラクターとの対話を行うための音声認識を有効化するとよい。 (21) Further comprising a voice detection means capable of detecting voice and a detection means capable of detecting the presence of a person in the detection target area, the voice detection means detecting the presence of a person in the detection target area. It is preferable to enable voice recognition for interacting with the character displayed on the image display section.

このようにすれば、ユーザと画像表示部に表示されたキャラクターと対話するにあたって、例えばユーザが音声認識を有効化するためのトリガーワードを発声する必要がなく、より自然にコミュニケーションをとることができる。 In this way, when the user interacts with the character displayed on the image display section, the user does not need to utter a trigger word to enable voice recognition, for example, and communication can occur more naturally. .

(22)風を検知する風検知手段と、前記風検知手段による検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記風検知センサによる検知結果に応じた音声を前記画像表示部に表示されたキャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、をさらに備えるとよい。 (22) a wind detection means for detecting wind; a display output operation for displaying on the image display section an image of a character moving in accordance with the detection result by the wind detection means; and a display output operation in accordance with the detection result by the wind detection sensor. It is preferable to further include an operation control means for performing at least one of a voice output operation of outputting the voice produced by the character displayed on the image display section as a voice uttered by the character.

このようにすれば、画像表示部に表示されたキャラクターとユーザとの間で表示装置に与えられた風に関するコミュニケーションを再現することができる。風は、例えばユーザ人為的に起こしたものとするとよく、例えば表示装置に向けて手を振る等の身体の部位を動かすことによって発生する風や息を吹きかけることによって発生する風とするとよい。 In this way, it is possible to reproduce the communication regarding the wind applied to the display device between the character displayed on the image display section and the user. The wind may be generated artificially by the user, for example, by moving a body part such as waving a hand toward the display device, or by blowing on the user's breath.

(23)前記動作制御手段は、前記風検知手段による検知結果に基づき、ユーザの吹きかけた息に応じて前記表示出力動作または前記音声出力動作を行うとよい。 (23) The operation control means may perform the display output operation or the audio output operation in response to the user's breath based on the detection result by the wind detection means.

このようにすれば、画像表示部に表示されたキャラクターとユーザとの間で、表示装置に吹きかけた息に応じたコミュニケーションを再現することができる。 In this way, it is possible to reproduce communication between the character displayed on the image display unit and the user according to the breath blown onto the display device.

本発明によれば、表示画像に関して高い視認性を得ることができる表示装置等を提供することができる。 According to the present invention, it is possible to provide a display device and the like that can obtain high visibility of displayed images.

なお、本願の発明の効果はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」「~可能である」などと記載した箇所などは奏する効果を明示する記載であり、また「~できる」「~可能である」などといった記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。 Note that the effects of the invention of the present application are not limited to these, and the effects achieved from the parts of the configuration disclosed in the present specification, drawings, etc. are also disclosed, and the configuration that provides the effects can also be obtained through divisional applications, amendments, etc. Have the intention to acquire the rights. For example, in this specification, passages such as "can be done," "is possible," etc. are descriptions that clearly indicate the effect to be achieved, and even if there is no description such as "can be done," or "it is possible," the effect can be obtained. There is a part shown. Further, even without such a description, there are effects that can be understood from the configuration.

本発明の一例に係る表示装置を示す斜視図である。FIG. 1 is a perspective view showing a display device according to an example of the present invention. (A)本発明の一例に係る表示装置を示す正面図、(B)本発明の一例に係 る表示装置を示す背面図である。(A) A front view showing a display device according to an example of the present invention, and (B) a rear view showing a display device according to an example of the present invention. (A)本発明の一例に係る表示装置を示す右側面図、(B)本発明の一例に 係る表示装置を示す左側面図である。(A) A right side view showing a display device according to an example of the present invention, and (B) a left side view showing a display device according to an example of the present invention. (A)本発明の一例に係る表示装置を示す平面図、(B)本発明の一例に係 る表示装置を示す底面図である。(A) A plan view showing a display device according to an example of the present invention, and (B) a bottom view showing a display device according to an example of the present invention. 本発明の一例に係る表示装置を示す分解斜視図である。FIG. 1 is an exploded perspective view showing a display device according to an example of the present invention. 図2(A)のA-A線矢視位置における断面図である。FIG. 2 is a cross-sectional view taken along line AA in FIG. 2(A). 上面カバー部が取り外された状態の表示装置を説明する斜視図である。FIG. 3 is a perspective view illustrating the display device with the top cover section removed. 上面カバー部の裏面を示す図である。It is a figure showing the back side of a top cover part. 一実施例に係る表示装置における制御ブロック図である。FIG. 2 is a control block diagram in a display device according to an example. 一実施例に係る表示装置の概要を説明する図である。FIG. 1 is a diagram illustrating an overview of a display device according to an example. 一実施例に係る表示装置の概要を説明する図である。FIG. 1 is a diagram illustrating an overview of a display device according to an example. 一実施例に係るキャラクターを説明する図である。FIG. 3 is a diagram illustrating a character according to an example. 3Dキャラクターが立体視されている状態を示す図である。It is a diagram showing a state in which a 3D character is viewed stereoscopically. (A)においに関するコミュニケーションを再現するためのフローチャー ト、(B)においに関する音声管理テーブルを示す図である。(A) A flowchart for reproducing communication regarding smells, and (B) a diagram showing a voice management table regarding smells. 滞在頻度に関するコミュニケーションを再現するためのフローチャートで ある。This is a flowchart for reproducing communication regarding the frequency of stay. (A)滞在場所に関するコミュニケーションを再現するためのフローチャ ート、(B)滞在頻度に関する音声管理テーブルを示す図である。(A) A flowchart for reproducing communication regarding the place of stay, and (B) a diagram showing a voice management table regarding the frequency of stay. (A)滞在回数に関するコミュニケーションを再現するためのフローチャ ート、(B)滞在回数に関する音声管理テーブルを示す図である。(A) A flowchart for reproducing communication regarding the number of stays, and (B) a diagram showing a voice management table regarding the number of stays. (A)滞在時間に関するコミュニケーションを再現するためのフローチャ ート、(B)滞在時間に関する音声管理テーブルを示す図である。(A) A flowchart for reproducing communication regarding stay time, and (B) a diagram showing a voice management table regarding stay time. (A)行動パターンに関するコミュニケーションを再現するためのフロー チャート、(B)行動パターンに関する音声管理テーブルを示す図である。(A) A flowchart for reproducing communication related to behavior patterns, and (B) a diagram showing a voice management table related to behavior patterns. 不審者の検知に関する動作を再現するためのフローチャートである。It is a flowchart for reproducing operations related to suspicious person detection. (A)3Dキャラクターが減光部材よりも後方側に存在する状態を示す図 、(B)3Dキャラクターが減光部材よりも前方側に存在する状態を示す図である。(A) A diagram showing a state where the 3D character exists on the rear side of the light attenuation member, and (B) a diagram showing a state where the 3D character exists on the front side of the light attenuation member. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example. 一実施例に係る表示装置に表示される画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of an image displayed on a display device according to an example.

[表示装置の概略構成]
図1は、本発明の一例に係る表示装置1を示す斜視図である。図2(A)は、本発明の一例に係る表示装置1を示す正面図であり、図2(B)は、本発明の一例に係る表示装置1を示す背面図である。図3(A)は、本発明の一例に係る表示装置1を示す右側面図であり、図3(B)は、本発明の一例に係る表示装置1を示す左側面図である。図4(A)は、本発明の一例に係る表示装置1を示す平面図であり、図4(B)は、本発明の一例に係る表示装置1を示す底面図である。図5は、本発明の一例に係る表示装置1を示す分解斜視図である。図6は、図2(A)のA-A線矢視位置における断面図である。以下、図1~図6を参照して、本発明の一例に係る表示装置1の概略構成について説明する。
[Schematic configuration of display device]
FIG. 1 is a perspective view showing a display device 1 according to an example of the present invention. FIG. 2(A) is a front view showing the display device 1 according to an example of the present invention, and FIG. 2(B) is a back view showing the display device 1 according to the example of the present invention. FIG. 3(A) is a right side view showing the display device 1 according to an example of the present invention, and FIG. 3(B) is a left side view showing the display device 1 according to the example of the present invention. FIG. 4(A) is a plan view showing the display device 1 according to an example of the present invention, and FIG. 4(B) is a bottom view showing the display device 1 according to the example of the present invention. FIG. 5 is an exploded perspective view showing a display device 1 according to an example of the present invention. FIG. 6 is a cross-sectional view taken along line AA in FIG. 2(A). Hereinafter, a schematic configuration of a display device 1 according to an example of the present invention will be described with reference to FIGS. 1 to 6.

なお、各図等において、表示装置1の左右方向をX方向とし、表示装置1の左側から右側へと向かう方向を+X方向(X方向の正方向)とする。また、表示装置1の前後方向(奥行方向)をY方向とし、表示装置1の正面側(前方側)から背面側(後方側)へと向かう方向を+Y方向(Y方向の正方向)とする。また、表示装置1の上下方向をZ方向とし、表示装置1の下面側から上面側へと向かう方向を+Z方向(Z方向の正方向)とする。 In each figure, the left-right direction of the display device 1 is the X direction, and the direction from the left side to the right side of the display device 1 is the +X direction (positive direction of the X direction). Further, the front-rear direction (depth direction) of the display device 1 is defined as the Y direction, and the direction from the front side (front side) to the back side (rear side) of the display device 1 is defined as the +Y direction (positive direction in the Y direction). . Further, the vertical direction of the display device 1 is defined as the Z direction, and the direction from the bottom surface side to the top surface side of the display device 1 is defined as the +Z direction (positive direction of the Z direction).

表示装置1は、種々の用途に用いられる。例えば、表示装置1は、商業用(例えば集客用、広告宣伝用)、娯楽用(人を楽しませる用途)、玩具等とするとよい。例えば、商業用または娯楽用の場合、表示装置1は店舗その他の商業施設等の公共の場所に設置されるとよい。表示装置1は、製品あるいはサービスの展示会等の会場において、特定のキャラクターが製品あるいはサービスを紹介または宣伝等する画像を表示することによって集客を図るとともに、来場者を楽しませるためなどに用いられるとよい。あるいは、表示装置1は、各種のアミューズメント施設等に設置され、アミューズメント施設の訪問者を楽しませるためなどに用いられるとよい。玩具の場合、表示装置1はユーザの自宅等に設置される。また、後述するように表示装置1に三次元画像が表示される場合には、目視者に表示対象物の立体視を体験させることによって当該目視者を楽しませるためなどに用いられるとよい。目視者は、例えば、表示装置1を使用するユーザである。 The display device 1 is used for various purposes. For example, the display device 1 may be used for commercial purposes (for example, for attracting customers or advertising), for entertainment purposes (for entertaining people), for toys, or the like. For example, in the case of commercial or recreational use, the display device 1 may be installed in a public place such as a store or other commercial facility. The display device 1 is used at a venue such as a product or service exhibition to attract customers and entertain visitors by displaying an image in which a specific character introduces or advertises a product or service. Good. Alternatively, the display device 1 may be installed in various amusement facilities and used to entertain visitors to the amusement facilities. In the case of a toy, the display device 1 is installed at the user's home or the like. Further, when a three-dimensional image is displayed on the display device 1 as described later, it may be used to entertain the viewer by allowing the viewer to experience stereoscopic vision of the displayed object. The viewer is, for example, a user who uses the display device 1.

図5に示されるように、表示装置1は、筐体10と、表示対象物の画像を表示可能な画像表示部20と、減光部材30とを備えている。 As shown in FIG. 5, the display device 1 includes a housing 10, an image display section 20 capable of displaying an image of a display target, and a light reduction member 30.

筐体10は、表示装置1の外形をなす箱型の部材である。筐体10は、幅方向(左右方向ともいう)、高さ方向(上下方向ともいう。)、及び奥行き方向(前後方向ともいう。)の長さ(最大長)の比が、およそ1:1:1である。ただし、この長さの比は一例であり、少なくとも一部が異なっていてもよい。筐体10は、角部がR形状である。例えば表示装置1を正面側から見たとき、筐体10の4つの角部がそれぞれ丸みを帯びている。 筐体10は、その内部に所定サイズ(例えば、17インチサイズ)の画像表示部20を収容可能な大きさとするとよい。 The housing 10 is a box-shaped member that forms the outer shape of the display device 1 . The housing 10 has a length (maximum length) ratio of approximately 1:1 in the width direction (also referred to as the left-right direction), the height direction (also referred to as the up-down direction), and the depth direction (also referred to as the front-back direction). :1. However, this length ratio is just an example, and at least a portion thereof may be different. The housing 10 has rounded corners. For example, when viewing the display device 1 from the front side, each of the four corners of the housing 10 is rounded. The housing 10 is preferably sized to accommodate the image display section 20 of a predetermined size (for example, 17 inch size) therein.

筐体10は、表示装置1の正面側(各図において-Y側)に開口部5を有している。表示装置1の正面側は、表示装置1が表示する画像を目視者が見る側に相当する。開口部5は、筐体10の内部空間における表示装置1の正面側に形成される。例えば、当該開口部5は、図2(A)に示されるように、表示装置1の正面側から見て矩形状に形成されている。筐体10は、内部空間100を有する。内部空間100は、筐体10の内部の空間で画像が表示される空間である。内部空間100が開口部5以外の部分が遮光性部材で囲まれている(図6参照)。筐体10を構成する部材を通して、内部空間100に外光は進入しない。そのため、筐体10は、その全体が外光を遮断する素材で形成されてもよいが、外側表面や、内部空間100に面している面が光を遮断する素材で覆われたりしてもよい。図6において、当該内部空間100は、一点鎖線で示されており、当該内部空間100を減光部材30で区分した2つの空間領域101,102は、二点鎖線で示されている。空間領域101は減光部材30より背面側の空間である。空間領域101は奥側ほど高さ方向の寸法が大きく、正面側に移動するにつれてその寸法が小さくなる。空間領域102は減光部材30より正面側の空間である。空間領域102は奥側ほど高さ方向の寸法が小さく、正面側に移動するにつれてその寸法が大きくなる。本実施例では、開口部5は、空間領域101を外部空間に通じさせる面状の領域により特定される。よって、開口部5は開口面と読み替えられてもよい。内部空間100は、筐体10の奥行方向(前後方向)に一定程度の領域を有しており、筐体10は、図6のYZ断面に示すように、奥行方向における長さは上端の方が下端よりも長い。当該内部空間100は、例えば、立体視表示されるキャラクターの居室空間として目視者によって認識されるようにするとよい。 The housing 10 has an opening 5 on the front side of the display device 1 (−Y side in each figure). The front side of the display device 1 corresponds to the side where a viewer views the image displayed by the display device 1. The opening 5 is formed on the front side of the display device 1 in the internal space of the housing 10 . For example, the opening 5 is formed into a rectangular shape when viewed from the front side of the display device 1, as shown in FIG. 2(A). The housing 10 has an internal space 100. The internal space 100 is a space inside the housing 10 in which images are displayed. A portion of the internal space 100 other than the opening 5 is surrounded by a light-shielding member (see FIG. 6). External light does not enter the internal space 100 through the members that constitute the housing 10. Therefore, the entire casing 10 may be formed of a material that blocks external light, but the outer surface or the surface facing the internal space 100 may be covered with a material that blocks light. good. In FIG. 6, the internal space 100 is indicated by a chain double-dashed line, and two spatial regions 101 and 102 obtained by dividing the internal space 100 by the light attenuation member 30 are indicated by a chain double-dashed line. The spatial region 101 is a space on the back side of the light attenuation member 30. The space area 101 has a larger dimension in the height direction toward the back, and decreases as it moves toward the front. The spatial region 102 is a space on the front side of the light attenuation member 30. The spatial region 102 has a smaller dimension in the height direction toward the back, and increases as it moves toward the front. In this embodiment, the opening 5 is specified by a planar region that communicates the spatial region 101 with the external space. Therefore, the opening 5 may be read as an opening surface. The internal space 100 has a certain area in the depth direction (front-back direction) of the casing 10, and the casing 10 has a length in the depth direction toward the top end, as shown in the YZ cross section of FIG. is longer than the bottom edge. For example, the interior space 100 may be recognized by the viewer as a living space of a character displayed stereoscopically.

例えば、筐体10は、樹脂部材等で形成されているとともに、その表面(例えば、外周面と内周面との少なくとも一方)に、暗色系(例えば、黒色)のラバー塗装が施されている。これにより、当該開口部5以外の部分からは筐体10の内部空間100へと光が進入しないように構成されている。なお、内部空間100が開口部5以外の部分の全てにおいて遮光性部材で囲まれていることは必須ではなく、内部空間100が或る程度暗くなるように遮光性部材で囲まれていればよい。筐体10は、樹脂材料以外の材料、例えば金属またはその他の素材で形成されてもよい。また、筐体10の外側表面の色は問わないが、例えば高級感またはシンプルさを醸し出す白色または黒色等としてもよい。筐体10の表面は、つや消し加工で質感を出すように加工されてもよい。 For example, the casing 10 is formed of a resin member or the like, and a dark-colored (e.g., black) rubber coating is applied to its surface (e.g., at least one of the outer circumferential surface and the inner circumferential surface). . Thereby, the configuration is such that light does not enter the internal space 100 of the housing 10 from any part other than the opening 5. Note that it is not essential that the interior space 100 be surrounded by a light-shielding member in all parts other than the opening 5, and it is only necessary that the interior space 100 be surrounded by a light-shielding member so that the interior space 100 is somewhat dark. . The housing 10 may be made of a material other than resin material, such as metal or other materials. Further, the color of the outer surface of the housing 10 does not matter, but it may be white or black, which gives off a sense of luxury or simplicity, for example. The surface of the casing 10 may be treated with a matte finish to give it a textured appearance.

また、図5に示されるように、筐体10は、本体部11と、上面カバー部12と、減光部材30の配置部13と、底面カバー部14と、背面カバー部15とを有している。なお、各部材12~15は、上面カバー部12の一部分(後述)を除き、ネジ等の固定具によって本体部11に取り付けられる。 Further, as shown in FIG. 5, the housing 10 includes a main body part 11, a top cover part 12, a placement part 13 for the dimming member 30, a bottom cover part 14, and a back cover part 15. ing. Note that each of the members 12 to 15, except for a portion of the top cover portion 12 (described later), is attached to the main body portion 11 using fixing devices such as screws.

次に、画像表示部20について説明する。画像表示部20は、光源を有する表示部である。画像表示部20としては、例えば液晶ディスプレイが挙げられる。この場合、画像表示部20は、光源の一例であるバックライトと、表示素子の一例である液晶素子を二次元配置した表示体28(図5参照)とを含む。光源は例えば白色光源である。液晶素子は、画素単位でバックライトからの光を変調する。液晶素子は、例えば、画素単位に設けられる画素電極と複数の画素で共通の共通電極とで液晶分子を挟持した構成である。画像表示部20は、赤(R)、緑(G)、青(B)の3原色に基づいてカラー(多色)の画像を表示する。画像表示部20は、本実施例では三次元画像として認識されるように画像を表示する。画像表示部20は、本実施例では17インチの液晶ディスプレイである。 Next, the image display section 20 will be explained. The image display section 20 is a display section that has a light source. An example of the image display section 20 is a liquid crystal display. In this case, the image display section 20 includes a backlight, which is an example of a light source, and a display body 28 (see FIG. 5) in which liquid crystal elements, which are examples of display elements, are two-dimensionally arranged. The light source is, for example, a white light source. A liquid crystal element modulates light from a backlight on a pixel-by-pixel basis. A liquid crystal element has, for example, a structure in which liquid crystal molecules are sandwiched between a pixel electrode provided for each pixel and a common electrode common to a plurality of pixels. The image display section 20 displays a color (multicolor) image based on three primary colors: red (R), green (G), and blue (B). In this embodiment, the image display unit 20 displays the image so that it is recognized as a three-dimensional image. The image display section 20 is a 17-inch liquid crystal display in this embodiment.

画像表示部20は、表示対象物の三次元画像を表示可能に構成されているとよく、裸眼による立体視表示が可能なディスプレイとするとよい。また、画像表示部20は、三次元画像と二次元画像とを切替可能に構成されていると尚よい。画像表示部20には、例えば、特定のキャラクター(例えば、人あるいは動物等)などの表示対象物の画像が表示されるようにするとよい。例えば、人型のキャラクター1000が、図13に示されるように目視者によって立体視されるように画像表示部20において表示制御されるとよい。キャラクター1000は、ここでは歴史上の人物を模したキャラクターであるが、女性のキャラクター、動物(例えば猫)のキャラクター、その他のキャラクターでもよい。これに限定されず、画像表示部20には、様々な画像が表示され得る。また、以下において、立体視表示されるキャラクター(表示されるオブジェクトの一例)は、「3Dキャラクター」などとも称される。3Dキャラクターは、3Dオブジェクトの一例である。 The image display unit 20 is preferably configured to be able to display a three-dimensional image of the display target, and may be a display capable of stereoscopic display with the naked eye. Further, it is preferable that the image display unit 20 is configured to be able to switch between a three-dimensional image and a two-dimensional image. For example, it is preferable that the image display section 20 displays an image of a display target such as a specific character (for example, a person or an animal). For example, the display of the humanoid character 1000 may be controlled on the image display unit 20 so that the viewer can see it stereoscopically as shown in FIG. 13. The character 1000 here is a character modeled after a historical figure, but it may also be a female character, an animal (for example, a cat) character, or any other character. The image display unit 20 may display various images without being limited thereto. Furthermore, in the following, a character that is stereoscopically displayed (an example of a displayed object) is also referred to as a "3D character" or the like. A 3D character is an example of a 3D object.

このように、表示装置1は、裸眼による立体視表示を再現可能な装置とするとよい。このような表示装置1は、例えば、「裸眼立体視表示装置」などとも称される。 In this way, the display device 1 is preferably a device that can reproduce stereoscopic display with the naked eye. Such a display device 1 is also called, for example, an “autoscopic stereoscopic display device”.

裸眼立体視表示は、例えばレンチキュラーレンズ方式の画像表示部20を用いることにより再現されるとよい。例えば、画像表示部20の表示面29には、複数の半円筒状レンズが配列されたレンチキュラーレンズが設けられており、画像表示部20は、三次元画像に関してインターレース処理された複数の画像列の組み合わせにより構成される画像列群(レンチキュラー画像、などとも称される)を表示する。そして、目視者が適切な位置からレンチキュラーレンズを介して当該画像列群を見ると、両眼の視差に起因する錯視によって当該三次元画像が立体的に見える。 Autostereoscopic display may be reproduced by using, for example, a lenticular lens type image display section 20. For example, the display surface 29 of the image display section 20 is provided with a lenticular lens in which a plurality of semi-cylindrical lenses are arranged, and the image display section 20 displays a plurality of image columns interlaced with respect to three-dimensional images. A group of image rows (also called lenticular images, etc.) formed by the combination is displayed. Then, when a viewer views the group of image rows from an appropriate position through a lenticular lens, the three-dimensional image appears stereoscopic due to an optical illusion caused by the parallax between both eyes.

図6等に示されるように、画像表示部20は、表示装置1の正面側に設けられた開口部5から画像を視認可能となるように筐体10の内部空間100に配置される。例えば、画像表示部20は、筐体10の内周面のうちの背面(内壁面)に沿って配置されている。本実施例では、図6に示されるように、筐体10の内周面における背面は、筐体10の底面に対して略垂直に設けられており、画像表示部20も、筐体10の底面に対して略垂直に設けられている。 As shown in FIG. 6 and the like, the image display unit 20 is arranged in the internal space 100 of the housing 10 so that the image can be viewed through the opening 5 provided on the front side of the display device 1. For example, the image display section 20 is arranged along the back surface (inner wall surface) of the inner peripheral surface of the housing 10 . In this embodiment, as shown in FIG. 6, the back surface of the inner peripheral surface of the casing 10 is provided approximately perpendicular to the bottom surface of the casing 10, and the image display section 20 is also provided on the inner peripheral surface of the casing 10. It is provided approximately perpendicular to the bottom surface.

次に、減光部材30について説明する。減光部材30は、開口部5を介して内部空間100に進入する外光を減じる光学部材である。減光部材30は板状(パネル状を含む。)またはフィルム状の部材である。また、減光部材30は、画像表示部20からの光(例えば、画像表示部20のバックライトからの光)の光量を低減可能である。減光部材30は、内部空間100を暗い状態に維持するために設けられている。その理由は後述する。また、減光部材30は、開口部5を介して画像を見ている目視者自身が減光部材30に映ってしまう映り込みの発生を抑えることや、内部空間100の内部の部品を視認され難くすることにも寄与する。減光部材30は、スモークパネル、スモークフィルムなどと呼ばれる部材であってもよい。減光部材30は、少なくとも画像表示部20からの画像光を正面側に透過させるから、光学的に、透明の部材ということができる。減光部材30としては、例えば、所定の透光率(例えば、約6%)を有する暗色のパネル部材が挙げられる。なお、これに限定されず、減光部材30は、例えば所定の透光率を有する暗色系のフィルムを無色透明のパネル部材に貼付したものであってもよい。減光部材30は、黒系等の暗色系の部材であるが、青系その他の色であってもよい。 Next, the light attenuation member 30 will be explained. The light attenuation member 30 is an optical member that reduces external light entering the internal space 100 through the opening 5. The light attenuation member 30 is a plate-shaped (including panel-shaped) or film-shaped member. Further, the light reduction member 30 can reduce the amount of light from the image display section 20 (for example, light from the backlight of the image display section 20). The light reduction member 30 is provided to maintain the interior space 100 in a dark state. The reason will be explained later. Further, the light attenuation member 30 suppresses the occurrence of reflection in which the viewer viewing the image through the opening 5 is reflected in the light attenuation member 30, and prevents components inside the interior space 100 from being visually recognized. It also contributes to making it more difficult. The light attenuation member 30 may be a member called a smoke panel, a smoke film, or the like. Since the light attenuation member 30 transmits at least the image light from the image display section 20 to the front side, it can be said to be an optically transparent member. Examples of the light attenuation member 30 include a dark panel member having a predetermined light transmittance (for example, about 6%). Note that the light attenuation member 30 is not limited to this, and may be, for example, a dark-colored film having a predetermined light transmittance attached to a colorless and transparent panel member. The light attenuation member 30 is a member of a dark color such as black, but may be of a blue or other color.

減光部材30は、筐体10の内部空間100において、画像表示部20よりも正面側に画像表示部20とは間隔を空けて配置される。本実施例では、画像表示部20との間に空間領域101(図6)を有するように開口部5と画像表示部20との間に配置される。 The light attenuation member 30 is arranged in the internal space 100 of the housing 10 on the front side of the image display section 20 with a space therebetween. In this embodiment, it is arranged between the opening 5 and the image display section 20 so as to have a spatial region 101 (FIG. 6) between the opening section 5 and the image display section 20 .

以上のようにすれば、遮光された内部空間100を筐体10が有することによって、筐体10の内部空間100へと外光が入り込むことを抑制できるとともに、例えば画像表示部20よりも正面側に、当該画像表示部20とは間隔を空けて減光部材30が配置されていることによって、画像表示部20からの画像光が目視者の目に直接届くことが抑制される。したがって、筐体10の内部空間100に認識される画像を、画像表示部20からの画像光と外光とが相まって視認し難くなることを抑制でき、表示画像に関して高い視認性を得ることができる表示装置1を提供することができる。 As described above, since the casing 10 has the light-shielded internal space 100, it is possible to suppress external light from entering the internal space 100 of the casing 10, and for example, the front side of the image display section 20 is Furthermore, by arranging the light attenuation member 30 apart from the image display section 20, the image light from the image display section 20 is suppressed from directly reaching the viewer's eyes. Therefore, it is possible to prevent the image recognized in the internal space 100 of the housing 10 from becoming difficult to see due to the combination of image light from the image display section 20 and external light, and it is possible to obtain high visibility of the displayed image. A display device 1 can be provided.

また、減光部材30が、開口部5と画像表示部20との間に配置されていることによって、筐体10の内部において減光部材30の正面側に空間領域(例えば、空間領域102(図6参照))が形成されるので、当該空間領域を所定の用途に利用することができる。 Further, since the light attenuation member 30 is disposed between the opening 5 and the image display unit 20, a spatial area (for example, a space area 102 (for example, a spatial area 102) (see FIG. 6)), the spatial region can be used for a predetermined purpose.

ここで、仮に減光部材30がなく、表示対象物の三次元画像が表示された画像表示部20自体を目視者がそのまま見たときには、光源からの光が漏れ出てしまってその光源の位置が目視者に認識されてしまうことにより、目視者が「画像表示部20に表示対象物が映っている」と認識できてしまう。その結果、内部空間100に表示対象物画像が浮かび上がっているような浮遊感を十分に得られないことがある。 Here, if there is no light attenuation member 30 and the viewer views the image display section 20 itself on which the three-dimensional image of the display object is displayed, the light from the light source will leak out and the position of the light source will be is recognized by the viewer, so that the viewer can recognize that "the display target object is reflected on the image display section 20." As a result, it may not be possible to obtain a sufficient floating feeling as if the display object image is floating in the interior space 100.

これに対して、上記のように減光部材30が設けられている場合には、画像表示部20において表示対象物の周辺領域から発せられる画像光の光量が減光部材30によって抑制され、目視者からは当該周辺領域が見え難くなる。その結果、目視者が「画像表示部20に表示対象物が映っている」と感じることがなく、表示対象物の浮遊感を得られる。したがって、表示対象物の表示画像に関して視認性を高めることができる。 On the other hand, when the light attenuation member 30 is provided as described above, the amount of image light emitted from the peripheral area of the display target in the image display unit 20 is suppressed by the light attenuation member 30, and the visual This makes it difficult for people to see the surrounding area. As a result, the viewer does not feel that the displayed object is reflected on the image display section 20, and can get the feeling that the displayed object is floating. Therefore, the visibility of the displayed image of the display target can be improved.

また、例えば表示対象物の三次元画像が表示された画像表示部20自体を目視者がそのまま見たときには、目視者からは表示対象物が立体的に見えているにもかかわらず、当該表示対象物の周辺にぼやけ画像が見えてしまうことがある。このような場合、目視者が表示対象物の三次元画像を見難いと感じる虞がある。 Furthermore, for example, when a viewer views the image display unit 20 itself on which a three-dimensional image of a display target is displayed, even though the display target appears three-dimensionally to the viewer, the display target is Blurred images may appear around objects. In such a case, the viewer may find it difficult to see the three-dimensional image of the displayed object.

これに対して、上記のように減光部材30が設けられている場合には、画像表示部20から発せられる光の光量が減光部材30によって低減されるとともに、表示対象物の周辺におけるぼやけ画像の画像光が減光部材30によって低減される。その結果、目視者からは当該ぼやけ画像が見え難くなり、表示対象物を三次元画像として認識しやすくなる。さらに減光部材30が設けられていることで、内部空間100に存在する部品を視認されにくくなるので、そのような部品が視認できることにより目視者が興ざめしてしまうことも起こりにくい。 On the other hand, when the light attenuation member 30 is provided as described above, the amount of light emitted from the image display section 20 is reduced by the light attenuation member 30, and the blur around the displayed object is reduced. The image light of the image is reduced by the light attenuation member 30. As a result, the blurred image becomes less visible to the viewer, and the displayed object becomes easier to recognize as a three-dimensional image. Furthermore, the provision of the light attenuation member 30 makes it difficult for the parts present in the interior space 100 to be visually recognized, so that it is less likely that the viewer will be disturbed by the visibility of such parts.

[各要素の詳細構成]
次に、各要素10,20,30の詳細構成について説明する。
[Detailed configuration of each element]
Next, the detailed configuration of each element 10, 20, and 30 will be explained.

減光部材30は、正面側の面が鉛直方向に対して傾斜している。本実施例では、図6に示されるように、減光部材30は、その上端部31から下端部32に向けて開口部5側(表示装置1の正面側)に、例えば筐体10の底面に対して所定の角度(例えば、約50度の角度)で傾斜して設けられている。例えば、図5に示されるように、減光部材30の配置部13の上面は、筐体10の底面に対して所定の角度で傾斜しており、当該配置部13の上面に、減光部材30が配置される。 The light attenuation member 30 has a front surface inclined with respect to the vertical direction. In this embodiment, as shown in FIG. 6, the light attenuation member 30 is placed on the opening 5 side (the front side of the display device 1) from the upper end 31 to the lower end 32, for example, on the bottom surface of the housing 10. It is provided so as to be inclined at a predetermined angle (for example, an angle of about 50 degrees). For example, as shown in FIG. 5, the upper surface of the placement section 13 of the light attenuation member 30 is inclined at a predetermined angle with respect to the bottom surface of the housing 10, and the light attenuation member 30 are placed.

このようにすれば、減光部材30に入射した光の反射光の光路が目視者の目(あるいは顔)側とは異なる方向に存在することになる。よって、目視者が減光部材30を介して画像表示部20を見た際に、当該減光部材30に目視者の顔が反射により映り込むことを防止できる。かかる目的を達成できるのであれば、減光部材30の傾斜角や傾斜方向は種々の変形が可能である。したがって、より視認性の高い表示装置1を提供することができる。 In this way, the optical path of the reflected light of the light incident on the light attenuation member 30 will exist in a direction different from the viewer's eyes (or face) side. Therefore, when a viewer views the image display section 20 through the light attenuation member 30, it is possible to prevent the viewer's face from being reflected in the light attenuation member 30. As long as this purpose can be achieved, the angle and direction of inclination of the light attenuation member 30 can be modified in various ways. Therefore, a display device 1 with higher visibility can be provided.

また、筐体10の内部において、減光部材30よりも開口部5側に、目視者の手を入れる空間領域102(図6参照)を設けることができる。 Furthermore, inside the housing 10, a space region 102 (see FIG. 6) into which a viewer's hand can be inserted can be provided closer to the opening 5 than the light attenuation member 30.

そして、画像表示部20においては、目視者によって立体視される表示対象物の少なくとも一部分(例えば、特定のキャラクターの身体の一部)が減光部材30の配置位置に存在するように表示制御されるとよい。このようにすれば、目視者は、減光部材30よりも開口部5側の空間領域102に手を入れることにより、当該空間領域102に浮かび上がって立体的に見えている表示対象物(例えば、人型のキャラクター1000(図13参照)等。第1画像の一例。)に触れることができるような感覚を得ることができる。したがって、例えば娯楽性に優れた表示装置を提供することができる。 In the image display unit 20, the display is controlled such that at least a portion of the display object (for example, a part of the body of a specific character) that is viewed stereoscopically by the viewer is located at the position where the light reduction member 30 is arranged. It is good. In this way, by putting their hand into the spatial area 102 on the side of the opening 5 relative to the light attenuation member 30, the viewer can see the displayed object (for example, , a humanoid character 1000 (see FIG. 13), etc. (an example of the first image)). Therefore, for example, a display device that is highly entertaining can be provided.

また、上記のような空間領域102が設けられていることにより、後述するジェスチャーセンサ63等の配置位置の自由度を高めることもできる。 Further, by providing the space area 102 as described above, it is possible to increase the degree of freedom in the arrangement position of a gesture sensor 63, etc., which will be described later.

図2(A)および図6に示されるように、筐体10は、スピーカ62(音声出力部の一例)をさらに有している。スピーカ62は、筐体10の内部空間100に面している面のうち、減光部材30よりも正面側で、かつ開口部5との距離よりも減光部材30との距離が小さい位置に設けられる。本実施例では、当該スピーカ62は、筐体10の内部空間100の上面85であって、減光部材30の上端部21と開口部5の上端部51との中間位置201よりも減光部材30側(筐体10の奥側)に設けられている。 As shown in FIG. 2(A) and FIG. 6, the housing 10 further includes a speaker 62 (an example of an audio output section). The speaker 62 is located on the front side of the light attenuation member 30 on the surface facing the internal space 100 of the housing 10 and at a position where the distance from the light attenuation member 30 is smaller than the distance from the opening 5. provided. In this embodiment, the speaker 62 is located on the upper surface 85 of the internal space 100 of the casing 10, and the light attenuation member 30 side (back side of the housing 10).

このようにすれば、スピーカ62により出力された音声が減光部材30に反射して目視者に伝達されることがあるため、目視者に対して、例えば画像表示部20に表示された表示対象物(例えば、特定のキャラクター)自体から音声が聞こえているように感じさせることができる。この効果は、目視者によって立体視される表示対象物の少なくとも一部分(例えば、特定のキャラクターの身体の一部)が減光部材30の配置位置に存在するように表示制御されているときに特に有効である。また、スピーカ62が目視者から見え難い位置に配置されていることにより、表示装置1のデザイン性を高めることもできる。 In this way, since the sound output by the speaker 62 may be reflected by the light reduction member 30 and transmitted to the viewer, it is possible for the viewer to understand, for example, the display target displayed on the image display unit 20. It can be made to feel like the sound is coming from the object itself (for example, a particular character). This effect is particularly effective when the display is controlled so that at least a part of the display object (for example, a part of the body of a specific character) that is stereoscopically viewed by the viewer is located at the position where the light reduction member 30 is arranged. It is valid. Furthermore, by arranging the speaker 62 in a position that is difficult for the viewer to see, the design of the display device 1 can be improved.

また、図6に示されるように、開口部5の上端部51は、画像表示部20(詳細には、表示面29)の上端部21よりも上方に設けられており、筐体10の内部空間100の上面85は、開口部5の上端部51から当該上端部21へと向かうに従って下方(図6において-Z方向)に傾斜して設けられている。このようにすれば、画像表示部20の上端部21よりも高い位置から、当該画像表示部20に表示された画像を見下ろしながら視認することができる。このため、目視者に自然な姿勢で画像を視認させやすくすることができる。例えば、表示装置1は机の上に置かれる。表示装置1の正面側(前方側)には、立っているまたはイスに座っている目視者が存在する。目視者の目の位置は、表示装置1の上面よりも高い位置にあることが想定される。このため、目視者は表示装置1を、角度θで見下ろすようにして視認する。角度θは水平方向と目視者の視線方向との間の角度である。角度θは、例えば15度であることが想定されるが、表示装置1の使用状況によっても異なるものである。このような角度θの想定に基づいて、目視者が画像表示部20の表示面の全体または目視者に視認させるべき画像の表示領域の全体を視認できるように上面85の傾斜角が決められるとよい。また、後述する制御部用の空間領域110を比較的広く確保することもできる。 Further, as shown in FIG. 6, the upper end 51 of the opening 5 is provided above the upper end 21 of the image display section 20 (specifically, the display surface 29), and The upper surface 85 of the space 100 is provided so as to be inclined downward (in the -Z direction in FIG. 6) as it goes from the upper end 51 of the opening 5 toward the upper end 21. In this way, the image displayed on the image display section 20 can be viewed from a position higher than the upper end 21 of the image display section 20 while looking down. Therefore, it is possible to make it easier for the viewer to view the image in a natural posture. For example, the display device 1 is placed on a desk. On the front side (front side) of the display device 1, there is a viewer standing or sitting on a chair. It is assumed that the position of the viewer's eyes is higher than the top surface of the display device 1. Therefore, the viewer visually recognizes the display device 1 by looking down at the angle θ. The angle θ is the angle between the horizontal direction and the direction of the viewer's line of sight. The angle θ is assumed to be, for example, 15 degrees, but it varies depending on the usage situation of the display device 1. Based on this assumption of the angle θ, the inclination angle of the upper surface 85 is determined so that the viewer can see the entire display surface of the image display unit 20 or the entire display area of the image that the viewer should see. good. Furthermore, a relatively large space area 110 for a control unit, which will be described later, can be secured.

また、図6に示されるように、筐体10の開口部5の上端部51は、開口部5の下端部52よりも正面側(第1方向側の一例)に突出して設けられている。この突出した部分は、庇とも称される。このようにすれば、表示装置1の上方からの光が減光部材30に反射することによって画像表示部20における画像の視認性が低下すること、を抑制することができる。 Further, as shown in FIG. 6, the upper end 51 of the opening 5 of the housing 10 is provided to protrude further toward the front side (an example of the first direction side) than the lower end 52 of the opening 5. This protruding part is also called an eave. In this way, it is possible to prevent the visibility of the image on the image display section 20 from decreasing due to light from above the display device 1 being reflected by the light reduction member 30.

図1および図6に示されるように、筐体10の下側部分における開口部5側(正面側)には、斜行部84が設けられている。そして、開口部5の側部53(図3参照)は、開口部5の上端部51から当該斜行部84の上部88付近へと向かうように所定の角度で傾斜して設けられている。例えば、開口部5の側部53は、減光部材30に対して略垂直となるように傾斜して設けられている。 As shown in FIGS. 1 and 6, a diagonal portion 84 is provided on the opening 5 side (front side) in the lower portion of the housing 10. The side portion 53 (see FIG. 3) of the opening 5 is inclined at a predetermined angle from the upper end 51 of the opening 5 toward the vicinity of the upper portion 88 of the oblique portion 84. For example, the side portion 53 of the opening 5 is provided so as to be inclined substantially perpendicular to the light attenuation member 30 .

また、図6に示されるように、当該斜行部84の上部88は、画像表示部20の下端部22よりも上方に設けられており、筐体10の内部空間100の下面86は、当該斜行部84の上部88から画像表示部20の下端部22へと向かうに従って下方に傾斜して設けられている。 Further, as shown in FIG. 6, the upper part 88 of the oblique part 84 is provided above the lower end part 22 of the image display part 20, and the lower surface 86 of the internal space 100 of the housing 10 is It is provided so as to be inclined downward as it goes from the upper part 88 of the diagonal part 84 to the lower end part 22 of the image display part 20 .

ここで、裸眼立体視表示に関しては、所謂3D感(三次元効果)を大きくするほど、目視者によって立体視される表示対象物が小さくなることがある。内部空間100の下面86を上記のように傾斜させることによれば、3D感を大きくした場合であっても、立体視表示される表示対象物の下部(例えば、特定のキャラクターの足部)を当該斜行部84の上部88付近に表示させることができる。 Here, regarding autostereoscopic display, the larger the so-called 3D feeling (three-dimensional effect) is, the smaller the displayed object stereoscopically viewed by the viewer may become. By tilting the lower surface 86 of the internal space 100 as described above, even when the 3D feeling is increased, the lower part of the display object to be displayed stereoscopically (for example, the feet of a specific character) can be It can be displayed near the upper portion 88 of the oblique portion 84 .

また、図1に示されるように、表示装置1は、表示装置1に対する操作を受け付ける操作部40を備えている。例えば、表示装置1においては、音声入力を行う(音声認識の開始を指示する、ともいう)ための操作部41と、三次元画像に関する表示設定(例えば、視差に関する設定値)を変更するための操作部42との2つの操作部40が設けられている。 Further, as shown in FIG. 1, the display device 1 includes an operation unit 40 that receives operations on the display device 1. For example, the display device 1 includes an operation unit 41 for performing voice input (also referred to as instructing to start voice recognition), and an operation unit 41 for changing display settings regarding three-dimensional images (for example, setting values regarding parallax). Two operating units 40 are provided, including an operating unit 42 .

これらの操作部40(41,42)は、筐体10のうち、開口部5よりも正面側(第1方向側の一例)の筐体10の下側部分に設けられている。詳細には、図1に示されるように、これらの操作部40(41,42)は、筐体10の下側部分における開口部5側に設けられた斜行部84に配置されている。このようにすれば、目視者が操作部40を操作する際に、例えば目視者の手が画像表示部20の表示画像に重なることがなく、目視者は、画像表示部20の表示画像を見ながら操作部40を操作することができる。したがって、目視者が操作部40に対する操作を行い易くなるので、表示装置1の操作性を向上させることができる。また、操作部40が斜行部84に設けられていることにより、目視者が操作部40を容易に見つけることができる。 These operation parts 40 (41, 42) are provided in the lower part of the housing 10 on the front side (an example of the first direction side) of the housing 10 with respect to the opening 5. In detail, as shown in FIG. 1, these operation parts 40 (41, 42) are arranged in a diagonal part 84 provided on the opening 5 side in the lower part of the housing 10. In this way, when the viewer operates the operation unit 40, for example, the viewer's hand does not overlap the display image on the image display unit 20, and the viewer can view the display image on the image display unit 20. The operation unit 40 can be operated while Therefore, it becomes easier for the viewer to operate the operation unit 40, so that the operability of the display device 1 can be improved. Furthermore, since the operating section 40 is provided in the oblique section 84, a viewer can easily find the operating section 40.

次に、表示装置1に設けられている各種センサについて説明する。 Next, various sensors provided in the display device 1 will be explained.

表示装置1は、マイク61とジェスチャーセンサ63との2つの動作検出部(目視者の動作を検出可能な動作検出手段の一例)を更に備えている(図6参照)。なお、これらの2つの部材61,63の双方が表示装置1に設けられていることは必須ではなく、マイク61とジェスチャーセンサ63とのうちのいずれか一方のみが、動作検出手段として表示装置1に設けられていてもよい。 The display device 1 further includes two motion detection units (an example of motion detection means capable of detecting the viewer's motion): a microphone 61 and a gesture sensor 63 (see FIG. 6). Note that it is not essential that both of these two members 61 and 63 be provided in the display device 1, and only one of the microphone 61 and the gesture sensor 63 can be used as a motion detection means in the display device 1. may be provided.

マイク61は、ユーザ等の目視者の音声(例えば、音声入力動作)を検出可能な音声検出手段として構成されている。マイク61は、例えば、上述の斜行部84に配置されている(図1参照)。なお、マイク61を用いて入力された音声に対しては、例えば統括制御部73(後述)によって音声認識処理が実行され、例えばテキストデータ等で示された音声認識結果が取得される。なお、音声認識処理は、表示装置1内に別途設けられる音声認識装置によって実行されてもよく、あるいは、表示装置1とは別の外部サーバ等で実行されてもよい。 The microphone 61 is configured as a voice detection means capable of detecting the voice (for example, voice input operation) of a viewer such as a user. The microphone 61 is arranged, for example, in the above-mentioned diagonal portion 84 (see FIG. 1). Note that, for the voice input using the microphone 61, a voice recognition process is executed by, for example, a general control unit 73 (described later), and a voice recognition result expressed as, for example, text data is obtained. Note that the voice recognition process may be executed by a voice recognition device separately provided within the display device 1, or may be executed by an external server or the like that is separate from the display device 1.

ジェスチャーセンサ63(物体検出センサの一例)は、物体の挙動を検出可能に構成されている。ジェスチャーセンサ63として、例えば、赤外線センサなどが挙げられる。ジェスチャーセンサ63は、光(例えば、赤外光)の出射部と受光部とを有している。ジェスチャーセンサ63の出射部から出射(照射、とも称される)された光は、検知対象物に当たって反射し受光部によって受光される。そして、ジェスチャーセンサ63は、受光部に受光された光(反射光)に基づいて、検知対象物の挙動を検出する。例えば、ジェスチャーセンサ63に予め登録された特定の挙動と同じ挙動が検出されると、目視者によって当該特定の挙動が行われたと判定される。 The gesture sensor 63 (an example of an object detection sensor) is configured to be able to detect the behavior of an object. Examples of the gesture sensor 63 include an infrared sensor. The gesture sensor 63 has a light (for example, infrared light) emitting section and a light receiving section. Light emitted (also referred to as irradiation) from the emitting part of the gesture sensor 63 hits the object to be detected, is reflected, and is received by the light receiving part. Then, the gesture sensor 63 detects the behavior of the object to be detected based on the light (reflected light) received by the light receiving section. For example, if the same behavior as a specific behavior registered in advance in the gesture sensor 63 is detected, it is determined that the specific behavior has been performed by the viewer.

例えば、ジェスチャーセンサ63は、所定の挙動であるか否かを手の動きに応じて検出可能な機能(Wave検出機能、とも称される)を備えている。そして、例えば目視者がジェスチャーセンサ63の検出範囲内において手を振る動作(「バイバイ」)または撫でる動作(「ナデナデ」)を行うと、ジェスチャーセンサ63が、Wave動作を検出し、「バイバイ」または「ナデナデ」と判定するとよい。 For example, the gesture sensor 63 has a function (also referred to as a wave detection function) that can detect whether or not the gesture is a predetermined behavior according to the movement of the hand. For example, when the viewer performs a waving motion ("Bye-bye") or a stroking motion ("Nade-nade") within the detection range of the gesture sensor 63, the gesture sensor 63 detects the wave motion and displays the "Bye-bye" or It is best to judge it as "Nadenade".

ジェスチャーセンサ63は、当該ジェスチャーセンサ63への接近離反方向(例えば、図2(A)ではZ方向)における検出対象物の位置と、当該接近離反方向を法線とする平面(例えば、図2(A)ではXY平面)上における検出対象物の位置とを検出可能なものとするとよい。例えば、当該平面は、ジェスチャーセンサ63の受光部を原点として4象限をとるものとするとよい。このとき、X軸は、筐体10の前面の左右方向の辺と平行に設定されるとよい。 The gesture sensor 63 detects the position of the detection target in the direction of approach and departure from the gesture sensor 63 (for example, the Z direction in FIG. 2A) and the plane whose normal is the direction of approach and departure (for example, in FIG. In A), it is preferable that the position of the object to be detected on the XY plane) be detectable. For example, the plane may have four quadrants with the light receiving portion of the gesture sensor 63 as the origin. At this time, the X-axis is preferably set parallel to the left and right sides of the front surface of the housing 10.

図2(A)に示されるように、ジェスチャーセンサ63は、左右方向(図2(A)のX方向)において筐体10の内周面の略中央位置に設置される。 As shown in FIG. 2(A), the gesture sensor 63 is installed at a substantially central position on the inner peripheral surface of the housing 10 in the left-right direction (X direction in FIG. 2(A)).

また、図6に示されるように、ジェスチャーセンサ63(詳細には、ジェスチャーセンサ63の検出面)は、筐体10の内周面において、当該筐体10の内方側に向けて配置されており、ジェスチャーセンサ63の検出方向が、筐体10の内方側に向けられている。このようにすれば、例えば、筐体10の内部空間100、本実施例では、空間領域102で目視者のジェスチャーが検出される。したがって、ジェスチャーセンサ63が筐体10の外周面に配置されている場合と比較して、ジェスチャーセンサ63の感度の低下を抑制することができる。 Further, as shown in FIG. 6, the gesture sensor 63 (specifically, the detection surface of the gesture sensor 63) is arranged on the inner peripheral surface of the housing 10 toward the inside of the housing 10. The detection direction of the gesture sensor 63 is directed inward of the housing 10. In this way, the gesture of the viewer is detected, for example, in the internal space 100 of the housing 10, in the spatial region 102 in this embodiment. Therefore, compared to the case where the gesture sensor 63 is arranged on the outer peripheral surface of the housing 10, it is possible to suppress a decrease in the sensitivity of the gesture sensor 63.

また、ジェスチャーセンサ63が筐体10の外周面に配置されているときには、例えば、表示装置1の周辺を人が通っただけでもジェスチャーセンサ63が検知対象物の挙動を検出する可能性がある。これに対して、ジェスチャーセンサ63が筐体10の内周面において当該筐体10の内方側に向けて配置されているときには、そのような誤検出を防止することができる。 Further, when the gesture sensor 63 is arranged on the outer peripheral surface of the housing 10, for example, even if a person passes around the display device 1, the gesture sensor 63 may detect the behavior of the object to be detected. On the other hand, when the gesture sensor 63 is disposed on the inner peripheral surface of the housing 10 toward the inside of the housing 10, such erroneous detection can be prevented.

特に、ジェスチャーセンサ63は、図6に示されるように、筐体10の内周面のうちの上面85において、下面86に向けて配置されるとよい。このようにすれば、ジェスチャーセンサ63が、筐体10の内周面のうち外部からの光が入り込み難い面に設けられている。したがって、ジェスチャーセンサ63が上面85以外の他の面に設けられる場合と比較して、ジェスチャーセンサ63の感度の低下を更に抑制することができる。 In particular, the gesture sensor 63 is preferably disposed on the upper surface 85 of the inner peripheral surface of the housing 10 toward the lower surface 86, as shown in FIG. In this way, the gesture sensor 63 is provided on a surface of the inner peripheral surface of the housing 10 into which light from the outside is difficult to enter. Therefore, compared to the case where the gesture sensor 63 is provided on a surface other than the top surface 85, a decrease in the sensitivity of the gesture sensor 63 can be further suppressed.

また、ジェスチャーセンサ63は、筐体10の内周面の上面85において、斜行部84の上部88と減光部材30の下端部32との境界位置202(図6参照)に対向する位置に配置されているとよい。そして、減光部材30の面上に特定のキャラクターの足部が三次元表示されるように表示制御されるとよい。このようにすれば、目視者が、減光部材30の面上に浮かび上がって立体的に見えている特定のキャラクターの全体(全身)を触ることができるような感覚を得ることができる。なお、上記のような表示制御は、例えば、三次元表示に関する3Dアプリケーションにおける視差設定値を変更することにより再現されるとよい。 Furthermore, the gesture sensor 63 is located on the upper surface 85 of the inner circumferential surface of the housing 10 at a position opposite to the boundary position 202 (see FIG. 6) between the upper part 88 of the diagonal part 84 and the lower end part 32 of the dimming member 30. It would be good if it was placed. Then, the display may be controlled so that the feet of a specific character are displayed three-dimensionally on the surface of the light reduction member 30. In this way, the viewer can feel as if he or she can touch the entire (whole body) of the specific character that appears three-dimensionally and appears on the surface of the light attenuation member 30. Note that the display control as described above may be reproduced by, for example, changing the parallax setting value in a 3D application regarding three-dimensional display.

また、筐体10の内周面において、ジェスチャーセンサ63が出射する光の出射方向に存在する領域、例えばジェスチャーセンサ63の配置位置に対向する領域202には、ジェスチャーセンサ63からの出射光(例えば、赤外光)がジェスチャーセンサ63に受光されることを抑制する部材が設けられているとよい。このようにすれば、領域202又はその周辺で反射した光がジェスチャーセンサ63で受光される受光量が減るので、ジェスチャーセンサ63の感度の低下を更に抑制することができる。「ジェスチャーセンサ63に受光されることを抑制する部材」としては、例えば、ジェスチャーセンサ63からの光を吸収可能な吸光部材、ジェスチャーセンサ63からの光を拡散反射する部材などが挙げられる。「吸光部材」としては、黒い紙、ラバー塗装された部材、あるいは、赤外線吸収素材で形成された部材(赤外線反射防止シート等)などが例示される。 Further, on the inner circumferential surface of the housing 10, a region existing in the direction of light emitted by the gesture sensor 63, for example, a region 202 facing the arrangement position of the gesture sensor 63, includes a region 202 where the light emitted from the gesture sensor 63 (e.g. , infrared light) from being received by the gesture sensor 63. In this way, the amount of light reflected in or around the area 202 and received by the gesture sensor 63 is reduced, so it is possible to further suppress a decrease in the sensitivity of the gesture sensor 63. Examples of the "member that suppresses light reception by the gesture sensor 63" include a light absorbing member that can absorb light from the gesture sensor 63, a member that diffusely reflects light from the gesture sensor 63, and the like. Examples of the "light absorbing member" include black paper, a member coated with rubber, or a member made of an infrared absorbing material (an infrared reflection prevention sheet, etc.).

表示装置1においては、以上のような動作検出手段(例えば、マイク61およびジェスチャーセンサ63)による検出結果に応じた所定の処理が、画像表示部20に表示された特定のキャラクターの動作として実行されるとよい。このような制御は、例えば、後述する制御部70によって実行されるとよい。 In the display device 1, a predetermined process according to the detection result by the motion detection means (for example, the microphone 61 and the gesture sensor 63) as described above is executed as a motion of a specific character displayed on the image display section 20. It is good. Such control may be performed, for example, by a control unit 70, which will be described later.

このようにすれば、目視者の動作が検出されると、その検出結果に応じて特定のキャラクターが動作するから、目視者と当該特定のキャラクターとのコミュニケーションを再現することができる。このような目視者と特定のキャラクターとのコミュニケーションを再現する機能、または目視者と特定のキャラクターとの疑似的なコミュニケーションを再現する機能を、「コミュニケーション機能」という。したがって、例えば娯楽性の高い表示装置1を提供することができる。 In this way, when the viewer's motion is detected, the specific character moves in accordance with the detection result, making it possible to reproduce the communication between the viewer and the specific character. A function that reproduces communication between a viewer and a specific character, or a function that reproduces pseudo communication between a viewer and a specific character, is referred to as a "communication function." Therefore, for example, a highly entertaining display device 1 can be provided.

例えば、目視者が「バイバイ」と発声すると、マイク61が目視者の音声「バイバイ」を検出し、制御部70が、音声認識結果「バイバイ」に基づいて、特定のキャラクターの動作を決定する。なお、表示装置1においては、特定の語句と当該特定の語句に対応する動作とが関連付けられてデータテーブル等に予め登録されている。そして、制御部70は、決定した動作に対応する処理を実行する。例えば、「バイバイ」との音声をスピーカ62から出力させる音声出力処理と、特定のキャラクターが手を振る動作を行っている映像を画像表示部20に表示出力させる表示出力処理との少なくとも一方が実行される。このようにすれば、目視者は、自身が発声した音声に対して、画像表示部20に表示された特定のキャラクターが反応してくれたと感じる。したがって、例えば娯楽性の高い表示装置1を提供することができる。 For example, when a viewer utters "Bye-bye", the microphone 61 detects the viewer's voice "Bye-bye", and the control unit 70 determines the action of a specific character based on the voice recognition result "Bye-bye". Note that in the display device 1, specific words and actions corresponding to the specific words are registered in advance in a data table or the like in association with each other. Then, the control unit 70 executes processing corresponding to the determined operation. For example, at least one of an audio output process that causes the speaker 62 to output a voice saying "Bye-bye" and a display output process that displays and outputs a video of a specific character waving on the image display unit 20 is executed. be done. In this way, the viewer feels that the specific character displayed on the image display section 20 has responded to the voice uttered by the viewer. Therefore, for example, a highly entertaining display device 1 can be provided.

また、例えば、目視者が内部空間100に手を入れて手を振ると、ジェスチャーセンサ63が目視者のジェスチャー「バイバイ」を検出し、制御部70が、ジェスチャー検出結果「バイバイ」に基づいて、特定のキャラクターの動作を決定する。なお、表示装置1においては、特定の動作と当該特定の動作に対応する動作とが関連付けられてデータテーブル等に予め登録されている。そして、制御部70は、決定した動作に対応する処理を実行する。例えば、上記と同様に、「バイバイ」との音声をスピーカ62から出力させる音声出力処理と、特定のキャラクターが手を振る動作を行っている映像を画像表示部20に表示出力させる表示出力処理との少なくとも一方が実行される。このようにすれば、目視者は、自身が行ったジェスチャーに対して、画像表示部20に表示された特定のキャラクターが反応してくれたと感じる。したがって、例えば娯楽性の高い表示装置1を提供することができる。 Further, for example, when the viewer puts his hand into the internal space 100 and waves his hand, the gesture sensor 63 detects the viewer's gesture "Bye-bye", and the control unit 70, based on the gesture detection result "Bye-bye", Determine the behavior of a particular character. Note that in the display device 1, a specific action and an action corresponding to the specific action are registered in advance in a data table or the like in association with each other. Then, the control unit 70 executes processing corresponding to the determined operation. For example, similar to the above, an audio output process that causes the speaker 62 to output a voice saying "Bye-bye," and a display output process that causes the image display unit 20 to display and output a video of a specific character waving. At least one of these is executed. In this way, the viewer feels that the specific character displayed on the image display section 20 has responded to the gesture he/she performed. Therefore, for example, a highly entertaining display device 1 can be provided.

また、表示装置1は、表示装置1を基準として所定の範囲(例えば、検知対象空間とも称される)内における人の存在を検出可能な人感センサ64(図6参照)を更に備えている。当該人感センサ64としては、例えば、移動する物体の速度およびドップラー信号の有無によって物体の存在を検知可能なドップラーセンサ(例えば、マイクロ波ドップラーセンサ)などが挙げられる。 The display device 1 further includes a human sensor 64 (see FIG. 6) that can detect the presence of a person within a predetermined range (for example, also referred to as a detection target space) with the display device 1 as a reference. . Examples of the human sensor 64 include a Doppler sensor (for example, a microwave Doppler sensor) that can detect the presence of an object based on the speed of the moving object and the presence or absence of a Doppler signal.

当該人感センサ64は、開口部5の上端部51付近において表示装置1の正面側に向けて配置されており、人感センサ64の検知対象領域は表示装置1の正面側に設けられている。このようにすれば、表示装置1の正面側に人が居ることをより確実に検出することができる。 The human sensor 64 is arranged near the upper end 51 of the opening 5 toward the front side of the display device 1, and the detection target area of the human sensor 64 is provided on the front side of the display device 1. . In this way, the presence of a person in front of the display device 1 can be detected more reliably.

詳細には、人感センサ64は、後述する配置領域110(図7参照)における前方側(正面側)において、筐体10の前方側の外周壁80に接触しない程度の間隔をあけて配置されている。 In detail, the human sensor 64 is arranged on the front side (front side) of an arrangement area 110 (see FIG. 7), which will be described later, at an interval that is sufficient to avoid contact with the outer circumferential wall 80 on the front side of the housing 10. ing.

表示装置1においては、当該所定の範囲内にまで人が近づいてきたことが人感センサ64によって検出されることを条件に、画像表示部20の表示画像が三次元画像に切り替えられるように制御されるとよい。なお、それ以外のときは、二次元画像が表示されてもよく、あるいは、画像表示部20の表示画像が非表示化されてもよい。このようにすれば、例えば、画像表示部20の表示対象物(例えば、特定のキャラクター)が立体視できない位置に人が居るうちは、三次元画像が画像表示部20に表示されず、表示対象物が立体視できる範囲内にまで人が近づくと、三次元画像が画像表示部20に表示される。したがって、表示対象物を立体視できない位置から当該表示対象物を見たことに起因して周辺人物が表示装置1に対する興味を逸してしまうこと、を回避することができる。 In the display device 1, the display image on the image display unit 20 is controlled to be switched to a three-dimensional image on the condition that the human sensor 64 detects that a person has approached within the predetermined range. It would be good if it were done. Note that at other times, a two-dimensional image may be displayed, or the display image on the image display section 20 may be hidden. In this way, for example, while a person is in a position where the display target (for example, a specific character) on the image display unit 20 cannot be viewed stereoscopically, the three-dimensional image will not be displayed on the image display unit 20, and the display target When a person approaches an object within a range where it can be viewed stereoscopically, a three-dimensional image is displayed on the image display section 20. Therefore, it is possible to avoid surrounding people losing interest in the display device 1 due to viewing the display target from a position where the display target cannot be viewed stereoscopically.

[制御部の配置空間等に関する構成]
表示装置1は、制御部70を有している。例えば、表示装置1は、表示装置1の電源を制御する電源制御部71、画像表示部20に表示される表示画像を制御する表示制御部72、これらの制御部71,72等を統括する統括制御部73などを含む複数の制御部70を有している(図7参照)。なお、図7は、上面カバー部12が取り外された状態の表示装置1を説明する斜視図である。本実施例では、複数の制御部70の各々が異なる基板に実装されてもよいが、2以上の制御部70が単一の基板に実装されてもよい。これに伴い、各制御部70の配置位置が適宜変更されてもよい。
[Configuration regarding arrangement space of control unit, etc.]
The display device 1 includes a control section 70. For example, the display device 1 includes a power supply control unit 71 that controls the power supply of the display device 1, a display control unit 72 that controls the display image displayed on the image display unit 20, and a control unit that controls these control units 71, 72, etc. It has a plurality of control units 70 including a control unit 73 and the like (see FIG. 7). Note that FIG. 7 is a perspective view illustrating the display device 1 with the top cover portion 12 removed. In this embodiment, each of the plurality of control units 70 may be mounted on a different board, but two or more control units 70 may be mounted on a single board. Accordingly, the arrangement position of each control section 70 may be changed as appropriate.

図5に示されるように、筐体10は、上面カバー部12を有している。また、図6に示されるように、筐体10は、当該上面カバー部12と筐体10の内周面のうちの上面85との間に空間領域110を有している。そして、制御部70は、当該空間領域110に配置される。このようにすれば、表示装置1を制御する制御部70のメンテナンスを、筐体10の上面に設けられた上面カバー部12を外して行うことができる。したがって、表示装置1のメンテナンス性を向上させることができる。なお、当該空間領域110は、制御部70等を収容する収容空間、とも称される。 As shown in FIG. 5, the housing 10 has a top cover portion 12. As shown in FIG. Further, as shown in FIG. 6 , the housing 10 has a space region 110 between the upper surface cover portion 12 and the upper surface 85 of the inner circumferential surface of the housing 10 . Then, the control unit 70 is arranged in the spatial area 110. In this way, maintenance of the control section 70 that controls the display device 1 can be performed by removing the top cover section 12 provided on the top surface of the housing 10. Therefore, the maintainability of the display device 1 can be improved. Note that the spatial area 110 is also referred to as an accommodation space that accommodates the control unit 70 and the like.

制御部70が筐体10の上面部分に設けられている一方で、表示装置1の電源部90は、筐体10の下面部分14に設けられている(図4(B)参照)。 While the control unit 70 is provided on the top surface of the housing 10, the power supply section 90 of the display device 1 is provided on the bottom surface 14 of the housing 10 (see FIG. 4(B)).

そして、電源部90と制御部70(詳細には、電源制御部71)とを接続する接続コード91(図7参照)は、筐体10の外周壁80(例えば、筐体10の左側壁等)と内部空間100との間に確保された隙間領域89を通るように配線される。このようにすれば、電源部90を目立ち難い位置に配置することができるとともに、電源部90と制御部70とを接続する接続コード91を、外側および内部空間100側(開口部5側)から目視者の目に触れないように配線することができる。したがって、表示装置1のデザイン性を高めることができる。また、電源部90が内部空間100よりも下方に存在するので、電源部90が目立ち難い位置に配置されるとともに表示装置1の重心位置を低くすることができ、その姿勢を安定させやすくすることができる。 A connection cord 91 (see FIG. 7) that connects the power supply unit 90 and the control unit 70 (specifically, the power supply control unit 71) is connected to the outer circumferential wall 80 of the housing 10 (for example, the left side wall of the housing ) and the internal space 100 so as to pass through a gap region 89. In this way, the power supply unit 90 can be placed in an inconspicuous position, and the connection cord 91 that connects the power supply unit 90 and the control unit 70 can be connected from the outside and the internal space 100 side (opening 5 side). Wiring can be done so that it is not visible to the viewer. Therefore, the design of the display device 1 can be improved. Furthermore, since the power supply unit 90 is located below the internal space 100, the power supply unit 90 is placed in a less conspicuous position, and the center of gravity of the display device 1 can be lowered, making it easier to stabilize its posture. Can be done.

また、表示装置1の底面には、通気孔99(図4(B)参照)が設けられている。通気孔99は内部空間の下方の空間と通じている。またこの空間は、接続コード91が配線される隙間領域89を介して内部空間100の上方の空間領域110と空間的に通じている。よって、空間領域110が上面カバー部12により塞がれている場合でも、空間領域100内で発生した熱を、通気孔99を介して外部に放出することができる。なお、空間領域110で発生した熱を外部に放出するための通気口が上面カバー部12に設けられてもよいし、ヒートシンクその他の吸熱または放熱用の部材が空間領域110やそのほかの場所に設けられてもよい。 Furthermore, a ventilation hole 99 (see FIG. 4(B)) is provided on the bottom surface of the display device 1. The ventilation hole 99 communicates with the space below the interior space. Further, this space spatially communicates with a space region 110 above the internal space 100 via a gap region 89 where the connection cord 91 is wired. Therefore, even when the spatial region 110 is blocked by the top cover portion 12, the heat generated within the spatial region 100 can be released to the outside through the ventilation hole 99. Note that a vent for discharging heat generated in the spatial region 110 to the outside may be provided in the top cover portion 12, or a heat sink or other heat absorbing or heat dissipating member may be provided in the spatial region 110 or other locations. It's okay to be hit.

また、上面カバー部12は、複数の取付位置(例えば、9箇所の取付位置211~219)で筐体10の本体部11に対して取り付けられる。例えば、上面カバー部12は、筐体10の前方側(正面側)においては2箇所の取付位置211,212で、筐体10の右側においては2箇所の取付位置213,214で、筐体10の左側においては2箇所の取付位置215,216で、筐体10の後方側(背面側)においては3箇所の取付位置217~219で筐体10の本体部11に対して取り付けられる。 Further, the top cover portion 12 is attached to the main body portion 11 of the housing 10 at a plurality of attachment positions (for example, nine attachment positions 211 to 219). For example, the top cover part 12 is attached to the housing 10 at two mounting positions 211 and 212 on the front side (front side) of the housing 10, and at two mounting positions 213 and 214 on the right side of the housing 10. It is attached to the main body 11 of the housing 10 at two attachment positions 215 and 216 on the left side of the housing 10, and at three attachment positions 217 to 219 on the rear side (back side) of the housing 10.

例えば、図7および図8に示されるように、当該複数の取付位置211~219のうち表示装置1の正面側の取付位置211,212(第1の取付位置の一例)では、上面カバー部12と筐体10の本体部11とは、筐体10の外周壁80よりも内側の位置において、第1の固定具を用いて結合される。「第1の固定具」としては、例えば、嵌め込み部材95と、嵌め込み部材95を着脱可能に構成された受け部材96とが例示される。なお、図8は、上面カバー部12の裏面を示す図である。例えば、嵌め込み部材95は、凸状に形成されており、受け部材96は、凸状の嵌め込み部材95を挿入自在に形成されている。 For example, as shown in FIGS. 7 and 8, at the mounting positions 211 and 212 on the front side of the display device 1 (an example of a first mounting position) among the plurality of mounting positions 211 to 219, the top cover part 12 and the main body portion 11 of the housing 10 are coupled using a first fixture at a position inside the outer peripheral wall 80 of the housing 10. Examples of the "first fixture" include a fitting member 95 and a receiving member 96 configured to allow the fitting member 95 to be attached and removed. Note that FIG. 8 is a diagram showing the back surface of the top cover portion 12. As shown in FIG. For example, the fitting member 95 is formed in a convex shape, and the receiving member 96 is formed into which the convex fitting member 95 can be freely inserted.

一方で、複数の取付位置211~219のうち表示装置1の背面側の取付位置217~219(第2の取付位置の一例)(図7参照)では、筐体10の本体部11と上面カバー部12とは、筐体10の外周壁80の外側の位置において、第2の固定具を用いて結合される。「第2の固定具」としては、例えばネジ98(図8参照)が例示される。 On the other hand, at the mounting positions 217 to 219 (an example of a second mounting position) on the back side of the display device 1 (see FIG. 7) among the plurality of mounting positions 211 to 219, the main body 11 of the housing 10 and the top cover The portion 12 is coupled to the outer circumferential wall 80 of the housing 10 using a second fixture at a position outside the outer peripheral wall 80 of the housing 10 . An example of the "second fixture" is a screw 98 (see FIG. 8).

このようにすれば、目視者の目に触れ難い第2の取付位置(例えば、取付位置217~219)においては、第2の固定具(例えばネジ98)を用いて筐体10の外周壁80の外側から上面カバー部12と本体部11とが結合される。その一方で、目視者の目に触れ易い第1の取付位置(例えば、取付位置211,212)においては、目視者に目視され難い場所で第1の固定具(例えば、嵌め込み部材95および受け部材96)を用いて上面カバー部12と本体部11とが結合される。したがって、表示装置1のデザイン性を高めることができる。 In this way, at the second mounting positions (for example, the mounting positions 217 to 219) that are difficult to see by the viewer, the outer circumferential wall 80 of the housing 10 can be The top cover portion 12 and the main body portion 11 are coupled from the outside. On the other hand, at the first mounting position (for example, mounting positions 211 and 212) that is easily visible to the viewer, the first fixture (for example, the fitting member 95 and the receiving member 96), the top cover portion 12 and the main body portion 11 are coupled. Therefore, the design of the display device 1 can be improved.

また、第1の固定具(例えば、嵌め込み部材95および受け部材96)は、第2の固定具(例えばネジ98)よりも容易に着脱可能であり、第1の固定具を用いることにより表示装置1のメンテナンス性を高めることができる。さらに、全ての取付位置211~219において、当該第1の固定具を用いて上面カバー部12と本体部11とが結合されるのではなく、複数の取付位置211~219のうちの一部では、第2の固定具を用いて上面カバー部12と本体部11とが結合される。したがって、表示装置1のメンテナンス性を高めつつ、第三者によって上面カバー部12が取り外されることを抑制することもできる。 Further, the first fixture (for example, the fitting member 95 and the receiving member 96) is more easily attachable and detachable than the second fixture (for example, the screw 98), and by using the first fixture, the display device 1, maintainability can be improved. Furthermore, the top cover part 12 and the main body part 11 are not connected using the first fixing tool at all the mounting positions 211 to 219, but at some of the plurality of mounting positions 211 to 219. , the top cover portion 12 and the main body portion 11 are coupled using a second fixture. Therefore, while improving the maintainability of the display device 1, it is also possible to prevent the top cover portion 12 from being removed by a third party.

なお、本実施例に係る表示装置1では、複数の取付位置211~219のうち、筐体10の側方側の取付位置213~216に関して、正面側の取付位置211,212と同様に、上面カバー部12と筐体10の本体部11とが第1の固定具を用いて結合されている。ただし、これに限定されず、筐体10の側方側の取付位置213~216に関して、背面側の取付位置217~219と同様に、上面カバー部12と筐体10の本体部11とが第2の固定具を用いて結合されてもよい。 In the display device 1 according to the present embodiment, among the plurality of mounting positions 211 to 219, the mounting positions 213 to 216 on the side of the housing 10 are attached to the top surface as well as the mounting positions 211 and 212 on the front side. The cover portion 12 and the main body portion 11 of the housing 10 are coupled using a first fixture. However, the present invention is not limited to this, and with regard to the mounting positions 213 to 216 on the side side of the housing 10, similarly to the mounting positions 217 to 219 on the rear side, the top cover part 12 and the main body part 11 of the housing 10 are They may be joined using two fasteners.

[制御部の詳細構成について]
図9は、一実施例に係る表示装置1が有する制御部70の制御ブロック図である。上述したように、制御部70は、統括制御部73を有している。統括制御部73は、演算処理等を実行する演算処理装置として機能するCPU701、および、ワークエリアとして使用されるRAM703と制御用のプログラム等を記憶したROM702とを含むメモリ等を有するコントローラである。当該ROM702内には各種プログラムが記憶されており、統括制御部73は、これらのプログラムを実行することにより各種の機能を再現する。例えば、ROM702内には、ユーザとキャラクターとの対話を再現するための音声認識アプリケーション(音声認識エンジンの機能を有するアプリケーション)が記憶されており、統括制御部73は、各種センサ61,63,64,65等あるいはGPS受信機60等からの入力信号等に基づいて当該音声認識アプリケーションを実行することにより、ユーザとキャラクターとの対話を再現する。また、統括制御部73(動作制御手段の一例)は、画像表示部20に表示される画像等を制御する表示制御回路704(例えば、表示制御部72等)と、スピーカ62から出力される音声を制御する音声制御回路705とを有している。さらに、統括制御部73は、他の機器(例えば、図示しない外部の音声認識サーバ(音声認識エンジンとも称される)、および図示しない外部の対話サーバ(対話エンジン、とも称される)等)との通信を制御する通信制御回路706を有している。また、統括制御部73は、表示装置1の電源を制御する電源制御部71からの入力信号に基づいて、表示装置1の電源状態を制御する。
[About the detailed configuration of the control unit]
FIG. 9 is a control block diagram of the control unit 70 included in the display device 1 according to one embodiment. As described above, the control section 70 includes the overall control section 73. The overall control unit 73 is a controller that includes a CPU 701 that functions as an arithmetic processing device that executes arithmetic processing, etc., and a memory that includes a RAM 703 used as a work area and a ROM 702 that stores control programs and the like. Various programs are stored in the ROM 702, and the overall control unit 73 reproduces various functions by executing these programs. For example, the ROM 702 stores a voice recognition application (an application having a voice recognition engine function) for reproducing the interaction between the user and the character, and the overall control unit 73 controls the various sensors 61, 63, 64. , 65, or the like, or based on input signals from the GPS receiver 60, etc., the dialogue between the user and the character is reproduced. The overall control unit 73 (an example of an operation control unit) also includes a display control circuit 704 (for example, a display control unit 72, etc.) that controls images displayed on the image display unit 20, and audio output from the speaker 62. and an audio control circuit 705 that controls the. Furthermore, the overall control unit 73 communicates with other devices (for example, an external voice recognition server (also referred to as a voice recognition engine) not shown, an external dialogue server (also referred to as a dialogue engine) not shown), etc. It has a communication control circuit 706 that controls communication. Further, the overall control unit 73 controls the power state of the display device 1 based on an input signal from the power supply control unit 71 that controls the power supply of the display device 1 .

[表示装置に表示されるキャラクターについて]
ここで、制御部70の統括制御部73による制御内容について説明する前に、表示装置1の画像表示部20にて表示され得るキャラクターについて、図10~図12を参照しつつ説明する。
[About the characters displayed on the display device]
Here, before explaining the control contents by the general control section 73 of the control section 70, characters that can be displayed on the image display section 20 of the display device 1 will be explained with reference to FIGS. 10 to 12.

図10は、一実施例に係る表示装置1の概要を説明する図であり、詳細には、3Dキャラクター1100が表示装置1に表示されている状態を示す図である。3Dキャラクター1100は、女性のキャラクターである。表示装置1(詳細には、統括制御部73)は、さらに、3Dキャラクター1100の下にステージを意味するステージ映像2100を表示する。ステージ映像2100は、ここでは魔法陣を示す。この表示を見た目視者は、ステージ上に3Dキャラクター1100が立っているような印象を受けることができる。3Dキャラクター1100およびステージ映像2100の色は特に問わない。例えば3Dキャラクター1100の皮膚は肌色である。3Dキャラクター1100の髪色および上半身の衣装は比較的淡い青色系の色(例えば、水色)、膝に当てられている装飾品はそれよりも濃い青色系の色(例えば、青色)、スカートおよび靴は白色である。ステージ映像2100は比較的濃い青色系の色(例えば、濃い水色)である。なお、図10および次述の図11では、表示装置1の真正面よりもやや上方から筐体10内を見下ろして視認している図が示されている。 FIG. 10 is a diagram illustrating an overview of the display device 1 according to an embodiment, and in detail is a diagram illustrating a state in which a 3D character 1100 is displayed on the display device 1. 3D character 1100 is a female character. The display device 1 (specifically, the general control unit 73) further displays a stage image 2100 representing a stage below the 3D character 1100. The stage image 2100 here shows a magic circle. The viewer who sees this display can get the impression that the 3D character 1100 is standing on the stage. The colors of the 3D character 1100 and the stage image 2100 are not particularly limited. For example, the skin of the 3D character 1100 is flesh-colored. The hair color and upper body costume of the 3D character 1100 are a relatively light blue color (e.g., light blue), and the accessories on the knees are a darker blue color (e.g., blue), skirt, and shoes. is white. The stage image 2100 is a relatively dark blue color (for example, dark light blue). Note that FIG. 10 and FIG. 11, which will be described below, show views looking down into the inside of the casing 10 from slightly above the front of the display device 1.

図11は、一実施例に係る表示装置1の概要を説明する図であり、詳細には、3Dキャラクター1200が表示装置1に表示されている状態を示す図である。3Dキャラクター1200は、猫のキャラクターである。図11(B)に示す場合、表示装置1は、3Dキャラクター1200および3Dキャラクター1200の下にステージを意味するステージ映像2200を表示する。ステージ映像2200は、ここでは、「Yupiteru」という文字列、および3Dキャラクター1200の名称である「Juno」(「ユノ」と称呼する。)を示す文字列が、円形のステージの外周に沿って交互に表記されている。3Dキャラクター1200およびステージ映像2200の色は特に問わない。 FIG. 11 is a diagram illustrating an overview of the display device 1 according to an embodiment, and in detail is a diagram showing a state in which a 3D character 1200 is displayed on the display device 1. The 3D character 1200 is a cat character. In the case shown in FIG. 11B, the display device 1 displays a 3D character 1200 and a stage image 2200 indicating a stage below the 3D character 1200. In the stage image 2200, a character string "Yupiteru" and a character string indicating "Juno" (referred to as "Yuno"), which is the name of the 3D character 1200, are alternately arranged along the outer periphery of a circular stage. It is written in . The colors of the 3D character 1200 and the stage image 2200 are not particularly limited.

ここで、3Dキャラクター1200およびステージ映像2200について、図12を参照してより具体的に説明する。3Dキャラクター1200は、キャラクター本体1210と、首輪1220とに大別される。キャラクター本体1210は、猫のキャラクター自体である。キャラクター本体1210は、身体の部位のうち、白色で示された部位を含み、例えば、眉間、鼻および口の周辺、腹部、並びに足のうちの正面側の部位がこれに該当する。キャラクター本体1210の身体の部位のうち、薄いグレーで示された部位は、比較的淡い茶色系の色(例えば、黄土色)であり、例えば、顔部のうちの目の上および横の部位、胴体部のうちの上側の部分、足のうちの正面側以外の部位がこれに該当する。キャラクター本体1210の身体の部位のうち、さらに濃いグレーで示された部位は、さらに濃い茶色系の色(例えば、茶色)であり、例えば、顔部、頭部、胴体、足の細い線で示された縞模様の部位がこれに該当する。首輪1220は、キャラクター本体1210の首の位置に表示された首輪を意味する。首輪1220は、赤系の色(例えば、赤色)である。首輪1220のうち、キャラクター本体1210の顔の下に位置には、札1221が取り付けられている。札1221は円形であり、所定の標識が表記されている。当該標識は、「V」状の記号の下方に「●」(内側を塗りつぶした円)を配置した標識であって、それぞれを赤色系の色(例えば、赤色)で表記されている標識である。札1221に表記される標識は、表示装置1の出所を示す商標としての機能を発揮するものとしてもよい。ステージ映像2200は全体として茶色系の色で、円および文字列は比較的濃い茶系の色(例えば、茶色)、円の内側の煙を模した画像はそれよりも薄い茶色系の色(例えば、黄土色)である。 Here, the 3D character 1200 and the stage image 2200 will be described in more detail with reference to FIG. 12. The 3D character 1200 is roughly divided into a character body 1210 and a collar 1220. The character body 1210 is the cat character itself. The character main body 1210 includes parts of the body shown in white, such as the area between the eyebrows, around the nose and mouth, the abdomen, and the front side of the legs. Among the body parts of the character body 1210, the parts shown in light gray are relatively light brownish colors (for example, ocher), such as the parts above and beside the eyes of the face, This applies to the upper part of the torso and parts other than the front side of the legs. Among the body parts of the character body 1210, the parts shown in darker gray are in a darker brown color (for example, brown), and are shown by thin lines on the face, head, torso, and legs, for example. This corresponds to the area with the striped pattern. The collar 1220 refers to a collar displayed at the neck position of the character body 1210. Collar 1220 has a red color (for example, red). A tag 1221 is attached to the collar 1220 below the face of the character body 1210. The tag 1221 is circular and has a predetermined sign written on it. The sign is a sign with a "●" (circle with a filled-in inside) placed below a "V"-shaped symbol, each of which is written in a red color (for example, red). . The mark written on the tag 1221 may function as a trademark indicating the origin of the display device 1. The stage image 2200 as a whole is a brown color, the circle and character string are a relatively dark brown color (for example, brown), and the image imitating smoke inside the circle is a lighter brown color (for example, yellow ocher).

図10~図12において、3Dキャラクター1100,1200の背景は黒色で示されているが、真っ黒に限られるものではなく、比較的暗い色の背景(例えば、黒色その他の暗色系の色)としてもよい。 In FIGS. 10 to 12, the backgrounds of the 3D characters 1100 and 1200 are shown in black, but the backgrounds are not limited to pure black, and may also be relatively dark backgrounds (for example, black or other dark colors). good.

なお、図10~図12に示すキャラクターは一例である。表示装置1は、人型のキャラクターを表示する場合、表示装置1は、女性のキャラクターに限られず、男性のキャラクター(例えば、キャラクター1000(図13参照))を表示してもよい。表示装置1は、実在する人物(例えば、家族)もしくは過去に実在していた人物(例えば、歴史上の人物)、架空の人物のキャラクター(例えば、漫画やアニメ等のフィクションの作品に登場するキャラクター等)のいずれを表示してもよい。人型でない動物のキャラクターを表示する場合、表示装置1は、猫のキャラクターに限られず、犬やハムスター等の一般家庭で飼育されうる動物のキャラクター、それ以外の馬や牛等の動物のキャラクター、並びに架空の動物のキャラクター(例えば、漫画やアニメその他のフィクションの作品に登場するキャラクター等)のいずれを表示してもよい。また、表示装置1は、首輪1220を有する他のキャラクターを表示するものであってもよい。 Note that the characters shown in FIGS. 10 to 12 are examples. When the display device 1 displays a humanoid character, the display device 1 is not limited to displaying a female character, and may display a male character (for example, character 1000 (see FIG. 13)). The display device 1 displays characters of real people (e.g., family members), people who actually existed in the past (e.g., historical figures), and fictional characters (e.g., characters appearing in works of fiction such as manga and anime). etc.) may be displayed. When displaying non-humanoid animal characters, the display device 1 is not limited to cat characters, but also animal characters that can be kept at home such as dogs and hamsters, and other animal characters such as horses and cows. Also, any of the fictional animal characters (for example, characters appearing in manga, anime, and other works of fiction) may be displayed. Further, the display device 1 may display another character having a collar 1220.

表示装置1(詳細には、統括制御部73)は、コミュニケーション機能に基づいて、キャラクターの身体の部位を動かしたり、キャラクターの発話を模した音声を出力したりする。コミュニケーション機能は、目視者とキャラクターとのコミュニケーションを再現する機能、または疑似的なコミュニケーションを再現する機能である。コミュニケーション機能においては、目視者の挙動(例えば、発話や身体の動き)に応答してキャラクターが動く。例えば、3Dキャラクター1100は、ダンスなど体全体を動かしたり、表情を変化(例えば、喜怒哀楽の感情を表現)させたりする、といった人間が通常行う動作を再現した動作をする。例えば、3Dキャラクター1200は、動物が通常行う動作(例えば、あくびをする、尻尾を動かす、歩行する等)を再現した動きをする。また、表示装置1は、例えば、3Dキャラクター1100の動作に合わせて、3Dキャラクター1100が歌唱しているかのような歌唱音声を出力したり、目視者との対話に係る音声を出力したりする。表示装置1は、例えば、3Dキャラクター1200の動作に合わせて、猫の鳴き声を意味する音声を出力したり、目視者との対話に係る音声を出力したりする。このような映像や音声の出力は、コミュニケーション機能に限られず、表示装置1が有する種々の機能で行われるようにしてもよい。 The display device 1 (specifically, the general control unit 73) moves the body parts of the character and outputs sounds imitating the character's speech based on the communication function. The communication function is a function that reproduces communication between the viewer and the character, or a function that reproduces pseudo communication. In the communication function, the character moves in response to the viewer's behavior (for example, speech or body movements). For example, the 3D character 1100 performs actions that reproduce actions that humans normally perform, such as moving the entire body, such as dancing, and changing facial expressions (for example, expressing emotions of happiness, anger, sadness, and happiness). For example, the 3D character 1200 moves in a manner that reproduces actions that animals normally perform (eg, yawning, moving its tail, walking, etc.). Further, the display device 1 outputs a singing sound as if the 3D character 1100 is singing, or outputs a sound related to a dialogue with a viewer, for example, in accordance with the movement of the 3D character 1100. For example, the display device 1 outputs a sound representing a cat's meow or a sound related to a dialogue with a viewer in accordance with the movement of the 3D character 1200. The output of such video and audio is not limited to the communication function, and may be performed using various functions that the display device 1 has.

なお、コミュニケーション機能におけるユーザとの対話は、例えば、統括制御部73のROM702内に記憶された音声認識アプリケーションと、上述した外部の音声認識サーバと対話サーバとによって再現される。例えば、操作部40がユーザによって押下されると、統括制御部73は、音声認識アプリケーションを起動させる。これにより、キャラクターとの対話を行うための音声認識が有効化される。そして、ユーザにより発せられた音声(ユーザ音声、とも称する)が、統括制御部73の通信制御回路706から音声認識サーバへと送信され、音声認識サーバによってユーザ音声に対する音声認識処理が実行されて音声認識結果が出力される。対話サーバには、入力され得る文字列毎に、画像表示部20に表示されたキャラクター(例えば、3Dキャラクター1100)が発する音声(キャラクター音声、とも称する)が互いに対応付けて予め登録されている。そして、音声認識サーバによる音声認識結果(例えば、文字列で示された音声認識結果)が対話サーバに入力され、当該音声認識結果に対応するキャラクター音声が対話サーバから表示装置1へと送信される。そして、統括制御部73は、対話サーバから受信したキャラクター音声を、表示装置1のスピーカ61から出力する。このようにして、ユーザによる音声に対する応答処理が実行され、ユーザとキャラクターとの対話が再現される。 Note that the interaction with the user in the communication function is reproduced, for example, by a voice recognition application stored in the ROM 702 of the general control unit 73, and the external voice recognition server and dialogue server described above. For example, when the operation unit 40 is pressed by the user, the overall control unit 73 starts a voice recognition application. This enables voice recognition for interacting with the character. Then, the voice uttered by the user (also referred to as user voice) is transmitted from the communication control circuit 706 of the central control unit 73 to the voice recognition server, and the voice recognition server executes voice recognition processing on the user voice to create a voice. The recognition result is output. In the dialogue server, sounds (also referred to as character sounds) emitted by characters displayed on the image display section 20 (for example, 3D character 1100) are registered in advance in association with each other for each character string that can be input. Then, the voice recognition result (for example, the voice recognition result indicated by a character string) by the voice recognition server is input to the dialogue server, and the character voice corresponding to the voice recognition result is transmitted from the dialogue server to the display device 1. . Then, the overall control unit 73 outputs the character voice received from the dialogue server from the speaker 61 of the display device 1. In this way, the response process to the user's voice is executed, and the interaction between the user and the character is reproduced.

<3Dキャラクター1100に関するコミュニケーション機能について>
以下では、3Dキャラクター1100とユーザとのコミュニケーションを再現するための種々の制御について、図14~図20を参照して順に説明する。
<About the communication function related to 3D character 1100>
Below, various controls for reproducing communication between the 3D character 1100 and the user will be explained in order with reference to FIGS. 14 to 20.

<1.においに関するコミュニケーション機能について>
例えば、においを検知するにおいセンサ65(図9参照)を表示装置1に設けておき、統括制御部73は、においセンサ65による検知結果に応じた音声を3Dキャラクター1100のキャラクター音声として出力する音声出力動作を実行するとよい。においセンサ65は、例えば、あるにおいの強度に応じて変化する信号を出力したり、においに含まれる成分(におい成分)に応じて変化する信号を出力したりするものがある。においセンサ65は、例えば、においの種類に応じて変化する信号を出力する。においセンサ65は、例えば、脱臭フィルタ等を用いて特定のにおい成分(タール、アンモニア、アルコール、二酸化炭素等)の濃度を検知可能に構成されている。このようにすれば、統括制御部73は、表示装置1の画像表示部20に表示されたキャラクターとユーザとの間でにおいに関するコミュニケーションを再現することができ、当該キャラクターとユーザとの間でより多様なコミュニケーションを再現することができる。なお、においセンサ65は、表示装置1の外周面上、例えば、表示装置1における筐体10の斜行部84等に設けられるとよい。
<1. About the communication function related to smell>
For example, an odor sensor 65 (see FIG. 9) that detects odor is provided in the display device 1, and the general control unit 73 outputs a voice according to the detection result by the odor sensor 65 as the character voice of the 3D character 1100. It is a good idea to perform an output operation. The odor sensor 65 may, for example, output a signal that changes depending on the intensity of a certain odor, or output a signal that changes depending on the component contained in the odor (smell component). The odor sensor 65 outputs a signal that changes depending on the type of odor, for example. The odor sensor 65 is configured to be able to detect the concentration of specific odor components (tar, ammonia, alcohol, carbon dioxide, etc.) using, for example, a deodorizing filter. In this way, the general control unit 73 can reproduce the communication regarding smell between the character displayed on the image display unit 20 of the display device 1 and the user, and the communication between the character and the user can be improved. It is possible to reproduce various types of communication. Note that the odor sensor 65 is preferably provided on the outer peripheral surface of the display device 1, for example, on the oblique portion 84 of the housing 10 of the display device 1.

統括制御部73は、例えば、検知されたにおいの種類に応じた音声を3Dキャラクター1100のキャラクター音声として出力する音声出力動作を実行するとよい。なお、複数種類のにおい成分を識別可能な単一のセンサが、においセンサとして構成されていてもよく、互いに異なる種類のにおい成分を識別可能な複数のセンサが、においセンサとして構成されていてもよい。 For example, the overall control unit 73 may perform an audio output operation that outputs audio according to the type of detected odor as the character audio of the 3D character 1100. Note that a single sensor capable of identifying multiple types of odor components may be configured as an odor sensor, and a plurality of sensors capable of discriminating different types of odor components may be configured as an odor sensor. good.

図14(A)は、においに関するコミュニケーションを再現するためのフローチャートであり、図14(B)は、においに関する音声管理テーブル(音声管理表、とも称される)を示す図である。音声管理テーブルは、例えば、表示装置1の統括制御部73内、あるいは対話サーバ内に格納されている。図14(B)に示されるように、音声管理テーブルには、においセンサ65によって検知可能なにおい成分(におい物質、とも称される)の種類ごとに、そのにおい成分を主に含有するにおいの種類と、3Dキャラクター1100が発する音声(キャラクター音声と称する)とが予め登録されている。例えば、音声管理テーブルにおいては、タールを主に含有するタバコ臭がタールと対応付けて登録されているとともに、タバコ臭が検知された際のキャラクター音声として、「タバコの吸い過ぎはよくないよ~」などのユーザの健康に気遣う言葉が登録されている。 FIG. 14(A) is a flowchart for reproducing communication regarding smells, and FIG. 14(B) is a diagram showing a voice management table regarding smells (also referred to as a voice management table). The voice management table is stored, for example, in the overall control unit 73 of the display device 1 or in the dialogue server. As shown in FIG. 14(B), the audio management table lists odors that mainly contain the odor components for each type of odor component (also referred to as odorant substance) that can be detected by the odor sensor 65. The type and the voice emitted by the 3D character 1100 (referred to as character voice) are registered in advance. For example, in the voice management table, cigarette odor, which mainly contains tar, is registered in association with tar, and when cigarette odor is detected, a character voice saying ``Smoking too much is not good.'' Words that express concern for the user's health, such as "", are registered.

そして、まず、ステップS11において、統括制御部73は、におい成分が検知されたか否かを判断する。例えば、統括制御部73は、においセンサ65によって検知されたにおい成分の濃度が特定のにおいに関する所定の閾値(基準値)を上回ると、そのにおい成分が検知されたと判断する。ステップS12において、統括制御部73は、音声管理テーブルにおいて、検知されたにおい成分に対応付けて登録されているにおいの種類を判断する。例えば、所定の閾値を上回る濃度のタールが検知された場合は、タバコ臭が検知されたと判断される。そして、統括制御部73は、検知されたにおいの種類に応じたキャラクター音声をスピーカ62から出力する。例えば、タバコ臭が検知されたと判断されると、統括制御部73は、ユーザの健康に気遣う言葉の音声(ここでは、「タバコの吸い過ぎはよくないよ~」)をキャラクター音声として出力する音声出力動作を実行する。なお、他の例としては、以下のようなものが挙げられる。例えば、アロマオイルなどの香料や食事などに含まれる特定の主成分の濃度が所定の基準値を上回ると、統括制御部73は、香料や食事などのにおいが検知されたと判断し、においの元に関して質問する音声をキャラクター音声として出力する。また、所定の基準値を上回るアルコールが検知されると、統括制御部73は、アルコール臭が検知されたと判断し、「お酒くさ~い」や「また飲んできたの、いい加減にしなさいよ」などの音声を3Dキャラクター1100のキャラクター音声として出力する。また、所定の基準値を上回る口臭成分(例えば、硫化水素、メチルメルカプタン、ジメルサルファイド等)が検知されると、統括制御部73は、口臭が検知されたと判断し、「ちょっとお口臭うよ、歯磨きしてる?」や「歯槽膿漏気を付けてね」などの音声を3Dキャラクター1100のキャラクター音声として出力する。また、ターシャリーブチルメルカプタン、ジメチルサルファイドあるいはテトラヒドロチオフェンなど、ガス燃料に含有されるにおい成分が検知されると、統括制御部73は、ガス燃料のにおいが検知されたと判断し、「ガス臭いんだけど!」などの音声を3Dキャラクター1100のキャラクター音声として出力する。 First, in step S11, the overall control unit 73 determines whether an odor component has been detected. For example, when the concentration of an odor component detected by the odor sensor 65 exceeds a predetermined threshold value (reference value) regarding a specific odor, the overall control unit 73 determines that the odor component has been detected. In step S12, the overall control unit 73 determines the type of odor registered in the audio management table in association with the detected odor component. For example, if tar is detected at a concentration exceeding a predetermined threshold, it is determined that cigarette odor has been detected. Then, the overall control unit 73 outputs a character voice from the speaker 62 according to the type of detected odor. For example, when it is determined that a cigarette odor has been detected, the general control unit 73 outputs a voice that expresses concern for the user's health (here, "Smoking too much cigarettes is not good") as a character voice. Execute an output operation. Note that other examples include the following. For example, if the concentration of a specific main component contained in a fragrance such as aroma oil or food exceeds a predetermined reference value, the integrated control unit 73 determines that the odor of the fragrance or food has been detected, and the source of the odor is detected. A voice asking a question about something is output as a character voice. Additionally, if alcohol exceeding a predetermined standard value is detected, the general control unit 73 determines that an alcohol odor has been detected, and issues messages such as, "You taste like alcohol," or "You've been drinking again. Don't worry about it." etc. is output as the character voice of the 3D character 1100. Further, when a component of bad breath (for example, hydrogen sulfide, methyl mercaptan, dimer sulfide, etc.) exceeding a predetermined standard value is detected, the general control unit 73 determines that bad breath has been detected and says, ``I have a bit of bad breath.'' , ``Are you brushing your teeth?'' and ``Apply alveolar pyorrhea.'' are output as character voices of the 3D character 1100. Furthermore, when an odor component contained in gas fuel such as tert-butyl mercaptan, dimethyl sulfide, or tetrahydrothiophene is detected, the general control unit 73 determines that the odor of gas fuel has been detected and says, ``It smells like gas. !” is output as the character voice of the 3D character 1100.

このように、統括制御部73は、検知されたにおいの種類に応じた音声を3Dキャラクター1100のキャラクター音声として出力する制御を実行するとよい。このような制御が行われることにより、画像表示部20に表示されたキャラクターとユーザとの間でのコミュニケーションの幅を広げることができ、当該キャラクターへのユーザの愛着を増大させることができる。 In this way, the overall control unit 73 preferably executes control to output a sound according to the type of detected odor as the character sound of the 3D character 1100. By performing such control, the range of communication between the character displayed on the image display section 20 and the user can be expanded, and the user's attachment to the character can be increased.

表示装置1は、音声管理テーブルに基づいて出力する音声を特定するものに限らない。表示装置1は、例えば、過去の対話の内容(対話の履歴)に基づいてキャラクターの発話内容が変化するシナリオに従って、出力する音声を特定してもよい。このシナリオは、キャラクターの出力する音声を特定するデータがツリー構造で管理された分岐シナリオを規定するものでもよい。 The display device 1 is not limited to one that specifies the audio to be output based on the audio management table. For example, the display device 1 may specify the audio to be output according to a scenario in which the content of the character's utterance changes based on the content of past dialogues (history of dialogues). This scenario may define a branching scenario in which data specifying voices output by characters is managed in a tree structure.

ここでは、においセンサ65による検知結果に応じた音声の音声出力動作が例示されているが、これに限定されず、統括制御部73は、においセンサ65による検知結果に応じた動きをキャラクターが行う映像を画像表示部20に表示する表示出力動作を実行してもよい。例えば、音声管理テーブルと同様に、表示管理テーブル(不図示)を予め設けておき、統括制御部73は、検知されたにおいの種類に応じた動きを3Dキャラクター1100が行う映像を画像表示部20に表示する表示出力動作を実行するとよい。表示管理テーブルは、例えば、におい成分とにおいの種類とに対応付けて3Dキャラクター1100を規定するデータを登録したテーブルとするとよい。3Dキャラクター1100を規定するデータは、表示する3Dキャラクター1100の映像を示すデータでもよいし、3Dキャラクター1100の動きの内容を規定するデータでもよい。例えば、何らかのにおい成分が検知されると、統括制御部73は、においを嗅ぐ動きを3Dキャラクター1100が行う映像を画像表示部20に表示するとよい。また、統括制御部73は、例えばタバコ臭が検知されたと判断すると、煙たがる動きを3Dキャラクター1100が行う映像を画像表示部20に表示するとよい。なお、この際、統括制御部73は、煙を模した映像を画像表示部20に表示してもよい。さらに、統括制御部73は、上記のような音声出力動作と表示出力動作との双方を実行してもよい。例えば、においセンサ65によって何らかのにおい成分が検知されると、統括制御部73は、においを嗅ぐ動きを3Dキャラクター1100が行う映像を画像表示部20に表示しつつ、「何かにおう」などの音声を3Dキャラクター1100のキャラクター音声としてスピーカ62から出力するようにしてもよい。 Here, an audio output operation of a voice according to a detection result by the smell sensor 65 is illustrated, but the present invention is not limited to this; A display output operation for displaying the video on the image display section 20 may also be performed. For example, similar to the audio management table, a display management table (not shown) is provided in advance, and the overall control unit 73 displays an image of the 3D character 1100 making a movement according to the type of detected odor on the image display unit 20. It is recommended to perform a display output operation to display the The display management table may be, for example, a table in which data defining the 3D character 1100 is registered in association with odor components and odor types. The data specifying the 3D character 1100 may be data indicating an image of the 3D character 1100 to be displayed, or may be data specifying the content of the movement of the 3D character 1100. For example, when some odor component is detected, the overall control unit 73 may display an image of the 3D character 1100 performing a sniffing motion on the image display unit 20. Further, when the general control unit 73 determines that a cigarette odor is detected, for example, it is preferable that the image display unit 20 displays an image in which the 3D character 1100 performs a motion similar to that of smoking. Note that at this time, the overall control unit 73 may display an image simulating smoke on the image display unit 20. Furthermore, the overall control unit 73 may perform both the audio output operation and the display output operation as described above. For example, when some odor component is detected by the odor sensor 65, the general control unit 73 displays an image of the 3D character 1100 performing a sniffing motion on the image display unit 20, and displays a message such as "something smells". The sound may be output from the speaker 62 as the character sound of the 3D character 1100.

さらには、統括制御部73は、においセンサ65によって検知されたにおい成分の濃度(検出強度ともいう)に応じて3Dキャラクター1100の反応が変更するように制御するとよい。例えば、統括制御部73が、におい成分の濃度に応じて、段階的に設けられた複数の動きの映像(例えば、「顔をしかめる(嫌そうな表情をする)」、「冷や汗を流す」、「青ざめる」および「気絶する」等)のいずれかを選択的に表示するとよい。 Furthermore, the overall control unit 73 may control the reaction of the 3D character 1100 to change depending on the concentration (also referred to as detection intensity) of the odor component detected by the odor sensor 65. For example, the general control unit 73 may display images of a plurality of movements provided in stages according to the concentration of odor components (for example, "make a grimace (make a disgusted expression)", "break into a cold sweat", It is preferable to selectively display one of the words "to turn pale" and "to faint", etc.

表示装置1は、タバコ臭とタバコ臭以外のにおい(臭さ)とを区別する方法として例えば、煙を検知する煙センサや、カメラ画像(例えば撮影部227の撮影した画像)、サーモカメラの画像など、別のセンサ等との組み合わせで、ユーザがタバコを吸っていることを検知可能してもよい。 The display device 1 uses, for example, a smoke sensor that detects smoke, a camera image (for example, an image taken by the photographing unit 227), and a thermo camera image as a method for distinguishing between cigarette odor and odors other than cigarette odor. It may be possible to detect that the user is smoking in combination with another sensor.

統括制御部73は、ユーザがタバコを吸っていることを検知した場合に、3Dキャラクター1100に重ねて(3Dキャラクター1100の前に)、煙を模した画像(煙がモクモクとしと現われている様子を再現した映像)を表示してもよい。この際、統括制御部73は、3Dキャラクター1100の顔を前に突き出して顔をアップし、さも嫌そうな表情をさせた表情をさせてもよい。統括制御部73は、ユーザと3Dキャラクター1100との親密さの度合いである親密度に応じて、3Dキャラクター1100が嫌がる程度を変化させた表示をしてもよい。統括制御部73は、例えば、親密度が所定値以上である場合は、愛しているから許してあげるというような3Dキャラクター1100の表情にし、所定値未満である場合は3Dキャラクター1100を不快な表情にする、という具合である。統括制御部73は、例えば、ユーザによる表示装置1の使用実績(例えば、過去の使用時間や過去の対話内容)に応じて親密度を特定するとよい。親密度の特定についてのアルゴリズムはこれに限らない。 When the general control unit 73 detects that the user is smoking, it superimposes on the 3D character 1100 (in front of the 3D character 1100) an image that imitates smoke (smoke appearing in thick slivers). You may also display a video that reproduces the At this time, the general control unit 73 may push the face of the 3D character 1100 forward, close up the face, or make the 3D character 1100 look disgusted. The overall control unit 73 may display a display that changes the degree to which the 3D character 1100 dislikes the user, depending on the degree of intimacy that is the degree of intimacy between the user and the 3D character 1100. For example, if the degree of intimacy is above a predetermined value, the general control unit 73 makes the 3D character 1100 have an expression that says I love you and will forgive you, and if it is less than the predetermined value, the 3D character 1100 has an unpleasant expression. That is, to make it . The overall control unit 73 may, for example, specify the degree of familiarity according to the usage history of the display device 1 by the user (for example, past usage time and past conversation content). The algorithm for determining intimacy is not limited to this.

<2.ユーザの位置情報に基づくコミュニケーション機能について>
また、例えば、表示装置1がGPS(Global Positioning System)受信機60(図9参照)を有しており、ユーザの位置情報に基づいて以下のような制御が実行されるとよい。なお、ここでは、表示装置1が携帯型であることを想定する。そして、例えば、統括制御部73が、GPS受信機60からの信号に基づいて、ユーザが所持(携帯)している表示装置1の位置情報をユーザ自身の位置情報として取得し、取得した位置情報に基づいて以下のような制御を実行するとよい。
<2. Regarding the communication function based on user location information>
Further, for example, the display device 1 may include a GPS (Global Positioning System) receiver 60 (see FIG. 9), and the following control may be executed based on the user's position information. Note that here, it is assumed that the display device 1 is a portable type. Then, for example, the overall control unit 73 acquires the position information of the display device 1 carried by the user (portable) as the user's own position information based on the signal from the GPS receiver 60, and the acquired position information It is recommended to perform the following control based on the following.

例えば、ユーザの位置情報に基づき特定された場所にユーザが滞在した滞在頻度(訪問頻度、とも称される)に応じた音声がキャラクター音声として出力されるように制御されるとよい。図15は、滞在頻度に関するコミュニケーションを再現するためのフローチャートである。 For example, it may be controlled so that a voice corresponding to the frequency of stays (also referred to as visit frequency) of the user at a location specified based on the user's location information is output as the character voice. FIG. 15 is a flowchart for reproducing communication regarding the frequency of stay.

例えば、ステップS21において、統括制御部73は、GPS受信機60からユーザの位置情報が受信されたか否かを判断する。ユーザの位置情報が受信されると、ステップS22において、統括制御部73は、ユーザの位置情報に基づき特定された場所にユーザが滞在した滞在頻度が所定値(例えば、「2」)以上であるか否かを判断する。なお、滞在頻度は、所定期間(例えば、1日あるいは1週間等)において一の場所にユーザが滞在した回数である。例えば、統括制御部73は、GPS受信機60から取得された位置情報(例えば、ユーザの現在の位置情報)に基づいて、ネットワーク等を利用してユーザの滞在場所を検索して特定する。そして、統括制御部73は、特定された場所にユーザが滞在した滞在回数に基づいてユーザの滞在頻度を算出し、ユーザの滞在頻度が所定値以上であるか否かを判断する。例えば、ユーザの滞在頻度が所定値以上である場合、ステップS23において、統括制御部73は、ユーザの滞在頻度に関して予め登録された所定のキャラクター音声がスピーカ62から出力されるように制御する。統括制御部73は、例えば、ユーザが同一日に同一の場所に2回行った場合、ユーザの滞在頻度が所定値以上であると判断し、「あれ、さっきも行ったじゃん」などのキャラクター音声を出力する。 For example, in step S21, the overall control unit 73 determines whether the user's location information has been received from the GPS receiver 60. When the user's location information is received, in step S22, the central control unit 73 determines that the frequency of stays at which the user stayed at the location specified based on the user's location information is equal to or greater than a predetermined value (for example, "2"). Determine whether or not. Note that the stay frequency is the number of times the user stayed at one place during a predetermined period (for example, one day or one week). For example, the overall control unit 73 uses a network or the like to search and specify the user's place of stay based on the location information acquired from the GPS receiver 60 (for example, the user's current location information). Then, the overall control unit 73 calculates the frequency of stay of the user based on the number of times the user stayed at the specified location, and determines whether the frequency of stay of the user is equal to or higher than a predetermined value. For example, if the frequency of stay of the user is equal to or higher than the predetermined value, in step S23, the overall control unit 73 controls the speaker 62 to output a predetermined character voice registered in advance regarding the frequency of stay of the user. For example, if the user goes to the same place twice on the same day, the general control unit 73 determines that the user's frequency of stay is equal to or higher than a predetermined value, and outputs a character voice such as "Oh, I went there a while ago." Output.

また、統括制御部73は、取得した位置情報に基づき特定された場所に応じた音声を3Dキャラクター1100のキャラクター音声として出力するように制御するとよい。図16(A)は、滞在場所に関するコミュニケーションを再現するためのフローチャートであり、図16(B)は、滞在場所に関するキャラクター音声の音声管理テーブルを示す図である。 Further, it is preferable that the overall control unit 73 outputs, as the character voice of the 3D character 1100, a voice corresponding to the location specified based on the acquired position information. FIG. 16(A) is a flowchart for reproducing communication regarding the place of stay, and FIG. 16(B) is a diagram showing a voice management table of character voices regarding the place of stay.

例えば、ステップS31において、統括制御部73は、GPS受信機60からユーザの位置情報が受信されたか否かを判断する。ユーザの位置情報が受信されると、ステップS32において、統括制御部73は、ユーザの位置情報に基づいて、ネットワーク等を利用してユーザの滞在場所を検索して特定する。そして、ステップS33において、統括制御部73は、図16(B)の音声管理テーブルに基づいて、特定された場所に応じたキャラクター音声をスピーカ62から出力する。統括制御部73は、例えば、ユーザがスーパーマーケットに行った際には「今日の夕食なにつくる?」などのキャラクター音声、或いは、ユーザが病院に行った際には「大丈夫?体調わるいの?」などのキャラクター音声を出力する。また、統括制御部73は、例えばユーザが遊園地に行った際には「いっぱい遊んだね」などのキャラクター音声を出力する。 For example, in step S31, the overall control unit 73 determines whether the user's location information has been received from the GPS receiver 60. When the user's location information is received, in step S32, the overall control unit 73 uses a network or the like to search and specify the user's place of stay based on the user's location information. Then, in step S33, the overall control unit 73 outputs a character voice corresponding to the specified location from the speaker 62 based on the voice management table of FIG. 16(B). For example, when the user goes to the supermarket, the general control unit 73 generates a character voice such as "What are you going to make for dinner tonight?" or when the user goes to the hospital, the voice prompts "Are you okay? Are you feeling unwell?" Outputs character voices such as. Further, the overall control unit 73 outputs a character voice such as "You had a lot of fun" when the user goes to an amusement park, for example.

また、統括制御部73は、取得した位置情報に基づき特定した場所にユーザが滞在した滞在回数(訪問回数、などとも称される)に応じた音声を3Dキャラクター1100のキャラクター音声として出力するように制御するとよい。図17(A)は、滞在回数に関するコミュニケーションを再現するためのフローチャートであり、図17(B)は、滞在回数に関するキャラクター音声の音声管理テーブルを示す図である。 Further, the general control unit 73 outputs a sound corresponding to the number of stays (also referred to as the number of visits) of the user at the specified location based on the acquired location information as the character sound of the 3D character 1100. Good to control. FIG. 17(A) is a flowchart for reproducing communication regarding the number of stays, and FIG. 17(B) is a diagram showing a voice management table of character voices regarding the number of stays.

図17(A)のステップS41,S42は、図16(A)のステップS31,S32と同様であるため、説明を省略する。ステップS43において、統括制御部73は、ステップS42において特定された場所へのユーザの滞在回数を取得する。そして、ステップS44において、統括制御部73は、図17(B)の音声管理テーブルに基づいて、ユーザの滞在回数に応じたキャラクター音声をスピーカ62から出力する。統括制御部73は、例えば、ユーザが或るゲームセンターに初めて行った際には、「ゲーム楽しかったね」などのキャラクター音声を出力する。そして、統括制御部73は、ユーザが当該或るゲームセンターに再び行った際には、「また行きたいと思ってたんだ」などのキャラクター音声を出力する。さらに、統括制御部73は、ユーザが当該或るゲームセンターに所定回数以上(例えば、10回以上)行った際には、「またゲームするの~」などのキャラクター音声を出力する。 Steps S41 and S42 in FIG. 17(A) are the same as steps S31 and S32 in FIG. 16(A), so a description thereof will be omitted. In step S43, the overall control unit 73 obtains the number of times the user has stayed at the location specified in step S42. Then, in step S44, the overall control unit 73 outputs a character voice from the speaker 62 according to the number of times the user has stayed, based on the voice management table of FIG. 17(B). For example, when the user goes to a certain game center for the first time, the general control unit 73 outputs a character voice such as "That game was fun." Then, when the user goes to the certain game center again, the general control unit 73 outputs a character voice such as "I wanted to go again." Furthermore, when the user has visited a particular game center a predetermined number of times or more (for example, 10 times or more), the general control unit 73 outputs a character voice such as "Are you going to play the game again?"

また、統括制御部73は、取得された位置情報に基づき特定された場所でのユーザの滞在時間に応じた音声を3Dキャラクター1100のキャラクター音声として出力するように制御するとよい。図18(A)は、滞在時間に関するコミュニケーションを再現するためのフローチャートであり、図18(B)は、滞在時間に関するキャラクター音声の音声管理テーブルを示す図である。 Further, it is preferable that the overall control unit 73 outputs, as the character voice of the 3D character 1100, a voice corresponding to the user's stay time at the location specified based on the acquired location information. FIG. 18(A) is a flowchart for reproducing communication regarding stay time, and FIG. 18(B) is a diagram showing a voice management table of character voices regarding stay time.

図18(A)のステップS51,S52は、図16(A)のステップS31,S32と同様であるため、説明を省略する。ステップS53において、統括制御部73は、ステップS52において特定された場所へのユーザの滞在時間を取得する。そして、ステップS54において、統括制御部73は、図18(B)の音声管理テーブルに基づいて、ユーザの滞在時間に応じたキャラクター音声をスピーカ62から出力する。例えば、コンビニエンスストアでのユーザの滞在時間が5分以内であるときには、統括制御部73は、「早かったね。待ってたからうれしい」などのキャラクター音声を出力する。また、コンビニエンスストアでのユーザの滞在時間が5分以上且つ10分未満(5~10分)であるときには、統括制御部73は、「何買ってきたの?」などのキャラクター音声を出力する。さらに、コンビニエンスストアでのユーザの滞在時間が10分を超えたときには、統括制御部73は、「遅かったね。心配しちゃったよ」などのキャラクター音声を出力する。 Steps S51 and S52 in FIG. 18(A) are the same as steps S31 and S32 in FIG. 16(A), so a description thereof will be omitted. In step S53, the overall control unit 73 acquires the user's stay time at the location specified in step S52. Then, in step S54, the overall control unit 73 outputs a character voice corresponding to the user's stay time from the speaker 62 based on the voice management table of FIG. 18(B). For example, when the user's stay at the convenience store is less than 5 minutes, the general control unit 73 outputs a character voice such as "That was early. I'm glad I waited." Further, when the user's stay time at the convenience store is 5 minutes or more and less than 10 minutes (5 to 10 minutes), the overall control unit 73 outputs a character voice such as "What did you buy?". Further, when the user's stay time at the convenience store exceeds 10 minutes, the general control unit 73 outputs a character voice such as "You're late. I was worried."

統括制御部73は、GPS受信機60等を用いて取得されたユーザの位置情報に基づいて、以上のような制御を行うとよい。このようにすれば、ユーザは、自身の行動に応じた反応をキャラクターが示してくれたという感覚を得ることができ、当該キャラクターへのユーザの愛着が増大する。 The overall control unit 73 may perform the above-described control based on the user's position information acquired using the GPS receiver 60 or the like. In this way, the user can feel that the character has responded in accordance with his or her actions, and the user's attachment to the character increases.

なお、上記では、携帯型の表示装置1が例示されているが、例えば、据え置き型の表示装置1であってもよい。例えば、統括制御部73(詳細には、通信制御回路706)が、ユーザのスマートフォン(GPS受信機を備えるスマートフォン)等と通信して、外出中のユーザの位置情報(ユーザが所持しているスマートフォンの位置情報)を取得する。そして、ユーザが帰宅等した後に3Dキャラクター1100とコミュニケーションをとる際に、統括制御部73が、上記のような動作が実行されるように制御するとよい。なお、この際のキャラクター音声や動きの内容は適宜変更されるとよい。 Note that although the portable display device 1 is illustrated above, the display device 1 may be a stationary display device 1, for example. For example, the overall control unit 73 (specifically, the communication control circuit 706) communicates with a user's smartphone (smartphone equipped with a GPS receiver), etc., and communicates with the user's location information (smartphone that the user owns) while out and about. location information). Then, when the user communicates with the 3D character 1100 after returning home, etc., it is preferable that the overall control unit 73 performs control so that the above operations are executed. Note that the content of the character's voice and movement at this time may be changed as appropriate.

<3.ユーザの行動パターンに関するコミュニケーション機能について>
また、ユーザの行動パターンが所定の行動パターンに合致すると判断されると、当該所定の行動パターンに応じた音声が3Dキャラクター1100のキャラクター音声として出力されるように制御されるとよい。図19(A)は、行動パターンに関するコミュニケーションを再現するためのフローチャートであり、図19(B)は、行動パターンに関するキャラクター音声の音声管理テーブルを示す図である。
<3. About the communication function regarding user behavior patterns>
Further, when it is determined that the user's behavior pattern matches a predetermined behavior pattern, control may be performed such that a voice corresponding to the predetermined behavior pattern is output as the character voice of the 3D character 1100. FIG. 19(A) is a flowchart for reproducing communication regarding behavior patterns, and FIG. 19(B) is a diagram showing a voice management table of character voices regarding behavior patterns.

例えば、統括制御部73において、ユーザが出勤する曜日(例えば、月曜日~金曜日)と出勤時刻(例えば、8時30分)と出勤時に利用する特定の経路とが、「出勤時の行動パターン」としてユーザ等によって予め登録される。そして、例えば、GPS受信機60からユーザの位置情報が受信される(ステップS61)と、統括制御部73は、ユーザの位置情報に基づいて、ユーザの行動パターンが所定の行動パターンに合致するか否かを判断する(ステップS62)。例えば、ユーザが火曜日の8時30分に特定の経路を通過した場合、統括制御部73は、ユーザの行動パターンが「出勤時の行動パターン」に合致すると判断する。そして、ステップS63において、統括制御部73は、図19(B)の音声管理テーブルに基づいて、「出勤時の行動パターン」に対応付けて登録された音声(例えば、「お仕事がんばってきてね」)を3Dキャラクター1100のキャラクター音声としてスピーカ62から出力する。このようにして、ユーザの行動に応じた反応をキャラクターが示してくれることにより、当該キャラクターへのユーザの愛着を増大させることができる。なお、所定の行動パターン(例えば、出勤時の行動パターン)がユーザによって予め登録されていることは必須ではなく、例えば、統括制御部73が学習機能を有しており、ユーザの行動パターンを学習することによって、所定の行動パターンが登録されるようにしてもよい。 For example, in the general control unit 73, the days of the week (for example, Monday to Friday) that the user works, the time of work (for example, 8:30), and the specific route that the user uses when going to work are set as a "behavior pattern when going to work". Registered in advance by a user or the like. For example, when the user's location information is received from the GPS receiver 60 (step S61), the overall control unit 73 determines whether the user's behavior pattern matches a predetermined behavior pattern based on the user's location information. It is determined whether or not (step S62). For example, if the user passes through a specific route at 8:30 on Tuesday, the overall control unit 73 determines that the user's behavior pattern matches the "behavior pattern when going to work." Then, in step S63, the overall control unit 73 uses the voice management table shown in FIG. ”) is output from the speaker 62 as the character voice of the 3D character 1100. In this way, the user's attachment to the character can be increased by having the character respond in accordance with the user's actions. Note that it is not essential that a predetermined behavior pattern (for example, a behavior pattern when going to work) is registered in advance by the user; for example, the overall control unit 73 has a learning function and can learn the user's behavior pattern. By doing so, a predetermined behavior pattern may be registered.

<4.不審者の検知に関するコミュニケーション機能について>
また、検知対象空間において検知された人が不審者であると判断されると、所定の動作が実行されるとよい。そして、当該所定の動作が実行された後において、表示装置1のユーザが検知されると、不審者の検知に関する音声が3Dキャラクター1100のキャラクター音声として出力されるとよい。図20は、不審者の検知に関する動作を再現するためのフローチャートである。
<4. About the communication function related to suspicious person detection>
Furthermore, when it is determined that the person detected in the detection target space is a suspicious person, a predetermined action may be performed. Then, when the user of the display device 1 is detected after the predetermined operation is executed, the sound related to the detection of a suspicious person may be output as the character sound of the 3D character 1100. FIG. 20 is a flowchart for reproducing operations related to suspicious person detection.

例えば、表示装置1において、表示装置1の正面側に、目視者(ユーザ等)を撮影する撮影部(例えば、カメラ)(不図示)が設けられ、当該撮影部(詳細には、撮影部が有するセンサ)が、検知対象空間における人の存在を検知する検知手段として用いられるとよい。「検知対象空間」としては、例えば、表示装置1が載置されている空間(例えば、ユーザの自宅)における撮影部の画角範囲(撮影可能範囲)が挙げられる。撮影部は、例えばレンズおよび撮像素子(例えばCCDまたはCMOS)を含み、多色の画像を撮影する。撮影部のレンズは、目視者(特に顔)を撮影可能な位置に設けられる。例えば、撮影部のレンズは、上端部51のうち、表示装置1の幅方向における中心付近に設けられる。撮影部は、例えば、R、G、Bの各色成分の画像信号を制御部70に出力する。統括制御部73は、この画像信号を処理して撮影画像を生成する。 For example, in the display device 1, a photographing unit (for example, a camera) (not shown) for photographing a viewer (user, etc.) is provided on the front side of the display device 1. It is preferable that a sensor having a sensor) is used as a detection means for detecting the presence of a person in a detection target space. The "detection target space" includes, for example, the viewing angle range (shootable range) of the imaging unit in the space where the display device 1 is placed (for example, the user's home). The photographing unit includes, for example, a lens and an image sensor (for example, a CCD or CMOS), and photographs a multicolor image. The lens of the photographing unit is provided at a position where it can photograph the viewer (particularly the face). For example, the lens of the photographing unit is provided near the center of the upper end portion 51 in the width direction of the display device 1 . The photographing section outputs image signals of each color component of R, G, and B to the control section 70, for example. The overall control unit 73 processes this image signal to generate a photographed image.

統括制御部73は、当該撮影部を用いて検知対象空間を監視する(ステップS71)。そして、統括制御部73は、検知対象空間において人の存在が検知されると、ステップS72において、例えば顔認証等のユーザ認証を行い、ステップS73において、検知された人物が表示装置1の登録ユーザであるか否かを判断する。統括制御部73は、例えば、撮影部によって撮影された人が表示装置1の登録ユーザであると判断すると、その人物は不審者でないと判断する。一方で、撮影部によって撮影された人が未登録ユーザであると判断されると、ステップS74において、統括制御部73は、その人物は不審者であると判断し、所定の動作を実行する。「所定の動作」としては、例えば、撮影部による録画を開始する動作や、比較的大きな音量で警報を発する動作、予め登録された警備会社に通報する動作などが挙げられる。あるいは、「所定の動作」は、3Dキャラクター1100が不審者に声掛け(例えば、「誰!?合言葉を言って!」)を行う動作であってもよい。そして、不審者と判断された人から返事がない場合、あるいは合言葉が間違っている場合に、上記の録画開始動作等が実行されてもよい。なお、合言葉が間違っている場合に、統括制御部73は、「違うよ!?もう一度言って」などの音声を3Dキャラクター1100のキャラクター音声として出力し、再度合言葉が間違っていると判断したときに、上記の録画開始動作等を実行してもよい。これらのようにすれば、例えば不審者を検知対象空間から撤退させることができ、検知対象空間における防犯性を高めることができる。 The overall control unit 73 monitors the detection target space using the imaging unit (step S71). Then, when the presence of a person is detected in the detection target space, the overall control unit 73 performs user authentication such as face authentication in step S72, and in step S73, the detected person is a registered user of the display device 1. Determine whether or not. For example, if the overall control unit 73 determines that the person photographed by the photographing unit is a registered user of the display device 1, the central control unit 73 determines that the person is not a suspicious person. On the other hand, if the person photographed by the photographing unit is determined to be an unregistered user, in step S74, the overall control unit 73 determines that the person is a suspicious person, and executes a predetermined operation. Examples of the "predetermined action" include an action to start recording by the imaging unit, an action to issue an alarm at a relatively loud volume, an action to notify a pre-registered security company, and the like. Alternatively, the "predetermined action" may be an action in which the 3D character 1100 calls out to a suspicious person (for example, "Who is it? Say a password!"). Then, if there is no reply from the person who is determined to be a suspicious person, or if the password is incorrect, the above recording start operation, etc. may be executed. In addition, when the password is wrong, the general control unit 73 outputs a voice such as "No!? Say it again" as the character voice of the 3D character 1100, and when it is determined that the password is wrong again. , the above recording start operation, etc. may be executed. By doing so, for example, a suspicious person can be made to retreat from the detection target space, and crime prevention in the detection target space can be improved.

そして、統括制御部73は、所定の動作の実行後において、表示装置1のユーザが検知されると、不審者の検知に関する音声を3Dキャラクター1100のキャラクター音声として出力するとよい。「不審者の検知に関する音声」としては、例えば「怖かったよー」などが挙げられる。このようにすれば、画像表示部20に表示されたキャラクターへのユーザの愛着を増大させることができる。 Then, when the user of the display device 1 is detected after performing the predetermined operation, the overall control unit 73 may output a sound related to the detection of a suspicious person as the character sound of the 3D character 1100. Examples of the "voice related to suspicious person detection" include "I was scared." In this way, the user's attachment to the character displayed on the image display section 20 can be increased.

また、表示装置1を用いて検知対象空間が監視されている場合、不審者の検知に限らず、次のような動作が行われてもよい。 Further, when the detection target space is monitored using the display device 1, the following operations may be performed in addition to the detection of a suspicious person.

例えば、企業の受付スペースに表示装置1が配置され、3Dキャラクター1100が所謂受付嬢として受付業務を行うような表示をするものであってもよい。具体的には、マイクロ波ドップラーセンサ(検知手段の一例)によって検知対象空間(例えば受付スペース)における人の接近が検知されると、統括制御部73は、「いらっしゃいませ。どちらの部署に御用でしょうか?」などの音声を3Dキャラクター1100のキャラクター音声として出力するとよい。そして、統括制御部73は、検知された人(来客者)からの返答に基づいて、来客者の所望の部署に電話を掛けるように制御するとよい。 For example, the display device 1 may be placed in a reception space of a company, and the 3D character 1100 may be displayed to perform reception work as a so-called receptionist. Specifically, when a microwave Doppler sensor (an example of a detection means) detects the approach of a person in a detection target space (for example, a reception space), the general control unit 73 issues a message saying, ``Welcome. Which department are you working for?'' It is preferable to output a voice such as "Is that right?" as the character voice of the 3D character 1100. Then, it is preferable that the overall control unit 73 performs control to make a call to the desired department of the visitor based on the response from the detected person (visitor).

<5.表示装置1の起動時間に関するコミュニケーション機能について>
また、統括制御部73は、3Dキャラクター1100のキャラクター音声での言葉使いが所定の時点(例えば、初回の起動時点)からの表示装置1の起動時間(例えば、累積起動時間)に応じて、コミュニケーションの内容が変化するように制御するとよい。例えば、統括制御部73は、次述するように、表示装置1の起動時間が長くなるほど、3Dキャラクター1100がユーザに対して親しい言葉使いで発話するように制御するとよい。
<5. Regarding the communication function regarding the startup time of the display device 1>
In addition, the general control unit 73 determines whether the wording in the character voice of the 3D character 1100 is communicated according to the startup time (for example, cumulative startup time) of the display device 1 from a predetermined point (for example, the first startup time). It is better to control the content so that it changes. For example, as described below, the overall control unit 73 may control the 3D character 1100 to speak to the user using familiar language as the startup time of the display device 1 increases.

例えば、上述のような種々のキャラクター音声について、敬語調、ユーザと友人関係であるような言葉調、およびユーザと恋人関係であるような言葉調の3パターンのキャラクター音声が予め音声管理テーブルに登録されるとよい。そして、例えば、所定の時点からの表示装置1の起動時間が100時間未満のときには、統括制御部73は、音声管理テーブルに登録されている3パターンのキャラクター音声のうち、敬語調のキャラクター音声を出力する。また、当該起動時間が100時間以上且つ1000時間未満のときには、統括制御部73は、音声管理テーブルに登録されている3パターンのキャラクター音声のうち、ユーザと友人関係であるような言葉調のキャラクター音声を出力する。さらに、起動時間が1000時間を超えると、統括制御部73は、音声管理テーブルに登録されている3パターンのキャラクター音声のうち、ユーザと恋人関係であるような言葉調のキャラクター音声を出力する。 For example, for the various character voices mentioned above, three patterns of character voices are registered in advance in the voice management table: honorific tone, tone that indicates a friend relationship with the user, and tone that indicates a relationship between the user and a lover. It would be good if it were done. For example, if the startup time of the display device 1 from a predetermined point of time is less than 100 hours, the overall control unit 73 selects a polite character voice among the three patterns of character voices registered in the voice management table. Output. In addition, when the activation time is 100 hours or more and less than 1000 hours, the general control unit 73 selects a character voice that has a tone of voice that is friends with the user among the three patterns of character voices registered in the voice management table. Output audio. Furthermore, when the startup time exceeds 1000 hours, the overall control unit 73 outputs a character voice with a tone that suggests that the user is in a romantic relationship with the user, out of the three patterns of character voice registered in the voice management table.

このようにすると、ユーザは、ユーザ自身に対するキャラクターの言葉使いが変化したことによって、当該キャラクターとの関係性(例えば親密度)が変化したことを感じることができる。 In this way, the user can feel that the relationship (for example, intimacy) with the character has changed due to the change in the character's wording toward the user himself/herself.

なお、統括制御部73は、前回の起動からの経過時間によっては、ユーザに対する3Dキャラクター1100の親密度を低下させるように制御してもよい。例えば、表示装置1の累積起動時間が100時間を超えている場合であっても、前回の起動から1週間が経過しているときには、統括制御部73は、ユーザと対等な言葉調ではなく、敬語調のキャラクター音声を出力するようにしてもよい。このようにすれば、ユーザが、画像表示部20に表示されたキャラクターとの親密度を維持するために極力間隔を空けずに当該キャラクターと接するようになり、当該キャラクターへの愛着を更に増大させることができる。 Note that the overall control unit 73 may perform control to reduce the intimacy of the 3D character 1100 with the user depending on the time that has passed since the previous activation. For example, even if the cumulative activation time of the display device 1 exceeds 100 hours, if one week has passed since the last activation, the general control unit 73 may not speak in a tone that is equal to the user. A character voice with a polite tone may be output. In this way, the user comes into contact with the character displayed on the image display section 20 as close as possible to the character in order to maintain intimacy with the character, thereby further increasing the user's attachment to the character. be able to.

また、統括制御部73は、初回の起動時点では「初めまして」などの挨拶の音声をキャラクター音声として出力し、初回の起動時点から所定期間(例えば、1カ月など区切りの良い期間)が経過した時点では、記念日を示す内容(例えば、「出会って1カ月だね」)の音声をキャラクター音声として出力するとよい。このようにすれば、3Dキャラクター1100への愛着を更に増大させることができる。 In addition, the general control unit 73 outputs a greeting voice such as "Nice to meet you" as a character voice at the time of first startup, and when a predetermined period (for example, a well-defined period such as one month) has elapsed from the time of first startup. At this point, it is preferable to output a voice indicating the anniversary (for example, "It's been a month since we met") as the character voice. In this way, attachment to the 3D character 1100 can be further increased.

<6.他の機器との連携によるコミュニケーション機能について>
また、例えば据え置き型の表示装置1において、他の機器との連携によって次述のような動作が実行されてもよい。例えば、表示装置1と通信可能な機器(以下、他の機器と称する)が設置されている場所にユーザが訪問すると、当該他の機器の制御部(CPU等)が、次述のようにして、ユーザを識別するとともに、当該ユーザに適した情報(例えば、グルメ情報やイベント情報)を自動的に案内するようにしてもよい。例えば、表示装置と他の機器との連携システムを利用する利用ユーザの顔画像と当該利用ユーザが所有する表示装置(例えばIPアドレス等)とが対応付けられて予め外部サーバ等に登録される。当該他の機器の制御部は、例えば当該他の機器に設けられた撮影部が有するセンサによって人が検知されると、撮影画像において検知された人の顔画像と外部サーバに登録された利用ユーザの顔画像とを比較することによって表示装置1のユーザを識別する。そして、当該他の機器の制御部は、外部サーバにおいて当該ユーザに対応付けて登録されている表示装置1(例えば、表示装置1のIPアドレス等)を特定し、表示装置1のユーザが検知されたことを示す情報を当該表示装置1に送信する。表示装置1の統括制御部73には、「ユーザに適した情報」(例えば、グルメ情報やイベント情報)が予め登録されており、統括制御部73は、当該他の機器からの信号受信に応じて、登録されている「ユーザに適した情報」を当該他の機器に送信する。そして、当該他の機器の制御部は、表示装置1から受信された「ユーザに適した情報」を出力(例えば、音声出力)する。なお、「ユーザに適した情報」の案内に際して、当該他の機器は、その表示画面に3Dキャラクター1100を表示させるとよい。また、ユーザに案内した情報等が当該他の機器から表示装置1に送信され、表示装置1の統括制御部73においてユーザ情報として蓄積されるとよい。そして、例えば表示装置1がユーザの自宅に設置されている場合、ユーザの帰宅が検知されると、統括制御部73は、「**に行ってきたでしょ、どうだった?」などの音声を3Dキャラクター1100のキャラクター音声として出力するとよい。このようにすれば、画像表示部20に表示されたキャラクターへのユーザの愛着を増大させることができる。
<6. Regarding communication functions by linking with other devices>
Further, for example, in the stationary display device 1, the following operations may be performed in cooperation with other devices. For example, when a user visits a place where a device that can communicate with the display device 1 (hereinafter referred to as other device) is installed, the control unit (CPU, etc.) of the other device performs the following steps. , the user may be identified and information suitable for the user (for example, gourmet information or event information) may be automatically provided. For example, a face image of a user who uses a system for linking a display device and other devices and a display device owned by the user (eg, IP address, etc.) are associated and registered in advance in an external server or the like. For example, when a person is detected by a sensor included in a photographing unit provided in the other device, the control unit of the other device collects the face image of the person detected in the captured image and the user registered on the external server. The user of the display device 1 is identified by comparing the face image of the user with the face image of the user. Then, the control unit of the other device identifies the display device 1 registered in association with the user in the external server (for example, the IP address of the display device 1, etc.), and detects the user of the display device 1. The display device 1 transmits information indicating that the In the overall control unit 73 of the display device 1, “information suitable for the user” (for example, gourmet information and event information) is registered in advance, and the overall control unit 73 responds to signals received from other devices. and sends the registered "information suitable for the user" to the other device. Then, the control unit of the other device outputs (for example, outputs audio) the "information suitable for the user" received from the display device 1. Note that when providing guidance on "information suitable for the user," the other device may display the 3D character 1100 on its display screen. Further, it is preferable that the information and the like guided to the user be transmitted from the other device to the display device 1 and stored as user information in the overall control unit 73 of the display device 1. For example, when the display device 1 is installed at the user's home, when the user's return home is detected, the central control unit 73 outputs a voice such as "You went to **, how was it?" It is preferable to output the character voice of the 3D character 1100. In this way, the user's attachment to the character displayed on the image display section 20 can be increased.

<7.その他のコミュニケーション機能について>
さらに、種々のセンサによる検知結果に基づいて次のような制御が行われてもよい。
<7. About other communication functions>
Furthermore, the following control may be performed based on detection results from various sensors.

例えば、風(例えば、風速)を検知可能な風検知手段(例えば、風センサ)が表示装置1の開口部5の下端部52付近に設けられ、当該風センサによる検知結果に基づいて次のような制御が行われてもよい。風は、例えばユーザが人為的に起こしたものとするとよく、例えば表示装置1に向けて手を振る等の身体の部位を動かすことによって発生する風や息(呼気)を吹きかけることによって発生する風とするとよい。例えば、所定値以上の風速の風が風センサによって検知されると、統括制御部73は、画像表示部20に表示されたキャラクター(例えば、3Dキャラクター1100)の毛(例えば、髪の毛)や衣服(例えば、スカート)がなびく映像を表示出力するとよい。また、例えば、火のついたろうそくの映像が画像表示部20に表示されている場合において、風センサによって風が検知されると、統括制御部73は、ろうそくの火が消える映像に切り替えるとよい。さらには、検知された風が所定の閾値よりも強い(風速が所定の閾値よりも大きい)ときには3Dキャラクター1100の衣服がより大きくなびくなど、統括制御部73は、検知された風の強度(例えば、風速)に応じて映像を切り替えるとよい。 For example, a wind detection means (for example, a wind sensor) capable of detecting wind (for example, wind speed) is provided near the lower end 52 of the opening 5 of the display device 1, and the following is performed based on the detection result by the wind sensor. Control may also be performed. The wind is often generated artificially by the user, such as wind generated by moving a body part such as waving a hand toward the display device 1, or wind generated by blowing breath (exhalation). It is good to do this. For example, when a wind sensor detects wind having a wind speed equal to or higher than a predetermined value, the overall control unit 73 controls the hair (e.g., hair) and clothing (for example, of the character (e.g., 3D character 1100) displayed on the image display unit 20). For example, it is preferable to display and output an image of a waving skirt. Further, for example, when an image of a lit candle is displayed on the image display unit 20, if wind is detected by the wind sensor, the general control unit 73 may switch to an image of the candle extinguishing. . Furthermore, when the detected wind is stronger than a predetermined threshold (wind speed is greater than a predetermined threshold), the overall control unit 73 controls the strength of the detected wind (for example, the clothes of the 3D character 1100 flutters more strongly). , wind speed).

また、例えば、対象物の有無(存否)および対象物までの距離を検知可能な物体検出手段(例えば、超音波センサ)が表示装置1の筐体10の内周面において筐体10の内方側に向けて設置され、当該超音波センサによる検知結果に基づいて次のような制御が行われてもよい。例えば、統括制御部73は、超音波センサによる検知結果に基づいて、筐体10内において立体視表示されている3Dキャラクター1100に目視者の手が触れていると判断すると、当該3Dキャラクター1100が反応を示す映像を表示出力するとよい。また、統括制御部73は、3Dキャラクター1100において目視者によって触れられた部位に応じて異なる反応を示すように表示制御するとよい。3Dキャラクター1100において観察者によって触れられる部位は、例えば、頭部、胸部、腹部、臀部または脚部等で例示される身体の部位とするとよい。また、3Dキャラクター1100において観察者によって触れられる部位は、3Dキャラクター1100の衣服(例えば洋服、スカート)や装飾物(例えば、アクセサリー)とするとよい。 Further, for example, an object detection means (for example, an ultrasonic sensor) capable of detecting the presence or absence (presence or absence) of a target object and the distance to the target object is located inside the housing 10 on the inner peripheral surface of the housing 10 of the display device 1. The ultrasonic sensor may be installed facing toward the side, and the following control may be performed based on the detection result by the ultrasonic sensor. For example, if the overall control unit 73 determines that the viewer's hand is touching the 3D character 1100 displayed stereoscopically in the housing 10 based on the detection result by the ultrasonic sensor, the 3D character 1100 It is best to display and output a video showing the reaction. Further, the overall control unit 73 may perform display control so as to show different reactions depending on the part of the 3D character 1100 touched by the viewer. The parts of the 3D character 1100 that can be touched by the viewer may be, for example, body parts such as the head, chest, abdomen, buttocks, or legs. Furthermore, the parts of the 3D character 1100 that can be touched by the viewer may be clothes (for example, clothes, skirts) or accessories (for example, accessories) of the 3D character 1100.

また、例えば、地震を感知し震度を測定可能な地震検知手段(例えば、感震センサ)が表示装置1に設けられ、統括制御部73は、当該感震センサによって地震が検知されると、地震警報を発するとよい。 Further, for example, the display device 1 is provided with an earthquake detection means (for example, a seismic sensor) capable of sensing an earthquake and measuring the seismic intensity, and when an earthquake is detected by the seismic sensor, the central control unit 73 detects an earthquake. It is a good idea to raise the alarm.

また、例えば、天気を計測可能な天気センサが表示装置1に設けられ、統括制御部73は、当該天気センサによる計測結果に基づいて、天気の変化や天気予報等を通知するとよい。なお、天気センサは、例えば、気圧センサと温度センサと湿度センサとを有し、各センサの検知結果に基づいて天気を計測可能に構成されているとよい。 Further, for example, a weather sensor capable of measuring the weather may be provided in the display device 1, and the overall control unit 73 may notify weather changes, weather forecasts, etc. based on the measurement results by the weather sensor. Note that the weather sensor preferably includes, for example, an air pressure sensor, a temperature sensor, and a humidity sensor, and is configured to be able to measure the weather based on the detection results of each sensor.

また、統括制御部73は、温度センサによって検知された温度または/および湿度センサによって検知された湿度に応じて、画像表示部20に表示されたキャラクターの表情や動き(モーションともいう)が変化する映像を表示するとよい。 Further, the general control unit 73 changes the facial expression and movement (also referred to as motion) of the character displayed on the image display unit 20 in accordance with the temperature detected by the temperature sensor and/or the humidity detected by the humidity sensor. It would be better to display the video.

また、統括制御部73は、マイクロ波ドップラーセンサなどの人感センサによる検知結果(例えば、表示装置1と目視者との距離)に応じて、画像表示部20に表示されたキャラクターの表情や動きが変化する映像を表示するとよい。 The overall control unit 73 also controls the facial expressions and movements of the character displayed on the image display unit 20 according to the detection results (for example, the distance between the display device 1 and the viewer) by a human sensor such as a microwave Doppler sensor. It is best to display images that change.

また、統括制御部73は、湿度センサを利用して、ユーザによって息が吹きかけられたか否かを判断するとよい。さらには、統括制御部73は、温度センサをも利用して、ユーザによって吹きかけられた息の種類を判断するとよい。なお、これらのセンサは、例えば、表示装置1の開口部5の下端部52付近に設けられるとよい。 Further, the overall control unit 73 may use a humidity sensor to determine whether or not the user has blown on the air. Furthermore, the overall control unit 73 may also use a temperature sensor to determine the type of breath blown by the user. Note that these sensors may be provided near the lower end 52 of the opening 5 of the display device 1, for example.

ここで、ユーザによって吹きかけられる息には、例えば、「フー」と吹きかける息、および「ハー」と吹きかける息、の2種類の息がある。なお、一般に、冷たい息を吹きかけるときには、速く「フー」と息を吹くことから、ここでは、「フー」と吹きかける息を「冷たい息」と呼ぶ。また、一般に、暖かい息を吹きかけるときには、ゆっくり「ハー」と息を吹くことから、ここでは、「ハー」と吹きかける息を「暖かい息」と呼ぶ。 Here, there are two types of breaths that can be blown by the user: a ``huh'' breath and a ``ha'' breath. In general, when blowing cold breath, the person blows quickly with a "huh" sound, so here, the breath that is blown with a "huh" is referred to as "cold breath." In addition, generally when blowing warm breath, the person blows slowly with a "ha" sound, so here, the breath that is blown with a "hah" is referred to as "warm breath."

この2種類の息に関して、本願の発明者は、実験等により次のような知見を得た。詳細には、まず、湿度に関して、温湿度センサ(例えば、温度センサと湿度センサとが一体化されたセンサ)から所定程度離れた位置において当該温湿度センサに向けて「フー」と息を吹きかけると、その直後に湿度が定常状態から急激に上昇する、との測定結果が得られた。また、その後、息を吹きかけている間は湿度が単調増加し、息の吹きかけを停止すると、元の定常状態に戻るまでに数十秒の時間を要する、との測定結果が得られた。同条件で温湿度センサに向けて「ハー」と息を吹きかけたときも、同様の測定結果が得られた。一方で、温度に関しては、「フー」と息を吹きかけた場合は、温度が定常状態から若干低下するかほぼ横ばいとなり、「ハー」と息を吹きかけた場合は、温度が上昇する、との測定結果が得られた。なお、ユーザが表示装置1に吹きかける息は、表示装置1に当たる風の一例である。 Regarding these two types of breath, the inventor of the present application obtained the following findings through experiments and the like. In detail, first, regarding humidity, if you blow your breath toward the temperature/humidity sensor (e.g., a sensor that is a combination of a temperature sensor and a humidity sensor) at a predetermined distance from the sensor. The measurement results showed that immediately after that, the humidity suddenly rose from a steady state. Furthermore, the measurement results showed that the humidity increases monotonically while blowing, and when the blowing is stopped, it takes several tens of seconds to return to the original steady state. Similar measurement results were obtained when breathing into the temperature and humidity sensor under the same conditions. On the other hand, when it comes to temperature, it has been determined that when a person blows a 'huh' sound, the temperature drops slightly from the steady state or stays at about the same level, and when a person blows a 'hah' sound, the temperature rises. The results were obtained. Note that the breath that the user blows on the display device 1 is an example of the wind that hits the display device 1.

このような知見等を考慮して、例えば、湿度センサが設けられた表示装置1において、湿度が定常状態から急激に上昇したことが湿度センサによって検知されると、統括制御部73は、目視者によって息が吹きかけられたと判断(決定ともいう)するとよい。さらに、その後において湿度の単調増加が検知されなくなると、統括制御部73は、息の吹きかけが停止されたと判断するとよい。あるいは、湿度の急激な上昇が検知されてから所定時間(例えば、通常息を吐くのに要する時間(例えば、3秒程度))が経過すると、統括制御部73は、その時点での湿度の検知結果にかかわらず、息の吹きかけが停止されたと判断するとよい。 Taking such knowledge into consideration, for example, in the display device 1 provided with a humidity sensor, when the humidity sensor detects that the humidity has suddenly increased from a steady state, the overall control unit 73 It is a good idea to judge (also called a decision) that the breath has been blown on. Furthermore, if a monotonous increase in humidity is no longer detected thereafter, the overall control unit 73 may determine that the blowing of breath has been stopped. Alternatively, when a predetermined period of time (for example, the time required to exhale normally (for example, about 3 seconds)) has elapsed after a sudden rise in humidity was detected, the central control unit 73 detects the humidity at that point. Regardless of the outcome, it is best to assume that breathing has stopped.

さらに、湿度の急激な上昇が湿度センサによって検知された際に、(例えば、ほぼ同じタイミングで)温度が定常状態から上昇したことが温度センサによって検知されると、統括制御部73は、目視者によって吹きかけられた息の種類が「暖かい息」であると判断するとよい。逆に、湿度の急激な上昇が湿度センサによって検知された際に、温度が定常状態から変化していないこと、あるいは定常状態から下降したことが温度センサによって検知されると、統括制御部73は、目視者によって吹きかけられた息の種類が「冷たい息」であると判断するとよい。 Further, when the humidity sensor detects a sudden increase in humidity and the temperature sensor detects that the temperature has increased from a steady state (for example, at approximately the same timing), the overall control unit 73 It is a good idea to determine that the type of breath blown is "warm breath." Conversely, when the humidity sensor detects a sudden increase in humidity and the temperature sensor detects that the temperature has not changed from the steady state or has decreased from the steady state, the central control unit 73 , it is preferable to determine that the type of breath blown by the viewer is "cold breath."

そして、統括制御部73は、息の吹きかけが検知されたことに応じた映像や音声を、画像表示部20に表示されたキャラクターの動きやキャラクター音声として出力するとよい。また、統括制御部73は、吹きかけられた息の種類に応じた映像や音声を、画像表示部20に表示されたキャラクターの動きやキャラクター音声として出力するとよい。例えば、統括制御部73は、目視者によって吹きかけられた息の種類が「冷たい息」である場合は、当該キャラクターの衣服がなびく映像を表示出力し、目視者によって吹きかけられた息の種類が「暖かい息」である場合は、当該キャラクターが息を避けるような動きを行う映像を表示出力するとよい。 Then, the overall control unit 73 preferably outputs video and audio in response to the detection of the breathing as the movement of the character displayed on the image display unit 20 and character audio. Further, the overall control unit 73 may output video and audio corresponding to the type of breath blown as the movement of the character displayed on the image display unit 20 and character audio. For example, if the type of breath blown by the viewer is "cold breath," the general control unit 73 displays and outputs an image of the character's clothes fluttering, and if the type of breath blown by the viewer is "cold breath," If it is "warm breath," it is recommended to display and output an image in which the character moves to avoid the breath.

また、本願の発明者は、種々のガスセンサを用いて次のような知見も得た。詳細には、ガスセンサから所定程度(例えば約10cm)離れた位置において当該ガスセンサに向けて「フー」と息を吹きかけると、その直後にガスセンサの出力値が下降し、息を吹き終えると、その直後にガスセンサの出力値が上昇に転じる、との測定結果が得られた。逆に、当該ガスセンサに向けて「ハー」と息を吹きかけると、その直後にガスセンサの出力値が上昇し、息を吹き終えると、その直後にガスセンサの出力値が下降に転じる、との測定結果が得られた。また、例えば送風機(例えば、扇風機)から送られた風がガスセンサに当たると、ガスセンサの出力値が下がり、扇風機からの風がガスセンサに当たらなくなると、ガスセンサの出力値が上がる、との測定結果が得られた。 The inventor of the present application also obtained the following findings using various gas sensors. In detail, when you blow into the gas sensor at a predetermined distance (for example, about 10 cm) from the gas sensor, the output value of the gas sensor immediately decreases, and when you finish blowing, immediately after The measurement results showed that the output value of the gas sensor started to increase. Conversely, the measurement results show that when you blow into the gas sensor, the output value of the gas sensor increases immediately after that, and immediately after you finish blowing, the output value of the gas sensor starts to decrease. was gotten. In addition, measurement results have been obtained that, for example, when the wind from a blower (for example, an electric fan) hits the gas sensor, the output value of the gas sensor decreases, and when the wind from the fan stops hitting the gas sensor, the output value of the gas sensor increases. It was done.

このような知見等を考慮して、統括制御部73は、例えば、ガスセンサが設けられた表示装置1において、ガスセンサの出力値が定常状態から急激に下降すると、目視者によって吹きかけられた息の種類が「冷たい息」であると判断するとよい。逆に、ガスセンサの出力値が定常状態から急激に上昇すると、統括制御部73は、目視者によって吹きかけられた息の種類が「暖かい息」であると判断するとよい。 Taking such findings into consideration, the overall control unit 73, for example, in the display device 1 equipped with a gas sensor, when the output value of the gas sensor suddenly decreases from a steady state, the overall control unit 73 detects the type of breath blown by the viewer. It is best to judge that this is "cold breath." Conversely, if the output value of the gas sensor suddenly increases from a steady state, the overall control unit 73 may determine that the type of breath blown by the viewer is "warm breath."

風センサを用いて息を検出する構成とすることもできる。本願の発明者は、風センサによると紙で仰ぐ程度の比較的弱い風を捉えることができることがあり、風センサに息を吹きかけるとすぐにピークになり、風が吹き始めるときの応答性が良いことを確認した。ただし、息を吹きつづけると、ピークからすぐに落ちてしまう。フーっと吹く息のような強い風だとヒーターが冷やされ、回復するのに時間が掛かることが考えられる。 It is also possible to adopt a configuration in which breath is detected using a wind sensor. The inventor of this application found that, according to wind sensors, it is possible to detect relatively weak winds that are as strong as looking up at a piece of paper, and when the wind sensor blows on the wind sensor, the wind reaches its peak immediately, and the responsiveness is good when the wind starts blowing. It was confirmed. However, if you keep breathing, it will quickly fall from its peak. If there is a strong wind that blows, the heater may cool down and take time to recover.

風センサを用いて息を検出する構成に関連し、以下のような構成をしてもよい。 In relation to the configuration of detecting breath using a wind sensor, the following configuration may be used.

統括制御部73は、風センサにより持続的に所定の風量を検出している場合、息を吹きかけられている状態ではない方向の処理をするとよい。息を吹きかけられている状態ではない方向の処理は、例えば、息が吹きかけられていないと判断する処理である。この場合に、統括制御部73は、風センサにより風の検出が始まってから終わるまでの時間が、息の吹きかけが可能な時間内であるとき、息を吹きかけられている状態である方向の処理を行うようにするとよい。 When the wind sensor continuously detects a predetermined amount of air, the overall control unit 73 may perform processing in a direction other than the state in which air is being blown. The processing in the direction in which the breath is not being blown is, for example, the processing in which it is determined that the breath is not being blown. In this case, when the time from the start to the end of wind detection by the wind sensor is within the time during which breathing is possible, the overall control unit 73 processes the direction in which the wind is being blown. It is recommended that you do this.

この場合において、前記風センサは、風を受けることで奪われた熱を電気的に計測することで風を検出するセンサであってもよい。このセンサにおいては、当該センサに受ける風が、息が吹きかけられた風量に相当する。このセンサは、センサに受ける風が、息が吹きかけられた時間に相当する時間持続した場合に、当該持続の時間中に実際の風量よりも少ない値に落ち込むよう設定されており、センサに受ける風が、息が吹きかけられた風量よりも小さい場合にはこの落ち込みが発生しにくいように設定されているとよい。 In this case, the wind sensor may be a sensor that detects wind by electrically measuring heat removed by receiving wind. In this sensor, the wind that is received by the sensor corresponds to the amount of air that is blown onto the sensor. This sensor is set so that when the wind received by the sensor lasts for a time equivalent to the time when the breath is blown, the wind volume falls to a value lower than the actual air volume during the duration. However, it is preferable that the setting is such that this drop is less likely to occur when the volume of air is smaller than the amount of air blown.

表示装置1においては、前記風センサとして複数の風センサに対して、息の流入経路を共通とした風を流入させる流路が設けられてもよい。前記流路は、異なる風センサに対して、1:1ではない所定の比率で風が入るように構成されているとよい。統括制御部73は、当該比率及び複数の風センサの特性の違いに基づいて息を吹きかけの大きさ及び時間を判定するとよい。表示装置1は前記持続の時間中に実際の風量よりも少ない値に落ち込むタイミングの異なる複数の風センサを備え、統括制御部73は当該複数の風センサの出力に基づいて、息を吹きかけの大きさ及び時間を判定するとよい。表示装置1は、前記複数の風センサとして、ガスセンサではない風センサと、カスセンサとを少なくとも備えてもよい。 In the display device 1, a plurality of wind sensors may be provided with a flow path through which air flows through a common breath inflow path. The flow path may be configured to allow wind to enter different wind sensors at a predetermined ratio other than 1:1. The overall control unit 73 may determine the magnitude and duration of the blowing based on the ratio and the difference in characteristics of the plurality of wind sensors. The display device 1 is equipped with a plurality of wind sensors that drop to a value smaller than the actual airflow volume at different times during the duration period, and the integrated control unit 73 determines the volume of blowing based on the outputs of the plurality of wind sensors. It is a good idea to determine the length and time. The display device 1 may include at least a wind sensor that is not a gas sensor and a waste sensor as the plurality of wind sensors.

また、前記風センサとして所定のガスを検出するためのガスセンサを用いるとよい。前記風センサとして所定のガスを検出するためのガスセンサであって、ヒーターを備えるガスセンサを用いるとよい。この場合に、前記ヒーターを備えるガスセンサは、息の吹きかけの程度が相対的に小さいときに(息に含まれるガスを検出した結果)ガスの検出量が大きくなる方向の出力をする一方、息の吹きかけの程度が相対的に大きいときに(息の風によるヒーターの冷却によって)ガスの検出量が小さくなる方向の出力をする特性を有するものを用いるとよい。 Further, it is preferable to use a gas sensor for detecting a predetermined gas as the wind sensor. The wind sensor may be a gas sensor for detecting a predetermined gas, and may include a heater. In this case, the gas sensor equipped with the heater outputs an output in the direction of increasing the detected amount of gas (as a result of detecting gas contained in the breath) when the degree of blowing is relatively small; It is preferable to use one that has a characteristic of outputting in a direction that reduces the detected amount of gas (due to cooling of the heater by the airflow) when the degree of spraying is relatively large.

統括制御部73が、息が吹きかけられていると判定したとき、その強さが相対的に大きいときには(例えば、風量が閾値以上であるときには)、3Dキャラクター1100の服・髪などを動かすアニメーションを表示する一方、その強さが相対的に小さいときには3Dキャラクター1100の服・髪などを動かすアニメーションとは別のアニメーションを表示するとよい。 When the general control unit 73 determines that breath is being blown and the strength of the blow is relatively large (for example, when the air volume is above a threshold value), it creates an animation that moves the clothes, hair, etc. of the 3D character 1100. However, if the strength is relatively small, it is preferable to display an animation different from the animation that moves the clothes, hair, etc. of the 3D character 1100.

ところで、息の検出にガスセンサを用いる場合、ガスセンサは、人間の息に含まれる成分(例えば、二酸化炭素)に反応して上記出力値を出力する。そして、「フー」という息が吹きかけられた場合と、「ハー」という息が吹きかけられた場合とで、ガスセンサの出力値が異な理由としては、「フー」という息が吹きかけられた場合は、吹きかけられた息の速度が高く、ガスセンサに衝突した後すぐに周囲に拡散しやすい一方、「ハー」という息が吹きかけられた場合は、吹きかけられた息の速度が低く、ガスセンサに衝突した後もその場に息の成分がとどまりやすいということがあると考えられる。 By the way, when a gas sensor is used to detect breath, the gas sensor outputs the above-mentioned output value in response to components (for example, carbon dioxide) contained in human breath. The reason why the output value of the gas sensor is different depending on whether the breath is blown "whoo" or "haa" is that when the breath "whoo" is blown, On the other hand, when a breath is blown, the speed of the blown breath is low and the gas is easily dispersed into the surrounding area after colliding with the gas sensor. This is thought to be due to the fact that breath components tend to remain in the field.

さらに、統括制御部73は、例えば湿度センサによる湿度の検知結果をも用いて、検知された風が、目視者による息の吹きかけによるものであるか、送風機によるものであるか、を判別するとよい。例えば、表示装置1において、ガスセンサの出力値が定常状態から急激に下降し、且つ、湿度が定常状態から急激に上昇したことが湿度センサによって検知されると、統括制御部73は、ユーザによって息が吹きかけられたと判断するとよい。一方、ガスセンサの出力値が定常状態から急激に下降したものの、湿度が定常状態のままであるときには、統括制御部73は、送風機によって風が送られていると判断するとよい。さらに、統括制御部73は、温度センサによる温度の検知結果をも用いて、ユーザによって息が吹きかけられたと判断された際において、その息の種類を判断するとよい。また、比較的短い一定期間内においてガスセンサの出力値の上昇と下降とが繰り返された場合、統括制御部73は、首振りしている扇風機の風が当たっていると判断するとよい。 Further, the overall control unit 73 preferably determines whether the detected wind is caused by a viewer's breath or by a blower, for example, also using the humidity detection result by a humidity sensor. . For example, in the display device 1, when the humidity sensor detects that the output value of the gas sensor has suddenly decreased from the steady state and the humidity has suddenly increased from the steady state, the overall control unit 73 may cause the user to It is best to judge that it has been sprayed. On the other hand, when the output value of the gas sensor suddenly drops from the steady state, but the humidity remains in the steady state, the overall control unit 73 may determine that air is being blown by the blower. Furthermore, the overall control unit 73 may also use the temperature detection result by the temperature sensor to determine the type of breath when it is determined that the user has breathed on the user. Further, if the output value of the gas sensor repeatedly increases and decreases within a relatively short fixed period, the overall control unit 73 may determine that the wind from the oscillating fan is hitting the sensor.

なお、風を検知するために用いられる、風センサ、湿度センサ、温度センサ、温湿度センサ、およびガスセンサは風検知手段の一例である。表示装置1は、風を検知するセンサとして、気圧センサを有してもよい。風の発生やその強さによって気圧の変化が発生し得るからである。 Note that a wind sensor, a humidity sensor, a temperature sensor, a temperature/humidity sensor, and a gas sensor used to detect wind are examples of wind detection means. The display device 1 may include an atmospheric pressure sensor as a sensor for detecting wind. This is because changes in atmospheric pressure can occur depending on the generation and strength of wind.

以上のような種々の制御が実行され得る。なお、上記のような制御は、3Dキャラクター1100に限らず、他のキャラクター(例えば、3Dキャラクター1200)に関するコミュニケーション機能について行われてもよい。 Various controls such as those described above may be executed. Note that the above control may be performed not only for the 3D character 1100 but also for communication functions related to other characters (for example, the 3D character 1200).

[三次元画像等の表示例]
以上のような構成を備える表示装置1において、三次元画像(特に、例えば、3Dキャラクターを表示する三次元画像)に関して以下のような表示が行われるとよい。以下のような表示は、例えば、上述した「コミュニケーション機能」の一例として実行されるとよい。なお、以下のような表示は、例えば、統括制御部73がROM702内の3Dアプリケーションを実行することによって再現されるとよい。
[Display example of three-dimensional images, etc.]
In the display device 1 having the above-described configuration, the following display may be performed regarding a three-dimensional image (particularly, for example, a three-dimensional image displaying a 3D character). The following display may be executed as an example of the above-mentioned "communication function", for example. Note that the following display may be reproduced, for example, by the overall control unit 73 executing a 3D application in the ROM 702.

例えば、図示を省略するが、統括制御部73が、キャラクターの身体の一部に動きがあるときに当該キャラクターのパース(例えば、パース画像とも称される)を変更するとよい。このようにすれば、当該キャラクターに躍動感を与えることができる。 For example, although not shown, the overall control unit 73 may change the perspective (for example, also referred to as a perspective image) of the character when a part of the character's body moves. In this way, it is possible to give a sense of dynamism to the character.

例えば、図示を省略するが、キャラクターと目視者との会話によってキャラクターが怒り、当該キャラクターがパンチを繰り出す演出が行われるときには、統括制御部73が、3Dアプリケーション内におけるカメラの手前側にキャラクターの手が映るようにカメラ位置を制御するとともに、パースを通常の状態よりも強調した状態へと、少なくともパンチをしている期間に亘って変更するように制御するとよい。そして、統括制御部73は、キャラクターのパンチが終わると、パースを通常の状態に戻すように制御するとよい。 For example, although not shown, when a conversation between a character and a viewer causes the character to become angry and the character throws a punch, the general control unit 73 may place the character's hand in front of the camera in the 3D application. It is preferable to control the camera position so that the image is displayed, and to change the perspective to a state that is more emphasized than the normal state, at least during the punching period. Then, the general control unit 73 preferably controls the perspective to return to the normal state when the character finishes punching.

また、裸眼立体視で3Dキャラクターを減光部材30よりも前面に飛び出して見せるように左右のカメラの間隔(例えば、3Dアプリケーションでの間隔設定値)を調整するときにおいて、飛び出し具合を大きくすると、3Dキャラクターが前後方向に間延びして見える、という問題がある。このような問題を考慮して、統括制御部73が、飛び出し具合を大きくするにつれて(例えば、左右カメラの間隔を広げるにつれて)、3Dキャラクターの前後方向を押しつぶすように画像処理を実行するとよい。特に、飛び出しの度合いに応じた押しつぶし量が設けられ、3Dキャラクターが前面側に飛び出すほど、押しつぶし量が大きくなるようにするとよい。 Furthermore, when adjusting the interval between the left and right cameras (for example, the interval setting value in a 3D application) so that the 3D character appears to pop out in front of the light reduction member 30 in autostereoscopic viewing, if the degree of protrusion is increased, There is a problem in that the 3D character appears to be elongated in the front and back direction. In consideration of such problems, it is preferable for the general control unit 73 to perform image processing so as to compress the 3D character in the front and rear directions as the degree of protrusion increases (for example, as the distance between the left and right cameras increases). In particular, it is preferable that the amount of squeezing be set according to the degree of protrusion, such that the more the 3D character pops out to the front, the greater the amount of squeezing becomes.

また、図示を省略するが、統括制御部73が、3Dキャラクターの身体の様々な部分(例えば、女性のキャラクターの場合は胸部等)が揺れるように表示するとよい。この場合、3Dキャラクターの立体感をより強調するために、例えば、3Dキャラクターが正面ではなく斜め前方を向いている画像が表示されるとよい。 Further, although not shown, the overall control unit 73 may display various parts of the 3D character's body (for example, the chest, etc. in the case of a female character) so as to sway. In this case, in order to further emphasize the three-dimensional effect of the 3D character, for example, it is preferable to display an image in which the 3D character faces diagonally forward rather than in front.

また、統括制御部73が、画像表示部20に表示されるキャラクターに応じて、3Dアプリケーションにおける各種のパラメータ(カメラの離し度合い、向き、表示対象物までの距離等)を適切な値に設定するとよい。なお、統括制御部73による自動設定に限らず、上記の3Dアプリケーションにおける各種のパラメータを調整可能な物理的なスライダーが筐体10に設けられ、目視者等が3Dキャラクターを見ながら各種パラメータの調整を容易に行えるようにされてもよい。 Further, if the general control unit 73 sets various parameters in the 3D application (degree of separation of the camera, direction, distance to the display target, etc.) to appropriate values according to the character displayed on the image display unit 20. good. In addition to the automatic setting by the general control unit 73, the housing 10 is provided with a physical slider that can adjust various parameters in the 3D application described above, so that a viewer or the like can adjust various parameters while viewing the 3D character. It may be possible to make it easier to do so.

また、図示を省略するが、統括制御部73が、所定の物体(例えば、板等)が減光部材30と同じ位置に描画されるように表示するとよい。このようにすれば、減光部材30が存在していることを映像で目視者に知らせることができ、目視者が空間領域102(図6)に手を入れた際に、目視者の手が減光部材30にぶつかることを抑制することができる。なお、所定の物体と減光部材30とが同じ位置となるように、表示装置1に、種々のパラメータをキャリブレーションする機能が設けられていると尚よい。 Further, although not shown, the overall control unit 73 may display a predetermined object (for example, a plate, etc.) so that it is drawn at the same position as the light attenuation member 30. In this way, the presence of the light attenuation member 30 can be notified to the viewer through an image, and when the viewer puts his/her hand into the spatial area 102 (FIG. 6), the viewer's hand Collision with the light attenuation member 30 can be suppressed. Note that it is preferable that the display device 1 is provided with a function of calibrating various parameters so that the predetermined object and the light attenuation member 30 are in the same position.

また、減光部材30よりも前方側(開口部5側)まで3Dキャラクターが飛び出した状態の映像と、減光部材30の後方側(画像表示部20側)にしか3Dキャラクターが飛び出さない状態の映像とを予め設け、それぞれの状態で異なるアクションが行われるようにするとよい。たとえば、図示を省略するが、統括制御部73が、3Dキャラクターが前方側まで飛び出した映像を画像表示部20に表示したときは、当該3Dキャラクターが握手を求めるなど、目視者に対して積極的に3Dキャラクターを触らせるアクションを当該3Dキャラクターが行う映像を画像表示部20に表示するとよい。逆のときには、そのような動作を行わない映像が表示されるとよい。また、統括制御部73が、例えば、傾斜配置された減光部材30の面上に滑り台の画像を表示し、その上(正面側)をキャラクターが滑る映像を描画するとよい。 In addition, there is an image in which the 3D character protrudes to the front side of the light reduction member 30 (toward the opening 5), and a state in which the 3D character protrudes only to the rear side of the light reduction member 30 (toward the image display unit 20 side). It is preferable to provide images in advance so that different actions are performed in each state. For example, although not shown, when the general control unit 73 displays an image in which a 3D character jumps out to the front on the image display unit 20, the 3D character actively interacts with the viewer, such as asking for a handshake. It is preferable that the image display unit 20 display a video of the 3D character performing an action that causes the user to touch the 3D character. In the opposite case, it is preferable to display an image in which such an action is not performed. Further, it is preferable that the overall control unit 73 displays an image of a slide on the surface of the obliquely arranged light attenuation member 30, and draws an image of the character sliding on the slide (on the front side).

また、統括制御部73が、画像表示部20において、三次元画像として認識される画像として、次述の第1画と第2画像とを含む複数の画像のいずれかを選択的に表示するようにしてもよい。第1の画像は、3Dキャラクター1000の少なくとも一部分が減光部材30よりも前方側(開口部5側)に存在するように目視者によって立体視可能な画像(図21(B)の3Dキャラクター1000参照)とするとよい。第2の画像は、第1の画像よりも正面側または背面側に存在すると認識される画像とするとよい。例えば、画像表示部20において、3Dキャラクター1000(「目視者によって立体視される表示対象物」の一例)が減光部材30よりも後方側(画像表示部20側)に存在するように目視者によって立体視可能な第2の画像(図21(A)参照)と、3Dキャラクター1000の足よりも上側の部分が減光部材30よりも前方側(開口部5側)に存在するように目視者によって立体視可能な第1の画像(図21(B)参照)とが切り替えられて表示されるとよい。なお、第1の画像においては、当該3Dキャラクター1000の全部分が減光部材30よりも前方側に存在するように目視者によって立体視可能な画像であってもよい。このようにすれば、目視者によって三次元の画像として認識される画像が存在すると認識される位置が異なる第1の画像と第2の画像とを含む複数の画像のいずれかを選択的に表示することができるので、目視者に与える立体感を変更することができる。その結果、例えば、目視者をより楽しませることができる。なお、3Dキャラクター1000の画像自体は画像表示部20の表示面に表示されており、図13では、目視者によって立体視された(画像表示部20から飛び出して見える、とも表現される)3Dキャラクター1000が示されている。 Further, the overall control unit 73 causes the image display unit 20 to selectively display one of a plurality of images including the first image and the second image described below as an image recognized as a three-dimensional image. You can also do this. The first image is an image that can be stereoscopically viewed by a viewer (3D character 1000 in FIG. 21(B) (see). The second image may be an image that is recognized to exist on the front side or the back side of the first image. For example, in the image display unit 20, the viewer A second image that can be viewed stereoscopically (see FIG. 21(A)) is visually observed so that the part above the feet of the 3D character 1000 is located in front of the light reduction member 30 (on the opening 5 side). It is preferable that the first image (see FIG. 21B) which can be viewed stereoscopically be switched and displayed depending on the person. Note that the first image may be an image that can be stereoscopically viewed by the viewer such that the entire portion of the 3D character 1000 is located in front of the light reduction member 30. In this way, it is possible to selectively display one of the plurality of images including the first image and the second image in different positions where the image recognized as a three-dimensional image by the viewer is recognized as existing. Therefore, the three-dimensional effect given to the viewer can be changed. As a result, for example, viewers can be more entertained. Note that the image of the 3D character 1000 itself is displayed on the display screen of the image display section 20, and in FIG. 1000 is shown.

例えば、統括制御部73が、3Dキャラクター1000が減光部材30の後方側にしか飛び出さない状態の画像(図21(A)参照)から、3Dキャラクター1000(3Dキャラクター1000の全部あるいは一部分)が減光部材30の前方側にまで飛び出した状態の画像(図21(B)参照)へと遷移させることによって、画像表示部20の表示画像を切り替えるとよい。三次元の画像が認識される位置は、目視者による操作部40の操作またはその他の操作により切り替え可能になっていてもよい。目視者は三次元画像が立体的に見える位置に、画像が表示されるように操作してもよい。また、三次元画像の切り替え可能な位置は3種類以上でもよい。三次元画像が立体的に見えるか否かは個人差によるところもあるからである。 For example, the general control unit 73 determines whether the 3D character 1000 (all or part of the 3D character 1000) is It is preferable to switch the displayed image on the image display unit 20 by transitioning to an image that extends to the front side of the light attenuation member 30 (see FIG. 21(B)). The position at which the three-dimensional image is recognized may be switchable by the viewer's operation of the operation unit 40 or other operations. The viewer may operate the image so that the image is displayed at a position where the three-dimensional image can be viewed stereoscopically. Further, the number of positions at which the three-dimensional image can be switched may be three or more. This is because whether a three-dimensional image looks three-dimensional or not depends on individual differences.

また、第1の画像と第2の画像との間での表示移行に際して、統括制御部73が、3Dキャラクター1000が減光部材30の後方側から前方側へと(あるいは、減光部材30の前方側から後方側へと)徐々に移動する移動過程の画像(映像)を表示してもよい。 In addition, when the display transitions between the first image and the second image, the overall control unit 73 causes the 3D character 1000 to move from the rear side of the light attenuation member 30 to the front side (or from the back side of the light attenuation member 30 An image (video) of a movement process that gradually moves (from the front side to the rear side) may be displayed.

このような画像遷移に際して、統括制御部73が、例えば、減光部材30の存在を示すアクションを3Dキャラクターが行う映像を画像表示部20に表示するとよい。例えば、3Dキャラクターが減光部材30の後方側位置から減光部材30を叩くと、穴が開いた画像を減光部材30と同位置に配置して、当該3Dキャラクターがその穴から飛び出して手前側に移動するような映像が表示されるとよい。 At the time of such image transition, it is preferable that the overall control unit 73 displays, on the image display unit 20, an image in which a 3D character performs an action indicating the presence of the light reduction member 30, for example. For example, when a 3D character hits the light attenuation member 30 from the rear side of the light attenuation member 30, an image with a hole is placed at the same position as the light attenuation member 30, and the 3D character jumps out of the hole to the front. It would be good if an image that appears to move to the side is displayed.

[表示装置1に表示される映像の具体例]
次に、図22~図36を参照しつつ、表示装置1に表示される映像の具体例を説明する。図22~図36は、本実施例に係る表示装置1に表示されるキャラクター(図11,12で説明した3Dキャラクター1200を含む映像)の一例を示す図である。図22~図36に示される各映像は、表示装置1において表示され、開口部5を介して目視者が見ることのできる画像である。なお、図22~図36にはステージ映像2200が表示されているが、これが表示されずに3Dキャラクター1200が表示されるようにしてもよい。
[Specific example of video displayed on display device 1]
Next, specific examples of images displayed on the display device 1 will be described with reference to FIGS. 22 to 36. 22 to 36 are diagrams showing examples of characters (images including the 3D character 1200 described in FIGS. 11 and 12) displayed on the display device 1 according to this embodiment. Each of the images shown in FIGS. 22 to 36 is an image that is displayed on the display device 1 and can be seen by the viewer through the opening 5. Note that although the stage image 2200 is displayed in FIGS. 22 to 36, the 3D character 1200 may be displayed instead.

表示装置1(詳細には、統括制御部73)は、図22~図28に示される3Dキャラクター1200の映像を、コミュニケーション機能に基づいて、目視者の動作を待機する期間に規則的またはランダムに切り替えて表示する。表示装置1(詳細には、統括制御部73)は、コミュニケーション機能に基づいて、3Dキャラクター1200の表示を変化させる。例えば、図22(A)のように、3Dキャラクター1200は、表示装置1の正面側(画像を見る側)の方向を向いて立ってる姿勢で表示される。表示装置1は、この姿勢を基本姿勢とし、コミュニケーション機能に基づくコミュニケーションが行われていない期間の表示としてもよい。例えば、図22(B)のように、3Dキャラクター1200が自身の前足を舐めるような動作をする。例えば、図22(C)および図23(A)のように、3Dキャラクター1200は、自身の左右を交互に見るような動作をする。例えば、図23(B)のように、3Dキャラクター1200は、地面の方向を向く動作をする。例えば、図23(C)のように、3Dキャラクター1200は、座ったまま伸びをするような動作をする。例えば、図24(A)のように、3Dキャラクター1200は、地面をのぞき込むような動作をする。さらに例えば、図24(B)および図24(C)のように、3Dキャラクター1200は、正面側に歩く動作をする。例えば、図25(A)に示すように、3Dキャラクター1200は、自身の腹部をのぞき込むような動作をする。例えば、図25(B)に示すように、3Dキャラクター1200は、首を傾げる動作をする。例えば、図25(C)に示すように、3Dキャラクター1200は、自身の目をこする動作をする。例えば、図26(A)に示すように、3Dキャラクター1200は、あくびをする動作をする。例えば、図26(B)に示すように、3Dキャラクター1200は、座ったまま自身の前足を舐める動作をする。例えば、図26(C)に示すように、3Dキャラクター1200は、自身の左前方を見るような動作をする。例えば、図27(A)に示すように、3Dキャラクター1200は、自身の右前方を見るような動作をする。図27(B)に示すように、3Dキャラクター1200は、伸びをする動作をする。例えば、図27(C)のように、3Dキャラクター1200は、地面をのぞき込むような動作をする。例えば、図28(A)に示すように、3Dキャラクター1200は、表示装置1の右斜め前方の方向を向き、その次に図28(B)に示すように正面を向く。図28(C)に示すように、3Dキャラクター1200は、自身の前足を舐める動作をする。 The display device 1 (specifically, the general control unit 73) displays images of the 3D character 1200 shown in FIGS. 22 to 28 regularly or randomly during a period of waiting for the viewer's actions based on the communication function. Switch and display. The display device 1 (specifically, the overall control unit 73) changes the display of the 3D character 1200 based on the communication function. For example, as shown in FIG. 22(A), the 3D character 1200 is displayed in a standing posture facing the front side (image viewing side) of the display device 1. The display device 1 may use this posture as a basic posture, and may display a period in which communication based on the communication function is not performed. For example, as shown in FIG. 22(B), the 3D character 1200 makes an action such as licking its own front paw. For example, as shown in FIGS. 22(C) and 23(A), the 3D character 1200 behaves as if it looks alternately at its left and right sides. For example, as shown in FIG. 23(B), the 3D character 1200 moves to face the ground. For example, as shown in FIG. 23(C), the 3D character 1200 moves as if stretching while sitting. For example, as shown in FIG. 24(A), the 3D character 1200 behaves as if it were looking into the ground. Further, for example, as shown in FIGS. 24(B) and 24(C), the 3D character 1200 makes a motion of walking toward the front. For example, as shown in FIG. 25(A), the 3D character 1200 moves as if looking into its own abdomen. For example, as shown in FIG. 25(B), the 3D character 1200 makes an action of tilting its head. For example, as shown in FIG. 25(C), the 3D character 1200 makes an action of rubbing its own eyes. For example, as shown in FIG. 26(A), the 3D character 1200 makes a yawning motion. For example, as shown in FIG. 26(B), the 3D character 1200 makes a motion of licking its own front paw while sitting. For example, as shown in FIG. 26(C), the 3D character 1200 moves to look in front of it to the left. For example, as shown in FIG. 27(A), the 3D character 1200 moves to look in front of itself to the right. As shown in FIG. 27(B), the 3D character 1200 makes a stretching motion. For example, as shown in FIG. 27(C), the 3D character 1200 behaves as if it were looking into the ground. For example, as shown in FIG. 28(A), the 3D character 1200 faces diagonally forward to the right of the display device 1, and then faces forward as shown in FIG. 28(B). As shown in FIG. 28(C), the 3D character 1200 makes a motion of licking its own front paw.

図29~図36は、表示装置1(詳細には、統括制御部73)が対話処理時に対コミュニケーション機能に基づいて行う3Dキャラクター1200の表示の一例である。図29~図36に示す文字列は、音声認識で認識可能な文字列で、3Dキャラクター1200の上方に表示される。図29(A)は、表示装置1が「おいでおいで~」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図29(B)~図30(B)は、表示装置1が「おすわり」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図30(C)は、表示装置1が「おなか減ったかなぁ」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図31(A)は、表示装置1が「おまわり」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図31(B),(C)は、表示装置1が「おやつの時間だよ」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図32(A)は、表示装置1が「お手」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図32(B)~図33(B)は、表示装置1が「可愛いね」との目視者の発話を認識したときに表示すされるもので、これに応答して音声が出力される。図33(C)は、表示装置1が「こんにちは」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図34(A)は、表示装置1が「ご飯食べる」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図34(B)、(C)は、表示装置1が「女の子かな」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図35(A)は、表示装置1が「待て」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図35(B)は、表示装置1が「いい子ねー」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図35(C)、図36は、表示装置1が「ユノ」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。 29 to 36 are examples of the display of the 3D character 1200 that the display device 1 (specifically, the general control unit 73) performs based on the communication function during dialogue processing. The character strings shown in FIGS. 29 to 36 are character strings that can be recognized by voice recognition and are displayed above the 3D character 1200. FIG. 29(A) is displayed when the display device 1 recognizes the viewer's utterance, ``Come on, come on~'', and a voice is output in response to this. 29(B) to FIG. 30(B) are displayed when the display device 1 recognizes the viewer's utterance of “sit down”, and a voice is output in response to this. FIG. 30(C) is displayed when the display device 1 recognizes the viewer's utterance, ``I wonder if I'm hungry,'' and a voice is output in response. FIG. 31(A) is displayed when the display device 1 recognizes the viewer's utterance of "police officer," and a voice is output in response. FIGS. 31B and 31C are displayed when the display device 1 recognizes the viewer's utterance, ``It's snack time,'' and a voice is output in response. FIG. 32(A) is displayed when the display device 1 recognizes the viewer's utterance of "hand", and a voice is output in response to this. 32(B) to FIG. 33(B) are displayed when the display device 1 recognizes the viewer's utterance, ``You're cute,'' and a voice is output in response. FIG. 33(C) is displayed when the display device 1 recognizes the viewer's utterance of "Hello," and a voice is output in response. FIG. 34(A) is displayed when the display device 1 recognizes the viewer's utterance of "I'm going to eat," and a voice is output in response to this. FIGS. 34(B) and 34(C) are displayed when the display device 1 recognizes the viewer's utterance "Is it a girl?" and a voice is output in response. FIG. 35(A) is displayed when the display device 1 recognizes the viewer's utterance of "wait," and a voice is output in response. FIG. 35(B) is displayed when the display device 1 recognizes the viewer's utterance, ``You're a good boy.'' In response, a voice is output. FIGS. 35(C) and 36 are displayed when the display device 1 recognizes the viewer's utterance of "Yuno," and a voice is output in response.

<3Dキャラクター1200のより詳細な説明>
図22~図36で説明した3Dキャラクター1200についてより詳細に説明する。以下の説明において、表示装置1を処理主体とした説明については、制御部70(より詳細には、統括制御部73)が行う処理としてよい。3Dキャラクター1200は、概ね約3等身で描画すされると特によい。このようにすると奥行き感が特に強調されることを見出した。表示装置1は、側面側(横側)から見て上下方向に概ね、頭部が3分の1、胴体が3分の1、足が3分の1の高さを占めるように、3Dキャラクター1200を描画するとよい。表示装置1は、尾以外について、側面側から見て左右方向に概ね、頭部が3分の1、胴体が3分の2を占めるように3Dキャラクター1200を描画するとよい。
<More detailed description of 3D character 1200>
The 3D character 1200 described in FIGS. 22 to 36 will be described in more detail. In the following description, descriptions in which the display device 1 is the main processing body may be performed by the control unit 70 (more specifically, the overall control unit 73). It is particularly advantageous if the 3D character 1200 is drawn approximately three-dimensionally. It has been found that by doing so, the sense of depth is particularly emphasized. The display device 1 displays a 3D character so that the head occupies approximately one third of the height, the torso occupies one third, and the feet occupy one third in the vertical direction when viewed from the side (lateral side). It is better to draw 1200. The display device 1 preferably draws the 3D character 1200 so that, except for the tail, the head occupies approximately one-third and the body occupies two-thirds in the left-right direction when viewed from the side.

表示装置1は、正面に顔がある状態で、尾が見えない状態と尾が見える状態との間で相互に変位する描画をする機能を備え、尾が見える状態の時間を尾が見えない状態の時間より短くするとよい。尾は頭よりも奥側に描画されることになるが、ときどき尾が見えることで、立体感を大きく感じることができるとともに、常に立体感を大きく感じることで目や頭が疲労してしまうことを防止できる。特に、表示装置1は、音声認識の待受状態でこのような描画処理を行うとよい。表示装置1は、尾が見える状態へ変位するときには、頭の頂上部分から尾が現れるように描画する機能を備えるとよい。このようにすれば、通常は、顔の目に目視者の視線がありその中心上部からいきなり尾が頭の上方へ飛び出すことで、驚きと面白みを与えることができる。 The display device 1 has a function of displaying images that are mutually displaced between a state in which the tail is not visible and a state in which the tail is visible when the face is in front of the person, and a state in which the tail is visible and a state in which the tail is not visible. It is recommended that the time be shorter than that of . The tail is drawn further back than the head, but by seeing the tail from time to time, you can feel a larger three-dimensional effect, and constantly feeling a larger three-dimensional effect can cause eye and head fatigue. can be prevented. In particular, it is preferable that the display device 1 performs such a drawing process while in a standby state for voice recognition. The display device 1 may have a function of drawing the tail so that it appears from the top of the head when the tail is displaced to a visible state. By doing this, the tail suddenly pops out above the head from the center of the eyes of the face, where the viewer's line of sight is usually directed, which can give surprise and interest.

表示装置1は、3Dキャラクター1200の頭の頂上に正面視で平らな部分を設けるとよく、特に左右の耳の間の頭部分は正面視で平らにして描画するとよい。このようにすれば、立体感が弱い平らな頭の頂上からいきなり立体感のある尾が頭上に現れることとなり、より驚きと面白みを与えることができる。また、表示装置1は、頭上から尾が現れるように描画した後、尾の先端寄りの部分を動かす描画を行うとよい。このようにすれば、視点を顔より奥側の尾の部分に集めることができ、より立体感を感じさせることができる。表示装置1は、同様に胴体の左右から尾を出現させるように描画してもよい。表示装置1は、左右から尾を出現させる場合には、頭上から尾を出現させる場合に比べて、尾の出現する長さ、および/または、時間を短くするとよい。表示装置1は、左右から出現させる場合にはチラチラっと出現させる描画を行うとよい。表示装置1は、視線をときどき奥側に動かす描画をするようにしてもよく、より立体感を感じさせることができる。表示装置1は、音声の認識中は尾を頭の上から出現させる一方、猫からの音声の出力の際には尾を左右いずれかの方向から出現させる描画を行うとよい。表示装置1は、尾には長さ方向に所定の間隔で他の部分と違う描画態様を有する部分を設けるとよい。例えば一定間隔で尾の円筒面上に環状または円弧状に所定の幅を持つ模様を付すとよい。このようにすれば、尾の動きが3次元空間で、よりダイナミックに動くように感じられることを発明者らは見出した。 The display device 1 may preferably provide a flat portion at the top of the head of the 3D character 1200 when viewed from the front, and in particular, the portion of the head between the left and right ears may be rendered flat when viewed from the front. In this way, a tail with a three-dimensional effect suddenly appears above the head from the top of the flat head, which has a weak three-dimensional effect, making it more surprising and interesting. Further, the display device 1 may draw the tail so that it appears from above, and then move the portion of the tail closer to the tip. In this way, the viewpoint can be focused on the tail part on the back side of the face, giving a more three-dimensional effect. The display device 1 may similarly draw the tail so that it appears from the left and right sides of the torso. In the display device 1, when the tail appears from the left and right sides, the length and/or time during which the tail appears may be made shorter than when the tail appears from above. In the case where the display device 1 makes the images appear from the left and right, it is preferable to draw the images so that they appear flickeringly. The display device 1 may be configured to sometimes draw the line of sight to the back, which can give a more three-dimensional effect. It is preferable that the display device 1 performs rendering such that the tail appears from above the cat's head during voice recognition, and that the tail appears from either the left or right direction when outputting voice from the cat. In the display device 1, it is preferable that the tail is provided with portions having a drawing mode different from other portions at predetermined intervals in the length direction. For example, it is preferable to apply patterns having a predetermined width in an annular or arc shape on the cylindrical surface of the tail at regular intervals. The inventors have found that by doing this, the tail movement feels more dynamic in three-dimensional space.

表示装置1は、音声認識中は同一の姿勢になるように、音声認識中でない状態からの音声認識中の状態に変化があった場合に現在の姿勢を前記同一の姿勢に変化させる描画を行うとよい。表示装置1は、音声認識の開始前に「おしゃべりするにゃ」と発話させるとよい。表示装置1は、目視者の動作を検出する機能(例えばセンサやスイッチ)を備え、目視者からの動作を検出した場合に「なんにゃ?」と発話する機能を備えるとよい。両機能は「なんにゃ?」「おしゃべりするにゃ」という形で連続して実行し、その後音声認識状態に入るように処理を行うとよい。 The display device 1 performs drawing to change the current posture to the same posture when there is a change from a state not in voice recognition to a state in which voice recognition is in progress so that the same posture is maintained during voice recognition. Good. It is preferable that the display device 1 causes the user to utter "chatting" before starting voice recognition. The display device 1 preferably has a function (for example, a sensor or a switch) that detects the viewer's motion, and has a function that utters "What?" when detecting the viewer's motion. It is best to perform both functions in succession in the form of "What's that?" and "Talk to me," and then enter the speech recognition state.

表示装置1は、音声認識の語句として、「かわいいね」など、褒められる内容の語句の情報を備え、褒められる内容の語句を認識した場合には、体の姿勢を変化させるとよい。さらに歩くなど、猫自体の位置を移動させるとなおよい。このようにすれば目視者は猫の姿勢の変化や移動の動きを見たいために、褒める言動・行動をとるようになり、行動や言動の改善などのセラピーの優れた効果が得られる。 The display device 1 is preferably provided with information on complimentary words such as "You're cute" as speech recognition words, and changes the body posture when recognizing the complimentary words. It is even better if you move the cat's position, such as by walking. In this way, the viewer wants to see the changes in the cat's posture and movement, so they will use words and actions that praise the cat, and the excellent effects of therapy, such as improving the cat's behavior and words, can be obtained.

表示装置1は、ご飯をあげることに対応する音声認識の語句を備え、当該語句を認識した場合には、尾を他の場合に比べ早く振る描画を行うとよい。このようにすれば、より猫が実際に生きているかのような感覚を目視者に与えることができる。 It is preferable that the display device 1 is provided with a voice recognition phrase corresponding to "to feed", and when the phrase is recognized, the display device 1 is depicted wagging its tail faster than in other cases. In this way, the viewer can feel as if the cat is actually alive.

表示装置1は、猫の目の外郭を概ね円形状とし、黒目部分は縦長の楕円形状として描画処理するとよい。表示装置1は、黒目部分は上下方向に濃淡のグラデーションをつけて描画するとよく、下方にいくにしたがって明るい色に描画するとよい。表示装置1は、黒目の中心部には概ね円形または楕円形の周辺よりも黒い部分を設けるとよい。表示装置1は、黒目部分の上方の顔の外側寄りの部分には黒目の外縁に沿った三日月形状ないし半月状の白色領域を設けて描画するとよい。これに対し、表示装置1は、黒目の下方の顔の中心寄り位置には円形の白色領域を設けて描画するとよい。表示装置1は、この白色領域の描画は3Dキャラクター1200の位置の変化(姿勢の変化など)、ないし、カメラやライトの位置の変化があった場合でも、描画させつづけるとよい。通常は、ライト等の反射としてハイライトは演算で入れられることが多い。しかし、このようにすることで、音声認識の話しかけの際に最も見られる目の部分の猫の個性を強調とすることができ、個性のある猫として、音声認識をしている短時間で印象づけることができる。 The display device 1 preferably renders the outline of the cat's eyes as approximately circular, and the iris as a vertically elongated ellipse. In the display device 1, it is preferable that the iris part be drawn with a gradation of shading in the vertical direction, and the iris should be drawn in a brighter color as it goes downward. In the display device 1, it is preferable that the center part of the iris has a blacker part than the generally circular or elliptical periphery. The display device 1 preferably provides a crescent-shaped or half-moon-shaped white region along the outer edge of the iris in the outer part of the face above the iris. In contrast, it is preferable that the display device 1 draw a circular white area at a position near the center of the face below the iris. The display device 1 preferably continues to draw this white area even when there is a change in the position of the 3D character 1200 (such as a change in posture) or a change in the position of the camera or light. Usually, highlights are often added by calculation as reflections of light or the like. However, by doing this, it is possible to emphasize the cat's individuality in the eyes, which are most visible when speaking with voice recognition, and give an impression as a cat with a unique personality in a short time during voice recognition. be able to.

表示装置1は、顔が正面を向いている状態と、下側を向いている状態とをとり、顔が正面を向いているときは目の外郭は概ね円形状で描画する一方、顔が下を向いている状態では、目を横長の楕円形状で描画するとよい。 The display device 1 takes a state where the face is facing forward and a state where the face is facing downward. When the face is facing forward, the outline of the eyes is drawn in a generally circular shape, while when the face is facing downward, When the character is facing towards the camera, it is best to draw the eyes as horizontally elongated ellipses.

表示装置1は、顔の上端が胴体の上端より上にある状態と、顔の上端が胴体の上端より下にある状態とをとり、顔の上端が胴体の上端より上にある状態では目の外郭は概ね円形状で描画する一方、顔の上端が胴体の上端よりも下にある状態では、目を横長の楕円形状で描画するとよい。表示装置1は、口を開けてあくびをする状態を描画する機能を備え、この描画の際には目を閉じる描画を行うとよい。 The display device 1 has two states: the top of the face is above the top of the body, and the top of the face is below the top of the body, and when the top of the face is above the top of the body, the eyes are While the outline is generally drawn in a circular shape, if the upper end of the face is lower than the upper end of the body, it is better to draw the eyes in a horizontally elongated oval shape. The display device 1 has a function of drawing a yawning state with the mouth open, and it is preferable to draw the yawn with the eyes closed during this drawing.

表示装置1は、3Dキャラクター1200には待機時のモーションを複数のパターン用意しておき、これらのパターンのなかから1のパターンを選択して描画する処理を繰り返すとよい。待機時のモーションとしては、足をなめるモーション、顔を手で撫でるモーション、お尻をなめるモーション、正面を向くモーション、左右を見渡すモーション、地面をなめるモーション、伸びをするモーション、あくびをするモーション、歩くモーションなどがある。 It is preferable that the display device 1 prepares a plurality of motion patterns for the 3D character 1200 during standby, and repeats the process of selecting and drawing one pattern from among these patterns. Motions during standby include licking the feet, stroking the face with hands, licking the butt, facing forward, looking left and right, licking the ground, stretching, yawning, There are walking motions, etc.

表示装置1は、耳は顔の移動に遅れて移動するように描画するとよい。例えば、顔が移動開始してもしばらく耳は位置を保つように描画するとよい。表示装置1は、なめるモーションを行うときには、尾を左右に振るモーションを同時に行う機能を備えるとよい。
表示装置1は、3Dキャラクター1200を正面からみた際に胴体の模様は左右非対称とするとよい。このようにすれば、個性ある猫として覚えられやすくなるとともに、右面が見えているのか左面が見えているのかが容易に判別できるようになる。特に3Dキャラクター1200の全体像がみえないほど拡大した場面を設けるときに有用である。特に、模様は三毛猫の模様とするとよく、特にトラ猫の模様とするとよい。このようにすると特に立体感を把握しやすくなることを発明者らは見出した。特に、頭上の模様は前後方向に設ける一方、胴体の模様は上下方向に設けるなど、その模様の方向を異なる方向とするとよい。このようにすれば、カメラや猫の位置が変化したことを、いずれの方向に移動してもより認識しやすくなる。
The display device 1 may draw the ears so that they move later than the face. For example, the ears may be drawn so that they remain in position for a while even if the face begins to move. The display device 1 preferably has a function of simultaneously performing a tail-waving motion from side to side when performing a licking motion.
In the display device 1, when the 3D character 1200 is viewed from the front, the pattern of the body may be asymmetrical. In this way, it will be easier to remember the cat as a unique cat, and it will also be easier to tell whether the cat's right side or left side is visible. This is particularly useful when creating a scene that is so enlarged that the entire image of the 3D character 1200 cannot be seen. In particular, the pattern is preferably a calico cat pattern, especially a tabby cat pattern. The inventors have found that this makes it particularly easy to grasp the three-dimensional effect. In particular, the patterns on the head may be provided in different directions, such as the pattern on the head being provided in the front-back direction, while the pattern on the body may be provided in the vertical direction. This makes it easier to recognize changes in the camera or cat's position no matter which direction they move.

表示装置1は、「ニャ」という鳴き声を発する機能を備え、「ニャ」という鳴き声には複数のイントネーションのものを備え、それぞれの鳴き声に対して異なるモーションが対応づけられる構成とするとよい。イントネーションの中には、疑問形のイントネーションを備え、モーションとしては首を傾げるモーションを備えるとよい。 It is preferable that the display device 1 has a function of emitting a cry of "Nya", has a plurality of intonations for the cry of "Nya", and has a configuration in which different motions are associated with each cry. It is preferable that the intonation includes an interrogative intonation, and the motion includes a tilting of the head.

<3Dキャラクター1200に関するコミュニケーション機能について>
3Dキャラクター1200に関するコミュニケーション機能について補足する。以下のようにすれば、目視者に対し、3Dキャラクター1200とのより質の高いコミュニケーション機能を提供することができる。ここでは、飼い慣らすまでにする人の行動と3Dキャラクター1200との行動ストーリーの概略について説明する。この実施例では、表示装置1の正面側に、目視者を撮影する撮影部が設けられている。
<About the communication function related to 3D character 1200>
The communication function related to the 3D character 1200 will be supplemented. By doing the following, it is possible to provide the viewer with a higher quality communication function with the 3D character 1200. Here, an outline of the human behavior and the behavior story of the 3D character 1200 until it is tamed will be explained. In this embodiment, a photographing section for photographing a viewer is provided on the front side of the display device 1.

(1)第一ステップ:飼い慣らすまでの段階
通常、野良猫等の猫は、人を見るだけで逃げる、または人が近づくと逃げる色々なタイプの猫がいる。そのとき、猫の行動は、何度も振り返りながら人の様子を見ながら逃げるように見える。ここで、制御部70は、撮影部を用いて撮影した撮影画像に基づいて目視者の存在を認識し、かつ人感センサ64により測定されるマイクロ波の強度が閾値を超えた場合、3Dキャラクター1200が逃げるような動作を行う映像を表示させる。猫に人が近づいたとみなすためである。撮影部で目視者を認識するのは、3Dキャラクター1200が逃げる場面を目視者に見せるためである。つまり、目視者が正面側から表示装置1に近づかないと、3Dキャラクター1200が逃げる動作をしないようにしている。
(1) First step: Stage until domestication There are various types of cats, such as stray cats, that usually run away when they see a person, or run away when a person approaches. At that time, the cat's behavior appears to be turning around and looking at the person before running away. Here, the control unit 70 recognizes the presence of the viewer based on the photographed image photographed using the photographing unit, and when the intensity of the microwave measured by the human sensor 64 exceeds a threshold value, the 3D character An image of 1200 running away is displayed. This is because it is assumed that a person has approached the cat. The purpose of recognizing the viewer in the photographing unit is to show the viewer a scene in which the 3D character 1200 runs away. In other words, the 3D character 1200 is prevented from running away unless the viewer approaches the display device 1 from the front.

次に、人は猫に対して「しゃがんで(目の位置を落として)」、「おいで、おいで」などの声を掛けると考えられる。そのときに立ち止まり、様子をうかがう猫もいる。しかし、人が近付くと猫は逃げる。何度かこのことが繰り返される。このような人の行動では、猫は慣れてくれないと考えられる。そこで、制御部70は、3Dキャラクター1200が逃げている映像を表示している期間に、人感センサ64により測定されるマイクロ波の強度がある閾値以下であり、かつ例えば「おいで」という3Dキャラクター1200に呼びかけることを示す言葉を音声認識した場合、3Dキャラクター1200が立ち止まるような動作を行う映像を表示させる。ここで、マイクロ波の強度を閾値以下になることを条件としているのは、人間が立ち止まる状態を想定しているからである。 Next, people are thought to say things like ``squat down'' (lower your eyes) and ``come on, come on'' to the cat. Some cats stop and check out what's going on. However, if a person approaches, the cat will run away. This is repeated several times. It is thought that cats will not get used to this type of human behavior. Therefore, the control unit 70 controls the 3D character 1200 when the intensity of the microwave measured by the human sensor 64 is below a certain threshold during the period when the image of the 3D character 1200 is running away is displayed, and when the 3D character When words indicating a call to 1200 are voice recognized, an image of the 3D character 1200 performing an action such as standing still is displayed. Here, the reason why the intensity of the microwave is set to be equal to or less than the threshold value is because it is assumed that a person is standing still.

次に、人は立ち止った猫に餌を与えることが考えられる。しかし、人が猫に近づくと、猫は逃げるので、猫がよく来る場所に餌を置いておくしかないと考えられる。そこで、表示装置1は、映像表示空間内に餌が置かれる映像を表示する機能を有する。例えば、制御部70は、所定の操作(例えば、操作部41または操作部42の操作)を受け付けた場合、またはジェスチャーセンサ63で餌を置くことを指示する所定のジェスチャーが検出された場合に、餌がおかれたとして、映像の中に餌を示す映像を表示させる。このようにすれば、目視者は、例えば毎日、餌を置くようにする。制御部70は、この際、3Dキャラクター1200が遠くからその様子を見ているような表示をさせるとよい。制御部70は、人感センサ64を用いて目視者の存在を認識せず、かつ撮影部で目視者が撮影されていない場合に、3Dキャラクター1200が餌を食べる映像を表示させる。ここでは、猫が人を前にして餌を食べない状況を再現している。目視者からすると、いつの間にか餌が空になっている、という状況をつくっている。制御部70は、目視者が餌を与えた回数をカウントしておき、これを記憶しておく。しばらくはこの状態が続くが、制御部70は、餌を与える回数によって、次第に目視者と3Dキャラクター1200と人との距離(目視者が感じる距離)を縮めていくような表示をさせるとよい。例えば、制御部70は、餌を与え始めて、餌を与えた回数とともに、3Dキャラクター1200をより大きく表示するようにして、距離を縮めてきた(つまり、少し慣れてきた)ことを再現するとよい。さらに、餌を与えた回数が増加して所定の閾値に達すると、猫が慣れててきたとして、目視者がキャラクターを見ていても、つまり、制御部70は、人感センサ64を用いて目視者の存在を認識し、かつ撮影部で目視者が撮影されている場合でも、3Dキャラクター1200が餌を食べる映像を表示させる。このときに初めて、目視者は、3Dキャラクター1200が餌を食べる様子を目視することができる。 Next, it is conceivable that people stop to feed the cat. However, if a person approaches a cat, the cat will run away, so the only option is to leave food in a place where cats often visit. Therefore, the display device 1 has a function of displaying an image in which bait is placed within the image display space. For example, when the control unit 70 receives a predetermined operation (for example, the operation of the operation unit 41 or the operation unit 42), or when the gesture sensor 63 detects a predetermined gesture instructing to place food, Assuming that bait is placed, an image showing the bait is displayed in the image. In this way, the viewer will, for example, place the bait every day. At this time, the control unit 70 may display the 3D character 1200 as if it were watching from a distance. The control unit 70 displays an image of the 3D character 1200 eating food when the presence of the viewer is not recognized using the human sensor 64 and the viewer is not photographed by the imaging unit. Here, we are recreating a situation where a cat refuses to eat in front of people. From the perspective of a visual observer, this creates a situation where the bait is empty before you know it. The control unit 70 counts the number of times the viewer feeds the food and stores it. Although this state continues for a while, the control unit 70 may display a display that gradually reduces the distance between the viewer, the 3D character 1200, and the person (the distance perceived by the viewer) depending on the number of times the food is fed. For example, the control unit 70 may display the 3D character 1200 in a larger size together with the number of times the food has been fed since the feeding started, thereby reproducing the fact that the distance has shortened (that is, the animal has gotten used to it a little). Furthermore, when the number of times the cat is fed increases and reaches a predetermined threshold, the cat is assumed to have gotten used to it, and even if the viewer is looking at the character, the control unit 70 uses the human sensor 64 to To display an image of a 3D character 1200 eating food even when the presence of a viewer is recognized and the viewer is photographed by a photographing unit. At this time, the viewer can visually observe how the 3D character 1200 eats food.

ただし、猫がいつ餌を食べるかは人が分からないことも少なくない。そこで、制御部70は、3Dキャラクター1200が餌を食べる時間帯(これに代えて、一時点の時刻としてもよい。)を決めておき、その時間帯に3Dキャラクター1200に餌を食べる映像を表示させてもよい。目視者に、どうもこの時間帯に餌を食べるみたいだということを気づかせるためである。制御部70は、目視者が3Dキャラクター1200に触ろうとすることが検出されると、3Dキャラクター1200に所定の発話内容「シャー」または「シャーシャー」という音声を出力させるとともに、3Dキャラクター1200が逃げる映像を表示させる。目視者が3Dキャラクター1200に触ろうことは、3Dキャラクター1200が餌を食べている動作をしているときに、人感センサ64により検出されるマイクロ波の強度が閾値を超えたこと、または第1センサ2331が所定のジェスチャーを検出したことにより特定されるとよい。 However, people often do not know when cats eat. Therefore, the control unit 70 determines a time period during which the 3D character 1200 eats food (alternatively, it may be set to a single point in time), and displays an image of the 3D character 1200 eating food during that time period. You may let them. This is to make viewers aware that they seem to be feeding at this time of day. When it is detected that the viewer is about to touch the 3D character 1200, the control unit 70 causes the 3D character 1200 to output a predetermined utterance of "Sha" or "Shasha" and causes the 3D character 1200 to run away. Display the image. The fact that the viewer tries to touch the 3D character 1200 means that the intensity of microwaves detected by the human sensor 64 exceeds a threshold while the 3D character 1200 is eating food, or The identification may be made when one sensor 2331 detects a predetermined gesture.

このような状況がしばらく続くが、制御部70は、少しずつ、目視者の手を3Dキャラクター1200に近接させることのできる距離を縮めていくとよい。所定の距離まで近づくようになると、制御部70は、3Dキャラクター1200が目視者に慣れてきたとして、人前で毛繕いやくつろいだ動作を行う映像を表示させるとよい。制御部70は、具体的には、マイクロ波の強度に対する閾値を上げていく、またはジェスチャーが行われるときの表示装置1からの距離に対する閾値を上げていく。このようにして、制御部70は、検知感度を下げていき、目視者の動きに対し3Dキャラクター1200の反応を鈍くしていき、「シャー」または「シャーシャー」といった発話もさせないようにする。 Although this situation continues for a while, the control unit 70 may gradually shorten the distance at which the viewer's hand can approach the 3D character 1200. When the 3D character 1200 approaches to a predetermined distance, the control unit 70 may assume that the 3D character 1200 has become accustomed to the viewer, and display an image of the 3D character 1200 preening its hair or making relaxing movements in public. Specifically, the control unit 70 increases the threshold value for the intensity of the microwave, or increases the threshold value for the distance from the display device 1 when the gesture is performed. In this way, the control unit 70 lowers the detection sensitivity, slows down the reaction of the 3D character 1200 to the movement of the viewer, and prevents the 3D character 1200 from making utterances such as "sha" or "shasha".

猫は、常に警戒はするが、毛繕いや寝そべり、爪研ぎ、顔拭きなどの行動を加えていく。猫がだんだんと人や人の手に慣れてくると、人は手で猫に触れられるようになる。そこで、制御部70は、人感センサ64によるマイクロ波の検知結果を、3Dキャラクター1200の動作に反映させなくするとよい。制御部70は、第1センサ2331をモーションセンサとして機能させて、目視者の上下左右、前後方向のジェスチャーの検知結果に従って、3Dキャラクター1200が撫でると気持ち良さそうにする映像を表示させるとよい。制御部70は、さらに、マイク61により目視者の声を認識して、3Dキャラクター1200がこれに反応する映像を表示させるとよい。例えば、制御部70は、どのような言葉を認識した場合でも、発話内容として「にゃ」という鳴き声を発するようにするとよい。 Cats are always alert, but they add activities such as grooming, lying down, sharpening their claws, and wiping their faces. As cats gradually get used to people and their hands, people can begin to touch them with their hands. Therefore, it is preferable that the control unit 70 not reflect the microwave detection result by the human sensor 64 on the movement of the 3D character 1200. The control unit 70 may cause the first sensor 2331 to function as a motion sensor, and display an image in which the 3D character 1200 looks comfortable when stroked, according to the detection results of the viewer's gestures in the up, down, left, right, and front/back directions. The control unit 70 may further recognize the viewer's voice using the microphone 61 and display an image in which the 3D character 1200 reacts to the voice. For example, it is preferable that the control unit 70 utters a cry of "nya" as the utterance content no matter what word it recognizes.

制御部70は、さらに、時間が経過すると、3Dキャラクター1200が餌をねだるような映像を表示させるとよい。制御部70は、撮影部により目視者の存在を認識し、かつ人感センサ64により目視者の存在を検知しているときに、時間帯(例えば、朝、昼、晩)を決めて、「ニャーニャー」という鳴き声を発するようにし、顔をすりすりする動作を行う映像を表示させるとよい。さらに、制御部70は、目視者が3Dキャラクター1200に声を掛けていくと、3Dキャラクター1200が自分の名前を覚えていく様子を再現するとよい。例えば、制御部70は「ユノ」という言葉にのみ反応して、「にゃ」という鳴き声を発するようにしてもよいし、「ユノ」、「餌だよ」という声掛けに反応して、甘えた行動をとるようにしたり、嬉しそうにすりすりしたりする映像を表示させるとよい。 The control unit 70 may further display an image in which the 3D character 1200 appears to beg for food after a period of time has elapsed. When the presence of the viewer is recognized by the imaging unit and the presence of the viewer is detected by the human sensor 64, the control unit 70 determines the time period (for example, morning, afternoon, evening) and It would be a good idea to make the dog make a "meow" sound and display a video of it rubbing its face. Further, the control unit 70 preferably reproduces a situation where the 3D character 1200 remembers its own name as the viewer calls out to the 3D character 1200. For example, the control unit 70 may respond only to the word "Yuno" and emit a cry "Nya", or may respond to calls such as "Yuno" and "It's bait" to make a sweet sound. It's a good idea to have them do something, or show them a video of them happily grinding.

(2)第二ステップ:言語(日本語)を覚えていく段階
制御部70は、あるときに「ユノ」という目視者の声掛けを認識した場合に、「何?」という応答を示す音声を出力する。ここからは、3Dキャラクター1200が言葉を覚えていくという段階となる。制御部70は、声掛された回数をカウントして、累計平均/日をとり、餌の与えた回数の累計平均/日×声掛された回数の累計平均×ランダム係数により算出される値(以下。「累積平均値」という)に応じた応答をする。この声掛けは、例えば、「おはよう」、「こんにちは」、「こんばんは」、「元気?」、「餌欲しい?」などの所定の声かけである。制御部70は、累計平均値に応じて、応答をしなくなったり(つまり、3Dキャラクター1200が言葉を忘れたことを再現したり)、応答する言葉を増加させたりする。例えば、制御部70は、累積平均値が小さいほど、応答する言葉を減少させ、累積平均値が大きいほど、応答する言葉を増加させるとよい。累積平均値は、表示装置1の使用開始時点から現在時点までに声掛けされた回数に基づいて算出されるが、現在時点から過去に所定期間遡った時点から現在時点までに声掛けされた回数に基づいて算出されてもよい。所定期間は、1か月など固定的に決められていてもよいし、表示装置1が一定期間使用されなかった場合は、その期間後使用が開始された時点以降の期間としてもよい。表示装置1の使用が開始された最初の頃は、累積平均値は大きく変化し得るので、例えば目視者が1日に1回も声を掛けない場合は、3Dキャラクター1200は応答しなくなることもあるが、声掛けの回数が増えるにしたがって、累積平均値は大きく変化しなくなる。このようにすれば、3Dキャラクター1200が言葉を忘れるのに時間が掛かる様子を再現することができる。累積平均値の算出に用いられるランダム係数は、猫の気まぐれさを再現するための値で、気まぐれ係数といってもよい。ランダム係数は、キャラクター1200が餌をおねだりしたときに餌を与える/与えない、3Dキャラクター1200が寝ているときに声を掛けたり、触ったりして起こす行動をとったりするなど、3Dキャラクター1200および目視者の行動によって変化させるとよい。
(2) Second step: stage of learning the language (Japanese) When the control unit 70 recognizes the viewer's voice saying "Yuno" at a certain time, it outputs a voice indicating the response "What?" Output. From this point on, the 3D character 1200 begins to learn words. The control unit 70 counts the number of times people have been called out, takes the cumulative average/day, and calculates the cumulative average/day of the number of times food has been given x the cumulative average of the number of times people have been called out x a random coefficient ( (hereinafter referred to as the "cumulative average value"). This greeting is, for example, a predetermined greeting such as "Good morning,""Hello,""Goodevening,""How are you?" and "Do you want food?" The control unit 70 may stop responding (that is, reproduce the fact that the 3D character 1200 has forgotten a word) or increase the number of words it responds to, depending on the cumulative average value. For example, the control unit 70 may reduce the number of words to be responded to as the cumulative average value is smaller, and increase the number of words to be responded to as the cumulative average value is larger. The cumulative average value is calculated based on the number of times the display device 1 has been called out from the start of use to the present time, and the number of times it has been called out from the time when a predetermined period of time has gone back from the current time point to the present time point. It may be calculated based on. The predetermined period may be fixed, such as one month, or if the display device 1 has not been used for a certain period of time, it may be a period after the point in time when the display device 1 is started to be used after that period. When the display device 1 is first used, the cumulative average value may change significantly, so if the viewer does not call out to the user even once a day, the 3D character 1200 may stop responding. However, as the number of calls increases, the cumulative average value does not change significantly. In this way, it is possible to reproduce the situation in which it takes time for the 3D character 1200 to forget words. The random coefficient used to calculate the cumulative average value is a value that reproduces the capriciousness of cats, and can be called a capricious coefficient. The random coefficient is determined by the 3D character 1200 and visual observation, such as giving or not giving food when the character 1200 begs for food, or taking actions to wake up the 3D character 1200 by calling or touching it when it is sleeping. It is good to change it depending on the behavior of the person.

制御部70は、さらに累計平均値が或る閾値を超えると、3Dキャラクター1200から目視者に話し掛けたり、天気、ニュース等の所定の情報に関する質問に対して応答したりするようにするとよい。もちろん、目視者が餌を与える回数を減らすと、累積平均値は減少するので、制御部70はこの応答の種類を減らしたり、応答しなくなったりする。つまり、目視者の餌の与え方がずさんであったり、適当に声掛けをしていないと、3Dキャラクター1200が応答する機能が維持さなかったり、維持していたとしても「気まぐれ」によって応答しない場合もある以上のようにして、目視者に対し、3Dキャラクター1200とのより質の高いコミュニケーション機能を提供することができる。 Further, when the cumulative average value exceeds a certain threshold, the control unit 70 may cause the 3D character 1200 to speak to the viewer or respond to a question regarding predetermined information such as the weather or news. Of course, if the viewer reduces the number of times the viewer feeds, the cumulative average value decreases, so the control unit 70 reduces the types of responses or does not respond at all. In other words, if the viewer is sloppy in feeding them or does not call out to them appropriately, the 3D character 1200 may not maintain the ability to respond, or even if it does, it may not respond due to a "whim". In some cases, as described above, it is possible to provide the viewer with a higher quality communication function with the 3D character 1200.

さらに以下のようにしてもよい。 Furthermore, the following may be used.

例えば、レンチキュラー方式のディスプレイでは、画像が立体的に見える位置から数センチ右または左に目の位置が移動しただけで画像が立体的に見えなくなることがある。この場合、目視者が「画像が立体的に見えない」と諦めてしまう虞がある。この点を考慮して、制御部70が、例えば人感センサ64の検知結果に基づいて、「私が2人に見えるときは、右にあと3センチ移動してみて」といった指示が出されるように制御してもよい。このようにすれば、立体的に見えないことによって飽きられてしまうことを抑制できる。なお、指示は、例えば、スピーカ62から音声出力されるとよい。また、指示を出すタイミングは、表示装置1の周辺に人が居ない状態から人が居る状態に遷移したことを人感センサ64が認識したタイミングとするとよい。また、指示を出すタイミングは、未登録の人物が認識されたタイミングとするとよく、定期的なタイミングであってもよい。 For example, in a lenticular display, the image may no longer appear three-dimensional if the eye position moves a few centimeters to the right or left from the position where the image appears three-dimensionally. In this case, there is a risk that the viewer may give up thinking that "the image does not look three-dimensional." Taking this into consideration, the control unit 70 issues an instruction such as "If you see two people, try moving 3 centimeters to the right" based on the detection results of the human sensor 64, for example. may be controlled. In this way, it is possible to prevent the user from getting bored with the image due to not being able to see it three-dimensionally. Note that the instructions may be output as audio from the speaker 62, for example. Further, the timing at which the instruction is issued may be the timing at which the human sensor 64 recognizes that there has been a transition from a state where there is no person around the display device 1 to a state where there is a person present. Further, the timing at which the instruction is issued may be the timing at which an unregistered person is recognized, or may be at regular timing.

また、例えば、表示装置1が、キャラクターの複数の部位のそれぞれの動作に関する物理演算を実行可能である場合、キャラクターの特定の部位(例えば胸部)が比較的小さいときには、当該特定の部位の動作に関する物理演算が実行されないようにするとよい。 For example, if the display device 1 is capable of performing physical calculations regarding the movements of each of a plurality of parts of the character, when a specific part of the character (for example, the chest) is relatively small, the display device 1 may It is best to prevent physical calculations from being performed.

また、キャラクターの身体にはモーションを付加する一方で、キャラクターの衣服にはモーションを付加せず、衣服をキャラクターの身体の動きに応じて物理演算で動かすように制御されるとよい。このようにすれば、物理演算における計算量を低減することができる。 Further, it is preferable to add motion to the character's body, but not to add motion to the character's clothes, and to control the clothes to move using physical calculations in accordance with the movement of the character's body. In this way, the amount of calculation in the physical calculation can be reduced.

また、例えば、制御部70が、音声認識中であるか否かを示すためのオブジェクトを画像表示部20に表示するとよい。例えば、画像表示部20において、ランプを模した画像が音声認識中のみにおいて点灯するように表示制御されるとよい。当該オブジェクトは、例えば、特定のキャラクターの背面側であって画像表示部20の表示領域の端部分に目立たないように(比較的目立たない明るさ、色、形、大きさなどで)表示されるとよい。 Further, for example, the control unit 70 may display an object on the image display unit 20 to indicate whether or not voice recognition is in progress. For example, the image display unit 20 may be display-controlled so that an image resembling a lamp lights up only during voice recognition. For example, the object is displayed inconspicuously (with relatively inconspicuous brightness, color, shape, size, etc.) at the edge of the display area of the image display unit 20 on the back side of a specific character. Good.

また、例えば、制御部70が、音声認識によって認識された語句(文章)を、特定のキャラクターのオブジェクトよりも目視者視点側(正面側)において、音声認識後から所定時間に亘って表示し、当該所定時間の経過後に非表示化するとよい(図29~図35参照)。そして、当該語句(音声認識結果)が非表示化されてからキャラクターが話し出すように制御されるとよい。 Further, for example, the control unit 70 displays the words (sentences) recognized by voice recognition for a predetermined period of time after the voice recognition, on the viewer's viewpoint side (front side) from the object of the specific character, It is preferable to hide the display after the predetermined time has elapsed (see FIGS. 29 to 35). Then, it is preferable that the character starts speaking after the phrase (speech recognition result) is hidden.

また、ステージ上にキャラクターが存在する三次元画像が表示される場合、制御部70が、相対的に奥行方向の長さが比較的小さいキャラクター(例えば、人型のキャラクター)は、ステージの中央ではなくステージの前方側に表示させ、その一方で、相対的に奥行方向の長さが比較的大きいキャラクター(例えば、猫のキャラクター)は、ステージの中央に表示させるとよい。また、例えば、人型のキャラクターが表示される場合は、ステージ自体の長さを強調する表示を行って奥行き感を出すように表示制御されるとよい。 Further, when a three-dimensional image in which a character exists on a stage is displayed, the control unit 70 may cause a character whose length in the depth direction is relatively small (for example, a humanoid character) to be placed in the center of the stage. On the other hand, characters with a relatively large length in the depth direction (for example, a cat character) may be displayed in the center of the stage. Further, for example, when a humanoid character is displayed, the display may be controlled to emphasize the length of the stage itself to create a sense of depth.

また、制御部70は、ステージの中央以外の位置(例えば、前方側の位置)にキャラクターの画像を表示させる場合において、キャラクターが回転する映像を表示するときには、ステージも当該キャラクターと同様に回転する映像を表示するとよい。 Furthermore, when displaying an image of a character at a position other than the center of the stage (for example, a position on the front side), the control unit 70 controls the stage to rotate in the same manner as the character when displaying an image in which the character rotates. It would be better to display the video.

また、奥行方向に比較的距離のある形状のステージを表示させ、そのようなステージの内側において当該ステージの外縁に沿ってキャラクターを移動させる映像(例えば、円形のステージの外縁に沿って猫のキャラクターが歩く映像)が表示されるとよい。 In addition, a video in which a stage with a shape that is relatively far away in the depth direction is displayed, and a character moves along the outer edge of the stage inside such a stage (for example, a cat character moves along the outer edge of a circular stage) It would be nice if a video of the person walking was displayed.

また、キャラクターに歩く動作をさせるときには、ステージ等(道路なども含む)を描画せず、キャラクターがその場で足踏みしてキャラクターの全体的な位置をほぼ動かさない映像が描画されるようにするとよい。そして、キャラクターが歩く動作以外の動作を行うときに、キャラクターの足元にステージ等が描画されるようにするとよい。 Also, when making a character walk, it is a good idea not to draw the stage etc. (including roads), but instead to draw an image where the character steps on the spot and does not move the character's overall position. . Then, when the character performs an action other than walking, a stage or the like may be drawn at the character's feet.

[変形例]
以上、本発明の実施例の一例について説明したが、本発明は、上記の実施例に限られるものではなく、様々な変更が可能である。例えば、次のような変形例が実施されてもよい。
[Modified example]
Although one example of the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various changes are possible. For example, the following modification may be implemented.

(1)例えば、上記の実施例に係る表示装置1において、さらに、複数(例えば、2つ)の減光部材30が着脱可能に設けられているとよい。このようにすれば、画像表示部20に表示される画像の明るさや浮遊感を、別途の調整部材を設けることなく調整することができる。 (1) For example, in the display device 1 according to the above embodiment, it is preferable that a plurality of (for example, two) light attenuation members 30 are further provided in a detachable manner. In this way, the brightness and floating feeling of the image displayed on the image display section 20 can be adjusted without providing a separate adjustment member.

(2)また、上記の実施例および各変形例に係る表示装置1において、筐体10の底面に対して傾斜配置された減光部材30(図6参照)に加えて、筐体10の底面に対して垂直配置された減光部材がさらに設けられてもよい。 (2) In addition, in the display device 1 according to the above embodiment and each modification, in addition to the light attenuation member 30 (see FIG. 6) arranged at an angle with respect to the bottom surface of the casing 10, the bottom surface of the casing 10 A light attenuation member arranged perpendicularly to the light beam may further be provided.

(3)また、上記の実施例では、ジェスチャーセンサ63(挙動検出センサの一例)が、筐体10の内周面において筐体10の内方側に向けて配置されている(図6参照)が、これに限定されない。例えば、ジェスチャーセンサ63(詳細には、ジェスチャーセンサ63の検出面)が、開口部5の上部において斜め前方且つ下方に向けて配置されてもよい。このようにすれば、目視者によるジェスチャーが開口部5の外側で行われた場合であっても、当該ジェスチャーを検出することができる。 (3) Furthermore, in the above embodiment, the gesture sensor 63 (an example of a behavior detection sensor) is arranged on the inner peripheral surface of the housing 10 toward the inside of the housing 10 (see FIG. 6). However, it is not limited to this. For example, the gesture sensor 63 (specifically, the detection surface of the gesture sensor 63) may be arranged in the upper part of the opening 5 facing diagonally forward and downward. In this way, even if the gesture by the viewer is performed outside the opening 5, the gesture can be detected.

(4)また、例えば、上記の実施例および各変形例に係る表示装置1において、さらに、透過率(あるいは透過度)を調整可能な透過ディスプレイが設けられてもよい。当該透過ディスプレイは、例えば、筐体10の内部空間100において減光部材30よりも正面側(前方側)に設けられるとよい。特に、当該透過ディスプレイが、減光部材30と同様にして傾斜配置されるとよい。 (4) Furthermore, for example, in the display device 1 according to the above embodiment and each modification example, a transmissive display whose transmittance (or transparency) can be adjusted may be further provided. The transmissive display is preferably provided, for example, on the front side (front side) of the light attenuation member 30 in the internal space 100 of the housing 10. In particular, it is preferable that the transmissive display is arranged at an angle in the same manner as the light attenuation member 30.

あるいは、当該透過ディスプレイに代えて、透過率(あるいは透過度)を調整可能なフィルムが設けられてもよい。このようにすれば、立体視表示されるキャラクターが徐々に見え始めるような演出を行うことができる。 Alternatively, a film whose transmittance (or transparency) can be adjusted may be provided in place of the transmissive display. In this way, it is possible to create an effect in which the stereoscopically displayed character gradually begins to appear.

(5)また、上記の実施例および各変形例に係る表示装置1において、さらに、目視者の顔を嵌め込むことが可能なパネル(所謂、顔はめパネル)が開口部5付近に設けられていてもよい。当該パネルは、裸眼立体視可能な位置に設置されているとよい。また、当該パネルにおける筐体10側に絵を描画しておき、目視者が自身の顔を当該パネルに嵌めている状態で目視者の顔が撮影されるようにしてもよい。そして、その撮影画像が、「私を見ているときのあなた」としてSNS(ソーシャル・ネットワーキング・サービス)にアップロードされる仕組みとするとよい。 (5) Furthermore, in the display device 1 according to the above-described embodiment and each modification, a panel (so-called face-fitting panel) into which the viewer's face can be fitted is further provided near the opening 5. It's okay. The panel is preferably installed at a position that allows stereoscopic viewing with the naked eye. Alternatively, a picture may be drawn on the panel on the casing 10 side, and the viewer's face may be photographed with the viewer's face fitted on the panel. Then, the photographed image may be uploaded to an SNS (social networking service) as ``you looking at me''.

(6)また、片目を閉じて明瞭に(くっきり、ともいう)映像が見える位置に頭を左右に動かし、片目を閉じて明瞭に映像が見える位置で両目を開けるように指示を出力する裸眼立体視表示装置とするとよい。さらに、片目を閉じて明瞭に映像が見える位置で両目を開けた際に映像が2重に見える場合には、再度片目を閉じて更に左右いずれかに移動して、明瞭に映像が見える位置で両目を開けるように指示を出力する裸眼立体視表示装置とするとよい。 (6) An autostereoscopic system that outputs instructions to close one eye and move your head left and right to a position where you can see a clear image, and to open both eyes when you close one eye and see a clear image. It is preferable to use it as a visual display device. Furthermore, if you see double images when you open both eyes from a position where you can clearly see the image with one eye closed, close one eye again and move further to the left or right to find a position where you can clearly see the image. It is preferable to use an autostereoscopic display device that outputs an instruction to open both eyes.

(7)また、上記の実施例および各変形例に係る表示装置1とともに、当該表示装置1で音声認識可能な語句を印刷した印刷物を同梱したシステムとするとよい。さらに、当該表示装置1とともに、当該表示装置1で音声認識可能な語句を印刷した印刷物を、表示装置1の近傍に設置可能としたシステムとするとよい。 (7) Furthermore, it is preferable that the display device 1 according to the above-described embodiment and each modification be packaged with a printed matter on which words and phrases that can be voice recognized by the display device 1 are included. Furthermore, it is preferable to provide a system in which printed matter on which words and phrases that can be voice recognized by the display device 1 are printed can be installed in the vicinity of the display device 1 together with the display device 1.

(8)また、音声認識装置が内蔵されており且つ特定方向(例えば、正面方向)に音声の指向性を有する表示装置1を備え、その特定方向とは逆向きに同一の表示装置を配置することを特徴とするシステムとするとよい。例えば、2台の表示装置1のそれぞれの開口部5が互いに反対向きとなるように当該2台の表示装置1が配置されるとよい。このようにすれば、例えば、一方の表示装置1(詳細には、表示装置1のマイク61)において、他方の表示装置1を利用している人物の音声や他方の表示装置1のスピーカ62から出力された音声が入力されてしまうこと、を回避することができる。 (8) Also, the display device 1 has a built-in voice recognition device and has sound directionality in a specific direction (for example, the front direction), and the same display device is arranged in the opposite direction to the specific direction. It would be good to have a system that is characterized by this. For example, the two display devices 1 may be arranged such that the respective openings 5 of the two display devices 1 face oppositely to each other. In this way, for example, one display device 1 (specifically, the microphone 61 of the display device 1) can hear the voice of the person using the other display device 1 or the speaker 62 of the other display device 1. It is possible to avoid outputted audio from being inputted.

(9)また、画像表示部20の表示方式としては、レンチキュラーレンズ方式、パララックスバリア方式などの裸眼立体視方式とするほか、眼鏡を用いて三次元の映像として認識できる表示方式などでもよい。表示装置1の筐体は、直方体形状、立方体形状、円筒形状、その他の多面体形状、球状その他の形状でもよい。また、上述した表示装置1の各構成要素の形状、構造、寸法、色、模様、配置等は一例に過ぎない。また、上述した表示装置1が備える構成要素の一部が省かれてもよいし、別の構成要素が追加されてもよい。表示装置1は据え置き型の表示装置とすることが考えられるが、携帯型あるいは目視者の頭部に装着可能に構成された頭部装着型、眼鏡型などとすることも考えられる。かかる場合に、減光部材としては、目視者の左目で見る画像の画像光と右目で見る画像の画像光との光路上に共通の(単一の)減光部材が配置されるようにするとよい。開口部5は、正面側から見て正方形状でなくてもよく、円形状その他の形状に形成されていてもよい。画像表示部20は、表示素子として有機ELやデジタルミラーデバイスその他の表示素子を用いた画像表示部であってもよい。画像表示部20がバックライト以外の光源を有する表示装置であっても、光源からの光の漏れが視認される可能性があれば、減光部材の存在により、目視者に与えることができる浮遊感を向上させることができる。 (9) The display method of the image display unit 20 may be an autostereoscopic method such as a lenticular lens method or a parallax barrier method, or a display method that can be recognized as a three-dimensional image using glasses. The housing of the display device 1 may have a rectangular parallelepiped shape, a cubic shape, a cylindrical shape, another polyhedral shape, a spherical shape, or other shapes. Moreover, the shape, structure, size, color, pattern, arrangement, etc. of each component of the display device 1 described above are only examples. Further, some of the components included in the display device 1 described above may be omitted, or other components may be added. The display device 1 may be a stationary display device, but it may also be a portable type, a head-mounted type that can be mounted on the viewer's head, a glasses type, or the like. In such a case, as the light attenuation member, a common (single) light attenuation member is arranged on the optical path of the image light of the image seen by the viewer's left eye and the image light of the image seen by the right eye of the viewer. good. The opening 5 does not have to be square when viewed from the front side, and may be formed in a circular or other shape. The image display section 20 may be an image display section using an organic EL, digital mirror device, or other display element as a display element. Even if the image display unit 20 is a display device having a light source other than a backlight, if there is a possibility that light leakage from the light source is visible, the presence of a light reduction member may reduce the floating light that can be given to the viewer. It can improve the feeling.

(10)表示装置1は、画像表示部20以外の1または複数の画像表示部を有してもよい。例えば、第2の画像表示部として、内部空間100の床の全体または一部に、表示面が上方(例えば、鉛直上方向)を向くように配置された表示部が設けられてもよい。第2の画像表示部は、例えば液晶ディスプレイであるが、他方式の表示部でもよい。制御部70が、画像表示部20以外の1または複数の画像表示部の表示を制御するとよい。この場合に、第2の画像表示部にステージ映像が表示され、画像表示部20に3Dキャラクターがされてもよい。このようにすれば、内部空間100の床に画像を用いた演出を行うことができる。また、第2の画像表示部に代えて、発光体(例えば発光ダイオード)と、導光部材と、遮光部材とを用いて床の演出が行われてもよい。この場合、内部空間100の床に導光部材を配置しておき、導光部材の上には所定の模様(例えば魔法陣)に応じた遮光部材が配置される。導光部材に発光体の光を入射すると、導光部材の上面のうち遮光部材が配置されていない領域から光が上方に出射し、目視者はこれを見ることができる。 (10) The display device 1 may have one or more image display sections other than the image display section 20. For example, as the second image display section, a display section may be provided on the entire or part of the floor of the internal space 100, with the display surface facing upward (for example, vertically upward). The second image display section is, for example, a liquid crystal display, but may be a display section of another type. It is preferable that the control unit 70 controls the display of one or more image display units other than the image display unit 20. In this case, a stage image may be displayed on the second image display section, and a 3D character may be displayed on the image display section 20. In this way, it is possible to create an effect using an image on the floor of the interior space 100. Furthermore, instead of the second image display section, a light emitter (for example, a light emitting diode), a light guide member, and a light shielding member may be used to create a floor effect. In this case, a light guide member is placed on the floor of the internal space 100, and a light shielding member corresponding to a predetermined pattern (for example, a magic circle) is placed on the light guide member. When the light from the light emitting body is incident on the light guide member, the light is emitted upward from a region of the upper surface of the light guide member where the light shielding member is not arranged, and a viewer can see this.

(11)上記の実施例では、操作部41の押下操作に応じて、画像表示部20に表示されたキャラクターとの対話を行うための音声認識が有効化されているが、これに限定されない。例えば、全周マイクロ波ドップラーセンサなどの人感センサ(検知手段の一例)の検知対象領域において人の存在が検知されると、統括制御部73は、当該音声認識を有効化するようにしてもよい。このようにすれば、ユーザが、画像表示部20に表示されたキャラクターと対話するにあたって、例えば音声認識を有効化するための操作を行う必要やトリガーワードを発声する必要がなく、より自然にコミュニケーションを再現することができる。 (11) In the above embodiment, voice recognition for interacting with the character displayed on the image display unit 20 is enabled in response to a pressing operation on the operation unit 41, but the present invention is not limited to this. For example, when the presence of a person is detected in the detection target area of a human sensor (an example of a detection means) such as a full-frequency microwave Doppler sensor, the central control unit 73 may enable the voice recognition. good. In this way, when the user interacts with the character displayed on the image display section 20, there is no need for the user to perform an operation to enable voice recognition or to utter a trigger word, for example, and the user can communicate more naturally. can be reproduced.

この際、例えば、表示装置1内の音声認識アプリケーションでの音声認識と音声認識サーバでの音声認識との双方が有効化されるとよい。ただし、次述するように、表示装置1内の音声認識アプリケーションでの音声認識の有効化と音声認識サーバでの音声認識の有効化とが、段階的に実行されてもよい。例えば、当該人感センサ等の検知対象領域において人の存在が検知されると、表示装置1内の音声認識アプリケーションでの音声認識が有効化され、その後、目視者による声掛けや挨拶が当該音声認識アプリケーションによって検出されると、音声認識サーバでの音声認識が有効化されるようにしてもよい。 At this time, for example, it is preferable that both the voice recognition by the voice recognition application in the display device 1 and the voice recognition by the voice recognition server be enabled. However, as described below, the activation of voice recognition in the voice recognition application in the display device 1 and the validation of voice recognition in the voice recognition server may be performed in stages. For example, when the presence of a person is detected in the detection target area of the human sensor, etc., voice recognition in the voice recognition application in the display device 1 is enabled, and the viewer can then call out or greet the person using the voice. Once detected by the recognition application, speech recognition at the speech recognition server may be enabled.

また、表示装置1がカメラ等の撮影部(検知手段の一例)を備えている場合、表示装置1の正面側(開口部5側)に検知対象空間が設けられ、統括制御部73は、表示装置1の正面側において人の存在が検知されると、音声認識を有効化するようにしてもよい。このようにすれば、画像表示部20に表示されたキャラクターに対して目視者が話しかけようとしていることをより確実に判断した上で、音声認識を有効化することができる。 Further, when the display device 1 is equipped with a photographing unit such as a camera (an example of a detection means), a detection target space is provided on the front side (opening 5 side) of the display device 1, and the overall control unit 73 controls the display When the presence of a person is detected in front of the device 1, voice recognition may be enabled. In this way, voice recognition can be enabled after more reliably determining that the viewer is trying to talk to the character displayed on the image display section 20.

さらには、検知対象領域において人が検知された後において、ユーザ認証が成功したことを条件に、統括制御部73は、当該音声認識を有効化するように構成されているとよい。なお、ユーザ認証の認証手法は、例えば、ユーザの手操作を要しない認証手法(顔認証、声帯認証等)とするとよい。このようにすれば、例えば表示装置1に登録された登録ユーザ以外の人に対してユーザ認証が行われて当該ユーザ認証が失敗したときには、音声認識が有効化されず、画像表示部20に表示されたキャラクターと対話することができない。逆に言えば、登録ユーザ以外の人に対しては、画像表示部20に表示されたキャラクターが反応を示さない。これにより、当該キャラクターへのユーザの愛着を増大させることができる。 Furthermore, after a person is detected in the detection target area, the overall control unit 73 may be configured to enable the voice recognition on condition that user authentication is successful. Note that the authentication method for user authentication may be, for example, an authentication method that does not require manual operation by the user (face authentication, vocal cord authentication, etc.). In this way, for example, when user authentication is performed for a person other than the registered user registered in the display device 1 and the user authentication fails, voice recognition is not enabled and the image display unit 20 displays the It is not possible to interact with the characters that are displayed. Conversely, the character displayed on the image display section 20 does not show any reaction to people other than registered users. Thereby, the user's attachment to the character can be increased.

また、表示装置1あるいは外部サーバに搭載された対話サーバに予め登録された文言以外の文言の音声が検出された場合は、音声認識が有効化されないようにしてもよい。 Further, if the voice of a phrase other than the phrase registered in advance in the dialogue server installed in the display device 1 or an external server is detected, voice recognition may not be enabled.

また、音声認識を有効化するための手段として、においセンサが用いられてもよい。例えば、表示装置1の登録ユーザのにおいを予め表示装置1に登録しておき、登録ユーザのにおいがにおいセンサによって検知されると、音声認識が有効化されるようにしてもよい。 Further, a scent sensor may be used as a means for validating voice recognition. For example, the odor of the registered user of the display device 1 may be registered in the display device 1 in advance, and when the odor of the registered user is detected by the odor sensor, voice recognition may be enabled.

また、これらのようにして音声認識が有効化されたとしても、例えば、画像表示部20に表示されたキャラクター(例えば、3Dキャラクター1100)の音声が直ちに出力されるのではなく、ユーザからの声掛けが無ければ当該キャラクターの音声が出力されないようにするとよい。例えば、統括制御部73は、音声認識が有効化されたことに応答して「おかえり」とのキャラクター音声を直ちに出力するのではなく、音声認識が有効化された状態で「ただいま」とのユーザ音声が検出されたことを条件に、「おかえり」とのキャラクター音声を出力するとよい。さらには、例えば、対話システムにおいて、目視者とキャラクター(例えば3Dキャラクター1100)との間で次のような対話を再現するための分岐シナリオが作成されているとよい。例えば、平日であれば、
ユーザ:ただいま
キャラクター:お帰り~
ユーザ:アッチー
キャラクター:暑い中お疲れでした
のような対話が再現され、休日であれば、
ユーザ:ただいま
キャラクター:あーお帰り
ユーザ:アッチー
キャラクター:暑い中わざわざ出かけたんだから文句言わない
ユーザ:仕事だよ仕事
キャラクター:ホントだったらごめん、お疲れ様でした
のような対話が再現されるように分岐シナリオが作成されているとよい。
Further, even if voice recognition is enabled in this way, for example, the voice of the character displayed on the image display unit 20 (for example, the 3D character 1100) is not immediately output, but the voice from the user is output. If there is no overlay, it is recommended that the voice of the character is not output. For example, the general control unit 73 does not immediately output the character voice "Welcome back" in response to voice recognition being enabled, but instead outputs a character voice saying "I'm home" to the user while voice recognition is enabled. It is preferable to output a character voice saying "Welcome back" on condition that the voice is detected. Furthermore, for example, in the dialogue system, a branching scenario may be created for reproducing the following dialogue between the viewer and the character (for example, the 3D character 1100). For example, if it's a weekday,
User: Now Character: Welcome home~
User: Atchi Character: Dialogue like ``Thank you for your hard work in the heat'' is reproduced, and if it is a holiday,
User: I'm home Character: Ah, welcome back User: Atchi Character: I won't complain because I went out in the heat User: It's work Work Character: Sorry if it's true, thank you for your hard work A branching scenario that reproduces the dialogue. It would be good if it had been created.

また、においセンサによる検知結果に応じた分岐シナリオが作成されていてもよい。例えば、
ユーザ:ごはん美味しくできたよー
キャラクター:「えー、嗅がせて。クンクン。いいにおい!」あるいは「んんー!?塩分多くない?身体に気を付けてね!」
のような対話が再現されるようにしてもよい。
Further, a branching scenario may be created according to the detection result by the odor sensor. for example,
User: The food was delicious!Character: "Hmm, let me smell it. Smells good!" Or "Hmm!? Isn't there a lot of salt? Be careful of yourself!"
A dialogue such as this may be reproduced.

また、他の例として、においセンサによってにおいが検知されると、
キャラクター:クンクン、ん?このにおいはなんだ?
ユーザ:アロマ焚いたんだ
キャラクター:ああ、どうりでリラックスすると思った
のような対話が再現されるようにしてもよい。なお、においの種類の質問に対する目視者の返答内容が分岐シナリオに登録されていない場合、例えば「ほぉー、そうなんだー!」などの音声がキャラクター音声として一律に出力されるとよい。
In addition, as another example, when an odor is detected by an odor sensor,
Character: Kunkun, huh? What is this smell?
User: I burned the aroma.Character: Oh, I thought it would be relaxing, so the dialogue could be reproduced. Note that if the content of the viewer's response to the odor type question is not registered in the branching scenario, it is preferable that a voice such as "Oh, that's right!" is uniformly output as the character voice, for example.

(12)また、統括制御部73は、例えば直近の所定時間(例えば、15秒程度)の音声を常時録音しておき、音声認識を有効化するためのトリガーワードの音声が検出されると、当該音声認識を有効化するようにしてもよい。例えば、表示装置1の音声認識アプリケーションは常時(あるいは、、操作部41の押下操作等に応じて)有効化され、音声認識サーバによる音声認識は、トリガーワードの検出によって有効化されるとよい。そして、この際、統括制御部73(詳細には、通信制御回路706)は、マイク61(音声検出手段の一例)によって検出された検出音声(例えば、検出開始時点から検出終了時点までの間に検出された音声)から当該トリガーワードの音声を除いた音声の音声データを、音声認識サーバに送信するとよい。例えば、「明日東京に行くんだけどレイたん天気教えて」とのユーザ音声が検出されたことを想定する。なお、ここでは、3Dキャラクター1100の愛称である「レイたん」がトリガーワードである。この場合、統括制御部73は、検出音声「明日東京に行くんだけどレイたん天気教えて」からトリガーワードの音声「レイたん」を除いた音声「明日東京に行くんだけどレイたん天気教えて」を音声認識サーバに送信する。 (12) Also, the general control unit 73 constantly records the voice for the most recent predetermined time (for example, about 15 seconds), and when the voice of the trigger word for enabling voice recognition is detected, The voice recognition may be enabled. For example, the voice recognition application of the display device 1 may be enabled at all times (or in response to a press operation on the operation unit 41, etc.), and the voice recognition by the voice recognition server may be enabled upon detection of a trigger word. At this time, the overall control unit 73 (specifically, the communication control circuit 706) controls the detection voice detected by the microphone 61 (an example of voice detection means) (for example, between the detection start time and the detection end time). The voice data obtained by removing the voice of the trigger word from the detected voice may be sent to the voice recognition server. For example, assume that a user's voice saying "I'm going to Tokyo tomorrow, please tell me the weather" is detected. Note that the trigger word here is "Rei-tan", which is the nickname of the 3D character 1100. In this case, the general control unit 73 generates the voice ``I'm going to Tokyo tomorrow, Ray-tan, please tell me the weather'' which is the voice obtained by removing the trigger word voice ``Rei-tan'' from the detected voice ``I'm going to Tokyo tomorrow, Ray-tan, please tell me the weather.'' to the speech recognition server.

ここで、例えば上記のような検出音声「明日東京に行くんだけどレイたん天気教えて」がそのまま音声認識サーバに送信されると、音声認識結果の中に「レイたん」が含まれていることに起因して、対話サーバにおいて音声認識結果に対応するキャラクター音声が正確に抽出されず、ユーザとの対話が噛み合わなくなる虞がある。これに対して、上記のようにすれば、一文の途中でトリガーワードが発声された場合であっても、トリガーワードを除く音声の音声データが音声認識サーバに送信される。したがって、一文の途中にトリガーワードが含まれた状態で音声認識が行われたことに起因してユーザとの対話が噛み合わなくなること、を抑制できる。 For example, if the above detected voice ``I'm going to Tokyo tomorrow, Rei-tan, please tell me the weather'' is sent as is to the voice recognition server, ``Rei-tan'' will be included in the voice recognition result. Due to this, the dialogue server may not be able to accurately extract the character voice corresponding to the voice recognition result, and there is a risk that the dialogue with the user will not work properly. In contrast, with the above method, even if the trigger word is uttered in the middle of a sentence, the voice data of the voice excluding the trigger word is transmitted to the voice recognition server. Therefore, it is possible to prevent dialogue with the user from becoming inconsistent due to voice recognition being performed with a trigger word included in the middle of a sentence.

(13)また、ユーザと画像表示部20に表示されたキャラクターとの対話を音声認識サーバとの連携によって再現するにあたって、音声認識サーバの構成に応じて、次述のような動作が実行されてもよい。 (13) In addition, when reproducing the interaction between the user and the character displayed on the image display unit 20 in cooperation with the voice recognition server, the following operations may be performed depending on the configuration of the voice recognition server. Good too.

例えば、音声認識サーバが、音声データファイルの受信が完了してから音声認識処理を開始するように構成されている場合、統括制御部73は、マイク61による検出音声のうち、トリガーワードの前後の音声の各音声データファイルを個別に音声認識サーバへと送信するとよい。例えば、検出開始時点から検出終了時点までの間の検出音声のうち、トリガーワードの音声よりも前に検出されたユーザ音声(前半部分のユーザ音声ともいう)の音声データファイルが、トリガーワードの音声よりも後に検出されたユーザ音声(後半部分のユーザ音声ともいう)の音声データファイルに先行して音声認識サーバに送信されるとよい。 For example, if the voice recognition server is configured to start the voice recognition process after the reception of the voice data file is completed, the general control unit 73 controls the voice recognition before and after the trigger word in the voice detected by the microphone 61. Preferably, each audio data file of the audio is sent individually to the speech recognition server. For example, among the detected voices from the detection start time to the detection end time, the voice data file of the user voice detected before the trigger word voice (also referred to as the first half of the user voice) is the voice of the trigger word. It is preferable that the audio data file of the user's voice detected later (also referred to as the latter part of the user's voice) is transmitted to the voice recognition server prior to the voice data file.

このようにすれば、音声認識サーバにおいて、前半部分のユーザ音声に対する音声認識処理が、後半部分のユーザ音声の音声データファイルの受信完了を待たずに開始される。そのため、前半部分のユーザ音声と後半部分のユーザ音声とをまとめた音声の音声データファイルを音声認識サーバに送信する場合と比較して、音声認識処理を効率的に行うことができる。その結果、表示装置1は、対話サーバからのキャラクター音声をより早期に受信することができ、ユーザの音声に対して応答されるまでのユーザの待機時間を短縮できる。 In this way, in the voice recognition server, the voice recognition process for the first half of the user's voice is started without waiting for the completion of reception of the voice data file of the second half of the user's voice. Therefore, the voice recognition process can be performed more efficiently than when a voice data file containing the first half of the user's voice and the second half of the user's voice is sent to the voice recognition server. As a result, the display device 1 can receive the character voice from the dialogue server earlier, and can shorten the user's waiting time until a response to the user's voice is received.

また、例えば、音声認識サーバが、表示装置1からの音声データをストリーム再生して音声認識処理をリアルタイムで実行するように構成されている場合、前半部分の音声データがリアルタイムで音声認識サーバに送信される際に、前半部分のユーザ音声の再生速度T1が標準再生速度T0より速く(T1>T0)なるように制御されるとよい。例えば、統括制御部73は、音声認識サーバにおいて当該前半部分のユーザ音声が標準再生速度T0に対して25%速く再生されるように設定変更して当該前半部分の音声データを送信する。このようにすれば、音声認識サーバにおいて、前半部分のユーザ音声が標準再生速度T0で再生される場合と比較して、前半部分のユーザ音声に対する音声認識処理をより早期に終了させることができ、後半部分のユーザ音声に対する音声認識処理をより早期に開始することができる。その結果、表示装置1は、対話サーバからのキャラクター音声をより早期に受信することができ、ユーザの音声に対して応答されるまでのユーザの待機時間を短縮できる。 Furthermore, for example, if the voice recognition server is configured to stream playback voice data from the display device 1 and execute voice recognition processing in real time, the first half of the voice data is sent to the voice recognition server in real time. When the playback speed T1 of the first half of the user's voice is played is preferably controlled to be faster than the standard playback speed T0 (T1>T0). For example, the overall control unit 73 changes the settings so that the first half of the user's voice is played back 25% faster than the standard playback speed T0 in the voice recognition server, and transmits the first half of the audio data. In this way, the speech recognition server can finish the speech recognition process for the first half of the user's voice earlier than when the first half of the user's voice is played back at the standard playback speed T0, Speech recognition processing for the latter half of the user's voice can be started earlier. As a result, the display device 1 can receive the character voice from the dialogue server earlier, and can shorten the user's waiting time until a response to the user's voice is received.

さらに、後半部分のユーザ音声の音声データがリアルタイムで音声認識サーバに送信される際に、後半部分の音声の再生速度T2が標準再生速度T0よりも速く且つ前半部分のユーザ音声の再生速度T1よりも遅くなる(つまり、T0<T2<T1の関係を満たす)ように制御されるとよい。例えば、統括制御部73は、音声認識サーバにおいて後半部分のユーザ音声が標準再生速度T0に対して10%速く再生されるように設定変更して当該後半部分の音声データを送信する。このようにすれば、前半部分のユーザ音声と後半部分のユーザ音声との双方が標準再生速度T0よりも速くストリーム再生されて、音声認識サーバにおいて音声認識処理が実行される。その結果、ユーザの音声に対して応答されるまでのユーザの待機時間を更に短縮できる。他方で、後半部分のユーザ音声は、標準再生速度T0よりは速いものの、前半部分のユーザ音声の再生速度T1よりは遅い速度で再生される。そのため、音声認識システムにおける音声認識精度の低下を抑制できる。したがって、音声認識精度の低下を抑制しつつ、ユーザの待機時間をより短縮することができる。 Furthermore, when the audio data of the user's voice in the second half is transmitted to the speech recognition server in real time, the playback speed T2 of the voice in the second half is faster than the standard playback speed T0 and faster than the playback speed T1 of the user's voice in the first half. It is preferable that the control is performed so that the timing is also slow (that is, the relationship T0<T2<T1 is satisfied). For example, the overall control unit 73 changes the settings so that the second half of the user's voice is played back 10% faster than the standard playback speed T0 on the voice recognition server, and transmits the second half of the audio data. In this way, both the first half of the user's voice and the second half of the user's voice are stream-played faster than the standard playback speed T0, and the voice recognition server executes the voice recognition process. As a result, the user's waiting time until a response to the user's voice is received can be further shortened. On the other hand, the user voice in the second half is played back at a speed faster than the standard playback speed T0 but slower than the playback speed T1 of the user voice in the first half. Therefore, it is possible to suppress a decrease in speech recognition accuracy in the speech recognition system. Therefore, the user's waiting time can be further shortened while suppressing a decrease in speech recognition accuracy.

なお、音声認識サーバにおいて、音声データのストリーム再生による音声認識処理がリアルタイムで実行される場合、例えば、マイク61によって検出されたユーザ音声がリアルタイムで音声認識サーバへと送信されるものの、トリガーワードの音声が検出されるまでは音声認識サーバでの音声認識が開始されないように制御されるとよい。 Note that when the voice recognition server performs voice recognition processing in real time by playing back a stream of voice data, for example, the user's voice detected by the microphone 61 is transmitted to the voice recognition server in real time, but the trigger word is It is preferable that the speech recognition server is controlled not to start speech recognition until speech is detected.

[その他の拡張例等]
上述の実施例および各変形例は例示であり、上記の実施例および各変形例で示した構成の部分的な置換または組み合わせが可能であることは言うまでもなく、また、上記の実施例および各変形例に記載の各構成要素は、任意に組み合わせるとよい。例えば、制御部70は、上記の実施例および各変形例のうちのいずれか一の処理と他の処理とを並行して(例えばマルチタスク等で)実行するようにしてもよい。
[Other expansion examples, etc.]
The above-mentioned embodiments and each modification are merely examples, and it goes without saying that partial substitution or combination of the configurations shown in the above-mentioned embodiment and each modification is possible. Each component described in the example may be combined arbitrarily. For example, the control unit 70 may execute the process of any one of the above-described embodiments and modifications and other processes in parallel (for example, by multitasking).

また、課題を解決する手段に記載の発明や各構成要素を、上記の実施例および各変形例の各構成要素の組み合わせにさらに適用してもよい。複数の実施例および複数の変形例の同様の構成による同様の作用効果については実施例および変形例ごとには逐次言及しない。さらに、本発明は上述の実施例に制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。 Further, the invention and each component described in the means for solving the problems may be further applied to a combination of each component of the above embodiment and each modification. Similar effects due to similar configurations of a plurality of embodiments and a plurality of modifications will not be mentioned for each embodiment and modification. Furthermore, the invention is not limited to the embodiments described above. For example, it will be obvious to those skilled in the art that various changes, improvements, combinations, etc. are possible.

1 表示装置
5 開口部
10 筐体
11 筐体の本体部
12 上面カバー部
20 画像表示部
30 減光部材
40 操作部
61 マイク
62 スピーカ
63 ジェスチャーセンサ
64 人感センサ
1 Display device 5 Opening part 10 Housing 11 Main body part 12 of the housing Top cover part 20 Image display part 30 Light reduction member 40 Operation part 61 Microphone 62 Speaker 63 Gesture sensor 64 Human sensor

Claims (23)

画像を表示する表示装置であって、
遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
前記内部空間に配置された画像表示部と、
前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
を備える表示装置。
A display device that displays an image,
a casing provided with an opening for viewing the image in a first direction in a light-shielded interior space;
an image display section arranged in the internal space;
a light reduction member disposed closer to the first direction than the image display unit and spaced apart from the image display unit;
A display device comprising:
前記減光部材は、前記開口部と前記画像表示部との間に配置される
請求項1に記載の表示装置。
The display device according to claim 1, wherein the light attenuation member is arranged between the opening and the image display section.
前記減光部材の前記第1方向側の面は、前記画像表示部の表示面に対して傾斜している
請求項2に記載の表示装置。
The display device according to claim 2, wherein a surface of the light attenuation member on the first direction side is inclined with respect to a display surface of the image display section.
前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示する
請求項3に記載の表示装置。
The display device according to claim 3, wherein the image display unit displays a first image that is recognized to be at least partially located closer to the opening than the light attenuation member, as the image recognized as a three-dimensional image. .
前記画像表示部は、三次元画像として認識される画像として、前記第1の画像と、前記第1の画像よりも前記第1方向側または前記第1方向側とは反対の第2方向側に存在すると認識される第2の画像とを含む複数の画像のいずれかを選択的に表示する
請求項4に記載の表示装置。
The image display unit displays an image that is recognized as a three-dimensional image, which is located closer to the first direction than the first image or to a second direction opposite to the first direction. The display device according to claim 4, wherein the display device selectively displays any one of a plurality of images including the second image recognized as existing.
前記筐体に設けられた音声出力部をさらに有し、
前記音声出力部は、前記筐体の前記内部空間に面する第1面のうち、前記減光部材よりも前記第1方向側で、かつ前記開口部との距離よりも前記減光部材との距離が小さい位置に設けられる
請求項2~請求項5のいずれか1項に記載の表示装置。
further comprising an audio output section provided in the housing,
The audio output section is located on the first side of the first surface of the housing facing the internal space, and is closer to the light attenuation member than the opening. The display device according to any one of claims 2 to 5, wherein the display device is provided at a position with a short distance.
前記開口部の上端部は、前記画像表示部の表示面の上端部よりもさらに上方に設けられており、
前記内部空間の上面は、前記開口部の上端部から前記表示面の上端部へと向かうに従って下方に傾斜している
請求項1~請求項6のいずれか1項に記載の表示装置。
The upper end of the opening is provided further above the upper end of the display surface of the image display section,
The display device according to any one of claims 1 to 6, wherein the upper surface of the internal space is sloped downward from the upper end of the opening toward the upper end of the display surface.
前記画像表示部は、光源と、前記光源からの光を変調して画像を表示する表示体とを有する
請求項1~請求項7のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 7, wherein the image display section includes a light source and a display body that modulates light from the light source to display an image.
前記開口部の上端部は、前記開口部の下端部よりも前記第1方向側に突出している
請求項1~請求項7のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 7, wherein an upper end of the opening projects further in the first direction than a lower end of the opening.
前記筐体は、前記筐体の上面にカバー部を有するとともに、前記カバー部と前記筐体の内周面のうちの上面との間に収容空間を有し、
前記表示装置に関する制御部は、前記収容空間に配置される
請求項1~請求項9のいずれか1項に記載の表示装置。
The casing has a cover portion on an upper surface of the casing, and has an accommodation space between the cover portion and an upper surface of an inner circumferential surface of the casing,
The display device according to any one of claims 1 to 9, wherein a control unit related to the display device is arranged in the accommodation space.
前記筐体の前記内部空間よりも下方に設けられた電源部を備え、
前記電源部と前記制御部とを電気的に接続する接続コードは、前記筐体の外周壁と前記内部空間との間に確保された隙間領域を通るように配線される
請求項10に記載の表示装置。
comprising a power supply section provided below the internal space of the casing,
The connection cord that electrically connects the power supply section and the control section is wired so as to pass through a gap area secured between the outer peripheral wall of the casing and the internal space. Display device.
前記カバー部は、複数の取付位置で前記筐体の本体部に対して取り付けられるとともに、
前記カバー部と前記本体部とは、
前記複数の取付位置のうち前記第1方向側の第1の取付位置では、前記筐体の外周壁よりも内側の位置において第1の固定具を用いて結合され、
前記表示装置の第1の取付位置よりも前記第1方向とは反対側の第2方向側の第2の取付位置では、前記筐体の外周壁の外側から第2の固定具を用いて結合される
請求項10または請求項11に記載の表示装置。
The cover portion is attached to the main body portion of the casing at a plurality of attachment positions, and
The cover part and the main body part are
A first mounting position on the first direction side among the plurality of mounting positions is connected using a first fixture at a position inside the outer peripheral wall of the casing,
At a second mounting position on the second direction side opposite to the first direction from the first mounting position of the display device, the display device is coupled from the outside of the outer peripheral wall of the casing using a second fixture. The display device according to claim 10 or 11.
前記筐体のうち、前記開口部よりも前記第1方向側の前記筐体の下側部分に設けられた操作部、をさらに備える
請求項1~請求項12のいずれか1項に記載の表示装置。
The display according to any one of claims 1 to 12, further comprising: an operation section provided in a lower part of the housing on the first direction side relative to the opening. Device.
複数の前記減光部材が着脱可能に設けられている
請求項1~請求項13のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 13, wherein a plurality of the light attenuation members are provided in a detachable manner.
前記画像表示部には、特定のキャラクターが表示され、
目視者の動作を検出可能な動作検出手段と、
前記動作検出手段による検出結果に応じて前記特定のキャラクターの動作を制御する動作制御手段と、
をさらに備える
請求項1~請求項14のいずれか1項に記載の表示装置。
A specific character is displayed on the image display section,
a motion detection means capable of detecting the motion of a viewer;
a motion control means for controlling the motion of the specific character according to a detection result by the motion detection means;
The display device according to any one of claims 1 to 14, further comprising:
前記動作検出手段は、物体の挙動を検出可能な挙動検出センサであり、
前記挙動検出センサは、前記筐体の内部空間で行われたジェスチャーを検出するように配置されている
請求項15に記載の表示装置。
The motion detection means is a behavior detection sensor capable of detecting the behavior of an object,
The display device according to claim 15, wherein the behavior detection sensor is arranged to detect a gesture performed in the internal space of the housing.
前記挙動検出センサは、前記筐体の内周面のうちの上面に配置されている
請求項16に記載の表示装置。
The display device according to claim 16, wherein the behavior detection sensor is arranged on an upper surface of the inner circumferential surface of the housing.
前記挙動検出センサは、光を出射してその反射光を受光して前記ジェスチャーを検出し、
前記光の出射方向に設けられ、当該出射した光が当該挙動検出センサに受光されることを抑制する部材、
をさらに備える
請求項16または請求項17に記載の表示装置。
The behavior detection sensor detects the gesture by emitting light and receiving the reflected light;
a member that is provided in the light emission direction and suppresses the emitted light from being received by the behavior detection sensor;
The display device according to claim 16 or 17, further comprising:
においを検知するにおいセンサと、
前記においセンサによる検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記においセンサによる検知結果に応じた音声を前記画像表示部に表示された前記キャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、
をさらに備える
請求項1~請求項14のいずれか1項に記載の表示装置。
An odor sensor that detects odor,
a display output operation for displaying on the image display section an image of the character making a movement according to the detection result by the odor sensor; an operation control means for performing at least one of the voice output operation and outputting the voice as a voice;
The display device according to any one of claims 1 to 14, further comprising:
前記表示出力動作は、検知されたにおいの種類に応じた動きを前記キャラクターが行う映像を前記画像表示部に表示する動作であり、
前記音声出力動作は、検知されたにおいの種類に応じた音声を前記キャラクターが発する音声として出力する動作である
請求項19に記載の表示装置。
The display output operation is an operation of displaying, on the image display section, an image in which the character moves in accordance with the type of detected odor,
The display device according to claim 19, wherein the sound output operation is an action of outputting a sound according to the type of detected odor as a sound emitted by the character.
音声を検出可能な音声検出手段と、
検知対象領域における人の存在を検知可能な検知手段と、
をさらに備え、
前記音声検出手段は、前記検知対象領域における人の存在が検知されると、前記画像表示部に表示されたキャラクターとの対話を行うための音声認識を有効化する
請求項1~請求項20のいずれか1項に記載の表示装置。
a voice detection means capable of detecting voice;
a detection means capable of detecting the presence of a person in a detection target area;
Furthermore,
The voice detection means activates voice recognition for interacting with the character displayed on the image display unit when the presence of a person in the detection target area is detected. The display device according to any one of the items.
風を検知する風検知手段と、
前記風検知手段による検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記風検知センサによる検知結果に応じた音声を前記画像表示部に表示されたキャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、
をさらに備える
請求項1~請求項14のいずれか1項に記載の表示装置。
A wind detection means for detecting wind;
a display output operation for displaying on the image display section an image of a character moving in accordance with a detection result by the wind detection means; and a display output operation for displaying a sound in accordance with the detection result by the wind detection sensor for the character displayed on the image display section. an operation control means for performing at least one of the voice output operation and outputting the voice as a voice emitted by the voice;
The display device according to any one of claims 1 to 14, further comprising:
前記動作制御手段は、前記風検知手段による検知結果に基づき、ユーザの吹きかけた息に応じて前記表示出力動作または前記音声出力動作を行う
請求項22に記載の表示装置。

The display device according to claim 22, wherein the operation control means performs the display output operation or the audio output operation in response to the user's breath based on the detection result by the wind detection means.

JP2024004254A 2020-01-23 2024-01-16 Display device etc. Pending JP2024032778A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020009457 2020-01-23
JP2020009457 2020-01-23
JP2020064321A JP2021117479A (en) 2020-01-23 2020-03-31 Display device and the like

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020064321A Division JP2021117479A (en) 2020-01-23 2020-03-31 Display device and the like

Publications (1)

Publication Number Publication Date
JP2024032778A true JP2024032778A (en) 2024-03-12

Family

ID=77174802

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020064321A Pending JP2021117479A (en) 2020-01-23 2020-03-31 Display device and the like
JP2024004254A Pending JP2024032778A (en) 2020-01-23 2024-01-16 Display device etc.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020064321A Pending JP2021117479A (en) 2020-01-23 2020-03-31 Display device and the like

Country Status (1)

Country Link
JP (2) JP2021117479A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119527A1 (en) * 2021-12-22 2023-06-29 マクセル株式会社 Mobile information terminal and information processing method

Also Published As

Publication number Publication date
JP2021117479A (en) 2021-08-10

Similar Documents

Publication Publication Date Title
WO2018016095A1 (en) Image display device, topic selection method, topic selection program, image display method and image display program
JP6165302B1 (en) Image display device, topic selection method, topic selection program
US10366689B2 (en) Communication robot
CN112512653B (en) Amusement park sight spot based on light field display system
JP2024032778A (en) Display device etc.
JP2020503707A (en) Foldable virtual reality device
JP2018014575A (en) Image display device, image display method, and image display program
JP2019139170A (en) Image display device, image display method, and image display program
US9185885B2 (en) Digital activity center for pets
JP6682475B2 (en) Image display device, topic selection method, topic selection program
JP7448142B2 (en) Display device etc.
JP2023035270A (en) Display device, etc
JP2022157238A (en) System and the like
JP2022157245A (en) System and the like
JP6667878B1 (en) Costume effect support device, costume effect support system, and costume effect support method
JP7329457B2 (en) Costume production support device, costume production support system, and costume production support method
JP2024050567A (en) Light Field Display System
JP2019139169A (en) Image display device, image display method, and image display program
Benedict " A Pulse in the Neon": Televisual Assimilation in the Works of David Foster Wallace
JP2023115940A (en) System, apparatus and method for determining fragrance, and program
JP2022502937A (en) Special effects communication technology
Take Part II What Forms Can Augmented Reality Take?
Kang Shin'm; Reshaping the Perceived Body with Sound—Hybrid of Interactive Installation and Performance—
WO2016054332A1 (en) Assisted animal activities
Hunt What Is the Fire?

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240213