JP7448142B2 - Display device etc. - Google Patents

Display device etc. Download PDF

Info

Publication number
JP7448142B2
JP7448142B2 JP2020064311A JP2020064311A JP7448142B2 JP 7448142 B2 JP7448142 B2 JP 7448142B2 JP 2020064311 A JP2020064311 A JP 2020064311A JP 2020064311 A JP2020064311 A JP 2020064311A JP 7448142 B2 JP7448142 B2 JP 7448142B2
Authority
JP
Japan
Prior art keywords
image
display
display device
light
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020064311A
Other languages
Japanese (ja)
Other versions
JP2021117478A (en
Inventor
善宏 今重
昭仁 野添
慶介 高橋
忠 俣江
利夫 黒瀬
隆之 水野
勇喜 清水
幹雄 島津江
圭三 高橋
篤 石橋
康一 野口
隆 浅野
茂 小池
Original Assignee
株式会社ユピテル
株式会社ユピテル鹿児島
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ユピテル, 株式会社ユピテル鹿児島 filed Critical 株式会社ユピテル
Publication of JP2021117478A publication Critical patent/JP2021117478A/en
Application granted granted Critical
Publication of JP7448142B2 publication Critical patent/JP7448142B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示装置等に関する。 The present invention relates to display devices and the like.

特許文献1には、特殊な眼鏡を用いない立体映像表示装置が記載されている。この立体映像表示装置は、光源と、液晶表示パネルと、この液晶表示パネルの観察者側に配置されるパララックスバリアとを備える。 Patent Document 1 describes a stereoscopic image display device that does not use special glasses. This stereoscopic video display device includes a light source, a liquid crystal display panel, and a parallax barrier placed on the viewer's side of the liquid crystal display panel.

特開2003-295113号公報Japanese Patent Application Publication No. 2003-295113

本発明の目的の一つは、表示装置の有する視覚的な効果を高めることである。 One of the objects of the present invention is to enhance the visual effects of a display device.

本願の発明の目的はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」と記載した箇所を「~が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、各々の課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙示的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正または分割出願にて特許請求の範囲とする意思を有する。またこれら独立の課題を組み合わせた課題を解決する構成についても開示しているものであり、権利取得する意思を有する。 The purpose of the invention of the present application is not limited to this, and we intend to acquire rights through divisional applications, amendments, etc. for structures that aim to obtain effects from the parts of the structure disclosed in this specification, drawings, etc. . For example, the present specification discloses a problem in which the phrase ``can be done'' is replaced with ``the problem is.'' Each issue is described as an independent entity, and we intend to acquire rights to the structure for solving each issue individually through divisional applications, amendments, etc. Even if the problem is implicitly understood from the description of the specification, the present applicant has the intention of claiming a part of the structure described in the specification in an amendment or divisional application. The company also discloses a structure that solves a problem that combines these independent problems, and has the intention to acquire the rights to it.

(1)遮光された映像表示空間を内部に有し、前記映像表示空間の第1方向側に映像の観察領域を設けた筐体と、前記映像表示空間に空中映像を結像させる映像表示部と、を有する表示装置が提供されるとよい。 (1) A casing that has a light-shielded image display space inside and an image observation area provided on the first direction side of the image display space, and an image display unit that forms an aerial image in the image display space. It is preferable to provide a display device having the following.

このようにすれば、映像表示空間に結合させられる空中映像が、観察側から見て比較的暗い空間に表示されるので、観察者に与えることのできる空中映像の立体感を高めることができる。よって、表示装置の有する視覚的な効果を高めることができる。 In this way, the aerial image that is combined with the image display space is displayed in a relatively dark space when viewed from the viewing side, so it is possible to enhance the stereoscopic effect of the aerial image that can be given to the viewer. Therefore, the visual effect of the display device can be enhanced.

(2)前記観察領域から前記映像表示空間に進入する外光を減じる減光部材を有する表示装置が提供されるとよい。 (2) A display device may be provided that includes a light attenuation member that reduces external light entering the image display space from the observation area.

このようにすれば、減光部材によって映像表示空間に進入する外光が減じられるので、映像表示空間を暗い状態に維持でき、観察者に与えることのできる空中映像の立体感を高めることができる。 In this way, the light attenuation member reduces external light entering the image display space, so the image display space can be maintained in a dark state, and the three-dimensional effect of the aerial image that can be given to the viewer can be enhanced. .

(3)前記映像表示部は、第1画像光を発する第1表示部と、前記第1画像光に基づいて前記空中映像を結像させる光学系とを含み、前記第1画像光のうちの前記減光部材で反射した反射光の光路上であって、前記減光部材と前記光学系との間に遮光部材を有する表示装置とするとよい。 (3) The image display unit includes a first display unit that emits a first image light, and an optical system that forms an image of the aerial image based on the first image light, The display device may include a light shielding member between the light attenuating member and the optical system on the optical path of the reflected light reflected by the light attenuating member.

このようにすれば、第1画像光が減光部材で反射することで映像表示空間に表示される映像が、観察者によって観察されてしまうのを抑制することができる。 In this way, it is possible to prevent the viewer from observing the image displayed in the image display space due to the reflection of the first image light by the light attenuation member.

(4)前記遮光部材は、前記第1方向側から見て前記観察領域に重ならない位置に設けられている表示装置とするとよい。 (4) The light shielding member may be a display device provided at a position that does not overlap the observation area when viewed from the first direction.

このようにすれば、観察者が観察領域から映像表示空間を覗き込むようにした場合であっても、第1画像光が減光部材で反射することで映像表示空間に表示される映像が、観察者によって観察されてしまうのを抑制することができる。 In this way, even when the observer looks into the video display space from the observation area, the video displayed in the video display space due to the reflection of the first image light by the light attenuation member, It is possible to prevent the image from being observed by an observer.

(5)前記映像表示部は、第1画像光を発する第1表示部と、前記第1画像光に基づいて前記空中映像を結像させる光学系とを含み、前記光学系は、前記第1画像光のうちの前記減光部材で反射した反射光の光路上の領域を避けて配置される表示装置とするとよい。 (5) The image display section includes a first display section that emits a first image light, and an optical system that forms an image of the aerial image based on the first image light, and the optical system includes a first display section that emits a first image light. The display device may be arranged so as to avoid a region on the optical path of the reflected light of the image light reflected by the light attenuation member.

このようにすれば、第1画像光が減光部材で反射することで映像表示空間に表示される映像が、観察者によって観察されてしまうのを抑制することができる。 In this way, it is possible to prevent the viewer from observing the image displayed in the image display space due to the reflection of the first image light by the light attenuation member.

(6)前記光学系は、前記第1画像光が入射する第1面と、前記第1面に対向する第2面とを有する光学部材を含み、前記光学部材は、前記第1画像光を前記第1方向側に反射させ、かつ前記第2面に入射した光を前記第1面側に透過させる表示装置とするとよい。 (6) The optical system includes an optical member having a first surface onto which the first image light is incident, and a second surface opposite to the first surface, and the optical member is configured to receive the first image light. It is preferable that the display device reflect light toward the first direction and transmit light incident on the second surface toward the first surface.

このようにすれば、光学部材を用いて結合させた空中映像に重ねて、光学部材の第2面側を観察者に観察させることができるので、観察者に与えることのできる空中映像の立体感をより高めることができる。 In this way, the viewer can observe the second surface side of the optical member by superimposing it on the aerial image combined using the optical member, which gives the viewer a stereoscopic effect of the aerial image. can be further increased.

(7)前記第1方向側から見て前記空中映像と重なる第2画像光を発する第2表示部を有する表示装置とするとよい。 (7) The display device may include a second display section that emits a second image light that overlaps with the aerial image when viewed from the first direction.

このようにすれば、空中映像に重ねて観察者に観察させる映像の選択の自由度を高めることができる。 In this way, it is possible to increase the degree of freedom in selecting an image to be superimposed on the aerial image for the observer to observe.

(8)前記第1表示部の発光輝度を前記第2表示部の発光輝度よりも高くした表示装置とするとよい。 (8) It is preferable that the display device has a light emission brightness of the first display section higher than a light emission brightness of the second display section.

このようにすれば、第1表示部の発光輝度と第2表示部の発光輝度との差異により、観察者に与えることのできる空中映像の立体感をより高めることができる。 In this way, the three-dimensional effect of the aerial image that can be given to the viewer can be further enhanced due to the difference between the luminance of the first display section and the luminance of the second display section.

(9)前記第1表示部は、前記観察領域よりも上方において、表示面が下方を向くように配置され、かつ前記第1方向側よりも前記第1方向の反対側の第2方向側が低くなるように傾斜する表示装置とするとよい。 (9) The first display section is arranged above the observation area so that the display surface faces downward, and the second direction side opposite to the first direction is lower than the first direction side. It is preferable to use a display device that can be tilted so that

このようにすれば、観察領域よりも上方に配置された第1表示部により、光学部材を用いて空中映像を結像させることができる。 In this way, the first display section disposed above the observation area can form an aerial image using the optical member.

(10)前記第1表示部の表示面は、水平方向に対してほぼ20度で傾斜する表示装置とするとよい。 (10) The display surface of the first display section may be a display device that is inclined at approximately 20 degrees with respect to the horizontal direction.

このようにすれば、観察者に与えることのできる空中映像の立体感をより高めることができるとともに、第1画像光が減光部材で反射して映像表示空間に表示される映像をより観察されにくくすることができる。 In this way, the three-dimensional effect of the aerial image that can be given to the viewer can be further enhanced, and the first image light is reflected by the light reduction member, so that the image displayed in the image display space can be more easily observed. It can be made difficult.

(11)前記第2表示部は、前記観察領域よりも下方において、表示面が上方を向くように配置される表示装置とするとよい。 (11) The second display unit may be a display device disposed below the observation area so that the display surface faces upward.

このようにすれば、第2表示面に表示される映像が、空中結像された映像の下方に位置するように見えるので、観察者に与えることのできる空中映像の立体感をより高めることができる。 In this way, the image displayed on the second display screen appears to be located below the image formed in the air, thereby further enhancing the stereoscopic effect of the aerial image that can be given to the viewer. can.

(12)前記第1表示部は、前記空中映像が前記第2表示面上に観察されるように前記第1画像光を発する表示装置とするとよい。 (12) The first display unit may be a display device that emits the first image light so that the aerial image is observed on the second display screen.

このようにすれば、空中映像が第2表示面に表示される映像の上に位置するように観察されるので、観察者に与えることのできる空中映像の立体感をより高めることができる。 In this way, the aerial image is viewed so as to be positioned above the image displayed on the second display screen, so that the stereoscopic effect that can be given to the viewer can be further enhanced.

(13)前記筐体は、前記第1表示部よりも上方に第1収容空間を有し、前記第1収容空間のうち前記第2方向側に配置された処理基板を有する表示装置とするとよい。 (13) The casing may have a first housing space above the first display section, and the display device may include a processed substrate disposed in the second direction side of the first housing space. .

このようにすれば、第1表示部よりも上方に確保される第1収容空間のうち、比較的高さ方向の寸法に余裕がある領域に処理基板を配置することができる。 In this way, the processing substrate can be placed in a region with a relatively large margin in the height direction of the first accommodation space secured above the first display section.

(14)前記処理基板は、外部機器を着脱可能な装着部を有し、前記装着部は、前記筐体のうち前記第2方向側から前記筐体の外部に露出する表示装置とするとよい。 (14) The processing board may include a mounting section to which an external device can be attached and detached, and the mounting section may be a display device exposed to the outside of the casing from the second direction side of the casing.

このようにすれば、外部機器を着脱可能な装着部のうち筐体の外部に露出する部分が観察者から観察されにくくすることができる。 In this way, it is possible to make it difficult for an observer to observe the portion of the attachment portion to which an external device can be attached or detached that is exposed to the outside of the housing.

(15)前記観察領域よりも下方に設けられたセンサを有し、前記処理基板は、前記センサにより測定された情報に応じた処理を実行する表示装置とするとよい。 (15) Preferably, the display device includes a sensor provided below the observation area, and the processing substrate is a display device that executes processing according to information measured by the sensor.

このようにすれば、センサに係る構成によって空中映像の観察が妨げられてしまうのを抑制できる。 In this way, it is possible to prevent the configuration related to the sensor from obstructing observation of the aerial image.

(16)前記センサが実装されたセンサ基板を有し、前記センサ基板は、前記筐体の前記第1方向側の部分に設けられている表示装置とするとよい。 (16) The display device may include a sensor board on which the sensor is mounted, and the sensor board may be provided in a portion of the housing on the first direction side.

このようにすれば、センサに係る構成によって空中映像の観察が妨げられてしまうのを抑制することができる。 In this way, it is possible to prevent the configuration related to the sensor from obstructing observation of the aerial image.

(17)前記センサは、ジェスチャを検出するセンサを含む表示装置とするとよい。 (17) The sensor may be a display device including a sensor that detects gestures.

このようにすれば、観察者がジェスチャを行うときに、観察者の身体の部位によって空中映像の観察が妨げられてしまうのを抑制することができる。 In this way, when the viewer performs a gesture, it is possible to prevent the viewer's body parts from interfering with viewing the aerial image.

(18)前記筐体は、前記映像表示空間の下方に第2収容空間を有し、前記第2収容空間に設けられ、前記センサからの信号を前記処理基板に供給する制御基板を有する表示装置とするとよい。 (18) The casing has a second housing space below the video display space, and a display device that includes a control board that is provided in the second housing space and supplies signals from the sensor to the processing board. It is good to say.

このようにすれば、第1表示部の上方の第1収容空間に制御基板が収容される場合に比べて、筐体の観察領域よりも上方の寸法が肥大化することを抑制できる。 In this way, compared to the case where the control board is accommodated in the first accommodation space above the first display section, it is possible to suppress the size of the casing above the observation area from increasing.

(19)前記制御基板と前記処理基板とを電気的に接続する配線部と、前記映像表示空間側から前記配線部を観察できないように仕切る仕切部材とを有する表示装置とするとよい。 (19) The display device may include a wiring section that electrically connects the control board and the processing board, and a partition member that partitions off the wiring section so that it cannot be observed from the image display space side.

このようにすれば、制御基板と処理基板とを電気的に接続する配線部が観察されてしまうのを抑制することができる。 In this way, it is possible to prevent the wiring portion that electrically connects the control board and the processing board from being observed.

(20)前記処理基板は、前記センサにより測定された情報に応じて前記第1表示部の表示を制御する表示装置とするとよい。 (20) The processing substrate may be a display device that controls display on the first display unit according to information measured by the sensor.

このようにすれば、センサにより測定された情報によって空中映像を変化させることができる。 In this way, the aerial image can be changed based on the information measured by the sensor.

(21)前記第1表示部の表示面に設けられ、前記第1方向側への視野角を狭める視野角制御部材を有する表示装置とするとよい。 (21) The display device may include a viewing angle control member that is provided on the display surface of the first display section and narrows the viewing angle in the first direction.

このようにすれば、第1表示面に表示される画像が直接観察者に観察されてしまうことを抑制することができる。 In this way, it is possible to prevent the image displayed on the first display surface from being directly observed by the viewer.

(22)前記第1画像光は、二次元の画像として認識される画像の画像光である表示装置とするとよい。 (22) The first image light may be a display device that is image light of an image recognized as a two-dimensional image.

このようにすれば、二次元の画像として認識される画像を表示する第1表示部を使用した場合でも、観察者に空中映像の立体感を与えることができる。 In this way, even when the first display unit that displays an image recognized as a two-dimensional image is used, it is possible to give the viewer a stereoscopic effect of the aerial image.

(23)前記筐体は、複数の部分を固定具により結合された構成であり、前記固定具は、少なくとも前記第1方向側から露出しない表示装置とするとよい。 (23) The housing may have a plurality of parts connected by a fixture, and the fixture may be a display device that is not exposed at least from the first direction side.

このようにすれば、固定部材が観察者に観察されてしまうのを抑制することができ、表示装置の美観を高めることができる。 In this way, it is possible to prevent the fixing member from being observed by an observer, and it is possible to improve the aesthetic appearance of the display device.

(24)前記映像表示空間に面する部分の少なくとも一部に光の反射を低減する処理がなされている表示装置とするとよい。 (24) It is preferable that the display device has at least a portion of the portion facing the image display space subjected to a treatment to reduce reflection of light.

このようにすれば、映像表示空間を暗い状態に維持しやすくなるので、観察者に与えることのできる空中映像の立体感をより高めることができる。 In this way, it becomes easier to maintain the image display space in a dark state, so it is possible to further enhance the stereoscopic effect of the aerial image that can be given to the viewer.

(25)前記筐体は、前記第1方向側から見たときに前記観察領域の周りを囲む部分を有する表示装置とするとよい。 (25) The casing may be a display device having a portion surrounding the observation area when viewed from the first direction.

このようにすれば、映像表示空間に表示される空中映像と、その手前側に位置する筐体とが相まって、観察者に与えることのできる空中映像の立体感をより高めることができる。 In this way, the aerial image displayed in the image display space and the casing located in front of the aerial image are combined to further enhance the stereoscopic effect of the aerial image that can be given to the viewer.

(26)前記映像表示部は、猫を示すキャラクタの映像を表示する表示装置とするとよい。 (26) The image display unit may be a display device that displays an image of a character representing a cat.

このようにすれば、立体感のある猫を示すキャラクタの映像を表示することができる。 In this way, it is possible to display a character image representing a cat with a three-dimensional effect.

(27)前記映像表示部は、前記キャラクタと前記キャラクタを観察する観察者とのコミュニケーションを再現するコミュニケーション機能に基づいて映像を変化させる表示装置とするとよい。 (27) The video display unit may be a display device that changes the video based on a communication function that reproduces communication between the character and an observer observing the character.

このようにすれば、コミュニケーション機能に基づいて猫を示すキャラクタの映像を変化させることができる。 In this way, the image of the character representing the cat can be changed based on the communication function.

(28)においを検知するにおいセンサと、前記においセンサによる検知結果に応じた動きをキャラクタが行う映像を前記映像表示部に表示する表示出力動作と、前記においセンサによる検知結果に応じた音声を前記映像表示部に表示されたキャラクタが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、をさらに備えるとよい。 (28) a smell sensor that detects a smell, a display output operation that displays on the video display section an image of a character making a movement according to the detection result of the smell sensor, and a display output operation that displays a sound according to the detection result of the smell sensor. It is preferable to further include an operation control means for performing at least one of an audio output operation and an audio output operation that is output as audio emitted by the character displayed on the video display section.

このようにすれば、映像表示部に表示されたキャラクタとユーザとの間でにおいに関するコミュニケーションを再現することができる。例えば、においセンサによってにおいが検知されると、キャラクタが「何かにおう」などの音声を発する音声出力動作や、においを嗅ぐ動作をキャラクタが行う映像の表示出力動作が行われるように制御され得る。したがって、当該キャラクタとユーザとの間でより多様なコミュニケーションを図ることができる。 In this way, it is possible to reproduce communication regarding smell between the character displayed on the video display section and the user. For example, when a smell is detected by a smell sensor, the character is controlled to output a sound such as ``Something smells'' or to display an image of the character sniffing a smell. obtain. Therefore, more diverse communication can be achieved between the character and the user.

(29)前記表示出力動作は、検知されたにおいの種類に応じた動きを前記映像表示部に表示されたキャラクタが行う映像を前記映像表示部に表示する動作であり、前記音声出力動作は、検知されたにおいの種類に応じた音声を前記映像表示部に表示されたキャラクタが発する音声として出力する動作であるとよい。 (29) The display output operation is an operation of displaying, on the video display section, an image in which a character displayed on the video display section moves in accordance with the type of detected odor, and the audio output operation includes: It is preferable that the operation outputs a sound corresponding to the type of detected odor as a sound emitted by a character displayed on the video display section.

このようにすれば、映像表示部に表示されたキャラクタとユーザとの間でにおいの種類に関するコミュニケーションを再現することができる。例えば、タバコのにおいが検知されたときには、煙たがる動きをキャラクタが行う映像を表示する表示出力動作やユーザの健康に気遣う言葉を発する音声出力動作が実行され得る。また、アロマオイルなどの香料のにおいが検知されたときには、香料に関する質問を発する音声出力動作が実行され得る。このような制御が行われることにより、映像表示部に表示されたキャラクタとユーザとの間でのコミュニケーションの幅を広げることができ、当該キャラクタへのユーザの愛着を増大させることができる。 In this way, communication regarding the type of smell can be reproduced between the character displayed on the video display section and the user. For example, when the smell of cigarettes is detected, a display output operation may be performed to display an image of a character making a motion to smoke, or an audio output operation may be performed to utter words that concern the user's health. Furthermore, when the smell of a fragrance such as aroma oil is detected, an audio output operation that asks a question regarding the fragrance may be performed. By performing such control, the range of communication between the character displayed on the video display section and the user can be expanded, and the user's attachment to the character can be increased.

(30)音声を検出可能な音声検出手段と、検知対象領域における人の存在を検知可能な検知手段と、をさらに備え、前記音声検出手段は、前記検知対象領域における人の存在が検知されると、前記映像表示部に表示されたキャラクタとの対話を行うための音声認識を有効化するとよい。 (30) Further comprising a voice detection means capable of detecting voice and a detection means capable of detecting the presence of a person in the detection target area, the voice detection means detecting the presence of a person in the detection target area. It is preferable to enable voice recognition for interacting with the character displayed on the video display section.

このようにすれば、ユーザと映像表示部に表示されたキャラクタと対話するにあたって、例えばユーザが音声認識を有効化するためのトリガーワードを発声する必要がなく、より自然にコミュニケーションをとることができる。 In this way, when the user interacts with the character displayed on the video display, the user does not need to utter a trigger word to enable voice recognition, for example, and communication can occur more naturally. .

(31)風を検知する風検知手段と、前記風検知手段による検知結果に応じた動きをキャラクタが行う映像を前記映像表示部に表示する表示出力動作と、前記風検知センサによる検知結果に応じた音声を前記映像表示部に表示されたキャラクタが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、をさらに備えるとよい。 (31) a wind detection means for detecting wind; a display output operation for displaying on the video display section an image of a character making a movement according to the detection result by the wind detection means; It is preferable to further include an operation control means for performing at least one of a voice output operation of outputting the voice produced by the character displayed on the video display section as a voice emitted by the character.

このようにすれば、映像表示部に表示されたキャラクタとユーザとの間で表示装置に与えられた風に関するコミュニケーションを再現することができる。風は、例えばユーザ人為的に起こしたものとするとよく、例えば表示装置に向けて手を振る等の身体の部位を動かすことによって発生する風や息を吹きかけることによって発生する風とするとよい。 In this way, communication regarding the wind applied to the display device between the character displayed on the video display section and the user can be reproduced. The wind may be generated artificially by the user, for example, by moving a body part such as waving a hand toward the display device, or by blowing on the user's breath.

(32)前記動作制御手段は、前記風検知手段による検知結果に基づき、ユーザの吹きかけた息に応じて前記表示出力動作または前記音声出力動作を行うとよい。 (32) The operation control means may perform the display output operation or the audio output operation in response to the user's breath based on the detection result by the wind detection means.

このようにすれば、映像表示部に表示されたキャラクタとユーザとの間で、表示装置に吹きかけた息に応じたコミュニケーションを再現することができる。 In this way, it is possible to reproduce communication between the character displayed on the video display section and the user in accordance with the breath blown onto the display device.

上述した(1)から(32)に示した発明は、任意に組み合わせることができる。例えば、(1)に示した発明の全てまたは一部の構成に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加える構成とするとよい。特に、(1)に示した発明に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加えた発明とするとよい。また、(1)から(32)に示した発明から任意の構成を抽出し、抽出された構成を組み合わせてもよい。本願の出願人は、これらの構成を含む発明について権利を取得する意思を有する。また「~の場合」「~のとき」という記載があったとしても、その場合やそのときに限られる構成として記載はしているものではない。これらはよりよい構成の例を示しているものであって、これらの場合やときでない構成についても権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えたりした構成についても開示しているものであり、権利取得する意思を有する。 The inventions shown in (1) to (32) above can be combined arbitrarily. For example, a configuration may be adopted in which at least a part of the configuration of at least one invention described in (2) and subsequent ones is added to all or part of the configuration of the invention shown in (1). In particular, it is preferable to create an invention in which at least a part of the structure of at least one invention after (2) is added to the invention shown in (1). Alternatively, arbitrary configurations may be extracted from the inventions shown in (1) to (32) and the extracted configurations may be combined. The applicant of this application intends to acquire rights to inventions containing these structures. Furthermore, even if there is a description of "in the case of" or "at the time of", the description is not intended to be limited to those cases or times. These are examples of better configurations, and we intend to acquire rights to these cases and other configurations as well. Furthermore, the sections described in order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and we have the intention to acquire the rights.

本発明によれば、表示装置の有する視覚的な効果を高めることができる。 According to the present invention, the visual effects of the display device can be enhanced.

本願の発明の効果はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」と記載した箇所などは奏する効果を明示する記載であり、また「~できる」と記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。 The effects of the invention of the present application are not limited to these, but the effects obtained from the parts of the structure disclosed in the specification, drawings, etc. are also disclosed, and the rights to the structure that produces the effects have also been acquired through divisional applications, amendments, etc. have the intention to For example, in this specification, a portion where it is written as "can be done" is a statement that clearly indicates the effect to be achieved, and there are parts that show an effect even if there is no mention of "can be done". Further, even without such a description, there are effects that can be understood from the configuration.

一実施形態に係る表示装置の概要を説明する図である。FIG. 1 is a diagram illustrating an overview of a display device according to an embodiment. 一実施形態に係る表示装置の概要を説明する図である。FIG. 1 is a diagram illustrating an overview of a display device according to an embodiment. 一実施形態に係るキャラクタを説明する図である。FIG. 3 is a diagram illustrating a character according to an embodiment. 一実施形態に係る表示装置の外観構成を示す図である。FIG. 1 is a diagram showing an external configuration of a display device according to an embodiment. 一実施形態に係る表示装置の外観構成を示す図である。FIG. 1 is a diagram showing an external configuration of a display device according to an embodiment. 一実施形態に係る表示装置の外観構成を示す図である。FIG. 1 is a diagram showing an external configuration of a display device according to an embodiment. 一実施形態に係る表示装置の正面図である。FIG. 1 is a front view of a display device according to an embodiment. 一実施形態に係る表示装置の右側面図である。FIG. 2 is a right side view of a display device according to an embodiment. 一実施形態に係る表示装置の左側面図である。FIG. 1 is a left side view of a display device according to an embodiment. 一実施形態に係る表示装置の平面図(上面図)である。FIG. 1 is a plan view (top view) of a display device according to an embodiment. 一実施形態に係る表示装置の背面図である。FIG. 2 is a rear view of a display device according to an embodiment. 一実施形態に係る表示装置の底面図である。FIG. 2 is a bottom view of a display device according to an embodiment. 一実施形態に係る表示装置から背面蓋部を取り外したときの背面図である。FIG. 3 is a rear view of the display device according to one embodiment when the rear cover is removed. 一実施形態に係る表示装置が使用される様子の一例を説明する図である。FIG. 2 is a diagram illustrating an example of how a display device according to an embodiment is used. 一実施形態に係る表示装置の表示に関する原理を説明する図である。FIG. 2 is a diagram illustrating a principle regarding display of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の内部の構成を説明する図である。FIG. 2 is a diagram illustrating the internal configuration of a display device according to an embodiment. 一実施形態に係る表示装置の虚像が表示される原因を説明する図である。FIG. 3 is a diagram illustrating a reason why a virtual image is displayed on a display device according to an embodiment. 一実施形態に係る表示装置の映り込みの発生原因を説明する図である。FIG. 3 is a diagram illustrating the cause of reflection in a display device according to an embodiment. 一実施形態に係る表示装置の虚像の表示および映り込みの抑制の原理を説明する図である。FIG. 2 is a diagram illustrating the principle of displaying a virtual image and suppressing reflections of a display device according to an embodiment. 表示装置の虚像が表示される原因を説明する図である。FIG. 3 is a diagram illustrating the cause of a virtual image being displayed on a display device. 一実施形態に係る表示装置の正面図である。FIG. 1 is a front view of a display device according to an embodiment. 一実施例に係る表示装置における制御ブロック図である。FIG. 2 is a control block diagram in a display device according to an example. (A)においに関するコミュニケーションを再現するためのフローチャート、(B)においに関する音声管理テーブルを示す図である。(A) A flowchart for reproducing communication regarding smell, and (B) a diagram showing a voice management table regarding smell. 滞在頻度に関するコミュニケーションを再現するためのフローチャートである。It is a flowchart for reproducing communication regarding the frequency of stay. (A)滞在場所に関するコミュニケーションを再現するためのフローチャート、(B)滞在場所に関する音声管理テーブルを示す図である。(A) A flowchart for reproducing communication regarding the place of stay, and (B) a diagram showing a voice management table regarding the place of stay. (A)滞在回数に関するコミュニケーションを再現するためのフローチャート、(B)滞在回数に関する音声管理テーブルを示す図である。(A) A flowchart for reproducing communication regarding the number of stays, and (B) a diagram showing a voice management table regarding the number of stays. (A)滞在時間に関するコミュニケーションを再現するためのフローチャート、(B)滞在時間に関する音声管理テーブルを示す図である。(A) A flowchart for reproducing communication regarding the stay time, and (B) a diagram showing a voice management table regarding the stay time. (A)行動パターンに関するコミュニケーションを再現するためのフローチャート、(B)行動パターンに関する音声管理テーブルを示す図である。(A) A flowchart for reproducing communication related to behavior patterns, and (B) a diagram showing a voice management table related to behavior patterns. 不審者の検知に関する動作を再現するためのフローチャートである。It is a flowchart for reproducing operations related to suspicious person detection. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment. 一実施形態に係る表示装置に表示される画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image displayed on a display device according to an embodiment.

以下、実施形態について、図面を参照しながら詳細に説明する。以下に示す実施形態は本開示の実施形態の一例であって、本開示はこれらの実施形態に限定されるものではない。なお、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号(数字の後にA、Bなどを付しただけの符号)を付し、その繰り返しの説明は省略する場合がある。また、以下の説明で参照する各図において、各部材、各領域等を認識可能な大きさとするために、実際とは縮尺を異ならせている場合がある。 Hereinafter, embodiments will be described in detail with reference to the drawings. The embodiments shown below are examples of the embodiments of the present disclosure, and the present disclosure is not limited to these embodiments. In the drawings referred to in this embodiment, the same parts or parts having similar functions are denoted by the same or similar symbols (codes with A, B, etc. after the number), and their repetitions are indicated. The explanation may be omitted. Further, in each figure referred to in the following description, the scale may be different from the actual scale in order to make each member, each region, etc. recognizable.

<1.表示装置1の概要>
図1Aおよび図1Bは、本発明の一実施形態に係る表示装置の概要を説明する図である。表示装置1は、観察領域SCを通して観察者が映像を観察できるように映像を表示する。本実施形態で、観察は、見るあるいは目視するといった意味で解釈されてよい。観察者は、表示装置1を使用するユーザのことで、例えば、表示装置1に表示された映像を観察する者である。観察領域SCは、表示装置1の正面側に設けられた領域で、ここでは矩形の領域である。表示装置1は、空中結像により映像を表示する。空中結像は、例えば光の反射を利用して、空気中に映像を結像することをいう。空中結像は、所定の空間に映像が浮かび合っているような感覚を観察者に与えるために採用されることがある。空中結像により表示される映像は、空中映像と呼ばれる。
<1. Overview of display device 1>
FIGS. 1A and 1B are diagrams illustrating an overview of a display device according to an embodiment of the present invention. The display device 1 displays an image so that an observer can observe the image through the observation area SC. In this embodiment, observation may be interpreted to mean seeing or visually observing. An observer is a user who uses the display device 1, and is, for example, a person who observes an image displayed on the display device 1. The observation area SC is an area provided on the front side of the display device 1, and is a rectangular area here. The display device 1 displays images by aerial imaging. Aerial imaging refers to forming an image in the air using, for example, reflection of light. Aerial imaging is sometimes employed to give viewers the feeling that images are floating in a predetermined space. Images displayed by aerial imaging are called aerial images.

図1Aに示す場合、表示装置1は、空中映像としてキャラクタ1100を表示する。キャラクタ1100は、女性のキャラクタである。表示装置1は、さらに、キャラクタ1100の下にステージを意味するステージ映像2100を表示する。ステージ映像2100は、ここでは魔法陣を示す。このような表示を見た観察者は、ステージ上にキャラクタ1100が立っているような印象を受けることができる。キャラクタ1100およびステージ映像2100の色は特に問わない。例えばキャラクタ1100の皮膚は肌色である。キャラクタ1100の髪色および上半身の衣装は比較的淡い青色系の色(例えば、水色)、膝に当てられている装飾品はそれよりも濃い青色系の色(例えば、青色)、スカートおよび靴は白色である。ステージ映像2100は比較的濃い青色系の色(例えば、濃い水色)である。 In the case shown in FIG. 1A, the display device 1 displays the character 1100 as an aerial image. Character 1100 is a female character. The display device 1 further displays a stage image 2100 indicating a stage below the character 1100. The stage image 2100 here shows a magic circle. An observer who sees such a display can get the impression that the character 1100 is standing on the stage. The colors of the character 1100 and the stage image 2100 are not particularly limited. For example, the skin of character 1100 is flesh-colored. The hair color and upper body costume of the character 1100 are a relatively light blue color (for example, light blue), the ornaments on the knees are a darker blue color (for example, blue), and the skirt and shoes are a relatively light blue color (for example, light blue). It is white. The stage image 2100 is a relatively dark blue color (for example, dark light blue).

図1B(a)に示す場合、表示装置1は、空中映像としてキャラクタ1200を表示する。キャラクタ1200は、猫のキャラクタである。図1B(b)に示す場合、表示装置1は、キャラクタ1200の下にステージを意味するステージ映像2200を表示する。ステージ映像2200は、ここでは、「Yupiteru」という文字列、およびキャラクタ1200の名称である「Juno」(「ユノ」と称呼する。)を示す文字列が、円形のステージの外周に沿って交互に表記されている。 In the case shown in FIG. 1B(a), the display device 1 displays the character 1200 as an aerial image. Character 1200 is a cat character. In the case shown in FIG. 1B(b), the display device 1 displays a stage image 2200 indicating a stage below the character 1200. In the stage image 2200, a character string "Yupiteru" and a character string indicating "Juno" (referred to as "Yuno"), which is the name of the character 1200, are alternately arranged along the outer periphery of a circular stage. It is written.

キャラクタ1200およびステージ映像2200の色は特に問わない。ここで、キャラクタ1200およびステージ映像2200について、図1Cを参照してより具体的に説明する。キャラクタ1200は、キャラクタ本体1210と、首輪1220とに大別される。キャラクタ本体1210は、ここでは名称が「Juno」である猫のキャラクタ自体である。キャラクタ本体1210は、身体の部位に白色で示された部位を含み、例えば、眉間、鼻および口の周辺、腹部、並びに足のうちの正面側の部位がこれに該当する。キャラクタ本体1210の身体の部位のうち、薄いグレーで示された部位は、比較的淡い茶色系の色(例えば、黄土色)であり、例えば、顔部のうちの目の上および横の部位、胴体部のうちの上側の部分、足のうちの正面側以外の部位がこれに該当する。キャラクタ本体1210の身体の部位のうち、さらに濃いグレーで示された部位は、さらに濃い茶色系の色(例えば、茶色)であり、例えば、顔部、頭部、胴体、足の細い線で示された縞模様の部位がこれに該当する。首輪1220は、キャラクタ本体1210の首の位置に表示された首輪を意味する。首輪1220は、赤色系の色(例えば、赤色)である。首輪1220のうち、キャラクタ本体1210の顔の下に位置には、札1221が取り付けられている。札1221は円形であり、所定の標章が表記されている。当該標章は、「V」状の記号の下方に「●」(内側を塗りつぶした円)を配置した標章であって、それぞれを赤色系の色(例えば、赤色)で表記されている標章である。札1221に表記される標章は、表示装置1の出所を示す商標としての機能を発揮するものとしてもよい。ステージ映像2200は全体として茶色系の色で、円および文字列は比較的濃い茶系の色(例えば、茶色)、円の内側の煙を模した画像はそれよりも薄い茶色系の色(例えば、黄土色)である。 The colors of the character 1200 and the stage image 2200 are not particularly limited. Here, the character 1200 and the stage image 2200 will be described in more detail with reference to FIG. 1C. The character 1200 is roughly divided into a character body 1210 and a collar 1220. The character body 1210 is the cat character itself whose name is "Juno" here. The character main body 1210 includes body parts shown in white, such as the area between the eyebrows, around the nose and mouth, the abdomen, and the front side of the legs. Among the body parts of the character body 1210, the parts shown in light gray are relatively light brownish colors (for example, ocher), such as the parts above and beside the eyes of the face, This applies to the upper part of the torso and parts other than the front side of the legs. Of the body parts of the character body 1210, the parts shown in darker gray are in a darker brown color (for example, brown), and are shown by thin lines on the face, head, body, and legs, for example. This corresponds to the area with the striped pattern. The collar 1220 means a collar displayed at the neck position of the character body 1210. The collar 1220 is a red color (for example, red). A tag 1221 is attached to the collar 1220 below the face of the character body 1210. The tag 1221 is circular and has a predetermined symbol written on it. The mark is a mark with a "●" (a circle with a filled inside) placed below a "V" symbol, each of which is written in a red color (for example, red). It is a chapter. The mark written on the tag 1221 may function as a trademark indicating the origin of the display device 1. The stage image 2200 has a brownish color as a whole, the circle and character string are a relatively dark brownish color (for example, brown), and the image imitating smoke inside the circle is a lighter brownish color (for example, yellow ocher).

図1A、図1Bおよび図1Cにおいて、キャラクタ1100,1200の背景は黒色で示されているが、真っ黒に限られるものではなく、比較的暗い色の背景(例えば、黒色その他の暗色系の色)としてもよい。 In FIGS. 1A, 1B, and 1C, the backgrounds of the characters 1100 and 1200 are shown in black, but the backgrounds are not limited to pure black, and are relatively dark (for example, black or other dark colors). You can also use it as

図1A、図1Bおよび図1Cに示すキャラクタは一例である。表示装置1は、人型のキャラクタを表示する場合、女性のキャラクタに限られず、男性のキャラクタを表示してもよい。表示装置1は、実在する人物(例えば、家族)もしくは過去に実在していた人物(例えば、歴史上の人物)、架空の人物のキャラクタ(例えば、漫画やアニメ等のフィクションの作品に登場するキャラクタ等)のいずれを表示してもよい。人型でない動物のキャラクタを表示する場合、表示装置1は、猫のキャラクタに限られず、犬やハムスター等の一般家庭で飼育されうる動物のキャラクタ、それ以外の馬や牛等の動物のキャラクタ、並びに架空の動物のキャラクタ(例えば、漫画やアニメその他のフィクションの作品に登場するキャラクタ等)のいずれを表示してもよい。また、表示装置1は、首輪1220を有する他のキャラクタを表示するものであってもよい。 The characters shown in FIGS. 1A, 1B, and 1C are examples. When displaying a humanoid character, the display device 1 is not limited to displaying a female character, and may display a male character. The display device 1 displays real people (e.g., family members), people who existed in the past (e.g., historical figures), and fictional characters (e.g., characters appearing in works of fiction such as manga and anime). etc.) may be displayed. When displaying non-humanoid animal characters, the display device 1 is not limited to cat characters, but also animal characters that can be kept in general households such as dogs and hamsters, other animal characters such as horses and cows, Also, any of the fictional animal characters (for example, characters appearing in manga, anime, and other works of fiction) may be displayed. Furthermore, the display device 1 may display another character having a collar 1220.

表示装置1は、コミュニケーション機能に基づいて、キャラクタの身体の部位を動かしたり、キャラクタの発話を模した音声を出力したりする。コミュニケーション機能は、観察者とキャラクタとのコミュニケーションを再現する機能、または疑似的なコミュニケーションを再現する機能である。コミュニケーション機能においては、観察者の挙動(例えば、発話や身体の動き)に応答してキャラクタが動く。例えば、キャラクタ1100は、ダンスなど体全体を動かしたり、表情を変化(例えば、喜怒哀楽の感情を表現)させたりする、といった人間が通常行う動作を再現した動作をする。例えば、キャラクタ1200は、動物が通常行う動作(例えば、あくびをする、尻尾を動かす、歩行する等)を再現した動きをする。また、表示装置1は、例えば、キャラクタ1100の動作に合わせて、キャラクタ1100が歌唱しているかのような歌唱音声を出力したり、観察者との対話に係る音声を出力したりする。表示装置1は、例えば、キャラクタ1200の動作に合わせて、猫の鳴き声を意味する音声を出力したり、観察者との対話に係る音声を出力したりする。このような映像や音声の出力は、コミュニケーション機能に限られず、表示装置1が有する種々の機能で行われるようにしてもよい。 The display device 1 moves the body parts of the character and outputs sounds imitating the character's speech based on the communication function. The communication function is a function that reproduces communication between an observer and a character, or a function that reproduces pseudo communication. In the communication function, the character moves in response to the viewer's behavior (for example, speech or body movement). For example, the character 1100 performs actions that reproduce actions that humans normally perform, such as moving the entire body, such as dancing, and changing facial expressions (for example, expressing emotions of joy, anger, sadness, and happiness). For example, the character 1200 moves in a manner that reproduces the movements normally performed by animals (eg, yawning, moving its tail, walking, etc.). Further, the display device 1 outputs, for example, a singing sound as if the character 1100 is singing, or outputs a sound related to a dialogue with an observer, in accordance with the movement of the character 1100. For example, the display device 1 outputs a sound representing a cat's meow or a sound related to a dialogue with an observer in accordance with the movement of the character 1200. Such video and audio output is not limited to the communication function, and may be performed using various functions that the display device 1 has.

コミュニケーション機能におけるユーザとの対話は、例えば、表示装置1に組み込まれた音声認識アプリケーション(音声認識エンジンの機能を有するアプリケーション)と、図示しない外部の音声認識サーバと、図示しない外部の対話サーバとの連携により実現されるとよい。例えば、後述する操作部2214が押下されると、音声認識アプリケーションが起動し、キャラクタとの対話を行うための音声認識が有効化される。音声認識を有効化することは、本実施形態では音声認識機能を作動することで、例えば音声認識エンジンをオンして音声の入力を待ち受ける状態にすることである。そして、ユーザにより発せられた音声(ユーザ音声、とも称する)が、後述の処理基板224の通信制御回路706から音声認識サーバへと送信され、音声認識サーバによってユーザ音声に対する音声認識処理が実行されて音声認識結果が出力される。例えば対話サーバには、入力され得る文字列毎に、表示装置1(例えば、後述する映像表示部)に表示されたキャラクタ(例えば、キャラクタ1100)が発する音声(キャラクタ音声、とも称する)が互いに対応付けて予め登録されている。そして、音声認識サーバによる音声認識結果(例えば、文字列で示された音声認識結果)が対話サーバに入力され、当該音声認識結果に対応するキャラクタ音声が対話サーバから出力される。そして、対話サーバによって出力されたキャラクタ音声が、表示装置1から出力される。このようにして、ユーザによる音声に対する応答処理が実行され、ユーザとキャラクタとの対話が再現される。 Dialogue with the user in the communication function is performed, for example, between a voice recognition application (an application having a voice recognition engine function) built into the display device 1, an external voice recognition server (not shown), and an external dialogue server (not shown). It would be good if this could be achieved through collaboration. For example, when an operation unit 2214, which will be described later, is pressed, a voice recognition application is started and voice recognition for interacting with a character is enabled. In this embodiment, enabling voice recognition means activating the voice recognition function, for example, turning on the voice recognition engine and putting it in a state of waiting for voice input. Then, the voice emitted by the user (also referred to as user voice) is transmitted from the communication control circuit 706 of the processing board 224 (described later) to the voice recognition server, and the voice recognition server executes voice recognition processing on the user voice. Speech recognition results are output. For example, in the dialogue server, for each character string that can be input, the voices (also referred to as character voices) emitted by the characters (for example, the character 1100) displayed on the display device 1 (for example, the video display section described below) are associated with each other. It has been registered in advance. Then, the voice recognition result (for example, the voice recognition result indicated by a character string) by the voice recognition server is input to the dialogue server, and the character voice corresponding to the voice recognition result is output from the dialogue server. Then, the character voice output by the dialogue server is output from the display device 1. In this way, the response process to the user's voice is executed, and the interaction between the user and the character is reproduced.

表示装置1は、例えば、娯楽用の表示装置として一般のユーザにより使用される。この場合、表示装置1は、例えば、ユーザの自宅等の居所で使用される。これに限られず、表示装置1は、商業用(例えば広告宣伝用)その他の用途で使用されてもよい。例えば、商業用の場合、表示装置1は店舗その他の商業施設等の公共の場所に設置される。表示装置1は、製品あるいはサービスの展示会等の会場において、キャラクタが製品あるいはサービスを紹介または宣伝等する映像を表示してもよい。表示装置1の用途はこれら以外の用途でもよい。 The display device 1 is used by general users as a display device for entertainment, for example. In this case, the display device 1 is used at the user's residence, such as the user's home, for example. The present invention is not limited to this, and the display device 1 may be used for commercial purposes (for example, for advertising) and other purposes. For example, in the case of commercial use, the display device 1 is installed in a public place such as a store or other commercial facility. The display device 1 may display images in which characters introduce or advertise products or services at a venue such as a product or service exhibition. The display device 1 may be used for purposes other than these.

<2.表示装置1の外観構成>
図2、図3および図4は、表示装置1の外観構成を示す斜視図である。図2は、表示装置1を右斜め前方から見た図である。図3は、表示装置1を左斜め前方側のやや上方から見た図である。図4は、表示装置1を右斜め前方のやや下方から見た図である。図5は、表示装置1の正面図である。図6は、表示装置1の右側面図である。図7は、表示装置1の正側面図である。図8は、表示装置1の平面図(上面図)である。図9は、表示装置1の底面図である。図10は、表示装置1の背面図である。
<2. External configuration of display device 1>
2, 3, and 4 are perspective views showing the external configuration of the display device 1. As shown in FIG. FIG. 2 is a diagram of the display device 1 viewed diagonally from the front right. FIG. 3 is a view of the display device 1 viewed from slightly above the diagonally left front side. FIG. 4 is a view of the display device 1 viewed from diagonally forward right and slightly below. FIG. 5 is a front view of the display device 1. FIG. 6 is a right side view of the display device 1. FIG. 7 is a front side view of the display device 1. FIG. 8 is a plan view (top view) of the display device 1. FIG. 9 is a bottom view of the display device 1. FIG. 10 is a rear view of the display device 1.

表示装置1は、外観が直方体状である。表示装置1は筐体100を有する。筐体100は、表示装置1の外形をなす箱型の部材である。筐体100は直方体状である。筐体100は、幅方向(左右方向ともいう。)よりも、高さ方向(上下方向ともいう。)に長い。筐体100の幅方向と奥行方向(前後方向ともいう。)との長さはほぼ同じである。表示装置1の幅方向、高さ方向、および奥行方向(前後方向ともいう。)の長さとの比は、およそ2:3:2である。以下の説明において、表示装置1の奥行方向のうち、観察者側の位置する側を「正面側」(第1方向側に相当)、その反対側を「背面側」(第2方向側に相当)という。 The display device 1 has a rectangular parallelepiped appearance. The display device 1 has a housing 100. The housing 100 is a box-shaped member that forms the outer shape of the display device 1 . The housing 100 has a rectangular parallelepiped shape. The housing 100 is longer in the height direction (also referred to as the vertical direction) than in the width direction (also referred to as the horizontal direction). The length of the housing 100 in the width direction and the depth direction (also referred to as the front-back direction) is approximately the same. The ratio of the lengths of the display device 1 in the width direction, height direction, and depth direction (also referred to as the front-back direction) is approximately 2:3:2. In the following explanation, the side where the viewer is located in the depth direction of the display device 1 is the "front side" (corresponding to the first direction side), and the opposite side is the "back side" (corresponding to the second direction side). ).

筐体100は、角部がR形状である。図5に示すように、表示装置1を正面側から見たとき、筐体100の4つの角部がそれぞれ丸みを帯びている。筐体100の表面は、つや消し加工で質感を出すように加工されているとよい。このようにすれば、意匠性に優れた直方体状の表示装置1が提供される。筐体100は、樹脂材料で形成されるとよいが、金属またはその他の素材で形成されてもよい。筐体100は、遮光された映像表示空間を内部に有する。映像表示空間は、筐体100の内部の空間で、空中映像が表示(形成)される空間である。映像表示空間は、その全体または多くの部分が遮光性の部材で形成されている。よって、筐体100を構成する部材によって、映像表示空間に外光が進入することが妨げられる。筐体100は、例えば、その全体が外光を遮断する素材で形成されていてもよいし、外側表面または映像表示空間に面している表面が光を遮断する素材で覆われていてもよい。筐体100の外側表面の色は問わないが、例えば高級感またはシンプルさを醸し出す白色または黒色等とするとよい。表示装置1は、観察者等の人が単独で持ち運びできる程度の寸法かつ重量するとよい。 The housing 100 has rounded corners. As shown in FIG. 5, when the display device 1 is viewed from the front side, each of the four corners of the housing 100 is rounded. The surface of the casing 100 is preferably treated with a matte finish to give it a textured appearance. In this way, a rectangular parallelepiped display device 1 with excellent design is provided. The housing 100 is preferably made of resin material, but may also be made of metal or other materials. The housing 100 has a light-blocked video display space inside. The video display space is a space inside the housing 100 in which an aerial video is displayed (formed). The entire or most part of the image display space is formed of a light-shielding member. Therefore, the members constituting the housing 100 prevent external light from entering the image display space. For example, the entire housing 100 may be made of a material that blocks external light, or the outer surface or the surface facing the image display space may be covered with a material that blocks light. . Although the color of the outer surface of the housing 100 does not matter, it may be white or black, which gives off a sense of luxury or simplicity, for example. The display device 1 is preferably of such a size and weight that a person such as an observer can carry it alone.

筐体100のうちの外側に露出する部分は、右側パネル101と、正面側パネル102と、左側パネル103と、背面側パネル104と、上蓋部105と、下蓋部106とに分けられる。右側パネル101、正面側パネル102、左側パネル103、背面側パネル104、上蓋部105、および下蓋部106は板状の部材である。右側パネル101は、正面側から見て筐体100の右側面側に位置するパネルである。左側パネル103は、正面側から見て筐体100の左側面側に位置するパネルである。右側パネル101および左側パネル103は同一形状かつ同一寸法である。また、右側パネル101と左側パネル103とは、高さ方向に対称で、右側パネル101と左側パネル103を形成するための金型を共通化できる。このため、右側パネル101および左側パネル103は共通の部材を用いることができ、コストや組み立て作業の手間を軽減する効果が期待できる。 Portions of the housing 100 that are exposed to the outside are divided into a right panel 101, a front panel 102, a left panel 103, a back panel 104, an upper lid portion 105, and a lower lid portion 106. The right side panel 101, the front side panel 102, the left side panel 103, the back side panel 104, the upper lid part 105, and the lower lid part 106 are plate-shaped members. The right panel 101 is a panel located on the right side of the housing 100 when viewed from the front side. The left panel 103 is a panel located on the left side of the housing 100 when viewed from the front side. The right panel 101 and the left panel 103 have the same shape and dimensions. Further, the right panel 101 and the left panel 103 are symmetrical in the height direction, and a mold for forming the right panel 101 and the left panel 103 can be shared. Therefore, the right panel 101 and the left panel 103 can use common members, which can be expected to reduce costs and assembly work.

正面側パネル102は、表示装置1の正面側に位置する。正面側パネル102は、減光部材200を装着可能な開口部110を有している。観察領域SCは、正面側パネル102に設けられている。観察領域SCは、表示装置1に表示された映像を見る観察者が観察する領域である。観察領域SCは、筐体100に形成された開口部110が存在する領域でもある。減光部材200が、観察領域に設けられている。減光部材200は、開口部110を塞ぐようにして、鉛直方向に立てて設けられている。減光部材200および開口部110は、表示装置1の正面側から見て、筐体100の高さ方向の中心よりも上方に設けられる。減光部材200および開口部110は、正方形または長方形である。 The front panel 102 is located on the front side of the display device 1. The front panel 102 has an opening 110 into which the light attenuation member 200 can be attached. The observation area SC is provided on the front panel 102. The observation area SC is an area observed by an observer who views an image displayed on the display device 1. The observation area SC is also an area where the opening 110 formed in the housing 100 exists. A light attenuation member 200 is provided in the observation area. The light attenuation member 200 is provided vertically so as to close the opening 110. The light attenuation member 200 and the opening 110 are provided above the center of the housing 100 in the height direction when viewed from the front side of the display device 1. Light attenuation member 200 and opening 110 are square or rectangular.

減光部材200は、映像の観察に用いられる矩形(正方形でもよい。)の第1領域210と、第1領域210の周囲を取り囲む第2領域220とを含む。第2領域220は縁部分で画像の観察には用いられない領域であるから、光を透過させない領域でもよい。よって、観察領域SCは第1領域210が存在する領域ともいうことができる。以下の説明で減光部材200という場合、第1領域210のことと観念されてもよい。 The light attenuation member 200 includes a rectangular (or square) first area 210 used for viewing images, and a second area 220 surrounding the first area 210. Since the second area 220 is an edge portion and is not used for image observation, it may be an area that does not transmit light. Therefore, the observation area SC can also be called an area where the first area 210 exists. In the following description, when the light attenuation member 200 is referred to, it may be understood that the first region 210 is referred to.

減光部材200は、観察領域SCから映像表示空間に進入する外光を減じる光学部材である。減光部材200は、映像表示空間を暗い状態に維持するために設けられている。減光部材200は、観察者自身が観察領域SCに映ってしまう映り込みの発生を抑えたり、映像表示空間の内部の部品を観察者に観察されにくくしたりするために設けられる。減光部材200は、板状(パネル状を含む)の部材であるが、シート状、フィルム状などと呼ばれる部材でもよい。減光部材200は、スモークパネルまたはスモークフィルムなどと呼ばれる部材であってもよい。減光部材200は、例えば光の透過率が24%で、その厚さが2mm程度である。減光部材200は、表示装置1の映像表示空間に表示される映像の観察を妨げない程度の透光性を有する。減光部材200は、黒色系等の暗色系の半透明の部材であるが、青色系その他の色であってもよい。 The light reduction member 200 is an optical member that reduces external light entering the image display space from the observation area SC. The light reduction member 200 is provided to maintain the image display space in a dark state. The light attenuation member 200 is provided to suppress the occurrence of reflection in which the viewer himself or herself is reflected in the observation area SC, and to make it difficult for the viewer to observe components inside the video display space. The light attenuation member 200 is a plate-shaped (including panel-shaped) member, but may also be a member called a sheet-shaped, film-shaped, or the like. The light reduction member 200 may be a member called a smoke panel, a smoke film, or the like. The light attenuation member 200 has, for example, a light transmittance of 24% and a thickness of about 2 mm. The light attenuation member 200 has a light transmittance that does not interfere with observation of the image displayed in the image display space of the display device 1. The light attenuation member 200 is a semitransparent member in a dark color such as black, but may be in a blue or other color.

情報領域STが、正面側パネル102のうち、観察領域SC(減光部材200および開口部110)の下方に設けられている。情報領域STは、正面側パネル102に開けられた開口部に位置する。情報領域STは、センサを用いて所定の情報を収集したり、所定の情報を観察者に提示したりする領域である。情報領域STに設けられる電子部品として、第1センサ2331、第2センサ2332、マイクロホン2333と、発光部2334とがある。第1センサ2331は、観察者が行うジェスチャを検出するジェスチャセンサである。第2センサ2332は、ジェスチャセンサ以外の1または複数のセンサを含む。第2センサ2332のセンサとしては、例えば、ガスセンサ(臭いセンサ)、温度センサ、および照度センサがある。マイクロホン2333は、収音し、収音した音を音声信号に変換する。発光部2334は、発光することにより所定の情報を提示する。発光部2334は、例えば、所定の色で発光する発光体(例えば、発光ダイオード)と、発光体が発した光を導く導光部材とを含む。本実施形態では、発光部2334の導光部材が第1センサ2331、第2センサ2332、およびマイクロホン2333が設けられた領域の周りを囲むようにして配置されている。発光部2334は、例えば青色系の色(例えば水色)で発行するが、緑色系、赤色系その他の色の1つまたは複数の色で発光するように構成されてもよい。発光部2334は、導光部材を有する構成に限られず、例えば発光体を複数有する構成によって所定の領域で発光してもよい。 The information area ST is provided below the observation area SC (the light attenuation member 200 and the opening 110) in the front panel 102. The information area ST is located in an opening made in the front panel 102. The information area ST is an area where predetermined information is collected using a sensor or where predetermined information is presented to an observer. Electronic components provided in the information area ST include a first sensor 2331, a second sensor 2332, a microphone 2333, and a light emitting section 2334. The first sensor 2331 is a gesture sensor that detects gestures performed by the observer. The second sensor 2332 includes one or more sensors other than the gesture sensor. Examples of the second sensor 2332 include a gas sensor (odor sensor), a temperature sensor, and an illuminance sensor. The microphone 2333 collects sound and converts the collected sound into an audio signal. The light emitting unit 2334 presents predetermined information by emitting light. The light emitting unit 2334 includes, for example, a light emitter (for example, a light emitting diode) that emits light in a predetermined color and a light guide member that guides the light emitted by the light emitter. In this embodiment, the light guide member of the light emitting unit 2334 is arranged so as to surround the area where the first sensor 2331, the second sensor 2332, and the microphone 2333 are provided. The light emitting unit 2334 emits light in, for example, a blue color (for example, light blue), but may be configured to emit light in one or more of green, red, and other colors. The light emitting unit 2334 is not limited to a configuration having a light guide member, and may emit light in a predetermined area by having a configuration including a plurality of light emitters, for example.

操作領域OTが、上蓋部105に設けられている。操作領域OTは、観察者が行う操作を受け付ける領域である。操作領域OTは、操作部2211,2212,2213,2214が設けられた領域である。操作部2211,2212,2213,2214は、それぞれ押下操作を受け付けるスイッチである。操作部2211は、表示装置1の電源のオンまたはオフを指示する場合に操作される。操作部2212は、音量を上げることを指示する場合に操作される。操作部2213は、音量を下げることを指示する場合に操作される。操作部2214は、所定の機能の実行を指示する場合に操作される。操作部2214は、例えば特殊キーと呼ばれる操作部であってもよい。操作部2214は、例えば、表示装置1に音声認識の開始を指示する場合に操作されるようにしてもよい。上蓋部105には、操作部2211,2212,2213,2214のそれぞれが設けられる位置に対応して開口部が設けられている。操作部2211,2212,2213,2214は各開口部に位置することによって外部に露出する。なお、ここで説明した操作部の数、操作部に割り当てられた機能、受け付け可能な操作方法は一例である。 An operation area OT is provided in the upper lid portion 105. The operation area OT is an area that accepts operations performed by the observer. The operation area OT is an area in which operation units 2211, 2212, 2213, and 2214 are provided. The operation units 2211, 2212, 2213, and 2214 are switches that each accept a press operation. The operation unit 2211 is operated when instructing to turn on or turn off the power of the display device 1. The operation unit 2212 is operated when instructing to increase the volume. The operation unit 2213 is operated when instructing to lower the volume. The operation unit 2214 is operated when instructing execution of a predetermined function. The operation unit 2214 may be, for example, an operation unit called a special key. The operation unit 2214 may be operated, for example, when instructing the display device 1 to start voice recognition. The upper lid portion 105 is provided with openings corresponding to the positions where the operation portions 2211, 2212, 2213, and 2214 are provided. The operation parts 2211, 2212, 2213, and 2214 are exposed to the outside by being located in each opening. Note that the number of operation units, functions assigned to the operation units, and acceptable operation methods described here are merely examples.

人感センサ234が、下蓋部106に設けられている。人感センサ234は下蓋部106の開口部に位置することによって外部に露出する。人感センサ234は、検知対象空間における人(動体)の存在を検出する検出部である。人感センサ234は、本実施形態ではマイクロ波ドップラセンサであり、マイクロ波を放射し、その反射波であるマイクロ波の受信強度に基づいて、検知対象空間における人の存在を検出する。例えば、人感センサ234は、表示装置1の正面側に人が存在するかどうかを検出する。 A human sensor 234 is provided on the lower lid portion 106. The human sensor 234 is exposed to the outside by being located in the opening of the lower lid part 106. The human sensor 234 is a detection unit that detects the presence of a person (moving object) in the detection target space. The human sensor 234 is a microwave Doppler sensor in this embodiment, and emits microwaves, and detects the presence of a person in the detection target space based on the reception intensity of the microwaves that are reflected waves. For example, the human sensor 234 detects whether a person is present in front of the display device 1.

表示装置1の背面側パネル104には、電源ジャック2311と、後蓋部1041が設けられている。電源ジャック2311は、電源コードが接続されるジャックである。電源ジャック2311は、電源コードを介して外部電源等からの電力の供給を受ける。後蓋部1041は、取り外しが可能な蓋部である。後蓋部1041が取り外されると、図11に示すように、スロット222およびUSB(Universal Serial Bus)コネクタ223が露出する。スロット222は、外部記憶媒体が装着される装着部である。外部記憶媒体は、例えばmicroSD(登録商標)の規格に対応するが、microSDHCその他SDカードに関する規格またはその他の規格に対応してもよい。USBコネクタ223は、USBケーブルまたはUSB規格に対応した外部機器のUSBポートが装着される装着部である。表示装置1では、スロット222およびUSBコネクタ223を介して外部機器との間でデータの入出力を行うことができる。装着部の数はさらに多くてもよい。スロット222およびUSBコネクタ223のうち筐体の外部に露出する部分が、表示装置1の背面側であるから、観察者から観察されにくくすることができる。また、外部機器が装着される装着部の数や対応する規格は特に問わない。 The back panel 104 of the display device 1 is provided with a power jack 2311 and a rear cover 1041. The power jack 2311 is a jack to which a power cord is connected. The power jack 2311 receives power from an external power source or the like via a power cord. The rear lid portion 1041 is a removable lid portion. When the rear lid part 1041 is removed, the slot 222 and the USB (Universal Serial Bus) connector 223 are exposed, as shown in FIG. The slot 222 is a mounting section into which an external storage medium is mounted. The external storage medium complies with, for example, the microSD (registered trademark) standard, but may also comply with the microSDHC, other SD card-related standards, or other standards. The USB connector 223 is a mounting portion into which a USB cable or a USB port of an external device compliant with the USB standard is mounted. The display device 1 can input and output data to and from external devices via the slot 222 and the USB connector 223. The number of attachment parts may be even greater. Since the portions of the slot 222 and the USB connector 223 that are exposed to the outside of the housing are on the back side of the display device 1, they can be made difficult to be observed by the viewer. Further, the number of mounting parts to which external devices are mounted and the corresponding standards are not particularly limited.

筐体100は、右側パネル101と、正面側パネル102と、左側パネル103と、背面側パネル104と、上蓋部105と、下蓋部106とを結合して構成される。本実施形態では、結合方法として、固定具の一例であるネジを用いたネジ止めが採用される。ただし、正面側パネル102および上蓋部105には、ネジ止めされた箇所が存在しない。 The housing 100 is configured by combining a right side panel 101, a front side panel 102, a left side panel 103, a back side panel 104, an upper lid part 105, and a lower lid part 106. In this embodiment, as a coupling method, screwing using a screw, which is an example of a fixing device, is employed. However, there are no screwed locations on the front panel 102 and the upper lid portion 105.

右側パネル101においては、正面側の上下2か所で、ネジ710,720によってネジ止めされている。筐体100の左側パネル103においては、正面側の上下2か所で、ネジ730,740によってネジ止めされている。背面側パネル104においては、上方側の3か所でネジ751,752,753によってネジ止めされ、高さ方向における中心付近の2か所でネジ754,755によってネジ止めされ、下方側の3か所でネジ756,757,758によってネジ止めされている。下蓋部106においては、正面側の2か所で、ネジ761,762によってネジ止めされている。正面側パネル102および上蓋部105は、表示装置1を使用する観察者によって、比較的観察されやすい部分である。一方、それ以外の部位は、表示装置1を使用する観察者によって、比較的観察されにくい部分である。よって、表示装置1によれば、ネジ止め箇所が観察者に観察されてしまうのを抑制し、表示装置1の外観上の美観を保つことができる。このようにすることは、観察者に映像への没入感を与えることにも寄与することができる。 The right panel 101 is fastened with screws 710 and 720 at two locations on the front side, top and bottom. The left panel 103 of the housing 100 is fastened with screws 730 and 740 at two locations on the front side, upper and lower. On the back side panel 104, it is screwed at three places on the upper side with screws 751, 752, and 753, screwed on two places near the center in the height direction with screws 754, 755, and three places on the lower side. It is screwed in place with screws 756, 757, and 758. The lower lid portion 106 is screwed at two locations on the front side with screws 761 and 762. The front panel 102 and the top lid part 105 are parts that are relatively easily observed by an observer using the display device 1. On the other hand, other parts are relatively difficult to be observed by an observer using the display device 1. Therefore, according to the display device 1, it is possible to prevent the screwed parts from being observed by an observer and maintain the aesthetic appearance of the display device 1. Doing this can also contribute to giving the viewer a sense of immersion in the video.

図12は、観察者により表示装置1が使用される様子の一例を説明する図である。図12には、表示装置1とこれを使用する観察者Uとの位置関係を、表示装置1の左側面側から見た様子が示されている。表示装置1は、机3000の上に置かれている。表示装置1の正面側(前方側)には、椅子3100が配置されている。観察者Uは、表示装置1の方向を向いて椅子3100に着席している。この例では、観察者Uの目の位置は、表示装置1の上面よりも高い位置にある。このため、観察者Uは観察領域SCを角度θで見下ろすようにして観察する。角度θは水平方向と観察者Uの視線方向との間の角度である。角度θは、角度θ1以上θ2以下の範囲内である。角度θは、例えば15度である。観察者Uと観察領域SCとの水平方向の距離はおよそ50cmである。 FIG. 12 is a diagram illustrating an example of how the display device 1 is used by an observer. FIG. 12 shows the positional relationship between the display device 1 and the observer U using the display device 1, as viewed from the left side of the display device 1. The display device 1 is placed on a desk 3000. A chair 3100 is arranged on the front side (front side) of the display device 1. Observer U is seated on chair 3100 facing toward display device 1 . In this example, the position of the eyes of the observer U is higher than the top surface of the display device 1. Therefore, the observer U observes the observation area SC while looking down at the angle θ. The angle θ is the angle between the horizontal direction and the line of sight direction of the observer U. The angle θ is within the range of θ1 or more and θ2 or less. The angle θ is, for example, 15 degrees. The horizontal distance between the observer U and the observation area SC is approximately 50 cm.

<3.表示装置1の表示に関する原理>
図13は、表示装置1の表示に関する原理を説明する図である。図13には、表示装置1の左側面側から表示装置1の内部を見た場合の模式図が示してある。筐体100の内部の映像表示空間S1には、第1表示部310と、光学部材320と、第2表示部330とが設けられている。第1表示部310と光学部材320との協働により、映像表示空間S1に空中映像を結像させる映像表示部が構成される。
<3. Principle regarding display of display device 1>
FIG. 13 is a diagram illustrating the principle of display on the display device 1. FIG. 13 shows a schematic diagram of the inside of the display device 1 viewed from the left side of the display device 1. A first display section 310, an optical member 320, and a second display section 330 are provided in the video display space S1 inside the housing 100. The first display section 310 and the optical member 320 cooperate to form an image display section that forms an aerial image in the image display space S1.

第1表示部310および第2表示部330は、画像を表示する表示部である。第1表示部310および第2表示部330は、光源を有する表示部であり、例えば液晶ディスプレイである。光源は、バックライトである。第1表示部310および第2表示部330は、赤(R)、緑(G)、青(B)の3原色に基づいてカラー(多色)の画像を表示する。第1表示部310および第2表示部330は、本実施形態では二次元の画像として認識される画像を表示する。 The first display section 310 and the second display section 330 are display sections that display images. The first display section 310 and the second display section 330 are display sections each having a light source, and are, for example, liquid crystal displays. The light source is a backlight. The first display section 310 and the second display section 330 display a color (multicolor) image based on the three primary colors of red (R), green (G), and blue (B). The first display section 310 and the second display section 330 display images that are recognized as two-dimensional images in this embodiment.

第1表示部310は、8インチの液晶ディスプレイである。例えば、この場合、第1表示部310は、光源の一例であるバックライトと、表示素子の一例である液晶素子を二次元配置した表示体とを含む。光源は例えば白色光源である。液晶素子は、画素単位でバックライトからの光を変調する。液晶素子は、例えば、画素単位に設けられる画素電極と複数の画素で共通の共通電極とで液晶分子を挟持した構成である。第1表示部310は、第1画像光L1を発する第1表示面311を有する。第1表示部310は、図1A~図1Cでいえば、キャラクタ1100,1200を表示するための画像光を発する。第1表示部310は、観察領域SC側の一端が観察領域SCよりも上方に位置し、かつ、背面側が低くなるように傾斜して配置されている。この傾きは、第1表示面311の傾きに等しく、水平面に対してほぼ20度である。このように傾きをほぼ20度すれば、観察者に与えることのできる空中映像の立体感を高めることができるとともに、第1画像光L1が減光部材200で反射して映像表示空間に形成される虚像がより観察されにくくすることができるという知見を発明者は得た。この根拠については後述する。ただし、この角度は一例である。表示装置1の幅方向においては、第1表示面311の各位置の高さは同じである。 The first display section 310 is an 8-inch liquid crystal display. For example, in this case, the first display section 310 includes a backlight, which is an example of a light source, and a display body in which liquid crystal elements, which are examples of display elements, are two-dimensionally arranged. The light source is, for example, a white light source. A liquid crystal element modulates light from a backlight on a pixel-by-pixel basis. A liquid crystal element has, for example, a structure in which liquid crystal molecules are sandwiched between a pixel electrode provided for each pixel and a common electrode common to a plurality of pixels. The first display section 310 has a first display surface 311 that emits the first image light L1. In FIGS. 1A to 1C, the first display unit 310 emits image light for displaying the characters 1100 and 1200. The first display unit 310 is arranged so that one end on the observation area SC side is located above the observation area SC, and the first display unit 310 is inclined so that the back side is lower. This inclination is equal to the inclination of the first display surface 311, and is approximately 20 degrees with respect to the horizontal plane. If the tilt is approximately 20 degrees in this way, the three-dimensional effect of the aerial image that can be given to the viewer can be enhanced, and the first image light L1 is reflected by the light attenuation member 200 and formed in the image display space. The inventor has obtained the knowledge that it is possible to make a virtual image more difficult to observe. The basis for this will be discussed later. However, this angle is just an example. In the width direction of the display device 1, the height of each position of the first display surface 311 is the same.

光学部材320は、第1表示部310からの第1画像光L1に基づいて空中映像を結像させる光学系の一例である。光学部材320は、光の透過性および反射性を有する。光学部材320は、板状である。光学部材320は、ここではハーフミラーである。光学部材320は、アクリルミターで構成され、光の透過率が約30%である。光学部材320の厚さは、約2mmである。光の透過率は一例にすぎず例えば6%としてもよいし、映像表示空間S1に表示される空中映像を観察者が観察し得る程度の透過率が確保されていればよい。光学部材320は、映像表示空間S1において、開口部110および第1表示面311に対して傾斜して配置されている。光学部材320は、観察領域SC側の先端が、観察領域SCよりも下方に位置し、背面側ほどより高い位置となるように傾斜している。この傾きは、水平面に対して35度である。ただし、この角度は一例である。表示装置1の幅方向においては、光学部材320の各位置の高さは同じである。 The optical member 320 is an example of an optical system that forms an aerial image based on the first image light L1 from the first display section 310. The optical member 320 has light transmittance and light reflectivity. Optical member 320 is plate-shaped. The optical member 320 is a half mirror here. The optical member 320 is made of acrylmeter and has a light transmittance of about 30%. The thickness of the optical member 320 is approximately 2 mm. The light transmittance is just an example, and may be set to 6%, for example, as long as the transmittance is sufficient to allow the viewer to observe the aerial image displayed in the image display space S1. The optical member 320 is arranged at an angle with respect to the opening 110 and the first display surface 311 in the video display space S1. The optical member 320 is inclined so that the tip on the observation area SC side is located below the observation area SC, and becomes higher toward the back side. This inclination is 35 degrees with respect to the horizontal plane. However, this angle is just an example. In the width direction of the display device 1, the height of each position of the optical member 320 is the same.

第2表示部330は、7インチの液晶ディスプレイである。第2表示部330は、表示した画像の第2画像光L2を発する第2表示面331を有する。第2表示部330は、図1Aおよび図1Bでいえば、ステージ映像2100,2200に相当する映像V2を表示する。第2表示部330は、第2表示面331の法線方向が上方向を向くように配置されている。第2表示面331は、光学部材320の下方側の一端よりも背面側に位置する。第2表示面331よりも正面側には、台座部400が設けられている。台座部400は、筐体100の映像表示空間S1を構成する部材の一部をなす。台座部400の上面は、第2表示面331とほぼ同じ高さに位置するが、第2表示面331の方がやや低くなっていてもよい。 The second display section 330 is a 7-inch liquid crystal display. The second display section 330 has a second display surface 331 that emits second image light L2 of the displayed image. The second display unit 330 displays a video V2 corresponding to the stage videos 2100 and 2200 in FIGS. 1A and 1B. The second display section 330 is arranged so that the normal direction of the second display surface 331 faces upward. The second display surface 331 is located closer to the back side than one end of the lower side of the optical member 320. A pedestal section 400 is provided on the front side of the second display surface 331. The pedestal section 400 forms part of a member constituting the video display space S1 of the housing 100. The upper surface of the pedestal section 400 is located at approximately the same height as the second display surface 331, but the second display surface 331 may be slightly lower.

以上の構成のもと、第1表示部310が発した第1画像光L1は、光学部材320の第1面321に所定の角度で入射する。入射した第1画像光L1は、光学部材320によって表示装置1の正面側に当該所定の角度で反射させられる。この反射光L1rによって、筐体100の映像表示空間S1に空中映像V1が認識される。空中映像V1は、第1表示面311の背面側の先端部の下方、例えば第1表示面311と光学部材320との交点の下方の位置に認識される虚像である。 With the above configuration, the first image light L1 emitted by the first display section 310 is incident on the first surface 321 of the optical member 320 at a predetermined angle. The incident first image light L1 is reflected by the optical member 320 toward the front side of the display device 1 at the predetermined angle. Due to this reflected light L1r, an aerial image V1 is recognized in the image display space S1 of the housing 100. The aerial image V1 is a virtual image recognized below the tip of the back side of the first display surface 311, for example, below the intersection of the first display surface 311 and the optical member 320.

第2表示部330が発した第2画像光L2は、光学部材320の第2面332に入射して、第1面321側に透過する。第2画像光L2は、直接観察者の目に入る。第2表示面331の映像V2は、空中映像V1の下方に位置するように認識される実像である。例えば、第2表示面331の前後方向における中心に空中映像V1が認識されるようになっている。このようにして、空中映像V1が図1A~1Cでいうキャラクタ1100,1200と認識され、映像V2が図1A~1Cでいうステージ映像2100,2200として認識される。表示装置1によれば、光学部材320を用いて結合させた空中映像V1を観察させることで映像の立体感を観察者に与え、さらにその下方に映像V2を観察者に観察させることでその立体感をより高めることができる。また、第2表示部330を用いることで、発光体および導光部材を組み合わせて所定のパターンの模様で発光するような場合に比べて、空中映像とともに観察者に観察させる映像の選択の自由度を高めることができる。 The second image light L2 emitted by the second display section 330 enters the second surface 332 of the optical member 320 and is transmitted to the first surface 321 side. The second image light L2 directly enters the observer's eyes. The image V2 on the second display surface 331 is a real image that is recognized as being located below the aerial image V1. For example, the aerial image V1 is recognized at the center of the second display surface 331 in the front-rear direction. In this way, the aerial image V1 is recognized as the characters 1100, 1200 in FIGS. 1A to 1C, and the image V2 is recognized as the stage images 2100, 2200 in FIGS. 1A to 1C. According to the display device 1, the viewer is given a three-dimensional effect by having the viewer observe the aerial image V1 combined using the optical member 320, and the three-dimensional effect is given to the viewer by having the viewer observe the image V2 below the aerial image V1. It can enhance the feeling. In addition, by using the second display unit 330, the viewer has more freedom in selecting the image to be observed along with the aerial image, compared to a case where a light emitting body and a light guiding member are combined to emit light in a predetermined pattern. can be increased.

第1表示部310の第1表示面311には、正面側への視野角を狭める視野角制御部材312が設けられるようにすることが望ましい。このようにすれば、観察者が観察領域SCに近づいて見上げるようにしても、第1表示面311に表示される画像が直接観察者に観察されてしまうことを抑制することができる。第2表示面331については、観察者が映像V2を観察しやすくなるように正面側への視野角を狭める視野角制御部材は設けられていない。 It is desirable that the first display surface 311 of the first display unit 310 is provided with a viewing angle control member 312 that narrows the viewing angle toward the front side. In this way, even if the viewer approaches the observation area SC and looks up, it is possible to prevent the image displayed on the first display surface 311 from being directly observed by the viewer. Regarding the second display surface 331, a viewing angle control member that narrows the viewing angle toward the front side is not provided so that the viewer can easily observe the image V2.

表示装置1の基本的な表示の原理は、以上のとおりである。さらに、表示装置1は、その視覚的な効果を高めるための構成として、減光部材200および遮光部材500を有している。その作用及び効果については後述する。 The basic display principle of the display device 1 is as described above. Furthermore, the display device 1 includes a light attenuation member 200 and a light shielding member 500 as a configuration for enhancing its visual effect. Its action and effect will be described later.

<4.表示装置1の内部の構成>
次に、表示装置1の内部の構成を説明する。図14、図15、図16、図17、および図18は、筐体100のうち、右側パネル101と、正面側パネル102と、左側パネル103と、背面側パネル104とを取り外した状態を示す図である。図14に示すように、右側パネル101を取り外したことにより、右側内部パネル107が露出する。図15に示すように、正面側パネル102を取り外したことにより、正面側内部パネル108が露出する。図16に示すように、左側パネル103を取り外したことにより、左側内部パネル109が露出する。図16に示すように、背面側パネル104を取り外したことにより、配線部800および仕切部材900が露出する。
<4. Internal configuration of display device 1>
Next, the internal configuration of the display device 1 will be explained. 14, FIG. 15, FIG. 16, FIG. 17, and FIG. 18 show the housing 100 with the right side panel 101, front side panel 102, left side panel 103, and back side panel 104 removed. It is a diagram. As shown in FIG. 14, by removing the right panel 101, the right inner panel 107 is exposed. As shown in FIG. 15, by removing the front panel 102, the front inner panel 108 is exposed. As shown in FIG. 16, by removing the left panel 103, the left internal panel 109 is exposed. As shown in FIG. 16, by removing the back side panel 104, the wiring section 800 and the partition member 900 are exposed.

右側内部パネル107および左側内部パネル109は、図13で説明した第1表示部310および光学部材320を左右の両側から挟みこむことによって保持する。 The right internal panel 107 and the left internal panel 109 hold the first display section 310 and the optical member 320 described in FIG. 13 by sandwiching them from both left and right sides.

図2、図4、図6で示したネジ710,720は、右側パネル101、正面側内部パネル108、および右側内部パネル107を通過する穴H1,H2を順次通過して、これらを結合する。図3,図7で示したネジ730,740は、左側パネル103、正面側内部パネル108、および左側内部パネル109を通過する穴H3,H4を順次通過して、これらを結合する。図10で示したネジ751,752,753は、背面側パネル104と上蓋部105とを固定する。ネジ754は、背面側パネル104と右側パネル101とを結合する。ネジ755は、背面側パネル104と左側パネル103とを固定する。ネジ765,765,757は、背面側パネル104と下蓋部106を固定する。 The screws 710 and 720 shown in FIGS. 2, 4, and 6 sequentially pass through the holes H1 and H2 that pass through the right panel 101, the front inner panel 108, and the right inner panel 107 to connect them. The screws 730 and 740 shown in FIGS. 3 and 7 sequentially pass through the holes H3 and H4 that pass through the left panel 103, the front inner panel 108, and the left inner panel 109 to connect them. The screws 751, 752, and 753 shown in FIG. 10 fix the back side panel 104 and the top lid part 105. Screws 754 connect back side panel 104 and right side panel 101. The screws 755 fix the rear side panel 104 and the left side panel 103. The screws 765, 765, and 757 fix the back side panel 104 and the lower lid part 106.

図19、図20、図21、図22、図23および図24は、さらに右側内部パネル107と左側内部パネル109とを取り外した状態を示す図である。図19は、表示装置1を右側面側から見た様子を示す図である。図20は、表示装置1を左側面側から見た様子を示す図である。図21は、表示装置1を右側面側の斜め下方から見た様子を示す図である。図22は、表示装置1を右側面側の斜め上方から見た様子を示す図である。図23は、表示装置1を左側面側の斜め下方から見た様子を示す図である。図24は、表示装置1を左側面側の斜め上方から見た様子を示す図である。 19, FIG. 20, FIG. 21, FIG. 22, FIG. 23, and FIG. 24 are views showing the state in which the right inner panel 107 and the left inner panel 109 are further removed. FIG. 19 is a diagram showing the display device 1 viewed from the right side. FIG. 20 is a diagram showing the display device 1 viewed from the left side. FIG. 21 is a diagram showing the display device 1 viewed from diagonally below on the right side. FIG. 22 is a diagram showing the display device 1 viewed diagonally from above on the right side. FIG. 23 is a diagram showing the display device 1 viewed diagonally from below on the left side surface side. FIG. 24 is a diagram showing the display device 1 viewed diagonally from above on the left side.

筐体100の内部には、第1表示部310と、光学部材320と、第2表示部330と、台座部400と、遮光部材500とが設けられている。第1表示部310と、光学部材320と、第2表示部330と、台座部400とは、図13を用いて説明したとおりの構成である。 Inside the housing 100, a first display section 310, an optical member 320, a second display section 330, a pedestal section 400, and a light shielding member 500 are provided. The first display section 310, the optical member 320, the second display section 330, and the pedestal section 400 have the same configuration as described using FIG. 13.

遮光部材500は、第1表示部310からの第1画像光L1のうちの減光部材200から反射した反射光の光路上に設けられる。遮光部材500は、光学部材320にこの反射光が入射するのを妨げるように、光学部材320のうちの減光部材200(観察領域SC)側の一端側、換言すると、第1表示部310から遠い側の一端側を覆う。遮光部材500は、例えば可視光を吸収する部材であるが、第1画像光L1の透過を妨げる部材であればよい。遮光部材500は、例えば、黒色その他の暗色系の色とするとよいが、それ以外の色でもよい。このようにする理由については後述するが、第1画像光L1が減光部材200で反射して映像表示空間S1に形成される映像(虚像)が、観察者によって観察されてしまうのを抑制するためである。特に、観察領域SCから映像表示空間S1を覗き込むようにして観察者が映像を観察した場合に観察される恐れのある映像が観察されるのを抑制する。この映像以外にも、天井などの外部の物が観察されるのを抑制する。遮光部材500の上面はほぼ水平であるが、これに限られない。 The light shielding member 500 is provided on the optical path of the reflected light reflected from the light attenuation member 200 out of the first image light L1 from the first display section 310. The light shielding member 500 is configured to prevent the reflected light from entering the optical member 320 at one end of the optical member 320 on the light attenuation member 200 (observation area SC) side, in other words, from the first display section 310. Cover one end of the far side. The light shielding member 500 is, for example, a member that absorbs visible light, but may be any member that prevents transmission of the first image light L1. The light shielding member 500 may be made of, for example, black or another dark color, but may be made of other colors. The reason for doing this will be described later, but it prevents the viewer from observing the image (virtual image) formed in the image display space S1 by the reflection of the first image light L1 by the light reduction member 200. It's for a reason. In particular, it is possible to suppress images that may be observed when an observer looks into the image display space S1 from the observation area SC. In addition to this image, external objects such as the ceiling are also suppressed from being observed. Although the upper surface of the light shielding member 500 is approximately horizontal, it is not limited thereto.

第1表示部310の上方には、第1プレート601が設けられ、第1プレート601の上方には各種部品を収容する第1収容空間S2(図19および図20参照)が形成されている。また、第2表示部330の下方には、第2プレート602が設けられ、台座部400および第2プレート602の下方に各種部品の第2収容空間S3(図25~図27参照)が形成されている。 A first plate 601 is provided above the first display section 310, and a first accommodation space S2 (see FIGS. 19 and 20) for accommodating various components is formed above the first plate 601. Further, a second plate 602 is provided below the second display section 330, and a second storage space S3 (see FIGS. 25 to 27) for various components is formed below the pedestal section 400 and the second plate 602. ing.

図17~図24に示すように、第1収容空間S2は、第1表示部310の上に設けられた第1プレート601によって映像表示空間S1と隔てられた空間である。第1プレート601は、ネジ791,792,793を用いて右側内部パネル107に結合され、ネジ794,795,796を用いて左側内部パネル109に結合される。第1収容空間S2には、操作基板221と、処理基板224と、スピーカ2251,2252と、保持部226とが設けられる。操作基板221は、操作部2211,2212,2213,2214が表面に実装される基板である。操作基板221は、操作部2211,2212,2213,2214の操作に応じた信号を、処理基板224に供給する。処理基板224は、表示装置1の制御を司る処理基板として機能する。処理基板224は、メイン基板と呼ばれるものであってもよい。処理基板224は、操作基板221およびスピーカ225A,225Bと、例えばプリント配線基板(例えばFPC)を介して電気的に接続する。処理基板224は、表示装置1の奥行方向において、第1収容空間S2の背面側に位置する。処理基板224は、いわゆるSoC基板であり、プロセッサおよびOS(Operating System)を動作させる。処理基板224は、センサ基板233に実装されたセンサからの信号およびマイクロホン2333からの音声信号をOSで読み取ったり、操作部2211,2212,2213の操作に応じた信号を操作基板221から取得したりする。処理基板224は、第1表示部310および第2表示部330に映像を表示させるための制御を行う。処理基板224には、スロット222およびUSBコネクタ223が実装され、表示装置1の背面側から露出する。 As shown in FIGS. 17 to 24, the first accommodation space S2 is a space separated from the video display space S1 by a first plate 601 provided on the first display section 310. The first plate 601 is coupled to the right interior panel 107 using screws 791, 792, 793 and to the left interior panel 109 using screws 794, 795, 796. The first accommodation space S2 is provided with an operation board 221, a processing board 224, speakers 2251, 2252, and a holding part 226. The operation board 221 is a board on which operation units 2211, 2212, 2213, and 2214 are mounted. The operation board 221 supplies signals corresponding to the operations of the operation units 2211, 2212, 2213, and 2214 to the processing board 224. The processing board 224 functions as a processing board that controls the display device 1. The processing substrate 224 may be called a main substrate. The processing board 224 is electrically connected to the operation board 221 and the speakers 225A and 225B via, for example, a printed wiring board (for example, FPC). The processing substrate 224 is located on the back side of the first accommodation space S2 in the depth direction of the display device 1. The processing board 224 is a so-called SoC board, and operates a processor and an OS (Operating System). The processing board 224 uses the OS to read signals from sensors mounted on the sensor board 233 and audio signals from the microphone 2333, and acquires signals from the operation board 221 according to operations on the operation units 2211, 2212, and 2213. do. The processing board 224 controls the first display section 310 and the second display section 330 to display images. A slot 222 and a USB connector 223 are mounted on the processing board 224 and exposed from the back side of the display device 1 .

スピーカ2251,2252は、正面側から見て左右両側に設けられ、上蓋部105に開けられた開口部1051,1052を介して外部に音を放出する。スピーカ2251,2252は処理基板224とはあまり離さないことが望ましい。スピーカ2251,2252は互いの音がなるべく干渉しないように距離が空けられていることが望ましい。 The speakers 2251 and 2252 are provided on both the left and right sides when viewed from the front side, and emit sound to the outside through openings 1051 and 1052 formed in the upper lid portion 105. It is desirable that the speakers 2251 and 2252 are not too far away from the processing substrate 224. It is desirable that the speakers 2251 and 2252 be spaced apart so that their sounds do not interfere with each other as much as possible.

保持部226は、処理基板224に重なる位置に設けられ、下方の面に処理基板224を保持する。保持部226のうち処理基板224を保持する側とは反対側の上方の面には、放熱または吸熱のためのヒートシンク2261が設けられている。第1表示部310および第1プレート601は、正面側から背面側に下がるように傾斜している。このため、第1収容空間S2は、正面側から背面側にかけて高さ方向の寸法が次第に大きくなっており、背面側ほど高さ方向の寸法に余裕がある。これを利用して、処理基板224および保持部226のような厚みを有する部材を収容している。このようにすれば、観察領域SCよりも上部の筐体部分が長くなるのを抑制し、表示装置1の軽量化・小型化に寄与するとともに、意匠の面においても望ましい。 The holding portion 226 is provided at a position overlapping the processing substrate 224 and holds the processing substrate 224 on its lower surface. A heat sink 2261 for heat radiation or heat absorption is provided on the upper surface of the holding portion 226 on the side opposite to the side that holds the processing substrate 224. The first display section 310 and the first plate 601 are inclined downward from the front side to the back side. For this reason, the first accommodation space S2 has a dimension in the height direction that gradually increases from the front side to the back side, and there is more room in the height direction toward the back side. By utilizing this, thick members such as the processing substrate 224 and the holding portion 226 are accommodated. This prevents the casing portion above the viewing area SC from becoming longer, which contributes to the reduction in weight and size of the display device 1, and is also desirable in terms of design.

図25、図26および図27は、下蓋部106を取り外したときの表示装置1の内部構成を示す図である。台座部400および第2表示部330の下方には、第2プレート602が設けられている。第2プレート602と下蓋部106との間に第2収容空間S3が形成される。第2収容空間S3には、制御基板231と、配線232と、センサ基板233と、人感センサ234とが設けられる。正面側内部パネル108は、ネジ771,772,773,774を用いて第2プレート602に結合される。正面側内部パネル108は、ネジ775,776,777を用いて下蓋部106に結合される。正面側内部パネル108は、ネジ771~777を用いて固定されるが、表示装置1が使用される状況下では、正面側パネル102によって覆われているので、ネジ771~777が正面側に露出しない。 25, 26, and 27 are diagrams showing the internal configuration of the display device 1 when the lower lid portion 106 is removed. A second plate 602 is provided below the pedestal section 400 and the second display section 330. A second accommodation space S3 is formed between the second plate 602 and the lower lid part 106. A control board 231, wiring 232, a sensor board 233, and a human sensor 234 are provided in the second accommodation space S3. Front interior panel 108 is coupled to second plate 602 using screws 771, 772, 773, 774. The front internal panel 108 is coupled to the lower lid portion 106 using screws 775, 776, and 777. The front internal panel 108 is fixed using screws 771 to 777, but when the display device 1 is used, it is covered by the front panel 102, so the screws 771 to 777 are exposed on the front side. do not.

制御基板231は、表示装置1の電源の供給および信号の供給を制御する。制御基板231は、配線部800を介して処理基板224と電気的に接続され、各種信号の授受を行ったり、処理基板224に電力を供給したりする。制御基板231は、配線232を介してセンサ基板233および人感センサ234と電気的に接続される。配線232は、例えばプリント配線基板(例えばFPC)である。 The control board 231 controls the supply of power and signals to the display device 1 . The control board 231 is electrically connected to the processing board 224 via the wiring section 800, and sends and receives various signals and supplies power to the processing board 224. Control board 231 is electrically connected to sensor board 233 and human sensor 234 via wiring 232 . The wiring 232 is, for example, a printed wiring board (for example, FPC).

センサ基板233は、第1センサ2331、第2センサ2332、およびマイクロホン2333が実装された基板である。センサ基板233は、正面側内部パネル108の背面側の面のうち、減光部材200(観察領域SC)よりも下方の領域に設けられている。センサ基板233は、その基板面が高さ方向および幅方向に延びるように鉛直方向に立てられている。センサ基板233のセンサは、所定の情報を検出するものであればよい。第1センサ2331は、正面側に光(例えば赤外光)を発し、その反射光を受光することにより観察者のジェスチャを検出する光学方式のセンサである。マイクロホン2333は、収音し、収音した音を示す音信号を出力する。第2センサ2332としてのガスセンサは、ガス臭い、焦げ付き臭い等のにおいを検出する。温度センサは、温度を検出する。照度センサは、照度を検出する。第1センサ2331が情報領域STの幅方向におけるほぼ中央に位置する。センサ基板233は、第1センサ2331、第2センサ2332、およびマイクロホン2333からの信号を、配線232を介して制御基板231に出力する。処理基板224は、配線部800および制御基板231を介して、音声認識可能な場合に発光部2334を発光させる制御を行う。 The sensor board 233 is a board on which a first sensor 2331, a second sensor 2332, and a microphone 2333 are mounted. The sensor substrate 233 is provided in a region below the light attenuation member 200 (observation area SC) on the back surface of the front internal panel 108. The sensor board 233 is erected vertically so that its board surface extends in the height and width directions. The sensor of the sensor board 233 may be any sensor as long as it detects predetermined information. The first sensor 2331 is an optical sensor that emits light (for example, infrared light) to the front side and detects the gesture of the viewer by receiving the reflected light. The microphone 2333 collects sound and outputs a sound signal indicating the collected sound. The gas sensor as the second sensor 2332 detects odors such as gas odor and burnt odor. A temperature sensor detects temperature. The illuminance sensor detects illuminance. The first sensor 2331 is located approximately at the center in the width direction of the information area ST. The sensor board 233 outputs signals from the first sensor 2331, the second sensor 2332, and the microphone 2333 to the control board 231 via the wiring 232. The processing board 224 controls, via the wiring section 800 and the control board 231, the light emitting section 2334 to emit light when voice recognition is possible.

人感センサ234は、正面側内部パネル108に接触しないように、正面側内部パネル108よりも背面側に30cm程度など所定の間隔を空けて配置される。このようにすることが、人感センサ234の検出感度を確保する上で望ましい。人感センサ234は、奥行方向でいうと真ん中よりやや正面側に設けられる。人感センサ234は検出結果を示す信号を、制御基板231に出力する。 The human sensor 234 is arranged at a predetermined interval, such as about 30 cm, on the back side of the front internal panel 108 so as not to contact the front internal panel 108 . This is desirable in order to ensure the detection sensitivity of the human sensor 234. The human sensor 234 is provided slightly to the front side from the center in the depth direction. The human sensor 234 outputs a signal indicating the detection result to the control board 231.

配線部800は、電源線810、信号線820、および信号線830を含む。筐体100の下側から上側に配線部800は引き回されている。配線部800は、背面側パネル104と仕切部材900との間を通る。制御基板231は、電源線810を介して処理基板224に電力を供給する。制御基板231は、信号線820を介して処理基板224との間で信号の授受を行う。処理基板224は、信号線830を介して、第2表示部330を駆動する信号(例えば、駆動用の信号や映像信号)を供給する。電源線810、信号線820および信号線830は、仕切部材900と背面側パネル104との間の空間領域を通過するように設けられる。仕切部材900の正面側には、背景板910が設けられる。背景板910は、例えば黒などの暗色系の色である。仕切部材900は、例えば樹脂材料を用いて板状に形成され、光を透過させない部材である。このようにすれば、映像表示空間S1側から配線部800は観察されない。 Wiring section 800 includes a power line 810, a signal line 820, and a signal line 830. The wiring section 800 is routed from the bottom of the housing 100 to the top. The wiring section 800 passes between the back side panel 104 and the partition member 900. The control board 231 supplies power to the processing board 224 via the power line 810. The control board 231 sends and receives signals to and from the processing board 224 via the signal line 820. The processing board 224 supplies a signal (for example, a driving signal or a video signal) for driving the second display section 330 via a signal line 830. The power line 810, the signal line 820, and the signal line 830 are provided so as to pass through the spatial region between the partition member 900 and the rear panel 104. A background plate 910 is provided on the front side of the partition member 900. The background plate 910 is, for example, a dark color such as black. The partition member 900 is formed into a plate shape using, for example, a resin material, and is a member that does not transmit light. In this way, the wiring section 800 is not observed from the video display space S1 side.

処理基板224は、コミュニケーション機能に基づいて、第1表示部310および第2表示部330の表示を制御したり、スピーカ2251,2252からの音声出力を制御したりする動作制御手段として機能する。処理基板224は、例えば、センサ基板233および人感センサ234により測定された情報に応じて、第1表示部310および第2表示部330の表示を制御したり、スピーカ2251,2252からの音声の出力を制御したりする。処理基板224は、例えば、人感センサ234に基づいて、人の存在を検出すると、表示するキャラクタに挨拶をするような動作をさせたり、そのキャラクタの音声を出力したりするとよい。処理基板224は、第1センサ2331で手の振りとして、左右、上下、バイバイ、前後に動かすといったジェスチャが検出されると、第1表示部310の表示を制御したり、スピーカ2251,2252からの音声の出力を制御したりする。例えば、処理基板224は、左右または上下の手の振りに応じて、その方向にキャラクタを回転させる。処理基板224は、バイバイのジェスチャが検出されると、キャラクタにバイバイの動作をさせる。処理基板224は、手を前後に動かすジェスチャを検出すると、キャラクタの表示をデフォルトに戻す(例えば図1A~図1C)。処理基板224は、照度センサにより測定された照度に応じて、第1表示部310および第2表示部330の少なくとも一方の表示を変化させる。処理基板224は、例えば、表示装置1の周辺が暗くなると表示を暗くするとよい。処理基板224は、照度センサに基づいて、キャラクタの目を動かすなどの制御をしてもよい。処理基板224は、温度センサで検出された温度に応じて第1表示部310の表示を制御したり、スピーカ2251,2252からの音声の出力を制御したりする、処理基板224は、表示装置1の周辺が暑いかまたは寒いかに応じてキャラクタの発話内容を変化させる。また、処理基板224は、発光部2334の発光を制御する。処理基板224は、操作部2211,2212,2213,2214の操作に応じて音量を変えたりする。なお、音声エンジンは処理基板224の機能で実現されてもよいし、外部の認識サーバにより実現されてもよい。後者の場合、処理基板は、Wi-Fi等の無線LANまたはネットワーク通信を行う通信モジュールを有し、それを介して音声認識サーバと通信するとよい。 The processing board 224 functions as an operation control unit that controls the display of the first display section 310 and the second display section 330 and the audio output from the speakers 2251 and 2252 based on the communication function. For example, the processing board 224 controls the display of the first display section 310 and the second display section 330 according to the information measured by the sensor board 233 and the human sensor 234, and controls the sound output from the speakers 2251 and 2252. control the output. For example, when the processing board 224 detects the presence of a person based on the human sensor 234, the processing board 224 may cause the displayed character to perform a greeting gesture or output the voice of the character. When the first sensor 2331 detects a gesture such as moving left/right, up/down, bye-bye, or forward/backward, the processing board 224 controls the display on the first display unit 310 and controls the display from the speakers 2251 and 2252. Control audio output. For example, the processing board 224 rotates the character in that direction in response to a left/right or up/down hand gesture. When the bye-bye gesture is detected, the processing board 224 causes the character to perform a bye-bye motion. When the processing board 224 detects a gesture of moving the hand back and forth, the processing board 224 returns the character display to the default (for example, FIGS. 1A to 1C). The processing substrate 224 changes the display of at least one of the first display section 310 and the second display section 330 according to the illuminance measured by the illuminance sensor. For example, the processing substrate 224 may darken the display when the periphery of the display device 1 becomes dark. The processing board 224 may perform control such as moving the character's eyes based on the illuminance sensor. The processing board 224 controls the display of the first display section 310 and the output of audio from the speakers 2251 and 2252 according to the temperature detected by the temperature sensor. The contents of the character's utterances change depending on whether the surrounding area is hot or cold. Further, the processing substrate 224 controls the light emission of the light emitting section 2334. The processing board 224 changes the volume depending on the operation of the operation units 2211, 2212, 2213, and 2214. Note that the voice engine may be realized by a function of the processing board 224, or may be realized by an external recognition server. In the latter case, the processing board preferably has a communication module that performs wireless LAN or network communication such as Wi-Fi, and communicates with the voice recognition server via it.

処理基板224は、第1表示部310の光源の発光輝度を、第2表示部330の光源の発光輝度よりも明るくする。このようにすれば、第1表示部310の発光輝度と第2表示部330の発光輝度との差異により、観察者に与えることのできる空中映像の立体感をより高めることができる、という知見を発明者が得たからである。映像表示空間S1が明るいと立体感が損なわれる可能性があるので、第2表示部330の発光輝度を低くしている。 The processing substrate 224 makes the light emission brightness of the light source of the first display section 310 brighter than the light emission brightness of the light source of the second display section 330 . In this way, the difference between the luminance of the first display section 310 and the luminance of the second display section 330 can further enhance the three-dimensional effect of the aerial image that can be given to the viewer. This is because the inventor obtained it. If the video display space S1 is bright, the three-dimensional effect may be impaired, so the luminance of the second display section 330 is set low.

第1表示部310は水平方向に対してほぼ20度で傾斜させてある。これは、観察者が椅子に座ってみたときに覗き込むような姿勢になることがあったり、第2表示部330の表示と相まって表示上の不具合が生じたりするのを抑えるためである。このようにすれば、表示装置1に対して観察者がやや上方から見たときも全体が見える。よって観察者は覗き込むような姿勢が要らない。 The first display section 310 is inclined at approximately 20 degrees with respect to the horizontal direction. This is to prevent the viewer from getting into a position where he or she looks into the screen when sitting on a chair, or from causing display problems in conjunction with the display on the second display section 330. In this way, even when the viewer views the display device 1 from slightly above, the entire display can be seen. Therefore, the observer does not need to look into the image.

このようにすれば、光学部材320に天井が反射して観察者に観察されてしまったり、第2表示面331の画像に重なって空中映像が綺麗に見えにくくなったりすることがない。その作用について説明する。図28に示すように、第1画像光L31,L32が減光部材200に入射したとする。この場合に、第1画像光L31,L32のそれぞれの反射波L31r,L32rが、減光部材200から出射し、さらに光学部材320で反射することにより、観察者によって虚像である映像V3が観察される。例えば、キャラクタの映像を第1表示部310が表示すると、キャラクタの下方側の部分、例えば足付近の映像が観察されてしまうことがある。また、図29に示すように、天井や照明等から光L4が減光部材200に入射してこれを透過し、さらに光学部材320で反射することにより、光学部材320の下端付近において天井の映り込みが発生する。このように、本来の空中映像V1以外の映像が観察されることにより、表示装置1の表示品位が行われる可能性がある。 In this way, the ceiling will not be reflected by the optical member 320 and observed by the observer, and the aerial image will not overlap with the image on the second display surface 331 and become difficult to see clearly. The effect will be explained. As shown in FIG. 28, it is assumed that the first image lights L31 and L32 are incident on the light attenuation member 200. In this case, the respective reflected waves L31r and L32r of the first image lights L31 and L32 are emitted from the light attenuation member 200 and further reflected by the optical member 320, so that the image V3, which is a virtual image, is observed by the observer. Ru. For example, when the first display unit 310 displays an image of a character, the lower part of the character, for example, the image near the feet may be observed. Further, as shown in FIG. 29, light L4 from the ceiling, lighting, etc. enters the light reduction member 200, passes through it, and is further reflected by the optical member 320, so that the ceiling is reflected near the lower end of the optical member 320. Congestion occurs. In this way, the display quality of the display device 1 may be affected by observing a video other than the original aerial video V1.

そこで、減光部材200での反射光の光路上、および天井や照明等から光L4の光路上に遮光部材500を配置することで、映像V3の表示や天井等の映り込みが抑制される。図30に示すように、遮光部材500を設けることで、光学部材320での反射が抑制されるので、映像V3の表示や天井の映り込みが抑止される。遮光部材500は、観察領域SCよりも下方にあり、また、減光部材200も存在するから、観察者によって遮光部材500の存在は認識されにくい。例えば、観察者と観察領域SCとの水平距離を50cm、観察者の視線が入射する角度θを35度となることを想定して、映像V3や映り込みに係る光の光路上に遮光部材500が設けられる。図31に示すように、仮に第1表示部310の傾斜角を10度とすると、映像V3の位置がより背面側に表示されてしまい、映像V3が観察されやすくなる。これを抑制するには遮光部材500をもっと奥側まで伸ばす必要があり、望ましくない。よって、第1表示部310の傾斜角を20度とすることが望ましい。 Therefore, by arranging the light shielding member 500 on the optical path of the reflected light from the light attenuation member 200 and on the optical path of the light L4 from the ceiling, lighting, etc., the display of the video V3 and the reflection of the ceiling, etc. can be suppressed. As shown in FIG. 30, by providing the light shielding member 500, reflection at the optical member 320 is suppressed, so display of the image V3 and reflection on the ceiling are suppressed. Since the light shielding member 500 is located below the observation area SC and the light attenuation member 200 is also present, the presence of the light shielding member 500 is difficult to be recognized by the observer. For example, assuming that the horizontal distance between the observer and the observation area SC is 50 cm and the angle θ at which the observer's line of sight enters is 35 degrees, a light shielding member 500 is placed on the optical path of the light related to the image V3 and reflections. will be provided. As shown in FIG. 31, if the inclination angle of the first display unit 310 is 10 degrees, the position of the image V3 will be displayed closer to the back side, making it easier to observe the image V3. To suppress this, it is necessary to extend the light shielding member 500 further to the back, which is not desirable. Therefore, it is desirable that the inclination angle of the first display section 310 is 20 degrees.

このような趣旨によると、遮光部材500を用いなくとも、第1画像光L1のうちの減光部材200で反射した反射光の光路上の領域を避けて、光学部材320が配置されてもよい。このようにすれば、第1画像光L1が減光部材で反射して映像表示空間に形成される虚像が、観察者によって観察されてしまうのを抑制することができる。 According to this idea, even without using the light shielding member 500, the optical member 320 may be arranged avoiding the area on the optical path of the reflected light reflected by the light reduction member 200 of the first image light L1. . In this way, it is possible to prevent the viewer from observing a virtual image formed in the video display space by reflection of the first image light L1 by the light attenuation member.

また、ジェスチャセンサである第1センサ2331の付近で観察者はジェスチャを行う。この場合、観察領域SCよりも上に第1センサ2331があると、ジェスチャをしている手が邪魔になってしまい、観察領域SCを介した映像の観察が妨げられる可能性がある。本実施形態では、観察領域SCの下方に第1センサ2331等のセンサを設けたため、観察領域SCを観察しながらジェスチャするなどしても、観察が妨げられることが抑えられる。 Further, the observer performs a gesture near the first sensor 2331, which is a gesture sensor. In this case, if the first sensor 2331 is located above the observation area SC, the hand making the gesture may get in the way, and observation of the image via the observation area SC may be hindered. In this embodiment, since a sensor such as the first sensor 2331 is provided below the observation area SC, even if a gesture is made while observing the observation area SC, the observation is prevented from being disturbed.

映像表示空間S1を暗くしたのは、空中映像がより立体的に見えるようにするためである。例えば、特定のキャラクタが表示される場合には、周囲が暗いことによってキャラクタの浮遊感を得ることができるのである。また、正面側から見たときに観察領域SCの周りが筐体100(正面側パネル102)によって囲まれている。このようにすれば、映像表示空間に表示される空中映像と、その手前側に位置する筐体とが相まって、観察者に与えることのできる空中映像の立体感をより高めることができる。 The reason why the image display space S1 is darkened is to make the aerial image appear more three-dimensional. For example, when a specific character is displayed, the dark surroundings can give the character a floating feeling. Further, when viewed from the front side, the observation area SC is surrounded by the housing 100 (front panel 102). In this way, the aerial image displayed in the image display space and the casing located in front of the aerial image are combined to further enhance the stereoscopic effect of the aerial image that can be given to the viewer.

映像表示空間S1に面する部位は、光の反射を低減する処理(例えば、マット仕上げ)がなされている。このようにすれば、外光その他の光が映像表示空間S1に進入しても、反射が抑制されるので、暗い状態を維持しやすい。内部空間が明かるくなるのを防止できる。このような処理は、背景板910、台座部400、第1表示部310及び第2表示部330のフレームの一部または全部になされているとよい。 The portion facing the video display space S1 is treated to reduce light reflection (for example, matte finish). In this way, even if external light or other light enters the video display space S1, reflection is suppressed, making it easy to maintain a dark state. It can prevent the interior space from getting too bright. Such processing is preferably performed on part or all of the frames of the background plate 910, the pedestal section 400, the first display section 310, and the second display section 330.

また、ネジ等の固定具を用いた結合方法が採用されると、接着等の場合に比べて正面側パネル102および正面側内部パネル108を容易に取り外せるので、映像表示空間に進入した埃をエアーブローや柔らかい布を用いて除去することもできる。その一方で、正面側パネル102はネジ等の固定具で固定されていないので、これが観察者に観察されて、その観察者が興ざめするようなことが抑制される。 Furthermore, if a joining method using fixing tools such as screws is adopted, the front panel 102 and the front inner panel 108 can be easily removed compared to the case of adhesive, etc., so dust that has entered the image display space can be removed by air. It can also be removed by blow drying or using a soft cloth. On the other hand, since the front panel 102 is not fixed with fixing devices such as screws, it is possible to prevent the viewer from being disturbed by the front panel 102 being observed by the viewer.

<5.処理基板224の詳細構成>
図33は、一実施例に係る表示装置1が有する処理基板224の制御ブロック図である。図33に示されるように、処理基板224は、演算処理等を実行する演算処理装置として機能するCPU701、および、ワークエリアとして使用されるRAM703と制御用のプログラム等を記憶したROM702とを含むメモリ等を有するコントローラである。なお、処理基板224は、例えば、制御部(動作制御手段の一例)などと読み替えられてもよい。処理基板224のROM702内には、各種プログラムが記憶されており、処理基板224は、これらのプログラムを実行することにより各種の機能を実現する。例えば、ROM702内には、ユーザとキャラクタとの対話を再現するための音声認識アプリケーションが記憶されており、処理基板224は、各種センサ234,2331~2332あるいはGPS受信機60等からの入力信号等に基づいて当該音声認識アプリケーションを実行することにより、ユーザとキャラクタとの対話を再現する。また、処理基板224は、表示装置1(詳細には、映像表示部)に表示される画像等を制御する表示制御回路704と、スピーカ2551,2552から出力される音声を制御する音声制御回路705とを有している。また、処理基板224は、他の機器(例えば、図示しない外部の音声認識サーバ(音声認識エンジン、とも称される)、および図示しない外部の対話サーバ(対話エンジンとも称される)等)との通信を制御する通信制御回路706を有している。
<5. Detailed configuration of processing substrate 224>
FIG. 33 is a control block diagram of the processing substrate 224 included in the display device 1 according to one embodiment. As shown in FIG. 33, the processing board 224 includes a CPU 701 that functions as an arithmetic processing unit that executes arithmetic processing, etc., and a memory that includes a RAM 703 used as a work area and a ROM 702 that stores control programs and the like. It is a controller with etc. Note that the processing substrate 224 may be read as, for example, a control unit (an example of an operation control unit). Various programs are stored in the ROM 702 of the processing board 224, and the processing board 224 realizes various functions by executing these programs. For example, the ROM 702 stores a voice recognition application for reproducing the interaction between the user and the character, and the processing board 224 receives input signals from various sensors 234, 2331 to 2332 or the GPS receiver 60, etc. By executing the voice recognition application based on the above, the interaction between the user and the character is reproduced. The processing board 224 also includes a display control circuit 704 that controls images displayed on the display device 1 (specifically, a video display unit), and an audio control circuit 705 that controls audio output from the speakers 2551 and 2552. It has The processing board 224 also communicates with other devices (for example, an external speech recognition server (also referred to as a speech recognition engine) not shown, an external dialogue server (also referred to as a dialogue engine) not shown), etc. It has a communication control circuit 706 that controls communication.

<6.キャラクタ1100に関するコミュニケーション機能について>
以下では、表示装置1(例えば、映像表示部)に表示されたキャラクタ1100とユーザとのコミュニケーションを再現するための種々の制御について、図34~図40を参照して順に説明する。
<6. Regarding communication functions related to character 1100>
Below, various controls for reproducing the communication between the character 1100 displayed on the display device 1 (eg, video display unit) and the user will be explained in order with reference to FIGS. 34 to 40.

<においに関するコミュニケーション機能について>
例えば、においを検知するにおいセンサを第2センサ2332として表示装置1に設けておき、処理基板224は、においセンサによる検知結果に応じた音声をキャラクタ1100のキャラクタ音声として出力する音声出力動作を実行するとよい。においセンサは、例えば、あるにおいの強度に応じて変化する信号を出力したり、においに含まれる成分(におい成分)に応じて変化する信号を出力したりするものがある。においセンサは、例えば、においの種類に応じて変化する信号を出力する。においセンサは、例えば、脱臭フィルタ等を用いて特定のにおい成分(タール、アンモニア、アルコール、二酸化炭素等)の濃度を検知可能に構成されている。このようにすれば、処理基板224は、表示装置1の映像表示部に表示されたキャラクタとユーザとの間でにおいに関するコミュニケーションを再現することができ、当該キャラクタとユーザとの間でより多様なコミュニケーションを再現することができる。
<About odor-related communication functions>
For example, an odor sensor for detecting odor is provided as the second sensor 2332 in the display device 1, and the processing board 224 executes an audio output operation to output audio as the character voice of the character 1100 according to the detection result by the odor sensor. It's good to do that. For example, some odor sensors output a signal that changes depending on the intensity of a certain odor, or output a signal that changes depending on the components contained in the odor (smell components). For example, the odor sensor outputs a signal that changes depending on the type of odor. The odor sensor is configured to be able to detect the concentration of a specific odor component (tar, ammonia, alcohol, carbon dioxide, etc.) using, for example, a deodorizing filter or the like. In this way, the processing board 224 can reproduce odor-related communication between the character displayed on the video display section of the display device 1 and the user, and more diverse communication between the character and the user can be performed. communication can be reproduced.

処理基板224は、例えば、検知されたにおいの種類に応じた音声をキャラクタ1100のキャラクタ音声として出力する音声出力動作を実行するとよい。なお、複数種類のにおい成分を識別可能な単一のセンサが、においセンサとして構成されていてもよく、互いに異なる種類のにおい成分を識別可能な複数のセンサが、においセンサとして構成されていてもよい。 For example, the processing board 224 may perform an audio output operation of outputting a sound corresponding to the type of detected odor as the character sound of the character 1100. Note that a single sensor capable of identifying multiple types of odor components may be configured as an odor sensor, and a plurality of sensors capable of discriminating different types of odor components may be configured as an odor sensor. good.

図34(A)は、においに関するコミュニケーションを再現するためのフローチャートであり、図34(B)は、においに関する音声管理テーブル(音声管理表、とも称される)を示す図である。音声管理テーブルは、例えば、表示装置1の処理基板224内、あるいは対話サーバ内に格納されている。図34(B)に示されるように、音声管理テーブルには、においセンサによって検知可能なにおい成分(におい物質、とも称される)の種類ごとに、そのにおい成分を主に含有するにおいの種類と、キャラクタ1100が発する音声(キャラクタ音声と称する)とが予め登録されている。例えば、音声管理テーブルにおいては、タールを主に含有するタバコ臭がタールと対応付けて登録されているとともに、タバコ臭が検知された際のキャラクタ音声として、「タバコの吸い過ぎはよくないよ~」などのユーザの健康に気遣う言葉が登録されている。 FIG. 34(A) is a flowchart for reproducing communication regarding smell, and FIG. 34(B) is a diagram showing a voice management table regarding smell (also referred to as a voice management table). The audio management table is stored, for example, in the processing board 224 of the display device 1 or in the dialogue server. As shown in FIG. 34(B), the voice management table lists the types of odors that mainly contain the odor components (also called odorants) that can be detected by the odor sensor. and the voice emitted by the character 1100 (referred to as character voice) are registered in advance. For example, in the voice management table, cigarette odor, which mainly contains tar, is registered in association with tar, and when cigarette odor is detected, a character voice saying ``Smoking too much is not good.'' Words that express concern for the user's health, such as "", are registered.

そして、まず、ステップS11において、処理基板224(制御部、とも読み替えられてもよい)は、においが検知されたか否かを判断する。例えば、処理基板224は、においセンサによって検知されたにおい成分の濃度が特定のにおいに関する所定の閾値(基準値)を上回ると、そのにおい成分が検知されたと判断する。ステップS12において、処理基板224は、音声管理テーブルにおいて、検知されたにおい成分に対応付けて登録されているにおいの種類を判断する。例えば、所定の閾値を上回る濃度のタールが検知された場合は、タバコ臭が検知されたと判断される。そして、処理基板224は、検知されたにおいの種類に応じたキャラクタ音声をスピーカ2551,2552から出力する。例えば、タバコ臭が検知されたと判断されると、処理基板224は、ユーザの健康に気遣う言葉の音声(ここでは、「タバコの吸い過ぎはよくないよ~」)をキャラクタ音声として出力する音声出力動作を実行する。なお、他の例としては、以下のようなものが挙げられる。例えば、アロマオイルなどの香料や食事などに含まれる特定の主成分の濃度が所定の基準値を上回ると、処理基板224は、香料や食事などのにおいが検知されたと判断し、においの元に関して質問する音声をキャラクタ音声として出力する。また、所定の基準値を上回るアルコールが検知されると、処理基板224は、アルコール臭が検知されたと判断し、「お酒くさ~い」や「また飲んできたの、いい加減にしなさいよ」などの音声をキャラクタ1100のキャラクタ音声として出力する。また、所定の基準値を上回る口臭成分(例えば、硫化水素、メチルメルカプタン、ジメルサルファイド等)が検知されると、処理基板224は、口臭が検知されたと判断し、「ちょっとお口臭うよ、歯磨きしてる?」や「歯槽膿漏気を付けてね」などの音声をキャラクタ1100のキャラクタ音声として出力する。また、ターシャリーブチルメルカプタン、ジメチルサルファイドあるいはテトラヒドロチオフェンなど、ガス燃料に含まれるにおい成分が検知されると、処理基板224は、ガス燃料のにおいが検知されたと判断し、「ガス臭いんだけど!」などの音声をキャラクタ1100のキャラクタ音声として出力する。 First, in step S11, the processing board 224 (which may also be read as a control unit) determines whether or not an odor has been detected. For example, when the concentration of the odor component detected by the odor sensor exceeds a predetermined threshold value (reference value) regarding a specific odor, the processing substrate 224 determines that the odor component has been detected. In step S12, the processing board 224 determines the type of odor registered in the audio management table in association with the detected odor component. For example, if tar is detected at a concentration exceeding a predetermined threshold, it is determined that cigarette odor has been detected. Then, the processing board 224 outputs character voices from the speakers 2551 and 2552 according to the type of detected odor. For example, when it is determined that a cigarette odor has been detected, the processing board 224 outputs a voice that expresses concern for the user's health (here, "Smoking too much is not good") as a character voice. perform an action. Note that other examples include the following. For example, if the concentration of a specific main component contained in a fragrance such as aroma oil or food exceeds a predetermined reference value, the processing board 224 determines that the odor of the fragrance or food has been detected, and determines the source of the odor. The question voice is output as a character voice. Additionally, if alcohol exceeding a predetermined standard value is detected, the processing board 224 determines that an alcohol odor has been detected, and responds with messages such as ``The alcohol tastes bad'' or ``You've been drinking again. The voice of the character 1100 is output as the character voice of the character 1100. Further, when a component of bad breath (for example, hydrogen sulfide, methyl mercaptan, dimer sulfide, etc.) exceeding a predetermined standard value is detected, the processing board 224 determines that bad breath has been detected and says, ``I have a bit of bad breath.'' Voices such as "Are you brushing your teeth?" and "Please apply alveolar air purifier" are output as character voices of the character 1100. Furthermore, when an odor component contained in the gas fuel, such as tertiary butyl mercaptan, dimethyl sulfide, or tetrahydrothiophene, is detected, the processing board 224 determines that the odor of the gas fuel has been detected, and responds, "It smells like gas!" etc. is output as the character voice of the character 1100.

このように、処理基板224は、検知されたにおいの種類に応じた音声をキャラクタ1100のキャラクタ音声として出力する制御を実行するとよい。このような制御が行われることにより、映像表示部に表示されたキャラクタとユーザとの間でのコミュニケーションの幅を広げることができ、当該キャラクタへのユーザの愛着を増大させることができる。 In this way, the processing board 224 preferably executes control to output a sound corresponding to the type of detected odor as the character sound of the character 1100. By performing such control, the scope of communication between the character displayed on the video display section and the user can be expanded, and the user's attachment to the character can be increased.

表示装置1は、音声管理テーブルに基づいて出力する音声を特定するものに限らない。表示装置1は、例えば、過去の対話の内容(対話の履歴)に基づいてキャラクタの発話内容が変化するシナリオに従って、出力する音声を特定してもよい。このシナリオは、キャラクタの出力する音声を特定するデータがツリー構造で管理された分岐シナリオを規定するものでもよい。 The display device 1 is not limited to one that specifies the audio to be output based on the audio management table. The display device 1 may specify the audio to be output, for example, according to a scenario in which the content of the character's utterance changes based on the content of past dialogues (dialogue history). This scenario may define a branching scenario in which data specifying the sounds output by the character is managed in a tree structure.

ここでは、においセンサによる検知結果に応じた音声の音声出力動作が例示されているが、これに限定されず、処理基板224は、においセンサによる検知結果に応じた動きをキャラクタが行う映像を映像表示部に表示する表示出力動作を実行してもよい。例えば、音声管理テーブルと同様に、表示管理テーブル(不図示)を予め設けておき、処理基板224は、検知されたにおいの種類に応じた動きをキャラクタ1100が行う映像を映像表示部に表示する表示出力動作を実行するとよい。表示管理テーブルは、例えば、におい成分とにおいの種類とに対応付けてキャラクタ1100を規定するデータを登録したテーブルとするとよい。キャラクタ1100を規定するデータは、表示するキャラクタ1100の映像を示すデータでもよいし、キャラクタ1100の動きの内容を規定するデータでもよい。例えば、何らかのにおい成分が検知されると、処理基板224は、においを嗅ぐ動きをキャラクタ1100が行う映像を映像表示部に表示するとよい。また、処理基板224は、例えばタバコ臭が検知されたと判断すると、煙たがる動きをキャラクタ1100が行う映像を映像表示部に表示するとよい。なお、この際、処理基板224は、煙を模した映像が映像表示部に表示してもよい。さらに、処理基板224は、上記のような音声出力動作と表示出力動作との双方を実行してもよい。例えば、においセンサによって何らかのにおい成分が検知されると、処理基板224は、においを嗅ぐ動きをキャラクタ1100が行う映像を映像表示部に表示しつつ、「何かにおう」などの音声をキャラクタ1100のキャラクタ音声としてスピーカ2551,2552から出力するようにしてもよい。 Here, the audio output operation of audio according to the detection result by the odor sensor is illustrated, but the processing board 224 is not limited to this, and the processing board 224 outputs an image of the character making a movement according to the detection result from the odor sensor. You may perform a display output operation to display on the display unit. For example, similar to the audio management table, a display management table (not shown) is provided in advance, and the processing board 224 displays, on the video display section, an image of the character 1100 making a movement according to the type of detected odor. It is better to perform a display output operation. The display management table may be, for example, a table in which data defining the character 1100 is registered in association with odor components and odor types. The data specifying the character 1100 may be data indicating an image of the character 1100 to be displayed, or may be data specifying the content of the movement of the character 1100. For example, when some odor component is detected, the processing board 224 may display an image of the character 1100 performing a sniffing motion on the image display section. Furthermore, when the processing board 224 determines that a cigarette odor has been detected, for example, it is preferable to display an image in which the character 1100 makes a motion similar to that of smoking on the image display section. Note that at this time, the processing board 224 may display an image imitating smoke on the image display section. Further, the processing board 224 may perform both the audio output operation and the display output operation as described above. For example, when some odor component is detected by the odor sensor, the processing board 224 displays an image of the character 1100 performing a sniffing motion on the image display section, and also outputs a voice such as "Something smells" to the character 1100. The character voice may be output from the speakers 2551 and 2552.

さらには、処理基板224は、においセンサによって検知されたにおい成分の濃度(検出強度ともいう)に応じてキャラクタ1100の反応が変更するように制御するとよい。例えば、処理基板224が、におい成分の濃度に応じて、段階的に設けられた複数の動きの映像(例えば、「顔をしかめる(嫌そうな表情をする)」、「冷や汗を流す」、「青ざめる」および「気絶する」等)のいずれかを選択的に表示するとよい。 Furthermore, the processing board 224 may be controlled so that the reaction of the character 1100 changes depending on the concentration (also referred to as detection intensity) of the odor component detected by the odor sensor. For example, the processing board 224 displays images of a plurality of movements provided in stages according to the concentration of the odor component (for example, "makes a grimace (makes a disgusted expression)", "breaks into a cold sweat", " It is preferable to selectively display one of the following expressions: "to turn pale" and "to faint", etc.

表示装置1は、タバコ臭とタバコ臭以外のにおい(臭さ)とを区別する方法として例えば、煙を検知する煙センサや、カメラ画像(例えば撮影部227の撮影した画像)、サーモカメラの画像など、別のセンサ等との組み合わせで、ユーザがタバコを吸っていることを検知可能してもよい。 The display device 1 uses, for example, a smoke sensor that detects smoke, a camera image (for example, an image taken by the photographing unit 227), and a thermo camera image as a method for distinguishing between cigarette odor and odors other than cigarette odor. It may be possible to detect that the user is smoking in combination with another sensor.

処理基板224は、ユーザがタバコを吸っていることを検知した場合に、キャラクタ1100に重ねて(キャラクタ1100の前に)、煙を模した画像(煙がモクモクとしと現われている様子を再現した映像)を表示してもよい。この際、処理基板224は、キャラクタ1100の顔を前に突き出して顔をアップし、さも嫌そうな表情をさせた表情をさせてもよい。処理基板224は、ユーザとキャラクタ1100との親密さの度合いである親密度に応じて、キャラクタ1100が嫌がる程度を変化させた表示をしてもよい。処理基板224は、例えば、親密度が所定値以上である場合は、愛しているから許してあげるというようなキャラクタ1100の表情にし、所定値未満である場合はキャラクタ1100を不快な表情にする、という具合である。処理基板224は、例えば、ユーザによる表示装置1の使用実績(例えば、過去の使用時間や過去の対話内容)に応じて親密度を特定するとよい。親密度の特定についてのアルゴリズムはこれに限らない。 When the processing board 224 detects that the user is smoking a cigarette, the processing board 224 displays an image imitating smoke (reproducing the appearance of smoke appearing thickly), which is superimposed on the character 1100 (in front of the character 1100). video) may also be displayed. At this time, the processing board 224 may push the face of the character 1100 forward to look up at the character 1100 and give it a disgusted expression. The processing board 224 may display a display that changes the degree to which the character 1100 dislikes the character 1100, depending on the degree of intimacy that is the degree of intimacy between the user and the character 1100. For example, the processing board 224 may make the character 1100 have an expression that says "I love you and will forgive you" when the intimacy level is above a predetermined value, and make the character 1100 have an unpleasant expression when it is less than the predetermined value. That's how it is. The processing board 224 may, for example, identify the degree of familiarity according to the usage history of the display device 1 by the user (for example, past usage time and past conversation content). The algorithm for determining intimacy is not limited to this.

<ユーザの位置情報に基づくコミュニケーション機能について>
また、例えば、表示装置1がGPS(Global Positioning System)受信機60(図33参照)を有しており、ユーザの位置情報に基づいて以下のような制御が実行されるとよい。そして、例えば、処理基板224が、GPS受信機60からの信号に基づいて、ユーザが所持(携帯)している表示装置1の位置情報をユーザ自身の位置情報として取得し、取得した位置情報に基づいて以下のような制御を実行するとよい。
<About the communication function based on user location information>
Further, for example, it is preferable that the display device 1 includes a GPS (Global Positioning System) receiver 60 (see FIG. 33), and the following control is executed based on the user's position information. Then, for example, the processing board 224 acquires the positional information of the display device 1 carried by the user as the user's own positional information based on the signal from the GPS receiver 60, and uses the acquired positional information as the user's own positional information. Based on this, it is recommended to perform the following control.

例えば、ユーザの位置情報に基づき特定された場所にユーザが滞在した滞在頻度(訪問頻度、とも称される)に応じた音声がキャラクタ音声として出力されるように制御されるとよい。図35は、滞在頻度に関するコミュニケーションを再現するためのフローチャートである。 For example, it is preferable that the voice corresponding to the frequency of stay (also referred to as visit frequency) of the user at a location specified based on the user's location information is outputted as the character voice. FIG. 35 is a flowchart for reproducing communication regarding the frequency of stay.

例えば、ステップS21において、処理基板224は、GPS受信機60からユーザの位置情報が受信されたか否かを判断する。ユーザの位置情報が受信されると、ステップS22において、処理基板224は、ユーザの位置情報に基づき特定された場所にユーザが滞在した滞在回数(訪問回数、などとも称される)が所定値(例えば、「2」)以上であるか否かを判断する。なお、滞在頻度は、所定期間(例えば、1日あるいは1週間等)において一の場所にユーザが滞在した回数である。例えば、処理基板224は、GPS受信機60から取得された位置情報(例えば、ユーザの現在の位置情報)に基づいて、ネットワーク等を利用してユーザの滞在場所を検索して特定する。そして、処理基板224は、特定された場所にユーザが滞在した滞在回数に基づいてユーザの滞在頻度を算出し、ユーザの滞在頻度が所定値以上であるか否かを判断する。例えば、ユーザの滞在頻度が所定値以上である場合、ステップS23において、処理基板224は、ユーザの滞在頻度に関して予め登録された所定のキャラクタ音声がスピーカ2551,2552から出力されるように制御する。処理基板224は、例えば、ユーザが同一日に同一の場所に2回行った場合、ユーザの滞在頻度が所定値以上であると判断し、「あれ、さっきも行ったじゃん」などのキャラクタ音声を出力する。 For example, in step S21, the processing board 224 determines whether the user's location information has been received from the GPS receiver 60. When the user's location information is received, in step S22, the processing board 224 determines that the number of times the user has stayed at the location specified based on the user's location information (also referred to as the number of visits) is a predetermined value ( For example, it is determined whether the number is greater than or equal to "2". Note that the stay frequency is the number of times the user stayed at one place during a predetermined period (for example, one day or one week). For example, the processing board 224 uses a network or the like to search and specify the user's place of stay based on the position information acquired from the GPS receiver 60 (for example, the user's current position information). The processing board 224 then calculates the frequency of stay of the user based on the number of times the user has stayed at the specified location, and determines whether the frequency of stay of the user is equal to or higher than a predetermined value. For example, if the frequency of stay of the user is equal to or higher than a predetermined value, in step S23, the processing board 224 controls the speakers 2551 and 2552 to output a predetermined character voice registered in advance regarding the frequency of stay of the user. For example, if the user goes to the same place twice on the same day, the processing board 224 determines that the user's frequency of stay is equal to or higher than a predetermined value, and outputs a character voice such as "Oh, I went there a while ago." Output.

また、処理基板224は、取得した位置情報に基づき特定された場所に応じた音声をキャラクタ1100のキャラクタ音声として出力するように制御するとよい。図36(A)は、滞在場所に関するコミュニケーションを再現するためのフローチャートであり、図36(B)は、滞在場所に関するキャラクタ音声の音声管理テーブルを示す図である。 Further, the processing board 224 may be controlled to output, as the character voice of the character 1100, a voice corresponding to the location specified based on the acquired position information. FIG. 36(A) is a flowchart for reproducing communication regarding the place of stay, and FIG. 36(B) is a diagram showing a voice management table of character voices regarding the place of stay.

例えば、ステップS31において、処理基板224は、GPS受信機60からユーザの位置情報が受信されたか否かを判断する。ユーザの位置情報が受信されると、ステップS32において、処理基板224は、ユーザの位置情報に基づいて、ネットワーク等を利用してユーザの滞在場所を検索して特定する。そして、ステップS33において、処理基板224は、図36(B)の音声管理テーブルに基づいて、特定された場所に応じたキャラクタ音声をスピーカ2551,2552から出力する。処理基板224は、例えば、ユーザがスーパーマーケットに行った際には「今日の夕食なにつくる?」などのキャラクタ音声、或いは、ユーザが病院に行った際には「大丈夫?体調わるいの?」などの音声を、キャラクタ1100のキャラクタ音声として出力する。また、処理基板224は、例えばユーザが遊園地に行った際には「いっぱい遊んだね」などのキャラクタ音声を出力する。 For example, in step S31, the processing board 224 determines whether the user's position information has been received from the GPS receiver 60. When the user's location information is received, in step S32, the processing board 224 uses a network or the like to search and specify the user's place of stay based on the user's location information. Then, in step S33, the processing board 224 outputs character voices corresponding to the specified location from the speakers 2551 and 2552 based on the voice management table of FIG. 36(B). For example, the processing board 224 may produce a character voice such as "What are you going to make for dinner tonight?" when the user goes to the supermarket, or "Are you okay? Are you feeling unwell?" when the user goes to the hospital. The voice of the character 1100 is output as the character voice of the character 1100. Further, the processing board 224 outputs a character voice such as "You had a lot of fun" when the user goes to an amusement park, for example.

また、処理基板224は、取得した位置情報に基づき特定した場所にユーザが滞在した滞在回数(訪問回数、などとも称される)に応じた音声をキャラクタ1100のキャラクタ音声として出力するように制御するとよい。図37(A)は、滞在回数に関するコミュニケーションを再現するためのフローチャートであり、図37(B)は、滞在回数に関するキャラクタ音声の音声管理テーブルを示す図である。 Furthermore, the processing board 224 controls to output, as the character voice of the character 1100, a voice corresponding to the number of stays (also referred to as the number of visits, etc.) of the user at the specified location based on the acquired location information. good. FIG. 37(A) is a flowchart for reproducing communication regarding the number of stays, and FIG. 37(B) is a diagram showing a voice management table of character voices regarding the number of stays.

図37(A)のステップS41,S42は、図36(A)のステップS31,S32と同様であるため、説明を省略する。ステップS43において、処理基板224は、ステップS42において特定された場所へのユーザの滞在回数を取得する。そして、ステップS44において、処理基板224は、図37(B)の音声管理テーブルに基づいて、ユーザの滞在回数に応じたキャラクタ音声をスピーカ2551,2552から出力する。処理基板224は、例えば、ユーザが或るゲームセンターに初めて行った際には、「ゲーム楽しかったね」などのキャラクタ音声を出力する。そして、処理基板224は、ユーザが当該或るゲームセンターに再び行った際には、「また行きたいと思ってたんだ」などのキャラクタ音声を出力する。さらに、処理基板224は、ユーザが当該或るゲームセンターに所定回数以上(例えば、10回以上)行った際には、「またゲームするの~」などのキャラクタ音声を出力する。 Steps S41 and S42 in FIG. 37(A) are the same as steps S31 and S32 in FIG. 36(A), so a description thereof will be omitted. In step S43, the processing board 224 obtains the number of times the user has stayed at the location specified in step S42. Then, in step S44, the processing board 224 outputs character voices from the speakers 2551 and 2552 according to the number of times the user has stayed, based on the voice management table of FIG. 37(B). For example, when the user goes to a certain game center for the first time, the processing board 224 outputs a character voice such as "That game was fun." Then, when the user goes to the certain game center again, the processing board 224 outputs a character voice such as "I wanted to go again." Further, the processing board 224 outputs a character voice such as "Are you going to play the game again?" when the user has visited the certain game center a predetermined number of times or more (for example, 10 times or more).

また、処理基板224は、取得された位置情報に基づき特定された場所でのユーザの滞在時間に応じた音声をキャラクタ1100のキャラクタ音声として出力するように制御するとよい。図38(A)は、滞在時間に関するコミュニケーションを再現するためのフローチャートであり、図38(B)は、滞在時間に関するキャラクタ音声の音声管理テーブルを示す図である。 Further, the processing board 224 may be controlled to output, as the character voice of the character 1100, a voice corresponding to the user's stay time at the location specified based on the acquired position information. FIG. 38(A) is a flowchart for reproducing communication regarding stay time, and FIG. 38(B) is a diagram showing a voice management table of character voices regarding stay time.

図38(A)のステップS51,S52は、図36(A)のステップS31,S32と同様であるため、説明を省略する。ステップS53において、処理基板224は、ステップS52において特定された場所へのユーザの滞在時間を取得する。そして、ステップS54において、処理基板224は、図38(B)の音声管理テーブルに基づいて、ユーザの滞在時間に応じたキャラクタ音声をスピーカ2551,2552から出力する。例えば、コンビニエンスストアでのユーザの滞在時間が5分以内であるときには、処理基板224は、「早かったね。待ってたからうれしい」などのキャラクタ音声を出力する。また、コンビニエンスストアでのユーザの滞在時間が5分以上且つ10分未満(5~10分)であるときには、処理基板224は、「何買ってきたの?」などのキャラクタ音声を出力する。さらに、コンビニエンスストアでのユーザの滞在時間が10分を超えたときには、処理基板224は、「遅かったね。心配しちゃったよ」などのキャラクタ音声を出力する。 Steps S51 and S52 in FIG. 38(A) are the same as steps S31 and S32 in FIG. 36(A), so a description thereof will be omitted. In step S53, the processing board 224 acquires the user's stay time at the location specified in step S52. Then, in step S54, the processing board 224 outputs character voices corresponding to the user's stay time from the speakers 2551 and 2552 based on the voice management table of FIG. 38(B). For example, when the user stays at the convenience store for less than five minutes, the processing board 224 outputs a character voice such as "That was early. I'm glad I waited." Further, when the user's stay time at the convenience store is 5 minutes or more and less than 10 minutes (5 to 10 minutes), the processing board 224 outputs a character voice such as "What did you buy?". Further, when the user's stay time at the convenience store exceeds 10 minutes, the processing board 224 outputs a character voice such as "You're late. I was worried."

処理基板224は、GPS受信機60等を用いて取得されたユーザの位置情報に基づいて、以上のような制御を行うとよい。このようにすれば、ユーザは、自身の行動に応じた反応をキャラクタが示してくれたという感覚を得ることができ、当該キャラクタへのユーザの愛着が増大する。 The processing board 224 may perform the above-described control based on the user's position information obtained using the GPS receiver 60 or the like. In this way, the user can feel that the character has responded in accordance with his or her actions, and the user's attachment to the character increases.

なお、表示装置1が、例えばユーザの自宅等に据え置かれており、表示装置1(詳細には、通信制御回路706)が、ユーザのスマートフォン(GPS受信機を備えるスマートフォン)等と通信して、外出中のユーザの位置情報(ユーザが所持しているスマートフォンの位置情報)を取得するようにしてもよい。そして、ユーザが帰宅等した後にキャラクタ1100とコミュニケーションをとる際に、処理基板224は、上記のような動作を実行されるように制御するとよい。なお、この際のキャラクタ音声や動きの内容は適宜変更されるとよい。 Note that the display device 1 is installed, for example, at the user's home, and the display device 1 (specifically, the communication control circuit 706) communicates with the user's smartphone (smartphone equipped with a GPS receiver), etc. The location information of a user who is out and about (location information of a smartphone owned by the user) may be acquired. Then, when the user communicates with the character 1100 after returning home, etc., the processing board 224 may be controlled to perform the above operations. Note that the content of the character's voice and movement at this time may be changed as appropriate.

<ユーザの行動パターンに関するコミュニケーション機能について>
また、ユーザの行動パターンが所定の行動パターンに合致すると判断されると、当該所定の行動パターンに応じた音声がキャラクタ1100のキャラクタ音声として出力されるように制御されるとよい。図39(A)は、行動パターンに関するコミュニケーションを再現するためのフローチャートであり、図39(B)は、行動パターンに関するキャラクタ音声の音声管理テーブルを示す図である。
<About the communication function regarding user behavior patterns>
Furthermore, when it is determined that the user's behavior pattern matches a predetermined behavior pattern, control may be performed such that a voice corresponding to the predetermined behavior pattern is output as the character voice of the character 1100. FIG. 39(A) is a flowchart for reproducing communication regarding behavior patterns, and FIG. 39(B) is a diagram showing a voice management table of character voices regarding behavior patterns.

例えば、処理基板224において、ユーザが出勤する曜日(例えば、月曜日~金曜日)と出勤時刻(例えば、8時30分)と出勤時に利用する特定の経路とが、「出勤時の行動パターン」としてユーザによって予め登録される。そして、例えば、GPS受信機60からユーザの位置情報が受信される(ステップS61)と、処理基板224は、ユーザの位置情報に基づいて、ユーザの行動パターンが所定の行動パターンに合致するか否かを判断する(ステップS62)。例えば、ユーザが火曜日の8時30分に特定の経路を通過した場合、処理基板224は、ユーザの行動パターンが「出勤時の行動パターン」に合致すると判断する。そして、ステップS63において、処理基板224は、図39(B)の音声管理テーブルに基づいて、「出勤時の行動パターン」に対応付けて登録された音声(例えば、「お仕事がんばってきてね」)をキャラクタ1100のキャラクタ音声としてスピーカ2551,2552から出力する。このようにして、ユーザの行動に応じた反応をキャラクタが示してくれることにより、当該キャラクタへのユーザの愛着を増大させることができる。なお、所定の行動パターン(例えば、出勤時の行動パターン)がユーザによって予め登録されていることは必須ではなく、例えば、処理基板224が学習機能を有しており、ユーザの行動パターンを学習することによって、所定の行動パターンが登録されるようにしてもよい。 For example, in the processing board 224, the days of the week (for example, Monday to Friday) that the user works, the work time (for example, 8:30), and the specific route that the user uses when going to work are determined by the user as a "behavior pattern when going to work". Registered in advance by . For example, when the user's location information is received from the GPS receiver 60 (step S61), the processing board 224 determines whether the user's behavior pattern matches a predetermined behavior pattern based on the user's location information. (Step S62). For example, if the user passes through a specific route at 8:30 on Tuesday, the processing board 224 determines that the user's behavior pattern matches the "behavior pattern when going to work." Then, in step S63, the processing board 224 uses the voice management table shown in FIG. ) is output from the speakers 2551 and 2552 as the character voice of the character 1100. In this way, the character shows reactions according to the user's actions, thereby increasing the user's attachment to the character. Note that it is not essential that a predetermined behavior pattern (for example, a behavior pattern when going to work) is registered by the user in advance; for example, the processing board 224 may have a learning function and learn the user's behavior pattern. By doing so, a predetermined behavior pattern may be registered.

<不審者の検知に関するコミュニケーション機能について>
また、検知対象空間において検知された人が不審者であると判断されると、所定の動作が実行されるとよい。そして、当該所定の動作が実行された後において、表示装置1のユーザが検知されると、不審者の検知に関する音声がキャラクタ1100のキャラクタ音声として出力されるとよい。図40は、不審者の検知に関する動作を実現するためのフローチャートである。
<About the communication function related to suspicious person detection>
Furthermore, when it is determined that the person detected in the detection target space is a suspicious person, a predetermined action may be performed. Then, when the user of the display device 1 is detected after the predetermined operation is executed, the sound related to the detection of a suspicious person may be output as the character sound of the character 1100. FIG. 40 is a flowchart for implementing operations related to suspicious person detection.

例えば、表示装置1において、図32に示すように、表示装置1の正面側に、観察者(ユーザ等)を撮影する撮影部227(例えば、カメラ)が設けられ、当該撮影部227(詳細には、撮影部227が有するセンサ)が、検知対象空間における人の存在を検知する検知手段として用いられるとよい。「検知対象空間」としては、例えば、表示装置1が載置されている空間(例えば、ユーザの自宅)における撮影部227の画角範囲(撮影可能範囲)が挙げられる。撮影部227は、例えばレンズおよび撮像素子(例えばCCDまたはCMOS)を含み、多色の画像を撮影する。撮影部227のレンズは、観察者(特に顔)を撮影可能な位置に設けられる。図32に示す例では、撮影部227のレンズは、筐体100の正面側に配置される正面側パネル102のうち、観察領域SCの上方であって、表示装置1の幅方向における中心付近に設けられている。撮影部227は、例えば、R、G、Bの各色成分の画像信号を処理基板224に出力する。処理基板224は、この画像信号を処理して撮影画像を生成する。 For example, in the display device 1, as shown in FIG. It is preferable that a sensor included in the photographing unit 227 is used as a detection means for detecting the presence of a person in the detection target space. The "detection target space" includes, for example, the viewing angle range (shootable range) of the imaging unit 227 in the space where the display device 1 is placed (for example, the user's home). The photographing unit 227 includes, for example, a lens and an image sensor (for example, a CCD or CMOS), and photographs a multicolor image. The lens of the photographing unit 227 is provided at a position where it can photograph the observer (particularly the face). In the example shown in FIG. 32, the lens of the imaging unit 227 is located above the observation area SC and near the center in the width direction of the display device 1 on the front panel 102 disposed on the front side of the housing 100. It is provided. The photographing unit 227 outputs image signals of each color component of R, G, and B to the processing board 224, for example. The processing board 224 processes this image signal to generate a photographed image.

処理基板224は、当該撮影部227を用いて検知対象空間を監視する(ステップS71)。そして、処理基板224は、検知対象空間において人の存在が検知されると、ステップS72において、例えば顔認証等のユーザ認証を行い、ステップS73において、検知された人物が表示装置1の登録ユーザであるか否かを判断する。処理基板224は、例えば、撮影部227によって撮影された人が表示装置1の登録ユーザであると判断すると、その人物は不審者でないと判断する。一方で、撮影部227によって撮影された人が未登録ユーザであると判断されると、ステップS74において、処理基板224は、その人物は不審者であると判断し、所定の動作を実行する。「所定の動作」としては、例えば、撮影部227による録画を開始する動作や、比較的大きな音量で警報を発する動作、予め登録された警備会社に通報する動作などが挙げられる。あるいは、「所定の動作」は、キャラクタ1100が不審者に声掛け(例えば、「誰!?合言葉を言って!」)を行う動作であってもよい。そして、不審者と判断された人から返事がない場合、あるいは合言葉が間違っている場合に、上記の録画開始動作等が実行されてもよい。なお、合言葉が間違っている場合に、処理基板224は、「違うよ!?もう一度言って」などの音声をキャラクタ1100のキャラクタ音声として出力し、再度合言葉が間違っていると判断したときに、上記の録画開始動作等が実行してもよい。これらのようにすれば、例えば不審者を検知対象空間から撤退させることができ、検知対象空間における防犯性を高めることができる。 The processing board 224 monitors the detection target space using the imaging unit 227 (step S71). When the presence of a person is detected in the detection target space, the processing board 224 performs user authentication such as face authentication in step S72, and in step S73, the processing board 224 determines whether the detected person is a registered user of the display device 1. Determine whether it exists or not. For example, if the processing board 224 determines that the person photographed by the photographing unit 227 is a registered user of the display device 1, the processing board 224 determines that the person is not a suspicious person. On the other hand, if the person photographed by the photographing unit 227 is determined to be an unregistered user, the processing board 224 determines that the person is a suspicious person and executes a predetermined operation in step S74. Examples of the "predetermined action" include an action to start recording by the imaging unit 227, an action to issue an alarm at a relatively high volume, an action to notify a pre-registered security company, and the like. Alternatively, the "predetermined action" may be an action in which the character 1100 calls out to a suspicious person (for example, "Who is it? Say the password!"). Then, if there is no reply from the person who is determined to be a suspicious person, or if the password is incorrect, the above recording start operation, etc. may be executed. Note that when the password is incorrect, the processing board 224 outputs a voice such as "No!? Say it again" as the character voice of the character 1100, and when it is determined that the password is incorrect again, the processing board 224 outputs a voice such as "No!? Say it again". The recording start operation, etc. may be executed. By doing so, for example, a suspicious person can be made to retreat from the detection target space, and crime prevention in the detection target space can be improved.

そして、処理基板224は、所定の動作の実行後において、表示装置1のユーザが検知されると、不審者の検知に関する音声をキャラクタ1100のキャラクタ音声として出力するとよい。「不審者の検知に関する音声」としては、例えば「怖かったよー」などが挙げられる。このようにすれば、映像表示部に表示されたキャラクタへのユーザの愛着を増大させることができる。 Then, when the user of the display device 1 is detected after performing the predetermined operation, the processing board 224 may output a sound related to the detection of a suspicious person as the character sound of the character 1100. Examples of the "voice related to suspicious person detection" include "I was scared." In this way, the user's attachment to the character displayed on the video display section can be increased.

また、表示装置1を用いて検知対象空間が監視されている場合、不審者の検知に限らず、次のような動作が行われてもよい。 Further, when the detection target space is monitored using the display device 1, the following operations may be performed in addition to the detection of a suspicious person.

例えば、企業の受付スペースに表示装置1が配置され、キャラクタ1100が所謂受付嬢として受付業務を行うような表示をするものであってもよい。具体的には、マイクロ波ドップラーセンサ(検知手段の一例)によって検知対象空間(例えば受付スペース)における人の接近が検知されると、処理基板224は、「いらっしゃいませ。どちらの部署に御用でしょうか?」などの音声をキャラクタ1100のキャラクタ音声として出力するとよい。そして、処理基板224は、検知された人(来客者)からの返答に基づいて、来客者の所望の部署に電話を掛けるように制御するとよい。 For example, the display device 1 may be placed in a reception space of a company, and the display device 1 may be displayed so that the character 1100 performs reception work as a so-called receptionist. Specifically, when a microwave Doppler sensor (an example of a detection means) detects the approach of a person in a detection target space (for example, a reception space), the processing board 224 issues a message saying, ``Welcome.Which department would you like to work for?'' ?” may be output as the character voice of the character 1100. Then, the processing board 224 may be controlled to make a call to the desired department of the visitor based on the response from the detected person (visitor).

<表示装置1の起動時間に関するコミュニケーション機能について>
また、処理基板224は、キャラクタ1100のキャラクタ音声での言葉使いが所定の時点(例えば、初回の起動時点)からの表示装置1の起動時間(例えば、累積起動時間)に応じて、コミュニケーションの内容が変化するように制御するとよい。例えば、処理基板224は、次述するように、表示装置1の起動時間が長くなるほど、キャラクタ1100がユーザに対して親しい言葉使いで発話するように制御するとよい。
<About the communication function regarding the startup time of the display device 1>
Furthermore, the processing board 224 determines whether the character 1100's wording in the character voice is the content of the communication depending on the startup time (for example, cumulative startup time) of the display device 1 from a predetermined point in time (for example, the first startup time). It is best to control it so that it changes. For example, as described below, the processing board 224 may control the character 1100 to speak to the user in a familiar language as the startup time of the display device 1 increases.

例えば、上述のような種々のキャラクタ音声について、敬語調、ユーザと友人関係であるような言葉調、およびユーザと恋人関係であるような言葉調の3パターンのキャラクタ音声が予め音声管理テーブルに登録されるとよい。そして、例えば、所定の時点からの表示装置1の起動時間が100時間未満のときには、処理基板224は、音声管理テーブルに登録されている3パターンのキャラクタ音声のうち、敬語調のキャラクタ音声を出力する。また、当該起動時間が100時間以上且つ1000時間未満のときには、処理基板224は、音声管理テーブルに登録されている3パターンのキャラクタ音声のうち、ユーザと友人関係であるような言葉調のキャラクタ音声を出力する。さらに、起動時間が1000時間を超えると、処理基板224は、音声管理テーブルに登録されている3パターンのキャラクタ音声のうち、ユーザと恋人関係であるような言葉調のキャラクタ音声を出力する。 For example, for the various character voices mentioned above, three patterns of character voices are registered in advance in the voice management table: honorific tone, tone that indicates a friend relationship with the user, and tone that indicates a relationship between the user and a lover. It would be good if it were done. For example, if the startup time of the display device 1 from a predetermined point of time is less than 100 hours, the processing board 224 outputs a polite character voice among the three patterns of character voices registered in the voice management table. do. In addition, when the startup time is 100 hours or more and less than 1000 hours, the processing board 224 selects a character voice that has a tone that indicates a friend relationship with the user among the three patterns of character voice registered in the voice management table. Output. Furthermore, when the startup time exceeds 1000 hours, the processing board 224 outputs a character voice with a tone that suggests that the user is in a romantic relationship with the user, out of the three patterns of character voice registered in the voice management table.

このようにすると、ユーザは、ユーザ自身に対するキャラクタの言葉使いが変化したことによって、当該キャラクタとの関係性(例えば親密度)が変化したことを感じることができる。 In this way, the user can feel that the relationship (for example, intimacy) with the character has changed due to the change in the character's wording toward the user.

なお、処理基板224は、前回の起動からの経過時間によっては、ユーザに対するキャラクタ1100の親密度を低下させるように制御してもよい。例えば、表示装置1の累積起動時間が100時間を超えている場合であっても、前回の起動から1週間が経過しているときには、処理基板224は、ユーザと対等な言葉調ではなく、敬語調のキャラクタ音声を出力するようにしてもよい。このようにすれば、ユーザが、映像表示部に表示されたキャラクタとの親密度を維持するために極力間隔を空けずに当該キャラクタと接するようになり、当該キャラクタへの愛着を更に増大させることができる。 Note that the processing board 224 may be controlled to reduce the intimacy of the character 1100 with the user depending on the time that has passed since the previous activation. For example, even if the cumulative startup time of the display device 1 exceeds 100 hours, if one week has passed since the last startup, the processing board 224 will not use a tone of voice that is equal to the user's, but will use honorific language. It is also possible to output the character voice in the key. In this way, the user will come into contact with the character displayed on the video display unit as close as possible to the character in order to maintain intimacy with the character, thereby further increasing the user's attachment to the character. Can be done.

また、処理基板224は、初回の起動時点では「初めまして」などの挨拶の音声をキャラクタ音声として出力し、初回の起動時点から所定期間(例えば、1カ月など区切りの良い期間)が経過した時点では、記念日を示す内容(例えば、「出会って1カ月だね」)の音声をキャラクタ音声として出力するとよい。このようにすれば、キャラクタ1100への愛着を更に増大させることができる。 In addition, the processing board 224 outputs a greeting voice such as "Nice to meet you" as a character voice at the time of first startup, and when a predetermined period (for example, a well-defined period such as one month) has passed from the time of first startup. In this case, it is preferable to output a voice indicating the anniversary (for example, "It's been a month since we met") as a character voice. In this way, attachment to the character 1100 can be further increased.

<他の機器との連携によるコミュニケーション機能について>
また、例えば表示装置1がユーザの自宅等に据え置かれている場合、他の機器との連携によって次述のような動作が実行されてもよい。例えば、表示装置1と通信可能な機器(以下、他の機器と称する)が設置されている場所にユーザが訪問すると、当該他の機器が、次述のようにして、ユーザを識別するとともに、当該ユーザに適した情報(例えば、グルメ情報やイベント情報)を自動的に案内するようにしてもよい。例えば、表示装置と他の機器との連携システムを利用する利用ユーザの顔画像と当該利用ユーザが所有する表示装置(例えばIPアドレス等)とが対応付けられて予め外部サーバ等に登録される。当該他の機器の制御部は、例えば当該他の機器に設けられた撮影部が有するセンサによって人が検知されると、撮影画像において検知された人の顔画像と外部サーバに登録された利用ユーザの顔画像とを比較することによって表示装置1のユーザを識別する。そして、当該他の機器の制御部は、外部サーバにおいて当該ユーザに対応付けて登録されている表示装置1(例えば、表示装置1のIPアドレス等)を特定し、表示装置1のユーザが検知されたことを示す情報を当該表示装置1に送信する。表示装置1の処理基板224には、「ユーザに適した情報」(例えば、グルメ情報やイベント情報)が予め登録されており、処理基板224は、当該他の機器からの信号受信に応じて、登録されている「ユーザに適した情報」を当該他の機器に送信する。そして、当該他の機器の制御部は、表示装置1から受信された「ユーザに適した情報」を出力(例えば、音声出力)する。なお、「ユーザに適した情報」の案内に際して、当該他の機器は、その表示画面にキャラクタ1100を表示させるとよい。また、ユーザに案内した情報等が当該他の機器から表示装置1に送信され、表示装置1の処理基板224においてユーザ情報として蓄積されるとよい。そして、例えば表示装置1がユーザの自宅に設置されている場合、ユーザの帰宅が検知されると、処理基板224は、「**に行ってきたでしょ、どうだった?」などの音声をキャラクタ1100のキャラクタ音声として出力するとよい。このようにすれば、映像表示部に表示されたキャラクタへのユーザの愛着を増大させることができる。
<About communication function by linking with other devices>
Further, for example, when the display device 1 is installed at a user's home or the like, the following operations may be performed in cooperation with other devices. For example, when a user visits a place where a device (hereinafter referred to as another device) that can communicate with the display device 1 is installed, the other device identifies the user as described below, and Information suitable for the user (for example, gourmet information or event information) may be automatically provided. For example, a face image of a user who uses a system for linking a display device and other devices and a display device owned by the user (eg, IP address, etc.) are associated and registered in advance in an external server or the like. For example, when a person is detected by a sensor included in a photographing unit provided in the other device, the control unit of the other device collects the face image of the person detected in the captured image and the user registered on the external server. The user of the display device 1 is identified by comparing the face image of the user with the face image of the user. Then, the control unit of the other device identifies the display device 1 registered in association with the user in the external server (for example, the IP address of the display device 1, etc.), and detects the user of the display device 1. The display device 1 transmits information indicating that the In the processing board 224 of the display device 1, "information suitable for the user" (for example, gourmet information and event information) is registered in advance, and the processing board 224, in response to signal reception from the other device, Send the registered "information suitable for the user" to the other device. Then, the control unit of the other device outputs (for example, outputs audio) the "information suitable for the user" received from the display device 1. Note that when providing guidance on "information suitable for the user," the other device may display the character 1100 on its display screen. Further, it is preferable that information etc. guided to the user be transmitted from the other device to the display device 1 and stored as user information in the processing board 224 of the display device 1. For example, when the display device 1 is installed at the user's home, when the user's return home is detected, the processing board 224 outputs a voice message such as "You went to **, how was it?" It is preferable to output it as a 1100 character voice. In this way, the user's attachment to the character displayed on the video display section can be increased.

<その他のコミュニケーション機能について>
さらに、種々のセンサによる検知結果に基づいて次のような制御が行われてもよい。
<About other communication functions>
Furthermore, the following control may be performed based on detection results from various sensors.

例えば、風(例えば、風速)を検知可能な風検知手段(例えば、風センサ)が表示装置1の正面側パネル102に設けられ、当該風センサによる検知結果に基づいて次のような制御が行われてもよい。風は、例えばユーザが人為的に起こしたものとするとよく、例えば表示装置1に向けて手を振る等の身体の部位を動かすことによって発生する風や息(呼気)を吹きかけることによって発生する風とするとよい。例えば、所定値以上の風速の風が風センサによって検知されると、処理基板224は、映像表示部に表示されたキャラクタ(例えば、キャラクタ1100)の毛(例えば、髪の毛)や衣服(例えば、スカート)がなびく映像を表示出力するとよい。また、例えば、火のついたろうそくの映像が映像表示部に表示されている場合において、風センサによって風が検知されると、処理基板224は、ろうそくの火が消える映像に切り替えるとよい。さらには、検知された風が所定の閾値よりも強い(風速が所定の閾値よりも大きい)ときにはキャラクタ1100の衣服がより大きくなびくなど、処理基板224は、検知された風の強度(例えば、風速)に応じて映像を切り替えるとよい。 For example, a wind detection means (for example, a wind sensor) capable of detecting wind (for example, wind speed) is provided on the front panel 102 of the display device 1, and the following control is performed based on the detection result by the wind sensor. It's okay to be hurt. The wind is often caused artificially by the user, for example, the wind generated by moving a body part such as waving a hand toward the display device 1, or the wind generated by blowing breath (exhalation). It is good to say. For example, when the wind sensor detects wind having a wind speed equal to or higher than a predetermined value, the processing board 224 detects the hair (e.g., hair) and clothes (e.g., skirt) of the character (e.g., character 1100) displayed on the video display section. ) is best displayed as a waving image. Further, for example, when an image of a lit candle is displayed on the image display section, when wind is detected by the wind sensor, the processing board 224 may switch to an image of the candle being extinguished. Furthermore, when the detected wind is stronger than a predetermined threshold (wind speed is greater than a predetermined threshold), the character 1100's clothes flutter more. ) You may want to switch the video accordingly.

また、例えば、対象物の有無(存否)および対象物までの距離を検知可能な物体検出手段(例えば、超音波センサ)が表示装置1に設置され、当該超音波センサによる検知結果に基づいて次のような制御が行われてもよい。例えば、処理基板224は、超音波センサによる検知結果に基づいて、立体映像として認識されているキャラクタ1100に観察者の手が触れていると判断されると、当該キャラクタ1100が反応を示す映像を表示出力するとよい。また、処理基板224は、キャラクタ1100において観察者によって触れられた部位に応じて異なる反応を示するように表示制御するとよい。キャラクタ1100において観察者によって触れられる部位は、例えば、頭部、胸部、腹部、臀部または脚部等で例示される身体の部位とするとよい。また、キャラクタ1100において観察者によって触れられる部位は、キャラクタ1100の衣服(例えば洋服、スカート)や装飾物(例えば、アクセサリー)とするとよい。 Further, for example, an object detection means (for example, an ultrasonic sensor) capable of detecting the presence or absence (presence or absence) of a target object and the distance to the target object is installed in the display device 1, and the following is performed based on the detection result by the ultrasonic sensor. Such control may also be performed. For example, when it is determined that the observer's hand is touching the character 1100 recognized as a stereoscopic image based on the detection result by the ultrasonic sensor, the processing board 224 displays an image in which the character 1100 shows a reaction. It is better to output it on display. Furthermore, the display of the processing board 224 may be controlled so that it exhibits different reactions depending on the part of the character 1100 that is touched by the viewer. The parts of the character 1100 that can be touched by the viewer may be, for example, body parts such as the head, chest, abdomen, buttocks, or legs. Furthermore, the parts of the character 1100 that can be touched by the viewer may be clothing (for example, clothes, skirts) or accessories (for example, accessories) of the character 1100.

また、例えば、地震を感知し震度を測定可能な地震検知手段(例えば、感震センサ)が表示装置1に設けられ、処理基板224は、当該感震センサによって地震が検知されると、地震警報を発するとよい。 Further, for example, the display device 1 is provided with an earthquake detection means (for example, a seismic sensor) capable of sensing an earthquake and measuring the seismic intensity, and when an earthquake is detected by the seismic sensor, the processing board 224 issues an earthquake alarm. It is good to say .

また、例えば、天気を計測可能な天気センサが表示装置1に設けられ、処理基板224は、当該天気センサによる計測結果に基づいて、天気の変化や天気予報等を通知するとよい。なお、天気センサは、例えば、気圧センサと温度センサと湿度センサとを有し、各センサの検知結果に基づいて天気を計測可能に構成されているとよい。 Further, for example, a weather sensor capable of measuring the weather may be provided in the display device 1, and the processing board 224 may notify weather changes, weather forecasts, etc. based on the measurement results by the weather sensor. Note that the weather sensor preferably includes, for example, an air pressure sensor, a temperature sensor, and a humidity sensor, and is configured to be able to measure the weather based on the detection results of each sensor.

また、処理基板224は、温度センサによって検知された温度または/および湿度センサによって検知された湿度に応じて、映像表示部に表示されたキャラクタの表情や動き(モーションともいう)が変化する映像を表示するとよい。 The processing board 224 also displays an image in which the facial expression and movement (also referred to as motion) of the character displayed on the image display section change depending on the temperature detected by the temperature sensor and/or the humidity detected by the humidity sensor. It is good to display it.

また、処理基板224は、マイクロ波ドップラセンサなどの人感センサによる検知結果(例えば、表示装置1と観察者との距離)に応じて、映像表示部に表示されたキャラクタの表情や動きが変化する映像を表示するとよい。 In addition, the processing board 224 changes the facial expressions and movements of the character displayed on the video display section according to the detection results (for example, the distance between the display device 1 and the observer) by a human sensor such as a microwave Doppler sensor. It is a good idea to display images that

また、処理基板224は、湿度センサを利用して、ユーザによって息が吹きかけられたか否かを判断するとよい。さらには、処理基板224は、温度センサをも利用して、ユーザによって吹きかけられた息の種類を判断するとよい。なお、これらのセンサは、例えば、第2センサ2332として表示装置1に設けられるとよい。 Further, it is preferable that the processing board 224 uses a humidity sensor to determine whether or not the user has breathed on the processing board 224 . Furthermore, the processing board 224 may also utilize a temperature sensor to determine the type of breath blown by the user. Note that these sensors may be provided in the display device 1 as, for example, the second sensor 2332.

ここで、ユーザによって吹きかけられる息には、例えば、「フー」と吹きかける息、および「ハー」と吹きかける息、の2種類の息がある。なお、一般に、冷たい息を吹きかけるときには、速く「フー」と息を吹くことから、ここでは、「フー」と吹きかける息を「冷たい息」と呼ぶ。また、一般に、暖かい息を吹きかけるときには、ゆっくり「ハー」と息を吹くことから、ここでは、「ハー」と吹きかける息を「暖かい息」と呼ぶ。 Here, there are two types of breaths that can be blown by the user: a ``huh'' breath and a ``ha'' breath. Generally, when blowing cold breath, the person blows quickly with a "whoop" sound, so here, the breath that is blown with a "whoop" is referred to as "cold breath." In addition, generally when blowing warm breath, the person blows slowly with a "ha" sound, so here, the breath that is blown with a "hah" is referred to as "warm breath."

この2種類の息に関して、本願の発明者は、実験等により次のような知見を得た。詳細には、まず、湿度に関して、温湿度センサ(例えば、温度センサと湿度センサとが一体化されたセンサ)から所定程度離れた位置において当該温湿度センサに向けて「フー」と息を吹きかけると、その直後に湿度が定常状態から急激に上昇する、との測定結果が得られた。また、その後、息を吹きかけている間は湿度が単調増加し、息の吹きかけを停止すると、元の定常状態に戻るまでに数十秒の時間を要する、との測定結果が得られた。同条件で温湿度センサに向けて「ハー」と息を吹きかけたときも、同様の測定結果が得られた。一方で、温度に関しては、「フー」と息を吹きかけた場合は、温度が定常状態から若干低下するかほぼ横ばいとなり、「ハー」と息を吹きかけた場合は、温度が上昇する、との測定結果が得られた。なお、ユーザが表示装置1に吹きかける息は、表示装置1に当たる風の一例である。 Regarding these two types of breath, the inventor of the present application obtained the following findings through experiments and the like. In detail, first, regarding humidity, if you blow your breath toward the temperature/humidity sensor (e.g., a sensor that is a combination of a temperature sensor and a humidity sensor) at a predetermined distance from the sensor. The measurement results showed that immediately after that, the humidity rose rapidly from a steady state. Furthermore, the measurement results showed that the humidity increases monotonically while blowing, and when the blowing is stopped, it takes several tens of seconds to return to the original steady state. Similar measurement results were obtained when people blew into the temperature and humidity sensor under the same conditions. On the other hand, when it comes to temperature, it has been determined that when a person blows a 'huh' sound, the temperature drops slightly from the steady state or stays at about the same level, and when a person blows a 'hah' sound, the temperature rises. The results were obtained. Note that the breath that the user blows on the display device 1 is an example of the wind that hits the display device 1.

このような知見等を考慮して、例えば、湿度センサが設けられた表示装置1において、湿度が定常状態から急激に上昇したことが湿度センサによって検知されると、処理基板224は、観察者によって息が吹きかけられたと判断(決定ともいう)するとよい。さらに、その後において湿度の単調増加が検知されなくなると、処理基板224は、息の吹きかけが停止されたと判断するとよい。あるいは、湿度の急激な上昇が検知されてから所定時間(例えば、通常息を吐くのに要する時間(例えば、3秒程度))が経過すると、処理基板224は、その時点での湿度の検知結果にかかわらず、息の吹きかけが停止されたと判断するとよい。 In consideration of such findings, for example, in the display device 1 provided with a humidity sensor, when the humidity sensor detects that the humidity has suddenly increased from a steady state, the processed substrate 224 is It is best to judge (also called decision) that the breath has been blown on. Further, if a monotonous increase in humidity is no longer detected thereafter, the processing substrate 224 may determine that the blowing of breath has stopped. Alternatively, when a predetermined period of time (for example, the time required to exhale normally (for example, about 3 seconds)) has elapsed after a sudden increase in humidity was detected, the processing substrate 224 displays the humidity detection result at that point. Regardless of the situation, it is a good idea to determine that breathing has stopped.

さらに、湿度の急激な上昇が湿度センサによって検知された際に、(例えば、ほぼ同じタイミングで)温度が定常状態から上昇したことが温度センサによって検知されると、処理基板224は、観察者によって吹きかけられた息の種類が「暖かい息」であると判断するとよい。逆に、湿度の急激な上昇が湿度センサによって検知された際に、温度が定常状態から変化していないこと、あるいは定常状態から下降したことが温度センサによって検知されると、処理基板224は、観察者によって吹きかけられた息の種類が「冷たい息」であると判断するとよい。 Further, when a sudden increase in humidity is detected by the humidity sensor and the temperature sensor detects that the temperature has increased from a steady state (for example, at approximately the same time), the processing substrate 224 may be detected by an observer. It is best to determine that the type of breath being blown on is "warm breath." Conversely, when the humidity sensor detects a sudden increase in humidity and the temperature sensor detects that the temperature has not changed from the steady state or has decreased from the steady state, the processing substrate 224 It is helpful to determine that the type of breath blown by the observer is "cold breath."

そして、処理基板224は、息の吹きかけが検知されたことに応じた映像や音声を、映像表示部に表示されたキャラクタの動きやキャラクタ音声として出力するとよい。また、処理基板224は、吹きかけられた息の種類に応じた映像や音声を、映像表示部に表示されたキャラクタの動きやキャラクタ音声として出力するとよい。例えば、処理基板224は、観察者によって吹きかけられた息の種類が「冷たい息」である場合は、当該キャラクタの衣服がなびく映像を表示出力し、観察者によって吹きかけられた息の種類が「暖かい息」である場合は、当該キャラクタが息を避けるような動きを行う映像を表示出力するとよい。 Then, the processing board 224 preferably outputs video and audio in response to the detection of the blowing of breath as the movement and character audio of the character displayed on the video display section. Further, the processing board 224 may output images and sounds corresponding to the type of breath blown as the movements and sounds of the character displayed on the image display section. For example, if the type of breath blown by the observer is "cold breath," the processing board 224 displays and outputs an image of the character's clothes fluttering, and if the type of breath blown by the observer is "warm breath." If the character is "breathing", it is preferable to display and output an image in which the character moves in a way that avoids breathing.

また、本願の発明者は、種々のガスセンサを用いて次のような知見も得た。詳細には、ガスセンサから所定程度(例えば約10cm)離れた位置において当該ガスセンサに向けて「フー」と息を吹きかけると、その直後にガスセンサの出力値が下降し、息を吹き終えると、その直後にガスセンサの出力値が上昇に転じる、との測定結果が得られた。逆に、当該ガスセンサに向けて「ハー」と息を吹きかけると、その直後にガスセンサの出力値が上昇し、息を吹き終えると、その直後にガスセンサの出力値が下降に転じる、との測定結果が得られた。また、例えば送風機(例えば、扇風機)から送られた風がガスセンサに当たると、ガスセンサの出力値が下がり、扇風機からの風がガスセンサに当たらなくなると、ガスセンサの出力値が上がる、との測定結果が得られた。 The inventor of the present application also obtained the following findings using various gas sensors. In detail, when you blow into the gas sensor at a predetermined distance (for example, about 10 cm) from the gas sensor, the output value of the gas sensor immediately decreases, and when you finish blowing, immediately after The measurement results showed that the output value of the gas sensor started to increase. Conversely, the measurement results show that when you blow into the gas sensor, the output value of the gas sensor increases immediately after that, and immediately after you finish blowing, the output value of the gas sensor starts to decrease. was gotten. In addition, measurement results have been obtained that, for example, when the wind from a blower (for example, an electric fan) hits the gas sensor, the output value of the gas sensor decreases, and when the wind from the fan stops hitting the gas sensor, the output value of the gas sensor increases. It was done.

このような知見等を考慮して、例えば、ガスセンサが設けられた表示装置1において、ガスセンサの出力値が定常状態から急激に下降すると、観察者によって吹きかけられた息の種類が「冷たい息」であると判断されるとよい。逆に、ガスセンサの出力値が定常状態から急激に上昇すると、観察者によって吹きかけられた息の種類が「暖かい息」であると判断されるとよい。 Considering such findings, for example, in the display device 1 equipped with a gas sensor, if the output value of the gas sensor suddenly decreases from a steady state, the type of breath blown by the observer may be determined to be "cold breath". It would be good if it was determined that there is. Conversely, if the output value of the gas sensor suddenly increases from a steady state, it may be determined that the type of breath blown by the observer is "warm breath."

風センサを用いて息を検出する構成とすることもできる。本願の発明者は、風センサによると紙で仰ぐ程度の比較的弱い風を捉えることができることがあり、風センサに息を吹きかけるとすぐにピークになり、風が吹き始めるときの応答性が良いことを確認した。ただし、息を吹きつづけると、ピークからすぐに落ちてしまう。フーっと吹く息のような強い風だとヒーターが冷やされ、回復するのに時間が掛かることが考えられる。 It is also possible to adopt a configuration in which breath is detected using a wind sensor. The inventor of this application found that, according to wind sensors, it is possible to detect relatively weak winds that are as strong as looking up at a piece of paper, and when the wind sensor blows on the wind sensor, the wind reaches its peak immediately, and the responsiveness is good when the wind starts blowing. It was confirmed. However, if you keep breathing, it will quickly fall from its peak. If there is a strong wind that blows, the heater may cool down and take time to recover.

風センサを用いて息を検出する構成に関連し、以下のような構成をしてもよい。 In relation to the configuration of detecting breath using a wind sensor, the following configuration may be used.

処理基板224は、風センサにより持続的に所定の風量を検出している場合、息を吹きかけられている状態ではない方向の処理をするとよい。息を吹きかけられている状態ではない方向の処理は、例えば、息が吹きかけられていないと判断する処理である。この場合に、処理基板224は、風センサにより風の検出が始まってから終わるまでの時間が、息の吹きかけが可能な時間内であるとき、息を吹きかけられている状態である方向の処理を行うようにするとよい。 When the processing substrate 224 is continuously detecting a predetermined amount of air by the wind sensor, it is preferable to perform processing in a direction in which it is not being blown with breath. The processing in the direction in which the breath is not being blown is, for example, the processing in which it is determined that the breath is not being blown. In this case, when the time from the start to the end of wind detection by the wind sensor is within the time during which breath can be blown, the processing board 224 performs processing in the direction in which the wind is being blown. It is a good idea to do this.

この場合において、前記風センサは、風を受けることで奪われた熱を電気的に計測することで風を検出するセンサであってもよい。このセンサにおいては、当該センサに受ける風が、息が吹きかけられた風量に相当する。このセンサは、センサに受ける風が、息が吹きかけられた時間に相当する時間持続した場合に、当該持続の時間中に実際の風量よりも少ない値に落ち込むよう設定されており、センサに受ける風が、息が吹きかけられた風量よりも小さい場合にはこの落ち込みが発生しにくいように設定されているとよい。 In this case, the wind sensor may be a sensor that detects wind by electrically measuring heat removed by receiving wind. In this sensor, the wind that is received by the sensor corresponds to the amount of air that is blown onto the sensor. This sensor is set so that when the wind received by the sensor lasts for a time equivalent to the time when the breath is blown, the wind volume falls to a value lower than the actual air volume during the duration. However, it is preferable that the setting is such that this drop is less likely to occur when the volume of air is smaller than the amount of air blown.

表示装置1においては、前記風センサとして複数の風センサに対して、息の流入経路を共通とした風を流入させる流路が設けられてもよい。前記流路は、異なる風センサに対して、1:1ではない所定の比率で風が入るように構成されているとよい。処理基板224は、当該比率及び複数の風センサの特性の違いに基づいて息を吹きかけの大きさ及び時間を判定するとよい。表示装置1は前記持続の時間中に実際の風量よりも少ない値に落ち込むタイミングの異なる複数の風センサを備え、処理基板224は当該複数の風センサの出力に基づいて、息を吹きかけの大きさ及び時間を判定するとよい。表示装置1は、前記複数の風センサとして、ガスセンサではない風センサと、カスセンサとを少なくとも備えてもよい。 In the display device 1, a plurality of wind sensors may be provided with a flow path through which air flows through a common breath inflow path. The flow path may be configured to allow wind to enter different wind sensors at a predetermined ratio other than 1:1. The processing board 224 may determine the magnitude and duration of the blowing based on the ratio and the difference in characteristics of the plurality of wind sensors. The display device 1 includes a plurality of wind sensors that have different timings of dropping to a value smaller than the actual airflow volume during the duration time, and the processing board 224 determines the magnitude of the blowing based on the outputs of the plurality of wind sensors. and the time may be determined. The display device 1 may include at least a wind sensor that is not a gas sensor and a waste sensor as the plurality of wind sensors.

また、前記風センサとして所定のガスを検出するためのガスセンサを用いるとよい。前記風センサとして所定のガスを検出するためのガスセンサであって、ヒーターを備えるガスセンサを用いるとよい。この場合に、前記ヒーターを備えるガスセンサは、息の吹きかけの程度が相対的に小さいときに(息に含まれるガスを検出した結果)ガスの検出量が大きくなる方向の出力をする一方、息の吹きかけの程度が相対的に大きいときに(息の風によるヒーターの冷却によって)ガスの検出量が小さくなる方向の出力をする特性を有するものを用いるとよい。 Further, it is preferable to use a gas sensor for detecting a predetermined gas as the wind sensor. The wind sensor may be a gas sensor for detecting a predetermined gas, and may include a heater. In this case, the gas sensor equipped with the heater outputs an output in the direction of increasing the detected amount of gas (as a result of detecting gas contained in the breath) when the degree of blowing is relatively small; It is preferable to use a device that has a characteristic of outputting in a direction in which the detected amount of gas decreases (by cooling the heater with the airflow) when the degree of spraying is relatively large.

処理基板224が、息が吹きかけられていると判定したとき、その強さが相対的に大きいときには(例えば、風量が閾値以上であるときには)、キャラクタ1100の服・髪などを動かすアニメーションを表示する一方、その強さが相対的に小さいときにはキャラクタ1100の服・髪などを動かすアニメーションとは別のアニメーションを表示するとよい。 When the processing board 224 determines that breath is being blown and the strength of the blow is relatively large (for example, when the air volume is above a threshold value), it displays an animation that moves the clothes, hair, etc. of the character 1100. On the other hand, when the strength is relatively small, it is preferable to display an animation different from the animation that moves the clothes, hair, etc. of the character 1100.

ところで、息の検出にガスセンサを用いる場合、ガスセンサは、人間の息に含まれる成分(例えば、二酸化炭素)に反応して上記出力値を出力する。そして、「フー」という息が吹きかけられた場合と、「ハー」という息が吹きかけられた場合とで、ガスセンサの出力値が異な理由としては、「フー」という息が吹きかけられた場合は、吹きかけられた息の速度が高く、ガスセンサに衝突した後すぐに周囲に拡散しやすい一方、「ハー」という息が吹きかけられた場合は、吹きかけられた息の速度が低く、ガスセンサに衝突した後もその場に息の成分がとどまりやすいということがあると考えられる。 By the way, when a gas sensor is used to detect breath, the gas sensor outputs the above-mentioned output value in response to components (for example, carbon dioxide) contained in human breath. The reason why the output value of the gas sensor is different depending on whether the breath is blown "whoo" or "haa" is that when the breath "whoo" is blown, On the other hand, when a breath is blown, the speed of the blown breath is low and the gas is easily dispersed into the surrounding area after colliding with the gas sensor. This is thought to be due to the fact that breath components tend to remain in the field.

さらに、処理基板224は、例えば湿度センサによる湿度の検知結果をも用いて、検知された風が、観察者による息の吹きかけによるものであるか、送風機によるものであるかを判別するとよい。例えば、表示装置1において、ガスセンサの出力値が定常状態から急激に下降し、且つ、湿度が定常状態から急激に上昇したことが湿度センサによって検知されると、処理基板224は、ユーザによって息が吹きかけられたと判断するとよい。一方、ガスセンサの出力値が定常状態から急激に下降したものの、湿度が定常状態のままであるときには、処理基板224は、送風機によって風が送られていると判断するとよい。さらに、処理基板224は、温度センサによる温度の検知結果をも用いて、ユーザによって息が吹きかけられたと判断された際において、その息の種類を判断するとよい。また、比較的短い一定期間内においてガスセンサの出力値の上昇と下降とが繰り返された場合、処理基板224は、首振りしている扇風機の風が当たっていると判断するとよい。 Further, the processing board 224 may determine whether the detected wind is caused by the blowing of the observer's breath or by a blower, for example, by also using the humidity detection result by a humidity sensor. For example, in the display device 1, when the humidity sensor detects that the output value of the gas sensor has suddenly decreased from the steady state and the humidity has suddenly increased from the steady state, the processing board 224 will be activated when the user takes a breath. It is best to assume that it was sprayed on. On the other hand, when the output value of the gas sensor has suddenly decreased from the steady state, but the humidity remains in the steady state, the processing substrate 224 may determine that air is being blown by the blower. Further, the processing board 224 may also use the temperature detection result by the temperature sensor to determine the type of breath when it is determined that the user has breathed on the user. Furthermore, if the output value of the gas sensor repeatedly increases and decreases within a relatively short fixed period, it may be determined that the processing substrate 224 is being hit by the wind from an oscillating electric fan.

なお、風を検知するために用いられる、風センサ、湿度センサ、温度センサ、温湿度センサ、およびガスセンサは風検知手段の一例である。表示装置1は、風を検知するセンサとして、気圧センサを有してもよい。風の発生やその強さによって気圧の変化が発生し得るからである。 Note that a wind sensor, a humidity sensor, a temperature sensor, a temperature/humidity sensor, and a gas sensor used to detect wind are examples of wind detection means. The display device 1 may include an atmospheric pressure sensor as a sensor for detecting wind. This is because changes in atmospheric pressure can occur depending on the generation and strength of wind.

以上のような種々の制御が実行され得る。なお、上記のような制御は、キャラクタ1100に限らず、他のキャラクタ(例えば、キャラクタ1200)に関するコミュニケーション機能について行われてもよい。 Various controls such as those described above may be executed. Note that the above control may be performed not only for the character 1100 but also for communication functions related to other characters (for example, the character 1200).

<7.表示装置1が表示する映像の具体例>
次に、図41~図55を参照しつつ、表示装置1が表示する映像の具体例を説明する。図41~図55は、表示装置1に表示されるキャラクタ(図1Bおよび図1Cで説明したキャラクタ1200を含む映像)の一例を示す図である。図41~図55に示される各映像は、表示装置1において表示され、観察領域SCを介して観察者が観察することのできる画像である。なお、図41~図55にはステージ映像2200が表示されているが、これが表示されずにキャラクタ1200が表示されるようにしてもよい。
<7. Specific example of video displayed by display device 1>
Next, specific examples of images displayed by the display device 1 will be described with reference to FIGS. 41 to 55. 41 to 55 are diagrams showing examples of characters (images including the character 1200 described in FIGS. 1B and 1C) displayed on the display device 1. Each of the images shown in FIGS. 41 to 55 is an image that is displayed on the display device 1 and can be observed by an observer via the observation area SC. Note that although the stage image 2200 is displayed in FIGS. 41 to 55, the character 1200 may be displayed instead of this.

図41~図47は、表示装置1がコミュニケーション機能に基づいて、観察者の動作を待機する期間に行う表示である。表示装置1(詳細には、処理基板224)は、以下で説明する表示を、規則的またはランダムに切り替えて行う。例えば、図41(a)に示すように、キャラクタ1200は、表示装置1の正面側(観察側)の方向を向いて立ってる姿勢で表示される。表示装置1は、この姿勢を基本姿勢とし、コミュニケーション機能に基づくコミュニケーションが行われていない期間の表示としてもよい。例えば、図41(b)に示すように、キャラクタ1200が自身の前足を舐めるような動作をする。例えば、図41(c)および図42(a)に示すように、キャラクタ1200は、自身の左右を交互に見るような動作をする。例えば、図42(b)に示すように、キャラクタ1200は、地面の方向を向く動作をする。例えば、図42(c)に示すように、キャラクタ1200は、座ったまま伸びをするような動作をする。例えば、図43(a)に示すように、キャラクタ1200は、地面をのぞき込むような動作をする。さらに例えば、図43(b)および図43(c)に示すように、キャラクタ1200は、正面側を歩くような動作をする。表示装置1は、キャラクタ1200に歩く動作をさせるときには、ステージ映像を表示させずに、キャラクタ1200がその場で足踏みしてキャラクタ1200の全体的な位置をほぼ動かさない映像を表示させてもよい。表示装置1は、キャラクタ1200が歩く動作以外の動作を行うときに、キャラクタ1200の足元にステージ映像を表示させてもよい。 41 to 47 are displays that the display device 1 performs during a period when it is waiting for an observer's action based on the communication function. The display device 1 (specifically, the processed substrate 224) performs the display described below by switching regularly or randomly. For example, as shown in FIG. 41(a), the character 1200 is displayed in a standing posture facing the front side (viewing side) of the display device 1. The display device 1 may use this posture as a basic posture, and may display a period in which communication based on the communication function is not performed. For example, as shown in FIG. 41(b), the character 1200 makes an action such as licking its own front paw. For example, as shown in FIGS. 41(c) and 42(a), the character 1200 behaves in a manner such that it alternately looks at its left and right sides. For example, as shown in FIG. 42(b), the character 1200 moves to face the ground. For example, as shown in FIG. 42(c), the character 1200 performs a stretching motion while sitting. For example, as shown in FIG. 43(a), the character 1200 moves as if looking into the ground. Further, for example, as shown in FIGS. 43(b) and 43(c), the character 1200 moves as if walking on the front side. When making the character 1200 perform a walking motion, the display device 1 may display an image in which the character 1200 steps on the spot and does not substantially move the overall position of the character 1200, without displaying the stage image. The display device 1 may display a stage image at the feet of the character 1200 when the character 1200 performs an action other than walking.

例えば、図44(a)に示すように、キャラクタ1200は、自身の腹部をのぞき込むような動作をする。例えば、図44(b)に示すように、キャラクタ1200は、首を傾げる動作をする。例えば、図44(c)に示すように、キャラクタ1200は、自身の目をこする動作をする。例えば、図45(a)に示すように、キャラクタ1200は、あくびをする動作をする。例えば、図45(b)に示すように、キャラクタ1200は、座ったまま自身の前足を舐める動作をする。例えば、図45(c)に示すように、キャラクタ1200は、自身の左斜め前方を見るような動作をする。図46(a),(b)に示すように、キャラクタ1200は、伸びをする動作をする。例えば、図46(c)に示すように、キャラクタ1200は、地面をのぞき込むような動作をする。図47(a)に示すように、キャラクタ1200は、表示装置1の右斜め前方の方向を向き、その次に図47(b)に示すように正面を向く。図47(c)に示すように、キャラクタ1200は、自身の前足を舐める動作をする。 For example, as shown in FIG. 44(a), the character 1200 acts as if looking into its own abdomen. For example, as shown in FIG. 44(b), the character 1200 makes an action of tilting its head. For example, as shown in FIG. 44(c), the character 1200 makes an action of rubbing its own eyes. For example, as shown in FIG. 45(a), the character 1200 makes a yawning motion. For example, as shown in FIG. 45(b), the character 1200 makes a motion of licking its own front paw while sitting. For example, as shown in FIG. 45(c), the character 1200 moves to look diagonally to the left of itself. As shown in FIGS. 46(a) and 46(b), the character 1200 makes a stretching motion. For example, as shown in FIG. 46(c), the character 1200 moves as if looking into the ground. As shown in FIG. 47(a), the character 1200 faces diagonally forward to the right of the display device 1, and then faces forward as shown in FIG. 47(b). As shown in FIG. 47(c), the character 1200 makes a motion of licking its own front paw.

図48~図55は、表示装置1(詳細には、処理基板224)がコミュニケーション機能における対話処理時に行うキャラクタ1200の表示の一例である。図48~図55に示す文字列は、音声認識で認識可能な文字列で、キャラクタ1200の上方に表示される。これは、音声認識によって認識された語句(文章)が、音声認識後から所定時間にわたって表示され、当該所定時間の経過後に非表示化されるようにするとよい。そして、当該語句(音声認識結果)が非表示化されてからキャラクタ1200が話し出すように制御されるとよい。 48 to 55 are examples of the display of the character 1200 performed by the display device 1 (specifically, the processing board 224) during dialogue processing in the communication function. The character strings shown in FIGS. 48 to 55 are character strings that can be recognized by voice recognition and are displayed above the character 1200. It is preferable that the words (sentences) recognized by voice recognition are displayed for a predetermined period of time after the voice recognition, and are hidden after the predetermined period of time has elapsed. Then, it is preferable that the character 1200 is controlled to start speaking after the phrase (speech recognition result) is hidden.

図48(a)は、表示装置1が「おいでおいで~」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図48(b)~図49(b)は、表示装置1が「おすわり」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図49(c)は、表示装置1が「おなか減ったかなぁ」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図50(a)は、表示装置1が「おまわり」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図50(b),(c)は、表示装置1が「おやつの時間だよ」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図51(a)は、表示装置1が「お手」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図51(b)~図52(b)は、表示装置1が「可愛いね」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。表示装置1は、ステージ映像の中央以外の位置(例えば、前方側の位置)にキャラクタ1200を表示させる場合において、キャラクタ1200を回転させるときには、ステージ映像2200もキャラクタ1200と同様に回転させるとよい。また、表示装置1は、奥行方向に比較的距離のある形状のステージ映像2200を表示させ、そのようなステージ映像2200の内側において当該ステージ映像2200の外縁に沿ってキャラクタ1200を移動させる映像(例えば、円形のステージの外縁に沿って猫のキャラクタが歩く映像)を表示させるとよい。 FIG. 48(a) is displayed when the display device 1 recognizes the observer's utterance, ``Come on, come on~'', and a voice is output in response to this. 48(b) to FIG. 49(b) are displayed when the display device 1 recognizes the observer's utterance of "sit," and a voice is output in response to this. FIG. 49(c) is displayed when the display device 1 recognizes the observer's utterance, ``I wonder if I'm hungry,'' and a voice is output in response to this. FIG. 50(a) is displayed when the display device 1 recognizes the observer's utterance of "police officer," and a voice is output in response. FIGS. 50(b) and 50(c) are displayed when the display device 1 recognizes the observer's utterance, ``It's snack time,'' and a voice is output in response to this. FIG. 51(a) is displayed when the display device 1 recognizes the observer's utterance of "hand," and a voice is output in response. 51(b) to 52(b) are displayed when the display device 1 recognizes the observer's utterance, ``You're cute,'' and a voice is output in response to this. When the display device 1 displays the character 1200 at a position other than the center of the stage image (for example, a position on the front side) and rotates the character 1200, it is preferable to rotate the stage image 2200 in the same manner as the character 1200. Further, the display device 1 displays a stage image 2200 having a shape that is relatively distant in the depth direction, and displays an image (for example, , an image of a cat character walking along the outer edge of a circular stage).

図52(c)は、表示装置1が「こんにちは」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図53(a)は、表示装置1が「ご飯食べる」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図53(b),(c)は、表示装置1が「女の子かな」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図54(a)は、表示装置1が「待て」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図54(b)は、表示装置1が「いい子ねえ~」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図54(c)、図55は、表示装置1が「ユノ」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。 FIG. 52(c) is displayed when the display device 1 recognizes the observer's utterance of "Hello," and a voice is output in response. FIG. 53(a) is displayed when the display device 1 recognizes the observer's utterance "I'm going to eat," and a voice is output in response to this. FIGS. 53(b) and 53(c) are displayed when the display device 1 recognizes the observer's utterance "Is it a girl?" and a voice is output in response. FIG. 54(a) is displayed when the display device 1 recognizes the observer's utterance of "wait," and a voice is output in response. FIG. 54(b) is displayed when the display device 1 recognizes the observer's utterance, "You're a good girl," and a voice is output in response. 54(c) and 55 are displayed when the display device 1 recognizes the observer's utterance of "Yuno", and a voice is output in response to this.

<8.キャラクタ1200のより詳細な説明>
図1B、1Cおよび図41~図55で説明したキャラクタ1200についてより詳細に説明する。以下の説明において、表示装置1を処理主体とした説明については、処理基板224が行う処理としてよい。キャラクタ1200は、概ね約3等身で描画されると特によい。このようにすると奥行き感が特に強調されることを見出した。表示装置1は、側面側(横側)から見て上下方向に概ね、頭部が3分の1、胴体が3分の1、足が3分の1の高さを占めるように、キャラクタ1200を描画するとよい。表示装置1は、尾以外について、側面側から見て左右方向に概ね、頭部が3分の1、胴体が3分の2を占めるようにキャラクタ1200を描画するとよい。
<8. More detailed description of character 1200>
The character 1200 described in FIGS. 1B, 1C and FIGS. 41 to 55 will be described in more detail. In the following description, descriptions in which the display device 1 is the main processing body may be performed by the processing substrate 224. It is particularly advantageous if the character 1200 is drawn approximately three-dimensional. It has been found that by doing so, the sense of depth is particularly emphasized. The display device 1 displays a character 1200 so that the head occupies approximately one-third of the height, the torso occupies one-third, and the feet occupy one-third in the vertical direction when viewed from the side (lateral side). It is recommended to draw The display device 1 preferably draws the character 1200 so that, except for the tail, the head occupies approximately one-third and the body occupies two-thirds in the left-right direction when viewed from the side.

表示装置1は、正面に顔がある状態で、尾が見えない状態と尾が見える状態との間で相互に変位する描画をする機能を備え、尾が見える状態の時間を尾が見えない状態の時間より短くするとよい。尾は頭よりも奥側に描画されることになるが、ときどき尾が見えることで、立体感を大きく感じることができるとともに、常に立体感を大きく感じることで目や頭が疲労してしまうことを防止できる。特に、表示装置1は、音声認識の待受状態でこのような描画処理を行うとよい。表示装置1は、尾が見える状態へ変位するときには、頭の頂上部分から尾が現れるように描画する機能を備えるとよい。このようにすれば、通常は、顔の目に観察者の視線がありその中心上部からいきなり尾が頭の上方へ飛び出すことで、驚きと面白みを与えることができる。 The display device 1 has a function of displaying images that are mutually displaced between a state in which the tail is not visible and a state in which the tail is visible when the face is in front of the person, and a state in which the tail is visible and a state in which the tail is not visible. It is recommended that the time be shorter than that of . The tail is drawn further back than the head, but by seeing the tail from time to time, you can feel a larger three-dimensional effect, and constantly feeling a larger three-dimensional effect can cause eye and head fatigue. can be prevented. In particular, it is preferable that the display device 1 performs such a drawing process while in a standby state for voice recognition. The display device 1 may have a function of drawing the tail so that it appears from the top of the head when the tail is displaced to a visible state. If you do this, the tail will suddenly pop out above the head from the center of the eyes of the face, where the viewer's line of sight is usually directed, and this can give surprise and interest.

表示装置1は、キャラクタ1200の頭の頂上に正面視で平らな部分を設けるとよく、特に左右の耳の間の頭部分は正面視で平らにして描画するとよい。このようにすれば、立体感が弱い平らな頭の頂上からいきなり立体感のある尾が頭上に現れることとなり、より驚きと面白みを与えることができる。また、表示装置1は、頭上から尾が現れるように描画した後、尾の先端寄りの部分を動かす描画を行うとよい。このようにすれば、視点を顔より奥側の尾の部分に集めることができ、より立体感を感じさせることができる。表示装置1は、同様に胴体の左右から尾を出現させるように描画してもよい。表示装置1は、左右から尾を出現させる場合には、頭上から尾を出現させる場合に比べて、尾の出現する長さ、および/または、時間を短くするとよい。表示装置1は、左右から出現させる場合にはチラチラっと出現させる描画を行うとよい。表示装置1は、視線をときどき奥側に動かす描画をするようにしてもよく、より立体感を感じさせることができる。表示装置1は、音声の認識中は尾を頭の上から出現させる一方、猫からの音声の出力の際には尾を左右いずれかの方向から出現させる描画を行うとよい。表示装置1は、尾には長さ方向に所定の間隔で他の部分と違う描画態様を有する部分を設けるとよい。例えば一定間隔で尾の円筒面上に環状または円弧状に所定の幅を持つ模様を付すとよい。このようにすれば、尾の動きが3次元空間で、よりダイナミックに動くように感じられることを発明者らは見出した。 The display device 1 may preferably provide a flat portion on the top of the head of the character 1200 when viewed from the front, and in particular, the portion of the head between the left and right ears may be rendered flat when viewed from the front. In this way, a tail with a three-dimensional effect suddenly appears above the head from the top of the flat head, which has a weak three-dimensional effect, which can give more surprise and interest. Further, the display device 1 may draw the tail so that it appears from above, and then draw the part of the tail that moves toward the tip. In this way, the viewpoint can be focused on the tail part on the back side of the face, giving a more three-dimensional effect. The display device 1 may similarly draw the tail so that it appears from the left and right sides of the torso. When the display device 1 makes the tail appear from the left and right sides, it is preferable to shorten the length and/or time for which the tail appears, compared to when the tail appears from above. When the display device 1 makes the image appear from the left and right, it is preferable to draw the image so that the image appears flickeringly. The display device 1 may be configured to sometimes draw the user's line of sight to the back, which can give a more three-dimensional effect. It is preferable that the display device 1 performs rendering such that the tail appears from above the cat's head during voice recognition, and that the tail appears from either the left or right direction when outputting voice from the cat. In the display device 1, it is preferable that the tail is provided with portions having a drawing mode different from other portions at predetermined intervals in the length direction. For example, it is preferable to apply annular or arcuate patterns having a predetermined width on the cylindrical surface of the tail at regular intervals. The inventors have found that by doing this, the tail movement feels more dynamic in three-dimensional space.

表示装置1は、音声認識中は同一の姿勢になるように、音声認識中でない状態からの音声認識中の状態に変化があった場合に現在の姿勢を前記同一の姿勢に変化させる描画を行うとよい。表示装置1は、音声認識の開始前に「おしゃべりするにゃ」と発話させるとよい。表示装置1は、観察者の動作を検出する機能(例えばセンサやスイッチ)を備え、観察者からの動作を検出した場合に「なんにゃ?」と発話する機能を備えるとよい。両機能は「なんにゃ?」「おしゃべりするにゃ」という形で連続して実行し、その後音声認識状態に入るように処理を行うとよい。 The display device 1 performs drawing to change the current posture to the same posture when there is a change from a state not in voice recognition to a state in which voice recognition is in progress so that the same posture is maintained during speech recognition. Good. It is preferable that the display device 1 causes the user to say "Chat to you" before starting voice recognition. The display device 1 is preferably provided with a function (for example, a sensor or a switch) to detect the movement of the observer, and a function of uttering "What?" when the movement from the observer is detected. It is best to perform both functions in succession in the form of "What's that?" and "Talk to me," and then enter the speech recognition state.

表示装置1は、音声認識の語句として、「かわいいね」など、褒められる内容の語句の情報を備え、褒められる内容の語句を認識した場合には、体の姿勢を変化させるとよい。さらに歩くなど、猫自体の位置を移動させるとなおよい。このようにすれば観察者は猫の姿勢の変化や移動の動きを見たいために、褒める言動・行動をとるようになり、行動や言動の改善などのセラピーの優れた効果が得られる。 The display device 1 may be provided with information on complimentary words such as "You're cute" as speech recognition words, and change the body posture when recognizing the complimentary words. It is even better if you move the cat's position, such as by walking. In this way, the observer wants to see changes in the cat's posture and movements, so the observer will engage in words and actions that praise the cat, and excellent therapeutic effects such as improvement of the cat's behavior and speech can be obtained.

表示装置1は、ご飯をあげることに対応する音声認識の語句を備え、当該語句を認識した場合には、尾を他の場合に比べ早く振る描画を行うとよい。このようにすれば、より猫が実際に生きているかのような感覚を観察者に与えることができる。 It is preferable that the display device 1 is provided with a voice recognition phrase corresponding to "to feed", and when the phrase is recognized, a drawing is performed in which the tail wags faster than in other cases. In this way, the viewer can feel as if the cat is actually alive.

表示装置1は、猫の目の外郭を概ね円形状とし、黒目部分は縦長の楕円形状として描画処理するとよい。表示装置1は、黒目部分は上下方向に濃淡のグラデーションをつけて描画するとよく、下方にいくにしたがって明るい色に描画するとよい。表示装置1は、黒目の中心部には概ね円形または楕円形の周辺よりも黒い部分を設けるとよい。表示装置1は、黒目部分の上方の顔の外側寄りの部分には黒目の外縁に沿った三日月形状ないし半月状の白色領域を設けて描画するとよい。これに対し、表示装置1は、黒目の下方の顔の中心寄り位置には円形の白色領域を設けて描画するとよい。表示装置1は、この白色領域の描画はキャラクタ1200の位置の変化(姿勢の変化など)、ないし、カメラやライトの位置の変化があった場合でも、描画させつづけるとよい。通常は、ライト等の反射としてハイライトは演算で入れられることが多い。しかし、このようにすることで、音声認識の話しかけの際に最も見られる目の部分の猫の個性を強調とすることができ、個性のある猫として、音声認識をしている短時間で印象づけることができる。 The display device 1 preferably renders the outline of the cat's eyes as approximately circular, and the iris as a vertically elongated ellipse. In the display device 1, it is preferable that the iris part be drawn with a gradation of shading in the vertical direction, and the iris should be drawn in a brighter color as it goes downward. In the display device 1, it is preferable that the center part of the iris has a blacker part than the generally circular or elliptical periphery. The display device 1 preferably provides a crescent-shaped or half-moon-shaped white region along the outer edge of the iris in the outer part of the face above the iris. In contrast, it is preferable that the display device 1 draw a circular white area at a position near the center of the face below the iris. The display device 1 preferably continues to draw this white area even when there is a change in the position of the character 1200 (such as a change in posture) or a change in the position of the camera or light. Usually, highlights are often added by calculation as reflections of light or the like. However, by doing this, it is possible to emphasize the cat's individuality in the eyes, which are most visible when speaking with voice recognition, and give an impression as a cat with a unique personality in a short time during voice recognition. be able to.

表示装置1は、顔が正面を向いている状態と、下側を向いている状態とをとり、顔が正面を向いているときは目の外郭は概ね円形状で描画する一方、顔が下を向いている状態では、目を横長の楕円形状で描画するとよい。 The display device 1 takes a state where the face is facing forward and a state where the face is facing downward. When the face is facing forward, the outline of the eyes is drawn in a generally circular shape, while when the face is facing downward When the character is facing towards the camera, it is best to draw the eyes as horizontally elongated ellipses.

表示装置1は、顔の上端が胴体の上端より上にある状態と、顔の上端が胴体の上端より下にある状態とをとり、顔の上端が胴体の上端より上にある状態では目の外郭は概ね円形状で描画する一方、顔の上端が胴体の上端よりも下にある状態では、目を横長の楕円形状で描画するとよい。表示装置1は、口を開けてあくびをする状態を描画する機能を備え、この描画の際には目を閉じる描画を行うとよい。 The display device 1 has two states: the top of the face is above the top of the body, and the top of the face is below the top of the body, and when the top of the face is above the top of the body, the eyes are While the outline is generally drawn in a circular shape, if the upper end of the face is lower than the upper end of the body, it is better to draw the eyes in a horizontally elongated oval shape. The display device 1 has a function of drawing a yawning state with the mouth open, and it is preferable to draw the yawn with the eyes closed during this drawing.

表示装置1は、キャラクタ1200には待機時のモーションを複数のパターン用意しておき、これらのパターンのなかから1のパターンを選択して描画する処理を繰り返すとよい。待機時のモーションとしては、足をなめるモーション、顔を手で撫でるモーション、お尻をなめるモーション、正面を向くモーション、左右を見渡すモーション、地面をなめるモーション、伸びをするモーション、あくびをするモーション、歩くモーションなどがある。 The display device 1 preferably prepares a plurality of motion patterns for the character 1200 during standby, and repeats a process of selecting and drawing one pattern from these patterns. Motions during standby include licking the feet, stroking the face with hands, licking the butt, facing forward, looking left and right, licking the ground, stretching, yawning, There are walking motions, etc.

表示装置1は、耳は顔の移動に遅れて移動するように描画するとよい。例えば、顔が移動開始してもしばらく耳は位置を保つように描画するとよい。表示装置1は、なめるモーションを行うときには、尾を左右に振るモーションを同時に行う機能を備えるとよい。表示装置1は、キャラクタ1200を正面からみた際に胴体の模様は左右非対称とするとよい。このようにすれば、個性ある猫として覚えられやすくなるとともに、右面が見えているのか左面が見えているのかが容易に判別できるようになる。特にキャラクタ1200の全体像がみえないほど拡大した場面を設けるときに有用である。特に、模様は三毛猫の模様とするとよく、特にトラ猫の模様とするとよい。このようにすると特に立体感を把握しやすくなることを発明者らは見出した。特に、頭上の模様は前後方向に設ける一方、胴体の模様は上下方向に設けるなど、その模様の方向を異なる方向とするとよい。このようにすれば、カメラや猫の位置が変化したことを、いずれの方向に移動してもより認識しやすくなる。 The display device 1 may draw the ears so that they move later than the face. For example, the ears may be drawn so that they remain in position for a while even if the face begins to move. The display device 1 preferably has a function of simultaneously performing a tail-waving motion from side to side when performing a licking motion. In the display device 1, when the character 1200 is viewed from the front, the pattern of the body may be asymmetrical. In this way, it will be easier to remember the cat as a unique cat, and it will also be easier to tell whether the cat's right side or left side is visible. This is particularly useful when creating a scene that is so enlarged that the entire image of the character 1200 cannot be seen. In particular, the pattern is preferably a calico cat pattern, especially a tabby cat pattern. The inventors have found that this makes it particularly easy to grasp the three-dimensional effect. In particular, the patterns on the head may be provided in different directions, such as the pattern on the head being provided in the front-back direction, while the pattern on the body may be provided in the vertical direction. This makes it easier to recognize changes in the camera or cat's position no matter which direction they move.

表示装置1は、「ニャ」という鳴き声を発する機能を備え、「ニャ」という鳴き声には複数のイントネーションのものを備え、それぞれの鳴き声に対して異なるモーションが対応づけられる構成とするとよい。イントネーションの中には、疑問形のイントネーションを備え、モーションとしては首を傾げるモーションを備えるとよい。 It is preferable that the display device 1 has a function of emitting a cry of "Nya", has a plurality of intonations for the cry of "Nya", and has a configuration in which each cry is associated with a different motion. It is preferable that the intonation includes a question-like intonation, and the motion includes a tilting of the head.

<9.キャラクタ1200に関するコミュニケーション機能について>
キャラクタ1200に関するコミュニケーション機能について補足する。以下のようにすれば、観察者に対し、キャラクタ1200とのより質の高いコミュニケーション機能を提供することができる。ここでは、飼い慣らすまでにする人の行動とキャラクタ1200との行動ストーリーの概略について説明する。この実施形態では、図32に示すように、表示装置1の正面側に、観察者を撮影する撮影部227が設けられている。
<9. Regarding communication functions related to character 1200>
The communication function related to the character 1200 will be supplemented. By doing the following, it is possible to provide the viewer with a higher quality communication function with the character 1200. Here, an outline of the human behavior and the behavior story of the character 1200 until it is tamed will be explained. In this embodiment, as shown in FIG. 32, a photographing section 227 for photographing the observer is provided on the front side of the display device 1.

(9-1)第一ステップ:飼い慣らすまでの段階
通常、野良猫等の猫は、人を見るだけで逃げる、または人が近づくと逃げる色々なタイプの猫がいる。そのとき、猫の行動は、何度も振り返りながら人の様子を見ながら逃げるように見える。ここで、処理基板224は、撮影部227を用いて撮影した撮影画像に基づいて観察者の存在を認識し、かつ人感センサ234により測定されるマイクロ波の強度(受信強度)が閾値を超えた場合、キャラクタ1200が逃げるような動作を行う映像を表示させる。猫に人が近づいたとみなすためである。撮影部227で観察者を認識するのは、キャラクタ1200が逃げる場面を観察者に見せるためである。つまり、観察者が正面側から表示装置1に近づかないと、キャラクタ1200が逃げる動作をしないようにしている。
(9-1) First step: Stage until domestication Normally, there are various types of cats, such as stray cats, that run away when they see a person, or run away when a person approaches. At that time, the cat's behavior appears to be turning around and looking at the person before running away. Here, the processing board 224 recognizes the presence of the observer based on the captured image captured using the imaging unit 227, and the intensity of the microwave (received intensity) measured by the human sensor 234 exceeds a threshold value. In this case, an image in which the character 1200 performs an action such as running away is displayed. This is because it is assumed that a person has approached the cat. The purpose of recognizing the viewer in the photographing unit 227 is to show the viewer a scene in which the character 1200 runs away. In other words, the character 1200 is prevented from running away unless the viewer approaches the display device 1 from the front side.

次に、人は猫に対して「しゃがんで(目の位置を落として)」、「おいで、おいで」などの声を掛けると考えられる。そのときに立ち止まり、様子をうかがう猫もいる。しかし、人が近付くと猫は逃げる。何度かこのことが繰り返される。このような人の行動では、猫は慣れてくれないと考えられる。そこで、処理基板224は、キャラクタ1200が逃げている映像を表示している期間に、人感センサ234により測定されるマイクロ波の強度が或る閾値以下であり、かつ例えば「おいで」というキャラクタ1200に呼びかけることを示す言葉を音声認識した場合、キャラクタ1200が立ち止まるような動作を行う映像を表示させる。ここで、マイクロ波の強度を閾値以下になることを条件としているのは、人間が立ち止まる状態を想定しているからである。 Next, people are thought to say things like ``squat down'' (lower your eyes) and ``come on, come on'' to the cat. Some cats stop and check out what's going on. However, if a person approaches, the cat will run away. This is repeated several times. It is thought that cats will not get used to this type of human behavior. Therefore, the processing board 224 determines that during a period when the image of the character 1200 running away is displayed, the intensity of the microwave measured by the human sensor 234 is below a certain threshold, and the character 1200 saying, for example, "Come!" When words indicating a call to someone are voice recognized, an image of the character 1200 performing an action such as stopping is displayed. Here, the reason why the intensity of the microwave is set to be equal to or less than the threshold value is because it is assumed that a person is standing still.

次に、人は立ち止った猫に餌を与えることが考えられる。しかし、人が猫に近づくと、猫は逃げるので、猫がよく来る場所に餌を置いておくしかないと考えられる。そこで、表示装置1は、映像表示空間内に餌が置かれる映像を表示する機能を有する。例えば、処理基板224は、操作領域OTを用いた所定の操作(例えば、操作部2214の操作)を受け付けた場合、または第1センサ2231で餌を置くことを指示する所定のジェスチャが検出された場合に、餌がおかれたとして、映像の中に餌を示す映像を表示させる。この映像は、第1表示部310および第2表示部330のどちらを用いて表示されてもよい。このようにすれば、観察者は、例えば毎日、餌を置くようにする。処理基板224は、この際、キャラクタ1200が遠くからその様子を見ているような表示をさせるとよい。処理基板224は、人感センサ234を用いて観察者の存在を認識せず、かつ撮影部227で観察者が撮影されていない場合に、キャラクタ1200が餌を食べる映像を表示させる。ここでは、猫が人を前にして餌を食べない状況を再現している。観察者からすると、いつの間にか餌が空になっている、という状況をつくっている。処理基板224は、観察者が餌を与えた回数をカウントしておき、これを記憶しておく。しばらくはこの状態が続くが、処理基板224は、餌を与える回数によって、次第に観察者とキャラクタ1200と人との距離(観察者が感じる距離)を縮めていくような表示をさせるとよい。例えば、処理基板224は、餌を与え始めて、餌を与えた回数とともに、キャラクタ1200をより大きく表示するようにして、距離を縮めてきた(つまり、少し慣れてきた)ことを再現するとよい。さらに、餌を与えた回数が増加して所定の閾値に達すると、猫が慣れててきたとして、観察者がキャラクタを見ていても、つまり、処理基板224は、人感センサ234を用いて観察者の存在を認識し、かつ撮影部227で観察者が撮影されている場合でも、キャラクタ1200が餌を食べる映像を表示させる。このときに初めて、観察者は、キャラクタ1200が餌を食べる様子を観察することができる。 Next, it is conceivable that people stop to feed the cat. However, if a person approaches a cat, the cat will run away, so the only option is to leave food in a place where cats often visit. Therefore, the display device 1 has a function of displaying an image in which bait is placed within the image display space. For example, when the processing board 224 receives a predetermined operation using the operation area OT (for example, an operation on the operation unit 2214), or when the first sensor 2231 detects a predetermined gesture instructing to place food, In this case, if bait is placed, an image showing the bait is displayed in the image. This video may be displayed using either the first display section 310 or the second display section 330. In this way, the observer places the food, for example, every day. At this time, the processing board 224 may be displayed so that the character 1200 is watching from a distance. The processing board 224 displays an image of the character 1200 eating food when the presence of the observer is not recognized using the human sensor 234 and the observer is not photographed by the photographing unit 227. Here, we are recreating a situation where a cat refuses to eat in front of people. From an observer's point of view, this creates a situation where the bait is empty before you know it. The processing board 224 counts and stores the number of times the observer feeds the food. Although this state continues for a while, the processing board 224 may display a display that gradually reduces the distance between the viewer, the character 1200, and the person (the distance perceived by the viewer) depending on the number of feedings. For example, the processing board 224 may display the character 1200 in a larger size together with the number of times the character 1200 has started feeding, thereby reproducing the fact that the distance has shortened (that is, the character has gotten used to it a little). Furthermore, when the number of times the cat is fed increases and reaches a predetermined threshold, it is assumed that the cat has gotten used to it, and even if the observer is looking at the character, the processing board 224 uses the human sensor 234 to Even when the presence of an observer is recognized and the observer is photographed by a photographing unit 227, an image of the character 1200 eating food is displayed. At this time, the observer can observe the character 1200 eating food for the first time.

ただし、猫がいつ餌を食べるかは人が分からないことも少なくない。そこで、処理基板224は、キャラクタ1200が餌を食べる時間帯(これに代えて、一時点の時刻としてもよい。)を決めておき、その時間帯にキャラクタ1200に餌を食べる動作をさせてもよい。観察者に、どうもこの時間帯に餌を食べるみたいだということを気づかせるためである。処理基板224は、観察者がキャラクタ1200に触ろうとすることが検出されると、キャラクタ1200に所定の発話内容「シャー」または「シャーシャー」という音声を出力させるとともに、キャラクタ1200が逃げる動作をさせる。観察者がキャラクタ1200に触ろうとすることは、キャラクタ1200が餌を食べている動作をしているときに、人感センサ234により検出されるマイクロ波の強度が閾値を超えたこと、または第1センサ2331が所定のジェスチャを検出したことにより特定されるとよい。 However, people often do not know when cats eat. Therefore, the processing board 224 determines a time period in which the character 1200 eats food (alternatively, it may be set as a point in time), and allows the character 1200 to perform the action of eating food during that time period. good. This is to make observers aware that they seem to be feeding at this time of day. When the processing board 224 detects that the observer is about to touch the character 1200, the processing board 224 causes the character 1200 to output a predetermined utterance of "Sha" or "Shasha" and causes the character 1200 to make an action to run away. . The fact that the observer tries to touch the character 1200 is caused by the fact that the intensity of microwaves detected by the human sensor 234 exceeds a threshold while the character 1200 is eating food, or by the first It is preferable that the identification is made when the sensor 2331 detects a predetermined gesture.

このような状況がしばらく続くが、処理基板224は、少しずつ、観察者の手をキャラクタ1200に近接させることのできる距離を縮めていくとよい。所定の距離まで近づくようになると、処理基板224は、キャラクタ1200が観察者に慣れてきたとして、人前で毛繕いやくつろいだ動作を行う映像を表示させるとよい。処理基板224は、具体的には、マイクロ波の強度に対する閾値を上げていく、またはジェスチャが行われるときの表示装置1からの距離に対する閾値を上げていく。このようにして、処理基板224は、検出感度を下げていき、観察者の動きに対しキャラクタ1200の反応を鈍くしていき、「シャー」または「シャーシャー」といった発話もさせないようにする。 Although this situation continues for a while, it is preferable that the processing board 224 gradually reduce the distance at which the viewer's hand can approach the character 1200. When the character 1200 comes close to a predetermined distance, the processing board 224 may assume that the character 1200 has become accustomed to the viewer, and display an image of the character 1200 preening or relaxing in public. Specifically, the processing board 224 increases the threshold value for the intensity of microwaves, or increases the threshold value for the distance from the display device 1 when a gesture is performed. In this way, the processing board 224 lowers the detection sensitivity, slows down the reaction of the character 1200 to the observer's movements, and prevents the character 1200 from making utterances such as "sha" or "shasha".

猫は、常に警戒はするが、毛繕いや寝そべり、爪研ぎ、顔拭きなどの行動を加えていく。猫がだんだんと人や人の手に慣れてくると、人は手で猫に触れられるようになる。そこで、処理基板224は、人感センサ234によるマイクロ波の検出結果を、キャラクタ1200の動作に反映させなくするとよい。処理基板224は、第1センサ2331をモーションセンサとして機能させて、観察者の上下左右、前後方向のジェスチャの検出結果に従って、キャラクタ1200が撫でると気持ち良さそうにする映像を表示させるとよい。処理基板224は、さらに、マイクロホン2333により観察者の声を認識して、キャラクタ1200がこれに反応する映像を表示させるとよい。例えば、処理基板224は、どのような言葉を認識した場合でも、発話内容として「にゃ」という鳴き声を発するようにするとよい。 Cats are always alert, but they add activities such as grooming, lying down, sharpening their claws, and wiping their faces. As cats gradually get used to people and their hands, people can begin to touch them with their hands. Therefore, it is preferable that the processing board 224 not reflect the microwave detection result by the human sensor 234 on the movement of the character 1200. The processing board 224 may cause the first sensor 2331 to function as a motion sensor, and display an image that appears pleasant when the character 1200 strokes it, according to the detection results of the viewer's gestures in the up, down, left, and right directions, and in the front and back directions. The processing board 224 may further recognize the observer's voice using the microphone 2333 and display an image in which the character 1200 reacts to the voice. For example, it is preferable for the processing board 224 to emit a cry of "nya" as the utterance content no matter what kind of word it recognizes.

処理基板224は、さらに、時間が経過すると、キャラクタ1200が餌をねだるような映像を表示させるとよい。処理基板224は、撮影部227により観察者の存在を認識し、かつ人感センサ234により観察者の存在を検出しているときに、時間帯(例えば、朝、昼、晩)を決めて、「ニャーニャー」という鳴き声を発するようにし、顔をすりすりする動作を行う映像を表示させるとよい。さらに、処理基板224は、観察者がキャラクタ1200に声を掛けていくと、キャラクタ1200が自分の名前を覚えていく様子を再現するとよい。例えば、処理基板224は「ユノ」という言葉にのみ反応して、「にゃ」という鳴き声を発するようにしてもよいし、「ユノ」、「餌だよ」という声掛けに反応して、甘えた行動をとるようにしたり、嬉しそうにすりすりしたりする映像を表示させるとよい。 The processing board 224 may further display an image of the character 1200 begging for food as time passes. When the photographing unit 227 recognizes the presence of the observer and the human sensor 234 detects the presence of the observer, the processing board 224 determines a time period (for example, morning, noon, evening), and It would be a good idea to have the dog make a "meow" sound and display a video of him rubbing his face. Further, the processing board 224 preferably reproduces a situation where the character 1200 remembers its own name as the viewer calls out to the character 1200. For example, the processing board 224 may respond only to the word "Yuno" and emit a cry of "Nya", or may respond to calls such as "Yuno" and "It's bait" and make a sweet sound. It's a good idea to have them do something, or show them a video of them happily grinding.

(9-2)第二ステップ:言語(日本語)を覚えていく段階
処理基板224は、あるときに「ユノ」という観察者の声掛けを認識した場合に、「何?」という応答を示す音声を出力する。ここからは、キャラクタ1200が言葉を覚えていくという段階となる。処理基板224は、声掛された回数をカウントして、累計平均/日をとり、餌の与えた回数の累計平均/日×声掛された回数の累計平均×ランダム係数により算出される値(以下。「累積平均値」という)に応じた応答をする。この声掛けは、例えば、「おはよう」、「こんにちは」、「こんばんは」、「元気?」、「餌欲しい?」などの所定の声かけである。処理基板224は、累計平均値に応じて、応答をしなくなったり(つまり、キャラクタ1200が言葉を忘れたことを再現したり)、応答する言葉を増加させたりする。例えば、処理基板224は、累積平均値が小さいほど、応答する言葉を減少させ、累積平均値が大きいほど、応答する言葉を増加させるとよい。累積平均値は、表示装置1の使用開始時点から現在時点までに声掛けされた回数に基づいて算出されるが、現在時点から過去に所定期間遡った時点から現在時点までに声掛けされた回数に基づいて算出されてもよい。所定期間は、1か月など固定的に決められていてもよいし、表示装置1が一定期間使用されなかった場合は、その期間後使用が開始された時点以降の期間としてもよい。表示装置1の使用が開始された最初の頃は、累積平均値は大きく変化し得るので、例えば観察者が1日に1回も声を掛けない場合は、キャラクタ1200は応答しなくなることもあるが、声掛けの回数が増えるにしたがって、累積平均値は大きく変化しなくなる。このようにすれば、キャラクタ1200が言葉を忘れるのに時間が掛かる様子を再現することができる。累積平均値の算出に用いられるランダム係数は、猫の気まぐれさを再現するための値で、気まぐれ係数といってもよい。ランダム係数は、キャラクタ21200が餌をおねだりしたときに餌を与える/与えない、キャラクタ1200が寝ているときに声を掛けたり、触ったりして起こす行動をとったりするなど、キャラクタ1200および観察者の行動によって変化させるとよい。
(9-2) Second step: Learning the language (Japanese) When the processing board 224 recognizes the observer's voice saying "Yuno" at some point, it responds with "What?" Output audio. From this point on, the character 1200 begins to learn words. The processing board 224 counts the number of times people have been called out, takes the cumulative average/day, and calculates the cumulative average/day of the number of times food has been given x the cumulative average of the number of times people have been called out x a random coefficient ( (hereinafter referred to as the "cumulative average value"). This greeting is, for example, a predetermined greeting such as "Good morning,""Hello,""Goodevening,""How are you?" and "Do you want food?" The processing board 224 may stop responding (that is, reproduce the fact that the character 1200 has forgotten a word) or increase the number of words it responds to, depending on the cumulative average value. For example, the processing board 224 may reduce the number of words to respond to as the cumulative average value is smaller, and increase the number of words to respond to as the cumulative average value is larger. The cumulative average value is calculated based on the number of times the display device 1 has been called out from the start of use to the present time, and the number of times it has been called out from the time when a predetermined period of time has gone back from the current time point to the present time point. It may be calculated based on. The predetermined period may be fixed, such as one month, or if the display device 1 has not been used for a certain period of time, it may be a period after the point in time when the display device 1 is started to be used after that period. When the display device 1 is first used, the cumulative average value may change significantly, so if the observer does not call out to him once a day, for example, the character 1200 may stop responding. However, as the number of calls increases, the cumulative average value does not change significantly. In this way, it is possible to reproduce the situation in which it takes time for the character 1200 to forget words. The random coefficient used to calculate the cumulative average value is a value that reproduces the capriciousness of cats, and can be called a capricious coefficient. The random coefficient is based on the behavior of the character 1200 and the observer, such as giving or not giving food when the character 21200 begs for food, or taking actions to wake the character 1200 by calling or touching it when it is sleeping. It is best to change it through your actions.

処理基板224は、さらに累計平均値が或る閾値を超えると、キャラクタ1200から観察者に話し掛けたり、天気、ニュース等の所定の情報に関する質問に対して応答したりするようにするとよい。もちろん、観察者が餌を与える回数を減らすと、累積平均値は減少するので、処理基板224はこの応答の種類を減らしたり、応答しなくなったりする。つまり、観察者の餌の与え方がずさんであったり、適当に声掛けをしていないと、キャラクタ1200が応答する機能が維持さなかったり、維持していたとしても「気まぐれ」によって応答しない場合もある以上のようにして、観察者に対し、キャラクタ1200とのより質の高いコミュニケーション機能を提供することができる。 The processing board 224 may further have the character 1200 speak to the viewer or respond to a question regarding predetermined information such as the weather or news when the cumulative average value exceeds a certain threshold. Of course, if the observer reduces the number of times the observer feeds, the cumulative average value decreases, so the treated substrate 224 reduces the types of responses or becomes non-responsive. In other words, if the observer is sloppy in feeding or does not call out appropriately, the character 1200 may not be able to respond, or even if it is maintained, it may not respond due to a "whim". In the above manner, it is possible to provide the viewer with a higher quality communication function with the character 1200.

[他の実施形態]
本開示は上記の実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
[Other embodiments]
The present disclosure is not limited to the embodiments described above, and can be modified as appropriate without departing from the spirit.

表示装置1は、観察領域SCにタッチセンサ、近接センサその他の観察者の操作を受け付ける操作受付手段を有してもよい。このようにすれば、観察者は観察領域SCを利用して操作を行うことができる。例えば、コミュニケーション機能においてこのような操作方法が採用されると、観察領域SCを介して観察できるキャラクタとのコミュニケーションの質を高める効果が期待できる。 The display device 1 may include a touch sensor, a proximity sensor, or other operation receiving means for receiving operations from an observer in the observation area SC. In this way, the observer can perform operations using the observation area SC. For example, if such an operation method is adopted in the communication function, it can be expected to have the effect of improving the quality of communication with the character that can be observed via the observation area SC.

第1表示部310は、三次元の映像(立体映像)として認識される画像を表示してもよい。このようにすれば、観察者に与えられる立体感をより向上させる効果が期待できる。表示方式としては、レンチキュラーレンズ方式、パララックスバリア方式などの裸眼立体視方式とするほか、眼鏡を用いて三次元の映像として認識できる表示方式などでもよい。 The first display unit 310 may display an image that is recognized as a three-dimensional image (stereoscopic image). In this way, it is possible to expect the effect of further improving the three-dimensional effect given to the observer. The display method may be an autostereoscopic method such as a lenticular lens method or a parallax barrier method, or a display method that can be recognized as a three-dimensional image using glasses.

表示装置は直方体状に限らず、立方体、円筒形、その他の多面体、球状その他の形状でもよい。また、上述した表示装置1の各構成要素の形状、構造、寸法、色、模様等は一例に過ぎない。また、上述した表示装置1が備える構成要素の一部が省かれてもよいし、別の構成要素が追加されてもよい。例えば、第2表示部330が省かれてもよいし、背景板910に代えて第1方向側に第2画像光L2を発する第2表示部330が立てた状態で配置されてもよい。また、図13で説明したもの以外の光学系を用いて空中結像が実現されてもよい。また、本発明の構成が、空中結像方式ではなく、ディスプレイ方式またはプロジェクタ方式の表示装置に適用されてもよい。ディスプレイ方式の場合、映像表示部として液晶ディスプレイ、有機ELディスプレイその他の表示方式のディスプレイが用いられる。例えば、映像表示部として、映像表示空間の内部に設けられ、観察領域SCの方向を向く表示面(例えば、観察領域SCと平行な表示面)を有する表示部が用いられるよい。この表示部は、第1表示部310または第2表示部330と同じ構成を有し、映像表示空間の背面部に設けられるとよい。プロジェクタの方式の場合、投射面およびこれに画像を投射する投射手段が用いられればよい。また、減光部材200は、開口部110よりも正面側にまたは背面側に配置されて、外部から映像表示空間に進入する光を減じてもよい。また、映像表示空間S1が比較的暗い状態に維持されるのであれば、減光部材200が設けられない構成とすることも考えられる。 The display device is not limited to the shape of a rectangular parallelepiped, but may be a cube, a cylinder, another polyhedron, a sphere, or other shapes. Further, the shape, structure, size, color, pattern, etc. of each component of the display device 1 described above are merely examples. Further, some of the components included in the display device 1 described above may be omitted, or other components may be added. For example, the second display section 330 may be omitted, or the second display section 330 that emits the second image light L2 in the first direction may be placed in an upright position in place of the background plate 910. Furthermore, aerial imaging may be realized using an optical system other than the one described in FIG. 13. Further, the configuration of the present invention may be applied to a display device using a display method or a projector method instead of an aerial imaging method. In the case of a display type, a liquid crystal display, an organic EL display, or another type of display is used as the image display section. For example, as the video display section, a display section may be used that is provided inside the video display space and has a display surface facing the observation area SC (for example, a display surface parallel to the observation area SC). This display section has the same configuration as the first display section 310 or the second display section 330, and is preferably provided at the back of the video display space. In the case of a projector method, a projection surface and a projection means for projecting an image onto the projection surface may be used. Further, the light reduction member 200 may be disposed on the front side or the back side of the opening 110 to reduce light entering the image display space from the outside. Furthermore, if the video display space S1 is to be maintained in a relatively dark state, a configuration in which the light reduction member 200 is not provided may be considered.

また、上記の実施例では、操作部2214の押下操作に応じて、映像表示部に表示されたキャラクタとの対話を行うための音声認識が有効化されているが、これに限定されない。例えば、全周マイクロ波ドップラセンサなどの人感センサ(検知手段の一例)の検知対象領域において人の存在が検知されると、処理基板224は、当該音声認識を有効化するようにしてもよい。このようにすれば、ユーザが、映像表示部に表示されたキャラクタと対話するにあたって、例えば音声認識を有効化するための操作を行う必要やトリガーワードを発声する必要がなく、より自然にコミュニケーションを再現することができる。 Further, in the above embodiment, voice recognition for interacting with the character displayed on the video display unit is enabled in response to a pressing operation on the operation unit 2214, but the present invention is not limited to this. For example, when the presence of a person is detected in a detection target area of a human sensor (an example of a detection means) such as a full-frequency microwave Doppler sensor, the processing board 224 may enable the voice recognition. . In this way, when the user interacts with the character displayed on the video display, there is no need for the user to perform an operation to enable voice recognition or to utter a trigger word, for example, and the user can communicate more naturally. Can be reproduced.

この際、例えば、表示装置1内の音声認識アプリケーションでの音声認識と音声認識サーバでの音声認識との双方が有効化されるとよい。ただし、次述するように、表示装置1内の音声認識アプリケーションでの音声認識の有効化と音声認識サーバでの音声認識の有効化とが、段階的に実行されてもよい。例えば、当該人感センサ等の検知対象領域において人の存在が検知されると、表示装置1内の音声認識アプリケーションでの音声認識が有効化され、その後、観察者による声掛けや挨拶が当該音声認識アプリケーションによって検出されると、音声認識サーバでの音声認識が有効化されるようにしてもよい。 At this time, for example, it is preferable that both the voice recognition by the voice recognition application in the display device 1 and the voice recognition by the voice recognition server be enabled. However, as described below, the activation of voice recognition in the voice recognition application in the display device 1 and the validation of voice recognition in the voice recognition server may be performed in stages. For example, when the presence of a person is detected in the detection target area of the human sensor, etc., voice recognition in the voice recognition application in the display device 1 is enabled, and the observer's greeting or greeting is then Once detected by the recognition application, speech recognition at the speech recognition server may be enabled.

また、表示装置1がカメラ等の撮影部(検知手段の一例)を備えている場合、表示装置1の正面側に検知対象空間が設けられ、処理基板224は、表示装置1の正面側において人の存在が検知されると、音声認識を有効化するようにしてもよい。このようにすれば、映像表示部に表示されたキャラクタに対して観察者が話しかけようとしていることをより確実に判断した上で、音声認識を有効化することができる。 Further, when the display device 1 is equipped with a photographing unit such as a camera (an example of a detection means), a detection target space is provided on the front side of the display device 1, and the processing board 224 When the presence of a voice is detected, voice recognition may be enabled. In this way, voice recognition can be enabled after more reliably determining that the viewer is trying to talk to the character displayed on the video display section.

さらには、検知対象領域において人が検知された後において、ユーザ認証が成功したことを条件に、処理基板224は、当該音声認識を有効化するように構成されているとよい。なお、ユーザ認証の認証手法は、例えば、ユーザの手操作を要しない認証手法(顔認証、声帯認証等)とするとよい。このようにすれば、例えば表示装置1に登録された登録ユーザ以外の人に対してユーザ認証が行われて当該ユーザ認証が失敗したときには、音声認識が有効化されず、映像表示部に表示されたキャラクタと対話することができない。逆に言えば、登録ユーザ以外の人に対しては、映像表示部に表示されたキャラクタが反応を示さない。これにより、当該キャラクタへのユーザの愛着を増大させることができる。 Furthermore, after a person is detected in the detection target area, the processing board 224 may be configured to enable the voice recognition on condition that user authentication is successful. Note that the authentication method for user authentication may be, for example, an authentication method that does not require manual operation by the user (face authentication, vocal cord authentication, etc.). In this way, for example, when user authentication is performed for a person other than the registered user registered on the display device 1 and the user authentication fails, voice recognition will not be enabled and will not be displayed on the video display section. Unable to interact with other characters. Conversely, the character displayed on the video display section does not show any reaction to people other than registered users. Thereby, the user's attachment to the character can be increased.

また、表示装置1あるいは外部サーバに搭載された対話サーバに予め登録された文言以外の文言の音声が検出された場合は、音声認識が有効化されないようにしてもよい。 Further, if the voice of a phrase other than the phrase registered in advance in the dialogue server installed in the display device 1 or an external server is detected, voice recognition may not be enabled.

また、音声認識を有効化するための手段として、においセンサが用いられてもよい。例えば、表示装置1の登録ユーザのにおいを予め表示装置1に登録しておき、登録ユーザのにおいがにおいセンサによって検知されると、音声認識が有効化されるようにしてもよい。 Further, a scent sensor may be used as a means for validating voice recognition. For example, the odor of the registered user of the display device 1 may be registered in the display device 1 in advance, and when the odor of the registered user is detected by the odor sensor, voice recognition may be enabled.

また、これらのようにして音声認識が有効化されたとしても、例えば、映像表示部に表示されたキャラクタ(例えば、キャラクタ1100)の音声が直ちに出力されるのではなく、ユーザからの声掛けが無ければ当該キャラクタの音声が出力されないようにするとよい。例えば、処理基板224は、音声認識が有効化されたことに応答して「おかえり」とのキャラクタ音声が直ちに出力されるのではなく、音声認識が有効化された状態で「ただいま」とのユーザ音声が検出されたことを条件に、「おかえり」とのキャラクタ音声が出力されるとよい。さらには、例えば、対話システムにおいて、観察者とキャラクタ(例えばキャラクタ1100)との間で次のような対話を再現するための分岐シナリオが作成されているとよい。例えば、平日であれば、
ユーザ:ただいま
キャラクタ:お帰り~
ユーザ:アッチー
キャラクタ:暑い中お疲れでした
のような対話が再現され、休日であれば、
ユーザ:ただいま
キャラクタ:あーお帰り
ユーザ:アッチー
キャラクタ:暑い中わざわざ出かけたんだから文句言わない
ユーザ:仕事だよ仕事
キャラクタ:ホントだったらごめん、お疲れ様でした
のような対話が再現されるように分岐シナリオが作成されているとよい。
Furthermore, even if voice recognition is enabled in this way, for example, the voice of the character displayed on the video display unit (for example, character 1100) will not be output immediately, but when the user calls out to it. If it is not available, it is preferable to prevent the voice of the character from being output. For example, the processing board 224 does not immediately output a character voice saying "Welcome back" in response to voice recognition being enabled, but instead outputs a character voice saying "I'm home" to the user with voice recognition enabled. It is preferable that a character voice saying "Welcome back" is output on condition that the voice is detected. Furthermore, for example, in the dialogue system, a branching scenario for reproducing the following dialogue between an observer and a character (for example, the character 1100) may be created. For example, if it is a weekday,
User: Now Character: Welcome home~
User: Atchi Character: Dialogue like ``Thank you for your hard work in the heat'' is reproduced, and if it is a holiday,
User: I'm home now Character: Ah, welcome home User: Atchie Character: I won't complain because I went out in the heat User: I'm at work Work character: I'm sorry if that's true, thank you for your hard work.A branching scenario that reproduces the dialogue. It would be good if it had been created.

また、においセンサによる検知結果に応じた分岐シナリオが作成されていてもよい。例えば、
ユーザ:ごはん美味しくできたよー
キャラクタ:「えー、嗅がせて。クンクン。いいにおい!」あるいは「んんー!?塩分多くない?身体に気を付けてね!」
のような対話が再現されるようにしてもよい。
Further, a branching scenario may be created according to the detection result by the odor sensor. for example,
User: The food was delicious!Character: "Eh, let me smell it. Smell it. It smells good!" Or "Hmm!? Isn't there a lot of salt? Take care of yourself!"
A dialogue such as this may be reproduced.

また、他の例として、においセンサによってにおいが検知されると、
キャラクタ:クンクン、ん?このにおいはなんだ?
ユーザ:アロマ焚いたんだ
キャラクタ:ああ、どうりでリラックスすると思った
のような対話が再現されるようにしてもよい。なお、においの種類の質問に対する観察者の返答内容が分岐シナリオに登録されていない場合、例えば「ほぉー、そうなんだー!」などの音声がキャラクタ音声として一律に出力されるとよい。
In addition, as another example, when an odor is detected by an odor sensor,
Character: Kunkun, huh? What is this smell?
User: I burned the aroma.Character: Oh, I thought it would be relaxing.You can also reproduce the dialogue. Note that if the content of the observer's response to the question about the type of smell is not registered in the branching scenario, it is preferable that a voice such as "Oh, that's right!" is uniformly output as the character voice, for example.

また、処理基板224は、例えば直近の所定時間(例えば、15秒程度)の音声を常時録音しておき、音声認識を有効化するためのトリガーワードの音声が検出されると、当該音声認識を有効化するようにしてもよい。例えば、表示装置1の音声認識アプリケーションは常時(あるいは、、操作部41の押下操作等に応じて)有効化され、音声認識サーバによる音声認識は、トリガーワードの検出によって有効化されるとよい。この際、処理基板224は、マイクロホン2333(音声検出手段の一例)によって検出された検出音声(例えば、検出開始時点から検出終了時点までの間に検出された音声)から当該トリガーワードの音声を除いた音声の音声データを、音声認識サーバに送信するとよい。例えば、「明日東京に行くんだけどレイたん天気教えて」とのユーザ音声が検出されたことを想定する。なお、ここでは、キャラクタ1100の愛称である「レイたん」がトリガーワードである。この場合、処理基板224は、検出音声「明日東京に行くんだけどレイたん天気教えて」からトリガーワードの音声「レイたん」を除いた音声「明日東京に行くんだけどレイたん天気教えて」を音声認識サーバに送信する。 Further, the processing board 224 constantly records the voice for the most recent predetermined period of time (for example, about 15 seconds), and when the voice of the trigger word for activating the voice recognition is detected, the processing board 224 activates the voice recognition. It may be enabled. For example, the voice recognition application of the display device 1 may be enabled at all times (or in response to a press operation on the operation unit 41, etc.), and the voice recognition by the voice recognition server may be enabled upon detection of a trigger word. At this time, the processing board 224 removes the sound of the trigger word from the detected sound (for example, the sound detected between the detection start time and the detection end time) detected by the microphone 2333 (an example of sound detection means). It is preferable to send the voice data of the recorded voice to the voice recognition server. For example, assume that a user's voice saying "I'm going to Tokyo tomorrow, please tell me the weather" is detected. Note that here, "Rei-tan", which is the nickname of the character 1100, is the trigger word. In this case, the processing board 224 generates the voice ``I'm going to Tokyo tomorrow, Ray-tan, please tell me the weather'' which is obtained by removing the trigger word voice ``Rei-tan'' from the detected voice ``I'm going to Tokyo tomorrow, Ray-tan, please tell me the weather.'' Send to speech recognition server.

ここで、例えば上記のような検出音声「明日東京に行くんだけどレイたん天気教えて」がそのまま音声認識サーバに送信されると、音声認識結果の中に「レイたん」が含まれていることに起因して、対話サーバにおいて音声認識結果に対応するキャラクタ音声が正確に抽出されず、ユーザとの対話が噛み合わなくなる虞がある。これに対して、上記のようにすれば、一文の途中でトリガーワードが発声された場合であっても、トリガーワードを除く音声の音声データが音声認識サーバに送信される。したがって、一文の途中にトリガーワードが含まれた状態で音声認識が行われたことに起因してユーザとの対話が噛み合わなくなること、を抑制できる。 For example, if the above detected voice ``I'm going to Tokyo tomorrow, Rei-tan, please tell me the weather'' is sent as is to the voice recognition server, ``Rei-tan'' will be included in the voice recognition result. Due to this, the character voice corresponding to the voice recognition result may not be accurately extracted in the dialogue server, and there is a possibility that the dialogue with the user will not be consistent. In contrast, with the above method, even if the trigger word is uttered in the middle of a sentence, the voice data of the voice excluding the trigger word is transmitted to the voice recognition server. Therefore, it is possible to prevent dialogue with the user from becoming inconsistent due to voice recognition being performed with a trigger word included in the middle of a sentence.

また、ユーザと映像表示部に表示されたキャラクタとの対話を音声認識サーバと対話サーバとの連携によって実現するにあたって、音声認識サーバの構成に応じて、次述のような動作が実行されてもよい。 In addition, when realizing dialogue between the user and the character displayed on the video display section by cooperation between the voice recognition server and the dialogue server, the following operations may be performed depending on the configuration of the voice recognition server. good.

例えば、音声認識サーバが、音声データファイルの受信が完了してから音声認識処理を開始するように構成されている場合、処理基板224は、マイクロホン2333による検出音声のうち、トリガーワードの音声の前後の音声の各音声データファイルを個別に音声認識サーバへと送信するとよい。例えば、検出開始時点から検出終了時点までの間の検出音声のうち、トリガーワードの音声よりも前に検出されたユーザ音声(前半部分のユーザ音声ともいう)の音声データファイルが、トリガーワードの音声よりも後に検出されたユーザ音声(後半部分のユーザ音声ともいう)の音声データファイルに先行して音声認識サーバに送信されるとよい。 For example, if the voice recognition server is configured to start the voice recognition process after the reception of the voice data file is completed, the processing board 224 may detect sounds before and after the trigger word among the sounds detected by the microphone 2333. It is preferable that each voice data file of the voice is individually transmitted to the voice recognition server. For example, among the detected voices from the detection start time to the detection end time, the voice data file of the user voice detected before the trigger word voice (also referred to as the first half of the user voice) is the voice of the trigger word. It is preferable that the audio data file of the user's voice detected later (also referred to as the latter part of the user's voice) is transmitted to the voice recognition server prior to the voice data file.

このようにすれば、音声認識サーバにおいて、前半部分のユーザ音声に対する音声認識処理が、後半部分のユーザ音声の音声データファイルの受信完了を待たずに開始される。そのため、前半部分のユーザ音声と後半部分のユーザ音声とをまとめた音声の音声データファイルを音声認識サーバに送信する場合と比較して、音声認識処理を効率的に行うことができる。その結果、表示装置1は、対話サーバからのキャラクタ音声がより早期に受信することができ、ユーザの音声に対して応答されるまでのユーザの待機時間を短縮できる。 In this way, in the voice recognition server, the voice recognition process for the first half of the user's voice is started without waiting for the completion of reception of the voice data file of the second half of the user's voice. Therefore, the voice recognition process can be performed more efficiently than when a voice data file containing the first half of the user's voice and the second half of the user's voice is sent to the voice recognition server. As a result, the display device 1 can receive the character voice from the dialogue server earlier, and can shorten the user's waiting time until a response to the user's voice is received.

また、例えば、音声認識サーバが、表示装置1からの音声データをストリーム再生して音声認識処理をリアルタイムで実行するように構成されている場合、前半部分の音声データをリアルタイムで音声認識サーバに送信される際に、前半部分のユーザ音声の再生速度T1が標準再生速度T0より速く(T1>T0)なるように制御されるとよい。例えば、処理基板224は、音声認識サーバにおいて当該前半部分のユーザ音声が標準再生速度T0に対して25%速く再生されるように設定変更して当該前半部分の音声データを送信する。このようにすれば、音声認識サーバにおいて、前半部分のユーザ音声が標準再生速度T0で再生される場合と比較して、前半部分のユーザ音声に対する音声認識処理をより早期に終了させることができ、後半部分のユーザ音声に対する音声認識処理をより早期に開始することができる。その結果、表示装置1は、対話サーバからのキャラクタ音声をより早期に受信することができ、ユーザの音声に対して応答されるまでのユーザの待機時間を短縮できる。 Furthermore, for example, if the voice recognition server is configured to stream playback voice data from the display device 1 and execute voice recognition processing in real time, the first half of the voice data is sent to the voice recognition server in real time. When the playback speed T1 of the first half of the user's voice is played is preferably controlled to be faster than the standard playback speed T0 (T1>T0). For example, the processing board 224 changes settings so that the first half of the user's voice is played back 25% faster than the standard playback speed T0 in the voice recognition server, and transmits the first half of the audio data. In this way, the speech recognition server can finish the speech recognition process for the first half of the user's voice earlier than when the first half of the user's voice is played back at the standard playback speed T0, Speech recognition processing for the latter half of the user's voice can be started earlier. As a result, the display device 1 can receive the character voice from the dialogue server earlier, and can shorten the user's waiting time until a response to the user's voice is received.

さらに、後半部分のユーザ音声の音声データがリアルタイムで音声認識サーバに送信される際に、後半部分の音声の再生速度T2が標準再生速度T0よりも速く且つ前半部分のユーザ音声の再生速度T1よりも遅くなる(つまり、T0<T2<T1の関係を満たす)ように制御されるとよい。例えば、処理基板224は、音声認識サーバにおいて後半部分のユーザ音声が標準再生速度T0に対して10%速く再生されるように設定変更して当該後半部分の音声データを送信する。このようにすれば、前半部分のユーザ音声と後半部分のユーザ音声との双方が標準再生速度T0よりも速くストリーム再生されて、音声認識サーバにおいて音声認識処理が実行される。その結果、ユーザの音声に対して応答されるまでのユーザの待機時間を更に短縮できる。他方で、後半部分のユーザ音声は、標準再生速度T0よりは速いものの、前半部分のユーザ音声の再生速度T1よりは遅い速度で再生される。そのため、音声認識システムにおける音声認識精度の低下を抑制できる。したがって、音声認識精度の低下を抑制しつつ、ユーザの待機時間をより短縮することができる。 Furthermore, when the audio data of the user's voice in the second half is transmitted to the speech recognition server in real time, the playback speed T2 of the voice in the second half is faster than the standard playback speed T0 and faster than the playback speed T1 of the user's voice in the first half. It is preferable that the control is performed so that the timing is also slow (that is, the relationship T0<T2<T1 is satisfied). For example, the processing board 224 changes settings so that the second half of the user's voice is played back 10% faster than the standard playback speed T0 in the speech recognition server, and transmits the second half of the audio data. In this way, both the first half of the user's voice and the second half of the user's voice are stream-played faster than the standard playback speed T0, and the voice recognition server executes the voice recognition process. As a result, the user's waiting time until a response to the user's voice is received can be further shortened. On the other hand, the user voice in the second half is played back at a speed faster than the standard playback speed T0 but slower than the playback speed T1 of the user voice in the first half. Therefore, it is possible to suppress a decrease in speech recognition accuracy in the speech recognition system. Therefore, the user's waiting time can be further shortened while suppressing a decrease in voice recognition accuracy.

なお、音声認識サーバにおいて、音声データのストリーム再生による音声認識処理がリアルタイムで実行される場合、例えば、マイクロホン2333によって検出されたユーザ音声がリアルタイムで音声認識サーバへと送信されるものの、トリガーワードの音声が検出されるまでは音声認識サーバでの音声認識が開始されないように制御されるとよい。 Note that when the voice recognition server performs voice recognition processing in real time by playing back a stream of voice data, for example, the user's voice detected by the microphone 2333 is transmitted to the voice recognition server in real time, but the trigger word is It is preferable that the speech recognition server is controlled not to start speech recognition until speech is detected.

本発明の範囲は、明細書に明示的に説明された構成や限定されるものではなく、本明細書に開示される本発明の様々な側面の組み合わせをも、その範囲に含むものである。本発明のうち、特許を受けようとする構成を、添付の特許請求の範囲に特定したが、現在の処は特許請求の範囲に特定されていない構成であっても、本明細書に開示される構成を、将来的に特許請求の範囲とする意思を有する。 The scope of the present invention is not limited to the configurations explicitly described in the specification, but also includes combinations of various aspects of the invention disclosed herein. Of the present invention, the structure for which a patent is sought has been specified in the attached claims, but at present, even if the structure is not specified in the claims, it is not disclosed in this specification. We intend to include such configurations in the scope of claims in the future.

本願発明は上述した実施の形態に記載の構成に限定されない。上述した各実施の形態や変形例の構成要素は任意に選択して組み合わせて構成するとよい。また各実施の形態や変形例の任意の構成要素と、発明を解決するための手段に記載の任意の構成要素または発明を解決するための手段に記載の任意の構成要素を具体化した構成要素とは任意に組み合わせて構成するとよい。これらについても本願の補正または分割出願等において権利取得する意思を有する。「~の場合」「~のとき」という記載があったとしてもその場合やそのときに限られる構成として記載はしているものではない。これらの場合やときでない構成についても開示しているものであり、権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えた構成についても開示しているものであり、権利取得する意思を有する。 The present invention is not limited to the configuration described in the embodiments described above. The components of each of the embodiments and modifications described above may be arbitrarily selected and combined. Also, any component of each embodiment or modification, any component described in the means for solving the invention, or a component that embodies any component described in the means for solving the invention. It may be configured by combining them arbitrarily. The applicant intends to acquire rights to these matters through amendments to the application or divisional applications. Even if there is a description of "in the case of..." or "at the time of...", the description is not intended to be limited to those cases or times. We have also disclosed these cases and other configurations, and we intend to acquire the rights. Furthermore, the sections described in order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and we have the intention to acquire the rights.

また、意匠登録出願への変更により、全体意匠または部分意匠について権利取得する意思を有する。装置が画像を表示する場合は、その画像の全体または一部を含む意匠について権利取得する意思を有する。図面は本装置の全体を実線で描画しているが、全体意匠のみならず当該装置の一部の部分に対して請求する部分意匠も包含した図面である。例えば当該装置の一部の部材を部分意匠とすることはもちろんのこと、部材と関係なく当該装置の一部の部分を部分意匠として包含した図面である。当該装置の一部の部分としては、装置の一部の部材としてもよいし、その部材の部分としてもよい。全体意匠はもちろんのこと、図面の実線部分のうち任意の部分を破線部分とした部分意匠を、権利化する意思を有する。また、装置の筐体の内部のモジュール・部材・部品等についても、図面に表示されているものは、いずれも独立して取引の対象となるものであって、同様に、意匠登録出願への変更を行って権利化を行う意思を有するものである。 In addition, the applicant intends to acquire rights to the entire design or partial design by converting the application to a design registration application. If the device displays an image, there is an intention to acquire rights to a design that includes all or part of that image. Although the drawing depicts the entire device using solid lines, the drawing includes not only the overall design but also the partial design claimed for some parts of the device. For example, it is a drawing that not only includes some members of the device as a partial design, but also includes some parts of the device as a partial design regardless of the members. The part of the device may be a part of the device or a part of the device. We intend to obtain rights not only for the entire design, but also for partial designs in which any part of the solid line part of the drawing is a broken line part. In addition, the modules, members, parts, etc. inside the device casing that are shown in the drawings are subject to independent transactions, and similarly, they are not included in the design registration application. There is an intention to make changes and obtain rights.

1 :表示装置
100 :筐体
101 :右側パネル
102 :正面側パネル
103 :左側パネル
104 :背面側パネル
105 :上蓋部
106 :下蓋部
107 :右側内部パネル
108 :正面側内部パネル
109 :左側内部パネル
110 :開口部
200 :減光部材
210 :第1領域
220 :第2領域
221 :操作基板
222 :スロット
223 :USBコネクタ
224 :処理基板
226 :保持部
227 :撮影部
231 :制御基板
232 :配線
233 :センサ基板
234 :人感センサ
310 :第1表示部
311 :第1表示面
312 :視野角制御部材
320 :光学部材
321 :第1面
330 :第2表示部
331 :第2表示面
400 :台座部
500 :遮光部材
601 :第1プレート
602 :第2プレート
800 :配線部
810 :電源線
820 :信号線
830 :信号線
900 :仕切部材
910 :背景板
1041 :後蓋部
1051 :開口部
1052 :開口部
1100 :キャラクタ
1200 :キャラクタ
1210 :キャラクタ本体
1220 :首輪
1221 :札
2100 :ステージ映像
2200 :ステージ映像
2211 :操作部
2212 :操作部
2213 :操作部
2214 :操作部
2251 :スピーカ
2252 :スピーカ
2261 :ヒートシンク
2311 :電源ジャック
2331 :第1センサ
2332 :第2センサ
2333 :マイクロホン
2334 :発光部
1: Display device 100: Housing 101: Right panel 102: Front panel 103: Left panel 104: Back panel 105: Upper lid 106: Lower lid 107: Right internal panel 108: Front internal panel 109: Left internal Panel 110 : Opening 200 : Light reduction member 210 : First area 220 : Second area 221 : Operation board 222 : Slot 223 : USB connector 224 : Processing board 226 : Holding part 227 : Photographing part 231 : Control board 232 : Wiring 233: Sensor board 234: Human sensor 310: First display section 311: First display surface 312: Viewing angle control member 320: Optical member 321: First surface 330: Second display section 331: Second display surface 400: Pedestal part 500 : Light shielding member 601 : First plate 602 : Second plate 800 : Wiring part 810 : Power line 820 : Signal line 830 : Signal line 900 : Partition member 910 : Background plate 1041 : Back cover part 1051 : Opening part 1052 : Opening 1100 : Character 1200 : Character 1210 : Character body 1220 : Collar 1221 : Tag 2100 : Stage image 2200 : Stage image 2211 : Operating section 2212 : Operating section 2213 : Operating section 2214 : Operating section 2251 : Speaker 2252 : Speaker 2261 : Heat sink 2311 : Power jack 2331 : First sensor 2332 : Second sensor 2333 : Microphone 2334 : Light emitting part

Claims (32)

遮光された映像表示空間を内部に有し、前記映像表示空間の第1方向側に映像の観察領域を設けた筐体と、
前記映像表示空間に空中映像を結像させる映像表示部と、
前記観察領域から前記映像表示空間に進入する外光を減じる減光部材と、
を有し、
前記映像表示部は、第1画像光を発する第1表示部と、前記第1画像光に基づいて前記空中映像を結像させる光学系とを含み、
前記第1画像光のうちの前記減光部材で反射した反射光の光路上であって、前記減光部材と前記光学系との間に設けられた遮光部材を有する
表示装置。
a casing having a light-shielded image display space therein, and an image observation area provided in a first direction side of the image display space;
a video display unit that forms an aerial video in the video display space;
a light reduction member that reduces external light entering the image display space from the observation area;
has
The image display section includes a first display section that emits a first image light, and an optical system that forms an image of the aerial image based on the first image light,
A display device comprising: a light shielding member provided between the light attenuation member and the optical system on an optical path of reflected light of the first image light reflected by the light attenuation member.
前記遮光部材は、前記第1方向側から見て、前記観察領域に重ならない位置に設けられている
請求項1に記載の表示装置。
The display device according to claim 1, wherein the light shielding member is provided at a position that does not overlap the observation area when viewed from the first direction.
前記映像表示部は、第1画像光を発する第1表示部と、前記第1画像光に基づいて前記空中映像を結像させる光学系とを含み、
前記光学系は、前記第1画像光のうちの前記減光部材で反射した反射光の光路上の領域を避けて配置される
請求項1または2に記載の表示装置。
The image display section includes a first display section that emits a first image light, and an optical system that forms an image of the aerial image based on the first image light,
The display device according to claim 1 , wherein the optical system is arranged so as to avoid a region on an optical path of reflected light of the first image light that is reflected by the light attenuation member.
前記光学系は、前記第1画像光が入射する第1面と、前記第1面に対向する第2面とを有する光学部材を含み、
前記光学部材は、前記第1画像光を前記第1方向側に反射させ、かつ前記第2面に入射した光を前記第1面側に透過させる
請求項1から3のいずれか1項に記載の表示装置。
The optical system includes an optical member having a first surface onto which the first image light is incident, and a second surface opposite to the first surface,
The optical member reflects the first image light toward the first direction and transmits the light incident on the second surface toward the first surface. 4 . display device.
前記第1方向側から見て前記空中映像と重なる第2画像光を発する第2表示部
を有する請求項1から4のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 4, further comprising a second display unit that emits second image light that overlaps with the aerial image when viewed from the first direction side.
前記第1表示部の発光輝度を前記第2表示部の発光輝度よりも高くした
請求項5に記載の表示装置。
The display device according to claim 5, wherein the luminance of the first display section is higher than the luminance of the second display section.
前記第1表示部は、前記観察領域よりも上方において、表示面が下方を向くように配置され、かつ前記第1方向側よりも前記第1方向の反対側の第2方向側が低くなるように傾斜する
請求項5または6に記載の表示装置。
The first display section is arranged above the observation area so that the display surface faces downward, and the second direction side opposite to the first direction is lower than the first direction side. The display device according to claim 5 or 6 , wherein the display device is tilted.
遮光された映像表示空間を内部に有し、前記映像表示空間の第1方向側に映像の観察領域を設けた筐体と、
前記映像表示空間に空中映像を結像させる映像表示部と、
前記観察領域から前記映像表示空間に進入する外光を減じる減光部材と、
前記第1方向側から見て前記空中映像と重なる第2画像光を発する第2表示部と、
を有し、
前記映像表示部は、第1画像光を発する第1表示部と、前記第1画像光に基づいて前記空中映像を結像させる光学系とを含み、
前記第1表示部の発光輝度を前記第2表示部の発光輝度よりも高くし
前記第1表示部は、前記観察領域よりも上方において、表示面が下方を向くように配置され、かつ前記第1方向側よりも前記第1方向の反対側の第2方向側が低くなるように傾斜し、
前記第2表示部は、前記観察領域よりも下方において、表示面が上方を向くように配置される
表示装置。
a casing having a light-shielded image display space therein, and an image observation area provided in a first direction side of the image display space;
a video display unit that forms an aerial video in the video display space;
a light reduction member that reduces external light entering the image display space from the observation area;
a second display unit that emits second image light that overlaps the aerial image when viewed from the first direction;
has
The image display section includes a first display section that emits a first image light, and an optical system that forms an image of the aerial image based on the first image light,
The light emission brightness of the first display section is made higher than the light emission brightness of the second display section ,
The first display section is arranged above the observation area so that the display surface faces downward, and the second direction side opposite to the first direction is lower than the first direction side. tilted ,
The second display section is arranged below the observation area so that the display surface faces upward. A display device.
前記第1表示部の表示面は、水平方向に対してほぼ20度で傾斜する
請求項7または8に記載の表示装置。
The display device according to claim 7 or 8, wherein the display surface of the first display section is inclined at approximately 20 degrees with respect to the horizontal direction.
前記第1表示部は、前記空中映像が前記第2表示部の表示面上に観察されるように前記第1画像光を発する
請求項からのいずれか1項に記載の表示装置。
The display device according to any one of claims 7 to 9 , wherein the first display unit emits the first image light so that the aerial image is observed on a display surface of the second display unit.
遮光された映像表示空間を内部に有し、前記映像表示空間の第1方向側に映像の観察領域を設けた筐体と、
前記映像表示空間に空中映像を結像させる映像表示部と、
前記観察領域から前記映像表示空間に進入する外光を減じる減光部材と、
前記第1方向側から見て前記空中映像と重なる第2画像光を発する第2表示部と、
を有し、
前記映像表示部は、第1画像光を発する第1表示部と、前記第1画像光に基づいて前記空中映像を結像させる光学系とを含み、
前記第1表示部の発光輝度を前記第2表示部の発光輝度よりも高くし
前記第1表示部は、前記観察領域よりも上方において、表示面が下方を向くように配置され、かつ前記第1方向側よりも前記第1方向の反対側の第2方向側が低くなるように傾斜し、
前記筐体は、前記第1表示部よりも上方に第1収容空間を有し、
前記第1収容空間のうち前記第2方向側に配置され、前記第1表示部及び前記第2表示部の表示に映像を表示させるための制御を行うための処理基板を有する
表示装置。
a casing having a light-shielded image display space therein, and an image observation area provided in a first direction side of the image display space;
a video display unit that forms an aerial video in the video display space;
a light reduction member that reduces external light entering the image display space from the observation area;
a second display unit that emits second image light that overlaps the aerial image when viewed from the first direction;
has
The image display section includes a first display section that emits a first image light, and an optical system that forms an image of the aerial image based on the first image light,
The light emission brightness of the first display section is made higher than the light emission brightness of the second display section ,
The first display section is arranged above the observation area so that the display surface faces downward, and the second direction side opposite to the first direction is lower than the first direction side. tilted ,
The casing has a first accommodation space above the first display section,
A display device including a processing board that is disposed on the second direction side of the first housing space and that performs control to display images on the first display section and the second display section.
前記処理基板は、外部機器を着脱可能な装着部であって当該外部機器との間でデータの入出力を行うための装着部を有し、
前記装着部は、前記筐体のうち前記第2方向側から前記筐体の外部に露出する
請求項11に記載の表示装置。
The processing board has a mounting part to which an external device can be attached and detached and for inputting and outputting data to and from the external device,
The display device according to claim 11 , wherein the mounting portion is exposed to the outside of the housing from the second direction side of the housing.
前記観察領域よりも下方に設けられたセンサを有し、
前記処理基板は、前記センサにより測定された情報に応じて前記第1表示部の表示を制御する
請求項11に記載の表示装置。
a sensor provided below the observation area;
The display device according to claim 11 , wherein the processing substrate controls display on the first display unit according to information measured by the sensor.
前記センサが実装されたセンサ基板を有し、
前記センサ基板は、前記筐体の前記第1方向側の部分に設けられている
有する請求項13に記載の表示装置。
It has a sensor board on which the sensor is mounted,
The display device according to claim 13 , wherein the sensor board is provided in a portion of the housing on the first direction side.
前記センサは、ジェスチャを検出するセンサを含む
請求項13または14に記載の表示装置。
The display device according to claim 13 or 14 , wherein the sensor includes a sensor that detects a gesture.
前記筐体は、前記映像表示空間の下方に第2収容空間を有し、
前記第2収容空間に設けられ、前記センサからの信号を前記処理基板に供給する制御基板を有する
請求項13から15のいずれか1項に記載の表示装置。
The housing has a second accommodation space below the video display space,
The display device according to any one of claims 13 to 15 , further comprising a control board that is provided in the second accommodation space and supplies a signal from the sensor to the processing board.
前記制御基板と前記処理基板とを電気的に接続する配線部と、
前記映像表示空間側から前記配線部を観察できないように仕切る仕切部材と
を有する請求項16に記載の表示装置。
a wiring section that electrically connects the control board and the processing board;
The display device according to claim 16 , further comprising: a partition member that partitions the wiring section so that it cannot be observed from the video display space side.
前記第1表示部の表示面に設けられ、前記第1方向側への視野角を狭める視野角制御部材を有する
請求項から17のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 17 , further comprising a viewing angle control member provided on a display surface of the first display unit and narrowing a viewing angle in the first direction.
遮光された映像表示空間を内部に有し、前記映像表示空間の第1方向側に映像の観察領域を設けた筐体と、
前記映像表示空間に空中映像を結像させる映像表示部と、
前記観察領域から前記映像表示空間に進入する外光を減じる減光部材と、
前記第1方向側から見て前記空中映像と重なる第2画像光を発する第2表示部と、
を有し、
前記映像表示部は、第1画像光を発する第1表示部と、前記第1画像光に基づいて前記空中映像を結像させる光学系とを含み、
前記第1表示部の発光輝度を前記第2表示部の発光輝度よりも高くし
前記第1表示部の表示面に設けられ、前記第1方向側への視野角を狭める視野角制御部材を有する
表示装置。
a casing having a light-shielded image display space therein, and an image observation area provided in a first direction side of the image display space;
a video display unit that forms an aerial video in the video display space;
a light reduction member that reduces external light entering the image display space from the observation area;
a second display unit that emits second image light that overlaps the aerial image when viewed from the first direction;
has
The image display section includes a first display section that emits a first image light, and an optical system that forms an image of the aerial image based on the first image light,
The light emission brightness of the first display section is made higher than the light emission brightness of the second display section ,
A display device comprising: a viewing angle control member that is provided on a display surface of the first display section and narrows a viewing angle in the first direction.
前記第1画像光は、二次元の画像として認識される画像の画像光である
請求項1から19のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 19, wherein the first image light is image light of an image recognized as a two-dimensional image.
前記映像表示空間に面する部分の少なくとも一部に光の反射を低減する処理がなされている
請求項1から20のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 20 , wherein at least a portion of the portion facing the video display space is treated to reduce light reflection.
前記筐体は、前記第1方向側から見たときに前記観察領域の周りを囲む部分を有する
請求項1から21のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 21 , wherein the housing has a portion surrounding the observation area when viewed from the first direction.
前記映像表示部は、猫を示すキャラクタの映像を表示する
請求項1から22のいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 22 , wherein the video display section displays a video of a character representing a cat.
遮光された映像表示空間を内部に有し、前記映像表示空間の第1方向側に映像の観察領域を設けた筐体と、
前記映像表示空間に空中映像を結像させる映像表示部と、
前記観察領域から前記映像表示空間に進入する外光を減じる減光部材と、
前記第1方向側から見て前記空中映像と重なる第2画像光を発する第2表示部と、
を有し、
前記映像表示部は、第1画像光を発する第1表示部と、前記第1画像光に基づいて前記空中映像を結像させる光学系とを含み、
前記第1表示部の発光輝度を前記第2表示部の発光輝度よりも高くし、
前記映像表示部は、猫を示すキャラクタの映像を表示する
表示装置。
a casing having a light-shielded image display space therein, and an image observation area provided in a first direction side of the image display space;
a video display unit that forms an aerial video in the video display space;
a light reduction member that reduces external light entering the image display space from the observation area;
a second display unit that emits second image light that overlaps the aerial image when viewed from the first direction;
has
The image display section includes a first display section that emits a first image light, and an optical system that forms an image of the aerial image based on the first image light,
The light emission brightness of the first display section is made higher than the light emission brightness of the second display section,
The video display unit is a display device that displays a video of a character representing a cat.
前記映像表示部は、前記キャラクタと前記キャラクタを観察する観察者とのコミュニケーションを再現するコミュニケーション機能に基づいて映像を変化させる
請求項23または24に記載の表示装置。
The display device according to claim 23 or 24, wherein the video display unit changes the video based on a communication function that reproduces communication between the character and an observer observing the character.
においを検知するにおいセンサと、
前記においセンサによる検知結果に応じた動きをキャラクタが行う映像を前記映像表示部に表示する表示出力動作と、前記においセンサによる検知結果に応じた音声を前記映像表示部に表示されたキャラクタが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、
をさらに備える
請求項1から25のいずれか1項に記載の表示装置。
An odor sensor that detects odor,
a display output operation of displaying on the video display section an image of a character moving in accordance with a detection result by the odor sensor; and a display output operation in which the character displayed on the video display section emits a sound in accordance with the detection result by the odor sensor. an operation control means for performing at least one of the voice output operation and outputting the voice;
The display device according to any one of claims 1 to 25, further comprising:.
映像表示空間を内部に有し、前記映像表示空間の第1方向側に映像の観察領域を設けた筐体と、
前記映像表示空間に空中映像を結像させる映像表示部と、
においを検知するにおいセンサと、
前記においセンサによる検知結果に応じた動きをキャラクタが行う映像を前記映像表示部に表示する表示出力動作と、前記においセンサによる検知結果に応じた音声を前記映像表示部に表示されたキャラクタが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、
を備える表示装置。
a casing having an image display space therein and an image observation area provided in a first direction side of the image display space;
a video display unit that forms an aerial video in the video display space;
An odor sensor that detects odor,
a display output operation of displaying on the video display section an image of a character moving in accordance with a detection result by the odor sensor; and a display output operation in which the character displayed on the video display section emits a sound in accordance with the detection result by the odor sensor. an operation control means for performing at least one of the voice output operation and outputting the voice;
A display device comprising:
前記表示出力動作は、検知されたにおいの種類に応じた動きを前記映像表示部に表示されたキャラクタが行う映像を前記映像表示部に表示する動作であり、
前記音声出力動作は、検知されたにおいの種類に応じた音声を前記映像表示部に表示されたキャラクタが発する音声として出力する動作である
請求項26または27に記載の表示装置。
The display output operation is an operation of displaying, on the video display section, an image in which a character displayed on the video display section moves in accordance with the type of detected odor,
The display device according to claim 26 or 27, wherein the audio output operation is an operation of outputting audio according to the type of detected odor as audio emitted by a character displayed on the video display section.
音声を検出可能な音声検出手段と、
検知対象領域における人の存在を検知可能な検知手段と、
をさらに備え、
前記音声検出手段は、前記検知対象領域における人の存在が検知されると、前記映像表示部に表示されたキャラクタとの対話を行うための音声認識を有効化する
請求項1から28のいずれか1項に記載の表示装置。
a voice detection means capable of detecting voice;
a detection means capable of detecting the presence of a person in a detection target area;
Furthermore,
29. Any one of claims 1 to 28, wherein the voice detection means activates voice recognition for interacting with the character displayed on the video display section when the presence of a person in the detection target area is detected. The display device according to item 1.
映像表示空間を内部に有し、前記映像表示空間の第1方向側に映像の観察領域を設けた筐体と、
前記映像表示空間に空中映像を結像させる映像表示部と、
音声を検出可能な音声検出手段と、
検知対象領域における人の存在を検知可能な検知手段と、
を備え、
前記音声検出手段は、前記検知対象領域における人の存在が検知されると、前記映像表示部に表示されたキャラクタとの対話を行うための音声認識を有効化する
表示装置。
a casing having an image display space therein and an image observation area provided in a first direction side of the image display space;
a video display unit that forms an aerial video in the video display space;
a voice detection means capable of detecting voice;
a detection means capable of detecting the presence of a person in a detection target area;
Equipped with
The voice detection means activates voice recognition for interacting with the character displayed on the video display section when the presence of a person in the detection target area is detected.
風を検知する風検知手段と、
前記風検知手段による検知結果に応じた動きをキャラクタが行う映像を前記映像表示部に表示する表示出力動作と、前記風検知手段による検知結果に応じた音声を前記映像表示部に表示されたキャラクタが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、
をさらに備える
請求項1から25のいずれか1項に記載の表示装置。
A wind detection means for detecting wind;
a display output operation for displaying, on the video display section, an image of a character moving in accordance with a detection result by the wind detection means; and a display output operation for displaying, on the video display section, an image in which a character moves in accordance with a detection result by the wind detection means, and a character displayed on the video display section making a sound in accordance with the detection result by the wind detection means. an operation control means for performing at least one of the voice output operation and outputting the voice as a voice emitted by the voice;
The display device according to any one of claims 1 to 25, further comprising:.
前記動作制御手段は、前記風検知手段による検知結果に基づき、ユーザの吹きかけた息に応じて前記表示出力動作または前記音声出力動作を行う
請求項31に記載の表示装置。
32. The display device according to claim 31, wherein the operation control means performs the display output operation or the audio output operation in response to the user's breath based on the detection result by the wind detection means.
JP2020064311A 2020-01-23 2020-03-31 Display device etc. Active JP7448142B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020009018 2020-01-23
JP2020009018 2020-01-23

Publications (2)

Publication Number Publication Date
JP2021117478A JP2021117478A (en) 2021-08-10
JP7448142B2 true JP7448142B2 (en) 2024-03-12

Family

ID=77174796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020064311A Active JP7448142B2 (en) 2020-01-23 2020-03-31 Display device etc.

Country Status (1)

Country Link
JP (1) JP7448142B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000219060A (en) 1999-01-29 2000-08-08 Nippon Seiki Co Ltd Display
JP2004284524A (en) 2003-03-24 2004-10-14 Denso Corp Display device for vehicle
WO2008030080A1 (en) 2006-09-08 2008-03-13 Medialusion B.V. Device for displaying virtual three-dimensional objects
JP2009136398A (en) 2007-12-04 2009-06-25 Daito Giken:Kk Display function expanding device
JP2010277019A (en) 2009-06-01 2010-12-09 Pioneer Electronic Corp Image display device
JP2015210379A (en) 2014-04-25 2015-11-24 株式会社ソニー・コンピュータエンタテインメント Image fusion system, information processor, information terminal and information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000219060A (en) 1999-01-29 2000-08-08 Nippon Seiki Co Ltd Display
JP2004284524A (en) 2003-03-24 2004-10-14 Denso Corp Display device for vehicle
WO2008030080A1 (en) 2006-09-08 2008-03-13 Medialusion B.V. Device for displaying virtual three-dimensional objects
JP2009136398A (en) 2007-12-04 2009-06-25 Daito Giken:Kk Display function expanding device
JP2010277019A (en) 2009-06-01 2010-12-09 Pioneer Electronic Corp Image display device
JP2015210379A (en) 2014-04-25 2015-11-24 株式会社ソニー・コンピュータエンタテインメント Image fusion system, information processor, information terminal and information processing method

Also Published As

Publication number Publication date
JP2021117478A (en) 2021-08-10

Similar Documents

Publication Publication Date Title
KR102014623B1 (en) Image display apparatus, topic selection method, topic selection program, image display method and image display program
JP6165302B1 (en) Image display device, topic selection method, topic selection program
US10366689B2 (en) Communication robot
CN112512653B (en) Amusement park sight spot based on light field display system
JP2018014575A (en) Image display device, image display method, and image display program
JP2019139170A (en) Image display device, image display method, and image display program
US9185885B2 (en) Digital activity center for pets
JP6682475B2 (en) Image display device, topic selection method, topic selection program
CN109479116B (en) Information processing apparatus, information processing method, and storage medium
JP7448142B2 (en) Display device etc.
WO2019215983A1 (en) Information processing system, information processing method, and recording medium
US20210397245A1 (en) Information processing system, display method, and computer program
JP7475027B2 (en) Display devices, etc.
JP2024032778A (en) Display device etc.
JP2023035270A (en) Display device, etc
JP2017147512A (en) Content reproduction device, content reproduction method and program
JP2022157238A (en) System and the like
JP2022157245A (en) System and the like
US11823553B2 (en) Information processing device, information processing method, and information processing system
JP6667878B1 (en) Costume effect support device, costume effect support system, and costume effect support method
JP2019139169A (en) Image display device, image display method, and image display program
JP2020093107A (en) Costumed character performance assistance device, costumed character performance assistance system, and costumed character performance assistance method
JP2022050192A (en) Information processing device and program
KR20220054850A (en) Lightfield display system for gaming environments
JP2022502937A (en) Special effects communication technology

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221028

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240220

R150 Certificate of patent or registration of utility model

Ref document number: 7448142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150