JP2019139170A - Image display device, image display method, and image display program - Google Patents

Image display device, image display method, and image display program Download PDF

Info

Publication number
JP2019139170A
JP2019139170A JP2018024584A JP2018024584A JP2019139170A JP 2019139170 A JP2019139170 A JP 2019139170A JP 2018024584 A JP2018024584 A JP 2018024584A JP 2018024584 A JP2018024584 A JP 2018024584A JP 2019139170 A JP2019139170 A JP 2019139170A
Authority
JP
Japan
Prior art keywords
user
character
information
image display
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018024584A
Other languages
Japanese (ja)
Inventor
実 武地
Minori Takechi
実 武地
鈴木 祥太
Shota Suzuki
祥太 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gatebox Inc
Original Assignee
Gatebox Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gatebox Inc filed Critical Gatebox Inc
Priority to JP2018024584A priority Critical patent/JP2019139170A/en
Publication of JP2019139170A publication Critical patent/JP2019139170A/en
Pending legal-status Critical Current

Links

Images

Abstract

To improve responses from conventional toys, which are monotonous, estimate a user's state, and cause a character to perform actions and/or utterances on the basis of a result of estimation.SOLUTION: An image display device 2010 of the present invention comprises: a display unit that displays a character; an acquisition unit that acquires information on a user; an estimation unit that estimates a user's state from the information acquired by the acquisition unit; a generation unit that generates information for causing the character to perform actions and/or utterances on the basis of a result of estimation made by the estimation unit; and an output unit that outputs the information generated by the generation unit.SELECTED DRAWING: Figure 1

Description

本発明は、キャラクター画像を表示する画像表示装置、画像表示方法および画像表示プログラムに関し、特に、ユーザの状態を推定し、推定結果に基づいて、キャラクターに動作および/または発言を行わせることができる画像表示装置、画像表示方法および画像表示プログラムに関する。   The present invention relates to an image display device that displays a character image, an image display method, and an image display program, and in particular, can estimate a user's state and cause a character to perform an action and / or a statement based on the estimation result. The present invention relates to an image display device, an image display method, and an image display program.

従来、様々なキャラクター商品が販売され、その中には、デスクトップキャラクターと呼称されるものがある。これは、PC等のモニタ上にキャラクターを表示させ、予め定められたアルゴリズムに従って動作し、特定のセリフを表示したり、音楽を流したりするアプリケーションである。また、ユーザの通信端末上に表示させたキャラクターにチャットシステムを利用して、提供しているサービスの説明をさせるアプリケーションもある(例えば、特許文献1)。   Conventionally, various character products have been sold, and some of them are called desktop characters. This is an application that displays a character on a monitor such as a PC, operates according to a predetermined algorithm, displays a specific line, and plays music. There is also an application that allows a character displayed on a user's communication terminal to explain a service provided by using a chat system (for example, Patent Document 1).

ところで、従来から、外部からの音声等に応じてコミュニケーションを行うコミュニケーションロボットや、外部からの音声等に応じて動作する電子玩具等が存在する(例えば、特許文献2及び3参照)。   Conventionally, there are communication robots that perform communication according to external voices, electronic toys that operate according to external voices, and the like (see, for example, Patent Documents 2 and 3).

一方、このようなロボットや玩具による応答は限定されている。具体的には、ロボットや玩具は、特定の音声に対して、特定の応答や動きをすることができるのみであった。   On the other hand, the response by such robots and toys is limited. Specifically, the robot and the toy were only able to make a specific response or movement with respect to a specific sound.

特開2004−145541号公報JP 2004-145541 A 特開2011−227237号公報JP 2011-227237 A 特開2002−307354号公報JP 2002-307354 A

本発明の目的は、従来の玩具等の単調な応答を改善し、ユーザの状態を推定し、推定結果に基づいて、キャラクターに動作および/または発言を行わせることができる画像表示装置、画像表示方法および画像表示プログラムに関する。   An object of the present invention is to improve the monotonous response of a conventional toy or the like, estimate the user's state, and allow the character to perform an action and / or speech based on the estimation result, and an image display The present invention relates to a method and an image display program.

上記目的を達成するため、本発明の画像表示装置は、キャラクターを表示する表示部と、ユーザに関する情報を取得する取得部と、取得部が取得した情報からユーザの状態を推定する推定部と、推定部による推定結果に基づいて、キャラクターに動作および/または発言を行わせるための情報を生成する生成部と、生成部が生成した情報を出力する出力部とを備えることを特徴とする。   In order to achieve the above object, an image display device of the present invention includes a display unit that displays a character, an acquisition unit that acquires information about the user, an estimation unit that estimates a user's state from the information acquired by the acquisition unit, A generation unit that generates information for causing a character to perform an action and / or speech based on an estimation result by the estimation unit, and an output unit that outputs information generated by the generation unit are provided.

本発明の画像表示装置、画像表示方法および画像表示プログラムによれば、ユーザの状態を推定し、推定結果に基づいて、キャラクターに動作および/または発言を行わせることにより、ユーザに、キャラクターが自分と一緒に生活をしているような感覚を与えることができる。   According to the image display device, the image display method, and the image display program of the present invention, by estimating the state of the user and causing the character to act and / or speak based on the estimation result, the user can Can give you the feeling of living with.

図1(a),(b)は、本発明の実施形態に係る画像表示装置の構成図および回路構成図である。1A and 1B are a configuration diagram and a circuit configuration diagram of an image display apparatus according to an embodiment of the present invention. 図2は、ユーザの状態と、このユーザの状態に応じて本発明の実施形態に係る画像表示装置で表示される画像の一例である。FIG. 2 is an example of an image displayed on the image display apparatus according to the embodiment of the present invention in accordance with the user state and the user state. 図3は、ユーザの状態と、このユーザの状態に応じて本発明の実施形態に係る画像表示装置で表示される画像の一例である。FIG. 3 is an example of a user state and an image displayed on the image display device according to the embodiment of the present invention in accordance with the user state. 図4は、本発明の実施形態に係る画像表示装置における処理を説明するフローチャートである。FIG. 4 is a flowchart illustrating processing in the image display apparatus according to the embodiment of the present invention. 図5は、本発明の実施形態に係る画像表示装置を上方から見た斜視図である。FIG. 5 is a perspective view of the image display apparatus according to the embodiment of the present invention as viewed from above. 図6は、本発明の実施形態に係る画像表示装置を下方から見た斜視図である。FIG. 6 is a perspective view of the image display apparatus according to the embodiment of the present invention as viewed from below. 図7は、本発明の実施形態に係る画像表示装置の左側面図である。FIG. 7 is a left side view of the image display apparatus according to the embodiment of the present invention. 図8Aは、本発明の実施形態に係る画像表示装置に搭載される機器であって、上部収容部に設置される機器を模式的に示す図である。FIG. 8A is a diagram schematically showing a device that is installed in the image display apparatus according to the embodiment of the present invention and is installed in the upper housing portion. 図8Bは、本発明の実施形態に係る画像表示装置に搭載される機器であって、柱部に設置される機器を模式的に示す図である。FIG. 8B is a diagram schematically showing a device that is mounted on the image display apparatus according to the embodiment of the present invention and is installed in the pillar portion. 図8Cは、本発明の実施形態に係る画像表示装置に搭載される機器であって、下部収容部に設置される機器を模式的に示す図である。FIG. 8C is a diagram schematically showing devices installed in the image display apparatus according to the embodiment of the present invention and installed in the lower housing portion. 図9は、本発明の実施形態に係る画像表示装置の機能ブロック図であって一使用態様を示す図である。FIG. 9 is a functional block diagram of the image display apparatus according to the embodiment of the present invention and is a diagram illustrating one usage mode. 図10は、本発明の実施形態に係る画像表示装置の他の機能ブロック図である。FIG. 10 is another functional block diagram of the image display apparatus according to the embodiment of the present invention. 図11Aは、本発明の実施形態に係る画像表示装置で利用される画像データのデータ構成図である。FIG. 11A is a data configuration diagram of image data used in the image display apparatus according to the embodiment of the present invention. 図11Bは、本発明の実施形態に係る画像表示装置で利用される音声データのデータ構成図である。FIG. 11B is a data configuration diagram of audio data used in the image display apparatus according to the embodiment of the present invention. 図11Cは、本発明の実施形態に係る画像表示装置で利用される信号データのデータ構成図である。FIG. 11C is a data configuration diagram of signal data used in the image display apparatus according to the embodiment of the present invention. 図12は、本発明の実施形態に係る画像表示装置で出力される音声のパターンを説明する図である。FIG. 12 is a diagram for explaining sound patterns output from the image display apparatus according to the embodiment of the present invention. 図13は、本発明の実施形態に係る画像表示装置で利用される会話履歴データのデータ構成例を示すデータ構成図である。FIG. 13 is a data configuration diagram showing a data configuration example of conversation history data used in the image display apparatus according to the embodiment of the present invention. 図14は、本発明の実施形態に係る画像表示装置で利用されるチャット履歴データのデータ構成例を示すデータ構成図である。FIG. 14 is a data configuration diagram showing a data configuration example of chat history data used in the image display apparatus according to the embodiment of the present invention. 図15は、本発明の実施形態に係る画像表示装置で利用されるランダム会話データのデータ構成例を示すデータ構成図である。FIG. 15 is a data configuration diagram showing a data configuration example of random conversation data used in the image display apparatus according to the embodiment of the present invention. 図16は、本発明の実施形態に係る画像表示装置における状態遷移を説明する図である。FIG. 16 is a diagram illustrating state transition in the image display apparatus according to the embodiment of the present invention. 図17Aは、本発明の実施形態に係る画像表示装置で表示される画像の一例である。FIG. 17A is an example of an image displayed by the image display device according to the embodiment of the present invention. 図17Bは、本発明の実施形態に係る画像表示装置で表示される画像の他の例である。FIG. 17B is another example of an image displayed on the image display device according to the embodiment of the present invention. 図17Cは、本発明の実施形態に係る画像表示装置における処理を説明するフローチャートである。FIG. 17C is a flowchart for describing processing in the image display apparatus according to the embodiment of the present invention. 図18Aは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 18A is a diagram illustrating a communication mode in the image display apparatus according to the embodiment of the present invention. 図18Bは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 18B is a diagram illustrating a communication mode in the image display apparatus according to the embodiment of the present invention. 図18Cは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 18C is a diagram illustrating a communication mode in the image display apparatus according to the embodiment of the present invention. 図18Dは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 18D is a diagram illustrating a communication mode in the image display apparatus according to the embodiment of the present invention. 図18Eは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 18E is a view for explaining a communication mode in the image display apparatus according to the embodiment of the present invention. 図18Fは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 18F is a view for explaining a communication mode in the image display apparatus according to the embodiment of the present invention. 図18Gは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 18G is a diagram illustrating a communication mode in the image display apparatus according to the embodiment of the present invention. 図18Hは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 18H is a view for explaining a communication mode in the image display apparatus according to the embodiment of the present invention. 図18Iは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 18I is a diagram for explaining a communication mode in the image display apparatus according to the embodiment of the present invention. 図19Aは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 19A is a diagram illustrating a communication mode in the image display apparatus according to the embodiment of the present invention. 図19Bは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 19B is a diagram illustrating a communication mode in the image display apparatus according to the embodiment of the present invention. 図19Cは、本発明の実施形態に係る画像表示装置におけるコミュニケーションモードを説明する図である。FIG. 19C is a diagram illustrating a communication mode in the image display apparatus according to the embodiment of the present invention. 図20は、本発明の実施形態に係る画像表示装置のコミュニケーションモードにおける動作を示すフローチャートである。FIG. 20 is a flowchart showing an operation in the communication mode of the image display apparatus according to the embodiment of the present invention. 図21Aは、本発明の実施形態に係る画像表示装置にユーザのスケジュールを登録する画面例である。FIG. 21A is an example of a screen for registering a user schedule in the image display apparatus according to the embodiment of the present invention. 図21Bは、本発明の実施形態に係る画像表示装置にユーザのスケジュールを登録する画面例である。FIG. 21B is an example of a screen for registering a user schedule in the image display apparatus according to the embodiment of the present invention. 図22は、本発明の実施形態に係る画像表示装置における起床モードを説明するチャートである。FIG. 22 is a chart for explaining a wake-up mode in the image display apparatus according to the embodiment of the present invention. 図23は、本発明の実施形態に係る画像表示装置における外出モードを説明するチャートである。FIG. 23 is a chart illustrating the outing mode in the image display apparatus according to the embodiment of the present invention. 図24は、本発明の実施形態に係る画像表示装置における帰宅モードを説明するチャートである。FIG. 24 is a chart illustrating the return home mode in the image display apparatus according to the embodiment of the present invention. 図25は、本発明の実施形態に係る画像表示装置におけるチャットモードを説明するフローチャートである。FIG. 25 is a flowchart for explaining a chat mode in the image display apparatus according to the embodiment of the present invention. 図26Aは、本発明の実施形態に係るチャットモードのユーザの通信端末の表示画面例を示す図である。FIG. 26A is a diagram showing a display screen example of the communication terminal of the user in the chat mode according to the embodiment of the present invention. 図26Bは、本発明の実施形態に係るチャットモードのユーザの通信端末の表示画面例を示す図である。FIG. 26B is a diagram showing a display screen example of the communication terminal of the user in the chat mode according to the embodiment of the present invention. 図27は、本発明の実施形態に係る画像表示装置の回路構成図である。FIG. 27 is a circuit configuration diagram of the image display apparatus according to the embodiment of the present invention.

以下、本発明の実施形態に係る画像表示装置について図面を参照して説明する。本実施形態に係る画像表示装置は、例えば後述する画像表示装置とすることができるが、本発明の目的を達成できるものであればこれに限定されるものではない。   Hereinafter, an image display device according to an embodiment of the present invention will be described with reference to the drawings. The image display apparatus according to the present embodiment can be, for example, an image display apparatus described later, but is not limited to this as long as the object of the present invention can be achieved.

図1(a)に示すように、本発明の画像表示装置2010は、表示部2011と、取得部2012、推定部2013と、生成部2014と、出力部2015とを備える。   As shown in FIG. 1A, the image display apparatus 2010 of the present invention includes a display unit 2011, an acquisition unit 2012, an estimation unit 2013, a generation unit 2014, and an output unit 2015.

表示部2011は、キャラクターを表示するものである。本発明の画像表示装置は、例えば、後述するプロジェクタにキャラクターに係る画像を透過フィルムに投影させることで、キャラクターを表示することができる。表示部2011は、例えば、プロセッサやグラフィックエンジンなどによって実現されるが、実現の手法はこれに限られるものではない。キャラクターは、アニメ、漫画、小説、コンピュータゲーム、小説などに登場する人物や動物などであるが、これに限られず、オリジナルの創造上の人物であってもよい。また、人物や動物に限らず、個性を有する無機物もキャラクターとしてあり得る。例えば、ロボットなどである。   The display unit 2011 displays a character. The image display device of the present invention can display a character by, for example, projecting an image relating to the character onto a transmissive film by a projector described later. The display unit 2011 is realized by, for example, a processor or a graphic engine, but the realization method is not limited to this. The character is a person or animal appearing in an animation, a manga, a novel, a computer game, a novel, or the like, but is not limited thereto, and may be an original creative person. Moreover, not only a person and an animal but the inorganic substance which has individuality can also be a character. For example, a robot.

取得部2012は、ユーザに関する情報を取得するものである。ユーザに関する情報とは、例えば、後述するセンサにより得られるユーザの生体情報や部屋の情報、カメラにより撮影された画像から得られるユーザの生体情報や部屋の情報、記憶装置から得られるユーザに関連する環境情報などとすることができる。   The acquisition unit 2012 acquires information about the user. The information related to the user is related to, for example, the user's biometric information and room information obtained by a sensor to be described later, the user's biometric information and room information obtained from an image captured by the camera, and the user obtained from the storage device. It can be environmental information.

ユーザの生体情報とは、例えば、体温情報、血圧情報、脈拍情報、体重情報などの情報とすることができるが、これらに限られず、例えば歩数や運動時間なども含むことができる。   The user's biological information can be, for example, information such as body temperature information, blood pressure information, pulse information, and weight information, but is not limited thereto, and can include, for example, the number of steps and exercise time.

ユーザの部屋の情報とは、例えば、部屋の温度情報、湿度情報、空気情報、配置物の情報とすることができるが、これらに限られるものではない。   The user's room information can be, for example, room temperature information, humidity information, air information, and arrangement information, but is not limited thereto.

ユーザに関連する環境情報とは、例えば、ユーザがいる地域の天気情報や、ユーザの本門予定先の渋滞情報とすることができるが、これらに限られるものではない。   The environment information related to the user can be, for example, weather information of a region where the user is present or traffic jam information of a user's main scheduled destination, but is not limited thereto.

推定部2013は、取得部2012が取得した情報からユーザの状態を推定する。例えば、一例として、情報が体温情報である場合、この体温情報が予め設定された閾値を超えている場合に、推定部2013は、ユーザが発熱状態であると推定することができる。また、一例として、情報が空気情報である場合、この空気情報にアルコール値が予め設定された閾値を超えている場合に、推定部2013は、ユーザが飲酒状態であると推定することができる。   The estimation unit 2013 estimates the state of the user from the information acquired by the acquisition unit 2012. For example, as an example, when the information is body temperature information, when the body temperature information exceeds a preset threshold, the estimation unit 2013 can estimate that the user is in a fever state. As an example, when the information is air information, the estimation unit 2013 can estimate that the user is in a drinking state when the alcohol value exceeds a preset threshold value in the air information.

そして、生成部2014は、推定部2013による推定結果に基づいて、キャラクターに動作および/または発言を行わせるための情報を生成する。   And the production | generation part 2014 produces | generates the information for making a character perform a motion and / or a statement based on the estimation result by the estimation part 2013. FIG.

推定結果に基づく動作および/または発言とは、後述するように、ユーザの状態と同じ状態を示す動作および/または発言と、ユーザの状態に対応する動作および/または発言とが含まれるものとすることができる。   The operation and / or speech based on the estimation result includes an operation and / or speech indicating the same state as the user state and an operation and / or speech corresponding to the user state, as will be described later. be able to.

そして、出力部2015は、生成部が生成2014した情報を出力する。この出力部2015により出力された情報は、キャラクターに、上記の動作および/または発言を行わせるものとする。キャラクターの動作は、上記表示部2011に出力され、キャラクターの発言は、スピーカ等により増幅器を介して出力される。   And the output part 2015 outputs the information which the production | generation part produced | generated 2014. It is assumed that the information output by the output unit 2015 causes the character to perform the above operation and / or speech. The character's movement is output to the display unit 2011, and the character's speech is output through an amplifier by a speaker or the like.

図2は、出力部2015が、生成部2014が生成した情報を出力し、キャラクターが、ユーザの状態と同じ状態を示す動作および/または発言をしている状態を表したイメージ図である。同様に、図3は、出力部2015が、生成部2014が生成した情報を出力し、キャラクターが、ユーザの状態に対応する動作および/または発言をしている状態を表したイメージ図である。   FIG. 2 is an image diagram in which the output unit 2015 outputs the information generated by the generation unit 2014 and the character is performing an action and / or remarks indicating the same state as the state of the user. Similarly, FIG. 3 is an image diagram in which the output unit 2015 outputs the information generated by the generation unit 2014, and the character is performing actions and / or statements corresponding to the user's state.

なお、キャラクターが、ユーザの状態と同じ状態を示す動作および/または発言とは、図2に示すように、ユーザの状態が発熱状態である場合には、キャラクターも発熱状態であることを示す動作および/または発言(例えば、寝込む、咳をする、ふらつく等)を行わせるものであればよく、必ずしもユーザの動作および/または発言と一致していることを限定したものではない。   In addition, the operation | movement and / or remark that a character shows the same state as a user's state are operations which show that a character is also a heat generation state, as shown in FIG. 2, when a user's state is a heat generation state. What is necessary is just to be able to make a speech (for example, to sleep, cough, sway, etc.), and is not necessarily limited to be consistent with the user's action and / or speech.

また、キャラクターが、ユーザの状態と同じ状態を示す動作および/または発言とは、図3に示すように、ユーザの状態が飲酒状態である場合には、キャラクターがユーザを気遣う状態であることを示す動作および/または発言(例えば、心配する発言をする、眉をひそめる等)を行わせるものであればよい。   In addition, as shown in FIG. 3, the action and / or remark that the character shows the same state as the user's state means that the character cares for the user when the user's state is a drinking state. Any operation and / or utterance (for example, making a worried utterance or frowning) may be performed.

かかる構成により、本発明の画像表示装置は、ユーザの状態を推定し、推定結果に基づいて、キャラクターに動作および/または発言を行わせることができる。これにより、ユーザに、キャラクターが自分と一緒に生活をしているような感覚を与えることができる。   With this configuration, the image display apparatus of the present invention can estimate the user's state and cause the character to perform an action and / or speech based on the estimation result. Thereby, it is possible to give the user a feeling that the character is living with him / herself.

取得部2012は、ユーザの生体情報、ユーザの部屋の情報、ユーザに関連する環境情報の少なくとも一つの情報を取得することができる。これら情報の詳細については上述したとおりである。   The acquisition unit 2012 can acquire at least one piece of information about the user's biological information, information about the user's room, and environmental information related to the user. Details of these pieces of information are as described above.

生成部2014は、推定部2013による推定結果に基づいて、キャラクターに、ユーザの状態と同じ状態を示す動作および/または発言を行わせるための情報を生成することができる。これら情報の詳細については上述したとおりである。   Based on the estimation result from the estimation unit 2013, the generation unit 2014 can generate information for causing the character to perform an action and / or a statement indicating the same state as the user's state. Details of these pieces of information are as described above.

生成部2014は、推定部2013による推定結果に基づいて、キャラクターに、ユーザの状態に対応する動作および/または発言を行わせるための情報を生成することができる。これら情報の詳細については上述したとおりである。   The generation unit 2014 can generate information for causing the character to perform an action and / or a speech corresponding to the user's state based on the estimation result by the estimation unit 2013. Details of these pieces of information are as described above.

取得部2012は、センサにより測定された測定値からユーザに関する情報を取得することができる。   The acquisition unit 2012 can acquire information about the user from the measurement values measured by the sensor.

上記センサは、例えば、体温情報、血圧情報、脈拍情報、体重情報を測定するための体温計、血圧計、脈拍計、体重計等とすることができる。これらのセンサは、一のセンサで複数の情報を測定することが可能なものを用いることもできる。また、ユーザが腕等に装着可能(ウェアラブルな)な測定機器を用いることもできる。このように、センサをウェアラブルな機器とした場合は、ユーザの歩数や運動時間などの情報も得ることができる。   The sensor may be, for example, a thermometer, a sphygmomanometer, a pulse meter, a weight scale, etc. for measuring body temperature information, blood pressure information, pulse information, weight information. These sensors can use what can measure a plurality of information with one sensor. Further, a measuring device that can be worn on the arm or the like by the user (wearable) can also be used. Thus, when the sensor is a wearable device, information such as the number of steps of the user and exercise time can be obtained.

また、上記センサは、例えば、ユーザの部屋の温度情報、湿度情報、空気情報、配置物の情報を測定するための温度センサ、湿度センサ、ガスセンサ、加速度センサ、赤外線センサ等とすることができる。これらのセンサは、一のセンサで複数の情報を測定することが可能なものを用いることもできる。また、ユーザが腕等に装着可能(ウェアラブルな)な測定機器を用いることもできる。   Further, the sensor may be, for example, a temperature sensor, a humidity sensor, a gas sensor, an acceleration sensor, an infrared sensor, or the like for measuring temperature information, humidity information, air information, and arrangement information of a user's room. These sensors can use what can measure a plurality of information with one sensor. Further, a measuring device that can be worn on the arm or the like by the user (wearable) can also be used.

この場合のユーザに関する情報は、例えば、ユーザの体温情報、血圧情報、脈拍情報、体重情報や、ユーザの部屋の温度情報、湿度情報、空気情報、配置物の情報等とすることができる。   Information about the user in this case can be, for example, the user's body temperature information, blood pressure information, pulse information, weight information, the user's room temperature information, humidity information, air information, arrangement information, and the like.

推定部2013は、取得部2012が取得した上記の情報からユーザの状態を推定する。例えば、情報が体温情報である場合、この体温情報が予め設定された閾値を超えている場合に、推定部2013は、ユーザが発熱状態であると推定することができる。また、情報が血圧情報である場合、この体温情報が予め設定された閾値を超えている/下回っている場合に、推定部2013は、ユーザの血圧が異常状態であると推定することができる。また、情報が脈拍情報である場合、この脈拍情報が予め設定された閾値を超えている/下回っている場合に、推定部2013は、ユーザの脈拍が異常状態であると推定することができる。また、情報が体重情報である場合、この体重情報が予め設定された閾値を超えている/下回っている場合に、推定部2013は、ユーザの体重が異常状態であると推定することができる。   The estimation unit 2013 estimates the state of the user from the above information acquired by the acquisition unit 2012. For example, when the information is body temperature information, if the body temperature information exceeds a preset threshold, the estimation unit 2013 can estimate that the user is in a fever state. When the information is blood pressure information, the estimation unit 2013 can estimate that the user's blood pressure is in an abnormal state when the body temperature information exceeds / below a preset threshold value. Further, when the information is pulse information, the estimation unit 2013 can estimate that the user's pulse is in an abnormal state when the pulse information exceeds / below a preset threshold value. When the information is weight information, the estimation unit 2013 can estimate that the weight of the user is in an abnormal state when the weight information exceeds / below a preset threshold value.

また、例えば、情報が温度情報である場合、この温度情報が予め設定された閾値を超えている/下回っている場合に、推定部2013は、ユーザが不快状態であると推定することができる。また、例えば、情報が湿度情報である場合、この温度情報が予め設定された閾値を超えている/下回っている場合に、推定部2013は、ユーザが不快状態であると推定することができる。   For example, when the information is temperature information, the estimation unit 2013 can estimate that the user is in an uncomfortable state when the temperature information exceeds / below a preset threshold value. For example, when the information is humidity information, the estimation unit 2013 can estimate that the user is in an uncomfortable state when the temperature information exceeds / below a preset threshold value.

また、例えば、情報が空気情報である場合、この空気情報から得られる値が予め設定された例えばアルコール、一酸化炭素、二酸化炭素等の気体成分の濃度の閾値を超えている場合に、推定部2013は、ユーザが飲酒状態や不快状態であると推定することができる。   Further, for example, when the information is air information, the estimation unit when the value obtained from the air information exceeds a preset threshold value of a gas component such as alcohol, carbon monoxide, carbon dioxide, etc. In 2013, it can be estimated that the user is in a drinking or uncomfortable state.

また、例えば、情報が配置物の情報である場合、この配置物の情報から得られる配置物の数や体積が予め設定された閾値を超えている場合に、推定部2013は、ユーザが快/不快状態、または、不健康状態であると推定することができる。ユーザが快状態と推定される配置物の例としては、加湿器、空気清浄機、開いた窓、植物等が挙げられ、ユーザが不快状態と推定される配置物の例としては、空き缶やペットボトル等のゴミなどが挙げられる。また、ユーザが不健康状態と推定される例としては、上述したゴミ等の他、タバコやお酒の瓶・カンなどが挙げられる。   Further, for example, when the information is information on an arrangement, when the number or volume of the arrangement obtained from the arrangement information exceeds a preset threshold, the estimation unit 2013 indicates that the user is in a pleasant / uncomfortable state. Alternatively, it can be estimated that the patient is in an unhealthy state. Examples of an arrangement in which the user is estimated to be in a pleasant state include a humidifier, an air purifier, an open window, a plant, etc. Examples include garbage such as bottles. Further, examples of the user estimated to be in an unhealthy state include cigarettes, liquor bottles, cans, etc., in addition to the above-described garbage.

上記のセンサは、本発明の画像表示装置が備えるものとしてもよいし、外部機器として有線または無線により接続されるものとすることもできる。   The sensor may be included in the image display device of the present invention, or may be connected as an external device by wire or wirelessly.

また、取得部2012は、カメラにより撮影された画像からユーザに関する情報を取得することができる。   Moreover, the acquisition part 2012 can acquire the information regarding a user from the image image | photographed with the camera.

取得部2012は、例えば、カメラにより撮影された画像を解析することにより、ユーザの顔色情報や動き情報などの生体情報を得たり、部屋の配置物の情報を得たりすることができる。配置物の例は上述したとおりである。なお、これらの画像解析方法については公知の画像解析技術を用いて実現することができる。   For example, the acquisition unit 2012 can obtain biological information such as the user's face color information and motion information or can obtain information on the arrangement of the room by analyzing an image captured by the camera. The example of the arrangement is as described above. In addition, about these image analysis methods, it can implement | achieve using a well-known image analysis technique.

推定部2013は、取得部2012が取得した上記の情報からユーザの状態を推定する。例えば、情報がユーザの顔色情報である場合、この顔色情報から得られる値が予め設定された閾値を超えている/下回っている場合に、推定部2013は、ユーザが不健康状態であると推定することができる。また、例えば、情報がユーザの動き情報である場合、この動き情報から得られる値が予め設定された閾値を超えている/下回っている場合に、推定部2013は、ユーザが不健康状態であると推定することができる。   The estimation unit 2013 estimates the state of the user from the above information acquired by the acquisition unit 2012. For example, when the information is user face color information, the estimation unit 2013 estimates that the user is in an unhealthy state when a value obtained from the face color information exceeds / below a preset threshold value. be able to. Also, for example, when the information is user motion information, the estimation unit 2013 determines that the user is in an unhealthy state when a value obtained from the motion information exceeds / below a preset threshold value. Can be estimated.

上記のカメラは、本発明の画像表示装置が備えるものとしてもよいし、外部機器として有線または無線により接続されるものとすることもできる。   The above camera may be included in the image display device of the present invention, or may be connected as an external device by wire or wirelessly.

取得部2013は、記憶装置からユーザに関する情報を取得することができる。   The acquisition unit 2013 can acquire information about the user from the storage device.

上記の記憶装置は、本発明の画像表示装置が備えるものとしてもよいし、外部機器として有線または無線により接続されるものとすることもできる。特に、記憶装置をインターネット上の特定のサービス提供するサーバ装置が備えるものとし、ユーザに関する情報として、例えば、ユーザがいる地域の天気予報やユーザが訪問予定の地域の渋滞情報等を取得することも可能である。   The above storage device may be provided in the image display device of the present invention, or may be connected as an external device by wire or wirelessly. In particular, the storage device is provided in a server device that provides a specific service on the Internet, and as information about the user, for example, a weather forecast for a region where the user is located, traffic congestion information for a region the user is scheduled to visit, or the like may be acquired. Is possible.

また、本発明の画像表示方法は、図4に示すように、表示ステップ2031と、取得ステップ2032と、推定ステップ2033と、生成ステップ2034と、出力ステップ2035とを含むことを特徴とする。   In addition, as shown in FIG. 4, the image display method of the present invention includes a display step 2031, an acquisition step 2032, an estimation step 2033, a generation step 2034, and an output step 2035.

表示ステップ2031では、キャラクターを表示する。この表示ステップは上述した表示部により実行されることができる。詳細については上述したとおりである。   In a display step 2031, the character is displayed. This display step can be executed by the display unit described above. Details are as described above.

取得ステップ2032では、ユーザに関する情報を取得する。この取得ステップは上述した取得部により実行されることができる。詳細については上述したとおりである。   In acquisition step 2032, information about the user is acquired. This acquisition step can be executed by the acquisition unit described above. Details are as described above.

推定ステップ2033では、取得ステップにおいて取得した情報からユーザの状態を推定する。この推定ステップは上述した推定部により実行されることができる。詳細については上述したとおりである。   In the estimation step 2033, the state of the user is estimated from the information acquired in the acquisition step. This estimation step can be executed by the estimation unit described above. Details are as described above.

生成ステップ2034では、推定ステップにおける推定結果に基づいて、キャラクターに動作および/または発言を行わせるための情報を生成する。この生成ステップは上述した生成部により実行されることができる。詳細については上述したとおりである。   In the generation step 2034, information for causing the character to perform an action and / or speech is generated based on the estimation result in the estimation step. This generation step can be executed by the generation unit described above. Details are as described above.

出力ステップ2035では、生成ステップにおいて生成した情報を出力する。この出力ステップは上述した出力部により実行されることができる。詳細については上述したとおりである。   In the output step 2035, the information generated in the generation step is output. This output step can be executed by the output unit described above. Details are as described above.

また、本発明の画像表示プログラムは、コンピュータに、表示機能と、取得機能と、推定機能と、生成機能と、出力機能とを実現させることを特徴とする。   The image display program of the present invention is characterized in that a computer realizes a display function, an acquisition function, an estimation function, a generation function, and an output function.

表示機能は、キャラクターを表示する。この表示機能は上述した表示部により実現されることができる。詳細については上述したとおりである。   The display function displays the character. This display function can be realized by the display unit described above. Details are as described above.

取得機能は、ユーザに関する情報を取得する。この取得機能は上述した取得部により実現されることができる。詳細については上述したとおりである。   The acquisition function acquires information about the user. This acquisition function can be realized by the acquisition unit described above. Details are as described above.

推定機能は、取得機能が取得した情報から前記ユーザの状態を推定する。この推定機能は上述した推定部により実現されることができる。詳細については上述したとおりである。   The estimation function estimates the state of the user from information acquired by the acquisition function. This estimation function can be realized by the estimation unit described above. Details are as described above.

生成機能は、推定機能による推定結果に基づいて、前記キャラクターに動作および/または発言を行わせるための情報を生成する。この生成機能は上述した生成部により実現されることができる。詳細については上述したとおりである。   The generation function generates information for causing the character to perform an action and / or speech based on the estimation result obtained by the estimation function. This generation function can be realized by the generation unit described above. Details are as described above.

出力機能は、生成機能が生成した情報を出力する。この出力機能は上述した出力部により実現されることができる。詳細については上述したとおりである。   The output function outputs information generated by the generation function. This output function can be realized by the output unit described above. Details are as described above.

上記の機能を実現するコンピュータは、図1(b)に示す画像表示装置2020とし、表示回路2021と、取得回路2022、推定回路2023、生成回路2024と、出力回路2025とから構成されてもよい。それぞれの機能は、上記実施形態に示した同様の名称を有する各部と同様である。   A computer that realizes the above function is the image display device 2020 shown in FIG. 1B, and may include a display circuit 2021, an acquisition circuit 2022, an estimation circuit 2023, a generation circuit 2024, and an output circuit 2025. . Each function is the same as each part which has the same name shown in the said embodiment.

画像表示装置は、一部又は全部が透光性部材からなるケースと、ケースの内部に立設した透光性を有する平状部材と、を更に備え、表示部は、平状部材にキャラクターを投影することで、キャラクターを表示することができる。詳細については以下に詳説する。   The image display device further includes a case partly or entirely made of a translucent member, and a translucent flat member standing inside the case, and the display unit has a character on the flat member. By projecting, a character can be displayed. Details are described in detail below.

以下、本発明の実施形態に係る画像表示装置について図面を参照して説明する。実施形態に係る画像表示装置は、キャラクター画像を表示するとともに、キャラクターの音声を出力するものである。この際、画像表示装置に表示されるキャラクター画像及びキャラクターの音声は、画像表示装置が置かれる環境、当該装置を所有するユーザに関する情報、時刻情報に応じて決定される。   Hereinafter, an image display device according to an embodiment of the present invention will be described with reference to the drawings. The image display device according to the embodiment displays a character image and outputs a voice of the character. At this time, the character image and the sound of the character displayed on the image display device are determined according to the environment in which the image display device is placed, information about the user who owns the device, and time information.

〈装置構成〉
まず、図5乃至図8Cを用いて、実施形態に画像表示装置1の装置構成について説明する。図5は、画像表示装置1を上方から見た斜視図である。図6は、画像表示装置1を下方から見た斜視図である。
<Device configuration>
First, the apparatus configuration of the image display apparatus 1 will be described with reference to FIGS. 5 to 8C. FIG. 5 is a perspective view of the image display device 1 as viewed from above. FIG. 6 is a perspective view of the image display device 1 as viewed from below.

図5,図6に示すように、画像表示装置1は、主に、内部が空洞な円筒状の透明のケース2と、そのケース2の内部にほぼ垂直に立設した透過フィルム(本発明の平状部材)3と、キャラクター画像等を出力するプロジェクタ4と、反射ミラー5等の部品や機器を備える。   As shown in FIG. 5 and FIG. 6, the image display device 1 mainly includes a cylindrical transparent case 2 having a hollow inside, and a transmissive film (in the present invention, which is erected almost vertically). A flat member 3, a projector 4 that outputs a character image and the like, and components and equipment such as a reflection mirror 5 are provided.

このような構成の画像表示装置1において、プロジェクタ4から出力された画像は、反射ミラー5による反射を介して透過フィルム3に投影され、ユーザは、このようにして透過フィルム3に投影された画像を透明なケース2を通して見ることができる。   In the image display device 1 having such a configuration, the image output from the projector 4 is projected onto the transmissive film 3 through reflection by the reflection mirror 5, and the user has thus projected the image projected onto the transmissive film 3. Can be seen through the transparent case 2.

ケース2は、一部又は全部が透光性部材からなる筐体であり、例えば、アクリル板等によって形成されている。例えば、ケース2は、2つの透明な半円柱状のケース部材2a,2bを、2本の支柱23に組み込むことで全体が透明な一体の円筒体を形成している。ただし、予め成形された円筒体をケース2に用いることもでき、また、弾性又は可撓性を有する矩形状の板材や膜材を半円柱状に湾曲させ、これを支柱23に組み込んで形成した円筒体をケース2として用いることもできる。このように円筒状のケース2を用いることで、左右のどの角度からでも透過フィルム3に投影される画像を適切に視認することができる。なお、支柱23は透明な部材で形成されていてもよく、この場合、ケース2のほぼ全部を透明にすることができる。ただし、支柱23は、不透明や半透明であってもよい。   The case 2 is a housing that is partly or entirely made of a translucent member, and is formed of, for example, an acrylic plate. For example, the case 2 is formed by integrating two transparent semi-cylindrical case members 2 a and 2 b into the two support columns 23 to form a transparent integral cylinder. However, a preformed cylindrical body can also be used for the case 2, and a rectangular plate or film material having elasticity or flexibility is curved into a semi-columnar shape, and this is incorporated into the column 23 and formed. A cylindrical body can also be used as the case 2. By using the cylindrical case 2 in this way, an image projected on the transmissive film 3 can be appropriately visually recognized from any left and right angles. In addition, the support | pillar 23 may be formed with the transparent member, In this case, almost all of the case 2 can be made transparent. However, the support post 23 may be opaque or translucent.

ケース2の正面側上部には、ケース2の表面に沿って湾曲させた帯状の不透明な遮蔽部25を設けている。これにより、ケース2を正面側から見たときに、反射ミラー5は、遮蔽部25の後方にあるため、隠れて見えなくさせることができる。また、図示していないが、ケース2の上底面にあたる円形部には、遮光塗料の塗布等、遮光処理を施している。これにより、透過フィルム3に室内の照明等が入り込むことを防ぐことができ、透過フィルム3に表示される画像を見易くすることができる。また、ケース2の背面側上部(ケース部材2bの上部)は、開口を施しており、反射ミラー5からの画像を形成する光がケース部材2bを介さず、直接透過フィルム3に到達できるようにしている。なお、ケース2は、透明な部材に限らず、乳白色のように半透明の部材を用いてもよい。   A band-like opaque shielding portion 25 that is curved along the surface of the case 2 is provided at the upper part on the front side of the case 2. Thereby, when the case 2 is viewed from the front side, the reflection mirror 5 is behind the shielding portion 25 and thus can be hidden and cannot be seen. Although not shown, the circular portion corresponding to the upper bottom surface of the case 2 is subjected to a light shielding process such as application of a light shielding paint. Thereby, indoor lighting etc. can be prevented from entering the transmissive film 3, and the image displayed on the transmissive film 3 can be easily viewed. Further, the upper part on the back side of the case 2 (the upper part of the case member 2b) is provided with an opening so that light forming an image from the reflection mirror 5 can reach the transmission film 3 directly without passing through the case member 2b. ing. Note that the case 2 is not limited to a transparent member, and a translucent member such as milky white may be used.

このようなケース2の内部には、透過フィルム3が設けられており、また、ケース2の上方、下方、背面側には、後述する上部収容部21、下部収容部22、柱部6が設けられている。   A transparent film 3 is provided inside the case 2, and an upper storage portion 21, a lower storage portion 22, and a column portion 6, which will be described later, are provided above, below, and on the back side of the case 2. It has been.

透過フィルム3は、本発明の「透光性を有する平状部材」の一実施態様であり、所定の画像が投影される透明なスクリーンとして機能する。本実施形態の透過フィルム3は矩形状であり、これが、ケース2の内部の中央付近にほぼ垂直になるように立設されている。具体的には、透過フィルム3は、台座221の両端に立設された2本の支柱23によって支持され、これにより、表面が正面側(背面側)を向きつつ、台座221の中央に垂直に立設させている。なお、透過フィルム3の代わりに、透明の板材、半透明の板材や膜材等を用いることもできる。   The transmissive film 3 is an embodiment of the “flat member having translucency” in the present invention, and functions as a transparent screen on which a predetermined image is projected. The transmission film 3 of the present embodiment has a rectangular shape, and is erected so as to be substantially vertical near the center inside the case 2. Specifically, the transmissive film 3 is supported by two support columns 23 erected on both ends of the pedestal 221, so that the surface faces the front side (back side) and is perpendicular to the center of the pedestal 221. Standing up. Instead of the transmissive film 3, a transparent plate material, a translucent plate material, a film material, or the like can be used.

下部収容部22は、プラスチック等からなる箱体であり、プロジェクタ4の出力制御を含む種々の制御動作を行う制御ボード701その他の機器(図8C参照)を取り付けるスペースを有する。下部収容部22には、着脱可能な下部カバー222が設けてあり、取り付けることで内部を隠すことができ、取り外すことで内部の機器のメンテナンス等を可能としている。下部収容部22の上面の台座221には、透過フィルム3の立設位置の左右の端部に支柱23を立設している。   The lower housing portion 22 is a box made of plastic or the like, and has a space for mounting a control board 701 and other devices (see FIG. 8C) that perform various control operations including output control of the projector 4. The lower housing portion 22 is provided with a detachable lower cover 222 that can be attached to hide the inside, and can be removed to perform maintenance of internal devices. On the pedestal 221 on the upper surface of the lower housing portion 22, the support columns 23 are erected at the left and right ends of the erected position of the transmission film 3.

透過フィルム3やケース部材2a,2bは、この支柱23により支持されることで台座221上に一体的に立設される。これにより、円筒状のケース2が台座221上に立設され、透過フィルム3は、側部がケース2の内側に内接しつつ、下部(下端)が台座221の上面(表面)に沿うように設けられる。   The transmissive film 3 and the case members 2 a and 2 b are supported by the support column 23 so as to be integrally provided on the pedestal 221. Thereby, the cylindrical case 2 is erected on the pedestal 221, and the transmissive film 3 has a lower side (lower end) along the upper surface (front surface) of the pedestal 221 while the side portion is inscribed inside the case 2. Provided.

台座221は、ケース2内に表示されるキャラクター等を仮想的に載置する台としても機能する。すなわち、台座221は、人形や模型を展示可能に収容するディスプレイケースのベース基材のように見せることができる。   The pedestal 221 also functions as a pedestal for virtually placing a character or the like displayed in the case 2. That is, the pedestal 221 can look like a base material of a display case that accommodates dolls and models so that they can be displayed.

画像表示装置1では、ミラー取付部51により反射ミラー5の角度や向きを調整することで、透過フィルム3の下端に、キャラクター等の足元を一致させて表示させるようにしている(図5)。このようにすることで、キャラクター等が台座221の上に実際に立っているように見せることができる。   In the image display device 1, the angle and direction of the reflection mirror 5 are adjusted by the mirror mounting portion 51, so that the foot of a character or the like is displayed on the lower end of the transmission film 3 (FIG. 5). By doing in this way, it can be shown that the character etc. are actually standing on the base 221.

また、台座221は所定の視認性を有する。具体的には、台座221の表面に模様や着色を施したり、形状に特徴を施したりすることで、台座221の存在が目立つようにしている。例えば、本実施形態の台座221は、アクリル板の表面に、レーザー加工等によって、いわゆる魔方陣の模様に沿った溝を施すようにしている。なお、この模様は一例にすぎず、例えば、魔法陣としては、五芒星にしてもよいし、その他の複雑な幾何学模様を施すこととしてもよい。   Moreover, the base 221 has predetermined visibility. Specifically, the presence of the pedestal 221 is made conspicuous by giving a pattern or coloring to the surface of the pedestal 221 or giving a feature to the shape. For example, the pedestal 221 of this embodiment is configured such that grooves along a so-called magic square pattern are formed on the surface of an acrylic plate by laser processing or the like. This pattern is only an example. For example, as a magic team, a pentagram may be used, or other complicated geometric patterns may be applied.

さらに、台座221は、アクリル板の下部に複数の演出用LED706(本発明の発光手段)を分散して配置することで、台座221の全面に演出用LED706からの光が行きわたるようにしている。このようにすると、台座221の表面において、透過フィルム3を跨ぐぞれぞれの領域が強く認識されるため、透過フィルム3に投影されたキャラクター等の前後において台座221の存在をより強調することができる。そうすると、キャラクター等が、台座221の上にしっかりと着地して立っているように見せることができる。   Further, the pedestal 221 is arranged such that a plurality of effect LEDs 706 (light emitting means of the present invention) are distributed below the acrylic plate, so that the light from the effect LED 706 spreads over the entire surface of the pedestal 221. . In this way, since each region straddling the transparent film 3 is strongly recognized on the surface of the base 221, the presence of the base 221 is more emphasized before and after the character or the like projected on the transparent film 3. Can do. Then, the character or the like can appear to be standing on the base 221 firmly.

上部収容部21は、画像出力を行うプロジェクタ4などの機器(図8A参照)を取り付けるスペースを有する。具体的には、上部収容部21は、柱部6の上部に連結された梯子状の上部機器取付部211を設けており、この上部機器取付部211の下面にプロジェクタ4が取り付けられている。   The upper housing portion 21 has a space for mounting a device (see FIG. 8A) such as the projector 4 that performs image output. Specifically, the upper housing portion 21 is provided with a ladder-like upper device attachment portion 211 connected to the upper portion of the column portion 6, and the projector 4 is attached to the lower surface of the upper device attachment portion 211.

上部機器取付部211は、図6や図7に示すように、柱部6との連結部213から正面側上方に傾いた状態で固定されており、これに伴い、上部機器取付部211に取り付けられたプロジェクタ4も斜めに傾いた状態で固定されている。このように、プロジェクタ4を斜めに取り付けることで、画像の出力方向が当該プロジェクタ4の背面側下方に位置する反射ミラー5に向くようにしている。   As shown in FIG. 6 and FIG. 7, the upper device mounting portion 211 is fixed in a state of being inclined upward from the connecting portion 213 with the column portion 6, and is attached to the upper device mounting portion 211 accordingly. The projector 4 is also fixed in a tilted state. In this way, by attaching the projector 4 at an angle, the output direction of the image is directed toward the reflection mirror 5 positioned below the back side of the projector 4.

なお、上部機器取付部211は、柱部6との連結において、ボルト等の軸部材を用いて軸支させ、軸を中心に任意の位置まで回動させてナット等の固定部材により固定することもできる。このようにすると、プロジェクタ4の傾きを容易に変更することができ、この変更によって画像の出力を上下方向に調整することができる。   The upper device mounting portion 211 is pivotally supported using a shaft member such as a bolt in connection with the column portion 6, rotated to an arbitrary position around the shaft, and fixed by a fixing member such as a nut. You can also. In this way, the inclination of the projector 4 can be easily changed, and the output of the image can be adjusted in the vertical direction by this change.

上部収容部21には、着脱可能な上部カバー212が設けてあり、取り付けることで、上部機器取付部211やプロジェクタ4等の機器を隠すことができ、取り外すことで内部の機器のメンテナンス等を可能としている。   The upper housing part 21 is provided with a detachable upper cover 212. By attaching it, devices such as the upper device mounting part 211 and the projector 4 can be hidden, and by removing them, maintenance of internal devices can be performed. It is said.

プロジェクタ4は、キャラクター画像等の画像の出力を行う画像出力手段である。この種のプロジェクタ4は、通常、いわゆるスクリーンに対し直接映像を投射することで画像を表示するが、本実施形態では、反射ミラー5を介して間接的にスクリーン(透過フィルム3)に画像を投射するようにしている。具体的には、本実施形態のプロジェクタ4は、ケース2の背面側に離間して立設されている柱部6の上部の反射ミラー5に出力画像が向かうように、上部収容部21において傾斜した状態で取り付けられている。   The projector 4 is an image output unit that outputs an image such as a character image. This type of projector 4 normally displays an image by directly projecting an image on a so-called screen, but in the present embodiment, the image is indirectly projected onto the screen (transmission film 3) via the reflection mirror 5. Like to do. Specifically, the projector 4 according to the present embodiment is inclined in the upper housing portion 21 so that the output image is directed to the reflection mirror 5 on the upper portion of the column portion 6 that is provided upright on the back side of the case 2. It is attached in the state.

ところで、プロジェクタの仕様には、焦点距離(以下、「許容投射距離」という)と投射比(以下、「許容投射角度」という)がある。「許容投射距離」は、画像サイズに対応した必要な投射距離(プロジェクタからスクリーンに至る光路の距離)である。実際の投射距離が許容投射距離に満たないと焦点が合わず画像を鮮明に映し出すことはできない。「許容投射角度」は、スクリーンに投射される画像の光路とスクリーンとの角度の許容値である。実際の投射角度が許容投射角度に満たないと、画像の歪みが大きくなり、また、画像の両端で光量が異なって、画像がぼやけるなど画質が低下する。   By the way, the specifications of the projector include a focal length (hereinafter referred to as “allowable projection distance”) and a projection ratio (hereinafter referred to as “allowable projection angle”). The “allowable projection distance” is a necessary projection distance corresponding to the image size (the distance of the optical path from the projector to the screen). If the actual projection distance is less than the allowable projection distance, the image is not focused and the image cannot be displayed clearly. The “allowable projection angle” is an allowable value of the angle between the optical path of the image projected on the screen and the screen. If the actual projection angle is less than the allowable projection angle, the image will be distorted, and the image quality will deteriorate, for example, the amount of light will be different at both ends of the image and the image will be blurred.

これらの点に鑑み、本実施形態のプロジェクタ4は、比較的、許容投射距離が短く、許容投射角度が小さい仕様のものを用い、さらに、反射ミラー5を用いることで、プロジェクタ4とスクリーン(すなわち、透過フィルム3)とをコンパクトに一体化できるようにしている。   In view of these points, the projector 4 according to the present embodiment has a specification that has a relatively short allowable projection distance and a small allowable projection angle, and further uses the reflection mirror 5 so that the projector 4 and the screen (that is, The transmission film 3) can be integrated in a compact manner.

柱部6は、下部収容部22の最背部に立設された柱状の部材であり、ケース2の背面側にケース2とは離間して立設されている。このように、柱部6をケース2の背面側に設けることで、透過フィルム3に室内の照明等が入り込むことを防ぎ、透過フィルム3に表示される画像を見易くすることができる。柱部6には、反射ミラー5や各種センサを取り付けている(図6,図7,図8B等参照)。   The column portion 6 is a columnar member that is erected on the backmost part of the lower housing portion 22, and is erected on the back side of the case 2 so as to be separated from the case 2. Thus, by providing the column part 6 on the back side of the case 2, indoor lighting or the like can be prevented from entering the transmissive film 3, and the image displayed on the transmissive film 3 can be easily viewed. A reflection mirror 5 and various sensors are attached to the column portion 6 (see FIGS. 6, 7, and 8B).

反射ミラー5は、柱部6の上部に鏡面がほぼ垂直(すなわち、透過フィルム3の面とほぼ平行)になるように設けられている。これにより、プロジェクタ4から背面側斜め下方向に出力された所定の入射角の画像の光をこれと同角度(反射角)で反射し、その反射光によって画像を透過フィルム3に投影するようにしている。このようにすると、透過フィルム3における画像の上部と下部の投射距離の距離差を抑えることができるため、透過フィルム3に投影される画像のぼやけ等を抑えることができる。   The reflection mirror 5 is provided on the upper portion of the column portion 6 so that the mirror surface is substantially vertical (that is, substantially parallel to the surface of the transmission film 3). As a result, the light of the image having a predetermined incident angle output from the projector 4 obliquely downward on the back side is reflected at the same angle (reflection angle), and the image is projected onto the transmissive film 3 by the reflected light. ing. In this way, since the difference in projection distance between the upper part and the lower part of the image on the transmissive film 3 can be suppressed, blurring of the image projected on the transmissive film 3 can be suppressed.

図7に示すように、プロジェクタ4から出力された画像の光は、反射ミラー5によって反射され、その反射された画像の光は、正面側斜め下方向に進み、ケース部材2bの開口を通過して、ケース2の内部に設けられた透過フィルム3を背面側から投射する。この状態において、ケース2を通して透過フィルム3に投影されたキャラクター等の画像を見ると、キャラクター等が、より立体的で同じ空間にいる実体物のように視認することができる。   As shown in FIG. 7, the image light output from the projector 4 is reflected by the reflection mirror 5, and the reflected image light travels obliquely downward on the front side and passes through the opening of the case member 2b. Then, the transmission film 3 provided inside the case 2 is projected from the back side. In this state, when an image of a character or the like projected on the transmissive film 3 through the case 2 is viewed, the character or the like can be visually recognized as a three-dimensional entity in the same space.

このような視認効果を奏する理由について以下に説明する。既述の通り、画像表示装置1は、透明なケース2の内部に透明なフィルム(透過フィルム3)を設け、この透明なフィルムに画像を投影するようにしている。このような画像表示装置1においては、ユーザは、透明なケース2を通して透明なフィルムに表示されるキャラクター等を見ることになる。   The reason why such a visual recognition effect is exhibited will be described below. As described above, the image display device 1 is provided with a transparent film (transmission film 3) inside the transparent case 2, and projects an image on the transparent film. In such an image display device 1, the user sees a character or the like displayed on a transparent film through the transparent case 2.

この場合、ユーザは、ケース2に仕切られることで制限されたケース2内という空間で、その3D環境、すなわち、縦(高さ)・横・奥行きを認識することになる。このため、特に、その空間内に表示されるキャラクター等とケース2との関係から生ずる奥行きを認識することによって、キャラクター等自体も3D(立体的)に見えるといった視覚効果(3D環境効果)を奏する。   In this case, the user recognizes the 3D environment, that is, the vertical (height), the horizontal, and the depth in the space in the case 2 that is limited by being partitioned by the case 2. For this reason, in particular, by recognizing the depth resulting from the relationship between the character and the like displayed in the space and the case 2, there is a visual effect (3D environmental effect) that the character or the like itself appears to be 3D (three-dimensional). .

すなわち、キャラクター等の奥に透明なケース2を視認することで、閉空間内にキャラクター等とその奥側の仕切りが共に視認されることとなり、この結果、同一の空間におけるキャラクター等と透明なケース2との奥行き感に基づいてキャラクター等が立体的に見える。   That is, by visually recognizing the transparent case 2 in the back of the character, the character, etc. and the partition on the back side are both visually recognized in the closed space. As a result, the transparent case with the character in the same space Characters etc. look three-dimensional based on the sense of depth.

これに対し、仮にケース2を無くし、周りに何も無い開放された空間の中で、透明なフィルムに投影されるキャラクター等の画像を見た場合には、周囲の空間が縦・横の認識が強まる一方、奥行きの認識は弱まる。そうすると、このような開放された環境で透明なフィルムに投影されるキャラクター等の画像を見ても、フィルムの存在感が増えるだけで奥行き感を感じにくいことから、既述したような立体的な視覚効果を奏し得ない。   On the other hand, if the case 2 is eliminated and an image of a character or the like projected on a transparent film is seen in an open space with nothing around, the surrounding space is recognized vertically and horizontally. While the depth perception is weakened. Then, even if you look at the images of characters, etc. projected on transparent film in such an open environment, it is difficult to feel the sense of depth just by increasing the presence of the film. There is no visual effect.

また、透明なケース2を通して透明なフィルムを見た場合、透明なフィルムが目立たなくなる。これは、ケース2に透過フィルム3が内接されていることで、透過フィルム3の左右の端部が見えなくなることに起因する。また、透明な物質を含め、前方の物質を通して後方を見ると、当該後方の物質を認識しづらくなる。   Further, when the transparent film is viewed through the transparent case 2, the transparent film becomes inconspicuous. This is because the transmission film 3 is inscribed in the case 2 so that the left and right ends of the transmission film 3 cannot be seen. In addition, when the back is viewed through a front material, including a transparent material, it is difficult to recognize the back material.

これを画像表示装置1に当て嵌めると、例えば、ケース2を正面側から見たときに、ケース2(ケース部材2a)の後方にある透過フィルム3は認識しづらくなる。そうすると、平面状の透過フィルム3の存在が認識されないことで、その透過フィルム3に投影されるキャラクター等は、平面ではない立体物が浮遊するように見える。このような理由からも、ケース2がない場合よりもケース2がある方が、キャラクター等の画像をより立体的に見せることができる。   When this is applied to the image display device 1, for example, when the case 2 is viewed from the front side, the transparent film 3 behind the case 2 (case member 2a) is difficult to recognize. Then, since the presence of the planar transmission film 3 is not recognized, the character projected on the transmission film 3 seems to float a three-dimensional object that is not a plane. For these reasons, the image of the character or the like can be displayed more three-dimensionally when the case 2 is present than when the case 2 is absent.

また、本実施形態の画像表示装置1は、透過フィルム3の下方(下端)に台座221を設け、キャラクター等の足元を透過フィルム3の下端に一致させて表示するようにしている。このようにすると、あたかもキャラクター等が台座221の上に立っているように見え、キャラクター等がまるで質量がある立体物のように錯覚させることができる。   In addition, the image display device 1 of the present embodiment is provided with a base 221 below (lower end) of the transmissive film 3 so that the feet of characters and the like are displayed in alignment with the lower end of the transmissive film 3. In this way, it looks as if the character or the like is standing on the pedestal 221, and the character or the like can be given an illusion as if it were a solid object with mass.

特に、台座221は、表面が視認し易いように模様等を施しているほか、透過フィルム3を跨ぐ正面側の領域と背面側の領域の双方に演出用LED706を配置して発光させるようにしている。これにより、キャラクター等の前後に台座221があることを明確に認識させることができ、ひいては、キャラクター等が、台座221にしっかりと着地した状態で立っているように見せることができる。したがって、このような台座221との関係によっても、透明なケース2内の透過フィルム3に投影されるキャラクター等を実体のある立体物のように見せることができる。   In particular, the pedestal 221 is provided with a pattern or the like so that the surface can be easily seen, and the production LED 706 is arranged in both the area on the front side and the area on the back side to straddle the transparent film 3 so as to emit light. Yes. Thereby, it can be made to recognize clearly that the base 221 exists before and behind a character etc., and, as a result, the character etc. can be shown standing in the state which landed firmly on the base 221. Therefore, the character etc. projected on the transparent film 3 in the transparent case 2 can be made to look like an actual three-dimensional object also by such a relationship with the base 221.

加えて、透過フィルム3に対しては、背面側上部に設けた反射ミラー5からの反射光による投影を行うようにしており、画像の光の一部が透過フィルム3を透過して、台座221上に光の影として映し出されるようにしている。このような影が視認されることによっても、表示対象をより立体的に視認させる効果を奏する。   In addition, for the transmissive film 3, projection is performed by reflected light from the reflection mirror 5 provided on the upper part on the back side, and part of the light of the image is transmitted through the transmissive film 3, so It is projected on top as a shadow of light. Even when such a shadow is visually recognized, there is an effect of visually recognizing the display target.

次に、画像表示装置1に搭載される機器について図8A〜図8Cを参照しながら説明する。図8Aは、上部収容部に設置される機器、図8Bは、柱部に設置される機器、図8Cは、下部収容部に設置される機器の模式図である。   Next, devices mounted on the image display device 1 will be described with reference to FIGS. 8A to 8C. FIG. 8A is a schematic diagram of a device installed in the upper housing part, FIG. 8B is a device installed in the pillar part, and FIG. 8C is a schematic diagram of a device installed in the lower housing part.

なお、ケース2の側面は不透明にしたり、側面部に不透明なフィルムを帖着したりするなどして、側面からのキャラクターの視認性を低下させることで、ユーザが正面側からキャラクターを見るようにしてもよい。また、ここでは、透過フィルム3にプロジェクタからの画像を投影することとしているが、これは、例えば、画像表示装置に例えば水滴等を噴霧できる構成を設けて、噴霧された水滴にプロジェクションを行うというような立体ホログラフィーでキャラクターを投影することとしてもよい。立体ホログラフィー技術を応用することで、より立体感のあるキャラクターを表示することができる。   In addition, the side of Case 2 is made opaque, or an opaque film is attached to the side surface to reduce the visibility of the character from the side, so that the user can see the character from the front side. May be. Here, the image from the projector is projected onto the transmissive film 3. For example, this is because the image display device is provided with a configuration capable of spraying, for example, water droplets, and projection is performed on the sprayed water droplets. It is good also as projecting a character by such a three-dimensional holography. By applying the 3D holography technology, it is possible to display a character with a more 3D effect.

《下部収容部の設置機器》
図8Cに示すように、下部収容部22には、制御ボード701、人感センサ702、赤外線LED703、マイク704、スピーカ705、演出用LED706、赤外線受光部707、ステータスLED708、起動ボタン709、USBハブ710のほか、Wi−Fi(登録商標)モジュールやBluetooth(登録商標)モジュール等が設置されている。
《Installation equipment for lower housing part》
As shown in FIG. 8C, the lower housing portion 22 includes a control board 701, a human sensor 702, an infrared LED 703, a microphone 704, a speaker 705, an effect LED 706, an infrared light receiver 707, a status LED 708, a start button 709, and a USB hub. In addition to 710, a Wi-Fi (registered trademark) module, a Bluetooth (registered trademark) module, and the like are installed.

制御ボード701は、CPU、ROM、RAM、HDMI(登録商標)ポート、LANポート、USBポート、各種入出力ポートなどが搭載された一又は複数の制御チップが搭載され、各種センサ等から入力された情報に基づき、画像、音声を含む様々な出力動作を所定の機器に実行させる。   The control board 701 is equipped with one or a plurality of control chips on which a CPU, ROM, RAM, HDMI (registered trademark) port, LAN port, USB port, various input / output ports and the like are mounted. Based on the information, a predetermined device performs various output operations including images and sounds.

人感センサ702は、赤外線の変化量を検知して人の所在を検出するセンサであり、正面側の左右に設けている。   The human sensor 702 is a sensor that detects the location of a person by detecting the amount of change in infrared rays, and is provided on the left and right sides of the front side.

赤外線LED703は、正面上部に放射状に設けられ、いわゆる赤外線リモコンとして機能する。具体的には、赤外線を周囲に出力することで、テレビや掃除機などの外部の機器の遠隔操作を可能としている。   The infrared LEDs 703 are provided radially on the front upper part and function as a so-called infrared remote controller. Specifically, by outputting infrared rays to the surroundings, it is possible to remotely control an external device such as a television or a vacuum cleaner.

マイク704は、ユーザから発せられる音声を入力する。例えば、マイク704は、正面の下段に1つ設けられる。   The microphone 704 inputs sound emitted from the user. For example, one microphone 704 is provided in the lower part of the front.

スピーカ705は、音声や音楽などの音情報を、増幅器を介して出力する。図8Cに示す例では、スピーカ705は、正面側に設けられているが、後方柱部の左右にステレオ方式で設置されることが好ましい。   The speaker 705 outputs sound information such as voice and music via an amplifier. In the example shown in FIG. 8C, the speaker 705 is provided on the front side, but it is preferable that the speaker 705 be installed in a stereo manner on the left and right of the rear pillar portion.

演出用LED706は、台座221における発光手段である。   The effect LED 706 is a light emitting means in the pedestal 221.

赤外線受光部707は、正面側に設けられ、テレビや照明器具、エアコン、ロボット掃除機等の家電製品のリモコンから、そのリモコンで用いられるリモコン操作に関する赤外線情報を受信する。   The infrared light receiving unit 707 is provided on the front side, and receives infrared information related to a remote control operation used by the remote controller from a remote controller of home appliances such as a television, a lighting fixture, an air conditioner, and a robot cleaner.

ステータスLED708は、画像表示装置1の状態(例えば、電源オン、エラー発生、通信中や、後述する「スリープ状態」、「未召喚状態」、「召喚状態」等)を示す報知手段であって、特定の点滅パターンや発光色等によって各種状態を識別可能に報知する。   The status LED 708 is a notification unit that indicates the state of the image display device 1 (for example, power-on, error occurrence, communication, “sleep state”, “unsummoned state”, “summoned state”, etc. described later). Various states are notified in a distinguishable manner by a specific blinking pattern, emission color, or the like.

起動ボタン709は、画像表示装置1本体の電源のオン/オフを行うための操作手段である。   The start button 709 is an operation unit for turning on / off the power of the main body of the image display apparatus 1.

USBハブ710は、USB機器を複数接続するためのハブである。   The USB hub 710 is a hub for connecting a plurality of USB devices.

Wi−Fi(登録商標)モジュールは、USBハブに接続された無線LANモジュールであり、アクセスポイントとして無線LAN子機にインターネット環境を提供したり、無線LAN子機として他のアクセスポイントを通じてインターネットに接続したりすることができる。   The Wi-Fi (registered trademark) module is a wireless LAN module connected to a USB hub, and provides an Internet environment to a wireless LAN slave unit as an access point, or connects to the Internet through another access point as a wireless LAN slave unit. You can do it.

Bluetooth(登録商標)モジュールは、所定規格に対応したキーボードやマウス、スマートフォン等の通信端末、マイク、スピーカなどの周辺機器と無線通信を可能とする無線通信インタフェースである。   The Bluetooth (registered trademark) module is a wireless communication interface that enables wireless communication with peripheral devices such as a keyboard, a mouse, a communication terminal such as a smartphone, a microphone, and a speaker that comply with a predetermined standard.

《柱部の設置機器》
図8Bに示すように、柱部6には、既述の反射ミラー5に加え、温湿度センサ611、振動センサ612、騒音センサ613が設けられている。
《Pillar installation equipment》
As shown in FIG. 8B, the column portion 6 is provided with a temperature / humidity sensor 611, a vibration sensor 612, and a noise sensor 613 in addition to the reflection mirror 5 described above.

温湿度センサ611は、室内の温度及び湿度を測定し、これらの測定値を入力する。   The temperature / humidity sensor 611 measures indoor temperature and humidity, and inputs these measured values.

振動センサ612は、振動を検知するためのセンサであり、例えば、ピエゾ振動センサが相当する。振動センサ612によって検出される振動としては、地震のような大きな揺れのほか、足音やドアの開け閉めを識別可能な比較的小さな振動がある。   The vibration sensor 612 is a sensor for detecting vibration, and corresponds to, for example, a piezo vibration sensor. The vibration detected by the vibration sensor 612 includes a large vibration such as an earthquake, and a relatively small vibration that can identify footsteps and door opening / closing.

騒音センサ613は、室内の環境音を検出するためのセンサである。騒音センサ613によって検出される環境音としては、例えば、所定の基準音量に基づいて判別されるユーザの生活音(テレビの音を含む)、近所の環境音、騒音がある。   The noise sensor 613 is a sensor for detecting indoor environmental sounds. The environmental sound detected by the noise sensor 613 includes, for example, a user's life sound (including TV sound), a nearby environmental sound, and noise determined based on a predetermined reference volume.

《上部収容部の設置機器》
図8Cに示すように、上部収容部21には、プロジェクタ4、赤外線LED703、光センサ(照度センサ)721及びカメラ722が設けられている。
<< Installation equipment for the upper housing part >>
As shown in FIG. 8C, the upper housing portion 21 is provided with a projector 4, an infrared LED 703, an optical sensor (illuminance sensor) 721, and a camera 722.

プロジェクタ4は、既述したように、反射ミラー5を介して透過フィルム3に画像を投射する。プロジェクタ4から出力される画像には、例えば、様々な漫画やアニメに登場する各キャラクターや実在の人物、物品等の2D画像や3D画像、キャラクターの感情表現を演出する演出用の画像がある。   As described above, the projector 4 projects an image onto the transmissive film 3 via the reflection mirror 5. The images output from the projector 4 include, for example, 2D images and 3D images of characters, real people, articles, etc. appearing in various comics and animations, and images for effects that produce character emotion expressions.

赤外線LED703は、左右にそれぞれ設けられ、上部収容部21に設けられているものと同様、赤外線リモコンとして機能する。   The infrared LEDs 703 are provided on the left and right, respectively, and function as an infrared remote controller, similar to the one provided in the upper housing portion 21.

光センサ(照度センサ)721は、明るさ(照度)を測定するセンサである。   The optical sensor (illuminance sensor) 721 is a sensor that measures brightness (illuminance).

カメラ722は、前方に設けられ、静止画や動画を撮影する撮像手段である。   The camera 722 is an imaging unit that is provided in front and captures a still image or a moving image.

〈機能〉
次に、既述した各機器によって実現される機能について図9及び図10を参照して説明する。図9は、実施形態に係る画像表示装置1の機能ブロック図である。図9に示すように、画像表示装置1は、表示部700と、会話部717と、チャット部718とを備える。
<function>
Next, functions realized by the above-described devices will be described with reference to FIGS. FIG. 9 is a functional block diagram of the image display apparatus 1 according to the embodiment. As shown in FIG. 9, the image display device 1 includes a display unit 700, a conversation unit 717, and a chat unit 718.

表示部700は、キャラクターを表示する機能を有するものである。例えば、前述のプロジェクタ4にキャラクターに係る画像を透過フィルム3に投影させることで、キャラクターを表示する。表示部700は、例えば、プロセッサやグラフィックエンジンなどによって実現されるが、実現の手法はこれに限られるものではない。キャラクターは、アニメ、漫画、小説、コンピュータゲーム、小説などに登場する人物や動物などであるが、これに限られず、オリジナルの創造上の人物であってもよい。また、人物や動物に限らず、個性を有する無機物もキャラクターとしてあり得る。例えば、ロボットなどである。   The display unit 700 has a function of displaying a character. For example, the character is displayed by causing the projector 4 to project an image related to the character onto the transparent film 3. The display unit 700 is realized by, for example, a processor or a graphic engine, but the realization method is not limited to this. The character is a person or animal appearing in an animation, a manga, a novel, a computer game, a novel, or the like, but is not limited thereto, and may be an original creative person. Moreover, not only a person and an animal but the inorganic substance which has individuality can also be a character. For example, a robot.

会話部717は、ユーザと会話する機能を有するものであって、キャラクターがユーザと会話しているように演出する機能を有するものである。会話部717は、例えば、プロセッサにより実現され、予め定められたアルゴリズムに従って、ユーザとの会話を行う。会話部717は、予め記憶している音声の中から、ユーザとの会話の話題を選択して、その音声をスピーカ705から出力し、マイク704から入力されるユーザの音声を解析することで会話を実行する。なお、ここで、キャラクターの音声は予め記憶していることとしたが、これはその限りではなく、キャラクターは音声として合成音声を出力することとしてもよい。   The conversation unit 717 has a function of conversing with the user, and has a function of rendering the character as if talking with the user. The conversation unit 717 is realized by a processor, for example, and performs a conversation with the user according to a predetermined algorithm. The conversation unit 717 selects a topic of conversation with the user from previously stored sounds, outputs the sound from the speaker 705, and analyzes the user's sound input from the microphone 704. Execute. Here, the voice of the character is stored in advance, but this is not the case, and the character may output a synthesized voice as a voice.

チャット部718は、ユーザが保持する通信端末との間で、チャットを実行するものであって、例えば、プロセッサにより実現され、予め定められたアルゴリズムに従って、ユーザとチャットを行う。チャット部718は、ユーザの通信端末と直接無線通信を実行してチャットを行うこととしてもよいし、所定のメッセージングサーバ(チャットサーバ)を介して、チャットを実行することとしてもよい。ここでいうチャットはいわゆるメッセージ(通信文)のやり取りを行うためのものである。チャット部718は、自動で会話の内容を選択して、選択した会話の内容を文字列として、送信するとともに、ユーザの通信端末から送信されたチャットの内容を解析して、解析した内容に応じた話題を選択して応答を生成し、そのメッセージを送信する。   The chat unit 718 executes chat with a communication terminal held by the user. The chat unit 718 is realized by a processor, for example, and chats with the user according to a predetermined algorithm. The chat unit 718 may perform a wireless communication directly with the user's communication terminal to perform a chat, or may perform a chat via a predetermined messaging server (chat server). The chat here is for exchanging so-called messages (communication texts). The chat unit 718 automatically selects the content of the conversation, transmits the selected conversation content as a character string, analyzes the content of the chat transmitted from the user's communication terminal, and responds to the analyzed content. Select a topic and generate a response and send the message.

ここで、会話部717とチャット部718とは互いに連動する。会話部717とチャット部718とが互いに連動するとは、ユーザとの間で会話部717が実行したキャラクター−ユーザ間の会話がチャット部718が実行するチャットの内容に反映され、チャット部718がユーザの通信端末との間で実行したチャットの内容が、会話部717が実行する会話の内容に反映されることをいう。チャットの内容や、会話の内容とは、発言の内容そのものや話題のことである。そして、会話部717とチャット部718とが連動するとは、例えば、会話部が野球に関する会話をユーザとの間で実行された場合に、チャット部が実行する話題に野球に関する話題を含ませる、より正確には、野球に関する話題を実行する可能性を持たせることをいう。会話部717、チャット部718は、下記における制御部71により実現される。   Here, the conversation unit 717 and the chat unit 718 are linked to each other. The fact that the conversation unit 717 and the chat unit 718 are linked to each other means that the character-user conversation performed by the conversation unit 717 with the user is reflected in the contents of the chat performed by the chat unit 718, and the chat unit 718 is the user. The content of the chat executed with the communication terminal is reflected in the content of the conversation executed by the conversation unit 717. The content of chat and the content of conversation are the content of the speech itself and the topic. The conversation unit 717 and the chat unit 718 are linked to each other. For example, when the conversation unit executes a conversation about baseball with a user, the topic about the baseball is included in the topic executed by the chat unit. To be precise, it means having the possibility of executing a topic about baseball. The conversation unit 717 and the chat unit 718 are realized by the control unit 71 described below.

また、画像表示装置1は、図5乃至図7を用いて上述したように少なくとも一部が透光性部材からなるケース2をさらに備えることができる。そして、表示部700は、ケース2内に立設した透光性の平板部材である透過フィルム3と、平板部材である透過フィルム3に、キャラクター画像及び演出用画像を投光する投光装置であるプロジェクタ4と、投光装置であるプロジェクタを介した画像の表示制御する表示処理部713とを有することができる。   In addition, the image display device 1 can further include a case 2 that is at least partially made of a translucent member as described above with reference to FIGS. The display unit 700 is a light-transmitting device that projects a character image and an effect image on the transmission film 3 that is a translucent flat plate member standing in the case 2 and the transmission film 3 that is a flat plate member. A certain projector 4 and a display processing unit 713 that controls display of an image via a projector that is a light projecting device can be provided.

具体的には、画像表示装置1は、図10に示すように、制御部71と、入力部72と、出力部73と、操作部74と、記憶装置75と、通信部76とを備える。この記憶装置75に記憶される画像表示プログラムP1や、会話プログラムP2、チャットプログラムP3が実行されることで、制御部71が取得処理部711、解析部712、表示処理部713、音声出力部714、送信処理部715及びデータ管理部716としての処理を実行することができる。   Specifically, as shown in FIG. 10, the image display device 1 includes a control unit 71, an input unit 72, an output unit 73, an operation unit 74, a storage device 75, and a communication unit 76. By executing the image display program P1, the conversation program P2, and the chat program P3 stored in the storage device 75, the control unit 71 obtains the acquisition processing unit 711, the analysis unit 712, the display processing unit 713, and the voice output unit 714. Processing as the transmission processing unit 715 and the data management unit 716 can be executed.

入力部72は、各種センサによって検出された様々な情報が入力される手段である。入力部72に入力されるデータには、例えば、人感センサ702が人を検知したときに人感センサ702から出力される識別情報、マイク704を介して入力された音声情報、温湿度センサ611によって検出される室内の温度や湿度の情報、振動センサ612が検出した振動の大きさや変化を識別可能な情報、騒音センサ613を介して入力された音量情報、光センサ721を介して入力された照度情報、カメラ722によって撮像された静止画・動画の情報等がある。   The input unit 72 is a means for inputting various information detected by various sensors. The data input to the input unit 72 includes, for example, identification information output from the human sensor 702 when the human sensor 702 detects a person, voice information input via the microphone 704, and a temperature / humidity sensor 611. Information on the room temperature and humidity detected by the sensor, information capable of identifying the magnitude and change of the vibration detected by the vibration sensor 612, volume information input via the noise sensor 613, and input via the optical sensor 721 Illuminance information, still image / moving image information captured by the camera 722, and the like.

出力部73は、所定の命令にもとづいて信号や情報の出力を行う出力手段である。出力部73によって出力される信号や情報には、例えば、赤外線LED703から出力される外部機器の動作を制御するための赤外線信号、スピーカ705を介して出力される音声情報、演出用LED706から発光される光、プロジェクタ4から出力される画像等がある。   The output unit 73 is output means for outputting signals and information based on a predetermined command. Signals and information output by the output unit 73 include, for example, infrared signals for controlling the operation of external devices output from the infrared LED 703, audio information output via the speaker 705, and light emitted from the effect LED 706. Light, images output from the projector 4, and the like.

操作部74は、ユーザによる操作手段であり、例えば、図示しないキーボードやマウス、画像表示装置1に設けられた操作ボタン(ハードキー)や、タッチパネルが相当する。操作部74によって行われる操作には、例えば、起動ボタン709による装置本体の電源のオン/オフや、画像表示装置1をスリープ状態(非召還状態)とアクティブ状態(召還状態)を切り替えるためのボタン等がある。   The operation unit 74 is an operation means by the user, and corresponds to, for example, a keyboard and mouse (not shown), operation buttons (hard keys) provided on the image display device 1, and a touch panel. The operation performed by the operation unit 74 includes, for example, a button for turning on / off the power of the apparatus main body by the start button 709 and switching the image display apparatus 1 between a sleep state (non-summon state) and an active state (summon state). Etc.

記憶装置75は、例えば、画像表示装置1を構成するRAMや、EEPROMやフラッシュメモリ等の不揮発性メモリ等により構成され、画像表示装置1の有する各種機能を実行するためのプログラムやデータを記憶する記憶手段である。記憶装置75に記憶されるデータには、キャラクター等の画像データ751や音声データ752、テレビや照明器具などの外部機器を操作する信号データ753、ユーザの属性情報等に関するユーザデータ754、画像表示装置1がユーザとの間で交わした会話の履歴を示す会話履歴データ755、画像表示装置1がユーザの通信端末との間で実行したチャットの履歴を示すチャット履歴データ756、外部機器のリモコンに関するリモコン情報、カレンダーサイトで登録したカレンダー情報、装置本体や各機器の属性情報、センサから入力した情報、音楽情報、言語データ等がある。また、記憶装置75には、記憶されるプログラムには、後述する各種制御動作を実行するための画像表示プログラムP1の他、ユーザとの間で直接会話を交わすための会話プログラムP2や、ユーザの通信端末との間で(チャットサーバを介して)チャットを実行するためのチャットプログラムP3、音声認識プログラムや人工知能プログラム等がある。   The storage device 75 includes, for example, a RAM that constitutes the image display device 1, a nonvolatile memory such as an EEPROM or a flash memory, and stores programs and data for executing various functions of the image display device 1. It is a storage means. Data stored in the storage device 75 includes image data 751 and voice data 752 such as characters, signal data 753 for operating an external device such as a television and a lighting device, user data 754 regarding user attribute information, and the like, an image display device 1, conversation history data 755 indicating the history of conversations with the user, chat history data 756 indicating the history of chats performed by the image display device 1 with the user's communication terminal, and a remote control related to the remote control of the external device Information, calendar information registered on the calendar site, attribute information of the apparatus main body and each device, information input from sensors, music information, language data, and the like. In addition to the image display program P1 for executing various control operations to be described later, the storage device 75 includes a conversation program P2 for directly communicating with the user, There are a chat program P3 for executing a chat with a communication terminal (via a chat server), a voice recognition program, an artificial intelligence program, and the like.

画像データ751は、画像を表示する表示条件と、当該条件に起因して表示されるキャラクター画像を特定するキャラクター画像情報(第1画像情報)および演出用画像を特定する演出用画像情報(第2画像情報)とが関連付けられるデータである。演出用画像は、キャラクターの感情等を表現するものであって、感情等を表す言葉の文字を含む画像であってもよいし、星型やハート型等のパーティクルを含む画像であってもよい。なお、演出用画像は、必須のものではなく、表示しなくともよい。例えば、所定の確率で表示することとしてもよい。具体的には、例えば、1日で変わるランダムな閾値を設け、演出用画像を表示するタイミングで表示するか否かをその時々でランダム値を算出して、そのランダム値が設定した閾値を超えるか否かで演出用画像を表示してもよい。キャラクター画像情報は、三次元画像の画像情報であることが好ましい。また、演出用画像情報は、状況に応じて、二次元画像の画像情報、又は、三次元画像情報である。   The image data 751 includes display conditions for displaying an image, character image information (first image information) for specifying a character image displayed due to the conditions, and effect image information (second image) for specifying an effect image. Image information). The effect image expresses the character's emotions and the like, and may include an image including characters of words representing the emotion or the like, or an image including particles such as a star shape or a heart shape. . The effect image is not essential and may not be displayed. For example, it may be displayed with a predetermined probability. Specifically, for example, a random threshold value that changes in one day is provided, a random value is calculated at any time to determine whether or not to display an effect image, and the random value exceeds the set threshold value An effect image may be displayed depending on whether or not. The character image information is preferably image information of a three-dimensional image. Further, the effect image information is image information of a two-dimensional image or three-dimensional image information depending on the situation.

図11Aに示す画像データ751の例では、環境信号として「音声A」が検出された場合、「キャラクター画像A」と「演出用画像A」とが表示されることが規定される。例えば、音声Aが「おはよう」という言葉であるとき、キャラクター画像Aとして、キャラクターが「おはよう」と言う様子が表されるような画像が表示されるとともに、演出用画像Aとして、朝のさわやかな演出をする画像が表示される。また、演出用画像Aには、「おはよう」の文字が表示される吹き出しを含んでもよい。   In the example of the image data 751 shown in FIG. 11A, it is defined that “character image A” and “effect image A” are displayed when “sound A” is detected as the environmental signal. For example, when the voice A is the word “good morning”, an image that shows the character saying “good morning” is displayed as the character image A, and the morning image is refreshed as the production image A An image that produces an effect is displayed. Further, the effect image A may include a speech balloon displaying the characters “Good morning”.

環境信号として「動作C」が検出された場合、「キャラクター画像C」と「演出用画像C」とが表示される。例えば、動作Cが「ユーザの帰宅」であるとき、キャラクター画像Cとして、キャラクターが「おかえり」と言う様子が表されるような画像が表示されるとともに、演出用画像Cとして、帰宅を迎えるような演出をする画像が表示される。また、演出用画像Cには、「おかえり」の文字が表示される吹き出しを含んでもよい。   When “motion C” is detected as the environmental signal, “character image C” and “effect image C” are displayed. For example, when the action C is “user's return home”, an image that shows the character saying “return” is displayed as the character image C, and the home screen is presented as the production image C. An image that produces a special effect is displayed. Further, the effect image C may include a balloon displaying the characters “return”.

「時刻D」のタイミングでは、「キャラクター画像D」と「演出用画像D」とが表示される。例えば、時刻Dとして、目覚ましの時間として「午前6時」がセットされているとき、午前6時になると、キャラクター画像Dとして、キャラクターがユーザを起こすような様子が表される画像が表示されるとともに、演出用画像Dとして、目が覚めるような画像を表示してもよい。また、演出用画像Dには、「朝だよ」の文字が表示される吹き出しを含んでもよい。   At the timing of “time D”, “character image D” and “effect image D” are displayed. For example, when “6 am” is set as the alarm time for time D, when it is 6 am, an image showing a character waking up the user is displayed as character image D. As the effect image D, an image that wakes up may be displayed. In addition, the effect image D may include a balloon displaying the characters “It's morning”.

「信号E」を受信したタイミングでは、「キャラクター画像E」と「演出用画像E」とが表示される。例えば、信号Eが、ユーザの通信端末から送信される「ハブラシ」の信号であるとき、この信号Eを受信すると、キャラクター画像Eとして、キャラクターが歯磨きをする様子が表される画像が表示されるとともに、演出用画像Eとして、歯磨きにふさわしい、気分爽快な画像を表示してもよい。また、演出用画像Eには、「はみがき中」の文字を含んでもよい。   At the timing when “signal E” is received, “character image E” and “effect image E” are displayed. For example, when the signal E is a “habrush” signal transmitted from the user's communication terminal, when the signal E is received, an image representing a character brushing teeth is displayed as the character image E. At the same time, as the effect image E, a refreshing image suitable for tooth brushing may be displayed. In addition, the effect image E may include a character “in brushing”.

また、画像データ751では、環境情報とともに時刻情報を含む表示条件が規定されてもよい。例えば、画像データ751は、環境情報が同一であっても、午前と午後とでは、表示されるキャラクター画像及び演出用画像が異なるように規定することができる。   In the image data 751, display conditions including time information as well as environment information may be defined. For example, even if the environment information is the same, the image data 751 can be defined such that the displayed character image and effect image are different between morning and afternoon.

さらに、画像データ751では、環境情報とともに受信信号を含む表示条件が規定されてもよい。   Further, the image data 751 may define display conditions including a reception signal together with environment information.

音声データ752は、音声を出力する出力条件と、当該条件に起因して出力される音声を特定する情報とが関連付けられるデータである。   The sound data 752 is data in which an output condition for outputting sound is associated with information for specifying sound output due to the condition.

図11Bに示す音声データ752の例では、環境信号として「音声A」が検出された場合、「音声A」が出力されることが規定される。例えば、音声Aが「おはよう」という言葉であるとき、音声Aとして、キャラクターの声で「おはよう」と出力される。   In the example of the audio data 752 illustrated in FIG. 11B, it is defined that “audio A” is output when “audio A” is detected as the environment signal. For example, when the voice A is the word “good morning”, “good morning” is output as the voice A in the voice of the character.

環境信号として「動作C」が検出された場合、「音声C」が出力される。例えば、動作Cが「ユーザの帰宅」であるとき、音声Cとして、キャラクターの声で「おかえり」と出力される。   When “operation C” is detected as the environmental signal, “voice C” is output. For example, when the action C is “user's return home”, “Okaeri” is output as the voice C in the voice of the character.

「時刻D」のタイミングでは、音声Dとして、キャラクターの声で、「6時だよ」と出力される。   At the timing of “time D”, “6 o'clock” is output as voice D in the voice of the character.

「信号E」を受信したタイミングでは、音声Eとして、キャラクターが歯磨きをする音や、うがいをする音が出力される。   At the timing when the “signal E” is received, a sound that the character brushes and gargles is output as the sound E.

また、音声データ752では、環境情報とともに時刻情報を含む出力条件が規定されてもよい。例えば、音声データ752は、環境情報が同一であっても、午前と午後とでは出力される音声が異なるように規定することができる。   In the audio data 752, an output condition including time information as well as environment information may be defined. For example, the audio data 752 can be defined so that the output audio is different between morning and afternoon even if the environmental information is the same.

さらに、音声データ752では、環境情報とともに受信信号を含む出力条件が規定されてもよい。   Furthermore, in the audio data 752, an output condition including a reception signal together with environment information may be defined.

信号データ753は、家電等の外部の電気機器を操作する操作信号を出力する条件と、当該条件に起因して送信される操作信号とが関連付けられるデータである。   The signal data 753 is data in which a condition for outputting an operation signal for operating an external electric device such as a home appliance is associated with an operation signal transmitted due to the condition.

図11Cに示す信号データ753の例では、環境信号として「音声F」が検出された場合、「操作信号F」が出力されることが規定される。例えば、音声Fが「テレビ消して」という言葉であるとき、テレビの電源をつける操作信号Fが出力される。   In the example of the signal data 753 illustrated in FIG. 11C, it is defined that “operation signal F” is output when “voice F” is detected as the environmental signal. For example, when the voice F is a word “Turn off the TV”, an operation signal F for turning on the TV is output.

なお、図12に示すように、同一の言葉や行動に対しても、日時に応じて出力される画像や音声は異なっていてもよい。例えば、「おはよう」の音声が検出された場合、平日朝であれば「おはよう 今日も頑張ろうね!」と一日を励ます音声を出力し、休日朝であれば「おはよう 今日はゆっくりできるね」と平日の疲れを労わるような音声を出力する。一方、夜であれば、「なに言ってるの? もうこんな時間だよ」の音声を出力する。したがって、日常生活で不自然な機械的なやり取りを防止することができる。これにより、ユーザはキャラクターをより身近に感じることができる。   In addition, as shown in FIG. 12, the image and audio | voice output according to a date may differ also with respect to the same word and action. For example, if a voice of “Good morning” is detected, a voice that encourages the day will be output if it is a weekday morning, “Good morning today!” If it is a holiday morning, “Good morning, I can do it slowly” And output a sound that makes you tired of weekdays. On the other hand, at night, it outputs a voice saying "What are you talking about? Therefore, it is possible to prevent unnatural mechanical communication in daily life. Thereby, the user can feel the character closer.

ユーザデータ754は、ユーザのプロフィール、属性、嗜好等のユーザに関する種々の情報を有する。ユーザデータ754において、ユーザの氏名を有することで、画像表示装置1は、例えば、ユーザの名前を音声で出力することができる。このとき、氏名だけでなくニックネーム等を登録してもよい。これにより、キャラクターがユーザの名前を呼ぶようにすることが可能となる。したがって、ユーザは、キャラクターに親しみを感じ、また、より身近に感じることができる。   The user data 754 includes various information related to the user such as the user profile, attributes, and preferences. Having the user's name in the user data 754 allows the image display device 1 to output the user's name by voice, for example. At this time, not only the name but also a nickname may be registered. This allows the character to call the user's name. Therefore, the user can feel familiar with the character and feel closer to him.

ユーザデータ754において、ユーザの住所や会社の住所を入力することで、画像表示装置1は、例えば、ユーザの行動範囲に関する情報をインターネット等を利用して取得し、音声や画像で出力することができる。これにより、キャラクターが、ユーザに様々な情報を知らせてくれるようにすることが可能となる。したがって、ユーザは、キャラクターに親しみを感じ、かつ、より身近に感じることができる。   By inputting the user's address or company address in the user data 754, the image display device 1 can acquire information on the user's action range using the Internet or the like, and output the information by voice or image, for example. it can. As a result, the character can inform the user of various information. Therefore, the user can feel familiar with the character and feel closer to him.

ユーザデータ754において、ユーザの生年月日を入力することで、画像表示装置1は、例えば、ユーザの誕生日に、誕生日を祝う画像や音声を出力することができる。これにより、キャラクターが、ユーザの誕生日を祝うようにすることが可能となる。これにより、ユーザはキャラクターに親しみを感じ、かつ、より身近に感じることができる。   By inputting the date of birth of the user in the user data 754, the image display device 1 can output an image or sound that celebrates the birthday, for example, on the birthday of the user. This allows the character to celebrate the user's birthday. As a result, the user can feel familiar with the character and feel closer to him.

ユーザデータ754において、ユーザの携帯電話の電話番号を入力することで、画像表示装置1は、例えば、ユーザが外出中に、携帯電話に電話をかけるようにすることができる。これにより、ユーザは外出先において、家で待つキャラクターから電話を受けたような状態とすることが可能となる。これにより、ユーザは、キャラクターに親しみを感じ、かつ、より身近に感じることができる。   By inputting the user's mobile phone number in the user data 754, the image display device 1 can make a call to the mobile phone while the user is out, for example. Thereby, the user can be in a state where he / she has received a call from a character waiting at home. As a result, the user can feel familiar with the character and feel closer to him.

その他、ユーザデータ754は、好きなアニメや漫画、小説、ゲーム、映画、好きなキャラクター、趣味、興味のあるもの、体重、身長、職業等の情報を有することができる。画像表示装置1は、このようなユーザに関する情報に基づいて、ユーザの興味のある話題から画像を表示したり、音声を出力したりすることが可能となる。また、このような情報は、アンケート等の結果や、ユーザが利用したSNS(ソーシャルネットワーキングサービス)の履歴等から生成することができる。ここでいうアンケートとは、画像表示装置1のキャラクターがユーザに対して「○○は好き?」とかいった質問を会話やチャットを通じて行うものであってもよいし、あるいは、時々質問リストのようなデータにユーザが記入するものであってもよい。前者の場合、質問内容とそれに対するユーザからの回答の文字列を対応付けて、ユーザデータ754の一部として、記憶しておくことで、以降においてユーザ好みの話題を選択することができる。   In addition, the user data 754 can include information such as favorite anime, manga, novel, game, movie, favorite character, hobby, interest, weight, height, occupation, and the like. The image display device 1 can display an image from a topic that the user is interested in or output a sound based on such information about the user. Further, such information can be generated from a result of a questionnaire or the like, a history of SNS (social networking service) used by the user, or the like. The questionnaire referred to here may be that the character of the image display device 1 asks the user a question such as “Do you like XX?” Through conversation or chat, or sometimes a question list. It is also possible for the user to fill in various data. In the case of the former, the user's favorite topic can be selected thereafter by associating the question content with the character string of the answer from the user and associating it with it as part of the user data 754.

会話履歴データ755は、画像表示装置1のキャラクターがユーザとの間で直接交わした会話の内容に関する履歴情報である。図13は、会話履歴データ755の一具体例を示すデータ概念図である。図13に示すように、会話履歴データ755は、会話を行ったものを示す情報であってキャラクター側の発話かユーザ側の発話かを示す発話者情報901と、発話された日時を示す日時情報902と、会話の具体的内容を示す会話内容情報903と、が対応付けられた情報である。例えば、図13の例で言えば、キャラクターは、「2016年7月10日、18時30分10秒」に、「今日、野球中継があるね」と話しかけているのに対し、ユーザが、「2016年7月10日、18時32分20秒」に、「そうなんだ?教えてくれてありがとう」と答えていることがわかる。なお、ユーザについての会話内容情報903は、入力された音声に対して、解析部712が実行した音声認識の結果のテキストデータが記憶される。なお、会話内容情報903は、会話の内容全てを文字列にした情報であってもよいし、会話の内容から、キーワードをピックアップした情報であってもよい。例えば、図13の例でいえば、「Aチームが好きかな」という会話内容であれば、「Aチーム、好き」というような組み合わせの情報を会話内容情報903として記憶しておいてもよい。この場合、画像表示装置1が選択するキーワードは、会話文中の名詞を基準に選択することとしてもよいし、ユーザの感情を表す語があれば、それをピックアップして記憶することとしてもよい。会話履歴データ755が記憶装置75に記憶されていることにより、画像表示装置1は、過去の会話の内容を認識することができるとともに、その後の会話やチャットの話題に反映することができる。会話履歴データ755は、画像表示装置1が表示するキャラクターとユーザとの間で会話が成されるごとに、制御部71により追加更新される。   The conversation history data 755 is history information regarding the contents of conversations directly exchanged between the character of the image display device 1 and the user. FIG. 13 is a data conceptual diagram showing a specific example of the conversation history data 755. As shown in FIG. 13, the conversation history data 755 is information indicating what the conversation has been performed, and is speaker information 901 indicating whether the character side utterance or the user side utterance, and date / time information indicating the date and time when the utterance was performed. 902 is information associated with conversation content information 903 indicating the specific content of the conversation. For example, in the example of FIG. 13, the character is talking to “July 10, 2016, 18:30:10” saying “There is a baseball broadcast today,” whereas the user It can be seen that “July 10, 2016, 18:32:20”, “Yes, thank you for telling me”. Note that the conversation content information 903 for the user stores text data as a result of speech recognition performed by the analysis unit 712 for the input speech. Note that the conversation content information 903 may be information in which the entire conversation content is converted into a character string, or may be information obtained by picking up a keyword from the conversation content. For example, in the example of FIG. 13, if the conversation content is “Do you like Team A”, combination information such as “Team A, likes” may be stored as the conversation content information 903. In this case, the keyword selected by the image display device 1 may be selected based on a noun in the conversation sentence, or if there is a word representing the user's emotion, it may be picked up and stored. Since the conversation history data 755 is stored in the storage device 75, the image display apparatus 1 can recognize the contents of the past conversation and can reflect the contents of the subsequent conversation or chat. The conversation history data 755 is additionally updated by the control unit 71 every time a conversation is made between the character displayed by the image display device 1 and the user.

チャット履歴データ756は、画像表示装置1のキャラクターが、ユーザが保持する通信端末との間で実行したチャットの内容に関する履歴情報である。図14は、チャット履歴データ756の一具体歴を示すデータ概念図である。図14に示すように、チャット履歴データ756は、チャットで発言をした側を示す情報であって、ユーザ側の発言かキャラクター側の発言かを示す発言者情報1001と、チャット上でその発言がされた日時を示す日時情報1002と、発言したチャットの内容を示す文字列であるチャット内容情報1003とが対応付けられた情報である。例えば、図14の例で言えば、キャラクターは、「2016年7月2日、19時39分21秒」に、「今、何してる?」とチャットで質問しているのに対し、ユーザが、「2016年7月2日、19時40分30秒」に、「神宮球場で、野球の試合見てるよ」と答えていることがわかる。なお、チャット内容情報1003は、チャットの内容全てを文字列にした情報であってもよいし、チャットの内容から、キーワードをピックアップした情報であってもよい。例えば、図14の例でいえば、「神宮球場で、野球の試合見てるよ」というチャット内容から、「野球」というキーワードのみを記憶しておいてもよいし、「a選手が好きかな」というチャット内容であれば、「a選手、好き」というような組み合わせのキーワードをチャット内容情報1003として記憶しておいてもよい。この場合、画像表示装置1が選択するキーワードは、チャット文中の名詞を基準に選択することとしてもよいし、ユーザの感情を表す語があれば、それをピックアップして記憶することとしてもよい。チャット履歴データ756が記憶装置75に記憶されていることにより、画像表示装置1は、過去のチャットの内容を認識することができるとともに、その後のチャットや会話の話題に反映することができる。チャット履歴データ756は、画像表示装置1が表示するキャラクターとユーザとの間でチャットが成されるごとに、制御部71により追加更新される。   The chat history data 756 is history information related to the contents of the chat executed by the character of the image display device 1 with the communication terminal held by the user. FIG. 14 is a data conceptual diagram showing a specific history of chat history data 756. As shown in FIG. 14, chat history data 756 is information indicating the side that has made a statement in chat, and has speaker information 1001 indicating whether it is a user side statement or a character side statement. This is information in which date / time information 1002 indicating the date and time of the chat is associated with chat content information 1003 that is a character string indicating the content of the chat. For example, in the example of FIG. 14, the character is asking the question “What are you doing now?” On “July 2, 2016, 19:39:21”, whereas the user However, it can be seen that he answered “I am watching a baseball game at Jingu Stadium” on July 2, 2016, 19:40:30. Note that the chat content information 1003 may be information in which the entire chat content is converted into a character string, or may be information obtained by picking up a keyword from the chat content. For example, in the example of FIG. 14, only the keyword “baseball” may be stored from the chat content “I am watching a baseball game at Jingu Stadium,” or “Do you like a player?” For chat contents, a combination keyword such as “a player, likes” may be stored as the chat contents information 1003. In this case, the keyword selected by the image display device 1 may be selected on the basis of a noun in the chat sentence. If there is a word representing the user's emotion, it may be picked up and stored. Since the chat history data 756 is stored in the storage device 75, the image display device 1 can recognize the contents of the past chat and can reflect the contents of the subsequent chat and conversation. The chat history data 756 is additionally updated by the control unit 71 every time a chat is performed between the character displayed on the image display device 1 and the user.

ランダム会話データ757は、キャラクターがランダムに会話またはチャットを実行する場合の話題の選択に係るデータである。図15に示すようにランダム会話データ757は、キーワード1101と、条件1102と、会話orチャット内容1103とが対応付けられた情報である。キーワード1101は、会話のトリガとなるワードであって、制御部71が会話履歴データ755及びチャット履歴データ756に記録されている会話履歴及びチャット履歴中の話題と照合するための情報である。会話履歴とチャット履歴の中に含まれているキーワードが、キーワード1101のいずれかに合致する場合に、会話orチャット内容1103の内容が音声で出力または、チャットの文章として出力される。条件1102は、対応する会話orチャット内容をキャラクターが話す又はチャットするためにクリアしておく必要のある条件のことであり、条件がない場合も含む。条件としては、特定の天候(晴れ、雨、雪、…)であったり、特定の音声が入力されることであったり、特定の情報(例えば、ある番組が放送されること)が入力された情報(例えば、テレビの番組情報)に含まれていることであったり、様々である。会話orチャット内容1103は、会話履歴またはチャット履歴に含まれるキーワードがキーワード1101に一致し、かつ、条件1102が合致する場合に、実行する会話またはチャットの実内容を示す情報である。なお、制御部71により複数の会話orチャット内容が検出できた場合には、その中のいずれかをランダムに選択することとしてもよいし、選択された会話orチャット内容の会話に含まれるキーワードのユーザの嗜好との合致率の高いものを選択することとしてもよいし、その前の1以上の会話との整合性の高いものを選択することとしてもよい。ランダム会話データが記憶されていることにより、制御部71は、会話部またはチャット部として、それぞれの過去の履歴を反映した次の会話又はチャットを行うことができる。   The random conversation data 757 is data related to selection of a topic when a character performs conversation or chat at random. As shown in FIG. 15, the random conversation data 757 is information in which a keyword 1101, a condition 1102, and a conversation or chat content 1103 are associated with each other. The keyword 1101 is a word serving as a conversation trigger, and is information for the control unit 71 to collate with the conversation history recorded in the conversation history data 755 and the chat history data 756 and the topic in the chat history. When the keyword included in the conversation history and the chat history matches any of the keywords 1101, the content of the conversation or chat content 1103 is output by voice or as a chat text. The condition 1102 is a condition that must be cleared in order for the character to speak or chat the corresponding conversation or chat content, and includes a case where there is no condition. Conditions include specific weather (sunny, rain, snow, ...), specific audio input, or specific information (for example, a program being broadcast) It is included in information (for example, TV program information) or various. The conversation or chat content 1103 is information indicating the actual content of the conversation or chat to be executed when the conversation history or the keyword included in the chat history matches the keyword 1101 and the condition 1102 matches. In addition, when a plurality of conversations or chat contents can be detected by the control unit 71, any one of them may be selected at random, or the keywords included in the conversation of the selected conversation or chat contents may be selected. It is good also as selecting a thing with high matching rate with a user preference, and good also as selecting a thing with high consistency with one or more previous conversations. By storing the random conversation data, the control unit 71 can perform the next conversation or chat reflecting each past history as the conversation unit or the chat unit.

通信部76は、有線又は無線により、外部の機器との間で双方向又は片方向のデータ通信処理を行う通信手段である。例えば、インターネットに接続された機器との間で、LANポートに接続されたLANケーブルやWi−Fi(登録商標)モジュールに基づく無線を介して、各種データの送受信が可能である。例えば、通信部76は、ユーザの通信端末から送信される信号を受信することができる。また、通信部76は、天気情報サイトから受信可能な天気情報、カレンダーサイトに登録したカレンダー情報などのインターネットを介して取得可能な情報がある。また、通信部76は、図示していないネットワーク上のチャットサーバを介して、ユーザの通信端末との間でチャット通信を実行することができる。   The communication unit 76 is a communication unit that performs bidirectional or one-way data communication processing with an external device by wire or wireless. For example, various data can be transmitted to and received from a device connected to the Internet via a wireless connection based on a LAN cable connected to a LAN port or a Wi-Fi (registered trademark) module. For example, the communication unit 76 can receive a signal transmitted from a user communication terminal. The communication unit 76 includes information that can be acquired via the Internet, such as weather information that can be received from the weather information site and calendar information registered in the calendar site. Moreover, the communication part 76 can perform chat communication between a user's communication terminal via the chat server on the network which is not shown in figure.

制御部71は、画像表示プログラムP1に従って、取得処理部711、解析部712、表示処理部713、音声出力部714、送信処理部715、データ管理部716、としての制御動作を行うことができる。   The control unit 71 can perform control operations as the acquisition processing unit 711, the analysis unit 712, the display processing unit 713, the audio output unit 714, the transmission processing unit 715, and the data management unit 716 according to the image display program P1.

取得処理部711は、マイク704、カメラ722、人感センサ702、光センサ721、温湿度センサ611、振動センサ612、騒音センサ613等のすくなくともいずれかから検出された信号を取得する。   The acquisition processing unit 711 acquires a signal detected from at least one of the microphone 704, the camera 722, the human sensor 702, the optical sensor 721, the temperature / humidity sensor 611, the vibration sensor 612, the noise sensor 613, and the like.

解析部712は、取得処理部711が取得した環境情報を解析する。例えば、解析部712は、取得処理部711がマイク704から検出した環境信号から、ユーザが発した言葉を解析する。解析部712は、例えば、記憶装置75に予め登録される言語モデル及び音声モデルを用いて、マイク704が取得した音声から、ユーザが発した言葉を特定するようにできる。言語モデルとは、画像表示装置1が使用する言語において使用される言語の単語情報の集合や、各種の言い回しを登録したデータである。また、音声モデルは、使用する言語の音声信号のモデルのことであり、例えば、周波数特性を示す信号のことである。具体的には、「あ」、「い」、…、「a」、「b」といった一語一語の音声の標準的なモデルのことである。これにより、入力されたユーザの音声をパターンマッチングにより特定することができる。また、これにより、画像表示装置1は、ユーザが発した言葉に応じて定められる画像を表示し、言葉に応じて定められる音声を出力することができる。ここで、記憶装置75において、画像表示装置1の持ち主であるユーザに関するユーザデータとして声紋情報を有し、持ち主ユーザの声を認識することができるようにしてもよい。   The analysis unit 712 analyzes the environment information acquired by the acquisition processing unit 711. For example, the analysis unit 712 analyzes words uttered by the user from the environment signal detected by the acquisition processing unit 711 from the microphone 704. For example, the analysis unit 712 can specify a word uttered by the user from the voice acquired by the microphone 704 using a language model and a voice model registered in advance in the storage device 75. The language model is data in which a set of word information of languages used in the language used by the image display apparatus 1 and various wordings are registered. The speech model is a speech signal model of a language to be used, for example, a signal indicating frequency characteristics. Specifically, it is a standard model of a word-by-word speech such as “A”, “I”,..., “A”, “b”. Thereby, the input user's voice can be specified by pattern matching. Thereby, the image display device 1 can display an image determined according to the words uttered by the user, and output a sound determined according to the words. Here, the storage device 75 may have voiceprint information as user data relating to the user who is the owner of the image display device 1 so that the voice of the owner user can be recognized.

なお、解析部712が、ユーザが発した言葉を解析できないとき、画像表示装置1は、「もう一度言って」等、通常の機械的な音声を出力してユーザに繰り返しを要求するのではなく、別の方法で反応する。例えば、画像表示装置1は、「もっと近くでしゃべって」、「優しく言って」の音声を出力して繰り返すことを誘導する。また、画像表示装置1は、「ふーん」、「そっかー」、「なるほどー」等、適当な相槌の音声を出力してもよいし、「んー」、「えっとー」のようなフィラー表現の音声を出力してもよい。   In addition, when the analysis unit 712 cannot analyze the words uttered by the user, the image display device 1 does not output normal mechanical audio such as “say again” and request the user to repeat, React in another way. For example, the image display apparatus 1 outputs a voice of “speak closer” and “speak gently” to induce repetition. Further, the image display device 1 may output a sound of appropriate consonance such as “Fun”, “So-ka”, “Naru-do”, or “N-”, “Et-”, etc. Voice of filler expression may be output.

また、解析部712は、取得処理部711がカメラ722から検出した環境信号から、ユーザの位置や動作を解析する。具体的には、解析部712は、画像解析として、画像から人の顔を検出することができる。また、記憶装置75において、持ち主ユーザに関するユーザデータとしてユーザの顔情報を有し、検出した人の顔から、持ち主ユーザの顔を認識することができるようにしてもよい。   Further, the analysis unit 712 analyzes the position and operation of the user from the environment signal detected by the acquisition processing unit 711 from the camera 722. Specifically, the analysis unit 712 can detect a human face from an image as image analysis. In addition, the storage device 75 may have user face information as user data related to the owner user, and recognize the owner user's face from the detected person's face.

画像表示装置1は、持ち主ユーザを特定することで、キャラクターが持ち主ユーザに対しては親しげに接するような画像を表示したり音声を出力したりすることが可能となる。また反対に、画像表示装置1は、持ち主以外の者に対しては、よそよそしく接したり、自己紹介等の挨拶をしたりするような画像を表示したり音声を出力したりすることができる。これにより、ユーザは、画像表示装置1で表示されるキャラクターに対し、より親近感を覚えることができる。   By specifying the owner user, the image display device 1 can display an image that makes the character feel close to the owner user or output a sound. On the other hand, the image display apparatus 1 can display an image or output a sound that makes contact with a person other than the owner, or gives a greeting such as self-introduction. As a result, the user can feel closer to the character displayed on the image display device 1.

また、解析部712は、解析されたユーザが発した言葉、ユーザの位置や動作に加え、他のセンサ等で検出された他の環境情報やボタン操作を合わせて一つの環境情報とした結果を生成してもよい。例えば、音声や画像に加え、人感センサの検出結果から、後述する外出や帰宅の判定をすることができる。   Further, the analysis unit 712 combines the results of the analyzed user's words, the user's position and operation, and other environment information and button operations detected by other sensors into one environment information. It may be generated. For example, it is possible to determine whether to go out or go home, which will be described later, from the detection result of the human sensor in addition to the sound and image.

表示処理部713は、記憶装置75から画像データ751を読み出し、この画像データ751から取得処理部711が取得した環境信号に対応する表示条件と関連付けられるキャラクター画像情報及び演出用画像情報を選択する。また、表示処理部713は、選択したキャラクター画像情報及び演出用画像情報と対応する画像を、出力部73に出力して表示させる。また、表示処理部713は、環境情報及び時刻情報に応じて、キャラクター画像及び演出用画像を表示してもよい。さらに、表示処理部713は、環境情報及び受信信号に応じて、キャラクター画像及び演出用画像を表示してもよい。   The display processing unit 713 reads out the image data 751 from the storage device 75 and selects character image information and effect image information associated with the display condition corresponding to the environmental signal acquired by the acquisition processing unit 711 from the image data 751. In addition, the display processing unit 713 outputs an image corresponding to the selected character image information and effect image information to the output unit 73 for display. The display processing unit 713 may display a character image and an effect image according to the environment information and the time information. Further, the display processing unit 713 may display the character image and the effect image according to the environment information and the received signal.

音声出力部714は、記憶装置75から音声データ752を読み出し、この音声データ752から取得処理部711が取得した環境信号に対応する出力条件と関連付けられる音声情報とを選択する。また、音声出力部714は、選択した音声情報と対応する音声を、出力部73に出力する。また、音声出力部714は、環境情報及び時刻情報に応じて、音声を出力してもよい。さらに、音声出力部714は、環境情報及び受信信号に応じて、音声を出力してもよい。   The audio output unit 714 reads out the audio data 752 from the storage device 75 and selects audio information associated with the output condition corresponding to the environmental signal acquired by the acquisition processing unit 711 from the audio data 752. In addition, the audio output unit 714 outputs audio corresponding to the selected audio information to the output unit 73. Moreover, the audio | voice output part 714 may output an audio | voice according to environmental information and time information. Furthermore, the audio output unit 714 may output audio according to the environment information and the received signal.

送信処理部715は、記憶装置75から信号データ753を読み出し、この信号データ753から取得処理部711が取得した環境信号と対応付けられる操作信号を選択する。また、送信処理部715は、読み出した操作信号を、出力部73に出力する。   The transmission processing unit 715 reads out the signal data 753 from the storage device 75 and selects an operation signal associated with the environmental signal acquired by the acquisition processing unit 711 from the signal data 753. In addition, the transmission processing unit 715 outputs the read operation signal to the output unit 73.

データ管理部716は、画像表示装置1に内蔵される時計又は外部の時計から、時刻情報を取得する。時刻に応じて表示する画像や音声が定められるとき、この表示及び出力スケジュールに従い、表示処理部713及び音声出力部714に制御信号を出力する。   The data management unit 716 acquires time information from a clock built in the image display device 1 or an external clock. When an image or sound to be displayed is determined according to time, a control signal is output to the display processing unit 713 and the sound output unit 714 according to the display and output schedule.

また、データ管理部716は、画像表示装置1の起動時に天気情報サイトにアクセスして、その日の天気情報を取得して記憶装置75に記憶させる。さらに、データ管理部716は、ユーザのスケジュールが登録されているカレンダーサイトに定期的にアクセスして、これにより得られる最新のカレンダー情報を記憶装置75に記憶させることができる。また、データ管理部716は、テレビや照明などの外部機器のリモコンから当該外部機器に関するリモコン情報(赤外線情報)を赤外線受光部707により受信させて記憶装置75に記憶(学習)させることができ、このリモコン情報に基づいて、外部機器を操作するための赤外線情報を赤外線LED703から発信させることができる。なお、データ管理部716は、様々なネットワーク上のデータにアクセスし、ユーザとの会話やチャットに用いることができる様々なデータを収集することもできる。   In addition, the data management unit 716 accesses the weather information site when the image display device 1 is activated, acquires the weather information of the day, and stores the weather information in the storage device 75. Furthermore, the data management unit 716 can periodically access the calendar site where the user's schedule is registered, and store the latest calendar information obtained thereby in the storage device 75. In addition, the data management unit 716 can receive remote control information (infrared information) related to the external device from the remote control of the external device such as a television or lighting by the infrared light receiving unit 707 and store (learn) it in the storage device 75. Based on the remote control information, infrared information for operating an external device can be transmitted from the infrared LED 703. Note that the data management unit 716 can also access data on various networks and collect various data that can be used for conversations and chats with users.

〈動作〉
画像表示装置1では、「スリープ状態」、「未召喚状態」、「召喚状態」等の各状態に応じて、画像の表示や音声の出力等の処理を実行する。図16に示すように、画像表示装置1は、コンセントが未接続の状態(S1)において、電源ボタン(図示せず)は有効ではないが、コンセントが挿されてコンセントが接続の状態になると(S2)、電源ボタンが有効になる。
<Operation>
In the image display device 1, processing such as image display and sound output is executed in accordance with each state such as “sleep state”, “unsummoned state”, and “summoned state”. As shown in FIG. 16, in the image display apparatus 1, the power button (not shown) is not effective in the state where the outlet is not connected (S <b> 1), but when the outlet is inserted and the outlet is connected ( S2) The power button is enabled.

《未召喚状態》
コンセントが接続された状態(S2)で電源ボタンが押下されると、制御部71が起動する(S3)。この起動により、例えば、起動画面が表示され、「未召喚状態」に移行する(S4)。「未召喚状態」は、画像表示装置1に電源は入っており、プロジェクタ4は起動しているものの、キャラクター画像は表示されておらず、未召喚画像が表示される状態である。また、未召喚状態では、プロジェクタ4は起動しているものの、スピーカ705やカメラ722等は起動しておらず、環境信号を検出することはできない。画像表示装置1は、未召喚状態では、ステータスLED708が点灯している。
《Unsummoned》
When the power button is pressed while the outlet is connected (S2), the control unit 71 is activated (S3). With this activation, for example, an activation screen is displayed, and the process proceeds to the “unsummoned state” (S4). The “unsummoned state” is a state in which the image display device 1 is turned on and the projector 4 is activated, but no character image is displayed and an unsummoned image is displayed. In the unsummoned state, the projector 4 is activated, but the speaker 705, the camera 722, etc. are not activated, and an environmental signal cannot be detected. In the image display device 1, the status LED 708 is lit when not summoned.

《召喚状態》
未召喚状態(S4)でタッチボタン26が長押しされると、「召喚状態」に移行する(S5)。タッチボタン26が長押しされるとは、所定時間以上(例えば、3秒以上)、ユーザにタッチボタン26が触れられることをいう。この召喚状態が、画像表示装置1における特徴的な画像の表示や音声の出力の処理が実行される状態である。召喚状態は、画像表示装置1は、プロジェクタ4が起動しておりキャラクター画像が表示されるとともに、スピーカ705、カメラ722等が起動して環境信号の検出が可能な状態である。また、「召喚状態」では、(a)コミュニケーションモード、(b)ライフモード、(c)ケアモード、(d)アピールモード、(e)チャットモード等のモードがあり、これらのモード毎に所定の処理が実行される。
《Summoned state》
When the touch button 26 is pressed for a long time in the unsummoned state (S4), the state shifts to the “summoned state” (S5). The long press of the touch button 26 means that the user touches the touch button 26 for a predetermined time or longer (for example, 3 seconds or longer). This summoning state is a state in which characteristic image display and audio output processing are executed in the image display device 1. In the summoning state, the image display device 1 is a state in which the projector 4 is activated and a character image is displayed, and the speaker 705, the camera 722, and the like are activated to detect an environmental signal. In the “summoning state”, there are (a) communication mode, (b) life mode, (c) care mode, (d) appeal mode, (e) chat mode, and the like. Processing is executed.

《スリープ状態》
未召喚状態(S4)で電源ボタンが押下されるか、所定時間放置されると、「スリープ状態」に移行する(S6)。「所定時間放置される」とは、例えば、所定時間以上(例えば、20分以上)タッチボタン26が長押しされることがない状態である。スリープ状態は、省電力の待機モードの状態であり、プロジェクタ4も起動しておらず、スピーカ705やカメラ722等も起動していない状態である。画像表示装置1は、スリープ状態では、ステータスLED708が点灯している。
《Sleep state》
If the power button is pressed in the unsummoned state (S4) or left for a predetermined time, the state shifts to the “sleep state” (S6). “Leave for a predetermined time” is, for example, a state in which the touch button 26 is not pressed for a predetermined time or longer (for example, 20 minutes or longer). The sleep state is a state of a power saving standby mode in which the projector 4 is not activated and the speaker 705, the camera 722, and the like are not activated. In the image display device 1, the status LED 708 is lit in the sleep state.

画像表示装置1は、スリープ状態で、ユーザにより、電源ボタンが押下、又は、タッチボタン26がタッチされると、未召喚状態に移行する。「タッチボタンがタッチされる」とは、所定時間未満(例えば、3秒未満)の時間、ユーザにタッチボタン26が触れられることをいう。   The image display device 1 shifts to an unsummoned state when the user presses the power button or touches the touch button 26 in the sleep state. “The touch button is touched” means that the user touches the touch button 26 for a time less than a predetermined time (for example, less than 3 seconds).

次に、召喚状態における、(a)コミュニケーションモード、(b)ライフモード、(c)ケアモード、(d)アピールモード、(e)チャットモードについて説明する。   Next, (a) communication mode, (b) life mode, (c) care mode, (d) appeal mode, and (e) chat mode in the summon state will be described.

(a)コミュニケーションモード
コミュニケーションモードは、キャラクター画像が表示され、キャラクターとユーザとがコミュニケーションをとることが可能な状態である。具体的には、画像表示装置1は、コミュニケーションモードでは、取得処理部711が取得する環境信号に応じたキャラクター画像を表示する。また、画像表示装置1は、環境信号に応じた演出用画像を表示する。さらに、画像表示装置1は、環境信号に応じて音声を出力する。
(A) Communication mode The communication mode is a state in which a character image is displayed and the character and the user can communicate with each other. Specifically, the image display apparatus 1 displays a character image corresponding to the environmental signal acquired by the acquisition processing unit 711 in the communication mode. The image display device 1 displays an effect image according to the environmental signal. Furthermore, the image display device 1 outputs sound according to the environmental signal.

画像表示装置1は、未召喚状態から、タッチボタンが長押しされ、召喚状態に移行したとき、まず初めにコミュニケーションモードとなる。また、画像表示装置1は、コミュニケーションモードのタイミングで、所定時間以上(例えば、10分以上)継続して、環境信号が取得されず、また、操作信号等の信号を受信しない場合、ライフモードに移行する。   The image display device 1 first enters the communication mode when the touch button is pressed for a long time from the unsummoned state and shifts to the summoned state. Further, the image display device 1 enters the life mode when the environmental signal is not acquired and the operation signal or the like is not received at the communication mode timing for a predetermined time or longer (for example, 10 minutes or longer). Transition.

例えば、画像表示装置1では、マイク704によって環境信号であるユーザが発した「今日の天気は?」の言葉が検出されると、これに応じて、データ管理部716によって記憶装置75に記憶された天気情報に基づき、スピーカ705から「今日は晴れだよ」等の音声が出力される。また、画像表示装置1では、透過フィルム3に、晴れに対する喜びを表す動作をするキャラクター画像が表示される。さらに、画像表示装置1では、透過フィルム3に、晴れの天気を演出する演出用画像が表示される。演出用画像としては、図17Aに示すように、単なる画像だけの他、「今日は晴れだよ」の文字を吹き出しで表示するなどテキストデータとの組み合わせであってもよい。これにより、ユーザは、今日の天気を教えてくれた、キャラクターと暮らすような感覚を覚え、キャラクターをより身近に感じることができる。なお、演出用画像は必須のものではなく、ランダムで表示非表示を切り替えることとしてもよい。   For example, in the image display device 1, when a word “What is the weather today?” Uttered by the user as an environmental signal is detected by the microphone 704, the data management unit 716 stores the word in the storage device 75 accordingly. On the basis of the weather information, a sound such as “It is sunny today” is output from the speaker 705. Further, in the image display device 1, a character image that performs an operation expressing joy with respect to sunny weather is displayed on the transparent film 3. Further, in the image display device 1, an effect image for producing a sunny weather is displayed on the transmissive film 3. As shown in FIG. 17A, the effect image may be not only a simple image but also a combination with text data such as a text “Today is sunny” displayed in a balloon. As a result, the user can feel the feeling of living with the character who taught us today's weather and feel the character closer to him. It should be noted that the effect image is not essential, and display / non-display may be switched at random.

また例えば、画像表示装置1では、ユーザが画像表示装置1に近づき、カメラ722によってユーザの顔が大きく検出されると、これに応じて、スピーカ705から「近すぎだよ」等の音声が出力される。また、画像表示装置1では、透過フィルム3に、ユーザの顔が近くにあることを恥ずかしがる動作をするキャラクター画像が表示される。さらに、画像表示装置1では、キャラクターの恥ずかしがる感情を演出する演出用画像が表示される。演出用画像としては、図17Bに示すように、単なる画像だけの他、「近すぎだよー」の文字を吹き出して表示するなどテキストデータとの組み合わせであってもよい。これにより、ユーザは、近くによると恥ずかしがるキャラクターと暮らすような感覚を覚え、キャラクターをより身近に感じることができる。   Further, for example, in the image display device 1, when the user approaches the image display device 1 and the user's face is largely detected by the camera 722, a sound such as “It is too close” is output from the speaker 705 accordingly. Is done. Further, in the image display device 1, a character image is displayed on the transparent film 3 that performs an operation of embarrassing that the user's face is nearby. Further, the image display device 1 displays an effect image that produces a feeling of embarrassment of the character. As shown in FIG. 17B, the effect image may be not only a simple image, but also a combination with text data such as displaying a character “too close” in a balloon. Thereby, the user can feel a sense of living with a character who is shy according to the vicinity, and can feel the character more familiar.

この場合、例えば、図17Cに示すように、画像表示装置1は、環境信号を取得すると(T1)、取得した環境信号に応じてキャラクターのキャラクター画像を表示するとともに、当該環境信号に応じて当該キャラクターの感情表現を演出する演出用画像を表示する(T2)。また、画像表示装置1は、取得した環境信号に応じた音声を出力する(T3)。なお、ステップT2とT3とは同時に実行されることが好ましい。   In this case, for example, as shown in FIG. 17C, when the image display device 1 acquires the environment signal (T1), the image display device 1 displays a character image of the character according to the acquired environment signal and An effect image for directing the emotional expression of the character is displayed (T2). Further, the image display device 1 outputs a sound corresponding to the acquired environmental signal (T3). Note that steps T2 and T3 are preferably executed simultaneously.

さらに、例えば、画像表示装置1では、ユーザがタッチボタン26を複数回押すことで、複数回呼びかけてキャラクターの行動を邪魔するような動作をすると、これに応じて、スピーカ705から「もう、なんなのー」の音声が出力される。また、画像表示装置1では、透過フィルム3に、ユーザに複数回呼びかけられたことで、邪魔されたような動作をするキャラクター画像が表示される。さらに、画像表示装置1では、透過フィルム3に、ユーザの複数回の呼びかけを問うような演出用画像が表示される。これにより、ユーザは、複数回の呼びかけに対応するキャラクターに対しより身近に感じることができ、キャラクターと暮らすような感覚を覚えることができる。   Further, for example, in the image display apparatus 1, when the user presses the touch button 26 a plurality of times and performs an operation that calls the user a plurality of times and disturbs the character's action, the speaker 705 responds to “What, what? "Nano-" sound is output. Further, in the image display device 1, a character image is displayed on the transparent film 3 that operates as if disturbed by being called by the user a plurality of times. Further, in the image display device 1, an effect image that asks the user for a plurality of calls is displayed on the transparent film 3. Thereby, the user can feel closer to the character corresponding to a plurality of calls, and can feel the feeling of living with the character.

また例えば、画像表示装置1では、ユーザの通信端末から、キャラクターに物を送るような信号を送信すると、これに応じ、スピーカ705からこれを喜ぶような音声が出力され、また、透過フィルム3で送信された物を使用するキャラクターが表示されたりする。   Further, for example, in the image display device 1, when a signal for sending an object to a character is transmitted from the user's communication terminal, a sound that pleases this is output from the speaker 705. Characters that use the sent object are displayed.

図18Aに示すように、ユーザの通信端末を操作し、画像表示装置1のキャラクターに「テレビ」を送信する。そうすると、画像表示装置1において、図18Bに示すように、演出用画像としてテレビが表示される。また、演出用画像には、例えば、「一緒にテレビみよ」という文字が吹き出しに含まれていてもよい。この場合、画像データ751において、テレビを送信する送信信号には、図18Bに示すキャラクター画像及び演出用画像が対応付けられる。   As illustrated in FIG. 18A, the user's communication terminal is operated to transmit “TV” to the character of the image display device 1. Then, in the image display device 1, as shown in FIG. 18B, a television is displayed as an effect image. In addition, the effect image may include, for example, characters “Let's watch TV together” in a balloon. In this case, in the image data 751, the character image and the effect image shown in FIG. 18B are associated with the transmission signal for transmitting the television.

さらに、画像表示装置1において、「一緒にテレビみよ」という音声が出力される。この場合、音声データ752において、テレビを送信する送信信号には、「一緒にテレビみよ」という音声が出力される。   Further, the image display device 1 outputs a sound “Watch TV together”. In this case, in the audio data 752, a sound “TV together” is output as a transmission signal for transmitting television.

そして、対象のテレビ番組が終了すると、図18Cに示すように、画像表示装置1には、「おもしろかった」という文字を吹き出しに含む演出用画像が表示されてもよい。同時に、画像表示装置1は、「おもしろかった」という音声が出力される。この場合、画像データ751において、テレビを送信する送信信号を受信後所定時間が経過(テレビ番組が終了)したことを条件として、「おもしろかった」を含む演出用画像が対応付けられる。また、音声データ752において、テレビを送信する送信信号を受信後所定時間が経過(テレビ番組が終了)したことを条件として、「おもしろかった」の音声が対応付けられる。なお、テレビ番組の内容として、「面白い」がふさわしくない場合もあるため、その感想としてふさわしい感想の音声を選択して出力するようにしてもよい。   Then, when the target television program ends, as shown in FIG. 18C, the image display device 1 may display an effect image including the characters “interesting” in a balloon. At the same time, the image display device 1 outputs a sound “It was fun”. In this case, in the image data 751, an effect image including “interesting” is associated on condition that a predetermined time has elapsed after the transmission signal for transmitting the television is received (the television program has ended). Also, in the audio data 752, “interesting” audio is associated with a condition that a predetermined time has elapsed after the transmission signal for transmitting the television is received (the television program has ended). Note that there may be cases where “interesting” is not appropriate as the content of a television program, and therefore, an audio with an appropriate impression may be selected and output.

加えて、ユーザがテレビを視聴の間、ユーザが笑ったりした場合、画像表示装置1は、ユーザの笑い声を検出すると、同時にキャラクターの笑う音声を出力するようにしてもよい。このようなキャラクター画像、演出用画像及び音声を出力することで、ユーザがキャラクターとともにテレビを視聴するような感覚を覚えることができる。   In addition, when the user laughs while watching the television, the image display device 1 may output the voice of the character laughing at the same time when the user laughs. By outputting such a character image, an effect image, and sound, the user can feel as if watching the TV together with the character.

例えば、ユーザの通信端末の入力装置がタッチパネルであるとき、送信操作は、送信する物質の画像を、画像表示装置1の方向に向かって、フリックすることで、実行することができる。   For example, when the input device of the user's communication terminal is a touch panel, the transmission operation can be executed by flicking the image of the substance to be transmitted toward the image display device 1.

図18Dに示すように、ユーザの通信端末を操作し、画像表示装置1のキャラクターに「コーヒー」を送信する。そうすると、画像表示装置1において、図18Eに示すように、演出用画像としてコーヒーが表示される。また、演出用画像には、例えば、「コーヒーブレイクしよう」という文字が吹き出しに含まれていてもよい。この場合、画像データ751において、コーヒーを送信する送信信号には、図18Eに示すキャラクター画像及び演出用画像が対応付けられる。   As illustrated in FIG. 18D, the user's communication terminal is operated to transmit “coffee” to the character of the image display device 1. Then, in the image display device 1, as shown in FIG. 18E, coffee is displayed as an effect image. The effect image may include, for example, characters “Let's break coffee” in the balloon. In this case, in the image data 751, the character image and the effect image shown in FIG. 18E are associated with the transmission signal for transmitting coffee.

さらに、画像表示装置1において、「コーヒーブレイクしよう」という音声が出力される。この場合、音声データ752において、コーヒーを送信する送信信号には、「コーヒーブレイクしよう」という音声が出力される。   Further, the image display device 1 outputs a voice “Let's break coffee”. In this case, in the audio data 752, a voice “Let's break coffee” is output as a transmission signal for transmitting coffee.

そして、所定時間(例えば、10分)が経過すると、図18Fに示すように、画像表示装置1には、「ごちそうさまでした」という文字を吹き出しに含む演出用画像が表示されてもよい。同時に、画像表示装置1は、「ごちそうさまでした」という音声が出力される。この場合、画像データ751において、コーヒーを送信する送信信号を受信後所定時間が経過したことを条件として、「ごちそうさまでした」を含む演出用画像が対応付けられる。また、音声データ752において、コーヒーを送信する送信信号を受信後所定時間が経過したことを条件として、「ごちそうさまでした」の音声が対応付けられる。   Then, when a predetermined time (for example, 10 minutes) has elapsed, as shown in FIG. At the same time, the image display device 1 outputs a voice saying “Food was frustrated”. In this case, in the image data 751, an effect image including “Frustrated” is associated with a condition that a predetermined time has elapsed after receiving a transmission signal for transmitting coffee. Also, in the audio data 752, the voice of “I was frustrated” is associated on condition that a predetermined time has elapsed after receiving the transmission signal for transmitting coffee.

加えて、コーヒーを飲む間、画像表示装置1は、キャラクターがコーヒーを飲む動画像を表示したり、「おいしいね」等の音声を出力したりするようにしてもよい。このようなキャラクター画像、演出用画像及び音声を出力することで、ユーザがキャラクターとともにコーヒーを飲むような感覚を覚えることができる。   In addition, while drinking coffee, the image display device 1 may display a moving image in which the character drinks coffee or output a sound such as “delicious”. By outputting such a character image, a production image, and a voice, the user can feel as if they are drinking coffee with the character.

図18Gに示すように、ユーザの通信端末を操作し、画像表示装置1のキャラクターに「食べ物(図18Gでは、ドーナツ)」を送信する。そうすると、画像表示装置1において、図18Hに示すように、演出用画像として食べ物が表示される。また、演出用画像には、例えば、「ありがとう」という文字が吹き出しに含まれていてもよい。この場合、画像データ751において、食べ物を送信する送信信号には、図18Hに示すキャラクター画像及び演出用画像が対応付けられる。   As shown in FIG. 18G, the user's communication terminal is operated to transmit “food (a donut in FIG. 18G)” to the character of the image display device 1. Then, as shown in FIG. 18H, food is displayed on the image display device 1 as an effect image. The effect image may include, for example, characters “thank you” in the balloon. In this case, in the image data 751, the character image and the effect image shown in FIG. 18H are associated with a transmission signal for transmitting food.

さらに、画像表示装置1において、「ありがとう」という音声が出力される。この場合、音声データ752において、食べ物を送信する送信信号には、「ありがとう」という音声が出力される。   Further, the image display device 1 outputs a voice “thank you”. In this case, in the audio data 752, a voice “thank you” is output as a transmission signal for transmitting food.

そして、所定時間(例えば、10分)が経過すると、図18Iに示すように、画像表示装置1には、「おいしかった」という文字を吹き出しに含む演出用画像が表示されてもよい。同時に、画像表示装置1は、「おいしかった」という音声が出力される。この場合、画像データ751において、食べ物を送信する送信信号を受信後所定時間が経過したことを条件として、「おいしかった」を含む演出用画像が対応付けられる。また、音声データ752において、食べ物を送信する送信信号を受信後所定時間が経過したことを条件として、「おいしかった」の音声が対応付けられる。   Then, when a predetermined time (for example, 10 minutes) elapses, as shown in FIG. 18I, an effect image including a character “delicious” in a balloon may be displayed on the image display device 1. At the same time, the image display apparatus 1 outputs a sound “It was delicious”. In this case, in the image data 751, an effect image including “delicious” is associated on the condition that a predetermined time has elapsed after receiving a transmission signal for transmitting food. Also, in the audio data 752, a voice “delicious” is associated on condition that a predetermined time has elapsed after receiving a transmission signal for transmitting food.

ここで、演出用画像は、ユーザの通信端末から画像表示装置1に物質がとばされてきたように演出させることもできる。このとき、例えば、転送時には、黄色等の光で光っており、キャラクター画像がこの物質を持った場合に、その光が消えるように演出することもできる。   Here, the production image can be produced as if the substance has been skipped from the user communication terminal to the image display device 1. At this time, for example, at the time of transfer, it is shining with light of yellow or the like, and when the character image has this substance, it can be produced so that the light disappears.

また、通信端末から画像表示装置1に物質を転送する他、画像表示装置1からユーザ端末に物質を転送するように演出してもよい。例えば、画像表示装置1がコーヒーメーカーを操作した際に、キャラクターから通信端末にコーヒーカップを転送するように演出させることができる。   In addition to transferring the substance from the communication terminal to the image display apparatus 1, it may be produced such that the substance is transferred from the image display apparatus 1 to the user terminal. For example, when the image display device 1 operates a coffee maker, it is possible to produce an effect such that a coffee cup is transferred from the character to the communication terminal.

図19Aに示すようにユーザの通信端末で表示される複数種類の衣類やアクセサリーの中から、図19Bに示すように、いずれかを選択し、選択した衣類等を送信する操作を可能としてもよい。そうすると、画像表示装置1において、図19Cに示すように、送信した衣類を身に着けたキャラクターのキャラクター画像が表示される。また、演出用画像には、例えば、「ありがとう」という文字が吹き出しに含まれていてもよい。さらに、画像表示装置1において、「ありがとう」という音声が出力される。   As shown in FIG. 19B, it is possible to select one of a plurality of types of clothing and accessories displayed on the user's communication terminal as shown in FIG. 19A and send the selected clothing and the like. . Then, in the image display device 1, as shown in FIG. 19C, a character image of the character wearing the transmitted clothing is displayed. The effect image may include, for example, characters “thank you” in the balloon. Further, the image display device 1 outputs a voice “thank you”.

この場合、画像データ751において、当該送信信号には、図19Cに示すキャラクター画像及び演出用画像が関連付けられる。また、音声データ752において、当該送信信号には、「ありがとう」という音声が関連付けられる。   In this case, in the image data 751, the character image and the effect image shown in FIG. 19C are associated with the transmission signal. Further, in the audio data 752, the transmission signal is associated with the audio “thank you”.

このようなキャラクター画像、演出用画像及び音声を出力することで、ユーザがキャラクターにプレゼントをしたような感覚を覚えることができる。また、ユーザは、キャラクターに好みの服を着せることができる。したがって、ユーザはキャラクターをより身近に感じることができる。   By outputting such a character image, an image for production, and a sound, it is possible to learn a sense that the user has presented the character. In addition, the user can put favorite clothes on the character. Therefore, the user can feel the character closer.

その他、ユーザがハブラシのデータを送信すると、画像表示装置1は、キャラクターが歯磨きをする様子の画像を表示し、ユーザはキャラクターとともに歯磨きできるようにしてもよい。また、ユーザが縄跳びやダンベルのデータを送信すると、画像表示装置1は、運動をする様子の画像を表示し、ユーザはキャラクターとともに運動できるようにしてもよい。   In addition, when the user transmits toothbrush data, the image display device 1 may display an image of the character brushing the tooth so that the user can brush the tooth together with the character. In addition, when the user transmits data on jumping rope or dumbbells, the image display device 1 may display an image of a state of exercising so that the user can exercise with the character.

なお、記憶装置75において、キャラクターの好みに関する嗜好データや過去に送信したアイテムやプレゼントに関する履歴データを記憶していてもよい。この場合、図18A乃至図19Cで上述したようなアイテムやプレゼントを送信すると、その嗜好や履歴によって、キャラクターの反応が異なるようにしてもよい。例えば、キャラクターが好きなアイテムを送信した場合、キャラクターの喜びが大きい画像と音声で表現される。これに対し、キャラクターが特に好きではないアイテムを送信した場合、キャラクターの喜びが小さい画像と音声で表現される。また、同じアイテムを送信し続けた場合、喜び方が小さくなるようにしてもよい。さらに、食べ物を送信する頻度が多くなると、「太っちゃうよー」等と画像と音声で表現されるようにしてもよい。このように、キャラクターの反応が常に同一ではないため、ユーザは、キャラクターにより親しみをもつことができる。   Note that the storage device 75 may store preference data relating to character preferences and history data relating to items and gifts transmitted in the past. In this case, when an item or a gift as described above with reference to FIGS. 18A to 19C is transmitted, the reaction of the character may differ depending on the preference or history. For example, when an item that a character likes is transmitted, the character's joy is expressed by an image and sound. On the other hand, when an item that the character does not particularly like is transmitted, the character's joy is expressed with a small image and sound. Moreover, when the same item is continuously transmitted, the way of pleasure may be reduced. Further, when the frequency of transmitting the food increases, it may be expressed by an image and sound such as “Fat”. In this way, since the character's reactions are not always the same, the user can be more familiar with the character.

また、さらには、コミュニケーションモードにおいては、画像表示装置1は、ユーザとする会話の話題を選択するにあたって、取得処理部711が取得する環境信号以外に、所定の確率(予め定められた確率で、過去のコミュニケーションに関連する会話を行うか否かを判定するための確率。この確率は、適宜、変動することとしてもよい)で、過去においてした会話の内容及び後述するチャットモードにおいて画像表示装置1がユーザの通信端末との間で実行したチャットの内容に応じた話題に基づくランダム会話を実行する。   In addition, in the communication mode, the image display device 1 selects a topic of conversation as a user in addition to the environmental signal acquired by the acquisition processing unit 711 (with a predetermined probability, The probability for determining whether or not to conduct a conversation related to past communication (this probability may be changed as appropriate), and the image display device 1 in the content of the conversation in the past and the chat mode described later. Executes a random conversation based on the topic according to the content of the chat performed with the user's communication terminal.

具体的には、制御部71は、人感センサ702が人(ユーザ)を検出しているときに、ランダムなタイミングで、乱数を生成するプログラムに従って生成したランダムな数値(例えば、0〜100の数値)が、所定の閾値を超えるか否かを判定し、この閾値を超えた場合に、制御部71は、会話履歴データ755と、チャット履歴データ256とを記憶装置75から読み出す。そして、会話履歴データ755の会話内容情報903と、チャット履歴データ256のチャット内容情報1003とに含まれる会話の内容からキーワードを選択し、そのキーワードに応じた画像データ751及び音声データ752から読み出して、キーワードと一致するタグを有する画像データと音声データを特定し、表示処理部713が特定した画像データをプロジェクタ4から出力するとともに、音声出力部714が特定した音声データをスピーカ705から出力する。ランダムな会話において、画像表示装置1が過去において実行した会話の話題に関連する会話を行うので、ユーザは、画像表示装置1に表示されるキャラクターにより親近感を覚える。また、ユーザが自身の通信端末でしたチャットの内容に関する話題に基づく会話も行うので、ユーザは、より一層、キャラクターに親近感を覚え、身近に感じることができる。また、ユーザがした会話に対して音声認識処理を行うことで、画像表示装置1は、会話のテキストデータを得て、会話履歴データ755に会話の内容を追加し、以降の会話及びチャットに利用することができる。例えば、チャットでユーザがした「野球の試合を見てるよ」というチャット内容を受けて、キャラクターが「今日、テレビで野球中継をやるよ」というような発言をさせることで、ユーザにキャラクターと行ったチャットの内容を思い出させることができるとともに、キャラクターがそのことを覚えてくれていたことに、ユーザは、親近感を感じることができる。また、画像表示装置1は、音声認識した結果から、出力条件に対応する音声を出力したり、ランダム会話の対応する会話の音声を出力したりすることができる。   Specifically, when the human sensor 702 detects a person (user), the control unit 71 generates a random numerical value (for example, 0 to 100) according to a program for generating a random number at random timing. It is determined whether or not (numerical value) exceeds a predetermined threshold, and when this threshold is exceeded, the control unit 71 reads the conversation history data 755 and the chat history data 256 from the storage device 75. Then, a keyword is selected from the conversation contents included in the conversation content information 903 of the conversation history data 755 and the chat content information 1003 of the chat history data 256, and read out from the image data 751 and the audio data 752 corresponding to the keyword. The image data and audio data having a tag that matches the keyword are specified, the image data specified by the display processing unit 713 is output from the projector 4, and the audio data specified by the audio output unit 714 is output from the speaker 705. In the random conversation, the image display device 1 performs a conversation related to the topic of the conversation executed in the past, so that the user feels familiar with the character displayed on the image display device 1. In addition, since the user performs conversation based on the topic related to the contents of the chat performed by the user's own communication terminal, the user can further feel the familiarity of the character and feel close to the character. Further, by performing voice recognition processing on the conversation performed by the user, the image display device 1 obtains the text data of the conversation, adds the content of the conversation to the conversation history data 755, and uses it for the subsequent conversation and chat. can do. For example, in response to the chat content that the user said in the chat, “I'm watching a baseball game,” the character made a comment like “I'll do a baseball broadcast on TV today”, and the user went with the character. The user can feel the familiarity that the contents of the chat can be reminded and the character has remembered it. Moreover, the image display apparatus 1 can output the voice corresponding to the output condition or the voice of the conversation corresponding to the random conversation based on the result of the voice recognition.

以下、このようなコミュニケーションモードを実現する画像表示装置1の汎用動作を説明する。   Hereinafter, general-purpose operations of the image display device 1 that realizes such a communication mode will be described.

図20に示すように、取得処理部711は、各種の環境信号を取得する(S161)。取得処理部711が取得した各種の環境信号は、解析部712に伝達され、解析部712は伝達された環境信号を解析する(S162)。解析結果及び画像データ751、音声データ752、信号データ753等を参照して、制御部71は、キャラクターが実行すべきキャラクター動作が規定された条件のいずれかに合致するかを判定する(S163)。判定の結果、実行すべきキャラクター動作があった場合には(S163:YES)、音声出力部714は、対応する音声を出力するとともに、表示処理部713は対応するキャラクター画像をプロジェクタ4から投影する(S164)。解析の結果、実行すべきキャラクターが動作がない場合には(S164:NO)、制御部71は、ステップS165の処理に移行する。   As illustrated in FIG. 20, the acquisition processing unit 711 acquires various environmental signals (S161). Various environmental signals acquired by the acquisition processing unit 711 are transmitted to the analyzing unit 712, and the analyzing unit 712 analyzes the transmitted environmental signals (S162). With reference to the analysis result, image data 751, audio data 752, signal data 753, and the like, the control unit 71 determines whether the character action to be executed by the character meets any of the prescribed conditions (S163). . As a result of the determination, if there is a character motion to be executed (S163: YES), the audio output unit 714 outputs the corresponding audio, and the display processing unit 713 projects the corresponding character image from the projector 4. (S164). As a result of the analysis, if the character to be executed has no action (S164: NO), the control unit 71 proceeds to the process of step S165.

ステップS165において、制御部71は、例えば、0〜100のランダム値を生成する(S165)。なお、ランダム値は0〜100の範囲に限られない。制御部71は、生成したランダム値と、これと比較するための閾値との間で大小を比較する。ランダム値が閾値よりも大きい場合に(S166:YES)ステップS167に移行し、ランダム値が閾値以下である場合に(S166:NO)、処理を終了する。   In step S165, the control part 71 produces | generates the random value of 0-100, for example (S165). In addition, a random value is not restricted to the range of 0-100. The control unit 71 compares the generated random value with a threshold value for comparison with the generated random value. When the random value is larger than the threshold value (S166: YES), the process proceeds to step S167, and when the random value is equal to or less than the threshold value (S166: NO), the process is terminated.

ステップS167において、制御部71は、会話履歴データ755及びチャット履歴データ756を読み出す。読み出した会話履歴データ755の会話内容情報903とチャット履歴データ756のチャット内容情報1003とからキーワードを抽出する。これは、例えば、構文解析等により実現できる。そして、例えば、直近(例えば1日)のキーワードの登場頻度の高いキーワードを選択する。当該キーワードの選択は、ランダムであってもよいし、その他の基準で選択することとしてもよい。   In step S167, the control unit 71 reads out the conversation history data 755 and the chat history data 756. A keyword is extracted from the conversation content information 903 of the read conversation history data 755 and the chat content information 1003 of the chat history data 756. This can be realized by, for example, syntax analysis. Then, for example, a keyword with a high appearance frequency of the most recent (for example, one day) keyword is selected. The selection of the keyword may be random or may be selected based on other criteria.

制御部71は、選択したキーワード及びステップS161で取得した環境信号に合致する会話があるか否かを、ランダム会話データ757を参照して特定する(S168)。そして、音声出力部714は、特定した会話の音声をスピーカ705から出力する。また、このとき、表示処理部713は、対応するキャラクター画像があれば、それを投影し(S169)、処理を終える。例えば、キャラクターがする会話の内容が「野球」に関する内容であれば、キャラクターが野球のユニフォームを着ている画像を表示したり、ボールやバットなどのアイテムを持たせた画像を表示したりする。   The control unit 71 specifies whether or not there is a conversation that matches the selected keyword and the environmental signal acquired in step S161 with reference to the random conversation data 757 (S168). Then, the voice output unit 714 outputs the voice of the specified conversation from the speaker 705. At this time, if there is a corresponding character image, the display processing unit 713 projects it (S169), and ends the process. For example, if the content of the conversation of the character is related to “baseball”, an image in which the character is wearing a baseball uniform is displayed, or an image with an item such as a ball or bat is displayed.

図20の処理は、コミュニケーションモードにおいて繰り返し実行される。このように、ランダムな会話において、キャラクターは、ユーザと過去に交わした会話内容や、実行したチャットの内容に基づく、会話を行うので、ユーザはキャラクターとの間の歴史の積み重ねを感じて、よりキャラクターを身近に感じることができる。   The process of FIG. 20 is repeatedly executed in the communication mode. In this way, in a random conversation, the character has a conversation based on the content of the conversation with the user in the past and the content of the chat performed, so the user feels the accumulation of history with the character, and more You can feel the character close to you.

(b)ライフモード
ライフモードは、キャラクター画像が表示され、このキャラクター画像が環境信号に依存せず、例えば、時刻に応じて変化する状態である。例えば、画像表示装置1では、朝であれば、朝ごはんを作ったり、朝ごはんを食べたり、掃除をしたりする画像が表示される。昼であれば、昼ごはんを作ったり、昼ごはんをたべたり、アイロンをかけたりする画像が表示される。夜であれば、夕ごはんを作ったり、夕ごはんを食べたり、ストレッチをしたりする画像が表示される。
(B) Life mode The life mode is a state in which a character image is displayed and this character image does not depend on an environmental signal, and changes according to time, for example. For example, the image display device 1 displays an image of making breakfast, eating breakfast, or cleaning in the morning. If it is noon, an image of making lunch, eating lunch or ironing is displayed. If it is night, an image of making dinner, eating dinner, or stretching is displayed.

その他、キャラクターが洗濯をしたり、掃除をしたり、歯磨きをしたり、シャワーをしたりする画像であってもよい。また、単に、キャラクターが、椅子に座って足をぶらぶらする画像や、椅子に座ってスマートフォン等の通信端末を操作する画像、椅子に座って絵を書く画像等を表示してもよい。その他、キャラクターがベッドの上で漫画を読む画像、ベッドの上で周りを見回す画像、ベッドの上で寝ている画像等を表示してもよい。   In addition, the image may be an image of a character washing, cleaning, brushing teeth, or showering. In addition, an image of a character sitting on a chair and hanging his legs, an image of sitting on a chair and operating a communication terminal such as a smartphone, an image of sitting on a chair and writing a picture may be displayed. In addition, an image of a character reading a comic on the bed, an image of looking around on the bed, an image of sleeping on the bed, and the like may be displayed.

また、この頻度や確率を管理することが可能であり、日によって、異なる動作をする画像を表示するようにすることも可能であり、また、動作時間は、完全に同一でなくてもよく、ある範囲の中でランダムに選択される。これにより、また、ユーザが興味のある行動については、長い時間表示されるようにしてもよい。例えば、朝ごはんを作っているときにユーザが「かわいいね」ということが多い場合、朝ごはんを作る画像を表示する時間を長くすることができる。   In addition, it is possible to manage this frequency and probability, it is possible to display images that perform different operations depending on the day, and the operation time may not be completely the same, It is selected randomly within a certain range. Thereby, you may make it display for a long time about the action which a user is interested. For example, when the user often makes “breakfast” while making breakfast, the time for displaying an image for making breakfast can be lengthened.

画像表示装置1は、ライフモードのタイミングで、タッチボタン26が触れられると、コミュニケーションモードに移行する。また、ライフモードにおいて、所定のタイミングで、ケアモードやアピールモードに移行する。   When the touch button 26 is touched at the timing of the life mode, the image display device 1 shifts to the communication mode. In the life mode, the mode shifts to a care mode or an appeal mode at a predetermined timing.

(c)ケアモード
ケアモードは、予め登録されたユーザのスケジュールに応じ、所定の各タイミングで、キャラクター画像や演出用画像を表示し、タイングに応じた音声を出力する。例えば、画像表示装置1は、「おはよう」、「いってらっしゃい」、「おはよう」、「おやすみ」等の音声を出力する。
(C) Care mode In the care mode, a character image and an effect image are displayed at predetermined timings according to a user's schedule registered in advance, and sound corresponding to the twing is output. For example, the image display apparatus 1 outputs sounds such as “good morning”, “welcome”, “good morning”, and “good night”.

例えば、ユーザは、通信端末等を利用し、事前に図21Aに示すような登録画面W1を介して、各時刻入力ボックスb11〜b14に時刻を入力し、日々の行動の「起床時間」、「外出時間」、「帰宅時間」及び「就寝時間」を登録する。   For example, the user inputs a time in each time input box b11 to b14 via a registration screen W1 as shown in FIG. 21A in advance using a communication terminal or the like, and “wakes up time”, “ Register “outing time”, “home time” and “sleeping time”.

また、このスケジュールに変更が生じた場合、再度この登録画面W1を利用して更新することもできるが、1日のみ予定を変更したい場合、後述するチャットモードにより、図21Bに示すようなチャット画面W2を利用して変更してもよい。チャット画面W2は、送信するメッセージを入力する入力部b21と、入力したメッセージを送信する送信部b22と、メッセージ例が表示されるメッセージ表示部b23と、送信されたメッセージが表示されるメッセージ表示部b24とを有する。   If the schedule is changed, the registration screen W1 can be used again to update the schedule. However, when the schedule is changed only for one day, the chat screen shown in FIG. You may change using W2. The chat screen W2 includes an input unit b21 for inputting a message to be transmitted, a transmission unit b22 for transmitting the input message, a message display unit b23 for displaying a message example, and a message display unit for displaying the transmitted message. b24.

図22のチャートに示すように、画像表示装置1は、『起床モード』を実行することができる。具体的には、登録された起床時間の所定時間前(例えば、「1時間前」)に、『起床モード』が開始される(S201)。   As shown in the chart of FIG. 22, the image display device 1 can execute the “wake-up mode”. Specifically, the “wake-up mode” is started a predetermined time before the registered wake-up time (for example, “1 hour before”) (S201).

この状態で、解析部712によりユーザの顔が検出される、又は、タッチボタン26がタッチされると、ユーザが起床したと判定される。また、ユーザが起床したことを条件に、表示処理部713により「おはよう」の挨拶をするキャラクター画像及び演出用画像が表示され、音声出力部714により「おはよう」の挨拶が出力される(S202)。   In this state, when the user's face is detected by the analysis unit 712 or the touch button 26 is touched, it is determined that the user has woken up. On the condition that the user has woken up, the display processing unit 713 displays a character image and an effect image for greeting “good morning”, and the voice output unit 714 outputs a greeting of “good morning” (S202). .

その他、ユーザの行動に応じた言葉が出力されてもよい。ユーザが登録される起床時間より早く目覚めた場合、「シャキッと目覚めたね」の音声を出力することができる。ユーザが前日に遅刻した場合、「今日は遅刻しないでね」の音声を出力することができる。カーテンが閉まっていることが検出された場合、「カーテン開けようね」の音声を出力することができる。ユーザの前日の就寝時間が遅く、今日の起床時間が遅い場合、「昨日遅くまで起きているからよ」の音声を出力することができる。   In addition, words according to the user's behavior may be output. When the user wakes up earlier than the registered wake-up time, the voice of “I woke up crisply” can be output. When the user is late for the previous day, the voice “Do not be late today” can be output. When it is detected that the curtain is closed, the voice “Let's open the curtain” can be output. If the user's bedtime on the previous day is late and today's wake-up time is late, the voice “being up late yesterday” can be output.

ユーザの起床が判定されると、送信処理部715は操作信号を送信し、所定の家電を操作する(S203)。例えば、起床後に起動する家電として、コーヒーメーカーがセットされている場合、コーヒーメーカーが起動される。   When it is determined that the user has woken up, the transmission processing unit 715 transmits an operation signal to operate a predetermined home appliance (S203). For example, when a coffee maker is set as a home appliance to be activated after getting up, the coffee maker is activated.

また、ユーザの起床が判定されると、朝の情報通知の画像や音声を出力する(S204)。例えば、「日付」、「天気」、「気温」等を通知する画像や音声を出力する。   If the user's wake-up is determined, an image and sound for morning information notification are output (S204). For example, an image or sound for notifying “date”, “weather”, “temperature”, etc. is output.

家電の操作や朝の情報通知に関する画像や音声の出力に対してユーザが発した音声が検出されると、これに対するキャラクターの挨拶の音声が出力される(S205)。例えば、ユーザが発した「ありがとう」が検出されると、キャラクターの音声として「どういたしまして」等の音声が出力される。その後、所定時間が経過すると、ライフモードに移行する(S213)。   When a voice uttered by the user is detected in response to an operation of home appliances or an image or voice output related to morning information notification, a voice of the character greeting is output (S205). For example, when “thank you” issued by the user is detected, a voice such as “you are welcome” is output as the voice of the character. Thereafter, when a predetermined time elapses, the mode shifts to the life mode (S213).

また、未召喚状態の場合に、起床時間の所定時間前(例えば、30秒前)までに、解析部712によりユーザの顔が検出されず、又は、タッチボタン26がタッチされていないとき、召喚状態となる(S206)。   Further, when the user's face is not detected by the analysis unit 712 or the touch button 26 is not touched by a predetermined time before the wake-up time (for example, 30 seconds before) in the unsummoned state, the summons are performed. A state is entered (S206).

未召喚状態から召喚状態となると、送信処理部715は、操作信号を送信し、予め登録される家電を操作する(S207)。   When changing from the unsummoned state to the summoned state, the transmission processing unit 715 transmits an operation signal to operate a pre-registered home appliance (S207).

また、起床時刻まで解析部712によってユーザの顔検出がされないとき、表示処理部713はユーザを起こす画像を表示し、音声出力部714がユーザを起こす音声を出力し、目覚まし機能を開始する(S208)。例えば、ユーザを起こす音声としては、キャラクターの「朝だよ」等の音声である。   When the analysis unit 712 does not detect the user's face until the wake-up time, the display processing unit 713 displays an image that wakes up the user, and the audio output unit 714 outputs the sound that wakes up the user to start the alarm function (S208). ). For example, the voice that wakes up the user is the voice of the character “Morning”.

解析部712によりユーザの顔が検出された場合、又は、タッチボタン26がタッチされた場合、ステップS202に移行する。一方、ユーザの顔も検出されず、タッチボタン26のタッチもされないとき、スヌーズ機能として、ユーザを起こす画像と音声の出力を継続する(S209)。例えば、ユーザを起こす音声は、徐々の大きくすることができる。また、画像表示装置1から出力される光の光量を上げてもよい。   When the user's face is detected by the analysis unit 712 or when the touch button 26 is touched, the process proceeds to step S202. On the other hand, when the user's face is not detected and the touch button 26 is not touched, as the snooze function, the image and voice output that wakes up the user are continued (S209). For example, the voice awakening the user can be gradually increased. Further, the amount of light output from the image display device 1 may be increased.

解析部712によりユーザの顔が検出された場合、又は、タッチボタン26がタッチされた場合、ステップS202に移行する。一方、ユーザの顔も検出されず、タッチボタン26のタッチもされないとき、送信処理部715が操作信号を送信し、予め登録される家電を操作する(S210)。   When the user's face is detected by the analysis unit 712 or when the touch button 26 is touched, the process proceeds to step S202. On the other hand, when the user's face is not detected and the touch button 26 is not touched, the transmission processing unit 715 transmits an operation signal to operate a pre-registered home appliance (S210).

さらに、ユーザを起こす画像と音声を最終手段の画像及び音声とする(S211)。例えば、表示処理部713は、キャラクターがフライパンをたたく画像を表示する。また、例えば、音声出力部714は、キャラクターが「起きないとおくれるよー」と言いながらフライパンがたたかれる音を含む音声を出力する。   Further, the image and sound that wakes up the user are used as the image and sound of the final means (S211). For example, the display processing unit 713 displays an image in which the character taps the frying pan. In addition, for example, the voice output unit 714 outputs a voice including a sound that a frying pan strikes while the character says “I can leave it when I do not wake up”.

その後、解析部712によりユーザの顔が検出された場合、又は、タッチボタン26がタッチされた場合、ステップS202に移行する。一方、解析部712により顔検出がされず、タッチボタン26の検出もないとき、画像表示装置1は、ユーザの状態を不明とし(S212)、ライフモードに移行する(S213)。   Thereafter, when the user's face is detected by the analysis unit 712 or when the touch button 26 is touched, the process proceeds to step S202. On the other hand, when the face is not detected by the analysis unit 712 and the touch button 26 is not detected, the image display device 1 sets the state of the user as unknown (S212) and shifts to the life mode (S213).

図23のチャートに示すように、画像表示装置1は、『外出モード』を実行することができる。具体的には、登録された外出時間の所定時間前(例えば、「5分前」)に、『外出モード』が開始され、未召喚状態(S301)から召喚状態に移行する(S302)。   As shown in the chart of FIG. 23, the image display device 1 can execute the “outing mode”. Specifically, the “outing mode” is started a predetermined time before the registered outing time (for example, “5 minutes before”), and the state shifts from the unsummoned state (S301) to the summoned state (S302).

また、出発時刻になると、アラートの画像及び音声が出力される(S303)。例えば、アラートとは、ユーザを急がせるようなキャラクターの画像とキャラクターの「出発だよ」の音声等である。   When the departure time is reached, an alert image and sound are output (S303). For example, the alert is a character image that urges the user and a voice of the character “It's a departure”.

また、送信処理部715は操作信号を送信し、所定の家電を操作する(S303)。   Further, the transmission processing unit 715 transmits an operation signal to operate a predetermined home appliance (S303).

さらに、表示処理部713は、外出チェックの画像を表示し、音声出力部714は、外出チェックの音声を出力する(S304)。例えば、予定の確認、忘れ物の確認、降水確率が高い場合に傘を持つよう促す確認等を通知する画像や音声を出力する。   Further, the display processing unit 713 displays an image for going out check, and the sound output unit 714 outputs the sound for going out check (S304). For example, an image or sound for notifying confirmation of a plan, confirmation of forgotten things, confirmation of prompting to hold an umbrella when the probability of precipitation is high, and the like are output.

また、出発時刻になると、表示処理部713は、出発を急がせる画像を出力し、音声出力部714は、出発を急がせる音声を出力する(S305)。例えば、キャラクターが慌ただしく動く動画像と、キャラクターの「もう出発時間!遅刻だよ」等の音声である。   At the departure time, the display processing unit 713 outputs an image for urgent departure, and the audio output unit 714 outputs an audio for urgent departure (S305). For example, a moving image of a character moving swiftly, and a voice of the character “Departure time!

解析部712がユーザの「行ってきます」の音声を検出したとき、表示処理部713は、これに応じた画像を表示し、音声出力部714は、これに応じた音声を出力する(S306)。例えば、表示処理部713は、ユーザに手を振るキャラクター画像を表示する。また、音声出力部714は、「いってらっしゃい」等の音声を出力する。また、出力する音声は、登録されるユーザのスケジュールやユーザの行動履歴等に応じて変更してもよい。   When the analysis unit 712 detects the voice of “I will go” by the user, the display processing unit 713 displays an image corresponding to the voice, and the voice output unit 714 outputs the voice corresponding to the image (S306). . For example, the display processing unit 713 displays a character image waving at the user. The voice output unit 714 outputs a voice such as “Come to me”. The output voice may be changed according to the registered user schedule, user action history, and the like.

その後、送信処理部715は操作信号を送信し、所定の家電を操作する(S307)。   Thereafter, the transmission processing unit 715 transmits an operation signal to operate a predetermined home appliance (S307).

ステップS305で出発時刻を通知後、又は、ステップS307で家電を操作後、ライフモードに移行する(S308,S309)。さらに、所定時間(例えば、10分)経過後、人感センサ702によって人が検出されない場合、スリープ状態に移行する(S310)。   After notifying the departure time in step S305, or after operating the home appliance in step S307, the mode is shifted to the life mode (S308, S309). Furthermore, when a human being is not detected by the human sensor 702 after a predetermined time (for example, 10 minutes) has elapsed, the process shifts to a sleep state (S310).

図24に示すように、画像表示装置1は、環境信号に応じて「外出・帰宅判定」が可能であり、これに応じて『帰宅モード』を実行することができる。具体的には、図19を用いて上述した『外出モード』において外出が判定された後、画像表示装置1がスリープ状態であるとき(S41)、ユーザの通信端末から帰宅予定のメッセージを受信すると、帰宅準備として、召喚状態に移行する(S42)。   As shown in FIG. 24, the image display apparatus 1 can perform “outing / going home determination” according to the environmental signal, and can execute the “home return mode” accordingly. Specifically, when the image display device 1 is in the sleep state after the outing is determined in the “outing mode” described above with reference to FIG. 19, when a message of going home is received from the user's communication terminal (S41) As a preparation for returning home, the state shifts to the summon state (S42).

その後、送信処理部715は操作信号を送信し、所定の家電を操作する(S43)。   Thereafter, the transmission processing unit 715 transmits an operation signal to operate a predetermined home appliance (S43).

また、画像表示装置1は、人感センサ702で人を検出したタイミング、家の照明の電源がオンにされたタイミング、ドアが開けられたタイミングで、帰宅をしたと予想する「帰宅予想」と判定する(S44)。ここで、ドアの開閉は、気圧センサ(図示せず)による気圧の変化の検出や、騒音センサ613による音の検出によって判定することができる。また、帰宅予想が判定されると、音声出力部714は、「帰ってきたみたいだー」等の音声を出力してもよい。   Further, the image display apparatus 1 predicts that the user has returned home at the timing when the person is detected by the human sensor 702, when the lighting of the house is turned on, and when the door is opened. Determine (S44). Here, whether the door is opened or closed can be determined by detecting a change in atmospheric pressure using an atmospheric pressure sensor (not shown) or detecting sound using a noise sensor 613. When the return home prediction is determined, the voice output unit 714 may output a voice such as “It seems to have returned home”.

帰宅予想が判定されると、送信処理部715は操作信号を送信し、所定の家電を操作する(S45)。   When the return home prediction is determined, the transmission processing unit 715 transmits an operation signal to operate a predetermined home appliance (S45).

また、画像表示装置1は、解析部712によりユーザの顔が検出された場合、又は、タッチボタン26がタッチされた場合、「帰宅」と判定される。また、ユーザが帰宅したことを条件に、表示処理部713は、帰宅の挨拶をするキャラクター画像及び演出画像が表示され、音声出力部714により帰宅の挨拶の音声が出力される(S46)。例えば、帰宅の挨拶としては、「おかえり」に限られず、「今日も遅いんだから―」、「今日は早ね」、「今日はおそいね」、「おつかれさま」等、日々のユーザの行動履歴等に基づいて決定される音声を含むことができる。   Further, the image display device 1 is determined to be “home” when the analysis unit 712 detects the user's face or when the touch button 26 is touched. On the condition that the user has returned home, the display processing unit 713 displays a character image and an effect image for greeting home, and the voice output unit 714 outputs a voice for greeting home (S46). For example, the greetings for returning home are not limited to “Okaeri”, but “Today is too late—”, “Today is early”, “Today is late”, “Otsukase-sama”, etc. Etc. can be included.

ユーザが発した音声が検出されると、これに対してキャラクターの返答の音声が出力される(S47)。例えば、キャラクターは、その日にしたこととして、「昨日ドーナツを食べたから、今日は運動したよ」等の音声を出力してもよい。また、家で起きたことを知らせてもよい。例えば、玄関のチャイムが複数回鳴った場合、「今日は誰かが来ていたよ」等の音声を出力してもよい。   When the voice uttered by the user is detected, the voice of the character reply is output (S47). For example, the character may output a voice such as “I ate yesterday yesterday and exercised today” as what I did on that day. You may also let you know what happened at home. For example, when the chime at the entrance sounds multiple times, a sound such as “someone came today” may be output.

一方、帰宅予想を判定後、所定時間(例えば30秒間)、帰宅が判定できないとき、帰宅確認をする(S48)。例えば、帰宅確認とは、音声出力部714によって、「帰ってきたの?顔みせなさいよ」等の音声を出力する。また、表示処理部713によって、拗ねたようなキャラクター画像や怒ったようなキャラクター画像と、演出用画像を表示する。   On the other hand, when the return home cannot be determined for a predetermined time (for example, 30 seconds) after the return home prediction is determined, the return home confirmation is performed (S48). For example, in the confirmation of returning home, the voice output unit 714 outputs a voice such as “Returned home? In addition, the display processing unit 713 displays a character image such as a kneaded or angry character image and an effect image.

ステップS47でユーザの挨拶に対して返答した後、又は、ステップS48で帰宅確認をした後、ライフモードに移行する(S49)。   After responding to the greeting of the user in step S47, or after confirming the return home in step S48, the mode shifts to the life mode (S49).

(d)アピールモード
アピールモードは、時刻やセンサ等で検出される信号等に応じ、各条件に応じたキャラクター画像や演出画像を表示し、各条件に応じた音声を出力する。例えば、画像表示装置1は、時刻に応じて、「もう8時だよ」等の音声を出力することができる。また、画像表示装置1は、温度に応じて、「なんか暑いね」等の音声を出力することができる。これにより、ユーザは思わぬタイミングでキャラクターから話しかけられるため、キャラクターをより身近に感じることができる。
(D) Appeal mode In the appeal mode, a character image or effect image corresponding to each condition is displayed according to a time or a signal detected by a sensor or the like, and sound corresponding to each condition is output. For example, the image display device 1 can output a sound such as “It's already 8 o'clock” according to the time. Further, the image display device 1 can output a sound such as “something hot” according to the temperature. Thereby, since the user can talk from the character at an unexpected timing, the user can feel the character closer.

(e)チャットモード
チャットモードは、ユーザが外出中等、画像表示装置1と離れた場所にいる場合、ユーザが保持する通信端末との間でメッセージの送受信を実現する。ユーザが保持する通信端末とは、例えば、スマートフォンや携帯電話機等の携帯通信端末のことである。
(E) Chat mode The chat mode realizes message transmission / reception with a communication terminal held by the user when the user is away from the image display device 1 such as when the user is out. The communication terminal held by the user is, for example, a mobile communication terminal such as a smartphone or a mobile phone.

チャットモードにおける基本的なアルゴリズムは、ユーザとの会話と同様に行うことができる。ただし、ユーザからの音声入力に代えて、チャット上の文字列を入力として画像表示装置1は、チャットを行う。   The basic algorithm in the chat mode can be performed in the same manner as the conversation with the user. However, instead of the voice input from the user, the image display apparatus 1 performs a chat using a character string on the chat as an input.

図25は、チャットモードに画像表示装置1の動作を示すフローチャートであって、チャットモードで動作中のフローチャートである。なお、チャットモードを実行する場合、ユーザは、自身の通信端末で画像表示装置1とのチャットを行うためのチャットアプリケーションを実行する。すると、ユーザの通信端末からチャットアプリケーションの起動信号がネットワークを介して画像表示装置1に送信される。すると、画像表示装置1の制御部71は、チャットモードを起動し、ユーザの通信端末との間のチャットを、チャットサーバを介して開始する。なお、画像表示装置1は、人感センサを用いてユーザが周囲にいないことを検出して、所定の条件のもとで、画像表示装置1側からチャットモードを起動し、ユーザの通信端末にチャットアプリケーションの起動信号を送信してチャットを開始することとしてもよい。当該チャットサーバは、画像表示装置1のための専用サーバであってもよいし、汎用のチャットサーバであってもよい。   FIG. 25 is a flowchart showing the operation of the image display apparatus 1 in the chat mode, and is a flowchart during operation in the chat mode. When executing the chat mode, the user executes a chat application for chatting with the image display device 1 using his / her communication terminal. Then, a chat application activation signal is transmitted from the user communication terminal to the image display device 1 via the network. Then, the control part 71 of the image display apparatus 1 starts chat mode, and starts the chat between a user's communication terminal via a chat server. Note that the image display device 1 detects that the user is not around by using a human sensor, activates the chat mode from the image display device 1 side under a predetermined condition, and sends it to the user's communication terminal. It is good also as starting chat by transmitting the activation signal of a chat application. The chat server may be a dedicated server for the image display device 1 or a general-purpose chat server.

図25に示すように、まず、取得処理部711は、各種の環境信号を取得する(S501)。この環境信号は、チャット上でユーザが入力した最新の発言を含んでよい。取得処理部711が取得した各種の環境信号は、解析部712に伝達され、解析部712は伝達された環境信号を解析する(S502)。解析部712は、ユーザのチャット上の発言内容の文字列に対して構文解析を行って、発言内容を認識する。また、解析部712は、その他の環境信号、例えば、天候情報などから状況を判断する。制御部71は、解析結果及び音声データ752、信号データ753等を参照して、キャラクターが実行すべきチャット上の発言が規定された条件のいずれかに合致するかを判定する(S503)。なお、音声データ752は、音声を規定する情報ではあるが、会話という概念においてチャットと共通することから、チャットにおいても利用できる。判定の結果、発言すべき内容があった場合には(S503:YES)、送信処理部715は、特定した発言内容のメッセージをチャットアプリケーションを介して、ユーザの通信端末に送信する(S504)。解析の結果、実行すべきキャラクター発言がない場合には(S504:NO)、制御部71は、ステップS505の処理に移行する。   As shown in FIG. 25, first, the acquisition processing unit 711 acquires various environmental signals (S501). This environmental signal may include the latest speech entered by the user on the chat. Various environment signals acquired by the acquisition processing unit 711 are transmitted to the analysis unit 712, and the analysis unit 712 analyzes the transmitted environment signals (S502). The analysis unit 712 performs syntax analysis on the character string of the message content on the user's chat to recognize the message content. The analysis unit 712 determines the situation from other environmental signals such as weather information. The control unit 71 refers to the analysis result, the voice data 752, the signal data 753, and the like, and determines whether the chat message to be executed by the character meets any of the defined conditions (S503). Note that the voice data 752 is information defining the voice, but can be used in chat because it is common to chat in the concept of conversation. As a result of the determination, if there is content to be spoken (S503: YES), the transmission processing unit 715 sends a message of the identified speech content to the user's communication terminal via the chat application (S504). As a result of the analysis, if there is no character statement to be executed (S504: NO), the control unit 71 proceeds to the process of step S505.

ステップS505において、制御部71は、例えば、0〜100のランダム値を生成する(S505)。なお、ランダム値は0〜100の範囲に限られない。制御部71は、生成したランダム値と、これと比較するための閾値との間で大小を比較する。ランダム値が閾値よりも大きい場合に(S506:YES)ステップS507に移行し、ランダム値が閾値以下である場合に(S506:NO)、処理を終了する。   In step S505, the control unit 71 generates a random value from 0 to 100, for example (S505). In addition, a random value is not restricted to the range of 0-100. The control unit 71 compares the generated random value with a threshold value for comparison with the generated random value. When the random value is larger than the threshold value (S506: YES), the process proceeds to step S507, and when the random value is equal to or less than the threshold value (S506: NO), the process ends.

ステップS507において、制御部71は、会話履歴データ755及びチャット履歴データ756を読み出す。読み出した会話履歴データ755の会話内容情報903とチャット履歴データ756のチャット内容情報1003とからキーワードを抽出する(S507)。これは、例えば、構文解析等により実現できる。そして、例えば、直近(例えば1日)のキーワードの登場頻度の高いキーワードを選択する。当該キーワードの選択は、ランダムであってもよいし、その他の基準で選択することとしてもよい。   In step S507, the control unit 71 reads out the conversation history data 755 and the chat history data 756. A keyword is extracted from the conversation content information 903 of the read conversation history data 755 and the chat content information 1003 of the chat history data 756 (S507). This can be realized by, for example, syntax analysis. Then, for example, a keyword with a high appearance frequency of the most recent (for example, one day) keyword is selected. The selection of the keyword may be random or may be selected based on other criteria.

制御部71は、選択したキーワード及びステップS501で取得した環境信号に合致する会話があるか否かを、ランダム会話データ757を参照して特定する(S508)。そして、送信処理部715は、特定した発言の内容を示すメッセージを、チャットアプリケーションを介してユーザの通信端末に送信する(S509)。また、このとき、送信処理部715は、対応するキャラクター画像があれば、その画像をチャット上で表示するための画像データをチャットアプリケーションを介して送信し、処理を終える。例えば、キャラクターがする会話の内容が「野球」に関する内容であれば、キャラクターが野球のユニフォームを着た画像を送信したり、ボールやバットなどのアイテムを持たせた画像を送信する。   The control unit 71 specifies whether or not there is a conversation that matches the selected keyword and the environmental signal acquired in step S501 with reference to the random conversation data 757 (S508). And the transmission process part 715 transmits the message which shows the content of the specified statement to a user's communication terminal via a chat application (S509). At this time, if there is a corresponding character image, the transmission processing unit 715 transmits image data for displaying the image on the chat via the chat application, and ends the process. For example, if the content of the conversation of the character is related to “baseball”, an image of the character wearing a baseball uniform or an image with an item such as a ball or bat is transmitted.

図25の処理は、チャットモードにおいて繰り返し実行される。このように、チャットにおけるランダムな会話において、キャラクターは、ユーザと過去に交わした会話内容や、実行したチャットの内容に基づく、発言を行うので、ユーザはキャラクターとの間の歴史の積み重ねを感じて、よりキャラクターを身近に感じることができる。そして、画像表示装置1は、図20の処理と図25の処理とにより、会話の内容とチャットの内容が互いに連動する構成を実現できている。なお、チャットの内容が以降の会話の内容に反映され、会話の内容が以降のチャットの内容にも反映されるように構成されていれば、画像表示装置1は、本実施の形態に示したアルゴリズム以外のアルゴリズムに従って動作して、同様の構成を実現してもよいことはいうまでもない。   The process of FIG. 25 is repeatedly executed in the chat mode. In this way, in a random conversation in chat, the character speaks based on the content of the conversation with the user in the past and the content of the executed chat, so the user feels the accumulation of history with the character. , You can feel closer to the character. The image display device 1 can realize a configuration in which the content of the conversation and the content of the chat are interlocked with each other by the processing in FIG. 20 and the processing in FIG. 25. Note that the image display device 1 is shown in the present embodiment as long as the content of the chat is reflected in the content of the subsequent conversation and the content of the conversation is also reflected in the content of the subsequent chat. It goes without saying that the same configuration may be realized by operating according to an algorithm other than the algorithm.

上述の構成により、例えば、図26Aに示すようなチャットを行うことができる。図26Aは、ユーザの通信端末におけるチャット画面の表意例を示している。チャット画面W3には、ユーザとキャラクターとの発言内容が表示される。ユーザは、通信端末のタッチパネル(図示せず)を利用して、入力部b21にメッセージを入力し、送信部b22をタッチしてメッセージを送信する。   With the above configuration, for example, a chat as shown in FIG. 26A can be performed. FIG. 26A shows an ideographic example of the chat screen in the user's communication terminal. The chat content of the user and the character is displayed on the chat screen W3. The user uses a touch panel (not shown) of the communication terminal to input a message to the input unit b21, and touches the transmission unit b22 to transmit the message.

また、このチャットにおいては、図26Bのチャット画面W4に示すように、通常のチャットとは異なり、キャラクターから、質問が投げかけられて、それに対する回答としての選択肢b220を表示することもできる。これは、画像表示装置1との間で専用のチャットアプリケーションをユーザの通信端末にインストールすることで実現することができる。また、この場合、チャットサーバは、この制御を実現するための画像表示装置1からのコマンドをユーザの通信端末に中継する機能を有する。このコマンドには、ユーザが選択した回答のコマンドも含まれる。このような構成にすることで、ユーザにキャラクターとのゲームをしている感覚を与えることもできる。したがって、ユーザは、キャラクターとゲーム感覚でチャットを楽しむこともができる。   Also, in this chat, as shown in the chat screen W4 in FIG. 26B, unlike a normal chat, a question is asked from a character, and an option b220 as an answer to the question can be displayed. This can be realized by installing a dedicated chat application with the image display device 1 in the user's communication terminal. In this case, the chat server has a function of relaying a command from the image display device 1 for realizing this control to the user's communication terminal. This command includes an answer command selected by the user. With such a configuration, it is possible to give the user a sense of playing a game with a character. Therefore, the user can enjoy chatting with the character as if it were a game.

なお、本実施の形態においては、会話履歴データ755及びチャット履歴データ756を利用した会話やチャットはランダムに実行することとしているが、これはその限りではなく、予め定められた条件が満たされた場合には、必ず実行するようにしてもよいことはいうまでもない。   In the present embodiment, the conversation and chat using the conversation history data 755 and the chat history data 756 are randomly executed. However, this is not the only case, and predetermined conditions are satisfied. Needless to say, it may be executed in some cases.

《音声に関する動作》
例えば、ユーザがマイク704に向かってキャラクターの名前を呼ぶと、画像表示装置1は、その名前に対応するキャラクターの画像を表示させることができる。また、ユーザが、表示されたキャラクターに特定の話題について話しかけると、画像表示装置1は、ユーザに対して応答した音声を出力することができる。
<Operations related to audio>
For example, when the user calls a character name toward the microphone 704, the image display device 1 can display an image of the character corresponding to the name. In addition, when the user talks to the displayed character about a specific topic, the image display device 1 can output a sound in response to the user.

このため、ユーザは、好きなときに、好きなキャラクターを呼び出すことができ、このキャラクター等をより立体的に見せることが可能な透明なケース2の中に表示させることができる。また、ユーザがキャラクター等に向かって話しかけると、あたかもそのキャラクター等が、ユーザの話しかけに応じた振る舞いをするように動作させることができる。このため、同じ空間にいるキャラクター等と一緒に生活をしているかのような感覚をユーザに与えることができる。   For this reason, the user can call a favorite character when he / she likes it, and can display this character etc. in the transparent case 2 which can be seen more three-dimensionally. Further, when the user talks to a character or the like, it can be operated as if the character or the like behaves according to the user's talk. For this reason, it is possible to give the user a feeling as if they are living with a character or the like in the same space.

また、音声入力に応じて照明の点灯/消灯を制御することもできる。例えば、「電気消して」や「おやすみなさい」の音声がマイク704から入力されると、制御部71は、予めこの文字列に紐付けて記憶装置75に記憶されている照明の消灯に関するリモコン情報を記憶装置75から取り出し、対応する赤外線情報を赤外線LED703から発信させる。これにより、室内の照明を消灯することができる。また、同様に、「おかえり」や「おはよう」に応じて照明を点灯することもできる。なお、ここで利用する信号は、赤外線情報以外を利用してもよい。   In addition, lighting on / off can be controlled according to voice input. For example, when a sound such as “Turn off electricity” or “Good night” is input from the microphone 704, the control unit 71 associates remote control information relating to turning off the illumination previously associated with this character string and stored in the storage device 75. The data is taken out from the storage device 75 and the corresponding infrared information is transmitted from the infrared LED 703. Thereby, indoor lighting can be turned off. Similarly, the illumination can be turned on in response to “return” or “good morning”. In addition, you may utilize signals other than infrared information for the signal utilized here.

さらに、このような音声入力と、人感センサ702による人の検知を組み合わせた制御動作も可能である。例えば、ユーザの話しかけにより「いってきます」の音声をマイク704から入力すると、制御部71は、この音声により得られる文字列に対応した監視モードに移行する。なお、キャラクター等による「いってらっしゃい」に対応して監視モードに移行することもできる。   Furthermore, a control operation combining such voice input and human detection by the human sensor 702 is also possible. For example, when a voice “I'm coming” is input from the microphone 704 in response to the user's conversation, the control unit 71 shifts to a monitoring mode corresponding to a character string obtained from the voice. Note that it is possible to shift to the monitoring mode in response to “I welcome you” by a character or the like.

監視モードは、ユーザが室内に存在しない状態におけるモードである。このため、監視モードは、ユーザの話しかけによる「ただいま」の音声を入力し、この音声により得られる文字列を検出すると解除することができる。なお、キャラクター等による「おかえりなさい」に対応して監視モードを解除することもできる。   The monitoring mode is a mode in a state where the user is not present in the room. For this reason, the monitoring mode can be canceled when a voice of “I'm right” by talking to the user is input and a character string obtained from this voice is detected. It is also possible to cancel the monitoring mode in response to “Please come back” by a character or the like.

監視モード中に、例えば、人感センサ702により人が検知されると、制御部71は、これを異常と判断し、これを報知することができる。具体的には、所定の警報音や警告メッセージをスピーカ705から出力したり、通信部76を介して予め登録した宛先に所定のメッセージを送信することができる。また、このとき、制御部71は、カメラ722に室内を撮影させて、記憶装置75に画像を記憶したり、通信部76を介して予め登録した宛先に画像を送信することもできる。   For example, when a person is detected by the human sensor 702 during the monitoring mode, the control unit 71 can determine that this is abnormal and notify the user of this abnormality. Specifically, a predetermined warning sound or warning message can be output from the speaker 705, or a predetermined message can be transmitted to a destination registered in advance via the communication unit 76. Further, at this time, the control unit 71 can cause the camera 722 to take an image of the room and store the image in the storage device 75, or can transmit the image to a destination registered in advance via the communication unit 76.

なお、監視モード中に人感センサ702により人が検知された後、すぐに異常と判断して報知を行ってもよく、また、一定時間内に監視モードの解除がない場合に異常と判断して報知を行うこともできる。   It should be noted that, after a person is detected by the human sensor 702 during the monitoring mode, it may be determined that there is an abnormality immediately and notification may be given, and if the monitoring mode is not canceled within a certain time, it is determined that there is an abnormality. Can also be notified.

《赤外線LEDに関する制御動作》
赤外線LED703を用いた制御動作として、以下の動作を行うことができる。具体的には、制御部71は、タイマープログラムによって予めセットされた起床時刻になると、その時刻情報に紐付けられている行動情報に基づき、対応する機器の動作を制御する。
<Control operation related to infrared LED>
As a control operation using the infrared LED 703, the following operation can be performed. Specifically, when the wake-up time preset by the timer program is reached, the control unit 71 controls the operation of the corresponding device based on the behavior information associated with the time information.

例えば、起床時(7:00)に「照明点灯」、就寝時(23:00)に「照明消灯」といったタイマープログラムを登録した場合、制御部71は、7:00になると、「照明点灯」のリモコン情報を記憶装置75から取り出し、対応する赤外線情報を赤外線LED703から発信させ、23:00になると、「照明消灯」のリモコン情報を記憶装置75から取り出し、対応する赤外線情報を赤外線LED703から発信させる。このようにすると、所定の日時に所定の機器を自動的に動作させることができる。   For example, when registering a timer program such as “lights on” when waking up (7:00) and “lights off” at bedtime (23:00), the control unit 71 sets “lights on” at 7:00. Remote control information is extracted from the storage device 75 and the corresponding infrared information is transmitted from the infrared LED 703. At 23:00, the remote control information “illumination is off” is extracted from the storage device 75 and the corresponding infrared information is transmitted from the infrared LED 703. Let In this way, a predetermined device can be automatically operated at a predetermined date and time.

このほか、温湿度センサ611により検知される温湿度に応じてエアコン等のオン/オフ制御を行ったり、時間帯に応じてテレビのオン/オフ制御を行うこともできる。   In addition, on / off control of an air conditioner or the like can be performed according to the temperature / humidity detected by the temperature / humidity sensor 611, and television on / off control can be performed according to a time zone.

《センサに関する制御動作》
光センサ721を用い、例えば、昼間であるにもかかわらず、カーテンが開いていないことを検知して、ユーザにカーテンを開けるよう促すことができる。
<Control operations related to sensors>
Using the optical sensor 721, for example, it is possible to detect that the curtain is not open despite the daytime, and to prompt the user to open the curtain.

具体的には、日の出の時刻をカレンダー情報として記憶装置75に記憶しておき、その時刻を過ぎても、光センサ721から入力される照度が所定の照度に満たない場合、制御部71は、予め記憶装置75に記憶している音声データ(「カーテンあけよう」)を、スピーカ705から出力させる。   Specifically, the sunrise time is stored in the storage device 75 as calendar information, and when the illuminance input from the optical sensor 721 is less than the predetermined illuminance even after the time, the control unit 71 Audio data (“open curtain”) stored in the storage device 75 in advance is output from the speaker 705.

《騒音センサに関する制御動作》
騒音センサ613を用い、例えば、テレビが長時間つきっぱなしであることをユーザに注意することができる。具体的には、制御部71は、騒音センサ613により入力された音の音量、周波数等に基づき、テレビがつけられたと判断すると、その判断をしたときから計時を開始し、その状態の時間が所定時間を超過した場合に、予め記憶装置75に記憶している音声データ(「テレビ消そうよ」)を取り出し、スピーカ705から出力させる。これにより、省エネに貢献するとともに、あたかも嫁から注意されているかのような感覚をユーザに与えることができる。
《Control action for noise sensor》
The noise sensor 613 can be used to alert the user that, for example, the television remains on for a long time. Specifically, when the control unit 71 determines that the television is turned on based on the volume, frequency, etc. of the sound input by the noise sensor 613, the control unit 71 starts measuring time from the determination, and the time of the state is When the predetermined time is exceeded, audio data (“Let's turn off TV”) stored in advance in the storage device 75 is taken out and output from the speaker 705. Thereby, while contributing to energy saving, it is possible to give the user a feeling as if the bride is paying attention.

《振動センサに関する制御動作》
振動センサ612を用い、地震の検出やその報知動作を行うことができる。
<Control operation related to vibration sensor>
Using the vibration sensor 612, an earthquake can be detected and a notification operation can be performed.

例えば、人感センサ702により人がいることが検知されていない状態において、振動センサ612により所定の大きさの揺れを検知した場合には、地震が発生したものと判断して、制御部71は、所定の警報音や警告メッセージをスピーカ705から出力させ、又は、通信部76を介して予め登録した宛先に所定のメッセージを送信することができる。   For example, in the state where the presence of a person is not detected by the human sensor 702, when the vibration sensor 612 detects a predetermined magnitude of vibration, the controller 71 determines that an earthquake has occurred and the controller 71 A predetermined warning sound or a warning message can be output from the speaker 705 or a predetermined message can be transmitted to a destination registered in advance via the communication unit 76.

他方、人感センサ702により人がいることが検知されている状態において、振動センサ612により所定の大きさの揺れを検知した場合には、ユーザ等による人為的な行為によるものと判断し、報知を行わない。なお、この場合、例えば、音声メッセージ(「揺らしちゃダメ!」)をスピーカ705から出力させることができる。このようにすると、地震と生活振動とを精度良く区別しつつ、それぞれに対応した動作を行うことができる。   On the other hand, when the vibration sensor 612 detects a predetermined magnitude of vibration in a state where the presence sensor 702 detects that there is a person, it is determined that it is due to an artificial action by the user or the like, and notification is made. Do not do. In this case, for example, a voice message (“No shaking!”) Can be output from the speaker 705. If it does in this way, operation corresponding to each can be performed, distinguishing an earthquake and a life vibration accurately.

《温湿度センサに関する制御動作》
温湿度センサ611に対応した所定の音声出力制御を行うことができる。例えば、温湿度センサ611により検出された温度が10°C未満の場合、制御部71は、所定のタイミングで「今日は寒いね」といった音声をスピーカ705から出力させることができる。
<Control operations related to temperature and humidity sensor>
Predetermined audio output control corresponding to the temperature / humidity sensor 611 can be performed. For example, when the temperature detected by the temperature / humidity sensor 611 is lower than 10 ° C., the control unit 71 can output a sound such as “It is cold today” from the speaker 705 at a predetermined timing.

また、温湿度センサ611により検出された湿度が40%未満の場合には、所定のタイミングで「乾燥してるよ!風邪ひかないようにね」といった音声をスピーカ705から出力させることができる。   When the humidity detected by the temperature / humidity sensor 611 is less than 40%, a sound such as “Dry! Don't catch a cold” can be output from the speaker 705 at a predetermined timing.

《画像に関する動作》
カメラ722で撮影された画像に対応した画像表示及び音声出力制御を行うことができる。例えば、カメラ722で取得した画像を利用してフェイストラッキングや表情検出を実行してキャラクターの画像を変更することができる。
<Operations related to images>
Image display and audio output control corresponding to an image captured by the camera 722 can be performed. For example, it is possible to change the character image by executing face tracking and facial expression detection using an image acquired by the camera 722.

具体的には、ユーザが移動すると、キャラクターがユーザの方を見るようなキャラクター画像を表示してもよい。また、キャラクターが、たまに目を背けてまた、ユーザの方を見るようなキャラクター画像を表示してもよい。さらに、ユーザが笑うと、笑い返すキャラクター画像を表示してもよい。また、ユーザがキャラクターとは違う方向を見ていた後で目が合うと、目が合ったタイミングでほほ笑むキャラクター画像を表示してもよい。さらに、ユーザが画像表示装置1に登録済みのカップで飲み物を飲んでいると、「私も飲む」という音声を出力して、同じカップで飲み物を飲むキャラクター画像を表示してもよい。さらに、ユーザが画像表示装置1に登録済みの服を着ていると、「かっこいい!」という音声を出力してもよい。   Specifically, when the user moves, a character image in which the character looks at the user may be displayed. Further, a character image may be displayed such that the character sometimes turns away from his eyes and looks at the user. Further, when the user laughs, a character image that laughs back may be displayed. In addition, if the user sees a direction different from the character and then sees, a character image that smiles at the timing when the user sees the eye may be displayed. Further, when the user is drinking with a cup registered in the image display device 1, a voice image of “I drink too” may be output and a character image for drinking with the same cup may be displayed. Furthermore, when the user is wearing clothes registered in the image display device 1, a sound “cool” may be output.

この他にも様々な入出力制御が可能である。   Various other input / output controls are possible.

例えば、温湿度や天気情報の入力情報に基づいて、「傘持って行った方がいいよ」といった音声を出力させたり、ユーザからの「何着ていこうかな」といった音声入力に対し、温湿度、天気情報、カレンダー情報等に対応したおすすめの洋服を表示させたりすることができる。   For example, on the basis of temperature / humidity and weather information input information, it is possible to output a voice such as “It ’s better to carry an umbrella” or a voice input from a user such as “What should I wear?” It is possible to display recommended clothes corresponding to weather information, calendar information, and the like.

《好感度に応じた動作》
画像表示装置1が表示するキャラクターは、キャラクターのユーザに対する好感度に応じて動作を異ならせてもよい。例えば、キャラクターの設定情報として予め、好きな言葉や色などの嗜好や、好みの動作、されてうれしいこと、等のキャラクター情報を設定するとともに、キャラクターのユーザに対する好感度を設定しておく。そして、キャラクターの嗜好に合致する会話やチャット、行動をユーザがとった場合に、キャラクターの好感度値を上げ、合致しない会話やチャット、行動をユーザがとった場合に、キャラクターの好感度を下げることとしてもよい。
《Action according to likability》
The character displayed by the image display device 1 may have different actions depending on the user's preference for the user. For example, as character setting information, character information such as a preference of a favorite word or color, a favorite operation, a happy thing to be done, and the like, and a preference of the character to the user are set in advance. And if the user takes a conversation, chat, or action that matches the character's preference, the character's preference value is raised, and if the user takes a conversation, chat, or action that does not match, the character's preference value is lowered. It is good as well.

そして、記憶装置75においては、さらに、その好感度値に応じたキャラクターの行動を規定する情報を記憶しておいてもよい。例えば、ユーザがキャラクターに近い場合であって、キャラクターが「近すぎるよー」と発言する際に、好感度が低い場合には、怒ったような声色の音声を出力し、好感度が高い場合には、照れたような声色の音声を出力することとしてもよい。したがって、記憶装置75は、好感度に応じた同内容のセリフの音声を複数記憶しておいてもよい。このようにすることで、画像表示装置1のキャラクターにより人間味を持たせることができ、ユーザにより親近感を覚えさせることができる。   And in the memory | storage device 75, you may memorize | store the information which prescribes | regulates the action of the character according to the favorable value further. For example, when the user is close to the character and the character is saying “It ’s too close”, if the favorability is low, the voice of angry voice is output and the favorability is high May output a voice of shy voice. Therefore, the storage device 75 may store a plurality of speech with the same content corresponding to the preference. By doing in this way, the character of the image display apparatus 1 can be made impersonal, and a user can feel familiarity.

また、画像表示装置1は、以下のような処理を実現してもよい。   Further, the image display device 1 may realize the following processing.

《起床判定システム》
制御部71は、例えば、カレンダーサイトで記憶装置75に登録されたユーザの起床時刻を含むカレンダー情報と、データ管理部716が取得する時刻とを利用し、目覚ましの呼びかけをすることができる。その後、例えば、ユーザがベッドから起き上がり、解析部712で検出する顔が一定以上の大きさになると制御部71は、起床と判定し、ユーザが起床後の処理を実行する。例えば、ユーザは、自身の通信端末のスケジュール情報を、画像表示装置1に送信して、画像表示装置1は、受信したスケジュール情報に示される内容にしたがって、動作することとしてもよい。例えば、スケジュール情報に、「23日6時起床」とあった場合に、制御部71は、23日の6時に、キャラクターにユーザを起こす動作をさせることとしてもよい。
《Wake-up judgment system》
The control unit 71 can make an alarm call using, for example, calendar information including the user's wake-up time registered in the storage device 75 at the calendar site and the time acquired by the data management unit 716. After that, for example, when the user gets up from the bed and the face detected by the analysis unit 712 becomes a certain size or larger, the control unit 71 determines that the user gets up, and the user executes processing after getting up. For example, the user may transmit schedule information of his / her communication terminal to the image display device 1, and the image display device 1 may operate according to the contents indicated in the received schedule information. For example, when the schedule information includes “wake up at 6 o'clock on the 23rd”, the control unit 71 may cause the character to wake up the user at 6 o'clock on the 23rd.

《外出判定システム》
制御部71は、例えば、解析部712が検出するユーザの「いってきます」の音声に加え、取得処理部711が取得するユーザの通信端末の位置情報が、家の外にある場合、ユーザが外出したと判定することができる。また例えば、人感センサ702でユーザの存在が検出されないことに加え、取得処理部711が取得するユーザの通信端末の位置情報が、家の外にある場合、ユーザが外出したと判定することができる。
<< Outing judgment system >>
For example, when the location information of the user's communication terminal acquired by the acquisition processing unit 711 is outside the house in addition to the user's voice that the analysis unit 712 detects, the control unit 71 may Can be determined. For example, in addition to the fact that the presence sensor 702 is not detected by the human sensor 702 and the location information of the user's communication terminal acquired by the acquisition processing unit 711 is outside the house, it is determined that the user has gone out. it can.

《帰宅判定システム》
制御部71は、例えば、上述の外出判定においてユーザが外出したと判定した後に、人感センサ702でユーザの存在が検出された場合、ユーザが帰宅したと判定することができる。当該検出では、人感センサ702で人を検出することに加え、カメラ722で撮像した画像から、ユーザの顔を判定することとしてもよい。
《Homecoming judgment system》
For example, when the presence sensor is detected by the human sensor 702 after determining that the user has gone out in the above-described going-out determination, the control unit 71 can determine that the user has returned home. In the detection, in addition to detecting a person with the human sensor 702, the face of the user may be determined from an image captured by the camera 722.

《寝落ち判定システム》
制御部71は、ユーザが在宅中に、例えば、人感センサ702により、ユーザの動きが1時間検出されず、かつ、光センサ721によって検出される照度が、照明が消されていない程度の明るさであると解析部712で解析されると、ユーザが寝落ちしたと判定することができる。ここでいう、「寝落ち」とはユーザがテレビを見たり、ゲームをしたりする等、何かの作業中に、照明を消すことがなく寝てしまうことをいう。画像表示装置1は、ユーザが寝落ちしたと判定した場合であって、部屋の照明が消灯されていない場合に、部屋の照明を消灯するように証明を制御することとしてもよい。
《Sleep determination system》
When the user is at home, the control unit 71 detects that the motion of the user is not detected by the human sensor 702 for one hour, and the illuminance detected by the optical sensor 721 is bright enough that the illumination is not turned off. If it is analyzed by the analysis unit 712, it can be determined that the user has fallen asleep. Here, “falling asleep” means that the user goes to sleep without turning off the light during any work such as watching TV or playing a game. The image display device 1 may control the proof to turn off the room lighting when it is determined that the user has fallen down and the room lighting is not turned off.

《起床時刻確認システム》
制御部71は、例えば、翌朝の外出時間が、普段の朝より早い場合、普段の朝の準備時間を確保すべく、翌朝の目覚まし時刻を早くするよう提案することができる。具値的には、翌日目覚まし時刻と翌日の外出予定時刻との時間差が、平均の起床時刻と外出時刻との時間差で求められる外出準備時間よりも短い場合、翌朝の目覚まし時刻より早くするよう提案する。例えば、制御部71は、音声データ752から、「明日は出発時刻が早いみたいだけど、目覚まし時刻早める?」の音声を選択し、出力する。また、制御部71は、ユーザは「YES」の返答があった場合、記憶装置75に登録される目覚まし時刻を変更する。
《Wake-up time confirmation system》
For example, when the time of going out the next morning is earlier than the usual morning, the control unit 71 can suggest that the next morning wake-up time be set earlier in order to secure the usual morning preparation time. Specifically, if the time difference between the next day's wake-up time and the next day's scheduled time to go out is shorter than the time required for going out, which is determined by the time difference between the average wake-up time and the time of going-out, it is suggested that the wake-up time be the next morning. To do. For example, the control unit 71 selects and outputs a sound “It seems that the departure time is early tomorrow, but the wake-up time is advanced?” From the sound data 752. Further, the control unit 71 changes the alarm time registered in the storage device 75 when the user answers “YES”.

また例えば、制御部71は、今朝、遅刻した場合、翌朝の目覚まし時刻を早くするよう提案することができる。具体的には、制御部71は、今朝の外出時刻が、外出予定時刻より所定時間(例えば、10分)遅れた場合、目覚まし時間をその所定時刻早めるよう提案することができる。例えば、制御部71は、音声データ752から、「今日遅刻したでしょ!明日は10分早く起きてみる?」の音声を選択し、出力する。また、制御部71は、ユーザは「YES」の返答があった場合、記憶装置75に登録される目覚まし時刻を変更する。   Further, for example, if the control unit 71 is late this morning, the control unit 71 can propose to wake up the next morning. Specifically, when the going-out time this morning is delayed by a predetermined time (for example, 10 minutes) from the scheduled going-out time, the control unit 71 can suggest that the wake-up time be advanced by the predetermined time. For example, the control unit 71 selects and outputs, from the voice data 752, a voice of “You are late today! Try to get up 10 minutes earlier tomorrow?”. Further, the control unit 71 changes the alarm time registered in the storage device 75 when the user answers “YES”.

《スクワット判定機能》
制御部71は、例えば、解析部712が顔認識の上下運動を検出し、スクワットしている回数を数えるシステムを備えることができる。また、制御部71は、腕立て伏せだけでなく、腹筋の回数や、腕立てふせの回数を数えるシステムにも応用することもできる。これにより、表示処理部713は、ユーザの動作を応援するキャラクター画像や演出用画像を表示することができる。また、音声出力部714は、キャラクターがカウントする音声や応援する音声を出力することができる。
《Squat judgment function》
For example, the control unit 71 may include a system in which the analysis unit 712 detects the vertical motion of face recognition and counts the number of squats. The control unit 71 can be applied not only to push-ups but also to a system that counts the number of abdominal muscles and the number of push-ups. Thereby, the display process part 713 can display the character image and effect image which support a user's operation | movement. In addition, the voice output unit 714 can output a voice counted by the character and a voice to support.

《カメラ自撮りシステム》
制御部71は、例えば、ユーザが、キャラクターと自撮り撮影できるようにしてもよい。この際、ユーザがカメラ722で撮像可能な範囲に移動することで、カメラ722でユーザの画像を撮像すると、制御部71は、撮像画像にキャラクター画像を合成する。また、制御部71は、キャラクター画像が合成された撮影画像を、インターネット等を介してSNS(ソーシャルネットワーキングサービス)等の提供サーバにアップロードしてもよい。
《Camera self-taking system》
For example, the control unit 71 may allow the user to take a self-portrait with a character. At this time, when the user moves to a range where the camera 722 can capture an image of the user with the camera 722, the control unit 71 combines the character image with the captured image. Further, the control unit 71 may upload the captured image obtained by combining the character images to a providing server such as an SNS (social networking service) via the Internet or the like.

《コーヒーブレイクタイムシステム》
制御部71は、キャラクターがユーザにコーヒーブレイクを提案するようにしてもよい。例えば、データ管理部716が管理する時刻が所定時刻の場合に、送信処理部715が、コーヒーメーカーに、操作信号を送信する。また、表示処理部713は、ユーザにコーヒーブレイクを促す画像を選択して表示し、音声出力部714は、ユーザにコーヒーブレイクを促す音声を選択して出力する。さらに、解析部712が、画像や音声から、ユーザがコーヒーを飲み終わるのを検出すると、制御部71は、コーヒーブレイクを終了する。例えば、制御部71は、解析部712が、ユーザの「おいしかったよ」や「ごちそうさま」の音声を検出することにより、終了することができる。
《Coffee break time system》
The control unit 71 may allow the character to propose a coffee break to the user. For example, when the time managed by the data management unit 716 is a predetermined time, the transmission processing unit 715 transmits an operation signal to the coffee maker. The display processing unit 713 selects and displays an image that prompts the user to make a coffee break, and the audio output unit 714 selects and outputs a sound that prompts the user to make a coffee break. Furthermore, when the analysis unit 712 detects that the user has finished drinking coffee from the images and sounds, the control unit 71 ends the coffee break. For example, the control unit 71 can be terminated when the analysis unit 712 detects the user's “delicious” or “feast” voice.

《コール・レスポンスシステム》
制御部71は、ユーザとキャラクターと名前を呼びあうようにしてもよい。音声出力部713が、ユーザデータ754に登録される名前やニックネームを呼ぶキャラクターの音声を出力する。また、解析部712によってユーザが発したキャラクターの名前やニックネームの音声が検出されると、音声出力部713は、ユーザの名前やニックネームを呼ぶキャラクターの音声を出力することができる。
《Call response system》
The control unit 71 may call the user, the character, and the name. The voice output unit 713 outputs the voice of the character that calls the name or nickname registered in the user data 754. When the analysis unit 712 detects the voice of the character name or nickname uttered by the user, the voice output unit 713 can output the voice of the character that calls the user name or nickname.

《着替えレコメンドシステム》
制御部71は、ユーザのコーディネートをレコメンドするようにしてもよい。例えば、解析部712によって、カメラ722が撮像した画像から「顔の上の正方形の帽子」、「顔の下の長い長方形のネクタイ」等のユーザが身につけているものの形状や色を判定する。また、制御部71は、取得処理部711で取得する環境情報から解析されるユーザの表情や気分や、記憶装置75に登録されるユーザのスケジュールや、天気情報、季節等を総合的に判断して、おすすめの色をレコメンドしてもよい。
《Changing recommendation system》
The control unit 71 may recommend user coordination. For example, the analysis unit 712 determines the shape and color of what the user wears, such as “a square hat above the face” and “a long rectangular tie below the face” from the image captured by the camera 722. In addition, the control unit 71 comprehensively determines the user's facial expression and mood analyzed from the environment information acquired by the acquisition processing unit 711, the user's schedule registered in the storage device 75, weather information, season, and the like. You may recommend a recommended color.

《操作依頼》
制御部71は、ユーザから通信端末等の情報処理装置を介し、機器の操作や、スケジュール管理の依頼を受けることができる。例えば、機器の操作が依頼された場合、送信処理部715は、依頼された信号に応じて、操作信号を出力する。また、スケジュールの登録や変更が依頼された場合、データ管理部716は、この信号に応じて、データを登録又は更新する。具体的には、図17Bを用いて上述したように、チャット機能を用いたり、メモや伝言板のようなものを用いて、制御部71を操作したりすることができる。ユーザは、自身がキャラクターにしてほしいことをキャラクターにお願いするように感じることができるため、人間にお願いしているように感じることができる。
《Operation request》
The control unit 71 can receive an operation of a device and a request for schedule management from a user via an information processing apparatus such as a communication terminal. For example, when an operation of the device is requested, the transmission processing unit 715 outputs an operation signal according to the requested signal. Further, when registration or change of a schedule is requested, the data management unit 716 registers or updates data according to this signal. Specifically, as described above with reference to FIG. 17B, the control unit 71 can be operated using a chat function or using a memo or a message board. Since the user can feel asking the character what he wants to be a character, he can feel as if he is asking a human being.

《ふて寝モード》
制御部71は、所定の条件を満たした場合に、怒ってふて寝をするキャラクター画像を表示させてもよい。例えば、画像表示装置1が外部のネットワークに接続されていない場合、又は、画像表示装置1がユーザの通信端末との間でネットワーク接続がされていない場合、怒ってふて寝するような画像を選択し、表示する。これにより、画像表示装置1がユーザに訴えかけるようなキャラクター画像を表示することで、より人間らしく、よりリアルに表現することができる。
《Sleeping Mode》
The control unit 71 may display a character image that sleeps angry when a predetermined condition is satisfied. For example, when the image display device 1 is not connected to an external network, or when the image display device 1 is not connected to the user's communication terminal, an image that sleeps angry is selected. ,indicate. Thereby, the character image which the image display apparatus 1 appeals to a user is displayed, and it can be expressed more like a human being and more realistically.

《興味の変遷アルゴリズム》
ユーザデータ754に複数種類の興味や趣味嗜好が登録されているとき、制御部71は、複数の中からいずれかをランダムに選択し、出力する画像や音声に反映させることができる。例えば、このとき、ユーザデータ754では、ユーザの嗜好情報についてそれぞれ重み値が設定され、制御部71は、その重み値を加味して、出力する画像や音声を選択することができる。また、これらの趣味嗜好の重み値は、時間の経過と共に増加させたり、減衰させたりすることができる。さらに、重み値が所定の値以下になったら、他の嗜好の重み値が大きくなることにより、別の趣味嗜好の話題を選択するようにしてもよい。
《Interest Transition Algorithm》
When a plurality of types of interests and hobbies are registered in the user data 754, the control unit 71 can randomly select one of the plurality of interests and hobbies and reflect them in the output image or sound. For example, at this time, in the user data 754, weight values are respectively set for the user preference information, and the control unit 71 can select an image or sound to be output in consideration of the weight values. Moreover, the weight value of these hobby preferences can be increased or attenuated with the passage of time. Furthermore, when the weight value is equal to or less than a predetermined value, another preference value may be selected by increasing the weight value of another preference.

《ライフモードのアルゴリズム》
制御部71は、ライフモードにおいて、「ユーザの嗜好情報」や「キャラクター内部の嗜好情報」をもとに、表示する画像や、出力する音声を選択することができる。例えば、ユーザが漫画好きであれば、制御部71は、ライフモードにおいて、漫画を読むキャラクター画像を表示することができ、これに対応する音声を出力することができる。また、ユーザが料理好きであれば、制御部71は、暇な時に料理をするキャラクター画像を表示することができ、これに対応する音声を出力することができる。
《Life mode algorithm》
In the life mode, the control unit 71 can select an image to be displayed and an audio to be output based on “user preference information” and “character preference information”. For example, if the user likes comics, the control unit 71 can display a character image for reading the comics in the life mode, and can output a sound corresponding to the character image. Further, if the user likes cooking, the control unit 71 can display a character image for cooking when he / she is free, and can output a sound corresponding to the character image.

《興味トーク》
制御部71は、ユーザとのインタラクションが発生した一定時間後に、そのインタラクションに関連する話題の画像及び音声を出力することができる。制御部71は、ユーザとのインタラクションが発生した時刻を記憶しておき、そこから、所定時間が経過したか否かを判定することで、当該制御を実現する。
《Interest Talk》
The control unit 71 can output a topical image and sound related to the interaction after a predetermined time when the interaction with the user occurs. The control unit 71 stores the time at which the interaction with the user has occurred, and determines whether or not a predetermined time has passed from that time, thereby realizing the control.

《ユーザ行動分析推定システム》
制御部71でユーザの行動を判定するためのデータとしては、予め教師データとして与えられた複数パターンのデータを参照し、導きだすことができる。具体的には、画像表示装置1に備えられた各種センサを用いて、ユーザが所定の行動をした際のセンシングデータを取得しておき、その際の所定の行動を示す情報と対応付けて記憶しておき、これを教師データとする。そして、画像表示装置1は、備えられている各種のセンサから入力されたデータを、教師データとを比較することにより、ユーザの行動を分析、推定することができる。これにより、制御部71は、ユーザの行動に応じた動作をキャラクターにさせることができる。また、制御部71は、逐次、この教師データをユーザの行動に応じて更新することとしてもよい。
<< User behavior analysis estimation system >>
The data for determining the user's action by the control unit 71 can be derived by referring to a plurality of patterns of data given in advance as teacher data. Specifically, using various sensors provided in the image display device 1, sensing data when the user performs a predetermined action is acquired and stored in association with information indicating the predetermined action at that time. This is used as teacher data. And the image display apparatus 1 can analyze and estimate a user's action by comparing the data input from the various sensors with the teacher data. Thereby, the control part 71 can make a character perform the operation | movement according to a user's action. Moreover, the control part 71 is good also as updating this teacher data sequentially according to a user's action.

《人感情追従システム》
また、画像表示装置1は、ユーザの感情を推定して、キャラクターにそのユーザ感情に対応した動作を実行させてもよい。具体的には、以下のように処理を実行する。
<< Emotion tracking system >>
Further, the image display device 1 may estimate the user's emotion and cause the character to perform an action corresponding to the user emotion. Specifically, the process is executed as follows.

制御部71は、カメラ722で撮像したユーザの顔画像から表情認識処理を行って、ユーザの感情を推定してもよい。これは、予め各種の感情に応じた顔画像の特徴量の情報を記憶装置75に記憶しておき、撮像した画像とのパターンマッチングにより、最も近いと推定される顔画像を特定して、対応する感情を特定するものである。また、マイク704から入力された声紋からユーザの感情を推定してもよい。これも顔画像の場合と同様に、予め各種の感情に応じた声情報(例えば、周波数や音量など)の情報を記憶装置75に記憶しておき、入力された声紋との特徴量に応じて、ユーザの感情を推定する。また、あるいは、制御部71は、ユーザとの間の会話やチャットの内容から、ユーザの感情を推定することとしてもよい。例えば、会話中の「楽しかった」とか「むかつく」といった感情を表す言葉から、ユーザの感情を推定する。   The control unit 71 may estimate the user's emotion by performing facial expression recognition processing from the user's face image captured by the camera 722. This is done by storing information on the feature amount of the face image corresponding to various emotions in advance in the storage device 75, specifying the face image estimated to be closest by pattern matching with the captured image, and It is to identify the emotion to be. Further, the user's emotion may be estimated from the voiceprint input from the microphone 704. Similarly to the case of a face image, information of voice information (for example, frequency, volume, etc.) corresponding to various emotions is stored in the storage device 75 in advance, and according to the feature amount with the input voiceprint. Estimate user emotions. Or the control part 71 is good also as estimating a user's emotion from the content of the conversation and chat with a user. For example, the user's emotions are estimated from words representing emotions such as “I enjoyed” or “Mukatsu” during the conversation.

そして、画像表示装置1の制御部71は、画像表示装置1に記憶、設定されているキャラクターの個性に応じて、ユーザに同調したり、励ましたりといった行動をとらせることができる。例えば、ユーザの感情を判定した結果、ユーザが寂しいと感じていると推定したら、「そうだね、寂しかったね。でも、私がいるよ?」とか、「そんなことで、寂しく思う必要なんかないよ!大丈夫大丈夫!」といったセリフの音声を音声出力部714から出力したりするとよい。また、例えば、ユーザが落ち込んでいると推定した場合には、「ファイト!」と励ましたりしてもよい。なお、これらのキャラクターの行動は一例であることは言うまでもない。   Then, the control unit 71 of the image display device 1 can cause the user to take actions such as tuning and encouragement according to the character personality stored and set in the image display device 1. For example, if it is estimated that the user feels lonely as a result of judging the user's feelings, “Yes, I was lonely. But I am there?” Or “There is no need to feel lonely! The speech output unit 714 may output a speech such as “It's all right!”. For example, when it is estimated that the user is depressed, “Fight!” May be encouraged. Needless to say, the actions of these characters are only examples.

《ありがとう学習システム》
画像表示装置1の制御部71は、ユーザから会話で伝達された、もしくは、チャット上で伝達された、ありがとう等、感謝の言葉を伝えられた内容を記憶する。そして、その時の条件を記憶する。即ち、制御部71(キャラクター)は、ユーザが、「いつ」、「何をする」とありがとうと言われるのかを記憶する。即ち、ユーザから感謝されたときの、「タイミング」と「キャラクターの行動」とを対応付けて記憶装置75に記憶する。そして、制御部71は、その「いつ」というタイミングにおいて、感謝された行動をキャラクターに再現させることとしてもよい。
《Thank you learning system》
The control unit 71 of the image display device 1 stores the contents of which words of gratitude such as thankfulness transmitted from the user in conversation or on the chat are transmitted. Then, the condition at that time is stored. That is, the control unit 71 (character) stores when the user is said to be thankful for “when” and “what to do”. That is, “timing” and “character action” when the user is thanked are stored in the storage device 75 in association with each other. And the control part 71 is good also as making a character reproduce an appreciation action at the timing of "when."

《顔学習システム》
画像表示装置1の制御部71は、カメラ722で撮像した画像に、ユーザと異なる人物の顔画像が含まれると判定した場合に、その顔画像をチャットに添付して、「この人誰?」と問いかけることとしてもよい。これに対して、ユーザが「お母さんだよ」と回答することで、画像表示装置1は、その人物を撮像して得られた顔画像と、「お母さん」という言葉を対応付けて記憶する。また、画像表示装置1の制御部71は、ユーザの「お母さんだよ」という回答に対して、例えば、「お母さんなんだね。覚えたよ」というようなメッセージをかえしてもよい。また、別のタイミングで、記憶した人物の顔画像を撮像して得た場合には、画像表示装置1は、「お母さんが来たよ」というメッセージをユーザの通信端末に送信することとしてもよい。また、その際にその人物の行動を推定できた場合に、その内容も含めて送信してもよい。また、当該構成は、画像表示装置1が撮像した顔画像がユーザにとって知らない人物の顔であった場合には防犯の役に立てることもできる。
《Face learning system》
When the control unit 71 of the image display device 1 determines that the image captured by the camera 722 includes a face image of a person different from the user, the control unit 71 attaches the face image to the chat and asks “Who is this person?” It is also possible to ask. On the other hand, when the user replies “I'm mom”, the image display device 1 stores the face image obtained by imaging the person and the word “mom” in association with each other. Further, the control unit 71 of the image display device 1 may change a message such as “I'm mom. I remembered” to the user's answer “I'm mom”. If the stored face image of the person is captured at another timing, the image display device 1 may transmit a message “Mother has come” to the user's communication terminal. Further, when the behavior of the person can be estimated at that time, the content may be transmitted. In addition, this configuration can be used for crime prevention when the face image captured by the image display device 1 is a face of a person unknown to the user.

《心配性システム》
画像表示装置1は、ユーザが外出したことを検出してから(人感センサ702が人を検出しないまま所定時間が経過してから)、一定以上遅くなってきた場合(例えば、現在時刻が夜22時を経過した場合)に、ユーザに対して、twitter(登録商標)、メール、チャット、電話などの手段で連絡をとってもよい。例えば、制御部71は、「遅いけど、大丈夫?」というようなメッセージを送信してもよいし、電話をかけてもよい。なお、電話を掛ける場合には、画像表示装置1に電話回線と接続するための設定しておく必要がある。また、当該行動をとるかどうかの閾値を定めておき、ランダム値がこの閾値を超えるかどうかで、このユーザを心配する行動をとるかどうかを判定してもよい。また、画像表示装置1は、この閾値を時間が遅くなればなるほど高くなるように制御してもよい。また、その日の朝のユーザの様子に応じて、この閾値を変更することとしてもよい。例えば、ユーザの体調が悪いと推定している場合には、通常よりも閾値が低くなるように制御することとしてもよい。
<< worry system >>
When the image display apparatus 1 detects that the user has gone out (after a predetermined time has passed without the human sensor 702 detecting a person), the image display apparatus 1 has become slower than a certain time (for example, the current time is night 22:00), the user may be contacted by means of twitter (registered trademark), mail, chat, telephone or the like. For example, the control unit 71 may transmit a message such as “I am late but are you okay?” Or may make a call. When making a call, it is necessary to set the image display device 1 to connect to a telephone line. Further, a threshold value for determining whether or not to take the action may be determined, and whether or not an action for worrying about the user is taken may be determined based on whether or not the random value exceeds the threshold value. Further, the image display device 1 may control the threshold value to be higher as the time is later. Further, the threshold value may be changed according to the state of the user in the morning of the day. For example, when it is estimated that the user's physical condition is bad, the threshold value may be controlled to be lower than usual.

《赤外線情報監視システム》
画像表示装置1は更に赤外線センサを備えて、周囲の赤外線情報を取得し、取得した赤外線情報に応じた行動をキャラクターに取らせることとしてもよい。例えば、ユーザがテレビのリモコンを操作したことを、リモコンから出力された赤外線情報を取得して、検出し、テレビをオンした時間と曜日とチャンネルを記憶しておいてもよい。そして、別の日であって、同じ曜日の同じ時間になったときに、画像表示装置1がテレビを操作して、同じチャンネルをつけるように制御してもよい。
<Infrared information monitoring system>
The image display device 1 may further include an infrared sensor to acquire surrounding infrared information and cause the character to take an action according to the acquired infrared information. For example, it is possible to acquire the infrared information output from the remote controller and detect that the user has operated the TV remote controller, and store the time, day of the week, and channel when the TV is turned on. Then, it may be controlled that the image display device 1 operates the television and attaches the same channel when the same time of the same day of the week is reached on another day.

また、赤外線センサからユーザの体温や部屋の温度をモニタして、温度が高くなってきたことを検出したら、画像表示装置1の制御部71は、キャラクターに、ユーザに対して、「窓開けたらどうかな?」とか、「扇風機つける?」とか、「空調つける?」といった提案をする会話をさせることとしてもよい。   When the body temperature of the user or the temperature of the room is monitored from the infrared sensor and it is detected that the temperature has risen, the control unit 71 of the image display device 1 tells the character “When the window is opened”. It may be a conversation that makes suggestions such as “How about?”, “Do you turn on the fan?”, Or “Do you turn on air conditioning?”.

《視聴番組監視システム》
画像表示装置1は、ユーザが視聴しているテレビやラジオ番組に関する情報を取得し、記憶する構成を備えてもよい。具体的には、ネットワーク上からテレビ番組情報を取得し、テレビから発せられる音声に対して音声人気処理を行ってユーザの視聴している番組を推定する。あるいは、画像表示装置1は、各種家電と接続し、テレビのON/OFF情報や、チャンネル情報を取得して、ユーザが視聴した番組を特定し、記憶する。そして、記憶した番組に関する番組表からキーワードを取得して、会話のネタにしてもよい。
《Viewing program monitoring system》
The image display device 1 may be configured to acquire and store information related to a television or radio program that the user is viewing. Specifically, TV program information is acquired from the network, and the audio popularity process is performed on the sound emitted from the TV to estimate the program that the user is viewing. Alternatively, the image display apparatus 1 is connected to various home appliances, acquires TV ON / OFF information and channel information, identifies and stores a program viewed by the user. Then, a keyword may be acquired from a program guide relating to the stored program and used as a story for conversation.

例えば、クラウドサーバにおいて、各放送局の番組についてどのような会話が行われているかに対して音声認識にかけ、各放送局の番組の内容をテキスト化し、クラウドテキスト情報を取得する。一方、画像表示装置1において、ユーザが視聴している番組の音声情報をマイク704から取得する。そして、取得した音声に音声認識をかけてユーザテキスト情報に変換する。そして、クラウドテキスト情報とユーザテキスト情報とを比較、照合することにより、画像表示装置1は、ユーザがどの番組を視聴しているかを特定することができる。そして、制御部71は、ユーザが視聴している番組を特定し、その番組名を組み込んで、例えば、「朝は、Aテレビだよね!」とリコメンドし、テレビのリモコンを制御することとしてもよい。   For example, in a cloud server, speech recognition is performed on what kind of conversation is being performed on a program of each broadcast station, the contents of the program of each broadcast station are converted into text, and cloud text information is acquired. On the other hand, in the image display device 1, the audio information of the program that the user is viewing is acquired from the microphone 704. Then, the acquired voice is subjected to voice recognition and converted to user text information. Then, by comparing and collating the cloud text information with the user text information, the image display device 1 can specify which program the user is viewing. Then, the control unit 71 identifies the program that the user is viewing, incorporates the program name, recommends, for example, “Morning is A TV in the morning!”, And controls the TV remote control. Good.

《空気読みシステム》
画像表示装置1の制御部71は、ユーザが忙しそうにしているか否かを判定し、判定した状態に応じた行動、所謂空気を読んだ行動をとることとしてもよい。画像表示装置1の制御部71(取得処理部711)が取得した種々の環境信号に応じてユーザの忙しさを判定する。例えば、ユーザの起床時刻が遅く、人感センサ702が検出するユーザの位置が所定時間内(例えば、5分以内)に左右に所定回数以上(例えば、10回以上)動くことを検出した場合に、ユーザが忙しいと判定して、画像表示装置1の制御部71は、キャラクターにユーザに話しかけないように制御する。また、ユーザがあまり動かない、即ち、人感センサ702が検出するユーザ位置が所定範囲内にとどまっている場合に、制御部71は、キャラクターにユーザに話しかけさせるように制御する。このように、画像表示装置1の制御部71は、キャラクターにユーザの状態を見て、即ち、空気を読んで、アクションを起こさせるか否かを判定することができる。
《Air reading system》
The control unit 71 of the image display device 1 may determine whether or not the user is busy and take an action corresponding to the determined state, that is, an action of reading so-called air. The busyness of the user is determined according to various environmental signals acquired by the control unit 71 (acquisition processing unit 711) of the image display device 1. For example, when the user's wake-up time is late and it is detected that the position of the user detected by the human sensor 702 moves left and right a predetermined number of times (for example, 10 times or more) within a predetermined time (for example, within 5 minutes). Then, it is determined that the user is busy, and the control unit 71 of the image display device 1 performs control so as not to speak to the user to the character. In addition, when the user does not move much, that is, when the user position detected by the human sensor 702 remains within a predetermined range, the control unit 71 controls the character to speak to the user. As described above, the control unit 71 of the image display apparatus 1 can determine whether or not to cause the character to see the user's state, that is, to read the air and cause an action.

《フェイス&アイトラッキングシステム》
画像表示装置1の制御部71は、カメラ722が取得するユーザの顔画像と目の画像に基づいて、ユーザの視線を検出することとしてもよい。例えば、ユーザの顔画像が画像表示装置1の方向を向いていることを検出し、眼の瞳孔が双方とも画像表示装置1の方向を向いているか否かを検出する。そして、制御部71は、ユーザの視線がキャラクターの方を向いている場合に、キャラクターに恥ずかしがらせたり、ユーザと見つめ合わせたりするようにすることもできる。
<< Face & Eye Tracking System >>
The control unit 71 of the image display device 1 may detect the user's line of sight based on the user's face image and eye image acquired by the camera 722. For example, it is detected that the face image of the user faces the direction of the image display device 1, and it is detected whether or not the pupils of the eyes are both facing the direction of the image display device 1. Then, when the user's line of sight is facing the character, the control unit 71 can make the character feel shy or stare at the user.

《バーチャル風システム》
画像表示装置1の制御部71は、マイク704に、ユーザが息を吹きかけていることを検出して、画像表示装置1内の世界に風を吹かせたエフェクトを発生させてもよい。例えば、キャラクターの服がひらひらと揺れたりする演出をしてもよい。当該構成はマイク704ではなく、画像表示装置1に風圧センサを設けることでも実現できる。
《Virtual style system》
The control unit 71 of the image display device 1 may detect that the user is blowing on the microphone 704 and generate an effect that blows the world in the image display device 1. For example, the character's clothes may flutter. This configuration can also be realized by providing a wind pressure sensor in the image display device 1 instead of the microphone 704.

《体調管理システム》
画像表示装置1は、通信部76を介して、ユーザが保持する体重計や運動量計など、ユーザの状態を検出することができる機器から、ユーザの状態情報を取得することとしてもよい。例えば、体重計から検出したユーザの体重が、所定期間内に所定以上減少していたような場合には、制御部71は、「ちゃんと食べてる?」とキャラクターに話させたり、ユーザの身長に対する体重が平均体重を所定以上多い場合には、「ちょっとは運動しなきゃ!」とリコメンドさせたりすることとしてもよい。また、ユーザが繰り返し運動するような場合には、制御部71は、カメラ722で撮像した画像を参照しながら、キャラクターに繰り返し運動の回数を数えるように音声を出力させることとしてもよい。例えば、腕立て伏せやスクワットの回数を数えることなどが考えられる。
《Physical condition management system》
The image display device 1 may acquire user status information from a device that can detect the user status, such as a weight scale or an exercise meter held by the user, via the communication unit 76. For example, when the weight of the user detected from the weight scale has decreased more than a predetermined amount within a predetermined period, the control unit 71 causes the character to speak “Do you eat properly?” If the average weight is greater than the predetermined weight, it may be recommended that “I have to exercise a little!”. When the user repeatedly exercises, the control unit 71 may cause the character to output a sound so as to count the number of repeated exercises while referring to an image captured by the camera 722. For example, it is possible to count the number of push-ups and squats.

《リアルタイムモーション配信システム》
画像表示装置1の制御部71は、通信部76を介して特殊な信号を受信することで特殊な動作をすることとしてもよい。具体的には、開発運営側の人物の体にモーションキャプチャセンサーを装着し、人物の動きを全ユーザの画像表示装置1に配信する。画像表示装置1は、配信されたモーションと同じ動きをするキャラクターを表示することで、番組配信を実現することもできる。例えば、特殊な信号として地震速報などを受信した場合には、「○○で、震度4の地震だよ。落ち着いて行動してね」といった音声を音声出力部714が出力することとしてもよい。また、特殊な信号内に、表示すべき画像データが含まれる場合に、その画像データを表示してもよい。この画像データとしては、例えば実在の人物であってもよく、例えば、有名人の会見を表示し、その音声を出力するようにしてもよい。これにより、例えば、ホログラムによる番組配信を実現することもできる。また、画像表示装置1は、実在の人物の画像データを取得し、その人物の音声データを取得することで、実在の人物を表示するキャラクターとして表示することができる。
《Real-time motion distribution system》
The control unit 71 of the image display device 1 may perform a special operation by receiving a special signal via the communication unit 76. Specifically, a motion capture sensor is attached to the body of a person on the development and management side, and the movement of the person is distributed to the image display device 1 of all users. The image display apparatus 1 can also realize program distribution by displaying a character that moves in the same manner as the distributed motion. For example, when earthquake early warning or the like is received as a special signal, the voice output unit 714 may output a voice such as “Oh, it is an earthquake of seismic intensity 4. Please act calmly”. Further, when image data to be displayed is included in a special signal, the image data may be displayed. The image data may be, for example, a real person, for example, a celebrity interview may be displayed and the sound may be output. Thereby, for example, program distribution by hologram can be realized. Further, the image display device 1 can display image data of a real person by acquiring image data of the real person and acquiring voice data of the person.

《ホログラムアバター電話システム》
画像表示装置1に電話機が接続、又は、画像表示装置1に電話機能が備えられている場合に、画像表示装置1は、以下の機能を備えてもよい。画像表示装置1は、このとき、カメラ722から取得した画像に基づいて、ユーザの表情を特定し、特定した表情と同じ表情のアバター情報を生成し、電話相手にそのアバター情報を送信して、電話相手の表示画面にそのアバター画像を表示させる構成を備えてもよい。
《Hologram Avatar Phone System》
When a telephone is connected to the image display device 1 or when the image display device 1 has a telephone function, the image display device 1 may have the following functions. At this time, the image display device 1 identifies the user's facial expression based on the image acquired from the camera 722, generates avatar information having the same facial expression as the identified facial expression, transmits the avatar information to the telephone partner, You may provide the structure which displays the avatar image on the display screen of a telephone other party.

《報告システム》
画像表示装置1の制御部71は、ユーザの帰宅を検出して、ユーザに対して、キャラクターにキャラクターの一日を報告させることとしてもよい。例えば、解析部712は、人感センサ702が、所定時間以上、ユーザを検出していない状態で、新たにユーザを検知した場合に、ユーザが帰宅したものと判定する。すると、制御部71は、キャラクターに周辺で起こった出来事(各種センサから取得できる情報に基づいて、その事象が起こったと推定される内容)を、ユーザに報告させることとしてもよい。例えば、温湿度センサ611が所定以上の温度を、所定時間以上、検出していた場合に、キャラクターに「今日は暑かったよ〜」と報告させたり、室温度センサ611が所定以上の温度と湿度を、所定時間以上検出していた場合に、「今日は蒸し暑かったねえ」と報告させたり、地震速報を受信していた場合には、「今日、地震があったね。そっちは大丈夫だった?」と報告させたり、「あなたがいないときに、誰々がきたよ〜」と報告させたりしてもよい。
《Reporting system》
The control unit 71 of the image display device 1 may detect the user's return home and cause the character to report the character's day. For example, the analysis unit 712 determines that the user has returned home when the human sensor 702 has not detected the user for a predetermined time or longer and has newly detected the user. Then, the control part 71 is good also as making a user report the event (content estimated that the event occurred based on the information which can be acquired from various sensors) which happened to the character vicinity. For example, if the temperature / humidity sensor 611 has detected a temperature above a predetermined level for a predetermined time or longer, the character may report “It was hot today” or the room temperature sensor 611 may have a temperature and humidity above a predetermined level. If it was detected for more than a certain period of time, it was reported that “It was hot and humid today”, or if an earthquake bulletin was received, “There was an earthquake today. Was that okay?” You may want to report it, or “Who came when you were n’t there.”

《体調不良連絡電話システム》
画像表示装置1の制御部71は、画像表示装置1に電話機能が搭載されている場合に、ユーザの体調が悪い場合に、ユーザからの指示に従って、ユーザの勤務先や通学先など、予め設定されている電話番号に、「本日、体調不良のためお休みをいただきます」と、ユーザの代わりに電話連絡をさせることとしてもよい。
《Unwell physical contact phone system》
When the telephone function is installed in the image display device 1 and the user's physical condition is bad, the control unit 71 of the image display device 1 sets in advance the user's work place or school destination according to the instruction from the user. It is also possible to have the phone number contacted by phone instead of the user, saying, “I will take a rest due to poor physical condition today”.

《特定デバイスによるジェスチャーコントロールシステム》
画像表示装置1の制御部71は、ユーザが装着または保持する特定のアイテムからの信号に従って、キャラクターを制御することとしてもよい。例えば、特定のアイテムが指輪の場合であって、画像解析によりユーザが指輪をこすっていることを検出した場合に、キャラクターに恥ずかし気な動作をさせることとしてもよい。また、あるいは、特定のアイテムとして、ユーザがペンライトを持って左右に振っていた場合には、制御部71は、キャラクターにペンライトを持たせた画像を表示し、その手を左右に振らせるように動かす映像を投影することとしてもよい。
<< Gesture control system by specific device >>
The control unit 71 of the image display device 1 may control the character in accordance with a signal from a specific item worn or held by the user. For example, when a specific item is a ring and it is detected by image analysis that the user is rubbing the ring, the character may be caused to perform a shy operation. Alternatively, as a specific item, when the user is swinging left and right with a penlight, the control unit 71 displays an image in which the character has the penlight and swings his / her hand to the left and right. It is good also as projecting the image which moves like this.

《キャラクターお着替えシステム》
画像表示装置1の制御部71は、キャラクターに着させる服装やアイテムなどを、適宜、変更することとしてもよい。そのために、制御部71は、各種の服装やアイテムの表示データを記憶装置75に記憶、あるいは、外部のサーバからダウンロードして取得する。そして、制御部71は、画像表示装置1が搭載する計時部(図示せず。現在日時を検出するクロック)からの日時が含まれる季節や、天気、気温、時間帯に応じた服装をしたキャラクターを表示することとしてもよい。
《Character change system》
The control unit 71 of the image display device 1 may appropriately change clothes and items to be worn by the character. For this purpose, the control unit 71 stores display data of various clothes and items in the storage device 75 or downloads and acquires it from an external server. Then, the control unit 71 is a character dressed according to the season, weather, temperature, and time zone including the date and time from the time measuring unit (not shown; clock for detecting the current date and time) mounted on the image display device 1. May be displayed.

《瞬間移動システム》
上記実施の形態に係る画像表示装置1をユーザが複数台保持する場合、各画像表示装置1を連動させて、そのうちの、ユーザが確認できる位置にのみキャラクターを表示することとしてもよい。その場合、制御部701は、ユーザが移動した移動先にある画像表示装置1に、キャラクターも移動してきたかのような演出をすることとしてもよい。
《Moment transfer system》
When the user holds a plurality of image display apparatuses 1 according to the above-described embodiment, the characters may be displayed only at positions that can be confirmed by the user by interlocking the image display apparatuses 1. In that case, the control unit 701 may produce an effect as if the character has moved to the image display apparatus 1 at the destination to which the user has moved.

《掃除システム》
画像表示装置1の制御部71は、家電として、ロボット掃除機と通信を行って、そのロボット掃除機を制御して、ユーザの室内を掃除することとしてもよい。また、その際に、制御部71は、ユーザが普段掃除している箇所と掃除していない箇所とを特定し、
《Cleaning system》
The control part 71 of the image display apparatus 1 is good also as communicating with a robot cleaner as a household appliance, controlling the robot cleaner, and cleaning a user's room | chamber interior. In addition, at that time, the control unit 71 specifies a place where the user normally cleans and a place not cleaned,

《歯磨き応援システム》
画像表示装置1の制御部71は、画像解析によりユーザが歯磨きをしていることを検出して、キャラクターにユーザの歯磨きを応援する行動をとらせてもよいし、ユーザが薬を飲んだり、患部に薬を塗ったりすることを検出して、キャラクターにその行動を応援させることとしてもよい。
《Tooth brushing support system》
The control unit 71 of the image display device 1 may detect that the user is brushing teeth by image analysis, and may cause the character to take action to support the user's tooth brushing, or the user may take medicine. It is also possible to detect that a drug is applied to the affected area and cause the character to support the action.

《スポーツ選手モーションキャプチャシステム》
画像表示装置1は、スポーツ中継などの映像を取得し、そのスポーツ中継に登場するスポーツ選手のモーションと同じモーションをキャラクターに実行させるように画像を投影してもよい。また、その際に、ユーザは、ユーザの通信端末や、画像表示装置1に備え付けられた操作パネルや、音声等により、キャラクターの向く向きを指示して、当該指示に従った映像を画像表示装置1は、表示することとしてもよい。また、このとき、キャラクターではなく、スポーツ選手そのものの映像を表示することとしてもよい。
《Sports player motion capture system》
The image display device 1 may acquire a video such as a sports broadcast and project the image so that the character performs the same motion as the motion of a sports player appearing in the sports broadcast. At that time, the user instructs the direction of the character using the user's communication terminal, the operation panel provided in the image display device 1, voice, or the like, and displays the video according to the instruction in the image display device. 1 may be displayed. At this time, it is also possible to display an image of the sports player itself instead of the character.

《ライブ応援システム》
画像表示装置1は、ユーザが何等かのアイドル等のライブなどを視聴している場合に、制御部71は、キャラクターにもそのライブ映像を視聴しているように表示するとともに、そのキャラクターにライブに参加しているかのように、掛け声を発したり、ケミカルライトを振る動作をさせてもよい。また、あるいは、制御部71は、キャラクターがバーチャルシンガーとしてアイドルのように、歌を歌って踊る動作をさせる場合に、ユーザからの手拍子や応援に応じて、その動作を連動させてもよい。例えば、ユーザの手拍子のタイミングを検出して、そのタイミングに合わせてステップを踏ませるように画像を出力することとしてもうよいし、ユーザからの応援の声量に合わせて行動を変化させてもよい。
《Live support system》
When the user is watching a live such as an idol or the like, the image display device 1 displays the live video on the character as if the user is watching the live video. You may make a shout or shake the chemical light as if you were participating. Alternatively, the control unit 71 may link the movements according to the clapping and cheering of the user when the character sings and dances like a idol as a virtual singer. For example, the timing of the user's clapping may be detected, and an image may be output so that the steps are performed in accordance with the timing, or the behavior may be changed according to the amount of support from the user.

《マルチエージェントシステム》
画像表示装置1は、記憶装置75に複数のキャラクターに関する情報を記憶しておいてもよい。そして、制御部71は、ユーザの状況に応じて使用するキャラクターを選択し、投影することとしてもよい。また、画像表示装置1にマルチコアを搭載し、1コアで1キャラクターを制御する場合に、画像表示装置1は、同時に複数のキャラクターを投影することとしてもよい。
《Multi-agent system》
The image display device 1 may store information related to a plurality of characters in the storage device 75. And the control part 71 is good also as selecting and projecting the character to be used according to a user's condition. Further, when the image display device 1 is equipped with a multi-core and one character is controlled by one core, the image display device 1 may project a plurality of characters at the same time.

《年齢経過システム》
画像表示装置1は、キャラクターを表示する際に、一定時間でキャラクターが年をとるように画像を表示することとしてもよい。画像表示装置1は、例えば、キャラクターを初めて召還する場合には、赤ちゃんの状態を表示することとし、そこから、所定期間が経過するごと(例えば、1ヶ月経過するごと)に、キャラクターの画像を変化させるようにして、キャラクターが成長しているかのように、表示することとしてもよい。
《Age course system》
When displaying the character, the image display device 1 may display the image so that the character gets older in a certain time. For example, when the character is summoned for the first time, the image display device 1 displays the baby's state, and from there, the character image is displayed every time a predetermined period elapses (for example, every month). It may be displayed as if the character is growing as it is changed.

《各種言語対応システムシステム》
画像表示装置1は、音声認識のアルゴリズムや、対話システムを、各国の各言葉に応じたモデルを搭載することで、各種の言語に対応することができる。
<< Systems for various languages >>
The image display apparatus 1 can cope with various languages by mounting a speech recognition algorithm and a dialogue system with models corresponding to each language in each country.

《オリジナルキャラクターシステム》
画像表示装置1が表示するキャラクターは、ユーザがオリジナルで作成することとしてもよい。画像表示装置1は、そのために必要とする各種データのフォーマットを用意し、ユーザがエディットできるように構成されてもよいし、エディット自体はユーザのPC等で作成したものを画像表示装置1に転送することとしてもよい。また、ユーザが作成したキャラクターデータは、ネットワークを介して配信することとしてもよい。
《Original character system》
The character displayed by the image display device 1 may be created by the user as an original. The image display device 1 may be configured so that various data formats necessary for this can be prepared and edited by the user, or the edit itself created by the user's PC or the like is transferred to the image display device 1. It is good to do. The character data created by the user may be distributed via a network.

《各種キャラクター召還システム》
画像表示装置1が表示するキャラクターとしては、VR(Virtual Reality)コンテンツのキャラクターのデータを用いることとしてもよい。例えば、ユーザがHMD(Head Mounted Display)を利用して遊んだゲーム等のキャラクターを画像表示装置1が表示するキャラクターとして使用することとしてもよい。また、VRコンテンツに限らず、各種のゲーム(例えば、スマホゲームなど)のキャラクターをダウンロードして表示するキャラクターとして使用することができる。
《Various character summoning system》
As a character displayed by the image display device 1, character data of VR (Virtual Reality) content may be used. For example, a character such as a game played by a user using an HMD (Head Mounted Display) may be used as a character displayed on the image display device 1. In addition to VR content, it can be used as a character for downloading and displaying characters of various games (for example, a smartphone game).

《チャット機能の外部実装》
上記では、画像表示装置1が、チャット機能を有することとしてが、チャット機能は、外部の装置が実行することとしてもよい。即ち、ユーザが通信端末を用いて、画像表示装置1のキャラクターとメッセージのやり取りをする際には、実際には、外部サーバとやり取りをしている構成をとってもよい。その場合に、外部のサーバは、キャラクターとしての応答アルゴリズムを保持するほか、画像表示装置1から、ユーザに関する会話履歴データ755、チャット履歴データ756を事前に取得しておく必要がある。そのため、ユーザからのチャット入力があった場合に、外部の装置は、画像表示装置1にアクセスして、それらの情報を取得する構成を備えていてもよい。また、外部の装置がユーザの通信端末とのチャットを終えた後には、外部の装置は、チャット履歴データ756を画像表示装置1に送信し、画像表示装置1は、受信したチャット履歴データ756を記憶装置75に上書きすることとしてもよい。このような実装により、画像表示装置1の外部にチャット機能を有する装置を設けたシステムを実現することができる。
《External implementation of chat function》
In the above description, the image display device 1 has a chat function, but the chat function may be executed by an external device. That is, when a user exchanges a message with the character of the image display device 1 using a communication terminal, the user may actually exchange with an external server. In this case, the external server needs to acquire the response algorithm as a character and acquire the conversation history data 755 and chat history data 756 related to the user from the image display device 1 in advance. Therefore, when there is a chat input from the user, an external device may be configured to access the image display device 1 and acquire such information. Further, after the external device finishes the chat with the user's communication terminal, the external device transmits the chat history data 756 to the image display device 1, and the image display device 1 stores the received chat history data 756. The storage device 75 may be overwritten. With such an implementation, it is possible to realize a system in which a device having a chat function is provided outside the image display device 1.

以上のように、本発明の第一実施形態に係る画像表示装置1によれば、表示対象であるキャラクター等を、同じ空間にいる実体物のように表示させることができる。また、画像表示装置1では、ユーザの音声等の環境情報に対応した振る舞いを、キャラクター等などにより行わせるようにしている。さらに、画像表示装置1では、キャラクターの心情等を表現する演出画像をキャラクター画像とともに表示させることができる。さらには、ユーザと行った会話やチャットの内容について、過去の内容が最新の会話やチャットに反映されるので、ユーザはより一層キャラクターに対して親近感を覚え、愛着がわく。   As described above, according to the image display device 1 according to the first embodiment of the present invention, it is possible to display a character or the like to be displayed as an entity in the same space. Further, the image display device 1 causes a character or the like to perform a behavior corresponding to environmental information such as a user's voice. Further, the image display device 1 can display an effect image representing the character's feeling and the like together with the character image. Furthermore, since the past contents are reflected in the latest conversations and chats regarding the conversations and chats performed with the user, the user is more familiar with the character and is more attached.

これにより、あたかも実在するキャラクター等と同じ空間にいるような感覚をユーザに与えることができる。また、キャラクターをより身近に感じさせることができる。   Thereby, it is possible to give the user a feeling as if they were in the same space as a real character or the like. In addition, the character can be felt closer.

上述した実施形態においては、各処理を、画像表示装置1の制御部71が画像表示プログラム、会話プログラム、チャットプログラム等を実行することにより、実現するものとして説明した。一方、画像表示装置1において、CPUに代えて、集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))、FPGA(Field Programmable gate array)、CPLD(Complex Programmable Logic Device)等に形成された論理回路(ハードウェア)や専用回路によって各処理を実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上記実施形態に示した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。   In the embodiment described above, each process has been described as being realized by the control unit 71 of the image display device 1 executing an image display program, a conversation program, a chat program, and the like. On the other hand, in the image display device 1, instead of the CPU, an integrated circuit (IC (Integrated Circuit) chip, LSI (Large Scale Integration)), FPGA (Field Programmable Gate Array), CPLD (Complex Programmable Logic Device), or the like is formed. Each process may be realized by a logic circuit (hardware) or a dedicated circuit. In addition, these circuits may be realized by one or a plurality of integrated circuits, and the functions of the plurality of functional units described in the above embodiments may be realized by a single integrated circuit. An LSI may be called a VLSI, a super LSI, an ultra LSI, or the like depending on the degree of integration.

すなわち、図27に示すように、画像表示装置1は、制御回路71a、入力回路72a、出力回路73a、操作回路74a、記憶回路75a、通信回路76aから構成されてもよい。制御回路71aが有する取得制御回路711a、解析回路712a、表示処理回路713a、音声出力回路714a、送信処理回路715a及びデータ管理回路716aは、画像表示プログラムP1、会話プログラムP2、チャットプログラムP3等によって制御される。それぞれの機能は、上記実施形態に示した同様の名称を有する各部と同様である。   That is, as shown in FIG. 27, the image display apparatus 1 may be configured by a control circuit 71a, an input circuit 72a, an output circuit 73a, an operation circuit 74a, a storage circuit 75a, and a communication circuit 76a. The acquisition control circuit 711a, analysis circuit 712a, display processing circuit 713a, audio output circuit 714a, transmission processing circuit 715a, and data management circuit 716a included in the control circuit 71a are controlled by an image display program P1, a conversation program P2, a chat program P3, and the like. Is done. Each function is the same as each part which has the same name shown in the said embodiment.

また、上記記憶装置75としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記画像表示プログラムP1、会話プログラムP2、チャットプログラムP3は、当該画像表示プログラムP1、会話プログラムP2、チャットプログラムP3を伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記プロセッサに供給されてもよい。本発明は、上記映像表示プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。また、これらのプログラムに限らず、キャラクターに関する音声データや画像データもそれらを記憶しているサーバからダウンロードして画像表示装置1で使用できてもよい。こうすることで、様々なキャラクターを画像表示装置1で楽しむことができる。また、同一キャラクターの新たな音声データや画像データもダウンロードして使用できるように構成されてもよい。また、記憶装置75に記憶されている各種データは、記憶装置75ではなく、画像表示装置1がアクセス可能なネットワーク上のサーバ等の外部装置に記憶することとしてもよい。そして、画像表示装置1の制御部71は通信部76を介して、都度必要なタイミングで外部サーバにアクセスして必要な情報を取得することとしてもよい。例えば、上記実施の形態における言語モデルや音声モデルなどの情報をネットワーク上に記憶しておくことができる。   Further, as the storage device 75, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The image display program P1, the conversation program P2, and the chat program P3 are transmitted via any transmission medium (communication network, broadcast wave, etc.) that can transmit the image display program P1, the conversation program P2, and the chat program P3. It may be supplied to the processor. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the video display program is embodied by electronic transmission. In addition to these programs, voice data and image data related to characters may be downloaded from a server storing them and used in the image display apparatus 1. In this way, various characters can be enjoyed on the image display device 1. In addition, new voice data and image data of the same character may be downloaded and used. Various data stored in the storage device 75 may be stored not in the storage device 75 but in an external device such as a server on a network accessible by the image display device 1. Then, the control unit 71 of the image display device 1 may access the external server via the communication unit 76 at a necessary timing and acquire necessary information. For example, information such as the language model and the speech model in the above embodiment can be stored on the network.

なお、上記画像表示プログラムP1、会話プログラムP2、チャットプログラムP#は、例えば、ActionScript、JavaScript(登録商標)、Python、Rubyなどのスクリプト言語、C言語、C++、C#、Objective-C、Java(登録商標)などのコンパイラ言語、アセンブリ言語、RTL(Register Transfer Language)などを用いて実装できる。   The image display program P1, the conversation program P2, and the chat program P # are script languages such as ActionScript, JavaScript (registered trademark), Python, Ruby, C language, C ++, C #, Objective-C, Java (for example). It can be implemented using a compiler language such as a registered trademark, assembly language, RTL (Register Transfer Language), or the like.

2010 画像表示装置
2011 表示部
2012 取得部
2013 推定部
2014 生成部
2015 出力部
1 画像表示装置
2 ケース
21 上部収容部
22 下部収容部
221 台座
23 支柱
3 透過フィルム(平状部材)
4 プロジェクタ(映像出力手段)
5 反射ミラー(反射手段)
51 ミラー取付部(調整手段)
6 柱部
71 制御部(出力制御手段)
72 入力部(入力手段)
73 出力部(出力手段)
706 演出用LED(発光手段)
2010 image display device 2011 display unit 2012 acquisition unit 2013 estimation unit 2014 generation unit 2015 output unit 1 image display device 2 case 21 upper housing unit 22 lower housing unit 221 pedestal 23 support column 3 transparent film (flat member)
4 Projector (video output means)
5 Reflection mirror (reflection means)
51 Mirror mounting part (adjustment means)
6 pillar part 71 control part (output control means)
72 Input section (input means)
73 Output section (output means)
706 Production LED (light emitting means)

Claims (11)

キャラクターを表示する表示部と、
ユーザに関する情報を取得する取得部と、
前記取得部が取得した情報から前記ユーザの状態を推定する推定部と、
前記推定部による推定結果に基づいて、前記キャラクターに動作および/または発言を行わせるための情報を生成する生成部と、
前記生成部が生成した情報を出力する出力部と
を備える画像表示装置。
A display for displaying the character,
An acquisition unit for acquiring information about the user;
An estimation unit that estimates the state of the user from the information acquired by the acquisition unit;
Based on the estimation result by the estimation unit, a generation unit that generates information for causing the character to perform movement and / or speech,
An image display device comprising: an output unit that outputs information generated by the generation unit.
前記取得部は、前記ユーザの生体情報、前記ユーザの部屋の情報、前記ユーザに関連する環境情報の少なくとも一つの情報を取得することを特徴とする請求項1に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the acquisition unit acquires at least one of the biological information of the user, information on the user's room, and environmental information related to the user. 前記生成部は、前記推定部による推定結果に基づいて、前記キャラクターに、前記ユーザの状態と同じ状態を示す動作および/または発言を行わせるための情報を生成することを特徴とする請求項1または2に記載の画像表示装置。   The said generation part produces | generates the information for making the said character perform the operation | movement and / or remark which show the same state as the said user's state based on the estimation result by the said estimation part. Or the image display apparatus of 2. 前記生成部は、前記推定部による推定結果に基づいて、前記キャラクターに、前記ユーザの状態に対応する動作および/または発言を行わせるための情報を生成することを特徴とする請求項1〜3のいずれか一項に記載の画像表示装置。   The said production | generation part produces | generates the information for making the said character perform the operation | movement and / or speech corresponding to the said user's state based on the estimation result by the said estimation part, The 1-3 characterized by the above-mentioned. The image display device according to any one of the above. 前記取得部は、センサにより測定された測定値からユーザに関する情報を取得することを特徴とする請求項1〜4のいずれか一項に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the acquisition unit acquires information about a user from a measurement value measured by a sensor. 前記センサは、温度センサ、湿度センサ、加速度センサ、赤外線センサまたはガスセンサの少なくとも一つであることを特徴とする請求項5に記載の画像表示装置。   The image display device according to claim 5, wherein the sensor is at least one of a temperature sensor, a humidity sensor, an acceleration sensor, an infrared sensor, and a gas sensor. 前記取得部は、カメラにより撮影された画像からユーザに関する情報を取得することを特徴とする請求項1〜6のいずれか一項に記載の画像表示装置。   The image display device according to claim 1, wherein the acquisition unit acquires information about a user from an image captured by a camera. 前記取得部は、記憶装置からユーザに関する情報を取得することを特徴とする請求項1〜7のいずれか一項に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the acquisition unit acquires information about a user from a storage device. 前記画像表示装置は、
一部又は全部が透光性部材からなるケースと、
前記ケースの内部に立設した透光性を有する平状部材と、を更に備え、
前記表示部は、前記平状部材に前記キャラクターを投影することで、前記キャラクターを表示する
ことを特徴とする請求項1〜8のいずれか一項に記載の画像表示装置。
The image display device includes:
A case where part or all of the case is made of a translucent member;
A flat member having translucency standing upright inside the case, and
The image display device according to claim 1, wherein the display unit displays the character by projecting the character onto the flat member.
コンピュータに、
キャラクターを表示する表示ステップと、
ユーザに関する情報を取得する取得ステップと、
前記取得ステップにおいて取得した情報から前記ユーザの状態を推定する推定ステップと、
前記推定ステップにおける推定結果に基づいて、前記キャラクターに動作および/または発言を行わせるための情報を生成する生成ステップと、
前記生成ステップにおいて生成した情報を出力する出力ステップと
を実行させる画像表示方法。
On the computer,
A display step to display the character;
An acquisition step for acquiring information about the user;
An estimation step of estimating the state of the user from the information acquired in the acquisition step;
A generation step for generating information for causing the character to perform movement and / or speech based on the estimation result in the estimation step;
An image display method for executing an output step of outputting information generated in the generation step.
コンピュータに、
キャラクターを表示する表示機能と、
ユーザに関する情報を取得する取得機能と、
前記取得機能が取得した情報から前記ユーザの状態を推定する推定機能と、
前記推定機能による推定結果に基づいて、前記キャラクターに動作および/または発言を行わせるための情報を生成する生成機能と、
前記生成機能が生成した情報を出力する出力機能と
を実現させる画像表示プログラム。
On the computer,
Display function to display the character,
An acquisition function to acquire information about users;
An estimation function for estimating the state of the user from the information acquired by the acquisition function;
A generation function for generating information for causing the character to perform movement and / or speech based on an estimation result by the estimation function;
The image display program which implement | achieves the output function which outputs the information which the said production | generation function produced | generated.
JP2018024584A 2018-02-14 2018-02-14 Image display device, image display method, and image display program Pending JP2019139170A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018024584A JP2019139170A (en) 2018-02-14 2018-02-14 Image display device, image display method, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018024584A JP2019139170A (en) 2018-02-14 2018-02-14 Image display device, image display method, and image display program

Publications (1)

Publication Number Publication Date
JP2019139170A true JP2019139170A (en) 2019-08-22

Family

ID=67693924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018024584A Pending JP2019139170A (en) 2018-02-14 2018-02-14 Image display device, image display method, and image display program

Country Status (1)

Country Link
JP (1) JP2019139170A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075118A1 (en) * 2019-10-15 2021-04-22 ソニー株式会社 Image display device
JP2022526511A (en) * 2019-08-28 2022-05-25 北京市商▲湯▼科技▲開▼▲發▼有限公司 Interactive methods, devices, devices, and storage media
JP2022081257A (en) * 2020-11-19 2022-05-31 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information processing apparatus, information processing method, and information processing program
JP2022095609A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game server, game program and information processing method
JP2022095610A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game server, game program and information processing method
CN117557698A (en) * 2024-01-11 2024-02-13 广州趣丸网络科技有限公司 Digital human limb animation generation method and device, storage medium and computer equipment
CN117557698B (en) * 2024-01-11 2024-04-26 广州趣丸网络科技有限公司 Digital human limb animation generation method and device, storage medium and computer equipment

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022526511A (en) * 2019-08-28 2022-05-25 北京市商▲湯▼科技▲開▼▲發▼有限公司 Interactive methods, devices, devices, and storage media
WO2021075118A1 (en) * 2019-10-15 2021-04-22 ソニー株式会社 Image display device
JP2022081257A (en) * 2020-11-19 2022-05-31 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information processing apparatus, information processing method, and information processing program
JP2022095609A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game server, game program and information processing method
JP2022095610A (en) * 2020-12-16 2022-06-28 株式会社あかつき Game server, game program and information processing method
JP7137725B2 (en) 2020-12-16 2022-09-14 株式会社あかつき Game server, game program, information processing method
JP7137724B2 (en) 2020-12-16 2022-09-14 株式会社あかつき Game server, game program, information processing method
CN117557698A (en) * 2024-01-11 2024-02-13 广州趣丸网络科技有限公司 Digital human limb animation generation method and device, storage medium and computer equipment
CN117557698B (en) * 2024-01-11 2024-04-26 广州趣丸网络科技有限公司 Digital human limb animation generation method and device, storage medium and computer equipment

Similar Documents

Publication Publication Date Title
US10713006B2 (en) Image display apparatus, topic selection method, topic selection program, image display method, and image display program
JP6165302B1 (en) Image display device, topic selection method, topic selection program
JP2018014575A (en) Image display device, image display method, and image display program
JP2019139170A (en) Image display device, image display method, and image display program
JP6367440B2 (en) Interactive objects for immersive environments
AU2014236686B2 (en) Apparatus and methods for providing a persistent companion device
US10357881B2 (en) Multi-segment social robot
CN107000210A (en) Apparatus and method for providing lasting partner device
JP2019521449A (en) Persistent Companion Device Configuration and Deployment Platform
CN110139732A (en) Social robot with environmental Kuznets Curves feature
KR20170085422A (en) Apparatus and method for operating personal agent
JPWO2016068262A1 (en) Communication robot
US10086265B2 (en) Video teleconference object enable system
JP6682475B2 (en) Image display device, topic selection method, topic selection program
JP2022169645A (en) Device and program, or the like
WO2019215983A1 (en) Information processing system, information processing method, and recording medium
JP2019139169A (en) Image display device, image display method, and image display program
JP7448142B2 (en) Display device etc.
JP7475027B2 (en) Display devices, etc.
WO2017152167A1 (en) Interactive toy device, and systems and methods of communication between the same and network devices
JP2022157245A (en) System and the like
JP2021117479A (en) Display device and the like
WO2018183812A1 (en) Persistent companion device configuration and deployment platform
JP2023035270A (en) Display device, etc