JP7475027B2 - 表示装置等 - Google Patents

表示装置等 Download PDF

Info

Publication number
JP7475027B2
JP7475027B2 JP2020064321A JP2020064321A JP7475027B2 JP 7475027 B2 JP7475027 B2 JP 7475027B2 JP 2020064321 A JP2020064321 A JP 2020064321A JP 2020064321 A JP2020064321 A JP 2020064321A JP 7475027 B2 JP7475027 B2 JP 7475027B2
Authority
JP
Japan
Prior art keywords
image
display unit
display device
image display
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020064321A
Other languages
English (en)
Other versions
JP2021117479A (ja
Inventor
利夫 黒瀬
真一 西村
裕 山下
英樹 石橋
隆之 水野
勇喜 清水
幹雄 島津江
圭三 高橋
篤 石橋
康一 野口
隆 浅野
茂 小池
Original Assignee
株式会社ユピテル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ユピテル filed Critical 株式会社ユピテル
Publication of JP2021117479A publication Critical patent/JP2021117479A/ja
Priority to JP2024004254A priority Critical patent/JP2024032778A/ja
Application granted granted Critical
Publication of JP7475027B2 publication Critical patent/JP7475027B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Description

例えば、画像を表示可能な表示装置等に関する。
画像表示部を有し、当該画像表示部に二次元画像や三次元画像を表示する表示装置が存在する。例えば特許文献1には、画像表示部に三次元画像を表示する表示装置が示されている。
特開2003-295113号公報
しかしながら、特許文献1等に記載されているような表示装置では、その表示装置の構成によっては、例えば画像表示部からの画像光と外光とが相まって、表示画像に関する視認性が低下し得ることがあるという知見を本願の発明者は得た。
本発明は、表示画像に関して高い視認性を得ることができる表示装置等を提供することを目的の一つとする。
本発明の目的はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」と記載した箇所を「~が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、各々の課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙示的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正または分割出願にて特許請求の範囲とする意思を有する。またこれら独立の課題を組み合わせた課題を解決する構成についても開示しているものであり、権利取得する意思を有する。
本発明の目的は、例えば、以下の(1)~(23)の形態により達成することができる。
(1)画像を表示する表示装置であって、遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、前記内部空間に配置された画像表示部と、前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、を備える表示装置とするとよい。
このようにすれば、筐体の内部空間へと外光が入り込むことを抑制できるとともに、画像表示部からの画像光が目視者の目に直接届くことが抑制される。したがって、筐体の内部空間に認識される画像を、画像表示部からの画像光と外光とが相まって視認し難くなることを抑制でき、表示画像に関して高い視認性を得ることができる表示装置を提供することができる。
(2)前記減光部材は、前記開口部と前記画像表示部との間に配置されるとよい。
このようにすれば、筐体の内部において減光部材よりも画像を見る側に空間領域が形成されるので、当該空間領域を所定の用途に利用することができる。
(3)前記減光部材の前記第1方向側の面は、前記画像表示部の表示面に対して傾斜しているとよい。
このようにすれば、目視者が減光部材を介して画像表示部を見た際に、当該減光部材に目視者の顔が反射により映り込むことを軽減できる。
(4)前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示するとよい。
このようにすれば、目視者は、三次元画像として認識できる画像に触れることができるような感覚を得ることができる。
(5)前記画像表示部は、三次元画像として認識される画像として、前記第1の画像と、前記第1の画像よりも前記第1方向側または前記第1方向側とは反対の第2方向側に存在すると認識される第2の画像とを含む複数の画像のいずれかを選択的に表示するとよい。
このようにすれば、目視者によって三次元の画像として認識される画像が存在すると認識される位置が異なる第1の画像と第2の画像とを含む複数の画像のいずれかを選択的に表示することができるので、目視者に与える立体感を変更することができる。
(6)前記筐体に設けられた音声出力部をさらに有し、前記音声出力部は、前記筐体の前記内部空間に面する第1面のうち、前記減光部材よりも前記第1方向側で、かつ前記開口部との距離よりも前記減光部材との距離が小さい位置に設けられるとよい。
このようにすれば、音声出力部により出力された音声が減光部材に反射して目視者に伝達されることがあるため、目視者に対して、例えば画像表示部に表示された画像自体から音声が聞こえているように感じさせることができる。また、音声出力部が目視者から見え難い位置に配置されていることにより、表示装置のデザイン性を高めることもできる。
(7)前記開口部の上端部は、前記画像表示部の表示面の上端部よりもさらに上方に設けられており、前記内部空間の上面は、前記開口部の上端部から前記表示面の上端部へと向かうに従って下方に傾斜しているとよい。
このようにすれば、画像表示部に表示された画像を見下ろしながら視認することができるので、目視者に自然な姿勢で画像を視認させやすくすることができる。
(8)前記画像表示部は、光源と、前記光源からの光を変調して画像を表示する表示体とを有するとよい。
光源からの光を変調して画像を表示する画像表示部において、光源からの光が漏れ出てしまってその光源の位置が目視者に認識されてしまうことにより、内部空間に画像が浮かび上がっているような浮遊感が損なわれてしまうおそれがある。減光部材の存在により、光源から漏れ出た光が視認され難くなるので、画像のより高い浮遊感を与えることができる。
(9)前記開口部の上端部は、前記開口部の下端部よりも前記第1方向側に突出しているとよい。
このようにすれば、表示装置の上方からの光が減光部材に反射することによって画像表示部における画像の視認性が低下すること、を抑制することができる。
(10)前記筐体は、前記筐体の上面にカバー部を有するとともに、前記カバー部と前記筐体の内周面のうちの上面との間に収容空間を有し、前記表示装置に関する制御部は、前記収容空間に配置されるとよい。
このようにすれば、表示装置に関する制御部のメンテナンスを、筐体の上面に設けられたカバー部を外して行うことができる。したがって、表示装置のメンテナンス性を向上させることができる。
(11)前記筐体の前記内部空間よりも下方に設けられた電源部を備え、前記電源部と前記制御部とを電気的に接続する接続コードは、前記筐体の外周壁と前記内部空間との間に確保された隙間領域を通るように配線されるとよい。
このようにすれば、電源部が目立ち難い位置に配置されるとともに表示装置の重心位置を低くすることができ、その姿勢を安定させやすくする。また、電源部と制御部とを接続する接続コードを目視者の目に触れないように配線することができる。
(12)前記カバー部は、複数の取付位置で前記筐体の本体部に対して取り付けられるとともに、前記カバー部と前記本体部とは、前記複数の取付位置のうち前記第1方向側の第1の取付位置では、前記筐体の外周壁よりも内側の位置において第1の固定具を用いて結合され、前記表示装置の第1の取付位置よりも前記第1方向とは反対側の第2方向側の第2の取付位置では、前記筐体の外周壁の外側から第2の固定具を用いて結合されるとよい。
このようにすれば、目視者の目に触れ難い第2の取付位置においては、外周壁の外側から着脱できる第2の固定具を用いて筐体の外周壁の外側からカバー部と本体部とが結合されるとともに、目視者の目に触れ易い第1の取付位置においては、目視者に目視され難い場所で第1の固定具を用いてカバー部と本体部とが結合されるので、表示装置のデザイン性を高めることができる。
(13)前記筐体のうち、前記開口部よりも前記第1方向側の前記筐体の下側部分に設けられた操作部、をさらに備える表示装置とするとよい。
このようにすれば、目視者が操作部を操作する際に、例えば目視者の手が画像表示部の表示画像に重なることがなく、目視者は、画像表示部の表示画像を見ながら操作部を操作することができる。したがって、目視者が操作部に対する操作を行い易くなるので、表示装置の操作性を向上させることができる。
(14)複数の前記減光部材が着脱可能に設けられているとよい。
このようにすれば、画像表示部に表示される画像の明るさを、別途の調整部材を設けることなく調整することができる。
(15)前記画像表示部には、特定のキャラクターが表示され、目視者の動作を検出可能な動作検出手段と、前記動作検出手段による検出結果に応じて前記特定のキャラクターの動作を制御する動作制御手段と、をさらに備える表示装置とするとよい。
このようにすれば、目視者の動作が検出されると、その検出結果に応じて特定のキャラクターが動作するから、目視者と当該特定のキャラクターとのコミュニケーションを再現することができる。
(16)前記動作検出手段は、物体の挙動を検出可能な挙動検出センサであり、前記挙動検出センサは、前記筐体の内部空間で行われたジェスチャーを検出するように配置されているとよい。
このようにすれば、挙動検出センサが、例えば、筐体の内部空間で目視者のジェスチャーを検出することができる。したがって、挙動検出センサが筐体の外周面に配置されている場合と比較して、挙動検出センサの感度の低下を抑制することができる。
(17)前記挙動検出センサは、前記筐体の内周面のうちの上面に配置されているとよい。
このようにすれば、挙動検出センサが、筐体の内周面のうち外部からの光がより入り込み難い面に設けられるので、挙動検出センサの感度の低下を抑制することができる。
(18)前記挙動検出センサは、光を出射してその反射光を受光して前記ジェスチャーを検出し、前記光の出射方向に設けられ、当該出射した光が当該挙動検出センサに受光されることを抑制する部材、をさらに備える表示装置とするとよい。
このようにすれば、挙動検出センサの光の出射方向に存在する筐体の部位からの反射光を受光しにくくなるので、挙動検出センサの感度の低下を更に抑制することができる。
(19)においを検知するにおいセンサと、前記においセンサによる検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記においセンサによる検知結果に応じた音声を前記画像表示部に表示された前記キャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、をさらに備えるとよい。
このようにすれば、表示装置の画像表示部に表示されたキャラクターとユーザとの間でにおいに関するコミュニケーションを再現することができる。例えば、においセンサによってにおいが検知されると、キャラクターが「何かにおう」などの音声を発する音声出力動作や、においを嗅ぐ動作をキャラクターが行う映像の表示出力動作が行われるように制御され得る。したがって、当該キャラクターとユーザとの間でより多様なコミュニケーションを図ることができる。
(20)前記表示出力動作は、検知されたにおいの種類に応じた動きを前記キャラクターが行う映像を前記画像表示部に表示する動作であり、前記音声出力動作は、検知されたにおいの種類に応じた音声を前記キャラクターが発する音声として出力する動作であるとよい。
このようにすれば、画像表示部に表示されたキャラクターとユーザとの間でにおいの種類に関するコミュニケーションを再現することができる。例えば、タバコのにおいが検知されたときには、煙たがる動きをキャラクターが行う映像を表示する表示出力動作やユーザの健康に気遣う言葉を発する音声出力動作が実行され得る。また、アロマオイルなどの香料のにおいが検知されたときには、香料に関する質問を発する音声出力動作が実行され得る。このような制御が行われることにより、画像表示部に表示されたキャラクターとユーザとの間でのコミュニケーションの幅を広げることができ、当該キャラクターへのユーザの愛着を増大させることができる。
(21)音声を検出可能な音声検出手段と、検知対象領域における人の存在を検知可能な検知手段と、をさらに備え、前記音声検出手段は、前記検知対象領域における人の存在が検知されると、前記画像表示部に表示されたキャラクターとの対話を行うための音声認識を有効化するとよい。
このようにすれば、ユーザと画像表示部に表示されたキャラクターと対話するにあたって、例えばユーザが音声認識を有効化するためのトリガーワードを発声する必要がなく、より自然にコミュニケーションをとることができる。
(22)風を検知する風検知手段と、前記風検知手段による検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記風検知センサによる検知結果に応じた音声を前記画像表示部に表示されたキャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、をさらに備えるとよい。
このようにすれば、画像表示部に表示されたキャラクターとユーザとの間で表示装置に与えられた風に関するコミュニケーションを再現することができる。風は、例えばユーザ人為的に起こしたものとするとよく、例えば表示装置に向けて手を振る等の身体の部位を動かすことによって発生する風や息を吹きかけることによって発生する風とするとよい。
(23)前記動作制御手段は、前記風検知手段による検知結果に基づき、ユーザの吹きかけた息に応じて前記表示出力動作または前記音声出力動作を行うとよい。
このようにすれば、画像表示部に表示されたキャラクターとユーザとの間で、表示装置に吹きかけた息に応じたコミュニケーションを再現することができる。
本発明によれば、表示画像に関して高い視認性を得ることができる表示装置等を提供することができる。
なお、本願の発明の効果はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」「~可能である」などと記載した箇所などは奏する効果を明示する記載であり、また「~できる」「~可能である」などといった記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。
本発明の一例に係る表示装置を示す斜視図である。 (A)本発明の一例に係る表示装置を示す正面図、(B)本発明の一例に係る表示装置を示す背面図である。 (A)本発明の一例に係る表示装置を示す右側面図、(B)本発明の一例に係る表示装置を示す左側面図である。 (A)本発明の一例に係る表示装置を示す平面図、(B)本発明の一例に係る表示装置を示す底面図である。 本発明の一例に係る表示装置を示す分解斜視図である。 図2(A)のA-A線矢視位置における断面図である。 上面カバー部が取り外された状態の表示装置を説明する斜視図である。 上面カバー部の裏面を示す図である。 一実施例に係る表示装置における制御ブロック図である。 一実施例に係る表示装置の概要を説明する図である。 一実施例に係る表示装置の概要を説明する図である。 一実施例に係るキャラクターを説明する図である。 3Dキャラクターが立体視されている状態を示す図である。 (A)においに関するコミュニケーションを再現するためのフローチャート、(B)においに関する音声管理テーブルを示す図である。 滞在頻度に関するコミュニケーションを再現するためのフローチャートである。 (A)滞在場所に関するコミュニケーションを再現するためのフローチャート、(B)滞在頻度に関する音声管理テーブルを示す図である。 (A)滞在回数に関するコミュニケーションを再現するためのフローチャート、(B)滞在回数に関する音声管理テーブルを示す図である。 (A)滞在時間に関するコミュニケーションを再現するためのフローチャート、(B)滞在時間に関する音声管理テーブルを示す図である。 (A)行動パターンに関するコミュニケーションを再現するためのフローチャート、(B)行動パターンに関する音声管理テーブルを示す図である。 不審者の検知に関する動作を再現するためのフローチャートである。 (A)3Dキャラクターが減光部材よりも後方側に存在する状態を示す図、(B)3Dキャラクターが減光部材よりも前方側に存在する状態を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。 一実施例に係る表示装置に表示される画像の一例を示す図である。
[表示装置の概略構成]
図1は、本発明の一例に係る表示装置1を示す斜視図である。図2(A)は、本発明の一例に係る表示装置1を示す正面図であり、図2(B)は、本発明の一例に係る表示装置1を示す背面図である。図3(A)は、本発明の一例に係る表示装置1を示す右側面図であり、図3(B)は、本発明の一例に係る表示装置1を示す左側面図である。図4(A)は、本発明の一例に係る表示装置1を示す平面図であり、図4(B)は、本発明の一例に係る表示装置1を示す底面図である。図5は、本発明の一例に係る表示装置1を示す分解斜視図である。図6は、図2(A)のA-A線矢視位置における断面図である。以下、図1~図6を参照して、本発明の一例に係る表示装置1の概略構成について説明する。
なお、各図等において、表示装置1の左右方向をX方向とし、表示装置1の左側から右側へと向かう方向を+X方向(X方向の正方向)とする。また、表示装置1の前後方向(奥行方向)をY方向とし、表示装置1の正面側(前方側)から背面側(後方側)へと向かう方向を+Y方向(Y方向の正方向)とする。また、表示装置1の上下方向をZ方向とし、表示装置1の下面側から上面側へと向かう方向を+Z方向(Z方向の正方向)とする。
表示装置1は、種々の用途に用いられる。例えば、表示装置1は、商業用(例えば集客用、広告宣伝用)、娯楽用(人を楽しませる用途)、玩具等とするとよい。例えば、商業用または娯楽用の場合、表示装置1は店舗その他の商業施設等の公共の場所に設置されるとよい。表示装置1は、製品あるいはサービスの展示会等の会場において、特定のキャラクターが製品あるいはサービスを紹介または宣伝等する画像を表示することによって集客を図るとともに、来場者を楽しませるためなどに用いられるとよい。あるいは、表示装置1は、各種のアミューズメント施設等に設置され、アミューズメント施設の訪問者を楽しませるためなどに用いられるとよい。玩具の場合、表示装置1はユーザの自宅等に設置される。また、後述するように表示装置1に三次元画像が表示される場合には、目視者に表示対象物の立体視を体験させることによって当該目視者を楽しませるためなどに用いられるとよい。目視者は、例えば、表示装置1を使用するユーザである。
図5に示されるように、表示装置1は、筐体10と、表示対象物の画像を表示可能な画像表示部20と、減光部材30とを備えている。
筐体10は、表示装置1の外形をなす箱型の部材である。筐体10は、幅方向(左右方向ともいう)、高さ方向(上下方向ともいう。)、及び奥行き方向(前後方向ともいう。)の長さ(最大長)の比が、およそ1:1:1である。ただし、この長さの比は一例であり、少なくとも一部が異なっていてもよい。筐体10は、角部がR形状である。例えば表示装置1を正面側から見たとき、筐体10の4つの角部がそれぞれ丸みを帯びている。 筐体10は、その内部に所定サイズ(例えば、17インチサイズ)の画像表示部20を収容可能な大きさとするとよい。
筐体10は、表示装置1の正面側(各図において-Y側)に開口部5を有している。表示装置1の正面側は、表示装置1が表示する画像を目視者が見る側に相当する。開口部5は、筐体10の内部空間における表示装置1の正面側に形成される。例えば、当該開口部5は、図2(A)に示されるように、表示装置1の正面側から見て矩形状に形成されている。筐体10は、内部空間100を有する。内部空間100は、筐体10の内部の空間で画像が表示される空間である。内部空間100が開口部5以外の部分が遮光性部材で囲まれている(図6参照)。筐体10を構成する部材を通して、内部空間100に外光は進入しない。そのため、筐体10は、その全体が外光を遮断する素材で形成されてもよいが、外側表面や、内部空間100に面している面が光を遮断する素材で覆われたりしてもよい。図6において、当該内部空間100は、一点鎖線で示されており、当該内部空間100を減光部材30で区分した2つの空間領域101,102は、二点鎖線で示されている。空間領域101は減光部材30より背面側の空間である。空間領域101は奥側ほど高さ方向の寸法が大きく、正面側に移動するにつれてその寸法が小さくなる。空間領域102は減光部材30より正面側の空間である。空間領域102は奥側ほど高さ方向の寸法が小さく、正面側に移動するにつれてその寸法が大きくなる。本実施例では、開口部5は、空間領域101を外部空間に通じさせる面状の領域により特定される。よって、開口部5は開口面と読み替えられてもよい。内部空間100は、筐体10の奥行方向(前後方向)に一定程度の領域を有しており、筐体10は、図6のYZ断面に示すように、奥行方向における長さは上端の方が下端よりも長い。当該内部空間100は、例えば、立体視表示されるキャラクターの居室空間として目視者によって認識されるようにするとよい。
例えば、筐体10は、樹脂部材等で形成されているとともに、その表面(例えば、外周面と内周面との少なくとも一方)に、暗色系(例えば、黒色)のラバー塗装が施されている。これにより、当該開口部5以外の部分からは筐体10の内部空間100へと光が進入しないように構成されている。なお、内部空間100が開口部5以外の部分の全てにおいて遮光性部材で囲まれていることは必須ではなく、内部空間100が或る程度暗くなるように遮光性部材で囲まれていればよい。筐体10は、樹脂材料以外の材料、例えば金属またはその他の素材で形成されてもよい。また、筐体10の外側表面の色は問わないが、例えば高級感またはシンプルさを醸し出す白色または黒色等としてもよい。筐体10の表面は、つや消し加工で質感を出すように加工されてもよい。
また、図5に示されるように、筐体10は、本体部11と、上面カバー部12と、減光部材30の配置部13と、底面カバー部14と、背面カバー部15とを有している。なお、各部材12~15は、上面カバー部12の一部分(後述)を除き、ネジ等の固定具によって本体部11に取り付けられる。
次に、画像表示部20について説明する。画像表示部20は、光源を有する表示部である。画像表示部20としては、例えば液晶ディスプレイが挙げられる。この場合、画像表示部20は、光源の一例であるバックライトと、表示素子の一例である液晶素子を二次元配置した表示体28(図5参照)とを含む。光源は例えば白色光源である。液晶素子は、画素単位でバックライトからの光を変調する。液晶素子は、例えば、画素単位に設けられる画素電極と複数の画素で共通の共通電極とで液晶分子を挟持した構成である。画像表示部20は、赤(R)、緑(G)、青(B)の3原色に基づいてカラー(多色)の画像を表示する。画像表示部20は、本実施例では三次元画像として認識されるように画像を表示する。画像表示部20は、本実施例では17インチの液晶ディスプレイである。
画像表示部20は、表示対象物の三次元画像を表示可能に構成されているとよく、裸眼による立体視表示が可能なディスプレイとするとよい。また、画像表示部20は、三次元画像と二次元画像とを切替可能に構成されていると尚よい。画像表示部20には、例えば、特定のキャラクター(例えば、人あるいは動物等)などの表示対象物の画像が表示されるようにするとよい。例えば、人型のキャラクター1000が、図13に示されるように目視者によって立体視されるように画像表示部20において表示制御されるとよい。キャラクター1000は、ここでは歴史上の人物を模したキャラクターであるが、女性のキャラクター、動物(例えば猫)のキャラクター、その他のキャラクターでもよい。これに限定されず、画像表示部20には、様々な画像が表示され得る。また、以下において、立体視表示されるキャラクター(表示されるオブジェクトの一例)は、「3Dキャラクター」などとも称される。3Dキャラクターは、3Dオブジェクトの一例である。
このように、表示装置1は、裸眼による立体視表示を再現可能な装置とするとよい。このような表示装置1は、例えば、「裸眼立体視表示装置」などとも称される。
裸眼立体視表示は、例えばレンチキュラーレンズ方式の画像表示部20を用いることにより再現されるとよい。例えば、画像表示部20の表示面29には、複数の半円筒状レンズが配列されたレンチキュラーレンズが設けられており、画像表示部20は、三次元画像に関してインターレース処理された複数の画像列の組み合わせにより構成される画像列群(レンチキュラー画像、などとも称される)を表示する。そして、目視者が適切な位置からレンチキュラーレンズを介して当該画像列群を見ると、両眼の視差に起因する錯視によって当該三次元画像が立体的に見える。
図6等に示されるように、画像表示部20は、表示装置1の正面側に設けられた開口部5から画像を視認可能となるように筐体10の内部空間100に配置される。例えば、画像表示部20は、筐体10の内周面のうちの背面(内壁面)に沿って配置されている。本実施例では、図6に示されるように、筐体10の内周面における背面は、筐体10の底面に対して略垂直に設けられており、画像表示部20も、筐体10の底面に対して略垂直に設けられている。
次に、減光部材30について説明する。減光部材30は、開口部5を介して内部空間100に進入する外光を減じる光学部材である。減光部材30は板状(パネル状を含む。)またはフィルム状の部材である。また、減光部材30は、画像表示部20からの光(例えば、画像表示部20のバックライトからの光)の光量を低減可能である。減光部材30は、内部空間100を暗い状態に維持するために設けられている。その理由は後述する。また、減光部材30は、開口部5を介して画像を見ている目視者自身が減光部材30に映ってしまう映り込みの発生を抑えることや、内部空間100の内部の部品を視認され難くすることにも寄与する。減光部材30は、スモークパネル、スモークフィルムなどと呼ばれる部材であってもよい。減光部材30は、少なくとも画像表示部20からの画像光を正面側に透過させるから、光学的に、透明の部材ということができる。減光部材30としては、例えば、所定の透光率(例えば、約6%)を有する暗色のパネル部材が挙げられる。なお、これに限定されず、減光部材30は、例えば所定の透光率を有する暗色系のフィルムを無色透明のパネル部材に貼付したものであってもよい。減光部材30は、黒系等の暗色系の部材であるが、青系その他の色であってもよい。
減光部材30は、筐体10の内部空間100において、画像表示部20よりも正面側に画像表示部20とは間隔を空けて配置される。本実施例では、画像表示部20との間に空間領域101(図6)を有するように開口部5と画像表示部20との間に配置される。
以上のようにすれば、遮光された内部空間100を筐体10が有することによって、筐体10の内部空間100へと外光が入り込むことを抑制できるとともに、例えば画像表示部20よりも正面側に、当該画像表示部20とは間隔を空けて減光部材30が配置されていることによって、画像表示部20からの画像光が目視者の目に直接届くことが抑制される。したがって、筐体10の内部空間100に認識される画像を、画像表示部20からの画像光と外光とが相まって視認し難くなることを抑制でき、表示画像に関して高い視認性を得ることができる表示装置1を提供することができる。
また、減光部材30が、開口部5と画像表示部20との間に配置されていることによって、筐体10の内部において減光部材30の正面側に空間領域(例えば、空間領域102(図6参照))が形成されるので、当該空間領域を所定の用途に利用することができる。
ここで、仮に減光部材30がなく、表示対象物の三次元画像が表示された画像表示部20自体を目視者がそのまま見たときには、光源からの光が漏れ出てしまってその光源の位置が目視者に認識されてしまうことにより、目視者が「画像表示部20に表示対象物が映っている」と認識できてしまう。その結果、内部空間100に表示対象物画像が浮かび上がっているような浮遊感を十分に得られないことがある。
これに対して、上記のように減光部材30が設けられている場合には、画像表示部20において表示対象物の周辺領域から発せられる画像光の光量が減光部材30によって抑制され、目視者からは当該周辺領域が見え難くなる。その結果、目視者が「画像表示部20に表示対象物が映っている」と感じることがなく、表示対象物の浮遊感を得られる。したがって、表示対象物の表示画像に関して視認性を高めることができる。
また、例えば表示対象物の三次元画像が表示された画像表示部20自体を目視者がそのまま見たときには、目視者からは表示対象物が立体的に見えているにもかかわらず、当該表示対象物の周辺にぼやけ画像が見えてしまうことがある。このような場合、目視者が表示対象物の三次元画像を見難いと感じる虞がある。
これに対して、上記のように減光部材30が設けられている場合には、画像表示部20から発せられる光の光量が減光部材30によって低減されるとともに、表示対象物の周辺におけるぼやけ画像の画像光が減光部材30によって低減される。その結果、目視者からは当該ぼやけ画像が見え難くなり、表示対象物を三次元画像として認識しやすくなる。さらに減光部材30が設けられていることで、内部空間100に存在する部品を視認されにくくなるので、そのような部品が視認できることにより目視者が興ざめしてしまうことも起こりにくい。
[各要素の詳細構成]
次に、各要素10,20,30の詳細構成について説明する。
減光部材30は、正面側の面が鉛直方向に対して傾斜している。本実施例では、図6に示されるように、減光部材30は、その上端部31から下端部32に向けて開口部5側(表示装置1の正面側)に、例えば筐体10の底面に対して所定の角度(例えば、約50度の角度)で傾斜して設けられている。例えば、図5に示されるように、減光部材30の配置部13の上面は、筐体10の底面に対して所定の角度で傾斜しており、当該配置部13の上面に、減光部材30が配置される。
このようにすれば、減光部材30に入射した光の反射光の光路が目視者の目(あるいは顔)側とは異なる方向に存在することになる。よって、目視者が減光部材30を介して画像表示部20を見た際に、当該減光部材30に目視者の顔が反射により映り込むことを防止できる。かかる目的を達成できるのであれば、減光部材30の傾斜角や傾斜方向は種々の変形が可能である。したがって、より視認性の高い表示装置1を提供することができる。
また、筐体10の内部において、減光部材30よりも開口部5側に、目視者の手を入れる空間領域102(図6参照)を設けることができる。
そして、画像表示部20においては、目視者によって立体視される表示対象物の少なくとも一部分(例えば、特定のキャラクターの身体の一部)が減光部材30の配置位置に存在するように表示制御されるとよい。このようにすれば、目視者は、減光部材30よりも開口部5側の空間領域102に手を入れることにより、当該空間領域102に浮かび上がって立体的に見えている表示対象物(例えば、人型のキャラクター1000(図13参照)等。第1画像の一例。)に触れることができるような感覚を得ることができる。したがって、例えば娯楽性に優れた表示装置を提供することができる。
また、上記のような空間領域102が設けられていることにより、後述するジェスチャーセンサ63等の配置位置の自由度を高めることもできる。
図2(A)および図6に示されるように、筐体10は、スピーカ62(音声出力部の一例)をさらに有している。スピーカ62は、筐体10の内部空間100に面している面のうち、減光部材30よりも正面側で、かつ開口部5との距離よりも減光部材30との距離が小さい位置に設けられる。本実施例では、当該スピーカ62は、筐体10の内部空間100の上面85であって、減光部材30の上端部21と開口部5の上端部51との中間位置201よりも減光部材30側(筐体10の奥側)に設けられている。
このようにすれば、スピーカ62により出力された音声が減光部材30に反射して目視者に伝達されることがあるため、目視者に対して、例えば画像表示部20に表示された表示対象物(例えば、特定のキャラクター)自体から音声が聞こえているように感じさせることができる。この効果は、目視者によって立体視される表示対象物の少なくとも一部分(例えば、特定のキャラクターの身体の一部)が減光部材30の配置位置に存在するように表示制御されているときに特に有効である。また、スピーカ62が目視者から見え難い位置に配置されていることにより、表示装置1のデザイン性を高めることもできる。
また、図6に示されるように、開口部5の上端部51は、画像表示部20(詳細には、表示面29)の上端部21よりも上方に設けられており、筐体10の内部空間100の上面85は、開口部5の上端部51から当該上端部21へと向かうに従って下方(図6において-Z方向)に傾斜して設けられている。このようにすれば、画像表示部20の上端部21よりも高い位置から、当該画像表示部20に表示された画像を見下ろしながら視認することができる。このため、目視者に自然な姿勢で画像を視認させやすくすることができる。例えば、表示装置1は机の上に置かれる。表示装置1の正面側(前方側)には、立っているまたはイスに座っている目視者が存在する。目視者の目の位置は、表示装置1の上面よりも高い位置にあることが想定される。このため、目視者は表示装置1を、角度θで見下ろすようにして視認する。角度θは水平方向と目視者の視線方向との間の角度である。角度θは、例えば15度であることが想定されるが、表示装置1の使用状況によっても異なるものである。このような角度θの想定に基づいて、目視者が画像表示部20の表示面の全体または目視者に視認させるべき画像の表示領域の全体を視認できるように上面85の傾斜角が決められるとよい。また、後述する制御部用の空間領域110を比較的広く確保することもできる。
また、図6に示されるように、筐体10の開口部5の上端部51は、開口部5の下端部52よりも正面側(第1方向側の一例)に突出して設けられている。この突出した部分は、庇とも称される。このようにすれば、表示装置1の上方からの光が減光部材30に反射することによって画像表示部20における画像の視認性が低下すること、を抑制することができる。
図1および図6に示されるように、筐体10の下側部分における開口部5側(正面側)には、斜行部84が設けられている。そして、開口部5の側部53(図3参照)は、開口部5の上端部51から当該斜行部84の上部88付近へと向かうように所定の角度で傾斜して設けられている。例えば、開口部5の側部53は、減光部材30に対して略垂直となるように傾斜して設けられている。
また、図6に示されるように、当該斜行部84の上部88は、画像表示部20の下端部22よりも上方に設けられており、筐体10の内部空間100の下面86は、当該斜行部84の上部88から画像表示部20の下端部22へと向かうに従って下方に傾斜して設けられている。
ここで、裸眼立体視表示に関しては、所謂3D感(三次元効果)を大きくするほど、目視者によって立体視される表示対象物が小さくなることがある。内部空間100の下面86を上記のように傾斜させることによれば、3D感を大きくした場合であっても、立体視表示される表示対象物の下部(例えば、特定のキャラクターの足部)を当該斜行部84の上部88付近に表示させることができる。
また、図1に示されるように、表示装置1は、表示装置1に対する操作を受け付ける操作部40を備えている。例えば、表示装置1においては、音声入力を行う(音声認識の開始を指示する、ともいう)ための操作部41と、三次元画像に関する表示設定(例えば、視差に関する設定値)を変更するための操作部42との2つの操作部40が設けられている。
これらの操作部40(41,42)は、筐体10のうち、開口部5よりも正面側(第1方向側の一例)の筐体10の下側部分に設けられている。詳細には、図1に示されるように、これらの操作部40(41,42)は、筐体10の下側部分における開口部5側に設けられた斜行部84に配置されている。このようにすれば、目視者が操作部40を操作する際に、例えば目視者の手が画像表示部20の表示画像に重なることがなく、目視者は、画像表示部20の表示画像を見ながら操作部40を操作することができる。したがって、目視者が操作部40に対する操作を行い易くなるので、表示装置1の操作性を向上させることができる。また、操作部40が斜行部84に設けられていることにより、目視者が操作部40を容易に見つけることができる。
次に、表示装置1に設けられている各種センサについて説明する。
表示装置1は、マイク61とジェスチャーセンサ63との2つの動作検出部(目視者の動作を検出可能な動作検出手段の一例)を更に備えている(図6参照)。なお、これらの2つの部材61,63の双方が表示装置1に設けられていることは必須ではなく、マイク61とジェスチャーセンサ63とのうちのいずれか一方のみが、動作検出手段として表示装置1に設けられていてもよい。
マイク61は、ユーザ等の目視者の音声(例えば、音声入力動作)を検出可能な音声検出手段として構成されている。マイク61は、例えば、上述の斜行部84に配置されている(図1参照)。なお、マイク61を用いて入力された音声に対しては、例えば統括制御部73(後述)によって音声認識処理が実行され、例えばテキストデータ等で示された音声認識結果が取得される。なお、音声認識処理は、表示装置1内に別途設けられる音声認識装置によって実行されてもよく、あるいは、表示装置1とは別の外部サーバ等で実行されてもよい。
ジェスチャーセンサ63(物体検出センサの一例)は、物体の挙動を検出可能に構成されている。ジェスチャーセンサ63として、例えば、赤外線センサなどが挙げられる。ジェスチャーセンサ63は、光(例えば、赤外光)の出射部と受光部とを有している。ジェスチャーセンサ63の出射部から出射(照射、とも称される)された光は、検知対象物に当たって反射し受光部によって受光される。そして、ジェスチャーセンサ63は、受光部に受光された光(反射光)に基づいて、検知対象物の挙動を検出する。例えば、ジェスチャーセンサ63に予め登録された特定の挙動と同じ挙動が検出されると、目視者によって当該特定の挙動が行われたと判定される。
例えば、ジェスチャーセンサ63は、所定の挙動であるか否かを手の動きに応じて検出可能な機能(Wave検出機能、とも称される)を備えている。そして、例えば目視者がジェスチャーセンサ63の検出範囲内において手を振る動作(「バイバイ」)または撫でる動作(「ナデナデ」)を行うと、ジェスチャーセンサ63が、Wave動作を検出し、「バイバイ」または「ナデナデ」と判定するとよい。
ジェスチャーセンサ63は、当該ジェスチャーセンサ63への接近離反方向(例えば、図2(A)ではZ方向)における検出対象物の位置と、当該接近離反方向を法線とする平面(例えば、図2(A)ではXY平面)上における検出対象物の位置とを検出可能なものとするとよい。例えば、当該平面は、ジェスチャーセンサ63の受光部を原点として4象限をとるものとするとよい。このとき、X軸は、筐体10の前面の左右方向の辺と平行に設定されるとよい。
図2(A)に示されるように、ジェスチャーセンサ63は、左右方向(図2(A)のX方向)において筐体10の内周面の略中央位置に設置される。
また、図6に示されるように、ジェスチャーセンサ63(詳細には、ジェスチャーセンサ63の検出面)は、筐体10の内周面において、当該筐体10の内方側に向けて配置されており、ジェスチャーセンサ63の検出方向が、筐体10の内方側に向けられている。このようにすれば、例えば、筐体10の内部空間100、本実施例では、空間領域102で目視者のジェスチャーが検出される。したがって、ジェスチャーセンサ63が筐体10の外周面に配置されている場合と比較して、ジェスチャーセンサ63の感度の低下を抑制することができる。
また、ジェスチャーセンサ63が筐体10の外周面に配置されているときには、例えば、表示装置1の周辺を人が通っただけでもジェスチャーセンサ63が検知対象物の挙動を検出する可能性がある。これに対して、ジェスチャーセンサ63が筐体10の内周面において当該筐体10の内方側に向けて配置されているときには、そのような誤検出を防止することができる。
特に、ジェスチャーセンサ63は、図6に示されるように、筐体10の内周面のうちの上面85において、下面86に向けて配置されるとよい。このようにすれば、ジェスチャーセンサ63が、筐体10の内周面のうち外部からの光が入り込み難い面に設けられている。したがって、ジェスチャーセンサ63が上面85以外の他の面に設けられる場合と比較して、ジェスチャーセンサ63の感度の低下を更に抑制することができる。
また、ジェスチャーセンサ63は、筐体10の内周面の上面85において、斜行部84の上部88と減光部材30の下端部32との境界位置202(図6参照)に対向する位置に配置されているとよい。そして、減光部材30の面上に特定のキャラクターの足部が三次元表示されるように表示制御されるとよい。このようにすれば、目視者が、減光部材30の面上に浮かび上がって立体的に見えている特定のキャラクターの全体(全身)を触ることができるような感覚を得ることができる。なお、上記のような表示制御は、例えば、三次元表示に関する3Dアプリケーションにおける視差設定値を変更することにより再現されるとよい。
また、筐体10の内周面において、ジェスチャーセンサ63が出射する光の出射方向に存在する領域、例えばジェスチャーセンサ63の配置位置に対向する領域202には、ジェスチャーセンサ63からの出射光(例えば、赤外光)がジェスチャーセンサ63に受光されることを抑制する部材が設けられているとよい。このようにすれば、領域202又はその周辺で反射した光がジェスチャーセンサ63で受光される受光量が減るので、ジェスチャーセンサ63の感度の低下を更に抑制することができる。「ジェスチャーセンサ63に受光されることを抑制する部材」としては、例えば、ジェスチャーセンサ63からの光を吸収可能な吸光部材、ジェスチャーセンサ63からの光を拡散反射する部材などが挙げられる。「吸光部材」としては、黒い紙、ラバー塗装された部材、あるいは、赤外線吸収素材で形成された部材(赤外線反射防止シート等)などが例示される。
表示装置1においては、以上のような動作検出手段(例えば、マイク61およびジェスチャーセンサ63)による検出結果に応じた所定の処理が、画像表示部20に表示された特定のキャラクターの動作として実行されるとよい。このような制御は、例えば、後述する制御部70によって実行されるとよい。
このようにすれば、目視者の動作が検出されると、その検出結果に応じて特定のキャラクターが動作するから、目視者と当該特定のキャラクターとのコミュニケーションを再現することができる。このような目視者と特定のキャラクターとのコミュニケーションを再現する機能、または目視者と特定のキャラクターとの疑似的なコミュニケーションを再現する機能を、「コミュニケーション機能」という。したがって、例えば娯楽性の高い表示装置1を提供することができる。
例えば、目視者が「バイバイ」と発声すると、マイク61が目視者の音声「バイバイ」を検出し、制御部70が、音声認識結果「バイバイ」に基づいて、特定のキャラクターの動作を決定する。なお、表示装置1においては、特定の語句と当該特定の語句に対応する動作とが関連付けられてデータテーブル等に予め登録されている。そして、制御部70は、決定した動作に対応する処理を実行する。例えば、「バイバイ」との音声をスピーカ62から出力させる音声出力処理と、特定のキャラクターが手を振る動作を行っている映像を画像表示部20に表示出力させる表示出力処理との少なくとも一方が実行される。このようにすれば、目視者は、自身が発声した音声に対して、画像表示部20に表示された特定のキャラクターが反応してくれたと感じる。したがって、例えば娯楽性の高い表示装置1を提供することができる。
また、例えば、目視者が内部空間100に手を入れて手を振ると、ジェスチャーセンサ63が目視者のジェスチャー「バイバイ」を検出し、制御部70が、ジェスチャー検出結果「バイバイ」に基づいて、特定のキャラクターの動作を決定する。なお、表示装置1においては、特定の動作と当該特定の動作に対応する動作とが関連付けられてデータテーブル等に予め登録されている。そして、制御部70は、決定した動作に対応する処理を実行する。例えば、上記と同様に、「バイバイ」との音声をスピーカ62から出力させる音声出力処理と、特定のキャラクターが手を振る動作を行っている映像を画像表示部20に表示出力させる表示出力処理との少なくとも一方が実行される。このようにすれば、目視者は、自身が行ったジェスチャーに対して、画像表示部20に表示された特定のキャラクターが反応してくれたと感じる。したがって、例えば娯楽性の高い表示装置1を提供することができる。
また、表示装置1は、表示装置1を基準として所定の範囲(例えば、検知対象空間とも称される)内における人の存在を検出可能な人感センサ64(図6参照)を更に備えている。当該人感センサ64としては、例えば、移動する物体の速度およびドップラー信号の有無によって物体の存在を検知可能なドップラーセンサ(例えば、マイクロ波ドップラーセンサ)などが挙げられる。
当該人感センサ64は、開口部5の上端部51付近において表示装置1の正面側に向けて配置されており、人感センサ64の検知対象領域は表示装置1の正面側に設けられている。このようにすれば、表示装置1の正面側に人が居ることをより確実に検出することができる。
詳細には、人感センサ64は、後述する配置領域110(図7参照)における前方側(正面側)において、筐体10の前方側の外周壁80に接触しない程度の間隔をあけて配置されている。
表示装置1においては、当該所定の範囲内にまで人が近づいてきたことが人感センサ64によって検出されることを条件に、画像表示部20の表示画像が三次元画像に切り替えられるように制御されるとよい。なお、それ以外のときは、二次元画像が表示されてもよく、あるいは、画像表示部20の表示画像が非表示化されてもよい。このようにすれば、例えば、画像表示部20の表示対象物(例えば、特定のキャラクター)が立体視できない位置に人が居るうちは、三次元画像が画像表示部20に表示されず、表示対象物が立体視できる範囲内にまで人が近づくと、三次元画像が画像表示部20に表示される。したがって、表示対象物を立体視できない位置から当該表示対象物を見たことに起因して周辺人物が表示装置1に対する興味を逸してしまうこと、を回避することができる。
[制御部の配置空間等に関する構成]
表示装置1は、制御部70を有している。例えば、表示装置1は、表示装置1の電源を制御する電源制御部71、画像表示部20に表示される表示画像を制御する表示制御部72、これらの制御部71,72等を統括する統括制御部73などを含む複数の制御部70を有している(図7参照)。なお、図7は、上面カバー部12が取り外された状態の表示装置1を説明する斜視図である。本実施例では、複数の制御部70の各々が異なる基板に実装されてもよいが、2以上の制御部70が単一の基板に実装されてもよい。これに伴い、各制御部70の配置位置が適宜変更されてもよい。
図5に示されるように、筐体10は、上面カバー部12を有している。また、図6に示されるように、筐体10は、当該上面カバー部12と筐体10の内周面のうちの上面85との間に空間領域110を有している。そして、制御部70は、当該空間領域110に配置される。このようにすれば、表示装置1を制御する制御部70のメンテナンスを、筐体10の上面に設けられた上面カバー部12を外して行うことができる。したがって、表示装置1のメンテナンス性を向上させることができる。なお、当該空間領域110は、制御部70等を収容する収容空間、とも称される。
制御部70が筐体10の上面部分に設けられている一方で、表示装置1の電源部90は、筐体10の下面部分14に設けられている(図4(B)参照)。
そして、電源部90と制御部70(詳細には、電源制御部71)とを接続する接続コード91(図7参照)は、筐体10の外周壁80(例えば、筐体10の左側壁等)と内部空間100との間に確保された隙間領域89を通るように配線される。このようにすれば、電源部90を目立ち難い位置に配置することができるとともに、電源部90と制御部70とを接続する接続コード91を、外側および内部空間100側(開口部5側)から目視者の目に触れないように配線することができる。したがって、表示装置1のデザイン性を高めることができる。また、電源部90が内部空間100よりも下方に存在するので、電源部90が目立ち難い位置に配置されるとともに表示装置1の重心位置を低くすることができ、その姿勢を安定させやすくすることができる。
また、表示装置1の底面には、通気孔99(図4(B)参照)が設けられている。通気孔99は内部空間の下方の空間と通じている。またこの空間は、接続コード91が配線される隙間領域89を介して内部空間100の上方の空間領域110と空間的に通じている。よって、空間領域110が上面カバー部12により塞がれている場合でも、空間領域100内で発生した熱を、通気孔99を介して外部に放出することができる。なお、空間領域110で発生した熱を外部に放出するための通気口が上面カバー部12に設けられてもよいし、ヒートシンクその他の吸熱または放熱用の部材が空間領域110やそのほかの場所に設けられてもよい。
また、上面カバー部12は、複数の取付位置(例えば、9箇所の取付位置211~219)で筐体10の本体部11に対して取り付けられる。例えば、上面カバー部12は、筐体10の前方側(正面側)においては2箇所の取付位置211,212で、筐体10の右側においては2箇所の取付位置213,214で、筐体10の左側においては2箇所の取付位置215,216で、筐体10の後方側(背面側)においては3箇所の取付位置217~219で筐体10の本体部11に対して取り付けられる。
例えば、図7および図8に示されるように、当該複数の取付位置211~219のうち表示装置1の正面側の取付位置211,212(第1の取付位置の一例)では、上面カバー部12と筐体10の本体部11とは、筐体10の外周壁80よりも内側の位置において、第1の固定具を用いて結合される。「第1の固定具」としては、例えば、嵌め込み部材95と、嵌め込み部材95を着脱可能に構成された受け部材96とが例示される。なお、図8は、上面カバー部12の裏面を示す図である。例えば、嵌め込み部材95は、凸状に形成されており、受け部材96は、凸状の嵌め込み部材95を挿入自在に形成されている。
一方で、複数の取付位置211~219のうち表示装置1の背面側の取付位置217~219(第2の取付位置の一例)(図7参照)では、筐体10の本体部11と上面カバー部12とは、筐体10の外周壁80の外側の位置において、第2の固定具を用いて結合される。「第2の固定具」としては、例えばネジ98(図8参照)が例示される。
このようにすれば、目視者の目に触れ難い第2の取付位置(例えば、取付位置217~219)においては、第2の固定具(例えばネジ98)を用いて筐体10の外周壁80の外側から上面カバー部12と本体部11とが結合される。その一方で、目視者の目に触れ易い第1の取付位置(例えば、取付位置211,212)においては、目視者に目視され難い場所で第1の固定具(例えば、嵌め込み部材95および受け部材96)を用いて上面カバー部12と本体部11とが結合される。したがって、表示装置1のデザイン性を高めることができる。
また、第1の固定具(例えば、嵌め込み部材95および受け部材96)は、第2の固定具(例えばネジ98)よりも容易に着脱可能であり、第1の固定具を用いることにより表示装置1のメンテナンス性を高めることができる。さらに、全ての取付位置211~219において、当該第1の固定具を用いて上面カバー部12と本体部11とが結合されるのではなく、複数の取付位置211~219のうちの一部では、第2の固定具を用いて上面カバー部12と本体部11とが結合される。したがって、表示装置1のメンテナンス性を高めつつ、第三者によって上面カバー部12が取り外されることを抑制することもできる。
なお、本実施例に係る表示装置1では、複数の取付位置211~219のうち、筐体10の側方側の取付位置213~216に関して、正面側の取付位置211,212と同様に、上面カバー部12と筐体10の本体部11とが第1の固定具を用いて結合されている。ただし、これに限定されず、筐体10の側方側の取付位置213~216に関して、背面側の取付位置217~219と同様に、上面カバー部12と筐体10の本体部11とが第2の固定具を用いて結合されてもよい。
[制御部の詳細構成について]
図9は、一実施例に係る表示装置1が有する制御部70の制御ブロック図である。上述したように、制御部70は、統括制御部73を有している。統括制御部73は、演算処理等を実行する演算処理装置として機能するCPU701、および、ワークエリアとして使用されるRAM703と制御用のプログラム等を記憶したROM702とを含むメモリ等を有するコントローラである。当該ROM702内には各種プログラムが記憶されており、統括制御部73は、これらのプログラムを実行することにより各種の機能を再現する。例えば、ROM702内には、ユーザとキャラクターとの対話を再現するための音声認識アプリケーション(音声認識エンジンの機能を有するアプリケーション)が記憶されており、統括制御部73は、各種センサ61,63,64,65等あるいはGPS受信機60等からの入力信号等に基づいて当該音声認識アプリケーションを実行することにより、ユーザとキャラクターとの対話を再現する。また、統括制御部73(動作制御手段の一例)は、画像表示部20に表示される画像等を制御する表示制御回路704(例えば、表示制御部72等)と、スピーカ62から出力される音声を制御する音声制御回路705とを有している。さらに、統括制御部73は、他の機器(例えば、図示しない外部の音声認識サーバ(音声認識エンジンとも称される)、および図示しない外部の対話サーバ(対話エンジン、とも称される)等)との通信を制御する通信制御回路706を有している。また、統括制御部73は、表示装置1の電源を制御する電源制御部71からの入力信号に基づいて、表示装置1の電源状態を制御する。
[表示装置に表示されるキャラクターについて]
ここで、制御部70の統括制御部73による制御内容について説明する前に、表示装置1の画像表示部20にて表示され得るキャラクターについて、図10~図12を参照しつつ説明する。
図10は、一実施例に係る表示装置1の概要を説明する図であり、詳細には、3Dキャラクター1100が表示装置1に表示されている状態を示す図である。3Dキャラクター1100は、女性のキャラクターである。表示装置1(詳細には、統括制御部73)は、さらに、3Dキャラクター1100の下にステージを意味するステージ映像2100を表示する。ステージ映像2100は、ここでは魔法陣を示す。この表示を見た目視者は、ステージ上に3Dキャラクター1100が立っているような印象を受けることができる。3Dキャラクター1100およびステージ映像2100の色は特に問わない。例えば3Dキャラクター1100の皮膚は肌色である。3Dキャラクター1100の髪色および上半身の衣装は比較的淡い青色系の色(例えば、水色)、膝に当てられている装飾品はそれよりも濃い青色系の色(例えば、青色)、スカートおよび靴は白色である。ステージ映像2100は比較的濃い青色系の色(例えば、濃い水色)である。なお、図10および次述の図11では、表示装置1の真正面よりもやや上方から筐体10内を見下ろして視認している図が示されている。
図11は、一実施例に係る表示装置1の概要を説明する図であり、詳細には、3Dキャラクター1200が表示装置1に表示されている状態を示す図である。3Dキャラクター1200は、猫のキャラクターである。図11(B)に示す場合、表示装置1は、3Dキャラクター1200および3Dキャラクター1200の下にステージを意味するステージ映像2200を表示する。ステージ映像2200は、ここでは、「Yupiteru」という文字列、および3Dキャラクター1200の名称である「Juno」(「ユノ」と称呼する。)を示す文字列が、円形のステージの外周に沿って交互に表記されている。3Dキャラクター1200およびステージ映像2200の色は特に問わない。
ここで、3Dキャラクター1200およびステージ映像2200について、図12を参照してより具体的に説明する。3Dキャラクター1200は、キャラクター本体1210と、首輪1220とに大別される。キャラクター本体1210は、猫のキャラクター自体である。キャラクター本体1210は、身体の部位のうち、白色で示された部位を含み、例えば、眉間、鼻および口の周辺、腹部、並びに足のうちの正面側の部位がこれに該当する。キャラクター本体1210の身体の部位のうち、薄いグレーで示された部位は、比較的淡い茶色系の色(例えば、黄土色)であり、例えば、顔部のうちの目の上および横の部位、胴体部のうちの上側の部分、足のうちの正面側以外の部位がこれに該当する。キャラクター本体1210の身体の部位のうち、さらに濃いグレーで示された部位は、さらに濃い茶色系の色(例えば、茶色)であり、例えば、顔部、頭部、胴体、足の細い線で示された縞模様の部位がこれに該当する。首輪1220は、キャラクター本体1210の首の位置に表示された首輪を意味する。首輪1220は、赤系の色(例えば、赤色)である。首輪1220のうち、キャラクター本体1210の顔の下に位置には、札1221が取り付けられている。札1221は円形であり、所定の標識が表記されている。当該標識は、「V」状の記号の下方に「●」(内側を塗りつぶした円)を配置した標識であって、それぞれを赤色系の色(例えば、赤色)で表記されている標識である。札1221に表記される標識は、表示装置1の出所を示す商標としての機能を発揮するものとしてもよい。ステージ映像2200は全体として茶色系の色で、円および文字列は比較的濃い茶系の色(例えば、茶色)、円の内側の煙を模した画像はそれよりも薄い茶色系の色(例えば、黄土色)である。
図10~図12において、3Dキャラクター1100,1200の背景は黒色で示されているが、真っ黒に限られるものではなく、比較的暗い色の背景(例えば、黒色その他の暗色系の色)としてもよい。
なお、図10~図12に示すキャラクターは一例である。表示装置1は、人型のキャラクターを表示する場合、表示装置1は、女性のキャラクターに限られず、男性のキャラクター(例えば、キャラクター1000(図13参照))を表示してもよい。表示装置1は、実在する人物(例えば、家族)もしくは過去に実在していた人物(例えば、歴史上の人物)、架空の人物のキャラクター(例えば、漫画やアニメ等のフィクションの作品に登場するキャラクター等)のいずれを表示してもよい。人型でない動物のキャラクターを表示する場合、表示装置1は、猫のキャラクターに限られず、犬やハムスター等の一般家庭で飼育されうる動物のキャラクター、それ以外の馬や牛等の動物のキャラクター、並びに架空の動物のキャラクター(例えば、漫画やアニメその他のフィクションの作品に登場するキャラクター等)のいずれを表示してもよい。また、表示装置1は、首輪1220を有する他のキャラクターを表示するものであってもよい。
表示装置1(詳細には、統括制御部73)は、コミュニケーション機能に基づいて、キャラクターの身体の部位を動かしたり、キャラクターの発話を模した音声を出力したりする。コミュニケーション機能は、目視者とキャラクターとのコミュニケーションを再現する機能、または疑似的なコミュニケーションを再現する機能である。コミュニケーション機能においては、目視者の挙動(例えば、発話や身体の動き)に応答してキャラクターが動く。例えば、3Dキャラクター1100は、ダンスなど体全体を動かしたり、表情を変化(例えば、喜怒哀楽の感情を表現)させたりする、といった人間が通常行う動作を再現した動作をする。例えば、3Dキャラクター1200は、動物が通常行う動作(例えば、あくびをする、尻尾を動かす、歩行する等)を再現した動きをする。また、表示装置1は、例えば、3Dキャラクター1100の動作に合わせて、3Dキャラクター1100が歌唱しているかのような歌唱音声を出力したり、目視者との対話に係る音声を出力したりする。表示装置1は、例えば、3Dキャラクター1200の動作に合わせて、猫の鳴き声を意味する音声を出力したり、目視者との対話に係る音声を出力したりする。このような映像や音声の出力は、コミュニケーション機能に限られず、表示装置1が有する種々の機能で行われるようにしてもよい。
なお、コミュニケーション機能におけるユーザとの対話は、例えば、統括制御部73のROM702内に記憶された音声認識アプリケーションと、上述した外部の音声認識サーバと対話サーバとによって再現される。例えば、操作部40がユーザによって押下されると、統括制御部73は、音声認識アプリケーションを起動させる。これにより、キャラクターとの対話を行うための音声認識が有効化される。そして、ユーザにより発せられた音声(ユーザ音声、とも称する)が、統括制御部73の通信制御回路706から音声認識サーバへと送信され、音声認識サーバによってユーザ音声に対する音声認識処理が実行されて音声認識結果が出力される。対話サーバには、入力され得る文字列毎に、画像表示部20に表示されたキャラクター(例えば、3Dキャラクター1100)が発する音声(キャラクター音声、とも称する)が互いに対応付けて予め登録されている。そして、音声認識サーバによる音声認識結果(例えば、文字列で示された音声認識結果)が対話サーバに入力され、当該音声認識結果に対応するキャラクター音声が対話サーバから表示装置1へと送信される。そして、統括制御部73は、対話サーバから受信したキャラクター音声を、表示装置1のスピーカ61から出力する。このようにして、ユーザによる音声に対する応答処理が実行され、ユーザとキャラクターとの対話が再現される。
<3Dキャラクター1100に関するコミュニケーション機能について>
以下では、3Dキャラクター1100とユーザとのコミュニケーションを再現するための種々の制御について、図14~図20を参照して順に説明する。
<1.においに関するコミュニケーション機能について>
例えば、においを検知するにおいセンサ65(図9参照)を表示装置1に設けておき、統括制御部73は、においセンサ65による検知結果に応じた音声を3Dキャラクター1100のキャラクター音声として出力する音声出力動作を実行するとよい。においセンサ65は、例えば、あるにおいの強度に応じて変化する信号を出力したり、においに含まれる成分(におい成分)に応じて変化する信号を出力したりするものがある。においセンサ65は、例えば、においの種類に応じて変化する信号を出力する。においセンサ65は、例えば、脱臭フィルタ等を用いて特定のにおい成分(タール、アンモニア、アルコール、二酸化炭素等)の濃度を検知可能に構成されている。このようにすれば、統括制御部73は、表示装置1の画像表示部20に表示されたキャラクターとユーザとの間でにおいに関するコミュニケーションを再現することができ、当該キャラクターとユーザとの間でより多様なコミュニケーションを再現することができる。なお、においセンサ65は、表示装置1の外周面上、例えば、表示装置1における筐体10の斜行部84等に設けられるとよい。
統括制御部73は、例えば、検知されたにおいの種類に応じた音声を3Dキャラクター1100のキャラクター音声として出力する音声出力動作を実行するとよい。なお、複数種類のにおい成分を識別可能な単一のセンサが、においセンサとして構成されていてもよく、互いに異なる種類のにおい成分を識別可能な複数のセンサが、においセンサとして構成されていてもよい。
図14(A)は、においに関するコミュニケーションを再現するためのフローチャートであり、図14(B)は、においに関する音声管理テーブル(音声管理表、とも称される)を示す図である。音声管理テーブルは、例えば、表示装置1の統括制御部73内、あるいは対話サーバ内に格納されている。図14(B)に示されるように、音声管理テーブルには、においセンサ65によって検知可能なにおい成分(におい物質、とも称される)の種類ごとに、そのにおい成分を主に含有するにおいの種類と、3Dキャラクター1100が発する音声(キャラクター音声と称する)とが予め登録されている。例えば、音声管理テーブルにおいては、タールを主に含有するタバコ臭がタールと対応付けて登録されているとともに、タバコ臭が検知された際のキャラクター音声として、「タバコの吸い過ぎはよくないよ~」などのユーザの健康に気遣う言葉が登録されている。
そして、まず、ステップS11において、統括制御部73は、におい成分が検知されたか否かを判断する。例えば、統括制御部73は、においセンサ65によって検知されたにおい成分の濃度が特定のにおいに関する所定の閾値(基準値)を上回ると、そのにおい成分が検知されたと判断する。ステップS12において、統括制御部73は、音声管理テーブルにおいて、検知されたにおい成分に対応付けて登録されているにおいの種類を判断する。例えば、所定の閾値を上回る濃度のタールが検知された場合は、タバコ臭が検知されたと判断される。そして、統括制御部73は、検知されたにおいの種類に応じたキャラクター音声をスピーカ62から出力する。例えば、タバコ臭が検知されたと判断されると、統括制御部73は、ユーザの健康に気遣う言葉の音声(ここでは、「タバコの吸い過ぎはよくないよ~」)をキャラクター音声として出力する音声出力動作を実行する。なお、他の例としては、以下のようなものが挙げられる。例えば、アロマオイルなどの香料や食事などに含まれる特定の主成分の濃度が所定の基準値を上回ると、統括制御部73は、香料や食事などのにおいが検知されたと判断し、においの元に関して質問する音声をキャラクター音声として出力する。また、所定の基準値を上回るアルコールが検知されると、統括制御部73は、アルコール臭が検知されたと判断し、「お酒くさ~い」や「また飲んできたの、いい加減にしなさいよ」などの音声を3Dキャラクター1100のキャラクター音声として出力する。また、所定の基準値を上回る口臭成分(例えば、硫化水素、メチルメルカプタン、ジメルサルファイド等)が検知されると、統括制御部73は、口臭が検知されたと判断し、「ちょっとお口臭うよ、歯磨きしてる?」や「歯槽膿漏気を付けてね」などの音声を3Dキャラクター1100のキャラクター音声として出力する。また、ターシャリーブチルメルカプタン、ジメチルサルファイドあるいはテトラヒドロチオフェンなど、ガス燃料に含有されるにおい成分が検知されると、統括制御部73は、ガス燃料のにおいが検知されたと判断し、「ガス臭いんだけど!」などの音声を3Dキャラクター1100のキャラクター音声として出力する。
このように、統括制御部73は、検知されたにおいの種類に応じた音声を3Dキャラクター1100のキャラクター音声として出力する制御を実行するとよい。このような制御が行われることにより、画像表示部20に表示されたキャラクターとユーザとの間でのコミュニケーションの幅を広げることができ、当該キャラクターへのユーザの愛着を増大させることができる。
表示装置1は、音声管理テーブルに基づいて出力する音声を特定するものに限らない。表示装置1は、例えば、過去の対話の内容(対話の履歴)に基づいてキャラクターの発話内容が変化するシナリオに従って、出力する音声を特定してもよい。このシナリオは、キャラクターの出力する音声を特定するデータがツリー構造で管理された分岐シナリオを規定するものでもよい。
ここでは、においセンサ65による検知結果に応じた音声の音声出力動作が例示されているが、これに限定されず、統括制御部73は、においセンサ65による検知結果に応じた動きをキャラクターが行う映像を画像表示部20に表示する表示出力動作を実行してもよい。例えば、音声管理テーブルと同様に、表示管理テーブル(不図示)を予め設けておき、統括制御部73は、検知されたにおいの種類に応じた動きを3Dキャラクター1100が行う映像を画像表示部20に表示する表示出力動作を実行するとよい。表示管理テーブルは、例えば、におい成分とにおいの種類とに対応付けて3Dキャラクター1100を規定するデータを登録したテーブルとするとよい。3Dキャラクター1100を規定するデータは、表示する3Dキャラクター1100の映像を示すデータでもよいし、3Dキャラクター1100の動きの内容を規定するデータでもよい。例えば、何らかのにおい成分が検知されると、統括制御部73は、においを嗅ぐ動きを3Dキャラクター1100が行う映像を画像表示部20に表示するとよい。また、統括制御部73は、例えばタバコ臭が検知されたと判断すると、煙たがる動きを3Dキャラクター1100が行う映像を画像表示部20に表示するとよい。なお、この際、統括制御部73は、煙を模した映像を画像表示部20に表示してもよい。さらに、統括制御部73は、上記のような音声出力動作と表示出力動作との双方を実行してもよい。例えば、においセンサ65によって何らかのにおい成分が検知されると、統括制御部73は、においを嗅ぐ動きを3Dキャラクター1100が行う映像を画像表示部20に表示しつつ、「何かにおう」などの音声を3Dキャラクター1100のキャラクター音声としてスピーカ62から出力するようにしてもよい。
さらには、統括制御部73は、においセンサ65によって検知されたにおい成分の濃度(検出強度ともいう)に応じて3Dキャラクター1100の反応が変更するように制御するとよい。例えば、統括制御部73が、におい成分の濃度に応じて、段階的に設けられた複数の動きの映像(例えば、「顔をしかめる(嫌そうな表情をする)」、「冷や汗を流す」、「青ざめる」および「気絶する」等)のいずれかを選択的に表示するとよい。
表示装置1は、タバコ臭とタバコ臭以外のにおい(臭さ)とを区別する方法として例えば、煙を検知する煙センサや、カメラ画像(例えば撮影部227の撮影した画像)、サーモカメラの画像など、別のセンサ等との組み合わせで、ユーザがタバコを吸っていることを検知可能してもよい。
統括制御部73は、ユーザがタバコを吸っていることを検知した場合に、3Dキャラクター1100に重ねて(3Dキャラクター1100の前に)、煙を模した画像(煙がモクモクとしと現われている様子を再現した映像)を表示してもよい。この際、統括制御部73は、3Dキャラクター1100の顔を前に突き出して顔をアップし、さも嫌そうな表情をさせた表情をさせてもよい。統括制御部73は、ユーザと3Dキャラクター1100との親密さの度合いである親密度に応じて、3Dキャラクター1100が嫌がる程度を変化させた表示をしてもよい。統括制御部73は、例えば、親密度が所定値以上である場合は、愛しているから許してあげるというような3Dキャラクター1100の表情にし、所定値未満である場合は3Dキャラクター1100を不快な表情にする、という具合である。統括制御部73は、例えば、ユーザによる表示装置1の使用実績(例えば、過去の使用時間や過去の対話内容)に応じて親密度を特定するとよい。親密度の特定についてのアルゴリズムはこれに限らない。
<2.ユーザの位置情報に基づくコミュニケーション機能について>
また、例えば、表示装置1がGPS(Global Positioning System)受信機60(図9参照)を有しており、ユーザの位置情報に基づいて以下のような制御が実行されるとよい。なお、ここでは、表示装置1が携帯型であることを想定する。そして、例えば、統括制御部73が、GPS受信機60からの信号に基づいて、ユーザが所持(携帯)している表示装置1の位置情報をユーザ自身の位置情報として取得し、取得した位置情報に基づいて以下のような制御を実行するとよい。
例えば、ユーザの位置情報に基づき特定された場所にユーザが滞在した滞在頻度(訪問頻度、とも称される)に応じた音声がキャラクター音声として出力されるように制御されるとよい。図15は、滞在頻度に関するコミュニケーションを再現するためのフローチャートである。
例えば、ステップS21において、統括制御部73は、GPS受信機60からユーザの位置情報が受信されたか否かを判断する。ユーザの位置情報が受信されると、ステップS22において、統括制御部73は、ユーザの位置情報に基づき特定された場所にユーザが滞在した滞在頻度が所定値(例えば、「2」)以上であるか否かを判断する。なお、滞在頻度は、所定期間(例えば、1日あるいは1週間等)において一の場所にユーザが滞在した回数である。例えば、統括制御部73は、GPS受信機60から取得された位置情報(例えば、ユーザの現在の位置情報)に基づいて、ネットワーク等を利用してユーザの滞在場所を検索して特定する。そして、統括制御部73は、特定された場所にユーザが滞在した滞在回数に基づいてユーザの滞在頻度を算出し、ユーザの滞在頻度が所定値以上であるか否かを判断する。例えば、ユーザの滞在頻度が所定値以上である場合、ステップS23において、統括制御部73は、ユーザの滞在頻度に関して予め登録された所定のキャラクター音声がスピーカ62から出力されるように制御する。統括制御部73は、例えば、ユーザが同一日に同一の場所に2回行った場合、ユーザの滞在頻度が所定値以上であると判断し、「あれ、さっきも行ったじゃん」などのキャラクター音声を出力する。
また、統括制御部73は、取得した位置情報に基づき特定された場所に応じた音声を3Dキャラクター1100のキャラクター音声として出力するように制御するとよい。図16(A)は、滞在場所に関するコミュニケーションを再現するためのフローチャートであり、図16(B)は、滞在場所に関するキャラクター音声の音声管理テーブルを示す図である。
例えば、ステップS31において、統括制御部73は、GPS受信機60からユーザの位置情報が受信されたか否かを判断する。ユーザの位置情報が受信されると、ステップS32において、統括制御部73は、ユーザの位置情報に基づいて、ネットワーク等を利用してユーザの滞在場所を検索して特定する。そして、ステップS33において、統括制御部73は、図16(B)の音声管理テーブルに基づいて、特定された場所に応じたキャラクター音声をスピーカ62から出力する。統括制御部73は、例えば、ユーザがスーパーマーケットに行った際には「今日の夕食なにつくる?」などのキャラクター音声、或いは、ユーザが病院に行った際には「大丈夫?体調わるいの?」などのキャラクター音声を出力する。また、統括制御部73は、例えばユーザが遊園地に行った際には「いっぱい遊んだね」などのキャラクター音声を出力する。
また、統括制御部73は、取得した位置情報に基づき特定した場所にユーザが滞在した滞在回数(訪問回数、などとも称される)に応じた音声を3Dキャラクター1100のキャラクター音声として出力するように制御するとよい。図17(A)は、滞在回数に関するコミュニケーションを再現するためのフローチャートであり、図17(B)は、滞在回数に関するキャラクター音声の音声管理テーブルを示す図である。
図17(A)のステップS41,S42は、図16(A)のステップS31,S32と同様であるため、説明を省略する。ステップS43において、統括制御部73は、ステップS42において特定された場所へのユーザの滞在回数を取得する。そして、ステップS44において、統括制御部73は、図17(B)の音声管理テーブルに基づいて、ユーザの滞在回数に応じたキャラクター音声をスピーカ62から出力する。統括制御部73は、例えば、ユーザが或るゲームセンターに初めて行った際には、「ゲーム楽しかったね」などのキャラクター音声を出力する。そして、統括制御部73は、ユーザが当該或るゲームセンターに再び行った際には、「また行きたいと思ってたんだ」などのキャラクター音声を出力する。さらに、統括制御部73は、ユーザが当該或るゲームセンターに所定回数以上(例えば、10回以上)行った際には、「またゲームするの~」などのキャラクター音声を出力する。
また、統括制御部73は、取得された位置情報に基づき特定された場所でのユーザの滞在時間に応じた音声を3Dキャラクター1100のキャラクター音声として出力するように制御するとよい。図18(A)は、滞在時間に関するコミュニケーションを再現するためのフローチャートであり、図18(B)は、滞在時間に関するキャラクター音声の音声管理テーブルを示す図である。
図18(A)のステップS51,S52は、図16(A)のステップS31,S32と同様であるため、説明を省略する。ステップS53において、統括制御部73は、ステップS52において特定された場所へのユーザの滞在時間を取得する。そして、ステップS54において、統括制御部73は、図18(B)の音声管理テーブルに基づいて、ユーザの滞在時間に応じたキャラクター音声をスピーカ62から出力する。例えば、コンビニエンスストアでのユーザの滞在時間が5分以内であるときには、統括制御部73は、「早かったね。待ってたからうれしい」などのキャラクター音声を出力する。また、コンビニエンスストアでのユーザの滞在時間が5分以上且つ10分未満(5~10分)であるときには、統括制御部73は、「何買ってきたの?」などのキャラクター音声を出力する。さらに、コンビニエンスストアでのユーザの滞在時間が10分を超えたときには、統括制御部73は、「遅かったね。心配しちゃったよ」などのキャラクター音声を出力する。
統括制御部73は、GPS受信機60等を用いて取得されたユーザの位置情報に基づいて、以上のような制御を行うとよい。このようにすれば、ユーザは、自身の行動に応じた反応をキャラクターが示してくれたという感覚を得ることができ、当該キャラクターへのユーザの愛着が増大する。
なお、上記では、携帯型の表示装置1が例示されているが、例えば、据え置き型の表示装置1であってもよい。例えば、統括制御部73(詳細には、通信制御回路706)が、ユーザのスマートフォン(GPS受信機を備えるスマートフォン)等と通信して、外出中のユーザの位置情報(ユーザが所持しているスマートフォンの位置情報)を取得する。そして、ユーザが帰宅等した後に3Dキャラクター1100とコミュニケーションをとる際に、統括制御部73が、上記のような動作が実行されるように制御するとよい。なお、この際のキャラクター音声や動きの内容は適宜変更されるとよい。
<3.ユーザの行動パターンに関するコミュニケーション機能について>
また、ユーザの行動パターンが所定の行動パターンに合致すると判断されると、当該所定の行動パターンに応じた音声が3Dキャラクター1100のキャラクター音声として出力されるように制御されるとよい。図19(A)は、行動パターンに関するコミュニケーションを再現するためのフローチャートであり、図19(B)は、行動パターンに関するキャラクター音声の音声管理テーブルを示す図である。
例えば、統括制御部73において、ユーザが出勤する曜日(例えば、月曜日~金曜日)と出勤時刻(例えば、8時30分)と出勤時に利用する特定の経路とが、「出勤時の行動パターン」としてユーザ等によって予め登録される。そして、例えば、GPS受信機60からユーザの位置情報が受信される(ステップS61)と、統括制御部73は、ユーザの位置情報に基づいて、ユーザの行動パターンが所定の行動パターンに合致するか否かを判断する(ステップS62)。例えば、ユーザが火曜日の8時30分に特定の経路を通過した場合、統括制御部73は、ユーザの行動パターンが「出勤時の行動パターン」に合致すると判断する。そして、ステップS63において、統括制御部73は、図19(B)の音声管理テーブルに基づいて、「出勤時の行動パターン」に対応付けて登録された音声(例えば、「お仕事がんばってきてね」)を3Dキャラクター1100のキャラクター音声としてスピーカ62から出力する。このようにして、ユーザの行動に応じた反応をキャラクターが示してくれることにより、当該キャラクターへのユーザの愛着を増大させることができる。なお、所定の行動パターン(例えば、出勤時の行動パターン)がユーザによって予め登録されていることは必須ではなく、例えば、統括制御部73が学習機能を有しており、ユーザの行動パターンを学習することによって、所定の行動パターンが登録されるようにしてもよい。
<4.不審者の検知に関するコミュニケーション機能について>
また、検知対象空間において検知された人が不審者であると判断されると、所定の動作が実行されるとよい。そして、当該所定の動作が実行された後において、表示装置1のユーザが検知されると、不審者の検知に関する音声が3Dキャラクター1100のキャラクター音声として出力されるとよい。図20は、不審者の検知に関する動作を再現するためのフローチャートである。
例えば、表示装置1において、表示装置1の正面側に、目視者(ユーザ等)を撮影する撮影部(例えば、カメラ)(不図示)が設けられ、当該撮影部(詳細には、撮影部が有するセンサ)が、検知対象空間における人の存在を検知する検知手段として用いられるとよい。「検知対象空間」としては、例えば、表示装置1が載置されている空間(例えば、ユーザの自宅)における撮影部の画角範囲(撮影可能範囲)が挙げられる。撮影部は、例えばレンズおよび撮像素子(例えばCCDまたはCMOS)を含み、多色の画像を撮影する。撮影部のレンズは、目視者(特に顔)を撮影可能な位置に設けられる。例えば、撮影部のレンズは、上端部51のうち、表示装置1の幅方向における中心付近に設けられる。撮影部は、例えば、R、G、Bの各色成分の画像信号を制御部70に出力する。統括制御部73は、この画像信号を処理して撮影画像を生成する。
統括制御部73は、当該撮影部を用いて検知対象空間を監視する(ステップS71)。そして、統括制御部73は、検知対象空間において人の存在が検知されると、ステップS72において、例えば顔認証等のユーザ認証を行い、ステップS73において、検知された人物が表示装置1の登録ユーザであるか否かを判断する。統括制御部73は、例えば、撮影部によって撮影された人が表示装置1の登録ユーザであると判断すると、その人物は不審者でないと判断する。一方で、撮影部によって撮影された人が未登録ユーザであると判断されると、ステップS74において、統括制御部73は、その人物は不審者であると判断し、所定の動作を実行する。「所定の動作」としては、例えば、撮影部による録画を開始する動作や、比較的大きな音量で警報を発する動作、予め登録された警備会社に通報する動作などが挙げられる。あるいは、「所定の動作」は、3Dキャラクター1100が不審者に声掛け(例えば、「誰!?合言葉を言って!」)を行う動作であってもよい。そして、不審者と判断された人から返事がない場合、あるいは合言葉が間違っている場合に、上記の録画開始動作等が実行されてもよい。なお、合言葉が間違っている場合に、統括制御部73は、「違うよ!?もう一度言って」などの音声を3Dキャラクター1100のキャラクター音声として出力し、再度合言葉が間違っていると判断したときに、上記の録画開始動作等を実行してもよい。これらのようにすれば、例えば不審者を検知対象空間から撤退させることができ、検知対象空間における防犯性を高めることができる。
そして、統括制御部73は、所定の動作の実行後において、表示装置1のユーザが検知されると、不審者の検知に関する音声を3Dキャラクター1100のキャラクター音声として出力するとよい。「不審者の検知に関する音声」としては、例えば「怖かったよー」などが挙げられる。このようにすれば、画像表示部20に表示されたキャラクターへのユーザの愛着を増大させることができる。
また、表示装置1を用いて検知対象空間が監視されている場合、不審者の検知に限らず、次のような動作が行われてもよい。
例えば、企業の受付スペースに表示装置1が配置され、3Dキャラクター1100が所謂受付嬢として受付業務を行うような表示をするものであってもよい。具体的には、マイクロ波ドップラーセンサ(検知手段の一例)によって検知対象空間(例えば受付スペース)における人の接近が検知されると、統括制御部73は、「いらっしゃいませ。どちらの部署に御用でしょうか?」などの音声を3Dキャラクター1100のキャラクター音声として出力するとよい。そして、統括制御部73は、検知された人(来客者)からの返答に基づいて、来客者の所望の部署に電話を掛けるように制御するとよい。
<5.表示装置1の起動時間に関するコミュニケーション機能について>
また、統括制御部73は、3Dキャラクター1100のキャラクター音声での言葉使いが所定の時点(例えば、初回の起動時点)からの表示装置1の起動時間(例えば、累積起動時間)に応じて、コミュニケーションの内容が変化するように制御するとよい。例えば、統括制御部73は、次述するように、表示装置1の起動時間が長くなるほど、3Dキャラクター1100がユーザに対して親しい言葉使いで発話するように制御するとよい。
例えば、上述のような種々のキャラクター音声について、敬語調、ユーザと友人関係であるような言葉調、およびユーザと恋人関係であるような言葉調の3パターンのキャラクター音声が予め音声管理テーブルに登録されるとよい。そして、例えば、所定の時点からの表示装置1の起動時間が100時間未満のときには、統括制御部73は、音声管理テーブルに登録されている3パターンのキャラクター音声のうち、敬語調のキャラクター音声を出力する。また、当該起動時間が100時間以上且つ1000時間未満のときには、統括制御部73は、音声管理テーブルに登録されている3パターンのキャラクター音声のうち、ユーザと友人関係であるような言葉調のキャラクター音声を出力する。さらに、起動時間が1000時間を超えると、統括制御部73は、音声管理テーブルに登録されている3パターンのキャラクター音声のうち、ユーザと恋人関係であるような言葉調のキャラクター音声を出力する。
このようにすると、ユーザは、ユーザ自身に対するキャラクターの言葉使いが変化したことによって、当該キャラクターとの関係性(例えば親密度)が変化したことを感じることができる。
なお、統括制御部73は、前回の起動からの経過時間によっては、ユーザに対する3Dキャラクター1100の親密度を低下させるように制御してもよい。例えば、表示装置1の累積起動時間が100時間を超えている場合であっても、前回の起動から1週間が経過しているときには、統括制御部73は、ユーザと対等な言葉調ではなく、敬語調のキャラクター音声を出力するようにしてもよい。このようにすれば、ユーザが、画像表示部20に表示されたキャラクターとの親密度を維持するために極力間隔を空けずに当該キャラクターと接するようになり、当該キャラクターへの愛着を更に増大させることができる。
また、統括制御部73は、初回の起動時点では「初めまして」などの挨拶の音声をキャラクター音声として出力し、初回の起動時点から所定期間(例えば、1カ月など区切りの良い期間)が経過した時点では、記念日を示す内容(例えば、「出会って1カ月だね」)の音声をキャラクター音声として出力するとよい。このようにすれば、3Dキャラクター1100への愛着を更に増大させることができる。
<6.他の機器との連携によるコミュニケーション機能について>
また、例えば据え置き型の表示装置1において、他の機器との連携によって次述のような動作が実行されてもよい。例えば、表示装置1と通信可能な機器(以下、他の機器と称する)が設置されている場所にユーザが訪問すると、当該他の機器の制御部(CPU等)が、次述のようにして、ユーザを識別するとともに、当該ユーザに適した情報(例えば、グルメ情報やイベント情報)を自動的に案内するようにしてもよい。例えば、表示装置と他の機器との連携システムを利用する利用ユーザの顔画像と当該利用ユーザが所有する表示装置(例えばIPアドレス等)とが対応付けられて予め外部サーバ等に登録される。当該他の機器の制御部は、例えば当該他の機器に設けられた撮影部が有するセンサによって人が検知されると、撮影画像において検知された人の顔画像と外部サーバに登録された利用ユーザの顔画像とを比較することによって表示装置1のユーザを識別する。そして、当該他の機器の制御部は、外部サーバにおいて当該ユーザに対応付けて登録されている表示装置1(例えば、表示装置1のIPアドレス等)を特定し、表示装置1のユーザが検知されたことを示す情報を当該表示装置1に送信する。表示装置1の統括制御部73には、「ユーザに適した情報」(例えば、グルメ情報やイベント情報)が予め登録されており、統括制御部73は、当該他の機器からの信号受信に応じて、登録されている「ユーザに適した情報」を当該他の機器に送信する。そして、当該他の機器の制御部は、表示装置1から受信された「ユーザに適した情報」を出力(例えば、音声出力)する。なお、「ユーザに適した情報」の案内に際して、当該他の機器は、その表示画面に3Dキャラクター1100を表示させるとよい。また、ユーザに案内した情報等が当該他の機器から表示装置1に送信され、表示装置1の統括制御部73においてユーザ情報として蓄積されるとよい。そして、例えば表示装置1がユーザの自宅に設置されている場合、ユーザの帰宅が検知されると、統括制御部73は、「**に行ってきたでしょ、どうだった?」などの音声を3Dキャラクター1100のキャラクター音声として出力するとよい。このようにすれば、画像表示部20に表示されたキャラクターへのユーザの愛着を増大させることができる。
<7.その他のコミュニケーション機能について>
さらに、種々のセンサによる検知結果に基づいて次のような制御が行われてもよい。
例えば、風(例えば、風速)を検知可能な風検知手段(例えば、風センサ)が表示装置1の開口部5の下端部52付近に設けられ、当該風センサによる検知結果に基づいて次のような制御が行われてもよい。風は、例えばユーザが人為的に起こしたものとするとよく、例えば表示装置1に向けて手を振る等の身体の部位を動かすことによって発生する風や息(呼気)を吹きかけることによって発生する風とするとよい。例えば、所定値以上の風速の風が風センサによって検知されると、統括制御部73は、画像表示部20に表示されたキャラクター(例えば、3Dキャラクター1100)の毛(例えば、髪の毛)や衣服(例えば、スカート)がなびく映像を表示出力するとよい。また、例えば、火のついたろうそくの映像が画像表示部20に表示されている場合において、風センサによって風が検知されると、統括制御部73は、ろうそくの火が消える映像に切り替えるとよい。さらには、検知された風が所定の閾値よりも強い(風速が所定の閾値よりも大きい)ときには3Dキャラクター1100の衣服がより大きくなびくなど、統括制御部73は、検知された風の強度(例えば、風速)に応じて映像を切り替えるとよい。
また、例えば、対象物の有無(存否)および対象物までの距離を検知可能な物体検出手段(例えば、超音波センサ)が表示装置1の筐体10の内周面において筐体10の内方側に向けて設置され、当該超音波センサによる検知結果に基づいて次のような制御が行われてもよい。例えば、統括制御部73は、超音波センサによる検知結果に基づいて、筐体10内において立体視表示されている3Dキャラクター1100に目視者の手が触れていると判断すると、当該3Dキャラクター1100が反応を示す映像を表示出力するとよい。また、統括制御部73は、3Dキャラクター1100において目視者によって触れられた部位に応じて異なる反応を示すように表示制御するとよい。3Dキャラクター1100において観察者によって触れられる部位は、例えば、頭部、胸部、腹部、臀部または脚部等で例示される身体の部位とするとよい。また、3Dキャラクター1100において観察者によって触れられる部位は、3Dキャラクター1100の衣服(例えば洋服、スカート)や装飾物(例えば、アクセサリー)とするとよい。
また、例えば、地震を感知し震度を測定可能な地震検知手段(例えば、感震センサ)が表示装置1に設けられ、統括制御部73は、当該感震センサによって地震が検知されると、地震警報を発するとよい。
また、例えば、天気を計測可能な天気センサが表示装置1に設けられ、統括制御部73は、当該天気センサによる計測結果に基づいて、天気の変化や天気予報等を通知するとよい。なお、天気センサは、例えば、気圧センサと温度センサと湿度センサとを有し、各センサの検知結果に基づいて天気を計測可能に構成されているとよい。
また、統括制御部73は、温度センサによって検知された温度または/および湿度センサによって検知された湿度に応じて、画像表示部20に表示されたキャラクターの表情や動き(モーションともいう)が変化する映像を表示するとよい。
また、統括制御部73は、マイクロ波ドップラーセンサなどの人感センサによる検知結果(例えば、表示装置1と目視者との距離)に応じて、画像表示部20に表示されたキャラクターの表情や動きが変化する映像を表示するとよい。
また、統括制御部73は、湿度センサを利用して、ユーザによって息が吹きかけられたか否かを判断するとよい。さらには、統括制御部73は、温度センサをも利用して、ユーザによって吹きかけられた息の種類を判断するとよい。なお、これらのセンサは、例えば、表示装置1の開口部5の下端部52付近に設けられるとよい。
ここで、ユーザによって吹きかけられる息には、例えば、「フー」と吹きかける息、および「ハー」と吹きかける息、の2種類の息がある。なお、一般に、冷たい息を吹きかけるときには、速く「フー」と息を吹くことから、ここでは、「フー」と吹きかける息を「冷たい息」と呼ぶ。また、一般に、暖かい息を吹きかけるときには、ゆっくり「ハー」と息を吹くことから、ここでは、「ハー」と吹きかける息を「暖かい息」と呼ぶ。
この2種類の息に関して、本願の発明者は、実験等により次のような知見を得た。詳細には、まず、湿度に関して、温湿度センサ(例えば、温度センサと湿度センサとが一体化されたセンサ)から所定程度離れた位置において当該温湿度センサに向けて「フー」と息を吹きかけると、その直後に湿度が定常状態から急激に上昇する、との測定結果が得られた。また、その後、息を吹きかけている間は湿度が単調増加し、息の吹きかけを停止すると、元の定常状態に戻るまでに数十秒の時間を要する、との測定結果が得られた。同条件で温湿度センサに向けて「ハー」と息を吹きかけたときも、同様の測定結果が得られた。一方で、温度に関しては、「フー」と息を吹きかけた場合は、温度が定常状態から若干低下するかほぼ横ばいとなり、「ハー」と息を吹きかけた場合は、温度が上昇する、との測定結果が得られた。なお、ユーザが表示装置1に吹きかける息は、表示装置1に当たる風の一例である。
このような知見等を考慮して、例えば、湿度センサが設けられた表示装置1において、湿度が定常状態から急激に上昇したことが湿度センサによって検知されると、統括制御部73は、目視者によって息が吹きかけられたと判断(決定ともいう)するとよい。さらに、その後において湿度の単調増加が検知されなくなると、統括制御部73は、息の吹きかけが停止されたと判断するとよい。あるいは、湿度の急激な上昇が検知されてから所定時間(例えば、通常息を吐くのに要する時間(例えば、3秒程度))が経過すると、統括制御部73は、その時点での湿度の検知結果にかかわらず、息の吹きかけが停止されたと判断するとよい。
さらに、湿度の急激な上昇が湿度センサによって検知された際に、(例えば、ほぼ同じタイミングで)温度が定常状態から上昇したことが温度センサによって検知されると、統括制御部73は、目視者によって吹きかけられた息の種類が「暖かい息」であると判断するとよい。逆に、湿度の急激な上昇が湿度センサによって検知された際に、温度が定常状態から変化していないこと、あるいは定常状態から下降したことが温度センサによって検知されると、統括制御部73は、目視者によって吹きかけられた息の種類が「冷たい息」であると判断するとよい。
そして、統括制御部73は、息の吹きかけが検知されたことに応じた映像や音声を、画像表示部20に表示されたキャラクターの動きやキャラクター音声として出力するとよい。また、統括制御部73は、吹きかけられた息の種類に応じた映像や音声を、画像表示部20に表示されたキャラクターの動きやキャラクター音声として出力するとよい。例えば、統括制御部73は、目視者によって吹きかけられた息の種類が「冷たい息」である場合は、当該キャラクターの衣服がなびく映像を表示出力し、目視者によって吹きかけられた息の種類が「暖かい息」である場合は、当該キャラクターが息を避けるような動きを行う映像を表示出力するとよい。
また、本願の発明者は、種々のガスセンサを用いて次のような知見も得た。詳細には、ガスセンサから所定程度(例えば約10cm)離れた位置において当該ガスセンサに向けて「フー」と息を吹きかけると、その直後にガスセンサの出力値が下降し、息を吹き終えると、その直後にガスセンサの出力値が上昇に転じる、との測定結果が得られた。逆に、当該ガスセンサに向けて「ハー」と息を吹きかけると、その直後にガスセンサの出力値が上昇し、息を吹き終えると、その直後にガスセンサの出力値が下降に転じる、との測定結果が得られた。また、例えば送風機(例えば、扇風機)から送られた風がガスセンサに当たると、ガスセンサの出力値が下がり、扇風機からの風がガスセンサに当たらなくなると、ガスセンサの出力値が上がる、との測定結果が得られた。
このような知見等を考慮して、統括制御部73は、例えば、ガスセンサが設けられた表示装置1において、ガスセンサの出力値が定常状態から急激に下降すると、目視者によって吹きかけられた息の種類が「冷たい息」であると判断するとよい。逆に、ガスセンサの出力値が定常状態から急激に上昇すると、統括制御部73は、目視者によって吹きかけられた息の種類が「暖かい息」であると判断するとよい。
風センサを用いて息を検出する構成とすることもできる。本願の発明者は、風センサによると紙で仰ぐ程度の比較的弱い風を捉えることができることがあり、風センサに息を吹きかけるとすぐにピークになり、風が吹き始めるときの応答性が良いことを確認した。ただし、息を吹きつづけると、ピークからすぐに落ちてしまう。フーっと吹く息のような強い風だとヒーターが冷やされ、回復するのに時間が掛かることが考えられる。
風センサを用いて息を検出する構成に関連し、以下のような構成をしてもよい。
統括制御部73は、風センサにより持続的に所定の風量を検出している場合、息を吹きかけられている状態ではない方向の処理をするとよい。息を吹きかけられている状態ではない方向の処理は、例えば、息が吹きかけられていないと判断する処理である。この場合に、統括制御部73は、風センサにより風の検出が始まってから終わるまでの時間が、息の吹きかけが可能な時間内であるとき、息を吹きかけられている状態である方向の処理を行うようにするとよい。
この場合において、前記風センサは、風を受けることで奪われた熱を電気的に計測することで風を検出するセンサであってもよい。このセンサにおいては、当該センサに受ける風が、息が吹きかけられた風量に相当する。このセンサは、センサに受ける風が、息が吹きかけられた時間に相当する時間持続した場合に、当該持続の時間中に実際の風量よりも少ない値に落ち込むよう設定されており、センサに受ける風が、息が吹きかけられた風量よりも小さい場合にはこの落ち込みが発生しにくいように設定されているとよい。
表示装置1においては、前記風センサとして複数の風センサに対して、息の流入経路を共通とした風を流入させる流路が設けられてもよい。前記流路は、異なる風センサに対して、1:1ではない所定の比率で風が入るように構成されているとよい。統括制御部73は、当該比率及び複数の風センサの特性の違いに基づいて息を吹きかけの大きさ及び時間を判定するとよい。表示装置1は前記持続の時間中に実際の風量よりも少ない値に落ち込むタイミングの異なる複数の風センサを備え、統括制御部73は当該複数の風センサの出力に基づいて、息を吹きかけの大きさ及び時間を判定するとよい。表示装置1は、前記複数の風センサとして、ガスセンサではない風センサと、カスセンサとを少なくとも備えてもよい。
また、前記風センサとして所定のガスを検出するためのガスセンサを用いるとよい。前記風センサとして所定のガスを検出するためのガスセンサであって、ヒーターを備えるガスセンサを用いるとよい。この場合に、前記ヒーターを備えるガスセンサは、息の吹きかけの程度が相対的に小さいときに(息に含まれるガスを検出した結果)ガスの検出量が大きくなる方向の出力をする一方、息の吹きかけの程度が相対的に大きいときに(息の風によるヒーターの冷却によって)ガスの検出量が小さくなる方向の出力をする特性を有するものを用いるとよい。
統括制御部73が、息が吹きかけられていると判定したとき、その強さが相対的に大きいときには(例えば、風量が閾値以上であるときには)、3Dキャラクター1100の服・髪などを動かすアニメーションを表示する一方、その強さが相対的に小さいときには3Dキャラクター1100の服・髪などを動かすアニメーションとは別のアニメーションを表示するとよい。
ところで、息の検出にガスセンサを用いる場合、ガスセンサは、人間の息に含まれる成分(例えば、二酸化炭素)に反応して上記出力値を出力する。そして、「フー」という息が吹きかけられた場合と、「ハー」という息が吹きかけられた場合とで、ガスセンサの出力値が異な理由としては、「フー」という息が吹きかけられた場合は、吹きかけられた息の速度が高く、ガスセンサに衝突した後すぐに周囲に拡散しやすい一方、「ハー」という息が吹きかけられた場合は、吹きかけられた息の速度が低く、ガスセンサに衝突した後もその場に息の成分がとどまりやすいということがあると考えられる。
さらに、統括制御部73は、例えば湿度センサによる湿度の検知結果をも用いて、検知された風が、目視者による息の吹きかけによるものであるか、送風機によるものであるか、を判別するとよい。例えば、表示装置1において、ガスセンサの出力値が定常状態から急激に下降し、且つ、湿度が定常状態から急激に上昇したことが湿度センサによって検知されると、統括制御部73は、ユーザによって息が吹きかけられたと判断するとよい。一方、ガスセンサの出力値が定常状態から急激に下降したものの、湿度が定常状態のままであるときには、統括制御部73は、送風機によって風が送られていると判断するとよい。さらに、統括制御部73は、温度センサによる温度の検知結果をも用いて、ユーザによって息が吹きかけられたと判断された際において、その息の種類を判断するとよい。また、比較的短い一定期間内においてガスセンサの出力値の上昇と下降とが繰り返された場合、統括制御部73は、首振りしている扇風機の風が当たっていると判断するとよい。
なお、風を検知するために用いられる、風センサ、湿度センサ、温度センサ、温湿度センサ、およびガスセンサは風検知手段の一例である。表示装置1は、風を検知するセンサとして、気圧センサを有してもよい。風の発生やその強さによって気圧の変化が発生し得るからである。
以上のような種々の制御が実行され得る。なお、上記のような制御は、3Dキャラクター1100に限らず、他のキャラクター(例えば、3Dキャラクター1200)に関するコミュニケーション機能について行われてもよい。
[三次元画像等の表示例]
以上のような構成を備える表示装置1において、三次元画像(特に、例えば、3Dキャラクターを表示する三次元画像)に関して以下のような表示が行われるとよい。以下のような表示は、例えば、上述した「コミュニケーション機能」の一例として実行されるとよい。なお、以下のような表示は、例えば、統括制御部73がROM702内の3Dアプリケーションを実行することによって再現されるとよい。
例えば、図示を省略するが、統括制御部73が、キャラクターの身体の一部に動きがあるときに当該キャラクターのパース(例えば、パース画像とも称される)を変更するとよい。このようにすれば、当該キャラクターに躍動感を与えることができる。
例えば、図示を省略するが、キャラクターと目視者との会話によってキャラクターが怒り、当該キャラクターがパンチを繰り出す演出が行われるときには、統括制御部73が、3Dアプリケーション内におけるカメラの手前側にキャラクターの手が映るようにカメラ位置を制御するとともに、パースを通常の状態よりも強調した状態へと、少なくともパンチをしている期間に亘って変更するように制御するとよい。そして、統括制御部73は、キャラクターのパンチが終わると、パースを通常の状態に戻すように制御するとよい。
また、裸眼立体視で3Dキャラクターを減光部材30よりも前面に飛び出して見せるように左右のカメラの間隔(例えば、3Dアプリケーションでの間隔設定値)を調整するときにおいて、飛び出し具合を大きくすると、3Dキャラクターが前後方向に間延びして見える、という問題がある。このような問題を考慮して、統括制御部73が、飛び出し具合を大きくするにつれて(例えば、左右カメラの間隔を広げるにつれて)、3Dキャラクターの前後方向を押しつぶすように画像処理を実行するとよい。特に、飛び出しの度合いに応じた押しつぶし量が設けられ、3Dキャラクターが前面側に飛び出すほど、押しつぶし量が大きくなるようにするとよい。
また、図示を省略するが、統括制御部73が、3Dキャラクターの身体の様々な部分(例えば、女性のキャラクターの場合は胸部等)が揺れるように表示するとよい。この場合、3Dキャラクターの立体感をより強調するために、例えば、3Dキャラクターが正面ではなく斜め前方を向いている画像が表示されるとよい。
また、統括制御部73が、画像表示部20に表示されるキャラクターに応じて、3Dアプリケーションにおける各種のパラメータ(カメラの離し度合い、向き、表示対象物までの距離等)を適切な値に設定するとよい。なお、統括制御部73による自動設定に限らず、上記の3Dアプリケーションにおける各種のパラメータを調整可能な物理的なスライダーが筐体10に設けられ、目視者等が3Dキャラクターを見ながら各種パラメータの調整を容易に行えるようにされてもよい。
また、図示を省略するが、統括制御部73が、所定の物体(例えば、板等)が減光部材30と同じ位置に描画されるように表示するとよい。このようにすれば、減光部材30が存在していることを映像で目視者に知らせることができ、目視者が空間領域102(図6)に手を入れた際に、目視者の手が減光部材30にぶつかることを抑制することができる。なお、所定の物体と減光部材30とが同じ位置となるように、表示装置1に、種々のパラメータをキャリブレーションする機能が設けられていると尚よい。
また、減光部材30よりも前方側(開口部5側)まで3Dキャラクターが飛び出した状態の映像と、減光部材30の後方側(画像表示部20側)にしか3Dキャラクターが飛び出さない状態の映像とを予め設け、それぞれの状態で異なるアクションが行われるようにするとよい。たとえば、図示を省略するが、統括制御部73が、3Dキャラクターが前方側まで飛び出した映像を画像表示部20に表示したときは、当該3Dキャラクターが握手を求めるなど、目視者に対して積極的に3Dキャラクターを触らせるアクションを当該3Dキャラクターが行う映像を画像表示部20に表示するとよい。逆のときには、そのような動作を行わない映像が表示されるとよい。また、統括制御部73が、例えば、傾斜配置された減光部材30の面上に滑り台の画像を表示し、その上(正面側)をキャラクターが滑る映像を描画するとよい。
また、統括制御部73が、画像表示部20において、三次元画像として認識される画像として、次述の第1画と第2画像とを含む複数の画像のいずれかを選択的に表示するようにしてもよい。第1の画像は、3Dキャラクター1000の少なくとも一部分が減光部材30よりも前方側(開口部5側)に存在するように目視者によって立体視可能な画像(図21(B)の3Dキャラクター1000参照)とするとよい。第2の画像は、第1の画像よりも正面側または背面側に存在すると認識される画像とするとよい。例えば、画像表示部20において、3Dキャラクター1000(「目視者によって立体視される表示対象物」の一例)が減光部材30よりも後方側(画像表示部20側)に存在するように目視者によって立体視可能な第2の画像(図21(A)参照)と、3Dキャラクター1000の足よりも上側の部分が減光部材30よりも前方側(開口部5側)に存在するように目視者によって立体視可能な第1の画像(図21(B)参照)とが切り替えられて表示されるとよい。なお、第1の画像においては、当該3Dキャラクター1000の全部分が減光部材30よりも前方側に存在するように目視者によって立体視可能な画像であってもよい。このようにすれば、目視者によって三次元の画像として認識される画像が存在すると認識される位置が異なる第1の画像と第2の画像とを含む複数の画像のいずれかを選択的に表示することができるので、目視者に与える立体感を変更することができる。その結果、例えば、目視者をより楽しませることができる。なお、3Dキャラクター1000の画像自体は画像表示部20の表示面に表示されており、図13では、目視者によって立体視された(画像表示部20から飛び出して見える、とも表現される)3Dキャラクター1000が示されている。
例えば、統括制御部73が、3Dキャラクター1000が減光部材30の後方側にしか飛び出さない状態の画像(図21(A)参照)から、3Dキャラクター1000(3Dキャラクター1000の全部あるいは一部分)が減光部材30の前方側にまで飛び出した状態の画像(図21(B)参照)へと遷移させることによって、画像表示部20の表示画像を切り替えるとよい。三次元の画像が認識される位置は、目視者による操作部40の操作またはその他の操作により切り替え可能になっていてもよい。目視者は三次元画像が立体的に見える位置に、画像が表示されるように操作してもよい。また、三次元画像の切り替え可能な位置は3種類以上でもよい。三次元画像が立体的に見えるか否かは個人差によるところもあるからである。
また、第1の画像と第2の画像との間での表示移行に際して、統括制御部73が、3Dキャラクター1000が減光部材30の後方側から前方側へと(あるいは、減光部材30の前方側から後方側へと)徐々に移動する移動過程の画像(映像)を表示してもよい。
このような画像遷移に際して、統括制御部73が、例えば、減光部材30の存在を示すアクションを3Dキャラクターが行う映像を画像表示部20に表示するとよい。例えば、3Dキャラクターが減光部材30の後方側位置から減光部材30を叩くと、穴が開いた画像を減光部材30と同位置に配置して、当該3Dキャラクターがその穴から飛び出して手前側に移動するような映像が表示されるとよい。
[表示装置1に表示される映像の具体例]
次に、図22~図36を参照しつつ、表示装置1に表示される映像の具体例を説明する。図22~図36は、本実施例に係る表示装置1に表示されるキャラクター(図11,12で説明した3Dキャラクター1200を含む映像)の一例を示す図である。図22~図36に示される各映像は、表示装置1において表示され、開口部5を介して目視者が見ることのできる画像である。なお、図22~図36にはステージ映像2200が表示されているが、これが表示されずに3Dキャラクター1200が表示されるようにしてもよい。
表示装置1(詳細には、統括制御部73)は、図22~図28に示される3Dキャラクター1200の映像を、コミュニケーション機能に基づいて、目視者の動作を待機する期間に規則的またはランダムに切り替えて表示する。表示装置1(詳細には、統括制御部73)は、コミュニケーション機能に基づいて、3Dキャラクター1200の表示を変化させる。例えば、図22(A)のように、3Dキャラクター1200は、表示装置1の正面側(画像を見る側)の方向を向いて立ってる姿勢で表示される。表示装置1は、この姿勢を基本姿勢とし、コミュニケーション機能に基づくコミュニケーションが行われていない期間の表示としてもよい。例えば、図22(B)のように、3Dキャラクター1200が自身の前足を舐めるような動作をする。例えば、図22(C)および図23(A)のように、3Dキャラクター1200は、自身の左右を交互に見るような動作をする。例えば、図23(B)のように、3Dキャラクター1200は、地面の方向を向く動作をする。例えば、図23(C)のように、3Dキャラクター1200は、座ったまま伸びをするような動作をする。例えば、図24(A)のように、3Dキャラクター1200は、地面をのぞき込むような動作をする。さらに例えば、図24(B)および図24(C)のように、3Dキャラクター1200は、正面側に歩く動作をする。例えば、図25(A)に示すように、3Dキャラクター1200は、自身の腹部をのぞき込むような動作をする。例えば、図25(B)に示すように、3Dキャラクター1200は、首を傾げる動作をする。例えば、図25(C)に示すように、3Dキャラクター1200は、自身の目をこする動作をする。例えば、図26(A)に示すように、3Dキャラクター1200は、あくびをする動作をする。例えば、図26(B)に示すように、3Dキャラクター1200は、座ったまま自身の前足を舐める動作をする。例えば、図26(C)に示すように、3Dキャラクター1200は、自身の左前方を見るような動作をする。例えば、図27(A)に示すように、3Dキャラクター1200は、自身の右前方を見るような動作をする。図27(B)に示すように、3Dキャラクター1200は、伸びをする動作をする。例えば、図27(C)のように、3Dキャラクター1200は、地面をのぞき込むような動作をする。例えば、図28(A)に示すように、3Dキャラクター1200は、表示装置1の右斜め前方の方向を向き、その次に図28(B)に示すように正面を向く。図28(C)に示すように、3Dキャラクター1200は、自身の前足を舐める動作をする。
図29~図36は、表示装置1(詳細には、統括制御部73)が対話処理時に対コミュニケーション機能に基づいて行う3Dキャラクター1200の表示の一例である。図29~図36に示す文字列は、音声認識で認識可能な文字列で、3Dキャラクター1200の上方に表示される。図29(A)は、表示装置1が「おいでおいで~」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図29(B)~図30(B)は、表示装置1が「おすわり」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図30(C)は、表示装置1が「おなか減ったかなぁ」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図31(A)は、表示装置1が「おまわり」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図31(B),(C)は、表示装置1が「おやつの時間だよ」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図32(A)は、表示装置1が「お手」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図32(B)~図33(B)は、表示装置1が「可愛いね」との目視者の発話を認識したときに表示すされるもので、これに応答して音声が出力される。図33(C)は、表示装置1が「こんにちは」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図34(A)は、表示装置1が「ご飯食べる」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図34(B)、(C)は、表示装置1が「女の子かな」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図35(A)は、表示装置1が「待て」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図35(B)は、表示装置1が「いい子ねー」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図35(C)、図36は、表示装置1が「ユノ」との目視者の発話を認識したときに表示されるもので、これに応答して音声が出力される。
<3Dキャラクター1200のより詳細な説明>
図22~図36で説明した3Dキャラクター1200についてより詳細に説明する。以下の説明において、表示装置1を処理主体とした説明については、制御部70(より詳細には、統括制御部73)が行う処理としてよい。3Dキャラクター1200は、概ね約3等身で描画すされると特によい。このようにすると奥行き感が特に強調されることを見出した。表示装置1は、側面側(横側)から見て上下方向に概ね、頭部が3分の1、胴体が3分の1、足が3分の1の高さを占めるように、3Dキャラクター1200を描画するとよい。表示装置1は、尾以外について、側面側から見て左右方向に概ね、頭部が3分の1、胴体が3分の2を占めるように3Dキャラクター1200を描画するとよい。
表示装置1は、正面に顔がある状態で、尾が見えない状態と尾が見える状態との間で相互に変位する描画をする機能を備え、尾が見える状態の時間を尾が見えない状態の時間より短くするとよい。尾は頭よりも奥側に描画されることになるが、ときどき尾が見えることで、立体感を大きく感じることができるとともに、常に立体感を大きく感じることで目や頭が疲労してしまうことを防止できる。特に、表示装置1は、音声認識の待受状態でこのような描画処理を行うとよい。表示装置1は、尾が見える状態へ変位するときには、頭の頂上部分から尾が現れるように描画する機能を備えるとよい。このようにすれば、通常は、顔の目に目視者の視線がありその中心上部からいきなり尾が頭の上方へ飛び出すことで、驚きと面白みを与えることができる。
表示装置1は、3Dキャラクター1200の頭の頂上に正面視で平らな部分を設けるとよく、特に左右の耳の間の頭部分は正面視で平らにして描画するとよい。このようにすれば、立体感が弱い平らな頭の頂上からいきなり立体感のある尾が頭上に現れることとなり、より驚きと面白みを与えることができる。また、表示装置1は、頭上から尾が現れるように描画した後、尾の先端寄りの部分を動かす描画を行うとよい。このようにすれば、視点を顔より奥側の尾の部分に集めることができ、より立体感を感じさせることができる。表示装置1は、同様に胴体の左右から尾を出現させるように描画してもよい。表示装置1は、左右から尾を出現させる場合には、頭上から尾を出現させる場合に比べて、尾の出現する長さ、および/または、時間を短くするとよい。表示装置1は、左右から出現させる場合にはチラチラっと出現させる描画を行うとよい。表示装置1は、視線をときどき奥側に動かす描画をするようにしてもよく、より立体感を感じさせることができる。表示装置1は、音声の認識中は尾を頭の上から出現させる一方、猫からの音声の出力の際には尾を左右いずれかの方向から出現させる描画を行うとよい。表示装置1は、尾には長さ方向に所定の間隔で他の部分と違う描画態様を有する部分を設けるとよい。例えば一定間隔で尾の円筒面上に環状または円弧状に所定の幅を持つ模様を付すとよい。このようにすれば、尾の動きが3次元空間で、よりダイナミックに動くように感じられることを発明者らは見出した。
表示装置1は、音声認識中は同一の姿勢になるように、音声認識中でない状態からの音声認識中の状態に変化があった場合に現在の姿勢を前記同一の姿勢に変化させる描画を行うとよい。表示装置1は、音声認識の開始前に「おしゃべりするにゃ」と発話させるとよい。表示装置1は、目視者の動作を検出する機能(例えばセンサやスイッチ)を備え、目視者からの動作を検出した場合に「なんにゃ?」と発話する機能を備えるとよい。両機能は「なんにゃ?」「おしゃべりするにゃ」という形で連続して実行し、その後音声認識状態に入るように処理を行うとよい。
表示装置1は、音声認識の語句として、「かわいいね」など、褒められる内容の語句の情報を備え、褒められる内容の語句を認識した場合には、体の姿勢を変化させるとよい。さらに歩くなど、猫自体の位置を移動させるとなおよい。このようにすれば目視者は猫の姿勢の変化や移動の動きを見たいために、褒める言動・行動をとるようになり、行動や言動の改善などのセラピーの優れた効果が得られる。
表示装置1は、ご飯をあげることに対応する音声認識の語句を備え、当該語句を認識した場合には、尾を他の場合に比べ早く振る描画を行うとよい。このようにすれば、より猫が実際に生きているかのような感覚を目視者に与えることができる。
表示装置1は、猫の目の外郭を概ね円形状とし、黒目部分は縦長の楕円形状として描画処理するとよい。表示装置1は、黒目部分は上下方向に濃淡のグラデーションをつけて描画するとよく、下方にいくにしたがって明るい色に描画するとよい。表示装置1は、黒目の中心部には概ね円形または楕円形の周辺よりも黒い部分を設けるとよい。表示装置1は、黒目部分の上方の顔の外側寄りの部分には黒目の外縁に沿った三日月形状ないし半月状の白色領域を設けて描画するとよい。これに対し、表示装置1は、黒目の下方の顔の中心寄り位置には円形の白色領域を設けて描画するとよい。表示装置1は、この白色領域の描画は3Dキャラクター1200の位置の変化(姿勢の変化など)、ないし、カメラやライトの位置の変化があった場合でも、描画させつづけるとよい。通常は、ライト等の反射としてハイライトは演算で入れられることが多い。しかし、このようにすることで、音声認識の話しかけの際に最も見られる目の部分の猫の個性を強調とすることができ、個性のある猫として、音声認識をしている短時間で印象づけることができる。
表示装置1は、顔が正面を向いている状態と、下側を向いている状態とをとり、顔が正面を向いているときは目の外郭は概ね円形状で描画する一方、顔が下を向いている状態では、目を横長の楕円形状で描画するとよい。
表示装置1は、顔の上端が胴体の上端より上にある状態と、顔の上端が胴体の上端より下にある状態とをとり、顔の上端が胴体の上端より上にある状態では目の外郭は概ね円形状で描画する一方、顔の上端が胴体の上端よりも下にある状態では、目を横長の楕円形状で描画するとよい。表示装置1は、口を開けてあくびをする状態を描画する機能を備え、この描画の際には目を閉じる描画を行うとよい。
表示装置1は、3Dキャラクター1200には待機時のモーションを複数のパターン用意しておき、これらのパターンのなかから1のパターンを選択して描画する処理を繰り返すとよい。待機時のモーションとしては、足をなめるモーション、顔を手で撫でるモーション、お尻をなめるモーション、正面を向くモーション、左右を見渡すモーション、地面をなめるモーション、伸びをするモーション、あくびをするモーション、歩くモーションなどがある。
表示装置1は、耳は顔の移動に遅れて移動するように描画するとよい。例えば、顔が移動開始してもしばらく耳は位置を保つように描画するとよい。表示装置1は、なめるモーションを行うときには、尾を左右に振るモーションを同時に行う機能を備えるとよい。
表示装置1は、3Dキャラクター1200を正面からみた際に胴体の模様は左右非対称とするとよい。このようにすれば、個性ある猫として覚えられやすくなるとともに、右面が見えているのか左面が見えているのかが容易に判別できるようになる。特に3Dキャラクター1200の全体像がみえないほど拡大した場面を設けるときに有用である。特に、模様は三毛猫の模様とするとよく、特にトラ猫の模様とするとよい。このようにすると特に立体感を把握しやすくなることを発明者らは見出した。特に、頭上の模様は前後方向に設ける一方、胴体の模様は上下方向に設けるなど、その模様の方向を異なる方向とするとよい。このようにすれば、カメラや猫の位置が変化したことを、いずれの方向に移動してもより認識しやすくなる。
表示装置1は、「ニャ」という鳴き声を発する機能を備え、「ニャ」という鳴き声には複数のイントネーションのものを備え、それぞれの鳴き声に対して異なるモーションが対応づけられる構成とするとよい。イントネーションの中には、疑問形のイントネーションを備え、モーションとしては首を傾げるモーションを備えるとよい。
<3Dキャラクター1200に関するコミュニケーション機能について>
3Dキャラクター1200に関するコミュニケーション機能について補足する。以下のようにすれば、目視者に対し、3Dキャラクター1200とのより質の高いコミュニケーション機能を提供することができる。ここでは、飼い慣らすまでにする人の行動と3Dキャラクター1200との行動ストーリーの概略について説明する。この実施例では、表示装置1の正面側に、目視者を撮影する撮影部が設けられている。
(1)第一ステップ:飼い慣らすまでの段階
通常、野良猫等の猫は、人を見るだけで逃げる、または人が近づくと逃げる色々なタイプの猫がいる。そのとき、猫の行動は、何度も振り返りながら人の様子を見ながら逃げるように見える。ここで、制御部70は、撮影部を用いて撮影した撮影画像に基づいて目視者の存在を認識し、かつ人感センサ64により測定されるマイクロ波の強度が閾値を超えた場合、3Dキャラクター1200が逃げるような動作を行う映像を表示させる。猫に人が近づいたとみなすためである。撮影部で目視者を認識するのは、3Dキャラクター1200が逃げる場面を目視者に見せるためである。つまり、目視者が正面側から表示装置1に近づかないと、3Dキャラクター1200が逃げる動作をしないようにしている。
次に、人は猫に対して「しゃがんで(目の位置を落として)」、「おいで、おいで」などの声を掛けると考えられる。そのときに立ち止まり、様子をうかがう猫もいる。しかし、人が近付くと猫は逃げる。何度かこのことが繰り返される。このような人の行動では、猫は慣れてくれないと考えられる。そこで、制御部70は、3Dキャラクター1200が逃げている映像を表示している期間に、人感センサ64により測定されるマイクロ波の強度がある閾値以下であり、かつ例えば「おいで」という3Dキャラクター1200に呼びかけることを示す言葉を音声認識した場合、3Dキャラクター1200が立ち止まるような動作を行う映像を表示させる。ここで、マイクロ波の強度を閾値以下になることを条件としているのは、人間が立ち止まる状態を想定しているからである。
次に、人は立ち止った猫に餌を与えることが考えられる。しかし、人が猫に近づくと、猫は逃げるので、猫がよく来る場所に餌を置いておくしかないと考えられる。そこで、表示装置1は、映像表示空間内に餌が置かれる映像を表示する機能を有する。例えば、制御部70は、所定の操作(例えば、操作部41または操作部42の操作)を受け付けた場合、またはジェスチャーセンサ63で餌を置くことを指示する所定のジェスチャーが検出された場合に、餌がおかれたとして、映像の中に餌を示す映像を表示させる。このようにすれば、目視者は、例えば毎日、餌を置くようにする。制御部70は、この際、3Dキャラクター1200が遠くからその様子を見ているような表示をさせるとよい。制御部70は、人感センサ64を用いて目視者の存在を認識せず、かつ撮影部で目視者が撮影されていない場合に、3Dキャラクター1200が餌を食べる映像を表示させる。ここでは、猫が人を前にして餌を食べない状況を再現している。目視者からすると、いつの間にか餌が空になっている、という状況をつくっている。制御部70は、目視者が餌を与えた回数をカウントしておき、これを記憶しておく。しばらくはこの状態が続くが、制御部70は、餌を与える回数によって、次第に目視者と3Dキャラクター1200と人との距離(目視者が感じる距離)を縮めていくような表示をさせるとよい。例えば、制御部70は、餌を与え始めて、餌を与えた回数とともに、3Dキャラクター1200をより大きく表示するようにして、距離を縮めてきた(つまり、少し慣れてきた)ことを再現するとよい。さらに、餌を与えた回数が増加して所定の閾値に達すると、猫が慣れててきたとして、目視者がキャラクターを見ていても、つまり、制御部70は、人感センサ64を用いて目視者の存在を認識し、かつ撮影部で目視者が撮影されている場合でも、3Dキャラクター1200が餌を食べる映像を表示させる。このときに初めて、目視者は、3Dキャラクター1200が餌を食べる様子を目視することができる。
ただし、猫がいつ餌を食べるかは人が分からないことも少なくない。そこで、制御部70は、3Dキャラクター1200が餌を食べる時間帯(これに代えて、一時点の時刻としてもよい。)を決めておき、その時間帯に3Dキャラクター1200に餌を食べる映像を表示させてもよい。目視者に、どうもこの時間帯に餌を食べるみたいだということを気づかせるためである。制御部70は、目視者が3Dキャラクター1200に触ろうとすることが検出されると、3Dキャラクター1200に所定の発話内容「シャー」または「シャーシャー」という音声を出力させるとともに、3Dキャラクター1200が逃げる映像を表示させる。目視者が3Dキャラクター1200に触ろうことは、3Dキャラクター1200が餌を食べている動作をしているときに、人感センサ64により検出されるマイクロ波の強度が閾値を超えたこと、または第1センサ2331が所定のジェスチャーを検出したことにより特定されるとよい。
このような状況がしばらく続くが、制御部70は、少しずつ、目視者の手を3Dキャラクター1200に近接させることのできる距離を縮めていくとよい。所定の距離まで近づくようになると、制御部70は、3Dキャラクター1200が目視者に慣れてきたとして、人前で毛繕いやくつろいだ動作を行う映像を表示させるとよい。制御部70は、具体的には、マイクロ波の強度に対する閾値を上げていく、またはジェスチャーが行われるときの表示装置1からの距離に対する閾値を上げていく。このようにして、制御部70は、検知感度を下げていき、目視者の動きに対し3Dキャラクター1200の反応を鈍くしていき、「シャー」または「シャーシャー」といった発話もさせないようにする。
猫は、常に警戒はするが、毛繕いや寝そべり、爪研ぎ、顔拭きなどの行動を加えていく。猫がだんだんと人や人の手に慣れてくると、人は手で猫に触れられるようになる。そこで、制御部70は、人感センサ64によるマイクロ波の検知結果を、3Dキャラクター1200の動作に反映させなくするとよい。制御部70は、第1センサ2331をモーションセンサとして機能させて、目視者の上下左右、前後方向のジェスチャーの検知結果に従って、3Dキャラクター1200が撫でると気持ち良さそうにする映像を表示させるとよい。制御部70は、さらに、マイク61により目視者の声を認識して、3Dキャラクター1200がこれに反応する映像を表示させるとよい。例えば、制御部70は、どのような言葉を認識した場合でも、発話内容として「にゃ」という鳴き声を発するようにするとよい。
制御部70は、さらに、時間が経過すると、3Dキャラクター1200が餌をねだるような映像を表示させるとよい。制御部70は、撮影部により目視者の存在を認識し、かつ人感センサ64により目視者の存在を検知しているときに、時間帯(例えば、朝、昼、晩)を決めて、「ニャーニャー」という鳴き声を発するようにし、顔をすりすりする動作を行う映像を表示させるとよい。さらに、制御部70は、目視者が3Dキャラクター1200に声を掛けていくと、3Dキャラクター1200が自分の名前を覚えていく様子を再現するとよい。例えば、制御部70は「ユノ」という言葉にのみ反応して、「にゃ」という鳴き声を発するようにしてもよいし、「ユノ」、「餌だよ」という声掛けに反応して、甘えた行動をとるようにしたり、嬉しそうにすりすりしたりする映像を表示させるとよい。
(2)第二ステップ:言語(日本語)を覚えていく段階
制御部70は、あるときに「ユノ」という目視者の声掛けを認識した場合に、「何?」という応答を示す音声を出力する。ここからは、3Dキャラクター1200が言葉を覚えていくという段階となる。制御部70は、声掛された回数をカウントして、累計平均/日をとり、餌の与えた回数の累計平均/日×声掛された回数の累計平均×ランダム係数により算出される値(以下。「累積平均値」という)に応じた応答をする。この声掛けは、例えば、「おはよう」、「こんにちは」、「こんばんは」、「元気?」、「餌欲しい?」などの所定の声かけである。制御部70は、累計平均値に応じて、応答をしなくなったり(つまり、3Dキャラクター1200が言葉を忘れたことを再現したり)、応答する言葉を増加させたりする。例えば、制御部70は、累積平均値が小さいほど、応答する言葉を減少させ、累積平均値が大きいほど、応答する言葉を増加させるとよい。累積平均値は、表示装置1の使用開始時点から現在時点までに声掛けされた回数に基づいて算出されるが、現在時点から過去に所定期間遡った時点から現在時点までに声掛けされた回数に基づいて算出されてもよい。所定期間は、1か月など固定的に決められていてもよいし、表示装置1が一定期間使用されなかった場合は、その期間後使用が開始された時点以降の期間としてもよい。表示装置1の使用が開始された最初の頃は、累積平均値は大きく変化し得るので、例えば目視者が1日に1回も声を掛けない場合は、3Dキャラクター1200は応答しなくなることもあるが、声掛けの回数が増えるにしたがって、累積平均値は大きく変化しなくなる。このようにすれば、3Dキャラクター1200が言葉を忘れるのに時間が掛かる様子を再現することができる。累積平均値の算出に用いられるランダム係数は、猫の気まぐれさを再現するための値で、気まぐれ係数といってもよい。ランダム係数は、キャラクター1200が餌をおねだりしたときに餌を与える/与えない、3Dキャラクター1200が寝ているときに声を掛けたり、触ったりして起こす行動をとったりするなど、3Dキャラクター1200および目視者の行動によって変化させるとよい。
制御部70は、さらに累計平均値が或る閾値を超えると、3Dキャラクター1200から目視者に話し掛けたり、天気、ニュース等の所定の情報に関する質問に対して応答したりするようにするとよい。もちろん、目視者が餌を与える回数を減らすと、累積平均値は減少するので、制御部70はこの応答の種類を減らしたり、応答しなくなったりする。つまり、目視者の餌の与え方がずさんであったり、適当に声掛けをしていないと、3Dキャラクター1200が応答する機能が維持さなかったり、維持していたとしても「気まぐれ」によって応答しない場合もある以上のようにして、目視者に対し、3Dキャラクター1200とのより質の高いコミュニケーション機能を提供することができる。
さらに以下のようにしてもよい。
例えば、レンチキュラー方式のディスプレイでは、画像が立体的に見える位置から数センチ右または左に目の位置が移動しただけで画像が立体的に見えなくなることがある。この場合、目視者が「画像が立体的に見えない」と諦めてしまう虞がある。この点を考慮して、制御部70が、例えば人感センサ64の検知結果に基づいて、「私が2人に見えるときは、右にあと3センチ移動してみて」といった指示が出されるように制御してもよい。このようにすれば、立体的に見えないことによって飽きられてしまうことを抑制できる。なお、指示は、例えば、スピーカ62から音声出力されるとよい。また、指示を出すタイミングは、表示装置1の周辺に人が居ない状態から人が居る状態に遷移したことを人感センサ64が認識したタイミングとするとよい。また、指示を出すタイミングは、未登録の人物が認識されたタイミングとするとよく、定期的なタイミングであってもよい。
また、例えば、表示装置1が、キャラクターの複数の部位のそれぞれの動作に関する物理演算を実行可能である場合、キャラクターの特定の部位(例えば胸部)が比較的小さいときには、当該特定の部位の動作に関する物理演算が実行されないようにするとよい。
また、キャラクターの身体にはモーションを付加する一方で、キャラクターの衣服にはモーションを付加せず、衣服をキャラクターの身体の動きに応じて物理演算で動かすように制御されるとよい。このようにすれば、物理演算における計算量を低減することができる。
また、例えば、制御部70が、音声認識中であるか否かを示すためのオブジェクトを画像表示部20に表示するとよい。例えば、画像表示部20において、ランプを模した画像が音声認識中のみにおいて点灯するように表示制御されるとよい。当該オブジェクトは、例えば、特定のキャラクターの背面側であって画像表示部20の表示領域の端部分に目立たないように(比較的目立たない明るさ、色、形、大きさなどで)表示されるとよい。
また、例えば、制御部70が、音声認識によって認識された語句(文章)を、特定のキャラクターのオブジェクトよりも目視者視点側(正面側)において、音声認識後から所定時間に亘って表示し、当該所定時間の経過後に非表示化するとよい(図29~図35参照)。そして、当該語句(音声認識結果)が非表示化されてからキャラクターが話し出すように制御されるとよい。
また、ステージ上にキャラクターが存在する三次元画像が表示される場合、制御部70が、相対的に奥行方向の長さが比較的小さいキャラクター(例えば、人型のキャラクター)は、ステージの中央ではなくステージの前方側に表示させ、その一方で、相対的に奥行方向の長さが比較的大きいキャラクター(例えば、猫のキャラクター)は、ステージの中央に表示させるとよい。また、例えば、人型のキャラクターが表示される場合は、ステージ自体の長さを強調する表示を行って奥行き感を出すように表示制御されるとよい。
また、制御部70は、ステージの中央以外の位置(例えば、前方側の位置)にキャラクターの画像を表示させる場合において、キャラクターが回転する映像を表示するときには、ステージも当該キャラクターと同様に回転する映像を表示するとよい。
また、奥行方向に比較的距離のある形状のステージを表示させ、そのようなステージの内側において当該ステージの外縁に沿ってキャラクターを移動させる映像(例えば、円形のステージの外縁に沿って猫のキャラクターが歩く映像)が表示されるとよい。
また、キャラクターに歩く動作をさせるときには、ステージ等(道路なども含む)を描画せず、キャラクターがその場で足踏みしてキャラクターの全体的な位置をほぼ動かさない映像が描画されるようにするとよい。そして、キャラクターが歩く動作以外の動作を行うときに、キャラクターの足元にステージ等が描画されるようにするとよい。
[変形例]
以上、本発明の実施例の一例について説明したが、本発明は、上記の実施例に限られるものではなく、様々な変更が可能である。例えば、次のような変形例が実施されてもよい。
(1)例えば、上記の実施例に係る表示装置1において、さらに、複数(例えば、2つ)の減光部材30が着脱可能に設けられているとよい。このようにすれば、画像表示部20に表示される画像の明るさや浮遊感を、別途の調整部材を設けることなく調整することができる。
(2)また、上記の実施例および各変形例に係る表示装置1において、筐体10の底面に対して傾斜配置された減光部材30(図6参照)に加えて、筐体10の底面に対して垂直配置された減光部材がさらに設けられてもよい。
(3)また、上記の実施例では、ジェスチャーセンサ63(挙動検出センサの一例)が、筐体10の内周面において筐体10の内方側に向けて配置されている(図6参照)が、これに限定されない。例えば、ジェスチャーセンサ63(詳細には、ジェスチャーセンサ63の検出面)が、開口部5の上部において斜め前方且つ下方に向けて配置されてもよい。このようにすれば、目視者によるジェスチャーが開口部5の外側で行われた場合であっても、当該ジェスチャーを検出することができる。
(4)また、例えば、上記の実施例および各変形例に係る表示装置1において、さらに、透過率(あるいは透過度)を調整可能な透過ディスプレイが設けられてもよい。当該透過ディスプレイは、例えば、筐体10の内部空間100において減光部材30よりも正面側(前方側)に設けられるとよい。特に、当該透過ディスプレイが、減光部材30と同様にして傾斜配置されるとよい。
あるいは、当該透過ディスプレイに代えて、透過率(あるいは透過度)を調整可能なフィルムが設けられてもよい。このようにすれば、立体視表示されるキャラクターが徐々に見え始めるような演出を行うことができる。
(5)また、上記の実施例および各変形例に係る表示装置1において、さらに、目視者の顔を嵌め込むことが可能なパネル(所謂、顔はめパネル)が開口部5付近に設けられていてもよい。当該パネルは、裸眼立体視可能な位置に設置されているとよい。また、当該パネルにおける筐体10側に絵を描画しておき、目視者が自身の顔を当該パネルに嵌めている状態で目視者の顔が撮影されるようにしてもよい。そして、その撮影画像が、「私を見ているときのあなた」としてSNS(ソーシャル・ネットワーキング・サービス)にアップロードされる仕組みとするとよい。
(6)また、片目を閉じて明瞭に(くっきり、ともいう)映像が見える位置に頭を左右に動かし、片目を閉じて明瞭に映像が見える位置で両目を開けるように指示を出力する裸眼立体視表示装置とするとよい。さらに、片目を閉じて明瞭に映像が見える位置で両目を開けた際に映像が2重に見える場合には、再度片目を閉じて更に左右いずれかに移動して、明瞭に映像が見える位置で両目を開けるように指示を出力する裸眼立体視表示装置とするとよい。
(7)また、上記の実施例および各変形例に係る表示装置1とともに、当該表示装置1で音声認識可能な語句を印刷した印刷物を同梱したシステムとするとよい。さらに、当該表示装置1とともに、当該表示装置1で音声認識可能な語句を印刷した印刷物を、表示装置1の近傍に設置可能としたシステムとするとよい。
(8)また、音声認識装置が内蔵されており且つ特定方向(例えば、正面方向)に音声の指向性を有する表示装置1を備え、その特定方向とは逆向きに同一の表示装置を配置することを特徴とするシステムとするとよい。例えば、2台の表示装置1のそれぞれの開口部5が互いに反対向きとなるように当該2台の表示装置1が配置されるとよい。このようにすれば、例えば、一方の表示装置1(詳細には、表示装置1のマイク61)において、他方の表示装置1を利用している人物の音声や他方の表示装置1のスピーカ62から出力された音声が入力されてしまうこと、を回避することができる。
(9)また、画像表示部20の表示方式としては、レンチキュラーレンズ方式、パララックスバリア方式などの裸眼立体視方式とするほか、眼鏡を用いて三次元の映像として認識できる表示方式などでもよい。表示装置1の筐体は、直方体形状、立方体形状、円筒形状、その他の多面体形状、球状その他の形状でもよい。また、上述した表示装置1の各構成要素の形状、構造、寸法、色、模様、配置等は一例に過ぎない。また、上述した表示装置1が備える構成要素の一部が省かれてもよいし、別の構成要素が追加されてもよい。表示装置1は据え置き型の表示装置とすることが考えられるが、携帯型あるいは目視者の頭部に装着可能に構成された頭部装着型、眼鏡型などとすることも考えられる。かかる場合に、減光部材としては、目視者の左目で見る画像の画像光と右目で見る画像の画像光との光路上に共通の(単一の)減光部材が配置されるようにするとよい。開口部5は、正面側から見て正方形状でなくてもよく、円形状その他の形状に形成されていてもよい。画像表示部20は、表示素子として有機ELやデジタルミラーデバイスその他の表示素子を用いた画像表示部であってもよい。画像表示部20がバックライト以外の光源を有する表示装置であっても、光源からの光の漏れが視認される可能性があれば、減光部材の存在により、目視者に与えることができる浮遊感を向上させることができる。
(10)表示装置1は、画像表示部20以外の1または複数の画像表示部を有してもよい。例えば、第2の画像表示部として、内部空間100の床の全体または一部に、表示面が上方(例えば、鉛直上方向)を向くように配置された表示部が設けられてもよい。第2の画像表示部は、例えば液晶ディスプレイであるが、他方式の表示部でもよい。制御部70が、画像表示部20以外の1または複数の画像表示部の表示を制御するとよい。この場合に、第2の画像表示部にステージ映像が表示され、画像表示部20に3Dキャラクターがされてもよい。このようにすれば、内部空間100の床に画像を用いた演出を行うことができる。また、第2の画像表示部に代えて、発光体(例えば発光ダイオード)と、導光部材と、遮光部材とを用いて床の演出が行われてもよい。この場合、内部空間100の床に導光部材を配置しておき、導光部材の上には所定の模様(例えば魔法陣)に応じた遮光部材が配置される。導光部材に発光体の光を入射すると、導光部材の上面のうち遮光部材が配置されていない領域から光が上方に出射し、目視者はこれを見ることができる。
(11)上記の実施例では、操作部41の押下操作に応じて、画像表示部20に表示されたキャラクターとの対話を行うための音声認識が有効化されているが、これに限定されない。例えば、全周マイクロ波ドップラーセンサなどの人感センサ(検知手段の一例)の検知対象領域において人の存在が検知されると、統括制御部73は、当該音声認識を有効化するようにしてもよい。このようにすれば、ユーザが、画像表示部20に表示されたキャラクターと対話するにあたって、例えば音声認識を有効化するための操作を行う必要やトリガーワードを発声する必要がなく、より自然にコミュニケーションを再現することができる。
この際、例えば、表示装置1内の音声認識アプリケーションでの音声認識と音声認識サーバでの音声認識との双方が有効化されるとよい。ただし、次述するように、表示装置1内の音声認識アプリケーションでの音声認識の有効化と音声認識サーバでの音声認識の有効化とが、段階的に実行されてもよい。例えば、当該人感センサ等の検知対象領域において人の存在が検知されると、表示装置1内の音声認識アプリケーションでの音声認識が有効化され、その後、目視者による声掛けや挨拶が当該音声認識アプリケーションによって検出されると、音声認識サーバでの音声認識が有効化されるようにしてもよい。
また、表示装置1がカメラ等の撮影部(検知手段の一例)を備えている場合、表示装置1の正面側(開口部5側)に検知対象空間が設けられ、統括制御部73は、表示装置1の正面側において人の存在が検知されると、音声認識を有効化するようにしてもよい。このようにすれば、画像表示部20に表示されたキャラクターに対して目視者が話しかけようとしていることをより確実に判断した上で、音声認識を有効化することができる。
さらには、検知対象領域において人が検知された後において、ユーザ認証が成功したことを条件に、統括制御部73は、当該音声認識を有効化するように構成されているとよい。なお、ユーザ認証の認証手法は、例えば、ユーザの手操作を要しない認証手法(顔認証、声帯認証等)とするとよい。このようにすれば、例えば表示装置1に登録された登録ユーザ以外の人に対してユーザ認証が行われて当該ユーザ認証が失敗したときには、音声認識が有効化されず、画像表示部20に表示されたキャラクターと対話することができない。逆に言えば、登録ユーザ以外の人に対しては、画像表示部20に表示されたキャラクターが反応を示さない。これにより、当該キャラクターへのユーザの愛着を増大させることができる。
また、表示装置1あるいは外部サーバに搭載された対話サーバに予め登録された文言以外の文言の音声が検出された場合は、音声認識が有効化されないようにしてもよい。
また、音声認識を有効化するための手段として、においセンサが用いられてもよい。例えば、表示装置1の登録ユーザのにおいを予め表示装置1に登録しておき、登録ユーザのにおいがにおいセンサによって検知されると、音声認識が有効化されるようにしてもよい。
また、これらのようにして音声認識が有効化されたとしても、例えば、画像表示部20に表示されたキャラクター(例えば、3Dキャラクター1100)の音声が直ちに出力されるのではなく、ユーザからの声掛けが無ければ当該キャラクターの音声が出力されないようにするとよい。例えば、統括制御部73は、音声認識が有効化されたことに応答して「おかえり」とのキャラクター音声を直ちに出力するのではなく、音声認識が有効化された状態で「ただいま」とのユーザ音声が検出されたことを条件に、「おかえり」とのキャラクター音声を出力するとよい。さらには、例えば、対話システムにおいて、目視者とキャラクター(例えば3Dキャラクター1100)との間で次のような対話を再現するための分岐シナリオが作成されているとよい。例えば、平日であれば、
ユーザ:ただいま
キャラクター:お帰り~
ユーザ:アッチー
キャラクター:暑い中お疲れでした
のような対話が再現され、休日であれば、
ユーザ:ただいま
キャラクター:あーお帰り
ユーザ:アッチー
キャラクター:暑い中わざわざ出かけたんだから文句言わない
ユーザ:仕事だよ仕事
キャラクター:ホントだったらごめん、お疲れ様でした
のような対話が再現されるように分岐シナリオが作成されているとよい。
また、においセンサによる検知結果に応じた分岐シナリオが作成されていてもよい。例えば、
ユーザ:ごはん美味しくできたよー
キャラクター:「えー、嗅がせて。クンクン。いいにおい!」あるいは「んんー!?塩分多くない?身体に気を付けてね!」
のような対話が再現されるようにしてもよい。
また、他の例として、においセンサによってにおいが検知されると、
キャラクター:クンクン、ん?このにおいはなんだ?
ユーザ:アロマ焚いたんだ
キャラクター:ああ、どうりでリラックスすると思った
のような対話が再現されるようにしてもよい。なお、においの種類の質問に対する目視者の返答内容が分岐シナリオに登録されていない場合、例えば「ほぉー、そうなんだー!」などの音声がキャラクター音声として一律に出力されるとよい。
(12)また、統括制御部73は、例えば直近の所定時間(例えば、15秒程度)の音声を常時録音しておき、音声認識を有効化するためのトリガーワードの音声が検出されると、当該音声認識を有効化するようにしてもよい。例えば、表示装置1の音声認識アプリケーションは常時(あるいは、、操作部41の押下操作等に応じて)有効化され、音声認識サーバによる音声認識は、トリガーワードの検出によって有効化されるとよい。そして、この際、統括制御部73(詳細には、通信制御回路706)は、マイク61(音声検出手段の一例)によって検出された検出音声(例えば、検出開始時点から検出終了時点までの間に検出された音声)から当該トリガーワードの音声を除いた音声の音声データを、音声認識サーバに送信するとよい。例えば、「明日東京に行くんだけどレイたん天気教えて」とのユーザ音声が検出されたことを想定する。なお、ここでは、3Dキャラクター1100の愛称である「レイたん」がトリガーワードである。この場合、統括制御部73は、検出音声「明日東京に行くんだけどレイたん天気教えて」からトリガーワードの音声「レイたん」を除いた音声「明日東京に行くんだけどレイたん天気教えて」を音声認識サーバに送信する。
ここで、例えば上記のような検出音声「明日東京に行くんだけどレイたん天気教えて」がそのまま音声認識サーバに送信されると、音声認識結果の中に「レイたん」が含まれていることに起因して、対話サーバにおいて音声認識結果に対応するキャラクター音声が正確に抽出されず、ユーザとの対話が噛み合わなくなる虞がある。これに対して、上記のようにすれば、一文の途中でトリガーワードが発声された場合であっても、トリガーワードを除く音声の音声データが音声認識サーバに送信される。したがって、一文の途中にトリガーワードが含まれた状態で音声認識が行われたことに起因してユーザとの対話が噛み合わなくなること、を抑制できる。
(13)また、ユーザと画像表示部20に表示されたキャラクターとの対話を音声認識サーバとの連携によって再現するにあたって、音声認識サーバの構成に応じて、次述のような動作が実行されてもよい。
例えば、音声認識サーバが、音声データファイルの受信が完了してから音声認識処理を開始するように構成されている場合、統括制御部73は、マイク61による検出音声のうち、トリガーワードの前後の音声の各音声データファイルを個別に音声認識サーバへと送信するとよい。例えば、検出開始時点から検出終了時点までの間の検出音声のうち、トリガーワードの音声よりも前に検出されたユーザ音声(前半部分のユーザ音声ともいう)の音声データファイルが、トリガーワードの音声よりも後に検出されたユーザ音声(後半部分のユーザ音声ともいう)の音声データファイルに先行して音声認識サーバに送信されるとよい。
このようにすれば、音声認識サーバにおいて、前半部分のユーザ音声に対する音声認識処理が、後半部分のユーザ音声の音声データファイルの受信完了を待たずに開始される。そのため、前半部分のユーザ音声と後半部分のユーザ音声とをまとめた音声の音声データファイルを音声認識サーバに送信する場合と比較して、音声認識処理を効率的に行うことができる。その結果、表示装置1は、対話サーバからのキャラクター音声をより早期に受信することができ、ユーザの音声に対して応答されるまでのユーザの待機時間を短縮できる。
また、例えば、音声認識サーバが、表示装置1からの音声データをストリーム再生して音声認識処理をリアルタイムで実行するように構成されている場合、前半部分の音声データがリアルタイムで音声認識サーバに送信される際に、前半部分のユーザ音声の再生速度T1が標準再生速度T0より速く(T1>T0)なるように制御されるとよい。例えば、統括制御部73は、音声認識サーバにおいて当該前半部分のユーザ音声が標準再生速度T0に対して25%速く再生されるように設定変更して当該前半部分の音声データを送信する。このようにすれば、音声認識サーバにおいて、前半部分のユーザ音声が標準再生速度T0で再生される場合と比較して、前半部分のユーザ音声に対する音声認識処理をより早期に終了させることができ、後半部分のユーザ音声に対する音声認識処理をより早期に開始することができる。その結果、表示装置1は、対話サーバからのキャラクター音声をより早期に受信することができ、ユーザの音声に対して応答されるまでのユーザの待機時間を短縮できる。
さらに、後半部分のユーザ音声の音声データがリアルタイムで音声認識サーバに送信される際に、後半部分の音声の再生速度T2が標準再生速度T0よりも速く且つ前半部分のユーザ音声の再生速度T1よりも遅くなる(つまり、T0<T2<T1の関係を満たす)ように制御されるとよい。例えば、統括制御部73は、音声認識サーバにおいて後半部分のユーザ音声が標準再生速度T0に対して10%速く再生されるように設定変更して当該後半部分の音声データを送信する。このようにすれば、前半部分のユーザ音声と後半部分のユーザ音声との双方が標準再生速度T0よりも速くストリーム再生されて、音声認識サーバにおいて音声認識処理が実行される。その結果、ユーザの音声に対して応答されるまでのユーザの待機時間を更に短縮できる。他方で、後半部分のユーザ音声は、標準再生速度T0よりは速いものの、前半部分のユーザ音声の再生速度T1よりは遅い速度で再生される。そのため、音声認識システムにおける音声認識精度の低下を抑制できる。したがって、音声認識精度の低下を抑制しつつ、ユーザの待機時間をより短縮することができる。
なお、音声認識サーバにおいて、音声データのストリーム再生による音声認識処理がリアルタイムで実行される場合、例えば、マイク61によって検出されたユーザ音声がリアルタイムで音声認識サーバへと送信されるものの、トリガーワードの音声が検出されるまでは音声認識サーバでの音声認識が開始されないように制御されるとよい。
[その他の拡張例等]
上述の実施例および各変形例は例示であり、上記の実施例および各変形例で示した構成の部分的な置換または組み合わせが可能であることは言うまでもなく、また、上記の実施例および各変形例に記載の各構成要素は、任意に組み合わせるとよい。例えば、制御部70は、上記の実施例および各変形例のうちのいずれか一の処理と他の処理とを並行して(例えばマルチタスク等で)実行するようにしてもよい。
また、課題を解決する手段に記載の発明や各構成要素を、上記の実施例および各変形例の各構成要素の組み合わせにさらに適用してもよい。複数の実施例および複数の変形例の同様の構成による同様の作用効果については実施例および変形例ごとには逐次言及しない。さらに、本発明は上述の実施例に制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。
1 表示装置
5 開口部
10 筐体
11 筐体の本体部
12 上面カバー部
20 画像表示部
30 減光部材
40 操作部
61 マイク
62 スピーカ
63 ジェスチャーセンサ
64 人感センサ

Claims (23)

  1. 画像を表示する表示装置であって、
    遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    前記減光部材の前記第1方向側の面は、前記画像表示部の表示面に対して傾斜している
    表示装置。
  2. 画像を表示する表示装置であって、
    内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    前記減光部材の前記第1方向側の面は、前記画像表示部の表示面に対して傾斜している
    表示装置。
  3. 前記画像表示部は、三次元画像として認識される画像として、前記第1の画像と、前記第1の画像よりも前記第1方向側または前記第1方向側とは反対の第2方向側に存在すると認識される第2の画像とを含む複数の画像のいずれかを選択的に表示する
    請求項1または請求項2に記載の表示装置。
  4. 前記筐体に設けられた音声出力部をさらに有し、
    前記音声出力部は、前記筐体の前記内部空間に面する第1面のうち、前記減光部材よりも前記第1方向側で、かつ前記開口部との距離よりも前記減光部材との距離が小さい位置に設けられる
    請求項1~請求項のいずれか1項に記載の表示装置。
  5. 画像を表示する表示装置であって、
    遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    前記筐体に設けられた音声出力部をさらに有し、
    前記音声出力部は、前記筐体の前記内部空間に面する第1面のうち、前記減光部材よりも前記第1方向側で、かつ前記開口部との距離よりも前記減光部材との距離が小さい位置に設けられる
    表示装置。
  6. 画像を表示する表示装置であって、
    内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    前記筐体に設けられた音声出力部をさらに有し、
    前記音声出力部は、前記筐体の前記内部空間に面する第1面のうち、前記減光部材よりも前記第1方向側で、かつ前記開口部との距離よりも前記減光部材との距離が小さい位置に設けられる
    表示装置。
  7. 画像を表示する表示装置であって、
    遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記筐体に設けられた音声出力部をさらに有し、
    前記音声出力部は、前記筐体の前記内部空間に面する第1面のうち、前記減光部材よりも前記第1方向側で、かつ前記開口部との距離よりも前記減光部材との距離が小さい位置に設けられる
    表示装置。
  8. 前記開口部の上端部は、前記画像表示部の表示面の上端部よりもさらに上方に設けられており、
    前記内部空間の上面は、前記開口部の上端部から前記表示面の上端部へと向かうに従って下方に傾斜している
    請求項1~請求項のいずれか1項に記載の表示装置。
  9. 画像を表示する表示装置であって、
    遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    前記開口部の上端部は、前記画像表示部の表示面の上端部よりもさらに上方に設けられており、
    前記内部空間の上面は、前記開口部の上端部から前記表示面の上端部へと向かうに従って下方に傾斜している
    表示装置。
  10. 画像を表示する表示装置であって、
    内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    前記開口部の上端部は、前記画像表示部の表示面の上端部よりもさらに上方に設けられており、
    前記内部空間の上面は、前記開口部の上端部から前記表示面の上端部へと向かうに従って下方に傾斜している
    表示装置。
  11. 画像を表示する表示装置であって、
    遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記開口部の上端部は、前記画像表示部の表示面の上端部よりもさらに上方に設けられており、
    前記内部空間の上面は、前記開口部の上端部から前記表示面の上端部へと向かうに従って下方に傾斜している表示装置。
  12. 前記開口部の上端部は、前記開口部の下端部よりも前記第1方向側に突出している
    請求項1~請求項11のいずれか1項に記載の表示装置。
  13. 画像を表示する表示装置であって、
    遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    前記開口部の上端部は、前記開口部の下端部よりも前記第1方向側に突出している
    表示装置。
  14. 画像を表示する表示装置であって、
    内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    前記開口部の上端部は、前記開口部の下端部よりも前記第1方向側に突出している
    表示装置。
  15. 前記筐体は、前記筐体の上面にカバー部を有するとともに、前記カバー部と前記筐体の内周面のうちの上面との間に収容空間を有し、
    前記表示装置に関する制御部は、前記収容空間に配置される
    請求項1~請求項14のいずれか1項に記載の表示装置。
  16. 画像を表示する表示装置であって、
    遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    前記筐体は、前記筐体の上面にカバー部を有するとともに、前記カバー部と前記筐体の内周面のうちの上面との間に収容空間を有し、
    前記表示装置に関する制御部は、前記収容空間に配置される
    表示装置。
  17. 画像を表示する表示装置であって、
    内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    前記筐体は、前記筐体の上面にカバー部を有するとともに、前記カバー部と前記筐体の内周面のうちの上面との間に収容空間を有し、
    前記表示装置に関する制御部は、前記収容空間に配置される
    表示装置。
  18. 複数の前記減光部材が着脱可能に設けられている
    請求項1~請求項17のいずれか1項に記載の表示装置。
  19. 画像を表示する表示装置であって、
    遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、三次元画像として認識される画像として、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    複数の前記減光部材が着脱可能に設けられている
    表示装置。
  20. 画像を表示する表示装置であって、
    内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    を備え、
    前記減光部材は、前記開口部と前記画像表示部との間に配置され、
    前記画像表示部は、少なくとも一部分が前記減光部材よりも前記開口部側に存在すると認識される第1の画像を表示し、
    複数の前記減光部材が着脱可能に設けられている
    表示装置。
  21. 画像を表示する表示装置であって、
    遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    においを検知するにおいセンサと、
    前記においセンサによる検知結果に応じた動きをキャラクターが行う映像を前記画像表示部に表示する表示出力動作と、前記においセンサによる検知結果に応じた音声を前記画像表示部に表示された前記キャラクターが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、
    を備える表示装置。
  22. 前記表示出力動作は、検知されたにおいの種類に応じた動きを前記キャラクターが行う映像を前記画像表示部に表示する動作であり、
    前記音声出力動作は、検知されたにおいの種類に応じた音声を前記キャラクターが発する音声として出力する動作である
    請求項21に記載の表示装置。
  23. 画像を表示する表示装置であって、
    遮光された内部空間において第1方向側に前記画像を見るための開口部を設けた筐体と、
    前記内部空間に配置された画像表示部と、
    前記画像表示部よりも前記第1方向側に、前記画像表示部とは間隔を空けて配置された減光部材と、
    音声を検出可能な音声検出手段と、
    検知対象領域における人の存在を検知可能な検知手段と、
    を備え、
    前記音声検出手段は、前記検知対象領域における人の存在が検知されると、前記画像表示部に表示されたキャラクターとの対話を行うための音声認識を有効化する
    表示装置。
JP2020064321A 2020-01-23 2020-03-31 表示装置等 Active JP7475027B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024004254A JP2024032778A (ja) 2020-01-23 2024-01-16 表示装置等

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020009457 2020-01-23
JP2020009457 2020-01-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024004254A Division JP2024032778A (ja) 2020-01-23 2024-01-16 表示装置等

Publications (2)

Publication Number Publication Date
JP2021117479A JP2021117479A (ja) 2021-08-10
JP7475027B2 true JP7475027B2 (ja) 2024-04-26

Family

ID=77174802

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020064321A Active JP7475027B2 (ja) 2020-01-23 2020-03-31 表示装置等
JP2024004254A Pending JP2024032778A (ja) 2020-01-23 2024-01-16 表示装置等

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024004254A Pending JP2024032778A (ja) 2020-01-23 2024-01-16 表示装置等

Country Status (1)

Country Link
JP (2) JP7475027B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119527A1 (ja) * 2021-12-22 2023-06-29 マクセル株式会社 携帯情報端末および情報処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000219060A (ja) 1999-01-29 2000-08-08 Nippon Seiki Co Ltd 表示装置
US20030035086A1 (en) 2001-08-20 2003-02-20 Robinson Douglas L. Real image projection device incorporating e-mail register
JP2005141102A (ja) 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法
WO2006035816A1 (ja) 2004-09-30 2006-04-06 Pioneer Corporation 立体的二次元画像表示装置
JP2010277019A (ja) 2009-06-01 2010-12-09 Pioneer Electronic Corp 画像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000219060A (ja) 1999-01-29 2000-08-08 Nippon Seiki Co Ltd 表示装置
US20030035086A1 (en) 2001-08-20 2003-02-20 Robinson Douglas L. Real image projection device incorporating e-mail register
JP2005141102A (ja) 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法
WO2006035816A1 (ja) 2004-09-30 2006-04-06 Pioneer Corporation 立体的二次元画像表示装置
JP2010277019A (ja) 2009-06-01 2010-12-09 Pioneer Electronic Corp 画像表示装置

Also Published As

Publication number Publication date
JP2024032778A (ja) 2024-03-12
JP2021117479A (ja) 2021-08-10

Similar Documents

Publication Publication Date Title
WO2018016095A1 (ja) 画像表示装置、話題選択方法、話題選択プログラム、画像表示方法及び画像表示プログラム
JP6165302B1 (ja) 画像表示装置、話題選択方法、話題選択プログラム
US10366689B2 (en) Communication robot
CN112512653B (zh) 基于光场显示系统的游乐园景点
JP2020503707A (ja) 折りたたみ式仮想現実装置
JP2018014575A (ja) 画像表示装置、画像表示方法及び画像表示プログラム
JP2024032778A (ja) 表示装置等
JP2019139170A (ja) 画像表示装置、画像表示方法および画像表示プログラム
JP6682475B2 (ja) 画像表示装置、話題選択方法、話題選択プログラム
US9185885B2 (en) Digital activity center for pets
JP7448142B2 (ja) 表示装置等
JP2022157238A (ja) システム等
JP2022157245A (ja) システム等
JP2023035270A (ja) 表示装置等
US20220410023A1 (en) Information processing device, control method of the same, and program
Natsoulas The ecological approach to perception: The place of perceptual content
Penha et al. Will Machinic Art Lay Beyond Our Ability to Understand It?
Magagna et al. A video-linked professional development event in Argentina, discussing infant observation in the style of Esther Bick: a discussion of two online observations of a baby in her family, during the COVID-19 lockdown, 13th August 2020
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP2019139169A (ja) 画像表示装置、画像表示方法および画像表示プログラム
Benedict " A Pulse in the Neon": Televisual Assimilation in the Works of David Foster Wallace
Dooley Writing Bodies: Developing and Scripting an Embodied Feature Film Screenplay
Crump et al. Greyhound
Fenner The aesthetic attitude

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240116

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240409

R150 Certificate of patent or registration of utility model

Ref document number: 7475027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150