JP2022157245A - システム等 - Google Patents
システム等 Download PDFInfo
- Publication number
- JP2022157245A JP2022157245A JP2021061360A JP2021061360A JP2022157245A JP 2022157245 A JP2022157245 A JP 2022157245A JP 2021061360 A JP2021061360 A JP 2021061360A JP 2021061360 A JP2021061360 A JP 2021061360A JP 2022157245 A JP2022157245 A JP 2022157245A
- Authority
- JP
- Japan
- Prior art keywords
- character
- function
- value
- user
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 claims description 332
- 230000006870 function Effects 0.000 claims description 277
- 230000004044 response Effects 0.000 claims description 156
- 238000000034 method Methods 0.000 claims description 141
- 230000009471 action Effects 0.000 claims description 124
- 230000008859 change Effects 0.000 claims description 60
- 230000000694 effects Effects 0.000 claims description 41
- 230000001965 increasing effect Effects 0.000 claims description 30
- 241001465754 Metazoa Species 0.000 claims description 24
- 238000013459 approach Methods 0.000 claims description 24
- 238000003860 storage Methods 0.000 claims description 12
- 230000003247 decreasing effect Effects 0.000 claims description 10
- 230000009467 reduction Effects 0.000 claims description 3
- 101001050294 Homo sapiens Sperm-egg fusion protein Juno Proteins 0.000 description 684
- 102100023119 Sperm-egg fusion protein Juno Human genes 0.000 description 684
- 238000012545 processing Methods 0.000 description 653
- 238000001514 detection method Methods 0.000 description 190
- 238000010586 diagram Methods 0.000 description 174
- 230000008569 process Effects 0.000 description 117
- 235000013305 food Nutrition 0.000 description 110
- 239000000758 substrate Substances 0.000 description 104
- 230000035611 feeding Effects 0.000 description 102
- 230000006399 behavior Effects 0.000 description 92
- 238000004891 communication Methods 0.000 description 85
- 238000001556 precipitation Methods 0.000 description 76
- 235000019645 odor Nutrition 0.000 description 66
- 230000003287 optical effect Effects 0.000 description 50
- 241000282326 Felis catus Species 0.000 description 42
- 239000007789 gas Substances 0.000 description 37
- 230000002452 interceptive effect Effects 0.000 description 37
- 210000000282 nail Anatomy 0.000 description 36
- 238000006748 scratching Methods 0.000 description 29
- 230000002393 scratching effect Effects 0.000 description 29
- 230000035943 smell Effects 0.000 description 26
- 230000007958 sleep Effects 0.000 description 21
- 230000002354 daily effect Effects 0.000 description 19
- 230000007423 decrease Effects 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 17
- 230000001186 cumulative effect Effects 0.000 description 16
- 238000013461 design Methods 0.000 description 14
- 230000007704 transition Effects 0.000 description 14
- 210000003128 head Anatomy 0.000 description 13
- 238000007664 blowing Methods 0.000 description 12
- 230000003542 behavioural effect Effects 0.000 description 11
- 230000014509 gene expression Effects 0.000 description 11
- 239000003086 colorant Substances 0.000 description 10
- 239000004973 liquid crystal related substance Substances 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 239000000779 smoke Substances 0.000 description 10
- ZRHANBBTXQZFSP-UHFFFAOYSA-M potassium;4-amino-3,5,6-trichloropyridine-2-carboxylate Chemical compound [K+].NC1=C(Cl)C(Cl)=NC(C([O-])=O)=C1Cl ZRHANBBTXQZFSP-UHFFFAOYSA-M 0.000 description 9
- 241000287530 Psittaciformes Species 0.000 description 8
- 230000004308 accommodation Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 8
- 241000209094 Oryza Species 0.000 description 7
- 235000007164 Oryza sativa Nutrition 0.000 description 7
- 230000004913 activation Effects 0.000 description 7
- 210000000078 claw Anatomy 0.000 description 7
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 7
- 238000005192 partition Methods 0.000 description 7
- 235000009566 rice Nutrition 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 6
- 238000003825 pressing Methods 0.000 description 6
- 239000000470 constituent Substances 0.000 description 5
- 210000005069 ears Anatomy 0.000 description 5
- 210000002414 leg Anatomy 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 235000012054 meals Nutrition 0.000 description 5
- 238000002834 transmittance Methods 0.000 description 5
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 4
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 4
- 241000282412 Homo Species 0.000 description 4
- 241001282135 Poromitra oscitans Species 0.000 description 4
- 206010048232 Yawning Diseases 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 235000019504 cigarettes Nutrition 0.000 description 4
- QMMFVYPAHWMCMS-UHFFFAOYSA-N Dimethyl sulfide Chemical compound CSC QMMFVYPAHWMCMS-UHFFFAOYSA-N 0.000 description 3
- 241000208125 Nicotiana Species 0.000 description 3
- 235000002637 Nicotiana tabacum Nutrition 0.000 description 3
- 241000287531 Psittacidae Species 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000003203 everyday effect Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 210000004905 finger nail Anatomy 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 210000001364 upper extremity Anatomy 0.000 description 3
- QGZKDVFQNNGYKY-UHFFFAOYSA-N Ammonia Chemical compound N QGZKDVFQNNGYKY-UHFFFAOYSA-N 0.000 description 2
- 206010006326 Breath odour Diseases 0.000 description 2
- LSDPWZHWYPCBBB-UHFFFAOYSA-N Methanethiol Chemical compound SC LSDPWZHWYPCBBB-UHFFFAOYSA-N 0.000 description 2
- 101100180399 Mus musculus Izumo1r gene Proteins 0.000 description 2
- 206010042635 Suspiciousness Diseases 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 229910002092 carbon dioxide Inorganic materials 0.000 description 2
- 239000001569 carbon dioxide Substances 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 239000000796 flavoring agent Substances 0.000 description 2
- 235000019634 flavors Nutrition 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000003370 grooming effect Effects 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000002304 perfume Substances 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000000391 smoking effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001580935 Aglossa pinguinalis Species 0.000 description 1
- 241000283690 Bos taurus Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 206010009866 Cold sweat Diseases 0.000 description 1
- 241000699800 Cricetinae Species 0.000 description 1
- RWSOTUBLDIXVET-UHFFFAOYSA-N Dihydrogen sulfide Chemical compound S RWSOTUBLDIXVET-UHFFFAOYSA-N 0.000 description 1
- 206010016322 Feeling abnormal Diseases 0.000 description 1
- 206010061991 Grimacing Diseases 0.000 description 1
- 241000322338 Loeseliastrum Species 0.000 description 1
- 241000556720 Manga Species 0.000 description 1
- 206010034719 Personality change Diseases 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004026 adhesive bonding Methods 0.000 description 1
- 229910021529 ammonia Inorganic materials 0.000 description 1
- 238000000222 aromatherapy Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000001877 deodorizing effect Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 230000017525 heat dissipation Effects 0.000 description 1
- 229910000037 hydrogen sulfide Inorganic materials 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- YELGFTGWJGBAQU-UHFFFAOYSA-N mephedrone Chemical compound CNC(C)C(=O)C1=CC=C(C)C=C1 YELGFTGWJGBAQU-UHFFFAOYSA-N 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 201000001245 periodontitis Diseases 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000004622 sleep time Effects 0.000 description 1
- 235000011888 snacks Nutrition 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- WMXCDAVJEZZYLT-UHFFFAOYSA-N tert-butylthiol Chemical compound CC(C)(C)S WMXCDAVJEZZYLT-UHFFFAOYSA-N 0.000 description 1
- RAOIDOHSFRTOEL-UHFFFAOYSA-N tetrahydrothiophene Chemical compound C1CCSC1 RAOIDOHSFRTOEL-UHFFFAOYSA-N 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】キャラクタと関連付けた情報の出力を行うシステムを提供する。【解決手段】表示装置1(システム)は、キャラクタ1200を表示可能な表示部と、キャラクタの経験情報を変更する機能及び経験情報に応じてキャラクタの動作態様を変化させる機能を有する制御手段と、を備える。ユーザーがキャラクタに餌を与えると経験情報が上がり、経験情報が上がるとキャラクタの親密度が上がる。【選択図】図2
Description
本発明は、システム等に関する。
特許文献1には、特殊な眼鏡を用いない立体映像表示装置が記載されている。この立体映像表示装置は、光源と、液晶表示パネルと、この液晶表示パネルの観察者側に配置されるパララックスバリアとを備える。
本発明の目的の一つは、キャラクタと関連付けた情報の出力に関する技術を提供することである。
本願の発明の目的はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」と記載した箇所を「~が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、各々の課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙示的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正または分割出願にて特許請求の範囲とする意思を有する。またこれら独立の課題を組み合わせた課題を解決する構成についても開示しているものであり、権利取得する意思を有する。
(1)キャラクタを表示可能な表示部と、前記キャラクタの経験情報を変更する機能、および、前記経験情報に応じて前記キャラクタの動作態様を変化させる機能を有する制御手段と、を備えるシステムが提供されるとよい。キャラクタの経験情報の変更は、例えば経験情報が大きくなることであるが、経験情報が小さくなる場合もあり得る。
このようにすれば、仮想的に表示されるキャラクタの動作態様がキャラクタの経験情報に応じて変化していく過程を楽しむことができる。
(2)前記制御手段は、前記キャラクタが有する仮想本能機能により行動するかのような動作態様を表示する機能を有するとよい。
このようにすれば、キャラクタが仮想本能機能によりあたかも行動しているかのような動作態様が表示され、実際に存在しているかのようなリアリティのあるキャラクタとの毎日の日常生活を楽しむことができる。
(3)前記キャラクタは動物を模したものであって、前記制御手段は、前記キャラクタが有する仮想本能機能により警戒行動又は威嚇行動を行うかのような動作態様を表示する機能を有するとよい。
このようにすれば、動物が持つ本能機能をキャラクタが有しているかのように、キャラクタを通じてリアルに表現することができる。
(4)前記制御手段は、立体感のある仮想空間を前記表示部に表示する機能と、前記仮想空間内を前記キャラクタが移動する動作態様を表示する機能と、を有するとよい。
このようにすれば、立体感のある仮想空間をキャラクタが移動する動作態様を表示することができ、仮想的に表示されるキャラクタが現実に存在しているかのような存在感を醸し出すことができる。
(5)前記制御手段は、距離感が異なる複数のエリアに区分して前記表示部に表示する機能と、前記複数のエリア間を前記キャラクタが移動する動作態様を表示する機能と、を有するとよい。
このようにすれば、正面視で距離感が異なる複数のエリア間をキャラクタが移動するため、例えばシステムのユーザーから離れたり近付いたりするかのように表示することができ、より一層、リアリティのあるキャラクタを表示することができる。
(6)前記制御手段は、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置と最も近い第2位置との間を前記キャラクタが移動するように表示する機能を有するとよい。
このようにすれば、キャラクタがユーザーから離れたり近付いたりする態様を明確に把握することが可能となる。
(7)前記制御手段は、ユーザが行動を起こすことにより前記経験情報を変更する機能と、前記経験情報が変更されると、前記キャラクタの行動パターンに変化を与えるよう制御する機能とを有するとよい。ユーザが起こす行動は、例えばキャラクタに餌を与えることであるが、ユーザが本システム1を使用した時間、使用回数、キャラクタへの声掛け回数等、ユーザが行動を起こした回数等としてもよく、またはこれらを組合わせてもよい。また、キャラクタの行動パターンは、例えば経験情報が大きくなると変化を与えることであるが、経験情報が小さくなると変化を与えてもよく、又はこれらを組合わせてもよい。
このようにすれば、ユーザが行動を起こすと経験情報の値が上方に変更され、経験上方の値が上方に変更されると、キャラクタの親密度が上がったことを示す表示が行われる。このようにするこことで、キャラクタに対する親近感をユーザーに与えることが可能となる。
なお、前記制御手段は、ユーザが行動を起こすことにより、前記表示部を見たときに相対的に遠い位置と相対的に近い位置との間を前記キャラクタが移動する頻度(例えば確率)が変化するように表示する機能を有するとよい。ユーザが起こす行動は、上述したとおり、例えばキャラクタに餌を与えることであるが、ユーザが本システム1を使用した時間、使用回数、キャラクタへの声掛け回数等、ユーザが行動を起こした回数等としてもよく、またはこれらを組合わせてもよい。また、ユーザが行動を起こした場合、ユーザが起こした行動がキャラクタの好むものであれば、例えば相対的に遠い位置から相対的に近い位置にキャラクタが移動する確率が高くなるようにするが、ユーザが起こした行動がキャラクタの好むものでなければ、例えば相対的に近い位置から相対的に遠い位置にキャラクタが移動する確率が高くなるようにすることもできる。
このようにすれば、ユーザが起こした行動がキャラクタの好むものであれば、キャラクタがユーザにより近い位置に近寄ってくるように表示される一方、ユーザが起こした行動がキャラクタの好むものでなければ、キャラクタがユーザにより遠い位置に遠ざかるように表示され、よりリアリティさを出すことが可能となる。
なお、経験情報の値を、システムが有する制御手段が上方に変更するようにしてもよいし、システムとは別に設けられた例えば外部サーバ等が上方に変更するようにしてもよい。
(8)前記制御手段は、前記経験情報の値が初期値の場合、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置に前記キャラクタが滞在するように表示する機能を有するとよい。
このようにすれば、慣れていないキャラクタを慣れさせるところから始めることができる。
(9)前記制御手段は、前記制御手段は、前記経験情報の値が初期値から第1規定値までの第1段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置への前記キャラクタの移動割合を、前記表示部を見たときに最も近い第2位置への前記キャラクタの移動割合よりも高くする機能を有するとよい。
このようにすれば、経験情報の値が初期値から第1規定値に至るまでの第1段階では、第1位置にキャラクタが滞在する割合を、第2位置に記キャラクタが滞在する割合よりも高くすることができる。このようにすることで、初期値からしばらくの間はキャラクタが慣れていないことをユーザーに体現させることができる。
なお、第1段階は例えば明細書の「親密度低」に相当し、第1規定値は例えば明細書の「30」に相当し、第1位置は例えば明細書の「エリア5」に相当し、第2位置は例えば明細書の「エリア1」に相当する。以下においても同様である。
(10)前記制御手段は、前記制御手段は、前記経験情報の値が初期値から第1規定値までの第1段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置への前記キャラクタの移動割合を、前記経験情報の値の変化にともなって低下させる機能を有するとよい。第1位置へのキャラクタの移動割合は、例えば経験情報の値の増加にともなって低下させるが、例えばよそよそしさパラメータを用いる場合等には、経験情報の値の減少にともなって低下させることもできる。
このようにすれば、第1段階では、経験情報の値が変化するにつれて第1位置へのキャラクタの移動割合を低下させることができる。このようにすることで、経験情報の値が変化するにつれてキャラクタの警戒心が解けて慣れていく過程を、ユーザーに体現させることができる。
(11)前記制御手段は、前記経験情報の値が初期値から第1規定値までの第1段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も近い第2位置への前記キャラクタの移動割合を、前記経験情報の値の変化にともなって上昇させる機能を有する
とよい。
とよい。
このようにすれば、第1段階では、経験情報が変化するにつれてキャラクタが慣れていく過程を、第1位置へのキャラクタの移動割合でユーザーに体現させることができる。
(12)前記制御手段は、前記第1段階において、前記経験情報の値の変化にともなう前記第2位置への前記キャラクタの移動割合の上昇の度合いを高める機能を有するとよい。
このようにすれば、経験情報の値が初期値から第1規定値まで変化するまでの間、経験情報が変化するにつれてキャラクタが慣れていく過程を、第1位置へのキャラクタの移動割合でユーザーに体現させることができる。
(13)前記制御手段は前記制御手段は、前記経験情報の値が初期値よりも大きい第1規定値からい第2規定値までの第2段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置への前記キャラクタの移動割合を、前記経験情報の値の変化にともなって低下させる機能を有するとよい。
このようにすれば、第2段階において、経験情報の値が変化するにつれて第1位置へのキャラクタの移動割合を低下させることができる。このようにすることで、キャラクタの警戒心が解けていく過程を、第1位置へのキャラクタの移動割合でユーザーに体現させることができる。
なお、第2段階は例えば明細書の「親密度中」に相当し、第2規定値は例えば明細書の「60」に相当する。以下においても同様である。
(14)前記制御手段は、前記制御手段は、前記経験情報の値が初期値よりも大きい第1規定値から第2規定値までの第2段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も近い第2位置への前記キャラクタの移動割合を、前記経験情報の値の変化にともなって上昇させる機能を有するとよい。
このようにすれば、第2段階において、経験情報の値が変化するにつれて、第2位置へのキャラクタの移動割合を上昇させることができる。このようにすることで、キャラクタが慣れていく過程を、第2位置へのキャラクタの移動割合でユーザーに体現させることができる。
(15)前記制御手段は、前記第2段階において、前記第2位置への前記キャラクタの移動割合の上昇の度合いを、前記経験情報の値の変化にともなって高める機能を有するとよい。
このようにすれば、第2段階において、キャラクタが慣れていく度合いが加速する過程を、第2位置へのキャラクタの移動割合でユーザーに体現させることができる。
(16)前記制御手段は、前記経験情報の値が特定の規定値を超えた特定段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置への前記キャラクタの移動割合を前記経験情報の値の変化にともなって低下させるとともに、該経験情報の値の変化にともなう前記第1位置への前記キャラクタの移動割合の低下の度合いを低くする機能を有するとよい。
このようにすれば、特定段階において、第1位置へのキャラクタの移動割合の低下の度合いを鈍化させることができ、よりリアリティのあるキャラクタの動作を表示することができる。
(17)前記制御手段は、前記経験情報の値が特定の規定値を超えた特定段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も近い第2位置への前記キャラクタの移動割合を、前記経験情報の値の変化にともなって上昇させるとともに、該経験情報の値の変化にともなう前記第2位置への前記キャラクタの移動割合の上昇の度合いを低くする機能を有するとよい。
このようにすれば、特定段階において、第2位置へのキャラクタの移動割合の上昇の度合いを鈍化させることができ、よりリアリティのあるキャラクタの動作を表示することができる。
(18)前記制御手段は、前記キャラクタの位置を移動させるか否かを決定する機能を有するとよい。
このようにすれば、キャラクタの移動タイミングをランダムにすることができ、キャラクタが自らの意思を持って移動しているかのような動きを表示することができる。
(19)前記制御手段は、前記キャラクタを移動させるタイミングを抽選により決定する機能を有するとよい。
このようにすれば、キャラクタの移動タイミングをよりランダムにすることができる。
(20)人が近づいたことを検出可能なセンサを備え、前記制御手段は、前記センサが検出されると、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに相対的に遠い位置に前記キャラクタを移動させる機能を有するとよい。
このようにすれば、人が近づくとキャラクタが逃げていくような表示を行うことができ、このようなキャラクタの動きにより、より一層リアリティさを出すことができる。
(21)前記制御手段は、前記経験情報を下方に変更する機能を有するとよい。
このようにすれば、経験情報が一方的に上昇するのではなく下がる場合も生じうるため、より一層リアリティさを出すことができる。
(22)前記経験情報の値は、前記キャラクタの親密度をあらわすものであり、前記制御手段は、前記経験情報の値が親密度が高いことを示す値であるほど、前記キャラクタを表示可能な範囲のうち前記表示部を見たときに相対的に近い位置に前記キャラクタを移動させる頻度を高める機能を有するとよい。
このようにすれば、親密度が高いほどユーザーに相対的に近い位置へのキャラクタの移動頻度が高められるため、より一層リアリティさを出すことができる。
(23)前記制御手段は、予め設定された言語を記憶する記憶手段と、外部からの言語を認識可能な言語認識機能と、前記言語認識機能により認識された言語が前記記憶手段に記憶されている言語である場合、前記言語の認識回数を計数する計数機能と、を有し、前記計数機能により計数された計数値が規定値まで計数された場合、前記キャラクタによる応答が許可されるようにするとよい。
このようにすれば、計数機能により計数された計数値が規定値まで計数されると、キャラクタが応答できるようになるため、キャラクタとのコミュニケーションを図ることが可能となる。
なお、計数機能により計数された計数値が規定値まで計数されると、キャラクタによる応答を、システムが有する制御手段が許可するようにしてもよいし、システムとは別に設けられた例えば外部サーバ等との間でデータの送受信を行い、この外部サーバが応答を許可するようにしてもよい。
(24)前記計数機能により計数された計数値が規定値まで計数され、かつ前記経験情報の値が所定の規定値に到達すると、前記キャラクタによる応答が許可されるようにするとよい。
このようにすれば、計数機能により計数された計数値が規定値まで計数されたとしても、経験情報の値が所定の規定値に到達しなければキャラクタによる応答が許可されない。このようにすることで、慣れたキャラクタとのみコミュニケーションを図ることができる。
(25)前記制御手段は、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに相対的に近い位置において、前記キャラクタにより応答を行わせる機能を有するとよい。
このようにすれば、相対的に近い位置において、キャラクタによる応答が行われるため、キャラクタに対する親近感をユーザーに与えることができる。
(26)前記制御手段は、前記言語認識機能により認識された言語が前記記憶手段に記憶されている言語である場合、該言語を前記キャラクタに復唱させる復唱機能を有するとよい。
このようにすれば、言語認識機能により認識された言語をキャラクタに復唱させることができるため、キャラクタに対する親近感をユーザーに与えることができる。
(27)前記復唱機能は、前記キャラクタを表示可能な範囲のうち前記表示部を見たときに相対的に近い位置において、前記言語を前記キャラクタに復唱させる機能を有するとよい。
このようにすれば、相対的に近い位置において、キャラクタによる応答が行われるため、キャラクタに対してより一層大きな親近感をユーザーに与えることができる。
(28)前記制御手段は、前記経験情報の値が所定の規定値に到達すると、前記復唱機能を有効にするとよい。
このようにすれば、経験情報の値が所定の規定値に到達しなければキャラクタによる応答が許可されない。このようにすることで、ユーザーとJUNOとの間での絆をより一層深めることができる。
(29)前記制御手段は、外部の携帯端末と通信接続する機能と、前記携帯端末からの接続要求を受けることで該携帯端末と接続設定する機能と、を有するとよい。
このようにすれば、ユーザーの利便性を高めることができる。
(30)前記制御手段は、外部の携帯端末と通信接続する機能と、前記携帯端末から指示情報を受けると、該指示情報にもとづいて前記キャラクタを動作させる機能と、を有するとよい。
このようにすれば、ユーザが携帯端末から指示することでキャラクタを動作させることができ、利便性を高めることができる。
(31)前記制御手段は、前記制御手段は、設定によりアラーム動作を行うアラーム機能と、前記アラーム動作を、前記キャラクタの動作により実行する機能と、を有するとよい。
このようにすれば、日常生活において利便性の高いアラーム動作をキャラクタの動作により実行できるため、キャラクタとの日常生活を楽しみつつ利便性を高めることができる。
(32)前記制御手段は、要求に応じて家電制御を実行する家電制御機能と、前記家電制御を前記キャラクタの動作により実行する機能と、を有するとよい。
このようにすれば、日常生活において利便性の高い家電制御をキャラクタの動作により実行できるため、キャラクタとの日常生活を楽しみつつ利便性を高めることができる。
(A1)遮光された映像表示空間を内部に有し、前記映像表示空間の第1方向側に映像の観察領域を設けた筐体と、前記映像表示空間に空中映像を結像させる映像表示部と、を有する表示装置が提供されるとよい。
このようにすれば、映像表示空間に結合させられる空中映像が、観察側から見て比較的暗い空間に表示されるので、観察者に与えることのできる空中映像の立体感を高めることができる。よって、表示装置の有する視覚的な効果を高めることができる。
(A2)前記観察領域から前記映像表示空間に進入する外光を減じる減光部材を有する表示装置が提供されるとよい。
このようにすれば、減光部材によって映像表示空間に進入する外光が減じられるので、映像表示空間を暗い状態に維持でき、観察者に与えることのできる空中映像の立体感を高めることができる。
(A3)前記映像表示部は、第1画像光を発する第1表示部と、前記第1画像光に基づいて前記空中映像を結像させる光学系とを含み、前記第1画像光のうちの前記減光部材で反射した反射光の光路上であって、前記減光部材と前記光学系との間に遮光部材を有する表示装置とするとよい。
このようにすれば、第1画像光が減光部材で反射することで映像表示空間に表示される映像が、観察者によって観察されてしまうのを抑制することができる。
(A4)前記遮光部材は、前記第1方向側から見て前記観察領域に重ならない位置に設けられている表示装置とするとよい。
このようにすれば、観察者が観察領域から映像表示空間を覗き込むようにした場合であっても、第1画像光が減光部材で反射することで映像表示空間に表示される映像が、観察者によって観察されてしまうのを抑制することができる。
(A5)前記映像表示部は、第1画像光を発する第1表示部と、前記第1画像光に基づいて前記空中映像を結像させる光学系とを含み、前記光学系は、前記第1画像光のうちの前記減光部材で反射した反射光の光路上の領域を避けて配置される表示装置とするとよい。
このようにすれば、第1画像光が減光部材で反射することで映像表示空間に表示される映像が、観察者によって観察されてしまうのを抑制することができる。
(A6)前記光学系は、前記第1画像光が入射する第1面と、前記第1面に対向する第2面とを有する光学部材を含み、前記光学部材は、前記第1画像光を前記第1方向側に反射させ、かつ前記第2面に入射した光を前記第1面側に透過させる表示装置とするとよい。
このようにすれば、光学部材を用いて結合させた空中映像に重ねて、光学部材の第2面側を観察者に観察させることができるので、観察者に与えることのできる空中映像の立体感をより高めることができる。
(A7)前記第1方向側から見て前記空中映像と重なる第2画像光を発する第2表示部を有する表示装置とするとよい。
このようにすれば、空中映像に重ねて観察者に観察させる映像の選択の自由度を高めることができる。
(A8)前記第1表示部の発光輝度を前記第2表示部の発光輝度よりも高くした表示装置とするとよい。
このようにすれば、第1表示部の発光輝度と第2表示部の発光輝度との差異により、観察者に与えることのできる空中映像の立体感をより高めることができる。
(A9)前記第1表示部は、前記観察領域よりも上方において、表示面が下方を向くように配置され、かつ前記第1方向側よりも前記第1方向の反対側の第2方向側が低くなるように傾斜する表示装置とするとよい。
このようにすれば、観察領域よりも上方に配置された第1表示部により、光学部材を用いて空中映像を結像させることができる。
(A10)前記第1表示部の表示面は、水平方向に対してほぼ20度で傾斜する表示装置とするとよい。
このようにすれば、観察者に与えることのできる空中映像の立体感をより高めることができるとともに、第1画像光が減光部材で反射して映像表示空間に表示される映像をより観察されにくくすることができる。
(A11)前記第2表示部は、前記観察領域よりも下方において、表示面が上方を向くように配置される表示装置とするとよい。
このようにすれば、第2表示面に表示される映像が、空中結像された映像の下方に位置するように見えるので、観察者に与えることのできる空中映像の立体感をより高めることができる。
(A12)前記第1表示部は、前記空中映像が前記第2表示面上に観察されるように前記第1画像光を発する表示装置とするとよい。
このようにすれば、空中映像が第2表示面に表示される映像の上に位置するように観察されるので、観察者に与えることのできる空中映像の立体感をより高めることができる。
(A13)前記筐体は、前記第1表示部よりも上方に第1収容空間を有し、前記第1収容空間のうち前記第2方向側に配置された処理基板を有する表示装置とするとよい。
このようにすれば、第1表示部よりも上方に確保される第1収容空間のうち、比較的高さ方向の寸法に余裕がある領域に処理基板を配置することができる。
(A14)前記処理基板は、外部機器を着脱可能な装着部を有し、前記装着部は、前記筐体のうち前記第2方向側から前記筐体の外部に露出する表示装置とするとよい。
このようにすれば、外部機器を着脱可能な装着部のうち筐体の外部に露出する部分が観察者から観察されにくくすることができる。
(A15)前記観察領域よりも下方に設けられたセンサを有し、前記処理基板は、前記センサにより測定された情報に応じた処理を実行する表示装置とするとよい。
このようにすれば、センサに係る構成によって空中映像の観察が妨げられてしまうのを抑制できる。
(A16)前記センサが実装されたセンサ基板を有し、前記センサ基板は、前記筐体の前記第1方向側の部分に設けられている表示装置とするとよい。
このようにすれば、センサに係る構成によって空中映像の観察が妨げられてしまうのを抑制することができる。
(A17)前記センサは、ジェスチャを検出するセンサを含む表示装置とするとよい。
このようにすれば、観察者がジェスチャを行うときに、観察者の身体の部位によって空中映像の観察が妨げられてしまうのを抑制することができる。
(A18)前記筐体は、前記映像表示空間の下方に第2収容空間を有し、前記第2収容空間に設けられ、前記センサからの信号を前記処理基板に供給する制御基板を有する表示装置とするとよい。
このようにすれば、第1表示部の上方の第1収容空間に制御基板が収容される場合に比べて、筐体の観察領域よりも上方の寸法が肥大化することを抑制できる。
(A19)前記制御基板と前記処理基板とを電気的に接続する配線部と、前記映像表示空間側から前記配線部を観察できないように仕切る仕切部材とを有する表示装置とするとよい。
このようにすれば、制御基板と処理基板とを電気的に接続する配線部が観察されてしまうのを抑制することができる。
(A20)前記処理基板は、前記センサにより測定された情報に応じて前記第1表示部の表示を制御する表示装置とするとよい。
このようにすれば、センサにより測定された情報によって空中映像を変化させることができる。
(A21)前記第1表示部の表示面に設けられ、前記第1方向側への視野角を狭める視野角制御部材を有する表示装置とするとよい。
このようにすれば、第1表示面に表示される画像が直接観察者に観察されてしまうことを抑制することができる。
(A22)前記第1画像光は、二次元の画像として認識される画像の画像光である表示装置とするとよい。
このようにすれば、二次元の画像として認識される画像を表示する第1表示部を使用した場合でも、観察者に空中映像の立体感を与えることができる。
(A23)前記筐体は、複数の部分を固定具により結合された構成であり、前記固定具は、少なくとも前記第1方向側から露出しない表示装置とするとよい。
このようにすれば、固定部材が観察者に観察されてしまうのを抑制することができ、表示装置の美観を高めることができる。
(A24)前記映像表示空間に面する部分の少なくとも一部に光の反射を低減する処理がなされている表示装置とするとよい。
このようにすれば、映像表示空間を暗い状態に維持しやすくなるので、観察者に与えることのできる空中映像の立体感をより高めることができる。
(A25)前記筐体は、前記第1方向側から見たときに前記観察領域の周りを囲む部分を有する表示装置とするとよい。
このようにすれば、映像表示空間に表示される空中映像と、その手前側に位置する筐体とが相まって、観察者に与えることのできる空中映像の立体感をより高めることができる。
(A26)前記映像表示部は、猫を示すキャラクタの映像を表示する表示装置とするとよい。
このようにすれば、立体感のある猫を示すキャラクタの映像を表示することができる。
(A27)前記映像表示部は、前記キャラクタと前記キャラクタを観察する観察者とのコミュニケーションを再現するコミュニケーション機能に基づいて映像を変化させる表示装置とするとよい。
このようにすれば、コミュニケーション機能に基づいて猫を示すキャラクタの映像を変化させることができる。
(A28)においを検知するにおいセンサと、前記においセンサによる検知結果に応じた動きをキャラクタが行う映像を前記映像表示部に表示する表示出力動作と、前記においセンサによる検知結果に応じた音声を前記映像表示部に表示されたキャラクタが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、をさらに備えるとよい。
このようにすれば、映像表示部に表示されたキャラクタとユーザとの間でにおいに関するコミュニケーションを再現することができる。例えば、においセンサによってにおいが検知されると、キャラクタが「何かにおう」などの音声を発する音声出力動作や、においを嗅ぐ動作をキャラクタが行う映像の表示出力動作が行われるように制御され得る。したがって、当該キャラクタとユーザとの間でより多様なコミュニケーションを図ることができる。
(A29)前記表示出力動作は、検知されたにおいの種類に応じた動きを前記映像表示部に表示されたキャラクタが行う映像を前記映像表示部に表示する動作であり、前記音声出力動作は、検知されたにおいの種類に応じた音声を前記映像表示部に表示されたキャラクタが発する音声として出力する動作であるとよい。
このようにすれば、映像表示部に表示されたキャラクタとユーザとの間でにおいの種類に関するコミュニケーションを再現することができる。例えば、タバコのにおいが検知されたときには、煙たがる動きをキャラクタが行う映像を表示する表示出力動作やユーザの健康に気遣う言葉を発する音声出力動作が実行され得る。また、アロマオイルなどの香料のにおいが検知されたときには、香料に関する質問を発する音声出力動作が実行され得る。このような制御が行われることにより、映像表示部に表示されたキャラクタとユーザとの間でのコミュニケーションの幅を広げることができ、当該キャラクタへのユーザの愛着を増大させることができる。
(A30)音声を検出可能な音声検出手段と、検知対象領域における人の存在を検知可能な検知手段と、をさらに備え、前記音声検出手段は、前記検知対象領域における人の存在が検知されると、前記映像表示部に表示されたキャラクタとの対話を行うための音声認識を有効化するとよい。
このようにすれば、ユーザと映像表示部に表示されたキャラクタと対話するにあたって、例えばユーザが音声認識を有効化するためのトリガーワードを発声する必要がなく、より自然にコミュニケーションをとることができる。
(A31)風を検知する風検知手段と、前記風検知手段による検知結果に応じた動きをキャラクタが行う映像を前記映像表示部に表示する表示出力動作と、前記風検知センサによる検知結果に応じた音声を前記映像表示部に表示されたキャラクタが発する音声として出力する音声出力動作との少なくとも一方を実行する動作制御手段と、をさらに備えるとよい。
このようにすれば、映像表示部に表示されたキャラクタとユーザとの間で表示装置に与えられた風に関するコミュニケーションを再現することができる。風は、例えばユーザ人為的に起こしたものとするとよく、例えば表示装置に向けて手を振る等の身体の部位を動かすことによって発生する風や息を吹きかけることによって発生する風とするとよい。
(A32)前記動作制御手段は、前記風検知手段による検知結果に基づき、ユーザの吹きかけた息に応じて前記表示出力動作または前記音声出力動作を行うとよい。
このようにすれば、映像表示部に表示されたキャラクタとユーザとの間で、表示装置に吹きかけた息に応じたコミュニケーションを再現することができる。
上述した(1)から(32)に示した発明、及び、上述した(A1)から(A32)に示した発明は、任意に組み合わせることができる。例えば、(1)に示した発明の全てまたは一部の構成に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加える構成とするとよい。特に、(1)に示した発明に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加えた発明とするとよい。また、(1)から(32)に示した発明から任意の構成を抽出し、抽出された構成を組み合わせてもよい。本願の出願人は、これらの構成を含む発明について権利を取得する意思を有する。また「~の場合」「~のとき」という記載があったとしても、その場合やそのときに限られる構成として記載はしているものではない。これらはよりよい構成の例を示しているものであって、これらの場合やときでない構成についても権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えたりした構成についても開示しているものであり、権利取得する意思を有する。
本発明によれば、キャラクタと関連付けた情報の出力に関する技術を提供することができる。
本願の発明の効果はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」と記載した箇所などは奏する効果を明示する記載であり、また「~できる」と記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。
以下、実施形態について、図面を参照しながら詳細に説明する。以下に示す実施形態は本開示の実施形態の一例であって、本開示はこれらの実施形態に限定されるものではない。なお、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号(数字の後にA、Bなどを付しただけの符号)を付し、その繰り返しの説明は省略する場合がある。また、以下の説明で参照する各図において、各部材、各領域等を認識可能な大きさとするために、実際とは縮尺を異ならせている場合がある。
<1.表示装置1の概要>
図1Aおよび図1Bは、本発明の一実施形態に係る表示装置の概要を説明する図である。表示装置1は、観察領域SCを通して観察者が映像を観察できるように映像を表示する。本実施形態で、観察は、見るあるいは目視するといった意味で解釈されてよい。観察者は、表示装置1を使用するユーザのことで、例えば、表示装置1に表示された映像を観察する者である。観察領域SCは、表示装置1の正面側に設けられた領域で、ここでは矩形の領域である。表示装置1は、空中結像により映像を表示する。空中結像は、例えば光の反射を利用して、空気中に映像を結像することをいう。空中結像は、所定の空間に映像が浮かび合っているような感覚を観察者に与えるために採用されることがある。空中結像により表示される映像は、空中映像と呼ばれる。
図1Aおよび図1Bは、本発明の一実施形態に係る表示装置の概要を説明する図である。表示装置1は、観察領域SCを通して観察者が映像を観察できるように映像を表示する。本実施形態で、観察は、見るあるいは目視するといった意味で解釈されてよい。観察者は、表示装置1を使用するユーザのことで、例えば、表示装置1に表示された映像を観察する者である。観察領域SCは、表示装置1の正面側に設けられた領域で、ここでは矩形の領域である。表示装置1は、空中結像により映像を表示する。空中結像は、例えば光の反射を利用して、空気中に映像を結像することをいう。空中結像は、所定の空間に映像が浮かび合っているような感覚を観察者に与えるために採用されることがある。空中結像により表示される映像は、空中映像と呼ばれる。
図1Aに示す場合、表示装置1は、空中映像としてキャラクタ1100を表示する。キャラクタ1100は、女性のキャラクタである。表示装置1は、さらに、キャラクタ1100の下にステージを意味するステージ映像2100を表示する。ステージ映像2100は、ここでは魔法陣を示す。このような表示を見た観察者は、ステージ上にキャラクタ1100が立っているような印象を受けることができる。キャラクタ1100およびステージ映像2100の色は特に問わない。例えばキャラクタ1100の皮膚は肌色である。キャラクタ1100の髪色および上半身の衣装は比較的淡い青色系の色(例えば、水色)、膝に当てられている装飾品はそれよりも濃い青色系の色(例えば、青色)、スカートおよび靴は白色である。ステージ映像2100は比較的濃い青色系の色(例えば、濃い水色)である。
図1B(a)に示す場合、表示装置1は、空中映像としてキャラクタ1200を表示する。キャラクタ1200は、猫のキャラクタである。図1B(b)に示す場合、表示装置1は、キャラクタ1200の下にステージを意味するステージ映像2200を表示する。ステージ映像2200は、ここでは、「Yupiteru」という文字列、およびキャラクタ1200の名称である「Juno」(「ユノ」と称呼する。)を示す文字列が、円形のステージの外周に沿って交互に表記されている。
キャラクタ1200およびステージ映像2200の色は特に問わない。ここで、キャラクタ1200およびステージ映像2200について、図1Cを参照してより具体的に説明する。キャラクタ1200は、キャラクタ本体1210と、首輪1220とに大別される。キャラクタ本体1210は、ここでは名称が「Juno」である猫のキャラクタ自体である。キャラクタ本体1210は、身体の部位に白色で示された部位を含み、例えば、眉間、鼻および口の周辺、腹部、並びに足のうちの正面側の部位がこれに該当する。キャラクタ本体1210の身体の部位のうち、薄いグレーで示された部位は、比較的淡い茶色系の色(例えば、黄土色)であり、例えば、顔部のうちの目の上および横の部位、胴体部のうちの上側の部分、足のうちの正面側以外の部位がこれに該当する。キャラクタ本体1210の身体の部位のうち、さらに濃いグレーで示された部位は、さらに濃い茶色系の色(例えば、茶色)であり、例えば、顔部、頭部、胴体、足の細い線で示された縞模様の部位がこれに該当する。首輪1220は、キャラクタ本体1210の首の位置に表示された首輪を意味する。首輪1220は、赤色系の色(例えば、赤色)である。首輪1220のうち、キャラクタ本体1210の顔の下に位置には、札1221が取り付けられている。札1221は円形であり、所定の標章が表記されている。当該標章は、「V」状の記号の下方に「●」(内側を塗りつぶした円)を配置した標章であって、それぞれを赤色系の色(例えば、赤色)で表記されている標章である。札1221に表記される標章は、表示装置1の出所を示す商標としての機能を発揮するものとしてもよい。ステージ映像2200は全体として茶色系の色で、円および文字列は比較的濃い茶系の色(例えば、茶色)、円の内側の煙を模した画像はそれよりも薄い茶色系の色(例えば、黄土色)である。
図1A、図1Bおよび図1Cにおいて、キャラクタ1100,1200の背景は黒色で示されているが、真っ黒に限られるものではなく、比較的暗い色の背景(例えば、黒色その他の暗色系の色)としてもよい。
図1A、図1Bおよび図1Cに示すキャラクタは一例である。表示装置1は、人型のキャラクタを表示する場合、女性のキャラクタに限られず、男性のキャラクタを表示してもよい。表示装置1は、実在する人物(例えば、家族)もしくは過去に実在していた人物(例えば、歴史上の人物)、架空の人物のキャラクタ(例えば、漫画やアニメ等のフィクションの作品に登場するキャラクタ等)のいずれを表示してもよい。人型でない動物のキャラクタを表示する場合、表示装置1は、猫のキャラクタに限られず、犬やハムスター等の一般家庭で飼育されうる動物のキャラクタ、それ以外の馬や牛等の動物のキャラクタ、並びに架空の動物のキャラクタ(例えば、漫画やアニメその他のフィクションの作品に登場するキャラクタ等)のいずれを表示してもよい。また、表示装置1は、首輪1220を有する他のキャラクタを表示するものであってもよい。
表示装置1は、コミュニケーション機能に基づいて、キャラクタの身体の部位を動かしたり、キャラクタの発話を模した音声を出力したりする。コミュニケーション機能は、観察者とキャラクタとのコミュニケーションを再現する機能、または疑似的なコミュニケーションを再現する機能である。コミュニケーション機能においては、観察者の挙動(例えば、発話や身体の動き)に応答してキャラクタが動く。例えば、キャラクタ1100は、ダンスなど体全体を動かしたり、表情を変化(例えば、喜怒哀楽の感情を表現)させたりする、といった人間が通常行う動作を再現した動作をする。例えば、キャラクタ1200は、動物が通常行う動作(例えば、あくびをする、尻尾を動かす、歩行する等)を再現した動きをする。また、表示装置1は、例えば、キャラクタ1100の動作に合わせて、キャラクタ1100が歌唱しているかのような歌唱音声を出力したり、観察者との対話に係る音声を出力したりする。表示装置1は、例えば、キャラクタ1200の動作に合わせて、猫の鳴き声を意味する音声を出力したり、観察者との対話に係る音声を出力したりする。このような映像や音声の出力は、コミュニケーション機能に限られず、表示装置1が有する種々の機能で行われるようにしてもよい。
コミュニケーション機能におけるユーザとの対話は、例えば、表示装置1に組み込まれた音声認識アプリケーション(音声認識エンジンの機能を有するアプリケーション)と、図示しない外部の音声認識サーバと、図示しない外部の対話サーバとの連携により実現されるとよい。例えば、後述する操作部2214が押下されると、音声認識アプリケーションが起動し、キャラクタとの対話を行うための音声認識が有効化される。音声認識を有効化することは、本実施形態では音声認識機能を作動することで、例えば音声認識エンジンをオンして音声の入力を待ち受ける状態にすることである。そして、ユーザにより発せられた音声(ユーザ音声、とも称する)が、後述の処理基板224の通信制御回路706から音声認識サーバへと送信され、音声認識サーバによってユーザ音声に対する音声認識処理が実行されて音声認識結果が出力される。例えば対話サーバには、入力され得る文字列毎に、表示装置1(例えば、後述する映像表示部)に表示されたキャラクタ(例えば、キャラクタ1100)が発する音声(キャラクタ音声、とも称する)が互いに対応付けて予め登録されている。そして、音声認識サーバによる音声認識結果(例えば、文字列で示された音声認識結果)が対話サーバに入力され、当該音声認識結果に対応するキャラクタ音声が対話サーバから出力される。そして、対話サーバによって出力されたキャラクタ音声が、表示装置1から出力される。このようにして、ユーザによる音声に対する応答処理が実行され、ユーザとキャラクタとの対話が再現される。
表示装置1は、例えば、娯楽用の表示装置として一般のユーザにより使用される。この場合、表示装置1は、例えば、ユーザの自宅等の居所で使用される。これに限られず、表示装置1は、商業用(例えば広告宣伝用)その他の用途で使用されてもよい。例えば、商業用の場合、表示装置1は店舗その他の商業施設等の公共の場所に設置される。表示装置1は、製品あるいはサービスの展示会等の会場において、キャラクタが製品あるいはサービスを紹介または宣伝等する映像を表示してもよい。表示装置1の用途はこれら以外の用途でもよい。
<2.表示装置1の外観構成>
図2、図3および図4は、表示装置1の外観構成を示す斜視図である。図2は、表示装置1を右斜め前方から見た図である。図3は、表示装置1を左斜め前方側のやや上方から見た図である。図4は、表示装置1を右斜め前方のやや下方から見た図である。図5は、表示装置1の正面図である。図6は、表示装置1の右側面図である。図7は、表示装置1の正側面図である。図8は、表示装置1の平面図(上面図)である。図9は、表示装置1の底面図である。図10は、表示装置1の背面図である。
図2、図3および図4は、表示装置1の外観構成を示す斜視図である。図2は、表示装置1を右斜め前方から見た図である。図3は、表示装置1を左斜め前方側のやや上方から見た図である。図4は、表示装置1を右斜め前方のやや下方から見た図である。図5は、表示装置1の正面図である。図6は、表示装置1の右側面図である。図7は、表示装置1の正側面図である。図8は、表示装置1の平面図(上面図)である。図9は、表示装置1の底面図である。図10は、表示装置1の背面図である。
表示装置1は、外観が直方体状である。表示装置1は筐体100を有する。筐体100は、表示装置1の外形をなす箱型の部材である。筐体100は直方体状である。筐体100は、幅方向(左右方向ともいう。)よりも、高さ方向(上下方向ともいう。)に長い。筐体100の幅方向と奥行方向(前後方向ともいう。)との長さはほぼ同じである。表示装置1の幅方向、高さ方向、および奥行方向(前後方向ともいう。)の長さとの比は、およそ2:3:2である。以下の説明において、表示装置1の奥行方向のうち、観察者側の位置する側を「正面側」(第1方向側に相当)、その反対側を「背面側」(第2方向側に相当)という。
筐体100は、角部がR形状である。図5に示すように、表示装置1を正面側から見たとき、筐体100の4つの角部がそれぞれ丸みを帯びている。筐体100の表面は、つや消し加工で質感を出すように加工されているとよい。このようにすれば、意匠性に優れた直方体状の表示装置1が提供される。筐体100は、樹脂材料で形成されるとよいが、金属またはその他の素材で形成されてもよい。筐体100は、遮光された映像表示空間を内部に有する。映像表示空間は、筐体100の内部の空間で、空中映像が表示(形成)される空間である。映像表示空間は、その全体または多くの部分が遮光性の部材で形成されている。よって、筐体100を構成する部材によって、映像表示空間に外光が進入することが妨げられる。筐体100は、例えば、その全体が外光を遮断する素材で形成されていてもよいし、外側表面または映像表示空間に面している表面が光を遮断する素材で覆われていてもよい。筐体100の外側表面の色は問わないが、例えば高級感またはシンプルさを醸し出す白色または黒色等とするとよい。表示装置1は、観察者等の人が単独で持ち運びできる程度の寸法かつ重量するとよい。
筐体100のうちの外側に露出する部分は、右側パネル101と、正面側パネル102と、左側パネル103と、背面側パネル104と、上蓋部105と、下蓋部106とに分けられる。右側パネル101、正面側パネル102、左側パネル103、背面側パネル104、上蓋部105、および下蓋部106は板状の部材である。右側パネル101は、正面側から見て筐体100の右側面側に位置するパネルである。左側パネル103は、正面側から見て筐体100の左側面側に位置するパネルである。右側パネル101および左側パネル103は同一形状かつ同一寸法である。また、右側パネル101と左側パネル103とは、高さ方向に対称で、右側パネル101と左側パネル103を形成するための金型を共通化できる。このため、右側パネル101および左側パネル103は共通の部材を用いることができ、コストや組み立て作業の手間を軽減する効果が期待できる。
正面側パネル102は、表示装置1の正面側に位置する。正面側パネル102は、減光部材200を装着可能な開口部110を有している。観察領域SCは、正面側パネル102に設けられている。観察領域SCは、表示装置1に表示された映像を見る観察者が観察する領域である。観察領域SCは、筐体100に形成された開口部110が存在する領域でもある。減光部材200が、観察領域に設けられている。減光部材200は、開口部110を塞ぐようにして、鉛直方向に立てて設けられている。減光部材200および開口部110は、表示装置1の正面側から見て、筐体100の高さ方向の中心よりも上方に設けられる。減光部材200および開口部110は、正方形または長方形である。
減光部材200は、映像の観察に用いられる矩形(正方形でもよい。)の第1領域210と、第1領域210の周囲を取り囲む第2領域220とを含む。第2領域220は縁部分で画像の観察には用いられない領域であるから、光を透過させない領域でもよい。よって、観察領域SCは第1領域210が存在する領域ともいうことができる。以下の説明で減光部材200という場合、第1領域210のことと観念されてもよい。
減光部材200は、観察領域SCから映像表示空間に進入する外光を減じる光学部材である。減光部材200は、映像表示空間を暗い状態に維持するために設けられている。減光部材200は、観察者自身が観察領域SCに映ってしまう映り込みの発生を抑えたり、映像表示空間の内部の部品を観察者に観察されにくくしたりするために設けられる。減光部材200は、板状(パネル状を含む)の部材であるが、シート状、フィルム状などと呼ばれる部材でもよい。減光部材200は、スモークパネルまたはスモークフィルムなどと呼ばれる部材であってもよい。減光部材200は、例えば光の透過率が24%で、その厚さが2mm程度である。減光部材200は、表示装置1の映像表示空間に表示される映像の観察を妨げない程度の透光性を有する。減光部材200は、黒色系等の暗色系の半透明の部材であるが、青色系その他の色であってもよい。
情報領域STが、正面側パネル102のうち、観察領域SC(減光部材200および開口部110)の下方に設けられている。情報領域STは、正面側パネル102に開けられた開口部に位置する。情報領域STは、センサを用いて所定の情報を収集したり、所定の情報を観察者に提示したりする領域である。情報領域STに設けられる電子部品として、第1センサ2331、第2センサ2332、マイクロホン2333と、発光部2334とがある。第1センサ2331は、観察者が行うジェスチャを検出するジェスチャセンサである。第2センサ2332は、ジェスチャセンサ以外の1または複数のセンサを含む。第2センサ2332のセンサとしては、例えば、ガスセンサ(臭いセンサ)、温度センサ、および照度センサがある。マイクロホン2333は、収音し、収音した音を音声信号に変換する。発光部2334は、発光することにより所定の情報を提示する。発光部2334は、例えば、所定の色で発光する発光体(例えば、発光ダイオード)と、発光体が発した光を導く導光部材とを含む。本実施形態では、発光部2334の導光部材が第1センサ2331、第2センサ2332、およびマイクロホン2333が設けられた領域の周りを囲むようにして配置されている。発光部2334は、例えば青色系の色(例えば水色)で発行するが、緑色系、赤色系その他の色の1つまたは複数の色で発光するように構成されてもよい。発光部2334は、導光部材を有する構成に限られず、例えば発光体を複数有する構成によって所定の領域で発光してもよい。
操作領域OTが、上蓋部105に設けられている。操作領域OTは、観察者が行う操作を受け付ける領域である。操作領域OTは、操作部2211,2212,2213,2214が設けられた領域である。操作部2211,2212,2213,2214は、それぞれ押下操作を受け付けるスイッチである。操作部2211は、表示装置1の電源のオンまたはオフを指示する場合に操作される。操作部2212は、音量を上げることを指示する場合に操作される。操作部2213は、音量を下げることを指示する場合に操作される。操作部2214は、所定の機能の実行を指示する場合に操作される。操作部2214は、例えば特殊キーと呼ばれる操作部であってもよい。操作部2214は、例えば、表示装置1に音声認識の開始を指示する場合に操作されるようにしてもよい。上蓋部105には、操作部2211,2212,2213,2214のそれぞれが設けられる位置に対応して開口部が設けられている。操作部2211,2212,2213,2214は各開口部に位置することによって外部に露出する。なお、ここで説明した操作部の数、操作部に割り当てられた機能、受け付け可能な操作方法は一例である。
人感センサ234が、下蓋部106に設けられている。人感センサ234は下蓋部106の開口部に位置することによって外部に露出する。人感センサ234は、検知対象空間における人(動体)の存在を検出する検出部である。人感センサ234は、本実施形態ではマイクロ波ドップラセンサであり、マイクロ波を放射し、その反射波であるマイクロ波の受信強度に基づいて、検知対象空間における人の存在を検出する。例えば、人感センサ234は、表示装置1の正面側に人が存在するかどうかを検出する。
表示装置1の背面側パネル104には、電源ジャック2311と、後蓋部1041が設けられている。電源ジャック2311は、電源コードが接続されるジャックである。電源ジャック2311は、電源コードを介して外部電源等からの電力の供給を受ける。後蓋部1041は、取り外しが可能な蓋部である。後蓋部1041が取り外されると、図11に示すように、スロット222およびUSB(Universal Serial Bus)コネクタ223が露出する。スロット222は、外部記憶媒体が装着される装着部である。外部記憶媒体は、例えばmicroSD(登録商標)の規格に対応するが、microSDHCその他SDカードに関する規格またはその他の規格に対応してもよい。USBコネクタ223は、USBケーブルまたはUSB規格に対応した外部機器のUSBポートが装着される装着部である。表示装置1では、スロット222およびUSBコネクタ223を介して外部機器との間でデータの入出力を行うことができる。装着部の数はさらに多くてもよい。スロット222およびUSBコネクタ223のうち筐体の外部に露出する部分が、表示装置1の背面側であるから、観察者から観察されにくくすることができる。また、外部機器が装着される装着部の数や対応する規格は特に問わない。
筐体100は、右側パネル101と、正面側パネル102と、左側パネル103と、背面側パネル104と、上蓋部105と、下蓋部106とを結合して構成される。本実施形態では、結合方法として、固定具の一例であるネジを用いたネジ止めが採用される。ただし、正面側パネル102および上蓋部105には、ネジ止めされた箇所が存在しない。
右側パネル101においては、正面側の上下2か所で、ネジ710,720によってネジ止めされている。筐体100の左側パネル103においては、正面側の上下2か所で、ネジ730,740によってネジ止めされている。背面側パネル104においては、上方側の3か所でネジ751,752,753によってネジ止めされ、高さ方向における中心付近の2か所でネジ754,755によってネジ止めされ、下方側の3か所でネジ756,757,758によってネジ止めされている。下蓋部106においては、正面側の2か所で、ネジ761,762によってネジ止めされている。正面側パネル102および上蓋部105は、表示装置1を使用する観察者によって、比較的観察されやすい部分である。一方、それ以外の部位は、表示装置1を使用する観察者によって、比較的観察されにくい部分である。よって、表示装置1によれば、ネジ止め箇所が観察者に観察されてしまうのを抑制し、表示装置1の外観上の美観を保つことができる。このようにすることは、観察者に映像への没入感を与えることにも寄与することができる。
図12は、観察者により表示装置1が使用される様子の一例を説明する図である。図12には、表示装置1とこれを使用する観察者Uとの位置関係を、表示装置1の左側面側から見た様子が示されている。表示装置1は、机3000の上に置かれている。表示装置1の正面側(前方側)には、椅子3100が配置されている。観察者Uは、表示装置1の方向を向いて椅子3100に着席している。この例では、観察者Uの目の位置は、表示装置1の上面よりも高い位置にある。このため、観察者Uは観察領域SCを角度θで見下ろすようにして観察する。角度θは水平方向と観察者Uの視線方向との間の角度である。角度θは、角度θ1以上θ2以下の範囲内である。角度θは、例えば15度である。観察者Uと観察領域SCとの水平方向の距離はおよそ50cmである。
<3.表示装置1の表示に関する原理>
図13は、表示装置1の表示に関する原理を説明する図である。図13には、表示装置1の左側面側から表示装置1の内部を見た場合の模式図が示してある。筐体100の内部の映像表示空間S1には、第1表示部310と、光学部材320と、第2表示部330とが設けられている。第1表示部310と光学部材320との協働により、映像表示空間S1に空中映像を結像させる映像表示部が構成される。
図13は、表示装置1の表示に関する原理を説明する図である。図13には、表示装置1の左側面側から表示装置1の内部を見た場合の模式図が示してある。筐体100の内部の映像表示空間S1には、第1表示部310と、光学部材320と、第2表示部330とが設けられている。第1表示部310と光学部材320との協働により、映像表示空間S1に空中映像を結像させる映像表示部が構成される。
第1表示部310および第2表示部330は、画像を表示する表示部である。第1表示部310および第2表示部330は、光源を有する表示部であり、例えば液晶ディスプレイである。光源は、バックライトである。第1表示部310および第2表示部330は、赤(R)、緑(G)、青(B)の3原色に基づいてカラー(多色)の画像を表示する。第1表示部310および第2表示部330は、本実施形態では二次元の画像として認識される画像を表示する。
第1表示部310は、8インチの液晶ディスプレイである。例えば、この場合、第1表示部310は、光源の一例であるバックライトと、表示素子の一例である液晶素子を二次元配置した表示体とを含む。光源は例えば白色光源である。液晶素子は、画素単位でバックライトからの光を変調する。液晶素子は、例えば、画素単位に設けられる画素電極と複数の画素で共通の共通電極とで液晶分子を挟持した構成である。第1表示部310は、第1画像光L1を発する第1表示面311を有する。第1表示部310は、図1A~図1Cでいえば、キャラクタ1100,1200を表示するための画像光を発する。第1表示部310は、観察領域SC側の一端が観察領域SCよりも上方に位置し、かつ、背面側が低くなるように傾斜して配置されている。この傾きは、第1表示面311の傾きに等しく、水平面に対してほぼ20度である。このように傾きをほぼ20度すれば、観察者に与えることのできる空中映像の立体感を高めることができるとともに、第1画像光L1が減光部材200で反射して映像表示空間に形成される虚像がより観察されにくくすることができるという知見を発明者は得た。この根拠については後述する。ただし、この角度は一例である。表示装置1の幅方向においては、第1表示面311の各位置の高さは同じである。
光学部材320は、第1表示部310からの第1画像光L1に基づいて空中映像を結像させる光学系の一例である。光学部材320は、光の透過性および反射性を有する。光学部材320は、板状である。光学部材320は、ここではハーフミラーである。光学部材320は、アクリルミターで構成され、光の透過率が約30%である。光学部材320の厚さは、約2mmである。光の透過率は一例にすぎず例えば6%としてもよいし、映像表示空間S1に表示される空中映像を観察者が観察し得る程度の透過率が確保されていればよい。光学部材320は、映像表示空間S1において、開口部110および第1表示面311に対して傾斜して配置されている。光学部材320は、観察領域SC側の先端が、観察領域SCよりも下方に位置し、背面側ほどより高い位置となるように傾斜している。この傾きは、水平面に対して35度である。ただし、この角度は一例である。表示装置1の幅方向においては、光学部材320の各位置の高さは同じである。
第2表示部330は、7インチの液晶ディスプレイである。第2表示部330は、表示した画像の第2画像光L2を発する第2表示面331を有する。第2表示部330は、図1Aおよび図1Bでいえば、ステージ映像2100,2200に相当する映像V2を表示する。第2表示部330は、第2表示面331の法線方向が上方向を向くように配置されている。第2表示面331は、光学部材320の下方側の一端よりも背面側に位置する。第2表示面331よりも正面側には、台座部400が設けられている。台座部400は、筐体100の映像表示空間S1を構成する部材の一部をなす。台座部400の上面は、第2表示面331とほぼ同じ高さに位置するが、第2表示面331の方がやや低くなっていてもよい。
以上の構成のもと、第1表示部310が発した第1画像光L1は、光学部材320の第1面321に所定の角度で入射する。入射した第1画像光L1は、光学部材320によって表示装置1の正面側に当該所定の角度で反射させられる。この反射光L1rによって、筐体100の映像表示空間S1に空中映像V1が認識される。空中映像V1は、第1表示面311の背面側の先端部の下方、例えば第1表示面311と光学部材320との交点の下方の位置に認識される虚像である。
第2表示部330が発した第2画像光L2は、光学部材320の第2面332に入射して、第1面321側に透過する。第2画像光L2は、直接観察者の目に入る。第2表示面331の映像V2は、空中映像V1の下方に位置するように認識される実像である。例えば、第2表示面331の前後方向における中心に空中映像V1が認識されるようになっている。このようにして、空中映像V1が図1A~1Cでいうキャラクタ1100,1200と認識され、映像V2が図1A~1Cでいうステージ映像2100,2200として認識される。表示装置1によれば、光学部材320を用いて結合させた空中映像V1を観察させることで映像の立体感を観察者に与え、さらにその下方に映像V2を観察者に観察させることでその立体感をより高めることができる。また、第2表示部330を用いることで、発光体および導光部材を組み合わせて所定のパターンの模様で発光するような場合に比べて、空中映像とともに観察者に観察させる映像の選択の自由度を高めることができる。
第1表示部310の第1表示面311には、正面側への視野角を狭める視野角制御部材312が設けられるようにすることが望ましい。このようにすれば、観察者が観察領域SCに近づいて見上げるようにしても、第1表示面311に表示される画像が直接観察者に観察されてしまうことを抑制することができる。第2表示面331については、観察者が映像V2を観察しやすくなるように正面側への視野角を狭める視野角制御部材は設けられていない。
表示装置1の基本的な表示の原理は、以上のとおりである。さらに、表示装置1は、その視覚的な効果を高めるための構成として、減光部材200および遮光部材500を有している。その作用及び効果については後述する。
<4.表示装置1の内部の構成>
次に、表示装置1の内部の構成を説明する。図14、図15、図16、図17、および図18は、筐体100のうち、右側パネル101と、正面側パネル102と、左側パネル103と、背面側パネル104とを取り外した状態を示す図である。図14に示すように、右側パネル101を取り外したことにより、右側内部パネル107が露出する。図15に示すように、正面側パネル102を取り外したことにより、正面側内部パネル108が露出する。図16に示すように、左側パネル103を取り外したことにより、左側内部パネル109が露出する。図16に示すように、背面側パネル104を取り外したことにより、配線部800および仕切部材900が露出する。
次に、表示装置1の内部の構成を説明する。図14、図15、図16、図17、および図18は、筐体100のうち、右側パネル101と、正面側パネル102と、左側パネル103と、背面側パネル104とを取り外した状態を示す図である。図14に示すように、右側パネル101を取り外したことにより、右側内部パネル107が露出する。図15に示すように、正面側パネル102を取り外したことにより、正面側内部パネル108が露出する。図16に示すように、左側パネル103を取り外したことにより、左側内部パネル109が露出する。図16に示すように、背面側パネル104を取り外したことにより、配線部800および仕切部材900が露出する。
右側内部パネル107および左側内部パネル109は、図13で説明した第1表示部310および光学部材320を左右の両側から挟みこむことによって保持する。
図2、図4、図6で示したネジ710,720は、右側パネル101、正面側内部パネル108、および右側内部パネル107を通過する穴H1,H2を順次通過して、これらを結合する。図3,図7で示したネジ730,740は、左側パネル103、正面側内部パネル108、および左側内部パネル109を通過する穴H3,H4を順次通過して、これらを結合する。図10で示したネジ751,752,753は、背面側パネル104と上蓋部105とを固定する。ネジ754は、背面側パネル104と右側パネル101とを結合する。ネジ755は、背面側パネル104と左側パネル103とを固定する。ネジ765,765,757は、背面側パネル104と下蓋部106を固定する。
図19、図20、図21、図22、図23および図24は、さらに右側内部パネル107と左側内部パネル109とを取り外した状態を示す図である。図19は、表示装置1を右側面側から見た様子を示す図である。図20は、表示装置1を左側面側から見た様子を示す図である。図21は、表示装置1を右側面側の斜め下方から見た様子を示す図である。図22は、表示装置1を右側面側の斜め上方から見た様子を示す図である。図23は、表示装置1を左側面側の斜め下方から見た様子を示す図である。図24は、表示装置1を左側面側の斜め上方から見た様子を示す図である。
筐体100の内部には、第1表示部310と、光学部材320と、第2表示部330と、台座部400と、遮光部材500とが設けられている。第1表示部310と、光学部材320と、第2表示部330と、台座部400とは、図13を用いて説明したとおりの構成である。
遮光部材500は、第1表示部310からの第1画像光L1のうちの減光部材200から反射した反射光の光路上に設けられる。遮光部材500は、光学部材320にこの反射光が入射するのを妨げるように、光学部材320のうちの減光部材200(観察領域SC)側の一端側、換言すると、第1表示部310から遠い側の一端側を覆う。遮光部材500は、例えば可視光を吸収する部材であるが、第1画像光L1の透過を妨げる部材であればよい。遮光部材500は、例えば、黒色その他の暗色系の色とするとよいが、それ以外の色でもよい。このようにする理由については後述するが、第1画像光L1が減光部材200で反射して映像表示空間S1に形成される映像(虚像)が、観察者によって観察されてしまうのを抑制するためである。特に、観察領域SCから映像表示空間S1を覗き込むようにして観察者が映像を観察した場合に観察される恐れのある映像が観察されるのを抑制する。この映像以外にも、天井などの外部の物が観察されるのを抑制する。遮光部材500の上面はほぼ水平であるが、これに限られない。
第1表示部310の上方には、第1プレート601が設けられ、第1プレート601の上方には各種部品を収容する第1収容空間S2(図19および図20参照)が形成されている。また、第2表示部330の下方には、第2プレート602が設けられ、台座部400および第2プレート602の下方に各種部品の第2収容空間S3(図25~図27参照)が形成されている。
図17~図24に示すように、第1収容空間S2は、第1表示部310の上に設けられた第1プレート601によって映像表示空間S1と隔てられた空間である。第1プレート601は、ネジ791,792,793を用いて右側内部パネル107に結合され、ネジ794,795,796を用いて左側内部パネル109に結合される。第1収容空間S2には、操作基板221と、処理基板224と、スピーカ2251,2252と、保持部226とが設けられる。操作基板221は、操作部2211,2212,2213,2214が表面に実装される基板である。操作基板221は、操作部2211,2212,2213,2214の操作に応じた信号を、処理基板224に供給する。処理基板224は、表示装置1の制御を司る処理基板として機能する。処理基板224は、メイン基板と呼ばれるものであってもよい。処理基板224は、操作基板221およびスピーカ225A,225Bと、例えばプリント配線基板(例えばFPC)を介して電気的に接続する。処理基板224は、表示装置1の奥行方向において、第1収容空間S2の背面側に位置する。処理基板224は、いわゆるSoC基板であり、プロセッサおよびOS(Operating System)を動作させる。処理基板224は、センサ基板233に実装されたセンサからの信号およびマイクロホン2333からの音声信号をOSで読み取ったり、操作部2211,2212,2213の操作に応じた信号を操作基板221から取得したりする。処理基板224は、第1表示部310および第2表示部330に映像を表示させるための制御を行う。処理基板224には、スロット222およびUSBコネクタ223が実装され、表示装置1の背面側から露出する。
スピーカ2251,2252は、正面側から見て左右両側に設けられ、上蓋部105に開けられた開口部1051,1052を介して外部に音を放出する。スピーカ2251,2252は処理基板224とはあまり離さないことが望ましい。スピーカ2251,2252は互いの音がなるべく干渉しないように距離が空けられていることが望ましい。
保持部226は、処理基板224に重なる位置に設けられ、下方の面に処理基板224を保持する。保持部226のうち処理基板224を保持する側とは反対側の上方の面には、放熱または吸熱のためのヒートシンク2261が設けられている。第1表示部310および第1プレート601は、正面側から背面側に下がるように傾斜している。このため、第1収容空間S2は、正面側から背面側にかけて高さ方向の寸法が次第に大きくなっており、背面側ほど高さ方向の寸法に余裕がある。これを利用して、処理基板224および保持部226のような厚みを有する部材を収容している。このようにすれば、観察領域SCよりも上部の筐体部分が長くなるのを抑制し、表示装置1の軽量化・小型化に寄与するとともに、意匠の面においても望ましい。
図25、図26および図27は、下蓋部106を取り外したときの表示装置1の内部構成を示す図である。台座部400および第2表示部330の下方には、第2プレート602が設けられている。第2プレート602と下蓋部106との間に第2収容空間S3が形成される。第2収容空間S3には、制御基板231と、配線232と、センサ基板233と、人感センサ234とが設けられる。正面側内部パネル108は、ネジ771,772,773,774を用いて第2プレート602に結合される。正面側内部パネル108は、ネジ775,776,777を用いて下蓋部106に結合される。正面側内部パネル108は、ネジ771~777を用いて固定されるが、表示装置1が使用される状況下では、正面側パネル102によって覆われているので、ネジ771~777が正面側に露出しない。
制御基板231は、表示装置1の電源の供給および信号の供給を制御する。制御基板231は、配線部800を介して処理基板224と電気的に接続され、各種信号の授受を行ったり、処理基板224に電力を供給したりする。制御基板231は、配線232を介してセンサ基板233および人感センサ234と電気的に接続される。配線232は、例えばプリント配線基板(例えばFPC)である。
センサ基板233は、第1センサ2331、第2センサ2332、およびマイクロホン2333が実装された基板である。センサ基板233は、正面側内部パネル108の背面側の面のうち、減光部材200(観察領域SC)よりも下方の領域に設けられている。センサ基板233は、その基板面が高さ方向および幅方向に延びるように鉛直方向に立てられている。センサ基板233のセンサは、所定の情報を検出するものであればよい。第1センサ2331は、正面側に光(例えば赤外光)を発し、その反射光を受光することにより観察者のジェスチャを検出する光学方式のセンサである。マイクロホン2333は、収音し、収音した音を示す音信号を出力する。第2センサ2332としてのガスセンサは、ガス臭い、焦げ付き臭い等のにおいを検出する。温度センサは、温度を検出する。照度センサは、照度を検出する。第1センサ2331が情報領域STの幅方向におけるほぼ中央に位置する。センサ基板233は、第1センサ2331、第2センサ2332、およびマイクロホン2333からの信号を、配線232を介して制御基板231に出力する。処理基板224は、配線部800および制御基板231を介して、音声認識可能な場合に発光部2334を発光させる制御を行う。
人感センサ234は、正面側内部パネル108に接触しないように、正面側内部パネル108よりも背面側に30cm程度など所定の間隔を空けて配置される。このようにすることが、人感センサ234の検出感度を確保する上で望ましい。人感センサ234は、奥行方向でいうと真ん中よりやや正面側に設けられる。人感センサ234は検出結果を示す信号を、制御基板231に出力する。
配線部800は、電源線810、信号線820、および信号線830を含む。筐体100の下側から上側に配線部800は引き回されている。配線部800は、背面側パネル104と仕切部材900との間を通る。制御基板231は、電源線810を介して処理基板224に電力を供給する。制御基板231は、信号線820を介して処理基板224との間で信号の授受を行う。処理基板224は、信号線830を介して、第2表示部330を駆動する信号(例えば、駆動用の信号や映像信号)を供給する。電源線810、信号線820および信号線830は、仕切部材900と背面側パネル104との間の空間領域を通過するように設けられる。仕切部材900の正面側には、背景板910が設けられる。背景板910は、例えば黒などの暗色系の色である。仕切部材900は、例えば樹脂材料を用いて板状に形成され、光を透過させない部材である。このようにすれば、映像表示空間S1側から配線部800は観察されない。
処理基板224は、コミュニケーション機能に基づいて、第1表示部310および第2表示部330の表示を制御したり、スピーカ2251,2252からの音声出力を制御したりする動作制御手段として機能する。処理基板224は、例えば、センサ基板233および人感センサ234により測定された情報に応じて、第1表示部310および第2表示部330の表示を制御したり、スピーカ2251,2252からの音声の出力を制御したりする。処理基板224は、例えば、人感センサ234に基づいて、人の存在を検出すると、表示するキャラクタに挨拶をするような動作をさせたり、そのキャラクタの音声を出力したりするとよい。処理基板224は、第1センサ2331で手の振りとして、左右、上下、バイバイ、前後に動かすといったジェスチャが検出されると、第1表示部310の表示を制御したり、スピーカ2251,2252からの音声の出力を制御したりする。例えば、処理基板224は、左右または上下の手の振りに応じて、その方向にキャラクタを回転させる。処理基板224は、バイバイのジェスチャが検出されると、キャラクタにバイバイの動作をさせる。処理基板224は、手を前後に動かすジェスチャを検出すると、キャラクタの表示をデフォルトに戻す(例えば図1A~図1C)。処理基板224は、照度センサにより測定された照度に応じて、第1表示部310および第2表示部330の少なくとも一方の表示を変化させる。処理基板224は、例えば、表示装置1の周辺が暗くなると表示を暗くするとよい。処理基板224は、照度センサに基づいて、キャラクタの目を動かすなどの制御をしてもよい。処理基板224は、温度センサで検出された温度に応じて第1表示部310の表示を制御したり、スピーカ2251,2252からの音声の出力を制御したりする、処理基板224は、表示装置1の周辺が暑いかまたは寒いかに応じてキャラクタの発話内容を変化させる。また、処理基板224は、発光部2334の発光を制御する。処理基板224は、操作部2211,2212,2213,2214の操作に応じて音量を変えたりする。なお、音声エンジンは処理基板224の機能で実現されてもよいし、外部の認識サーバにより実現されてもよい。後者の場合、処理基板は、Wi-Fi等の無線LANまたはネットワーク通信を行う通信モジュールを有し、それを介して音声認識サーバと通信するとよい。
処理基板224は、第1表示部310の光源の発光輝度を、第2表示部330の光源の発光輝度よりも明るくする。このようにすれば、第1表示部310の発光輝度と第2表示部330の発光輝度との差異により、観察者に与えることのできる空中映像の立体感をより高めることができる、という知見を発明者が得たからである。映像表示空間S1が明るいと立体感が損なわれる可能性があるので、第2表示部330の発光輝度を低くしている。
第1表示部310は水平方向に対してほぼ20度で傾斜させてある。これは、観察者が椅子に座ってみたときに覗き込むような姿勢になることがあったり、第2表示部330の表示と相まって表示上の不具合が生じたりするのを抑えるためである。このようにすれば、表示装置1に対して観察者がやや上方から見たときも全体が見える。よって観察者は覗き込むような姿勢が要らない。
このようにすれば、光学部材320に天井が反射して観察者に観察されてしまったり、第2表示面331の画像に重なって空中映像が綺麗に見えにくくなったりすることがない。その作用について説明する。図28に示すように、第1画像光L31,L32が減光部材200に入射したとする。この場合に、第1画像光L31,L32のそれぞれの反射波L31r,L32rが、減光部材200から出射し、さらに光学部材320で反射することにより、観察者によって虚像である映像V3が観察される。例えば、キャラクタの映像を第1表示部310が表示すると、キャラクタの下方側の部分、例えば足付近の映像が観察されてしまうことがある。また、図29に示すように、天井や照明等から光L4が減光部材200に入射してこれを透過し、さらに光学部材320で反射することにより、光学部材320の下端付近において天井の映り込みが発生する。このように、本来の空中映像V1以外の映像が観察されることにより、表示装置1の表示品位が行われる可能性がある。
そこで、減光部材200での反射光の光路上、および天井や照明等から光L4の光路上に遮光部材500を配置することで、映像V3の表示や天井等の映り込みが抑制される。図30に示すように、遮光部材500を設けることで、光学部材320での反射が抑制されるので、映像V3の表示や天井の映り込みが抑止される。遮光部材500は、観察領域SCよりも下方にあり、また、減光部材200も存在するから、観察者によって遮光部材500の存在は認識されにくい。例えば、観察者と観察領域SCとの水平距離を50cm、観察者の視線が入射する角度θを35度となることを想定して、映像V3や映り込みに係る光の光路上に遮光部材500が設けられる。図31に示すように、仮に第1表示部310の傾斜角を10度とすると、映像V3の位置がより背面側に表示されてしまい、映像V3が観察されやすくなる。これを抑制するには遮光部材500をもっと奥側まで伸ばす必要があり、望ましくない。よって、第1表示部310の傾斜角を20度とすることが望ましい。
このような趣旨によると、遮光部材500を用いなくとも、第1画像光L1のうちの減光部材200で反射した反射光の光路上の領域を避けて、光学部材320が配置されてもよい。このようにすれば、第1画像光L1が減光部材で反射して映像表示空間に形成される虚像が、観察者によって観察されてしまうのを抑制することができる。
また、ジェスチャセンサである第1センサ2331の付近で観察者はジェスチャを行う。この場合、観察領域SCよりも上に第1センサ2331があると、ジェスチャをしている手が邪魔になってしまい、観察領域SCを介した映像の観察が妨げられる可能性がある。本実施形態では、観察領域SCの下方に第1センサ2331等のセンサを設けたため、観察領域SCを観察しながらジェスチャするなどしても、観察が妨げられることが抑えられる。
映像表示空間S1を暗くしたのは、空中映像がより立体的に見えるようにするためである。例えば、特定のキャラクタが表示される場合には、周囲が暗いことによってキャラクタの浮遊感を得ることができるのである。また、正面側から見たときに観察領域SCの周りが筐体100(正面側パネル102)によって囲まれている。このようにすれば、映像表示空間に表示される空中映像と、その手前側に位置する筐体とが相まって、観察者に与えることのできる空中映像の立体感をより高めることができる。
映像表示空間S1に面する部位は、光の反射を低減する処理(例えば、マット仕上げ)がなされている。このようにすれば、外光その他の光が映像表示空間S1に進入しても、反射が抑制されるので、暗い状態を維持しやすい。内部空間が明かるくなるのを防止できる。このような処理は、背景板910、台座部400、第1表示部310及び第2表示部330のフレームの一部または全部になされているとよい。
また、ネジ等の固定具を用いた結合方法が採用されると、接着等の場合に比べて正面側パネル102および正面側内部パネル108を容易に取り外せるので、映像表示空間に進入した埃をエアーブローや柔らかい布を用いて除去することもできる。その一方で、正面側パネル102はネジ等の固定具で固定されていないので、これが観察者に観察されて、その観察者が興ざめするようなことが抑制される。
<5.処理基板224の詳細構成>
図33は、一実施例に係る表示装置1が有する処理基板224の制御ブロック図である。図33に示されるように、処理基板224は、演算処理等を実行する演算処理装置として機能するCPU701、および、ワークエリアとして使用されるRAM703と制御用のプログラム等を記憶したROM702とを含むメモリ等を有するコントローラである。なお、処理基板224は、例えば、制御部(動作制御手段の一例)などと読み替えられてもよい。処理基板224のROM702内には、各種プログラムが記憶されており、処理基板224は、これらのプログラムを実行することにより各種の機能を実現する。例えば、ROM702内には、ユーザとキャラクタとの対話を再現するための音声認識アプリケーションが記憶されており、処理基板224は、各種センサ234,2331~2332あるいはGPS受信機60等からの入力信号等に基づいて当該音声認識アプリケーションを実行することにより、ユーザとキャラクタとの対話を再現する。また、処理基板224は、表示装置1(詳細には、映像表示部)に表示される画像等を制御する表示制御回路704と、スピーカ2551,2552から出力される音声を制御する音声制御回路705とを有している。また、処理基板224は、他の機器(例えば、図示しない外部の音声認識サーバ(音声認識エンジン、とも称される)、および図示しない外部の対話サーバ(対話エンジンとも称される)等)との通信を制御する通信制御回路706を有している。
図33は、一実施例に係る表示装置1が有する処理基板224の制御ブロック図である。図33に示されるように、処理基板224は、演算処理等を実行する演算処理装置として機能するCPU701、および、ワークエリアとして使用されるRAM703と制御用のプログラム等を記憶したROM702とを含むメモリ等を有するコントローラである。なお、処理基板224は、例えば、制御部(動作制御手段の一例)などと読み替えられてもよい。処理基板224のROM702内には、各種プログラムが記憶されており、処理基板224は、これらのプログラムを実行することにより各種の機能を実現する。例えば、ROM702内には、ユーザとキャラクタとの対話を再現するための音声認識アプリケーションが記憶されており、処理基板224は、各種センサ234,2331~2332あるいはGPS受信機60等からの入力信号等に基づいて当該音声認識アプリケーションを実行することにより、ユーザとキャラクタとの対話を再現する。また、処理基板224は、表示装置1(詳細には、映像表示部)に表示される画像等を制御する表示制御回路704と、スピーカ2551,2552から出力される音声を制御する音声制御回路705とを有している。また、処理基板224は、他の機器(例えば、図示しない外部の音声認識サーバ(音声認識エンジン、とも称される)、および図示しない外部の対話サーバ(対話エンジンとも称される)等)との通信を制御する通信制御回路706を有している。
<6.キャラクタ1100に関するコミュニケーション機能について>
以下では、表示装置1(例えば、映像表示部)に表示されたキャラクタ1100とユーザとのコミュニケーションを再現するための種々の制御について、図34~図40を参照して順に説明する。
以下では、表示装置1(例えば、映像表示部)に表示されたキャラクタ1100とユーザとのコミュニケーションを再現するための種々の制御について、図34~図40を参照して順に説明する。
<においに関するコミュニケーション機能について>
例えば、においを検知するにおいセンサを第2センサ2332として表示装置1に設けておき、処理基板224は、においセンサによる検知結果に応じた音声をキャラクタ1100のキャラクタ音声として出力する音声出力動作を実行するとよい。においセンサは、例えば、あるにおいの強度に応じて変化する信号を出力したり、においに含まれる成分(におい成分)に応じて変化する信号を出力したりするものがある。においセンサは、例えば、においの種類に応じて変化する信号を出力する。においセンサは、例えば、脱臭フィルタ等を用いて特定のにおい成分(タール、アンモニア、アルコール、二酸化炭素等)の濃度を検知可能に構成されている。このようにすれば、処理基板224は、表示装置1の映像表示部に表示されたキャラクタとユーザとの間でにおいに関するコミュニケーションを再現することができ、当該キャラクタとユーザとの間でより多様なコミュニケーションを再現することができる。
例えば、においを検知するにおいセンサを第2センサ2332として表示装置1に設けておき、処理基板224は、においセンサによる検知結果に応じた音声をキャラクタ1100のキャラクタ音声として出力する音声出力動作を実行するとよい。においセンサは、例えば、あるにおいの強度に応じて変化する信号を出力したり、においに含まれる成分(におい成分)に応じて変化する信号を出力したりするものがある。においセンサは、例えば、においの種類に応じて変化する信号を出力する。においセンサは、例えば、脱臭フィルタ等を用いて特定のにおい成分(タール、アンモニア、アルコール、二酸化炭素等)の濃度を検知可能に構成されている。このようにすれば、処理基板224は、表示装置1の映像表示部に表示されたキャラクタとユーザとの間でにおいに関するコミュニケーションを再現することができ、当該キャラクタとユーザとの間でより多様なコミュニケーションを再現することができる。
処理基板224は、例えば、検知されたにおいの種類に応じた音声をキャラクタ1100のキャラクタ音声として出力する音声出力動作を実行するとよい。なお、複数種類のにおい成分を識別可能な単一のセンサが、においセンサとして構成されていてもよく、互いに異なる種類のにおい成分を識別可能な複数のセンサが、においセンサとして構成されていてもよい。
図34(A)は、においに関するコミュニケーションを再現するためのフローチャートであり、図34(B)は、においに関する音声管理テーブル(音声管理表、とも称される)を示す図である。音声管理テーブルは、例えば、表示装置1の処理基板224内、あるいは対話サーバ内に格納されている。図34(B)に示されるように、音声管理テーブルには、においセンサによって検知可能なにおい成分(におい物質、とも称される)の種類ごとに、そのにおい成分を主に含有するにおいの種類と、キャラクタ1100が発する音声(キャラクタ音声と称する)とが予め登録されている。例えば、音声管理テーブルにおいては、タールを主に含有するタバコ臭がタールと対応付けて登録されているとともに、タバコ臭が検知された際のキャラクタ音声として、「タバコの吸い過ぎはよくないよ~」などのユーザの健康に気遣う言葉が登録されている。
そして、まず、ステップS11において、処理基板224(制御部、とも読み替えられてもよい)は、においが検知されたか否かを判断する。例えば、処理基板224は、においセンサによって検知されたにおい成分の濃度が特定のにおいに関する所定の閾値(基準値)を上回ると、そのにおい成分が検知されたと判断する。ステップS12において、処理基板224は、音声管理テーブルにおいて、検知されたにおい成分に対応付けて登録されているにおいの種類を判断する。例えば、所定の閾値を上回る濃度のタールが検知された場合は、タバコ臭が検知されたと判断される。そして、処理基板224は、検知されたにおいの種類に応じたキャラクタ音声をスピーカ2551,2552から出力する。例えば、タバコ臭が検知されたと判断されると、処理基板224は、ユーザの健康に気遣う言葉の音声(ここでは、「タバコの吸い過ぎはよくないよ~」)をキャラクタ音声として出力する音声出力動作を実行する。なお、他の例としては、以下のようなものが挙げられる。例えば、アロマオイルなどの香料や食事などに含まれる特定の主成分の濃度が所定の基準値を上回ると、処理基板224は、香料や食事などのにおいが検知されたと判断し、においの元に関して質問する音声をキャラクタ音声として出力する。また、所定の基準値を上回るアルコールが検知されると、処理基板224は、アルコール臭が検知されたと判断し、「お酒くさ~い」や「また飲んできたの、いい加減にしなさいよ」などの音声をキャラクタ1100のキャラクタ音声として出力する。また、所定の基準値を上回る口臭成分(例えば、硫化水素、メチルメルカプタン、ジメルサルファイド等)が検知されると、処理基板224は、口臭が検知されたと判断し、「ちょっとお口臭うよ、歯磨きしてる?」や「歯槽膿漏気を付けてね」などの音声をキャラクタ1100のキャラクタ音声として出力する。また、ターシャリーブチルメルカプタン、ジメチルサルファイドあるいはテトラヒドロチオフェンなど、ガス燃料に含まれるにおい成分が検知されると、処理基板224は、ガス燃料のにおいが検知されたと判断し、「ガス臭いんだけど!」などの音声をキャラクタ1100のキャラクタ音声として出力する。
このように、処理基板224は、検知されたにおいの種類に応じた音声をキャラクタ1100のキャラクタ音声として出力する制御を実行するとよい。このような制御が行われることにより、映像表示部に表示されたキャラクタとユーザとの間でのコミュニケーションの幅を広げることができ、当該キャラクタへのユーザの愛着を増大させることができる。
表示装置1は、音声管理テーブルに基づいて出力する音声を特定するものに限らない。表示装置1は、例えば、過去の対話の内容(対話の履歴)に基づいてキャラクタの発話内容が変化するシナリオに従って、出力する音声を特定してもよい。このシナリオは、キャラクタの出力する音声を特定するデータがツリー構造で管理された分岐シナリオを規定するものでもよい。
ここでは、においセンサによる検知結果に応じた音声の音声出力動作が例示されているが、これに限定されず、処理基板224は、においセンサによる検知結果に応じた動きをキャラクタが行う映像を映像表示部に表示する表示出力動作を実行してもよい。例えば、音声管理テーブルと同様に、表示管理テーブル(不図示)を予め設けておき、処理基板224は、検知されたにおいの種類に応じた動きをキャラクタ1100が行う映像を映像表示部に表示する表示出力動作を実行するとよい。表示管理テーブルは、例えば、におい成分とにおいの種類とに対応付けてキャラクタ1100を規定するデータを登録したテーブルとするとよい。キャラクタ1100を規定するデータは、表示するキャラクタ1100の映像を示すデータでもよいし、キャラクタ1100の動きの内容を規定するデータでもよい。例えば、何らかのにおい成分が検知されると、処理基板224は、においを嗅ぐ動きをキャラクタ1100が行う映像を映像表示部に表示するとよい。また、処理基板224は、例えばタバコ臭が検知されたと判断すると、煙たがる動きをキャラクタ1100が行う映像を映像表示部に表示するとよい。なお、この際、処理基板224は、煙を模した映像が映像表示部に表示してもよい。さらに、処理基板224は、上記のような音声出力動作と表示出力動作との双方を実行してもよい。例えば、においセンサによって何らかのにおい成分が検知されると、処理基板224は、においを嗅ぐ動きをキャラクタ1100が行う映像を映像表示部に表示しつつ、「何かにおう」などの音声をキャラクタ1100のキャラクタ音声としてスピーカ2551,2552から出力するようにしてもよい。
さらには、処理基板224は、においセンサによって検知されたにおい成分の濃度(検出強度ともいう)に応じてキャラクタ1100の反応が変更するように制御するとよい。例えば、処理基板224が、におい成分の濃度に応じて、段階的に設けられた複数の動きの映像(例えば、「顔をしかめる(嫌そうな表情をする)」、「冷や汗を流す」、「青ざめる」および「気絶する」等)のいずれかを選択的に表示するとよい。
表示装置1は、タバコ臭とタバコ臭以外のにおい(臭さ)とを区別する方法として例えば、煙を検知する煙センサや、カメラ画像(例えば撮影部227の撮影した画像)、サーモカメラの画像など、別のセンサ等との組み合わせで、ユーザがタバコを吸っていることを検知可能してもよい。
処理基板224は、ユーザがタバコを吸っていることを検知した場合に、キャラクタ1100に重ねて(キャラクタ1100の前に)、煙を模した画像(煙がモクモクとしと現われている様子を再現した映像)を表示してもよい。この際、処理基板224は、キャラクタ1100の顔を前に突き出して顔をアップし、さも嫌そうな表情をさせた表情をさせてもよい。処理基板224は、ユーザとキャラクタ1100との親密さの度合いである親密度に応じて、キャラクタ1100が嫌がる程度を変化させた表示をしてもよい。処理基板224は、例えば、親密度が所定値以上である場合は、愛しているから許してあげるというようなキャラクタ1100の表情にし、所定値未満である場合はキャラクタ1100を不快な表情にする、という具合である。処理基板224は、例えば、ユーザによる表示装置1の使用実績(例えば、過去の使用時間や過去の対話内容)に応じて親密度を特定するとよい。親密度の特定についてのアルゴリズムはこれに限らない。
<ユーザの位置情報に基づくコミュニケーション機能について>
また、例えば、表示装置1がGPS(Global Positioning System)受信機60(図33参照)を有しており、ユーザの位置情報に基づいて以下のような制御が実行されるとよい。そして、例えば、処理基板224が、GPS受信機60からの信号に基づいて、ユーザが所持(携帯)している表示装置1の位置情報をユーザ自身の位置情報として取得し、取得した位置情報に基づいて以下のような制御を実行するとよい。
また、例えば、表示装置1がGPS(Global Positioning System)受信機60(図33参照)を有しており、ユーザの位置情報に基づいて以下のような制御が実行されるとよい。そして、例えば、処理基板224が、GPS受信機60からの信号に基づいて、ユーザが所持(携帯)している表示装置1の位置情報をユーザ自身の位置情報として取得し、取得した位置情報に基づいて以下のような制御を実行するとよい。
例えば、ユーザの位置情報に基づき特定された場所にユーザが滞在した滞在頻度(訪問頻度、とも称される)に応じた音声がキャラクタ音声として出力されるように制御されるとよい。図35は、滞在頻度に関するコミュニケーションを再現するためのフローチャートである。
例えば、ステップS21において、処理基板224は、GPS受信機60からユーザの位置情報が受信されたか否かを判断する。ユーザの位置情報が受信されると、ステップS22において、処理基板224は、ユーザの位置情報に基づき特定された場所にユーザが滞在した滞在回数(訪問回数、などとも称される)が所定値(例えば、「2」)以上であるか否かを判断する。なお、滞在頻度は、所定期間(例えば、1日あるいは1週間等)において一の場所にユーザが滞在した回数である。例えば、処理基板224は、GPS受信機60から取得された位置情報(例えば、ユーザの現在の位置情報)に基づいて、ネットワーク等を利用してユーザの滞在場所を検索して特定する。そして、処理基板224は、特定された場所にユーザが滞在した滞在回数に基づいてユーザの滞在頻度を算出し、ユーザの滞在頻度が所定値以上であるか否かを判断する。例えば、ユーザの滞在頻度が所定値以上である場合、ステップS23において、処理基板224は、ユーザの滞在頻度に関して予め登録された所定のキャラクタ音声がスピーカ2551,2552から出力されるように制御する。処理基板224は、例えば、ユーザが同一日に同一の場所に2回行った場合、ユーザの滞在頻度が所定値以上であると判断し、「あれ、さっきも行ったじゃん」などのキャラクタ音声を出力する。
また、処理基板224は、取得した位置情報に基づき特定された場所に応じた音声をキャラクタ1100のキャラクタ音声として出力するように制御するとよい。図36(A)は、滞在場所に関するコミュニケーションを再現するためのフローチャートであり、図36(B)は、滞在場所に関するキャラクタ音声の音声管理テーブルを示す図である。
例えば、ステップS31において、処理基板224は、GPS受信機60からユーザの位置情報が受信されたか否かを判断する。ユーザの位置情報が受信されると、ステップS32において、処理基板224は、ユーザの位置情報に基づいて、ネットワーク等を利用してユーザの滞在場所を検索して特定する。そして、ステップS33において、処理基板224は、図36(B)の音声管理テーブルに基づいて、特定された場所に応じたキャラクタ音声をスピーカ2551,2552から出力する。処理基板224は、例えば、ユーザがスーパーマーケットに行った際には「今日の夕食なにつくる?」などのキャラクタ音声、或いは、ユーザが病院に行った際には「大丈夫?体調わるいの?」などの音声を、キャラクタ1100のキャラクタ音声として出力する。また、処理基板224は、例えばユーザが遊園地に行った際には「いっぱい遊んだね」などのキャラクタ音声を出力する。
また、処理基板224は、取得した位置情報に基づき特定した場所にユーザが滞在した滞在回数(訪問回数、などとも称される)に応じた音声をキャラクタ1100のキャラクタ音声として出力するように制御するとよい。図37(A)は、滞在回数に関するコミュニケーションを再現するためのフローチャートであり、図37(B)は、滞在回数に関するキャラクタ音声の音声管理テーブルを示す図である。
図37(A)のステップS41,S42は、図36(A)のステップS31,S32と同様であるため、説明を省略する。ステップS43において、処理基板224は、ステップS42において特定された場所へのユーザの滞在回数を取得する。そして、ステップS44において、処理基板224は、図37(B)の音声管理テーブルに基づいて、ユーザの滞在回数に応じたキャラクタ音声をスピーカ2551,2552から出力する。処理基板224は、例えば、ユーザが或るゲームセンターに初めて行った際には、「ゲーム楽しかったね」などのキャラクタ音声を出力する。そして、処理基板224は、ユーザが当該或るゲームセンターに再び行った際には、「また行きたいと思ってたんだ」などのキャラクタ音声を出力する。さらに、処理基板224は、ユーザが当該或るゲームセンターに所定回数以上(例えば、10回以上)行った際には、「またゲームするの~」などのキャラクタ音声を出力する。
また、処理基板224は、取得された位置情報に基づき特定された場所でのユーザの滞在時間に応じた音声をキャラクタ1100のキャラクタ音声として出力するように制御するとよい。図38(A)は、滞在時間に関するコミュニケーションを再現するためのフローチャートであり、図38(B)は、滞在時間に関するキャラクタ音声の音声管理テーブルを示す図である。
図38(A)のステップS51,S52は、図36(A)のステップS31,S32と同様であるため、説明を省略する。ステップS53において、処理基板224は、ステップS52において特定された場所へのユーザの滞在時間を取得する。そして、ステップS54において、処理基板224は、図38(B)の音声管理テーブルに基づいて、ユーザの滞在時間に応じたキャラクタ音声をスピーカ2551,2552から出力する。例えば、コンビニエンスストアでのユーザの滞在時間が5分以内であるときには、処理基板224は、「早かったね。待ってたからうれしい」などのキャラクタ音声を出力する。また、コンビニエンスストアでのユーザの滞在時間が5分以上且つ10分未満(5~10分)であるときには、処理基板224は、「何買ってきたの?」などのキャラクタ音声を出力する。さらに、コンビニエンスストアでのユーザの滞在時間が10分を超えたときには、処理基板224は、「遅かったね。心配しちゃったよ」などのキャラクタ音声を出力する。
処理基板224は、GPS受信機60等を用いて取得されたユーザの位置情報に基づいて、以上のような制御を行うとよい。このようにすれば、ユーザは、自身の行動に応じた反応をキャラクタが示してくれたという感覚を得ることができ、当該キャラクタへのユーザの愛着が増大する。
なお、表示装置1が、例えばユーザの自宅等に据え置かれており、表示装置1(詳細には、通信制御回路706)が、ユーザのスマートフォン(GPS受信機を備えるスマートフォン)等と通信して、外出中のユーザの位置情報(ユーザが所持しているスマートフォンの位置情報)を取得するようにしてもよい。そして、ユーザが帰宅等した後にキャラクタ1100とコミュニケーションをとる際に、処理基板224は、上記のような動作を実行されるように制御するとよい。なお、この際のキャラクタ音声や動きの内容は適宜変更されるとよい。
<ユーザの行動パターンに関するコミュニケーション機能について>
また、ユーザの行動パターンが所定の行動パターンに合致すると判断されると、当該所定の行動パターンに応じた音声がキャラクタ1100のキャラクタ音声として出力されるように制御されるとよい。図39(A)は、行動パターンに関するコミュニケーションを再現するためのフローチャートであり、図39(B)は、行動パターンに関するキャラクタ音声の音声管理テーブルを示す図である。
また、ユーザの行動パターンが所定の行動パターンに合致すると判断されると、当該所定の行動パターンに応じた音声がキャラクタ1100のキャラクタ音声として出力されるように制御されるとよい。図39(A)は、行動パターンに関するコミュニケーションを再現するためのフローチャートであり、図39(B)は、行動パターンに関するキャラクタ音声の音声管理テーブルを示す図である。
例えば、処理基板224において、ユーザが出勤する曜日(例えば、月曜日~金曜日)と出勤時刻(例えば、8時30分)と出勤時に利用する特定の経路とが、「出勤時の行動パターン」としてユーザによって予め登録される。そして、例えば、GPS受信機60からユーザの位置情報が受信される(ステップS61)と、処理基板224は、ユーザの位置情報に基づいて、ユーザの行動パターンが所定の行動パターンに合致するか否かを判断する(ステップS62)。例えば、ユーザが火曜日の8時30分に特定の経路を通過した場合、処理基板224は、ユーザの行動パターンが「出勤時の行動パターン」に合致すると判断する。そして、ステップS63において、処理基板224は、図39(B)の音声管理テーブルに基づいて、「出勤時の行動パターン」に対応付けて登録された音声(例えば、「お仕事がんばってきてね」)をキャラクタ1100のキャラクタ音声としてスピーカ2551,2552から出力する。このようにして、ユーザの行動に応じた反応をキャラクタが示してくれることにより、当該キャラクタへのユーザの愛着を増大させることができる。なお、所定の行動パターン(例えば、出勤時の行動パターン)がユーザによって予め登録されていることは必須ではなく、例えば、処理基板224が学習機能を有しており、ユーザの行動パターンを学習することによって、所定の行動パターンが登録されるようにしてもよい。
<不審者の検知に関するコミュニケーション機能について>
また、検知対象空間において検知された人が不審者であると判断されると、所定の動作が実行されるとよい。そして、当該所定の動作が実行された後において、表示装置1のユーザが検知されると、不審者の検知に関する音声がキャラクタ1100のキャラクタ音声として出力されるとよい。図40は、不審者の検知に関する動作を実現するためのフローチャートである。
また、検知対象空間において検知された人が不審者であると判断されると、所定の動作が実行されるとよい。そして、当該所定の動作が実行された後において、表示装置1のユーザが検知されると、不審者の検知に関する音声がキャラクタ1100のキャラクタ音声として出力されるとよい。図40は、不審者の検知に関する動作を実現するためのフローチャートである。
例えば、表示装置1において、図32に示すように、表示装置1の正面側に、観察者(ユーザ等)を撮影する撮影部227(例えば、カメラ)が設けられ、当該撮影部227(詳細には、撮影部227が有するセンサ)が、検知対象空間における人の存在を検知する検知手段として用いられるとよい。「検知対象空間」としては、例えば、表示装置1が載置されている空間(例えば、ユーザの自宅)における撮影部227の画角範囲(撮影可能範囲)が挙げられる。撮影部227は、例えばレンズおよび撮像素子(例えばCCDまたはCMOS)を含み、多色の画像を撮影する。撮影部227のレンズは、観察者(特に顔)を撮影可能な位置に設けられる。図32に示す例では、撮影部227のレンズは、筐体100の正面側に配置される正面側パネル102のうち、観察領域SCの上方であって、表示装置1の幅方向における中心付近に設けられている。撮影部227は、例えば、R、G、Bの各色成分の画像信号を処理基板224に出力する。処理基板224は、この画像信号を処理して撮影画像を生成する。
処理基板224は、当該撮影部227を用いて検知対象空間を監視する(ステップS71)。そして、処理基板224は、検知対象空間において人の存在が検知されると、ステップS72において、例えば顔認証等のユーザ認証を行い、ステップS73において、検知された人物が表示装置1の登録ユーザであるか否かを判断する。処理基板224は、例えば、撮影部227によって撮影された人が表示装置1の登録ユーザであると判断すると、その人物は不審者でないと判断する。一方で、撮影部227によって撮影された人が未登録ユーザであると判断されると、ステップS74において、処理基板224は、その人物は不審者であると判断し、所定の動作を実行する。「所定の動作」としては、例えば、撮影部227による録画を開始する動作や、比較的大きな音量で警報を発する動作、予め登録された警備会社に通報する動作などが挙げられる。あるいは、「所定の動作」は、キャラクタ1100が不審者に声掛け(例えば、「誰!?合言葉を言って!」)を行う動作であってもよい。そして、不審者と判断された人から返事がない場合、あるいは合言葉が間違っている場合に、上記の録画開始動作等が実行されてもよい。なお、合言葉が間違っている場合に、処理基板224は、「違うよ!?もう一度言って」などの音声をキャラクタ1100のキャラクタ音声として出力し、再度合言葉が間違っていると判断したときに、上記の録画開始動作等が実行してもよい。これらのようにすれば、例えば不審者を検知対象空間から撤退させることができ、検知対象空間における防犯性を高めることができる。
そして、処理基板224は、所定の動作の実行後において、表示装置1のユーザが検知されると、不審者の検知に関する音声をキャラクタ1100のキャラクタ音声として出力するとよい。「不審者の検知に関する音声」としては、例えば「怖かったよー」などが挙げられる。このようにすれば、映像表示部に表示されたキャラクタへのユーザの愛着を増大させることができる。
また、表示装置1を用いて検知対象空間が監視されている場合、不審者の検知に限らず、次のような動作が行われてもよい。
例えば、企業の受付スペースに表示装置1が配置され、キャラクタ1100が所謂受付嬢として受付業務を行うような表示をするものであってもよい。具体的には、マイクロ波ドップラーセンサ(検知手段の一例)によって検知対象空間(例えば受付スペース)における人の接近が検知されると、処理基板224は、「いらっしゃいませ。どちらの部署に御用でしょうか?」などの音声をキャラクタ1100のキャラクタ音声として出力するとよい。そして、処理基板224は、検知された人(来客者)からの返答に基づいて、来客者の所望の部署に電話を掛けるように制御するとよい。
<表示装置1の起動時間に関するコミュニケーション機能について>
また、処理基板224は、キャラクタ1100のキャラクタ音声での言葉使いが所定の時点(例えば、初回の起動時点)からの表示装置1の起動時間(例えば、累積起動時間)に応じて、コミュニケーションの内容が変化するように制御するとよい。例えば、処理基板224は、次述するように、表示装置1の起動時間が長くなるほど、キャラクタ1100がユーザに対して親しい言葉使いで発話するように制御するとよい。
また、処理基板224は、キャラクタ1100のキャラクタ音声での言葉使いが所定の時点(例えば、初回の起動時点)からの表示装置1の起動時間(例えば、累積起動時間)に応じて、コミュニケーションの内容が変化するように制御するとよい。例えば、処理基板224は、次述するように、表示装置1の起動時間が長くなるほど、キャラクタ1100がユーザに対して親しい言葉使いで発話するように制御するとよい。
例えば、上述のような種々のキャラクタ音声について、敬語調、ユーザと友人関係であるような言葉調、およびユーザと恋人関係であるような言葉調の3パターンのキャラクタ音声が予め音声管理テーブルに登録されるとよい。そして、例えば、所定の時点からの表示装置1の起動時間が100時間未満のときには、処理基板224は、音声管理テーブルに登録されている3パターンのキャラクタ音声のうち、敬語調のキャラクタ音声を出力する。また、当該起動時間が100時間以上且つ1000時間未満のときには、処理基板224は、音声管理テーブルに登録されている3パターンのキャラクタ音声のうち、ユーザと友人関係であるような言葉調のキャラクタ音声を出力する。さらに、起動時間が1000時間を超えると、処理基板224は、音声管理テーブルに登録されている3パターンのキャラクタ音声のうち、ユーザと恋人関係であるような言葉調のキャラクタ音声を出力する。
このようにすると、ユーザは、ユーザ自身に対するキャラクタの言葉使いが変化したことによって、当該キャラクタとの関係性(例えば親密度)が変化したことを感じることができる。
なお、処理基板224は、前回の起動からの経過時間によっては、ユーザに対するキャラクタ1100の親密度を低下させるように制御してもよい。例えば、表示装置1の累積起動時間が100時間を超えている場合であっても、前回の起動から1週間が経過しているときには、処理基板224は、ユーザと対等な言葉調ではなく、敬語調のキャラクタ音声を出力するようにしてもよい。このようにすれば、ユーザが、映像表示部に表示されたキャラクタとの親密度を維持するために極力間隔を空けずに当該キャラクタと接するようになり、当該キャラクタへの愛着を更に増大させることができる。
また、処理基板224は、初回の起動時点では「初めまして」などの挨拶の音声をキャラクタ音声として出力し、初回の起動時点から所定期間(例えば、1カ月など区切りの良い期間)が経過した時点では、記念日を示す内容(例えば、「出会って1カ月だね」)の音声をキャラクタ音声として出力するとよい。このようにすれば、キャラクタ1100への愛着を更に増大させることができる。
<他の機器との連携によるコミュニケーション機能について>
また、例えば表示装置1がユーザの自宅等に据え置かれている場合、他の機器との連携によって次述のような動作が実行されてもよい。例えば、表示装置1と通信可能な機器(以下、他の機器と称する)が設置されている場所にユーザが訪問すると、当該他の機器が、次述のようにして、ユーザを識別するとともに、当該ユーザに適した情報(例えば、グルメ情報やイベント情報)を自動的に案内するようにしてもよい。例えば、表示装置と他の機器との連携システムを利用する利用ユーザの顔画像と当該利用ユーザが所有する表示装置(例えばIPアドレス等)とが対応付けられて予め外部サーバ等に登録される。当該他の機器の制御部は、例えば当該他の機器に設けられた撮影部が有するセンサによって人が検知されると、撮影画像において検知された人の顔画像と外部サーバに登録された利用ユーザの顔画像とを比較することによって表示装置1のユーザを識別する。そして、当該他の機器の制御部は、外部サーバにおいて当該ユーザに対応付けて登録されている表示装置1(例えば、表示装置1のIPアドレス等)を特定し、表示装置1のユーザが検知されたことを示す情報を当該表示装置1に送信する。表示装置1の処理基板224には、「ユーザに適した情報」(例えば、グルメ情報やイベント情報)が予め登録されており、処理基板224は、当該他の機器からの信号受信に応じて、登録されている「ユーザに適した情報」を当該他の機器に送信する。そして、当該他の機器の制御部は、表示装置1から受信された「ユーザに適した情報」を出力(例えば、音声出力)する。なお、「ユーザに適した情報」の案内に際して、当該他の機器は、その表示画面にキャラクタ1100を表示させるとよい。また、ユーザに案内した情報等が当該他の機器から表示装置1に送信され、表示装置1の処理基板224においてユーザ情報として蓄積されるとよい。そして、例えば表示装置1がユーザの自宅に設置されている場合、ユーザの帰宅が検知されると、処理基板224は、「**に行ってきたでしょ、どうだった?」などの音声をキャラクタ1100のキャラクタ音声として出力するとよい。このようにすれば、映像表示部に表示されたキャラクタへのユーザの愛着を増大させることができる。
また、例えば表示装置1がユーザの自宅等に据え置かれている場合、他の機器との連携によって次述のような動作が実行されてもよい。例えば、表示装置1と通信可能な機器(以下、他の機器と称する)が設置されている場所にユーザが訪問すると、当該他の機器が、次述のようにして、ユーザを識別するとともに、当該ユーザに適した情報(例えば、グルメ情報やイベント情報)を自動的に案内するようにしてもよい。例えば、表示装置と他の機器との連携システムを利用する利用ユーザの顔画像と当該利用ユーザが所有する表示装置(例えばIPアドレス等)とが対応付けられて予め外部サーバ等に登録される。当該他の機器の制御部は、例えば当該他の機器に設けられた撮影部が有するセンサによって人が検知されると、撮影画像において検知された人の顔画像と外部サーバに登録された利用ユーザの顔画像とを比較することによって表示装置1のユーザを識別する。そして、当該他の機器の制御部は、外部サーバにおいて当該ユーザに対応付けて登録されている表示装置1(例えば、表示装置1のIPアドレス等)を特定し、表示装置1のユーザが検知されたことを示す情報を当該表示装置1に送信する。表示装置1の処理基板224には、「ユーザに適した情報」(例えば、グルメ情報やイベント情報)が予め登録されており、処理基板224は、当該他の機器からの信号受信に応じて、登録されている「ユーザに適した情報」を当該他の機器に送信する。そして、当該他の機器の制御部は、表示装置1から受信された「ユーザに適した情報」を出力(例えば、音声出力)する。なお、「ユーザに適した情報」の案内に際して、当該他の機器は、その表示画面にキャラクタ1100を表示させるとよい。また、ユーザに案内した情報等が当該他の機器から表示装置1に送信され、表示装置1の処理基板224においてユーザ情報として蓄積されるとよい。そして、例えば表示装置1がユーザの自宅に設置されている場合、ユーザの帰宅が検知されると、処理基板224は、「**に行ってきたでしょ、どうだった?」などの音声をキャラクタ1100のキャラクタ音声として出力するとよい。このようにすれば、映像表示部に表示されたキャラクタへのユーザの愛着を増大させることができる。
<その他のコミュニケーション機能について>
さらに、種々のセンサによる検知結果に基づいて次のような制御が行われてもよい。
さらに、種々のセンサによる検知結果に基づいて次のような制御が行われてもよい。
例えば、風(例えば、風速)を検知可能な風検知手段(例えば、風センサ)が表示装置1の正面側パネル102に設けられ、当該風センサによる検知結果に基づいて次のような制御が行われてもよい。風は、例えばユーザが人為的に起こしたものとするとよく、例えば表示装置1に向けて手を振る等の身体の部位を動かすことによって発生する風や息(呼気)を吹きかけることによって発生する風とするとよい。例えば、所定値以上の風速の風が風センサによって検知されると、処理基板224は、映像表示部に表示されたキャラクタ(例えば、キャラクタ1100)の毛(例えば、髪の毛)や衣服(例えば、スカート)がなびく映像を表示出力するとよい。また、例えば、火のついたろうそくの映像が映像表示部に表示されている場合において、風センサによって風が検知されると、処理基板224は、ろうそくの火が消える映像に切り替えるとよい。さらには、検知された風が所定の閾値よりも強い(風速が所定の閾値よりも大きい)ときにはキャラクタ1100の衣服がより大きくなびくなど、処理基板224は、検知された風の強度(例えば、風速)に応じて映像を切り替えるとよい。
また、例えば、対象物の有無(存否)および対象物までの距離を検知可能な物体検出手段(例えば、超音波センサ)が表示装置1に設置され、当該超音波センサによる検知結果に基づいて次のような制御が行われてもよい。例えば、処理基板224は、超音波センサによる検知結果に基づいて、立体映像として認識されているキャラクタ1100に観察者の手が触れていると判断されると、当該キャラクタ1100が反応を示す映像を表示出力するとよい。また、処理基板224は、キャラクタ1100において観察者によって触れられた部位に応じて異なる反応を示するように表示制御するとよい。キャラクタ1100において観察者によって触れられる部位は、例えば、頭部、胸部、腹部、臀部または脚部等で例示される身体の部位とするとよい。また、キャラクタ1100において観察者によって触れられる部位は、キャラクタ1100の衣服(例えば洋服、スカート)や装飾物(例えば、アクセサリー)とするとよい。
また、例えば、地震を感知し震度を測定可能な地震検知手段(例えば、感震センサ)が表示装置1に設けられ、処理基板224は、当該感震センサによって地震が検知されると、地震警報を発するとよい。
また、例えば、天気を計測可能な天気センサが表示装置1に設けられ、処理基板224は、当該天気センサによる計測結果に基づいて、天気の変化や天気予報等を通知するとよい。なお、天気センサは、例えば、気圧センサと温度センサと湿度センサとを有し、各センサの検知結果に基づいて天気を計測可能に構成されているとよい。
また、処理基板224は、温度センサによって検知された温度または/および湿度センサによって検知された湿度に応じて、映像表示部に表示されたキャラクタの表情や動き(モーションともいう)が変化する映像を表示するとよい。
また、処理基板224は、マイクロ波ドップラセンサなどの人感センサによる検知結果(例えば、表示装置1と観察者との距離)に応じて、映像表示部に表示されたキャラクタの表情や動きが変化する映像を表示するとよい。
また、処理基板224は、湿度センサを利用して、ユーザによって息が吹きかけられたか否かを判断するとよい。さらには、処理基板224は、温度センサをも利用して、ユーザによって吹きかけられた息の種類を判断するとよい。なお、これらのセンサは、例えば、第2センサ2332として表示装置1に設けられるとよい。
ここで、ユーザによって吹きかけられる息には、例えば、「フー」と吹きかける息、および「ハー」と吹きかける息、の2種類の息がある。なお、一般に、冷たい息を吹きかけるときには、速く「フー」と息を吹くことから、ここでは、「フー」と吹きかける息を「冷たい息」と呼ぶ。また、一般に、暖かい息を吹きかけるときには、ゆっくり「ハー」と息を吹くことから、ここでは、「ハー」と吹きかける息を「暖かい息」と呼ぶ。
この2種類の息に関して、本願の発明者は、実験等により次のような知見を得た。詳細には、まず、湿度に関して、温湿度センサ(例えば、温度センサと湿度センサとが一体化されたセンサ)から所定程度離れた位置において当該温湿度センサに向けて「フー」と息を吹きかけると、その直後に湿度が定常状態から急激に上昇する、との測定結果が得られた。また、その後、息を吹きかけている間は湿度が単調増加し、息の吹きかけを停止すると、元の定常状態に戻るまでに数十秒の時間を要する、との測定結果が得られた。同条件で温湿度センサに向けて「ハー」と息を吹きかけたときも、同様の測定結果が得られた。一方で、温度に関しては、「フー」と息を吹きかけた場合は、温度が定常状態から若干低下するかほぼ横ばいとなり、「ハー」と息を吹きかけた場合は、温度が上昇する、との測定結果が得られた。なお、ユーザが表示装置1に吹きかける息は、表示装置1に当たる風の一例である。
このような知見等を考慮して、例えば、湿度センサが設けられた表示装置1において、湿度が定常状態から急激に上昇したことが湿度センサによって検知されると、処理基板224は、観察者によって息が吹きかけられたと判断(決定ともいう)するとよい。さらに、その後において湿度の単調増加が検知されなくなると、処理基板224は、息の吹きかけが停止されたと判断するとよい。あるいは、湿度の急激な上昇が検知されてから所定時間(例えば、通常息を吐くのに要する時間(例えば、3秒程度))が経過すると、処理基板224は、その時点での湿度の検知結果にかかわらず、息の吹きかけが停止されたと判断するとよい。
さらに、湿度の急激な上昇が湿度センサによって検知された際に、(例えば、ほぼ同じタイミングで)温度が定常状態から上昇したことが温度センサによって検知されると、処理基板224は、観察者によって吹きかけられた息の種類が「暖かい息」であると判断するとよい。逆に、湿度の急激な上昇が湿度センサによって検知された際に、温度が定常状態から変化していないこと、あるいは定常状態から下降したことが温度センサによって検知されると、処理基板224は、観察者によって吹きかけられた息の種類が「冷たい息」であると判断するとよい。
そして、処理基板224は、息の吹きかけが検知されたことに応じた映像や音声を、映像表示部に表示されたキャラクタの動きやキャラクタ音声として出力するとよい。また、処理基板224は、吹きかけられた息の種類に応じた映像や音声を、映像表示部に表示されたキャラクタの動きやキャラクタ音声として出力するとよい。例えば、処理基板224は、観察者によって吹きかけられた息の種類が「冷たい息」である場合は、当該キャラクタの衣服がなびく映像を表示出力し、観察者によって吹きかけられた息の種類が「暖かい息」である場合は、当該キャラクタが息を避けるような動きを行う映像を表示出力するとよい。
また、本願の発明者は、種々のガスセンサを用いて次のような知見も得た。詳細には、ガスセンサから所定程度(例えば約10cm)離れた位置において当該ガスセンサに向けて「フー」と息を吹きかけると、その直後にガスセンサの出力値が下降し、息を吹き終えると、その直後にガスセンサの出力値が上昇に転じる、との測定結果が得られた。逆に、当該ガスセンサに向けて「ハー」と息を吹きかけると、その直後にガスセンサの出力値が上昇し、息を吹き終えると、その直後にガスセンサの出力値が下降に転じる、との測定結果が得られた。また、例えば送風機(例えば、扇風機)から送られた風がガスセンサに当たると、ガスセンサの出力値が下がり、扇風機からの風がガスセンサに当たらなくなると、ガスセンサの出力値が上がる、との測定結果が得られた。
このような知見等を考慮して、例えば、ガスセンサが設けられた表示装置1において、ガスセンサの出力値が定常状態から急激に下降すると、観察者によって吹きかけられた息の種類が「冷たい息」であると判断されるとよい。逆に、ガスセンサの出力値が定常状態から急激に上昇すると、観察者によって吹きかけられた息の種類が「暖かい息」であると判断されるとよい。
風センサを用いて息を検出する構成とすることもできる。本願の発明者は、風センサによると紙で仰ぐ程度の比較的弱い風を捉えることができることがあり、風センサに息を吹きかけるとすぐにピークになり、風が吹き始めるときの応答性が良いことを確認した。ただし、息を吹きつづけると、ピークからすぐに落ちてしまう。フーっと吹く息のような強い風だとヒーターが冷やされ、回復するのに時間が掛かることが考えられる。
風センサを用いて息を検出する構成に関連し、以下のような構成をしてもよい。
処理基板224は、風センサにより持続的に所定の風量を検出している場合、息を吹きかけられている状態ではない方向の処理をするとよい。息を吹きかけられている状態ではない方向の処理は、例えば、息が吹きかけられていないと判断する処理である。この場合に、処理基板224は、風センサにより風の検出が始まってから終わるまでの時間が、息の吹きかけが可能な時間内であるとき、息を吹きかけられている状態である方向の処理を行うようにするとよい。
この場合において、前記風センサは、風を受けることで奪われた熱を電気的に計測することで風を検出するセンサであってもよい。このセンサにおいては、当該センサに受ける風が、息が吹きかけられた風量に相当する。このセンサは、センサに受ける風が、息が吹きかけられた時間に相当する時間持続した場合に、当該持続の時間中に実際の風量よりも少ない値に落ち込むよう設定されており、センサに受ける風が、息が吹きかけられた風量よりも小さい場合にはこの落ち込みが発生しにくいように設定されているとよい。
表示装置1においては、前記風センサとして複数の風センサに対して、息の流入経路を共通とした風を流入させる流路が設けられてもよい。前記流路は、異なる風センサに対して、1:1ではない所定の比率で風が入るように構成されているとよい。処理基板224は、当該比率及び複数の風センサの特性の違いに基づいて息を吹きかけの大きさ及び時間を判定するとよい。表示装置1は前記持続の時間中に実際の風量よりも少ない値に落ち込むタイミングの異なる複数の風センサを備え、処理基板224は当該複数の風センサの出力に基づいて、息を吹きかけの大きさ及び時間を判定するとよい。表示装置1は、前記複数の風センサとして、ガスセンサではない風センサと、カスセンサとを少なくとも備えてもよい。
また、前記風センサとして所定のガスを検出するためのガスセンサを用いるとよい。前記風センサとして所定のガスを検出するためのガスセンサであって、ヒーターを備えるガスセンサを用いるとよい。この場合に、前記ヒーターを備えるガスセンサは、息の吹きかけの程度が相対的に小さいときに(息に含まれるガスを検出した結果)ガスの検出量が大きくなる方向の出力をする一方、息の吹きかけの程度が相対的に大きいときに(息の風によるヒーターの冷却によって)ガスの検出量が小さくなる方向の出力をする特性を有するものを用いるとよい。
処理基板224が、息が吹きかけられていると判定したとき、その強さが相対的に大きいときには(例えば、風量が閾値以上であるときには)、キャラクタ1100の服・髪などを動かすアニメーションを表示する一方、その強さが相対的に小さいときにはキャラクタ1100の服・髪などを動かすアニメーションとは別のアニメーションを表示するとよい。
ところで、息の検出にガスセンサを用いる場合、ガスセンサは、人間の息に含まれる成分(例えば、二酸化炭素)に反応して上記出力値を出力する。そして、「フー」という息が吹きかけられた場合と、「ハー」という息が吹きかけられた場合とで、ガスセンサの出力値が異な理由としては、「フー」という息が吹きかけられた場合は、吹きかけられた息の速度が高く、ガスセンサに衝突した後すぐに周囲に拡散しやすい一方、「ハー」という息が吹きかけられた場合は、吹きかけられた息の速度が低く、ガスセンサに衝突した後もその場に息の成分がとどまりやすいということがあると考えられる。
さらに、処理基板224は、例えば湿度センサによる湿度の検知結果をも用いて、検知された風が、観察者による息の吹きかけによるものであるか、送風機によるものであるかを判別するとよい。例えば、表示装置1において、ガスセンサの出力値が定常状態から急激に下降し、且つ、湿度が定常状態から急激に上昇したことが湿度センサによって検知されると、処理基板224は、ユーザによって息が吹きかけられたと判断するとよい。一方、ガスセンサの出力値が定常状態から急激に下降したものの、湿度が定常状態のままであるときには、処理基板224は、送風機によって風が送られていると判断するとよい。さらに、処理基板224は、温度センサによる温度の検知結果をも用いて、ユーザによって息が吹きかけられたと判断された際において、その息の種類を判断するとよい。また、比較的短い一定期間内においてガスセンサの出力値の上昇と下降とが繰り返された場合、処理基板224は、首振りしている扇風機の風が当たっていると判断するとよい。
なお、風を検知するために用いられる、風センサ、湿度センサ、温度センサ、温湿度センサ、およびガスセンサは風検知手段の一例である。表示装置1は、風を検知するセンサとして、気圧センサを有してもよい。風の発生やその強さによって気圧の変化が発生し得るからである。
以上のような種々の制御が実行され得る。なお、上記のような制御は、キャラクタ1100に限らず、他のキャラクタ(例えば、キャラクタ1200)に関するコミュニケーション機能について行われてもよい。
<7.表示装置1が表示する映像の具体例>
次に、図41~図55を参照しつつ、表示装置1が表示する映像の具体例を説明する。図41~図55は、表示装置1に表示されるキャラクタ(図1Bおよび図1Cで説明したキャラクタ1200を含む映像)の一例を示す図である。図41~図55に示される各映像は、表示装置1において表示され、観察領域SCを介して観察者が観察することのできる画像である。なお、図41~図55にはステージ映像2200が表示されているが、これが表示されずにキャラクタ1200が表示されるようにしてもよい。
次に、図41~図55を参照しつつ、表示装置1が表示する映像の具体例を説明する。図41~図55は、表示装置1に表示されるキャラクタ(図1Bおよび図1Cで説明したキャラクタ1200を含む映像)の一例を示す図である。図41~図55に示される各映像は、表示装置1において表示され、観察領域SCを介して観察者が観察することのできる画像である。なお、図41~図55にはステージ映像2200が表示されているが、これが表示されずにキャラクタ1200が表示されるようにしてもよい。
図41~図47は、表示装置1がコミュニケーション機能に基づいて、観察者の動作を待機する期間に行う表示である。表示装置1(詳細には、処理基板224)は、以下で説明する表示を、規則的またはランダムに切り替えて行う。例えば、図41(a)に示すように、キャラクタ1200は、表示装置1の正面側(観察側)の方向を向いて立ってる姿勢で表示される。表示装置1は、この姿勢を基本姿勢とし、コミュニケーション機能に基づくコミュニケーションが行われていない期間の表示としてもよい。例えば、図41(b)に示すように、キャラクタ1200が自身の前足を舐めるような動作をする。例えば、図41(c)および図42(a)に示すように、キャラクタ1200は、自身の左右を交互に見るような動作をする。例えば、図42(b)に示すように、キャラクタ1200は、地面の方向を向く動作をする。例えば、図42(c)に示すように、キャラクタ1200は、座ったまま伸びをするような動作をする。例えば、図43(a)に示すように、キャラクタ1200は、地面をのぞき込むような動作をする。さらに例えば、図43(b)および図43(c)に示すように、キャラクタ1200は、正面側を歩くような動作をする。表示装置1は、キャラクタ1200に歩く動作をさせるときには、ステージ映像を表示させずに、キャラクタ1200がその場で足踏みしてキャラクタ1200の全体的な位置をほぼ動かさない映像を表示させてもよい。表示装置1は、キャラクタ1200が歩く動作以外の動作を行うときに、キャラクタ1200の足元にステージ映像を表示させてもよい。
例えば、図44(a)に示すように、キャラクタ1200は、自身の腹部をのぞき込むような動作をする。例えば、図44(b)に示すように、キャラクタ1200は、首を傾げる動作をする。例えば、図44(c)に示すように、キャラクタ1200は、自身の目をこする動作をする。例えば、図45(a)に示すように、キャラクタ1200は、あくびをする動作をする。例えば、図45(b)に示すように、キャラクタ1200は、座ったまま自身の前足を舐める動作をする。例えば、図45(c)に示すように、キャラクタ1200は、自身の左斜め前方を見るような動作をする。図46(a),(b)に示すように、キャラクタ1200は、伸びをする動作をする。例えば、図46(c)に示すように、キャラクタ1200は、地面をのぞき込むような動作をする。図47(a)に示すように、キャラクタ1200は、表示装置1の右斜め前方の方向を向き、その次に図47(b)に示すように正面を向く。図47(c)に示すように、キャラクタ1200は、自身の前足を舐める動作をする。
図48~図55は、表示装置1(詳細には、処理基板224)がコミュニケーション機能における対話処理時に行うキャラクタ1200の表示の一例である。図48~図55に示す文字列は、音声認識で認識可能な文字列で、キャラクタ1200の上方に表示される。これは、音声認識によって認識された語句(文章)が、音声認識後から所定時間にわたって表示され、当該所定時間の経過後に非表示化されるようにするとよい。そして、当該語句(音声認識結果)が非表示化されてからキャラクタ1200が話し出すように制御されるとよい。
図48(a)は、表示装置1が「おいでおいで~」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図48(b)~図49(b)は、表示装置1が「おすわり」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図49(c)は、表示装置1が「おなか減ったかなぁ」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図50(a)は、表示装置1が「おまわり」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図50(b),(c)は、表示装置1が「おやつの時間だよ」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図51(a)は、表示装置1が「お手」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図51(b)~図52(b)は、表示装置1が「可愛いね」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。表示装置1は、ステージ映像の中央以外の位置(例えば、前方側の位置)にキャラクタ1200を表示させる場合において、キャラクタ1200を回転させるときには、ステージ映像2200もキャラクタ1200と同様に回転させるとよい。また、表示装置1は、奥行方向に比較的距離のある形状のステージ映像2200を表示させ、そのようなステージ映像2200の内側において当該ステージ映像2200の外縁に沿ってキャラクタ1200を移動させる映像(例えば、円形のステージの外縁に沿って猫のキャラクタが歩く映像)を表示させるとよい。
図52(c)は、表示装置1が「こんにちは」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図53(a)は、表示装置1が「ご飯食べる」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図53(b),(c)は、表示装置1が「女の子かな」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図54(a)は、表示装置1が「待て」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図54(b)は、表示装置1が「いい子ねえ~」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。図54(c)、図55は、表示装置1が「ユノ」との観察者の発話を認識したときに表示されるもので、これに応答して音声が出力される。
<8.キャラクタ1200のより詳細な説明>
図1B、1Cおよび図41~図55で説明したキャラクタ1200についてより詳細に説明する。以下の説明において、表示装置1を処理主体とした説明については、処理基板224が行う処理としてよい。キャラクタ1200は、概ね約3等身で描画されると特によい。このようにすると奥行き感が特に強調されることを見出した。表示装置1は、側面側(横側)から見て上下方向に概ね、頭部が3分の1、胴体が3分の1、足が3分の1の高さを占めるように、キャラクタ1200を描画するとよい。表示装置1は、尾以外について、側面側から見て左右方向に概ね、頭部が3分の1、胴体が3分の2を占めるようにキャラクタ1200を描画するとよい。
図1B、1Cおよび図41~図55で説明したキャラクタ1200についてより詳細に説明する。以下の説明において、表示装置1を処理主体とした説明については、処理基板224が行う処理としてよい。キャラクタ1200は、概ね約3等身で描画されると特によい。このようにすると奥行き感が特に強調されることを見出した。表示装置1は、側面側(横側)から見て上下方向に概ね、頭部が3分の1、胴体が3分の1、足が3分の1の高さを占めるように、キャラクタ1200を描画するとよい。表示装置1は、尾以外について、側面側から見て左右方向に概ね、頭部が3分の1、胴体が3分の2を占めるようにキャラクタ1200を描画するとよい。
表示装置1は、正面に顔がある状態で、尾が見えない状態と尾が見える状態との間で相互に変位する描画をする機能を備え、尾が見える状態の時間を尾が見えない状態の時間より短くするとよい。尾は頭よりも奥側に描画されることになるが、ときどき尾が見えることで、立体感を大きく感じることができるとともに、常に立体感を大きく感じることで目や頭が疲労してしまうことを防止できる。特に、表示装置1は、音声認識の待受状態でこのような描画処理を行うとよい。表示装置1は、尾が見える状態へ変位するときには、頭の頂上部分から尾が現れるように描画する機能を備えるとよい。このようにすれば、通常は、顔の目に観察者の視線がありその中心上部からいきなり尾が頭の上方へ飛び出すことで、驚きと面白みを与えることができる。
表示装置1は、キャラクタ1200の頭の頂上に正面視で平らな部分を設けるとよく、特に左右の耳の間の頭部分は正面視で平らにして描画するとよい。このようにすれば、立体感が弱い平らな頭の頂上からいきなり立体感のある尾が頭上に現れることとなり、より驚きと面白みを与えることができる。また、表示装置1は、頭上から尾が現れるように描画した後、尾の先端寄りの部分を動かす描画を行うとよい。このようにすれば、視点を顔より奥側の尾の部分に集めることができ、より立体感を感じさせることができる。表示装置1は、同様に胴体の左右から尾を出現させるように描画してもよい。表示装置1は、左右から尾を出現させる場合には、頭上から尾を出現させる場合に比べて、尾の出現する長さ、および/または、時間を短くするとよい。表示装置1は、左右から出現させる場合にはチラチラっと出現させる描画を行うとよい。表示装置1は、視線をときどき奥側に動かす描画をするようにしてもよく、より立体感を感じさせることができる。表示装置1は、音声の認識中は尾を頭の上から出現させる一方、猫からの音声の出力の際には尾を左右いずれかの方向から出現させる描画を行うとよい。表示装置1は、尾には長さ方向に所定の間隔で他の部分と違う描画態様を有する部分を設けるとよい。例えば一定間隔で尾の円筒面上に環状または円弧状に所定の幅を持つ模様を付すとよい。このようにすれば、尾の動きが3次元空間で、よりダイナミックに動くように感じられることを発明者らは見出した。
表示装置1は、音声認識中は同一の姿勢になるように、音声認識中でない状態からの音声認識中の状態に変化があった場合に現在の姿勢を前記同一の姿勢に変化させる描画を行うとよい。表示装置1は、音声認識の開始前に「おしゃべりするにゃ」と発話させるとよい。表示装置1は、観察者の動作を検出する機能(例えばセンサやスイッチ)を備え、観察者からの動作を検出した場合に「なんにゃ?」と発話する機能を備えるとよい。両機能は「なんにゃ?」「おしゃべりするにゃ」という形で連続して実行し、その後音声認識状態に入るように処理を行うとよい。
表示装置1は、音声認識の語句として、「かわいいね」など、褒められる内容の語句の情報を備え、褒められる内容の語句を認識した場合には、体の姿勢を変化させるとよい。さらに歩くなど、猫自体の位置を移動させるとなおよい。このようにすれば観察者は猫の姿勢の変化や移動の動きを見たいために、褒める言動・行動をとるようになり、行動や言動の改善などのセラピーの優れた効果が得られる。
表示装置1は、ご飯をあげることに対応する音声認識の語句を備え、当該語句を認識した場合には、尾を他の場合に比べ早く振る描画を行うとよい。このようにすれば、より猫が実際に生きているかのような感覚を観察者に与えることができる。
表示装置1は、猫の目の外郭を概ね円形状とし、黒目部分は縦長の楕円形状として描画処理するとよい。表示装置1は、黒目部分は上下方向に濃淡のグラデーションをつけて描画するとよく、下方にいくにしたがって明るい色に描画するとよい。表示装置1は、黒目の中心部には概ね円形または楕円形の周辺よりも黒い部分を設けるとよい。表示装置1は、黒目部分の上方の顔の外側寄りの部分には黒目の外縁に沿った三日月形状ないし半月状の白色領域を設けて描画するとよい。これに対し、表示装置1は、黒目の下方の顔の中心寄り位置には円形の白色領域を設けて描画するとよい。表示装置1は、この白色領域の描画はキャラクタ1200の位置の変化(姿勢の変化など)、ないし、カメラやライトの位置の変化があった場合でも、描画させつづけるとよい。通常は、ライト等の反射としてハイライトは演算で入れられることが多い。しかし、このようにすることで、音声認識の話しかけの際に最も見られる目の部分の猫の個性を強調とすることができ、個性のある猫として、音声認識をしている短時間で印象づけることができる。
表示装置1は、顔が正面を向いている状態と、下側を向いている状態とをとり、顔が正面を向いているときは目の外郭は概ね円形状で描画する一方、顔が下を向いている状態では、目を横長の楕円形状で描画するとよい。
表示装置1は、顔の上端が胴体の上端より上にある状態と、顔の上端が胴体の上端より下にある状態とをとり、顔の上端が胴体の上端より上にある状態では目の外郭は概ね円形状で描画する一方、顔の上端が胴体の上端よりも下にある状態では、目を横長の楕円形状で描画するとよい。表示装置1は、口を開けてあくびをする状態を描画する機能を備え、この描画の際には目を閉じる描画を行うとよい。
表示装置1は、キャラクタ1200には待機時のモーションを複数のパターン用意しておき、これらのパターンのなかから1のパターンを選択して描画する処理を繰り返すとよい。待機時のモーションとしては、足をなめるモーション、顔を手で撫でるモーション、お尻をなめるモーション、正面を向くモーション、左右を見渡すモーション、地面をなめるモーション、伸びをするモーション、あくびをするモーション、歩くモーションなどがある。
表示装置1は、耳は顔の移動に遅れて移動するように描画するとよい。例えば、顔が移動開始してもしばらく耳は位置を保つように描画するとよい。表示装置1は、なめるモーションを行うときには、尾を左右に振るモーションを同時に行う機能を備えるとよい。表示装置1は、キャラクタ1200を正面からみた際に胴体の模様は左右非対称とするとよい。このようにすれば、個性ある猫として覚えられやすくなるとともに、右面が見えているのか左面が見えているのかが容易に判別できるようになる。特にキャラクタ1200の全体像がみえないほど拡大した場面を設けるときに有用である。特に、模様は三毛猫の模様とするとよく、特にトラ猫の模様とするとよい。このようにすると特に立体感を把握しやすくなることを発明者らは見出した。特に、頭上の模様は前後方向に設ける一方、胴体の模様は上下方向に設けるなど、その模様の方向を異なる方向とするとよい。このようにすれば、カメラや猫の位置が変化したことを、いずれの方向に移動してもより認識しやすくなる。
表示装置1は、「ニャ」という鳴き声を発する機能を備え、「ニャ」という鳴き声には複数のイントネーションのものを備え、それぞれの鳴き声に対して異なるモーションが対応づけられる構成とするとよい。イントネーションの中には、疑問形のイントネーションを備え、モーションとしては首を傾げるモーションを備えるとよい。
<9.キャラクタ1200に関するコミュニケーション機能について>
キャラクタ1200に関するコミュニケーション機能について補足する。以下のようにすれば、観察者に対し、キャラクタ1200とのより質の高いコミュニケーション機能を提供することができる。ここでは、飼い慣らすまでにする人の行動とキャラクタ1200との行動ストーリーの概略について説明する。この実施形態では、図32に示すように、表示装置1の正面側に、観察者を撮影する撮影部227が設けられている。
キャラクタ1200に関するコミュニケーション機能について補足する。以下のようにすれば、観察者に対し、キャラクタ1200とのより質の高いコミュニケーション機能を提供することができる。ここでは、飼い慣らすまでにする人の行動とキャラクタ1200との行動ストーリーの概略について説明する。この実施形態では、図32に示すように、表示装置1の正面側に、観察者を撮影する撮影部227が設けられている。
(9-1)第一ステップ:飼い慣らすまでの段階
通常、野良猫等の猫は、人を見るだけで逃げる、または人が近づくと逃げる色々なタイプの猫がいる。そのとき、猫の行動は、何度も振り返りながら人の様子を見ながら逃げるように見える。ここで、処理基板224は、撮影部227を用いて撮影した撮影画像に基づいて観察者の存在を認識し、かつ人感センサ234により測定されるマイクロ波の強度(受信強度)が閾値を超えた場合、キャラクタ1200が逃げるような動作を行う映像を表示させる。猫に人が近づいたとみなすためである。撮影部227で観察者を認識するのは、キャラクタ1200が逃げる場面を観察者に見せるためである。つまり、観察者が正面側から表示装置1に近づかないと、キャラクタ1200が逃げる動作をしないようにしている。
通常、野良猫等の猫は、人を見るだけで逃げる、または人が近づくと逃げる色々なタイプの猫がいる。そのとき、猫の行動は、何度も振り返りながら人の様子を見ながら逃げるように見える。ここで、処理基板224は、撮影部227を用いて撮影した撮影画像に基づいて観察者の存在を認識し、かつ人感センサ234により測定されるマイクロ波の強度(受信強度)が閾値を超えた場合、キャラクタ1200が逃げるような動作を行う映像を表示させる。猫に人が近づいたとみなすためである。撮影部227で観察者を認識するのは、キャラクタ1200が逃げる場面を観察者に見せるためである。つまり、観察者が正面側から表示装置1に近づかないと、キャラクタ1200が逃げる動作をしないようにしている。
次に、人は猫に対して「しゃがんで(目の位置を落として)」、「おいで、おいで」などの声を掛けると考えられる。そのときに立ち止まり、様子をうかがう猫もいる。しかし、人が近付くと猫は逃げる。何度かこのことが繰り返される。このような人の行動では、猫は慣れてくれないと考えられる。そこで、処理基板224は、キャラクタ1200が逃げている映像を表示している期間に、人感センサ234により測定されるマイクロ波の強度が或る閾値以下であり、かつ例えば「おいで」というキャラクタ1200に呼びかけることを示す言葉を音声認識した場合、キャラクタ1200が立ち止まるような動作を行う映像を表示させる。ここで、マイクロ波の強度を閾値以下になることを条件としているのは、人間が立ち止まる状態を想定しているからである。
次に、人は立ち止った猫に餌を与えることが考えられる。しかし、人が猫に近づくと、猫は逃げるので、猫がよく来る場所に餌を置いておくしかないと考えられる。そこで、表示装置1は、映像表示空間内に餌が置かれる映像を表示する機能を有する。例えば、処理基板224は、操作領域OTを用いた所定の操作(例えば、操作部2214の操作)を受け付けた場合、または第1センサ2231で餌を置くことを指示する所定のジェスチャが検出された場合に、餌がおかれたとして、映像の中に餌を示す映像を表示させる。この映像は、第1表示部310および第2表示部330のどちらを用いて表示されてもよい。このようにすれば、観察者は、例えば毎日、餌を置くようにする。処理基板224は、この際、キャラクタ1200が遠くからその様子を見ているような表示をさせるとよい。処理基板224は、人感センサ234を用いて観察者の存在を認識せず、かつ撮影部227で観察者が撮影されていない場合に、キャラクタ1200が餌を食べる映像を表示させる。ここでは、猫が人を前にして餌を食べない状況を再現している。観察者からすると、いつの間にか餌が空になっている、という状況をつくっている。処理基板224は、観察者が餌を与えた回数をカウントしておき、これを記憶しておく。しばらくはこの状態が続くが、処理基板224は、餌を与える回数によって、次第に観察者とキャラクタ1200と人との距離(観察者が感じる距離)を縮めていくような表示をさせるとよい。例えば、処理基板224は、餌を与え始めて、餌を与えた回数とともに、キャラクタ1200をより大きく表示するようにして、距離を縮めてきた(つまり、少し慣れてきた)ことを再現するとよい。さらに、餌を与えた回数が増加して所定の閾値に達すると、猫が慣れててきたとして、観察者がキャラクタを見ていても、つまり、処理基板224は、人感センサ234を用いて観察者の存在を認識し、かつ撮影部227で観察者が撮影されている場合でも、キャラクタ1200が餌を食べる映像を表示させる。このときに初めて、観察者は、キャラクタ1200が餌を食べる様子を観察することができる。
ただし、猫がいつ餌を食べるかは人が分からないことも少なくない。そこで、処理基板224は、キャラクタ1200が餌を食べる時間帯(これに代えて、一時点の時刻としてもよい。)を決めておき、その時間帯にキャラクタ1200に餌を食べる動作をさせてもよい。観察者に、どうもこの時間帯に餌を食べるみたいだということを気づかせるためである。処理基板224は、観察者がキャラクタ1200に触ろうとすることが検出されると、キャラクタ1200に所定の発話内容「シャー」または「シャーシャー」という音声を出力させるとともに、キャラクタ1200が逃げる動作をさせる。観察者がキャラクタ1200に触ろうとすることは、キャラクタ1200が餌を食べている動作をしているときに、人感センサ234により検出されるマイクロ波の強度が閾値を超えたこと、または第1センサ2331が所定のジェスチャを検出したことにより特定されるとよい。
このような状況がしばらく続くが、処理基板224は、少しずつ、観察者の手をキャラクタ1200に近接させることのできる距離を縮めていくとよい。所定の距離まで近づくようになると、処理基板224は、キャラクタ1200が観察者に慣れてきたとして、人前で毛繕いやくつろいだ動作を行う映像を表示させるとよい。処理基板224は、具体的には、マイクロ波の強度に対する閾値を上げていく、またはジェスチャが行われるときの表示装置1からの距離に対する閾値を上げていく。このようにして、処理基板224は、検出感度を下げていき、観察者の動きに対しキャラクタ1200の反応を鈍くしていき、「シャー」または「シャーシャー」といった発話もさせないようにする。
猫は、常に警戒はするが、毛繕いや寝そべり、爪研ぎ、顔拭きなどの行動を加えていく。猫がだんだんと人や人の手に慣れてくると、人は手で猫に触れられるようになる。そこで、処理基板224は、人感センサ234によるマイクロ波の検出結果を、キャラクタ1200の動作に反映させなくするとよい。処理基板224は、第1センサ2331をモーションセンサとして機能させて、観察者の上下左右、前後方向のジェスチャの検出結果に従って、キャラクタ1200が撫でると気持ち良さそうにする映像を表示させるとよい。処理基板224は、さらに、マイクロホン2333により観察者の声を認識して、キャラクタ1200がこれに反応する映像を表示させるとよい。例えば、処理基板224は、どのような言葉を認識した場合でも、発話内容として「にゃ」という鳴き声を発するようにするとよい。
処理基板224は、さらに、時間が経過すると、キャラクタ1200が餌をねだるような映像を表示させるとよい。処理基板224は、撮影部227により観察者の存在を認識し、かつ人感センサ234により観察者の存在を検出しているときに、時間帯(例えば、朝、昼、晩)を決めて、「ニャーニャー」という鳴き声を発するようにし、顔をすりすりする動作を行う映像を表示させるとよい。さらに、処理基板224は、観察者がキャラクタ1200に声を掛けていくと、キャラクタ1200が自分の名前を覚えていく様子を再現するとよい。例えば、処理基板224は「ユノ」という言葉にのみ反応して、「にゃ」という鳴き声を発するようにしてもよいし、「ユノ」、「餌だよ」という声掛けに反応して、甘えた行動をとるようにしたり、嬉しそうにすりすりしたりする映像を表示させるとよい。
(9-2)第二ステップ:言語(日本語)を覚えていく段階
処理基板224は、あるときに「ユノ」という観察者の声掛けを認識した場合に、「何?」という応答を示す音声を出力する。ここからは、キャラクタ1200が言葉を覚えていくという段階となる。処理基板224は、声掛された回数をカウントして、累計平均/日をとり、餌の与えた回数の累計平均/日×声掛された回数の累計平均×ランダム係数により算出される値(以下。「累積平均値」という)に応じた応答をする。この声掛けは、例えば、「おはよう」、「こんにちは」、「こんばんは」、「元気?」、「餌欲しい?」などの所定の声かけである。処理基板224は、累計平均値に応じて、応答をしなくなったり(つまり、キャラクタ1200が言葉を忘れたことを再現したり)、応答する言葉を増加させたりする。例えば、処理基板224は、累積平均値が小さいほど、応答する言葉を減少させ、累積平均値が大きいほど、応答する言葉を増加させるとよい。累積平均値は、表示装置1の使用開始時点から現在時点までに声掛けされた回数に基づいて算出されるが、現在時点から過去に所定期間遡った時点から現在時点までに声掛けされた回数に基づいて算出されてもよい。所定期間は、1か月など固定的に決められていてもよいし、表示装置1が一定期間使用されなかった場合は、その期間後使用が開始された時点以降の期間としてもよい。表示装置1の使用が開始された最初の頃は、累積平均値は大きく変化し得るので、例えば観察者が1日に1回も声を掛けない場合は、キャラクタ1200は応答しなくなることもあるが、声掛けの回数が増えるにしたがって、累積平均値は大きく変化しなくなる。このようにすれば、キャラクタ1200が言葉を忘れるのに時間が掛かる様子を再現することができる。累積平均値の算出に用いられるランダム係数は、猫の気まぐれさを再現するための値で、気まぐれ係数といってもよい。ランダム係数は、キャラクタ21200が餌をおねだりしたときに餌を与える/与えない、キャラクタ1200が寝ているときに声を掛けたり、触ったりして起こす行動をとったりするなど、キャラクタ1200および観察者の行動によって変化させるとよい。
処理基板224は、あるときに「ユノ」という観察者の声掛けを認識した場合に、「何?」という応答を示す音声を出力する。ここからは、キャラクタ1200が言葉を覚えていくという段階となる。処理基板224は、声掛された回数をカウントして、累計平均/日をとり、餌の与えた回数の累計平均/日×声掛された回数の累計平均×ランダム係数により算出される値(以下。「累積平均値」という)に応じた応答をする。この声掛けは、例えば、「おはよう」、「こんにちは」、「こんばんは」、「元気?」、「餌欲しい?」などの所定の声かけである。処理基板224は、累計平均値に応じて、応答をしなくなったり(つまり、キャラクタ1200が言葉を忘れたことを再現したり)、応答する言葉を増加させたりする。例えば、処理基板224は、累積平均値が小さいほど、応答する言葉を減少させ、累積平均値が大きいほど、応答する言葉を増加させるとよい。累積平均値は、表示装置1の使用開始時点から現在時点までに声掛けされた回数に基づいて算出されるが、現在時点から過去に所定期間遡った時点から現在時点までに声掛けされた回数に基づいて算出されてもよい。所定期間は、1か月など固定的に決められていてもよいし、表示装置1が一定期間使用されなかった場合は、その期間後使用が開始された時点以降の期間としてもよい。表示装置1の使用が開始された最初の頃は、累積平均値は大きく変化し得るので、例えば観察者が1日に1回も声を掛けない場合は、キャラクタ1200は応答しなくなることもあるが、声掛けの回数が増えるにしたがって、累積平均値は大きく変化しなくなる。このようにすれば、キャラクタ1200が言葉を忘れるのに時間が掛かる様子を再現することができる。累積平均値の算出に用いられるランダム係数は、猫の気まぐれさを再現するための値で、気まぐれ係数といってもよい。ランダム係数は、キャラクタ21200が餌をおねだりしたときに餌を与える/与えない、キャラクタ1200が寝ているときに声を掛けたり、触ったりして起こす行動をとったりするなど、キャラクタ1200および観察者の行動によって変化させるとよい。
処理基板224は、さらに累計平均値が或る閾値を超えると、キャラクタ1200から観察者に話し掛けたり、天気、ニュース等の所定の情報に関する質問に対して応答したりするようにするとよい。もちろん、観察者が餌を与える回数を減らすと、累積平均値は減少するので、処理基板224はこの応答の種類を減らしたり、応答しなくなったりする。つまり、観察者の餌の与え方がずさんであったり、適当に声掛けをしていないと、キャラクタ1200が応答する機能が維持さなかったり、維持していたとしても「気まぐれ」によって応答しない場合もある以上のようにして、観察者に対し、キャラクタ1200とのより質の高いコミュニケーション機能を提供することができる。
[他の実施形態]
本開示は上記の実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
本開示は上記の実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
表示装置1は、観察領域SCにタッチセンサ、近接センサその他の観察者の操作を受け付ける操作受付手段を有してもよい。このようにすれば、観察者は観察領域SCを利用して操作を行うことができる。例えば、コミュニケーション機能においてこのような操作方法が採用されると、観察領域SCを介して観察できるキャラクタとのコミュニケーションの質を高める効果が期待できる。
第1表示部310は、三次元の映像(立体映像)として認識される画像を表示してもよい。このようにすれば、観察者に与えられる立体感をより向上させる効果が期待できる。表示方式としては、レンチキュラーレンズ方式、パララックスバリア方式などの裸眼立体視方式とするほか、眼鏡を用いて三次元の映像として認識できる表示方式などでもよい。
表示装置は直方体状に限らず、立方体、円筒形、その他の多面体、球状その他の形状でもよい。また、上述した表示装置1の各構成要素の形状、構造、寸法、色、模様等は一例に過ぎない。また、上述した表示装置1が備える構成要素の一部が省かれてもよいし、別の構成要素が追加されてもよい。例えば、第2表示部330が省かれてもよいし、背景板910に代えて第1方向側に第2画像光L2を発する第2表示部330が立てた状態で配置されてもよい。また、図13で説明したもの以外の光学系を用いて空中結像が実現されてもよい。また、本発明の構成が、空中結像方式ではなく、ディスプレイ方式またはプロジェクタ方式の表示装置に適用されてもよい。ディスプレイ方式の場合、映像表示部として液晶ディスプレイ、有機ELディスプレイその他の表示方式のディスプレイが用いられる。例えば、映像表示部として、映像表示空間の内部に設けられ、観察領域SCの方向を向く表示面(例えば、観察領域SCと平行な表示面)を有する表示部が用いられるよい。この表示部は、第1表示部310または第2表示部330と同じ構成を有し、映像表示空間の背面部に設けられるとよい。プロジェクタの方式の場合、投射面およびこれに画像を投射する投射手段が用いられればよい。また、減光部材200は、開口部110よりも正面側にまたは背面側に配置されて、外部から映像表示空間に進入する光を減じてもよい。また、映像表示空間S1が比較的暗い状態に維持されるのであれば、減光部材200が設けられない構成とすることも考えられる。
また、上記の実施例では、操作部2214の押下操作に応じて、映像表示部に表示されたキャラクタとの対話を行うための音声認識が有効化されているが、これに限定されない。例えば、全周マイクロ波ドップラセンサなどの人感センサ(検知手段の一例)の検知対象領域において人の存在が検知されると、処理基板224は、当該音声認識を有効化するようにしてもよい。このようにすれば、ユーザが、映像表示部に表示されたキャラクタと対話するにあたって、例えば音声認識を有効化するための操作を行う必要やトリガーワードを発声する必要がなく、より自然にコミュニケーションを再現することができる。
この際、例えば、表示装置1内の音声認識アプリケーションでの音声認識と音声認識サーバでの音声認識との双方が有効化されるとよい。ただし、次述するように、表示装置1内の音声認識アプリケーションでの音声認識の有効化と音声認識サーバでの音声認識の有効化とが、段階的に実行されてもよい。例えば、当該人感センサ等の検知対象領域において人の存在が検知されると、表示装置1内の音声認識アプリケーションでの音声認識が有効化され、その後、観察者による声掛けや挨拶が当該音声認識アプリケーションによって検出されると、音声認識サーバでの音声認識が有効化されるようにしてもよい。
また、表示装置1がカメラ等の撮影部(検知手段の一例)を備えている場合、表示装置1の正面側に検知対象空間が設けられ、処理基板224は、表示装置1の正面側において人の存在が検知されると、音声認識を有効化するようにしてもよい。このようにすれば、映像表示部に表示されたキャラクタに対して観察者が話しかけようとしていることをより確実に判断した上で、音声認識を有効化することができる。
さらには、検知対象領域において人が検知された後において、ユーザ認証が成功したことを条件に、処理基板224は、当該音声認識を有効化するように構成されているとよい。なお、ユーザ認証の認証手法は、例えば、ユーザの手操作を要しない認証手法(顔認証、声帯認証等)とするとよい。このようにすれば、例えば表示装置1に登録された登録ユーザ以外の人に対してユーザ認証が行われて当該ユーザ認証が失敗したときには、音声認識が有効化されず、映像表示部に表示されたキャラクタと対話することができない。逆に言えば、登録ユーザ以外の人に対しては、映像表示部に表示されたキャラクタが反応を示さない。これにより、当該キャラクタへのユーザの愛着を増大させることができる。
また、表示装置1あるいは外部サーバに搭載された対話サーバに予め登録された文言以外の文言の音声が検出された場合は、音声認識が有効化されないようにしてもよい。
また、音声認識を有効化するための手段として、においセンサが用いられてもよい。例えば、表示装置1の登録ユーザのにおいを予め表示装置1に登録しておき、登録ユーザのにおいがにおいセンサによって検知されると、音声認識が有効化されるようにしてもよい。
また、これらのようにして音声認識が有効化されたとしても、例えば、映像表示部に表示されたキャラクタ(例えば、キャラクタ1100)の音声が直ちに出力されるのではなく、ユーザからの声掛けが無ければ当該キャラクタの音声が出力されないようにするとよい。例えば、処理基板224は、音声認識が有効化されたことに応答して「おかえり」とのキャラクタ音声が直ちに出力されるのではなく、音声認識が有効化された状態で「ただいま」とのユーザ音声が検出されたことを条件に、「おかえり」とのキャラクタ音声が出力されるとよい。さらには、例えば、対話システムにおいて、観察者とキャラクタ(例えばキャラクタ1100)との間で次のような対話を再現するための分岐シナリオが作成されているとよい。例えば、平日であれば、
ユーザ:ただいま
キャラクタ:お帰り~
ユーザ:アッチー
キャラクタ:暑い中お疲れでした
のような対話が再現され、休日であれば、
ユーザ:ただいま
キャラクタ:あーお帰り
ユーザ:アッチー
キャラクタ:暑い中わざわざ出かけたんだから文句言わない
ユーザ:仕事だよ仕事
キャラクタ:ホントだったらごめん、お疲れ様でした
のような対話が再現されるように分岐シナリオが作成されているとよい。
ユーザ:ただいま
キャラクタ:お帰り~
ユーザ:アッチー
キャラクタ:暑い中お疲れでした
のような対話が再現され、休日であれば、
ユーザ:ただいま
キャラクタ:あーお帰り
ユーザ:アッチー
キャラクタ:暑い中わざわざ出かけたんだから文句言わない
ユーザ:仕事だよ仕事
キャラクタ:ホントだったらごめん、お疲れ様でした
のような対話が再現されるように分岐シナリオが作成されているとよい。
また、においセンサによる検知結果に応じた分岐シナリオが作成されていてもよい。例えば、
ユーザ:ごはん美味しくできたよー
キャラクタ:「えー、嗅がせて。クンクン。いいにおい!」あるいは「んんー!?塩分多くない?身体に気を付けてね!」
のような対話が再現されるようにしてもよい。
ユーザ:ごはん美味しくできたよー
キャラクタ:「えー、嗅がせて。クンクン。いいにおい!」あるいは「んんー!?塩分多くない?身体に気を付けてね!」
のような対話が再現されるようにしてもよい。
また、他の例として、においセンサによってにおいが検知されると、
キャラクタ:クンクン、ん?このにおいはなんだ?
ユーザ:アロマ焚いたんだ
キャラクタ:ああ、どうりでリラックスすると思った
のような対話が再現されるようにしてもよい。なお、においの種類の質問に対する観察者の返答内容が分岐シナリオに登録されていない場合、例えば「ほぉー、そうなんだー!」などの音声がキャラクタ音声として一律に出力されるとよい。
キャラクタ:クンクン、ん?このにおいはなんだ?
ユーザ:アロマ焚いたんだ
キャラクタ:ああ、どうりでリラックスすると思った
のような対話が再現されるようにしてもよい。なお、においの種類の質問に対する観察者の返答内容が分岐シナリオに登録されていない場合、例えば「ほぉー、そうなんだー!」などの音声がキャラクタ音声として一律に出力されるとよい。
また、処理基板224は、例えば直近の所定時間(例えば、15秒程度)の音声を常時録音しておき、音声認識を有効化するためのトリガーワードの音声が検出されると、当該音声認識を有効化するようにしてもよい。例えば、表示装置1の音声認識アプリケーションは常時(あるいは、、操作部41の押下操作等に応じて)有効化され、音声認識サーバによる音声認識は、トリガーワードの検出によって有効化されるとよい。この際、処理基板224は、マイクロホン2333(音声検出手段の一例)によって検出された検出音声(例えば、検出開始時点から検出終了時点までの間に検出された音声)から当該トリガーワードの音声を除いた音声の音声データを、音声認識サーバに送信するとよい。例えば、「明日東京に行くんだけどレイたん天気教えて」とのユーザ音声が検出されたことを想定する。なお、ここでは、キャラクタ1100の愛称である「レイたん」がトリガーワードである。この場合、処理基板224は、検出音声「明日東京に行くんだけどレイたん天気教えて」からトリガーワードの音声「レイたん」を除いた音声「明日東京に行くんだけどレイたん天気教えて」を音声認識サーバに送信する。
ここで、例えば上記のような検出音声「明日東京に行くんだけどレイたん天気教えて」がそのまま音声認識サーバに送信されると、音声認識結果の中に「レイたん」が含まれていることに起因して、対話サーバにおいて音声認識結果に対応するキャラクタ音声が正確に抽出されず、ユーザとの対話が噛み合わなくなる虞がある。これに対して、上記のようにすれば、一文の途中でトリガーワードが発声された場合であっても、トリガーワードを除く音声の音声データが音声認識サーバに送信される。したがって、一文の途中にトリガーワードが含まれた状態で音声認識が行われたことに起因してユーザとの対話が噛み合わなくなること、を抑制できる。
また、ユーザと映像表示部に表示されたキャラクタとの対話を音声認識サーバと対話サーバとの連携によって実現するにあたって、音声認識サーバの構成に応じて、次述のような動作が実行されてもよい。
例えば、音声認識サーバが、音声データファイルの受信が完了してから音声認識処理を開始するように構成されている場合、処理基板224は、マイクロホン2333による検出音声のうち、トリガーワードの音声の前後の音声の各音声データファイルを個別に音声認識サーバへと送信するとよい。例えば、検出開始時点から検出終了時点までの間の検出音声のうち、トリガーワードの音声よりも前に検出されたユーザ音声(前半部分のユーザ音声ともいう)の音声データファイルが、トリガーワードの音声よりも後に検出されたユーザ音声(後半部分のユーザ音声ともいう)の音声データファイルに先行して音声認識サーバに送信されるとよい。
このようにすれば、音声認識サーバにおいて、前半部分のユーザ音声に対する音声認識処理が、後半部分のユーザ音声の音声データファイルの受信完了を待たずに開始される。そのため、前半部分のユーザ音声と後半部分のユーザ音声とをまとめた音声の音声データファイルを音声認識サーバに送信する場合と比較して、音声認識処理を効率的に行うことができる。その結果、表示装置1は、対話サーバからのキャラクタ音声がより早期に受信することができ、ユーザの音声に対して応答されるまでのユーザの待機時間を短縮できる。
また、例えば、音声認識サーバが、表示装置1からの音声データをストリーム再生して音声認識処理をリアルタイムで実行するように構成されている場合、前半部分の音声データをリアルタイムで音声認識サーバに送信される際に、前半部分のユーザ音声の再生速度T1が標準再生速度T0より速く(T1>T0)なるように制御されるとよい。例えば、処理基板224は、音声認識サーバにおいて当該前半部分のユーザ音声が標準再生速度T0に対して25%速く再生されるように設定変更して当該前半部分の音声データを送信する。このようにすれば、音声認識サーバにおいて、前半部分のユーザ音声が標準再生速度T0で再生される場合と比較して、前半部分のユーザ音声に対する音声認識処理をより早期に終了させることができ、後半部分のユーザ音声に対する音声認識処理をより早期に開始することができる。その結果、表示装置1は、対話サーバからのキャラクタ音声をより早期に受信することができ、ユーザの音声に対して応答されるまでのユーザの待機時間を短縮できる。
さらに、後半部分のユーザ音声の音声データがリアルタイムで音声認識サーバに送信される際に、後半部分の音声の再生速度T2が標準再生速度T0よりも速く且つ前半部分のユーザ音声の再生速度T1よりも遅くなる(つまり、T0<T2<T1の関係を満たす)ように制御されるとよい。例えば、処理基板224は、音声認識サーバにおいて後半部分のユーザ音声が標準再生速度T0に対して10%速く再生されるように設定変更して当該後半部分の音声データを送信する。このようにすれば、前半部分のユーザ音声と後半部分のユーザ音声との双方が標準再生速度T0よりも速くストリーム再生されて、音声認識サーバにおいて音声認識処理が実行される。その結果、ユーザの音声に対して応答されるまでのユーザの待機時間を更に短縮できる。他方で、後半部分のユーザ音声は、標準再生速度T0よりは速いものの、前半部分のユーザ音声の再生速度T1よりは遅い速度で再生される。そのため、音声認識システムにおける音声認識精度の低下を抑制できる。したがって、音声認識精度の低下を抑制しつつ、ユーザの待機時間をより短縮することができる。
なお、音声認識サーバにおいて、音声データのストリーム再生による音声認識処理がリアルタイムで実行される場合、例えば、マイクロホン2333によって検出されたユーザ音声がリアルタイムで音声認識サーバへと送信されるものの、トリガーワードの音声が検出されるまでは音声認識サーバでの音声認識が開始されないように制御されるとよい。
<10.キャラクタ1200に関するコミュニケーション機能の詳細>
次に、上述したキャラクタ1200に関するコミュニケーション機能の詳細について、以下に説明する。以下ではとくに、上述の第一ステップの飼い慣らすまでの段階及び第二ステップの言語を覚えていく段階について説明する。また、第二ステップで言語を覚えたキャラクタ1200が例えば天気やニュース等の所定の情報を発信したり応答する機能についても詳述する。
次に、上述したキャラクタ1200に関するコミュニケーション機能の詳細について、以下に説明する。以下ではとくに、上述の第一ステップの飼い慣らすまでの段階及び第二ステップの言語を覚えていく段階について説明する。また、第二ステップで言語を覚えたキャラクタ1200が例えば天気やニュース等の所定の情報を発信したり応答する機能についても詳述する。
なお、上述の表示装置1と比べて例えばコミュニケーション機能等が向上していることから「表示装置」と表現される機能の範疇を超えているため、以下では、上記の表示装置1に代えてシステム1と称するものとする。ただし、システム1の外観構成、表示に関する原理、内部の構成(構造)等については上述の表示装置1と同様であるため、これらについては説明を省略する。
また、表示装置1についての説明では、表示装置1に表示された映像を観察する者を「観察者」と表現したが、上述したとおりシステム1は表示装置の範疇を超えているため、以下では、「観察者」に代えて「ユーザ」と称するものとする。
(システム1のコンセプト)
先ず、システム1のコンセプトについて、図56を参照して簡単に説明する。図56は、一実施形態に係るシステム1の開発コンセプトの一例を簡単に説明した図である。
先ず、システム1のコンセプトについて、図56を参照して簡単に説明する。図56は、一実施形態に係るシステム1の開発コンセプトの一例を簡単に説明した図である。
上述の表示装置1と同様に、システム1の映像表示空間S1には、例えば動物等のキャラクタが仮想的に表示される。本実施例では、システム1の映像表示空間S1に仮想的に表示されるキャラクタの一例として猫が表示される。この猫の名称は、上述したとおり、ユノ(JUNOとも称する)である。
図56に示されるように、JUNOは、システム1の例えば所有者であるユーザ等と仲良くなりたいと思いつつも、最初は少し緊張して上手くコミュニケーションを取ることができないキャラクタとして、ソフトウェア制御により動作が実現される。例えば、JUNOが、動物などのリアルな生命体のように、生まれ持っているとされる性質や特徴等の本能を有する様子を仮想的、疑似的に再現する。このようなソフトウェア制御により、JUNOが、動物らしさを持ち、また、環境等の変化による動物特有の動作態様等を行う。以下の説明において、JUNOが仮想本能機能を有すると表現している箇所は、JUNOがあたかも本能を有するかような動作をするようソフトウェア制御により実現することを意味する。それ以外のJUNOが行う様々な動作(例えば、発話やその他のふるまい)についても、同様に理解されるものとする。ソフトウェア制御にあっては人工知能の技術が用いられても用いられなくてもよく、具体的な実現方法については問わない。
例えば、初期設定では、警戒心が強く(すなわちユーザとの親密度が低く)、ユーザとの間で上手くコミュニケーションを取ることができないかまたは困難であるように設定されており、場合によってはユーザに対して威嚇行動を行うようにするとよい。そして、ユーザが例えばごはん等の餌をJUNOに毎日与えるといった行動等を起こすことにより、JUNOの警戒心が解け始め、ユーザとJUNOとの親密度が上がっていくようにするとよい。ユーザとJUNOとの親密度が上がっていくと、JUNOの行動パターンに変化があらわれ、ユーザがびっくりするような行動をJUNOが行うこともあるようにするとよい。ユーザとJUNOとの親密度が強くなると、例えばユーザと日常会話等を行うことも可能となり、ユーザがJUNOとゆったりと癒しの時間を過ごすことが可能となるようにするとよい。
このように、初期設定を、例えば、キャラクタの警戒心を強くしたり、ユーザとの間で上手くコミュニケーションを取ることができなかったり、ユーザに対して威嚇行動を行うようにすると、例えば生き物が持つ本能機能をリアルに表現することができる。そして、ユーザとJUNOとの親密度が上がっていくと、仮想本能機能を持っているかのようなJUNOと、例えばコミュニケーションを図ることができるようになる。JUNOは、生き物(例えば動物等の生命体であり、本システムの実施例では猫)を模したキャラクタである。このようにすることで、実際に存在しているかのようなリアリティのあるキャラクタ1200(仮想動物)との毎日の日常生活を楽しむことを実現可能とするものである。なお、キャラクタ1200は、実際に存在しているかのようなリアリティさを表現できれば、例えば、人間、人間以外の動物、空想上の生物、実在しないキャラクタ等とすることができる。
(親密度に応じて変化するキャラクタの行動パターン)
先ず、ユーザとJUNOとの親密度に応じたJUNOの行動パターンの一例について簡単に説明する。ユーザとJUNOとの親密度をあらわす態様として、例えばユーザとJUNOとの距離感等がある。ユーザとJUNOとの親密度が小さければ、JUNOは、仮想本能機能としてユーザに近付こうとはせず、ユーザとの間で一定の距離を取るものと考えられる。一方、ユーザとJUNOとの親密度が大きくなれば、JUNOは、ユーザに対する警戒心が弱くなり、ユーザに近付く場合もある。そこで、本システム1では、JUNOの行動パターンが、ユーザとJUNOとの親密度に応じて両者の距離が変わりうる行動パターンとなるように構成されている。
先ず、ユーザとJUNOとの親密度に応じたJUNOの行動パターンの一例について簡単に説明する。ユーザとJUNOとの親密度をあらわす態様として、例えばユーザとJUNOとの距離感等がある。ユーザとJUNOとの親密度が小さければ、JUNOは、仮想本能機能としてユーザに近付こうとはせず、ユーザとの間で一定の距離を取るものと考えられる。一方、ユーザとJUNOとの親密度が大きくなれば、JUNOは、ユーザに対する警戒心が弱くなり、ユーザに近付く場合もある。そこで、本システム1では、JUNOの行動パターンが、ユーザとJUNOとの親密度に応じて両者の距離が変わりうる行動パターンとなるように構成されている。
ユーザとJUNOとの距離は、例えば、立体感のある映像表示空間S1におけるJUNOの表示位置によって変化させることが可能である。以下に、映像表示空間S1におけるJUNOの表示位置について、図57を参照して説明する。図57は、一実施形態に係るシステム1の映像表示空間S1内の表示形態の一例を示す図である。立体感のある映像表示空間S1内をJUNOが自由に移動できるようにすると、仮想的に表示されるJUNOが現実に存在しているかのような存在感を醸し出すことが可能となる。
図57に示されるように、システム1の映像表示空間S1には、三次元の仮想空間映像として、例えば奥行き方向に複数のエリア等が表示される。この複数のエリアは、正面視における距離感がエリアに応じて異なるように表示される。本実施例では、例えば、JUNOを表示可能な複数のエリアとして、ユーザに最も近い側である手前側のエリア1と、ユーザに最も遠い側である奥側のエリア5と、エリア1とエリア5との中間であるエリア2~エリア4とに区画されている。エリア2~エリア4のうち、ユーザに近い順は、エリア2、エリア3、エリア4の順である。また、通常時は表示されないが、例えば後述するズーム表示を行う場合等に用いられるエリアとして、エリア1よりもユーザに近い側にエリア0を表示することも可能である。ただし、本実施例では、エリア0はJUNOを表示可能なエリアではないが、JUNOを表示してもよい。
なお、システム1の映像表示空間S1の奥行き方向に表示される複数のエリアのうち、ユーザに最も近い側(表示画面の下方側)であるエリア1では、例えばキャラクタ等の画像が最も大きく表示され、ユーザに最も遠い側(表示画面の上方側)であるエリア5では、例えばキャラクタ等の画像が最も小さく表示される。そして、エリア1からエリア5に向けて徐々に小さくなるように、キャラクタ等の画像が表示される。このようにすることで、遠近感をより強調することが可能となる。
処理基板224は、システム1の映像表示空間S1において、ユーザとJUNOとの親密度に応じて、JUNOがエリア1~エリア5を移動するよう制御可能に構成されている。本実施形態では、親密度は抽象的・概念的なものであり、親密度を直接又は間接に特定するパラメータとして経験値を用いることとする。経験値に代えて親密度がパラメータとして用いられてもよい。経験値は、本発明の経験情報の一例である。親密度は、ユーザとJUNOとの親密度合いの指標となり、経験値が大きいほど親密度合いが高く、経験値が小さいほど親密度合いが低い。経験値は、ユーザがJUNOに対して行ったアクション(行動)をJUNOがど程度経験したかの指標値であり、例えばそのアクションの実績に応じて変化するものである。アクションの実績は、例えばアクションの回数や頻度によって特定されるが、アクションの具体的内容まで加味されると尚良い。典型的には、ユーザからのJUNOに対するアクションをJUNOが経験するほど、経験値が上昇し、それに応じて親密度は高くなる方向に変化するようにするとよい。一般的な人間関係や、人間と動物との関係においても、コミュニケーションが積極的に行われるほど、両者の関係は親密さを増す方向に変化するから、これを疑似的に表現したものといえる。経験値は上昇する方向に変化するだけでなく、低下する方向に変化してもよく、この場合親密度は低下する方向に変化する。例えばユーザからのJUNOに対するアクションをJUNOが経験しなくなるほど、例えばそのアクションの回数や頻度が低下するほど、親密度が低くなるようにするとよい。アクションの具体的内容まで加味してもよく、例えばユーザがJUNOに対してアクションを起こした場合でも、それがJUNOの好むものでなければ親密度が低下するようにしてもよい。この場合は、JUNOの好むアクションの経験が不足しており、親密度が低下すると把握できるものである。一般的な人間関係や、人間と動物との関係においても、良好なコミュニケーションが経験されないと、両者の親密度合いは低下するから、これを疑似的に表現したものといえる。JUNOに対するアクションは、本実施形態では、ユーザによるシステム1への情報の入力によって実現される。続いて、ユーザのアクションと、経験値又はそこから把握される親密度との関係や、それにかかわるシステム1の動作を説明する。
例えば、ユーザとJUNOとの親密度が低いと、ユーザとの距離が相対的に遠いエリアにJUNOが移動する比率(すなわち確率)が高く、ユーザとJUNOとの親密度が高くなるにつれて、ユーザとの距離が相対的に近いエリアにJUNOが移動する確率が高くなる。このようにすることで、JUNOが仮想本能機能にもとづいてあたかも能動的にユーザから離れたり近付いたりするかのように表示することができ、より一層、JUNOにリアリティさを持たせることが可能となる。
(親密度について)
処理基板224は、あらかじめ設定されている条件として、例えばJUNOが特定の経験等をすると、経験値を所定値だけ加算する。この経験値が上がると、処理基板224は、抽象的な概念であるユーザとJUNOとの親密度が上がったかのような行動パターンをJUNOが行うように制御する。本実施例では、例えば、経験値のパラメータとして、ユーザがJUNOに餌を与えた回数(日数)を用いている。経験値のパラメータとしてユーザがJUNOに餌を与えた回数(日数)を用いた場合、ユーザがJUNOに餌を与えると、経験値が1加算される。本実施例では、加算される経験値の1日あたりの上限は1である。すなわち、ユーザが1日に複数回JUNOに餌を与えたとしても、加算される経験値は1だけである。このようにすることで、長期間にわたって本システム1を利用してもらうことが可能となる。ただし、ユーザがJUNOに餌を与えたことによって加算される経験値の上限は、長期間にわたって本システム1を利用してもらうことが可能な範囲の値であれば1に限られず、例えば2や3等としてもよし、餌を与えた回数分だけ経験値が加算されるようにしてもよい。また、ユーザがJUNOに餌を与えない日が例えばあらかじめ設定された日数を超えると、経験値が所定値(例えば1)だけ減算される。経験値を加算する処理及び減算する処理は、いずれも後述するクラウドサーバによって行われるが、処理基板224によって行われるようにしてもよい。ユーザがJUNOに餌を与える方法については後述する。なお、餌は、JUNOに与えるアイテムの一例であり、ボールやおもちゃ、その他のアイテムに置き換えられ、又は組み合わされてもよい。また、経験値のパラメータとしてユーザがJUNOに餌を与えた回数(日数)を用いるのは一例であり、例えば、ユーザが本システムを使用した時間、使用回数、JUNOへの声掛け回数等のように、ユーザが行動を起こした回数等を経験値のパラメータとすることができ、またはこれらを組合わせることもできる。また、経験値のパラメータとして例えばよそよそしさパラメータ等を用いる場合、よそよそしさパラメータが加算されると親密度が低下する。また、経験値は本発明の経験情報の一例であると上述したが、経験情報よりも上位の概念として、ユーザとJUNOとのコミュニケーション機能の使用実績に係るパラメータとすることができる。
処理基板224は、あらかじめ設定されている条件として、例えばJUNOが特定の経験等をすると、経験値を所定値だけ加算する。この経験値が上がると、処理基板224は、抽象的な概念であるユーザとJUNOとの親密度が上がったかのような行動パターンをJUNOが行うように制御する。本実施例では、例えば、経験値のパラメータとして、ユーザがJUNOに餌を与えた回数(日数)を用いている。経験値のパラメータとしてユーザがJUNOに餌を与えた回数(日数)を用いた場合、ユーザがJUNOに餌を与えると、経験値が1加算される。本実施例では、加算される経験値の1日あたりの上限は1である。すなわち、ユーザが1日に複数回JUNOに餌を与えたとしても、加算される経験値は1だけである。このようにすることで、長期間にわたって本システム1を利用してもらうことが可能となる。ただし、ユーザがJUNOに餌を与えたことによって加算される経験値の上限は、長期間にわたって本システム1を利用してもらうことが可能な範囲の値であれば1に限られず、例えば2や3等としてもよし、餌を与えた回数分だけ経験値が加算されるようにしてもよい。また、ユーザがJUNOに餌を与えない日が例えばあらかじめ設定された日数を超えると、経験値が所定値(例えば1)だけ減算される。経験値を加算する処理及び減算する処理は、いずれも後述するクラウドサーバによって行われるが、処理基板224によって行われるようにしてもよい。ユーザがJUNOに餌を与える方法については後述する。なお、餌は、JUNOに与えるアイテムの一例であり、ボールやおもちゃ、その他のアイテムに置き換えられ、又は組み合わされてもよい。また、経験値のパラメータとしてユーザがJUNOに餌を与えた回数(日数)を用いるのは一例であり、例えば、ユーザが本システムを使用した時間、使用回数、JUNOへの声掛け回数等のように、ユーザが行動を起こした回数等を経験値のパラメータとすることができ、またはこれらを組合わせることもできる。また、経験値のパラメータとして例えばよそよそしさパラメータ等を用いる場合、よそよそしさパラメータが加算されると親密度が低下する。また、経験値は本発明の経験情報の一例であると上述したが、経験情報よりも上位の概念として、ユーザとJUNOとのコミュニケーション機能の使用実績に係るパラメータとすることができる。
なお、ユーザの好みによっては、短期間で経験値を上げることを所望するユーザが存在することに鑑みると、ユーザがJUNOに餌を与えたことによって加算される経験値の上限を例えば5や10といった相対的に大きな値としてもよいし、上限を設けずに餌を与えた回数分だけ経験値が上がるようにしてもよい。さらには、ユーザがJUNOに餌を与えたことによって加算される経験値の上限をユーザが設定できるようにすると、ユーザの好みにあわせて経験値の上昇スピードを設定可能なシステム1を提供することが可能となる。
本実施例において、例えば、ユーザがJUNOに餌を与えた回数(日数)が0以上30未満の場合を親密度低とし、ユーザがJUNOに餌を与えた回数(日数)が30以上60未満の場合を親密度中とし、ユーザがJUNOに餌を与えた回数(日数)が60以上の場合を親密度高と定義する。
(キャラクタのエリア移動)
上述したとおり、ユーザとJUNOとの親密度が低いと、ユーザとの距離が相対的に遠いエリアにJUNOが移動する確率が高く、ユーザとJUNOとの親密度が高くなるにつれて、ユーザとの距離が相対的に近いエリアにJUNOが移動する確率が高くなる。そこで、親密度に応じてJUNOが各エリアに移動する確率について、図58A~図62を参照して説明する。
上述したとおり、ユーザとJUNOとの親密度が低いと、ユーザとの距離が相対的に遠いエリアにJUNOが移動する確率が高く、ユーザとJUNOとの親密度が高くなるにつれて、ユーザとの距離が相対的に近いエリアにJUNOが移動する確率が高くなる。そこで、親密度に応じてJUNOが各エリアに移動する確率について、図58A~図62を参照して説明する。
図58Aは、一実施形態に係るシステム1において、ユーザがJUNOに餌を与えた回数(日数)に応じて、JUNO(キャラクタ)がエリア1及び2に移動する確率を求める式等の一例を示す表である。図58Bは、一実施形態に係るシステム1において、ユーザがJUNOに餌を与えた回数(日数)に応じて、JUNOがエリア3~5に移動する確率を求める式等の一例を示す表である。図59は、一実施形態に係るシステム1において、ユーザがJUNOに餌を与えた回数(日数)に応じて、JUNOが各エリア(エリア1~5)に移動する確率を求める式等を示す表である。図58A、図58B及び図59に示される式は、同じ基本式を、異なる表現方法で示した表である。具体的には、図58A及び図58Bは、各エリアへの移動確率を求めるための基本式と、基本式に含まれる係数a,b,cを求める式と、を親密度毎に示す表である。一方、図59は、各エリアへの移動確率を求めるための基本式と、親密度毎に係数a,b,cを求める式を基本式に代入して得られた式と、を示す表である。
図60(A)は、一実施形態に係るシステム1において、係数a,b,cを求める式に含まれる係数X(X1,X2,X3)に代入される数値であって、親密度低と親密度中と親密度高との区分けに用いられる数値の一例を示す表である。本実施例では、上述したとおり、ユーザがJUNOに餌を与えた回数(日数)が0以上30未満の場合を親密度低とし、ユーザがJUNOに餌を与えた回数(日数)が30以上60未満の場合を親密度中とし、ユーザがJUNOに餌を与えた回数(日数)が60以上の場合を親密度高と定義しているため、図60(A)に示されるように、親密度低、親密度中及び親密度高のいずれの場合であっても、ユーザがJUNOに餌を与えた回数(日数)の上限が例えば30日とされている。したがって、例えば、ユーザがJUNOに餌を与えた回数(日数)が0以上45日未満の場合を親密度低とし、ユーザがJUNOに餌を与えた回数(日数)が45日以上90日未満の場合を親密度中とし、ユーザがJUNOに餌を与えた回数(日数)が90日以上の場合を親密度高と定義する場合、図60(A)に示されるX1=45、X2=45、X3=45となる。なお、親密度高の場合、演算の便宜上、ユーザがJUNOに餌を与えた回数(日数)の上限を例えば30日としているが、ユーザがJUNOに餌を与えた回数(日数)が30日を超えた場合も、親密度高の場合と同じ式を用いて各エリアへの移動確率が決定される。
図60(B)は、一実施形態に係るシステム1において、各親密度(親密度低、親密度中、親密度高)において各エリアに移動する確率の上限と下限とが設定されたテーブルの一例である。例えば、親密度中において、エリア1に移動する確率は、上限が例えば0.3(30%)、下限が例えば0.05(5%)である。
図61は、一実施形態に係るシステム1において、親密度(親密度低、親密度中、親密度高)に応じてエリア1への移動確率を示す基本式に含まれる係数を示す表であって、(A)係数aを示す表の一例、(B)係数bを示す表の一例、(C)係数cを示す表の一例である。例えば、図61(A)に示されるように、親密度高の場合における係数aの値は10.9091に設定されている。
図62は、一実施形態に係るシステム1において、親密度(親密度低、親密度中、親密度高)に応じてエリア2~エリア4への移動確率を示す基本式に含まれる係数を示すテーブルであって、(A)係数Aを示すテーブルの一例、(B)係数Bを示すテーブルの一例である。例えば、図62(A)に示されるように、親密度中の場合におけるエリア3への移動確率を示す基本式に含まれる係数Aの値は0.20に設定されている。また、図62(B)に示されるように、親密度高の場合におけるエリア2への移動確率を示す基本式に含まれる係数Bは0.05に設定されている。
このようにすることで、ユーザがJUNOに餌を与えた回数(日数)が増えると、JUNOがエリア1に移動する確率(エリア1に滞在する確率も含む)が高くなり、JUNOがユーザに近寄ってくるように表示される。ただし、ユーザがJUNOに対してJUNOが好まない行動を起こした場合、JUNOが例えばエリア5に移動する確率を高くしたり、JUNOが例えばエリア1に移動する確率(エリア1に滞在する確率も含む)を低くすることもできる。
次に、エリア1への移動確率の考え方について説明する。例えば、野良猫等、全く人間に慣れていない動物を飼う場合、先ずは人間に慣れさせるところから始まるだろうと考えられる。動物は、餌をもらい始めても、おそらく直線的には慣れていかず、少しずつ慣れていくのではないかと考えられる。よって、本実施例では、親密度低の場合、JUNOが慣れていく変化の変化率が一定ではなく、時間が経過すればするほどエリア1への移動確率が大きくなるようにしている。すなわち、経験値のパラメータとして、ユーザがJUNOに餌を与えた回数(日数)を用いる場合、餌を与えた回数(日数)が例えば30日未満の親密度低では、餌を与えた回数(日数)が増加するにつれて、餌を与えた回数(日数)の増加に対するエリア1への移動確率の変化量が大きくなるようにしている。このようにすることで、JUNOに対する親近感をユーザに与えることが可能となるだけでなく、JUNOが慣れていく度合いが加速する過程を、エリア1へのJUNOの移動割合でユーザに体現させることができる。餌を与えた回数(日数)が増加するにつれて、餌を与えた回数(日数)の増加に対するエリア1への移動確率の変化量が大きくなることをあらわした式が、図59のエリア1の欄に示される親密度低の場合の式(以下、この式を「第一式」と称する)である。なお、餌を与えた回数(日数)が増加するにつれて、餌を与えた回数(日数)の増加に対するエリア1への移動確率の変化量が大きくなるようにしているが、これは一例であり、経験値のパラメータとして例えばよそよそしさパラメータを用いる場合には、経験値の値の減少に対するエリア1への移動確率の変化量が大きくなるようにすることもできる。
ただし、例えば動物は、どこまでも慣れていくわけではなく、どこかで頭打ちになり、慣れていく変化率が限りなくゼロに近づいていくものと考えられる(y=1の漸近線に近づく)。すなわち、ユーザがJUNOに餌を与えた回数(日数)が例えば60日以上の親密度高では、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれて、ユーザがJUNOに餌を与えた回数(日数)の増加に対するエリア1への移動確率の変化量が小さくなるようにしている。これをあらわした式が、図58Aのエリア1の欄に示される親密度高の場合の式である(以下、この式を「第三式」と称する)。
ところで、例えば動物は、慣れ始めると、慣れる変化が大きくなっていくと考えられるが、どこかで変化率の最大を迎え、その後は変化率が小さくなっていき第三式に繋がる。つまり、第一式と第三式とをスムースに繋げる必要がある。
なお、本実施例では、図58A、図59B及び図59に示されるように、親密度中におけるエリア1への移動確率は、親密度低におけるエリア1への移動確率を示す第一式と同じ式である。ただし、以下において、説明の便宜上、親密度中におけるエリア1への移動確率を示す式を第二式と称する。
また、本実施例では、如何に簡単に、すなわちソフトウェアに負荷を掛けずに、上記の第一式、第二式、第三式を用いて、親密度に応じてJUNOがエリア1に移動する確率を異ならせることを実現するかについて説明する。ソフトウェアに負荷を掛けないという意味では三角関数、指数、対数関数を使用しないことが好ましく、四則計算のみとすることが好ましい。さらに、上記の第一式、二式、三式を3つの場合で数式を変えるのではなく、一つの式であらわし、且つ、「x=指定の任意の点」で微分係数の値が等しくなるようにし、各式をスムーズに繋げるようにしている。このようにすることで、プログラムを簡単にすることが可能となる。係数は、親密度低、親密度中及び親密度高の3つの場合のそれぞれにおいてユーザがJUNOに餌を与えた回数(日数)で決まるようにしておけば、例えば、30日/30日/30日のように30/30/30の3つのパラメータを入力するだけで全ての係数が決まる。これはデバグを簡単にするためである。
次に、図58A~図62を参照して説明した四則計算で求めた、親密度に応じてJUNOが各エリアに移動する確率をグラフ及び表にすると、図63及び図64に示されるとおりとなる。図63は、一実施形態に係るシステム1において、時間の経過ひいてはユーザがJUNOに餌を与えた回数(日数)と、各エリアへの移動確率との関係を示すグラフである。図64は、一実施形態に係るシステム1において、図63に示されるグラフのデータ、すなわち、ユーザがJUNOに餌を与えた回数(日数)及び各エリアへの移動確率のデータを、親密度(親密度低、親密度中、親密度高)毎に示す表の一例である。なお、図64の各親密度の「日数」の縦欄に示される0~30は、ユーザがJUNOに餌を与えた通算日数ではなく、各親密度においてユーザがJUNOに餌を与えた回数(日数)である。例えば、親密度中の「日数」が「20」の場合、親密度中においてユーザがJUNOに餌を与えた回数(日数)が20日であり、ユーザがJUNOに餌を与えた通算回数(通算日数)は50日となる。以下に、ユーザがJUNOに餌を与えた回数(日数)に対する各エリアへの移動確率の変化量を、図63及び図64を参照して説明する。
(親密度低の場合の各エリアへの移動確率の変化量)
図63及び図64に示されるように、ユーザがJUNOに餌を与えた回数(日数)が0~30日の親密度低において、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~4への移動確率の変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてプラス方向に大きくなっている(以下、プラス方向の変化量を「プラス変化量」と称する)。ただし、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~4への移動確率のプラス変化量は、エリア1~4のうち、エリア4、エリア3、エリア2、エリア1の順で大きい。すなわち、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~エリア4への移動確率のプラス変化量のうち、エリア1への移動確率のプラス変化量が最も小さい。一方、ユーザがJUNOに餌を与えた回数(日数)に対するエリア5への移動確率の変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてマイナス方向に大きくなっている(以下、プラス方向の変化量を「マイナス変化量」と称する)。このように、親密度低では、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれて、エリア4、エリア3、エリア2、エリア1の順でプラス変化量が大きくなる一方、エリア5への移動確率のマイナス変化量が大きくなる。なお、親密度低における各エリアへの移動確率は、エリア5への移動確率、エリア4への移動確率、エリア3への移動確率、エリア2への移動確率、エリア1への移動確率の順で高い。このようにすることで、初期の状態ではJUNOが慣れておらず、ユーザにも懐いていないことを、JUNOが表示される位置でユーザに体現させることができる。そして、初期の状態からしばらくの間はキャラクタが慣れておらず、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれて警戒心が解けて慣れていく過程を、キャラクタが滞在する位置の割合すなわち比率でユーザに体現させることができる。
図63及び図64に示されるように、ユーザがJUNOに餌を与えた回数(日数)が0~30日の親密度低において、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~4への移動確率の変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてプラス方向に大きくなっている(以下、プラス方向の変化量を「プラス変化量」と称する)。ただし、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~4への移動確率のプラス変化量は、エリア1~4のうち、エリア4、エリア3、エリア2、エリア1の順で大きい。すなわち、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~エリア4への移動確率のプラス変化量のうち、エリア1への移動確率のプラス変化量が最も小さい。一方、ユーザがJUNOに餌を与えた回数(日数)に対するエリア5への移動確率の変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてマイナス方向に大きくなっている(以下、プラス方向の変化量を「マイナス変化量」と称する)。このように、親密度低では、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれて、エリア4、エリア3、エリア2、エリア1の順でプラス変化量が大きくなる一方、エリア5への移動確率のマイナス変化量が大きくなる。なお、親密度低における各エリアへの移動確率は、エリア5への移動確率、エリア4への移動確率、エリア3への移動確率、エリア2への移動確率、エリア1への移動確率の順で高い。このようにすることで、初期の状態ではJUNOが慣れておらず、ユーザにも懐いていないことを、JUNOが表示される位置でユーザに体現させることができる。そして、初期の状態からしばらくの間はキャラクタが慣れておらず、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれて警戒心が解けて慣れていく過程を、キャラクタが滞在する位置の割合すなわち比率でユーザに体現させることができる。
(親密度中の場合の各エリアへの移動確率の変化量)
次に、ユーザがJUNOに餌を与えた回数(日数)が30~60日の親密度中では、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~3への移動確率の変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてプラス方向に大きくなっている。ただし、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~3への移動確率のプラス変化量は、親密度低の場合と異なり、エリア1~3のうち、エリア1、エリア2、エリア3の順で大きい。すなわち、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~エリア3への移動確率のプラス変化量のうち、エリア1への移動確率のプラス変化量が最も大きい。また、ユーザがJUNOに餌を与えた回数(日数)に対するエリア4への移動確率の変化量は0である。さらに、ユーザがJUNOに餌を与えた回数(日数)に対するエリア5への移動確率の変化量は、依然として、マイナス方向に大きくなっている。なお、親密度中における各エリアへの移動確率は、親密度中の前半から中盤にかけては、エリア5への移動確率、エリア4への移動確率、エリア3への移動確率、エリア2への移動確率、エリア1への移動確率の順で高く、親密度中の後半ではエリア1への移動確率、エリア4への移動確率、エリア3への移動確率、エリア2への移動確率、エリア5への移動確率の順で高い。なお、ユーザがJUNOに餌を与えた回数(日数)が増加するにしたがって、エリア2への移動確率、エリア3への移動確率及びエリア4への移動確率の差が小さくなり、親密度中と親密度高とを繋ぐ境界(例えば、ユーザがJUNOに餌を与えた日数が60日目)では、エリア2への移動確率、エリア3への移動確率及びエリア4への移動確率が同じかまたはほぼ同じ確率(本実施例では例えば0.20)となる。
次に、ユーザがJUNOに餌を与えた回数(日数)が30~60日の親密度中では、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~3への移動確率の変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてプラス方向に大きくなっている。ただし、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~3への移動確率のプラス変化量は、親密度低の場合と異なり、エリア1~3のうち、エリア1、エリア2、エリア3の順で大きい。すなわち、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1~エリア3への移動確率のプラス変化量のうち、エリア1への移動確率のプラス変化量が最も大きい。また、ユーザがJUNOに餌を与えた回数(日数)に対するエリア4への移動確率の変化量は0である。さらに、ユーザがJUNOに餌を与えた回数(日数)に対するエリア5への移動確率の変化量は、依然として、マイナス方向に大きくなっている。なお、親密度中における各エリアへの移動確率は、親密度中の前半から中盤にかけては、エリア5への移動確率、エリア4への移動確率、エリア3への移動確率、エリア2への移動確率、エリア1への移動確率の順で高く、親密度中の後半ではエリア1への移動確率、エリア4への移動確率、エリア3への移動確率、エリア2への移動確率、エリア5への移動確率の順で高い。なお、ユーザがJUNOに餌を与えた回数(日数)が増加するにしたがって、エリア2への移動確率、エリア3への移動確率及びエリア4への移動確率の差が小さくなり、親密度中と親密度高とを繋ぐ境界(例えば、ユーザがJUNOに餌を与えた日数が60日目)では、エリア2への移動確率、エリア3への移動確率及びエリア4への移動確率が同じかまたはほぼ同じ確率(本実施例では例えば0.20)となる。
(親密度高の場合の各エリアへの移動確率の変化量)
次に、ユーザがJUNOに餌を与えた回数(日数)が60日以上の親密度高では、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1、2への移動確率の変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてプラス方向に大きくなっている。ただし、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1、2への移動確率のプラス変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれて小さくなっている。また、ユーザがJUNOに餌を与えた回数(日数)に対するエリア3~5への移動確率の変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてマイナス方向に大きくなっており、ユーザがJUNOに餌を与えた回数(日数)に対するエリア3~5への移動確率のマイナス変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれて小さくなっている。すなわち、親密度高では、エリア1~5のいずれのエリアへの移動確率についても、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてその変化率が鈍化する。特にエリア5への移動確率を示すグラフは、y=1の漸近線に近づくこととなる。このようにすることで、JUNOの動きによりリアリティさを出すことができる。なお、親密度高における各エリアへの移動確率は、エリア1への移動確率、エリア2への移動確率、エリア3への移動確率、エリア4への移動確率、エリア5への移動確率の順で高い。
次に、ユーザがJUNOに餌を与えた回数(日数)が60日以上の親密度高では、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1、2への移動確率の変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてプラス方向に大きくなっている。ただし、ユーザがJUNOに餌を与えた回数(日数)に対するエリア1、2への移動確率のプラス変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれて小さくなっている。また、ユーザがJUNOに餌を与えた回数(日数)に対するエリア3~5への移動確率の変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてマイナス方向に大きくなっており、ユーザがJUNOに餌を与えた回数(日数)に対するエリア3~5への移動確率のマイナス変化量は、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれて小さくなっている。すなわち、親密度高では、エリア1~5のいずれのエリアへの移動確率についても、ユーザがJUNOに餌を与えた回数(日数)が増加するにつれてその変化率が鈍化する。特にエリア5への移動確率を示すグラフは、y=1の漸近線に近づくこととなる。このようにすることで、JUNOの動きによりリアリティさを出すことができる。なお、親密度高における各エリアへの移動確率は、エリア1への移動確率、エリア2への移動確率、エリア3への移動確率、エリア4への移動確率、エリア5への移動確率の順で高い。
このように、ユーザがJUNOに餌を与えた回数(日数)に応じて各エリア1~5への移動確率の変化量を変えることによって、親密度低の場合と親密度中の場合と親密度高の場合とでJUNOの行動パターンに変化を与えるよう制御することが可能となる。このようにすることで、キャラクタ1200としてのJUNOがあたかも本能にもとづいて行動しているかのような仮想本能機能を形成することが可能となる。
<11.本システムの機能>
次に、親密度(親密度低、親密度中、親密度高)に応じたキャラクタ1200(本実施例では猫を模したJUNO)の機能(例えば、状態、行動パターン等)について説明する。
次に、親密度(親密度低、親密度中、親密度高)に応じたキャラクタ1200(本実施例では猫を模したJUNO)の機能(例えば、状態、行動パターン等)について説明する。
本実施例に係るシステム1では、上述した親密度に応じて、キャラクタ1200としてのJUNOがあたかも心情を持っているかのような行動パターンで表示される。例えば初期設定時は、ユーザから最も離れた位置(例えば、エリア5)にJUNOが滞在している。また、初期設定時も含めて親密度が低い場合は、キャラクタ1200が警戒心(以下、「仮想警戒心」と称する)を持っている。そのため、親密度低では、処理基板224は、上述したとおり、JUNOがユーザを信頼していないかのように、なかなかユーザに近寄らない(例えば、エリア1に近寄らない)行動パターンとなるように制御し、ユーザから離れた例えばエリア5にJUNOが滞在することが多い。また、処理基板224は、例えば、JUNOがエリア5を自らの縄張りであると認識しているかのような行動パターンが表示されるように制御する。また、処理基板224は、エリア1~4にJUNOを表示する場合であっても、JUNOが仮想警戒心を持っているかのような行動パターンが表示されるよう制御する。
(11-1.親密度低の場合)
図65Aは、一実施形態に係るシステム1において、親密度低の場合におけるJUNOの状態や行動パターン等を説明するための図の一例である。また、図65Bは、一実施形態に係るシステム1において、親密度低の場合に、システム1の映像表示空間S1に表示される画像例である。なお、以下、この明細書において、キャラクタ1200の表現をJUNOに統一して説明するものとする。
図65Aは、一実施形態に係るシステム1において、親密度低の場合におけるJUNOの状態や行動パターン等を説明するための図の一例である。また、図65Bは、一実施形態に係るシステム1において、親密度低の場合に、システム1の映像表示空間S1に表示される画像例である。なお、以下、この明細書において、キャラクタ1200の表現をJUNOに統一して説明するものとする。
また、図65Aに示すように、JUNOの行動方針として、定位置が設定されている。親密度低におけるJUNOの定位置は、例えばユーザとの距離が最も遠いエリア5となっており、JUNOは主としてエリア5にいる。また、後述する人検知の有無によることなく、JUNOはエリア5にいる。JUNOは、主にエリア5に位置しており、他のエリアへの移動や他のエリアにいるとき等は警戒している。
図65Bに示されるように、エリア1には、餌入れが表示されている。エリア3には、爪研ぎ板が表示されている。また、エリア5には、JUNOが表示されている。エリア5は、外からの影響を受けない範囲となっている。外からの影響とは、後述する人検知等のことである。なお、餌入れおよび爪研ぎ板についても後述する。
図66Aは、一実施形態に係るシステム1において、親密度低の場合における他エリアへの移動についての説明図の一例である。図66Bは、一実施形態に係るシステム1において、親密度低の場合に、他エリアへの移動について説明するための画像例である。
処理基板224は、例えば、所定周期で移動抽選を行い、この移動抽選の結果にもとづいてJUNOが他エリアへ移動する場合と、イベント検出にもとづいてJUNOが他エリアへ移動する場合とがある。
図66A及び図66Bに示されるように所定周期で行われる移動抽選の結果にもとづいてJUNOが他エリアに移動する場合、所定周期で行われる移動抽選は、例えば、上述の図63及び図64に示される移動確率で行われる。なお、上記の所定周期は、例えば、1~10分程度の周期で行われる。また、移動抽選に当選したJUNOが他エリアに移動した場合、処理基板224は、移動後に、移動抽選を行う周期を抽選で決める。この場合、JUNOが移動可能なエリアは例えばエリア1~5のいずれかである。このように、JUNOを、所定周期で行われる移動抽選の結果またはイベント検出にもとづいてエリア移動させることができる。すなわち、JUNOをランダムなタイミングでエリア移動させることができ、JUNOが自らの意思を持って移動しているかのような動きを表示することができる。
また、図66Bに示されるように、親密度低の場合、移動抽選の結果にもとづいてJUNOがエリア1に移動する確率は、0~5%である。同様に、JUNOがエリア2に移動する確率は例えば0~10%、JUNOがエリア3に移動する確率は例えば0~15%、JUNOがエリア4に移動する確率は例えば0~20%、JUNOがエリア5に移動する確率は例えば100~50%である。
次に、イベント検出にもとづく他エリアへの移動について、図67A~図69Bを参照して説明する。イベント検出には、例えば、餌やりイベント検出、ランダムに発生しうる爪とぎイベント検出、人検知イベント検出等がある。
(餌やりイベントが検出された場合)
図67Aは、一実施形態に係るシステム1において、親密度低の場合に餌やりイベントが検出された場合、他エリアへの移動についての説明図の一例である。図67Bは、一実施形態に係るシステム1において、親密度低の場合に餌やりイベントが検出された場合、エリア5からエリア1への移動を示す画像例である。図67Cは、一実施形態に係るシステム1において、親密度低の場合に餌やりイベントが検出された場合、エリア1または2からエリア5への移動を示す画像例である。
図67Aは、一実施形態に係るシステム1において、親密度低の場合に餌やりイベントが検出された場合、他エリアへの移動についての説明図の一例である。図67Bは、一実施形態に係るシステム1において、親密度低の場合に餌やりイベントが検出された場合、エリア5からエリア1への移動を示す画像例である。図67Cは、一実施形態に係るシステム1において、親密度低の場合に餌やりイベントが検出された場合、エリア1または2からエリア5への移動を示す画像例である。
図67Aには、例えば、移動開始条件、エリア5に逃げる条件、エリア5に逃げた後のJUNOの行動、餌を食べ終わった後のJUNOの行動等について記載されている。とくに、JUNOが逃げていく場合、ユーザに最も近いエリア1からユーザに最も遠いエリア5に逃げるようにすることで、JUNOがユーザから離れて行ったことを明確に把握することが可能となる。
ユーザが餌を与えると(すなわち餌が発生すると)、餌やりイベントが検出される。餌やりイベントが検出されると、処理基板224は、JUNOが餌を食べる確率を求める。図67Aには「親密度シートから食べる確率を算出」と記載されているが、親密度シートは、例えば、図64に示されるエリア1への移動確率が流用される。例えば、ユーザがJUNOに餌を与えた回数(日数)が50日目である場合、処理基板224は、図64に示される表において50日目に相当する親密度中の「20」の欄に記載される確率である0.1500(15%)の確率で、移動開始条件を成立させるか否かを決定する。
移動開始条件が成立すると、処理基板224は、JUNOが餌を食べるための行動を開始する旨を決定する。そして、JUNOが餌を食べるための行動を開始する旨が決定されると、処理基板224は、JUNOが餌を食べるために警戒しながら移動を開始する行動パターンを表示し、例えば図67Bに示されるように、JUNOはエリア5から餌入れが置かれたエリア1まで移動する。
JUNOが例えばエリア5以外のエリア(例えば、エリア1やエリア2)からエリア5に逃げ帰る条件は、例えば、エリア1への移動途中またはJUNOが餌を食べているとき等に、外部検知(例えば、近接検知(すなわち、例えばユーザがJUNOに近付いたことによって人検知された場合)、ジェスチャー検知、呼び掛け検知、または、所定デシベル以上の大きな音の検知等の外部検知が検出された場合)等に成立しうる。例えば、エリア1への移動途中またはJUNOが餌を食べているとき等に上記の近接検知があると、処理基板224は、例えば図67Cに示されるように、JUNOがエリア5以外のエリアから例えばエリア5等に逃げ帰るように移動する行動パターンを表示する。このように、近接検知があった場合にJUNOが例えばエリア5等のようにユーザから相対的に遠いエリアに逃げ帰るように移動することで、JUNOの動きにより一層リアリティさを出すことができる。
JUNOがエリア5に逃げた後、処理基板224は、JUNOが恐れていることを示す恐怖モーション再生を行い、その後、周囲を警戒するかのような行動パターンを表示するとともに、タイマでの計測を開始する。なお、処理基板224は、エリア5への移動完了後、上述した移動抽選を行う周期を決定する。移動抽選を行う周期は、例えば1~10分程度の周期とするとよい。そして、移動抽選を行う周期が到来すると、処理基板224は、移動抽選を行う。
一方、JUNOが餌を食べ終わった場合、処理基板224は、JUNOが周囲を警戒する行動パターンを表示するとともに、所定周期で移動抽選を行う。この移動抽選に当選すると、処理基板224は、他のエリアに移動する行動パターンを表示する。移行先のエリアは、上述の図63及び図64に示される移動確率にもとづいて決定される。なお、移動抽選が行われるまで、処理基板224は、JUNOがエリア1に滞在する行動パターンを表示する。
(爪とぎイベントが検出された場合)
図68Aは、一実施形態に係るシステム1において、親密度低の場合に爪とぎイベントが検出された場合、他エリアへの移動についての説明図の一例である。図68Bは、一実施形態に係るシステム1において、親密度低の場合に爪とぎイベントが検出された場合、エリア5からエリア3への移動を示す画像例である。図68Cは、一実施形態に係るシステム1において、親密度低の場合に爪とぎイベントが検出された場合、エリア5からエリア3への移動を示す画像例である。
図68Aは、一実施形態に係るシステム1において、親密度低の場合に爪とぎイベントが検出された場合、他エリアへの移動についての説明図の一例である。図68Bは、一実施形態に係るシステム1において、親密度低の場合に爪とぎイベントが検出された場合、エリア5からエリア3への移動を示す画像例である。図68Cは、一実施形態に係るシステム1において、親密度低の場合に爪とぎイベントが検出された場合、エリア5からエリア3への移動を示す画像例である。
図68Aには、例えば、移動開始条件、JUNOがエリア5に逃げる条件、JUNOがエリア5に逃げた後のJUNOの行動、爪とぎ後のJUNOの行動等について記載されている。
爪とぎイベントは、例えばランダムに発生する。爪とぎイベントが検出されると、移動開始条件が成立する。爪とぎイベントは、例えば、外部検知(例えば、近接検知(すなわち、例えばユーザがJUNOに近付いたことによって人検知された場合)、ジェスチャー検知、呼び掛け検知、または、所定デシベル以上の大きな音の検知等の外部検知が検出された場合)等に基づいてタイマでの計測を開始し、所定時間(例えば5分間)、近接検知が何ら検出されなかった場合に発生させることで、ランダムに発生させることができる。なお、例えば抽選等によりランダムに爪とぎイベントが発生するようにしてもよい。
移動開始条件が成立すると、処理基板224は、JUNOが爪を研ぐための行動を開始する旨を決定する。そして、JUNOが爪を研ぐための行動を開始する旨が決定されると、処理基板224は、JUNOが警戒しながら爪を研ぐために移動を開始する行動パターンを表示し、例えば図68Bに示されるように、JUNOはエリア5から爪とぎ板が置かれたエリア3まで移動する。
JUNOがエリア5に逃げ帰る条件は、例えば、図68Cに示されるようにエリア3への移動途中または爪とぎの途中等に、例えば外部検知(例えば、近接検知(すなわち、例えばユーザがJUNOに近付いたことによって人検知された場合)、ジェスチャー検知、呼び掛け検知、または、所定デシベル以上の大きな音の検知等の外部検知が検出された場合)等に成立しうる。例えばエリア3への移動途中または爪とぎの途中等に上記の近接検知があると、処理基板224は、JUNOがエリア5に逃げ帰るように移動する行動パターンを表示する。
JUNOがエリア5に逃げた後、処理基板224は、JUNOが、怒り、そっぽを向く等の動作をみせるモーション再生を行う。また、その日は、JUNOは爪とぎを行わないようにするとよい。
一方、JUNOが爪とぎを終了した場合、処理基板224は、周囲を警戒する行動パターンを表示するとともに、所定周期で移動抽選を行う。この移動抽選に当選すると、処理基板224は、他のエリアに移動する行動パターンを表示する。移行先のエリアは、上述の図63及び図64に示される移動確率にもとづいて決定される。なお、移動抽選が行われるまで、処理基板224は、JUNOがエリア3に滞在する行動パターンを表示する。
(人検知イベントが検出された場合)
図69Aは、一実施形態に係るシステム1において、親密度低の場合に人検知イベントが検出された場合、他エリアへの移動についての説明図の一例である。図69Bは、一実施形態に係るシステム1において、親密度低の場合に人検知イベントが検出された場合、エリア1またはエリア3からエリア5への移動について説明するための画像例である。
図69Aは、一実施形態に係るシステム1において、親密度低の場合に人検知イベントが検出された場合、他エリアへの移動についての説明図の一例である。図69Bは、一実施形態に係るシステム1において、親密度低の場合に人検知イベントが検出された場合、エリア1またはエリア3からエリア5への移動について説明するための画像例である。
図69Aには、例えば、移動開始条件、エリア5に戻った後のJUNOの行動、エリア5に逃げた後の行動等について記載されている。
人検知イベントは、JUNOがエリア1~4のいずれかにいるときに、例えば人検知されると発生する。人検知イベントが検出されると、移動開始条件が成立する。移動開始条件が成立すると、処理基板224は、JUNOがエリア5に移動する(逃げ帰る)行動パターンを表示する。人検知は、例えば、外部検知(例えば、近接検知(すなわち、例えばユーザがJUNOに近付いたことによって人検知された場合)、ジェスチャー検知、呼び掛け検知、または、所定デシベル以上の大きな音の検知等の外部検知)等が相当する。
図69Bに示されるようにJUNOがエリア5に戻った後、処理基板224は、怒り、そっぽを向く等の動作をみせるモーション再生を行うとともに、所定周期で移動抽選を行う。この移動抽選に当選すると、処理基板224は、他のエリアに移動する行動パターンを表示する。移行先のエリアは、上述の図63及び図64に示される移動確率にもとづいて決定される。なお、移動抽選が行われるまで、処理基板224は、JUNOがエリア5に滞在する行動パターンを表示する。
(コミュニケーション機能)
次に、親密度低の場合におけるJUNOのコミュニケーション機能について、説明する。図70A及び図70Bは、一実施形態に係るシステム1において、親密度低の場合におけるJUNOのコミュニケーション機能について説明するための図の一例である。
次に、親密度低の場合におけるJUNOのコミュニケーション機能について、説明する。図70A及び図70Bは、一実施形態に係るシステム1において、親密度低の場合におけるJUNOのコミュニケーション機能について説明するための図の一例である。
図70Aに示されるように、JUNOは、ユーザによる呼びかけに応答しない。また、ユーザがJUNOに呼びかけた場合に、JUNOがエリア1~4にいるとき、JUNOはエリア5に移動する(逃げる)。なお、JUNOがエリア5に移動する場合、状況等により再生されるモーションが異なる。
また、図70Bに示されるように、親密度低の場合、JUNOは自発的発話をしない。エリア移動は、所定周期で行われる移動抽選(周期判定)の結果に応じて行う。また、後述する家電制御機能、アラーム機能及びタイマー機能を利用することもできない。
以下に、親密度低においてJUNOが、エリア1~4のいずれかのエリアからエリア5に移動する場合に再生されるJUNOのモーションの一例について、図70Aを参照して簡単に説明する。
JUNOがエリア1~4のいずれかに待機中(すなわち待機モーション再生中)であるときにイベント(例えば呼びかけ)を検出した場合、処理基板224は、待機モーションを中断、耳が反応するモーションを再生、180度ターンモーションを再生、エリア5に向かった移動(走る、歩く等)の順で、JUNOの行動パターンを表示する。また、処理基板224は、JUNOがエリア5に着いたら180度ターンをさせて待機モーションを開始し、行動派生として、歩いている途中に頭のみ振り返る行動を行い、エリア5まで移動する。そして、処理基板224は、JUNOがエリア5に着いたら180度ターンをさせて待機モーションを開始する行動パターンを表示する。
また、JUNOがエリア1~4のいずれかにいるときに例えば移動開始条件が成立し、エリア移動する直前等のショートモーション再生中にイベント(例えば呼びかけ)を検出した場合、処理基板22は、ショートモーション再生完了、耳が反応するモーションを再生、180度ターンモーションを再生、エリア5に向かった移動(走る、歩く等)の順で、JUNOの行動パターンを表示する。また、処理基板224は、JUNOがエリア5に着いたら180度ターンをさせて待機モーションを開始し、行動派生として、歩いている途中に頭のみ振り返る行動を行い、エリア5まで移動する。そして、処理基板224は、エリア5に着いたら180度ターンをさせて待機モーションを開始する行動パターンを表示する。
また、JUNOがエリア1~4のいずれかにいるときに例えば移動開始条件が成立し、エリア移動中にイベント(例えば呼びかけ)を検出した場合、処理基板224は、エリア移動を停止し、耳が反応するモーションを再生、180度ターンモーションを再生、エリア5に向かった移動(走る、歩く等)の順で、JUNOの行動パターンを表示する。また、処理基板224は、JUNOがエリア5に着いたら180度ターンをさせて待機モーションを開始し、行動派生として、歩いている途中に頭のみ振り返る行動を行い、エリア5まで移動する。そして、処理基板22は、エリア5に着いたら180度ターンをさせて待機モーションを開始する行動パターンを表示する。
なお、JUNOがエリア5にいるときにイベント(例えば呼びかけ)が発生したとしても、処理基板224は、JUNOが無反応であることを示す行動パターンを表示する。
また、親密度低において、JUNOは自発的に発話をしない。また、処理基板224は、所定周期で移動抽選を行い、この移動抽選の結果にもとづいてJUNOのエリア移動表示を行う。また、処理基板224は、所定周期で行われる移動抽選の他、上述の餌やりイベントが検出された場合(ユーザが餌を与えた場合)、ランダムに発生する爪とぎイベントが検出された場合、人検知イベントが検出された場合(人検知された場合)にも、他エリアに移動する行動パターンを表示しうる。なお、親密度低では、後述するその他機能等(家電制御機能、アラーム機能、タイマ機能)を利用することができない。
このようにして、処理基板224は、親密度低において、JUNOがあたかも仮想本能機能を持っているかのような行動パターンを表示することが可能となる。
(新密度低におけるその他のモーション例)
JUNOのモーションについては上述したとおりであるが、JUNOのモーションは上述した例に限られず、様々なモーション再生が行われるようにするとよい。JUNOの再生モーションの例を、図71~図76に示す。
JUNOのモーションについては上述したとおりであるが、JUNOのモーションは上述した例に限られず、様々なモーション再生が行われるようにするとよい。JUNOの再生モーションの例を、図71~図76に示す。
図71は、一実施形態に係るシステム1において、イベント検出したときにJUNOが逃げる場合の再生モーションの一例を示す図である。JUNOの具体的な動作は図71に示すとおりであるため、詳細な説明については省略する。
図72は、一実施形態に係るシステム1において、JUNOがエリア移動中にターンして逃げる場合の再生モーションの一例を示す図である。JUNOの具体的な動作は図72に示すとおりであるため、詳細な説明については省略する。
図73は、一実施形態に係るシステム1において、JUNOが待機中にターンして逃げる場合の再生モーションの一例を示す図である。JUNOの具体的な動作は図73に示すとおりであるため、詳細な説明については省略する。
図74は、一実施形態に係るシステム1において、JUNOが餌を食べているときにイベント検出された場合の再生モーションの一例を示す図である。JUNOの具体的な動作は図74に示すとおりであるため、詳細な説明については省略する。
図75は、一実施形態に係るシステム1において、JUNOが爪とぎしているときにイベント検出された場合の再生モーションの一例を示す図である。JUNOの具体的な動作は図75に示すとおりであるため、詳細な説明については省略する。
図76は、一実施形態に係るシステム1において、JUNOが睡眠中にイベント検出されて逃げる場合の再生モーションの一例を示す図である。JUNOの具体的な動作は図76に示すとおりであるため、詳細な説明については省略する。
なお、図71~図76に示される再生モーションの例は、親密度低の場合のみならず、親密度中や親密度高の場合にも用いるようにするとよい。
(11-2.親密度中の場合)
図77Aは、一実施形態に係るシステム1において、親密度中の場合におけるJUNOの状態や行動パターン等を説明するための図の一例である。図77Bは、一実施形態に係るシステム1において、親密度中の場合に、システム1の映像表示空間S1に表示される画像例である。
図77Aは、一実施形態に係るシステム1において、親密度中の場合におけるJUNOの状態や行動パターン等を説明するための図の一例である。図77Bは、一実施形態に係るシステム1において、親密度中の場合に、システム1の映像表示空間S1に表示される画像例である。
図77Aに示されるように、親密度中のときのJUNOの状態や心情は、以下のとおりである。すなわち、JUNOは、環境に慣れ始め、どこに何があるのかが解り始めた状態である。また、処理基板224は、JUNOの行動パターンとして、人検知の有無によらず、エリア内を自由に移動できるかのように表示する。すなわち、親密度低の場合のように、JUNOがエリア5を自らの縄張りであると認識しているかのような定位置は存在しない。また、親密度中では、JUNOは、外部からのイベント発生にもとづいて逃走しない。しかし、JUNOは、まだ人に慣れていない部分もあるため、処理基板224は、ユーザからの呼びかけに無視することが多くみられるように制御する。
また、図77Aに示すようにJUNOの行動方針として、定位置に偏りがないように設定されている。親密度中において、JUNOは、徐々に慣れてきたことを示す行動パターンとして、人検知の有無にはよらずエリア1~エリア5を自由に移動している。
図77Bに示されるように、エリア1には餌入れが表示されており、エリア3には爪研ぎ板が表示されている。また、JUNOは、親密度中では、人検知によらず、エリア1からエリア5までの間を自由に移動することができる。なお、エリア5は、外からの影響を受けない範囲となっている。
図78Aは、一実施形態に係るシステム1において、親密度中の場合における他エリアへの移動についての説明図の一例である。図78Bは、一実施形態に係るシステム1において、親密度中の場合に、他エリアへの移動について説明するための画像例である。
また、親密度低の場合と同様に、処理基板224は、例えば、所定周期で移動抽選を行い、この移動抽選の結果にもとづいてJUNOが他エリアへ移動する場合と、イベント検出にもとづいてJUNOが他エリアへ移動する場合とがある。
また、図78A及び図78Bに示されるように、所定周期で行われる移動抽選の結果にもとづいてJUNOが他エリアに移動する場合、所定周期で行われる移動抽選は、親密度低の場合と同様、例えば、上述の図63及び図64に示される移動確率で行われる。なお、上記の所定周期は、例えば、1~10分程度の周期で行われる。また、移動抽選に当選したJUNOが他エリアに移動した場合、処理基板224は、移動後に、移動抽選を行う周期を抽選で決める。この場合、JUNOが移動可能なエリアは例えばエリア1~5のいずれかである。
図78Bに示されるように、親密度中の場合、移動抽選の結果にもとづいてJUNOがエリア1に移動する確率は、例えば5~30%である。同様に、JUNOがエリア2に移動する確率は例えば10~20%、JUNOがエリア3に移動する確率は例えば15~20%、JUNOがエリア4に移動する確率は例えば20%、JUNOがエリア5に移動する確率は例えば50~10%である。
次に、イベント検出にもとづく他エリアへの移動について、図79A~図80Cを参照して説明する。イベント検出には、親密度低の場合と同様、例えば、ユーザが餌を与えた場合に発生しうる餌やりイベント検出、ランダムに発生しうる爪とぎイベントの検出等がある。なお、親密度中では、親密度低である場合のように、人検知された場合に発生しうる人検知イベント検出等があっても、他エリアへの移動は行われないようにするとよい。
(餌やりイベントが検出された場合)
図79Aは、一実施形態に係るシステム1において、親密度中の場合に餌やりイベントが検出された場合、他エリアへの移動についての説明図の一例である。図79Bは、一実施形態に係るシステム1において、親密度中の場合に餌やりイベントが検出された場合、エリア5からエリア1への移動を示す画像例である。
図79Aは、一実施形態に係るシステム1において、親密度中の場合に餌やりイベントが検出された場合、他エリアへの移動についての説明図の一例である。図79Bは、一実施形態に係るシステム1において、親密度中の場合に餌やりイベントが検出された場合、エリア5からエリア1への移動を示す画像例である。
図79Aには、例えば、移動開始条件、エリア5に逃げる条件、餌を食べ終わった後のJUNOの行動等について記載されている。
ユーザが餌を与えると(すなわち餌が発生すると)、餌やりイベントが検出される。餌やりイベントが検出されると、処理基板224は、JUNOが餌を食べる確率を求める。図79Aには「親密度シートから食べる確率を算出」と記載されているが、親密度シートは、親密度低の場合と同様、例えば、図64に示されるエリア1への移動確率が流用される。
移動開始条件が成立すると、処理基板224は、JUNOが餌を食べるための行動を開始する旨を決定する。そして、JUNOが餌を食べるための行動を開始する旨が決定されると、処理基板224は、JUNOが餌を食べるために警戒しながら移動を開始する行動パターンを表示し、例えば図79Bに示されるように、JUNOはエリア5から餌入れが置かれたエリア1まで移動する。なお、親密度中では、エリア5に逃げる条件等は設定されていない。また、外部イベントを検出したとしても逃げることはない。
JUNOが餌を食べ終わった場合、処理基板224は、JUNOが周囲を警戒する行動パターンを表示するとともに、所定周期で移動抽選を行う。この移動抽選に当選すると、処理基板224は、他のエリアに移動する行動パターンを表示する。移行先のエリアは、上述の図63及び図64に示される移動確率にもとづいて決定される。なお、移動抽選が行われるまで、処理基板224は、JUNOがエリア1に滞在する行動パターンを表示する。
(爪とぎイベントが検出された場合)
図80Aは、一実施形態に係るシステム1において、親密度中の場合に爪とぎイベントが検出された場合、他エリアへの移動についての説明図の一例である。図80Bは、一実施形態に係るシステム1において、親密度中の場合に爪とぎイベントが検出された場合、エリア5からエリア3への移動を示す画像例である。
図80Aは、一実施形態に係るシステム1において、親密度中の場合に爪とぎイベントが検出された場合、他エリアへの移動についての説明図の一例である。図80Bは、一実施形態に係るシステム1において、親密度中の場合に爪とぎイベントが検出された場合、エリア5からエリア3への移動を示す画像例である。
図80Aには、例えば、移動開始条件、JUNOがエリア5に逃げる条件、爪とぎ後のJUNOの行動等について記載されている。
親密度低の場合と同様、爪とぎイベントは、例えばランダムに発生する。爪とぎイベントが検出されると、移動開始条件が成立する。爪とぎイベントは、例えば、外部検知(例えば、近接検知(すなわち、例えばユーザがJUNOに近付いたことによって人検知された場合)、ジェスチャー検知、呼び掛け検知、または、所定デシベル以上の大きな音の検知等の外部検知が検出された場合)等に基づいてタイマでの計測を開始し、所定時間(例えば5分間)、外部検知が何ら検出されなかった場合に発生させることで、ランダムに発生させることができる。なお、例えば抽選等によりランダムに爪とぎイベントが発生するようにしてもよい。なお、親密度中では、エリア5に逃げる条件等は設定されていない。また、外部イベントを検出したとしても逃げることはない。
移動開始条件が成立すると、処理基板224は、JUNOが爪を研ぐための行動を開始する旨を決定する。そして、JUNOが爪を研ぐための行動を開始する旨が決定されると、処理基板224は、JUNOが警戒しながら爪を研ぐために移動を開始する行動パターンを表示し、例えば図80Bに示されるように、JUNOはエリア5から爪とぎ板が置かれたエリア3まで移動する。
JUNOが爪研ぎを終了した場合、処理基板224は、所定周期で移動抽選を行う。この移動抽選に当選すると、処理基板224は、他のエリアに移動する行動パターンを表示する。移行先のエリアは、上述の図63及び図64に示される移動確率にもとづいて決定される。なお、移動抽選が行われるまで、処理基板224は、JUNOがはエリア3に滞在する行動パターンを表示する。
(人検知イベントが検出された場合)
図80Cは、一実施形態に係るシステム1において、親密度中の場合に人検知イベントが検出された場合、他エリアへの移動についての説明図の一例である。
図80Cは、一実施形態に係るシステム1において、親密度中の場合に人検知イベントが検出された場合、他エリアへの移動についての説明図の一例である。
図80Cに示されるように、親密度中の場合に人検知イベントが検出されたとしても、親密度低の場合と異なり、JUNOはエリア5に移動しない(逃走しない)。
(コミュニケーション機能)
次に、親密度中の場合におけるJUNOのコミュニケーション機能について、図81A及び図81Bを参照して説明する。図81A及び図81Bは、一実施形態に係るシステム1において、親密度中の場合におけるJUNOのコミュニケーション機能について説明するための図の一例である。
次に、親密度中の場合におけるJUNOのコミュニケーション機能について、図81A及び図81Bを参照して説明する。図81A及び図81Bは、一実施形態に係るシステム1において、親密度中の場合におけるJUNOのコミュニケーション機能について説明するための図の一例である。
親密度中において、JUNOは、ユーザによる呼びかけに応答することができる。ただし、図81Aに示されるように、JUNOがいるエリアによって応答が異なる。
例えば、JUNOがエリア1にいる場合、JUNOはユーザの日本語に反応する。また、ユーザの呼びかけに対して、JUNOは例えば発話をせずモーションのみ等で応答する。また、JUNOがエリア2~4にいる場合、JUNは例えばモーション等で応答する。
また、ユーザが呼びかけると、処理基板224は、応答抽選を行う。ユーザの呼びかけに対してJUNOが応答する確率は、例えば図81Bに示されるように、JUNOが滞在するエリアに応じて設定されている。JUNOがエリア1にいる場合、例えば、エリア1にいる確率(すなわち、図64に示されるエリア1への移動確率である5~30%の確率)が流用され、JUNOがエリア2にいる場合、例えば、エリア2にいる確率(すなわち、図64に示されるエリア2への移動確率である10~20%の確率)が流用される。なお、応答抽選に外れた場合、処理基板224は、ユーザの呼びかけに対してJUNOが無視をする行動パターンを表示する。
上述のモーションでの応答が行われる場合、処理基板224は、JUNOが例えば耳で反応する行動パターンを表示する。例えば、図81Bに示すように、JUNOがエリア1~4にいる場合、処理基板224は、ユーザからの呼びかけに対してJUNOが反応し、耳をピクピクさせる動作を行う行動パターンを表示する。
なお、JUNOがエリア5にいるときにイベント(例えば呼びかけ)が発生したとしても、処理基板224は、JUNOが無反応であることを示す行動パターンを表示する。
(その他、まとめ)
次に、図82を参照して、親密度中におけるその他の概要について説明する。図82は、一実施形態に係るシステム1において、親密度中の場合におけるJUNOのその他の状態や行動等を説明するための図の一例である。
次に、図82を参照して、親密度中におけるその他の概要について説明する。図82は、一実施形態に係るシステム1において、親密度中の場合におけるJUNOのその他の状態や行動等を説明するための図の一例である。
図82に示されるように、親密度中において、JUNOは自発的に発話をしない。また、処理基板224は、所定周期で移動抽選を行い、この移動抽選の結果にもとづいてJUNOのエリア移動表示を行う。また、処理基板224は、所定周期で行われる移動抽選の他、上述の餌やりイベントが検出された場合(ユーザが餌を与えた場合)、ランダムに発生する爪とぎイベントが検出された場合にも、他エリアに移動する行動パターンを表示しうる。なお、親密度中では、後述するその他機能等(家電制御機能、アラーム機能、タイマ機能)を、利用することができない。
このようにして、処理基板224は、親密度中において、JUNOがあたかも仮想本能機能を持っているかのような行動パターンを表示することが可能となる。
(11-3.親密度高の場合)
図83Aは、一実施形態に係るシステム1において、親密度高の場合におけるJUNOの状態や行動パターン等を説明するための図の一例である。図83Bは、一実施形態に係るシステム1において、親密度高の場合に、システム1の映像表示空間S1に表示される画像例である。
図83Aは、一実施形態に係るシステム1において、親密度高の場合におけるJUNOの状態や行動パターン等を説明するための図の一例である。図83Bは、一実施形態に係るシステム1において、親密度高の場合に、システム1の映像表示空間S1に表示される画像例である。
図83Aに示されるように、親密度高のときのJUNOの状態や心情は、以下のとおりである。すなわち、JUNOは、飼い主(ユーザ)を信用するとともに周囲の環境にもすっかり慣れし、野性味がなくなった状態である。処理基板224は、JUNOの行動パターンとして、警戒心を抱かず、ほとんど表示領域の手前方向にいるように表示する。本実施例では、上述の図64に示されるように、親密度高の場合における60日~90日(図64では、便宜上、0~30の30日間として示されている)では、JUNOがエリア1またはエリア2にいる比率(すなわち、エリア1への移動確率とエリア2への移動確率とを合算した確率)が例えば50%以上となっており、ユーザがJUNOに餌を与えた日数が90日を超えると、エリア1にいる比率(すなわち、エリア1への移動確率)が例えば50%を超える。また、親密度高では、JUNOが飼い主(ユーザ)を信頼し、積極的に行動を取り始める状態である。ただし、処理基板224は、例えば気まぐれ係数等を設定し、JUNOの反応を、例えば親密度低または親密度低である場合のように表示する場合が生じうるようにするとよい。
また、図83Aに示すように、JUNOの行動方針として、定位置が設定されている。親密度低におけるJUNOの定位置は、例えばユーザとの距離が最も近いエリア1となっており、JUNOは、エリア1~エリア5のうち、エリア1にいる確率が最も高い。また、JUNOは、主としてエリア1にいるが、エリア1以外の他のエリアにいる場合であっても、人検知に応じてエリア1に移動する。このように、ユーザとの距離が最も近いエリア1にJUNO移動することで、JUNOが慣れていく過程やユーザに懐いていく過程を体現させることができる。とくに、ユーザに最も遠いエリア5からユーザに最も遠いエリア1に移動する場合には、JUNOの移動距離が大きく、JUNOがユーザに近付いてきたこと、すなわちJUNOがユーザに懐いていることを明確に把握することが可能となる。
また、図83Bに示されるように、エリア1には餌入れおよびJUNOが表示されており、エリア3には爪研ぎ板が表示されている。また、エリア5は、外からの影響を受けない範囲となっている。
図84Aは、一実施形態に係るシステム1において、親密度高の場合における他エリアへの移動についての説明図の一例である。図84Bは、一実施形態に係るシステム1において、親密度高の場合に、他エリアへの移動について説明するための画像例である。
また、親密度低及び親密度中の場合と同様に、処理基板224は、例えば、所定周期で移動抽選を行い、この移動抽選の結果にもとづいてJUNOが他エリアへ移動する場合と、イベント検出にもとづいてJUNOが他エリアへ移動する場合とがある。
また、図84A及び図84Bに示されるように、所定周期で行われる移動抽選の結果にもとづいてJUNOが他エリアに移動する場合、所定周期で行われる移動抽選は、親密度低や親密度中の場合と同様、例えば、上述の図63及び図64に示される移動確率で行われる。なお、上記の所定周期は、例えば、1~10分程度の周期で行われる。また、移動抽選に当選したJUNOが他エリアに移動した場合、処理基板224は、移動後に、移動抽選を行う周期を抽選で決める。この場合、JUNOが移動可能なエリアは例えばエリア1~5のいずれかである。
図84Bに示されるように、親密度高の場合、移動抽選の結果にもとづいてJUNOがエリア1に移動する確率は例えば30~50%である。同様に、JUNOがエリア2に移動する確率は例えば20~30%、JUNOがエリア3に移動する確率は例えば20~10%、JUNOがエリア4に移動する確率は例えば20~7%、JUNOがエリア5に移動する確率は例えば10~3%である。
次に、イベント検出にもとづく他エリアへの移動について説明する。イベント検出には、例えば、ユーザが餌を与えた場合に発生しうる餌やりイベント検出、ランダムに発生しうる爪とぎイベント検出、人検知により発生しうる人検知イベント検出等がある。
(餌やりイベントが検出された場合)
図85Aは、一実施形態に係るシステム1において、親密度高の場合に餌やりイベントが検出された場合、他エリアへの移動についての説明図の一例である。図85Bは、一実施形態に係るシステム1において、親密度高の場合に餌やりイベントが検出された場合の一例を示す画像例である。
図85Aは、一実施形態に係るシステム1において、親密度高の場合に餌やりイベントが検出された場合、他エリアへの移動についての説明図の一例である。図85Bは、一実施形態に係るシステム1において、親密度高の場合に餌やりイベントが検出された場合の一例を示す画像例である。
図85Aには、例えば、移動開始条件、エリア5に逃げる条件、餌を食べ終わった後のJUNOの行動等について記載されている。
ユーザが餌を与えると(すなわち餌が発生すると)、餌やりイベントが検出される。餌やりイベントが検出されると、処理基板224は、JUNOが餌を食べる確率を求める。図85Aには「親密度シートから食べる確率を算出」と記載されているが、親密度シートは、親密度低や親密度中の場合と同様、例えば、図64に示されるエリア1への移動確率が流用される。
移動開始条件が成立すると、処理基板224は、JUNOが餌を食べるための行動を開始する旨を決定する。そして、JUNOが餌を食べための行動を開始する旨が決定されると、処理基板224は、JUNOが餌を食べるために警戒しながら移動を開始する行動パターンを表示し、例えば図85Bに示されるように、JUNOは、現在いるエリアから餌入れが置かれたエリア1まで移動する。ただし、親密度高では、JUNOがエリア1にいる場合が多く、エリア1にいる場合に餌やりイベントが発生すると、エリア1において餌を食べ始める。なお、親密度高では、エリア5に逃げる条件等は設定されていない。また、外部イベントを検出したとしても逃げることはない。
JUNOが餌を食べ終わった後、処理基板224は、所定周期で移動抽選を行う。この移動抽選に当選すると、処理基板224は、他のエリアに移動する行動パターンを表示する。移行先のエリアは、上述の図63及び図64に示される移動確率にもとづいて決定される。なお、移動抽選が行われるまで、処理基板224は、JUNOがエリア1に滞在する行動パターンを表示する。
(爪とぎイベントが検出された場合)
図86Aは、一実施形態に係るシステム1において、親密度高の場合に爪とぎイベントが検出された場合、他エリアへの移動についての説明図の一例である。図86Bは、一実施形態に係るシステム1において、親密度高の場合に爪とぎイベントが検出された場合、エリア1からエリア3への移動を示す画像例である。
図86Aは、一実施形態に係るシステム1において、親密度高の場合に爪とぎイベントが検出された場合、他エリアへの移動についての説明図の一例である。図86Bは、一実施形態に係るシステム1において、親密度高の場合に爪とぎイベントが検出された場合、エリア1からエリア3への移動を示す画像例である。
図86Aには、例えば、移動開始条件、JUNOがエリア5に逃げる条件、爪とぎ後のJUNOの行動等について記載されている。
親密度低や親密度中の場合と同様、爪とぎイベントは、例えばランダムに発生する。爪とぎイベントが検出されると、移動開始条件が成立する。爪とぎイベントは、例えば、外部検知(例えば、近接検知(すなわち、例えばユーザがJUNOに近付いたことによって人検知された場合)、ジェスチャー検知、呼び掛け検知、または、所定デシベル以上の大きな音の検知等の外部検知が検出された場合)等に基づいてタイマでの計測を開始し、所定時間(例えば5分間)、外部検知が何ら検出されなかった場合に発生させることで、ランダムに発生させることができる。なお、例えば抽選等によりランダムに爪とぎイベントが発生するようにしてもよい。なお、親密度高では、エリア5に逃げる条件等は設定されていない。また、外部イベントを検出したとしても逃げることはない。
移動開始条件が成立すると、処理基板224は、JUNOが爪を研ぐための行動を開始する旨を決定する。そして、JUNOが爪を研ぐための行動を開始する旨が決定されると、処理基板224は、JUNOが警戒しながら爪を研ぐために移動を開始する行動パターンを表示し、例えば図86Bに示されるように、例えば、JUNOはエリア1から爪とぎ板が置かれたエリア3まで移動する。
JUNOが爪研ぎを終了した場合、処理基板224は、所定周期で移動抽選を行う。この移動抽選に当選すると、処理基板224は、他のエリアに移動する行動パターンを表示する。移行先のエリアは、上述の図63及び図64に示される移動確率にもとづいて決定される。なお、移動抽選が行われるまで、処理基板224は、JUNOがエリア3に滞在する行動パターンを表示する。
(人検知イベントが検出された場合)
図87Aは、一実施形態に係るシステム1において、親密度高の場合に人検知イベントが検出された場合、他エリアへの移動についての説明図の一例である。図87Bは、一実施形態に係るシステム1において、親密度高の場合に人検知イベントが検出された場合、エリア1以外の他のエリアからエリア1への移動について説明するための画像例である。
図87Aは、一実施形態に係るシステム1において、親密度高の場合に人検知イベントが検出された場合、他エリアへの移動についての説明図の一例である。図87Bは、一実施形態に係るシステム1において、親密度高の場合に人検知イベントが検出された場合、エリア1以外の他のエリアからエリア1への移動について説明するための画像例である。
図87Aには、例えば、移動開始条件、エリア1に移動した後のJUNOの行動等について記載されている。
図87A及び図87Bに示されるように、人検知イベントは、JUNOがエリア1~4のいずれかにいるときに、例えば外部検知されると発生する。人検知イベントが検出されると、移動開始条件が成立する。移動開始条件が成立すると、処理基板224は、JUNOがエリア1に移動する(近寄る)行動パターンを表示する。外部検知は、近接検知(すなわち、例えばユーザがJUNOに近付いたことによって人検知された場合)、ジェスチャー検知、呼び掛け検知、または、所定デシベル以上の大きな音の検知等の外部検知が検出された場合)等が相当する。
JUNOがエリア1に移動した後、処理基板224は、所定周期で移動抽選を行う。この移動抽選に当選すると、処理基板224は、他のエリアに移動する行動パターンを表示する。移行先のエリアは、上述の図63及び図64に示される移動確率にもとづいて決定される。なお、移動抽選が行われるまで、処理基板224は、JUNOがエリア1にいる滞在する行動パターンを表示する。
(コミュニケーション機能)
次に、親密度高の場合におけるJUNOのコミュニケーション機能について、図88A及び図88Bを参照して説明する。図88Aは、一実施形態に係るシステム1において、親密度高の場合におけるJUNOのコミュニケーション機能の一例である呼びかけ応答について説明するための図の一例である。図88Bは、一実施形態に係るシステム1において、親密度高の場合に呼びかけがあったときのエリア移動について説明するための画像例である。
次に、親密度高の場合におけるJUNOのコミュニケーション機能について、図88A及び図88Bを参照して説明する。図88Aは、一実施形態に係るシステム1において、親密度高の場合におけるJUNOのコミュニケーション機能の一例である呼びかけ応答について説明するための図の一例である。図88Bは、一実施形態に係るシステム1において、親密度高の場合に呼びかけがあったときのエリア移動について説明するための画像例である。
図88Aに示されるように、応答条件が成立すると、処理基板224は、JUNOが例えばユーザからの呼びかけに対して日本語で応答するよう制御可能である。また、処理基板224は、JUNOがいるエリアによって応答内容が異なるように制御可能である。なお、応答条件は、例えばユーザからの呼びかけが検知された場合等が相当する。
図88Aに示されるように、人検知イベントは、JUNOがエリア1~4のいずれかにいる場合、処理基板224は、JUNOがユーザからの呼びかけに対して例えば日本語またはモーションで応答するよう制御可能である。また、JUNOがエリア2~4にいる場合、処理基板224は、JUNOがユーザからの呼びかけに対して例えばモーションで応答するよう制御可能である。
JUNOがエリア1にいる場合で、かつ日本語を習得していない場合、処理基板224は、以下のとおり制御する。すなわち、例えばユーザからの呼びかけ等のイベントが検知された場合、処理基板224は、イベント検出に合わせてJUNOがモーションで応答するよう制御する。
また、JUNOがエリア1にいる場合で、かつ日本語を習得している場合、処理基板224は、以下のとおり制御する。すなわち、例えばユーザからの呼びかけ等のイベントが検知された場合、呼びかけられた日本語をJUNOが覚えていれば(すなわち、呼びかけられた日本語を習得済みであれば)、処理基板224は、JUNOが日本語で応答するよう制御する。一方、JUNOがエリア1にいる場合で、かつ日本語を習得している場合であっても、呼びかけられた日本語をJUNOが覚えていなければ(すなわち、呼びかけられた日本語を習得済みでなければ)、処理基板224は、JUNOがモーションで応答するよう制御する。
また、JUNOがエリア2~4にいる場合、例えばユーザからの呼びかけ等のイベントが検知された場合、処理基板224は、イベント検出に合わせてJUNOがモーションで応答するよう制御する。
また、JUNOがエリア5にいるとき、例えば呼びかけ等のイベントが検知されたとしても、処理基板224は、JUNOが無反応となるよう制御する。上述したとおり、エリア5は外部からの影響を受けない範囲のためである。
なお、本実施例では、JUNOが日本語を習得し、話すことができるようになったとしても、自発的には発話しないよう制御される。したがって、ユーザが呼びかける等のイベントが検知されない限り、JUNOからユーザには話しかけないよう制御される。ただし、これに限定されず、ユーザからの呼びかけ等のイベントを検知していなくとも、例えば人検知等のイベントが発生した場合等に、処理基板224は、JUNOから自発的に発話するように制御するとよい。
また、図88Bに示されるように、親密度高の場合に呼びかけがあった場合、JUNOは、例えば、30~50%の確率でエリア1に移動し、20~30%の確率でエリア2に移動し、20~10%の確率でエリア3に移動し、20~7%の確率でエリア4に移動し、10~3%の確率でエリア5に移動する。なお、上記の確率には、移動する確率のみならず、元と同じ場所に滞在する確率も含まれる。
本実施例では、JUNO(キャラクタ)が習得する言語を日本語であることを前提として説明しているが、習得する言語は日本語に限られず、例えば、英語、中国語、フランス語、ドイツ語及び韓国語等の他の言語としてもよいし、複数の言語を習得可能としてもよい。また、ユーザが話した言語を習得するようにするとよい。
(まとめ)
次に、図89を参照して、親密度高におけるJUNOの行動のまとめについて説明する。図89は、一実施形態に係るシステム1において、親密度高の場合におけるJUNOの行動のまとめを説明するための図の一例である。
次に、図89を参照して、親密度高におけるJUNOの行動のまとめについて説明する。図89は、一実施形態に係るシステム1において、親密度高の場合におけるJUNOの行動のまとめを説明するための図の一例である。
上述したとおり、処理基板224は、所定周期で移動抽選を行い、この移動抽選の結果にもとづいてJUNOのエリア移動表示を行う。また、処理基板224は、所定周期で行われる移動抽選の他、上述の餌やりイベント、爪とぎイベント又は人検知イベントが検出された場合にも、他エリアに移動する行動パタ―ンを表示しうる。
このようにして、処理基板224は、親密度高において、JUNOがあたかも仮想本能機能を持っているかのような行動パターンを表示することが可能となる。
<12.親密高特有の機能>
ところで、親密度高では、親密度低や親密度中では有していない特有の機能が存在する。以下、親密度高特有の機能について、図90A、図90B、図90C、図90D及び図91を参照して説明する。
ところで、親密度高では、親密度低や親密度中では有していない特有の機能が存在する。以下、親密度高特有の機能について、図90A、図90B、図90C、図90D及び図91を参照して説明する。
図90Aは、一実施形態に係るシステム1における親密度高特有の機能を説明するための図の一例である。
図90Aに示されるように、親密度高特有の機能は、例えば、家電制御機能、アラーム機能およびタイマ機能等である。
アラーム機能とタイマ機能とは類似する機能ではあるが、本実施例では、時間経過をユーザに確実に伝えるという観点から例えば複数回(例えば5回)にわたって時間経過をユーザに伝える機能をアラーム機能とし、時間経過を1回だけユーザに伝える機能をタイマ機能としている。
処理基板224のROM702には、図90Aに示されるように、同じ機能を有する複数の呼びかけワードが記憶される複数の呼びかけワード群と、呼びかけワード群に対応するJUNO応答ワードとが記憶されている。JUNO応答ワードには、内容を確認する内容確認ワードと、実施(または時間経過)したことを伝える実施ワードとが記憶されている。
なお、本実施例では、同じ機能を有する複数の呼びかけワード群として、例えば、タイマの呼びかけワード群、アラームの呼びかけワード群、家電制御の呼びかけワード群等が記憶されているが、これに限定されない。
図90Bは、一実施形態に係るシステム1における親密度高特有の機能を説明するための図の一例であって、タイマー機能についての呼びかけワード群及びJUNO応答ワード(キャラクタ応答ワード)の一例を示す図である。
図90Bに示されるように、例えば、タイマー機能の呼びかけワード群には、「**分タイマー」、「**分タイマー設定して」及び「**分後にタイマー設定して」といった複数の呼びかけワードが記憶されている。また、タイマー機能の呼びかけワード群に対応するJUNO応答ワードとして、例えば、「**分タイマー設定するね~」といった内容確認ワードと、「時間になったよ~」といった実施ワードとが記憶されている。
図90Cは、一実施形態に係るシステム1における親密度高特有の機能を説明するための図の一例であって、アラーム機能についての呼びかけワード群及びJUNO応答ワード(キャラクタ応答ワード)の一例を示す図である。
図90Cに示されるように、例えば、アラーム機能の呼びかけワード群には、「**分アラーム」、「**分アラーム設定して」及び「**分にアラーム設定して」といった複数の呼びかけワードが記憶されている。また、アラーム機能の呼びかけワード群に対応するJUNO応答ワードとして、例えば、「**時**分後にアラーム設定するね~」といった内容確認ワードと、「時間になったよ~」を5回繰り返す実施ワードとが記憶されている。
図90Dは、一実施形態に係るシステム1における親密度高特有の機能を説明するための図の一例であって、家電制御機能についての呼びかけワード群及びJUNO応答ワード(キャラクタ応答ワード)の一例を示す図である。
図90Dに示されるように、例えば、家電制御機能の呼びかけワード群には、「テレビつけて」、「テレビ入れて」及び「テレビオン」といった複数の呼びかけワードが記憶されている。また、家電制御機能の呼びかけワード群に対応するJUNO応答ワードとして、例えば、「〇〇つけるね~/〇〇けすね~」といった内容確認ワードと、「やってみたよ~」といった実施ワードとが記憶されている。
図90Aに戻って説明すると、ユーザからの呼びかけ等の外部イベントが検出されると、処理基板224は、呼びけられたワードが、いずれかの呼びかけワード群に記憶されているか否かを判断する。呼びかけられたワードがいずれかの呼びかけワード群に記憶されていれば、処理基板224は、呼びかけられたワードが記憶されている呼びかけワード群に対応するJUNO応答ワード(内容確認ワード)をJUNOが発するよう制御する。そして、処理基板224は、呼びかけワードに対応する内容を実施し、JUNOが応答ワード(実施ワード)を発するよう制御する。
例えば、ユーザからの呼びかけが検出され、呼びけられたワードが家電制御機能の設定ワードである場合、処理基板224は、呼びかけられたワードが記憶されているか否かを判断し、呼びかけられたワードが記憶されていれば、JUNOが「○○つけるね~」や「○○けすね~」といった内容確認ワードを発するよう制御するとともにその内容を実施し、その後、JUNOが「やってみたよ~」と発するよう制御する。
図91は、一実施形態に係るシステム1におけるタイマ機能及びアラーム機能を説明するための図の一例である。図91に示されるように、タイマやアラームが設定済みの場合は、音声で情報をキャンセルすることができる。例えば、「アラームキャンセル」等の呼びかけワード検知すると、処理基板224は、JUNOが「アラームをキャンセルするね~」と発するよう制御するとともに、その内容が実施されないようキャンセル処理する。
また、タイマやアラームを設定済みのときに追加でタイマやアラームを設定した場合は、上書き設定される。例えば、ユーザが「3時15分にアラーム」等のワードを言うと、JUNOが「3時15分にアラームを設定するね~」等と発し、上書き設定される。なお、タイマ及びアラームはあわせて1つしか設定することができないが、これに限られず、タイマ及びアラームをそれぞれ1つずつ設定することができるようにしてもよいし、タイマ及びアラームの少なくともいずれかについては複数設定することができるようにしてもよい。
<13.日本語習得機能>
図92A~図101Dを参照して、JUNOの日本語習得機能について説明する。日本語習得機能は、例えば親密度中で解放される(すなわち、親密度中で発動する)機能である。
図92A~図101Dを参照して、JUNOの日本語習得機能について説明する。日本語習得機能は、例えば親密度中で解放される(すなわち、親密度中で発動する)機能である。
図92A及び図92Bは、一実施形態に係るシステム1において、キャラクタが日本語を覚える仕様の一例を説明するための図である。
図92Aに示されるように、ユーザがJUNOに根気強く日本語で話し掛けることで、JUNOが日本語を学習することができる。日本語で話し掛けられた場合の1日当たりの上限(後述する)を設定し、さらに、日本語での呼びかけがない日は日本語を学習できる1日当たりの上昇上限を減少させるようにするとよい。このようにすることで、日本語学習を毎日行わないとJUNOが日本語を覚えることができない。また、一度覚えたとしても、JUNOに話しかけない日が続くとJUNOは日本語で応答しなくなる。
JUNOがエリア1にいるときにユーザに呼びかけられると、処理基板224は、呼びかけられた回数をカウントする。ただし、1日当たりにカウントアップできる上限(上述の上昇上限)が設定されている。
また、図92Bに示されるように、日本語を習得するまでには、日本語が分からない状態、日本語を覚えようとする状態、日本語を話す状態といった複数の状態を経る。日本語が分からない状態や覚えようとする状態では、例えばユーザに呼びかけられたとしてもモーションのみの応答等である。また、日本語を話す状態では、例えば日本語を発話等するようになる。
(13-1.日本語が分からない状態)
日本語が分からない状態において、ユーザから話し掛けられた言葉の中に、処理基板224のROM702に事前に登録された登録ワード(後述する)があれば、後述するその群の回数をカウントアップする。例えば「おはよう」と話しかけられた場合は「おはよう群」の回数を1回カウントアップする。この話しかけられた回数は、後述するキャラクタ専用保存情報に保存される。
日本語が分からない状態において、ユーザから話し掛けられた言葉の中に、処理基板224のROM702に事前に登録された登録ワード(後述する)があれば、後述するその群の回数をカウントアップする。例えば「おはよう」と話しかけられた場合は「おはよう群」の回数を1回カウントアップする。この話しかけられた回数は、後述するキャラクタ専用保存情報に保存される。
なお、処理基板224のROM702に事前に登録されていないワードがユーザから話しかけられたとき、JUNOはリアクションをしない。例えば、ユーザがJUNOに「グッドモーニング」と話しかけたとしても、「グッドモーニング」が登録されていないワードである場合、JUNOはリアクションをしない。また、話しかけられた回数もカウントしない。
なお、例えば、ユーザから登録ワード(後述する)を話しかけられた回数及び1日あたりの上昇上限等については設定しなくてもよい。また、設定等の状況によっては、日本語を覚えるまでの回数を変更させる等してもよい。
次に、上述したが、JUNOの各親密度における呼びかけ応答について改めて説明する。図93Aは、一実施形態に係るシステム1において、親密度低におけるJUNO(キャラクタ1200)の応答を説明するための図の一例である。図93Bは、一実施形態に係るシステム1において、親密度中におけるJUNO(キャラクタ)の応答を説明するための図の一例である。図93Cは、一実施形態に係るシステム1において、親密度高におけるJUNO(キャラクタ)の応答を説明するための図の一例である。
図93Aに示されるように、親密度低の場合、JUNOは、ユーザから呼びかけられると例えばエリア5に逃げるモーションを行う。
図93Bに示されるように、親密度中の場合、JUNOは、エリア1~エリア4にいるときにユーザから呼びかけられるとモーションで応答する。
図93Cに示されるように、親密度高の場合、JUNOは、エリア2~エリア4にいるときにユーザから呼びかけられると、モーションで応答する。一方、エリア1にいるときにユーザから呼びかけられると「おはよう」等の日本語で応答する。ただし、日本語で応答するのは、覚えた登録ワードで呼びかけられた場合である。覚えていない登録ワードで呼びかけられた場合は、モーションのみとなる。
次に、認識ワードについて説明する。図94は、一実施形態に係るシステム1において、認識ワードのうちとくにオウム返し系ワード群について説明するための図の一例である。
図94に示されるように、認識ワードには、例えば、習慣的な挨拶群、対話系ワード群及びオウム返し系ワード群等が含まれる。なお、図94には、オウム返し系ワード群テーブルが図示されており、このオウム返し系ワード群テーブルは、処理基板224のROM702に記憶されている。
図94に示されるように、オウム返し系ワード群テーブルには、「おはよう」や「こんばんは」等のユーザからの呼びかけと同じ内容を返すJUNOの応答ワードが含まれている。例えば、ユーザがJUNOに「おはよう」と話しかけると、JUNOは「おはよう」とオウム返し(すなわち復唱)をする。このように、ユーザの呼びかけに対してJUNOがオウム返しをすることにより、JUNOに対する親近感をユーザに与えることができる。とくに、ユーザに近いエリア1においてJUNOからオウム返しされることにより、JUNOに対してより一層大きな親近感をユーザに与えることができる。しかも、親密度高である場合に限りJUNOがオウム返しするため、ユーザとJUNOとの間での絆をより一層深めることができる。
また、オウム返し系ワード群テーブルの呼びかけワード群には、例えば、「おはよう群」、「こんにちは群」、「こんばんは群」、「おやすみ群」等の複数のワード群が設定されている。「おはよう群」には例えば「おはよう」等の呼びかけワード(登録ワード)が設定されている。「こんにちは群」には例えば「こんにちは」等の登録ワードが設定されている。「こんばんは群」には例えば「こんばんは」等の呼びかけワード(登録ワード)が設定されている。「おやすみ群」には例えば「おやすみ」等の呼びかけワード(登録ワード)が設定されている。
図95は、一実施形態に係るシステム1において、対話系ワード群について説明するための図の一例である。図95には、ワード群名と、呼びかけワード群と、JUNO応答ワードとで構成される対話系ワード群テーブルが示されている。対話系ワード群テーブルは、例えば処理基板224のROM702に記憶されている。なお、図95に示される対話系ワード群テーブルは一部のみであり、対話系ワード群テーブルの詳細については、図96A~図97Eに示している。
図96A及び図96Bは、図95に示される対話系ワード群テーブルのうち、ワード群名と、呼びかけワード群との一例を示す図である。なお、ワード群名と呼びかけワード群とは紐づいている。
また、図97A及び図97Bは、図95に示される対話系ワード群テーブルのうち、ワード群名と、第1段階、第2段階及び第3段階におけるJUNO応答ワード(キャラクタ応答ワード)との一例を示す図である。なお、ワード群名とJUNO応答ワードとは紐づいている。
また、図97C~図97Eは、図95に示される対話系ワード群テーブルのうち、ワード群名と、第4段階におけるJUNO応答ワード(キャラクタ応答ワード)との一例を示す図である。なお、ワード群名とJUNO応答ワードとは紐づいている。
図95に示されるように、JUNO応答ワードは、ユーザが呼びかけた言葉に対して、複数段階(例えば第1段階~第4段階)に分けて設定されている。呼びかけられたワードについてはカウントアップされ、所定回数にいたると段階がアップする。段階は、例えば、第1段階、第2段階、第3段階、第4段階の順にランクアップする。例えば、第1段階では、ユーザがJUNOに「JUNO」と呼びかけたとしても、JUNOは「ん?」と応答するだけである。
なお、図面において明示されていないが、対話系ワード群テーブルには、呼びかけ系ワード群と辞書登録系ワード群とが設定されている。例えば、呼びかけ系ワード群には、JUNOが反応することを期待して話す言葉(呼びかけ系ワード)が含まれる。また、例えば、辞書登録系ワード群には、JUNOが返答することを期待して話す言葉(辞書登録系ワード)が含まれている。
呼びかけワード群は、例えば、図96Aに示される「ユノ(1)」、「ユノ(2)」、「問い掛け」及び「呼ぶ」等の各ワード群が相当する。「ユノ(1)」には「ユノ」等の登録ワードが設定されている。「ユノ(2)」には「猫ちゃん」等の登録ワードが設定されている。「問い掛け」には「もしもし」等の登録ワードが設定されている。「呼ぶ」には「おいでおいで」等の登録ワードが設定されている。
辞書登録系ワード群は、例えば、図96Aに示される「行ってきます群」、図96Bに示される「空腹群」、「御飯の時間群」等のように、JUNOが返答することを期待して話す種々のワード群がある。「行ってきます群」には例えば「コンビニに行くね」等の登録ワードが設定されている。「空腹群」には例えば「お腹すいたー」等の登録ワードが設定されている。「御飯の時間群」には例えば「御飯の時間だね」等の登録ワードが設定されている。
また、図97C~図97Eに示されるように、対話系ワード群テーブルの呼びかけ系ワード群及び辞書登録系ワード群には、各ワード群に紐づくJUNOの応答ワードが設定されている。JUNOの応答ワードは、上述したとおり、第1段階と、第2段階と、第3段階と、第4段階とに分かれている。第3段階以降には、第1段階及び第2段階と比べて、感情豊かな応答ワードが多く設定されている。JUNOの感情としては、嬉しい、悲しい、怒り等がある。例えば、JUNOが嬉しいときの感情をあらわす応答ワードとして例えば「なーに、寂しがりやさん」等が設定されている。また、例えば、JUNOが悲しいときの感情をあらわすワードとして例えば「そばにいるのに、見えないのかな」等が設定されている。また、例えば、キャラクタ1200が怒っているときの感情をあらわす応答ワードとして「用もないのに、呼ばないでほしい」等が設定されている。
なお、詳細は後述するが、JUNOの応答ワードの第1段階、第2段階、第3段階、及び、第4段階は、JUNOの日本語学習により順次解放されるものである。日本語学習の第1段解放以降より、対話系ワード群テーブルの呼びかけワード群で回数の記録を開始する。対話系ワード群テーブルの呼びかけワード群の回数が指定回数を超えると、応答ワードが段階的に解放される。そして、第4段階が解放されると、登録情報がすべて解放される。
(13-2.言語(例えば日本語等)を覚えようとする状態)
次に、言語(例えば日本語等)を覚えようとする状態について図98A~図98Cを参照して説明する。図98A~図98Cは、一実施形態に係るシステム1において、JUNOが言語を覚えようとする状態について説明するための図の一例である。本実施例では、JUNOが覚えようとする言語が日本語であるものとして説明する。
次に、言語(例えば日本語等)を覚えようとする状態について図98A~図98Cを参照して説明する。図98A~図98Cは、一実施形態に係るシステム1において、JUNOが言語を覚えようとする状態について説明するための図の一例である。本実施例では、JUNOが覚えようとする言語が日本語であるものとして説明する。
なお、日本語学習の呼びかけ回数のカウント開始は親密度中からである。一方、覚えた言葉の応答(日本語)開始は親密度高からである。すなわち、親密度中において言葉を覚えたとしても、親密度高になるまでは日本語での応答が開始されない。
図98Aに示されるように、JUNOがオウム返し系ワード群を覚える場合、ユーザから登録ワードの問い掛けに応じて覚える。例えば、問い掛けられた登録ワードの回数が累積20回以上になると、JUNOはその言葉を覚えることができる。例えば「おはよう」と呼びかけられた場合は「おはよう」と呼びかけられた回数を1回カウントする。この問い掛けられた回数は、後述するキャラクタ専用保存情報に保存される。
また、親密度高であってかつJUNOがエリア1にいるとき、覚えた言葉をユーザから問い掛けられると、JUNOはオウム返しをする。
例えば、ユーザがJUNOに「おはよう」と問い掛けると、「おはよう」と問い掛けられた回数を1回カウントする。そして、「おはよう」と呼びかけられた回数が、例えば20回以上になると、JUNOは「おはよう」とオウム返しをする。なお、例えば「おはようございます」等、JUNOが覚えていない言葉をユーザが問い掛けた場合、JUNOが例えば「知らんがな!」といった仮想的な心情を持っているものとして、JUNOは日本語で応答しない。
また、図98Bに示されるように、オウム返し系ワード群では、呼びかけられた登録ワードを個別で管理し、他の登録ワードの呼びかけ回数は更新しない。例えば「おはよう」と呼びかけられた場合は「おはよう」と呼びかけられた回数を1回カウントする。そのとき「おはようございます」等、同じ群の登録ワードであっても、「おはよう」と呼びかけられた回数は変化しない。また、終日まったく登録ワードを呼び掛けられない場合でも、呼びかけた回数は減少しない。例えば、1週間全く呼びかけられない状態であっても、後述するキャラクタ専用保存情報に保存されるので設定情報は変わらない。
また、図98Cに示されるように、JUNOがオウム返し系ワード群の登録ワードを3ワード以上覚えると、対話系ワード群の第1段階が解放される。対話系ワード群の第1段階の解放後は、個別のワード群の問い掛け回数に応じて、応答の種類が増える。例えば、個別のワード群で累積20回以上問い掛けられると、1段階ずつ解放される。
また、例えば、ユーザが問い掛けた登録ワードの回数が例えば20回になると、JUNOはその言葉を覚える。例えば、ユーザから例えば「おはよう」、「こんにちは」、「おやすみ」等の各登録ワードの呼びかけ回数が例えば20回以上であった場合、JUNOは3ワード以上覚えたことになる。そして、対話系ワード群の第1段階が解放される。第1段階が解放されると、対話系ワード群の呼びかけワードに対して、親密度高におけるJUNOは各ワード群に紐づく応答ワードで応答する(例えば、図96A~図97Eを参照)。
例えば、ユーザが「ユノ」と問い掛けると、JUNOは「なーにー」と応答する。また、例えば、ユーザが「こっちこっち」と問い掛けると、JUNOは「どうしたの」と応答する。さらに、例えば、ユーザが「行ってきます」と問い掛けると、JUNOは「いってらっしゃい」と応答する。
図99A及び図99Bは、一実施形態に係るシステム1において、応答の流れの一例を示す図である。親密度高であってかつエリア1にいるときに、JUNOが覚えた言葉を問い掛けられるとオウム返しをする。
図99Aに示されるように、例えば「おはよう」と問い掛けられた回数が20回より少ない場合、ユーザが「おはよう」と問い掛けたとしても、JUNOは、親密度にかかわらず、モーションのみで応答する。ただし、「おはよう」と問い掛けられた回数をカウントアップする。
また、例えば「おはよう」と問い掛けられた回数が20回以上であったとしても、親密度が中である場合、ユーザが「おはよう」と問い掛けたとしても、JUNOは、モーションのみで応答する。この場合も、「おはよう」と問い掛けられた回数をカウントアップする。
これに対し、例えば「おはよう」と問い掛けられた回数が20回以上であって、かつ親密度が高である場合、ユーザが「おはよう」と問い掛けると、JUNOは、「おはよう」とオウム返しをする。なお、親密度高の場合は、外部イベント発生に伴い、必ずエリア1に移動し、例えばオウム返し等する。
また、図99Bに示されるように、親密度高の場合であって、かつエリア1にいるときに覚えた言葉が3つ以上である場合、対話系ワード群の問い掛けに対して、JUNOは第1段階の言葉で応答する(例えば図96A~図97Bを参照)。
なお、対話系ワード群は、リアクションはするものの日本語応答はせず、問い掛けられた回数のカウントアップは行われない。オウム返し系ワード群から3ワード以上JUNOが覚えることによって第1段階が解放され、それに伴い対話系ワード群の回数の記録を開始する。
図100は、一実施形態に係るシステム1において、日本語応答する場合について説明するための図の一例である。図100に示されるように、親密度高であってかつオウム返し系ワード群から3ワード以上覚えた場合、JUNOは各段階に応じた応答を行うようになる。
例えば、図100に示されるように、第1段階では、ユーザから「ユノ」と問い掛けられた場合、JUNOは「ん?」とそっけない返答をする。第2段階では、ユーザから「ユノ」と問い掛けられた場合、JUNOは「ん?」に加えて「なに?」と普通の返答をする。第3段階では、ユーザから「ユノ」と問い掛けられた場合、JUNOは「ん?」「なに?」に加えて「はーい」と親しみのある返答をする。第4段階では、ユーザから「ユノ」と問い掛けられた場合、JUNOは「ん?」「なに?」「はーい」と親しみのある返答が行われるとともに、例えば、後述する親密度高特有の全機能が解放される。
また、各段階は、対話系呼びかけワード群の呼びかけ回数に応じて解放される。例えば、対話系ワード群のいずれかの呼びかけワード群の回数が20回以上の場合は、第2段階が解放される。例えば、対話系ワード群のいずれかの呼びかけワード群の回数が40回以上の場合は、第3段階が解放される。例えば、対話系ワード群のいずれかの呼びかけワード群の回数が60回以上の場合は、第4段階が解放される。
いずれかのワード群で第4段階まで解放されると、親密度高特有の機能が解放される。親密度高特有の機能としては、天気およびニュースの問い合わせ、家電制御機能、タイマ機能、アラーム機能の機能等がある。
図101A~図101Dは、一実施形態に係るシステム1において、特殊な呼びかけワードを説明するための図の一例である。図101A~図101Dに示されるように、処理基板224が有するROM702には、天気、ニュース、家電制御、タイマ、アラームを設定するための特殊な呼びかけワードが設定されている。家電制御機能、タイマ機能、アラーム機能については、上述したものと同様であるため詳細な説明は省略する。天気、ニュースの問い合わせでは、「いつ(例えば、今日)」「どこで(例えば、どこの)」「キーワード(例えば、天気)」「動詞(例えば、教えて)」等が設定されている。天気、ニュースについての詳細な説明は後述する。
JUNOが日本語を喋ることができるようになるのは親密度高となってからである。親密度高から親密度中に遷移した場合には、JUNOが日本語を喋ることができなくなる。親密度は、JUNOに数日間餌を与えないと下がる仕様である。
<14.返答ワードの優先度について>
図102A~図105Cを参照して、ユーザ呼びかけによる返答ワードの優先度について説明する。図102A~図102Cは、一実施形態に係るシステム1において、返答ワードの優先度の概要を説明するための図の一例である。図103は、一実施形態に係るシステム1において、呼びかけ系及び辞書登録ワード系を説明するための図の一例である。図104A~図105Cは、一実施形態に係るシステム1において、返答ワードの優先度を説明するための図の一例である。
図102A~図105Cを参照して、ユーザ呼びかけによる返答ワードの優先度について説明する。図102A~図102Cは、一実施形態に係るシステム1において、返答ワードの優先度の概要を説明するための図の一例である。図103は、一実施形態に係るシステム1において、呼びかけ系及び辞書登録ワード系を説明するための図の一例である。図104A~図105Cは、一実施形態に係るシステム1において、返答ワードの優先度を説明するための図の一例である。
図102A~図102Cに示されるように、1つの音声入力(短文)に対して、応答するワード群は1つに決まるが、複数の音声入力(短文)に対しては、どの応答をするかにより、対話が不自然になる。本システム1においては、1つの登録ワードが検出された場合、その登録ワードに紐づいた応答ワードが選択される。例えば、「ユノ」のワードが検出された場合は「ユノ」に紐づく応答ワード「ん?」を選択する。その場合は、違和感がないと思われる。
しかし、複数の登録ワードが検出された場合、その登録ワードに紐づいた応答ワードをすべて選択すると違和感がある。例えば「JUNO」、「おはよう」及び「お腹すいたー」の3ワードが検出された場合、「JUNO」、「おはよう」及び「お腹すいたー」のそれぞれに紐づく応答ワードである「ん?」、「おはよう」及び「おなかすいたー」を選択する。このように、入力音声のすべての応答文を作成して返答すると文章自体がおかしくなる。
そこで、入力ワード群に優先度を設けて、応答するワードを例えば1つに絞ることにしている。設定された返答ワードに優先度を設けることによって、JUNOの返答が違和感のないものとなる。
図103に示されるように、対話系ワード群(図96、97参照)には、呼びかけ系ワードと、辞書登録系ワードとがある。例えば、呼びかけ系のワードは、JUNOが反応することを期待して話すワードとして設定されている。また、例えば、辞書登録系ワードは、JUNOが返答することを期待して話すワードとして設定されている。
図104A~図105Cに示されるように、例えば、呼びかけ系ワードとして例えば「JUNO」の1ワードが検出された場合、呼びかけ系に紐づく応答ワードとして例えば「ん?」が選択される。また、例えば、呼びかけ系ワードとして例えば「お腹すいたー」の1ワードが検出された場合、辞書登録系に紐づく応答ワードとして例えば「さっき食べなかったにゃ」が選択される。
一方、複数のワードが検出された場合、返答ワードの優先度に優先度を設ける。その場合の返答ワードは、呼びかけ系ワードよりも辞書登録系ワードが優先される。例えば、呼びかけ系ワードである「JUNO」、及び、辞書登録系ワードである「お腹すいたー」の2ワードが検出された場合、辞書登録系に紐づく応答ワードである「さっき食べなかったにゃ」が選択される。
また、同じワード系が重複した場合、あとから検出された登録ワードが優先される。例えば、呼びかけ系ワードである「JUNO」、及び、呼びかけ系ワードである「ねえねえ」の2ワードが検出された場合、あとから検出された呼びかけ系ワードである「ねえねえ」に紐づく応答ワードである「なーにー」が選択される。
また、例えば、辞書登録系ワードである「お腹すいたー」、及び、辞書登録系ワードである「ご飯の時間だね」の2ワードが検出された場合、あとから検出された辞書登録系ワードである「ご飯の時間だね」に紐づく応答ワードである「ユノもご飯食べたいにゃー」が選択される。
さらに、3ワードが検出される場合もある。図105A~図105Cに示されるように、例えば、呼びかけ系ワードである「JUNO」、呼びかけ系ワードである「ねえねえ」、及び、呼びかけ系ワードである「おーい」といった、同じワード系から3ワードが検出された場合、最後に検出された呼びかけ系ワードである「おーい」に紐づく応答ワードである「どうしたの?」が選択される。
また、例えば、辞書登録系ワードである「お腹すいたー」、辞書登録系ワードである「ご飯の時間だね」、及び、辞書登録系ワードである「コンビニ行ってくるね」といった、同じワード系から3ワードが検出された場合、最後に検出された辞書登録系ワードである「コンビニ行ってくるね」に紐づく応答ワードである「いってらっしゃいにゃー」が選択される。
また、例えば、辞書登録系ワードである「お腹すいたー」、呼びかけ系ワードである「JUNO」、及び、呼びかけ系ワードである「ねえねえ」といった、異なるワード系から3ワードが検出された場合、呼びかけ系ワードより優先される辞書登録系ワードである「お腹すいたー」に紐づく応答ワードである「さっき食べなかったにゃ」が選択される。
このように、返答ワードの優先度が設定されていることで、ユーザとJUNOとの対話が違和感のない自然なものとなる。なお、一度に検出可能な登録ワードは、例えば3ワードまでである。
<15.キャラクタ専用保存情報>
図106を参照してキャラクタ専用保存情報について説明する。図106は、一実施形態に係るシステム1におけるキャラクタ専用保存情報の一例である。
図106を参照してキャラクタ専用保存情報について説明する。図106は、一実施形態に係るシステム1におけるキャラクタ専用保存情報の一例である。
本システム1では、ユーザが餌を与えると親密度アップにかかわる経験値が上がると説明したが、実質的には当日の経験値が上がるものではない。餌を与えることによって経験値が上がるのは、翌日のシステム更新後である。すなわち、餌を1回与えたという情報をクラウドサーバに送り、クラウドサーバ側で集計等が行われ、システム更新後に、経験値としてシステム1に反映される。
図106に示されるように、餌を与えたという情報だけではなく、餌を与えていないという情報も、システム1からクラウドサーバ側に送られる。そして、例えば数日間(例えば、3日間)餌を与えていない場合等に、経験値を減算する。
その他、呼びかけ関係の情報もクラウドサーバに保存される。保存される情報としては、登録ワード毎に呼びかけられた数、呼びかけされた登録ワード群の回数、各登録ワード群の日本語習得状況および応答した数等である。なお、親密度、日本語を覚える等の更新契機は、例えば1日1回行われる。
<16.餌やり>
図107A~図107Cを参照し、JUNOへの餌やりについて説明する。図107A~図107Cは、一実施形態に係るシステム1において、餌やりについて説明するための図の一例である。
図107A~図107Cを参照し、JUNOへの餌やりについて説明する。図107A~図107Cは、一実施形態に係るシステム1において、餌やりについて説明するための図の一例である。
図107A~図107Cに示されるように、JUNOに餌を与える手段として、例えば、音声による餌の与え方と、後述する外部端末(例えばスマートフォン等)のアプリケーションによる餌の与え方と、functionボタンによる餌の与え方とがあり、これら複数の餌の与え方のうち、ユーザが所望する任意の与え方で餌を与えることができる。ただし、これに限られず、例えばfunctionボタンを操作することによってのみ、餌を与えることができる仕様であってもよい。なお、本システム1では、例えば操作部2214(例えば、図3参照)をfunctionボタンとして利用している。
音声による餌の与え方では、例えば「餌だよ」、「餌入れとくね」又は「餌食べてね」等の音声入力に応じて餌が発生する。外部端末(例えばスマートフォン等)のアプリケーションによる餌の与え方では、アプリケーション画面より、餌アイコンのボタンタップに応じて餌が発生する。functionボタンによる餌の与え方は、システム1の上蓋部105(例えば、図3参照)に設置された操作部2214の押下操作に応じて、餌の発生および回収が行われる。
なお、餌は、1日1回までしか与えることができない。すなわち、餌を与えた回数は、1日1回までしかカウントされない。
ユーザによる入力操作等により、餌入れが表示され、この餌入れに、例えばドライフードタイプの餌を入れることができる。
操作部2214の押下操作に応じて、餌の回収を行うことができる。また、餌が表示されている場合でも、操作部2214や外部端末(例えばスマートフォン等)のアプリケーションのボタン入力等により、新たに餌を発生させることができる。また、例えば、システム更新までに餌が残っている場合は、システム更新時に残っている餌が回収される。
図107Bに示されるように、餌入れに表示されている餌の量を示す表示は、例えば5段階で表示される。そして、例えば、JUNOが餌を1回食べる毎に餌の量が減少し、JUNOが餌を4回食べると、餌入れが空の状態になる。餌入れが空の状態になると、その後、餌入れは表示されなくなる。
図107Bに示されるように、JUNOが餌を食べている様子を示す食べるモーションの再生開始から指定時間経過すると、餌入れに入っている餌の量の表示が減る。指定時間としては、例えば3秒である。なお、餌が空になると、餌入れが消滅する。また、JUNOの食事途中に逃げ帰る条件を満たすと、JUNOはエリア5に逃げる。
<17.睡眠>
次に、図108A~図110を参照して、JUNOの睡眠について説明する。図108A~図108Dは、一実施形態に係るシステム1において、睡眠移行時におけるJUNOの行動パターンを説明するための図の一例である。図109は、一実施形態に係るシステム1において、睡眠途中の日本語応答を説明するための図の一例である。図110は、一実施形態に係るシステム1において、JUNOの起床時における行動パターンを説明するための図の一例である。
次に、図108A~図110を参照して、JUNOの睡眠について説明する。図108A~図108Dは、一実施形態に係るシステム1において、睡眠移行時におけるJUNOの行動パターンを説明するための図の一例である。図109は、一実施形態に係るシステム1において、睡眠途中の日本語応答を説明するための図の一例である。図110は、一実施形態に係るシステム1において、JUNOの起床時における行動パターンを説明するための図の一例である。
図108A~図108Dに示されるように、JUNOの睡眠時間は、後述する外部端末(例えばスマートフォン等)のアプリケーション経由で設定することができる(初期設定:例えば22時~7時)。設定時間においてJUNOが起きている場合、JUNOは睡眠に移行する。なお、親密度によりJUNOが寝るエリアが異なる。
例えば親密度低の場合、JUNOはエリア5で寝る動作を行う。また、エリア1~4のいずれかにいる場合、JUNOは現在地からエリア5まで移動した後に寝る。親密度が中および高の場合、JUNOは、睡眠開始時に滞在しているエリアで睡眠の動作を行う。なお、親密度低の場合は、睡眠途中に外部からのイベント検出(呼びかけ等)で起こすことが出来ない。
睡眠中に外部からのイベントが検出(例えば呼びかけ)されると、JUNOは親密度に応じて異なる動作をする。例えば、親密度低のときはエリア5にJUNOがいるため起きない。親密度中のときであってかつエリア1でJUNOが寝ている場合はモーションを再生する。親密度高であってかつエリア1でJUNOが寝ている場合は、JUNOが寝たままの姿勢で日本語応答をする。
図109に示されるように、親密度高の場合、寝ているときに登録ワード(オウム返し系ワード、対話系ワード)を検出すると、JUNOは、対話系ワード群(図96、97参照)の開放段階に合わせて日本語応答する。
例えば、第1段階が解放されている場合、ユーザから「ユノ」、「おはよう」又は「ねえねえ」等と呼びかけられると、これに対し、JUNOは「ん?なーに?」等と応答する。
また、例えば、第2段階が解放されている場合、ユーザから「ユノ」、「おはよう」又は「ねえねえ」等と呼びかけられると、これに対し、JUNOは「ん?なーに?」、「寝てたのに―」等と応答する。
また、例えば、第3段階が解放されている場合、ユーザから「ユノ」、「おはよう」又は「ねえねえ」等と呼びかけられると、これに対し、JUNOは「ん?なーに?」、「寝てたのに―」、「んん、おはよう」等と応答する。
さらに、例えば、第4段階が解放されている場合、ユーザから「ユノ」、「おはよう」又は「ねえねえ」等と呼びかけられると、これに対し、JUNOは「ん?なーに?」、「寝てたのに―」、「んん、おはよう」、「うーん、Zzzzz」等と応答する。
また、応答モーションとしては、起きるモーションが再生される。JUNOが起きた後は、待機中とする。
また、例えば10分毎に睡眠導入判定(例えば、成功率50%)が行われ、この睡眠導入判定に成功すると、JUNOは再度睡眠の動作を行う。
また、図108D及び図110に示されるように、設定した時間を過ぎると、JUNOは起床する。
ところで、JUNOの睡眠時間内にアラーム等の設定が行われている場合がある。この場合、アラーム等の設定時間になるとJUNOが起きてエリア1に移動し、例えば「時間だよ~」とJUNOによる呼びかけが行われる。アラーム鳴動後および停止後は、再度睡眠判定を行う。睡眠時間内であると判定されると、JUNOは再び寝る動作をする。
なお、睡眠中に外部からのイベント検出でJUNOが起きないように、処理基板224は、外部からのイベントを検出してもJUNOが反応を示す等の制御を行わないようにするとよい。JUNOが反応を示す場合は、例えば、親密度高であってかつエリア1で睡眠している場合等である。
<18.ズーム表示>
次に、図111A~図111Cを参照して、JUNOのズーム表示について説明する。図111A~図111Cは、一実施形態に係るシステム1において、JUNOのズーム表示を説明するための図の一例である。本実施例では、例えば、JUNOが日本語を発話する際に、ズーム表示される。
次に、図111A~図111Cを参照して、JUNOのズーム表示について説明する。図111A~図111Cは、一実施形態に係るシステム1において、JUNOのズーム表示を説明するための図の一例である。本実施例では、例えば、JUNOが日本語を発話する際に、ズーム表示される。
図111A~図111Cに示されるように、ズーム表示には、例えば、JUNOを手前側に移動させて、拡大表示を行う方法がある。この場合、JUNOが発話するときに必ずエリア0まで移動させる必要がある。なお、エリア0は、通常時は表示されていないもののJUNOをズーム表示する際に表示され、エリア1よりもユーザ側のエリアである。
また、ズーム表示には、例えば、カメラの位置を移動させて、拡大表示を行うようにする方法がある。この場合、JUNOの位置によらない。しかし、例えばエリア4のような奥側で日本語発話が発生すると、カメラの移動距離が長いため違和感が発生する。
そこで、本実施例では、JUNOが日本語を発話する際には、エリア1でのみ行うようにし、発話するタイミングでカメラ移動を行い、発話終了後にカメラを遠ざけるようにしている。このようにすることで、JUNOをエリア0に移動させたり、カメラの移動に違和感を与えることなく、自然な態様でズーム表示を行うことができる。
<19.外部端末(例えばスマートフォン等)連携>
次に、外部端末(例えばスマートフォン等)との連携について説明する。本実施例では、外部端末として、スマートフォンを例に説明する。なお、一実施形態に係るシステム1と連携可能な外部端末は、スマートフォンに限られず、例えば、タブレットPC等の携帯端末やノートPC等の外部端末であってもよい。
次に、外部端末(例えばスマートフォン等)との連携について説明する。本実施例では、外部端末として、スマートフォンを例に説明する。なお、一実施形態に係るシステム1と連携可能な外部端末は、スマートフォンに限られず、例えば、タブレットPC等の携帯端末やノートPC等の外部端末であってもよい。
図112A及び図112Bは、一実施形態に係るシステム1と連携可能なAndroid(登録商標)版スマートフォンに表示される画面遷移の一例を示す図である。また、図113A、図113B及び図113Cは、一実施形態に係るシステム1と連携可能なiOS(登録商標)版スマートフォンに表示される画面遷移の一例を示す図である。
図112Aに示されるように、Android(登録商標)版スマートフォンの画面に表示されるログイン画面(図112Aの(a)を参照)は、例えば、「ログイン」のボタン、「パスワード再発行」のボタン及び「新規登録」のボタン等のうちいずれかを操作することが可能な画面である。その後、図112A及び図112Bに示されるように、操作されたボタンに応じてスマートフォンに表示される画面が遷移する。そして、図112Bに示されるように、セットアップ中画面(図112Bの(b)を参照)等を経てセットアップが完了すると、メニュー画面(図112Bの(c)を参照)に遷移する。メニュー画面は、図112Bの(c)に示されるように、例えば、「アラーム」のボタン、「家電操作」のボタン、「設定」のボタン、「お知らせ」のボタン及び「ログアウト」のボタン等のうちいずれかを操作することが可能な画面である。ユーザは、メニュー画面においていずれかのボタンを操作すると、操作されたボタンに応じたメニューに進めることができる。
また、図113Aに示されるように、iOS(登録商標)版スマートフォンの画面に表示されるログイン画面(図113Aの(a)を参照)は、Android(登録商標)版スマートフォンと同様に、例えば、「ログイン」のボタン、「パスワード再発行」のボタン及び「新規登録」のボタン等のうちいずれかを操作することが可能な画面である。その後、図113A、図113B及び図113Cに示されるように、接続待機画面(図113Bの(b1)を参照)及びセットアップ中画面(図113Cの(b2)を参照)等を経てセットアップが完了すると、メニュー画面(図113Cの(c)を参照)に遷移する。メニュー画面は、図113Cの(c)に示されるように、Android(登録商標)版スマートフォンと同様、例えば、「アラーム」のボタン、「家電操作」のボタン、「設定」のボタン、「お知らせ」のボタン及び「ログアウト」のボタン等のうちいずれかを操作することが可能な画面である。ユーザは、メニュー画面においていずれかのボタンを操作すると、操作されたボタンに応じたメニューに進めることができる。
図113Dは、スマートフォンの画面に表示される画面の拡大図の一例であって、(A)ログイン画面の拡大図、(B)メニュー画面の拡大図である。なお、本実施例では、Android(登録商標)版とiOS(登録商標)版とで、ログイン画面及びメニュー画面の基本的なデザインが共通するが、これに限定されない。
図113Eは、スマートフォンの画面に表示される画面の拡大図の一例であって、(A)セットアップ中画面の拡大図、(B)接続待機画面の拡大図である。なお、本実施例では、Android(登録商標)版とiOS(登録商標)版とで、セットアップ中画面及び接続待機画面の基本的なデザインが共通するが、これに限定されない。
図112、113に示すように、システム1は対応するスマートフォンと連携することが可能である。システム1とスマートフォンとが連携されると、システム1の初期設定を含む各種操作を、例えば、スマートフォンで行うことが可能となる。
システム1の初期設定をスマートフォンで行う場合、初期設定に必要なものとしては、例えば、対応するスマートフォンと、マイユピテルアカウントと、無線LAN環境等である。システム1と連携するスマートフォンに、図112または図113のアプリケーションをインストールする。そして、アプリケーションの指示に従い、システム1とスマートフォンとを接続する。その後、アプリケーションの指示に従って各種設定や各種要求を行うことができる。
処理基板224は、システム1と連携するスマートフォンからの接続要求があると、接続要求があったスマートフォンと通信接続することができる。
システム1とスマートフォンとが通信接続されると、処理基板224は、スマートフォンからの指示要求にもとづいて、例えばJUNOの動作等を含む各種制御を行うことが可能となる。例えば、スマートフォンのアプリケーション画面より、餌アイコンのボタンタップに応じて餌やりイベントを発生させることができる。餌やりイベントが発生すると、処理基板224は、JUNOが餌を食べるといった行動パターン動作を開始させることが可能となる。
<20.本システムの制御>
上記では本システムの機能について説明したが、ここでは上記システムの制御についてフローチャートを参照して説明する。以下、図114~図127を参照して、例えば処理基板224により実行される制御の一例について説明する。なお、図114~図127に示されるフローチャートでは、「JUNO」の表現を用いず、「キャラクタ」と図示されている。
上記では本システムの機能について説明したが、ここでは上記システムの制御についてフローチャートを参照して説明する。以下、図114~図127を参照して、例えば処理基板224により実行される制御の一例について説明する。なお、図114~図127に示されるフローチャートでは、「JUNO」の表現を用いず、「キャラクタ」と図示されている。
(エリア移動処理)
まず、図114を参照して、JUNOのエリア移動についての制御を簡単に説明する。図114は、一実施形態に係るシステム1において、処理基板224により実行されるエリア移動処理の一例を示すフローチャートである。例えば、エリア移動処理は、一定の周期で行うようにするとよい。ここでの一定の周期とは、例えば10分程度である。
まず、図114を参照して、JUNOのエリア移動についての制御を簡単に説明する。図114は、一実施形態に係るシステム1において、処理基板224により実行されるエリア移動処理の一例を示すフローチャートである。例えば、エリア移動処理は、一定の周期で行うようにするとよい。ここでの一定の周期とは、例えば10分程度である。
図114に示されるように、処理基板224は、まず、「0≦経験値<30」であるか否かを判断する(ステップS101)。すなわち、経験値が例えば0以上且つ30未満の範囲内であるか否かを判断する。ステップS101において、経験値が例えば0以上且つ30未満の範囲内であると判断した場合(ステップS101におけるYES)、処理基板224は、処理をステップS102に移す。なお、本発明では、経験値のパラメータとしてユーザがJUNOに餌を与えた回数(日数)を用いているため、経験値と、ユーザがJUNOに餌を与えた回数(日数)とは同義である。
ステップS102において、親密度低の係数を用いて各エリアへの移動確率を求める。上記でも説明したように、ステップS102では、エリア1~エリア5の移動率を求める各基本式(例えば、図58、図59参照)に、親密度低に対応する係数、及び、このときの経験値の値等を代入して求める。処理基板224は、親密度低の係数を用いて各エリアへの移動確率を算出したあと、処理をステップS106に移す。
一方、ステップS101において、経験値が例えば0以上且つ30未満の範囲内ではないと判断した場合(ステップS101におけるNO)、すなわち、経験値が「30」以上である場合、処理基板224は、処理をステップS103に移す。
ステップS103において、処理基板224は、例えば「30≦経験値<60」であるか否かを判断する。すなわち、経験値が例えば30以上且つ60未満の範囲内であるか否かを判断する。ステップS103において、経験値が例えば30以上且つ60未満の範囲内であると判断した場合(ステップS103におけるYES)、処理基板224は、処理をステップS104に移す。
ステップS104において、処理基板224は、親密度中の係数を用いて各エリアへの移動確率を求める。上記でも説明したように、ステップS104では、エリア1~エリア5への移動率を求める各基本式に、親密度中に対応する係数、及び、このときの経験値の値等を代入して求める。処理基板224は、親密度中の係数を用いて各エリアへの移動確率を算出したあと、処理をステップS106に移す。
一方、ステップS103において、経験値が例えば30以上且つ60未満の範囲内ではないと判断した場合(ステップS103におけるNO)、すなわち、経験値が「60」以上であると判断した場合、処理基板224は、処理をステップS105に移す。
ステップS105において、処理基板224は、親密度高の係数を用いて各エリアへの移動確率を求める。経験値が「60」以上である場合は、親密度高であることを示している。上記でも説明したように、ステップS105では、エリア1~エリア5への移動率を求める各基本式に、親密度高に対応する係数、及び、このときの経験値の値等を代入して求める。処理基板224は、親密度高の係数を用いて各エリアへの移動確率を算出したあと、処理をステップS106に移す。
ステップS106において、処理基板224は、抽選を行いランダムに移動先を決定する。ここでは、例えば、各移動率に基づいてランダムに抽選を行い、JUNOの移動先エリアを決定する。すなわち、経験値低であれば、上記の図64の親密度低の欄に示される日数(すなわち経験値)に応じた移動率に基づいてランダムに決定される。親密度中であれば、上記の図64の親密度中の欄に示される日数(すなわち経験値)に応じた移動率に基づいてランダムに決定される。親密度高であれば、上記の図64の親密度高の欄に示される日数(すなわち経験値)に応じた移動率に基づいてランダムに決定される。処理基板224は、抽選を行いランダムに移動先を決定したあと、処理をステップS107に移す。
ステップS107において、処理基板224は、移動先エリアに移動するJUNOの行動パターンを表示する。ここでは、例えば、移動先として決定されたエリアがエリア1であれば、JUNOが表示されている現在のエリアから決定されたエリア1までの移動モーションを表示する。なお、JUNOが表示されているエリアが移動先エリアとして決定される場合もある。その場合、JUNOは移動しない。しかし、JUNOが現在のエリアから移動するようなモーション、および、元のエリアに戻るようなモーション等を表示してもよい。また、JUNOの移動モーションは、直線的に移動するものに限る必要はない。例えば、左右に動きながら決定されたエリアに移動するモーションを表示してもよい。また、JUNOの移動するモーションは歩くモーションであってもよいし、走るモーションであってもよい。親密度毎に変化があればなおよい。例えば、親密度低の場合であれば、警戒しながらゆっくり歩いてくるようなモーションであってもよい。また、例えば、親密度高の場合であれば、ユーザの近くに駆け寄るようなモーションであってもよい。
なお、エリア移動処理は、一定の周期で行うものでなくてもよい。例えば、エリア移動処理を行うか否かを抽選によって決定するようにしてもよい。
図115を参照して、エリア移動の抽選についての制御を簡単に説明する。図115は、一実施形態に係るシステム1において、処理基板224により実行されるエリア移動抽選処理の一例を示すフローチャートである。
図115に示されるように、処理基板224は、まず、エリア移動抽選に当選したか否かを判断する(ステップS100)。
なお、エリア移動抽選は、上述したとおり、1~10分程度の所定周期で行われる。本実施例では、例えば、エリア移動抽選当時時に、次回のエリア移動抽選を行うタイミングを決定する。このようにすることで、エリア移動抽選の実行タイミングをランダムにすることが可能となる。ただし、これに限られず、例えば、1分、5分、10分等、所定の時間を決めて行うようにしてもよい。
ステップS100において、エリア移動抽選に当選したと判断した場合(ステップS100におけるYES)、すなわち、エリア移動の抽選を行い、エリア移動をすることが決まった場合、処理基板224は、ステップS101以降のエリア移動処理を行う。なお、ステップ101以降の処理は、図114と同様であるため詳細な説明は省略する。
(餌やりイベント処理)
次に、図116を参照して、上述の餌やりイベントについての制御を簡単に説明する。図116は、一実施形態に係るシステム1において、処理基板224により実行される餌やりイベント処理の一例を示すフローチャートである。ユーザによるJUNOへの餌やりは、例えば1日1回までカウントされる。
次に、図116を参照して、上述の餌やりイベントについての制御を簡単に説明する。図116は、一実施形態に係るシステム1において、処理基板224により実行される餌やりイベント処理の一例を示すフローチャートである。ユーザによるJUNOへの餌やりは、例えば1日1回までカウントされる。
図116に示されるように、処理基板224は、まず、餌やりイベントが発生したか否かを判断する(ステップS111)。例えば、餌やりイベントが発生するのは、例えば、ユーザによる餌やり動作が行われたとき等である。餌やり動作は、例えば、functionボタンの押下操作等により行われる。ステップS111において、餌やりイベントが発生したと判断した場合(ステップS111におけるYES)、処理基板224は、処理をステップS112に移す。
ステップS112において、処理基板224は、本日初の餌やりであるか否かを判断する。ステップS112において、本日初の餌やりであると判断した場合(ステップS112におけるYES)、処理基板224は、処理をステップS113に移す。
ステップS113において、処理基板224は、餌やりカウントを実行する。餌やりカウントは、ユーザによるJUNOへの餌やりが行われた回数として例えば「1」をカウントアップする処理である。処理基板224は、餌やりカウントを実行したあと、処理をステップS115に移す。
一方、ステップS112において、本日初の餌やりでないと判断した場合(ステップS112におけるNO)、すなわち既に餌やり回数がカウントされていた場合、処理基板224は、処理をステップS114に移す。
ステップS114において、処理基板224は、餌画像が表示されてないか否かを判断する。ステップS114において、餌画像が表示されてないと判断した場合(ステップS114におけるYES)、処理基板224は、処理をステップS115に移す。
ステップS115において、処理基板224は、餌画像を表示する。本実施例において、例えば餌画像はエリア1に表示される。表示される餌のタイプは、例えば、ドライフードタイプの餌である。ただし、表示される餌のタイプは、ドライフードタイプに限らず、例えば、ウエットタイプの餌画像を表示するようにしてもよいし、おやつタイプの餌画像を表示してもよい。また、表示される餌のタイプをユーザが選択できるものであるとなおよい。なお、餌画像が表示されている場合でも、再度新たな餌画像を表示するようにしてもよいし、餌画像が表示されている状態で餌やりイベントが発生した場合、餌画像の表示を終了するようにしてもよい。
(餌食べイベント処理)
次に、図117を参照して、餌食べイベントについての制御を簡単に説明する。図117は、一実施形態に係るシステム1において、処理基板224により実行される餌食べイベント処理の一例を示すフローチャートである。
次に、図117を参照して、餌食べイベントについての制御を簡単に説明する。図117は、一実施形態に係るシステム1において、処理基板224により実行される餌食べイベント処理の一例を示すフローチャートである。
図117に示されるように、処理基板224は、まず、新たに餌が表示されたか否かを判断する(ステップS121)。ステップS121において、新たに餌が表示されたと判断した場合(ステップS121におけるYES)、すなわち、本日初(詳細には、後述するシステム更新が行われた後の1回目)のユーザによる餌やり動作が行われた場合、処理基板224は、処理をステップS122に移す。なお、ここでは、JUNOが以前に餌を食べたときの食べ残しがある場合を含まない。
ステップS122において、処理基板224は、経験値に準じて餌食べ抽選を行う。ここでは、例えば、その日の経験値に応じて、上述のJUNOが餌を食べる確率で抽選を行い、餌を食べるか否かを決定する。処理基板224は、経験値に応じて餌食べ抽選を行ったあと、処理をステップS123に移す。
ステップS123において、処理基板224は、餌食べ抽選に当選したか否かを判断する。ステップS123において、餌食べ抽選に当選したと判断した場合(ステップS121におけるYES)、処理基板224は、処理をステップS124に移す。
ステップS124において、処理基板224は、JUNOの餌食べにかかわるモーションを実行する。ここでは、まず、JUNOを餌入れが置かれたエリアまで移動するモーションを実行する。JUNOの親密度が低の場合は、例えば警戒しながらの移動する様子等が表示される。餌入れが置かれたエリアまでの移動モーション実行後、処理基板224は、JUNOが餌を食べるモーションを実行する。処理基板224は、JUNOの食べるモーションを実行したあと、処理をステップ125に移す。
ステップS125において、処理基板224は、所定時間が経過したか否かを判断する。ここでの所定時間は、例えば3秒である。ステップS125において、所定時間が経過したと判断した場合(ステップS125におけるYES)、処理基板224は、処理をステップS126に移す。
ステップS126において、処理基板224は、餌を減らす表示を実行する。ここでは、JUNOの餌を食べるモーションが所定時間を経過するごとに餌の量を減らす表示を行う。処理基板224は、餌を減らす表示を実行したあと、処理をステップ129に移す。
一方、ステップS125において、所定時間は経過していないと判断した場合(ステップS125におけるNO)、処理基板224は、処理をステップS127に移す。
ステップS127において、処理基板224は、逃げ帰る条件の成立はないか否かを判断する。JUNOの親密度が低の場合は、外からのイベント検出により逃げ帰る条件が成立する。ここでは、餌入れまでの移動中や、餌を食べているときが該当する。ステップS127において、逃げ帰る条件が成立したと判断した場合(ステップS127におけるNO)、処理基板224は、処理をステップS128に移す。
ステップS128において、処理基板224は、エリア5への移動表示を実行する。エリア5への移動表示は、例えば、餌入れまでの移動中であれば、移動を停止し、エリア5への移動モーションを実行する。また、例えば、餌を食べるモーションの実行中であれば、餌を食べるモーションを停止し、エリア5への移動表示を実行する。
一方、ステップS127において、逃げ帰る条件は成立していないと判断した場合(ステップS127におけるYES)、処理基板224は、処理をステップS129に移す。
ステップS129において、処理基板224は、餌画像の表示を終了するか否かを判断する。餌画像の表示を終了するのは、餌の量を減らす表示が繰り返し行われることにより、餌入れが空の状態になった場合である。
ステップS129において、餌画像の表示を終了しないと判断した場合(ステップS129におけるNO)、処理基板224は、処理をステップS125に戻し、餌画像の表示を終了すると判断されるまで(ステップS129においてYESと判断されるまで)、または逃げ帰る条件が成立するまで(ステップS127においてNOと判断されるまで)、S125以降の処理を繰り返し行う。
一方、ステップS129において、餌画像の表示を終了すると判断した場合(ステップS129におけるYES)、すなわち餌入れが空になった場合、処理基板224は、餌画像の表示(餌入れの表示)を終了する。また、JUNOの食べるモーションも終了となる。なお、餌食べイベントを終了したあとは、JUNOは、次のエリア移動が行われるまでエリア1に滞在し続ける。
(爪とぎイベント処理)
次に、図118を参照して、上述の爪とぎイベントについての制御を簡単に説明する。図118は、一実施形態に係るシステム1において、処理基板224により実行される爪とぎイベント処理の一例を示すフローチャートである。例えば、JUNOによる爪とぎは、1日1回行われる。
次に、図118を参照して、上述の爪とぎイベントについての制御を簡単に説明する。図118は、一実施形態に係るシステム1において、処理基板224により実行される爪とぎイベント処理の一例を示すフローチャートである。例えば、JUNOによる爪とぎは、1日1回行われる。
図118に示されるように、処理基板224は、まず、爪とぎイベントが発生したか否かを判断する(ステップS131)。ステップS131において、爪とぎイベントが発生したと判断した場合(ステップS131におけるYES)、処理基板224は、処理をステップS132に移す。
ステップS132において、処理基板224は、タイマのリセットを行う。ここでは、例えば、タイマを「0」にセットする。処理基板224は、タイマリセットを行ったあと、処理をステップS133に移す。
ステップS133において、処理基板224は、タイマでの計測を開始する。タイマでの計測は、例えば、タイマを5分にセットし、5分間、計測を行う。この間、JUNOは、周囲を警戒するような動作を行うようにするとよい。処理基板224は、タイマ計測を開始したあと、処理をステップS134に移す。
ステップS134において、処理基板224は、外部からのイベント検出はないか否かを判断する。上述したが、外部からのイベント検出とは、近接検知(すなわち、例えばユーザがJUNOに近付いたことによって人検知された場合)、ジェスチャー検知、呼び掛け検知、または、所定デシベル以上の大きな音の検知等の外部検知が検出された場合)等の動体を検出した場合である。ジェスチャは、例えば、第1センサ2331(例えば、図5参照)によって、手の振り等のジェスチャを検出した場合である。呼びかけは、例えば、認識ワード(図94、図96参照)を検出した場合である。大きな音等は、例えば、認識ワード以外の音声等や、物音のようなもの等を検出した場合である。
ステップS134において、外からのイベントを検出したと判断した場合(ステップS134におけるNO)、処理基板224は、処理をステップS132に戻す。
一方、ステップS134において、外からのイベントを検出していないと判断した場合(ステップS134におけるYES)、処理基板224は、処理をステップS135に移す。
ステップS135において、処理基板224は、タイマ5分経過したか否かを判断する。ステップS135において、タイマ5分経過したと判断した場合(ステップS135におけるYES)、すなわち外からのイベントを検出せず、タイマで5分経過したと判断した場合、処理基板224は、処理をステップS136に移す。
一方、ステップS135において、タイマ5分経過していないと判断した場合(ステップS135におけるNO)、処理基板224は、処理をステップS134に戻す。処理基板224は、外からのイベントが検出されず(ステップ134においてYESと判断される)、かつタイマでの計測が5分経過するまで(ステップ135においてYESと判断されるまで)、ステップS134においてNO判定される場合を除き、S134及びS135の処理を繰り返し行う。
ステップS136において、処理基板224は、JUNOが爪をとぐモーションを実行する。ここでは、まず、爪とぎ板が置かれたエリアまでJUNOを移動するモーションを実行する。爪とぎ板は、エリア3に表示されている。JUNOが警戒しながら移動する様子が表示される。爪とぎ板までの移動モーション実行後、処理基板224は、JUNOが爪をとぐモーションを実行する。処理基板224は、JUNOが爪をとぐモーションを実行したあと、処理をステップS137に移す。
ステップS137において、処理基板224は、外からのイベント検出はないか否かを判断する。ステップS137において、外からのイベントを検出していないと判断した場合(ステップS137におけるYES)、処理基板224は、処理をステップS138に移す。
ステップS138において、爪とぎ終了ではないと判断した場合(ステップS138におけるNO)、処理基板224は、処理をステップS136に戻し、親密度低でない限り(ステップS139においてYESと判断されない限り)、爪とぎ終了と判断されるまで(ステップS138においてYESと判断されるまで)、S136以降の処理を繰り返し行う。
一方、ステップS138において、処理基板224は、爪とぎ終了か否かを判断する。ステップS138において、爪とぎ終了であると判断した場合(ステップS138におけるYES)、処理基板224は、爪をとぐモーションの実行を終了する。爪とぎイベントは、例えば、所定の回数爪をとぐモーションを実行することで終了する。ここでの所定の回数は、例えば5回等であってもよいし、親密度ごとに爪をとぐ回数が変化するようにするのもよい。なお、爪とぎを終了したあとは、JUNOは、次のエリア移動が行われるまでエリア3に滞在し続ける。
ステップS137に戻って、外からのイベントを検出したと判断した場合(ステップS137におけるNO)、処理基板224は、処理をS139に移す。
ステップS139において、処理基板224は、JUNOの親密度が低か否かを判断する。ステップS139において、JUNOの親密度が低ではないと判断した場合(ステップS139におけるNO)、処理基板224は、処理をステップ138に移す。
一方、ステップS139において、JUNOの親密度が低であると判断した場合(ステップS139におけるYES)、処理基板224は、処理をステップ140に移す。
ステップS140において、処理基板224は、逃げるモーションを実行する。逃げるモーションの実行は、例えば、爪とぎ板までの移動中であれば、移動を停止し、エリア5への移動モーションを実行する。また、例えば、爪をとぐモーションを実行中であれば、爪をとぐモーションを停止し、エリア5への移動表示を実行する。また、JUNOのエリア移動表示の実行後、処理基板224は、怒り、そっぽを向く等のモーションを実行する。なお、その日は、これ以降の爪とぎを行わない。
(人検知イベント処理)
次に、図119を参照して、上述の人検知イベントについての制御を簡単に説明する。図119は、一実施形態に係るシステム1において、処理基板224により実行される人検知イベント処理の一例を示すフローチャートである。
次に、図119を参照して、上述の人検知イベントについての制御を簡単に説明する。図119は、一実施形態に係るシステム1において、処理基板224により実行される人検知イベント処理の一例を示すフローチャートである。
図119に示されるように、処理基板224は、まず、例えば人検知イベント発生か否かを判断する(ステップS151)。人検知イベントは、例えば、JUNOがエリア1~4に表示されているときに実行される。ステップS151において、人検知イベントが発生したと判断した場合(ステップS151におけるYES)、処理基板224は、処理をステップS152に移す。
ステップS152において、処理基板224は、親密度が低か否かを判断する。ステップS152において、JUNOの親密度が低であると判断した場合(ステップS152におけるYES)、処理基板224は、処理を153に移す。
ステップS153において、処理基板224は、エリア5への移動表示を実行する。エリア5への移動表示は、上述したように、怒り、そっぽを向く等のモーションを実行する。なお、親密度低におけるJUNOは、エリア5に移動するだけではなく、例えば、エリア外等に逃げてしまうようなことがあってもよい。その場合は、次のエリア移動が行われるまで、JUNOが表示されないようにするとよい。
一方、ステップS152において、処理基板224は、JUNOの親密度が低ではないと判断した場合(ステップS152におけるNO)、処理基板224は、処理をステップ154に移す。
ステップS154において、処理基板224は、親密度が高か否かを判断する。ステップS154において、JUNOの親密度が高ではないと判断した場合(ステップS154におけるNO)、すなわちJUNOの親密度が低でもなく高でもなく中の場合は、人検知イベントによる移動表示を行わない。
一方、ステップS154において、親密度が高であると判断した場合(ステップS154におけるYES)、処理基板224は、処理をステップS155に移す。
ステップS155において、処理基板224は、JUNOをエリア1への移動表示を実行する。すなわち、親密度低ではJUNOがエリア5に移動表示される(S153参照)のに対し、親密度高ではJUNOがエリア1に移動表示される(すなわち、ユーザの近くに移動してくる)。このとき、例えば、JUNOが嬉しそうに駆け寄ってくる等、JUNOがユーザに親しみを持っているようなモーション等が実行されるとよい。
(システム更新処理)
次に、図120を参照して、上述のシステム更新についての制御を簡単に説明する。図120は、一実施形態に係るシステム1において、処理基板224により実行されるシステム更新処理の一例を示すフローチャートである。
次に、図120を参照して、上述のシステム更新についての制御を簡単に説明する。図120は、一実施形態に係るシステム1において、処理基板224により実行されるシステム更新処理の一例を示すフローチャートである。
図120に示されるように、処理基板224は、まず、当日集計データ送信処理を行う(ステップ161)。当日集計データ送信処理では、本日の餌やり回数(上限1カウントまで)、登録ワードごとに呼びかけられた回数(検出した呼びかけワード回数)、各登録ワード群の日本語習得状況(検出した呼びかけワード群の回数)、及び、JUNOによって応答した回数等のデータを集計し、集計されたデータが例えばクラウドサーバ等の外部サーバに送信される。なお、本日の餌やり回数は、未だ餌を与えていないのか、すでに餌を与えたのかを確認できる情報である。処理基板224は、当日集計データ送信処理を行ったあと、処理をステップS162に移す。
ステップS162において、処理基板224は、サーバデータ受信処理を行う。サーバデータ受信処理では、例えばクラウドサーバ等からJUNOの制御にかかわる情報を受信する。サーバデータ受信処理を行ったあと、処理基板224は、システム更新処理を終了する。なお、サーバデータ受信処理を行ったあと、システム1の本体を再起動することによってシステム更新処理が終了されるようにしてもよい。また、クラウドサーバ等の外部サーバではなく、システム1が備える処理基板224等によってJUNOの情報等を集計、更新する等の処理が行われるようにしてもよい。
(サーバ処理)
次に、図121を参照して、上述のクラウドサーバについての制御を簡単に説明する。図121は、一実施形態に係るクラウドサーバにおいて実行されるサーバ処理の一例を示すフローチャートである。
次に、図121を参照して、上述のクラウドサーバについての制御を簡単に説明する。図121は、一実施形態に係るクラウドサーバにおいて実行されるサーバ処理の一例を示すフローチャートである。
なお、本実施例では、一実施形態に係るシステム1が備える処理基板224と、例えばクラウドサーバとの間で送受信処理を行うようにしているが、処理基板224と送受信可能なサーバは、クラウドサーバに限定されない。例えば、複数のシステム1と送受信可能であって、CPU、ROM及びRAM等の演算処理を実行可能な制御装置を備え、システム1から送信された情報(例えば、餌やりが行われたか否か等)にもとづいて例えば演算及び管理を行い、例えば演算結果に基づく結果情報(例えば経験値等の情報)を、上記のシステム1に送信することが可能な情報処理装置(ハードウェア資源)としてもよい。
図121に示されるように、例えばクラウドサーバは、まず、当日データ受信処理を行う(ステップS171)。当日データ受信処理では、上述したシステム1から送信された当日集計データが受信される。クラウドサーバは、当日データ受信処理を行ったあと、処理をステップS172に移す。
ステップS172において、例えばクラウドサーバは、餌やりは行われたか否かを判断する。ステップS172において、餌やりは行われたと判断した場合(ステップS172におけるYES)、例えば、当日の餌やりデータが「1」であると判断した場合、クラウドサーバは、処理をステップS173に移す。
ステップS173において、例えばクラウドサーバは、経験値の加算を行う。経験値の加算では、クラウドサーバが管理する経験値に例えば1加算する。クラウドサーバは、経験値の加算を行ったあと、処理をステップS176に移す。
一方、ステップS172において、餌やりは行われていないと判断した場合(ステップS172におけるNO)、例えば、当日の餌やりデータが「0」であると判断した場合、クラウドサーバは、処理をステップS174に移す。
ステップS174において、例えばクラウドサーバは、餌やりが所定期間行われていないか否かを判断する。ここでの所定期間とは、例えば3日間である。この場合は、連続した3日間であってもよいし、累積3日間としてもよい。JUNOの設定等によって、適宜変更可能されるとよい。ステップS174において、餌やりが所定期間行われていないと判断されなかった場合(ステップS174におけるNO)、すなわち、餌やりが行われない期間が所定期間に至っていないとき、例えばクラウドサーバは、処理をステップS176に移す。
一方、ステップS174において、餌やりが所定期間行われていないと判断した場合(ステップS174におけるYES)、例えばクラウドサーバは、処理をステップS175に移す。
ステップS175において、例えばクラウドサーバは、クラウドサーバが管理する経験値から減算を行う。クラウドサーバは、経験値減算処理を行ったあと、処理をステップS176に移す。
ステップS176において、例えばクラウドサーバは、呼びかけワード群が所定回数か否かを判断する。ここでは、各呼びかけワード群や、登録ワードごとに呼びかけられた回数等、日本語習得状況にかかわる条件を満たしているか否かが判断される。ステップS176において、呼びかけワード群が所定回数ではないと判断した場合(ステップS176におけるNO)、クラウドサーバは、処理をステップS178に移す。
一方、ステップS176において、呼びかけワード群が所定回数であると判断した場合(ステップS176におけるYES)、例えばクラウドサーバは、処理をステップS177に移す。
ステップS177において、例えばクラウドサーバは、対応する呼びかけ応答を許可する処理を行う。対応する呼びかけ応答を許可する処理では、各呼びかけワード群や、登録ワードごとに呼びかけられた回数等が上述した所定の条件を満たしている場合、検出した認識ワードに対応する呼びかけ応答が許可される(図94~図97Eを参照)。許可される呼びかけ応答としては、例えば、オウム返し等の登録ワードや、段階によって解放される呼びかけワード群の応答ワード等がある。クラウドサーバは、対応する呼びかけ応答を許可する処理を行ったあと、処理をステップS178に移す。
ステップS178において、例えばクラウドサーバは、データ送信処理を行う。データ送信処理では、加算や減算等を行った経験値の情報や、対応する呼びかけ応答を許可する情報等がシステム1に送信される。なお、システム1では、更新処理が行われることで、例えば経験値等の各種情報が更新される。そして、処理基板224は、更新された親密度に応じた行動や、更新された各種ワードに応じた行動を行う。
(外部接続処理)
次に、図122を参照して、上述のスマートフォンのアプリケーションを用いた制御について、簡単に説明する。図122は、一実施形態に係るシステム1における外部接続処理の一例を示すフローチャートである。
次に、図122を参照して、上述のスマートフォンのアプリケーションを用いた制御について、簡単に説明する。図122は、一実施形態に係るシステム1における外部接続処理の一例を示すフローチャートである。
図122に示すように、処理基板224は、まず、特定の外部端末からの接続ありか否かを判断する(ステップS181)。特定の外部端末からの接続は、例えば、スマートフォンのアプリケーション等からの接続である。ステップS181において、特定の外部端末からの接続はあると判断した場合(ステップS181におけるYES)、処理基板224は、処理をステップS182に移す。
ステップS182において、処理基板224は、要求があるか否かを判断する。要求とは、例えば、接続されたスマートフォン等の携帯端末からのシステム1本体の設定にかかわるものであったり、例えば餌を与えるといった餌やりにかかわるものであったり、親密度高特有の機能(アラームや天気にかかわる機能)等がある。ステップS182において、要求があると判断した場合(ステップS182におけるYES)、処理基板224は、処理をステップS183に移す。
ステップS183において、処理基板224は、要求に応じた設定を実行する。例えば、アラームの設定が要求された場合、処理基板224はアラームの設定を実行する。
(アラーム処理)
次に、図123を参照して、上述のアラーム機能にかかわる制御を簡単に説明する。図123は、一実施形態に係るシステム1におけるアラーム処理の一例を示すフローチャートである。アラーム等の設定は、スマートフォンのアプリケーションや、音声による入力等で行うことができる。
次に、図123を参照して、上述のアラーム機能にかかわる制御を簡単に説明する。図123は、一実施形態に係るシステム1におけるアラーム処理の一例を示すフローチャートである。アラーム等の設定は、スマートフォンのアプリケーションや、音声による入力等で行うことができる。
図123に示すように、処理基板224は、まず、アラーム設定時間か否かを判断する(ステップS191)。ステップS191において、アラーム設定時間であると判断した場合(ステップS191におけるYES)、処理基板224は、処理をステップS192に移す。
ステップS192において、処理基板224は、設定した態様でJUNOを表示する。例えば、アラームの設定時間になると、エリア1へのJUNOの移動表示を実行する。そして、JUNOによるアラーム鳴動を実行する。アラーム鳴動は、「時間になったよ~」等の音声を繰り返し出力する。なお、上述したように、アラーム等の親密度高特有の機能は、JUNOの親密度が高になると利用できる。また、JUNOは、第4段階が解放されると、応答ワードでの発話が可能となる。このように、日常生活において利便性の高いアラーム動作をJUNOの動作により実行できるため、JUNOとの日常生活を楽しみつつ利便性を高めることができる。
なお、親密度や日本語習得状況等にかかわらず、アラーム等の機能を利用できるようにしてもよい。その場合は、制限等なく利用できるようにすることも可能であるが、あえて利用制限等が設けられるとよい。例えば、アラーム等の設定を音声入力以外で行われるように制限されてもよい。また、例えばアラーム鳴動は、所定の条件を満たすまでJUNOの音声以外で行うようにするとよい。このようにすることで、ユーザは、システム1の機能の利便性と、外部接続を通じてJUNOの親密度や日本語習得の状況による変化等とを楽しむことができる。
なお、図123では、一実施形態に係るシステム1におけるアラーム処理の一例を示したが、同様に、一実施形態に係るシステム1におけるタイマ処理や家電制御処理も行われる。アラーム機能、タイマ機能及び家電制御機能といった機能は、日常生活において利便性の高い機能であり、本システム1では、これらの動作をJUNOの動作により実行できるため、JUNOとの日常生活を楽しみつつ利便性を高めることができる。
ところで、例えば、テレビやエアコン等の家電製品を操作する際、それぞれの家電と1対1で対応する専用の赤外線リモコンが使用される場合が多い。しかし、本システム1がスマートリモコン機能を有することにより、専用の赤外線リモコンを用いることなく本システム1だけで、本システム1から発する例えば赤外線等で、家電制御することができる。なお、スマートリモコン機能については周知の技術であるためここでは説明を省略する。
(日本語を覚える処理)
次に、図124~127を参照して、上述の日本語を覚える処理を簡単に説明する。なお、上述したとおり、JUNOが覚える言語は日本語に限られない。図124は、一実施形態に係るシステム1における挨拶覚え処理の一例を示すフローチャートである。図125は、一実施形態に係るシステム1における挨拶応答処理の一例を示すフローチャートである。図126は、一実施形態に係るシステム1における対話覚え処理の一例を示すフローチャートである。図127は、一実施形態に係るシステム1における対話応答処理の一例を示すフローチャートである。
次に、図124~127を参照して、上述の日本語を覚える処理を簡単に説明する。なお、上述したとおり、JUNOが覚える言語は日本語に限られない。図124は、一実施形態に係るシステム1における挨拶覚え処理の一例を示すフローチャートである。図125は、一実施形態に係るシステム1における挨拶応答処理の一例を示すフローチャートである。図126は、一実施形態に係るシステム1における対話覚え処理の一例を示すフローチャートである。図127は、一実施形態に係るシステム1における対話応答処理の一例を示すフローチャートである。
(日本語を覚える処理.挨拶覚え処理)
まず、挨拶覚え処理について説明する。図124に示すように、処理基板224は、挨拶ワードを検出したか否かを判断する(ステップS201)。挨拶ワードは、上述した図94のオウム返し系ワード群テーブルにある登録ワードのことである。ステップS201において、挨拶ワードを検出したと判断した場合(ステップS201におけるYES)、処理基板224は、処理をステップS202に移す。
まず、挨拶覚え処理について説明する。図124に示すように、処理基板224は、挨拶ワードを検出したか否かを判断する(ステップS201)。挨拶ワードは、上述した図94のオウム返し系ワード群テーブルにある登録ワードのことである。ステップS201において、挨拶ワードを検出したと判断した場合(ステップS201におけるYES)、処理基板224は、処理をステップS202に移す。
ステップS202において、処理基板224は、JUNOの親密度が低であるか否かを判断する。ステップS202において、JUNOの親密度が低であると判断した場合(ステップS202におけるYES)、処理基板224は、挨拶覚え処理を終了する。すなわち、JUNOの親密度が低の場合では、挨拶を覚えるための処理を行わない。
一方、ステップS202において、JUNOの親密度が低ではないと判断した場合(ステップS202におけるNO)、処理基板224は、処理をステップS203に移す。
ステップS203において、処理基板224は、JUNOがエリア1に表示されているか否かを判断する。例えば、JUNOに挨拶を覚えさせるためには、JUNOがエリア1に表示されている必要がある。ステップS203において、JUNOがエリア1に表示されていると判断した場合(ステップS203におけるYES)、処理基板224は、処理をステップS204に移す。
ステップS204において、処理基板224は、挨拶をカウントする。ここでは、検出した挨拶ワードの回数をカウントする。例えば、検出された挨拶ワードが「おはよう」であった場合には、「おはよう」を「1」カウントする。なお、カウントされた情報は、上述したシステム更新時にクラウドサーバに送信される。そして、クラウドサーバで処理された後、データ送信処理(S178参照)が行われると、システム1が管理するキャラクタ専用保存情報が更新される。
(日本語を覚える処理.挨拶応答処理)
次に、挨拶応答処理(オウム返し)について説明する。図125に示すように、処理基板224は、まず、挨拶ワードを検出したか否かを判断する(ステップS211)。ステップS211において、挨拶ワードを検出したと判断した場合(ステップS211におけるYES)、処理基板224は、処理をステップS212に移す。
次に、挨拶応答処理(オウム返し)について説明する。図125に示すように、処理基板224は、まず、挨拶ワードを検出したか否かを判断する(ステップS211)。ステップS211において、挨拶ワードを検出したと判断した場合(ステップS211におけるYES)、処理基板224は、処理をステップS212に移す。
ステップS212において、処理基板224は、JUNOの親密度が高か否かを判断する。ステップS212において、JUNOの親密度が高ではないと判断した場合(ステップS212におけるNO)、処理基板224は、処理をステップS216移す。
一方、ステップS212において、JUNOの親密度が高であると判断した場合(ステップS212におけるYES)、処理基板224は、処理をステップS213に移す。
ステップS213において、処理基板224は、JUNOがエリア1に表示されているか否かを判断する。なお、図示しないが、親密度高の場合、挨拶ワードが検出されると、JUNOをエリア1に移動表示する処理が行われるため、ここでは、JUNOがエリア1に移動表示されていると判断されることとなる。
ステップS213において、エリア1に表示されていないと判断した場合(ステップS213におけるNO)、処理基板224は、処理をステップS216に移す。
一方、ステップS213において、エリア1に表示されていると判断した場合(ステップS213におけるYES)、処理基板224は、処理をステップS214に移す。
ステップS214において、処理基板224は、挨拶を覚えているか否かを判断する。ステップS214において、挨拶を覚えていないと判断した場合(ステップS214におけるNO)、処理基板224は、処理をステップS216に移す。
一方、ステップS214において、挨拶を覚えていると判断した場合(ステップS214におけるYES)、処理基板224は、処理をステップS215に移す。
ステップS215において、処理基板224は、オウム返し系ワード群テーブル(図94参照)を参照し、オウム返しを実行する。オウム返しは、検出した挨拶ワードをすでに覚えている場合、検出した挨拶ワードと同様の応答ワードを音声出力するものである。
ステップS216において、処理基板224は、モーション表示を実行する。ここでは、挨拶ワードを検出しても、ステップS212~ステップS214の条件が満たされていない場合、モーション表示が実行される。実行されるモーション表示は、親密度高や親密度中では、例えば、ユーザからの呼び掛けに対して応答するかのようなモーション(以下、「応答モーション」と称する)等が相当し、親密度低では、例えばエリア5に逃げていくかのようなモーション(以下、「逃げモーション」と称する)等が相当する。
(日本語を覚える処理.対話覚え処理)
次に、対話覚え処理について説明する。図126に示すように、処理基板224は、まず、呼びかけワードを検出したか否かを判断する(ステップS221)。ステップS221において、呼びかけワードを検出したと判断した場合(ステップS221におけるYES)、処理基板224は、処理をステップS222に移す。
次に、対話覚え処理について説明する。図126に示すように、処理基板224は、まず、呼びかけワードを検出したか否かを判断する(ステップS221)。ステップS221において、呼びかけワードを検出したと判断した場合(ステップS221におけるYES)、処理基板224は、処理をステップS222に移す。
ステップS222において、処理基板224は、JUNOの親密度が低であるか否かを判断する。ステップS222において、JUNOの親密度が低ではないと判断した場合(ステップS222におけるNO)、処理基板224は、処理をステップS223に移す。
ステップS223において、処理基板224は、エリア1に表示されているか否かを判断する。ステップS223において、エリア1に表示されていると判断した場合(ステップS222におけるYES)、処理基板224は、処理をステップS224に移す。すなわち、上述した通り、親密度が高の場合は、外部イベントが検出されるとキャラクタ1200はエリア1へ移動する表示が行われるため、ここでは、親密度が高である場合は、エリア1に表示されていると判定される。
ステップS224において、処理基板224は、条件を満たしているか否かを判断する。本システム1においては、上述したJUNOの応答ワードの第1段階が解放(図97A及び図97Bを参照)されることによって、JUNOは新たな対話ワードを覚えるようになる。ステップS224において、条件を満たしたと判断した場合(ステップS224におけるYES)、処理基板224は、処理をステップS225に移す。
ステップS225において、処理基板224は、対話系ワード群テーブル(図96、97参照)を参照し、呼びかけワードをカウントアップする。ここでは、検出された呼びかけワードに関連する呼びかけワード群をカウントする。例えば、検出された呼びかけワードが「JUNO」であった場合には、呼びかけワード群「ユノ(1)」を「1」カウントする。
(日本語を覚える処理、対話応答処理)
次に、対話応答処理について説明する。図127に示すように、処理基板224は、まず、呼びかけワードを検出したか否かを判断する(ステップS231)。ステップS231において、呼びかけワードを検出したと判断した場合(ステップS231におけるYES)、処理基板224は、処理をステップS232に移す。
次に、対話応答処理について説明する。図127に示すように、処理基板224は、まず、呼びかけワードを検出したか否かを判断する(ステップS231)。ステップS231において、呼びかけワードを検出したと判断した場合(ステップS231におけるYES)、処理基板224は、処理をステップS232に移す。
ステップS232において、処理基板224は、親密度が高か否かを判断する。ステップS232において、親密度が高ではないと判断した場合(ステップS232におけるNO)、処理基板224は、処理をステップS236に移す。
一方、ステップS232において、親密度が高であると判断した場合(ステップS232におけるYES)、処理基板224は、処理をステップS233に移す。
ステップS233において、処理基板224は、エリア1に表示されているか否かを判断する。ステップS233において、エリア1に表示されていないと判断した場合(ステップS233におけるNO)、処理基板224は、処理をステップS236に移す。
一方、ステップS233において、エリア1に表示されていると判断した場合(ステップS233におけるYES)、処理基板224は、処理をステップS234に移す。
ステップS234において、処理基板224は、段階解放されているか否かを判断する。ステップS234において、段階解放されていないと判断した場合(ステップS234におけるNO)、処理基板224は、処理をステップS236移す。
一方、ステップS234において、段階解放されていると判断した場合(ステップS234におけるYES)、処理基板224は、処理をステップS235に移す。
ステップS235において、処理基板224は、対話系ワード群テーブル(図96A~図97Eを参照)を参照し、段階に応じた応答をする。ここでは、検出した呼びかけワードに紐づく応答ワードが音声出力される。また、例えば、JUNOの日本語習得の状況により、応答ワードは段階的に変化する。
ステップS236において、処理基板224は、モーション表示を実行する。ここでは、呼びかけワードを検出しても、ステップS232~ステップS234の条件が満たされていない場合、例えばモーション表示等が実行される。親密度高や親密度中では応答モーションが実行され、親密度低では逃げモーションが実行される。
なお、日本語覚える処理はこれに限られない。例えば、挨拶ワードのカウントは、呼びかけワード群ごとにカウントしてもよい。例えば「おはよう」が検出された場合、「おはよう群」を「1」カウントするようにしてもよい。その場合「おはよう群」のカウント数が、例えば、20回以上になることで、JUNOが「おはよう群」の言葉を全て覚えられるようにしてもよい。また、対話ワードのカウントは、登録ワードごとにカウントしてもよい。例えば処理基板224は「ユノ」が検出された場合、「ユノ」を「1」カウントするようにしてもよい。
このように、処理基板224は、JUNOがエリア1に表示されている場合に応答(S235)を行い、JUNOがエリア1に表示されていなければ応答を行わない。JUNOがエリア1に表示されている場合に応答を行うようにすることで、相対的にユーザに近い位置でコミュニケーションを図ることができ、より一層JUNOに対する親近感をユーザに与えることができる。
また、上記実施例では、親密度中以降で日本語習得機能が開放されるようにしたが、これに限られない。例えば、JUNOの親密度によらず挨拶ワード(オウム返し系ワード群の登録ワード)を覚えることができるようにしてもよい。その場合、ステップS202の処理が行われず、ステップ201においてYESであった場合、ステップ203に進むようにするとよい。
また、JUNOは、表示されているエリアにかかわらず挨拶ワードを覚えることができるようにしてもよい。その場合、S203の処理を行わないようにするとよい。また、挨拶ワードは、JUNOの親密度にも表示されているエリアにもかかわらず覚えるようにすることも可能である。その場合は、ステップ201においてYESであった場合、ステップ204の処理を行うようにするとよい。
また、上記実施例では、例えば、経験値の加算処理(S173参照)、経験値の減算処理(S175)、呼びかけ応答の許可(S177)等を、いずれもクラウドサーバによって行われるようにした。このようにすれば、システム1に不具合が生じたりした場合であっても、データがクラウドサーバで管理されるため、例えばそれまでの経験値情報等のデータが消失してしまうことを防止できる。また、例えば経験値の更新や応答ワードの段階が解放されるのは、システム更新処理(図120参照)が行われたときである。このようにすれば、例えば日中の特定のタイミング(すなわち呼びかけワード群が所定回数に至ったタイミング)でいきなり呼びかけ応答が許可されるといったような不自然な状態の発生を防止でき、日に日に成長するといったリアリティさを出すことができる。
また、経験値の加算処理(S173参照)、経験値の減算処理(S175)、呼びかけ応答の許可(S177)等を、処理基板224で行うようにしてもよい。このようにすると、システム更新処理(図120参照)を待つことなく、経験値の加算処理(S173参照)、経験値の減算処理(S175)、呼びかけ応答の許可(S177)等を行うことができる。
例えば、JUNOの親密度によらず対話ワードを覚えることができるようにしてもよい。その場合は、ステップS222の処理を行わないようにし、ステップ221においてYESであった場合、ステップ233以降の処理を行うようにするとよい。また、JUNOは、表示されているエリアにかかわらず対話ワードを覚えることができるようにしてもよい。その場合は、S223の処理を行わないようにするとよい。また、挨拶ワードは、JUNOの親密度にも表示されているエリアにもかかわらず覚えるようにすることも可能である。その場合は、ステップ221においてYESであった場合、ステップ224以降の処理を行うようにするとよい。
また、JUNOは、表示されているエリアによらず日本語応答等をできるようにしてもよい。挨拶応答でオウム返しをする場合は、ステップS213の処理を行わないようにするとよい。また、対話応答を行う場合は、ステップ233の処理を行わないようにするとよい。なお、親密度高では、人検知イベント等でエリア1に移動表示をするが、JUNOが呼びかけ等に応答してからエリア1に移動表示する等をしてもよい。
なお、エリアにかかわらず日本語を覚える処理を行う場合、外からの影響を受けないエリア5でも、日本語を覚える処理等(応答含む)を行うようにしてもよい。また、JUNOの音声を出力する際には、一定の音量であってもよいが、JUNOの表示されているエリアによって音量が異なるようにしてもよい。その場合は、ユーザから遠い位置、すなわちエリア5の方向に表示されるにつれてJUNOの音声が小さくなるようにするとよい。
<21.天気読み上げ機能>
以下、本システム1が備える天気読み上げ機能について、図128A~図129Cを参照して説明する。天気読み上げ機能は、例えば、ユーザから「いつ」、「どこの)、「天気教えて」等の音声入力があることを想定し、これらの音声入力があったことにもとづいて、JUNOが天気を読み上げる等を行う機能である。
以下、本システム1が備える天気読み上げ機能について、図128A~図129Cを参照して説明する。天気読み上げ機能は、例えば、ユーザから「いつ」、「どこの)、「天気教えて」等の音声入力があることを想定し、これらの音声入力があったことにもとづいて、JUNOが天気を読み上げる等を行う機能である。
なお、天気読み上げ機能は、親密度高で解放される機能である。したがって、親密度低及び親密度中では、処理基板224は、たとえ上記の音声入力があったとしても、例えばJUNOがこれを無視するかのような行動パターン等を表示する。このようにすることで、JUNOに餌を与えることをユーザに促すことができる。
図128Aは、一実施形態に係るシステム1において、想定されるユーザからの音声入力情報を説明するための概要の一例である。図128Bは、一実施形態に係るシステム1において、定義付けされた時間帯の称呼の一例を示す図である。図129A~図129Cは、一実施形態に係るシステム1において、取得した天気情報にもとづいて作成(以下において「生成」と称することもある)される応答文を説明するための概要の一例である。
図128Aに示されるように、処理基板224のROM702には、「いつ」に対応する音声入力情報として、例えば、「今日の」、「明日の」、「夕方の」等といったワードが記憶されている。また、「どこの」に対応する音声入力情報として、例えば、日本の地域として、例えば全都道府県名や全市町村群名等のワードが記憶されている。また、キーワードとなる「天気」や「教えて」といったワードについても記憶されている。
また、図128Bに示されるように、本実施例では、1日(24時間)を3時間毎に区切って、例えば、0時~3時を「未明」、3時~6時を「明け方」、6時~9時を「朝」、9時~12時を「昼前」、12時~15時を「昼過ぎ」、15時~18時を「夕方」、18時~21時を「夜のはじめ頃」、21時~24時を「夜遅く」と定義する。また、例えば、12時前後(例えば、10時半~13時半)を「昼頃」と定義し、12時を「正午」と定義する。また、例えば、0時~12時を「午前中」、12時~24時を「午後」と定義する。さらに、例えば、9時~18時を「日中」と定義し、18時~24時を「夜」と定義する。
また、処理基板224は、例えば気象庁等から提供されている天気情報を、ユーザからの要求に応じてまたは随時取得し、ユーザからの要求と外部から取得した天気情報とに基づいてコメントを作成し、作成された要約文を発話する処理を行う。
図128に示されるように、例えば、「いつ」の音声入力が、「今日の」であった場合は当日の天気情報等を取得し、「未明の」であった場合は当日1時の天気情報等を取得し、「明け方の」または「早朝の」であった場合は当日4時の天気情報等を取得し、「今の」であった場合は現在時刻が含まれるデータ(天気情報等)を取得し、「週末の」または「今週の」であった場合は予報士コメント等を取得して対応する。
また、処理基板224は、取得した天気情報にもとづいて、JUNOが応答するフレーズ等を作成する。例えば、「いつ」の音声入力が「今日の」等の場合、JUNOの応答フレーズは、予報士コメント等で対応することもある。これに対し、「いつ」の音声入力が例えば「午前中の」等の場合、例えば6時~11時の短期情報等にもとづいて、JUNOが応答するフレーズ(以降、要約コメントともいう)を生成する。また、「いつ」の音声入力が「午後からの」等の場合は、例えば12時~18時の短期情報等にもとづいて、JUNOが応答するフレーズを生成する。なお、この短期情報を天気情報と置き換えて説明することもある。なお、ようやくコメントは、伝聞方式の文章として作成される。
このように、ユーザからの音声入力情報に、処理基板224のROM702に記憶されているワードが含まれている場合、処理基板224は、作成されたフレーズをJUNOに音声出力させることができる。このようにすることで、ユーザとJUNOとの間でコミュニケーションを図りつつユーザの要求にこたえることができる。
また、処理基板224は、要約コメントに加えて、付加情報も作成する。付加情報は、要約コメントとは異なる文脈で作成される。例えば、要約コメントはキャスターが発話するかのような真面目な口調で出力されるように作文されるのに対し、付加情報は身内が発話するかのような親近感を与えうる音声で柔らかい口調で出力されるように作文される等とするとよい。
外部サーバ等から取得可能な天気情報としては、例えば、1日ごとの天気情報、すなわち、0時から24時までの天気情報と、1時間ごとの天気情報、例えば、6時~7時までの1時間分や、7時~8時までの1時間分などの短期的な天気情報とがある。
1日ごとの天気情報は、例えば、空模様にかかわる情報、最高気温にかかわる情報、最低気温にかかわる情報、および、降水確率にかかわる情報等のうち、少なくとも一つまたは全部を含む情報である。
1時間ごとの天気情報は、例えば、空模様にかかわる情報、気温にかかわる情報、および、降水量にかかわる情報等のうち、少なくとも一つまたは全部を含む情報である。
このように、1日ごとの天気情報や1時間ごとの天気情報に、空模様にかかわる情報、最高気温にかかわる情報、最低気温にかかわる情報、および、降水確率にかかわる情報等のうち、少なくとも一つまたは全部を含む情報ことで、ユーザに有益な情報を提供することができる。例えば、ユーザは、最高気温にかかる情報にもとづいてその日の服装等を決めることができ、空模様や降水確率にかかわる情報にもとづいてその日に傘が必要であるか否か等を判断することができる。
また、外部から取得した天気情報等が例えば「晴れ」を示すものであった場合、例えば「天気は、晴れみたいです」等のフレーズで応答することもある。また、1時間ごとの天気情報は、例えば、短期情報として6時間分の離散データを取得するようにしている。
外部から取得できる6時間分の短期情報にはあらかじめ優先順位が設定されており、外部から取得した6時間分の短期情報のうち、最も優先度の高いものを、天気情報として採用するとよい。
また、例えば外部から取得した6時間分の短期情報の優先順位が同じであった場合等、6時間分の短期情報のうち出現回数が多いものを採用する(すなわち多数決で決定する)ようにするとよい。さらに、優先順位だけでなく出現回数も同数であった場合、出現時間が早い短期情報を天気情報として採用するようにするとよい。外部から取得した6時間分の短期情報に優先順位が設定されていない場合や、優先順位が設定されていたとしても優先順位が同じでない場合であっても、出現回数が多いものを採用してもよい。
このように、外部から取得する天気情報を、例えば1時間ごとの短期情報を複数時間分(例えば6時間等)集めた離散的な天気情報とすると、例えばその日の服装や傘が必要であるか否か等をユーザが判断するための情報として相対的に確度の高い情報を、ユーザに提供することができる。
また、外部から取得する天気情報を、例えば1時間ごとの短期情報を複数時間分(例えば6時間等)集めた離散的な天気情報に加えて、1日ごとの天気情報も含むようにするとよい。このようにすれば、その日1日の大まかな天気情報についてもユーザに提供することができる。例えば、短期情報として離散的な天気情報と、1日ごとの天気情報とのうち、いずれかの天気情報をユーザの所望に応じて提供することができ、ユーザの利便性を高めることができる。
なお、天気情報が取得される地域については、「どこで(どこの)」の入力で対応するようにするとよい。しかし、指定がないときは、スマートフォンのアプリケーション等で設定された場所等で対応するようにするとよい。この場合、対応可能な場所の指定として、例えば都道府県及び都道府県所在地のみ等にするとよい。
次に、「いつ」の音声入力が「午前中の」等であったときのように外部から短期情報を取得する場合に作成される要約コメント、及び、要約コメントに加えて作成される付加情報の生成について説明する。
図129A及び図129Bに示されるように、処理基板224は、例えば、6時から7時、7時から8時、8時から9時、9時から10時、10時から11時、11時から12時の6時間分の離散的な例えば降水量のデータから、雨の降り方や雨の様子等をあらわす要約コメントを生成する。なお、「いつ」の音声入力が、「午後から」等の場合は、12時~18時の降水量のデータから、雨の降り方や雨の様子等をあらわす要約コメントを生成する。
例えば、全ての時間帯で降水量が「0」の場合、すなわち、6時~7時の降水量「0」、7時~8時の降水量「0」、8時~9時の降水量「0」、9時~10時の降水量「0」、10時~11時の降水量「0」、11時~12時の降水量「0」の場合、処理基板224は「午前中は雨が降らないです」等のフレーズを生成する。
また、全ての時間帯で降水量が「0」ではない場合、例えば、6時~7時の降水量「1」、7時~8時の降水量「10」、8時~9時の降水量「7」、9時~10時の降水量「8」、10時~11時の降水量「3」、11時~12時の降水量「2」の場合、処理基板224は「午前中はずっと雨が降るみたいです」等のフレーズを生成する。また、「特に7時からザーザーとやや強い雨が降るみたいです」等、時間内の最大降水量についての説明フレーズも生成する。
また、途中で雨が止む(途中から降水量が「0」になる)場合、すなわち、6時~7時の降水量「1」、7時~8時の降水量「10」、8時~9時の降水量「7」、9時~10時の降水量「0」、10時~11時の降水量「0」、11時~12時の降水量「0」の場合、処理基板224は「6時頃から9時頃まで雨が降るみたいです」等のフレーズを生成する。このように、時間内の最大降水量についての説明フレーズも生成する。
また、途中から雨が降り出す(途中から降水量が「0」でない)場合、すなわち、6時~7時の降水量「0」、7時~8時の降水量「0」、8時~9時の降水量「0」、9時~10時の降水量「8」、10時~11時の降水量「3」、11時~12時の降水量「2」の場合、処理基板224は「9時頃から12時頃まで雨が降るみたいです」等のフレーズを生成する。このような場合も、時間内の最大降水量についての説明フレーズも生成する。
また、途中で雨が降る場合、すなわち、6時~7時の降水量「0」、7時~8時の降水量「0」、8時~9時の降水量「7」、9時~10時の降水量「8」、10時~11時の降水量「3、」11時~12時の降水量「0」の場合、処理基板224は「8時頃から11時頃まで雨が降るみたいです」等のフレーズを生成する。また、「特に9時頃から本降りの雨が降るみたいです」等、時間内の最大降水量についての説明フレーズも生成する。
また、特定の時間に雨が降る場合、すなわち、6時~7時の降水量「0」、7時~8時の降水量「0」、8時~9時の降水量「1」、9時~10時の降水量「0」、10時~11時の降水量「0」、11時~12時の降水量「0」の場合、処理基板224は「8時頃から9時頃まで、ポツポツ、パラパラと雨が降るみたいです」等のフレーズを生成する。
また、上記以外の雨の降り方の場合、処理基板224は「午前中は、天気が良くないみたいです」等のフレーズを生成する。
また、6時~7時の降水量「1」、7時~8時の降水量「0」、8時~9時の降水量「1」、9時~10時の降水量「0」、10時~11時の降水量「0」、11時~12時の降水量「0」の場合、処理基板224は「特に6時頃に、ポツポツ、パラパラと雨が降るみたいです。午前中は、雨が降ったりやんだりするみたいです。」等のフレーズを生成する。
また、6時~7時の降水量「1」、7時~8時の降水量「0」、8時~9時の降水量「2」、9時~10時の降水量「1」、10時~11時の降水量「0」、11時~12時の降水量「0」の場合、処理基板224は「特に8時頃に、ポツポツ、パラパラと雨が降るみたいです。午前中は、雨が降ったりやんだりするみたいです。」等のフレーズを生成する。
また、6時~7時の降水量「1」、7時~8時の降水量「0」、8時~9時の降水量「1」、9時~10時の降水量「0」、10時~11時の降水量「1」、11時~12時の降水量「0」の場合、処理基板224は「特に6時頃に、ポツポツ、パラパラと雨が降るみたいです。午前中は、雨が降ったりやんだりするみたいです。」等のフレーズを生成する。
また、6時~7時の降水量「1」、7時~8時の降水量「5」、8時~9時の降水量「7」、9時~10時の降水量「0」、10時~11時の降水量「3」、11時~12時の降水量「0」の場合、処理基板224は「特に8時頃に、本降りの雨が降るみたいです。午前中は、ほとんど雨みたいです。」等のフレーズを生成する。
また、6時~7時の降水量「1」、7時~8時の降水量「0」、8時~9時の降水量「7」、9時~10時の降水量「8」、10時~11時の降水量「3」、11時~12時の降水量「1」の場合、処理基板224は「特に9時頃に、本降りの雨が降るみたいです。」等、時間内の最大降水量についての説明も生成する。なお、最大降水量が同じ場合、最初の時間帯についてのみ説明するためのフレーズを生成する。
次いで、生成されたフレーズに対応する付加情報の生成について説明する。付加情報とは、例えば、天気が雪の場合に「ころばないように」等、ユーザに対してより親近感を与えうる情報である。なお、処理基板224は、付加情報をJUNOに発話させる場合、要約コメントの発話とは区別して、親しみのある音声で出力するよう制御する。
図129Cに示すように、生成されたフレーズが例えば「雨は降らないみたいです。」の場合、処理基板224は、付加情報の生成を行わない。
また、生成されたフレーズが「ポツポツ、パラパラと雨が降るみたいです。」の場合、処理基板224は、「外出の際は、傘をお供に~」等の付加情報を生成する。
また、生成されたフレーズが「雨が降るみたいです。」の場合、処理基板224は、「出かけるときは、傘を持っていったほうがいいかも~」等の付加情報を生成する。
また、生成されたフレーズが「本降りの雨が降るみたいです。」の場合、処理基板224は、「移動の際は、傘を持ったほうがいいかも~」等の付加情報を生成する。
また、生成されたフレーズが「ザーザーとやや強い雨が降るみたいです。」の場合、処理基板224は、「外出の際は、傘が必要かも~」等の付加情報を生成する。
また、生成されたフレーズが「どしゃ降りの強い雨が降るみたいです。」の場合、処理基板224は、「傘をさしても、足元がぬれるかも~」等の付加情報を生成する。
また、生成されたフレーズが「バケツを引っくり返したような、激しい雨が降るみたいです。」の場合、処理基板224は、「傘をさしても、ぬれるかも~」等の付加情報を生成する。
また、生成されたフレーズが「滝のように、非常に強い雨が降るみたいです。」の場合、処理基板224は、「外出は控えたほうがいいかも~」等の付加情報を生成する。
また、生成されたフレーズが「猛烈な強雨になるみたいです。」の場合、処理基板224は、「外出は控えたほうがいいかも~」等の付加情報を生成する。
(天気イベント処理)
次いで、図130を参照して、本システムの天気イベントの制御について説明する。図130は、一実施形態に係るシステム1において、処理基板224により実行される天気イベント処理の一例である。
次いで、図130を参照して、本システムの天気イベントの制御について説明する。図130は、一実施形態に係るシステム1において、処理基板224により実行される天気イベント処理の一例である。
図130に示されるように、処理基板224は、まず、天気イベントが発生したか否かを判断する(ステップS241)。天気イベントは、例えば、「いつ」、「どこの」、「天気教えて」等の音声入力を検出した場合に発生する。ステップS241において、天気イベントが発生したと判断した場合(ステップS241におけるYES)、処理基板224は、処理をS242に移す。
ステップS242において、親密度が高であるか否かを判断する。上述したとおり、JUNOによる天気情報の読み上げは、日本語応答可能な親密度高であることを条件とすることが好ましい。親密度低または親密度中である場合、天気イベントが発生すなわち「いつ」、「どこの」、「天気教えて」等の音声入力を検出したとしても、JUNOはこれを無視するように表示される。すなわち、JUNOの行動パターンとして、親密度が相対的に低いとき(例えば、親密度低又は親密度中のとき)はユーザの呼びかけを無視し、親密度が相対的に高い親密度高ではユーザの要求に応じるといった、JUNOを、あたかも本能機能にもとづいて行動しているかのようなリアリティのあるキャラクタとすることができる。また、このようにすることで、JUNOに餌を与えることをユーザに促すこともできる。ステップS242において、親密度が高であると判断した場合(ステップS242におけるYES)、処理基板224は、処理をS243に移す。
ステップS243において、処理基板224は、入力された情報に基づいて各種情報取得する。ここでは、例えば、図128の音声入力等により外部サーバから天気情報等を取得する。1日ごとの天気情報や1時間ごとで、かつ6時間分等の天気情報が取得される。処理基板224は、入力された情報に基づいて各種情報を取得したあと、処理をステップS244に移す。
ステップS244において、処理基板224は、取得した情報に応じた各種コメントの設定を行う。ここでは、例えば、1日ごとの天気情報等が取得される。取得した情報に応じた各種コメントの設定としては、例えば、取得した天気情報等が「晴れ」を示すものであった場合、「天気は、晴れみたいです」等のコメントを設定する。また、1時間ごとの天気情報からコメントを設定する場合は、例えば、6時間分の短期情報から最も優先度の高いものを天気情報として採用し、その天気情報に応じたコメントを設定する。処理基板224は、取得した情報に応じた各種コメント設定をしたあと、処理をステップS245に移す。
ステップS245において、処理基板224は、取得した離散的データ解析を行う。ここでは、例えば、「午前中」等の入力情報に応じて取得される6時~12時までの6時間分の離散データである天気情報の解析が行われる。処理基板224は、取得した離散的データ解析をしたあと、処理をステップS246に移す。
ステップS246において、処理基板224は、解析データに基づいて要約コメント生成および設定を行う。ここでは、図129のように解析したデータに基づいて要約コメントの生成および設定を行う。処理基板224は、解析データに基づいて要約コメント生成および設定を行ったあと、処理をステップS247に移す。
ステップS247において、処理基板224は、設定されたコメントをJUNOにて音声出力をする。ここでは、JUNOが、あたかも人間であるかのように答えるように、しかも、ユーザとの1対1の会話の中で親しみを込めて教えてあげるように設定されたフレーズ等を出力する。
なお、天気の情報等に変化があった場合、JUNOがの自動的に最新の天気情報(例えば、要約コメントや付加情報等)を読み上げるようにしてもよい。すなわち、天気イベントが発生していなくとも、JUNOが自らの意思によって能動的に天気情報を読み上げるようにすると、JUNOをよりリアリティのあるキャラクタとすることができる。
<22.ニュース読み上げ機能>
以下、本システム1が備えるニュース読み上げ機能について簡単に説明する。ニュース読み上げ機能は、例えば、ユーザから「いつ」、「どこで(どんな)」、「キーワード(例えばニュース等)教えて」等の音声入力があることを想定し、これらの音声入力があったことにもとづいて処理基板224が外部サーバ等からニュース情報を取得し、JUNOが読み上げる等を行う機能である。
以下、本システム1が備えるニュース読み上げ機能について簡単に説明する。ニュース読み上げ機能は、例えば、ユーザから「いつ」、「どこで(どんな)」、「キーワード(例えばニュース等)教えて」等の音声入力があることを想定し、これらの音声入力があったことにもとづいて処理基板224が外部サーバ等からニュース情報を取得し、JUNOが読み上げる等を行う機能である。
例えば、ユーザからの「今日のスポーツニュース教えて」等の特殊な呼びかけワードを検出すると、処理基板224は、ニュース情報サーバからその日のスポーツニュースの情報を取得し、JUNOを通じて音声出力を行う。例えば、JUNOが、取得した情報から第1指定領域にある見出し等のタイトルを読み上げる。読み上げは、タイトルのうち、タグと呼ばれる内容とは関係のない付加情報の部分を除いた部分とするとよい。タグは、例えばニュース情報の属性を示す情報で、ニュースの内容に付加された情報である。タグは、例えば、一度目のニュース情報の配信後に、そのニュース情報の内容が変更された場合(例えば、更新又は差し替えられた場合)に付与される「[更新]」、「[差替]」といった所定の文字列とするとよい。システム1は、この場合、所定の文字列を除いてニュース情報のタイトルを読み上げる音声出力を行うとよい。さらに「詳しく教えて」等の特殊な呼びかけワードを検出すると、上記の見出しに対応する第2指定領域にあるスポーツニュースの内容をJUNOが読み上げる。
また、例えば、スポーツニュースの情報が複数ある場合、JUNOは、第1指定領域、第1指定領域、等の順でタイトル読み上げる。例えば、ユーザが第1指定領域のところで「詳しく教えて」というと、JUNOは、第2指定領域に対応するスポーツニュースの内容を読み上げる。なお、種々のニュース情報を取得するタイミングは、例えば1時間毎等、一定のタイミングで取得するようにしてもよいし、特殊な呼びかけワード検出したタイミングでニュース情報を取得するようにするとなおよい。
上述していた実施形態で音声出力としていたところは、表示、通信、印刷又はその他の方法による出力に置き換えられ、又は組み合わせられてもよい。例えば、キャラクタの発話に例示されるキャラクタの音声出力は、キャラクタに関連付けて出力することの一例である。例えばキャラクタの音声出力に代えて又は組み合わせて、キャラクタと関連付けて表示し(例えば、キャラクタの周辺に吹き出しを表示し)、その吹き出し内に上述した実施形態で音声出力していた内容を示す文字列を表示してもよい。例えばキャラクタの音声出力に代えて又は組み合わせて、キャラクタがボードを持つ様子が表示されて、そのボードに音声出力していた内容を示す文字列を表示してもよい。また、このような表示を別の装置との通信により当該装置にさせたり、紙その他の記録媒体に印刷して出力したりすること等もありうる。
上述した実施形態で説明した経験値、親密度等のパラメータをユーザが視認可能に表示されるようにしてもよい。処理基板224は、例えば、JUNOを表示する画面や、それ以外の画面等でパラメータを表示するとよい。パラメータは、棒グラフやグラフ、メータ、その他の表示方法を用いて表示されるとよい。
上述した実施形態で、パラメータを増加させる処理としていたところは、パラメータを減少させる処理に置き換えて実現されてもよい。上述した実施形態で、パラメータを減少させる処理としていたところは、パラメータを増加させる処理に置き換えて実現されてもよい。例えば、親密度が上がると把握されるところは、よそよそしさの度合いが下がると把握することもできる。例えば、ユーザのシステム1に対する入力と、システム1側の音声や表示等による出力との関係を上述した実施形態のとおり再現するための具体的な内部処理については、上述した実施形態の処理に限定されない。
本発明の範囲は、明細書に明示的に説明された構成や限定されるものではなく、本明細書に開示される本発明の様々な側面の組み合わせをも、その範囲に含むものである。本発明のうち、特許を受けようとする構成を、添付の特許請求の範囲に特定したが、現在の処は特許請求の範囲に特定されていない構成であっても、本明細書に開示される構成を、将来的に特許請求の範囲とする意思を有する。
本願発明は上述した実施の形態に記載の構成に限定されない。上述した各実施の形態や変形例の構成要素は任意に選択して組み合わせて構成するとよい。また各実施の形態や変形例の任意の構成要素と、発明を解決するための手段に記載の任意の構成要素または発明を解決するための手段に記載の任意の構成要素を具体化した構成要素とは任意に組み合わせて構成するとよい。これらについても本願の補正または分割出願等において権利取得する意思を有する。「~の場合」「~のとき」という記載があったとしてもその場合やそのときに限られる構成として記載はしているものではない。これらの場合やときでない構成についても開示しているものであり、権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えた構成についても開示しているものであり、権利取得する意思を有する。
また、意匠登録出願への変更により、全体意匠または部分意匠について権利取得する意思を有する。装置が画像を表示する場合は、その画像の全体または一部を含む意匠について権利取得する意思を有する。図面は本装置の全体を実線で描画しているが、全体意匠のみならず当該装置の一部の部分に対して請求する部分意匠も包含した図面である。例えば当該装置の一部の部材を部分意匠とすることはもちろんのこと、部材と関係なく当該装置の一部の部分を部分意匠として包含した図面である。当該装置の一部の部分としては、装置の一部の部材としてもよいし、その部材の部分としてもよい。全体意匠はもちろんのこと、図面の実線部分のうち任意の部分を破線部分とした部分意匠を、権利化する意思を有する。また、装置の筐体の内部のモジュール・部材・部品等についても、図面に表示されているものは、いずれも独立して取引の対象となるものであって、同様に、意匠登録出願への変更を行って権利化を行う意思を有するものである。
1 :表示装置、システム
100 :筐体
101 :右側パネル
102 :正面側パネル
103 :左側パネル
104 :背面側パネル
105 :上蓋部
106 :下蓋部
107 :右側内部パネル
108 :正面側内部パネル
109 :左側内部パネル
110 :開口部
200 :減光部材
210 :第1領域
220 :第2領域
221 :操作基板
222 :スロット
223 :USBコネクタ
224 :処理基板
226 :保持部
227 :撮影部
231 :制御基板
232 :配線
233 :センサ基板
234 :人感センサ
310 :第1表示部
311 :第1表示面
312 :視野角制御部材
320 :光学部材
321 :第1面
330 :第2表示部
331 :第2表示面
400 :台座部
500 :遮光部材
601 :第1プレート
602 :第2プレート
800 :配線部
810 :電源線
820 :信号線
830 :信号線
900 :仕切部材
910 :背景板
1041 :後蓋部
1051 :開口部
1052 :開口部
1100 :キャラクタ
1200 :キャラクタ
1210 :キャラクタ本体
1220 :首輪
1221 :札
2100 :ステージ映像
2200 :ステージ映像
2211 :操作部
2212 :操作部
2213 :操作部
2214 :操作部
2251 :スピーカ
2252 :スピーカ
2261 :ヒートシンク
2311 :電源ジャック
2331 :第1センサ
2332 :第2センサ
2333 :マイクロホン
2334 :発光部
100 :筐体
101 :右側パネル
102 :正面側パネル
103 :左側パネル
104 :背面側パネル
105 :上蓋部
106 :下蓋部
107 :右側内部パネル
108 :正面側内部パネル
109 :左側内部パネル
110 :開口部
200 :減光部材
210 :第1領域
220 :第2領域
221 :操作基板
222 :スロット
223 :USBコネクタ
224 :処理基板
226 :保持部
227 :撮影部
231 :制御基板
232 :配線
233 :センサ基板
234 :人感センサ
310 :第1表示部
311 :第1表示面
312 :視野角制御部材
320 :光学部材
321 :第1面
330 :第2表示部
331 :第2表示面
400 :台座部
500 :遮光部材
601 :第1プレート
602 :第2プレート
800 :配線部
810 :電源線
820 :信号線
830 :信号線
900 :仕切部材
910 :背景板
1041 :後蓋部
1051 :開口部
1052 :開口部
1100 :キャラクタ
1200 :キャラクタ
1210 :キャラクタ本体
1220 :首輪
1221 :札
2100 :ステージ映像
2200 :ステージ映像
2211 :操作部
2212 :操作部
2213 :操作部
2214 :操作部
2251 :スピーカ
2252 :スピーカ
2261 :ヒートシンク
2311 :電源ジャック
2331 :第1センサ
2332 :第2センサ
2333 :マイクロホン
2334 :発光部
Claims (32)
- キャラクタを表示可能な表示部と、
前記キャラクタの経験情報を変更する機能、および、前記経験情報に応じて前記キャラクタの動作態様を変化させる機能を有する制御手段と、
を備えることを特徴とするシステム。 - 前記制御手段は、前記キャラクタが有する仮想本能機能により行動する動作態様を表示する機能を有する
ことを特徴とする請求項1に記載のシステム。 - 前記キャラクタは動物を模したものであって、
前記制御手段は、前記キャラクタが有する仮想本能機能により警戒行動又は威嚇行動を行う動作態様を表示する機能を有する
ことを特徴とする請求項1又は2に記載のシステム。 - 前記制御手段は、立体感のある仮想空間を前記表示部に表示する機能と、前記仮想空間内を前記キャラクタが移動する動作態様を表示する機能と、を有する
ことを特徴とする請求項1~3のいずれか1項に記載のシステム。 - 前記制御手段は、距離感が異なる複数のエリアに区分して前記表示部に表示する機能と、前記複数のエリア間を前記キャラクタが移動する動作態様を表示する機能と、を有する
ことを特徴とする請求項1~4のいずれか1項に記載のシステム。 - 前記制御手段は、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置と最も近い第2位置との間を前記キャラクタが移動するように表示する機能を有する
ことを特徴とする請求項1~5のいずれか1項に記載のシステム。 - 前記制御手段は、ユーザが行動を起こすことにより前記経験情報を変更する機能と、前記経験情報が変更されると、前記キャラクタの行動パターンに変化を与えるよう制御する機能とを有する
ことを特徴とする請求項1~6のいずれか1項に記載のシステム。 - 前記制御手段は、前記経験情報の値が初期値の場合、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置に前記キャラクタが滞在するように表示する機能を有する
ことを特徴とする請求項1~7のいずれか1項に記載のシステム。 - 前記制御手段は、前記経験情報の値が初期値から第1規定値までの第1段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置への前記キャラクタの移動割合を、前記表示部を見たときに最も近い第2位置への前記キャラクタの移動割合よりも高くする機能を有する
ことを特徴とする請求項1~8のいずれか1項に記載のシステム。 - 前記制御手段は、前記経験情報の値が初期値から第1規定値までの第1段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置への前記キャラクタの移動割合を、前記経験情報の値の変化にともなって低下させる機能を有する
ことを特徴とする請求項1~9のいずれか1項に記載のシステム。 - 前記制御手段は、前記経験情報の値が初期値から第1規定値までの第1段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も近い第2位置への前記キャラクタの移動割合を、前記経験情報の値の変化にともなって上昇させる機能を有する
ことを特徴とする請求項1~10のいずれか1項に記載のシステム。 - 前記制御手段は、前記第1段階において、前記経験情報の値の変化にともなう前記第2位置への前記キャラクタの移動割合の上昇の度合いを高める機能を有する
ことを特徴とする請求項11に記載のシステム。 - 前記制御手段は、前記経験情報の値が初期値よりも大きい第1規定値からい第2規定値までの第2段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置への前記キャラクタの移動割合を、前記経験情報の値の変化にともなって低下させる機能を有する
ことを特徴とする請求項1~12のいずれか1項に記載のシステム。 - 前記制御手段は、前記経験情報の値が初期値よりも大きい第1規定値から第2規定値までの第2段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も近い第2位置への前記キャラクタの移動割合を、前記経験情報の値の変化にともなって上昇させる機能を有する
ことを特徴とする請求項1~13のいずれか1項に記載のシステム。 - 前記制御手段は、前記第2段階において、前記第2位置への前記キャラクタの移動割合の上昇の度合いを、前記経験情報の値の変化にともなって高める機能を有する
ことを特徴とする請求項14に記載のシステム。 - 前記制御手段は、前記経験情報の値が特定の規定値を超えた特定段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も遠い第1位置への前記キャラクタの移動割合を前記経験情報の値の変化にともなって低下させるとともに、該経験情報の値の変化にともなう前記第1位置への前記キャラクタの移動割合の低下の度合いを低くする機能を有する
ことを特徴とする請求項1~15のいずれか1項に記載のシステム。 - 前記制御手段は、前記経験情報の値が特定の規定値を超えた特定段階において、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに最も近い第2位置への前記キャラクタの移動割合を、前記経験情報の値の変化にともなって上昇させるとともに、該経験情報の値の変化にともなう前記第2位置への前記キャラクタの移動割合の上昇の度合いを低くする機能を有する
ことを特徴とする請求項1~16のいずれか1項に記載のシステム。 - 前記制御手段は、前記キャラクタの位置を移動させるか否かを決定する機能を有する
ことを特徴とする請求項1~17のいずれか1項に記載のシステム。 - 前記制御手段は、前記キャラクタを移動させるタイミングを抽選により決定する機能を有する
ことを特徴とする請求項18に記載のシステム。 - 人が近づいたことを検出可能なセンサを備え、
前記制御手段は、前記センサが検出されると、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに相対的に遠い位置に前記キャラクタを移動させる機能を有する
ことを特徴とする請求項1~19のいずれか1項に記載のシステム。 - 前記制御手段は、前記経験情報を下方に変更する機能を有する
ことを特徴とする請求項1~20のいずれか1項に記載のシステム。 - 前記経験情報の値は、前記キャラクタの親密度をあらわすものであり、
前記制御手段は、前記経験情報の値が親密度が高いことを示す値であるほど、前記キャラクタを表示可能な範囲のうち前記表示部を見たときに相対的に近い位置に前記キャラクタを移動させる頻度を高める機能を有する
ことを特徴とする請求項1~21のいずれか1項に記載のシステム。 - 前記制御手段は、予め設定された言語を記憶する記憶手段と、外部からの言語を認識可能な言語認識機能と、前記言語認識機能により認識された言語が前記記憶手段に記憶されている言語である場合、前記言語の認識回数を計数する計数機能と、を有し、
前記計数機能により計数された計数値が規定値まで計数された場合、前記キャラクタによる応答が許可される
ことを特徴とする請求項1~22のいずれか1項に記載のシステム。 - 前記計数機能により計数された計数値が規定値まで計数され、かつ前記経験情報の値が所定の規定値に到達すると、前記キャラクタによる応答が許可される
ことを特徴とする請求項23に記載のシステム。 - 前記制御手段は、前記キャラクタを表示可能な範囲のうち、前記表示部を見たときに相対的に近い位置において、前記キャラクタにより応答を行わせる機能を有する
ことを特徴とする請求項23又は24に記載のシステム。 - 前記制御手段は、前記言語認識機能により認識された言語が前記記憶手段に記憶されている言語である場合、該言語を前記キャラクタに復唱させる復唱機能を有する
ことを特徴とする請求項23~25のいずれか1項に記載のシステム。 - 前記復唱機能は、前記キャラクタを表示可能な範囲のうち前記表示部を見たときに相対的に近い位置において、前記言語を前記キャラクタに復唱させる機能を有する
ことを特徴とする請求項26に記載のシステム。 - 前記制御手段は、前記経験情報の値が所定の規定値に到達すると、前記復唱機能を有効にする
ことを特徴とする請求項26又は27に記載のシステム。 - 前記制御手段は、外部の携帯端末と通信接続する機能と、前記携帯端末からの接続要求を受けることで該携帯端末と接続設定する機能と、を有する
ことを特徴とする請求項1~28のいずれか1項に記載のシステム。 - 前記制御手段は、外部の携帯端末と通信接続する機能と、前記携帯端末から指示情報を受けると、該指示情報にもとづいて前記キャラクタを動作させる機能と、を有する
ことを特徴とする請求項1~29のいずれか1項に記載のシステム。 - 前記制御手段は、設定によりアラーム動作を行うアラーム機能と、前記アラーム動作を、前記キャラクタの動作により実行する機能と、を有する
ことを特徴とする請求項1~30のいずれか1項に記載のシステム。 - 前記制御手段は、要求に応じて家電制御を実行する家電制御機能と、前記家電制御を前記キャラクタの動作により実行する機能と、を有する
ことを特徴とする請求項1~31のいずれか1項に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021061360A JP2022157245A (ja) | 2021-03-31 | 2021-03-31 | システム等 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021061360A JP2022157245A (ja) | 2021-03-31 | 2021-03-31 | システム等 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022157245A true JP2022157245A (ja) | 2022-10-14 |
Family
ID=83559516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021061360A Pending JP2022157245A (ja) | 2021-03-31 | 2021-03-31 | システム等 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022157245A (ja) |
-
2021
- 2021-03-31 JP JP2021061360A patent/JP2022157245A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI692717B (zh) | 影像顯示裝置、話題選擇方法及程式 | |
JP7320239B2 (ja) | 音源の方向を認識するロボット | |
JP6165302B1 (ja) | 画像表示装置、話題選択方法、話題選択プログラム | |
JP7424285B2 (ja) | 情報処理システム、情報処理方法、および記録媒体 | |
JP2018014575A (ja) | 画像表示装置、画像表示方法及び画像表示プログラム | |
JP6682475B2 (ja) | 画像表示装置、話題選択方法、話題選択プログラム | |
JP2019139170A (ja) | 画像表示装置、画像表示方法および画像表示プログラム | |
JP2024032778A (ja) | 表示装置等 | |
US20220410023A1 (en) | Information processing device, control method of the same, and program | |
JP2024038028A (ja) | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 | |
JP2023035270A (ja) | 表示装置等 | |
JP2022157245A (ja) | システム等 | |
JP2022157238A (ja) | システム等 | |
JP7448142B2 (ja) | 表示装置等 | |
JP2019139169A (ja) | 画像表示装置、画像表示方法および画像表示プログラム | |
WO2024214793A1 (ja) | 行動制御システム、制御システム、及び情報処理システム | |
WO2024214708A1 (ja) | 行動制御システム | |
WO2024219336A1 (ja) | 行動制御システム及びロボット | |
WO2024214710A1 (ja) | 行動制御システム | |
WO2024219506A1 (ja) | 電子機器、行動制御システムおよび制御システム | |
WO2024219312A1 (ja) | 行動制御システム | |
WO2024214709A1 (ja) | 行動制御システム及びプログラム、並びに自律学習方法 | |
WO2024214751A1 (ja) | 行動制御システム | |
WO2024214750A1 (ja) | 行動制御システム、学習用データの生成方法、表示制御装置及びプログラム | |
WO2024219321A1 (ja) | 行動制御システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241008 |