JP2005285077A - 情報提供装置 - Google Patents
情報提供装置 Download PDFInfo
- Publication number
- JP2005285077A JP2005285077A JP2004127318A JP2004127318A JP2005285077A JP 2005285077 A JP2005285077 A JP 2005285077A JP 2004127318 A JP2004127318 A JP 2004127318A JP 2004127318 A JP2004127318 A JP 2004127318A JP 2005285077 A JP2005285077 A JP 2005285077A
- Authority
- JP
- Japan
- Prior art keywords
- information
- processing unit
- user
- input
- sensitivity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000035945 sensitivity Effects 0.000 claims abstract description 113
- 241000282414 Homo sapiens Species 0.000 claims abstract description 17
- 230000003068 static effect Effects 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 10
- 230000006399 behavior Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000007774 longterm Effects 0.000 claims description 6
- 239000003795 chemical substances by application Substances 0.000 description 46
- 238000000034 method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 7
- 230000008451 emotion Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 235000013305 food Nutrition 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000003203 everyday effect Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 235000012054 meals Nutrition 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- MCSXGCZMEPXKIW-UHFFFAOYSA-N 3-hydroxy-4-[(4-methyl-2-nitrophenyl)diazenyl]-N-(3-nitrophenyl)naphthalene-2-carboxamide Chemical compound Cc1ccc(N=Nc2c(O)c(cc3ccccc23)C(=O)Nc2cccc(c2)[N+]([O-])=O)c(c1)[N+]([O-])=O MCSXGCZMEPXKIW-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 235000000177 Indigofera tinctoria Nutrition 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 244000178870 Lavandula angustifolia Species 0.000 description 1
- 235000010663 Lavandula angustifolia Nutrition 0.000 description 1
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 229940097275 indigo Drugs 0.000 description 1
- COHYTHOBJLSHDF-UHFFFAOYSA-N indigo powder Natural products N1C2=CC=CC=C2C(=O)C1=C1C(=O)C2=CC=CC=C2N1 COHYTHOBJLSHDF-UHFFFAOYSA-N 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000001102 lavandula vera Substances 0.000 description 1
- 235000018219 lavender Nutrition 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】 ユーザーの潜在的な感性を推測して情報提供を行なえるようにする。
【解決手段】 感性データベースによって人間の各種特性情報を感性グループに分類し、シナリオデータベース42のシナリオ情報をユーザー3に提供して情報入力を促し、それによって得られた入力情報から特性情報を推測し、ユーザー3が所属すべき感性グループを特定し、提案情報データベース46によって、ユーザー3に提案する為の提案情報44を感性グループと関連付けて蓄積し、ユーザー3が所属する感性グループに基づいて、提案情報データベース46の提案情報を抽出し、この抽出された提案情報を前記ユーザー3に提供する。
【選択図】 図1
【解決手段】 感性データベースによって人間の各種特性情報を感性グループに分類し、シナリオデータベース42のシナリオ情報をユーザー3に提供して情報入力を促し、それによって得られた入力情報から特性情報を推測し、ユーザー3が所属すべき感性グループを特定し、提案情報データベース46によって、ユーザー3に提案する為の提案情報44を感性グループと関連付けて蓄積し、ユーザー3が所属する感性グループに基づいて、提案情報データベース46の提案情報を抽出し、この抽出された提案情報を前記ユーザー3に提供する。
【選択図】 図1
Description
本発明は、人間の感性を予測しながら情報提供可能な情報提供装置に関するものである。
現在、人間型ロボットに搭載される学習型人工知能の開発が盛んである。インターネットに情報配信においても、ユーザー(クライアント)のニーズに応じた情報をサーバー側で分析し、それをリアルタイムで配信するレコメンデーション技術も近年注目されてきている。
人とコンピュータが交流するインターフェース技術は、まず、ユーザーの様々な個人情報(会話、行動、趣味)等を収集することから始まるが、通常、これらの過去情報/履歴情報を意味内容の観点から分析し、共通意味分野の情報をコンピュータが提案することで、個別ユーザーの嗜好に合わせた情報提供を実現していることが多い。例えば、インターネットを活用した書籍販売サイトでは、過去に「特許」というキーワードが挿入されている書籍を購入した場合、その個人或いは同様の他人の購読履歴に基づいて、次に購入するであろう書籍を推測し、その書籍情報を積極的にオンラインで提案する。従って、あたかも、コンピュータが自分の好みを知っているかのように振る舞い、人間と同様の共感が得られる場合もある。
しかしながら、感情の浮き沈みや理性等を含め、人間の感性は極めて奥が深いものである。例えば、表面的な振る舞いと本心が正反対の場合も多々存在する。現在の人工知能技術では、人間の表面から出力される情報や行動パターンのみを抽出し、その意味内容に着目して応答パターンを決定している為、人間の本心に迫ることが出来ず、ありきたりで退屈な応答になってしまうという問題があった。つまり、過去に収集された情報の意味内容から推測しているだけでは、結局、ユーザーが自ら予想できる範囲内の情報しか提供することが出来ない。
更に、人間の感性は高度に設計されており、例えば、新鮮さ、はっとした驚き、気づき、思いがけない感動等の予想できない範囲が非常に重要であるが、それに関して従来の人工知能は全く力を発揮することが出来ないという問題があった。例えば、これを打開する手法として、ランダムに雑多な情報を織り交ぜてユーザーに提案し、ユーザーの意表をつくことも考えられるが、結局、ユーザーの本心とは無関係な情報を提供することになり、偶然以外には相手の本心に迫ることができなかった。
本発明は上記問題点に鑑みて為されたものであり、情緒やユーザーの気質に対しても反応し、人間の感性を推論可能な情報提供装置を得ることを目的としている。
本発明の上記目的は、下記の手段によって達成される。
(1)人間の各種特性情報が複数の感性グループに分類されて蓄積された感性データベースと、ユーザーに情報入力を誘導するためのシナリオ情報が蓄積されたシナリオデータベースと、前記シナリオ情報をユーザーに提供して情報入力を促すインプットエージェント処理部と、前記インプットエージェント処理部によって得られた入力情報から前記特性情報を推測して、ユーザーが所属すべき前記感性グループを特定する感性グループ特定処理部と、ユーザーに提案する為の提案情報が前記感性グループと関連付けて蓄積されている提案情報データベースと、ユーザーが所属する前記感性グループに基づいて、前記提案情報データベースの提案情報を抽出する感性相性解析処理部と、抽出された前記提案情報を前記ユーザーに提供する情報提供エージェント処理部と、を備えることを特徴とする情報提供装置。
(2)上記(1)において、前記提案情報データベースの前記提案情報が、前記感性グループの前記特性情報と関連付けて蓄積されており、前記感性相性解析処理部が、ユーザーの所属する前記感性グループに含まれる前記特性情報に基づいて、前記提案情報データベースの提案情報を抽出するようにしたことを特徴とする情報提供装置。
(3)上記(1)又は(2)において、前記感性データベースに蓄積される特性情報として、少なくともパーソナリティ特性を示す情報と、行動特性を示す情報を含めるようにしたことを特徴とする情報提供装置。
(4)上記(1)、(2)又は(3)において、前記シナリオデータベースは、ユーザーの長期的な特性情報の入力を誘導する固定的シナリオ情報、及びユーザーの短期的な特性情報の入力を誘導する動的シナリオ情報を含み、前記インプットエージェント処理部は前記固定的シナリオ情報をユーザーに提供して固定的情報の入力を促すと共に、前記動的シナリオ情報をユーザーに提供して動的情報の入力を促し、前記感性グループ特定処理部が、固定的情報から推測した前記感性グループをスタティック感性グループとして記憶するとともに、前記動的情報から推測した前記感性グループをダイナミック感性グループとして記憶し、更に、前記スタティック感性グループと前記ダイナミック感性グループに基づいてユーザーが現在欲しているマインド感性グループを特定し、前記情報提供エージェント処理部が、前記マインド感性グループに基づいて前記情報提供を行なうようにしたことを特徴とする情報提供装置。
(5)上記(4)において、感性データベースにおける前記感性グループが色情報に基づいて分類されており、前記感性グループ特性処理部が、固有のスタティック感性グループの色情報及びダイナミック感性グループの色情報の色相関係に基づいた変換テーブルによって、マインドカラーグループの色情報を特定するようにしたことを特徴とする情報提供装置。
(6)上記(1)乃至(5)のいずれかにおいて、前記シナリオデータベースにおける前記シナリオ情報は、前記感性グループに対応させてそれぞれ用意されており、前記感性グループ特定処理部によってユーザーの感性グループが特定された後に、前記インプットエージェント処理部が前記シナリオ情報をユーザーに提供する場合には、該ユーザーが所属する前記感性グループに応じた前記シナリオ情報を提供するようにしたことを特徴とする情報提供装置。
(7)上記(1)乃至(6)のいずれかにおいて、前記情報提供エージェント処理部が前記感性グループに含まれる前記特性情報を抽出する際に、前記感性グループ特定処理部においてユーザーの入力情報から推測された前記特性情報を除外するようにしたことを特徴とする情報提供装置。
(8)上記(1)乃至(7)のいずれかにおいて、更に、前記インプットエージェント処理部によって得られた入力情報の音声からイメージを特定し、入力イメージ情報としてメモリに格納する音相処理部を備え、前記感性グループ特定処理部が、前記入力イメージ情報から前記特性情報を推測して、ユーザーが所属すべき前記感性グループを特定するようにしたことを特徴とする情報提供装置。
(9)上記(1)乃至(7)のいずれかにおいて、更に、前記インプットエージェント処理部によって得られた入力情報の音声からイメージを特定し、入力イメージ情報としてメモリに格納する音相処理部と、前記音相処理部における前記入力イメージ情報と、前記提案情報データベースの前記提案情報の音声が持つイメージである提案イメージ情報との相性度を解析する音相相性解析処理部と、を備え、前記情報提供エージェント処理部が、前記音相相性解析処理部における相性度に基づいて抽出された前記提案情報と、前記感性相性解析処理部における前記感性グループに基づいて抽出された前記提案情報とを、選択的にユーザーに提供可能にしたことを特徴とする情報提供装置。
(10)ユーザーに情報入力を誘導するためのシナリオ情報が蓄積されたシナリオデータベースと、前記シナリオ情報をユーザーに提供して情報入力を促すインプットエージェント処理部と、前記インプットエージェント処理部によって得られた入力情報の音声からイメージを特定し、入力イメージ情報としてメモリに格納する音相処理部と、ユーザーに提案する為の提案情報が蓄積された提案情報データベースと、前記音相処理部における前記入力イメージ情報と、前記提案情報データベースの前記提案情報の音声が持つイメージである提案イメージ情報との相性度を解析する音相相性解析処理部と、前記相性度に基づいて前記提案情報をユーザーに提供する情報提供エージエント処理部と、を備えることを特徴とする情報提供装置。
(11)上記(10)において、前記情報提供エージェント処理部が、前記音相相性解析処理部によって最高の相性度が得られた前記提案情報をユーザーに提供することを特徴とする情報提供装置。
(12)上記(10)又は(11)において、前記情報提供エージェント処理部が、相性度が高い前記提案情報と相性が低い前記提案情報から所定比率で一方を選択し、選択された該提案情報をユーザーに提供するようにしたことを特徴とする情報提供装置。
(13)上記(10)、(11)又は(12)において、前記シナリオデータベースが、前記入力イメージ情報に対応した状態で、ユーザーに情報提供するための情報提供シナリオを有しており、前記情報提供エージェント処理部が前記提案情報をユーザーに提供する際に、前記入力イメージ情報に基づいた情報提供シナリオを選択して、該情報提供シナリオに前記提案情報を織り交ぜてユーザーに提供するようにしたことを特徴とする情報提供装置。
(14)上記(10)乃至(13)のいずれかにおいて、前記シナリオデータベースは、ユーザーの長期的な特性情報の入力を誘導する固定的シナリオ情報、及びユーザーの短期的な特性情報の入力を誘導する動的シナリオ情報を含んでおり、前記インプットエージェント処理部は前記固定的シナリオ情報をユーザーに提供して固定情報の入力を促すと共に、前記動的シナリオ情報をユーザーに提供して動的情報の入力を促し、前記音相処理部がが、固定情報の音声からスタティック入力イメージ情報を特定するとともに、前記動的情報の音声からダイナミック入力イメージ情報を特定し、更に、前記スタティック入力イメージ情報と前記ダイナミック入力イメージ情報に基づいて、所定の関数によってユーザーが現在欲しているマインド入力イメージ情報を特定し、前記音相相性解析処理部が、前記マインド入力イメージ情報と前記提案イメージ情報との相性度を解析し、前記情報提供エージェント処理部が、前記相性度に基づいて前記提案情報をユーザーに提供するようにしたことを特徴とする情報提供装置。
本発明によれば、ユーザーの本心や潜在的に欲している情報を提案することで、人間の感性に近い情報提供装置を得ることができる。
以下、図面を参照しながら本発明の実施の最良の形態について説明する。
図1には、本発明の実施形態に係る情報提供装置1の全体的な概略構成を示している。情報提供装置1は、エージェントエンジン10と、インプットエージェント処理部12と、情報提供エージェント処理部14と、音相エンジン20と、生体感性エンジン30と、データバンク40と、を備えている。なお、データバンク40には、シナリオデータベース42及び提案情報データベース44、個人情報データベース46を備えている。なお、例えばデータベースは記録媒体とその記録媒体を機能させる各種ソフトウエア等によって実現され、また、各処理部については、記録媒体に格納されているソフトウエアとそれを処理する演算装置(CPU)やメモリ等によって実現される。これらの記録媒体や演算装置、メモリ等は、一つのコンピュータハードウエア上に存在する必要は無く、インターネットや専用線、無線回線等の各種ネットワークを介して分散配置することも可能である。
エージェントエンジン10は、会話を通じてユーザー3との情報交流を行なうインターフェースとして機能する。なお、ユーザー3に情報提供する場合は、ディスプレイ等の出力装置を介して行なわれる。また、ユーザー3から情報を受け取る場合は、キーボードやタッチパネル等の入力手段を介して行なわれる。例えば、ユーザー端末のディスプレイに仮想的なキャラクターを提示して質問を投げかけたり、情報入力画面を提示してキーボードによって情報の入力を促したりする。即ち、エージェントエンジン10は、情報提供装置1においてユーザー3に最も近い位置(視覚的に見える領域)の処理を担当する。
インプットエージェント処理部12は、シナリオデータベース42に格納されているシナリオ情報をユーザー3に提供し、そのシナリオ情報によってユーザーを誘導して情報入力を促す。なお、チェックボタン等により選択肢を直接的に提示したり、回答を直接的に求めたりするシンプルなシナリオ情報も存在する。
図2に示されるように、生体感性エンジン30は、感性データベース32、感性グループ特定処理部34、感性相性解析処理部36を備える。
感性データベース32には複数の感性グループCが設定され、この各感性グループCには、パーソナリティ特性情報PT及び行動特性情報MTが蓄積されている。また感性グループ特定処理部34は、インプットエージェント処理部12で得られた入力情報から、それに対応するパーソナリティ特性情報PT又は前記行動特性情報MTを推測し、上記感性データベース32と照合してユーザーが所属すべき感性グループCを特定する。
感性相性解析処理部36は、ユーザーの所属する感性グループCの情報に基づいて、提案情報データベース44の提案情報を抽出する。なお、より絞り込んだ情報を得るには、感性グループCのパーソナリティ特性情報PT又は行動特性情報MTの中から適宜情報を抽出し、提案情報データベース44において、同様のパーソナリティ特性PT又は行動特性情報MTを有する提案情報を抽出する。
抽出された提案情報は情報提供をエージェント処理部14を介してユーザーに提供される。
図3に示されるように、音相エンジン20は、音相処理部22及び音相相性解析処理部24を備えている。音相処理部22は、インプットエージェント処理部12によって得られた入力情報25の音声に基づいてイメージを特定し、入力イメージ情報IGとしてメモリMに格納する。従って、ユーザー3によって入力された入力情報25の意味内容は全く無視され、その音から得られるイメージを抽出することから、(一見すると)入力情報と入力イメージ情報IGとは意味内容としては全く無関係である場合もありうる。このイメージの抽出は音相理論を適用することで実現されるが、この音相理論の詳細は後述する。
音相相性解析処理部24は、提案情報データベース44に格納されている提案情報の音声が持つイメージである提案イメージ情報OGを取込み、上記音相処理部22によって得られた入力イメージ情報IGとの相性度を解析する。この結果、例えば提案イメージ情報が100種類存在する場合、相性の最も良い提案イメージ情報OG(1)から最も悪い提案イメージ情報OG(100)まで順位付けがなされることになる。
情報提処理部14は、この相性度に基づいて提案情報をユーザーに提供する。例えば、最も相性の良い提案情報を提供することが好ましい。
より具体的な説明に入る前に、音相理論と生体理論について簡単に説明する。
音相理論に関しては、仮名一字分の音の単位である「拍」を考えるとわかりやすい。この「拍」には、誰もが同じように感じる表情のようなものがある。例えば、「ア」は穏やかな感じ、「キ」や「パ」は明るく強い感じ、濁音は暗い感じを有する音である。「音相」とは、言葉の音が持つこれらのイメージ(表情)を意味している。例えば、日常生活においても、感情や意志を伝えるために明るい意味の内容を伝えるときには明るい音相の言葉、強調して伝えたいときには強い音相の言葉が用いられる。また、人の名前の音相は、その人のイメージを他人に与える重要な要素である。商品名の音相は、需要者に商品のイメージを与えるため、商品の売れ行きを左右することが多い。
そこで、音相理論では、言葉の音が持つイメージを示すための基準となる語音要素からイメージを求め、言葉におけるイメージを客観的に捉えるようにしている。
音相は、(分割された)単音の音相と(全体的な)単語の音相とに分類される。単音の音相は、破裂音、摩擦音、鼻音または無声音などの音声の構造(調音種)、又はその単音の明るさや暗さ、強さなどの音用習慣で捉えることができる。音用習慣とは、その単音が明るいものを表す言葉に多く使われていれば明るさ(プラス輝性)が大きいものとして、その単音が暗いものを表す言葉に多く使われていれば暗さ(マイナス輝性)が大きいものとして、その単音が強く表す言葉に多く使われていれば強さ(勁性/ケイ性)が大きいものとして、統計的に単音の音相を示すものである。
これに対し単語の音相は語音要素で捉えることができる。語音要素は単語の音相を示すための基準となるので、一つの単語における各語音要素の値を調べることで単語全体の音相を得ることが出来る。例えば、単語において、その中に含まれる単音としての「調音種比が高い」、つまり、調音(のばして発音する音)の種類数が多いことは、単語全体の音相を示す一つの基準となる。また、単語において「明るい方向である」、つまり、プラス輝性が大きい単音を多く含むことも音相を示す一つの基準である。さらに、「語音が強い」、つまり、勁性が大きい単音を多く含むことも音相を示す一つの基準である。
各語音要素に関連のある音相は、現在存在する各種単語を解析することで明らかにしている。例えば、「嬉しい」、「悲しい」などの表情のある数千種類の単語を収集し、その中で語音要素の「a音」が多い言葉を調べてみると、「明るい」、「穏やか」、「無個性」などのイメージを抱かせる単語が抽出される。また、語音要素の「無声破裂音系」が多い言葉を調べてみると、「活性的」、「若年」、「幼児」などのイメージを抱かせる単語が多く抽出される。さらに、「プラス輝性」が多い言葉を調べてみると、「明るさ」、「爽やか」、「シンプル」などのイメージを抱かせる単語が多い。このように、語音要素に関連のある音相は、統計に基づいて決定されている。
この語音要素は、前述のように単語全体における音相を示すための基準であるが、各語音要素の大きさを示す値は、単語の拍数が大きい単語であれば大きくなる。例えば、単語において「i音」を含む可能性は、単語の拍数が大きい単語であれば大きくなる。
数千の単語を分析すると、各語音要素の標準値は単語の長さである拍数に比例する。この標準値は、数千の単語において、各語音要素についてその個数を調べたものである。例えば、「はつめい」という単語であれば、「i音」を1個含むので、「i音」の値は1であり、拍数は4であるので、i音の語音要素の値は1/4=25%と表すことができる。このように様々な拍数を持つ数千の単語についての各語音要素の値を調べてそれらの平均を求めることで、各語音要素の標準値が求まる。
以上のように、各語音要素および音相の関係と、各語音要素の標準値とから単語の持つイメージを客観的に捉える。具体的には、対象とする単語における各語音要素の値を求め、各語音要素の標準値と比較する。標準値よりも大きい値の語音要素については、その音相が強いことを意味している。例えば、「はつめい」という単語の「i音」は4×25%=1であって、標準値の4×17.3%≒0.7よりも大きいので、「i音」の音相である「異質感」、「若年的」、「強さ」、「鋭さ」などをイメージを抽出することが出来る。本実施形態では、後述するように、この音相理論を用いて、各単語について20種類の情緒項目と、24種類のコンセプトバリュー項目のレベルを得ることが出来るようにしている。
生体理論は、その人間が持つ色から、人間の性格や行動パターンを推測するものである。例えば、赤のイメージの人間は、勤勉、行動的、精力的、・・・等の様々なキーワードを得ることが出来る。人間の色は、各種方法によって特定することが可能であるが、最もわかりやすいのは、自分の好みの色であろう。生体理論では、12色(深赤、赤、オレンジ、黄色、黄/茶色、緑色、深緑色、青色、藍色、紫色、ラベンダー色、白色)の分類によってグループ分けがなされ、各色グループには、パーソナル特定情報や行動特性情報が数多く含まれている。
次に、本実施形態の情報提供装置1について、具体的な手順に沿って詳細に説明する。
(生体エンジンによる情報提供手順)
図4に具体的に示されるように、シナリオデータベース42は、ユーザー3に情報入力を促す情報入手シナリオ420を備えている。この情報入手シナリオ420には、長期的な特性情報の入力を誘導する固定的シナリオ情報SSと、ユーザーの短期的な特性情報の入力を誘導する動的シナリオ情報DSがある。また、それ以外にも、ユーザー3に対して時候の挨拶や時間帯に応じた会話、暇つぶしの会話など、ユーザー3と時間を共有することを目的とした世間話シナリオ421や、ユーザー3の記念日にお祝いをしたり、ユーザー3を取り巻く人間関係についてコメントしたり、ユーザー3の体調を気づかったりして親近感を生み出すことを目的とした個人話シナリオ423、また、情報提供エージェント処理部14が利用し、ユーザー3に対して自然に情報を提供する為の情報提供シナリオ423なども格納されている。
図3に戻って、インプットエージェント処理部12は、この固定的シナリオ情報SSをユーザーに提供して固定的情報の入力を促す。例えば、「あなたが好きな色は何ですか?」や「あなたのタイプを下記から選択してください」等のように、ユーザー3の本来的な特性を知る為の誘導を行なう。一方で、動的シナリオ情報DSもユーザーに提供して動的情報の入力も促すようにする。例えば、「今の気分は何色?」や「今日は楽しかった?」等のように、ユーザー3の現時点或いは最近の特性を知る為に各種誘導を実行する。
図5に示されるように、感性データベース32では、8色の色情報によって感性グループ(以下カラーグループCという)が類別されている。なお、生体理論は12色であるが、色のメリハリをつけるため、ここでは8色に減らしている。各カラーグループCには、そのカラーグループC特有の特性情報Tが設定されている。例えば、「あなたタイプは何ですか?」という固定的シナリオ情報SSの問いに対して「勤勉派」という固定的情報がユーザー3から得られた際に、感性グループ特定処理部34が感性データベース32にアクセスする。そして、この感性グループ特定処理部34が、全カラーグループC内の特性情報Tを参照し、「勤勉」というキーワードが存在するか否かを検索する。「勤勉」という特性情報Tは「赤」グループCに設定されている為、当該ユーザー3のスタティックカラーグループSCは「赤」となる。なお、ここでは特性情報TからスタティックカラーグループSCを検索により設定しているが、直接ユーザー3に対して好きな色を質問し、その色から直接的にユーザー3のスタティックカラーグループSCの色を決定することも可能である。
又例えば、「今日はどんな気分?」という動的シナリオ情報422を活用した問いに対して、「軽い感じ」という動的情報が得られた場合を考えてみると、この動的情報に基づいて、感性グループ特定処理部34が感性データベース32にアクセスして、「気軽」というキーワードで全カラーグループCを照合していく。その結果、「気軽」というキーワードは黄グループCに所属しているので(図示省略)、ユーザー3のダイナミックカラーグループDCが「黄色」となる。
その後、感性グループ特定処理部34は、スタティックカラーグループSCとダイナミックカラーグループDCの「色情報」に基づいて、所定の関数によってユーザーが現在欲しているマインドカラーグループMCの「色情報」を特定する。ここでは図6に示されるように、スタティックカラーグループSCとダイナミックカラーグループDCの2つからマインドカラーグループMCが一義的に決定するような変換テーブルが予め設定されており、この変換テーブルに基づいて、選択的にマインドカラーグループMCの所属カラーを決定している。例えば、スタティックカラーグループSCが「赤」、ダイナミックカラーグループDCが「黄」の場合には、マインドカラーグループMCは「オレンジ」に決定される。各ユーザー3のスタティックカラーグループSCとダイナミックカラーグループDC、マインドカラーグループMCの各色情報は、データバンク40の個人情報データベース46に設定時間と共に格納され、いつでも情報を取り出せるようになっている。なお、この変換テーブルは、スタティックカラーグループ及びダイナミックカラーグループの色相関係の推移に基づいてマインドカラーグループを設定している。
なお、このように設定用の変換テーブルを予め決定しておく以外にも、例えば図7に示されるように、スタティック感性グループの座標とダイナミック感性グループの座標とによってベクトルを生成し、そのベクトル上に存在する特定のポイントをマインド感性グループに設定するような関数を用いても良い。またそれ以外にも、何らかの数値演算関数によって決定することも可能である。
その後、ユーザー3に情報提供する場合には、まず、エージェントエンジン10を介してユーザー3にどのようなカテゴリの情報が欲しいか質問する。
例えば、「お食事」カテゴリーをユーザー3が選択した場合、図8に示されるように、感性相性解析処理部36が、ユーザー3のマインドカラーグループMCのカラー情報「オレンジ色」を抽出すると共に、提案情報データベース44において、「お食事」のカテゴリー内の飲食店提案情報Eの中から、この「オレンジ色」に対応する提案情報「イタリアン」を抽出する。
ここでは図示を省略するが、マインドカラーグループMCの色情報で検索すると該当する提案情報が多すぎる場合等や、更に狭い範囲に絞り込んだ提案を行ないたい場合等は、ユーザー3が属するマインドカラーグループMCである「オレンジ」内の「冒険」という特性情報Tを抽出し(図5参照)、図8の飲食店関連の提案情報Eの中から、この「冒険」という特性情報Tに関連付けて蓄積されている提案情報Eを抽出することも可能である。
なお、設定されたマインドカラーグループMCの「オレンジ色」内の特定情報Tの中から適当なキーワードを抽出する場合、既に、感性グループ特定処理部34によって推測された特定情報を除外することが好ましい。例えば、本実施例では、スタティックカラーグループSCを決定する際に用いた「勤勉」やダイナミックカラーグループDCを決定する際の用いた「気軽」である。一度、ユーザー3から入力された情報と同じジャンルの情報を提案したのでは、ありきたりの提案になる可能性を有すると共に、新しい情報を提案することで、ユーザー3に驚き、感動を与えることが可能になる。
以上のような情報の入出力を会話形式で進行させていくには、既に図4で示したシナリオデータベース42を用いることになるが、会話自体も、ユーザー3の感性に応じて変化させることが好ましい。例えば、熱血漢溢れる若年者を相手にする日常会話と、冷静沈着な年配者を相手にする日常会話とは、語尾や礼儀作法等を含めてかなりの違いがある。そこで、この実施形態では、図4に示されるように、各シナリオSS1、SS2、DS1、DS2・・・が感性グループの「色情報」に合わせて複数パターン用意されており、例えば、マインドカラーグループMCが「黄色」のユーザー3の場合は、「黄色」に対応するシナリオ(例えばSS1−黄)を選択して、ユーザー3に提供するようにする。これにより、一層ユーザー3の感覚に沿った滑らかな会話を進行させる。勿論、色情報という大分類のみならず、その下位に属する特性情報Tに基づいてシナリオを選択することも可能である。
上記手順においては、固定的情報と動的情報から特性情報を直接推測したが、音相を用いた推測も可能である。例えば、スタティックカラーグループSCとダイナミックカラーグループDCを音相に基づいて特定することも可能である。例えば、固定的情報として「活発」という言葉を入手した場合、音相エンジン20における音相処理部22を活用して、「活発」という言葉の音声「かっぱつ」に基づいたイメージを特定して、入力イメージ情報とする。例えば、「活発」という音声から「開放的」というイメージが得られた場合には、そのイメージを有するスタティックカラーグループとして「緑」が特定されることになる。通常「活発」という意味内容から推測すると、冒険、遊び心等の特性情報を有する「オレンジ」がスタティックカラーとして特定されることになるが、音相処理を介在させることで「緑」となり、ユーザー3の潜在的な感性グループの色を特定することが可能になる。なお、動的情報からも同様に特定することができる。また、音相の特徴として、あらゆる単語の音声からイメージ・情緒を抽出することが出来るため、ユーザー3の入力情報の意味内容から特性情報を推測できない場合であっても、音相によれば推測可能になる。例えば、「立ち食いそば(たちぐいそば)」という感性とは無関係な入力情報であっても、その音声からシンプル・明確・明るくて開放的、等のイメージを得ることが出来、ユーザー3の感性グループを特定可能になる。
(音相エンジンによる情報提案手順)
(音相エンジンによる情報提案手順)
次に音相エンジン20における情報提案手順を詳細に説明する。
図3を参照して、まず、インプットエージェント処理部12がシナリオデータベース42からシナリオを抽出し、会話をユーザー3に提供する。例えば、「あなたの名前は何ですか?」という質問をユーザーに行い、ユーザー3はこのシナリオに沿って名前「特許太郎」を入力する。音相処理部22では、入力情報の音声(とっきょたろう)からイメージを特定し、それを入力イメージ情報IGとしてメモリMに格納する。入力イメージ情報IGは、図9に示されるように、20種類の情緒項目と、24種類のコンセプトバリュー項目(ここでは一部のみを表示)から構成されており、その各項目についてレベルが数値化されている。従って、「とっきょたろう」という抽象的な言葉(意味内容の無い言葉)からでも、その単語が示す入力イメージ情報IG(情緒やコンセプトのレベル)を得ることが可能となっている。このサンプル例では、情緒項目として「動的・活性的」が最も高く、また、コンセプトバリューとして、「男性ミドル層」が最も高くなっている。また、特に図示していないが、このコンセプトバリューには、色に関して「濃い感じ・黒い感じ」「白い感じ・淡い感じ」等の項目もあり、上記生体感性エンジン30の感性グループを特定する際の参考情報にもなる。
ユーザー3に何らかの情報を提供する場合には、まず、エージェントエンジン10を介してユーザー3にどのようなカテゴリーの情報が欲しいか質問する。例えば、「お食事」カテゴリーをユーザー3が選択した場合、図8に示されるように、音相相性解析処理部24が、お食事カテゴリーの各提案情報Eに対応した提案イメージ情報OG1、OG2、・・・を取り出し、この提案イメージ情報OG1、OG2、・・・と、「とっきょたろう」の入力イメージ情報IGの相性度を解析する。なお、各提案情報Eの音声から音相理論によって求められる提案イメージ情報OG1、OG2、・・・は、予め提案情報データベース44に格納しておいても良く、また、相性を解析する都度、提案情報Eの提案イメージ情報OGを算出しても構わない
相性解析の結果、例えば、和食(80%)、ファミレス(60%)・・・・・インド料理(10%)というように順位付けされた場合に、音声相性解析処理部24としては最も相性の良い「和食」か、最も相性の悪い「インド料理」を8:2の確率で選択し、情報提供エージェント処理部14に渡す。情報提供エージェント処理部14では、エージェントエンジン10を介してユーザー3に情報提供することになる。このように、最も相性の悪い情報も2割の確率で提供するようにしたのは、人間の感覚として、最も相性の悪いものは「実は気になっているもの」である場合が存在し、食わず嫌いなだけであって、案外好きである可能性を有するからである。この結果、意外性や驚きによって、好きになる潜在的可能性を提案することができる。なお、ここでは最高の相性度と最低の相性度から提案情報を選択する場合を示したが、これは適宜設定すればよく、例えば、2番目や3番目に相性の良い提案情報を選択することも可能である。また、相性の低い情報を提供する確率は2割である必要は無く、この確率も適宜設定すればよく、ユーザー3の性格に応じて変動させても構わない。
なお、本実施形態では、シナリオの中には、エージェントエンジン10を介してユーザー3に提供される物語の他、ユーザー3が他人に送る電子メールの入力内容を入力情報として抽出したり、ブラウザの検索機能で入力されたキーワードを入力情報として抽出したりするような、ユーザー3の目に触れない指示(ストーリー)も含んでいる。
次に、図1に戻って、上記詳細手順を踏まえて本情報提供装置1における全体的な情報提供の流れを総論する。
まずインプットエージェント処理部12がユーザー3と会話をし、各種情報を入手する。この際、データバンク40における個人情報データベース46を参照し、ユーザーのマインドカラーグループMCが特定されていれば、それを参考にして、シナリオデータベース42から所定のシナリオを選択してユーザー3に提供する。
インプットエージェント処理部12によって得られた情報は、音相エンジン20又は生体感性エンジン30いずれか一方又は双方に渡され、提案情報データベース44を参照して提供すべき情報の解析を実行する。なお、この提案情報データベース44は、音相エンジン20と生体感性エンジン30とが別々に所有するようにしても良い。そして、生体感性エンジン30は、ユーザー3のスタティック・ダイナミック・マインドの3種のカラーグループCを特定し、解析時刻と共に個人情報データベース4に格納する。なお、スタティックカラーグループSCは長期的な情報であるため、毎回、固定的シナリオを提供して分析する必要は無く、例えば、前回の解析結果から1ヶ月経過した場合に、新たに固定的シナリオを提供して、スタティックカラーグループSCを再度確認すればよい。
音相エンジン20又は生体感性エンジン30によって得られた提案情報は、情報提供エージェント処理部14に受け渡され、この提案情報を所定のシナリオの中に埋め込んで、出来る限り自然な形でさりげなくユーザー3に提供する。この場合のシナリオも、データバンク40のシナリオデータベース42に蓄積されており、ユーザー3のマインドカラーグループや、今回音相解析した入力イメージ情報を参考にしながらシナリオを選択する。つまり、提案情報だけでなく、それに付随するシナリオ文章にもユーザー3の感性や情緒が反映されることになる。
例えば、音相エンジン20によって「缶コーヒー」を提案する場合には、「缶コーヒーはどうでしょうか?」という直接的な表現ではなく、缶コーヒーの音声から得る情緒「大らかな感じ」を参考にしてシナリオを選択し、「飲んでホッとする缶コーヒーはいかが?」というような情報提供が可能になる。
また、情報提供エージェント処理部14が音相エンジン20と生体感性エンジン30の双方から提案情報を得た場合には、一定の確率で一方を選択して提供しても良く、また、双方の情報をシナリオに埋め込んで提案することも可能である。
本実施形態の情報提供装置1によれば、ユーザー3からの入力情報を色や音相等の感性的な情報に一端抽象化し、そこから推測される提案情報をユーザー3に提供することが出来る。従って、単純に意味内容から推測する場合と異なり、ユーザー3に対して予想外の提案や、新たな気づき、発見等を提供することが可能になる。
例えば、生体理論を用いた場合、ユーザー3の入力情報に基づいて感性グループCという概念に抽象化し、その感性グループCに関連する情報を提供することになるので、ユーザー3が入力する意味内容から飛躍した提案が可能になる。しかも、その際においても生体理論という一定の枠内で情報を選択し、ユーザー3の性格をしっかりと把握しながら提案できるので、ユーザー3にとっては非常に親近感を覚えることになる。
更に、感性グループCにおいても、ユーザー3の本質的感覚であるスタティック感性グループSCと、リアルタイムの感覚であるダイナミック感性グループDCを用いて、ユーザー3が「欲しているであろう」マインド感性グループMCを決定し、それに基づいて情報を提案できるので、ユーザー3の潜在的な欲求を満たす提案も可能となっている。
また生体感性エンジン30では、インプットエージェント処理部12が、ユーザー3の感性グループCに基づいてシナリオを選択し、会話を進行させるので、ユーザー3に対して自分の心境が見透かされたような演出が可能になる。あたかも自分の分身が情報提供装置1の中にいるような感覚も得られる。
更に、音相エンジン20では、ユーザー3の入力情報から意味内容を切り離して、その音のみのイメージを抽出し、そのイメージと同様なイメージを有する情報を提案するようにしているので、全く予想外な情報であっても、ユーザー3にとってはなんとなく親近感のある情報になる。つまり、予想外であるにもかかわらず、自分が潜在的に欲していた情報のような感覚を提供することが出来、感性的な提案が可能になる。特に、人間同士の日常会話は意味内容を中心に展開され、音相を意識した会話を行なっている人は殆どいないが、実際には、自分が発音している音は自分の意思表示の一部となっている。従って、自分の発している音から得られるイメージに近い情報が情報提供装置1から提供されると、自分の本心に迫られたような感覚が得られる。
また、音相エンジン20或いは生体感性エンジン30から得られた提案情報をユーザー3に提供する場合には、その音相等に基づいたシナリオをシナリオデータベース42から選択しているので、豊かな会話が可能になる。つまり、提案情報の質と会話の質の双方を高めることが可能になっている。
更に、音相エンジン20と生体感性エンジン30を組み合わせることで、感性推論の幅が大きく広がり、ユーザー3が退屈することを防止することも可能になる。更に、感性グループを特定する際に音相を用いたり、音相の相性解析によって選択された情報を提案する場合にも、感性グループCを参照してシナリオを選択したりするので、相乗的に会話のバリエーションを増大させることが可能になっている。
なお、本実施形態ではエージェントの性格付け、すなわちシナリオの選択の手法として感性グループCの情報を用いる場合を示したが、本発明はそれに限定されず、ユーザー3自身でエージェントの性格を選択するようにしても良い。
なお、本実施形態では生体理論という「色」を中心にした判断を行なった場合を示したが、本発明はそれに限定されるものではなく、人間の特性を把握できる手法であれば他の方法でも構わない。
また、本実施形態では音相エンジン20と生体感性エンジン30のみを用いた場合を示したが、本発明はそれに限定されず、従来の意味内容から提案情報を推測する意味解析エンジン等と併用しても構わない。
1 情報提供装置
3 ユーザー
10 エージェントエンジン
12 インプットエージェント処理部
14 情報提供エージェント処理部
20 音相エンジン
22 音相処理部
24 音相相性解析処理部
30 生体感性エンジン
32 生体感性データーベース
34 感性グループ特定処理部
36 感性相性解析処理部
42 シナリオデータベース
44 提案情報データベース
46 個人情報データベース
3 ユーザー
10 エージェントエンジン
12 インプットエージェント処理部
14 情報提供エージェント処理部
20 音相エンジン
22 音相処理部
24 音相相性解析処理部
30 生体感性エンジン
32 生体感性データーベース
34 感性グループ特定処理部
36 感性相性解析処理部
42 シナリオデータベース
44 提案情報データベース
46 個人情報データベース
Claims (14)
- 人間の各種特性情報が複数の感性グループに分類されて蓄積された感性データベースと、
ユーザーに情報入力を誘導するためのシナリオ情報が蓄積されたシナリオデータベースと、
前記シナリオ情報をユーザーに提供して情報入力を促すインプットエージェント処理部と、
前記インプットエージェント処理部によって得られた入力情報から前記特性情報を推測して、ユーザーが所属すべき前記感性グループを特定する感性グループ特定処理部と、
ユーザーに提案する為の提案情報が前記感性グループと関連付けて蓄積されている提案情報データベースと、
ユーザーが所属する前記感性グループに基づいて、前記提案情報データベースの提案情報を抽出する感性相性解析処理部と、
抽出された前記提案情報を前記ユーザーに提供する情報提供エージェント処理部と、
を備えることを特徴とする情報提供装置。 - 請求項1において、
前記提案情報データベースの前記提案情報が、前記感性グループの前記特性情報と関連付けて蓄積されており、
前記感性相性解析処理部が、ユーザーの所属する前記感性グループに含まれる前記特性情報に基づいて、前記提案情報データベースの提案情報を抽出するようにしたことを特徴とする情報提供装置。 - 請求項1又は2において、
前記感性データベースに蓄積される特性情報として、少なくともパーソナリティ特性を示す情報と、行動特性を示す情報を含めるようにしたことを特徴とする情報提供装置。 - 請求項1、2又は3において、
前記シナリオデータベースは、ユーザーの長期的な特性情報の入力を誘導する固定的シナリオ情報、及びユーザーの短期的な特性情報の入力を誘導する動的シナリオ情報を含み、
前記インプットエージェント処理部は前記固定的シナリオ情報をユーザーに提供して固定的情報の入力を促すと共に、前記動的シナリオ情報をユーザーに提供して動的情報の入力を促し、
前記感性グループ特定処理部が、固定的情報から推測した前記感性グループをスタティック感性グループとして記憶するとともに、前記動的情報から推測した前記感性グループをダイナミック感性グループとして記憶し、更に、前記スタティック感性グループと前記ダイナミック感性グループに基づいてユーザーが現在欲しているマインド感性グループを特定し、
前記情報提供エージェント処理部が、前記マインド感性グループに基づいて前記情報提供を行なうようにした
ことを特徴とする情報提供装置。 - 請求項4において、
感性データベースにおける前記感性グループが色情報に基づいて分類されており、
前記感性グループ特性処理部が、固有のスタティック感性グループの色情報及びダイナミック感性グループの色情報の色相関係に基づいた変換テーブルによって、マインドカラーグループの色情報を特定するようにした
ことを特徴とする情報提供装置。 - 請求項1乃至5のいずれかにおいて、
前記シナリオデータベースにおける前記シナリオ情報は、前記感性グループに対応させてそれぞれ用意されており、
前記感性グループ特定処理部によってユーザーの感性グループが特定された後に、前記インプットエージェント処理部が前記シナリオ情報をユーザーに提供する場合には、該ユーザーが所属する前記感性グループに応じた前記シナリオ情報を提供するようにした
ことを特徴とする情報提供装置。 - 請求項1乃至6のいずれかにおいて、
前記情報提供エージェント処理部が前記感性グループに含まれる前記特性情報を抽出する際に、前記感性グループ特定処理部においてユーザーの入力情報から推測された前記特性情報を除外するようにした
ことを特徴とする情報提供装置。 - 請求項1乃至7のいずれかにおいて、更に、
前記インプットエージェント処理部によって得られた入力情報の音声からイメージを特定し、入力イメージ情報としてメモリに格納する音相処理部を備え、
前記感性グループ特定処理部が、前記入力イメージ情報から前記特性情報を推測して、ユーザーが所属すべき前記感性グループを特定するようにした
ことを特徴とする情報提供装置。 - 請求項1乃至7のいずれかにおいて、更に、
前記インプットエージェント処理部によって得られた入力情報の音声からイメージを特定し、入力イメージ情報としてメモリに格納する音相処理部と、
前記音相処理部における前記入力イメージ情報と、前記提案情報データベースの前記提案情報の音声が持つイメージである提案イメージ情報との相性度を解析する音相相性解析処理部と、を備え、
前記情報提供エージェント処理部が、前記音相相性解析処理部における相性度に基づいて抽出された前記提案情報と、前記感性相性解析処理部における前記感性グループに基づいて抽出された前記提案情報とを、選択的にユーザーに提供可能にした
ことを特徴とする情報提供装置。 - ユーザーに情報入力を誘導するためのシナリオ情報が蓄積されたシナリオデータベースと、
前記シナリオ情報をユーザーに提供して情報入力を促すインプットエージェント処理部と、
前記インプットエージェント処理部によって得られた入力情報の音声からイメージを特定し、入力イメージ情報としてメモリに格納する音相処理部と、
ユーザーに提案する為の提案情報が蓄積された提案情報データベースと、
前記音相処理部における前記入力イメージ情報と、前記提案情報データベースの前記提案情報の音声が持つイメージである提案イメージ情報との相性度を解析する音相相性解析処理部と、
前記相性度に基づいて前記提案情報をユーザーに提供する情報提供エージェント処理部と、
を備えることを特徴とする情報提供装置。 - 請求項10において、
前記情報提供エージェント処理部が、前記音相相性解析処理部によって最高の相性度が得られた前記提案情報をユーザーに提供する
ことを特徴とする情報提供装置。 - 請求項10又は11において、
前記情報提供エージェント処理部が、相性度が高い前記提案情報と相性が低い前記提案情報から所定比率で一方を選択し、選択された該提案情報をユーザーに提供するようにした
ことを特徴とする情報提供装置。 - 請求項10、11又は12において、
前記シナリオデータベースが、前記入力イメージ情報に対応した状態で、ユーザーに情報提供するための情報提供シナリオを有しており、
前記情報提供エージェント処理部が前記提案情報をユーザーに提供する際に、前記入力イメージ情報に基づいた情報提供シナリオを選択して、該情報提供シナリオに前記提案情報を織り交ぜてユーザーに提供するようにした
ことを特徴とする情報提供装置。 - 請求項10乃至13のいずれかにおいて、
前記シナリオデータベースは、ユーザーの長期的な特性情報の入力を誘導する固定的シナリオ情報、及びユーザーの短期的な特性情報の入力を誘導する動的シナリオ情報を含んでおり、
前記インプットエージェント処理部は前記固定的シナリオ情報をユーザーに提供して固定情報の入力を促すと共に、前記動的シナリオ情報をユーザーに提供して動的情報の入力を促し、
前記音相処理部がが、固定情報の音声からスタティック入力イメージ情報を特定するとともに、前記動的情報の音声からダイナミック入力イメージ情報を特定し、更に、前記スタティック入力イメージ情報と前記ダイナミック入力イメージ情報に基づいて、所定の関数によってユーザーが現在欲しているマインド入力イメージ情報を特定し、
前記音相相性解析処理部が、前記マインド入力イメージ情報と前記提案イメージ情報との相性度を解析し、
前記情報提供エージェント処理部が、前記相性度に基づいて前記提案情報をユーザーに提供するようにした
ことを特徴とする情報提供装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004127318A JP2005285077A (ja) | 2004-03-29 | 2004-03-29 | 情報提供装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004127318A JP2005285077A (ja) | 2004-03-29 | 2004-03-29 | 情報提供装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005285077A true JP2005285077A (ja) | 2005-10-13 |
Family
ID=35183343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004127318A Pending JP2005285077A (ja) | 2004-03-29 | 2004-03-29 | 情報提供装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005285077A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123148A (ja) * | 2007-11-19 | 2009-06-04 | Hitachi Ltd | 作業担当者選択装置およびその方法 |
WO2015019689A1 (ja) * | 2013-08-07 | 2015-02-12 | 本田技研工業株式会社 | 情報配信システム及びクライアント端末 |
JP2019164408A (ja) * | 2018-03-19 | 2019-09-26 | 株式会社Jiec | レコメンドシステム及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000132557A (ja) * | 1998-10-22 | 2000-05-12 | Mitsubishi Electric Corp | 検索システム、及び、当該検索システムのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2001125858A (ja) * | 1999-10-29 | 2001-05-11 | Matsushita Electric Ind Co Ltd | データ管理システム、情報受信装置、情報管理装置、及び記録媒体 |
JP2003058571A (ja) * | 2001-08-10 | 2003-02-28 | Namco Ltd | 情報検索システム、プログラム及び情報記憶媒体 |
JP2003122390A (ja) * | 2002-03-25 | 2003-04-25 | Onso System Kenkyusho:Kk | 音相理論による言語表現イメージの数値的評価システム |
-
2004
- 2004-03-29 JP JP2004127318A patent/JP2005285077A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000132557A (ja) * | 1998-10-22 | 2000-05-12 | Mitsubishi Electric Corp | 検索システム、及び、当該検索システムのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2001125858A (ja) * | 1999-10-29 | 2001-05-11 | Matsushita Electric Ind Co Ltd | データ管理システム、情報受信装置、情報管理装置、及び記録媒体 |
JP2003058571A (ja) * | 2001-08-10 | 2003-02-28 | Namco Ltd | 情報検索システム、プログラム及び情報記憶媒体 |
JP2003122390A (ja) * | 2002-03-25 | 2003-04-25 | Onso System Kenkyusho:Kk | 音相理論による言語表現イメージの数値的評価システム |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009123148A (ja) * | 2007-11-19 | 2009-06-04 | Hitachi Ltd | 作業担当者選択装置およびその方法 |
WO2015019689A1 (ja) * | 2013-08-07 | 2015-02-12 | 本田技研工業株式会社 | 情報配信システム及びクライアント端末 |
JP2015035029A (ja) * | 2013-08-07 | 2015-02-19 | 本田技研工業株式会社 | 情報配信システム及びクライアント端末 |
CN105556490A (zh) * | 2013-08-07 | 2016-05-04 | 本田技研工业株式会社 | 信息传送系统和客户终端 |
CN105556490B (zh) * | 2013-08-07 | 2019-08-02 | 本田技研工业株式会社 | 信息传送系统和客户终端 |
JP2019164408A (ja) * | 2018-03-19 | 2019-09-26 | 株式会社Jiec | レコメンドシステム及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mondada | Sensing in social interaction: The taste for cheese in gourmet shops | |
Breen et al. | Acoustic correlates of information structure | |
Hutson | Standing out/fitting in: Identity, appearance, and authenticity in gay and lesbian communities | |
Khalid | Embracing diversity in user needs for affective design | |
Porcello et al. | The reorganization of the sensory world | |
Lindgaard et al. | Integrating aesthetics within an evolutionary and psychological framework | |
Riley et al. | Postfeminism and body image | |
JP2018156272A (ja) | 対話システム、対話装置及びそのためのコンピュータプログラム | |
Page | Self-denigration and the mixed messages of ‘ugly’selfies in Instagram | |
Joy et al. | Perceiving images and telling tales: A visual and verbal analysis of the meaning of the internet | |
Chowdhury et al. | Cognitive theories of product emotion and their applications in emotional product design | |
Gould | “To thine own self (ves) be true”: Reflexive insights for etic self theory from consumers’ emic constructions of the self | |
Silvennoinen | Apperceiving visual elements in human-technology interaction design | |
Clement et al. | Distant listening to gertrude Stein’s ‘Melanctha’: Using similarity analysis in a discovery paradigm to analyze prosody and author influence | |
JP2005285077A (ja) | 情報提供装置 | |
Özcan et al. | Memory for product sounds: The effect of sound and label type | |
Murphy | He’s got the touch’: Tracing the masculine regulation of the body schema in reciprocal relations between ‘self-others-things | |
Tigunova et al. | Exploring personal knowledge extraction from conversations with charm | |
JP2019049953A (ja) | 顧客分類システム | |
Gain et al. | Tones and traits-experiments of text-based extractions with cognitive services | |
KR20230099936A (ko) | Ai 대화 모델 기반의 대화 친구 제공 시스템 | |
Silvia | Aesthetic meanings and aesthetic emotions: How historical and intentional knowledge expand aesthetic experience | |
Trouvain et al. | Voice attractiveness: Concepts, methods, and data | |
Kroeger | Folk definitions of Korean ideophones | |
JP2019046428A (ja) | 服飾品分類システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070328 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091110 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100406 |