JP2006099195A - 視聴コンテンツ提供システム及び視聴コンテンツ提供方法 - Google Patents

視聴コンテンツ提供システム及び視聴コンテンツ提供方法 Download PDF

Info

Publication number
JP2006099195A
JP2006099195A JP2004281467A JP2004281467A JP2006099195A JP 2006099195 A JP2006099195 A JP 2006099195A JP 2004281467 A JP2004281467 A JP 2004281467A JP 2004281467 A JP2004281467 A JP 2004281467A JP 2006099195 A JP2006099195 A JP 2006099195A
Authority
JP
Japan
Prior art keywords
viewing content
viewer
information
providing system
content providing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004281467A
Other languages
English (en)
Other versions
JP4311322B2 (ja
Inventor
Yuichi Sakai
祐市 酒井
Toru Sasaki
徹 佐々木
Yoichiro Sako
曜一郎 佐古
Toshiro Terauchi
俊郎 寺内
Katsuaki Yamashita
功誠 山下
Yasushi Miyajima
靖 宮島
Motoyuki Takai
基行 高井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004281467A priority Critical patent/JP4311322B2/ja
Priority to US11/227,187 priority patent/US7660825B2/en
Priority to EP05020952A priority patent/EP1641157A3/en
Priority to CN200510129111A priority patent/CN100585698C/zh
Priority to KR1020050090488A priority patent/KR20060051754A/ko
Publication of JP2006099195A publication Critical patent/JP2006099195A/ja
Application granted granted Critical
Publication of JP4311322B2 publication Critical patent/JP4311322B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/45Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/49Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying locations
    • H04H60/52Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying locations of users
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/99941Database schema or data structure
    • Y10S707/99948Application of database or data structure, e.g. distributed, multimedia, or image

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】 人間関係の融和に寄与するような効果を生むことができる視聴コンテンツを提供する。
【解決手段】 対象空間1内のサーモカメラ2により得られた温度分布パターン30と、マイク3により得られた音声信号に基づく音声解析データ31とを取得する。これら温度分布パターン30と音声解析データ31とに基づき、視聴者位置推定部6で視聴者の位置・人数を取得する。温度分布パターン30と音声解析データ31と位置・人数情報32とに基づき、視聴者推定部7で視聴者の年齢・性別情報33を取得する。関係推定部8は、音声解析データ31に基づき、DB12を参照し、年齢・性別情報33を加味して関係情報34を取得する。コンテンツ選択部9は、年齢・性別情報33と関係情報34とに基づき、属性インデックス10を用いてDB11に格納された視聴コンテンツを絞り込み、視聴者に対して最適な視聴コンテンツを選択し、空間1内に提供する。
【選択図】 図8

Description

この発明は、視聴者に対して適切な視聴コンテンツを自動的に選択して提供することができる視聴コンテンツ提供システム及び視聴コンテンツ提供方法に関する。
美しい風景や音楽は、人の心を和ませたり元気付けたりする効果のあることが古くから知られている。従来から、この性質を利用して、職場や店舗内にBGM(Back Ground Music)提供装置などを備え、作業効率や購買意欲の向上を図ることが行われている。また、ホテルやレストランなどでは、ホテルやレストランのコンセプト・イメージにあった雰囲気を醸し出すために、AV(Audio/Visual)機器を用いて映像・音楽を提供するサービスが行なわれている。
従来では、AV機器から流れてくる音楽などの視聴コンテンツの選択は、聞きたい音楽ジャンルまたは曲を利用者自身が選択しなければならなかった。この選択作業は、利用できる音楽コンテンツが多くなるほど煩わしくなる。これを解決する方法として、楽曲の様々な属性を定義し、定義された属性と利用者の嗜好や視聴履歴とを照合して、好ましい視聴コンテンツを提供する技術が特許文献1に記載されている。
特開2003−259318号公報
さらに、同一空間内に複数の人がいるような会議などにおいて、人数を判断し、会議の状態を会話音量で類推してBGM音量を制御する技術が特許文献2に記載されている。
特開平4−268603号公報
しかしながら、特許文献1に記載されている視聴コンテンツの選択方法は、1人の視聴者のみに着目したものである。したがって、同一空間内に複数の人がいる場合、ある人に対して好ましいとして選択した視聴コンテンツであっても、同席している他の人にとっては気分を害する可能性のある視聴コンテンツを提供してしまうことがあるという問題点があった。例えば、ある人の嗜好や視聴履歴に基づきテンポが速く、ビートの激しい音楽を選択して提供したときに、同一空間内にいる他の人のうち選択された音楽が嫌いな人にとっては、選択された音楽は、騒音にしか聞こえないと考えられる。また、恋人同士のドライブと家族のドライブとでは、人間関係が異なるため、視聴コンテンツの選択基準が異なると考えられる。
また、特許文献2に記載されている技術は、会議室内にいる人数を類推することはできるが、同席者の人間関係を類推することはできない。
従って、この発明の目的は、同一空間内における人と人との関係に着目して、視聴コンテンツがその人間関係の融和に寄与するような効果を生むことができる視聴コンテンツ提供システムおよび視聴コンテンツの提供方法を提供することにある。
この発明は、上述した課題を解決するために、区切られた空間内の視聴者の情報と視聴者それぞれの間の関係を示す情報とを取得する視聴者情報取得手段と、1又は複数の視聴コンテンツを格納した視聴コンテンツデータベースと、視聴コンテンツデータベースに格納された視聴コンテンツと対応づけられた、視聴コンテンツの属性を記述した属性インデックスと、視聴者の情報及び視聴者それぞれの関係を示す情報と、属性インデックスとを照合し、照合結果に基づき視聴コンテンツデータベース内から提供する視聴コンテンツを選択する選択手段とを有することを特徴とする視聴コンテンツ提供システムである。
また、この発明は、区切られた空間内の視聴者の情報と視聴者それぞれの間の関係を示す情報とを取得する視聴者情報取得ステップと、視聴者の情報及び視聴者それぞれの間の関係を示す情報と、視聴コンテンツデータベースに格納された視聴コンテンツと対応づけられた、視聴コンテンツの属性を記述した属性インデックスとを照合し、照合結果に基づき、1又は複数の視聴コンテンツを格納した視聴コンテンツデータベース内から提供する視聴コンテンツを選択する選択ステップとを有することを特徴とする視聴コンテンツ提供方法である。
上述したように、この発明は、区切られた空間内の視聴者の情報と視聴者それぞれの間の関係を示す情報とを取得し、取得された視聴者の情報及び視聴者それぞれの間の関係を示す情報と、視聴コンテンツデータベースに格納された視聴コンテンツと対応づけられた、視聴コンテンツの属性を記述した属性インデックスとを照合し、照合結果に基づき、1又は複数の視聴コンテンツを格納した視聴コンテンツデータベース内から提供する視聴コンテンツを選択するようにしているため、区切られた空間内の視聴者に適合した視聴コンテンツを提供することができ、その場にいる全員が快適な時間を過ごすようにできる。
この発明は、温度分布情報と音声情報とに基づいて視聴者の年齢、性別及び視聴者間の関係を推定し、さらに場所や時間帯等に対する適合度を考慮することにより視聴コンテンツを選択するため、相手や場所に適合した視聴コンテンツを提供することができる効果がある。
また、この発明では、視聴者の年齢、性別及び視聴者間の関係の推定結果に基づき、その場に適合した視聴コンテンツを選択するため、その場にいる全員が快適な時間を過ごすことができるという効果がある。
さらに、この発明では、視聴者の年齢、性別及び視聴者間の関係の推定に加え、感情の変化を推定するようにしている。そのため、感情の変化に応じて、その時の感情に適合する視聴コンテンツを選択し直すことができ、視聴者の気分が変わっても、不快感を感じることがないという効果がある。
また、多数の視聴コンテンツの中から視聴コンテンツが自動的に選択されるため、曲名等を一々思い出さなくても、その場に適した視聴コンテンツを提供することができる。
以下、この発明の実施の第1の形態について説明する。まず、この発明の実施の第1の形態による視聴コンテンツ適用システムの概念について説明する。この発明による視聴コンテンツ提供システムは、ある空間内の視聴者の年齢および性別や、視聴者間の関係等を推定し、推定されたこれらの情報に基づき、多数の視聴コンテンツの中から最適な視聴コンテンツを提供するようにした。
空間内にいる視聴者の年齢および性別や、視聴者間の関係を推定する方法について、概略的に説明する。視聴者の年齢および性別は、視聴者の体温や声質などに基づき推定できる。また、視聴者間の関係は、視聴者によりなされた発言の内容や、年齢および性別などに基づき推定できる。
例えば、空間内の視聴者の位置および人数を取得し、取得されたこれらの情報に基づき特定される視聴者それぞれについて、体温や音声を取得することで、年齢および性別を推定する。また、空間内の音声情報を取得し、視聴者の位置および人数に基づき発言を行った者を特定する。そして、発言内容から、視聴者間の関係を推定する。
一方、提供される視聴コンテンツは、視聴コンテンツ自体の属性と、その視聴コンテンツにおける、視聴者の年齢、性別や、視聴者間の関係に対する適合度を示す属性とを対応付ける。そして、空間内にいる視聴者それぞれについて推定された年齢、性別や、視聴者間の関係と、視聴コンテンツに対応付けられた属性とを照合し、空間内に提供する視聴コンテンツを選択する。
まず、視聴者の位置及び人数を推定する方法について説明する。空間内の視聴者の位置及び人数は、空間内の温度分布情報及び音声情報に基づき推定することができる。例えば、空間内の温度分布の測定結果と、人体の体温及びその分布領域を示す温度分布パターンとを比較し、合致又は類似した温度分布パターンがあるか否かを解析する事により、視聴者が何人、どの位置にいるのかを推定することができる。
音声情報に関しては、周波数解析及び時系列による解析で、視聴者の位置及び人数の推定が可能である。なお、音声情報には発言しない視聴者の情報は現れないため、温度分布情報による推定結果と、音声情報による推定結果とを併用することにより、空間内の視聴者の位置及び人数を、より高い精度で推定することができる。
次に、視聴者の年齢や性別、視聴者間の関係を推定する方法について説明する。空間内の視聴者の年齢や性別、関係も、温度分布情報及び音声情報に基づき推定することができる。例えば、人体の温度分布パターンは、年齢や性別によって異なることが知られている。例えば、成人男性、成人女性及び幼児の体温を比較した場合、一般的に、成人男性の体温が最も低く、幼児の体温が最も高く、成人女性の体温が成人男性と幼児の中間の体温であるとされている。したがって、空間内の温度分布を測定して、上述のようにして視聴者の人数や位置を求め、視聴者がいるとされた位置の温度を調べることで、視聴者の年齢や性別を推定することができる。
音声情報に関しては、音声信号のスペクトルと発言とを解析することで、視聴者の年齢や性別、関係を推定することができる。
視聴者の年齢や性別を推定するための第1の解析は、音声信号のスペクトル解析である。一般的に、音声のスペクトル分布は、年齢差や性別によって異なる事が知られている。音声信号の統計的性質に基づくと、男女の発声には、それぞれ特徴があることが知られている。図1に示すように、100Hz程度の低い周波数帯に関して、男性の音圧レベルは、女性の音圧レベルに比べて高いことがわかる。また、図2及び図3に示すように、男女の基本周波数及び発声頻度が高い周波数は、それぞれ125Hz及び250Hz付近であり、男性に比べて女性は、基本周波数が2倍程度であることがわかる。さらに、音声の音響的特性を決める物理的要因には、音源の特性、音道の共鳴特性及び口唇ないし鼻孔からの音波の放射特性がある。音声のスペクトルには、声道の共鳴に対応したいくつかの山、すなわちフォルマントがあり、例えば図4に示すように、母音のフォルマントや子音のフォルマント等のおおよその領域がわかる。
このような音声の特性に基づき、例えば、ある空間内において人物A及び人物Bの2人がおり、2人の音声スペクトル分布において、人物Aおよび人物Bの低域の特性に違いがあるとすると、低域の音圧レベルがより高い方が男性である、と推定することができる。
第2の解析は、発言の解析である。例えば、音声信号をテキストデータに変換し、そのテキストデータから発言内容を解析する。より具体的な例としては、取得した音声信号をA/D変換によりディジタルデータに変換し、このディジタルデータを例えば所定の発生パターンに基づくディジタルデータと比較するなどしてテキストデータに変換する。このテキストデータを、あらかじめ登録されているキーワードと照合して、視聴者の発言を解析する。視聴者の発言に、個人や性別、視聴者間の関係のキーワードとなる言葉が含まれていれば、そのキーワードから性別や関係を推定することができる。また、発言の解析方法はこの例に限られない。例えば、音声信号パターンと、あらかじめ登録されているキーワードの音声パターンとを直接照合して、発言を解析することも可能である。
音声信号から発言を解析するソフトウェアとして、例えばIBM社(International Business Machines Corp.)製の日本語音声認識ソフト「ViaVoice(ビアボイス)」が製品化されている。
発言のキーワード解析について、具体的な例を挙げて説明する。例えば、ある空間内において人物A、人物Bの2人がおり、
人物A「お父さん、おなか空いたね。」
人物B「○○ちゃん、もうすぐレストランだからそこで何か食べよう。」
という会話が検出された場合、人物Aの「お父さん」、人物Bの「○○ちゃん」という発言から、人物A及び人物Bの関係が親子であると推定することができる。さらに、この第2の解析結果に、上述した第1の解析により得られた年齢、性別などの解析結果を加味すると、より精度の高い推定が可能である。
この第2の解析においては、全ての発言が正確に検出される必要はなく、特定のキーワードが検出されればよい。キーワードには、個人や人間関係が推定できる言葉及びコンテンツ評価をすることができる言葉が含まれるものを用いる。図5にキーワードの分類及び例を示す。この例では、キーワードを、個人特定キーワード、関係特定キーワード、コンテンツ評価キーワードの3種類に分類している。
個人特定キーワードは、「僕」、「オレ」、「私」、「アタシ」、「ワシ」、「お父さん」、「お母さん」、「パパ」、「ママ」および「○○ちゃん」等の、個人の年齢や性別を推定することができるキーワードである。例えば、「僕」、「オレ」、「私」、「アタシ」および「ワシ」等は、発言者本人の年齢や性別を推定することができるキーワードとなり、「お父さん」、「お母さん」、「パパ」、「ママ」および「○○ちゃん」等は、会話の相手の年齢や性別を推定することができるキーワードとなる。
関係特定キーワードは、「××さん」、「△△ちゃん」、「はじめまして」、「お元気でしたか」、「好きだよ」および「愛してる」等の、相手との関係を推定することができるキーワードである。例えば、「××さん」や「△△ちゃん」等は、相手に対する呼びかけの言葉であり、「はじめまして」や「お元気でしたか」等は、挨拶の言葉である。また、「好きだよ」や「愛してる」は、相手に対する感情を表す言葉である。これらのキーワードに基づき、発言者本人と相手との関係を推定することができる。
コンテンツ評価キーワードは「懐かしいね」、「いい曲だね」、「耳が痛くなるよ」および「煩わしいね」等の、提供された視聴コンテンツに対する評価を判断するためのキーワードである。例えば、「懐かしいね」や「いい曲だね」等は、提供中の視聴コンテンツの評価が良いと推定できるキーワードとなり、「耳が痛くなるよ」や「煩わしいね」等は、視聴コンテンツの評価が悪いと推定できるキーワードとなる。
また、1つのキーワードが複数の分類に属することがあってもよい。例えば、「好きだ」というキーワードは、関係特定キーワードおよびコンテンツ評価キーワードの両方に属することができる。
次に、視聴コンテンツの属性について説明する。視聴コンテンツ自体を表す属性や、視聴コンテンツの視聴者に対する適合度を表す属性を、視聴コンテンツに関連付ける。これらの属性を用いて、上述した推定結果に基づいて視聴コンテンツを選択することができる。この発明では、属性を、視聴コンテンツ自体の情報を表す第1属性と、視聴者への適合度を表す第2属性とに分類している。
第1属性は、視聴コンテンツ自体の情報である。視聴コンテンツ毎に、例えば視聴者に対して心理的に影響を与えるような項目を関連付ける。心理的に影響を与えるような項目とは、例えば視聴コンテンツが音楽であれば、所要時間、ジャンル、テンポ、リズム及び心理的評価等の項目が考えられる。図6は、視聴コンテンツが音楽である場合の第1属性の一例を示す。所要時間は、音楽の長さを表す。ジャンルは、例えば、クラシック、ジャズ、童謡、シャンソン、ブルース等の、音楽のジャンルを表す。テンポは、例えば、速い、とても速い、遅い、ゆっくり、中間等の、音楽の速度を表す。リズムは、例えば、ワルツ、マーチ等の、音楽のリズムを表す。心理的評価は、例えば、リラックスする、元気になる、高揚感を生む等の、視聴者がその音楽を視聴した際に感じるであろうと思われる気分を表す。なお、第1属性の項目は、この例に限られない。例えば、視聴コンテンツにアーティスト名、作詞者、作曲者等の情報を関連付けてもよい。
第2属性は、視聴コンテンツの視聴者への適合度である。この視聴者への適合度を示す第2属性として、この発明では、例えば、年齢及び性別による適合度の評価を示す第1特性と、場所及び時間による適合度の評価を示す第2特性と、年齢差及び関係による適合度の評価からなる第3特性とを設け、それぞれの特性に対する評価を段階的に表すようにしている。図7A〜図7Cに視聴者への適合度を表す第2属性の一例を示す。図7中の段階A〜段階Dは、適合度に対する段階評価を示している。この例では、段階Aが最も適しており、適合すると考えられる順に段階B、段階C、段階Dと表す。
図7Aに示す第1特性は、年齢及び性別に着目した視聴者への適合度である。例えば、視聴者の年齢や性別によって視聴するコンテンツの好みが異なることが考えられる。この例では、年齢に関して、視聴コンテンツの好みが共通すると考えられる年齢ごとに分類する。例えば、幼児(6歳以下)、7歳〜10歳、11歳〜59歳及び60歳以上に分類している。また、性別に関する分類も行っている。これらの項目について、視聴コンテンツの段階的な評価が設けられる。例えば、図7Aにおいて、この視聴コンテンツは、7歳〜10歳の女性及び11歳〜59歳の男性に対して段階Aが設定され、適合度が最も高いとされ、幼児の男性に対して段階Dが設定され、適合度が最も低いとされていることを意味する。
なお、年齢の分類は、一例であって、この例に限られない。例えば、温度分布パターンによって判断できる年齢に分類すると好ましい。また、幼児は、性別による視聴コンテンツの好みに違いがないとして、性別による分類を省略することもできる。さらに、性別によって、年齢の分類を変更することもできる。
図7Bに示す第2特性は、時間帯及び場所に着目した視聴者への適合度である。例えば、朝と夜とでは、適している視聴コンテンツが異なることが考えられる。また、視聴する場所についても、例えば、寝室とリビングとでは、使用目的が異なるため、適している視聴コンテンツが異なることが考えられる。この例では、時間に関して、午前、午後及び夜に分類し、場所に関しては、使用目的に応じ、レストラン、リビング及び会議室に分類している。これらの項目について、視聴コンテンツの段階的な評価が設けられる。例えば、図7Bにおいて、この視聴コンテンツは、午前の会議室及び午後の会議室に対して段階Aが設定され、適合度が最も高いとされ、夜のレストランに対して段階Dが設定され、適合度が最も低いとされていることを意味する。なお、第2特性の分類は、この例に限られない。例えば、時間帯による分類を、13時〜15時、15時〜17時等のように、細分化してもよい。また、場所についても、この例に限られない。
図7Cに示す第3特性は、複数の視聴者がいる場合の視聴者間の関係に着目した視聴者への適合度である。例えば、視聴者間の親密度が高い場合と低い場合とでは、適合する視聴コンテンツが異なると考えられる。例えば、視聴者間の関係が親子の場合は、親密度が高く、会議等の関連性の低い大勢の者が集まるような場合は、親密度が低いと考えられるが、この場合、適合する視聴コンテンツが異なると考えられる。また、視聴者間の親密度が高い場合でも、親子や恋人、夫妻では、それぞれ適合する視聴コンテンツが異なると考えられる。さらに、男性及び女性が混在する場合には、男女間の年齢差によっても適合する視聴コンテンツが異なると考えられる。この例では、視聴者間の関係を、親子、夫妻、恋人、知人及び会議に分類している。また、男女間の年齢差を、男性が女性に比べて年上の場合と、同年の場合及び男性が女性に比べて年下の場合とに分類している。
視聴者間の関係及び男女間の年齢差の項目について、視聴コンテンツの段階的な評価が設けられる。例えば、図7Cにおいて、この例に示す視聴コンテンツの場合、男性が年上の親子、同年の夫妻もしくは恋人、男性が年下の恋人対して段階Aが設定され、適合度が最も高いとされ、男性が年上の知人もしくは会議に対して段階Dが設定され、適合度が最も低いとされていることを意味する。また、この例では、男女間の年齢差が無い場合の親子関係は、定義されていない。
なお、第3特性の分類は、この例に限られない。例えば、親和、協調、平穏、対立等の発生効果ごとに細分化してもよい。
次に、第1属性及び第2属性に基づいた視聴コンテンツの選択方法について説明する。視聴コンテンツの選択は、例えば、第2属性の第1〜第3の特性に対して設けられた適合度に基づきフィルタリングすることにより、複数の視聴コンテンツの中から視聴コンテンツを絞り込むことで行う。
この例では、視聴者の関係を重視するため、第2属性によるフィルタリングを、第3特性、第2特性、第1特性の順に行う。また、この例では、評価の段階に対して閾値を設けて視聴コンテンツを選択する。例えば、第1特性の評価に対して段階A以上である視聴コンテンツを選択するようにし、第2特性の評価に対して段階C以上であるコンテンツを選択するようにし、また、第3特性の評価に対して段階B以上である視聴コンテンツを選択するように、それぞれ閾値を設定する。
先ず、第3特性が段階B以上に該当する視聴コンテンツを選択する。次に第3特性に基づくフィルタリングにより選択された視聴コンテンツから、第2特性が段階C以上であるものを選択する。最後に、第2特性及び第3特性に基づくフィルタリングにより選択された視聴コンテンツから、第1特性が段階A以上であるものを選択する。このようにして第1特性〜第3特性の評価に基づくフィルタリングを行い、最終的に残った視聴コンテンツが選択される。このようにフィルタリングすることにより、空間内に適合する視聴コンテンツが選択できる。
なお、フィルタリングの順序については、この例に限られず、重視する特性によって適宜変更可能である。例えば、視聴者の年齢や性別を重視する場合には、最初に第1特性による視聴コンテンツのフィルタリングを行うようにする。
また、複数の視聴者を対象とする場合は、視聴者のうち、多数を占める層を選択基準としてもよい。例えば、人数の最も多い年齢層を基準として、視聴コンテンツを選択することができる。視聴者が1人しかいない場合には、第3特性を利用せずにフィルタリングを行い、視聴コンテンツを選択するとよい。
なお、コンテンツの選択方法は、この例に限られない。例えば、第1特性〜第3特性の段階評価によるフィルタリングではなく、視聴コンテンツの特性に重みを付けて評価関数を作り、最大効果の値をとる視聴コンテンツを選択してもよい。
次に、図8を用いて、この発明の実施の第1の形態による視聴コンテンツ提供システムについて説明する。温度分布情報と音声情報とにより対象空間1にいる視聴対象者の位置及び人数を推定するため、空間内に温度分布計測手段及び音声情報取得手段を設置する。
対象空間1に、温度分布計測手段としてサーモカメラ2を設置する。サーモカメラ2の出力は、温度分布解析部4に供給される。サーモカメラ2は、赤外領域の光を撮像して映像信号として出力するもので、サーモカメラ2から出力された映像信号を温度分布解析部4で解析することで、空間内の温度分布を計測することができる。サーモカメラ2は、空間全体の温度分布を計測することができる場所に一又は複数設置する。また、正確な計測のためには、設置される数が多い方がよい。
温度分布解析部4では、サーモカメラ2から供給された映像信号に基づき空間内の温度分布を解析し、温度分布パターン情報30を取得する。例えば、赤外光が強い部分は、温度が高く、赤外光が弱い部分は、温度が低いと考えられる。解析により取得した温度分布パターン情報30が視聴者位置推定部6及び視聴者推定部7へそれぞれ供給される。
マイクロフォン3(以下、マイク3)は、対象空間1内の音声を取得し、音声信号に変換する。マイク3は、ステレオ音響を取得できるよう、少なくとも2つ設置する。マイク3から出力された音声信号が音声解析部5へ供給される。音声解析部5は、供給された音声信号に基づき、例えば、音源の定位を求め、定位が求められた音源に着目して、音声スペクトルや発言等の解析を行い、音声解析データ31を取得する。解析により取得した音声解析データ31が視聴者位置推定部6、視聴者推定部7及び関係推定部8へそれぞれ供給される。
視聴者位置推定部6は、温度分布解析部4から供給された温度分布パターン情報30と、音声解析部5から供給された音声解析データ31とに基づいて、視聴者の位置及び人数を推定する。例えば、温度分布パターン情報30に示される温度分布パターンと、音声の定位情報とに基づき、対象空間1内にいる視聴者の位置を推定することができる。また、音声スペクトル分布を用いることで、対象空間1内にいる視聴者の人数を推定できる。なお、位置及び人数の推定方法は、この例に限られない。視聴者位置推定部6で得られた位置・人数情報32は、視聴者推定部7へ供給される。
キーワードデータベース12は、例えば、図5に一例を示したような個人特定キーワード、関係特定キーワード及びコンテンツ評価用キーワード等が格納されている。キーワードデータベース12に格納されたキーワードと、視聴者の発言とを比較することで、視聴者毎の年齢・性別及び視聴者間の関係の推定や、提供中の視聴コンテンツの評価を行う。
視聴者推定部7は、温度分布解析部4から供給された温度分布パターン情報30と、音声解析部5から供給された音声解析データ31と、視聴者位置推定部6から供給された位置・人数情報32とに基づき、対象空間1内にいる視聴者の年齢及び性別を、視聴者毎に推定する。上述したように、温度分布パターン情報30により年齢・性別を推定できる。また、音声スペクトル分布により性別を推定できる。さらに、音声解析データ31に基づく視聴者の発言と、キーワードデータベース12に格納されている個人特定キーワードとを比較することにより、視聴者毎の年齢及び性別を推定できる。視聴者推定部7で得られた年齢・性別情報33は、関係推定部8及びコンテンツ選択部9にそれぞれ供給される。
関係推定部8は、音声解析部5から供給された音声解析データ31と、視聴者推定部7から供給された年齢・性別情報33とに基づいて、視聴者間の関係を推定する。一例として、音声解析データ31に基づく視聴者の発言と、キーワードデータベース12に格納されている関係特定キーワードとを比較することにより、視聴者間の関係を推定することができる。関係推定部8で得られた関係情報34は、コンテンツ選択部9に供給される。
ここで、視聴者の位置・人数、年齢・性別及び関係の推定方法の一例を、図9を用いて説明する。ある空間内に、図9Aに示すように人物A、人物B及び人物Cがおり、会話を交わしていると仮定する。発言内容は、発言した順に「パパ、お腹空いた(人物A)」、「次のコンビニに入るから待っててね(人物B)」及び「あなた、急がないで安全運転でね(人物C)」とする。また、図9Aに示す発言の下線部は、発言に含まれるキーワードを表しているとする。
サーモカメラ2により撮影された映像信号に基づく温度分布パターン情報30により、対象空間1内の人物の位置及び人数を特定できる。また、人物の温度分布パターンを解析することにより、人物毎の年齢及び性別を推定できる。この例では、温度分布パターンにより、図9Bに一例が示されるように、空間内に人物A、人物Bおよび人物Cの3人がおり、それぞれの位置は、人物Aが座標(X,Y,Z)、人物Bが座標(X,Y,Z)、人物Cが座標(X,Y,Z)であることが解析される。また、年齢及び性別は、個々の温度分布パターンに基づき、人物Aの温度が最も高く、人物Cの温度が最も低く、人物Bの温度が人物Aと人物Cとの中間の温度であると解析される。これにより、人物Aが幼児、人物Bが成人男性、人物Cが成人女性であると推定している。
マイク3から出力された音声信号に基づく音声解析データ31により、対象空間1内の音源の定位が特定できる。また、定位が特定された音源に着目して、その音源の音声スペクトル分布や音量等を解析することにより、その音源となる人物の年齢・性別を推定することができる。さらに、人物の発言を解析することにより、人物間の関係が推定できる。この例では、音声解析データ31より、図9Cに一例が示されるように、空間内に人物A、人物Bおよび人物Cの3人がおり、それぞれの位置は、人物Aが座標(X,Y,Z)、人物Bが座標(X,Y,Z)、人物Cが座標(X,Y,Z)であることが解析される。また、年齢及び性別に関しては、個々の音声スペクトル分布に基づき、人物Aが幼児若しくは女性、人物Bが成人男性、人物Cが成人女性であると推定している。さらに、人物Aの発言内容から「パパ」というキーワードが検出され、このキーワードに基づき人物Aが父といることが推定できる。同様に、人物Cの発言内容から「あなた」というキーワードが検出され、このキーワードに基づき、対象空間1内に夫妻がおり、人物Cがこの夫妻のうちの妻であることが推定できる。
温度分布パターン情報30に基づく推定結果と、音声解析データ31に基づく推定結果とを照合することにより、図9Dに示されるように、人物A、人物B及び人物Cの位置は、人物Aが座標(X,Y,Z)、人物Bが座標(X,Y,Z)、人物Cが座標(X,Y,Z)と特定され、人物毎の年齢・性別及び関係は、人物Aが幼児、人物Bが人物Aの父、人物Bと人物Cとが夫妻であって、人物Cが人物Bの妻であると推定することができる。なお、この推定結果から、人物Bは、人物Aの母であると推定することもできる。
また、図9に示す例の場合、例えば、人物Cの発言から検出された「急がないで」というキーワードに基づき、人物Cが人物Bの気分を落ち着かせたいと考えていると推定することができる。このような場合、この推定から、気分を落ち着かせるような視聴コンテンツを提供するとより好ましい。
説明は図8に戻り、視聴コンテンツデータベース11は、例えばハードディスクなどの記録媒体からなり、属性インデックス10及び視聴コンテンツの組が、多数格納されている。属性インデックス10は、少なくとも上述した第1属性及び第2属性を有する。属性インデックス10は、例えば、所定の識別情報により視聴コンテンツと1対1に関連付けられて、視聴コンテンツデータベース11に格納される。
コンテンツ選択部9では、視聴者推定部7から供給された年齢・性別情報33と、関係推定部8から供給された関係情報34に基づき、視聴コンテンツデータベース11に格納された視聴コンテンツの中から、対象空間1に適合した視聴コンテンツを、上述したような属性インデックス10に基づくフィルタリングにより選択し、選択された視聴コンテンツのリストを作成する。この視聴コンテンツリストに基づき、視聴コンテンツデータベース11から視聴コンテンツが選択される。視聴コンテンツは、視聴コンテンツリストの中からランダムに選択してもよいし、所定の順に選択してもよい。
選択された視聴コンテンツは、音質・音量制御部13へ供給され、音質・音量を制御されて出力装置14に供給される。出力装置14は、例えば、視聴コンテンツが音楽である場合はスピーカであって、音質・音量制御部13から送られた視聴コンテンツを音声として出力する。
なお、視聴コンテンツ提供開始後も、視聴者に対する温度分布情報と音声情報の取得を継続的に行い、視聴コンテンツに対する評価及び視聴者の変化を推定すると好ましい。例えば、視聴コンテンツ提供中に視聴者が発言し、その発言内容から視聴コンテンツに対するコンテンツ評価キーワードが検出された場合、その評価キーワードに基づいて視聴コンテンツを選択することができる。すなわち、発言からコンテンツ評価キーワードが検出されると、その評価キーワードに応じて続インデックス10における第1属性に基づくフィルタリングを行い、提供する視聴コンテンツを選択し直す。
検出されたコンテンツ評価キーワードが評価が良いことを示すものであった場合、提供されている視聴コンテンツがその場に適していると判断され、現在提供中の視聴コンテンツと類似した視聴コンテンツを、例えば属性インデックス10の第1属性に基づき選択して、提供する。一方、検出されたコンテンツ評価キーワードが評価が悪いことを示すものであった場合、提供されている視聴コンテンツがその場に適していないと判断され、第1属性を用いて視聴コンテンツを選択し、その場に適合した別の視聴コンテンツを提供する。
また、視聴コンテンツ提供中に視聴者の状態に変化があった場合には、変化後の視聴者の関係に着目して、再度視聴者の推定が行われ、視聴コンテンツが再度選択される。例えば、車内等において、同乗している幼児の発言が無くなったり、体温が低下したことが検出され、その幼児が寝たと推定された場合には、起きている視聴者のみを対象として視聴コンテンツを選択する。
なお、上述では、視聴コンテンツの提供方法は、視聴コンテンツリストを作成し、リストに基づいて視聴コンテンツを提供するよう説明したが、これは、この例に限られない。例えば、第2属性に基づく視聴コンテンツのフィルタリングにより、最初に1つだけ視聴コンテンツを選択し、提供する。その後、継続的に取得される温度分布情報及び音声情報に基づき、次の視聴コンテンツを1つ選択し、提供する。これを繰り返すことで常に最適な視聴コンテンツを提供することができる。
また、対象空間1内の温度分布情報や音声情報をうまく取得できず、対象空間1内の視聴者の年齢、性別及び視聴者間の関係を正しく判断できない場合があることが考えられる。この場合には、取得できた情報のみに基づいて視聴コンテンツを選択してもよい。その後、未取得の情報が取得され次第、再度視聴コンテンツの選択を行うようにする。このようにして、既知の情報に基づいて視聴コンテンツを選択することにより、空白の時間を生じることなく視聴コンテンツを提供することができる。
次に、図10のフローチャートを用いて、この実施の第1の形態による視聴コンテンツの提供方法について説明する。なお、ここでは、温度分布情報及び音声情報の取得が継続的に行われるものとし、図10のフローチャートの処理は、巡回的に繰り返されるものとする。例えば、数分に1回等の所定時間毎に、図10のフローチャートの処理を繰り返す。
先ず、ステップS10において、サーモカメラ2及びマイク3による対象空間1の測定が行われ、測定結果に基づき、温度分布解析部4及び音声解析部5で、温度分布パターン情報30及び音声解析データ31がそれぞれ取得される。次に、ステップS11では、ステップS10で取得した温度分布パターン情報30及び音声解析データ31に基づき、視聴者位置推定部6で視聴者の位置及び人数が推定される。ステップS12では、ステップS10で取得した温度分布パターン情報30、音声解析データ31と、ステップS11で取得した視聴者の位置・人数情報32とに基づき、視聴者推定部7で視聴者の年齢及び性別が推定される。ステップS13では、ステップS10で取得した音声解析データ31と、ステップS12で取得した視聴者の年齢・性別情報33とに基づき、関係推定部8で視聴者間の関係が推定される。
次のステップS14で、今回のステップS10〜ステップS13までの処理によって得られた情報と、所定時間前、例えば前回のステップS10〜ステップS13の処理によって得られた情報とを比較し、対象空間1内の視聴者の状態に変化があったか否かが判断される。例えば、対象空間1内の視聴者について、人数、年齢層、関係の変化があったか否かが判断できる。さらに、時刻の情報を取得することで、時刻の変化も判断することができる。視聴者の関係に変化があったと判断された場合は、処理はステップS15に移行する。なお、所定時間前の情報がない場合、すなわちフローチャートの処理の1回目は、変化があったものと見なし、処理はステップS15に移行する。
ステップS15では、今回のステップS10〜ステップS13で得られた視聴者の年齢、性別及び関係の推定結果に基づき、コンテンツ選択部9で、属性インデックス10によるフィルタリングを行い、次のステップS16で、フィルタリングの結果に基づき、視聴コンテンツデータベース11を参照して視聴コンテンツリストを作成する。
次に、ステップS17では、ステップS16で作成された視聴コンテンツリストの中から視聴コンテンツをランダム又は所定の順に選択し、選択された視聴コンテンツを視聴コンテンツデータベース11から出力し、音質・音量制御部13を介して対象空間1内に提供する。視聴コンテンツ提供後、処理はステップS10へ戻される。
一方、ステップS14において、視聴者間の関係に変化がないと判断された場合は、処理はステップS17に移行し、前回のループ処理において作成された視聴コンテンツリストに基づき視聴コンテンツが選択される。
次に、この発明の実施の第1の形態の変形例について説明する。この実施の第1の形態の変形例は、図8中の点線で示されるように、上述した実施の第1の形態の視聴コンテンツ提供システムに対して感情推定部15を設け、視聴コンテンツ提供後の視聴者の感情の変化を推定し、推定された情報に基づき、提供中の視聴コンテンツが最適であるか否かを判断することができるようにした。なお、以下では、上述した実施の第1の形態と共通する部分については、説明を省略する。
視聴者の感情の変化は、視聴コンテンツ提供中の温度分布パターン情報30及び音声解析データ31に基づき、推定することができる。例えば、空腹度や覚醒度等に伴う感情の推移により、体温の分布が変化することや、心理的に不快あるいはストレスがある場合には、体温が下がることが知られている。特開2002−267241号公報によれば、頭部の温度が高く、かつ耳の温度が高い場合は、興奮しているか、又はいらいらしていると考えられる旨が記載されている。したがって、視聴コンテンツ提供開始前の視聴者の温度分布パターンと、視聴コンテンツ提供開始後の視聴者の温度分布パターンとを比較し、温度分布の変化を解析することにより、感情の変化を推定することができる。
音声に関しては、例えば、感情の変化がある場合には、音声スペクトル分布に微小な変動があることが知られている。したがって、視聴コンテンツ提供開始前の視聴者の音声スペクトル分布と、視聴コンテンツ提供開始後の音声スペクトル分布とを比較し、音声信号のスペクトル分布の変化を解析することにより、視聴者の感情の変化を推定することができる。例えば、音声スペクトル分布を解析した結果、高い周波数のスペクトル成分が増加したことが検出された場合、声がうわずり、視聴者が興奮していることが推定できる。また、低い周波数のスペクトル成分が増加したことが検出された場合、声のトーンが下がり、視聴者の気持ちが落ち着いていることが推定できる。また、発言の際の音量の変化を検出し、感情の変化を推定することもできる。
なお、感情の変化を推定する方法は、この例に限られない。例えば、視聴者の発言に基づいてこの視聴者の感情の変化を推定することもできる。例えば、キーワードデータベース12に、「楽しい」、「緊張する」、「疲れた」、「がっくり」等の雰囲気キーワードを格納し、視聴者の発言に含まれる雰囲気キーワードを検出することにより、感情の変化を推定することができる。
温度分布解析部4から出力された温度分布パターン情報30と、音声解析部5から出力された音声解析データ31とが感情推定部15に対してそれぞれ供給される。感情推定部15は、これらの温度分布パターン情報30と音声解析データ31とに基づいて視聴者の感情の変化を推定する。
感情推定部15における視聴者の感情の変化の推定は、例えば次のようにして行う。例えば、感情推定部15は、所定時間分の温度分布パターン情報30及び音声解析データ31をそれぞれ蓄積し、蓄積された温度分布パターン情報30と、温度分布解析部4から供給される温度分布パターン情報30とを比較すると共に、蓄積された音声解析データ31と、音声解析部5から供給される音声解析データ31とを比較する。そして、それぞれの比較結果に基づき、感情が変化したか否か、また、感情が変化したとされた場合は、どのように変化したかを推定する。感情推定部15で推定された推定結果は、感情情報35としてコンテンツ選択部9に供給される。
コンテンツ選択部9は、供給された感情情報35に基づき、提供する視聴コンテンツを、属性インデックス10の第1属性における心理的評価の項目をさらに用いて選択する。すなわち、視聴コンテンツは、第2属性に加え、第1属性の心理的評価によるフィルタリングを行うことにより選択される。例えば、感情情報35に基づき、その視聴者が前回の感情変化検出時よりも興奮していると判断された場合、属性インデックス10の第1属性の心理的評価の項目がリラックスするとなっている視聴コンテンツを選択し、提供する。これに限らず、例えばテンポの項目を用いて、興奮している状態を和らげるようにテンポの遅い視聴コンテンツを選択することも考えられる。
次に、発明の実施の第2の形態について、図11を用いて説明する。この発明の実施の第2の形態は、視聴者の情報を所定の入力手段を用いて入力し、入力した情報に基づき、その場に適合した視聴コンテンツを選択するようにしている。この例では、視聴者情報の入力手段として、ICタグ(Integrated Circuit Tag)20を用いる。ICタグ20は、不揮発性のメモリを有し、電波を用いて情報を送受信して、送受信された情報を不揮発性メモリに対して読み書きすることができる無線ICチップである。なお、図11において、上述した図8と共通する部分には、同一の符号を付し、詳細な説明を省略する。
また、以下では、「ICタグと通信を行いICタグが有する不揮発性メモリに情報を書き込む」ことを、「ICタグに情報を書き込む」のように記述し、「ICタグと通信を行いICタグが有する不揮発性メモリから情報を読み出す」ことを、「ICタグから情報を読み出す」のように記述する。
この発明の第2の実施の形態では、予め個人情報が記憶されたICタグ20を用いることにより、ICタグ20に記憶されている個人情報に基づいて視聴者の年齢及び性別を特定し、さらに、視聴者間の関係を推定することができる。この例では、ICタグ20が携帯電話端末21に設けられているものとする。
ICタグ20には、図12に一例を示すように、視聴者の名前、生年月日、性別等の個人情報が予め記憶されている。個人情報は、この例に限られず、他の種類の個人情報を記憶させてもよい。例えば、視聴者の視聴コンテンツの好みに関する情報をICタグ20に記憶させてもよい。
図11に示すように、ICタグ20と通信するためのICタグリーダ22が対象空間1に設置される。ICタグリーダ22は、ICタグ20を所定の距離以内に接近させることでICタグ20と自動的に通信を開始し、ICタグ20から情報を読み出したり、ICタグ20に情報を書き込んだりすることができる。視聴者は、例えば対象空間1に設置されたICタグリーダ22にICタグ20を接近させ、ICタグ20に記憶された個人情報をICタグリーダ22に読み込ませる。ICタグリーダ22に読み込まれた個人情報は、視聴者推定部7’及び関係推定部8’へそれぞれ供給される。
視聴者推定部7’は、供給された個人情報に基づき、視聴者の年齢及び性別を特定する。特定された年齢・性別情報33は、コンテンツ選択部9へ供給される。関係推定部8’は、供給された個人情報に基づき、視聴者間の関係を推定する。視聴者間の関係は、例えば、視聴者の名字が同じで、かつ年齢が離れている場合は親子である、というように推定できる。また、視聴者の人数構成を、視聴者間の関係の推定にさらに用いることもできる。例えば、対象空間1内に、年齢が近い男性と女性とが一人ずついる場合には、夫妻または恋人であると推定できる。また、対象空間1内に年齢が近い男性と女性とが多人数いる場合には、知人同士であるとすいてできる。また例えば、対象空間1内に年齢が離れている男性と女性とが多人数いる場合には、家族であると推定できる。関係推定部8’で推定されて得られた関係情報34は、コンテンツ選択部9へ供給される。
コンテンツ選択部9では、視聴者の年齢、性別及び視聴者間の関係の情報に基づき、上述したようにして属性インデックス10によるフィルタリングを行い、視聴コンテンツデータベース11を参照して視聴コンテンツを選択し、その場に最適な視聴コンテンツを提供する。
なお、上述では、個人情報を入力する手段としてICタグ20を用いたが、これは、この例に限定されない。例えば、携帯電話端末21を個人情報の入力手段としてもよい。視聴コンテンツ提供システムに対して、携帯電話端末21と通信を行う通信手段を設け、携帯電話端末21に予め格納されている個人情報を通信により得て、視聴者推定部7’及び関係推定部8’へ供給する。また、上述では、ICタグ20が設けられた携帯電話端末21を用いたが、ICタグ20を封入したICカード等を用いてもよい。
なお、上述した実施の第1の形態、第1の形態の変形例及び実施の第2の形態では、この視聴コンテンツ提供システムが提供する視聴コンテンツが音楽である場合について説明したが、これはこの例に限られない。例えば、この発明は、視聴コンテンツが映像である場合についても適用が可能である。
視聴コンテンツが映像の場合、属性インデックス10の第1属性の項目としては、例えば、所要時間、映像種類、ジャンル、心理的評価等が考えられる。所要時間は映像の長さを表す。映像種類は、映像を、例えば映画、ドラマ、楽曲のプロモーションビデオのような短い映像をまとめた音楽クリップ集、コンピュータグラフィクス、イメージ映像等の種類毎に分類したものを表す。ジャンルは、例えば、映像種類を内容によりさらに分類したもので、映像種類が映画であれば、ホラーやコメディ、アクション等に分類される。心理的評価は、例えば、リラックスする、元気になる、高揚感を生む等の、その映像を視聴した際に感じられると思われる気分を表す。なお、第1属性の項目は、この例に限られない。例えば、出演者等の項目を設けてもよい。また、視聴コンテンツが映像の場合、出力装置14としてモニタ等が用いられる。
なお、上述では、視聴コンテンツと属性インデックス10とが同一の視聴コンテンツデータベース11に格納されていると説明したが、これは、この例に限られない。例えば、属性インデックス10は、視聴コンテンツデータベース11が格納される記録媒体とは異なる記録媒体、例えばCD−ROM(Compact Disc-Read Only Memory)やDVD−ROM(Digital Versatile Disc-Read Only Memory)等の記録媒体に記録されて提供されることが考えられる。このとき、視聴コンテンツデータベース11に格納されている視聴コンテンツと、CD−RやDVD−ROMに格納されている属性インデックス10とを、所定の識別情報に基づき関連付ける。そして、CD−ROMやDVD−ROMに記録されて提供された属性インデックス10に基づいて視聴コンテンツの選択を行い、選択された視聴コンテンツを視聴者に提供する。また、属性インデックス10が関連付けられていない視聴コンテンツに対して、例えば、視聴者が直接的に属性インデックス10の内容を作成してもよい。
また、上述では、視聴コンテンツデータベース11を視聴者側が有するものとして説明したが、これは、この例に限られない。例えば、ネットワークを介した外部にコンテンツ選択部9及び視聴コンテンツデータベース11を設けてもよい。この場合、視聴コンテンツ提供システムは、年齢・性別情報33及び関係情報34を、ネットワークを介して外部のコンテンツ選択部9に送信する。外部のコンテンツ選択部9は、受信したこれらの情報に基づき、属性インデックス10を用いてフィルタリングを行い、視聴コンテンツデータベース11の中から適合する視聴コンテンツを選択する。選択された視聴コンテンツは、ネットワークを介して視聴者に提供される。
さらに、外部の視聴コンテンツデータベース11に格納されている属性インデックス10を、ネットワークを介してダウンロードして用いてもよい。コンテンツ選択部9は、ダウンロードした属性インデックス10に基づき適合する視聴コンテンツリストを作成し、視聴コンテンツリストを、ネットワークを介して外部の視聴コンテンツデータベース11へ送信する。外部の視聴コンテンツデータベース11は、受信したリストに基づき視聴コンテンツを選択して、ネットワークを介して視聴者に提供する。また、視聴コンテンツは、視聴者側が有し、属性インデックス10を、ネットワークを介してダウンロードしてもよい。
スペクトル解析による男女の発声の特徴を示す略線図である。 スペクトル解析による男女の発声の特徴を示す略線図である。 スペクトル解析による男女の発声の特徴を示す略線図である。 発声の特徴を示す略線図である。 発言に含まれるキーワードの一例を示す略線図である。 視聴コンテンツが音楽である場合の第1属性の一例を示す略線図である。 視聴者への適合度を表す第2属性の一例を示す略線図である。 この発明の実施の第1の形態による視聴コンテンツ提供システムの機能ブロック図である。 視聴者の位置・人数、年齢・性別及び関係を推定する方法の一例を示す略線図である。 この発明の実施の第1の形態による視聴コンテンツの提供方法を説明するフローチャートである。 この発明の実施の第2の形態による視聴コンテンツ提供システムの機能ブロック図である。 ICタグ内の情報の一例を示す略線図である。
符号の説明
1 対象空間
2 サーモカメラ
3 マイクロフォン
4 温度分布解析部
5 音声解析部
6 視聴者位置推定部
7 視聴者推定部
8 関係推定部
9 コンテンツ選択部
10 属性インデックス
11 視聴コンテンツデータベース
12 キーワードデータベース
13 音質・音量制御部
14 出力装置
15 感情推定部

Claims (25)

  1. 区切られた空間内に視聴コンテンツを提供する視聴コンテンツ提供システムであって、
    区切られた空間内の視聴者の情報と該視聴者それぞれの間の関係を示す情報とを取得する視聴者情報取得手段と、
    1又は複数の視聴コンテンツを格納した視聴コンテンツデータベースと、
    上記視聴コンテンツデータベースに格納された上記視聴コンテンツと対応づけられた、上記視聴コンテンツの属性を記述した属性インデックスと、
    上記視聴者の情報及び該視聴者それぞれの関係を示す情報と、上記属性インデックスとを照合し、照合結果に基づき上記視聴コンテンツデータベース内から提供する視聴コンテンツを選択する選択手段と
    を有することを特徴とする視聴コンテンツ提供システム。
  2. 請求項1に記載の視聴コンテンツ提供システムにおいて、
    上記視聴者情報取得手段は、
    上記区切られた空間内の音声情報を取得する音声情報取得手段と、
    上記音声情報取得手段で取得された音声情報に基づき、上記区切られた空間内の視聴者の構成人数を示す視聴者数情報及び視聴者それぞれの位置を示す視聴者位置情報を取得する第1の視聴者情報取得手段と
    を有することを特徴とする視聴コンテンツ提供システム。
  3. 請求項2に記載の視聴コンテンツ提供システムにおいて、
    上記視聴者情報取得手段は、
    上記第1の視聴者情報取得手段で取得された、上記視聴者数情報及び上記視聴者位置情報と、上記音声情報取得手段で取得された音声情報とを用いて、上記区切られた空間内の視聴者それぞれの発言を解析し、解析して得られる発言情報に基づく推定により、上記視聴者それぞれの年齢を示す年齢情報及び上記視聴者それぞれの性別を示す性別情報を取得する第2の視聴者情報取得手段をさらに有することを特徴とする視聴コンテンツ提供システム。
  4. 請求項2に記載の視聴コンテンツ提供システムにおいて、
    上記視聴者情報取得手段は、
    上記第1の視聴者情報取得手段で取得された、上記視聴者数情報及び上記視聴者位置情報と、上記音声情報取得手段で取得された音声情報とを用いて、上記区切られた空間内の視聴者それぞれの発言を解析し、解析して得られる発言情報に基づく推定により、上記視聴者それぞれの間の関係を示す関係情報を取得する視聴者関係推定手段をさらに有することを特徴とする視聴コンテンツ提供システム。
  5. 請求項1に記載の視聴コンテンツ提供システムにおいて、
    上記視聴者情報取得手段は、
    上記区切られた空間内の温度分布情報を取得する温度分布情報取得手段と、
    上記温度分布情報取得手段で取得された温度分布情報に基づき、上記区切られた空間内の視聴者の構成人数を示す視聴者数情報及び上記視聴者それぞれの位置を示す視聴者位置情報を取得する第1の視聴者情報取得手段と
    を有することを特徴とする視聴コンテンツ提供システム。
  6. 請求項5に記載の視聴コンテンツ提供システムにおいて、
    上記視聴者情報取得手段は、
    上記第1の視聴者情報取得手段で取得された、上記視聴者数情報及び上記視聴者位置情報と、上記温度分布情報取得手段で取得された温度分布情報とに基づく推定により、上記視聴者それぞれの年齢を示す年齢情報及び上記視聴者それぞれの性別を示す性別情報を取得する第2の視聴者情報取得手段をさらに有することを特徴とする視聴コンテンツ提供システム。
  7. 請求項1に記載の視聴コンテンツ提供システムにおいて、
    上記視聴者情報取得手段は、
    上記区切られた空間内の音声情報を取得する音声情報取得手段と、
    上記区切られた空間内の温度分布情報を取得する温度分布情報取得手段と、
    上記音声情報取得手段で得られた音声情報と、上記温度分布情報取得手段で得られた温度分布情報とから上記区切られた空間内の視聴者の構成人数を示す視聴者数情報及び上記視聴者それぞれの位置を示す視聴者位置情報を取得する第1の視聴者情報取得手段と
    を有することを特徴とする視聴コンテンツ提供システム。
  8. 請求項7に記載の視聴コンテンツ提供システムにおいて、
    上記視聴者情報取得手段は、
    上記第1の視聴者情報取得手段で取得された、上記視聴者数情報及び上記視聴者位置情報と、上記音声情報取得手段で取得された音声情報とを用いて、上記区切られた空間内の視聴者それぞれの発言を解析し、解析して得られる発言情報と、上記温度分布情報取得手段で得られた温度分布情報とに基づく推定により、上記視聴者それぞれの年齢を示す年齢情報及び上記視聴者それぞれの性別を示す性別情報を取得する第2の視聴者情報取得手段と、
    上記第1の視聴者情報取得手段で取得された、上記視聴者数情報及び上記視聴者位置情報と、上記音声情報取得手段で取得された音声情報とを用いて、上記区切られた空間内の視聴者それぞれの発言を解析し、解析して得られる発言情報に基づく推定により、上記視聴者それぞれの間の関係を示す関係情報を取得する視聴者関係推定手段と
    をさらに有することを特徴とする視聴コンテンツ提供システム。
  9. 請求項1に記載の視聴コンテンツ提供システムにおいて、
    上記視聴者情報取得手段は、
    少なくとも上記視聴者の情報を入力可能な入力手段と、
    上記入力手段により入力された上記視聴者の情報に基づき、上記視聴者それぞれの間の関係を示す関係情報を推定する視聴者関係推定手段と
    を有することを特徴とする視聴コンテンツ提供システム。
  10. 請求項9に記載の視聴コンテンツ提供システムにおいて、
    上記入力手段は、
    外部から送信された上記視聴者の情報を受信して、上記視聴者の情報を入力するようにしたことを特徴とする視聴コンテンツ提供システム。
  11. 請求項10に記載の視聴コンテンツ提供システムにおいて、
    上記入力手段は、
    ICタグから送信された上記視聴者の情報を上記受信するようにしたことを特徴とする視聴コンテンツ提供システム。
  12. 請求項10に記載の視聴コンテンツ提供システムにおいて、
    上記入力手段は、
    携帯端末から送信された上記視聴者の情報を上記受信するようにしたことを特徴とする視聴コンテンツ提供システム。
  13. 請求項1に記載の視聴コンテンツ提供システムにおいて、
    上記属性インデックスは、
    視聴コンテンツ自体の属性からなる第1属性と、
    該視聴コンテンツの視聴者に対する適合度からなる第2属性と
    を有することを特徴とする視聴コンテンツ提供システム。
  14. 請求項13に記載の視聴コンテンツ提供システムにおいて、
    上記第1属性は、視聴コンテンツに対する心理的評価を含むことを特徴とする視聴コンテンツ提供システム。
  15. 請求項13に記載の視聴コンテンツ提供システムにおいて、
    上記第2属性は、視聴コンテンツの視聴者の年齢に対する適合度を含むことを特徴とする視聴コンテンツ提供システム。
  16. 請求項13に記載の視聴コンテンツ提供システムにおいて、
    上記第2属性は、視聴コンテンツの視聴者の性別に対する適合度を含むことを特徴とする視聴コンテンツ提供システム。
  17. 請求項13に記載の視聴コンテンツ提供システムにおいて、
    上記第2属性は、視聴コンテンツの区切られた空間の種類に対する適合度を含むことを特徴とする視聴コンテンツ提供システム。
  18. 請求項13に記載の視聴コンテンツ提供システムにおいて、
    上記第2属性は、視聴コンテンツの時間帯に対する適合度を含むことを特徴とする視聴コンテンツ提供システム。
  19. 請求項13に記載の視聴コンテンツ提供システムにおいて、
    上記第2属性は、視聴コンテンツの視聴者それぞれの間の関係に対する適合度を含むことを特徴とする視聴コンテンツ提供システム。
  20. 請求項13に記載の視聴コンテンツ提供システムにおいて、
    上記第2属性は、視聴コンテンツの視聴者間の年齢差に対する適合度を含むことを特徴とする視聴コンテンツ提供システム。
  21. 請求項1に記載の視聴コンテンツ提供システムにおいて、
    上記視聴コンテンツデータベースは、通信手段を介して通信可能な外部にあって、上記視聴コンテンツは、上記通信手段を介して提供されることを特徴とする視聴コンテンツ提供システム。
  22. 請求項1に記載の視聴コンテンツ提供システムにおいて、
    上記属性インデックスは、通信手段を介して通信可能な外部にあって、上記属性インデックスは、上記通信手段を介して提供されることを特徴とする視聴コンテンツ提供システム。
  23. 請求項1に記載の視聴コンテンツ提供システムにおいて、
    上記属性インデックスは、着脱可能な記録媒体によって提供されることを特徴とする視聴コンテンツ提供システム。
  24. 請求項1に記載の視聴コンテンツ提供システムにおいて、
    上記視聴コンテンツデータベース、上記属性インデックス及び上記選択手段は、通信手段を介して通信可能な外部にあって、上記視聴者情報取得手段で取得された上記視聴者の年齢及び性別を示す情報と上記視聴者それぞれの間の関係を示す情報とを、上記通信手段を介して上記選択手段に送信し、上記視聴者の年齢及び性別を示す情報と上記視聴者それぞれの間の関係を示す情報とに基づき、上記選択手段で選択された上記視聴コンテンツが上記通信手段を介して提供されることを特徴とする視聴コンテンツ提供システム。
  25. 区切られた空間内に視聴コンテンツを提供する視聴コンテンツ提供方法であって、
    区切られた空間内の視聴者の情報と該視聴者それぞれの間の関係を示す情報とを取得する視聴者情報取得ステップと、
    上記視聴者の情報及び該視聴者それぞれの間の関係を示す情報と、視聴コンテンツデータベースに格納された上記視聴コンテンツと対応づけられる、視聴コンテンツの属性を記述した属性インデックスとを照合し、照合結果に基づき、1又は複数の視聴コンテンツを格納した視聴コンテンツデータベース内から提供する視聴コンテンツを選択する選択ステップと
    を有することを特徴とする視聴コンテンツ提供方法。
JP2004281467A 2004-09-28 2004-09-28 視聴コンテンツ提供システム及び視聴コンテンツ提供方法 Expired - Fee Related JP4311322B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004281467A JP4311322B2 (ja) 2004-09-28 2004-09-28 視聴コンテンツ提供システム及び視聴コンテンツ提供方法
US11/227,187 US7660825B2 (en) 2004-09-28 2005-09-16 Audio/visual content providing system and audio/visual content providing method
EP05020952A EP1641157A3 (en) 2004-09-28 2005-09-26 Audio/visual content providing system and audio/visual content providing method
CN200510129111A CN100585698C (zh) 2004-09-28 2005-09-28 音频/视频内容提供系统和音频/视频内容提供方法
KR1020050090488A KR20060051754A (ko) 2004-09-28 2005-09-28 시청 컨텐츠 제공 시스템 및 시청 컨텐츠 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004281467A JP4311322B2 (ja) 2004-09-28 2004-09-28 視聴コンテンツ提供システム及び視聴コンテンツ提供方法

Publications (2)

Publication Number Publication Date
JP2006099195A true JP2006099195A (ja) 2006-04-13
JP4311322B2 JP4311322B2 (ja) 2009-08-12

Family

ID=35464380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004281467A Expired - Fee Related JP4311322B2 (ja) 2004-09-28 2004-09-28 視聴コンテンツ提供システム及び視聴コンテンツ提供方法

Country Status (5)

Country Link
US (1) US7660825B2 (ja)
EP (1) EP1641157A3 (ja)
JP (1) JP4311322B2 (ja)
KR (1) KR20060051754A (ja)
CN (1) CN100585698C (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016482A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置および情報処理方法
JP2010060850A (ja) * 2008-09-04 2010-03-18 Nec Corp 議事録作成支援装置、議事録作成支援方法、議事録作成支援用プログラム及び議事録作成支援システム
JP2011134199A (ja) * 2009-12-25 2011-07-07 Denso It Laboratory Inc コンテンツ提供システム、コンテンツ提供方法およびプログラム
JP2011139441A (ja) * 2009-12-03 2011-07-14 Panasonic Corp 視聴端末装置、視聴統計装置、視聴統計処理システムおよび視聴統計処理方法
CN102668595A (zh) * 2009-10-26 2012-09-12 夏普株式会社 扬声器系统、视频显示装置及电视接收机
JP2014011489A (ja) * 2012-06-27 2014-01-20 Nikon Corp 電子機器
JP2016066173A (ja) * 2014-09-24 2016-04-28 ソフトバンク株式会社 情報提供システム及び情報提供装置
US9349372B2 (en) 2013-07-10 2016-05-24 Panasonic Intellectual Property Corporation Of America Speaker identification method, and speaker identification system
JP2016109897A (ja) * 2014-12-08 2016-06-20 シャープ株式会社 電子機器、発話制御方法、およびプログラム
JP2016149076A (ja) * 2015-02-13 2016-08-18 日本電信電話株式会社 関係性判定装置、関係性判定方法及び関係性判定プログラム
CN105959806A (zh) * 2016-05-25 2016-09-21 乐视控股(北京)有限公司 节目推荐方法及装置
JP2016170817A (ja) * 2016-06-23 2016-09-23 日本電信電話株式会社 関係性判定装置、学習装置、関係性判定方法、学習方法及びプログラム
JP2016207012A (ja) * 2015-04-24 2016-12-08 株式会社Nttドコモ 検索装置、検索システム及びプログラム
WO2017073366A1 (ja) * 2015-10-28 2017-05-04 京セラ株式会社 再生装置
US9911421B2 (en) 2013-06-10 2018-03-06 Panasonic Intellectual Property Corporation Of America Speaker identification method, speaker identification apparatus, and information management method
WO2019097674A1 (ja) * 2017-11-17 2019-05-23 日産自動車株式会社 車両用操作支援装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8487772B1 (en) * 2008-12-14 2013-07-16 Brian William Higgins System and method for communicating information
WO2014139058A1 (en) * 2013-03-15 2014-09-18 Yahoo! Inc. Method and system for presenting personalized content
CN105611191B (zh) * 2016-01-29 2019-01-01 高翔 语音视频文件合成方法、装置及系统
CN109036436A (zh) * 2018-09-18 2018-12-18 广州势必可赢网络科技有限公司 一种声纹数据库建立方法、声纹识别方法、装置及系统
US20220108704A1 (en) * 2020-10-06 2022-04-07 Clanz Technology Ltd Real-time detection and alert of mental and physical abuse and maltreatment in the caregiving environment through audio and the environment parameters

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335011A (en) * 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
US5861906A (en) * 1995-05-05 1999-01-19 Microsoft Corporation Interactive entertainment network system and method for customizing operation thereof according to viewer preferences
US5848396A (en) * 1996-04-26 1998-12-08 Freedom Of Information, Inc. Method and apparatus for determining behavioral profile of a computer user
EP0963115A1 (en) * 1998-06-05 1999-12-08 THOMSON multimedia Apparatus and method for selecting viewers' profile in interactive TV
US6807367B1 (en) * 1999-01-02 2004-10-19 David Durlach Display system enabling dynamic specification of a movie's temporal evolution
JP2000348050A (ja) 1999-06-07 2000-12-15 Hitachi Ltd 商品情報提供方法及びその実施装置並びにその処理プログラムを記録した記録媒体
US8528019B1 (en) * 1999-11-18 2013-09-03 Koninklijke Philips N.V. Method and apparatus for audio/data/visual information
JP2001290722A (ja) * 2000-04-07 2001-10-19 Sony Corp 情報提供装置および方法、並びに配信装置および方法
US6971973B2 (en) * 2000-05-24 2005-12-06 Netpulse, Llc Custom content delivery for networked exercise equipment
DE60144300D1 (de) * 2000-10-20 2011-05-05 Fujifilm Corp Bildverarbeitungsvorrichtung, welche Informationen mit einem identifizierten Subjekt des Bildes verknüpft
US6964023B2 (en) * 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
JP3644502B2 (ja) * 2001-02-06 2005-04-27 ソニー株式会社 コンテンツ受信装置およびコンテンツ呈示制御方法
US20020119823A1 (en) * 2001-02-28 2002-08-29 Beuscher Jarrell A. Method and apparatus for interactive audience participation in a live event
JP2002259392A (ja) * 2001-03-06 2002-09-13 Canon Inc 受信装置、情報処理装置及びその方法
US7735013B2 (en) * 2001-03-16 2010-06-08 International Business Machines Corporation Method and apparatus for tailoring content of information delivered over the internet
EP1388036A4 (en) * 2001-04-20 2008-01-09 France Telecom Res And Dev L L SUBSCRIBER INTERFACE DEVICE FOR USE WITH AN INTELLIGENT CONTENT BROADCAST NETWORK AND METHOD OF OPERATING THE SAME
GB2398423B (en) * 2001-07-27 2005-12-14 Hewlett Packard Co Monitoring of crowd response to performances
US7631327B2 (en) * 2001-08-08 2009-12-08 Accenture Global Services Gmbh Enhanced custom content television
US20030101227A1 (en) * 2001-11-28 2003-05-29 Fink Alan Walter Message collaborator
US20030126013A1 (en) * 2001-12-28 2003-07-03 Shand Mark Alexander Viewer-targeted display system and method
US7493259B2 (en) * 2002-01-04 2009-02-17 Siebel Systems, Inc. Method for accessing data via voice
JP2003271635A (ja) 2002-03-12 2003-09-26 Nippon Telegr & Teleph Corp <Ntt> コンテンツ選択提供方法および装置とコンテンツ選択提供プログラムおよび該プログラムを記録したコンピュータ読取り可能な記録媒体
US20040032486A1 (en) * 2002-08-16 2004-02-19 Shusman Chad W. Method and apparatus for interactive programming using captioning
JP2003308328A (ja) * 2002-04-16 2003-10-31 Nippon Telegr & Teleph Corp <Ntt> コンテンツ連携再生装置、方法、プログラムおよび記録媒体
CA2483042C (en) * 2002-04-22 2016-06-14 Nielsen Media Research, Inc. Methods and apparatus to collect audience information associated with a media presentation
US7870575B2 (en) * 2002-04-29 2011-01-11 The Boeing Company Methodology for display/distribution of multiple content versions based on demographics
US20030237093A1 (en) * 2002-06-19 2003-12-25 Marsh David J. Electronic program guide systems and methods for handling multiple users
US7260601B1 (en) * 2002-06-28 2007-08-21 Cisco Technology, Inc. Methods and apparatus for transmitting media programs
JP4198951B2 (ja) 2002-07-17 2008-12-17 独立行政法人科学技術振興機構 グループ属性推定方法及びグループ属性推定装置
US20040088212A1 (en) * 2002-10-31 2004-05-06 Hill Clarke R. Dynamic audience analysis for computer content
CA2509644A1 (en) * 2002-12-11 2004-06-24 Nielsen Media Research, Inc. Detecting a composition of an audience
US20040113939A1 (en) * 2002-12-11 2004-06-17 Eastman Kodak Company Adaptive display system
JP2004227158A (ja) 2003-01-21 2004-08-12 Omron Corp 情報提供装置および情報提供方法
US8464290B2 (en) * 2003-08-01 2013-06-11 Tacoda, Inc. Network for matching an audience with deliverable content
US20050097595A1 (en) * 2003-11-05 2005-05-05 Matti Lipsanen Method and system for controlling access to content
US7287221B2 (en) * 2004-01-13 2007-10-23 International Business Machines Corporation Differential dynamic content delivery with text display in dependence upon sound level
US20050186947A1 (en) * 2004-02-20 2005-08-25 Miller John S. Technique for providing personalized service features for users of an information assistance service
US20050273833A1 (en) * 2004-05-14 2005-12-08 Nokia Corporation Customized virtual broadcast services
WO2006066052A2 (en) * 2004-12-16 2006-06-22 Sonic Solutions Methods and systems for use in network management of content

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010016482A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置および情報処理方法
JP2010060850A (ja) * 2008-09-04 2010-03-18 Nec Corp 議事録作成支援装置、議事録作成支援方法、議事録作成支援用プログラム及び議事録作成支援システム
CN102668595A (zh) * 2009-10-26 2012-09-12 夏普株式会社 扬声器系统、视频显示装置及电视接收机
JPWO2011052543A1 (ja) * 2009-10-26 2013-03-21 シャープ株式会社 スピーカシステム、映像表示装置、およびテレビ受像機
JP2011139441A (ja) * 2009-12-03 2011-07-14 Panasonic Corp 視聴端末装置、視聴統計装置、視聴統計処理システムおよび視聴統計処理方法
JP2011134199A (ja) * 2009-12-25 2011-07-07 Denso It Laboratory Inc コンテンツ提供システム、コンテンツ提供方法およびプログラム
JP2014011489A (ja) * 2012-06-27 2014-01-20 Nikon Corp 電子機器
US9911421B2 (en) 2013-06-10 2018-03-06 Panasonic Intellectual Property Corporation Of America Speaker identification method, speaker identification apparatus, and information management method
US9349372B2 (en) 2013-07-10 2016-05-24 Panasonic Intellectual Property Corporation Of America Speaker identification method, and speaker identification system
JP2016066173A (ja) * 2014-09-24 2016-04-28 ソフトバンク株式会社 情報提供システム及び情報提供装置
JP2016109897A (ja) * 2014-12-08 2016-06-20 シャープ株式会社 電子機器、発話制御方法、およびプログラム
JP2016149076A (ja) * 2015-02-13 2016-08-18 日本電信電話株式会社 関係性判定装置、関係性判定方法及び関係性判定プログラム
JP2016207012A (ja) * 2015-04-24 2016-12-08 株式会社Nttドコモ 検索装置、検索システム及びプログラム
WO2017073366A1 (ja) * 2015-10-28 2017-05-04 京セラ株式会社 再生装置
JP2017085350A (ja) * 2015-10-28 2017-05-18 京セラ株式会社 再生装置
US10331397B2 (en) 2015-10-28 2019-06-25 Kyocera Corporation Reproduction apparatus
CN105959806A (zh) * 2016-05-25 2016-09-21 乐视控股(北京)有限公司 节目推荐方法及装置
JP2016170817A (ja) * 2016-06-23 2016-09-23 日本電信電話株式会社 関係性判定装置、学習装置、関係性判定方法、学習方法及びプログラム
WO2019097674A1 (ja) * 2017-11-17 2019-05-23 日産自動車株式会社 車両用操作支援装置
JPWO2019097674A1 (ja) * 2017-11-17 2020-12-03 日産自動車株式会社 車両用操作支援装置
JP7024799B2 (ja) 2017-11-17 2022-02-24 日産自動車株式会社 車両用操作支援装置

Also Published As

Publication number Publication date
US7660825B2 (en) 2010-02-09
EP1641157A3 (en) 2012-05-16
KR20060051754A (ko) 2006-05-19
JP4311322B2 (ja) 2009-08-12
EP1641157A2 (en) 2006-03-29
CN100585698C (zh) 2010-01-27
CN1790484A (zh) 2006-06-21
US20060080357A1 (en) 2006-04-13

Similar Documents

Publication Publication Date Title
US7660825B2 (en) Audio/visual content providing system and audio/visual content providing method
US11334804B2 (en) Cognitive music selection system and method
US8418193B2 (en) Information processing terminal, information processing method, and program
EP3276617A1 (en) Systems and methods for automatic-generation of soundtracks for live speech audio
USRE43406E1 (en) Method and device for speech analysis
US8965764B2 (en) Electronic apparatus and voice recognition method for the same
US20080235018A1 (en) Method and System for Determing the Topic of a Conversation and Locating and Presenting Related Content
US20110295843A1 (en) Dynamic generation of contextually aware playlists
US10409547B2 (en) Apparatus for recording audio information and method for controlling same
US20090144071A1 (en) Information processing terminal, method for information processing, and program
KR101983635B1 (ko) 개인방송 컨텐츠 추천방법
WO2020208894A1 (ja) 情報処理装置、及び情報処理方法
US8046384B2 (en) Information processing apparatus, information processing method and information processing program
US20230336694A1 (en) Tagging Characteristics of an Interpersonal Encounter Based on Vocal Features
JP2006092430A (ja) 音楽再生装置
US12047660B2 (en) Information processing apparatus, information processing method, and program
JP2011128790A (ja) ユーザ情報処理プログラム、ユーザ情報処理装置、及び、ユーザ情報処理方法
KR20190000246A (ko) 감정 기반 사운드 제어 장치 및 제어 방법
KR102135076B1 (ko) 인공지능 스피커를 이용한 감성 기반의 사용자 맞춤형 뉴스 추천 시스템
JP2023175013A (ja) 嗜好判断システム、嗜好判断方法、および、プログラム
JP2005049773A (ja) 音楽再生装置
KR20090011685A (ko) 영상추론을 이용한 노래방 서비스 시스템 및 그 방법과이를 위한 노래방 서비스 서버
JP7327161B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2014164112A (ja) 電気機器
US20230367281A1 (en) Systems and methods for generating a continuous music soundscape using a text-bsed sound engine

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090421

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090504

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120522

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130522

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees