JPWO2008029889A1 - 情報処理端末、音楽情報生成方法、およびプログラム - Google Patents

情報処理端末、音楽情報生成方法、およびプログラム Download PDF

Info

Publication number
JPWO2008029889A1
JPWO2008029889A1 JP2008533202A JP2008533202A JPWO2008029889A1 JP WO2008029889 A1 JPWO2008029889 A1 JP WO2008029889A1 JP 2008533202 A JP2008533202 A JP 2008533202A JP 2008533202 A JP2008533202 A JP 2008533202A JP WO2008029889 A1 JPWO2008029889 A1 JP WO2008029889A1
Authority
JP
Japan
Prior art keywords
information
emotion
music
unit
processing terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008533202A
Other languages
English (en)
Other versions
JP5225847B2 (ja
Inventor
哲郎 杉本
哲郎 杉本
勇介 佐藤
勇介 佐藤
朋子 小濱
朋子 小濱
松尾 英明
英明 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008533202A priority Critical patent/JP5225847B2/ja
Publication of JPWO2008029889A1 publication Critical patent/JPWO2008029889A1/ja
Application granted granted Critical
Publication of JP5225847B2 publication Critical patent/JP5225847B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0083Recording/reproducing or transmission of music for electrophonic musical instruments using wireless transmission, e.g. radio, light, infrared
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/005Voice controlled instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本発明は、音声から感情を特定し、その特定した感情に好適な音楽を音出力することによって、その音声を発した話者の感情を容易に認識することができる情報処理端末を提供することを目的とする。本発明の情報処理端末は、感情推定部23が、音情報から、当該音情報に含まれる音声を発した発話者の感情を少なくとも2つ検出し、音楽データ生成部24が、感情推定部23により検出した感情に対応する、音楽パーツデータベース242に記憶した音楽データを合成し、制御部22が、音楽データ生成部24により生成した音楽データを再生する。

Description

本発明は、音楽データ(音楽データのデータ形式としては、例えばWAV形式、MIDI形式、MP3形式などが挙げられる)によって構成される音楽情報を少なくとも2つ合成する情報処理端末、音楽情報生成方法、およびこの音楽情報生成方法をコンピュータに実行させるためのプログラムに関する。
人が発する声から、具体的には声の音量、声の波形、声のピッチ、または、音韻などから、その人の感情を推定する技術が開示されている(特許文献1)。ある音声により推定される感情の主要因子としては、喜び、悲しみ、驚き、嫌悪、怒り、恐れといった6因子を用いることが多い。
また、特許文献2には、上述の人の感情を推定する技術を利用して、音声通話時の音声から感情を特定し、その特定した感情を一目で連想させる静止画像あるいは動画像をディスプレイに再生する情報処理端末が開示されている。
国際公開番号第00/62279号パンフレット 特開2006−106711号公報
近年、人の感情を音により表現する手法が広く利用されている。例えばテレビ放送では、テレビ放送を視聴している視聴者に対して、あるシーンを視聴した視聴者が抱くであろう感情に相応しい効果音をそのシーンがテレビ出力されるときに出力することによって、そのシーンを視聴した視聴者が所定の感情を抱き易いようになっている。また、音のみによって、その音により表現されている感情を人が認識する場合には、人によって認識する感情に若干のズレがあるものの、概ね共通の感情を認識する傾向にある。
本発明は、上記事情に鑑みてなされたもので、音声から感情を特定し、その特定した感情に好適な音楽を音出力することによって、その音声を発した話者の感情を容易に認識することができる情報処理端末、音楽情報生成方法、およびプログラムを提供することを目的とする。
本発明の情報処理端末は、感情を特定可能な情報を含む感情特定用情報から、当該感情特定用情報に含まれる感情を検出する感情検出部と、人間が表す感情に対応させた音楽情報を記憶する音楽記憶部と、前記音楽記憶部に記憶した少なくとも2つの前記音楽情報を合成して別の音楽情報を生成する音楽合成部と、音楽情報を出力する音楽出力部と、を備え、前記感情検出部が、前記感情特定用情報から、前記感情を少なくとも2つ検出し、前記音楽合成部が、前記感情検出部により検出した前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成し、前記音楽再生部が、前記音楽合成部により生成した前記別の音楽情報を出力する、ものである。
また、本発明の情報処理端末は、前記感情特定用情報が、音情報であり、前記感情検出部が、前記音情報から、当該音情報に含まれる音声を発した発話者の感情を少なくとも2つ検出する、ものを含む。
また、本発明の情報処理端末は、前記感情特定用情報が、文字情報であり、前記感情検出部が、前記文字情報から、当該文字情報により構成される文章を作成した作成者の感情を少なくとも2つ検出する、ものを含む。
また、本発明の情報処理端末は、前記感情特定用情報が、画像情報であり、前記感情検出部が、前記画像情報から、当該画像情報を再生した画像に写される被撮影者の感情を少なくとも2つ検出する、ものを含む。
本発明の音楽情報生成方法は、感情を特定可能な情報を含む感情特定用情報から、当該感情特定用情報に含まれる感情を少なくとも2つ検出し、検出した前記感情それぞれに対応する音楽情報を取得し、取得した前記音楽情報を合成して別の音楽情報を生成し、生成した前記別の音楽情報を出力する、ものである。
本発明のプログラムは、コンピュータに、本発明の音楽情報生成方法を実行させるためのものである。
この構成により、音声を発した話者の感情をその感情を表現する音楽から認識することができる。
また、本発明の情報処理端末は、前記音情報を入力する音情報入力部を備え、前記感情検出部が、前記音情報入力部により入力した前記音情報から、当該音情報に含まれる音声を発した発話者の感情を検出する、ものを含む。
また、本発明の情報処理端末は、通信部を備え、前記音情報入力部が、前記通信部を利用した音声通話により通話先の電話装置から得られる音情報を入力する、ものを含む。
この構成により、同一の端末で、音声の入力と、その音声を発話した発話者の感情の特定と、を行うことができるため、利用者の利便性が高まる。
また、本発明の情報処理端末は、収音する収音部を備え、前記音情報入力部が、前記収音部により収音した音情報を入力する、ものを含む。
また、本発明の情報処理端末は、前記文字情報を入力する文字情報入力部を備え、前記感情検出部が、前記文字情報入力部により入力した前記文字情報から、当該文字情報により構成される文章を作成した作成者の感情を検出する、ものを含む。
この構成によれば、通話相手および通話者本人が他方に発話する音情報から、音声を発した話者の感情をその感情を表現する音楽から認識することができる。
また、本発明の情報処理端末は、通信部を備え、前記文字情報入力部が、前記通信部により受信した電子メールに情報として含まれる文字情報を入力する、ものを含む。
また、本発明の情報処理端末は、操作部を備え、前記文字情報入力部が、前記操作部により受け付けた文字入力操作に対応する文字情報を入力する、ものを含む。
この構成によれば、電子メールに記載されたメールタイトルやメール本文からそのメールを作成した作成者の感情を特定することができる。
また、本発明の情報処理端末は、前記画像情報を入力する画像情報入力部を備え、前記感情検出部が、前記画像情報入力部により入力した前記画像情報から、当該画像情報を再生した画像に写される被撮影者の感情を検出する、ものを含む。
また、本発明の情報処理端末は、撮影部を備え、前記画像情報入力部が、前記撮影部により撮影した画像を入力する、ものを含む。
また、本発明の情報処理端末は、通信部を備え、前記画像情報入力部が、前記通信部により受信した画像情報を入力する、ものを含む。
この構成によれば、画像からその画像に写っている被撮影者の感情を特定することにより、画像の新たな用途を提案することができる。
また、本発明の情報処理端末は、前記感情検出部が、複数の感情特定用情報毎に、当該感情特定用情報に含まれる感情をそれぞれ検出する、ものを含む。
この構成により、音情報を入力すればその都度、その音情報に含まれる音声を発した話者の感情を特定することができる。
また、本発明の情報処理端末は、前記感情特定用情報に含まれる感情を発露した発露者を特定する発話者特定部と、前記発話者特定部により特定した前記発露者と、前記感情検出部により検出した感情と、を各感情特定用情報毎に関連付ける関連付け部と、を備え、前記音楽合成部が、前記関連付け部により前記発露者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、ものを含む。
本発明の音楽情報生成方法は、感情を特定可能な情報を含む感情特定用情報から少なくとも2つ検出される、当該感情特定用情報に含まれる感情と、当該感情を発露した発露者と、を各感情特定用情報毎に関連付け、前記発露者に関連付けた少なくとも2つの前記感情それぞれに対応する音楽情報を取得し、取得した前記音楽情報を合成して別の音楽情報を生成し、生成した前記別の音楽情報を出力する、ものである。
また、本発明の音楽情報生成方法は、前記感情特定用情報を入力し、入力した前記感情特定用情報から、当該感情特定用情報に含まれる感情を検出する、ものを含む。
また、本発明の情報処理端末は、前記音情報に含まれる音声を発する前記発話者を特定する発話者特定部と、前記発話者特定部により特定した前記発話者と、前記感情検出部により検出した感情と、を各音情報毎に関連付ける関連付け部と、を備え、前記音楽合成部が、前記関連付け部により前記発話者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、ものを含む。
また、本発明の情報処理端末は、通信部を備え、前記発話者特定部が、前記通信部を利用した音声通話を行う場合に通話先の電話装置から通知される通話者識別情報を利用して、前記音情報に含まれる音声を発する前記発話者を特定する、ものを含む。
また、本発明の情報処理端末は、前記関連付け部が、前記発話者特定部により特定した前記発話者と、前記感情検出部により検出した感情と、を各音声通話毎に関連付ける、ものを含む。
また、本発明の情報処理端末は、前記音楽合成部が、前記関連付け部により各音声通話毎に前記発話者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を、当該音声通話が行われた時刻に基づいた順序に従って合成する、ものを含む。
本発明の音楽情報生成方法は、音声通話に利用される音情報を入力し、入力した音情報から少なくとも2つ検出される、当該音情報に含まれる音声を発した発話者の感情と、通話先の電話装置が通知する通話者識別情報を利用して特定される、前記音情報に含まれる音声を発する前記発話者と、を各音声通話毎に関連付け、各音声通話毎に前記発話者に関連付けた少なくとも2つの前記感情に対応する前記音楽情報を取得し、取得した前記音楽情報を前記音声通話が行われた時刻に基づいた順序に従って合成して別の音楽情報を生成し、生成した前記別の音楽情報を出力する、ものである。
また、本発明の情報処理端末は、前記文字情報により構成される文章を作成した前記作成者を特定する作成者特定部と、前記作成者特定部により特定した前記作成者と、前記感情検出部により検出した感情と、を各文字情報毎に関連付ける関連付け部と、を備え、前記音楽合成部が、前記関連付け部により前記作成者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、ものを含む。
また、本発明の情報処理端末は、通信部を備え、前記作成者特定部が、前記通信部を利用して電子メールを受信する場合に電子メールの送信元から通知される送信元識別情報を利用して、前記文字情報により構成される文章を作成した前記作成者を特定する、ものを含む。
また、本発明の情報処理端末は、前記関連付け部が、前記作成者特定部により特定した前記作成者と、前記感情検出部により検出した感情と、を各電子メール毎に関連付ける、ものを含む。
また、本発明の情報処理端末は、前記音楽合成部が、前記関連付け部により各電子メール毎に前記作成者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を、当該電子メールを受信した時刻に基づいた順序に従って合成する、ものを含む。
本発明の音楽情報生成方法は、電子メールに情報として含まれる文字情報を入力し、入力した文字情報から少なくとも2つ検出される、当該文字情報により構成される文章を作成した作成者の感情と、電子メールの送信元が通知する送信元識別情報を利用して特定される、前記文字情報により構成される文章を作成した前記作成者と、を各電子メール毎に関連付け、各電子メール毎に前記作成者に関連付けた少なくとも2つの前記感情に対応する前記音楽情報を取得し、取得した前記音楽情報を前記電子メールを受信した時刻に基づいた順序に従って合成して別の音楽情報を生成し、生成した前記別の音楽情報を出力する、ものである。
また、本発明の情報処理端末は、前記画像情報を再生した画像に写される前記被撮影者を特定する被撮影者特定部と、前記被撮影者特定部により特定した前記被撮影者と、前記感情検出部により検出した感情と、を各画像情報毎に関連付ける関連付け部と、を備え、前記音楽合成部が、前記関連付け部により前記被撮影者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、ものを含む。
また、本発明の情報処理端末は、通信部を備え、前記被撮影者特定部が、前記通信部を利用して画像情報を受信する場合に送信元から通知される送信元識別情報を利用して、前記画像情報を再生した画像に写される前記被撮影者を特定する、ものを含む。
また、本発明の情報処理端末は、前記関連付け部が、前記被撮影者特定部により特定した前記被撮影者と、前記感情検出部により検出した感情と、を受信した画像情報毎に関連付ける、ものを含む。
また、本発明の情報処理端末は、前記音楽合成部が、前記関連付け部により前記画像情報毎に前記被撮影者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を、前記画像情報を受信した時刻に基づいた順序に従って合成する、ものを含む。
また、本発明の音楽情報生成方法は、受信した画像情報を入力し、入力した画像情報から少なくとも2つ検出される、当該画像情報を再生した画像に写される被撮影者の感情と、前記画像情報の送信元が通知する送信元識別情報を利用して特定される、前記画像情報を再生した画像に写される前記被撮影者と、を受信した画像情報毎に関連付け、受信した各画像情報毎に前記被撮影者に関連付けた少なくとも2つの前記感情に対応する前記音楽情報を取得し、取得した前記音楽情報を前記画像情報を受信した時刻に基づいた順序に従って合成して別の音楽情報を生成し、生成した前記別の音楽情報を出力する、ものである。
この構成により、特定の発話者の感情のみを選択的に取捨選択して、その感情に対応する音楽を聴くことができる。
また、本発明の情報処理端末は、前記音楽出力部が、前記音楽合成部により生成した前記別の音楽情報を再生する、ものを含む。
この構成により、感情を特定する機能と、特定した感情に対応する音楽を再生する機能と、が同一の装置にあるため、装置利用者の利便性が向上する。
また、本発明の情報処理端末は、前記音楽出力部が、前記音楽合成部により生成した前記別の音楽情報を他の端末に送信する、ものを含む。
この構成により、感情を特定する機能を備えていない他の端末に、感情を特定する機能を備えた端末がその特定した感情に対応する音楽を送信することにより、その他の端末でもある感情に対応する音楽を聴くことができる。
また、本発明の情報処理端末は、前記音楽出力部が、前記音楽合成部により生成した前記別の音楽情報を記憶装置に出力して記憶させる、ものを含む。
この構成により、特定した感情に対応する音楽を何度でも聴くことができる。
本発明の情報処理端末、音楽情報生成方法およびプログラムによれば、音声から感情を特定し、その特定した感情に好適な音楽を音出力することによって、その音声を発した話者の感情を容易に認識することができる。
本発明の実施の形態の携帯電話による処理の音楽情報生成処理の概要 本発明の第1実施形態の携帯電話の機能ブロック図 音声波形と音声波形の各区間毎に特定される感情との関係を示す図 本発明の第1実施形態の携帯電話が記憶する感情についての情報の概念図 本発明の第1実施形態の携帯電話が記憶する音楽パーツの概念図 本発明の第1実施形態の携帯電話による音楽データ合成処理を説明するための楽譜の例 本発明の第1実施形態の携帯電話による感情推定処理の流れを表すフローチャート 本発明の第1実施形態の携帯電話による音楽データ再生処理の流れを表すフローチャート 本発明の第2実施形態の携帯電話が記憶する感情についての情報の概念図 本発明の第2実施形態の携帯電話による音楽データ再生処理の流れを表すフローチャート 本発明の第3実施形態の携帯電話が記憶する感情についての情報の概念図
符号の説明
21 無線部
211 RF回路
212 ベースバンド回路
22 制御部
221 CPU
222 ROM
223 RAM
224 A/D回路
225 D/A回路
226 LCDコントローラ
227 入出力制御回路
23 感情推定部
231 感情推定回路
232 感情履歴データベース
24 音楽データ生成部
241 音楽データ生成回路
242 音楽パーツデータベース
25 スピーカ
26 マイク
27 操作キー
28 LCD
以下、本発明の情報処理端末の一例として携帯電話を挙げて説明する。図1に、本発明の実施の形態の携帯電話による処理の音楽情報生成処理の概要を示す。図1では、利用者A、B、Cがそれぞれ、携帯電話を利用しており、利用者Aと利用者Bとの間では携帯電話による音声通話が、利用者Bと利用者Cとの間では携帯電話によるデータ通信が、それぞれ行われているものとする。
利用者Aが利用する携帯電話は、利用者Bが利用する携帯電話との間での音声通話時に利用者Bが発話する音声から、利用者Bの感情を推定する。利用者Aが利用する携帯電話は、具体的には、人が発する声から、具体的には声の音量、声の波形、声のピッチ、または、音韻などから、喜び、悲しみ、驚き、嫌悪、怒り、恐れといった6因子のうちの少なくとも1つを利用者Bの感情として推定する。その後、利用者Aが利用する携帯電話は、予め当該携帯電話が備えるメモリやHDD等の記憶装置に記憶された、上述の各因子毎に割り当てられた音楽データ(音楽データのデータ形式としては、MIDI形式が挙げられる)のうち、推定した利用者Bの感情に対応する音楽データを特定する。そして、利用者Aが利用する携帯電話は、利用者Bとの音声通話時に利用者Bが抱いていた感情に対応する音楽を再生する操作を利用者Aから受け付けると、特定した音楽データを再生することになる。
この構成により、利用者Aは、音声通話時に利用者Bが抱いていた感情を音楽によって特定することができる。この結果、利用者Aが利用する携帯電話は、会話の雰囲気を音楽で表現することにより、人と人との繋がりを音楽で表現するという新たなコミュニケーションを実現することができる。この音楽は、利用者Aによってのみその音楽が生成された過程(つまり、音声通話の内容)を知られており、自身しか知らないという秘匿性はこの音楽に対する思い入れをますます強めることに繋がる。
一方、利用者Bが利用する携帯電話もまた、利用者Aが利用する携帯電話と同様に、利用者Aが利用する携帯電話との間での音声通話時に利用者Aが発話する音声から、利用者Aの感情を推定し、予め当該携帯電話が備える記憶装置に記憶された音楽データのうち、推定した利用者Aの感情に対応する音楽データを特定し、特定した音楽データを再生する。さらに、利用者Bが利用する携帯電話は、利用者Aが利用する携帯電話との間での音声通話時に利用者B自身が発話する音声から、利用者B自身の感情を推定し、その後、利用者Bが利用する携帯電話は、予め当該携帯電話が備えるメモリやHDD等の記憶装置に記憶された、上述の各因子毎に割り当てられた音楽データのうち、推定した利用者B自身の感情に対応する音楽データを特定する。そして、利用者Bが利用する携帯電話は、利用者Aとの音声通話時に利用者B自身が抱いていた感情に対応する音楽を再生する操作を利用者Bから受け付けると、特定した音楽データを再生することになる。
この構成により、利用者Bは、音声通話時に利用者B自身が抱いていた感情を音楽によって特定することができる。この結果、過去の会話の雰囲気を音楽で振り返ることにより、過去の音声通話において自身が通話相手に抱いていた感情を容易に思い起こすことができるようになる。
また、利用者Cが利用する携帯電話は、利用者Bが利用する携帯電話が特定した、利用者B自身の感情に対応する音楽データを、利用者Bが利用する携帯電話から何らかの情報伝達手段(例えば、無線通信機能、赤外線通信機能、または記憶媒体によるデータの受け渡し)によって取得する。この構成により、利用者Cは、ある音声通話において抱いた感情を他者にも知らせることを望む利用者Bから、利用者B自身の感情を表現する音楽データを取得することにより、利用者AとBのコミュニケーションによって創られた音楽(楽曲)を楽しむ、つまり音楽自体を楽しむことができる。
ところで、人と人とのコミュニケーションは、その複数人の間で何度か意思の伝達がなされる。本発明の実施の形態の携帯電話の場合も、複数の利用者間、例えば図1では利用者Aと利用者Bとの間で、複数回音声通話が行われることになる。利用者Aおよび利用者Bが利用する携帯電話は、各音声通話毎に、利用者Aあるいは利用者Bの感情を推定し、推定した利用者Bの感情に対応する音楽データを特定した後、特定した各音声通話毎の音楽データに関連を持たせずそれぞれ単独で再生しても、もちろん、人と人との繋がりを音楽で表現するという新たなコミュニケーションを実現することができる。以後、特定した各音声通話毎の音楽データに関連を持たせ、各音声通話毎の音楽データを連動して再生することにより、より一層効果的なコミュニケーションを促進することができる携帯電話について詳細に説明する。なお、以後、携帯電話を例に挙げて説明するが、これに限るものではない。音情報から発話者の感情を特定する機能と、様々な感情に対応する音楽データを記憶する機能と、音楽データを再生することができる機能と、を少なくとも備える情報処理端末が本発明の対象となり得る。
(第1実施形態)
図2に、本発明の第1実施形態の携帯電話の機能ブロック図を示す。本発明の第1実施形態の携帯電話は、無線部21、制御部22、感情推定部23、音楽データ生成部24、スピーカ25、マイク26、操作キー27、LCD28を含んで構成される。
無線部21は、RF回路211、ベースバンド回路212を含んで構成される。RF回路211は、携帯電話用の基地局から送信された所定の周波数帯の電波をアンテナを介して受信すると、その電波を復調し、復調した信号をベースバンド回路212に出力する。ベースバンド回路212は、入力した信号をデコードし、デコードして得られたデータを制御部22に出力する。また、ベースバンド回路212は、制御部22から他の情報処理端末に送信すべきデータを入力すると、そのデータをエンコードしてRF回路211に出力する。RF回路211は、ベースバンド回路212から入力したデータによって、無線通信に利用する搬送波を変調した電波をアンテナから送信する。
制御部22は、CPU221、ROM222、RAM223、A/D回路224、D/A回路225、LCDコントローラ226、入出力回路227を含んで構成される。制御部22は、LCD28への表示出力制御、操作キー27により受け付けた操作の検出、スピーカ25への音出力制御、マイク26からの音入力制御、感情推定部23への感情を推定するための音データの出力制御、音楽データ生成部24からの音楽データの入力制御、等を行う。
制御部22による具体的な処理を説明する。CPU221は、ROM222からプログラムやデータを読み取り、そのプログラムおよびデータに基づいてデータ処理を実行する。さらに、CPU221は、操作キー27からの操作入力を、制御部22と他の機能部との間でのデータの送受信を管理する入出力制御回路227を介して受け付けた場合には、その操作入力を反映したデータ処理を実行し、処理中のデータをRAM223に記憶させる。CPU221は、RAM223に記憶された表示用データを用いてLCD28に画像を表示させるようLCDコントローラ226を制御し、また、プログラム処理した結果生じる音出力用データをD/A回路225によってアナログ信号に変換させ、そのアナログ信号をスピーカ25に出力させる。
また、CPU221は、無線部21から音データ(例えば、音声通話用の音データ)を入力すると、その音データをD/A回路225によってアナログ信号に変換させ、そのアナログ信号をスピーカ25に出力させる。さらにCPU221は、マイク26から音に関する情報を含む電気信号を入力すると、その電気信号をA/D回路224によってデジタルデータである音データに変換させ、その音データを無線送信させるべく無線部21に出力する。
さらに、CPU221は、無線部21から入力した音データ、あるいはマイク26から入力した電気信号をA/D回路224によって変換した音データを感情推定部23に出力して、感情推定部23にその音データに含まれる発話者の音声からその発話者の感情を推定させる。また、CPU221は、感情推定部23から感情についての情報(喜び、悲しみ、驚き、嫌悪、怒り、恐れなどの感情を特定するための情報)を通知されると、その情報を音楽データ生成部24に出力する。また、CPU221は、音楽データ生成部24から入力した音楽データをD/A回路225によってアナログ信号に変換させ、そのアナログ信号をスピーカ25に出力させる。
感情推定部23は、感情推定回路231、感情履歴データベース232を含んで構成される。感情推定回路231は、制御部22から音データを入力すると、その音データに含まれる音声から、その音声を発話した発話者の感情を特定し、その特定した感情を制御部22に通知する。音データから感情を特定する手法の一例について、図3に示す音声波形と音声波形の各区間毎に特定される感情との関係を示す図を参照して説明する。再生し終えるまでに時間間隔Tかかる音データが図3に示す音声波形により音出力される場合、時間Tよりも時間間隔の短い時間間隔tによって音声波形を分割し、各時間間隔t毎の音声波形と、喜び、悲しみ、驚き、嫌悪、怒り、恐れなどの感情を音声により発露したときに特徴となる音声波形のサンプルと、をマッチングさせて、時間間隔tのある期間の音声波形が音声波形のサンプルと類似度が高ければその期間の感情をそのサンプルが示す感情として特定する。図3では、時間間隔tである期間t1、t2、t3、t4、t5において、それぞれの期間の感情を「楽」、「楽」、「無」(「無」は感情ではなく、音声波形のサンプルにこの期間の音声波形に該当するものが無いことを示す)、「無」、「怒」と特定している。このようにして音声波形の各期間において感情を特定した後、最も特定された期間が多かった感情をその音声波形の代表的な感情として特定する。なお、本発明において、音データに含まれる音声から、その音声を発話した発話者の感情を特定する手法は、これに限るものではない。
また、感情推定回路231は、感情を特定するたびにタイマ(図示せず)を参照して時刻情報を取得し、その時刻情報と特定した感情についての情報を感情履歴データベース232に出力し、その時刻情報と対応させてその感情についての情報を記憶させる。なお、音声通話を開始した時点を表す時刻情報や、音声通話終了後に感情の特定を行う場合には音声通話を終了した時点を表す時刻情報を、制御部22から入力する構成であっても構わない。図4に、本発明の第1実施形態の携帯電話が記憶する感情についての情報の概念図を示す。
音楽データ生成部24は、音楽データ生成回路241、音楽パーツデータベース242を含んで構成される。音楽データ生成回路241は、音楽パーツデータベース242に記憶されている複数の音楽データ(そのデータ形式は、例えばMIDI形式)から少なくとも2つの音楽データを読み取り、その読み取った音楽データを合成する。以下、音楽データ生成回路241による音楽データの合成処理、および音楽パーツデータベース242に記憶された音楽パーツについて説明する。まず、音楽パーツデータベース242に記憶された音楽パーツについて説明する。図5に、本発明の第1実施形態の携帯電話が記憶する音楽パーツの概念図を示す。
まず、音楽パーツとは、音楽データによって構成されるデータである。音楽パーツは、感情についての情報、例えば喜び、悲しみ、驚き、嫌悪、怒り、恐れ、のいずれかが属性として割り当てられており、その音楽パーツを構成する音楽データは、再生された時に音出力される音楽がその属性を聴者に連想させるデータ内容を持つ。音楽パーツデータベース242は、図4に示すように、複数の音楽パーツを記憶し、各音楽パーツは、音楽データn(n=1、2、・・・6)と属性n(n=1.「喜び」、n=2.「悲しみ」、n=3.「驚き」、n=4.「嫌悪」、n=5.「怒り」、n=6.「恐れ」)とにより構成される。音楽パーツデータベース242は、音楽データ生成回路241から感情の情報を通知されると、その感情の情報に対応する属性が割り当てられた音楽データを音楽データ生成回路241に返す。なお、音楽データの音楽内容については、後述する音楽データ生成回路241による処理に関する記載の中で、説明している。
音楽データ生成回路241は、制御部22から感情についての情報を通知されると、その感情についての情報が属性として割り当てられた音楽データを返すよう音楽パーツデータベース242に要求する。その後、音楽データ生成回路241は、音楽パーツデータベース242から音楽データを取得する。このとき、音楽データ生成回路241は、制御部22から感情についての情報を1つ通知された場合には、その感情についての情報が属性として割り当てられた1つの音楽データを音楽パーツデータベース242から取得し、制御部22にその1つの音楽データを出力する。一方、音楽データ生成回路241は、制御部22から感情についての情報を2つ以上(例えば、喜びと驚きについての感情)を通知された場合には、その感情についての情報それぞれが属性として割り当てられた2つの音楽データを音楽パーツデータベース242から取得し、その2つの音楽データを合成した別の音楽データを生成し、その別の音楽データを制御部22に出力する。以下、音楽データ生成回路241による2つの音楽データを合成する手法の一例を説明する。図6に、本発明の第1実施形態の携帯電話による音楽データ合成処理を説明するための楽譜の例を示す。
図6に示す(A)から(C)の楽譜を比較すると、この楽譜を演奏したときに聴者が受ける印象はまったく異なるものである。しかし、これらの楽譜をフレーズ単位で比較すると、楽曲(A)の第1小節は楽曲(B)の第2小節の一部と同様のフレーズFAとなっていおり、また、楽曲(B)の第1小節は楽曲(C)の第1小節および第2小節と同様のフレーズFCとなっている。このような点を鑑みると、聴者が受ける印象が全く異なる場合であっても、各楽曲の個々のフレーズをみると、共通するフレーズが複数の楽曲の中で利用されていることが多い。したがって、個々のフレーズを既存の楽曲から抽出し、そのフレーズを並べるようにすれば、新たな楽曲を生成することができる。例えば、フレーズFCと楽曲(A)のフレーズFBをつなげると、新たな楽曲(D)が生成され、フレーズFAと休止符と楽曲(C)のフレーズFDをつなげると新たな楽曲(E)ができる。これらの楽曲(D)及び(E)は、ともに十分な音楽的完成度を持っているという具合である。この新たな楽曲生成手法を本発明の第1実施形態の携帯電話による音楽データ合成処理に適用する。
すなわち、楽曲(A)におけるフレーズFBが感情「喜び」を表現する音楽データに、楽曲(B)におけるフレーズFCが感情「驚き」を表現する音楽データに、それぞれ対応している場合、音楽データ生成回路241は、制御部22から感情「驚き」、「喜び」についての情報を通知されると、音楽パーツデータベース242から属性「驚き」フレーズFCの音楽データおよび属性「喜び」フレーズFBの音楽データを取得する。その後、音楽データ生成回路241は、1.フレーズFCの音楽データ、2.フレーズFBの音楽データの順に、フレーズFCの音楽データおよびフレーズFBの音楽データを繋げた新たな楽曲(D)についての音楽データを制御部22に出力する。
以上のように説明した構成を備える、本発明の第1実施形態の携帯電話による感情推定処理の流れを説明する。図7に、本発明の第1実施形態の携帯電話による感情推定処理の流れを表すフローチャートを示す。なお、ここでは、音声通話により通話相手から送信される音情報から、通話相手の感情を特定する場合について記載している。携帯電話利用者本人の感情推定処理を行う場合も、感情推定処理を行うべき音情報の入力元が異なるだけで、如何に述べる処理と同様である。
携帯電話は、音声通話を開始すると、通話相手から送信される音声通話用の音データを利用して感情を推定する(ステップS71)。このとき、携帯電話は、音声通話開始から音声通話終了までの期間中、感情の推定を継続しても良いし、一期間(例えば、音声通話開始を開始点とする所定の時間)のみ感情の推定を行うようにしてもよい。携帯電話は、その音データからある感情を特定すると、感情を特定した時点を表す時刻情報と伴にその感情を感情履歴データベース232に記憶する(ステップS72)。携帯電話は、通話が終了すると、この音声通話に対する感情推定処理を終了する。その後、携帯電話は、別の音声通話を開始すると、同様の処理を繰り返す。
次に、本発明の第1実施形態の携帯電話による音楽データ再生処理の流れを説明する。図8に、本発明の第1実施形態の携帯電話による音楽データ再生処理の流れを表すフローチャートを示す。携帯電話は、操作キー27による操作によって、過去に行った音声通話によって通話相手が抱いていた感情を音出力する指示を受け付けると、感情履歴データベース232に記憶された、時刻情報と感情とを一組とするデータの個数を算出する(ステップS801)。携帯電話は、時刻情報と感情とを一組とするデータの個数が0であれば(ステップS802、NO)、感情推定された音声通話が無いことを携帯電話利用者に知らせるための画面をLCD28に表示させる(ステップS803)。また、携帯電話は、時刻情報と感情とを一組とするデータの個数が1であれば(ステップS802、YES、かつ、ステップS804、NO)、感情履歴データベース232からその感情についての情報を取得し(ステップS805)、その感情についての情報が属性として割り当てられた音楽パーツを音楽パーツデータベース242から検索し(ステップS806)、検出した音楽パーツを構成する音楽データを再生する(ステップS807)。また、携帯電話は、時刻情報と感情とを一組とするデータの個数が2つ以上であれば(ステップS804、YES)、感情履歴データベース232からその感情についての情報をそれぞれ取得し(ステップS808)、その感情についての情報が属性として割り当てられた音楽パーツを音楽パーツデータベース242からそれぞれ検索し(ステップS809)、検出した音楽パーツを構成する音楽データ(時刻情報と感情とを一組とするデータの個数と同等の数の音楽データ)を合成して1つの音楽データを生成し(ステップS810)、その生成した音楽データを再生する(ステップS811)。なお、複数の音楽データを合成する場合、例えば「喜び」、「驚き」、「怒り」の属性が割り当てられた音楽パーツを構成する音楽データを合成する場合、各属性に対応する時刻情報に基づいてこれらの音楽データを昇順あるいは降順に並べて合成する。昇順に並び替えればより過去の感情を表す音楽が先に再生されることになり、降順に並び替えれば最新の感情を表す音楽が先に再生されることになる。
なお、各属性に対応する時刻情報に基づいて複数の音楽データを昇順あるいは降順に並べる規則の他に、時刻情報として記憶した通話時間(音声通話を開始した時点からその音声通話を終了した時点までの期間を指す。感情を特定する度に、感情履歴データベース232に通話時間を時刻情報として記憶しておくようにする)の長さの短長に応じて、複数の音楽データを並べる規則を用いてもよいし、時刻情報として記憶した通話した曜日(音声通話を開始した曜日を指す。感情を特定する度に、感情履歴データベース232に通話した曜日を時刻情報として記憶しておくようにする)に応じて、例えば月曜日から日曜日の順に、複数の音楽データを並び替える規則を用いてもよいし、さらに、これらの複数の音楽データを並べる規則を組み合わせても構わない。また、携帯電話利用者の操作によって、携帯電話利用者が任意にその複数の音楽データを並び替えるようにしてもよい。
また、携帯電話は、音楽パーツを構成する音楽データを再生する場合、その音楽パーツに割り当てられた各属性が特定された時刻情報の日付に応じて、その音楽データの曲調を変えて再生してもよい。例えば、時刻情報の日付が12月24日であればオルゴール調に曲調を変えるなどである。この構成により、過去の通話内容を音楽再生により思い出すことがさらに容易になる。
以上、本発明の実施の形態の携帯電話によれば、音声通話から通話相手の感情を特定し、その特定した感情に好適な音楽を音出力することによって、その音声を発した話者の感情を容易に認識することができ、さらに、少なくとも2度の音声通話を行った場合には、各通話音声における通話相手の感情を特定し、その特定した感情に好適な音楽を合成することによって新たな音楽データを生成、再生することによって、通話相手の一連の感情の変化を一息に認識することができる。また、様々な組合せの音楽データを新に生成することができるため、利用者個人のオリジナルの音声データを作成できるという娯楽性が向上するという側面も持つ。
なお、本発明の情報処理端末を説明するにあたり、携帯電話による音声通話によって得られる音情報を基に、その音情報に含まれる音声を発話した発話者の感情を特定するようにしたが、音情報を入力する手段は音声通話に限るものではなく、マイクにより収音した音情報や、記憶媒体に記憶した音情報などから入力するようにしても本発明を実現することは可能である。
(第2実施形態)
次に、本発明の第2実施形態の携帯電話について説明する。本発明の第1実施形態の携帯電話では、感情推定回路231により特定した感情についての情報を感情履歴データベース232に記録する際、その感情についての情報とその感情が特定された時刻を示す時刻情報とを記録するようにした。本発明の第2実施形態の携帯電話では、さらに、その感情を発露した発話者についての情報も感情履歴データベース232に記録する構成について説明する。なお、本発明の第2実施形態の携帯電話の構成は、制御部22および感情推定部23による処理に新たな処理が加わる点を除いて、第1実施形態で図2を参照して説明した構成と同様であるため、説明を省略する。
制御部22のCPU221は、音声通話を開始するための処理として、無線部21を介して基地局から送信されてくる通話先の電話番号を受信すると、RAM223に記憶されている、近年の携帯電話が一機能として有する電話帳情報を参照して、その電話番号に該当する個人情報を特定し、その個人情報のうちの、通話相手を特定できる情報(例えば、氏名、所属グループ、住所など)を感情推定部23に出力する。
感情推定回路231は、制御部22から音データを入力すると、その音データに含まれる音声から、その音声を発話した発話者の感情を特定する(図7のステップS71の処理)。また、感情推定回路231は、感情を特定するたびにタイマ(図示せず)を参照して時刻情報を取得し、その時刻情報と、特定した感情についての情報と、さらに制御部22から入力した通話相手を特定できる情報を感情履歴データベース232に出力する。感情履歴データベース232は、通話相手を特定できる情報毎に、その時刻情報とその感情についての情報とにより構成される個人テーブルを生成、更新していく(図7のステップS72の処理)。なお、音声通話を開始した時点を表す時刻情報や、音声通話終了後に感情の特定を行う場合には音声通話を終了した時点を表す時刻情報を、制御部22から入力する構成であっても構わない。図9に、本発明の第2実施形態の携帯電話が記憶する感情についての情報の概念図を示す。図9では、通話相手を特定できる情報として、電話帳機能における個人情報を識別するために用いられる頻度が極めて高い氏名を記載している。氏名以外に所属グループ毎に、その時刻情報とその感情についての情報とにより構成されるグループテーブルを生成、更新してもよい。
以上のように説明した構成を備える、本発明の第2実施形態の携帯電話による処理の流れを説明する。図10に、本発明の第2実施形態の携帯電話による音楽データ再生処理の流れを表すフローチャートを示す。なお、本発明の第2実施形態の携帯電話による感情推定処理については、感情履歴データベース232に記録するデータ内容が異なる以外、第1実施形態で説明した感情推定処理と同様であるため、説明を省略する。また、図10のフローチャートにおいて、図8のフローチャートと同様の参照符号を割り当てたフローは、第1実施形態で説明したとおりであるため、説明を省略する。
携帯電話は、操作キー27による操作によって、過去に行った音声通話によって通話相手が抱いていた感情を音出力する指示、およびその通話相手を指定する操作を受け付けると、感情履歴データベース232に記憶された、個人テーブルを読み出し(ステップS1001)、その個人テーブルにおける時刻情報と感情とを一組とするデータの個数を算出する(ステップS1002)。以後の処理は、第1実施形態で説明したステップS803からステップS811の処理と同様である。
以上、本発明の第2実施形態の携帯電話によれば、音声通話を行ってその音声から感情を特定された通話相手のうちの特定の通話相手が、各通話で発露した感情に好適な音楽を合成することによって新たな音楽データを生成、再生することによって、特定の通話相手の一連の感情の変化を一息に認識することができる。
(第3実施形態)
次に、本発明の第3実施形態の携帯電話について説明する。本発明の第1、2実施形態の携帯電話では、感情履歴データベース232に記憶する感情についての情報は、感情推定回路231によって特定されたものであった。このため、感情推定回路231を備えていない携帯電話では、ある感情を表現した音楽を聞くことができないことになってしまう。本発明の第3実施形態の携帯電話では、感情推定回路231を備えていなくてもある感情を表現した音楽を聞くことができる携帯電話について説明する。なお、本発明の第3実施形態の携帯電話の構成は、制御部22による処理に新たな処理が加わる点および感情推定回路231が不要である点を除いて、第1実施形態で図2を参照して説明した構成と同様であるため、説明を省略する。
本発明の第3実施形態の携帯電話は、本発明の第1、第2実施形態の携帯電話と通信を行い、本発明の第1、第2実施形態の携帯電話が感情履歴データベース232に記憶している時刻情報と感情についての情報を取得する。すなわち、本発明の第3実施形態の携帯電話において、CPU221は、無線部21を介して他の携帯電話から受信した時刻情報と感情についての情報を感情履歴データベース232に記憶する。この構成であれば、感情推定回路231を備えていなくてもある感情を表現した音楽を聞くことができる。また、他の携帯電話利用者が抱いた感情を共有することができるという側面もある。また、本発明の第3実施形態の携帯電話が感情推定部23および音楽データ生成部23すら備えていない場合には、本発明の第1、第2実施形態の携帯電話が合成した音楽データを取得し、その音楽データを再生するようにすればよい。なお、本発明の第3実施形態携帯電話による、他の携帯電話からの時刻情報と感情についての情報との取得方法は、これに限るものではなく、無線通信機能、赤外線通信機能、または記憶媒体によるデータの受け渡しなども考えられる。
さらに、ここまでの第3実施形態では、音情報に含まれる音声からその音声の発話者の感情を特定する感情推定回路231を備えていない携帯電話について記載したが、当該感情推定回路231を備える本発明の第1、第2実施形態の携帯電話が、上述のように他の携帯電話に感情履歴データベース232に記憶されている時刻情報と感情についての情報を取得する構成にすれば、本発明の第1、第2実施形態の携帯電話は以下のことを実現することができる。図11に、本発明の第3実施形態の携帯電話が記憶する感情についての情報の概念図を示す。
すなわち、本発明の第1、第2実施形態の携帯電話は、他の携帯電話から、ある個人(この個人が他の携帯電話利用者と同一である場合も含む)における時刻情報と感情についての情報111(図11において、各個人テーブルにおいて点線で囲まれた部分の情報を指す)を取得し、感情履歴データベース232に記録した後、自端末が備える感情推定回路231により同じ個人との通話によって特定したその個人が発露した感情と時刻情報と(図11において、各個人テーブルにおいて実線で囲まれた部分の情報を指す)を、さらに感情履歴データベース232における同じ個人テーブルに記録する。この構成により、例えば、図1に示す利用者Aと利用者Bの通話により利用者Bが利用する携帯電話によって特定してきた感情についての情報111を利用者Bが利用する携帯電話から一旦取得すると、利用者Cが利用する携帯電話は、その取得した感情についての情報111に利用者Bとの通話によって新に特定される感情についての情報112を結合させることによって、さらに別の音楽データを生成することができる。この結果、利用者に対して、音楽データを育てるというこれまでの携帯電話にはない娯楽性を新たに提供することができる。
以上、本発明の第3実施形態の携帯電話によれば、音情報に含まれる音声から、その音声の発話者の感情を特定する機能を有していない携帯電話であっても、ある感情を表現した音楽を聞くことができる。
なお、本発明の第1実施形態から第3実施形態の携帯電話では、過去に行った音声通話によって通話相手が抱いていた感情を音出力する指示を操作キー27によって受け付ける度に、音楽データ生成部24が音楽データを生成するように記載したが、一旦生成した音楽データを携帯電話が備える記憶装置に記憶させるようにしてもよい。このとき、音楽データの形式をMIDIにすることが好ましい。この構成により、複数回の音声通話を行って感情を特定していく過程で、ある時点までの感情によって生成された音楽データが携帯電話利用者にとって好ましいものであったが、それ時点以後の感情を含んで生成された音楽データが携帯電話利用者にとって好ましいものでは無かった場合、その時点までの感情によって生成された音楽データを一旦記憶しておけば、携帯電話利用者にとって好ましい音楽のみを残しておくことができる。また、ある時点までの感情によって生成された音楽データを一旦記憶した場合、その時点までの感情についての情報を感情履歴データベース232から削除するおうにしてもよい。
また、ある時点までの感情によって生成された音楽データを一旦記憶する場合、この音楽データの名称に、ある時点までの感情を特定できる文字列を入力するように構成してもよい。例えば、ある時点までの感情についての情報「喜び」、「驚き」、「怒り」(なお、この順序は昇順とする)が属性として割り当てられている場合、その名称には「2006/06/23_喜驚怒.***」などと名称を設定する。なお、携帯電話利用者が名称を独自に設定してもよいし、電話帳に記録された個人情報から氏名、所属グループ名なども、その名称に設定してもよい。
また、本発明の第1実施形態から第3実施形態の携帯電話によって、音声通話が終了するたびに音楽データを生成し、その生成した音楽データを再生することによって、音声通話後にその会話の余韻を音楽で味わうようにしてもよい。また、通話履歴や電話帳を確認する際に、通話履歴に記載されている複数の通話相手や電話帳から選択したある個人とのこれまでの音声通話によって得られた感情から、音楽データを生成し、その生成した音楽データを再生することによって、最近の通話相手やある個人との過去の会話を容易に振り返ることができるようにしてもよい。なお、携帯電話がマナーモードに設定されているために、このように音楽データを再生することができない場合、音楽データを再生することができなかった旨をLCD28に表示するようにしてもよい。
また、本発明の第1実施形態から第3実施形態の携帯電話によって生成された音楽データの用途としては、携帯電話の着信音やアラーム音、携帯電話用の充電器に携帯電話を配置したときの報知音などが考えられる。
また、本発明の第1実施形態から第3実施形態の携帯電話によって音楽データを生成する際、ある時点までの感情が多すぎて、音楽データを生成したときにその再生時間が長くなってしまう場合(データ量が多くなってしまう場合)、ある時点までの感情のうちの最も新しいもの(あるいは、最も古いもの)から所定の個数だけ利用して音楽データを生成するようにすることが好ましい。過去の会話を振り返るという点で若干効果が抑えられるが、ある時点までの感情からランダムに選んだ感情によて音楽データを生成するようにしてもよい。
また、本発明の第1実施形態から第3実施形態の携帯電話では、音情報から特定した、その音情報に含まれる音声の発話者の感情を音楽によって利用者に通知する構成としたが、これと併せて、その感情を好適に表現した画像をLCD28に表示したり、その感情に合わせた色によってLEDを点灯させたり、発話者の感情に応じて生成した音楽のリズムに合わせてLEDを点滅させるようにしてもよい。
(第4実施形態)
本発明の第1実施形態から第3実施形態の携帯電話は、音情報(特に、音声通話時に入力する音情報)からその音情報に含まれる音声の発話者の感情を特定する構成について説明した。第4実施形態では、音情報とは異なる別の情報から、その別の情報を発した人物の感情を特定する携帯電話の構成例について説明する。
近年、文字や文章からその文字または文章を記載した人物の感情を推定する方法や、画像に含まれる顔画像からその顔が写された人物の感情を推定する方法が知られている。例えば、文字または文章を記載した人物の感情を推定する例としては、特定の記号や複数の記号によって1つのマークを形成する文字列(顔文字と称されることがある)などの文字情報の有無によってその記号やその文字列に関連付けられた感情をそれらを記載した人物の感情として推定したり、ある文章を構成する単語のうちの特定の単語の有無によってその単語に関連付けられた感情をその文章を記載した人物の感情として推定したり、する手法が知られている。なお、ある文章に、特定の記号や複数の記号によって1つのマークを形成する文字列が複数種類ある場合、またはその文章を構成する単語に特定の単語が複数種類含まれている場合には、推定されたそれぞれの感情から総合的にその文章を記載した人物の感情を推定するようにする(例えば、推定された回数が最も多い感情をその文章を記載した人物の代表的な感情とするなど)。
また、画像に含まれる顔画像からその顔が写された人物の感情を推定する例としては、画像(静止画像、動画像どちらであっても構わない)に含まれる顔の領域を抽出し、予め登録されている人間の各感情を表すテンプレート画像と抽出した顔の領域とをマッチングさせ、類似度の高いテンプレート画像に対応する感情をその顔によって表現される感情として推定する手法が挙げられる。また、別の例としては、動画像に含まれる顔の画像のうちの眉、目、口などの各部位について特徴点を設定し、複数の特徴点の位置の時間経過に伴う変化から感情を推定する手法が知られている。
本発明の第4実施形態の携帯電話は、文字データや動画像データなどのデータから、その文字データにより構成される文章を作成した人物の感情や動画像データにより再生される画像に含まれる人物の感情を推定する。その後の処理は、第1実施形態から第2実施形態の携帯電話と同様、予め当該携帯電話が備えるメモリやHDD等の記憶装置に記憶された、上述の感情毎に割り当てられた音楽データのうち、推定した感情に対応する音楽データを特定し、その感情に対応する音楽を再生する操作を携帯電話利用者から受け付けると、特定した音楽データを再生することになる。以下、本発明の第4実施形態の携帯電話における構成、および携帯電話による処理について説明する。なお、本発明の第4実施形態の携帯電話の構成は、制御部22のROM222やRAM223に新たなデータが記憶される点および感情推定部23による感情推定処理が第1実施形態から第3実施形態と異なる点を除いて、第1実施形態で図2を参照して説明した構成と同様であるため、その他の各部の説明を省略する。まず、文字データからその文字データにより構成される文章を作成した人物の感情を推定する構成について説明する。
制御部22は、ROM222やRAM223に文字データを記憶する。文字データをROM222やRAM223に記憶させる処理としては、操作キー27による文字入力操作によって入力された文字データを記憶したり、無線部21を介して受信した電子メールのメールタイトルやメール本文に記載されている文字データを記憶するなどの処理が考えられる。CPU221は、ROM222やRAM223に記憶された文字データを感情推定部23に出力して、感情推定部23にその文字データにより構成される文章を作成した人物の感情を推定させる。
感情推定部23の感情推定回路231は、制御部22から文字データを入力すると、その文字データに含まれる、特定の記号や複数の記号によって1つのマークを形成する文字列の有無によってその記号やその文字列に関連付けられた感情をそれらを記載した人物の感情として特定し、あるいは、ある文章を構成する単語のうちの特定の単語の有無によってその単語に関連付けられた感情をその文章を記載した人物の感情として特定し、その特定した感情を制御部22に通知する。
また、感情推定回路231は、感情を特定するたびにタイマ(図示せず)を参照して時刻情報を取得し、その時刻情報と特定した感情についての情報を感情履歴データベース232に出力し、その時刻情報と対応させてその感情についての情報を記憶させる。なお、操作キー27による一連の文字入力操作が完了した時点を表す時刻情報や、電子メールを受信した時点あるいは送信した時点を表す時刻情報を、制御部22から入力する構成であっても構わない。さらに、電子メールに含まれる文章から感情を特定する場合には、第2実施形態で説明した処理と同様に、RAM223に記憶されている、近年の携帯電話が一機能として有する電話帳情報を参照して、その電子メールの送信元の電子メールアドレスに該当する個人情報を特定し、その個人情報のうちの、電子メールの送信相手を特定できる情報(例えば、氏名、所属グループ、住所など)を感情推定部23に出力するようにしてもよい。なお、本発明の第4実施形態の携帯電話による感情履歴データベース232に記憶させた後の処理は、第1実施形態において図8のフローチャートを参照して説明した通りである。
次に、画像データに含まれる顔画像からその顔が写された人物の感情を特定する構成について説明する。なお、ここで述べる画像データは、静止画像や動画像いずれであっても構わない。制御部22は、ROM222やRAM223に画像データを記憶する。画像データをROM222やRAM223に記憶させる処理としては、近年の携帯電話に搭載されるカメラによって撮影された静止画像データや動画像データを記憶したり、無線部21を介して受信した電子メールに添付された画像データを記憶したり、TV電話時に入力される動画像データを記憶するなどの処理が考えられる。CPU221は、ROM222やRAM223に記憶された画像データを感情推定部23に出力して、感情推定部23にその画像データに含まれる顔画像からその顔が写された人物の感情を推定させる。
感情推定部23の感情推定回路231は、制御部22から画像データを入力すると、画像に含まれる顔の領域を抽出し、予め登録されている人間の各感情を表すテンプレート画像と抽出した顔の領域とをマッチングさせ、類似度の高いテンプレート画像に対応する感情をその顔によって表現される感情として特定する、あるいは、動画像データに含まれる顔の画像のうちの眉、目、口などの各部位について特徴点を設定し、複数の特徴点の位置の時間経過に伴う変化から感情を特定し、その特定した感情を制御部22に通知する。
また、感情推定回路231は、感情を特定するたびにタイマ(図示せず)を参照して時刻情報を取得し、その時刻情報と特定した感情についての情報を感情履歴データベース232に出力し、その時刻情報と対応させてその感情についての情報を記憶させる。なお、近年の携帯電話に搭載されるカメラによる一連の撮影が完了した時点を表す時刻情報や、画像データが添付された電子メールを受信した時点あるいは送信した時点を表す時刻情報や、画像データに含まれる、撮影した日時を表すインデックス情報を、制御部22から入力する構成であっても構わない。さらに、電子メールに添付された画像データから感情を特定する場合には、第2実施形態で説明した処理と同様に、RAM223に記憶されている、近年の携帯電話が一機能として有する電話帳情報を参照して、その電子メールの送信元の電子メールアドレスに該当する個人情報を特定し、その個人情報のうちの、電子メールの送信相手を特定できる情報(例えば、氏名、所属グループ、住所など)を感情推定部23に出力するようにしてもよい。なお、本発明の第4実施形態の携帯電話による感情履歴データベース232に記憶させた後の処理は、第1実施形態において図8のフローチャートを参照して説明した通りである。
以上、本発明の第4実施形態の携帯電話によれば、感情を特定するために参照する情報が異なる、様々な感情特定処理を本発明に適用することができる結果、本発明の対象製品として、実施形態で説明した携帯電話に限らず、様々な電子機器を対象とすることができる。
本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
本出願は、2006年9月8日出願の日本特許出願(特願2006−243863)に基づくものであり、その内容はここに参照として取り込まれる。
本発明の情報処理端末、音楽情報生成方法およびプログラムによれば、音声から感情を特定し、その特定した感情に好適な音楽を音出力することによって、その音声を発した話者の感情を容易に認識することができるという効果を奏し、音楽データ(音楽データのデータ形式としては、例えばWAV形式、MIDI形式、MP3形式などが挙げられる)によって構成される音楽情報を少なくとも2つ合成する情報処理端末の分野において有用である。
本発明は、音楽データ(音楽データのデータ形式としては、例えばWAV形式、MIDI形式、MP3形式などが挙げられる)によって構成される音楽情報を少なくとも2つ合成する情報処理端末、音楽情報生成方法、およびこの音楽情報生成方法をコンピュータに実行させるためのプログラムに関する。
人が発する声から、具体的には声の音量、声の波形、声のピッチ、または、音韻などから、その人の感情を推定する技術が開示されている(特許文献1)。ある音声により推定される感情の主要因子としては、喜び、悲しみ、驚き、嫌悪、怒り、恐れといった6因子を用いることが多い。
また、特許文献2には、上述の人の感情を推定する技術を利用して、音声通話時の音声から感情を特定し、その特定した感情を一目で連想させる静止画像あるいは動画像をディスプレイに再生する情報処理端末が開示されている。
国際公開番号第00/62279号パンフレット 特開2006−106711号公報
近年、人の感情を音により表現する手法が広く利用されている。例えばテレビ放送では、テレビ放送を視聴している視聴者に対して、あるシーンを視聴した視聴者が抱くであろう感情に相応しい効果音をそのシーンがテレビ出力されるときに出力することによって、そのシーンを視聴した視聴者が所定の感情を抱き易いようになっている。また、音のみによって、その音により表現されている感情を人が認識する場合には、人によって認識する感情に若干のズレがあるものの、概ね共通の感情を認識する傾向にある。
本発明の目的は、音声から感情を特定し、その特定した感情に好適な音楽を音出力することによって、その音声を発した話者の感情を容易に認識することができる情報処理端末、音楽情報生成方法、およびプログラムを提供することである。
本発明は、感情を特定可能な情報を含む感情特定用情報から、当該感情特定用情報に含まれる感情を検出する感情検出部と、人間が表す感情に対応させた音楽情報を記憶する音楽記憶部と、前記音楽記憶部に記憶した少なくとも2つの前記音楽情報を合成して別の音楽情報を生成する音楽合成部と、音楽情報を出力する音楽出力部と、を備え、前記感情検出部が、前記感情特定用情報から、前記感情を少なくとも2つ検出し、前記音楽合成部が、前記感情検出部により検出した前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成し、前記音楽再生部が、前記音楽合成部により生成した前記別の音楽情報を出力する、情報処理端末を提供する。
また、上記情報処理端末は、前記感情特定用情報が、音情報であり、前記感情検出部が、前記音情報から、当該音情報に含まれる音声を発した発話者の感情を少なくとも2つ検出する、ものを含む。
また、上記情報処理端末は、前記感情特定用情報が、文字情報であり、前記感情検出部が、前記文字情報から、当該文字情報により構成される文章を作成した作成者の感情を少なくとも2つ検出する、ものを含む。
また、上記情報処理端末は、前記感情特定用情報が、画像情報であり、前記感情検出部が、前記画像情報から、当該画像情報を再生した画像に写される被撮影者の感情を少なくとも2つ検出する、ものを含む。
本発明は、感情を特定可能な情報を含む感情特定用情報から、当該感情特定用情報に含まれる感情を少なくとも2つ検出し、検出した前記感情それぞれに対応する音楽情報を取得し、取得した前記音楽情報を合成して別の音楽情報を生成し、生成した前記別の音楽情報を出力する、音楽情報生成方法を提供する。
本発明は、コンピュータに、本発明の音楽情報生成方法を実行させるためのプログラムを提供する。
この構成により、音声を発した話者の感情をその感情を表現する音楽から認識することができる。
また、上記情報処理端末は、前記音情報を入力する音情報入力部を備え、前記感情検出部が、前記音情報入力部により入力した前記音情報から、当該音情報に含まれる音声を発した発話者の感情を検出する、ものを含む。
また、上記情報処理端末は、通信部を備え、前記音情報入力部が、前記通信部を利用した音声通話により通話先の電話装置から得られる音情報を入力する、ものを含む。
この構成により、同一の端末で、音声の入力と、その音声を発話した発話者の感情の特定と、を行うことができるため、利用者の利便性が高まる。
また、上記情報処理端末は、収音する収音部を備え、前記音情報入力部が、前記収音部により収音した音情報を入力する、ものを含む。
また、上記情報処理端末は、前記文字情報を入力する文字情報入力部を備え、前記感情検出部が、前記文字情報入力部により入力した前記文字情報から、当該文字情報により構成される文章を作成した作成者の感情を検出する、ものを含む。
この構成によれば、通話相手および通話者本人が他方に発話する音情報から、音声を発した話者の感情をその感情を表現する音楽から認識することができる。
また、上記情報処理端末は、通信部を備え、前記文字情報入力部が、前記通信部により受信した電子メールに情報として含まれる文字情報を入力する、ものを含む。
また、上記情報処理端末は、操作部を備え、前記文字情報入力部が、前記操作部により受け付けた文字入力操作に対応する文字情報を入力する、ものを含む。
この構成によれば、電子メールに記載されたメールタイトルやメール本文からそのメールを作成した作成者の感情を特定することができる。
また、上記情報処理端末は、前記画像情報を入力する画像情報入力部を備え、前記感情検出部が、前記画像情報入力部により入力した前記画像情報から、当該画像情報を再生した画像に写される被撮影者の感情を検出する、ものを含む。
また、上記情報処理端末は、撮影部を備え、前記画像情報入力部が、前記撮影部により撮影した画像を入力する、ものを含む。
また、上記情報処理端末は、通信部を備え、前記画像情報入力部が、前記通信部により受信した画像情報を入力する、ものを含む。
この構成によれば、画像からその画像に写っている被撮影者の感情を特定することにより、画像の新たな用途を提案することができる。
また、上記情報処理端末は、前記感情検出部が、複数の感情特定用情報毎に、当該感情特定用情報に含まれる感情をそれぞれ検出する、ものを含む。
この構成により、音情報を入力すればその都度、その音情報に含まれる音声を発した話者の感情を特定することができる。
また、上記情報処理端末は、前記感情特定用情報に含まれる感情を発露した発露者を特定する発話者特定部と、前記発話者特定部により特定した前記発露者と、前記感情検出部により検出した感情と、を各感情特定用情報毎に関連付ける関連付け部と、を備え、前記音楽合成部が、前記関連付け部により前記発露者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、ものを含む。
本発明の音楽情報生成方法は、感情を特定可能な情報を含む感情特定用情報から少なくとも2つ検出される、当該感情特定用情報に含まれる感情と、当該感情を発露した発露者と、を各感情特定用情報毎に関連付け、前記発露者に関連付けた少なくとも2つの前記感情それぞれに対応する音楽情報を取得し、取得した前記音楽情報を合成して別の音楽情報を生成し、生成した前記別の音楽情報を出力する、ものである。
また、上記音楽情報生成方法は、前記感情特定用情報を入力し、入力した前記感情特定用情報から、当該感情特定用情報に含まれる感情を検出する、ものを含む。
また、上記情報処理端末は、前記音情報に含まれる音声を発する前記発話者を特定する発話者特定部と、前記発話者特定部により特定した前記発話者と、前記感情検出部により検出した感情と、を各音情報毎に関連付ける関連付け部と、を備え、前記音楽合成部が、前記関連付け部により前記発話者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、ものを含む。
また、上記情報処理端末は、通信部を備え、前記発話者特定部が、前記通信部を利用した音声通話を行う場合に通話先の電話装置から通知される通話者識別情報を利用して、前記音情報に含まれる音声を発する前記発話者を特定する、ものを含む。
また、上記情報処理端末は、前記関連付け部が、前記発話者特定部により特定した前記発話者と、前記感情検出部により検出した感情と、を各音声通話毎に関連付ける、ものを含む。
また、上記情報処理端末は、前記音楽合成部が、前記関連付け部により各音声通話毎に前記発話者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を、当該音声通話が行われた時刻に基づいた順序に従って合成する、ものを含む。
本発明の音楽情報生成方法は、音声通話に利用される音情報を入力し、入力した音情報から少なくとも2つ検出される、当該音情報に含まれる音声を発した発話者の感情と、通話先の電話装置が通知する通話者識別情報を利用して特定される、前記音情報に含まれる音声を発する前記発話者と、を各音声通話毎に関連付け、各音声通話毎に前記発話者に関連付けた少なくとも2つの前記感情に対応する前記音楽情報を取得し、取得した前記音楽情報を前記音声通話が行われた時刻に基づいた順序に従って合成して別の音楽情報を生成し、生成した前記別の音楽情報を出力する、ものである。
また、上記情報処理端末は、前記文字情報により構成される文章を作成した前記作成者を特定する作成者特定部と、前記作成者特定部により特定した前記作成者と、前記感情検出部により検出した感情と、を各文字情報毎に関連付ける関連付け部と、を備え、前記音楽合成部が、前記関連付け部により前記作成者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、ものを含む。
また、上記情報処理端末は、通信部を備え、前記作成者特定部が、前記通信部を利用して電子メールを受信する場合に電子メールの送信元から通知される送信元識別情報を利用して、前記文字情報により構成される文章を作成した前記作成者を特定する、ものを含む。
また、上記情報処理端末は、前記関連付け部が、前記作成者特定部により特定した前記作成者と、前記感情検出部により検出した感情と、を各電子メール毎に関連付ける、ものを含む。
また、上記情報処理端末は、前記音楽合成部が、前記関連付け部により各電子メール毎に前記作成者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を、当該電子メールを受信した時刻に基づいた順序に従って合成する、ものを含む。
本発明の音楽情報生成方法は、電子メールに情報として含まれる文字情報を入力し、入力した文字情報から少なくとも2つ検出される、当該文字情報により構成される文章を作成した作成者の感情と、電子メールの送信元が通知する送信元識別情報を利用して特定される、前記文字情報により構成される文章を作成した前記作成者と、を各電子メール毎に関連付け、各電子メール毎に前記作成者に関連付けた少なくとも2つの前記感情に対応する前記音楽情報を取得し、取得した前記音楽情報を前記電子メールを受信した時刻に基づいた順序に従って合成して別の音楽情報を生成し、生成した前記別の音楽情報を出力する、ものである。
また、上記情報処理端末は、前記画像情報を再生した画像に写される前記被撮影者を特定する被撮影者特定部と、前記被撮影者特定部により特定した前記被撮影者と、前記感情検出部により検出した感情と、を各画像情報毎に関連付ける関連付け部と、を備え、前記音楽合成部が、前記関連付け部により前記被撮影者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、ものを含む。
また、上記情報処理端末は、通信部を備え、前記被撮影者特定部が、前記通信部を利用して画像情報を受信する場合に送信元から通知される送信元識別情報を利用して、前記画像情報を再生した画像に写される前記被撮影者を特定する、ものを含む。
また、上記情報処理端末は、前記関連付け部が、前記被撮影者特定部により特定した前記被撮影者と、前記感情検出部により検出した感情と、を受信した画像情報毎に関連付ける、ものを含む。
また、上記情報処理端末は、前記音楽合成部が、前記関連付け部により前記画像情報毎に前記被撮影者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を、前記画像情報を受信した時刻に基づいた順序に従って合成する、ものを含む。
また、本発明の音楽情報生成方法は、受信した画像情報を入力し、入力した画像情報から少なくとも2つ検出される、当該画像情報を再生した画像に写される被撮影者の感情と、前記画像情報の送信元が通知する送信元識別情報を利用して特定される、前記画像情報を再生した画像に写される前記被撮影者と、を受信した画像情報毎に関連付け、受信した各画像情報毎に前記被撮影者に関連付けた少なくとも2つの前記感情に対応する前記音楽情報を取得し、取得した前記音楽情報を前記画像情報を受信した時刻に基づいた順序に従って合成して別の音楽情報を生成し、生成した前記別の音楽情報を出力する、ものである。
この構成により、特定の発話者の感情のみを選択的に取捨選択して、その感情に対応する音楽を聴くことができる。
また、上記情報処理端末は、前記音楽出力部が、前記音楽合成部により生成した前記別の音楽情報を再生する、ものを含む。
この構成により、感情を特定する機能と、特定した感情に対応する音楽を再生する機能と、が同一の装置にあるため、装置利用者の利便性が向上する。
また、上記情報処理端末は、前記音楽出力部が、前記音楽合成部により生成した前記別の音楽情報を他の端末に送信する、ものを含む。
この構成により、感情を特定する機能を備えていない他の端末に、感情を特定する機能を備えた端末がその特定した感情に対応する音楽を送信することにより、その他の端末でもある感情に対応する音楽を聴くことができる。
また、上記情報処理端末は、前記音楽出力部が、前記音楽合成部により生成した前記別の音楽情報を記憶装置に出力して記憶させる、ものを含む。
この構成により、特定した感情に対応する音楽を何度でも聴くことができる。
本発明に係る情報処理端末、音楽情報生成方法およびプログラムによれば、音声から感情を特定し、その特定した感情に好適な音楽を音出力することによって、その音声を発した話者の感情を容易に認識することができる。
以下、本発明の情報処理端末の一例として携帯電話を挙げて説明する。図1に、本発明の実施の形態の携帯電話による処理の音楽情報生成処理の概要を示す。図1では、利用者A、B、Cがそれぞれ、携帯電話を利用しており、利用者Aと利用者Bとの間では携帯電話による音声通話が、利用者Bと利用者Cとの間では携帯電話によるデータ通信が、それぞれ行われているものとする。
利用者Aが利用する携帯電話は、利用者Bが利用する携帯電話との間での音声通話時に利用者Bが発話する音声から、利用者Bの感情を推定する。利用者Aが利用する携帯電話は、具体的には、人が発する声から、具体的には声の音量、声の波形、声のピッチ、または、音韻などから、喜び、悲しみ、驚き、嫌悪、怒り、恐れといった6因子のうちの少なくとも1つを利用者Bの感情として推定する。その後、利用者Aが利用する携帯電話は、予め当該携帯電話が備えるメモリやHDD等の記憶装置に記憶された、上述の各因子毎に割り当てられた音楽データ(音楽データのデータ形式としては、MIDI形式が挙げられる)のうち、推定した利用者Bの感情に対応する音楽データを特定する。そして、利用者Aが利用する携帯電話は、利用者Bとの音声通話時に利用者Bが抱いていた感情に対応する音楽を再生する操作を利用者Aから受け付けると、特定した音楽データを再生することになる。
この構成により、利用者Aは、音声通話時に利用者Bが抱いていた感情を音楽によって特定することができる。この結果、利用者Aが利用する携帯電話は、会話の雰囲気を音楽で表現することにより、人と人との繋がりを音楽で表現するという新たなコミュニケーションを実現することができる。この音楽は、利用者Aによってのみその音楽が生成された過程(つまり、音声通話の内容)を知られており、自身しか知らないという秘匿性はこの音楽に対する思い入れをますます強めることに繋がる。
一方、利用者Bが利用する携帯電話もまた、利用者Aが利用する携帯電話と同様に、利用者Aが利用する携帯電話との間での音声通話時に利用者Aが発話する音声から、利用者Aの感情を推定し、予め当該携帯電話が備える記憶装置に記憶された音楽データのうち、推定した利用者Aの感情に対応する音楽データを特定し、特定した音楽データを再生する。さらに、利用者Bが利用する携帯電話は、利用者Aが利用する携帯電話との間での音声通話時に利用者B自身が発話する音声から、利用者B自身の感情を推定し、その後、利用者Bが利用する携帯電話は、予め当該携帯電話が備えるメモリやHDD等の記憶装置に記憶された、上述の各因子毎に割り当てられた音楽データのうち、推定した利用者B自身の感情に対応する音楽データを特定する。そして、利用者Bが利用する携帯電話は、利用者Aとの音声通話時に利用者B自身が抱いていた感情に対応する音楽を再生する操作を利用者Bから受け付けると、特定した音楽データを再生することになる。
この構成により、利用者Bは、音声通話時に利用者B自身が抱いていた感情を音楽によって特定することができる。この結果、過去の会話の雰囲気を音楽で振り返ることにより、過去の音声通話において自身が通話相手に抱いていた感情を容易に思い起こすことができるようになる。
また、利用者Cが利用する携帯電話は、利用者Bが利用する携帯電話が特定した、利用者B自身の感情に対応する音楽データを、利用者Bが利用する携帯電話から何らかの情報伝達手段(例えば、無線通信機能、赤外線通信機能、または記憶媒体によるデータの受け渡し)によって取得する。この構成により、利用者Cは、ある音声通話において抱いた感情を他者にも知らせることを望む利用者Bから、利用者B自身の感情を表現する音楽データを取得することにより、利用者AとBのコミュニケーションによって創られた音楽(楽曲)を楽しむ、つまり音楽自体を楽しむことができる。
ところで、人と人とのコミュニケーションは、その複数人の間で何度か意思の伝達がなされる。本発明の実施の形態の携帯電話の場合も、複数の利用者間、例えば図1では利用者Aと利用者Bとの間で、複数回音声通話が行われることになる。利用者Aおよび利用者Bが利用する携帯電話は、各音声通話毎に、利用者Aあるいは利用者Bの感情を推定し、推定した利用者Bの感情に対応する音楽データを特定した後、特定した各音声通話毎の音楽データに関連を持たせずそれぞれ単独で再生しても、もちろん、人と人との繋がりを音楽で表現するという新たなコミュニケーションを実現することができる。以後、特定した各音声通話毎の音楽データに関連を持たせ、各音声通話毎の音楽データを連動して再生することにより、より一層効果的なコミュニケーションを促進することができる携帯電話について詳細に説明する。なお、以後、携帯電話を例に挙げて説明するが、これに限るものではない。音情報から発話者の感情を特定する機能と、様々な感情に対応する音楽データを記憶する機能と、音楽データを再生することができる機能と、を少なくとも備える情報処理端末が本発明の対象となり得る。
(第1実施形態)
図2に、本発明の第1実施形態の携帯電話の機能ブロック図を示す。本発明の第1実施形態の携帯電話は、無線部21、制御部22、感情推定部23、音楽データ生成部24、スピーカ25、マイク26、操作キー27、LCD28を含んで構成される。
無線部21は、RF回路211、ベースバンド回路212を含んで構成される。RF回路211は、携帯電話用の基地局から送信された所定の周波数帯の電波をアンテナを介して受信すると、その電波を復調し、復調した信号をベースバンド回路212に出力する。ベースバンド回路212は、入力した信号をデコードし、デコードして得られたデータを制御部22に出力する。また、ベースバンド回路212は、制御部22から他の情報処理端末に送信すべきデータを入力すると、そのデータをエンコードしてRF回路211に出力する。RF回路211は、ベースバンド回路212から入力したデータによって、無線通信に利用する搬送波を変調した電波をアンテナから送信する。
制御部22は、CPU221、ROM222、RAM223、A/D回路224、D/A回路225、LCDコントローラ226、入出力回路227を含んで構成される。制御部22は、LCD28への表示出力制御、操作キー27により受け付けた操作の検出、スピーカ25への音出力制御、マイク26からの音入力制御、感情推定部23への感情を推定するための音データの出力制御、音楽データ生成部24からの音楽データの入力制御、等を行う。
制御部22による具体的な処理を説明する。CPU221は、ROM222からプログラムやデータを読み取り、そのプログラムおよびデータに基づいてデータ処理を実行する。さらに、CPU221は、操作キー27からの操作入力を、制御部22と他の機能部との間でのデータの送受信を管理する入出力制御回路227を介して受け付けた場合には、その操作入力を反映したデータ処理を実行し、処理中のデータをRAM223に記憶させる。CPU221は、RAM223に記憶された表示用データを用いてLCD28に画像を表示させるようLCDコントローラ226を制御し、また、プログラム処理した結果生じる音出力用データをD/A回路225によってアナログ信号に変換させ、そのアナログ信号をスピーカ25に出力させる。
また、CPU221は、無線部21から音データ(例えば、音声通話用の音データ)を入力すると、その音データをD/A回路225によってアナログ信号に変換させ、そのアナログ信号をスピーカ25に出力させる。さらにCPU221は、マイク26から音に関する情報を含む電気信号を入力すると、その電気信号をA/D回路224によってデジタルデータである音データに変換させ、その音データを無線送信させるべく無線部21に出力する。
さらに、CPU221は、無線部21から入力した音データ、あるいはマイク26から入力した電気信号をA/D回路224によって変換した音データを感情推定部23に出力して、感情推定部23にその音データに含まれる発話者の音声からその発話者の感情を推定させる。また、CPU221は、感情推定部23から感情についての情報(喜び、悲しみ、驚き、嫌悪、怒り、恐れなどの感情を特定するための情報)を通知されると、その情報を音楽データ生成部24に出力する。また、CPU221は、音楽データ生成部24から入力した音楽データをD/A回路225によってアナログ信号に変換させ、そのアナログ信号をスピーカ25に出力させる。
感情推定部23は、感情推定回路231、感情履歴データベース232を含んで構成される。感情推定回路231は、制御部22から音データを入力すると、その音データに含まれる音声から、その音声を発話した発話者の感情を特定し、その特定した感情を制御部22に通知する。音データから感情を特定する手法の一例について、図3に示す音声波形と音声波形の各区間毎に特定される感情との関係を示す図を参照して説明する。再生し終えるまでに時間間隔Tかかる音データが図3に示す音声波形により音出力される場合、時間Tよりも時間間隔の短い時間間隔tによって音声波形を分割し、各時間間隔t毎の音声波形と、喜び、悲しみ、驚き、嫌悪、怒り、恐れなどの感情を音声により発露したときに特徴となる音声波形のサンプルと、をマッチングさせて、時間間隔tのある期間の音声波形が音声波形のサンプルと類似度が高ければその期間の感情をそのサンプルが示す感情として特定する。図3では、時間間隔tである期間t1、t2、t3、t4、t5において、それぞれの期間の感情を「楽」、「楽」、「無」(「無」は感情ではなく、音声波形のサンプルにこの期間の音声波形に該当するものが無いことを示す)、「無」、「怒」と特定している。このようにして音声波形の各期間において感情を特定した後、最も特定された期間が多かった感情をその音声波形の代表的な感情として特定する。なお、本発明において、音データに含まれる音声から、その音声を発話した発話者の感情を特定する手法は、これに限るものではない。
また、感情推定回路231は、感情を特定するたびにタイマ(図示せず)を参照して時刻情報を取得し、その時刻情報と特定した感情についての情報を感情履歴データベース232に出力し、その時刻情報と対応させてその感情についての情報を記憶させる。なお、音声通話を開始した時点を表す時刻情報や、音声通話終了後に感情の特定を行う場合には音声通話を終了した時点を表す時刻情報を、制御部22から入力する構成であっても構わない。図4に、本発明の第1実施形態の携帯電話が記憶する感情についての情報の概念図を示す。
音楽データ生成部24は、音楽データ生成回路241、音楽パーツデータベース242を含んで構成される。音楽データ生成回路241は、音楽パーツデータベース242に記憶されている複数の音楽データ(そのデータ形式は、例えばMIDI形式)から少なくとも2つの音楽データを読み取り、その読み取った音楽データを合成する。以下、音楽データ生成回路241による音楽データの合成処理、および音楽パーツデータベース242に記憶された音楽パーツについて説明する。まず、音楽パーツデータベース242に記憶された音楽パーツについて説明する。図5に、本発明の第1実施形態の携帯電話が記憶する音楽パーツの概念図を示す。
まず、音楽パーツとは、音楽データによって構成されるデータである。音楽パーツは、感情についての情報、例えば喜び、悲しみ、驚き、嫌悪、怒り、恐れ、のいずれかが属性として割り当てられており、その音楽パーツを構成する音楽データは、再生された時に音出力される音楽がその属性を聴者に連想させるデータ内容を持つ。音楽パーツデータベース242は、図4に示すように、複数の音楽パーツを記憶し、各音楽パーツは、音楽データn(n=1、2、・・・6)と属性n(n=1.「喜び」、n=2.「悲しみ」、n=3.「驚き」、n=4.「嫌悪」、n=5.「怒り」、n=6.「恐れ」)とにより構成される。音楽パーツデータベース242は、音楽データ生成回路241から感情の情報を通知されると、その感情の情報に対応する属性が割り当てられた音楽データを音楽データ生成回路241に返す。なお、音楽データの音楽内容については、後述する音楽データ生成回路241による処理に関する記載の中で、説明している。
音楽データ生成回路241は、制御部22から感情についての情報を通知されると、その感情についての情報が属性として割り当てられた音楽データを返すよう音楽パーツデータベース242に要求する。その後、音楽データ生成回路241は、音楽パーツデータベース242から音楽データを取得する。このとき、音楽データ生成回路241は、制御部22から感情についての情報を1つ通知された場合には、その感情についての情報が属性として割り当てられた1つの音楽データを音楽パーツデータベース242から取得し、制御部22にその1つの音楽データを出力する。一方、音楽データ生成回路241は、制御部22から感情についての情報を2つ以上(例えば、喜びと驚きについての感情)を通知された場合には、その感情についての情報それぞれが属性として割り当てられた2つの音楽データを音楽パーツデータベース242から取得し、その2つの音楽データを合成した別の音楽データを生成し、その別の音楽データを制御部22に出力する。以下、音楽データ生成回路241による2つの音楽データを合成する手法の一例を説明する。図6に、本発明の第1実施形態の携帯電話による音楽データ合成処理を説明するための楽譜の例を示す。
図6に示す(A)から(C)の楽譜を比較すると、この楽譜を演奏したときに聴者が受ける印象はまったく異なるものである。しかし、これらの楽譜をフレーズ単位で比較すると、楽曲(A)の第1小節は楽曲(B)の第2小節の一部と同様のフレーズFAとなっていおり、また、楽曲(B)の第1小節は楽曲(C)の第1小節および第2小節と同様のフレーズFCとなっている。このような点を鑑みると、聴者が受ける印象が全く異なる場合であっても、各楽曲の個々のフレーズをみると、共通するフレーズが複数の楽曲の中で利用されていることが多い。したがって、個々のフレーズを既存の楽曲から抽出し、そのフレーズを並べるようにすれば、新たな楽曲を生成することができる。例えば、フレーズFCと楽曲(A)のフレーズFBをつなげると、新たな楽曲(D)が生成され、フレーズFAと休止符と楽曲(C)のフレーズFDをつなげると新たな楽曲(E)ができる。これらの楽曲(D)及び(E)は、ともに十分な音楽的完成度を持っているという具合である。この新たな楽曲生成手法を本発明の第1実施形態の携帯電話による音楽データ合成処理に適用する。
すなわち、楽曲(A)におけるフレーズFBが感情「喜び」を表現する音楽データに、楽曲(B)におけるフレーズFCが感情「驚き」を表現する音楽データに、それぞれ対応している場合、音楽データ生成回路241は、制御部22から感情「驚き」、「喜び」についての情報を通知されると、音楽パーツデータベース242から属性「驚き」フレーズFCの音楽データおよび属性「喜び」フレーズFBの音楽データを取得する。その後、音楽データ生成回路241は、1.フレーズFCの音楽データ、2.フレーズFBの音楽データの順に、フレーズFCの音楽データおよびフレーズFBの音楽データを繋げた新たな楽曲(D)についての音楽データを制御部22に出力する。
以上のように説明した構成を備える、本発明の第1実施形態の携帯電話による感情推定処理の流れを説明する。図7に、本発明の第1実施形態の携帯電話による感情推定処理の流れを表すフローチャートを示す。なお、ここでは、音声通話により通話相手から送信される音情報から、通話相手の感情を特定する場合について記載している。携帯電話利用者本人の感情推定処理を行う場合も、感情推定処理を行うべき音情報の入力元が異なるだけで、如何に述べる処理と同様である。
携帯電話は、音声通話を開始すると、通話相手から送信される音声通話用の音データを利用して感情を推定する(ステップS71)。このとき、携帯電話は、音声通話開始から音声通話終了までの期間中、感情の推定を継続しても良いし、一期間(例えば、音声通話開始を開始点とする所定の時間)のみ感情の推定を行うようにしてもよい。携帯電話は、その音データからある感情を特定すると、感情を特定した時点を表す時刻情報と伴にその感情を感情履歴データベース232に記憶する(ステップS72)。携帯電話は、通話が終了すると、この音声通話に対する感情推定処理を終了する。その後、携帯電話は、別の音声通話を開始すると、同様の処理を繰り返す。
次に、本発明の第1実施形態の携帯電話による音楽データ再生処理の流れを説明する。図8に、本発明の第1実施形態の携帯電話による音楽データ再生処理の流れを表すフローチャートを示す。携帯電話は、操作キー27による操作によって、過去に行った音声通話によって通話相手が抱いていた感情を音出力する指示を受け付けると、感情履歴データベース232に記憶された、時刻情報と感情とを一組とするデータの個数を算出する(ステップS801)。携帯電話は、時刻情報と感情とを一組とするデータの個数が0であれば(ステップS802、NO)、感情推定された音声通話が無いことを携帯電話利用者に知らせるための画面をLCD28に表示させる(ステップS803)。また、携帯電話は、時刻情報と感情とを一組とするデータの個数が1であれば(ステップS802、YES、かつ、ステップS804、NO)、感情履歴データベース232からその感情についての情報を取得し(ステップS805)、その感情についての情報が属性として割り当てられた音楽パーツを音楽パーツデータベース242から検索し(ステップS806)、検出した音楽パーツを構成する音楽データを再生する(ステップS807)。また、携帯電話は、時刻情報と感情とを一組とするデータの個数が2つ以上であれば(ステップS804、YES)、感情履歴データベース232からその感情についての情報をそれぞれ取得し(ステップS808)、その感情についての情報が属性として割り当てられた音楽パーツを音楽パーツデータベース242からそれぞれ検索し(ステップS809)、検出した音楽パーツを構成する音楽データ(時刻情報と感情とを一組とするデータの個数と同等の数の音楽データ)を合成して1つの音楽データを生成し(ステップS810)、その生成した音楽データを再生する(ステップS811)。なお、複数の音楽データを合成する場合、例えば「喜び」、「驚き」、「怒り」の属性が割り当てられた音楽パーツを構成する音楽データを合成する場合、各属性に対応する時刻情報に基づいてこれらの音楽データを昇順あるいは降順に並べて合成する。昇順に並び替えればより過去の感情を表す音楽が先に再生されることになり、降順に並び替えれば最新の感情を表す音楽が先に再生されることになる。
なお、各属性に対応する時刻情報に基づいて複数の音楽データを昇順あるいは降順に並べる規則の他に、時刻情報として記憶した通話時間(音声通話を開始した時点からその音声通話を終了した時点までの期間を指す。感情を特定する度に、感情履歴データベース232に通話時間を時刻情報として記憶しておくようにする)の長さの短長に応じて、複数の音楽データを並べる規則を用いてもよいし、時刻情報として記憶した通話した曜日(音声通話を開始した曜日を指す。感情を特定する度に、感情履歴データベース232に通話した曜日を時刻情報として記憶しておくようにする)に応じて、例えば月曜日から日曜日の順に、複数の音楽データを並び替える規則を用いてもよいし、さらに、これらの複数の音楽データを並べる規則を組み合わせても構わない。また、携帯電話利用者の操作によって、携帯電話利用者が任意にその複数の音楽データを並び替えるようにしてもよい。
また、携帯電話は、音楽パーツを構成する音楽データを再生する場合、その音楽パーツに割り当てられた各属性が特定された時刻情報の日付に応じて、その音楽データの曲調を変えて再生してもよい。例えば、時刻情報の日付が12月24日であればオルゴール調に曲調を変えるなどである。この構成により、過去の通話内容を音楽再生により思い出すことがさらに容易になる。
以上、本発明の実施の形態の携帯電話によれば、音声通話から通話相手の感情を特定し、その特定した感情に好適な音楽を音出力することによって、その音声を発した話者の感情を容易に認識することができ、さらに、少なくとも2度の音声通話を行った場合には、各通話音声における通話相手の感情を特定し、その特定した感情に好適な音楽を合成することによって新たな音楽データを生成、再生することによって、通話相手の一連の感情の変化を一息に認識することができる。また、様々な組合せの音楽データを新に生成することができるため、利用者個人のオリジナルの音声データを作成できるという娯楽性が向上するという側面も持つ。
なお、本発明の情報処理端末を説明するにあたり、携帯電話による音声通話によって得られる音情報を基に、その音情報に含まれる音声を発話した発話者の感情を特定するようにしたが、音情報を入力する手段は音声通話に限るものではなく、マイクにより収音した音情報や、記憶媒体に記憶した音情報などから入力するようにしても本発明を実現することは可能である。
(第2実施形態)
次に、本発明の第2実施形態の携帯電話について説明する。本発明の第1実施形態の携帯電話では、感情推定回路231により特定した感情についての情報を感情履歴データベース232に記録する際、その感情についての情報とその感情が特定された時刻を示す時刻情報とを記録するようにした。本発明の第2実施形態の携帯電話では、さらに、その感情を発露した発話者についての情報も感情履歴データベース232に記録する構成について説明する。なお、本発明の第2実施形態の携帯電話の構成は、制御部22および感情推定部23による処理に新たな処理が加わる点を除いて、第1実施形態で図2を参照して説明した構成と同様であるため、説明を省略する。
制御部22のCPU221は、音声通話を開始するための処理として、無線部21を介して基地局から送信されてくる通話先の電話番号を受信すると、RAM223に記憶されている、近年の携帯電話が一機能として有する電話帳情報を参照して、その電話番号に該当する個人情報を特定し、その個人情報のうちの、通話相手を特定できる情報(例えば、氏名、所属グループ、住所など)を感情推定部23に出力する。
感情推定回路231は、制御部22から音データを入力すると、その音データに含まれる音声から、その音声を発話した発話者の感情を特定する(図7のステップS71の処理)。また、感情推定回路231は、感情を特定するたびにタイマ(図示せず)を参照して時刻情報を取得し、その時刻情報と、特定した感情についての情報と、さらに制御部22から入力した通話相手を特定できる情報を感情履歴データベース232に出力する。感情履歴データベース232は、通話相手を特定できる情報毎に、その時刻情報とその感情についての情報とにより構成される個人テーブルを生成、更新していく(図7のステップS72の処理)。なお、音声通話を開始した時点を表す時刻情報や、音声通話終了後に感情の特定を行う場合には音声通話を終了した時点を表す時刻情報を、制御部22から入力する構成であっても構わない。図9に、本発明の第2実施形態の携帯電話が記憶する感情についての情報の概念図を示す。図9では、通話相手を特定できる情報として、電話帳機能における個人情報を識別するために用いられる頻度が極めて高い氏名を記載している。氏名以外に所属グループ毎に、その時刻情報とその感情についての情報とにより構成されるグループテーブルを生成、更新してもよい。
以上のように説明した構成を備える、本発明の第2実施形態の携帯電話による処理の流れを説明する。図10に、本発明の第2実施形態の携帯電話による音楽データ再生処理の流れを表すフローチャートを示す。なお、本発明の第2実施形態の携帯電話による感情推定処理については、感情履歴データベース232に記録するデータ内容が異なる以外、第1実施形態で説明した感情推定処理と同様であるため、説明を省略する。また、図10のフローチャートにおいて、図8のフローチャートと同様の参照符号を割り当てたフローは、第1実施形態で説明したとおりであるため、説明を省略する。
携帯電話は、操作キー27による操作によって、過去に行った音声通話によって通話相手が抱いていた感情を音出力する指示、およびその通話相手を指定する操作を受け付けると、感情履歴データベース232に記憶された、個人テーブルを読み出し(ステップS1001)、その個人テーブルにおける時刻情報と感情とを一組とするデータの個数を算出する(ステップS1002)。以後の処理は、第1実施形態で説明したステップS803からステップS811の処理と同様である。
以上、本発明の第2実施形態の携帯電話によれば、音声通話を行ってその音声から感情を特定された通話相手のうちの特定の通話相手が、各通話で発露した感情に好適な音楽を合成することによって新たな音楽データを生成、再生することによって、特定の通話相手の一連の感情の変化を一息に認識することができる。
(第3実施形態)
次に、本発明の第3実施形態の携帯電話について説明する。本発明の第1、2実施形態の携帯電話では、感情履歴データベース232に記憶する感情についての情報は、感情推定回路231によって特定されたものであった。このため、感情推定回路231を備えていない携帯電話では、ある感情を表現した音楽を聞くことができないことになってしまう。本発明の第3実施形態の携帯電話では、感情推定回路231を備えていなくてもある感情を表現した音楽を聞くことができる携帯電話について説明する。なお、本発明の第3実施形態の携帯電話の構成は、制御部22による処理に新たな処理が加わる点および感情推定回路231が不要である点を除いて、第1実施形態で図2を参照して説明した構成と同様であるため、説明を省略する。
本発明の第3実施形態の携帯電話は、本発明の第1、第2実施形態の携帯電話と通信を行い、本発明の第1、第2実施形態の携帯電話が感情履歴データベース232に記憶している時刻情報と感情についての情報を取得する。すなわち、本発明の第3実施形態の携帯電話において、CPU221は、無線部21を介して他の携帯電話から受信した時刻情報と感情についての情報を感情履歴データベース232に記憶する。この構成であれば、感情推定回路231を備えていなくてもある感情を表現した音楽を聞くことができる。また、他の携帯電話利用者が抱いた感情を共有することができるという側面もある。また、本発明の第3実施形態の携帯電話が感情推定部23および音楽データ生成部23すら備えていない場合には、本発明の第1、第2実施形態の携帯電話が合成した音楽データを取得し、その音楽データを再生するようにすればよい。なお、本発明の第3実施形態携帯電話による、他の携帯電話からの時刻情報と感情についての情報との取得方法は、これに限るものではなく、無線通信機能、赤外線通信機能、または記憶媒体によるデータの受け渡しなども考えられる。
さらに、ここまでの第3実施形態では、音情報に含まれる音声からその音声の発話者の感情を特定する感情推定回路231を備えていない携帯電話について記載したが、当該感情推定回路231を備える本発明の第1、第2実施形態の携帯電話が、上述のように他の携帯電話に感情履歴データベース232に記憶されている時刻情報と感情についての情報を取得する構成にすれば、本発明の第1、第2実施形態の携帯電話は以下のことを実現することができる。図11に、本発明の第3実施形態の携帯電話が記憶する感情についての情報の概念図を示す。
すなわち、本発明の第1、第2実施形態の携帯電話は、他の携帯電話から、ある個人(この個人が他の携帯電話利用者と同一である場合も含む)における時刻情報と感情についての情報111(図11において、各個人テーブルにおいて点線で囲まれた部分の情報を指す)を取得し、感情履歴データベース232に記録した後、自端末が備える感情推定回路231により同じ個人との通話によって特定したその個人が発露した感情と時刻情報と(図11において、各個人テーブルにおいて実線で囲まれた部分の情報を指す)を、さらに感情履歴データベース232における同じ個人テーブルに記録する。この構成により、例えば、図1に示す利用者Aと利用者Bの通話により利用者Bが利用する携帯電話によって特定してきた感情についての情報111を利用者Bが利用する携帯電話から一旦取得すると、利用者Cが利用する携帯電話は、その取得した感情についての情報111に利用者Bとの通話によって新に特定される感情についての情報112を結合させることによって、さらに別の音楽データを生成することができる。この結果、利用者に対して、音楽データを育てるというこれまでの携帯電話にはない娯楽性を新たに提供することができる。
以上、本発明の第3実施形態の携帯電話によれば、音情報に含まれる音声から、その音声の発話者の感情を特定する機能を有していない携帯電話であっても、ある感情を表現した音楽を聞くことができる。
なお、本発明の第1実施形態から第3実施形態の携帯電話では、過去に行った音声通話によって通話相手が抱いていた感情を音出力する指示を操作キー27によって受け付ける度に、音楽データ生成部24が音楽データを生成するように記載したが、一旦生成した音楽データを携帯電話が備える記憶装置に記憶させるようにしてもよい。このとき、音楽データの形式をMIDIにすることが好ましい。この構成により、複数回の音声通話を行って感情を特定していく過程で、ある時点までの感情によって生成された音楽データが携帯電話利用者にとって好ましいものであったが、それ時点以後の感情を含んで生成された音楽データが携帯電話利用者にとって好ましいものでは無かった場合、その時点までの感情によって生成された音楽データを一旦記憶しておけば、携帯電話利用者にとって好ましい音楽のみを残しておくことができる。また、ある時点までの感情によって生成された音楽データを一旦記憶した場合、その時点までの感情についての情報を感情履歴データベース232から削除するようにしてもよい。
また、ある時点までの感情によって生成された音楽データを一旦記憶する場合、この音楽データの名称に、ある時点までの感情を特定できる文字列を入力するように構成してもよい。例えば、ある時点までの感情についての情報「喜び」、「驚き」、「怒り」(なお、この順序は昇順とする)が属性として割り当てられている場合、その名称には「2006/06/23_喜驚怒.***」などと名称を設定する。なお、携帯電話利用者が名称を独自に設定してもよいし、電話帳に記録された個人情報から氏名、所属グループ名なども、その名称に設定してもよい。
また、本発明の第1実施形態から第3実施形態の携帯電話によって、音声通話が終了するたびに音楽データを生成し、その生成した音楽データを再生することによって、音声通話後にその会話の余韻を音楽で味わうようにしてもよい。また、通話履歴や電話帳を確認する際に、通話履歴に記載されている複数の通話相手や電話帳から選択したある個人とのこれまでの音声通話によって得られた感情から、音楽データを生成し、その生成した音楽データを再生することによって、最近の通話相手やある個人との過去の会話を容易に振り返ることができるようにしてもよい。なお、携帯電話がマナーモードに設定されているために、このように音楽データを再生することができない場合、音楽データを再生することができなかった旨をLCD28に表示するようにしてもよい。
また、本発明の第1実施形態から第3実施形態の携帯電話によって生成された音楽データの用途としては、携帯電話の着信音やアラーム音、携帯電話用の充電器に携帯電話を配置したときの報知音などが考えられる。
また、本発明の第1実施形態から第3実施形態の携帯電話によって音楽データを生成する際、ある時点までの感情が多すぎて、音楽データを生成したときにその再生時間が長くなってしまう場合(データ量が多くなってしまう場合)、ある時点までの感情のうちの最も新しいもの(あるいは、最も古いもの)から所定の個数だけ利用して音楽データを生成するようにすることが好ましい。過去の会話を振り返るという点で若干効果が抑えられるが、ある時点までの感情からランダムに選んだ感情によて音楽データを生成するようにしてもよい。
また、本発明の第1実施形態から第3実施形態の携帯電話では、音情報から特定した、その音情報に含まれる音声の発話者の感情を音楽によって利用者に通知する構成としたが、これと併せて、その感情を好適に表現した画像をLCD28に表示したり、その感情に合わせた色によってLEDを点灯させたり、発話者の感情に応じて生成した音楽のリズムに合わせてLEDを点滅させるようにしてもよい。
(第4実施形態)
本発明の第1実施形態から第3実施形態の携帯電話は、音情報(特に、音声通話時に入力する音情報)からその音情報に含まれる音声の発話者の感情を特定する構成について説明した。第4実施形態では、音情報とは異なる別の情報から、その別の情報を発した人物の感情を特定する携帯電話の構成例について説明する。
近年、文字や文章からその文字または文章を記載した人物の感情を推定する方法や、画像に含まれる顔画像からその顔が写された人物の感情を推定する方法が知られている。例えば、文字または文章を記載した人物の感情を推定する例としては、特定の記号や複数の記号によって1つのマークを形成する文字列(顔文字と称されることがある)などの文字情報の有無によってその記号やその文字列に関連付けられた感情をそれらを記載した人物の感情として推定したり、ある文章を構成する単語のうちの特定の単語の有無によってその単語に関連付けられた感情をその文章を記載した人物の感情として推定したり、する手法が知られている。なお、ある文章に、特定の記号や複数の記号によって1つのマークを形成する文字列が複数種類ある場合、またはその文章を構成する単語に特定の単語が複数種類含まれている場合には、推定されたそれぞれの感情から総合的にその文章を記載した人物の感情を推定するようにする(例えば、推定された回数が最も多い感情をその文章を記載した人物の代表的な感情とするなど)。
また、画像に含まれる顔画像からその顔が写された人物の感情を推定する例としては、画像(静止画像、動画像どちらであっても構わない)に含まれる顔の領域を抽出し、予め登録されている人間の各感情を表すテンプレート画像と抽出した顔の領域とをマッチングさせ、類似度の高いテンプレート画像に対応する感情をその顔によって表現される感情として推定する手法が挙げられる。また、別の例としては、動画像に含まれる顔の画像のうちの眉、目、口などの各部位について特徴点を設定し、複数の特徴点の位置の時間経過に伴う変化から感情を推定する手法が知られている。
本発明の第4実施形態の携帯電話は、文字データや動画像データなどのデータから、その文字データにより構成される文章を作成した人物の感情や動画像データにより再生される画像に含まれる人物の感情を推定する。その後の処理は、第1実施形態から第2実施形態の携帯電話と同様、予め当該携帯電話が備えるメモリやHDD等の記憶装置に記憶された、上述の感情毎に割り当てられた音楽データのうち、推定した感情に対応する音楽データを特定し、その感情に対応する音楽を再生する操作を携帯電話利用者から受け付けると、特定した音楽データを再生することになる。以下、本発明の第4実施形態の携帯電話における構成、および携帯電話による処理について説明する。なお、本発明の第4実施形態の携帯電話の構成は、制御部22のROM222やRAM223に新たなデータが記憶される点および感情推定部23による感情推定処理が第1実施形態から第3実施形態と異なる点を除いて、第1実施形態で図2を参照して説明した構成と同様であるため、その他の各部の説明を省略する。まず、文字データからその文字データにより構成される文章を作成した人物の感情を推定する構成について説明する。
制御部22は、ROM222やRAM223に文字データを記憶する。文字データをROM222やRAM223に記憶させる処理としては、操作キー27による文字入力操作によって入力された文字データを記憶したり、無線部21を介して受信した電子メールのメールタイトルやメール本文に記載されている文字データを記憶するなどの処理が考えられる。CPU221は、ROM222やRAM223に記憶された文字データを感情推定部23に出力して、感情推定部23にその文字データにより構成される文章を作成した人物の感情を推定させる。
感情推定部23の感情推定回路231は、制御部22から文字データを入力すると、その文字データに含まれる、特定の記号や複数の記号によって1つのマークを形成する文字列の有無によってその記号やその文字列に関連付けられた感情をそれらを記載した人物の感情として特定し、あるいは、ある文章を構成する単語のうちの特定の単語の有無によってその単語に関連付けられた感情をその文章を記載した人物の感情として特定し、その特定した感情を制御部22に通知する。
また、感情推定回路231は、感情を特定するたびにタイマ(図示せず)を参照して時刻情報を取得し、その時刻情報と特定した感情についての情報を感情履歴データベース232に出力し、その時刻情報と対応させてその感情についての情報を記憶させる。なお、操作キー27による一連の文字入力操作が完了した時点を表す時刻情報や、電子メールを受信した時点あるいは送信した時点を表す時刻情報を、制御部22から入力する構成であっても構わない。さらに、電子メールに含まれる文章から感情を特定する場合には、第2実施形態で説明した処理と同様に、RAM223に記憶されている、近年の携帯電話が一機能として有する電話帳情報を参照して、その電子メールの送信元の電子メールアドレスに該当する個人情報を特定し、その個人情報のうちの、電子メールの送信相手を特定できる情報(例えば、氏名、所属グループ、住所など)を感情推定部23に出力するようにしてもよい。なお、本発明の第4実施形態の携帯電話による感情履歴データベース232に記憶させた後の処理は、第1実施形態において図8のフローチャートを参照して説明した通りである。
次に、画像データに含まれる顔画像からその顔が写された人物の感情を特定する構成について説明する。なお、ここで述べる画像データは、静止画像や動画像いずれであっても構わない。制御部22は、ROM222やRAM223に画像データを記憶する。画像データをROM222やRAM223に記憶させる処理としては、近年の携帯電話に搭載されるカメラによって撮影された静止画像データや動画像データを記憶したり、無線部21を介して受信した電子メールに添付された画像データを記憶したり、TV電話時に入力される動画像データを記憶するなどの処理が考えられる。CPU221は、ROM222やRAM223に記憶された画像データを感情推定部23に出力して、感情推定部23にその画像データに含まれる顔画像からその顔が写された人物の感情を推定させる。
感情推定部23の感情推定回路231は、制御部22から画像データを入力すると、画像に含まれる顔の領域を抽出し、予め登録されている人間の各感情を表すテンプレート画像と抽出した顔の領域とをマッチングさせ、類似度の高いテンプレート画像に対応する感情をその顔によって表現される感情として特定する、あるいは、動画像データに含まれる顔の画像のうちの眉、目、口などの各部位について特徴点を設定し、複数の特徴点の位置の時間経過に伴う変化から感情を特定し、その特定した感情を制御部22に通知する。
また、感情推定回路231は、感情を特定するたびにタイマ(図示せず)を参照して時刻情報を取得し、その時刻情報と特定した感情についての情報を感情履歴データベース232に出力し、その時刻情報と対応させてその感情についての情報を記憶させる。なお、近年の携帯電話に搭載されるカメラによる一連の撮影が完了した時点を表す時刻情報や、画像データが添付された電子メールを受信した時点あるいは送信した時点を表す時刻情報や、画像データに含まれる、撮影した日時を表すインデックス情報を、制御部22から入力する構成であっても構わない。さらに、電子メールに添付された画像データから感情を特定する場合には、第2実施形態で説明した処理と同様に、RAM223に記憶されている、近年の携帯電話が一機能として有する電話帳情報を参照して、その電子メールの送信元の電子メールアドレスに該当する個人情報を特定し、その個人情報のうちの、電子メールの送信相手を特定できる情報(例えば、氏名、所属グループ、住所など)を感情推定部23に出力するようにしてもよい。なお、本発明の第4実施形態の携帯電話による感情履歴データベース232に記憶させた後の処理は、第1実施形態において図8のフローチャートを参照して説明した通りである。
以上、本発明の第4実施形態の携帯電話によれば、感情を特定するために参照する情報が異なる、様々な感情特定処理を本発明に適用することができる結果、本発明の対象製品として、実施形態で説明した携帯電話に限らず、様々な電子機器を対象とすることができる。
本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
本出願は、2006年9月8日出願の日本特許出願(特願2006−243863)に基づくものであり、その内容はここに参照として取り込まれる。
本発明に係る情報処理端末、音楽情報生成方法およびプログラムによれば、音声から感情を特定し、その特定した感情に好適な音楽を音出力することによって、その音声を発した話者の感情を容易に認識することができるという効果を奏し、音楽データ(音楽データのデータ形式としては、例えばWAV形式、MIDI形式、MP3形式などが挙げられる)によって構成される音楽情報を少なくとも2つ合成する情報処理端末の分野において有用である。
本発明の実施の形態の携帯電話による処理の音楽情報生成処理の概要 本発明の第1実施形態の携帯電話の機能ブロック図 音声波形と音声波形の各区間毎に特定される感情との関係を示す図 本発明の第1実施形態の携帯電話が記憶する感情についての情報の概念図 本発明の第1実施形態の携帯電話が記憶する音楽パーツの概念図 本発明の第1実施形態の携帯電話による音楽データ合成処理を説明するための楽譜の例 本発明の第1実施形態の携帯電話による感情推定処理の流れを表すフローチャート 本発明の第1実施形態の携帯電話による音楽データ再生処理の流れを表すフローチャート 本発明の第2実施形態の携帯電話が記憶する感情についての情報の概念図 本発明の第2実施形態の携帯電話による音楽データ再生処理の流れを表すフローチャート 本発明の第3実施形態の携帯電話が記憶する感情についての情報の概念図
21 無線部
211 RF回路
212 ベースバンド回路
22 制御部
221 CPU
222 ROM
223 RAM
224 A/D回路
225 D/A回路
226 LCDコントローラ
227 入出力制御回路
23 感情推定部
231 感情推定回路
232 感情履歴データベース
24 音楽データ生成部
241 音楽データ生成回路
242 音楽パーツデータベース
25 スピーカ
26 マイク
27 操作キー
28 LCD

Claims (37)

  1. 感情を特定可能な情報を含む感情特定用情報から、当該感情特定用情報に含まれる感情を検出する感情検出部と、
    人間が表す感情に対応させた音楽情報を記憶する音楽記憶部と、
    前記音楽記憶部に記憶した少なくとも2つの前記音楽情報を合成して別の音楽情報を生成する音楽合成部と、
    音楽情報を出力する音楽出力部と、
    を備え、
    前記感情検出部は、前記感情特定用情報から、前記感情を少なくとも2つ検出し、
    前記音楽合成部は、前記感情検出部により検出した前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成し、
    前記音楽再生部は、前記音楽合成部により生成した前記別の音楽情報を出力する、
    情報処理端末。
  2. 請求項1記載の情報処理端末であって、
    前記感情特定用情報は、音情報であり、
    前記感情検出部は、前記音情報から、当該音情報に含まれる音声を発した発話者の感情を少なくとも2つ検出する、
    情報処理端末。
  3. 請求項1記載の情報処理端末であって、
    前記感情特定用情報は、文字情報であり、
    前記感情検出部は、前記文字情報から、当該文字情報により構成される文章を作成した作成者の感情を少なくとも2つ検出する、
    情報処理端末。
  4. 請求項1記載の情報処理端末であって、
    前記感情特定用情報は、画像情報であり、
    前記感情検出部は、前記画像情報から、当該画像情報を再生した画像に写される被撮影者の感情を少なくとも2つ検出する、
    情報処理端末。
  5. 請求項2記載の情報処理端末であって、
    前記音情報を入力する音情報入力部を備え、
    前記感情検出部は、前記音情報入力部により入力した前記音情報から、当該音情報に含まれる音声を発した発話者の感情を検出する、
    情報処理端末。
  6. 請求項5記載の情報処理端末であって、
    通信部を備え、
    前記音情報入力部は、前記通信部を利用した音声通話により通話先の電話装置から得られる音情報を入力する、
    情報処理端末。
  7. 請求項5記載の情報処理端末であって、
    収音する収音部を備え、
    前記音情報入力部は、前記収音部により収音した音情報を入力する、
    情報処理端末。
  8. 請求項3記載の情報処理端末であって、
    前記文字情報を入力する文字情報入力部を備え、
    前記感情検出部は、前記文字情報入力部により入力した前記文字情報から、当該文字情報により構成される文章を作成した作成者の感情を検出する、
    情報処理端末。
  9. 請求項8記載の情報処理端末であって、
    通信部を備え、
    前記文字情報入力部は、前記通信部により受信した電子メールに情報として含まれる文字情報を入力する、
    情報処理端末。
  10. 請求項8記載の情報処理端末であって、
    操作部を備え、
    前記文字情報入力部は、前記操作部により受け付けた文字入力操作に対応する文字情報を入力する、
    情報処理端末。
  11. 請求項4記載の情報処理端末であって、
    前記画像情報を入力する画像情報入力部を備え、
    前記感情検出部は、前記画像情報入力部により入力した前記画像情報から、当該画像情報を再生した画像に写される被撮影者の感情を検出する、
    情報処理端末。
  12. 請求項11記載の情報処理端末であって、
    撮影部を備え、
    前記画像情報入力部は、前記撮影部により撮影した画像を入力する、
    情報処理端末。
  13. 請求項11記載の情報処理端末であって、
    通信部を備え、
    前記画像情報入力部は、前記通信部により受信した画像情報を入力する、
    情報処理端末。
  14. 請求項1から13のいずれか1項に記載の情報処理端末であって、
    前記感情検出部は、複数の感情特定用情報毎に、当該感情特定用情報に含まれる感情をそれぞれ検出する、
    情報処理端末。
  15. 請求項1から14のいずれか1項に記載の情報処理端末であって、
    前記感情特定用情報に含まれる感情を発露した発露者を特定する発話者特定部と、
    前記発話者特定部により特定した前記発露者と、前記感情検出部により検出した感情と、を各感情特定用情報毎に関連付ける関連付け部と、
    を備え、
    前記音楽合成部は、前記関連付け部により前記発露者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、
    情報処理端末。
  16. 請求項5から7のいずれか1項に記載の情報処理端末であって、
    前記音情報に含まれる音声を発する前記発話者を特定する発話者特定部と、
    前記発話者特定部により特定した前記発話者と、前記感情検出部により検出した感情と、を各音情報毎に関連付ける関連付け部と、
    を備え、
    前記音楽合成部は、前記関連付け部により前記発話者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、
    情報処理端末。
  17. 請求項16記載の情報処理端末であって、
    通信部を備え、
    前記発話者特定部は、前記通信部を利用した音声通話を行う場合に通話先の電話装置から通知される通話者識別情報を利用して、前記音情報に含まれる音声を発する前記発話者を特定する、
    情報処理端末。
  18. 請求項17記載の情報処理端末であって、
    前記関連付け部は、前記発話者特定部により特定した前記発話者と、前記感情検出部により検出した感情と、を各音声通話毎に関連付ける、
    情報処理端末。
  19. 請求項18記載の情報処理端末であって、
    前記音楽合成部は、前記関連付け部により各音声通話毎に前記発話者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を、当該音声通話が行われた時刻に基づいた順序に従って合成する、
    情報処理端末。
  20. 請求項8から10のいずれか1項に記載の情報処理端末であって、
    前記文字情報により構成される文章を作成した前記作成者を特定する作成者特定部と、 前記作成者特定部により特定した前記作成者と、前記感情検出部により検出した感情と、を各文字情報毎に関連付ける関連付け部と、
    を備え、
    前記音楽合成部は、前記関連付け部により前記作成者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、
    情報処理端末。
  21. 請求項20記載の情報処理端末であって、
    通信部を備え、
    前記作成者特定部は、前記通信部を利用して電子メールを受信する場合に電子メールの送信元から通知される送信元識別情報を利用して、前記文字情報により構成される文章を作成した前記作成者を特定する、情報処理端末。
  22. 請求項21記載の情報処理端末であって、
    前記関連付け部は、前記作成者特定部により特定した前記作成者と、前記感情検出部により検出した感情と、を各電子メール毎に関連付ける、
    情報処理端末。
  23. 請求項22記載の情報処理端末であって、
    前記音楽合成部は、前記関連付け部により各電子メール毎に前記作成者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を、当該電子メールを受信した時刻に基づいた順序に従って合成する、
    情報処理端末。
  24. 請求項11から13のいずれか1項に記載の情報処理端末であって、
    前記画像情報を再生した画像に写される前記被撮影者を特定する被撮影者特定部と、
    前記被撮影者特定部により特定した前記被撮影者と、前記感情検出部により検出した感情と、を各画像情報毎に関連付ける関連付け部と、
    を備え、
    前記音楽合成部は、前記関連付け部により前記被撮影者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を合成する、
    情報処理端末。
  25. 請求項24記載の情報処理端末であって、
    通信部を備え、
    前記被撮影者特定部は、前記通信部を利用して画像情報を受信する場合に送信元から通知される送信元識別情報を利用して、前記画像情報を再生した画像に写される前記被撮影者を特定する、
    情報処理端末。
  26. 請求項25記載の情報処理端末であって、
    前記関連付け部は、前記被撮影者特定部により特定した前記被撮影者と、前記感情検出部により検出した感情と、を受信した画像情報毎に関連付ける、
    情報処理端末。
  27. 請求項26記載の情報処理端末であって、
    前記音楽合成部は、前記関連付け部により前記画像情報毎に前記被撮影者に関連付けた少なくとも2つの前記感情に対応する、前記音楽記憶部に記憶した前記音楽情報を、前記画像情報を受信した時刻に基づいた順序に従って合成する、
    情報処理端末。
  28. 請求項1から27のいずれか1項に記載の情報処理端末であって、
    前記音楽出力部は、前記音楽合成部により生成した前記別の音楽情報を再生する、
    情報処理端末。
  29. 請求項1から27のいずれか1項に記載の情報処理端末であって、
    前記音楽出力部は、前記音楽合成部により生成した前記別の音楽情報を他の端末に送信する、
    情報処理端末。
  30. 請求項1から27のいずれか1項に記載の情報処理端末であって、
    前記音楽出力部は、前記音楽合成部により生成した前記別の音楽情報を記憶装置に出力して記憶させる、
    情報処理端末。
  31. 感情を特定可能な情報を含む感情特定用情報から、当該感情特定用情報に含まれる感情を少なくとも2つ検出し、
    検出した前記感情それぞれに対応する音楽情報を取得し、
    取得した前記音楽情報を合成して別の音楽情報を生成し、
    生成した前記別の音楽情報を出力する、
    音楽情報生成方法。
  32. 感情を特定可能な情報を含む感情特定用情報から少なくとも2つ検出される、当該感情特定用情報に含まれる感情と、当該感情を発露した発露者と、を各感情特定用情報毎に関連付け、
    前記発露者に関連付けた少なくとも2つの前記感情それぞれに対応する音楽情報を取得し、
    取得した前記音楽情報を合成して別の音楽情報を生成し、
    生成した前記別の音楽情報を出力する、
    音楽情報生成方法。
  33. 請求項31または32記載の音楽情報生成方法であって、
    前記感情特定用情報を入力し、
    入力した前記感情特定用情報から、当該感情特定用情報に含まれる感情を検出する、
    音楽情報生成方法。
  34. 音声通話に利用される音情報を入力し、
    入力した音情報から少なくとも2つ検出される、当該音情報に含まれる音声を発した発話者の感情と、通話先の電話装置が通知する通話者識別情報を利用して特定される、前記音情報に含まれる音声を発する前記発話者と、を各音声通話毎に関連付け、
    各音声通話毎に前記発話者に関連付けた少なくとも2つの前記感情に対応する前記音楽情報を取得し、
    取得した前記音楽情報を前記音声通話が行われた時刻に基づいた順序に従って合成して別の音楽情報を生成し、
    生成した前記別の音楽情報を出力する、
    音楽情報生成方法。
  35. 電子メールに情報として含まれる文字情報を入力し、
    入力した文字情報から少なくとも2つ検出される、当該文字情報により構成される文章を作成した作成者の感情と、前記電子メールの送信元が通知する送信元識別情報を利用して特定される、前記文字情報により構成される文章を作成した前記作成者と、を各電子メール毎に関連付け、
    各電子メール毎に前記作成者に関連付けた少なくとも2つの前記感情に対応する前記音楽情報を取得し、
    取得した前記音楽情報を前記電子メールを受信した時刻に基づいた順序に従って合成して別の音楽情報を生成し、
    生成した前記別の音楽情報を出力する、
    音楽情報生成方法。
  36. 受信した画像情報を入力し、
    入力した画像情報から少なくとも2つ検出される、当該画像情報を再生した画像に写される被撮影者の感情と、前記画像情報の送信元が通知する送信元識別情報を利用して特定される、前記画像情報を再生した画像に写される前記被撮影者と、を受信した画像情報毎に関連付け、
    受信した各画像情報毎に前記被撮影者に関連付けた少なくとも2つの前記感情に対応する前記音楽情報を取得し、
    取得した前記音楽情報を前記画像情報を受信した時刻に基づいた順序に従って合成して別の音楽情報を生成し、
    生成した前記別の音楽情報を出力する、
    音楽情報生成方法。
  37. コンピュータに、請求項31から36のいずれか1項に記載の音楽情報生成方法を実行させるためのプログラム。
JP2008533202A 2006-09-08 2007-09-06 情報処理端末、音楽情報生成方法、およびプログラム Expired - Fee Related JP5225847B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008533202A JP5225847B2 (ja) 2006-09-08 2007-09-06 情報処理端末、音楽情報生成方法、およびプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006243863 2006-09-08
JP2006243863 2006-09-08
JP2008533202A JP5225847B2 (ja) 2006-09-08 2007-09-06 情報処理端末、音楽情報生成方法、およびプログラム
PCT/JP2007/067431 WO2008029889A1 (fr) 2006-09-08 2007-09-06 Terminal de traitement des informations, procédé de génération d'informations musicales et programme

Publications (2)

Publication Number Publication Date
JPWO2008029889A1 true JPWO2008029889A1 (ja) 2010-01-21
JP5225847B2 JP5225847B2 (ja) 2013-07-03

Family

ID=39157315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008533202A Expired - Fee Related JP5225847B2 (ja) 2006-09-08 2007-09-06 情報処理端末、音楽情報生成方法、およびプログラム

Country Status (3)

Country Link
US (2) US7893342B2 (ja)
JP (1) JP5225847B2 (ja)
WO (1) WO2008029889A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7893342B2 (en) * 2006-09-08 2011-02-22 Panasonic Corporation Information processing terminal and music information generating program
US8239189B2 (en) * 2008-02-26 2012-08-07 Siemens Enterprise Communications Gmbh & Co. Kg Method and system for estimating a sentiment for an entity
US8650094B2 (en) * 2008-05-07 2014-02-11 Microsoft Corporation Music recommendation using emotional allocation modeling
US8344233B2 (en) * 2008-05-07 2013-01-01 Microsoft Corporation Scalable music recommendation by search
JP5394118B2 (ja) * 2008-05-09 2014-01-22 株式会社Agi 行動分析装置及びコールセンターシステム
US8583148B2 (en) * 2010-06-07 2013-11-12 Nokia Corporation Method and apparatus for suggesting a message segment based on a contextual characteristic in order to draft a message
US20140025385A1 (en) * 2010-12-30 2014-01-23 Nokia Corporation Method, Apparatus and Computer Program Product for Emotion Detection
US8948893B2 (en) 2011-06-06 2015-02-03 International Business Machines Corporation Audio media mood visualization method and system
KR20130131059A (ko) * 2012-05-23 2013-12-03 삼성전자주식회사 감정 정보를 포함한 폰북 서비스를 제공하기 위한 방법 및 그 전자 장치
CN103873642A (zh) * 2012-12-10 2014-06-18 北京三星通信技术研究有限公司 记载通话记录的方法及设备
US9838672B2 (en) 2013-05-16 2017-12-05 Mediatek Inc. Apparatus and method for referring to motion status of image capture device to generate stereo image pair to auto-stereoscopic display for stereo preview
JP5735592B2 (ja) * 2013-08-28 2015-06-17 ヤフー株式会社 情報処理装置、制御方法および制御プログラム
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
CN106128479B (zh) * 2016-06-30 2019-09-06 福建星网视易信息系统有限公司 一种演唱情感识别方法及装置
JP7073640B2 (ja) * 2017-06-23 2022-05-24 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
KR102387400B1 (ko) * 2017-08-08 2022-04-15 라인 가부시키가이샤 통화 중 감정을 인식하여 인식된 감정을 활용하는 방법 및 시스템
WO2019243955A1 (ja) * 2018-06-22 2019-12-26 株式会社半導体エネルギー研究所 情報処理方法、画像表示方法、情報処理装置、及び画像表示装置
US10812656B1 (en) 2019-06-13 2020-10-20 Salesboost, Llc System, device, and method of performing data analytics for advising a sales representative during a voice call
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
WO2021216016A1 (en) * 2020-11-25 2021-10-28 Ayna Pinar System and method that enables music making from content with emotional analysis

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL129399A (en) 1999-04-12 2005-03-20 Liberman Amir Apparatus and methods for detecting emotions in the human voice
JP2002032306A (ja) * 2000-07-19 2002-01-31 Atr Media Integration & Communications Res Lab メール伝送システム
US6963839B1 (en) * 2000-11-03 2005-11-08 At&T Corp. System and method of controlling sound in a multi-media communication application
JP2002215633A (ja) * 2001-01-24 2002-08-02 Matsushita Electric Ind Co Ltd 通信回線を利用した音楽配信装置、音楽配信方法および音楽配信プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2004061666A (ja) * 2002-07-25 2004-02-26 Photon:Kk 情報信号コンバートシステム
JP4221308B2 (ja) * 2004-01-15 2009-02-12 パナソニック株式会社 静止画再生装置、静止画再生方法及びプログラム
JP4169712B2 (ja) 2004-03-03 2008-10-22 久徳 伊藤 会話支援システム
JP4458888B2 (ja) * 2004-03-22 2010-04-28 富士通株式会社 会議支援システム、議事録生成方法、およびコンピュータプログラム
EP1582965A1 (en) * 2004-04-01 2005-10-05 Sony Deutschland Gmbh Emotion controlled system for processing multimedia data
JP4627154B2 (ja) * 2004-06-10 2011-02-09 独立行政法人情報通信研究機構 人間の感情状態に応じた音楽出力装置及び音楽出力方法
WO2006027596A1 (en) * 2004-09-09 2006-03-16 Sony Computer Entertainment Europe Limited Data processing
JP4871552B2 (ja) * 2004-09-10 2012-02-08 パナソニック株式会社 情報処理端末
US7788104B2 (en) * 2004-09-10 2010-08-31 Panasonic Corporation Information processing terminal for notification of emotion
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法
JP2006155157A (ja) * 2004-11-29 2006-06-15 Sanyo Electric Co Ltd 自動選曲装置
JP2006178104A (ja) 2004-12-21 2006-07-06 Yoshihiko Sano 楽曲生成方法,その装置,そのシステム
US7983910B2 (en) * 2006-03-03 2011-07-19 International Business Machines Corporation Communicating across voice and text channels with emotion preservation
GB2438449C (en) * 2006-05-24 2018-05-30 Sony Computer Entertainment Europe Ltd Control of data processing
US7893342B2 (en) * 2006-09-08 2011-02-22 Panasonic Corporation Information processing terminal and music information generating program
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体
US20090079690A1 (en) * 2007-09-21 2009-03-26 Sony Computer Entertainment America Inc. Method and apparatus for enhancing entertainment software through haptic insertion
US8073676B2 (en) * 2007-09-21 2011-12-06 Sony Computer Entertainment Inc. Method and apparatus for emulation enhancement
US9386139B2 (en) * 2009-03-20 2016-07-05 Nokia Technologies Oy Method and apparatus for providing an emotion-based user interface

Also Published As

Publication number Publication date
US8283549B2 (en) 2012-10-09
US7893342B2 (en) 2011-02-22
JP5225847B2 (ja) 2013-07-03
US20110100199A1 (en) 2011-05-05
US20090316862A1 (en) 2009-12-24
WO2008029889A1 (fr) 2008-03-13

Similar Documents

Publication Publication Date Title
JP5225847B2 (ja) 情報処理端末、音楽情報生成方法、およびプログラム
RU2382514C2 (ru) Система и способ автоматического генерирования пользовательских видеоданных для сигналов вызова и передачи контекстной информации
JP2008061241A (ja) 周囲情報を連続的に記録する方法及び通信システム
JP2008085421A (ja) テレビ電話機、通話方法、プログラム、声質変換・画像編集サービス提供システム、および、サーバ
CN113194203A (zh) 一种用于听障人士的沟通系统、接听拨打方法及通讯系统
TW200824408A (en) Methods and systems for information retrieval during communication, and machine readable medium thereof
JP2003218999A (ja) 音声認識機能付き携帯電話装置及びその制御プログラム
JP2007259427A (ja) 携帯端末装置
JP2007251581A (ja) 音声送信端末および音声再生端末
JP2009053342A (ja) 議事録作成装置
CN115544296A (zh) 音频数据的存储方法及其相关设备
JP2005249880A (ja) 携帯式通信端末によるディジタル絵本システム
JP3927155B2 (ja) 対話記録装置および対話記録プログラム
JP2006140595A (ja) 情報変換装置及び情報変換方法、並びに通信装置及び通信方法
JP2003319087A (ja) 通信装置
JP7423164B2 (ja) カラオケ装置
JP2006221253A (ja) 画像処理装置および画像処理プログラム
JP2008060776A (ja) 携帯端末装置による録音通知方法及び携帯端末装置及び通信システム
KR20080032751A (ko) 휴대 단말기의 동영상 생성 방법 및 콘텐츠 제공 방법
JP2008124597A (ja) 音声会議システム
KR100553437B1 (ko) 음성 합성을 이용한 음성 메시지 전송 기능을 가지는무선통신 단말기 및 그 방법
TWI286737B (en) Karaoke system
JP2012004885A (ja) 音声通話端末装置、音声通話システム、及び音声通話方法
JP5326539B2 (ja) 留守番電話システム、留守番電話サービスサーバ及び留守番電話サービス方法
JP2011155354A (ja) 音声メール実現システム、音声メール実現サーバ、その方法及びそのプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130313

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees