JP5243646B2 - サービスサーバ装置、サービス提供方法、サービス提供プログラム - Google Patents

サービスサーバ装置、サービス提供方法、サービス提供プログラム Download PDF

Info

Publication number
JP5243646B2
JP5243646B2 JP2012117545A JP2012117545A JP5243646B2 JP 5243646 B2 JP5243646 B2 JP 5243646B2 JP 2012117545 A JP2012117545 A JP 2012117545A JP 2012117545 A JP2012117545 A JP 2012117545A JP 5243646 B2 JP5243646 B2 JP 5243646B2
Authority
JP
Japan
Prior art keywords
voice communication
communication terminal
voice
task
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012117545A
Other languages
English (en)
Other versions
JP2013009367A (ja
Inventor
和徳 那須
精司 柴田
まり 阿久澤
健 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2012117545A priority Critical patent/JP5243646B2/ja
Priority to EP12789828.6A priority patent/EP2590393A4/en
Priority to CN201280002148.8A priority patent/CN103026697B/zh
Priority to CN201510201392.2A priority patent/CN104820662B/zh
Priority to US13/816,705 priority patent/US9110888B2/en
Priority to PCT/JP2012/003393 priority patent/WO2012160824A1/ja
Publication of JP2013009367A publication Critical patent/JP2013009367A/ja
Application granted granted Critical
Publication of JP5243646B2 publication Critical patent/JP5243646B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0638Interactive procedures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/39Electronic components, circuits, software, systems or apparatus used in telephone systems using speech synthesis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/60Medium conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/20Aspects of automatic or semi-automatic exchanges related to features of supplementary services
    • H04M2203/2061Language aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/42221Conversation recording systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、通信を介してサービスを提供するサービスサーバ装置、サービス提供方法、サービス提供プログラムに係り、特に、電話機による通話中に通話以外のサービスを提供するサービスサーバ装置、サービス提供方法、サービス提供プログラムに関する。
現在、話者が任意の言語を使って話した内容を自動的に他の言語に翻訳する、翻訳機や翻訳システムが実用化されている。従来の翻訳機等は、一人用型または対面会話型と呼ばれるものと、遠隔会話型と呼ばれるものがある。
図13(a)は、一人用の翻訳機を例示した図である。図13(a)において、例えば、話者が「この本はいくらですか?」と日本語で翻訳機に音声で入力する。すると、翻訳機の翻訳機能により、この日本語の音声が英訳されて「How much is this book?」の合成音声が出力される。一人用の翻訳機は、和英辞書として使用したり、対面中の他者に合成音声を聴かせることによって話者が自身の意思を他者に伝えることに使用したりすることができる。このような従来の翻訳機は、例えば、非特許文献1に記載されている。
図13(b)は、遠隔会話型の翻訳機を例示した図である。図13(b)に示した翻訳機は、電話機の音声通信機能と翻訳機能とを備えている。図13(b)において、例えば、話者である日本人が、母国語である日本語で「3名で予約を御願いします」と翻訳機に音声入力する。すると、翻訳機の翻訳機能により、この日本語の音声が英訳されて「Please make a reservation for 3 people」の合成音声が出力される。遠隔会話型の翻訳機は、話者は母国語で話しながら、この母国語を理解できない他者にも自身の意思を伝えることができる。このような従来の翻訳機は、例えば、非特許文献2に記載されている。
さらに、遠隔会話型の翻訳機としては、特許文献1に記載されたものがある。特許文献1に記載された電話システムは、電話の内容を翻訳して通話先に送信することができるのみならず、話者の通話音声をも通話先に送信することができる。このため、特許文献1記載の発明は、あたかも通訳を介して通話相手と会話しているような感覚をユーザに与えることができるようになる。
特許第3741025号公報
andro navi、[online]、「iTranslator for Android〜20カ国語に対応した高機能翻訳アプリ〜」、[平成23年5月13日検索]、インターネット<URL:http://andronavi.com/2010/09/40880> iplatform.org、[online]、セカイフォン[平成23年5月13日検索]、インターネット<URL:http://www.iplatform.org/>
ところで、使用する言語が互いに異なる二者が会話をする場合、通訳者が両者の言語を翻訳するのが一般的である。通訳者が両者の言語を翻訳するように、対面で対話しているような臨場感を持ったサービスは、上記の非特許文献1、非特許文献2のいずれを用いた場合でも、実現することができない。
また、上記した特許文献1記載の発明は、話者の通話音声をも通話先に送信することができる。しかしながら、特許文献1記載の発明では、話者の音声と一緒に通話内容を翻訳したデータを送るにあたって専用のアプリケーションを起動している。このような特許文献1記載の発明は、発明を実施するために新たなアプリケーションを開発することが必要になり、この開発に時間や人的、金銭的なコストが発生するという問題がある。
本発明は、以上の点に鑑みてなされたものであって、遠隔地にありながら対面で対話しているような臨場感を持ったサービスを実現でき、しかも新たな専用のアプリケーションを開発する必要がないサービスサーバ装置、サービス提供方法、サービス提供プログラムを提供することを目的とする。
以上の課題を解決するため、本発明のサービスサーバ装置(例えば図2に示したサービスサーバ装置200)は、音声によって互いに音声通信する複数の音声通信端末装置(例えば図2に示した発通信端末装置241a、着通信端末装置241b)と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションによって実行されるタスクとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置であって、前記別タスクを音声通信の間に実行する指示を受付ける指示受付部(例えば図2に示したサービス起動部250)と、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音部(例えば図2に示した電話/呼制御イネーブラ201)と、前記指示受付部によって前記指示が受付けられた場合、前記録音部によって録音された前記通話音声に基づいて前記別タスクを実行するタスク実行部(例えば図2に示した音声認識イネーブラ203、テキスト翻訳イネーブラ204、音声合成イネーブラ202)と、前記タスク実行部によって前記別タスクが実行されたことによって得られるテキストデータと、前記タスク実行部によって前記別タスクが実行されたことによって得られる音声データと、を含むタスクデータを、音声通信を行っている複数の前記音声通信端末装置にそれぞれ提供するタスクデータ提供部(例えば図2に示した通信制御部224)と、前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付部と、前記訂正指示受付部によって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習部(例えば図2、図10に示した学習部280)と、を含み、前記タスク実行部は、前記通話音声をテキストに変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成し、前記タスクデータ提供部は、前記テキストデータと、前記翻訳テキストデータと、前記音声データとを含む前記タスクデータを、前記話者の前記音声通信端末装置に提供し、前記タスクデータを、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信を行っている音声通信端末装置に提供することを特徴とする。
また、本発明のサービスサーバ装置(例えば図2に示したサービスサーバ装置200)は、音声によって互いに音声通信する複数の音声通信端末装置(例えば図2に示した発通信端末装置241a、着通信端末装置241b)と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションによって実行されるタスクとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置であって、前記別タスクを音声通信の間に実行する指示を受付ける指示受付部(例えば図2に示したサービス起動部250)と、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音部(例えば図2に示した電話/呼制御イネーブラ201)と、前記指示受付部によって前記指示が受付けられた場合、前記録音部によって録音された前記通話音声に基づいて前記別タスクを実行するタスク実行部(例えば図2に示した音声認識イネーブラ203、テキスト翻訳イネーブラ204、音声合成イネーブラ202)と、前記タスク実行部によって前記別タスクが実行されたことによって得られるテキストデータと、前記タスク実行部によって前記別タスクが実行されたことによって得られる音声データと、を含むタスクデータを、音声通信を行っている複数の前記音声通信端末装置にそれぞれ提供するタスクデータ提供部(例えば図2に示した通信制御部224)と、を含み、前記タスク実行部は、前記通話音声をテキストに変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成し、前記タスクデータ提供部は、前記音声データを含む第1のタスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記第1のタスクデータを、前記話者の前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供し、前記テキストデータ及び前記翻訳テキストデータを含む第2のタスクデータを、前記話者の音声通信端末装置及び前記話者の音声通信端末装置と音声通信する音声通信端末装置に対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供することを特徴とする。
また、本発明のサービスサーバ装置(例えば図10に示したサービスサーバ装置900)は、音声によって互いに音声通信する複数の音声通信端末装置(例えば図10に示した発通信端末装置241a、着通信端末装置241b)と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置であって、前記別タスクを前記音声通信の間に実行する指示を受付ける指示受付部(例えば図10に示したサービス起動部250)と、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音部(例えば図10に示した電話/呼制御イネーブラ201)と、前記指示受付部によって前記指示が受付けられた場合、前記録音部によって録音された前記通話音声に基づいて前記別タスクを実行するタスク実行部(例えば図10に示した音声認識イネーブラ203、情報管理イネーブラ214、画像・映像合成/編集イネーブラ215)と、前記タスク実行部によって前記別タスクが実行されたことによって得られるタスクデータを、音声通信を行っている複数の前記音声通信端末装置にそれぞれ提供するタスクデータ提供部(例えば図10に示した通信制御部224)と、前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付部と、前記訂正指示受付部によって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習部(例えば図2、図10に示した学習部280)と、を含み、前記タスク実行部は、前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成し、前記タスクデータ提供部は、前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供することを特徴とする。
また、本発明のサービスサーバ装置(例えば図10に示したサービスサーバ装置900)は、音声によって互いに音声通信する複数の音声通信端末装置(例えば図10に示した発通信端末装置241a、着通信端末装置241b)と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置であって、前記別タスクを前記音声通信の間に実行する指示を受付ける指示受付部(例えば図10に示したサービス起動部250)と、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音部(例えば図10に示した電話/呼制御イネーブラ201)と、前記指示受付部によって前記指示が受付けられた場合、前記録音部によって録音された前記通話音声に基づいて前記別タスクを実行するタスク実行部(例えば図10に示した音声認識イネーブラ203、情報管理イネーブラ214、画像・映像合成/編集イネーブラ215)と、前記タスク実行部によって前記別タスクが実行されたことによって得られるタスクデータを、音声通信を行っている複数の前記音声通信端末装置にそれぞれ提供するタスクデータ提供部(例えば図10に示した通信制御部224)と、を含み、前記タスク実行部は、前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、ユーザによってなされた指示が該ユーザのスケジュールの調整であると判定された場合、予め登録された前記ユーザに関する行動と、当該行動が行われる日時に関するスケジュール情報を抽出し、抽出されたスケジュール情報を使って複数の前記音声通信端末装置のユーザの、行動が登録されていない共通の日時を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成し、前記タスクデータ提供部は、前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供することを特徴とする。
また、本発明のサービスサーバ装置(例えば図10に示したサービスサーバ装置900)は、音声によって互いに音声通信する複数の音声通信端末装置(例えば図10に示した発通信端末装置241a、着通信端末装置241b)と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置であって、前記別タスクを前記音声通信の間に実行する指示を受付ける指示受付部(例えば図10に示したサービス起動部250)と、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音部(例えば図10に示した電話/呼制御イネーブラ201)と、前記指示受付部によって前記指示が受付けられた場合、前記録音部によって録音された前記通話音声に基づいて前記別タスクを実行するタスク実行部(例えば図10に示した音声認識イネーブラ203、情報管理イネーブラ214、画像・映像合成/編集イネーブラ215)と、前記タスク実行部によって前記別タスクが実行されたことによって得られるタスクデータを、音声通信を行っている複数の前記音声通信端末装置にそれぞれ提供するタスクデータ提供部(例えば図10に示した通信制御部224)と、を含み、前記タスク実行部は、前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成し、前記タスクデータ提供部は、前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、複数の前記音声通信端末装置のいずれかに対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供し、前記通話音声を、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供することを特徴とする。
また、本発明のサービスサーバ装置は、上記した発明において、前記タスク実行部が、ユーザによってなされた指示が該ユーザのスケジュールの調整であると判定された場合、予め登録された前記ユーザに関する行動と、当該行動が行われる日時に関するスケジュール情報を抽出し、抽出されたスケジュール情報を使って複数の前記音声通信端末装置のユーザの、行動が登録されていない共通の日時を抽出することが望ましい。
また、本発明のサービスサーバ装置は、上記した発明において、前記タスクデータ提供部は、前記音声通信端末装置の代わりに、該音声通信端末装置に対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に、前記タスクデータのうちの前記テキストデータを送ることが望ましい。
また、本発明のサービス提供方法は、音声によって互いに通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置のサービス提供方法であって、前記別タスクを音声通信の間に実行する指示を受付ける指示受付ステップと、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音ステップと、前記指示受付ステップにおいて前記指示が受付けられた場合、前記録音ステップにおいて録音された前記通話音声に基づいて、前記通話音声をテキストに変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成するタスク実行ステップと、前記テキストデータと、前記翻訳テキストデータと、前記音声データとを含むタスクデータを、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信を行っている音声通信端末装置に提供するタスクデータ提供ステップと、前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付ステップと、前記訂正指示受付ステップによって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習ステップと、を含むことを特徴とする。
また、本発明のサービス提供方法は、音声によって互いに通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置のサービス提供方法であって、前記別タスクを音声通信の間に実行する指示を受付ける指示受付ステップと、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音ステップと、前記指示受付ステップにおいて前記指示が受付けられた場合、前記録音ステップにおいて録音された前記通話音声に基づいて、前記通話音声をテキストに変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成するタスク実行ステップと、前記音声データを含む第1のタスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記第1のタスクデータを、前記話者の前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供し、前記テキストデータ及び前記翻訳テキストデータを含む第2のタスクデータを、前記話者の音声通信端末装置及び前記話者の音声通信端末装置と音声通信する音声通信端末装置に対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供するタスクデータ提供ステップと、を含むことを特徴とする。
本発明のサービス提供方法は、音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置のサービス提供方法であって、前記別タスクを音声通信の間に実行するための指示を受付ける指示受付ステップと、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音ステップと、前記指示受付ステップにおいて前記指示が受付けられた場合、前記録音ステップにおいて録音された前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行ステップと、
前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供ステップと、前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付ステップと、前記訂正指示受付ステップによって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習ステップと、を含むことを特徴とする。
また、本発明のサービス提供方法は、音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる、音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置のサービス提供方法であって、前記別タスクを音声通信の間に実行するための指示を受付ける指示受付ステップと、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音ステップと、前記指示受付ステップにおいて前記指示が受付けられた場合、前記録音ステップにおいて録音された前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、ユーザによってなされた指示が該ユーザのスケジュールの調整であると判定された場合、予め登録された前記ユーザに関する行動と、当該行動が行われる日時に関するスケジュール情報を抽出し、抽出されたスケジュール情報を使って複数の前記音声通信端末装置のユーザの、行動が登録されていない共通の日時を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行ステップと、前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供ステップと、を含むことを特徴とする。
また、本発明のサービス提供方法は、音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる、音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置のサービス提供方法であって、前記別タスクを音声通信の間に実行するための指示を受付ける指示受付ステップと、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音ステップと、前記指示受付ステップにおいて前記指示が受付けられた場合、前記録音ステップにおいて録音された前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行ステップと、前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、複数の前記音声通信端末装置のいずれかに対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供し、前記通話音声を、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供ステップと、を含むことを特徴とする。
本発明のサービス提供プログラムは、音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置において実行されるサービス提供プログラムであって、コンピュータに、前記別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音機能と、前記指示受付機能によって前記指示が受付けられた場合、前記録音機能において録音された前記通話音声に基づいて、前記通話音声をテキスト変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成するタスク実行機能と、前記テキストデータと、前記翻訳テキストデータと、前記音声データとを含むタスクデータを、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信を行っている音声通信端末装置に提供するタスクデータ提供機能と、前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付機能と、前記訂正指示受付部によって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習機能と、を実現させることを特徴とする。
また、音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置において実行されるサービス提供プログラムであって、コンピュータに、前記別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音機能と、前記指示受付機能によって前記指示が受付けられた場合、前記録音機能において録音された前記通話音声に基づいて、前記通話音声をテキスト変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成するタスク実行機能と、前記音声データを含む第1のタスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記第1のタスクデータを、前記話者の前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供し、前記テキストデータ及び前記翻訳テキストデータを含む第2のタスクデータを、前記話者の音声通信端末装置及び前記話者の音声通信端末装置と音声通信する音声通信端末装置に対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供するタスクデータ提供機能と、を実現させることを特徴とする。
本発明のサービス提供プログラムは、音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置において実行されるサービス提供プログラムであって、コンピュータに、前記別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音機能と、前記指示受付機能によって前記指示が受付けられた場合、前記録音機能において録音された前記通話音声に基づいて、前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行機能と、前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供機能と、前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付機能と、前記訂正指示受付部によって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習機能と、を実現させることを特徴とする。
また、本発明のサービス提供プログラムは、音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置において実行されるサービス提供プログラムであって、コンピュータに、前記別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音機能と、前記指示受付機能によって前記指示が受付けられた場合、前記録音機能において録音された前記通話音声に基づいて、前記音声通信端末装置のユーザによってなされた指示を判定し、ユーザによってなされた指示が該ユーザのスケジュールの調整であると判定された場合、予め登録された前記ユーザに関する行動と、当該行動が行われる日時に関するスケジュール情報を抽出し、抽出されたスケジュール情報を使って複数の前記音声通信端末装置のユーザの、行動が登録されていない共通の日時を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行機能と、少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供機能と、を実現させることを特徴とする。
また、本発明のサービス提供プログラムは、音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置において実行されるサービス提供プログラムであって、コンピュータに、前記別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音機能と、前記指示受付機能によって前記指示が受付けられた場合、前記録音機能において録音された前記通話音声に基づいて、前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行機能と、前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、複数の前記音声通信端末装置のいずれかに対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供し、前記通話音声を、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供機能と、を実現させることを特徴とする。
本発明によれば、音声による通信に係るアプリケーションとは別のアプリケーションによってタスクを実行することから、既存の音声に係るアプリケーションとタスクを実行するアプリケーションとを使って話者の通話音声をタスクの実行結果と共に通話相手に送信することができる。このような本発明は、既存のアプリケーションを用いながら、遠隔地にありながら対面で会話しているような臨場感を持った通話サービスを提供することができる。
本発明の実施形態1の前提となるサービスの概要を説明するための図である。 本発明の実施形態1のサービスサーバ装置の一構成例を示すブロック図である。 図2に示した学習部を説明するための機能ブロック図である。 図2に示したサービスサーバ装置によって行われる処理の手順を説明するための図である。 図2、図4に示したサービスサーバ装置と発通信端末装置、着通信端末装置とを接続するCS網、PS網を具体的に説明するための図である。 図2、図4に示したサービスサーバ装置と発通信端末装置、着通信端末装置とを接続するPS網を具体的に説明するための図である。 実施形態1のサービスサーバ装置によって実現されるサービス提供方法を説明するための図である。 実施形態1のサービス提供方法を説明するためのフローチャートである。 実施形態2のスケジューラアプリの概要を説明するための図である。 実施形態2のサービスサーバ装置を示した図である。 実施形態2のタスクデータを例示した図である 実施形態2のサービス提供方法を説明するためのフローチャートである。 図13(a)は一般的な翻訳機の構成を説明するための図、図13(b)は一般的な翻訳システムの構成を説明するための図である。
以下、図を参照して本発明に係るサービスサーバ装置、サービス提供方法、サービス提供プログラムの実施形態1、実施形態2について説明する。以下に参照する各図において、他の図と同様の構成については、同様の符号を付して示し、その説明の一部を省略することがある。
(実施形態1)
[コミュニケーション・コンシェルジュ]
図1は、実施形態1の前提となるサービスの概要を説明するための図である。このサービスは、通話機能を有する通信端末装置による会話(以下、通話と記す)をサポートし、直接会って会話するようなコミュニケーションを実現するよう開発されている。実施形態1の前提となるサービスを、以下、CC(コミュニケーション・コンシェルジュ)サービスとも記す。
CCサービスは、図1に示したように、ネットワークNに接続されている通信端末装置c1〜c5に提供されるサービスである。通話機能を有する電話機、ネットワークNと接続してパケット通信によりテキストを送受信できる通信端末装置、または、通話音声とテキストの両方を送受信できる通信端末装置(例えばスマートフォン等)、のいずれかを、通信端末装置c1〜c5として用いることができる。また、通信端末装置c1〜c5は、テキストばかりでなく、静止画像や動画像、音楽を送受信する機能を有するものであってもよい。
実施形態1では、ネットワークNに接続されている通信端末装置c1〜c5のうちの少なくとも1つの装置のユーザと、他の少なくとも1つの装置のユーザとの間で音声通話が行われる場合を想定している。そして、電話機を使って通話中のユーザは、その通話中に、別のタスクを起動してタスクを実行させることができる。この起動されたタスクの実行によって得られた情報は、通話中の電話機またはこの電話機に対応する他の通信端末装置が受信することができる。
実施形態1を実現するには、電話機を用いた通話中に、通話とは別のタスクによるサービスを提供するサービスサーバ装置が必要である。実施形態1を実現するためのサービスサーバ装置は、通話内容の翻訳、翻訳後の通話内容の合成音声化、通話音声に合成音声を挿入することによるデータ(以下、タスクデータとも記す)の生成、翻訳後の通話内容のテキスト化、及びタスクデータとテキスト化されたデータ(以下、テキストデータとも記す)を連動して通話中の電話機等に送信するタスクを実行する。
以下、実施形態1を実現するためのサービスサーバ装置について、より具体的に説明する。
[サービスサーバ装置]
(i)機能
図2は、実施形態1のサービスサーバ装置の一構成例を示すブロック図である。図2のサービスサーバ装置200は、複数のイネーブラを含むイネーブラ群261と通信可能に構成されている。なお、イネーブラとは、コンピュータを動作させるためのドライバソフトウェアであり、個々の目的ごとに設計されたソフトウェア(アプリケーション)を指す。
イネーブラ群261は、電話機能用のイネーブラ群205と、実施形態1に特有の機能である翻訳機能を実現するために付加されたイネーブラ群206とを含んでいる。イネーブラ群205は、セッション連携イネーブラ218、データお預かりイネーブラ207、デバイス管理制御イネーブラ208、プレゼンスイネーブラ209、電話帳イネーブラ210、SNS(Social Networking Service)イネーブラ211、位置情報検出イネーブラ262、電話/呼制御イネーブラ201、メッセージングイネーブラ212等を含んでいる。
また、イネーブラ群206は、ポイント管理イネーブラ219、コミュニティ管理イネーブラ213、アプリケーションに応じた所定の情報を管理する情報管理イネーブラ214、音声合成イネーブラ202、画像・映像合成/編集イネーブラ215、フォント変換イネーブラ216、音声認識イネーブラ203、画像・映像認識イネーブラ217、テキスト翻訳イネーブラ204等を含んでいる。
なお、電話機能用のイネーブラ群205は、音声による通信に係るイネーブラの集合である。また、イネーブラ群206は、音声による通信に係るアプリケーションとは別のイネーブラの集合である。すなわち、本明細書では、イネーブラ群205に含まれるイネーブラが音声による通信に係るアプリケーションによって実行されるタスクであり、イネーブラ群206に含まれるイネーブラが、音声による通信に係るアプリケーションによって実行されるタスクとは別のアプリケーションによって実行される作業である別タスクである。
イネーブラ群261に含まれているイネーブラ群205および206は、ネットワーク側でサービスを提供するための環境、いわゆるサービス・イネーブラ・ネットワーク(以下、SENと記す)2を構成する。SEN2は、翻訳サービスを含む複数のサービスを提供できる複数のインターネットプレイヤPと連携して様々なサービスを提供することができる。
実施形態1では、翻訳にかかるタスクを実行するために、サービスサーバ装置200がイネーブラ群205の電話/呼制御イネーブラ201を取得してサービスアプリ部に保存する。また、サービスサーバ装置200は、イネーブラ群206から音声合成イネーブラ202、音声認識イネーブラ203、テキスト翻訳イネーブラ204をサービスアプリ部に保存する。また、前記したように、実施形態1では、全てのサービスアプリ部がサービス起動部250を含んでいる。この結果、実施形態1ではサービスアプリ部が翻訳に係るサービスを提供するサービスアプリ部225になる。
サービスサーバ装置200は、サービスの種別に応じたタスクの実行に必要なイネーブラを選択して取得することができる。サービスサーバ装置200によって取得されたイネーブラは、後述するサービスアプリ(サービス・アプリケーション・ソフトウェア)部としてサービスサーバ装置200にサービスごとに保存される。
このような構成により、実施形態1のサービスサーバ装置200は、既存のイネーブラを組み合わせてサービスに必要なアプリケーションを構築することができる。このため、実施形態1によれば、新たに専用のアプリケーションを開発する必要がなく、アプリケーションの開発に係る時間及びコストが発生しない。さらに、実施形態1によれば、実績がある既存のアプリケーションを使ってサービスを提供することができるため、新たなアプリケーションを開発することに比べて信頼性が高いサービスを提供することができる。
実施形態1では、発通信端末装置241a、着通信端末装置241bが互いに通話しながらサービスサーバ装置200によりサービスの提供を受けるものとする。サービスサーバ装置200は、発通信端末装置241a、着通信端末装置241bにサービスを提供する場合には、タスクを実行する。実施形態1における発通信端末装置241aおよび着通信端末装置241bは、例えば、電話機の機能と、テキスト、静止画像、動画像等を送受信できる機能とを併せ持つ携帯電話機である。
サービスサーバ装置200は、サービスに応じたイネーブラを有するサービスアプリ部の他、電話機としての通話を制御する既存の構成を備えている。通話を制御する構成としては、CCサービスの加入者(すなわちCCサービスの提供を受けるユーザ、以下、単に「ユーザ」と記す)に関するデータを保存する加入者プロファイル蓄積部221、CCサービスの提供の要求を認証、許可する認証許可部222、通話に課せられる課金に関する処理をする課金処理部223、通話やパケット通信を制御する通信制御部224がある。通信制御部224は、発明通信端末装置241aや、着通信端末装置241bに、タスクデータをそれぞれ提供する提供部としての機能も備えている。
加入者プロファイル蓄積部221には、ユーザの氏名や使用している電話機の電話番号と共に、ユーザが使用する言語の種類が予め登録されている。この他、加入者プロファイル蓄積部221には、電話機を特定する情報として、電話機のデータ通信セッションに含まれるMSISDN(Mobile Subscriber ISDN Number:電話機のSIMカードに登録されている電話番号)が登録されている。さらに、前記したタブレットPCやフォトフレーム等の装置を電話機に対応付けるには、それらの装置の識別子を、該当する電話機の電話番号に対応付けて加入者プロファイル蓄積部221に登録すればよい。
また、通信制御部224は、サービスサーバ装置200において生成されたタスクデータを発通信端末装置241a、着通信端末装置241bに提供する。さらに、実施形態1のサービスサーバ装置200は、学習部280を備えている。学習部280については後に説明する。
サービスサーバ装置200は、複数のサービスアプリ部225、226、227を備え得る。また、実施形態1では、複数のサービスアプリ部225、226、227を例えば複数のイネーブラを記憶できる記憶領域とすることもできる。このようにした場合、記憶されるイネーブラによってこの記憶領域をサービスアプリ部225、226、227のいずれにもなり得るようにすることができる。また、実施形態1のサービスアプリ部となる記憶領域には、サービス起動部250が記憶されている。このサービス起動部250は、例えば、発通信端末装置241aからIPネットワーク網230を介して送信される指示を受付けてサービスを提供するためイネーブラを起動する機能を有している。
実施形態1では、ユーザが発通信端末装置241aを操作すると、サービス起動部250が、サービスアプリ部225に保存されているイネーブラを起動する。このサービスアプリ部225に保存されているイネーブラが起動されると、タスクの実行が開始される。起動された電話/呼制御イネーブラ201は、発通信端末装置241a、着通信端末装置241b間の通信中に、話者の音声(以下、通話音声と記す)を録音する。なお、通話音声の録音は、電話/呼制御イネーブラ201が備える周知の留守番電話の録音を制御するものとし、留守番電話の通話音声録音機能を使って行われるようにしてもよい。
音声認識イネーブラ203は、録音された音声からテキストデータを生成する。音声認識イネーブラ203は、例えば、録音された音声を形態素解析によって解析し、その音声をテキストデータに変換する。
テキスト翻訳イネーブラ204は、音声認識イネーブラ203が生成したテキストデータを、着通信端末装置241bのユーザが使用する言語に翻訳することによって、翻訳テキストデータを生成する。
音声合成イネーブラ202は、テキスト翻訳イネーブラ204によって生成された翻訳テキストデータを音声によって表される音声に変換することによって、合成音声によって読み上げるための音声データを生成する。
実施形態1では、音声合成イネーブラ202によって生成された音声データが、通話音声と共に発通信端末装置241a、着通信端末装置241bに提供される。また、実施形態1では、音声認識イネーブラ203によって生成されたテキストデータとテキスト翻訳イネーブラ204によって生成された翻訳テキストデータも、発通信端末装置241a、着通信端末装置241bに提供される。実施形態1では、音声データと、テキストデータ及び翻訳テキストデータとを併せてタスクデータとも記すものとする。
以上のように、音声認識イネーブラ203、テキスト翻訳イネーブラ204、音声合成イネーブラ202は、サービス起動部250によってタスク実行の指示が受付けられた場合、電話/呼制御イネーブラ201によって録音された音声に基づいてタスクを実行し、タスクの実行によってタスクデータが生成される。このタスクデータは、発通信端末装置241a及び着通信端末装置241bに提供される。
以上のように構成された実施形態1のサービスサーバ装置において、サービス起動部250が指示受付部として機能する。また、電話/呼制御イネーブラ201が録音部として機能し、音声認識イネーブラ203、テキスト翻訳イネーブラ204、音声合成イネーブラ202がタスク実行部及びタスクデータ生成部として機能する。
なお、実施形態1では、サービス起動部250が、発通信端末装置241a、着通信端末装置241bがサービスの提供を指示して直ちに各イネーブラを起動するものではなく、加入者プロファイル蓄積部221から予め登録されている加入者情報を取得するようにしてもよい。そして、加入者情報に発通信端末装置241a、着通信端末装置241bの少なくともいずれかを特定する情報が含まれている場合に発通信端末装置241a、着通信端末装置241bの指示を受付けるようにしてもよい。
また、実施形態1では、サービスの提供を指示する場合、携帯電話機が電話番号に予め設定されている特定の番号等の情報を付加して発信するようにサービス起動部250の起動条件を設定してもよい。このように起動条件を設定した場合、サービス起動部250は、発通信端末装置241a、着通信端末装置241bの少なくともいずれかが、予め定められた情報が付加された電話番号を使って発呼した場合に発通信端末装置241a、着通信端末装置241bの指示を受付けることになる。
さらに、実施形態1は、サービス起動部250が発通信端末装置241a、着通信端末装置241bの操作によって出力される信号によって各イネーブラを起動するものに限定されるものではない。例えば、電話/呼制御イネーブラ201によって録音された通話音声が入力された場合に、サービス起動部250が各イネーブラを起動してタスクの実行を開始するようにしてもよい。このようにサービス起動部250を構成する場合、アプリケーションを特定できる文言、例えば、「翻訳開始」などの文言を予め設定しておく。そして、音声認識イネーブラ203が録音された通話音声を形態素解析した結果、予め設定された文言が通話音声に含まれている場合に限り、サービス起動部250が各イネーブラを起動してタスクを実行する。
以上説明した実施形態1において、発通信端末装置241a、着通信端末装置241bは、テキストを送信可能な携帯電話機に限定されるものではない。発通信端末装置241a、着通信端末装置241bを通話機能だけを有する電話機とした場合、通話機能だけを有する電話機からの要請によってタスクの実行結果をこの電話機に予め対応付けられたタブレットPC242a、242bやフォトフレーム243a、243bに送信するようにしてもよい。
(ii)学習部
図3は、図2に示した学習部280を説明するための機能ブロック図である。図2n示した学習部280は、重み付け部313を備えている。図2に示した音声認識イネーブラ203はデータベース(以下、DBと記す)311にアクセスできるように構成されている。DB311は、サービスサーバ装置の内部にあってもよいし、サービスサーバ装置とネットワーク等によって接続されるものであってもよい。
実施形態1では、DB311に予め多数のテキストが登録されていて、音声認識イネーブラ203は、DB311にアクセスして形態素解析された通話音声に対応するテキストを取得する。そして、取得されたテキストを使って通話音声をテキストに変換し、テキストデータを生成する。テキストデータはタスクデータの1つとして発通信端末装置241a、着通信端末装置241bに送信される。
発通信端末装置においては、ユーザがテキストデータを確認することによって通話音声の誤認識やそれに伴う誤訳を容易に検出することができる。誤認識や誤訳があった場合、実施形態1では、発通信端末装置の表示画面に表示されているテキストデータをユーザが編集して訂正すべき箇所を示し、サービスサーバ装置200に提供してテキストデータを訂正するよう指示する。このような訂正の指示は、テキストや画像の送受信が可能な携帯電話機の既存の構成を使って容易に実現することができる。
発通信端末装置241aから訂正を指示する訂正指示信号が送信されると、訂正指示信号は音声認識イネーブラ203に到達する。音声認識イネーブラ203は、訂正指示信号が発通信端末装置から送信されてきた旨と、訂正指示信号によって指示された訂正箇所を重み付け部313に通知する。重み付け部313は、DB311にアクセスし、訂正が指示されたテキストに対応する通話音声について、このテキストに付与されている重みを低下させるように変更する。
そして、次回音声認識イネーブラ203が通話音声をDB311に対照する場合、付与されている重みが大きいテキストを優先的に通話音声とマッチングするように構成する。このようにすれば、通話音声に対応する可能性がより高いテキストをより短時間のうちに抽出することができる。
図4は、図2に示したサービスサーバ装置によって行われる処理の手順を説明するための図である。
図2に示したサービスアプリ部225では、図2に示した電話/呼制御イネーブラ201によって通話音声の録音が実行される(ステップS311)。通話音声の録音は、音声が録音されない状態(以下、無音録音状態とも記す)から次の無音録音状態までの間に発せられた通話音声を1単位として行われる。次に、音声認識イネーブラ203によって音声は形態素解析され、解析される。解析は、1単位として録音された通話音声ごとに行われる。そして、解析結果にしたがって通話音声はテキストデータに変換される(ステップS312)。
次に、サービスアプリ部225では、テキスト翻訳イネーブラ204により、ステップS312において変換されたテキストデータが、予め着通信端末装置241bのユーザによって加入者プロファイル蓄積部221に登録されている言語の翻訳テキストデータに翻訳される(ステップS313)。翻訳後の翻訳テキストデータは、合成音声に変換され、音声データとなる(ステップS314)。さらに、音声データが通話音声に挿入される(ステップS315)。
ここで、「音声データを通話音声に挿入する」とは、通話音声に合わせて音声データを送信するタイミングを決定することをいう。このように音声データの送信タイミングを決定することにより、通話音声は通常とおりCS(Circuit Switched)網を介して発通信端末装置241a、着通信端末装置241bに送信される。
また、音声データも、CS網を介してデータ通信セッションにより発通信端末装置241a、着通信端末装置241bに送信されるが、PS(Packet Switched)網を経由して送信するようにすることもできる。ただし、CS網を介して送信することにより、実施形態1は、音声データをリアルタイムで送信することができるようになる。さらに、通話音性を翻訳してテキスト化したテキストデータは、PS網を利用して送信される。なお、図4においては、CS網とPS網とに符号320を付して示すものとする。
さらに、実施形態1は、通話音声をCS網で送信するものに限定されるものではなく、通話音声がPS網を介して発通信端末装置241a、着通信端末装置241bに送信されるようにしてもよい。
実施形態1では、前記したように、無音録音状態から次の無音録音状態までの間に発話された通信音声を1単位として録音、認識、翻訳してタスクデータを生成し、その都度、発通信端末装置241a、着通信端末装置241bに送信することにより、通話音声とタスクデータとの同期をとって発通信端末装置241a、着通信端末装置241bに送信することができる。
実施形態1では、通話の違和感を避けるため、通話音声は通常通りリアルタイムで通信先の発通信端末装置241a、着通信端末装置241bに送信される。このため、通話音声に音声データが挿入されることにより、ユーザには音声データによる音声が通話音声に重なって聞こえることがある。しかし、通訳者を介して会話する場合、一般的に人は通訳者が発話している間は自身の発話を控える傾向にあると考えられる。このため、音声データによる音声と通話音声とが重なって会話に支障をきたすことは起こり難い。
実施形態1では、発通信端末装置241a、着通信端末装置241bの両方がサービスアプリ部225にアクセスしてテキストデータ、翻訳テキストデータ及び音声データを取得する。このように、サービスアプリ部225を介して発通信端末装置241a、着通信端末装置241bを接続する方式は、ブリッジ接続と呼ばれている。
また、図1に示したサービスサーバ装置200は、発通信端末装置241aの電話回線と、着通信端末装置241bの電話回線とを、周知の方法によって識別することができる。このため、発通信端末装置241aの上り回線u1、下り回線d1、着通信端末装置241bの上り回線u2、下り回線d2を区別することができ、ユーザの発話を適切に翻訳して通話相手に送信することができる。
以上説明した実施形態1によれば、通話音声、合成音声の音声データ、テキストデータ、翻訳テキストデータを発通信端末装置241a、着通信端末装置241bに提供することができる。このため、ユーザは、自身の発話した内容がサービスサーバ装置200にどのように認識されたのかを容易に認識でき、誤訳等があれば速やかに訂正するなどの対応を行うことができる。また、ユーザには通話相手の通話音声と、これを翻訳した音声データとの両方が聞こえるため、あたかも間に通訳者を介して会話しているような臨場感がある会話を実現することができる。
(iii)CS網及びPS網
図5は、図2、図4に示したサービスサーバ装置200と発通信端末装置241a、着通信端末装置241bとを接続するCS網404、PS網405を具体的に説明するための図である。なお、図5中の図2、図4に示した構成と同様の構成については、同様の符号を付して示し、その説明の一部を略すものとする。
発通信端末装置241aは、MPN(メディア・プロセッシング・ノード)408に向けて発呼する。この発呼信号は、CS網404、既存の電話系装置401に到達する。既存の電話系装置401とは、例えば、CSN(認証装置、ハンドオーバーを実現するためのホームエージェント、DHCPサーバ等)、ASN(無線基地局等)を指す。既存の電話系装置401では、発呼に対して非課金処理や特番ルーチングの処理が実行される。なお、非課金処理とは、一般的な通話にかかる課金処理を行わないようにする処理である。また、特番ルーチングとは、予め定められた電話番号(特番)に発呼された場合に、通信経路を、本来の処理とは異なる処理が行われる通信経路に変更することをいう。
次に、発呼信号は既存の電話系装置401から実施形態1のサービスサーバ装置200に到達する。サービスサーバ装置200には、図1に示した電話機の通信を制御する通信制御部224、加入者プロファイル蓄積部221、認証許可部222、課金処理部223を備えているから、このような構成によって他網からのサービス制限や音声と画面の連携(音声データとテキストデータ等との連携)の処理がなされる。
音声データとテキストデータ及び翻訳テキストデータとの連携は、次のようにして実現できる。
すなわち、本サービスの提供を受け得る電話機が通話状態になったとき、サービスサーバ装置200の通信制御部224が、電話機の通話に係る信号に含まれるMSISDNに一致するMSISDNを含むデータ通信セッション実行の監視を開始する。そして、通話に係る信号に含まれるMSISDNに一致するデータセッションが行われた場合、この通話とデータセッションとをCCサービスにおいて連携させるべきであると判断する。
通話音声と、音声データ、テキストデータ及び翻訳テキストデータを1つの通信端末装置に送信する場合、通話音声と音声データとは、CS網によってリアルタイムに送信される。しかし、音声データは、PS網によって送信することもでき、上記構成によれば、CS網404によって送信される通話音声と、PS網405によって送信されるタスクデータとの連携をとることができる。
また、前述したように、実施形態1は、通話音声を、音声データと同様にPS網405を介して送信することができる。通話音声を音声データ等と共にPS網405を介して送信する構成を、図6に示す。
また、実施形態1では、図2に示した加入者プロファイル蓄積部221において、前記したように、通話機能だけを有する電話機と、テキスト等を送信できる通信端末装置とを対応付けて登録している。このような場合、通信制御部224が、電話機の電話番号で発呼がされると、登録されている通信端末装置のアドレスにタスクデータを取得できるURLを送信するようにしてもよい。
また、発呼に対応する通話音声は、MPN408において電話/呼制御イネーブラ201により録音され、サービスサーバ装置200に渡される。
サービスサーバ装置200では、アプリ部225が録音された通話音声に基づいて音声データとテキストデータ及び翻訳テキストデータとを作成する。音声データは、CS網を経由して着通信端末装置241bにリアルタイムで送信されるが、PS網を利用して送信することもできる。また、テキストデータ及び翻訳テキストデータは、既存のWeb系装置402(ゲートウェイ等)やxGSN(x−GPRS Support Node)/EPC(Evolved Packet Core)よりPS網405を介して着通信端末装置241bに送信される。
(iv)サービス提供方法
図7は、実施形態1のサービスサーバ装置200によって実現されるサービス提供方法を説明するための図である。図7では、HTTP(Hypertext Transfer Protocol)を使
ったデータ通信を破線で示し、電話機による通話を実線で示している。
発通信端末装置241aにおいて、ユーザが例えば実施形態1のサービス提供方法を実現するためのアプリケーションを起動するとともに、相手の電話番号が入力される(ステ
ップS501)。このような処理により、発通信端末装置241aから発通信端末装置2
41aのアドレスがサービスサーバ装置に送信される。そして、サービスサーバ装置200では、他の必要な要件が満たされたことを条件に、タスクを通信(通話)の間に実行する指示が受付けられて翻訳サービスが開始される(ステップS502)。
サービスサーバ装置200は、発通信端末装置241a、着通信端末装置241bとの間の通話回線を確立する(ステップS503)。そして、サービスサーバ装置200は、発通信端末装置241aの回線から送信された通話音声を録音するとともに(ステップS504)、着通信端末装置241bの回線に送る(ステップS505)。
発通信端末装置241aの回線から通話音声が送信されてこない無音録音状態になると、サービスサーバ装置200は発通信端末装置241aの回線から送信されてくる通話音声の録音をいったん終了する(ステップS506)。そして、録音された通話音声について、図2、図4に示した音声認識イネーブラ203、テキスト翻訳イネーブラ204、音声合成イネーブラ202によって、テキスト化、翻訳、合成音声の合成が行われ(ステップS507)、音声データとテキストデータ及び翻訳テキストデータとを生成する。
そして、実施形態1のサービスサーバ装置200は、音声データを、発通信端末装置241a、241bの両方に送信するとともに、テキストデータ及び翻訳テキストデータも発通信端末装置241a、着通信端末装置241bの両方に送信する(ステップS508〜511)。次に、着通信端末装置241bのユーザが発話すると、サービスサーバ装置200は、以上の動作を着通信端末装置241bの電話回線から送信されるユーザの通話音声に対して実行する。なお、2人のユーザのうち、一方が発話している間に他方が発話した場合、実施形態1では、通話音声を録音中のユーザの通話音声について以上の処理を実行し、他方のユーザが発話した内容については処理の対象にしないようにする。
図8は、実施形態1のサービスサーバ装置において行われる実施形態1のサービス提供方法を説明するためのフローチャートである。サービス起動部は、発通信端末装置から翻訳に関するアプリケーションの実行が指示されたか否かを判断している(ステップS701)。サービス起動部は、アプリケーションの実行の指示がされたと判断した場合(ステップS701:Yes)、サービスアプリ部の各イネーブラを起動する。なお、サービス起動部は、そのような指示がないと判断した場合には(ステップS701:No)、アプリケーション実行の指示があるまで待機する。
サービス起動部によって起動された電話/呼制御イネーブラは、通話音声を録音する(ステップS702)。電話/呼制御イネーブラは、通話音声の録音中、無音状態になったか否か判断する(ステップS703)。そして、電話/呼制御イネーブラは、無音状態になったと判断された場合(ステップS703:Yes)、通話音声の録音をいったん終了する(ステップS704)。音声認識イネーブラは、電話/呼制御イネーブラによって録音された通話音声を形態素解析し(ステップS705)、その解析結果を図3に示したDB311に照合する(ステップS706)。そして、通話音声に合致するテキストを抽出して組み合わせ、テキストデータを生成する(ステップS707)。
テキスト認識部204は、テキストデータを他の言語に翻訳して翻訳テキストデータを生成する(ステップS708)。音声合成イネーブラは、翻訳テキストデータを合成音声に変換して音声データを生成する(ステップS709)。テキストデータ、翻訳テキストデータ及び音声データは、タスクデータとして発通信端末装置及び着通信端末装置に送信される(ステップS710)。
音声認識イネーブラは、訂正指示信号が送信されてきたか否かによってテキストデータがユーザによって訂正されたか否か判断する(ステップS711)。テキストデータが訂正された場合(ステップS711:Yes)音声認識イネーブラは訂正されたテキストに対応する通話音声を再びDBに照合して他のテキストに変換する。そして、他のテキストを使ってテキストデータを作成する。テキスト翻訳イネーブラ、音声合成イネーブラは、再度作成されたテキストデータに基づいて再度翻訳テキストデータや音声データを作成する(ステップS706〜711)。
一方、音声認識イネーブラによって訂正指示信号が入力されないと判断された場合(ステップS711:Yes)、図2に示した学習部280は、DBに記憶されているテキストデータに付与されている重みを変更する。すなわち、学習部280は、今回訂正されたテキストの重みを低下させるように変更し、変更後の内容をDBに反映させる。以上の処理の後、サービス起動部がサービスの終了がユーザによって指示されたか否か判断する(ステップS713)。
サービス起動部は、ユーザによってサービスの終了の指示されていないと判断した場合には(ステップS713:No)、電話/呼制御部に通話音声の録音を継続させる。一方、サービス起動部は、ユーザによってサービスの終了が指示されたと判断した場合には(ステップS713:Yes)、指示にしたがってサービスを終了させる。
なお、実施形態1は、以上説明した構成に限定されるものではない。すなわち、以上説明した実施形態1では2人のユーザの間の通話を対象にして翻訳に係るCCサービスを実行している。しかしながら、実施形態1は、2人の間の通話を対象にするものに限定されず、3人以上で通話する会議電話等にも適用することができる。
[サービス提供プログラム]
以上説明したサービスサーバ装置においては、音声によって通信可能な音声通信端末装置間の音声通信中に、音声通信とは別の別タスクによるサービスを提供するためのサービス提供プログラムが実行される。このサービス提供プログラムは、コンピュータに、別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、複数の上記音声通信端末装置間の通信中に、話者の音声を録音する録音機能と、上記指示受付機能によって上記指示が受付けられた場合、上記録音機能において録音された上記通話音声に基づいて、上記通話音声をテキスト変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成するタスク実行機能と、上記テキストデータ、上記翻訳テキストデータ、上記音声データを、上記タスクデータとして、上記通話音声と共に音声通信を行っている複数の上記音声通信端末装置にそれぞれ提供するタスクデータ提供機能と、を実現させるプログラムである。
(実施形態2)
次に、本発明の実施形態2を説明する。実施形態2は、本発明のサービスサーバ装置、サービス制御方法、サービス制御プログラムを、ユーザのスケジュールを調整するアプリケーションに適用したものである。
[スケジューラアプリ]
図9は、実施形態2で提供される、スケジュールを調整するアプリケーション(以下、スケジューラアプリと記す)の概要を説明するための図である。図8に示した例では、サービスサーバ装置が、発通信端末装置241a、着通信端末装置241bの通信中に、音声による通信とは別のスケジューラタスクによるサービスを提供する。このような例では、発通信端末装置241aのユーザがスケジューラタスクを通話の間に実行するように発通信端末装置241aを操作する等してサービスサーバ装置に指示する。サービスサーバ装置が指示を受付けると、発通信中に、発通信端末装置241a、着通信端末装置241bのユーザの通話音声が録音される。
図9に示した例では、サービスサーバ装置が発通信端末装置241a、着通信端末装置241bの電話回線から通話音声を取得してそれぞれ録音する。図2に示した音声認識部は、録音された通話音声を形態素解析する等して「スケジュール調整」を意味する音声が通話音声に含まれていることを検出する。通話音声に「スケジュール調整」が含まれていることから、発通信端末装置241a、着通信端末装置241bのユーザのスケジュールが両方とも空いている日時及びその時間帯を抽出するタスクを実行するように指示されたものと判断する。
このような指示がされたことにより、実施形態2では、サービスサーバ装置が発通信端末装置241a、着通信端末装置241bに登録されているユーザのスケジュールデータを取得する。なお、スケジュールデータとは、ユーザ自身によって発通信端末装置241a、着通信端末装置241bに登録されたデータであって、ユーザに関する行動と、この行動が行われる日時に関する情報を含むデータである。
そして、実施形態2のサービスサーバ装置では、取得されたスケジュールデータから、ユーザの行動が登録されていない発通信端末装置241a、着通信端末装置241bに共通の日及びその時間帯(日時)を抽出する。抽出された日時は、テキストデータを含む画像データとして発通信端末装置241a、着通信端末装置241bの両方に送信される。
[サービスサーバ装置]
(i)機能
図10は、実施形態2のサービスサーバ装置900を示した図である。実施形態2のサービスサーバ装置900は、サービスアプリ部の構成だけが実施形態1のサービスサーバ装置200と異なっている。すなわち、実施形態2のサービスサーバ装置900では、イネーブラ群261から取得された電話/呼制御イネーブラ201、音声認識イネーブラ203、情報管理イネーブラ214、画像・映像合成/編集イネーブラ215がサービスアプリ部226を構築している。
そして、情報管理イネーブラ214が発通信端末装置241a、着通信端末装置241bに登録されているユーザのスケジュールデータを取得する。情報管理イネーブラ214は、取得されたスケジュールデータから、発通信端末装置241a、着通信端末装置241bのユーザの予定が共に登録されていない日及びその時間帯を抽出する。
情報管理イネーブラ214によって抽出された情報は、画像・映像合成/編集イネーブラ215に渡される。画像・映像合成/編集イネーブラ215は、この情報からテキスト及び画像の少なくとも1つを含むタスクデータを作成する。図11は、実施形態2のタスクデータを例示した図である。タスクデータは、発通信端末装置241a、着通信端末装置241bの両方に送信される。
このような構成によれば、発通信端末装置241a、着通信端末装置241bのユーザに対し、直接対面してスケジュール調整するのと同様の臨場感があるコミュニケーションを提供することができる。また、スケジュールを容易かつ間違いなく調整できるという効果をも得ることができる。
(ii)サービス提供方法
図12は、実施形態2のサービスサーバ装置において行われるサービス提供方法を説明するためのフローチャートである。サービス起動部は、発通信端末装置からスケジューラに関するアプリケーションの実行が指示されたか否かを判断している(ステップS1101)。サービス起動部は、アプリケーション実行の指示がされたと判断した場合(ステップS1101:Yes)、サービスアプリ部の各イネーブラを起動する。なお、サービス起動部はアプリケーションサーバ実行の指示がないと判断した場合には(ステップS1101:No)、そのような指示があるまで待機する。
サービス起動部によって各イネーブラが起動された場合、起動された電話/呼制御イネーブラは、通話音声を録音する(ステップS1102)。電話/呼制御イネーブラは、通話音声の録音中、無音状態になったか否かを判断する(ステップS1103)。電話/呼制御イネーブラは、無音状態になったと判断した場合(ステップS1103:Yes)、通話音声の録音をいったん終了する(ステップS1104)。音声認識イネーブラは、電話/呼制御イネーブラによって録音された通話音声を形態素解析し(ステップS1105)、通話音声に「スケジュール調整」を意味する語句が含まれていた場合には、スケジュール調整が指示されたことを検出する。情報管理イネーブラは、データベースにアクセスし、データベースから通話中の各ユーザのスケジュールに関する情報を取得する(ステップS1106)。
このような実施形態2のデータベースは、予めユーザのスケジュールが登録されたデータベースである。スケジュールは、携帯電話機のアプリケーションによって設定された所定の形式で登録されたものであることが好ましい。また、実施形態2のデータベースは、加入者プロファイル蓄積部にあってもよい。
画像・映像合成/編集イネーブラは、抽出されたスケジュールを使って例えば図11に示したような、テキスト及び画像を含むタスクデータを生成する(ステップS1107)。画像・映像合成/編集イネーブラによって作成されたタスクデータは、図10に示した通信制御部224によって発通信端末装置及び着通信端末装置に送信される(ステップS1108)。
実施形態2では、発通信端末装置のユーザが、自身が指示した内容とタスクデータとが一致しているか否か確認することができる。確認の結果、タスクデータが自身の意図した内容と異なる場合、発通信端末装置のユーザは、通信端末装置からサービスサーバ装置900に向けて訂正を指示する操作を行う。この操作によって訂正指示信号が送信される。なお、タスクデータが意図した内容と異なるとは、例えば、ユーザが「来月のスケジュール」と発話したにも関わらず、6月のスケジュールが提示された場合等をいう。
音声認識イネーブラは、訂正指示信号が送信されてきたか否かによってタスクデータがユーザによって訂正されたか否か判断する(ステップS1109)。タスクデータがユーザによって訂正された場合(ステップS1109:Yes)、音声認識イネーブラは訂正されたタスクデータに対応する通話音声を再びDBに照合して他のテキストに変換する。そして、再度の照合の結果抽出された他のテキストを使ってテキストデータを作成する。テキスト翻訳イネーブラ、音声合成イネーブラは、再度抽出されたテキストデータに基づいて再度タスクデータを作成する(ステップS1106〜1109)。
一方、訂正指示信号が入力されないと判断された場合(ステップS1110:Yes)、図10に示した学習部280は、DBに記憶されているテキストデータに付与されている重みを変更する。すなわち、学習部は、今回訂正された箇所に関するテキストの重みを低下させるように変更し、変更後の内容をDBに反映させる。以上の処理の後、サービス起動部は、ユーザによってサービスの終了が指示されたか否か判断する(ステップS1111)。サービス終了の指示がなされていないとサービス起動部によって判断された場合には(ステップS1111:No)、電話/呼制御部に通話音声の録音を継続させる。また、サービス起動部は、サービス終了の指示がなされたと判断した場合には(ステップS1111:Yes)、指示にしたがってサービスを終了させる。
[サービス提供プログラム]
以上説明したサービスサーバ装置においては、音声による通信が可能な音声通信端末装置の通信中に、音声による通信とは別の別タスクによるサービスを提供するサービスサーバ装置によって実行されるサービス提供プログラムが実行される。このサービス提供プログラムは、コンピュータに、別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、複数の上記音声通信端末装置間の通信中に、話者の通話音声を録音する録音機能と、上記指示受付機能によって上記指示が受付けられた場合、上記録音機能において録音された上記通話音声に基づいて、上記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキスト及び画像の少なくとも一方を含むタスクデータを生成するタスク実行機能と、テキスト及び画像の少なくとも一方を含む上記タスクデータを、上記通話音声と共に音声通信を行っている複数の上記音声通信端末装置にそれぞれ提供するタスクデータ提供機能と、を実現させるプログラムである。
なお、実施形態2では、2人のユーザの間の通話を対象にしてスケジュール調整をするCCサービスを実行している。しかしながら、実施形態2は、2人の間の通話を対象にするものに限定されず、3人以上で通話する会議電話等にも適用することができる。
本発明は、スマートフォン等を使ったコミュニケーションをサポートすることに最適なサービス提供装置、サービス提供方法及びサービス提供プログラムを提供することができる。
200、900 サービスサーバ装置
201 電話/呼制御イネーブラ
202 音声合成イネーブラ
203 音声認識イネーブラ
204 テキスト翻訳イネーブラ
205、206、261 イネーブラ群
208 デバイス管理制御イネーブラ
209 プレゼンスイネーブラ
210 電話帳イネーブラ
211 SNSイネーブラ
212 メッセージングイネーブラ
213 コミュニティ管理イネーブラ
214 情報管理イネーブラ
215 画像・映像/合成編集イネーブラ
216 フォント変換イネーブラ
217 画像・映像認識イネーブラ
218 セッション連携イネーブラ
219 ポイント管理イネーブラ
221 加入者プロファイル蓄積部
222 認証許可部
223 課金処理部
224 通信制御部
225、226、227 サービスアプリ部
230 ネットワーク網
280 学習部
241a 発通信端末装置
241b 着通信端末装置

Claims (17)

  1. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションによって実行されるタスクとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置であって、
    前記別タスクを音声通信の間に実行する指示を受付ける指示受付部と、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音部と、
    前記指示受付部によって前記指示が受付けられた場合、前記録音部によって録音された前記通話音声に基づいて前記別タスクを実行するタスク実行部と、
    前記タスク実行部によって前記別タスクが実行されたことによって得られるテキストデータと、前記タスク実行部によって前記別タスクが実行されたことによって得られる音声データと、を含むタスクデータを、音声通信を行っている複数の前記音声通信端末装置にそれぞれ提供するタスクデータ提供部と、
    前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付部と、
    前記訂正指示受付部によって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習部と、
    を含み、
    前記タスク実行部は、
    前記通話音声をテキストに変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成し、
    前記タスクデータ提供部は、
    前記テキストデータ、前記翻訳テキストデータ、及び前記音声データを含む前記タスクデータを、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信を行っている音声通信端末装置に提供することを特徴とするサービスサーバ装置。
  2. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションによって実行されるタスクとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置であって、
    前記別タスクを音声通信の間に実行する指示を受付ける指示受付部と、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音部と、
    前記指示受付部によって前記指示が受付けられた場合、前記録音部によって録音された前記通話音声に基づいて前記別タスクを実行するタスク実行部と、
    前記タスク実行部によって前記別タスクが実行されたことによって得られるテキストデータと、前記タスク実行部によって前記別タスクが実行されたことによって得られる音声データと、を含むタスクデータを、音声通信を行っている複数の前記音声通信端末装置にそれぞれ提供するタスクデータ提供部と、
    を含み、
    前記タスク実行部は、
    前記通話音声をテキストに変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成し、
    前記タスクデータ提供部は、
    記音声データを含む第1のタスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提し、前記第1のタスクデータを、前記話者の前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供し、前記テキストデータ及び前記翻訳テキストデータを含む第2のタスクデータを、前記話者の音声通信端末装置及び前記話者の音声通信端末装置と音声通信する音声通信端末装置に対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供することを特徴とするサービスサーバ装置。
  3. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置であって、
    前記別タスクを音声通信の間に実行する指示を受付ける指示受付部と、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音部と、
    前記指示受付部によって前記指示が受付けられた場合、前記録音部によって録音された前記通話音声に基づいて前記別タスクを実行するタスク実行部と、
    前記タスク実行部によって前記別タスクが実行されたことによって得られるタスクデータを、音声通信を行っている複数の前記音声通信端末装置にそれぞれ提供するタスクデータ提供部と、
    前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付部と、
    前記訂正指示受付部によって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習部と、
    を含み、
    前記タスク実行部は、
    前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成し、
    前記タスクデータ提供部は、
    前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供することを特徴とするサービスサーバ装置。
  4. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置であって、
    前記別タスクを音声通信の間に実行する指示を受付ける指示受付部と、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音部と、
    前記指示受付部によって前記指示が受付けられた場合、前記録音部によって録音された前記通話音声に基づいて前記別タスクを実行するタスク実行部と、
    前記タスク実行部によって前記別タスクが実行されたことによって得られるタスクデータを、音声通信を行っている複数の前記音声通信端末装置にそれぞれ提供するタスクデータ提供部と、
    を含み、
    前記タスク実行部は、
    前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、ユーザによってなされた指示が該ユーザのスケジュールの調整であると判定された場合、予め登録された前記ユーザに関する行動と、当該行動が行われる日時に関するスケジュール情報を抽出し、抽出されたスケジュール情報を使って複数の前記音声通信端末装置のユーザの、行動が登録されていない共通の日時を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成し、
    前記タスクデータ提供部は、
    前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供することを特徴とするサービスサーバ装置。
  5. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置であって、
    前記別タスクを音声通信の間に実行する指示を受付ける指示受付部と、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音部と、
    前記指示受付部によって前記指示が受付けられた場合、前記録音部によって録音された前記通話音声に基づいて前記別タスクを実行するタスク実行部と、
    前記タスク実行部によって前記別タスクが実行されたことによって得られるタスクデータを、音声通信を行っている複数の前記音声通信端末装置にそれぞれ提供するタスクデータ提供部と、
    を含み、
    前記タスク実行部は、
    前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成し、
    前記タスクデータ提供部は、
    前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、複数の前記音声通信端末装置のいずれかに対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供し、前記通話音声、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供することを特徴とするサービスサーバ装置。
  6. 前記タスク実行部は、ユーザによってなされた指示が該ユーザのスケジュールの調整であると判定された場合、予め登録された前記ユーザに関する行動と、当該行動が行われる日時に関するスケジュール情報を抽出し、抽出されたスケジュール情報を使って複数の前記音声通信端末装置のユーザの、行動が登録されていない共通の日時を抽出することを特徴とする請求項3に記載のサービスサーバ装置。
  7. 前記タスクデータ提供部は、前記音声通信端末装置の代わりに、該音声通信端末装置に対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に、前記タスクデータのうちの前記テキストデータを送ることを特徴とする請求項1、3、4または6に記載のサービスサーバ装置。
  8. 音声によって互いに通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置のサービス提供方法であって、
    前記別タスクを音声通信の間に実行する指示を受付ける指示受付ステップと、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音ステップと、
    前記指示受付ステップにおいて前記指示が受付けられた場合、前記録音ステップにおいて録音された前記通話音声に基づいて、前記通話音声をテキストに変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成するタスク実行ステップと、
    前記テキストデータと、前記翻訳テキストデータと、前記音声データとを含むタスクデータを、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信を行っている音声通信端末装置に提供するタスクデータ提供ステップと、
    前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付ステップと、
    前記訂正指示受付ステップによって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習ステップと、
    を含むことを特徴とするサービス提供方法。
  9. 音声によって互いに通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置のサービス提供方法であって、
    前記別タスクを音声通信の間に実行する指示を受付ける指示受付ステップと、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音ステップと、
    前記指示受付ステップにおいて前記指示が受付けられた場合、前記録音ステップにおいて録音された前記通話音声に基づいて、前記通話音声をテキストに変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成するタスク実行ステップと、
    記音声データを含む第1のタスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提し、前記第1のタスクデータを、前記話者の前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供し、前記テキストデータ及び前記翻訳テキストデータを含む第2のタスクデータを、前記話者の音声通信端末装置及び前記話者の音声通信端末装置と音声通信する音声通信端末装置に対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供するタスクデータ提供ステップと、
    を含むことを特徴とするサービス提供方法。
  10. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる、音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置のサービス提供方法であって、
    前記別タスクを音声通信の間に実行するための指示を受付ける指示受付ステップと、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音ステップと、
    前記指示受付ステップにおいて前記指示が受付けられた場合、前記録音ステップにおいて録音された前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行ステップと、
    前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供ステップと、
    前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付ステップと、
    前記訂正指示受付ステップによって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習ステップと、
    を含むことを特徴とするサービス提供方法。
  11. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる、音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置のサービス提供方法であって、
    前記別タスクを音声通信の間に実行するための指示を受付ける指示受付ステップと、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音ステップと、
    前記指示受付ステップにおいて前記指示が受付けられた場合、前記録音ステップにおいて録音された前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、ユーザによってなされた指示が該ユーザのスケジュールの調整であると判定された場合、予め登録された前記ユーザに関する行動と、当該行動が行われる日時に関するスケジュール情報を抽出し、抽出されたスケジュール情報を使って複数の前記音声通信端末装置のユーザの、行動が登録されていない共通の日時を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行ステップと、
    前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供ステップと、
    を含むことを特徴とするサービス提供方法。
  12. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる、音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置のサービス提供方法であって、
    前記別タスクを音声通信の間に実行するための指示を受付ける指示受付ステップと、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音ステップと、
    前記指示受付ステップにおいて前記指示が受付けられた場合、前記録音ステップにおいて録音された前記通話音声に基づいて前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行ステップと、
    前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、複数の前記音声通信端末装置のいずれかに対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供し、前記通話音声を、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供ステップと、
    を含むことを特徴とするサービス提供方法。
  13. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置において実行されるサービス提供プログラムであって、
    コンピュータに、
    前記別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音機能と、
    前記指示受付機能によって前記指示が受付けられた場合、前記録音機能において録音された前記通話音声に基づいて、前記通話音声をテキスト変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成するタスク実行機能と、
    前記テキストデータと、前記翻訳テキストデータと、前記音声データとを含むタスクデータを、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信を行っている音声通信端末装置に提供するタスクデータ提供機能と、
    前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付機能と、
    前記訂正指示受付部によって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習機能と、
    を実現させることを特徴とするサービス提供プログラム。
  14. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置において実行されるサービス提供プログラムであって、
    コンピュータに、
    前記別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音機能と、
    前記指示受付機能によって前記指示が受付けられた場合、前記録音機能において録音された前記通話音声に基づいて、前記通話音声をテキスト変換してテキストデータを生成し、該テキストデータを他の言語に翻訳して翻訳テキストデータを生成し、該翻訳テキストデータを音声に変換して音声データを生成するタスク実行機能と、
    記音声データを含む第1のタスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提し、前記第1のタスクデータを、前記話者の前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供し、前記テキストデータ及び前記翻訳テキストデータを含む第2のタスクデータを、前記話者の音声通信端末装置及び前記話者の音声通信端末装置と音声通信する音声通信端末装置に対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供するタスクデータ提供機能と、
    を実現させることを特徴とするサービス提供プログラム。
  15. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置において実行されるサービス提供プログラムであって、
    コンピュータに、
    前記別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音機能と、
    前記指示受付機能によって前記指示が受付けられた場合、前記録音機能において録音された前記通話音声に基づいて、前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行機能と、
    前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供機能と、
    前記音声通信端末装置に送信された前記タスクデータの訂正指示を受け付ける訂正指示受付機能と、
    前記訂正指示受付部によって受け付けられた訂正指示に基づいて、前記タスクデータを生成する際に使用されたデータに重み付けを行う学習機能と、
    を実現させることを特徴とするサービス提供プログラム。
  16. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置において実行されるサービス提供プログラムであって、
    コンピュータに、
    前記別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音機能と、
    前記指示受付機能によって前記指示が受付けられた場合、前記録音機能において録音された前記通話音声に基づいて、前記音声通信端末装置のユーザによってなされた指示を判定し、ユーザによってなされた指示が該ユーザのスケジュールの調整であると判定された場合、予め登録された前記ユーザに関する行動と、当該行動が行われる日時に関するスケジュール情報を抽出し、抽出されたスケジュール情報を使って複数の前記音声通信端末装置のユーザの、行動が登録されていない共通の日時を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行機能と、
    前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置に提供し、前記タスクデータを、前記通話音声と共に、複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供機能と、
    を実現させることを特徴とするサービス提供プログラム。
  17. 音声によって互いに音声通信する複数の音声通信端末装置と接続され、該音声通信端末装置間で行われる音声通信に係るアプリケーションとは別のアプリケーションによって実行される作業である別タスクによるサービスを提供するサービスサーバ装置において実行されるサービス提供プログラムであって、
    コンピュータに、
    前記別タスクを音声通信の間に実行するための指示を受付ける指示受付機能と、
    複数の前記音声通信端末装置間の音声通信中に、話者の通話音声を録音する録音機能と、
    前記指示受付機能によって前記指示が受付けられた場合、前記録音機能において録音された前記通話音声に基づいて、前記音声通信端末装置のユーザによってなされた指示を判定し、当該指示にしたがって予め登録された情報を抽出し、抽出された情報を使ってテキストデータ及び画像データの少なくとも一方を含むタスクデータを生成するタスク実行機能と、
    前記テキストデータ及び前記画像データの少なくとも一方を含む前記タスクデータを、複数の前記音声通信端末装置のいずれかに対応付けられ、かつ、テキストによる通信が可能なテキスト通信端末装置に提供し、前記通話音声を、音声通信を行っている複数の前記音声通信端末装置のうちの前記話者の音声通信端末装置と音声通信する音声通信端末装置に提供するタスクデータ提供機能と、
    を実現させることを特徴とするサービス提供プログラム。
JP2012117545A 2011-05-24 2012-05-23 サービスサーバ装置、サービス提供方法、サービス提供プログラム Active JP5243646B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2012117545A JP5243646B2 (ja) 2011-05-24 2012-05-23 サービスサーバ装置、サービス提供方法、サービス提供プログラム
EP12789828.6A EP2590393A4 (en) 2011-05-24 2012-05-24 SERVICE SERVER DEVICE, SERVICE PROVIDING METHOD, AND SERVICE PROVIDING PROGRAM
CN201280002148.8A CN103026697B (zh) 2011-05-24 2012-05-24 业务服务器装置和业务提供方法
CN201510201392.2A CN104820662B (zh) 2011-05-24 2012-05-24 业务服务器装置
US13/816,705 US9110888B2 (en) 2011-05-24 2012-05-24 Service server apparatus, service providing method, and service providing program for providing a service other than a telephone call during the telephone call on a telephone
PCT/JP2012/003393 WO2012160824A1 (ja) 2011-05-24 2012-05-24 サービスサーバ装置、サービス提供方法、サービス提供プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011116401 2011-05-24
JP2011116401 2011-05-24
JP2012117545A JP5243646B2 (ja) 2011-05-24 2012-05-23 サービスサーバ装置、サービス提供方法、サービス提供プログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2012219435A Division JP5374629B2 (ja) 2011-05-24 2012-10-01 サービスサーバ装置、サービス提供方法、サービス提供プログラム
JP2012219434A Division JP5486062B2 (ja) 2011-05-24 2012-10-01 サービスサーバ装置、サービス提供方法、サービス提供プログラム

Publications (2)

Publication Number Publication Date
JP2013009367A JP2013009367A (ja) 2013-01-10
JP5243646B2 true JP5243646B2 (ja) 2013-07-24

Family

ID=47216914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012117545A Active JP5243646B2 (ja) 2011-05-24 2012-05-23 サービスサーバ装置、サービス提供方法、サービス提供プログラム

Country Status (5)

Country Link
US (1) US9110888B2 (ja)
EP (1) EP2590393A4 (ja)
JP (1) JP5243646B2 (ja)
CN (2) CN104820662B (ja)
WO (1) WO2012160824A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102225401B1 (ko) * 2014-05-23 2021-03-09 삼성전자주식회사 음성 문자 통화 서비스를 제공하는 시스템 및 방법
US9614969B2 (en) * 2014-05-27 2017-04-04 Microsoft Technology Licensing, Llc In-call translation
US10431216B1 (en) * 2016-12-29 2019-10-01 Amazon Technologies, Inc. Enhanced graphical user interface for voice communications
US11582174B1 (en) 2017-02-24 2023-02-14 Amazon Technologies, Inc. Messaging content data storage
WO2018230596A1 (ja) * 2017-06-16 2018-12-20 本田技研工業株式会社 支援装置、支援方法、およびプログラム
JP6318292B1 (ja) 2017-06-16 2018-04-25 株式会社シアンス・アール 信号処理装置、通信システム、信号処理装置で実施される方法、信号処理装置で実行されるプログラム、通信端末で実施される方法、及び通信端末で実行されるプログラム
JP7058052B2 (ja) * 2018-07-31 2022-04-21 株式会社オプティム コンピュータシステム、画面共有方法及びプログラム
US20240054044A1 (en) * 2022-08-15 2024-02-15 Smule, Inc. Remediating characteristics of content captured by a recording application on a user device

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6488875A (en) * 1987-09-30 1989-04-03 Toshiba Corp Voice translation device
JP3339579B2 (ja) 2000-10-04 2002-10-28 株式会社鷹山 電話装置
JP4089148B2 (ja) 2000-10-17 2008-05-28 株式会社日立製作所 通訳サービス方法および通訳サービス装置
JP2002152387A (ja) * 2000-11-08 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 情報変換通信方法、情報変換通信システム、変換サーバ及びプログラム記録媒体
US6985862B2 (en) * 2001-03-22 2006-01-10 Tellme Networks, Inc. Histogram grammar weighting and error corrective training of grammar weights
JP3741025B2 (ja) 2001-10-30 2006-02-01 株式会社デンソー 電話システム、電話機およびコンピュータプログラム
JP2004048277A (ja) 2002-07-10 2004-02-12 Mitsubishi Electric Corp 通信システム
JP2005295015A (ja) 2004-03-31 2005-10-20 Hitachi Kokusai Electric Inc 映像会議システム
JP4648906B2 (ja) 2004-08-31 2011-03-09 一博 椎名 通話を伴うプッシュ型情報通信システム
JP4348270B2 (ja) 2004-10-05 2009-10-21 パナソニック株式会社 Sipサーバ
JP2006146732A (ja) 2004-11-24 2006-06-08 Nec Corp 自動翻訳システム、自動翻訳サーバ装置及びそれらに用いる自動翻訳方法
US8204739B2 (en) * 2008-04-15 2012-06-19 Mobile Technologies, Llc System and methods for maintaining speech-to-speech translation in the field
WO2008066836A1 (en) 2006-11-28 2008-06-05 Treyex Llc Method and apparatus for translating speech during a call
US8478578B2 (en) 2008-01-09 2013-07-02 Fluential, Llc Mobile speech-to-speech interpretation system
JP5256756B2 (ja) * 2008-02-05 2013-08-07 パナソニック株式会社 Adpcm音声伝送システムの音声処理装置およびその音声処理方法
JP3142002U (ja) * 2008-03-17 2008-05-29 隆司 内山 翻訳通話システム
JP2010050693A (ja) * 2008-08-21 2010-03-04 Nec Corp リアルタイム音声翻訳通話システム、方法、アプリケーションサーバ、およびリソースセッション確立方法
US8868430B2 (en) * 2009-01-16 2014-10-21 Sony Corporation Methods, devices, and computer program products for providing real-time language translation capabilities between communication terminals
US9547642B2 (en) 2009-06-17 2017-01-17 Empire Technology Development Llc Voice to text to voice processing
CN102055855A (zh) * 2009-11-02 2011-05-11 万国通翻译(北京)有限公司 一种基于多种通信平台的即时语音翻译系统
US9002700B2 (en) * 2010-05-13 2015-04-07 Grammarly, Inc. Systems and methods for advanced grammar checking

Also Published As

Publication number Publication date
CN103026697A (zh) 2013-04-03
WO2012160824A1 (ja) 2012-11-29
US9110888B2 (en) 2015-08-18
EP2590393A1 (en) 2013-05-08
CN104820662A (zh) 2015-08-05
EP2590393A4 (en) 2014-01-08
CN103026697B (zh) 2015-05-20
US20140180668A1 (en) 2014-06-26
JP2013009367A (ja) 2013-01-10
CN104820662B (zh) 2017-10-10

Similar Documents

Publication Publication Date Title
JP5243646B2 (ja) サービスサーバ装置、サービス提供方法、サービス提供プログラム
US20210366471A1 (en) Method and system for processing audio communications over a network
JP5486062B2 (ja) サービスサーバ装置、サービス提供方法、サービス提供プログラム
US8179822B2 (en) Push-type telecommunications accompanied by a telephone call
US6618704B2 (en) System and method of teleconferencing with the deaf or hearing-impaired
EP2494546B1 (en) Method, server and system for transcription of spoken language
US20120330643A1 (en) System and method for translation
TW200426780A (en) Voice browser dialog enabler for a communication system
JP5243645B2 (ja) サービスサーバ装置、サービス提供方法、サービス提供プログラム
CN111554280A (zh) 对利用人工智能的翻译内容和口译专家的口译内容进行混合的实时口译服务系统
KR101351264B1 (ko) 음성인식 기반의 메시징 통역서비스 제공 시스템 및 그 방법
JP2005151553A (ja) ボイス・ポータル
JP5461651B2 (ja) サービスサーバ装置、サービス提供方法、サービス提供プログラム
KR20090042601A (ko) 통신 단말 장치 및 이를 이용한 일정 관리 방법
US11848026B2 (en) Performing artificial intelligence sign language translation services in a video relay service environment
KR20160097406A (ko) 실시간 통번역 통화서비스 시스템 및 그 제공방법
JP2020120356A (ja) コミュニケーションシステムおよびそのコミュニケーション方法
KR102248701B1 (ko) 다국어 음성 자동 통역 채팅시 통역의 시점과 종점과 소정 정보 제공을 소정의 음성으로 제어하는 방법
JP2003141116A (ja) 翻訳システム、翻訳方法、および、翻訳プログラム
KR20160082000A (ko) 통번역 기능을 지원하는 사용자 단말
KR20210029636A (ko) 인공지능을 통한 번역과 통역 전문가의 통역이 하이브리드된 실시간 통역 서비스시스템
JP2020038458A (ja) 音声翻訳装置及び音声翻訳プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5243646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250