JP2004214895A - Auxiliary communication apparatus - Google Patents

Auxiliary communication apparatus Download PDF

Info

Publication number
JP2004214895A
JP2004214895A JP2002381249A JP2002381249A JP2004214895A JP 2004214895 A JP2004214895 A JP 2004214895A JP 2002381249 A JP2002381249 A JP 2002381249A JP 2002381249 A JP2002381249 A JP 2002381249A JP 2004214895 A JP2004214895 A JP 2004214895A
Authority
JP
Japan
Prior art keywords
mobile phone
user
communication
signal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2002381249A
Other languages
Japanese (ja)
Inventor
Taku Yoshimi
見 卓 吉
Junko Hirokawa
川 潤 子 廣
Kaoru Suzuki
木 薫 鈴
Daisuke Yamamoto
本 大 介 山
Nobuhito Matsuhira
信 人 松日楽
Nobutaka Kikuiri
入 信 孝 菊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002381249A priority Critical patent/JP2004214895A/en
Publication of JP2004214895A publication Critical patent/JP2004214895A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an auxiliary communication apparatus capable of providing a communication or voice communication service to a user in diversified expression forms with a simple operation nearly equal to that of a mobile phone. <P>SOLUTION: The auxiliary communication apparatuses 100, 300 are provided with: an interface 221 connectable to a mobile phone 9; first signal conversion sections 217, 218 for converting a speech signal or a communication signal having arrived in the mobile phone 9 into a first expression form which a user of the mobile phone 9 can recognize; output sections 2, 6 for displaying or outputting a signal of the first expression form; entry sections 1, 3, 7 whereby the user can enter a signal in a second expression form whereby the user can make entry; and second signal conversion sections 217, 218 for converting the signal of the second expression form into the voice signal or the communication signal. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は通信補助装置に関する。
【0002】
【従来の技術】
近年、一般家庭に用いられるパーソナルロボットが開発されている。その典型例としては、ソニー株式会社によるAIBO(登録商標)がある。AIBO(登録商標)は犬を模擬したペットロボットであり、このような犬や猫等のペットを模擬したペットロボットは、ユーザの愛玩の対象として多くの人々に親しまれている。しかし、ペットロボットは、人に何らかのサービスを提供する機能を持っているものではない。
【0003】
これに対して、日本電気株式会社によるPaPeRo(登録商標)がある。PaPeRo(登録商標)は、ユーザに各種サービスを提供する機能を持つパーソナルロボットの一つであり、TVのリモコン操作や音楽・映像の再生、インターネットへのアクセスやパソコンとの情報のやりとりなどを行うことができる。
【0004】
パーソナルロボットの形態、構成はさまざまであるが、ユーザとのやりとりを通してユーザに何らかのサービスを提供するパーソナルロボットは、一般に図12に示すように、カメラ1、スピーカ2、マイク3、雲台4、アーム5、ディスプレイ6、タッチパネルまたはキーボード7および移動機構8を備えた構成となっている。
【0005】
図13はこのパーソナルロボットの典型的な制御装置のブロック図である。この制御装置は、全体管理部11、作業計画部12、通信処理部13、アーム・雲台制御部14、データ入出力処理部16、視覚処理部17、音声処理部18、付加サービス機能部19および移動機構制御部20を備えている。
【0006】
全体管理部11は制御装置全体の管理を行う。作業計画部12はロボットの作業動作の計画を行う。通信処理部13は、外部通信ネットワーク23とのデータの送受信を行う。腕部・頭部制御部14は腕部5および頭部4を制御する。データ入出力処理部16は、ディスプレイ6やタッチパネルまたはキーボード7をコントロールする。視覚処理部17は、カメラ1から入力された画像情報を処理する。音声処理部18は、スピーカ2から出力する音声情報またはマイク3へ入力される音声情報を処理する。付加サービス機能部19は、電子メールの送受信、インターネット情報の検索、家電製品のリモコン操作、音楽のダウンロードや再生等、ユーザへの各種サービスの処理を行う。移動機構制御部20は移動機構8を制御する。
【0007】
【特許文献1】
特開2001−195113
【特許文献2】
特開2001−125585
【0008】
【発明が解決しようとする課題】
図12および図13に示すパーソナルロボットは、電子メールの送受信やインターネット情報の検索、家電製品のリモコン操作や音楽再生等のサービスをユーザに提供することができる。
【0009】
しかし、このようなパーソナルロボットは、パーソナルコンピュータと同様の機能を備えているに過ぎない。従って、このようなパーソナルロボットからサービスを受ける場合は、パーソナルコンピュータと同様に、パーソナルロボットのシステムのセットアップが必要となる。専門的な知識を持たない一般ユーザにとって、パーソナルロボットのセットアップのための操作は難しく、かつ面倒なものである。
【0010】
ところで、最近、急速に普及している携帯型電話機は、通話だけでなく、電子メールの授受、インターネットからの各種情報のダウンロードなどが可能である。また、一般的に、ユーザは自身が頻繁に利用する電話番号、電子メールアドレス、ウェブホームページアドレスの情報等を予め自身の携帯型電話機の本体内部に登録している。携帯型電話機においては、これらの情報を利用した通話および通信サービスが付加機能として簡単な操作によって利用できる。このように携帯型電話機は、家庭用のパーソナルコンピュータやパーソナルロボットに比べてセットアップのための操作が容易である。
【0011】
しかし、携帯型電話機は、小型化かつ軽量化するために操作ボタンの数や大きさ、表示画面の大きさ等には限界がある。従って、その操作性は必ずしも良くない。さらに、音声通話と電子メールとは別々に利用することが前提となっているので、通話および電子メールを融合させた形態で利用することはできなかった。例えば、携帯型電話機は、音声による通話を電子メールに変換して着信することや、逆に、電子メールを音声による通話として着信することができなかった。
【0012】
そこで、本発明の目的は、携帯型電話機と同程度の簡単な操作でユーザに対して様々な表現形式で通信または通話サービスを提供できる通信補助装置を提供することである。
【0013】
【課題を解決するための手段】
本発明に従った実施の形態による通信補助装置は、携帯型電話機に接続可能なインタフェースと、前記携帯型電話機が着信した通話用信号または通信用信号を、該携帯型電話機のユーザが認識可能な第1の表現形式へ変換する第1の信号変換部と、前記第1の表現形式の信号を表示または出力する出力部と、ユーザが入力可能な第2の表現形式で信号を入力することができる入力部と、前記第2の表現形式の信号を前記通話用信号または通信用信号へ変換する第2の信号変換部とを備えている。
【0014】
【発明の実施の形態】
以下、図面を参照し、本発明による実施の形態を説明する。実施の形態は本発明を限定するものではない。本発明に係る実施の形態に従ったパーソナルロボットは、携帯型電話機の通話または通信機能をユーザが使用し易いように拡張することによって、ユーザを補助するものである。
【0015】
図1は、本発明に係る実施の形態に従ったパーソナルロボット100の外観図である。パーソナルロボット100は、カメラ1、スピーカ2、マイク3、腕部5、ディスプレイ6、タッチパネルまたはキーボード7および移動機構8を備えている。カメラ1、スピーカ2およびマイク3は頭部101に配備され、腕部5、ディスプレイ6、タッチパネルまたはキーボード7および移動機構8は胴体部102に配備されている。さらに、パーソナルロボット100は、携帯型電話機9をセットするホルダ10を胴体部102に備えている。
【0016】
ユーザが携帯型電話機9をホルダ10にセットすることによって、携帯型電話機9が有する通話機能、データ通信機能およびその他の付加機能がパーソナルロボット100に追加される。
【0017】
図2は、パーソナルロボット100内部に設けられた制御装置200の構成を示すブロック図である。制御装置200は、全体管理部211、作業計画部212、通信処理部213、腕部・頭部制御部214、携帯型電話機用充電管理部215、データ入出力管理部216、視覚処理部217、音声処理部218、付加サービス機能部219、移動機構制御部220、携帯型電話機用インタフェース221および記憶部222を有する。
【0018】
全体管理部211は、パーソナルロボット100の動作内容に応じた各処理部の起動・停止等、制御装置全体の管理を行う。作業計画部212はロボットが目的の作業を実現するための具体的な作業動作の計画を行う。腕部・頭部制御部214は腕部5および頭部102を制御する。データ入出力処理部216は、ディスプレイ6やタッチパネルまたはキーボード7を制御する。視覚処理部217は、カメラ1から入力された画像情報を処理する。音声処理部218は、スピーカ2から出力する音声情報およびマイク3へ入力された音声情報を処理する。付加サービス機能部219はユーザへの各種サービスの処理を行う部分である。電子メールの送受信、インターネット情報の検索、音楽のダウンロードや再生等、携帯型電話機9が有するサービス機能をパーソナルロボット100に付加して利用することができる。移動機構制御部220は移動機構8を制御する。
【0019】
携帯型電話機用インタフェース221は、携帯型電話機9を制御装置200に接続する。インタフェース221により制御装置200は携帯型電話機9を介して外部の公衆回線またはインターネットと通信可能に接続される。パーソナルロボット200は、インタフェース221により宅外の公衆回線またはインターネットと通信可能であるので、通信処理部213は主に宅内ネットワーク22との通信に用いられる。ユーザへの各種サービスの処理を行う付加サービス機能部219は、胴体部102に取り付けられた携帯型電話機9の付加機能を利用可能とする。携帯型電話機9の付加機能は、例えば、携帯型電話機9内に登録された電話番号を用いて電話を掛ける機能、携帯型電話機9内に登録されたメールアドレスを用いてメールを送信する機能、若しくは、携帯型電話機9内に登録されたインターネットのホームページアドレスを用いてインターネットにアクセスする機能等、携帯型電話機9に付加された全機能である。これにより、パーソナルロボット100は、独自にメールを送受信する機能等を備える必要がなくなり、携帯型電話機9内に記憶された電話番号、メールアドレスまたはホームページアドレス等を利用して通信することができる。勿論、パーソナルロボット100は、家電製品のリモコン操作機能などを本体内に備えており、携帯型電話機9が有する機能を独自に有していてもよい。
【0020】
さらに、携帯型電話機9の付加機能は、携帯型電話機9が固別に有する電話番号、メールアドレスおよびホームページアドレス等のほか、ユーザ自身に関する情報の取得を含む。これによって、パーソナルロボット100は、本体にセットされた携帯型電話機9のユーザが誰であるかを認識することができ、ユーザごとに異なる動作をすることができる(以下、これをユーザカスタマイズ機能という)。
【0021】
携帯型電話機用充電管理部215および携帯型電話機用インタフェース221は、ホルダ10に接続されている。ユーザが携帯型電話機9をホルダ10へ挿入すると、ホルダ10内の充電用端子および通信用端子(図示せず)が携帯型電話機9の充電用端子および通信用ジャック(図示せず)に接続される。これにより、パーソナルロボット100は、携帯型電話機9と通信可能に接続され、尚且つ、携帯型電話機9を充電することができる。なお、携帯型電話機用充電管理部215は、ホルダ10に携帯型電話機9が挿入されているか否かを検出する機能も有する。
【0022】
辞書データ記憶部222は、音声情報を文字情報に変換するために用いられる音素データ、および、人物の顔の検出やその人物の認証に必要な辞書等を格納する。辞書とは、パターンの特徴を表現した情報である。
【0023】
図3は、本実施の形態においてインターネット情報または電子メールの送受信の利用形態を示す概念図である。従来、ユーザ24は、携帯型電話機9を直接操作することによって、公衆回線26およびインターネット回線27を利用していた。
【0024】
しかし、本実施の形態によれば、パーソナルロボット25がユーザ24と携帯型電話機9との間に介在する。それによって、ユーザ24は、パーソナルロボット100に備えられたタッチパネルまたはキーボード7、マイク3およびカメラ1等のような入力部を通して携帯型電話機9を操作することができる。例えば、ユーザ24は、パーソナルロボット100のマイク3に向かって「○○さんに電話して!」と指示することによって携帯型電話機に登録された電話番号を導き出し、携帯型電話機にこの電話番号へ発信させることができる。パーソナルロボット100に備えられたディスプレイ6およびスピーカ2等のような出力部は、携帯型電話機9が着信した通話用信号または通信用信号を文字表示または画像表示または音声出力することができる。
【0025】
このように、パーソナルロボット100によって、ユーザ24は、携帯型電話機9を直接操作することなく、簡単に携帯型電話機が有する付加機能を利用することができる。
【0026】
図4は、ユーザ24の文字出力指示を受け、携帯型電話機9が着信した通話用信号または通信用信号(通話/通信用信号という)を、パーソナルロボット100が文字として表示する実施の形態を示した概念図である。
【0027】
パーソナルロボット100は、図1に示すインタフェース221を通して携帯型電話機9が着信した通話/通信用信号を受信する。この通話/通信用信号の表現形式が文字、すなわち通信用信号である場合には、表現形式の変換は行われず、文字情報としてディスプレイ6に表示される。通話/通信用信号の表現形式が音声、すなわち通話用信号である場合には、データ入出力処理部216内に配備された音声/文字変換器228が文字情報へ変換する。この文字情報がディスプレイ6に表示される。
【0028】
音声情報を文字情報へ変換するためには、音声/文字変換器228が、音声情報の語彙を認識する必要がある。音声情報を文字情報へ変換する方法としては、例えば、鹿野清宏らによる“IT Text 音声認識システム“(オーム社)に記載されている音声語彙認識の方法が用いられる。
【0029】
本実施の形態によれば、携帯型電話機9が受信した音声情報を文字情報として表示できる。よって、ユーザ24が耳の不自由な聾唖者であっても、通常の音声情報による電話を受けることができる。
【0030】
携帯型電話機9が電子メールなどの文字情報を受信した場合には、その文字情報は、変換されることなくディスプレイ6に表示される。ディスプレイ6は、携帯型電話機9の表示部よりも大きいので、文字情報をより大きく表示することができる。それによって、本実施の形態は、視力が弱いユーザを補助することができる。
【0031】
さらに、携帯型電話機9が着信した音声信号を認識して手話に変換してディスプレイ6に画像表示させてもよい(特開平9−206329(聴力補助装置)参照)。
【0032】
図5は、ユーザ24の音声出力指示を受け、携帯型電話機9が着信した通話用信号または通信用信号(通話/通信用信号という)を、パーソナルロボット100が音声として出力する実施の形態を示した概念図である。
【0033】
パーソナルロボット100は、図1に示すインタフェース221を通して携帯型電話機9が着信した通話/通信用信号を受信する。この通話/通信用信号の表現形式が音声、すなわち通話用信号である場合には、表現形式の変換は行われず、音声情報としてスピーカ2から出力される。通話/通信用信号の表現形式が文字、すなわち通信用信号である場合には、データ入出力処理部216内に配備された文字/音声変換器229が音声情報へ変換する。この音声情報がスピーカ2から出力される。文字情報を音声情報へ変換するソフトウェアは、市販されているものでよい。
【0034】
本実施の形態によれば、携帯型電話機9が着信した文字情報を音声情報として表示できる。よって、ユーザ24が目の不自由な者であっても、電子メールなどの文字情報を音声情報として聞き取ることができる。また、スピーカ2は、携帯型電話機9が出力する音声よりも大きな音声を出力することができる。よって、本実施の形態は耳の遠いユーザ24を補助することができる。
【0035】
図6は、マイク3に入力された音声情報を、通話/通信用信号として携帯型電話機9から送信する実施の形態を示した概念図である。ユーザ24が指示した携帯型電話機9から送信する信号の表現形式が音声である場合には、マイク3に入力されたユーザの音声は変換させることなく音声情報として携帯型電話機9へ送信される。ユーザ24が指示した携帯型電話機9から送信する信号の表現形式が文字である場合には、音声処理部218内に配備された音声/文字変換器228´が音声情報を文字情報へ変換する。この文字情報が携帯型電話機9から送信される。
【0036】
さらに、ユーザ24からマイク3に入力された音声が携帯型電話機9の操作コマンドである場合には、その操作コマンドが携帯型電話機9に送られる。音声コマンド認識器230は、マイク3に入力された音声が操作コマンドに該当するか否かを判断する。
【0037】
本実施の形態によれば、ユーザ24は、音声指示のみで携帯型電話機9を操作し、携帯型電話機9を通じて会話することができる。また、ユーザ24は、音声指示のみで携帯型電話機9を操作し、電子メールの文章入力、送信を行うことができる。よって、ユーザ24が身体障害者や老人であっても、容易に通話や電子メールの送信を行うことができる。また、マイク3は、携帯型電話機9に備えられたマイク90よりも感度が良い。よって、ユーザ24は、パーソナルロボット100から離れていても、音声信号を入力することができる。
【0038】
図7は、タッチパネルまたはキーボード7に入力された情報を、通話/通信用信号として携帯型電話機9から送信する実施の形態を示した概念図である。パーソナルロボット100のタッチパネルまたはキーボード7より、ユーザ24は希望のサービスを利用することができる。例えば、入力デバイスがタッチパネルで、画面に選択可能な操作コマンドのボタンが表示されている場合、ユーザ24は希望のサービスのボタンに触れて希望のサービスを選択実行することができる。入力デバイスがキーボードやキーボードを表示したタッチパネルの場合は、アルファベット、ひらがな、片仮名等のキーを用いて、操作コマンドやメール文章、会話内容等を入力することができる。ユーザ24がタッチパネル7から所定の操作コマンドを入力した場合は、コマンドが携帯型電話機9に送られ実行される。ユーザ24が、携帯型電話機9から送信する信号の表現形式を文字と指定した場合は、タッチパネル7より入力された信号は変換させることなく携帯型電話機9から送信される。ユーザ24が携帯型電話機9から送信する信号の表現形式を音声と指定した場合は、データ入出力処理部216に配備された文字/音声変換器229が文字情報を音声情報へ変換する。この音声情報が携帯型電話機9へ送られる。
【0039】
本実施の形態によれば、ユーザ24は、パーソナルロボット100のタッチパネルまたはキーボード7を操作するだけで、携帯型電話機9を操作し、若しくは、携帯型電話機9の機能を利用して通話やメールの送信を行うことができる。本実施の形態において、タッチパネルまたはキーボード7の入力部は携帯型電話機9の入力キーよりも大きい。このため、ユーザ24は、携帯型電話9に配備された小さな入力キーを操作することなく、タッチパネルまたはキーボード7の比較的大きな入力部を操作することで、携帯型電話9の機能を利用することができる。
【0040】
図8は、頭部4に備えられたカメラ1に入力された情報を、通話/通信用信号として携帯型電話機9から送信する実施の形態を示した概念図である。カメラ1は、ユーザの顔の動きまたは身体の動作を画像データとして撮像する。ユーザ24が指示した携帯型電話機9から送信する信号の表現形式が画像である場合には、画像データはそのまま携帯型電話機9へ送られる。ユーザ24が指示した携帯型電話機9から送信する信号の表現形式が音声である場合には、視覚処理部217に備えられた画像認識音声変換部231が画像データを音声情報へ変換する。ユーザ24が指示した携帯型電話機9から送信する信号の表現形式が文字である場合には、視覚処理部217に備えられた画像認識文字変換部232が画像データを文字情報へ変換する。
【0041】
例えば、カメラ1がユーザ24の手話を撮像する。画像認識音声変換部231または画像認識文字変換部232がこの手話の意味を認識して音声情報または文字情報へ変換する。より詳細には、画像データから画像処理によって手の形、動きなどを抽出し、手話の内容を自動認識する手法が用いられる。ここで用いられる画像認識音声変換部231または画像認識文字変換部232は、例えば、特開平11−306316号公報(手話認識方法および手話認識装置および記録媒体)等を用いることによって実現され得る。
【0042】
尚、本実施の形態は、カメラ1により撮像された画像データを用いているが、カメラを用いることなく、センサを取り付けた専用手袋などを用意し、その信号をパーソナルロボット100に取り込んでもよい。このような実施の形態は、例えば、特開平5−241496号公報(手話翻訳装置)等を用いることによって実現され得る。
【0043】
画像データから画像処理によって唇の動きを抽出し、話の内容を自動認識する手法がある。このような手法に用いられる画像認識音声変換部231または画像認識文字変換部232は、例えば、特開平11−219421号公報(画像認識装置及び画像認識装置方法)等を用いることによって実現され得る。
【0044】
本実施の形態によれば、ユーザ24が聾唖者である場合であっても、ユーザ24は、手話を音声情報または文字情報として携帯型電話機9から発信させることができる。また、ユーザ24の唇の動きをパーソナルロボット100が読み取って、携帯型電話機9から音声情報または文字情報を送信することができる。
【0045】
図4および図5に示したように、パーソナルロボット100は、携帯型電話機9が受信した音声情報または文字情報を、文字情報としてディスプレイ6に表示し、若しくは、音声情報としてスピーカ2から出力することができる。また、図6から図8に示したように、パーソナルロボット100は、ユーザ24の発声、ユーザ24によるタッチパネルまたはキーボード7からの入力、手話または唇の動きなどを、音声情報、画像情報または文字情報として携帯型電話機9から発信させることができる。また、操作コマンドとして携帯型電話機9を操作することができる。従って、本実施の形態によれば、ユーザ24が身体障害者や老人等であっても、携帯型電話機9を介して容易に他人と通話/通信を行うことができる。
【0046】
図9は、上述の実施の形態によるパーソナルロボット100を使用して、耳の不自由なユーザ24が通話相手34と電話で会話する様子を示した概念図である。通話相手34が発した声は、音声情報として携帯型電話機91から携帯型電話機9に送信され、パーソナルロボット100に渡される。パーソナルロボット100は、この音声情報を文字情報または手話画像に変換し、この文字情報または手話画像をディスプレイ6に表示する。ユーザ24は、文字情報または手話画像を見ることによって、通話相手34の会話内容を理解することができる。なお、ユーザ24への手話画像の提示に代わり、パーソナルロボットにアームを設けて手話を表現することも可能である。
【0047】
通話相手34の会話内容に対応して、ユーザ24は、音声、タッチパネルまたはキーボード7からの入力、あるいは手話または唇の動きによって返事をする。音声はパーソナルロボット100のマイク3から、手話または唇の動きはパーソナルロボット100のカメラ1から入力される。ユーザ24が音声で返事をした場合には、その音声は、音声情報としてそのまま携帯型電話機9から携帯型電話機91を通して通話相手34へ伝えられる。ユーザ24がタッチパネルまたはキーボード7からの文字入力で返事をした場合には、入力内容が音声情報へ変換されて、ユーザ24が手話で返事をした場合には、手話の内容が音声情報へ変換されて、またユーザ24が唇の動きで返事をした場合には、その唇の動きが音声情報へ変換されて携帯型電話機9から携帯型電話機91を通して通話相手34へ伝えられる。このように、本実施の形態によるパーソナルロボット100は、音声情報、文字情報および画像情報を融合させた形態での通信を可能にする。
【0048】
ユーザ24は、相手から受信した情報を何れの表現形式に変換して出力するかや、相手へ発信する情報を何れの表現形式で入力するかなどは、パーソナルロボット100に指示設定すればよい。
【0049】
図10は、本発明に係る他の実施の形態に従ったパーソナルロボット300の外観図およびその利用形態を示した概念図である。パーソナルロボット300は、基体303および頭部304を備えている。頭部304は、ディスプレイ306、カメラ301、スピーカ(図示せず)およびマイク(図示せず)を有する。カメラ301は、ディスプレイ306が設けられた面内にかつディスプレイ306の近傍に配備されている。それによって、カメラ301は、ディスプレイ306の画面前方に存在するものを撮像することができる。頭部304は基体303を支点として動作する。それによって、ディスプレイ306およびカメラ301は上下左右に向くことができる。さらに、パーソナルロボット300は、その底部に移動機構308を備え、前後左右に自在に移動することができる。
【0050】
パーソナルロボット300は、図2に示した制御装置200と同様の制御装置を有する。しかし、パーソナルロボット300は、カメラ1によって撮像された画像データに基づいて、人物の顔を検出し、次に、ユーザ24を認証し、さらに、ディスプレイ306の文字情報等をユーザ24が読み易い位置へ自動的に移動するとともに、ユーザ24に合ったサービスメニューを提供する。
【0051】
画像データ内の人物の顔を検出し、その顔がユーザ24であることを認証する方法としては、部分空間法および相互部分空間法が用いられる。部分空間法および相互部分空間法は、エルッキ・オヤによる“パターン認識と部分空間”(産業図書)、前田賢一による“パターン認識方式”、山口修等、“動画像を用いた顔認識システム”(信学技報、PRMU97−50、1997)または特開昭60−57475に記載されている。また、パーソナルロボット300とユーザ24との間の距離は、顔画像の大きさと顔の平均的な大きさのデータから推定する。
【0052】
本実施の形態によるパーソナルロボット300は、ディスプレイ306をユーザ24の顔の方向へ向け、尚且つ、ユーザ24から所定の距離35だけ離れた位置まで移動する(S112)。これによって、パーソナルロボット300は、文字情報等をユーザ24に読み易い位置で表示することができる。
【0053】
図11は、携帯型電話機9の着脱に関するパーソナルロボット100または300の動作を示す概念図である。ユーザ24の在宅中には、携帯型電話機9はパーソナルロボット100に設けられたホルダ10に常時挿入される。ユーザ24の外出中には、携帯型電話機9はホルダ10から取り外される。
【0054】
携帯型電話機9がホルダ10に挿入されている場合には、パーソナルロボット100は、ユーザ24が在宅中であると認識する。一方で、携帯型電話機9がホルダ10から取り外されている場合には、パーソナルロボット100は、ユーザ24が外出中であると認識する。携帯型電話機9がホルダ10に挿入されているか否かは、携帯型電話機用充電管理部215でチェックされる。
【0055】
これによって、パーソナルロボット100は、ユーザ24が在宅中である場合とユーザ24が外出中である場合とで異なるサービスを提供することができる。
【0056】
例えば、ユーザ24が在宅中の場合には、パーソナルロボット100は在宅モード40に設定される。在宅モード40は、音楽のダウンロードや再生、情報検索表示、家電機器のコントロールといった、ユーザ24に対するサービスの提供が中心となる。また、この時は、携帯型電話機に対する充電も行われる。
【0057】
一方、ユーザ24が外出中の場合には、パーソナルロボット100は不在モード41に設定される。不在モード41は、訪問者および電話の応対、室内巡回監視などのセキュリティサービス等が提供される。パーソナルロボット300もこれらのサービスを提供することができる。
【0058】
上述の実施の形態は、パーソナルロボットに関する実施の形態であるが、本発明は、パーソナルロボットに限らず、様々な通信補助装置として実施することができる。
【0059】
尚、特開2001−195113および特開2001−125585に開示されたシステムは、ロボットを主とし、これを制御する制御信号を送受信するために専用の携帯型電話機を搭載している。しかし、本発明に係る実施の形態は、携帯型電話機を主とし、これの通話/通信機能を拡張することによって、通話または通信時にユーザを補助する。
【0060】
【発明の効果】
本発明による通信補助装置は、携帯型電話機と同程度の簡単な操作でユーザに対して様々な表現形式で通信または通話サービスを提供できる。
【図面の簡単な説明】
【図1】本発明に係る実施の形態に従ったパーソナルロボット100の外観図。
【図2】パーソナルロボット100内部に設けられた制御装置200の構成を示すブロック図。
【図3】本実施の形態においてインターネット情報または電子メールの送受信の利用形態を示す概念図。
【図4】携帯型電話機9が着信した通話/通信用信号を、パーソナルロボット100が文字として表示する実施の形態を示した概念図。
【図5】携帯型電話機9が着信した通話/通信用信号を、パーソナルロボット100が音声として出力する実施の形態を示した概念図。
【図6】マイク3に入力された音声情報を、通話/通信用信号として携帯型電話機9から送信したり、携帯型電話機9の操作コマンドとして受け付ける実施の形態を示した概念図。
【図7】タッチパネルまたはキーボード7から入力された情報を、通話/通信用信号として携帯型電話機9から送信したり、携帯型電話機9の操作コマンドとして受け付ける実施の形態を示した概念図。
【図8】頭部4に備えられたカメラ1から入力された情報を、通話/通信用信号として携帯型電話機9から送信する実施の形態を示した概念図。
【図9】パーソナルロボット100を使用して、耳の不自由なユーザ24が通話相手34と電話で会話する様子を示した概念図。
【図10】本発明に係る他の実施の形態に従ったパーソナルロボット300の外観図およびその利用形態を示した概念図。
【図11】携帯型電話機9の着脱に関するパーソナルロボット100または300の動作を示す概念図。
【図12】ユーザとのやりとりを通してユーザに何らかのサービスを提供するパーソナルロボットの一般的な構成を示す図。
【図13】このパーソナルロボットの典型的な制御装置のブロック図。
【符号の説明】
100、300 パーソナルロボット
101 頭部
102 胴体部
1 カメラ
2 スピーカ
3 マイク
5 腕部
6 ディスプレイ
7 タッチパネルまたはキーボード
8 移動機構
200 制御装置
211 全体管理部
212 作業計画部
213 通信処理部
214 腕部・頭部制御部
215 携帯型電話機用充電管理部
216 データ入出力管理部
217 視覚処理部
218 音声処理部
219 付加サービス機能部
220 移動機構制御部
221 携帯型電話機用インターフェース
222 辞書データ記憶部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a communication auxiliary device.
[0002]
[Prior art]
In recent years, personal robots used in ordinary households have been developed. A typical example is AIBO (registered trademark) by Sony Corporation. AIBO (registered trademark) is a pet robot that simulates a dog, and such a pet robot that simulates a pet such as a dog or a cat is popular with many people as a user's pet. However, pet robots do not have the function of providing any service to humans.
[0003]
On the other hand, there is PaPeRo (registered trademark) by NEC Corporation. PaPeRo (registered trademark) is one of the personal robots having a function of providing various services to a user, and performs remote control operation of a TV, reproduction of music and video, access to the Internet, exchange of information with a personal computer, and the like. be able to.
[0004]
Although there are various forms and configurations of the personal robot, a personal robot that provides some service to the user through interaction with the user generally includes a camera 1, a speaker 2, a microphone 3, a camera platform 4, an arm, as shown in FIG. 5, a display 6, a touch panel or a keyboard 7, and a moving mechanism 8.
[0005]
FIG. 13 is a block diagram of a typical control device of the personal robot. The control device includes an overall management unit 11, a work planning unit 12, a communication processing unit 13, an arm / head control unit 14, a data input / output processing unit 16, a visual processing unit 17, a voice processing unit 18, an additional service function unit 19 And a movement mechanism control unit 20.
[0006]
The overall management unit 11 manages the entire control device. The work planning unit 12 plans the work operation of the robot. The communication processing unit 13 transmits and receives data to and from the external communication network 23. The arm / head control unit 14 controls the arm 5 and the head 4. The data input / output processing unit 16 controls the display 6, the touch panel, or the keyboard 7. The visual processing unit 17 processes image information input from the camera 1. The audio processing unit 18 processes audio information output from the speaker 2 or audio information input to the microphone 3. The additional service function unit 19 performs processing of various services to the user, such as transmission and reception of e-mail, search of Internet information, remote control operation of home electric appliances, download and reproduction of music, and the like. The moving mechanism control unit 20 controls the moving mechanism 8.
[0007]
[Patent Document 1]
JP 2001-195113A
[Patent Document 2]
JP-A-2001-125585
[0008]
[Problems to be solved by the invention]
The personal robot shown in FIGS. 12 and 13 can provide a user with services such as transmission and reception of e-mail, search of Internet information, remote control operation of home electric appliances, and music playback.
[0009]
However, such a personal robot merely has functions similar to those of a personal computer. Therefore, when receiving a service from such a personal robot, it is necessary to set up a system of the personal robot as in the case of a personal computer. The operation for setting up the personal robot is difficult and troublesome for ordinary users who do not have specialized knowledge.
[0010]
By the way, a mobile phone which has been rapidly spread recently can transmit and receive electronic mails and download various kinds of information from the Internet, in addition to telephone calls. In general, a user registers information such as a telephone number, an e-mail address, and a web page address frequently used by the user in advance in the main body of his / her mobile phone. In a portable telephone, a call and communication service using such information can be used as an additional function by a simple operation. As described above, the portable telephone is easier to set up than a home personal computer or a personal robot.
[0011]
However, the number and size of operation buttons, the size of a display screen, and the like are limited in a mobile phone in order to reduce the size and weight. Therefore, the operability is not always good. Furthermore, since it is assumed that voice communication and e-mail are used separately, it has not been possible to use telephone and e-mail in an integrated form. For example, a portable telephone cannot convert a voice call into an electronic mail and receive it, or conversely, cannot receive an electronic mail as a voice call.
[0012]
Therefore, an object of the present invention is to provide a communication auxiliary device that can provide a user with a communication or a call service in various expression forms with a simple operation similar to a portable telephone.
[0013]
[Means for Solving the Problems]
A communication auxiliary device according to an embodiment of the present invention is capable of recognizing an interface connectable to a mobile phone and a call signal or a communication signal received by the mobile phone by a user of the mobile phone. A first signal conversion unit for converting to a first expression format, an output unit for displaying or outputting the signal in the first expression format, and inputting a signal in a second expression format that can be input by a user. And a second signal converter for converting the signal in the second expression format into the call signal or the communication signal.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments do not limit the present invention. The personal robot according to the embodiment of the present invention assists the user by extending the call or communication function of the mobile phone so that the user can use it easily.
[0015]
FIG. 1 is an external view of a personal robot 100 according to an embodiment of the present invention. The personal robot 100 includes a camera 1, a speaker 2, a microphone 3, an arm 5, a display 6, a touch panel or a keyboard 7, and a moving mechanism 8. The camera 1, the speaker 2, and the microphone 3 are provided on the head 101, and the arm 5, the display 6, the touch panel or the keyboard 7, and the moving mechanism 8 are provided on the body 102. Further, the personal robot 100 includes a holder 10 for setting the portable telephone 9 on the body 102.
[0016]
When the user sets the mobile phone 9 in the holder 10, the call function, data communication function, and other additional functions of the mobile phone 9 are added to the personal robot 100.
[0017]
FIG. 2 is a block diagram showing the configuration of the control device 200 provided inside the personal robot 100. The control device 200 includes an overall management unit 211, a work planning unit 212, a communication processing unit 213, an arm / head control unit 214, a charge management unit 215 for a portable telephone, a data input / output management unit 216, a visual processing unit 217, It has a voice processing unit 218, an additional service function unit 219, a moving mechanism control unit 220, a mobile phone interface 221, and a storage unit 222.
[0018]
The overall management unit 211 manages the entire control device, such as starting and stopping each processing unit according to the operation content of the personal robot 100. The work planning unit 212 plans a specific work operation for the robot to achieve a desired work. The arm / head control unit 214 controls the arm 5 and the head 102. The data input / output processing unit 216 controls the display 6, the touch panel, or the keyboard 7. The visual processing unit 217 processes image information input from the camera 1. The audio processing unit 218 processes audio information output from the speaker 2 and audio information input to the microphone 3. The additional service function unit 219 is a part that performs various services for the user. The service functions of the portable telephone 9 such as transmission and reception of e-mail, search of Internet information, download and reproduction of music, and the like can be added to the personal robot 100 and used. The moving mechanism control unit 220 controls the moving mechanism 8.
[0019]
The mobile phone interface 221 connects the mobile phone 9 to the control device 200. The control device 200 is communicably connected to an external public line or the Internet via the portable telephone 9 by the interface 221. Since the personal robot 200 can communicate with a public line outside the home or the Internet via the interface 221, the communication processing unit 213 is mainly used for communication with the home network 22. An additional service function unit 219 for processing various services to the user makes available additional functions of the portable telephone 9 attached to the body 102. Additional functions of the mobile phone 9 include, for example, a function of making a call using a telephone number registered in the mobile phone 9, a function of transmitting an e-mail using an e-mail address registered in the mobile phone 9, Alternatively, all functions added to the mobile phone 9 such as a function of accessing the Internet using an Internet homepage address registered in the mobile phone 9. This eliminates the need for the personal robot 100 to have a function of independently transmitting and receiving e-mails, and enables communication using a telephone number, an e-mail address, a homepage address, or the like stored in the mobile phone 9. Of course, the personal robot 100 includes a remote control operation function for home electric appliances in the main body, and may have the function of the mobile phone 9 independently.
[0020]
Further, the additional functions of the mobile phone 9 include acquisition of information about the user himself, in addition to the telephone number, mail address, homepage address, etc., which the mobile phone 9 has. Thereby, the personal robot 100 can recognize the user of the mobile phone 9 set on the main body, and can perform different operations for each user (hereinafter, this is referred to as a user customizing function). ).
[0021]
The mobile phone charge management unit 215 and the mobile phone interface 221 are connected to the holder 10. When the user inserts the mobile phone 9 into the holder 10, the charging terminal and the communication terminal (not shown) in the holder 10 are connected to the charging terminal and the communication jack (not shown) of the mobile phone 9. You. As a result, the personal robot 100 is communicably connected to the mobile phone 9 and can charge the mobile phone 9. Note that the mobile phone charge management unit 215 also has a function of detecting whether or not the mobile phone 9 is inserted into the holder 10.
[0022]
The dictionary data storage unit 222 stores phoneme data used for converting voice information into character information, a dictionary necessary for detecting a face of a person and authenticating the person, and the like. The dictionary is information expressing the characteristics of the pattern.
[0023]
FIG. 3 is a conceptual diagram showing a use form of transmitting and receiving Internet information or electronic mail in the present embodiment. Conventionally, the user 24 has used the public line 26 and the Internet line 27 by directly operating the mobile phone 9.
[0024]
However, according to the present embodiment, personal robot 25 is interposed between user 24 and portable telephone 9. Accordingly, the user 24 can operate the mobile phone 9 through an input unit such as the touch panel or the keyboard 7, the microphone 3, the camera 1, and the like provided on the personal robot 100. For example, the user 24 derives the telephone number registered in the mobile phone by instructing the microphone 3 of the personal robot 100 to "call Mr. XX!" Can be sent. An output unit such as the display 6 and the speaker 2 provided in the personal robot 100 can display a call signal or a communication signal received by the portable telephone 9 in character display, image display, or voice output.
[0025]
As described above, the personal robot 100 allows the user 24 to easily use the additional functions of the mobile phone without directly operating the mobile phone 9.
[0026]
FIG. 4 shows an embodiment in which the personal robot 100 displays a call signal or a communication signal (called a call / communication signal) received by the mobile phone 9 in response to a character output instruction from the user 24. FIG.
[0027]
The personal robot 100 receives the call / communication signal received by the portable telephone 9 via the interface 221 shown in FIG. When the expression format of the call / communication signal is a character, that is, a communication signal, the expression format is not converted and is displayed on the display 6 as character information. When the expression format of the call / communication signal is voice, that is, a call signal, the voice / character converter 228 provided in the data input / output processing unit 216 converts the expression into character information. This character information is displayed on the display 6.
[0028]
In order to convert voice information to text information, the voice / text converter 228 needs to recognize the vocabulary of the voice information. As a method of converting voice information into character information, for example, a voice vocabulary recognition method described in "IT Text Voice Recognition System" (Ohmsha) by Kiyohiro Kano et al. Is used.
[0029]
According to the present embodiment, audio information received by the mobile phone 9 can be displayed as character information. Therefore, even if the user 24 is a deaf person who is deaf, the user can receive a call using ordinary voice information.
[0030]
When the portable telephone 9 receives character information such as an electronic mail, the character information is displayed on the display 6 without being converted. Since the display 6 is larger than the display of the mobile phone 9, the character information can be displayed larger. Thereby, the present embodiment can assist a user with weak vision.
[0031]
Further, the portable telephone 9 may recognize the incoming voice signal, convert the voice signal into sign language, and display the image on the display 6 (see Japanese Patent Application Laid-Open No. 9-206329 (hearing assist device)).
[0032]
FIG. 5 shows an embodiment in which the personal robot 100 outputs a voice signal or a communication signal (called a voice / communication signal) received by the mobile phone 9 in response to a voice output instruction from the user 24. FIG.
[0033]
The personal robot 100 receives the call / communication signal received by the portable telephone 9 via the interface 221 shown in FIG. When the expression format of the call / communication signal is voice, that is, a call signal, the expression format is not converted, and is output from the speaker 2 as audio information. When the expression format of the call / communication signal is a character, that is, a communication signal, the character / speech converter 229 provided in the data input / output processing unit 216 converts the speech / speech signal into speech information. This audio information is output from the speaker 2. Software for converting character information into audio information may be commercially available software.
[0034]
According to the present embodiment, character information received by mobile phone 9 can be displayed as voice information. Therefore, even if the user 24 is blind, character information such as an electronic mail can be heard as voice information. Further, the speaker 2 can output a sound that is louder than the sound output from the mobile phone 9. Therefore, this embodiment can assist the user 24 who is far from the ear.
[0035]
FIG. 6 is a conceptual diagram showing an embodiment in which voice information input to microphone 3 is transmitted from mobile phone 9 as a call / communication signal. When the expression form of the signal transmitted from the mobile phone 9 specified by the user 24 is voice, the user's voice input to the microphone 3 is transmitted to the mobile phone 9 as voice information without conversion. When the expression format of the signal transmitted from the mobile phone 9 specified by the user 24 is a character, a voice / character converter 228 ′ provided in the voice processing unit 218 converts the voice information into text information. This character information is transmitted from the mobile phone 9.
[0036]
Further, when the voice input from the user 24 to the microphone 3 is an operation command of the mobile phone 9, the operation command is sent to the mobile phone 9. The voice command recognizer 230 determines whether the voice input to the microphone 3 corresponds to an operation command.
[0037]
According to the present embodiment, the user 24 can operate the mobile phone 9 only by voice instructions and can have a conversation through the mobile phone 9. In addition, the user 24 can operate the mobile phone 9 only by voice instructions to input and transmit text of an e-mail. Therefore, even if the user 24 is a physically handicapped person or an elderly person, it is possible to easily perform a telephone call and an e-mail transmission. The microphone 3 has higher sensitivity than the microphone 90 provided in the mobile phone 9. Therefore, the user 24 can input a voice signal even when the user 24 is away from the personal robot 100.
[0038]
FIG. 7 is a conceptual diagram showing an embodiment in which information input to the touch panel or the keyboard 7 is transmitted from the mobile phone 9 as a call / communication signal. The user 24 can use a desired service from the touch panel or the keyboard 7 of the personal robot 100. For example, when the input device is a touch panel and buttons for selectable operation commands are displayed on the screen, the user 24 can select and execute a desired service by touching a desired service button. When the input device is a keyboard or a touch panel displaying a keyboard, it is possible to input operation commands, e-mail sentences, conversation contents, and the like using keys such as alphabets, hiragana, and katakana. When the user 24 inputs a predetermined operation command from the touch panel 7, the command is sent to the mobile phone 9 and executed. When the user 24 specifies the expression format of the signal transmitted from the mobile phone 9 as a character, the signal input from the touch panel 7 is transmitted from the mobile phone 9 without conversion. When the user 24 designates the expression format of the signal transmitted from the mobile phone 9 as voice, a character / voice converter 229 provided in the data input / output processing unit 216 converts the character information into voice information. This voice information is sent to the mobile phone 9.
[0039]
According to the present embodiment, the user 24 operates the mobile phone 9 only by operating the touch panel or the keyboard 7 of the personal robot 100, or uses the functions of the mobile phone 9 to make a call or send a mail. You can send. In the present embodiment, the input unit of the touch panel or the keyboard 7 is larger than the input keys of the mobile phone 9. Therefore, the user 24 can use the function of the mobile phone 9 by operating the relatively large input unit of the touch panel or the keyboard 7 without operating the small input keys provided on the mobile phone 9. Can be.
[0040]
FIG. 8 is a conceptual diagram showing an embodiment in which information input to the camera 1 provided on the head 4 is transmitted from the portable telephone 9 as a call / communication signal. The camera 1 captures a user's face movement or body movement as image data. When the expression format of the signal transmitted from the mobile phone 9 specified by the user 24 is an image, the image data is sent to the mobile phone 9 as it is. When the expression format of the signal transmitted from the mobile phone 9 specified by the user 24 is voice, the image recognition voice conversion unit 231 provided in the visual processing unit 217 converts the image data into voice information. When the expression format of the signal transmitted from the mobile phone 9 specified by the user 24 is a character, the image recognition character conversion unit 232 provided in the visual processing unit 217 converts the image data into character information.
[0041]
For example, the camera 1 captures the sign language of the user 24. The image recognition voice conversion unit 231 or the image recognition character conversion unit 232 recognizes the sign language and converts it into voice information or character information. More specifically, a method of extracting a hand shape, a movement, and the like from image data by image processing and automatically recognizing the content of the sign language is used. The image recognition voice conversion unit 231 or the image recognition character conversion unit 232 used here can be realized by using, for example, Japanese Patent Application Laid-Open No. 11-306316 (Sign Language Recognition Method, Sign Language Recognition Apparatus, and Recording Medium).
[0042]
In the present embodiment, image data captured by the camera 1 is used. However, a dedicated glove to which a sensor is attached may be prepared without using a camera, and the signal may be taken into the personal robot 100. Such an embodiment can be realized by using, for example, JP-A-5-241496 (sign language translator).
[0043]
There is a method of extracting lip movements from image data by image processing and automatically recognizing the contents of a story. The image recognition voice conversion unit 231 or the image recognition character conversion unit 232 used in such a method can be realized by using, for example, Japanese Patent Application Laid-Open No. 11-219421 (image recognition device and image recognition device method).
[0044]
According to the present embodiment, even if the user 24 is a deaf person, the user 24 can transmit the sign language from the mobile phone 9 as voice information or character information. In addition, the personal robot 100 can read the movement of the lips of the user 24 and transmit voice information or character information from the mobile phone 9.
[0045]
As shown in FIGS. 4 and 5, the personal robot 100 displays the voice information or character information received by the portable telephone 9 on the display 6 as character information, or outputs the voice information or character information from the speaker 2 as voice information. Can be. As shown in FIGS. 6 to 8, the personal robot 100 converts the utterance of the user 24, the input from the touch panel or the keyboard 7 by the user 24, the sign language or the movement of the lips, into voice information, image information or character information. Can be transmitted from the portable telephone 9. Further, the mobile phone 9 can be operated as an operation command. Therefore, according to the present embodiment, even if the user 24 is a physically handicapped person, an elderly person, or the like, it is possible to easily communicate / communicate with another person via the mobile phone 9.
[0046]
FIG. 9 is a conceptual diagram showing a state in which the hearing-impaired user 24 has a telephone conversation with the other party 34 using the personal robot 100 according to the above-described embodiment. The voice uttered by the other party 34 is transmitted as voice information from the mobile phone 91 to the mobile phone 9 and passed to the personal robot 100. The personal robot 100 converts the voice information into character information or a sign language image, and displays the character information or the sign language image on the display 6. The user 24 can understand the conversation content of the other party 34 by looking at the character information or the sign language image. Instead of presenting the sign language image to the user 24, it is also possible to provide an arm in the personal robot and express the sign language.
[0047]
In response to the conversation contents of the other party 34, the user 24 replies by voice, input from the touch panel or the keyboard 7, or sign language or lip movement. The voice is input from the microphone 3 of the personal robot 100, and the sign language or lip movement is input from the camera 1 of the personal robot 100. When the user 24 replies by voice, the voice is transmitted as voice information from the mobile phone 9 to the other party 34 via the mobile phone 91 as it is. When the user 24 replies by character input from the touch panel or the keyboard 7, the input content is converted into voice information, and when the user 24 replies in sign language, the content of the sign language is converted into voice information. When the user 24 responds with the movement of the lips, the movement of the lips is converted into voice information and transmitted from the mobile phone 9 to the other party 34 through the mobile phone 91. As described above, the personal robot 100 according to the present embodiment enables communication in a form in which voice information, character information, and image information are fused.
[0048]
The user 24 may instruct the personal robot 100 to convert the information received from the partner into any expression format and output the information, or to input the information to be transmitted to the partner in any expression format.
[0049]
FIG. 10 is a conceptual diagram showing an external view of a personal robot 300 according to another embodiment of the present invention and a usage form thereof. The personal robot 300 includes a base 303 and a head 304. The head 304 has a display 306, a camera 301, a speaker (not shown), and a microphone (not shown). The camera 301 is provided in a plane on which the display 306 is provided and near the display 306. Thereby, the camera 301 can capture an image existing in front of the screen of the display 306. The head 304 operates with the base 303 as a fulcrum. Thereby, the display 306 and the camera 301 can face up, down, left, and right. Further, the personal robot 300 is provided with a moving mechanism 308 at the bottom thereof, and can move freely in all directions.
[0050]
The personal robot 300 has a control device similar to the control device 200 shown in FIG. However, the personal robot 300 detects the face of the person based on the image data captured by the camera 1, then authenticates the user 24, and furthermore displays the character information on the display 306 in a position where the user 24 can easily read the information. And automatically provides a service menu suitable for the user 24.
[0051]
As a method of detecting the face of a person in the image data and authenticating that the face is the user 24, a subspace method and a mutual subspace method are used. The subspace method and the mutual subspace method are described in "Pattern Recognition and Subspace" by Erkki Oya (Sangyo Tosho), "Pattern Recognition Method" by Kenichi Maeda, Osamu Yamaguchi, and other "face recognition systems using moving images" ( IEICE Technical Report, PRMU97-50, 1997) or JP-A-60-57475. Further, the distance between the personal robot 300 and the user 24 is estimated from the data of the size of the face image and the average size of the face.
[0052]
The personal robot 300 according to the present embodiment turns the display 306 toward the face of the user 24 and moves to a position separated from the user 24 by a predetermined distance 35 (S112). Thereby, the personal robot 300 can display the character information and the like at a position that is easy for the user 24 to read.
[0053]
FIG. 11 is a conceptual diagram showing the operation of the personal robot 100 or 300 relating to the attachment / detachment of the mobile phone 9. While the user 24 is at home, the mobile phone 9 is always inserted into the holder 10 provided on the personal robot 100. While the user 24 is out, the mobile phone 9 is removed from the holder 10.
[0054]
When the mobile phone 9 is inserted into the holder 10, the personal robot 100 recognizes that the user 24 is at home. On the other hand, when the mobile phone 9 is detached from the holder 10, the personal robot 100 recognizes that the user 24 is out. Whether or not the mobile phone 9 is inserted into the holder 10 is checked by the mobile phone charge management unit 215.
[0055]
Thus, the personal robot 100 can provide different services depending on whether the user 24 is at home or when the user 24 is out.
[0056]
For example, when the user 24 is at home, the personal robot 100 is set to the home mode 40. The home mode 40 mainly provides services to the user 24, such as downloading and reproducing music, searching for information, and controlling home electric appliances. At this time, the mobile phone is also charged.
[0057]
On the other hand, when the user 24 is out of the office, the personal robot 100 is set to the absence mode 41. In the absence mode 41, security services such as visitor and telephone responses and indoor patrol monitoring are provided. The personal robot 300 can also provide these services.
[0058]
The above embodiment is an embodiment relating to a personal robot, but the present invention is not limited to a personal robot and can be implemented as various communication assisting devices.
[0059]
The systems disclosed in JP-A-2001-195113 and JP-A-2001-125585 are mainly equipped with a robot, and are equipped with a dedicated portable telephone for transmitting and receiving control signals for controlling the robot. However, the embodiment according to the present invention mainly assists a user in a call or communication by expanding a call / communication function of the portable telephone mainly.
[0060]
【The invention's effect】
ADVANTAGE OF THE INVENTION The communication assistance apparatus by this invention can provide a communication or a telephone call service in various expression forms to a user by the same simple operation as a portable telephone.
[Brief description of the drawings]
FIG. 1 is an external view of a personal robot 100 according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a control device 200 provided inside the personal robot 100.
FIG. 3 is a conceptual diagram showing a use form of transmission and reception of Internet information or electronic mail in the present embodiment.
FIG. 4 is a conceptual diagram showing an embodiment in which the personal robot 100 displays a call / communication signal received by the portable telephone 9 as characters.
FIG. 5 is a conceptual diagram showing an embodiment in which the personal robot 100 outputs a call / communication signal received by the portable telephone 9 as voice.
FIG. 6 is a conceptual diagram showing an embodiment in which voice information input to the microphone 3 is transmitted as a call / communication signal from the portable telephone 9 or received as an operation command of the portable telephone 9;
FIG. 7 is a conceptual diagram showing an embodiment in which information input from the touch panel or the keyboard 7 is transmitted from the portable telephone 9 as a call / communication signal or received as an operation command of the portable telephone 9;
FIG. 8 is a conceptual diagram showing an embodiment in which information input from the camera 1 provided on the head 4 is transmitted from the portable telephone 9 as a call / communication signal.
FIG. 9 is a conceptual diagram showing a state in which a user 24 who is deaf has a telephone conversation with a call partner 34 using the personal robot 100.
FIG. 10 is a conceptual diagram showing an external view of a personal robot 300 according to another embodiment of the present invention and a usage form thereof.
FIG. 11 is a conceptual diagram showing an operation of the personal robot 100 or 300 regarding attachment and detachment of the mobile phone 9;
FIG. 12 is a diagram showing a general configuration of a personal robot that provides some service to a user through interaction with the user.
FIG. 13 is a block diagram of a typical control device of the personal robot.
[Explanation of symbols]
100, 300 Personal robot
101 head
102 torso
1 camera
2 Speaker
3 microphone
5 arms
6 Display
7 Touch panel or keyboard
8 Moving mechanism
200 control device
211 Overall Management Department
212 Work Planning Department
213 Communication processing unit
214 arm / head control unit
215 Charge management unit for mobile phone
216 Data input / output management unit
217 Visual processing unit
218 Audio Processing Unit
219 Additional service function section
220 Moving mechanism control unit
221 Interface for mobile phone
222 Dictionary Data Storage

Claims (17)

携帯型電話機に接続可能なインタフェースと、
前記携帯型電話機が着信した通話用信号または通信用信号を、該携帯型電話機のユーザが認識可能な第1の表現形式へ変換する第1の信号変換部と、
前記第1の表現形式の信号を表示または出力する出力部と、
ユーザが入力可能な第2の表現形式で信号を入力することができる入力部と、
前記第2の表現形式の信号を前記通話用信号または通信用信号へ変換する第2の信号変換部とを備えた通信補助装置。
An interface connectable to a mobile phone,
A first signal conversion unit that converts a call signal or a communication signal received by the mobile phone into a first expression format recognizable by a user of the mobile phone;
An output unit for displaying or outputting the signal in the first expression format;
An input unit that can input a signal in a second expression format that can be input by a user;
A second signal conversion unit that converts the signal in the second expression format into the communication signal or the communication signal.
前記携帯型電話機が有する付加機能を制御する制御部をさらに備えたことを特徴とする請求項1に記載の通信補助装置。The communication assistant device according to claim 1, further comprising a control unit that controls an additional function of the portable telephone. 前記第1の表現形式の信号は、文字情報または画像情報であり、
前記出力部は、前記第1の表現形式の信号を前記携帯型電話機が有する表示画面よりも大きく表示することができるディスプレイであることを特徴とする請求項1に記載の通信補助装置。
The signal of the first expression format is character information or image information,
2. The communication assisting device according to claim 1, wherein the output unit is a display that can display the signal of the first expression format larger than a display screen of the mobile phone. 3.
前記第1の信号変換部は、前記携帯型電話機が着信した通話用信号よりなる音声情報を、文字情報または画像情報へ変換することを特徴とする請求項3に記載の通信補助装置。4. The communication assisting device according to claim 3, wherein the first signal conversion unit converts voice information including a call signal received by the mobile phone into text information or image information. 前記第1の表現形式の信号は音声情報であり、
前記携帯型電話機の音声出力部よりも大きな音量で該音声情報を出力することができるスピーカをさらに備えたことを特徴とする請求項1に記載の通信補助装置。
The signal in the first expression format is audio information,
The communication assistance device according to claim 1, further comprising a speaker capable of outputting the audio information at a volume higher than an audio output unit of the mobile phone.
前記第1の信号変換部は、前記携帯型電話機が着信した通信用信号よりなる文字情報または画像情報を、音声情報へ変換することを特徴とする請求項5に記載の通信補助装置。The communication assistance device according to claim 5, wherein the first signal conversion unit converts character information or image information formed of a communication signal received by the mobile phone into voice information. 前記第2の表現形式の信号は、ユーザの声に基づく音声情報であり、
前記携帯型電話機によって発信される通話用信号または通信用信号は、音声情報または文字情報または画像情報であり、
前記入力部は、ユーザの音声情報を入力するマイクロフォンであることを特徴とする請求項1に記載の通信補助装置。
The signal of the second expression form is audio information based on a user's voice,
The call signal or communication signal transmitted by the mobile phone is audio information, character information, or image information,
The communication assistance device according to claim 1, wherein the input unit is a microphone for inputting voice information of a user.
前記第2の信号変換部は、前記マイクロフォンからの音声情報を文字情報または画像情報へ変換することを特徴とする請求項7に記載の通信補助装置。The communication assistance device according to claim 7, wherein the second signal conversion unit converts audio information from the microphone into text information or image information. 前記第2の表現形式の信号は、ユーザが入力した文字情報であり、
前記携帯型電話機によって発信される通話用信号または通信用信号は音声情報または文字情報または画像情報であり、
前記入力部は、前記携帯型電話機のユーザが文字を入力するタッチパネルまたはキーボードであることを特徴とする請求項1に記載の通信補助装置。
The signal in the second expression format is character information input by a user,
The call signal or communication signal transmitted by the mobile phone is voice information, character information, or image information,
The communication assistance device according to claim 1, wherein the input unit is a touch panel or a keyboard on which a user of the mobile phone inputs characters.
前記第2の信号変換部は、前記タッチパネルまたはキーボードからの文字情報を音声情報または画像情報へ変換することを特徴とする請求項9に記載の通信補助装置。The communication assistance device according to claim 9, wherein the second signal conversion unit converts character information from the touch panel or the keyboard into voice information or image information. 前記第2の表現形式の信号は、ユーザの身体の動きに基づく画像情報であり、
前記携帯型電話機によって発信される通話用信号または通信用信号は音声情報または文字情報または画像情報であり、
前記入力部は、ユーザのジェスチャーまたは手話または唇の動きを画像情報として入力するカメラであることを特徴とする請求項1に記載の通信補助装置。
The signal in the second expression form is image information based on movement of the body of the user,
The call signal or communication signal transmitted by the mobile phone is voice information, character information, or image information,
The communication assistance device according to claim 1, wherein the input unit is a camera that inputs a user's gesture, sign language, or lip movement as image information.
前記第2の信号変換部は、前記カメラからの画像情報を音声情報または文字情報へ変換することを特徴とする請求項11に記載の通信補助装置。The communication assistance device according to claim 11, wherein the second signal conversion unit converts image information from the camera into audio information or text information. 前記携帯型電話機を充電するための充電器と、
前記携帯型電話機を保持することができ、前記インタフェースおよび前記充電器が取り付けられたホルダとをさらに備え、
前記ホルダに前記携帯型電話機を挿入することによって、該携帯型電話機が前記インタフェースおよび前記充電器の両方に接続されることを特徴とする請求項1に記載の通信補助装置。
A charger for charging the mobile phone;
A holder capable of holding the mobile phone, the holder having the interface and the charger attached thereto,
The communication assistant device according to claim 1, wherein the mobile phone is connected to both the interface and the charger by inserting the mobile phone into the holder.
ユーザと当該通信補助装置との距離を検出するセンサと、
前記距離が所定の距離で、ユーザが入出力に適した場所に当該通信補助装置を移動させる移動機構とをさらに備えた請求項1に記載の通信補助装置。
A sensor for detecting a distance between the user and the communication assist device;
The communication auxiliary device according to claim 1, further comprising: a moving mechanism configured to move the communication auxiliary device to a place where the distance is a predetermined distance and a user is suitable for input / output.
前記入力部は、該ユーザの身体の動きを画像情報として入力するカメラであり、
前記出力部は、前記第1の表現形式の信号を前記携帯型電話機が有する表示画面よりも大きく表示することができるディスプレイであり、
前記カメラが前記センサとして前記ユーザの顔を検出し、さらに、該ユーザの顔と当該通信補助装置との距離を検出し、
該ユーザの顔と前記ディスプレイとの距離が所定の距離で、ユーザが入出力に適した場所に当該通信補助装置を移動させる移動機構とをさらに備えた請求項14に記載の通信補助装置。
The input unit is a camera that inputs the movement of the body of the user as image information,
The output unit is a display capable of displaying the signal of the first expression format larger than a display screen of the mobile phone,
The camera detects the face of the user as the sensor, and further detects a distance between the face of the user and the communication assist device,
15. The communication assisting device according to claim 14, further comprising: a moving mechanism for moving the communication assisting device to a location where the distance between the user's face and the display is a predetermined distance and the user is suitable for input / output.
前記携帯型電話機を保持することができ、前記インタフェースおよび前記充電器が取り付けられたホルダをさらに備え、
前記携帯型電話機が前記ホルダに挿入された場合に在宅モードで動作し、
前記携帯型電話機が前記ホルダから取り外された場合に不在モードで動作することを特徴とする請求項1に記載の通信補助装置。
Further comprising a holder capable of holding the mobile phone, the holder having the interface and the charger attached thereto,
Operate in home mode when the mobile phone is inserted into the holder,
The communication assistant device according to claim 1, wherein the mobile phone operates in the absence mode when the mobile phone is removed from the holder.
前記携帯型電話機を保持することができ、前記インタフェースおよび前記充電器が取り付けられたホルダをさらに備え、
前記携帯型電話機が前記ホルダに挿入された場合に前記携帯型電話機から該携帯型電話機のユーザに関する情報を取得し、該ユーザに適合した動作を行うことを特徴とする請求項1に記載の通信補助装置。
Further comprising a holder capable of holding the mobile phone, the holder having the interface and the charger attached thereto,
The communication according to claim 1, wherein when the mobile phone is inserted into the holder, information about a user of the mobile phone is acquired from the mobile phone, and an operation suitable for the user is performed. Auxiliary equipment.
JP2002381249A 2002-12-27 2002-12-27 Auxiliary communication apparatus Abandoned JP2004214895A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002381249A JP2004214895A (en) 2002-12-27 2002-12-27 Auxiliary communication apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002381249A JP2004214895A (en) 2002-12-27 2002-12-27 Auxiliary communication apparatus

Publications (1)

Publication Number Publication Date
JP2004214895A true JP2004214895A (en) 2004-07-29

Family

ID=32817230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002381249A Abandoned JP2004214895A (en) 2002-12-27 2002-12-27 Auxiliary communication apparatus

Country Status (1)

Country Link
JP (1) JP2004214895A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007061970A (en) * 2005-08-31 2007-03-15 Toshiba Corp Processing method in home robot and home robot
KR100820316B1 (en) * 2006-11-03 2008-04-07 송기무 Baby care robot
CN102778845A (en) * 2011-05-09 2012-11-14 华硕电脑股份有限公司 Robot device
JP2014086877A (en) * 2012-10-23 2014-05-12 Sharp Corp Self-propelled electronic device and portable terminal
JP2014086878A (en) * 2012-10-23 2014-05-12 Sharp Corp Self-propelled electronic device and portable terminal
CN104951077A (en) * 2015-06-24 2015-09-30 百度在线网络技术(北京)有限公司 Man-machine interaction method and device based on artificial intelligence and terminal equipment
JP2015192844A (en) * 2014-03-28 2015-11-05 学校法人塚本学院 大阪芸術大学 Life support device for person with cerebral function disorder
CN105798922A (en) * 2016-05-12 2016-07-27 中国科学院深圳先进技术研究院 Home service robot
CN105856257A (en) * 2016-06-08 2016-08-17 以恒激光科技(北京)有限公司 Intelligent robot suitable for reception
JP2016155179A (en) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 Guidance service system, guidance service program, guidance service method and guidance service device
CN106239533A (en) * 2016-07-30 2016-12-21 杨超坤 A kind of robot by Emotional control
JP2018075657A (en) * 2016-11-08 2018-05-17 富士通株式会社 Generating program, generation device, control program, control method, robot device and telephone call system
WO2018098659A1 (en) * 2016-11-30 2018-06-07 深圳前海达闼云端智能科技有限公司 Robot control method, device, server and robot
JP2019084628A (en) * 2017-11-07 2019-06-06 富士ゼロックス株式会社 Autonomous mobile robot
CN110382174A (en) * 2017-01-10 2019-10-25 直觉机器人有限公司 It is a kind of for executing mood posture with the device with customer interaction
KR20190128855A (en) * 2018-05-09 2019-11-19 주식회사 지피 Led picket
JP2020032529A (en) * 2015-02-23 2020-03-05 株式会社国際電気通信基礎技術研究所 System, program, method and device for guide service
CN112991842A (en) * 2021-02-23 2021-06-18 南京师范大学 Machine interactive learning method with high interest in entertainment and learning
JP2022043116A (en) * 2014-12-25 2022-03-15 Case特許株式会社 Host computer and system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000004304A (en) * 1998-06-16 2000-01-07 Matsushita Electric Ind Co Ltd Speech communication device enabling communication with different means
JP2000068882A (en) * 1998-08-17 2000-03-03 Matsushita Electric Ind Co Ltd Radio communication equipment
JP2002000574A (en) * 2000-06-22 2002-01-08 Matsushita Electric Ind Co Ltd Robot for nursing care support and nursing care support system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000004304A (en) * 1998-06-16 2000-01-07 Matsushita Electric Ind Co Ltd Speech communication device enabling communication with different means
JP2000068882A (en) * 1998-08-17 2000-03-03 Matsushita Electric Ind Co Ltd Radio communication equipment
JP2002000574A (en) * 2000-06-22 2002-01-08 Matsushita Electric Ind Co Ltd Robot for nursing care support and nursing care support system

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007061970A (en) * 2005-08-31 2007-03-15 Toshiba Corp Processing method in home robot and home robot
KR100820316B1 (en) * 2006-11-03 2008-04-07 송기무 Baby care robot
CN102778845A (en) * 2011-05-09 2012-11-14 华硕电脑股份有限公司 Robot device
JP2014086877A (en) * 2012-10-23 2014-05-12 Sharp Corp Self-propelled electronic device and portable terminal
JP2014086878A (en) * 2012-10-23 2014-05-12 Sharp Corp Self-propelled electronic device and portable terminal
JP2015192844A (en) * 2014-03-28 2015-11-05 学校法人塚本学院 大阪芸術大学 Life support device for person with cerebral function disorder
WO2016031405A1 (en) * 2014-08-26 2016-03-03 学校法人塚本学院 大阪芸術大学 Device for supporting everyday life of patients with cerebral dysfunction
JP7251833B2 (en) 2014-12-25 2023-04-04 Case特許株式会社 Host computer and system
JP2022043116A (en) * 2014-12-25 2022-03-15 Case特許株式会社 Host computer and system
JP2020032529A (en) * 2015-02-23 2020-03-05 株式会社国際電気通信基礎技術研究所 System, program, method and device for guide service
JP2016155179A (en) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 Guidance service system, guidance service program, guidance service method and guidance service device
JP2017010516A (en) * 2015-06-24 2017-01-12 百度在線網絡技術(北京)有限公司 Method, apparatus, and terminal device for human-computer interaction based on artificial intelligence
CN104951077A (en) * 2015-06-24 2015-09-30 百度在线网络技术(北京)有限公司 Man-machine interaction method and device based on artificial intelligence and terminal equipment
CN105798922A (en) * 2016-05-12 2016-07-27 中国科学院深圳先进技术研究院 Home service robot
CN105856257A (en) * 2016-06-08 2016-08-17 以恒激光科技(北京)有限公司 Intelligent robot suitable for reception
CN106239533A (en) * 2016-07-30 2016-12-21 杨超坤 A kind of robot by Emotional control
JP2018075657A (en) * 2016-11-08 2018-05-17 富士通株式会社 Generating program, generation device, control program, control method, robot device and telephone call system
WO2018098659A1 (en) * 2016-11-30 2018-06-07 深圳前海达闼云端智能科技有限公司 Robot control method, device, server and robot
CN110382174A (en) * 2017-01-10 2019-10-25 直觉机器人有限公司 It is a kind of for executing mood posture with the device with customer interaction
JP2020504027A (en) * 2017-01-10 2020-02-06 インチュイション ロボティクス、リミテッド Device for performing emotional gestures and interacting with users
JP2019084628A (en) * 2017-11-07 2019-06-06 富士ゼロックス株式会社 Autonomous mobile robot
KR20190128855A (en) * 2018-05-09 2019-11-19 주식회사 지피 Led picket
KR102092341B1 (en) 2018-05-09 2020-03-23 주식회사 지피 Led picket
CN112991842A (en) * 2021-02-23 2021-06-18 南京师范大学 Machine interactive learning method with high interest in entertainment and learning

Similar Documents

Publication Publication Date Title
JP2004214895A (en) Auxiliary communication apparatus
US9111545B2 (en) Hand-held communication aid for individuals with auditory, speech and visual impairments
KR102102647B1 (en) Wireless receiver and method for controlling the same
EP2770445A2 (en) Method and system for supporting a translation-based communication service and terminal supporting the service
CN108574773A (en) The terminal of machine learning and the control method for vehicle of mobile terminal are used for vehicle communication
WO2013047968A1 (en) User interface method and device
JP2006154926A (en) Electronic equipment operation system using character display and electronic apparatuses
CN103973877A (en) Method and device for using characters to realize real-time communication in mobile terminal
CN108989558A (en) The method and device of terminal call
CN111739517B (en) Speech recognition method, device, computer equipment and medium
CN106657585B (en) The frequency adjustment method and device of intercom
WO2021180176A1 (en) Information prompting method, electronic device, and storage medium
WO2018186416A1 (en) Translation processing method, translation processing program, and recording medium
CN109462697A (en) Method of speech processing, device, mobile terminal and storage medium
CN109525712A (en) A kind of information processing method, mobile terminal and mobile unit
CN109412932A (en) A kind of screenshotss method and terminal
CN112860169A (en) Interaction method and device, computer readable medium and electronic equipment
CN108133708B (en) Voice assistant control method and device and mobile terminal
CN112489647A (en) Voice assistant control method, mobile terminal and storage medium
CN109686359B (en) Voice output method, terminal and computer readable storage medium
CN108494970A (en) Processing method, device, storage medium and the terminal of terminal&#39;s status information
CN110944056A (en) Interaction method, mobile terminal and readable storage medium
US20080043934A1 (en) Communication device for visually impaired persons
JP5929698B2 (en) Communication system and program
WO2016157993A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20060706