JP2004214895A - Auxiliary communication apparatus - Google Patents
Auxiliary communication apparatus Download PDFInfo
- Publication number
- JP2004214895A JP2004214895A JP2002381249A JP2002381249A JP2004214895A JP 2004214895 A JP2004214895 A JP 2004214895A JP 2002381249 A JP2002381249 A JP 2002381249A JP 2002381249 A JP2002381249 A JP 2002381249A JP 2004214895 A JP2004214895 A JP 2004214895A
- Authority
- JP
- Japan
- Prior art keywords
- mobile phone
- user
- communication
- signal
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Toys (AREA)
- Manipulator (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は通信補助装置に関する。
【0002】
【従来の技術】
近年、一般家庭に用いられるパーソナルロボットが開発されている。その典型例としては、ソニー株式会社によるAIBO(登録商標)がある。AIBO(登録商標)は犬を模擬したペットロボットであり、このような犬や猫等のペットを模擬したペットロボットは、ユーザの愛玩の対象として多くの人々に親しまれている。しかし、ペットロボットは、人に何らかのサービスを提供する機能を持っているものではない。
【0003】
これに対して、日本電気株式会社によるPaPeRo(登録商標)がある。PaPeRo(登録商標)は、ユーザに各種サービスを提供する機能を持つパーソナルロボットの一つであり、TVのリモコン操作や音楽・映像の再生、インターネットへのアクセスやパソコンとの情報のやりとりなどを行うことができる。
【0004】
パーソナルロボットの形態、構成はさまざまであるが、ユーザとのやりとりを通してユーザに何らかのサービスを提供するパーソナルロボットは、一般に図12に示すように、カメラ1、スピーカ2、マイク3、雲台4、アーム5、ディスプレイ6、タッチパネルまたはキーボード7および移動機構8を備えた構成となっている。
【0005】
図13はこのパーソナルロボットの典型的な制御装置のブロック図である。この制御装置は、全体管理部11、作業計画部12、通信処理部13、アーム・雲台制御部14、データ入出力処理部16、視覚処理部17、音声処理部18、付加サービス機能部19および移動機構制御部20を備えている。
【0006】
全体管理部11は制御装置全体の管理を行う。作業計画部12はロボットの作業動作の計画を行う。通信処理部13は、外部通信ネットワーク23とのデータの送受信を行う。腕部・頭部制御部14は腕部5および頭部4を制御する。データ入出力処理部16は、ディスプレイ6やタッチパネルまたはキーボード7をコントロールする。視覚処理部17は、カメラ1から入力された画像情報を処理する。音声処理部18は、スピーカ2から出力する音声情報またはマイク3へ入力される音声情報を処理する。付加サービス機能部19は、電子メールの送受信、インターネット情報の検索、家電製品のリモコン操作、音楽のダウンロードや再生等、ユーザへの各種サービスの処理を行う。移動機構制御部20は移動機構8を制御する。
【0007】
【特許文献1】
特開2001−195113
【特許文献2】
特開2001−125585
【0008】
【発明が解決しようとする課題】
図12および図13に示すパーソナルロボットは、電子メールの送受信やインターネット情報の検索、家電製品のリモコン操作や音楽再生等のサービスをユーザに提供することができる。
【0009】
しかし、このようなパーソナルロボットは、パーソナルコンピュータと同様の機能を備えているに過ぎない。従って、このようなパーソナルロボットからサービスを受ける場合は、パーソナルコンピュータと同様に、パーソナルロボットのシステムのセットアップが必要となる。専門的な知識を持たない一般ユーザにとって、パーソナルロボットのセットアップのための操作は難しく、かつ面倒なものである。
【0010】
ところで、最近、急速に普及している携帯型電話機は、通話だけでなく、電子メールの授受、インターネットからの各種情報のダウンロードなどが可能である。また、一般的に、ユーザは自身が頻繁に利用する電話番号、電子メールアドレス、ウェブホームページアドレスの情報等を予め自身の携帯型電話機の本体内部に登録している。携帯型電話機においては、これらの情報を利用した通話および通信サービスが付加機能として簡単な操作によって利用できる。このように携帯型電話機は、家庭用のパーソナルコンピュータやパーソナルロボットに比べてセットアップのための操作が容易である。
【0011】
しかし、携帯型電話機は、小型化かつ軽量化するために操作ボタンの数や大きさ、表示画面の大きさ等には限界がある。従って、その操作性は必ずしも良くない。さらに、音声通話と電子メールとは別々に利用することが前提となっているので、通話および電子メールを融合させた形態で利用することはできなかった。例えば、携帯型電話機は、音声による通話を電子メールに変換して着信することや、逆に、電子メールを音声による通話として着信することができなかった。
【0012】
そこで、本発明の目的は、携帯型電話機と同程度の簡単な操作でユーザに対して様々な表現形式で通信または通話サービスを提供できる通信補助装置を提供することである。
【0013】
【課題を解決するための手段】
本発明に従った実施の形態による通信補助装置は、携帯型電話機に接続可能なインタフェースと、前記携帯型電話機が着信した通話用信号または通信用信号を、該携帯型電話機のユーザが認識可能な第1の表現形式へ変換する第1の信号変換部と、前記第1の表現形式の信号を表示または出力する出力部と、ユーザが入力可能な第2の表現形式で信号を入力することができる入力部と、前記第2の表現形式の信号を前記通話用信号または通信用信号へ変換する第2の信号変換部とを備えている。
【0014】
【発明の実施の形態】
以下、図面を参照し、本発明による実施の形態を説明する。実施の形態は本発明を限定するものではない。本発明に係る実施の形態に従ったパーソナルロボットは、携帯型電話機の通話または通信機能をユーザが使用し易いように拡張することによって、ユーザを補助するものである。
【0015】
図1は、本発明に係る実施の形態に従ったパーソナルロボット100の外観図である。パーソナルロボット100は、カメラ1、スピーカ2、マイク3、腕部5、ディスプレイ6、タッチパネルまたはキーボード7および移動機構8を備えている。カメラ1、スピーカ2およびマイク3は頭部101に配備され、腕部5、ディスプレイ6、タッチパネルまたはキーボード7および移動機構8は胴体部102に配備されている。さらに、パーソナルロボット100は、携帯型電話機9をセットするホルダ10を胴体部102に備えている。
【0016】
ユーザが携帯型電話機9をホルダ10にセットすることによって、携帯型電話機9が有する通話機能、データ通信機能およびその他の付加機能がパーソナルロボット100に追加される。
【0017】
図2は、パーソナルロボット100内部に設けられた制御装置200の構成を示すブロック図である。制御装置200は、全体管理部211、作業計画部212、通信処理部213、腕部・頭部制御部214、携帯型電話機用充電管理部215、データ入出力管理部216、視覚処理部217、音声処理部218、付加サービス機能部219、移動機構制御部220、携帯型電話機用インタフェース221および記憶部222を有する。
【0018】
全体管理部211は、パーソナルロボット100の動作内容に応じた各処理部の起動・停止等、制御装置全体の管理を行う。作業計画部212はロボットが目的の作業を実現するための具体的な作業動作の計画を行う。腕部・頭部制御部214は腕部5および頭部102を制御する。データ入出力処理部216は、ディスプレイ6やタッチパネルまたはキーボード7を制御する。視覚処理部217は、カメラ1から入力された画像情報を処理する。音声処理部218は、スピーカ2から出力する音声情報およびマイク3へ入力された音声情報を処理する。付加サービス機能部219はユーザへの各種サービスの処理を行う部分である。電子メールの送受信、インターネット情報の検索、音楽のダウンロードや再生等、携帯型電話機9が有するサービス機能をパーソナルロボット100に付加して利用することができる。移動機構制御部220は移動機構8を制御する。
【0019】
携帯型電話機用インタフェース221は、携帯型電話機9を制御装置200に接続する。インタフェース221により制御装置200は携帯型電話機9を介して外部の公衆回線またはインターネットと通信可能に接続される。パーソナルロボット200は、インタフェース221により宅外の公衆回線またはインターネットと通信可能であるので、通信処理部213は主に宅内ネットワーク22との通信に用いられる。ユーザへの各種サービスの処理を行う付加サービス機能部219は、胴体部102に取り付けられた携帯型電話機9の付加機能を利用可能とする。携帯型電話機9の付加機能は、例えば、携帯型電話機9内に登録された電話番号を用いて電話を掛ける機能、携帯型電話機9内に登録されたメールアドレスを用いてメールを送信する機能、若しくは、携帯型電話機9内に登録されたインターネットのホームページアドレスを用いてインターネットにアクセスする機能等、携帯型電話機9に付加された全機能である。これにより、パーソナルロボット100は、独自にメールを送受信する機能等を備える必要がなくなり、携帯型電話機9内に記憶された電話番号、メールアドレスまたはホームページアドレス等を利用して通信することができる。勿論、パーソナルロボット100は、家電製品のリモコン操作機能などを本体内に備えており、携帯型電話機9が有する機能を独自に有していてもよい。
【0020】
さらに、携帯型電話機9の付加機能は、携帯型電話機9が固別に有する電話番号、メールアドレスおよびホームページアドレス等のほか、ユーザ自身に関する情報の取得を含む。これによって、パーソナルロボット100は、本体にセットされた携帯型電話機9のユーザが誰であるかを認識することができ、ユーザごとに異なる動作をすることができる(以下、これをユーザカスタマイズ機能という)。
【0021】
携帯型電話機用充電管理部215および携帯型電話機用インタフェース221は、ホルダ10に接続されている。ユーザが携帯型電話機9をホルダ10へ挿入すると、ホルダ10内の充電用端子および通信用端子(図示せず)が携帯型電話機9の充電用端子および通信用ジャック(図示せず)に接続される。これにより、パーソナルロボット100は、携帯型電話機9と通信可能に接続され、尚且つ、携帯型電話機9を充電することができる。なお、携帯型電話機用充電管理部215は、ホルダ10に携帯型電話機9が挿入されているか否かを検出する機能も有する。
【0022】
辞書データ記憶部222は、音声情報を文字情報に変換するために用いられる音素データ、および、人物の顔の検出やその人物の認証に必要な辞書等を格納する。辞書とは、パターンの特徴を表現した情報である。
【0023】
図3は、本実施の形態においてインターネット情報または電子メールの送受信の利用形態を示す概念図である。従来、ユーザ24は、携帯型電話機9を直接操作することによって、公衆回線26およびインターネット回線27を利用していた。
【0024】
しかし、本実施の形態によれば、パーソナルロボット25がユーザ24と携帯型電話機9との間に介在する。それによって、ユーザ24は、パーソナルロボット100に備えられたタッチパネルまたはキーボード7、マイク3およびカメラ1等のような入力部を通して携帯型電話機9を操作することができる。例えば、ユーザ24は、パーソナルロボット100のマイク3に向かって「○○さんに電話して!」と指示することによって携帯型電話機に登録された電話番号を導き出し、携帯型電話機にこの電話番号へ発信させることができる。パーソナルロボット100に備えられたディスプレイ6およびスピーカ2等のような出力部は、携帯型電話機9が着信した通話用信号または通信用信号を文字表示または画像表示または音声出力することができる。
【0025】
このように、パーソナルロボット100によって、ユーザ24は、携帯型電話機9を直接操作することなく、簡単に携帯型電話機が有する付加機能を利用することができる。
【0026】
図4は、ユーザ24の文字出力指示を受け、携帯型電話機9が着信した通話用信号または通信用信号(通話/通信用信号という)を、パーソナルロボット100が文字として表示する実施の形態を示した概念図である。
【0027】
パーソナルロボット100は、図1に示すインタフェース221を通して携帯型電話機9が着信した通話/通信用信号を受信する。この通話/通信用信号の表現形式が文字、すなわち通信用信号である場合には、表現形式の変換は行われず、文字情報としてディスプレイ6に表示される。通話/通信用信号の表現形式が音声、すなわち通話用信号である場合には、データ入出力処理部216内に配備された音声/文字変換器228が文字情報へ変換する。この文字情報がディスプレイ6に表示される。
【0028】
音声情報を文字情報へ変換するためには、音声/文字変換器228が、音声情報の語彙を認識する必要がある。音声情報を文字情報へ変換する方法としては、例えば、鹿野清宏らによる“IT Text 音声認識システム“(オーム社)に記載されている音声語彙認識の方法が用いられる。
【0029】
本実施の形態によれば、携帯型電話機9が受信した音声情報を文字情報として表示できる。よって、ユーザ24が耳の不自由な聾唖者であっても、通常の音声情報による電話を受けることができる。
【0030】
携帯型電話機9が電子メールなどの文字情報を受信した場合には、その文字情報は、変換されることなくディスプレイ6に表示される。ディスプレイ6は、携帯型電話機9の表示部よりも大きいので、文字情報をより大きく表示することができる。それによって、本実施の形態は、視力が弱いユーザを補助することができる。
【0031】
さらに、携帯型電話機9が着信した音声信号を認識して手話に変換してディスプレイ6に画像表示させてもよい(特開平9−206329(聴力補助装置)参照)。
【0032】
図5は、ユーザ24の音声出力指示を受け、携帯型電話機9が着信した通話用信号または通信用信号(通話/通信用信号という)を、パーソナルロボット100が音声として出力する実施の形態を示した概念図である。
【0033】
パーソナルロボット100は、図1に示すインタフェース221を通して携帯型電話機9が着信した通話/通信用信号を受信する。この通話/通信用信号の表現形式が音声、すなわち通話用信号である場合には、表現形式の変換は行われず、音声情報としてスピーカ2から出力される。通話/通信用信号の表現形式が文字、すなわち通信用信号である場合には、データ入出力処理部216内に配備された文字/音声変換器229が音声情報へ変換する。この音声情報がスピーカ2から出力される。文字情報を音声情報へ変換するソフトウェアは、市販されているものでよい。
【0034】
本実施の形態によれば、携帯型電話機9が着信した文字情報を音声情報として表示できる。よって、ユーザ24が目の不自由な者であっても、電子メールなどの文字情報を音声情報として聞き取ることができる。また、スピーカ2は、携帯型電話機9が出力する音声よりも大きな音声を出力することができる。よって、本実施の形態は耳の遠いユーザ24を補助することができる。
【0035】
図6は、マイク3に入力された音声情報を、通話/通信用信号として携帯型電話機9から送信する実施の形態を示した概念図である。ユーザ24が指示した携帯型電話機9から送信する信号の表現形式が音声である場合には、マイク3に入力されたユーザの音声は変換させることなく音声情報として携帯型電話機9へ送信される。ユーザ24が指示した携帯型電話機9から送信する信号の表現形式が文字である場合には、音声処理部218内に配備された音声/文字変換器228´が音声情報を文字情報へ変換する。この文字情報が携帯型電話機9から送信される。
【0036】
さらに、ユーザ24からマイク3に入力された音声が携帯型電話機9の操作コマンドである場合には、その操作コマンドが携帯型電話機9に送られる。音声コマンド認識器230は、マイク3に入力された音声が操作コマンドに該当するか否かを判断する。
【0037】
本実施の形態によれば、ユーザ24は、音声指示のみで携帯型電話機9を操作し、携帯型電話機9を通じて会話することができる。また、ユーザ24は、音声指示のみで携帯型電話機9を操作し、電子メールの文章入力、送信を行うことができる。よって、ユーザ24が身体障害者や老人であっても、容易に通話や電子メールの送信を行うことができる。また、マイク3は、携帯型電話機9に備えられたマイク90よりも感度が良い。よって、ユーザ24は、パーソナルロボット100から離れていても、音声信号を入力することができる。
【0038】
図7は、タッチパネルまたはキーボード7に入力された情報を、通話/通信用信号として携帯型電話機9から送信する実施の形態を示した概念図である。パーソナルロボット100のタッチパネルまたはキーボード7より、ユーザ24は希望のサービスを利用することができる。例えば、入力デバイスがタッチパネルで、画面に選択可能な操作コマンドのボタンが表示されている場合、ユーザ24は希望のサービスのボタンに触れて希望のサービスを選択実行することができる。入力デバイスがキーボードやキーボードを表示したタッチパネルの場合は、アルファベット、ひらがな、片仮名等のキーを用いて、操作コマンドやメール文章、会話内容等を入力することができる。ユーザ24がタッチパネル7から所定の操作コマンドを入力した場合は、コマンドが携帯型電話機9に送られ実行される。ユーザ24が、携帯型電話機9から送信する信号の表現形式を文字と指定した場合は、タッチパネル7より入力された信号は変換させることなく携帯型電話機9から送信される。ユーザ24が携帯型電話機9から送信する信号の表現形式を音声と指定した場合は、データ入出力処理部216に配備された文字/音声変換器229が文字情報を音声情報へ変換する。この音声情報が携帯型電話機9へ送られる。
【0039】
本実施の形態によれば、ユーザ24は、パーソナルロボット100のタッチパネルまたはキーボード7を操作するだけで、携帯型電話機9を操作し、若しくは、携帯型電話機9の機能を利用して通話やメールの送信を行うことができる。本実施の形態において、タッチパネルまたはキーボード7の入力部は携帯型電話機9の入力キーよりも大きい。このため、ユーザ24は、携帯型電話9に配備された小さな入力キーを操作することなく、タッチパネルまたはキーボード7の比較的大きな入力部を操作することで、携帯型電話9の機能を利用することができる。
【0040】
図8は、頭部4に備えられたカメラ1に入力された情報を、通話/通信用信号として携帯型電話機9から送信する実施の形態を示した概念図である。カメラ1は、ユーザの顔の動きまたは身体の動作を画像データとして撮像する。ユーザ24が指示した携帯型電話機9から送信する信号の表現形式が画像である場合には、画像データはそのまま携帯型電話機9へ送られる。ユーザ24が指示した携帯型電話機9から送信する信号の表現形式が音声である場合には、視覚処理部217に備えられた画像認識音声変換部231が画像データを音声情報へ変換する。ユーザ24が指示した携帯型電話機9から送信する信号の表現形式が文字である場合には、視覚処理部217に備えられた画像認識文字変換部232が画像データを文字情報へ変換する。
【0041】
例えば、カメラ1がユーザ24の手話を撮像する。画像認識音声変換部231または画像認識文字変換部232がこの手話の意味を認識して音声情報または文字情報へ変換する。より詳細には、画像データから画像処理によって手の形、動きなどを抽出し、手話の内容を自動認識する手法が用いられる。ここで用いられる画像認識音声変換部231または画像認識文字変換部232は、例えば、特開平11−306316号公報(手話認識方法および手話認識装置および記録媒体)等を用いることによって実現され得る。
【0042】
尚、本実施の形態は、カメラ1により撮像された画像データを用いているが、カメラを用いることなく、センサを取り付けた専用手袋などを用意し、その信号をパーソナルロボット100に取り込んでもよい。このような実施の形態は、例えば、特開平5−241496号公報(手話翻訳装置)等を用いることによって実現され得る。
【0043】
画像データから画像処理によって唇の動きを抽出し、話の内容を自動認識する手法がある。このような手法に用いられる画像認識音声変換部231または画像認識文字変換部232は、例えば、特開平11−219421号公報(画像認識装置及び画像認識装置方法)等を用いることによって実現され得る。
【0044】
本実施の形態によれば、ユーザ24が聾唖者である場合であっても、ユーザ24は、手話を音声情報または文字情報として携帯型電話機9から発信させることができる。また、ユーザ24の唇の動きをパーソナルロボット100が読み取って、携帯型電話機9から音声情報または文字情報を送信することができる。
【0045】
図4および図5に示したように、パーソナルロボット100は、携帯型電話機9が受信した音声情報または文字情報を、文字情報としてディスプレイ6に表示し、若しくは、音声情報としてスピーカ2から出力することができる。また、図6から図8に示したように、パーソナルロボット100は、ユーザ24の発声、ユーザ24によるタッチパネルまたはキーボード7からの入力、手話または唇の動きなどを、音声情報、画像情報または文字情報として携帯型電話機9から発信させることができる。また、操作コマンドとして携帯型電話機9を操作することができる。従って、本実施の形態によれば、ユーザ24が身体障害者や老人等であっても、携帯型電話機9を介して容易に他人と通話/通信を行うことができる。
【0046】
図9は、上述の実施の形態によるパーソナルロボット100を使用して、耳の不自由なユーザ24が通話相手34と電話で会話する様子を示した概念図である。通話相手34が発した声は、音声情報として携帯型電話機91から携帯型電話機9に送信され、パーソナルロボット100に渡される。パーソナルロボット100は、この音声情報を文字情報または手話画像に変換し、この文字情報または手話画像をディスプレイ6に表示する。ユーザ24は、文字情報または手話画像を見ることによって、通話相手34の会話内容を理解することができる。なお、ユーザ24への手話画像の提示に代わり、パーソナルロボットにアームを設けて手話を表現することも可能である。
【0047】
通話相手34の会話内容に対応して、ユーザ24は、音声、タッチパネルまたはキーボード7からの入力、あるいは手話または唇の動きによって返事をする。音声はパーソナルロボット100のマイク3から、手話または唇の動きはパーソナルロボット100のカメラ1から入力される。ユーザ24が音声で返事をした場合には、その音声は、音声情報としてそのまま携帯型電話機9から携帯型電話機91を通して通話相手34へ伝えられる。ユーザ24がタッチパネルまたはキーボード7からの文字入力で返事をした場合には、入力内容が音声情報へ変換されて、ユーザ24が手話で返事をした場合には、手話の内容が音声情報へ変換されて、またユーザ24が唇の動きで返事をした場合には、その唇の動きが音声情報へ変換されて携帯型電話機9から携帯型電話機91を通して通話相手34へ伝えられる。このように、本実施の形態によるパーソナルロボット100は、音声情報、文字情報および画像情報を融合させた形態での通信を可能にする。
【0048】
ユーザ24は、相手から受信した情報を何れの表現形式に変換して出力するかや、相手へ発信する情報を何れの表現形式で入力するかなどは、パーソナルロボット100に指示設定すればよい。
【0049】
図10は、本発明に係る他の実施の形態に従ったパーソナルロボット300の外観図およびその利用形態を示した概念図である。パーソナルロボット300は、基体303および頭部304を備えている。頭部304は、ディスプレイ306、カメラ301、スピーカ(図示せず)およびマイク(図示せず)を有する。カメラ301は、ディスプレイ306が設けられた面内にかつディスプレイ306の近傍に配備されている。それによって、カメラ301は、ディスプレイ306の画面前方に存在するものを撮像することができる。頭部304は基体303を支点として動作する。それによって、ディスプレイ306およびカメラ301は上下左右に向くことができる。さらに、パーソナルロボット300は、その底部に移動機構308を備え、前後左右に自在に移動することができる。
【0050】
パーソナルロボット300は、図2に示した制御装置200と同様の制御装置を有する。しかし、パーソナルロボット300は、カメラ1によって撮像された画像データに基づいて、人物の顔を検出し、次に、ユーザ24を認証し、さらに、ディスプレイ306の文字情報等をユーザ24が読み易い位置へ自動的に移動するとともに、ユーザ24に合ったサービスメニューを提供する。
【0051】
画像データ内の人物の顔を検出し、その顔がユーザ24であることを認証する方法としては、部分空間法および相互部分空間法が用いられる。部分空間法および相互部分空間法は、エルッキ・オヤによる“パターン認識と部分空間”(産業図書)、前田賢一による“パターン認識方式”、山口修等、“動画像を用いた顔認識システム”(信学技報、PRMU97−50、1997)または特開昭60−57475に記載されている。また、パーソナルロボット300とユーザ24との間の距離は、顔画像の大きさと顔の平均的な大きさのデータから推定する。
【0052】
本実施の形態によるパーソナルロボット300は、ディスプレイ306をユーザ24の顔の方向へ向け、尚且つ、ユーザ24から所定の距離35だけ離れた位置まで移動する(S112)。これによって、パーソナルロボット300は、文字情報等をユーザ24に読み易い位置で表示することができる。
【0053】
図11は、携帯型電話機9の着脱に関するパーソナルロボット100または300の動作を示す概念図である。ユーザ24の在宅中には、携帯型電話機9はパーソナルロボット100に設けられたホルダ10に常時挿入される。ユーザ24の外出中には、携帯型電話機9はホルダ10から取り外される。
【0054】
携帯型電話機9がホルダ10に挿入されている場合には、パーソナルロボット100は、ユーザ24が在宅中であると認識する。一方で、携帯型電話機9がホルダ10から取り外されている場合には、パーソナルロボット100は、ユーザ24が外出中であると認識する。携帯型電話機9がホルダ10に挿入されているか否かは、携帯型電話機用充電管理部215でチェックされる。
【0055】
これによって、パーソナルロボット100は、ユーザ24が在宅中である場合とユーザ24が外出中である場合とで異なるサービスを提供することができる。
【0056】
例えば、ユーザ24が在宅中の場合には、パーソナルロボット100は在宅モード40に設定される。在宅モード40は、音楽のダウンロードや再生、情報検索表示、家電機器のコントロールといった、ユーザ24に対するサービスの提供が中心となる。また、この時は、携帯型電話機に対する充電も行われる。
【0057】
一方、ユーザ24が外出中の場合には、パーソナルロボット100は不在モード41に設定される。不在モード41は、訪問者および電話の応対、室内巡回監視などのセキュリティサービス等が提供される。パーソナルロボット300もこれらのサービスを提供することができる。
【0058】
上述の実施の形態は、パーソナルロボットに関する実施の形態であるが、本発明は、パーソナルロボットに限らず、様々な通信補助装置として実施することができる。
【0059】
尚、特開2001−195113および特開2001−125585に開示されたシステムは、ロボットを主とし、これを制御する制御信号を送受信するために専用の携帯型電話機を搭載している。しかし、本発明に係る実施の形態は、携帯型電話機を主とし、これの通話/通信機能を拡張することによって、通話または通信時にユーザを補助する。
【0060】
【発明の効果】
本発明による通信補助装置は、携帯型電話機と同程度の簡単な操作でユーザに対して様々な表現形式で通信または通話サービスを提供できる。
【図面の簡単な説明】
【図1】本発明に係る実施の形態に従ったパーソナルロボット100の外観図。
【図2】パーソナルロボット100内部に設けられた制御装置200の構成を示すブロック図。
【図3】本実施の形態においてインターネット情報または電子メールの送受信の利用形態を示す概念図。
【図4】携帯型電話機9が着信した通話/通信用信号を、パーソナルロボット100が文字として表示する実施の形態を示した概念図。
【図5】携帯型電話機9が着信した通話/通信用信号を、パーソナルロボット100が音声として出力する実施の形態を示した概念図。
【図6】マイク3に入力された音声情報を、通話/通信用信号として携帯型電話機9から送信したり、携帯型電話機9の操作コマンドとして受け付ける実施の形態を示した概念図。
【図7】タッチパネルまたはキーボード7から入力された情報を、通話/通信用信号として携帯型電話機9から送信したり、携帯型電話機9の操作コマンドとして受け付ける実施の形態を示した概念図。
【図8】頭部4に備えられたカメラ1から入力された情報を、通話/通信用信号として携帯型電話機9から送信する実施の形態を示した概念図。
【図9】パーソナルロボット100を使用して、耳の不自由なユーザ24が通話相手34と電話で会話する様子を示した概念図。
【図10】本発明に係る他の実施の形態に従ったパーソナルロボット300の外観図およびその利用形態を示した概念図。
【図11】携帯型電話機9の着脱に関するパーソナルロボット100または300の動作を示す概念図。
【図12】ユーザとのやりとりを通してユーザに何らかのサービスを提供するパーソナルロボットの一般的な構成を示す図。
【図13】このパーソナルロボットの典型的な制御装置のブロック図。
【符号の説明】
100、300 パーソナルロボット
101 頭部
102 胴体部
1 カメラ
2 スピーカ
3 マイク
5 腕部
6 ディスプレイ
7 タッチパネルまたはキーボード
8 移動機構
200 制御装置
211 全体管理部
212 作業計画部
213 通信処理部
214 腕部・頭部制御部
215 携帯型電話機用充電管理部
216 データ入出力管理部
217 視覚処理部
218 音声処理部
219 付加サービス機能部
220 移動機構制御部
221 携帯型電話機用インターフェース
222 辞書データ記憶部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a communication auxiliary device.
[0002]
[Prior art]
In recent years, personal robots used in ordinary households have been developed. A typical example is AIBO (registered trademark) by Sony Corporation. AIBO (registered trademark) is a pet robot that simulates a dog, and such a pet robot that simulates a pet such as a dog or a cat is popular with many people as a user's pet. However, pet robots do not have the function of providing any service to humans.
[0003]
On the other hand, there is PaPeRo (registered trademark) by NEC Corporation. PaPeRo (registered trademark) is one of the personal robots having a function of providing various services to a user, and performs remote control operation of a TV, reproduction of music and video, access to the Internet, exchange of information with a personal computer, and the like. be able to.
[0004]
Although there are various forms and configurations of the personal robot, a personal robot that provides some service to the user through interaction with the user generally includes a
[0005]
FIG. 13 is a block diagram of a typical control device of the personal robot. The control device includes an overall management unit 11, a
[0006]
The overall management unit 11 manages the entire control device. The
[0007]
[Patent Document 1]
JP 2001-195113A
[Patent Document 2]
JP-A-2001-125585
[0008]
[Problems to be solved by the invention]
The personal robot shown in FIGS. 12 and 13 can provide a user with services such as transmission and reception of e-mail, search of Internet information, remote control operation of home electric appliances, and music playback.
[0009]
However, such a personal robot merely has functions similar to those of a personal computer. Therefore, when receiving a service from such a personal robot, it is necessary to set up a system of the personal robot as in the case of a personal computer. The operation for setting up the personal robot is difficult and troublesome for ordinary users who do not have specialized knowledge.
[0010]
By the way, a mobile phone which has been rapidly spread recently can transmit and receive electronic mails and download various kinds of information from the Internet, in addition to telephone calls. In general, a user registers information such as a telephone number, an e-mail address, and a web page address frequently used by the user in advance in the main body of his / her mobile phone. In a portable telephone, a call and communication service using such information can be used as an additional function by a simple operation. As described above, the portable telephone is easier to set up than a home personal computer or a personal robot.
[0011]
However, the number and size of operation buttons, the size of a display screen, and the like are limited in a mobile phone in order to reduce the size and weight. Therefore, the operability is not always good. Furthermore, since it is assumed that voice communication and e-mail are used separately, it has not been possible to use telephone and e-mail in an integrated form. For example, a portable telephone cannot convert a voice call into an electronic mail and receive it, or conversely, cannot receive an electronic mail as a voice call.
[0012]
Therefore, an object of the present invention is to provide a communication auxiliary device that can provide a user with a communication or a call service in various expression forms with a simple operation similar to a portable telephone.
[0013]
[Means for Solving the Problems]
A communication auxiliary device according to an embodiment of the present invention is capable of recognizing an interface connectable to a mobile phone and a call signal or a communication signal received by the mobile phone by a user of the mobile phone. A first signal conversion unit for converting to a first expression format, an output unit for displaying or outputting the signal in the first expression format, and inputting a signal in a second expression format that can be input by a user. And a second signal converter for converting the signal in the second expression format into the call signal or the communication signal.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments do not limit the present invention. The personal robot according to the embodiment of the present invention assists the user by extending the call or communication function of the mobile phone so that the user can use it easily.
[0015]
FIG. 1 is an external view of a
[0016]
When the user sets the
[0017]
FIG. 2 is a block diagram showing the configuration of the
[0018]
The
[0019]
The
[0020]
Further, the additional functions of the
[0021]
The mobile phone
[0022]
The dictionary
[0023]
FIG. 3 is a conceptual diagram showing a use form of transmitting and receiving Internet information or electronic mail in the present embodiment. Conventionally, the
[0024]
However, according to the present embodiment,
[0025]
As described above, the
[0026]
FIG. 4 shows an embodiment in which the
[0027]
The
[0028]
In order to convert voice information to text information, the voice /
[0029]
According to the present embodiment, audio information received by the
[0030]
When the
[0031]
Further, the
[0032]
FIG. 5 shows an embodiment in which the
[0033]
The
[0034]
According to the present embodiment, character information received by
[0035]
FIG. 6 is a conceptual diagram showing an embodiment in which voice information input to
[0036]
Further, when the voice input from the
[0037]
According to the present embodiment, the
[0038]
FIG. 7 is a conceptual diagram showing an embodiment in which information input to the touch panel or the
[0039]
According to the present embodiment, the
[0040]
FIG. 8 is a conceptual diagram showing an embodiment in which information input to the
[0041]
For example, the
[0042]
In the present embodiment, image data captured by the
[0043]
There is a method of extracting lip movements from image data by image processing and automatically recognizing the contents of a story. The image recognition
[0044]
According to the present embodiment, even if the
[0045]
As shown in FIGS. 4 and 5, the
[0046]
FIG. 9 is a conceptual diagram showing a state in which the hearing-impaired
[0047]
In response to the conversation contents of the
[0048]
The
[0049]
FIG. 10 is a conceptual diagram showing an external view of a
[0050]
The
[0051]
As a method of detecting the face of a person in the image data and authenticating that the face is the
[0052]
The
[0053]
FIG. 11 is a conceptual diagram showing the operation of the
[0054]
When the
[0055]
Thus, the
[0056]
For example, when the
[0057]
On the other hand, when the
[0058]
The above embodiment is an embodiment relating to a personal robot, but the present invention is not limited to a personal robot and can be implemented as various communication assisting devices.
[0059]
The systems disclosed in JP-A-2001-195113 and JP-A-2001-125585 are mainly equipped with a robot, and are equipped with a dedicated portable telephone for transmitting and receiving control signals for controlling the robot. However, the embodiment according to the present invention mainly assists a user in a call or communication by expanding a call / communication function of the portable telephone mainly.
[0060]
【The invention's effect】
ADVANTAGE OF THE INVENTION The communication assistance apparatus by this invention can provide a communication or a telephone call service in various expression forms to a user by the same simple operation as a portable telephone.
[Brief description of the drawings]
FIG. 1 is an external view of a
FIG. 2 is a block diagram showing a configuration of a
FIG. 3 is a conceptual diagram showing a use form of transmission and reception of Internet information or electronic mail in the present embodiment.
FIG. 4 is a conceptual diagram showing an embodiment in which the
FIG. 5 is a conceptual diagram showing an embodiment in which the
FIG. 6 is a conceptual diagram showing an embodiment in which voice information input to the
FIG. 7 is a conceptual diagram showing an embodiment in which information input from the touch panel or the
FIG. 8 is a conceptual diagram showing an embodiment in which information input from the
FIG. 9 is a conceptual diagram showing a state in which a
FIG. 10 is a conceptual diagram showing an external view of a
FIG. 11 is a conceptual diagram showing an operation of the
FIG. 12 is a diagram showing a general configuration of a personal robot that provides some service to a user through interaction with the user.
FIG. 13 is a block diagram of a typical control device of the personal robot.
[Explanation of symbols]
100, 300 Personal robot
101 head
102 torso
1 camera
2 Speaker
3 microphone
5 arms
6 Display
7 Touch panel or keyboard
8 Moving mechanism
200 control device
211 Overall Management Department
212 Work Planning Department
213 Communication processing unit
214 arm / head control unit
215 Charge management unit for mobile phone
216 Data input / output management unit
217 Visual processing unit
218 Audio Processing Unit
219 Additional service function section
220 Moving mechanism control unit
221 Interface for mobile phone
222 Dictionary Data Storage
Claims (17)
前記携帯型電話機が着信した通話用信号または通信用信号を、該携帯型電話機のユーザが認識可能な第1の表現形式へ変換する第1の信号変換部と、
前記第1の表現形式の信号を表示または出力する出力部と、
ユーザが入力可能な第2の表現形式で信号を入力することができる入力部と、
前記第2の表現形式の信号を前記通話用信号または通信用信号へ変換する第2の信号変換部とを備えた通信補助装置。An interface connectable to a mobile phone,
A first signal conversion unit that converts a call signal or a communication signal received by the mobile phone into a first expression format recognizable by a user of the mobile phone;
An output unit for displaying or outputting the signal in the first expression format;
An input unit that can input a signal in a second expression format that can be input by a user;
A second signal conversion unit that converts the signal in the second expression format into the communication signal or the communication signal.
前記出力部は、前記第1の表現形式の信号を前記携帯型電話機が有する表示画面よりも大きく表示することができるディスプレイであることを特徴とする請求項1に記載の通信補助装置。The signal of the first expression format is character information or image information,
2. The communication assisting device according to claim 1, wherein the output unit is a display that can display the signal of the first expression format larger than a display screen of the mobile phone. 3.
前記携帯型電話機の音声出力部よりも大きな音量で該音声情報を出力することができるスピーカをさらに備えたことを特徴とする請求項1に記載の通信補助装置。The signal in the first expression format is audio information,
The communication assistance device according to claim 1, further comprising a speaker capable of outputting the audio information at a volume higher than an audio output unit of the mobile phone.
前記携帯型電話機によって発信される通話用信号または通信用信号は、音声情報または文字情報または画像情報であり、
前記入力部は、ユーザの音声情報を入力するマイクロフォンであることを特徴とする請求項1に記載の通信補助装置。The signal of the second expression form is audio information based on a user's voice,
The call signal or communication signal transmitted by the mobile phone is audio information, character information, or image information,
The communication assistance device according to claim 1, wherein the input unit is a microphone for inputting voice information of a user.
前記携帯型電話機によって発信される通話用信号または通信用信号は音声情報または文字情報または画像情報であり、
前記入力部は、前記携帯型電話機のユーザが文字を入力するタッチパネルまたはキーボードであることを特徴とする請求項1に記載の通信補助装置。The signal in the second expression format is character information input by a user,
The call signal or communication signal transmitted by the mobile phone is voice information, character information, or image information,
The communication assistance device according to claim 1, wherein the input unit is a touch panel or a keyboard on which a user of the mobile phone inputs characters.
前記携帯型電話機によって発信される通話用信号または通信用信号は音声情報または文字情報または画像情報であり、
前記入力部は、ユーザのジェスチャーまたは手話または唇の動きを画像情報として入力するカメラであることを特徴とする請求項1に記載の通信補助装置。The signal in the second expression form is image information based on movement of the body of the user,
The call signal or communication signal transmitted by the mobile phone is voice information, character information, or image information,
The communication assistance device according to claim 1, wherein the input unit is a camera that inputs a user's gesture, sign language, or lip movement as image information.
前記携帯型電話機を保持することができ、前記インタフェースおよび前記充電器が取り付けられたホルダとをさらに備え、
前記ホルダに前記携帯型電話機を挿入することによって、該携帯型電話機が前記インタフェースおよび前記充電器の両方に接続されることを特徴とする請求項1に記載の通信補助装置。A charger for charging the mobile phone;
A holder capable of holding the mobile phone, the holder having the interface and the charger attached thereto,
The communication assistant device according to claim 1, wherein the mobile phone is connected to both the interface and the charger by inserting the mobile phone into the holder.
前記距離が所定の距離で、ユーザが入出力に適した場所に当該通信補助装置を移動させる移動機構とをさらに備えた請求項1に記載の通信補助装置。A sensor for detecting a distance between the user and the communication assist device;
The communication auxiliary device according to claim 1, further comprising: a moving mechanism configured to move the communication auxiliary device to a place where the distance is a predetermined distance and a user is suitable for input / output.
前記出力部は、前記第1の表現形式の信号を前記携帯型電話機が有する表示画面よりも大きく表示することができるディスプレイであり、
前記カメラが前記センサとして前記ユーザの顔を検出し、さらに、該ユーザの顔と当該通信補助装置との距離を検出し、
該ユーザの顔と前記ディスプレイとの距離が所定の距離で、ユーザが入出力に適した場所に当該通信補助装置を移動させる移動機構とをさらに備えた請求項14に記載の通信補助装置。The input unit is a camera that inputs the movement of the body of the user as image information,
The output unit is a display capable of displaying the signal of the first expression format larger than a display screen of the mobile phone,
The camera detects the face of the user as the sensor, and further detects a distance between the face of the user and the communication assist device,
15. The communication assisting device according to claim 14, further comprising: a moving mechanism for moving the communication assisting device to a location where the distance between the user's face and the display is a predetermined distance and the user is suitable for input / output.
前記携帯型電話機が前記ホルダに挿入された場合に在宅モードで動作し、
前記携帯型電話機が前記ホルダから取り外された場合に不在モードで動作することを特徴とする請求項1に記載の通信補助装置。Further comprising a holder capable of holding the mobile phone, the holder having the interface and the charger attached thereto,
Operate in home mode when the mobile phone is inserted into the holder,
The communication assistant device according to claim 1, wherein the mobile phone operates in the absence mode when the mobile phone is removed from the holder.
前記携帯型電話機が前記ホルダに挿入された場合に前記携帯型電話機から該携帯型電話機のユーザに関する情報を取得し、該ユーザに適合した動作を行うことを特徴とする請求項1に記載の通信補助装置。Further comprising a holder capable of holding the mobile phone, the holder having the interface and the charger attached thereto,
The communication according to claim 1, wherein when the mobile phone is inserted into the holder, information about a user of the mobile phone is acquired from the mobile phone, and an operation suitable for the user is performed. Auxiliary equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002381249A JP2004214895A (en) | 2002-12-27 | 2002-12-27 | Auxiliary communication apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002381249A JP2004214895A (en) | 2002-12-27 | 2002-12-27 | Auxiliary communication apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004214895A true JP2004214895A (en) | 2004-07-29 |
Family
ID=32817230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002381249A Abandoned JP2004214895A (en) | 2002-12-27 | 2002-12-27 | Auxiliary communication apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004214895A (en) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007061970A (en) * | 2005-08-31 | 2007-03-15 | Toshiba Corp | Processing method in home robot and home robot |
KR100820316B1 (en) * | 2006-11-03 | 2008-04-07 | 송기무 | Baby care robot |
CN102778845A (en) * | 2011-05-09 | 2012-11-14 | 华硕电脑股份有限公司 | Robot device |
JP2014086877A (en) * | 2012-10-23 | 2014-05-12 | Sharp Corp | Self-propelled electronic device and portable terminal |
JP2014086878A (en) * | 2012-10-23 | 2014-05-12 | Sharp Corp | Self-propelled electronic device and portable terminal |
CN104951077A (en) * | 2015-06-24 | 2015-09-30 | 百度在线网络技术(北京)有限公司 | Man-machine interaction method and device based on artificial intelligence and terminal equipment |
JP2015192844A (en) * | 2014-03-28 | 2015-11-05 | 学校法人塚本学院 大阪芸術大学 | Life support device for person with cerebral function disorder |
CN105798922A (en) * | 2016-05-12 | 2016-07-27 | 中国科学院深圳先进技术研究院 | Home service robot |
CN105856257A (en) * | 2016-06-08 | 2016-08-17 | 以恒激光科技(北京)有限公司 | Intelligent robot suitable for reception |
JP2016155179A (en) * | 2015-02-23 | 2016-09-01 | 株式会社国際電気通信基礎技術研究所 | Guidance service system, guidance service program, guidance service method and guidance service device |
CN106239533A (en) * | 2016-07-30 | 2016-12-21 | 杨超坤 | A kind of robot by Emotional control |
JP2018075657A (en) * | 2016-11-08 | 2018-05-17 | 富士通株式会社 | Generating program, generation device, control program, control method, robot device and telephone call system |
WO2018098659A1 (en) * | 2016-11-30 | 2018-06-07 | 深圳前海达闼云端智能科技有限公司 | Robot control method, device, server and robot |
JP2019084628A (en) * | 2017-11-07 | 2019-06-06 | 富士ゼロックス株式会社 | Autonomous mobile robot |
CN110382174A (en) * | 2017-01-10 | 2019-10-25 | 直觉机器人有限公司 | It is a kind of for executing mood posture with the device with customer interaction |
KR20190128855A (en) * | 2018-05-09 | 2019-11-19 | 주식회사 지피 | Led picket |
JP2020032529A (en) * | 2015-02-23 | 2020-03-05 | 株式会社国際電気通信基礎技術研究所 | System, program, method and device for guide service |
CN112991842A (en) * | 2021-02-23 | 2021-06-18 | 南京师范大学 | Machine interactive learning method with high interest in entertainment and learning |
JP2022043116A (en) * | 2014-12-25 | 2022-03-15 | Case特許株式会社 | Host computer and system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000004304A (en) * | 1998-06-16 | 2000-01-07 | Matsushita Electric Ind Co Ltd | Speech communication device enabling communication with different means |
JP2000068882A (en) * | 1998-08-17 | 2000-03-03 | Matsushita Electric Ind Co Ltd | Radio communication equipment |
JP2002000574A (en) * | 2000-06-22 | 2002-01-08 | Matsushita Electric Ind Co Ltd | Robot for nursing care support and nursing care support system |
-
2002
- 2002-12-27 JP JP2002381249A patent/JP2004214895A/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000004304A (en) * | 1998-06-16 | 2000-01-07 | Matsushita Electric Ind Co Ltd | Speech communication device enabling communication with different means |
JP2000068882A (en) * | 1998-08-17 | 2000-03-03 | Matsushita Electric Ind Co Ltd | Radio communication equipment |
JP2002000574A (en) * | 2000-06-22 | 2002-01-08 | Matsushita Electric Ind Co Ltd | Robot for nursing care support and nursing care support system |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007061970A (en) * | 2005-08-31 | 2007-03-15 | Toshiba Corp | Processing method in home robot and home robot |
KR100820316B1 (en) * | 2006-11-03 | 2008-04-07 | 송기무 | Baby care robot |
CN102778845A (en) * | 2011-05-09 | 2012-11-14 | 华硕电脑股份有限公司 | Robot device |
JP2014086877A (en) * | 2012-10-23 | 2014-05-12 | Sharp Corp | Self-propelled electronic device and portable terminal |
JP2014086878A (en) * | 2012-10-23 | 2014-05-12 | Sharp Corp | Self-propelled electronic device and portable terminal |
JP2015192844A (en) * | 2014-03-28 | 2015-11-05 | 学校法人塚本学院 大阪芸術大学 | Life support device for person with cerebral function disorder |
WO2016031405A1 (en) * | 2014-08-26 | 2016-03-03 | 学校法人塚本学院 大阪芸術大学 | Device for supporting everyday life of patients with cerebral dysfunction |
JP7251833B2 (en) | 2014-12-25 | 2023-04-04 | Case特許株式会社 | Host computer and system |
JP2022043116A (en) * | 2014-12-25 | 2022-03-15 | Case特許株式会社 | Host computer and system |
JP2020032529A (en) * | 2015-02-23 | 2020-03-05 | 株式会社国際電気通信基礎技術研究所 | System, program, method and device for guide service |
JP2016155179A (en) * | 2015-02-23 | 2016-09-01 | 株式会社国際電気通信基礎技術研究所 | Guidance service system, guidance service program, guidance service method and guidance service device |
JP2017010516A (en) * | 2015-06-24 | 2017-01-12 | 百度在線網絡技術(北京)有限公司 | Method, apparatus, and terminal device for human-computer interaction based on artificial intelligence |
CN104951077A (en) * | 2015-06-24 | 2015-09-30 | 百度在线网络技术(北京)有限公司 | Man-machine interaction method and device based on artificial intelligence and terminal equipment |
CN105798922A (en) * | 2016-05-12 | 2016-07-27 | 中国科学院深圳先进技术研究院 | Home service robot |
CN105856257A (en) * | 2016-06-08 | 2016-08-17 | 以恒激光科技(北京)有限公司 | Intelligent robot suitable for reception |
CN106239533A (en) * | 2016-07-30 | 2016-12-21 | 杨超坤 | A kind of robot by Emotional control |
JP2018075657A (en) * | 2016-11-08 | 2018-05-17 | 富士通株式会社 | Generating program, generation device, control program, control method, robot device and telephone call system |
WO2018098659A1 (en) * | 2016-11-30 | 2018-06-07 | 深圳前海达闼云端智能科技有限公司 | Robot control method, device, server and robot |
CN110382174A (en) * | 2017-01-10 | 2019-10-25 | 直觉机器人有限公司 | It is a kind of for executing mood posture with the device with customer interaction |
JP2020504027A (en) * | 2017-01-10 | 2020-02-06 | インチュイション ロボティクス、リミテッド | Device for performing emotional gestures and interacting with users |
JP2019084628A (en) * | 2017-11-07 | 2019-06-06 | 富士ゼロックス株式会社 | Autonomous mobile robot |
KR20190128855A (en) * | 2018-05-09 | 2019-11-19 | 주식회사 지피 | Led picket |
KR102092341B1 (en) | 2018-05-09 | 2020-03-23 | 주식회사 지피 | Led picket |
CN112991842A (en) * | 2021-02-23 | 2021-06-18 | 南京师范大学 | Machine interactive learning method with high interest in entertainment and learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004214895A (en) | Auxiliary communication apparatus | |
US9111545B2 (en) | Hand-held communication aid for individuals with auditory, speech and visual impairments | |
KR102102647B1 (en) | Wireless receiver and method for controlling the same | |
EP2770445A2 (en) | Method and system for supporting a translation-based communication service and terminal supporting the service | |
CN108574773A (en) | The terminal of machine learning and the control method for vehicle of mobile terminal are used for vehicle communication | |
WO2013047968A1 (en) | User interface method and device | |
JP2006154926A (en) | Electronic equipment operation system using character display and electronic apparatuses | |
CN103973877A (en) | Method and device for using characters to realize real-time communication in mobile terminal | |
CN108989558A (en) | The method and device of terminal call | |
CN111739517B (en) | Speech recognition method, device, computer equipment and medium | |
CN106657585B (en) | The frequency adjustment method and device of intercom | |
WO2021180176A1 (en) | Information prompting method, electronic device, and storage medium | |
WO2018186416A1 (en) | Translation processing method, translation processing program, and recording medium | |
CN109462697A (en) | Method of speech processing, device, mobile terminal and storage medium | |
CN109525712A (en) | A kind of information processing method, mobile terminal and mobile unit | |
CN109412932A (en) | A kind of screenshotss method and terminal | |
CN112860169A (en) | Interaction method and device, computer readable medium and electronic equipment | |
CN108133708B (en) | Voice assistant control method and device and mobile terminal | |
CN112489647A (en) | Voice assistant control method, mobile terminal and storage medium | |
CN109686359B (en) | Voice output method, terminal and computer readable storage medium | |
CN108494970A (en) | Processing method, device, storage medium and the terminal of terminal's status information | |
CN110944056A (en) | Interaction method, mobile terminal and readable storage medium | |
US20080043934A1 (en) | Communication device for visually impaired persons | |
JP5929698B2 (en) | Communication system and program | |
WO2016157993A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060516 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20060706 |