JP2004015196A - Communication system and communication service method - Google Patents

Communication system and communication service method Download PDF

Info

Publication number
JP2004015196A
JP2004015196A JP2002162994A JP2002162994A JP2004015196A JP 2004015196 A JP2004015196 A JP 2004015196A JP 2002162994 A JP2002162994 A JP 2002162994A JP 2002162994 A JP2002162994 A JP 2002162994A JP 2004015196 A JP2004015196 A JP 2004015196A
Authority
JP
Japan
Prior art keywords
terminal
server
voice
received
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002162994A
Other languages
Japanese (ja)
Other versions
JP4307792B2 (en
Inventor
Toshiyuki Ito
伊藤 敏之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2002162994A priority Critical patent/JP4307792B2/en
Publication of JP2004015196A publication Critical patent/JP2004015196A/en
Application granted granted Critical
Publication of JP4307792B2 publication Critical patent/JP4307792B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enhance operability in a portable terminal, when a user operates it. <P>SOLUTION: A server 3 displays the same image as one to be displayed on the portable terminal 1, when it receives operational information and voice from the portable terminal 1. Not only is the image prepared by an operator transmitted to the portable terminal 1, but also the voice uttered by the operator is transmitted to the portable terminal 1, when the operator utters voice. The portable terminal 1 displays the image received from the server 3 and outputs the voice received from the server 3. The operator instructs an indication, to urge the user to operate, properly supposing a situation for the user to operate the portable terminal 1, and the user views the image received from the server 3 and operates hearing the voice uttered by the operator. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、例えば携帯端末などの端末がサーバから受信された画像を表示することにより、ユーザがサーバから受信された画像を見ながら例えば目的地の設定などを行うことが可能となる通信システムおよび通信サービス方法に関する。
【0002】
【発明が解決しようとする課題】
近年、サーバが例えば携帯端末に画像を送信し、携帯端末がサーバから受信された画像を表示することにより、ユーザがサーバから受信された画像を見ながら例えば目的地の設定などを行うことが可能となる通信システムが実用化されつつある。
【0003】
具体的には、ユーザが携帯端末にて目的地の設定を開始するための操作を行うと、携帯端末は、ユーザが行った操作の内容を表す操作情報をサーバに送信する。サーバは、携帯端末から操作情報が受信されると、その旨をオペレータに知らせ、オペレータは、ユーザが目的地を設定するために必要な画像(例えば地図など)を用意し、サーバは、このようにしてオペレータにより用意された画像を携帯端末に送信する。そして、携帯端末は、サーバから画像が受信されると、受信された画像を表示する。このような一連の処理によって、ユーザは、サーバから目的地を設定するために必要な画像を受信することができ、これ以降、サーバから受信された画像を見ながら所望の目的地を設定することができる。
【0004】
しかしながら、このように、携帯端末がサーバから受信された画像を表示するだけでは、ユーザは、これ以降、表示される画像のみに頼って操作を行わなければならず、操作性に優れているとは言い難いものである。
【0005】
本発明は、上記した事情に鑑みてなされたものであり、その目的は、ユーザがサーバから受信された画像を見ながら例えば目的地の設定などを行うものにおいて、ユーザが端末を操作する際の操作性を高めることができる通信システムおよび通信サービス方法を提供することにある。
【0006】
【課題を解決するための手段】
請求項1に記載した通信システムによれば、ユーザが端末を操作したり音声を発すると、端末は、操作の内容を表す操作情報や音声をサーバに送信する。サーバは、端末から操作情報や音声が受信されると、オペレータにより用意された画像を端末に送信する。このとき、サーバは、オペレータにより用意された画像を端末に送信するのみでなく、端末に表示される画像と同じ画像を表示し、オペレータが音声を発すると、オペレータにより発せられた音声をも端末に送信する。そして、端末は、サーバから画像および音声が受信されると、受信された画像を表示すると共に、受信された音声を出力する。
【0007】
したがって、オペレータは、サーバが端末に表示される画像と同じ画像を表示するので、ユーザが見る画像と同じ画像を見ることができ、ユーザの立場で、つまり、ユーザが端末を操作する状況を想定しながら、ユーザの操作を適切に促すような指示を音声により行うことができる。また、ユーザは、端末がサーバから受信された画像を表示するのみでなく、端末がサーバから受信された音声を出力するので、サーバから受信された音声、つまり、オペレータが発した音声を聞くことにより、サーバから受信された画像を見ると共に、オペレータが発した音声を聞きながら例えば目的地を設定するための操作を行うことができる。これにより、ユーザが端末を操作する際の操作性を高めることができる。
【0008】
請求項2に記載した通信システムによれば、端末は、自身の表示領域のサイズや通信速度などを表す端末能力をサーバに送信し、サーバは、端末から受信された端末能力を解析することにより、端末に表示される画像と同じ画像を端末能力に基づいて表示すると共に、オペレータにより発せられた音声を端末能力に基づいて端末に送信する。したがって、端末とサーバとの間の性能の相違を吸収する(調整を図る)ことにより、端末とサーバとの間の性能の相違が原因となって不具合が生じることを未然に回避することができる。
【0009】
請求項3に記載した通信システムによれば、端末およびサーバは、それぞれ表示領域を区画化した状態で画像を表示する。したがって、ユーザやオペレータは、例えば地図上の任意の地点を指定するような場合に、区画化されたいずれかの表示領域を指定することにより、適切な操作を行うことができる。
【0010】
請求項4に記載した通信システムによれば、ユーザが端末を操作したり音声を発すると、端末は、操作の内容を表す操作情報や音声をサーバに送信する。サーバは、端末から操作情報や音声が受信されると、受信された操作情報を解析することにより、または、受信された音声に対して音声認識を行うことにより、画像を用意して端末に送信する。このとき、サーバは、画像を端末に送信するのみでなく、端末から受信された操作情報を解析することにより、または、端末から受信された音声に対して音声認識を行うことにより、音声をも用意して端末に送信する。そして、端末は、サーバから画像および音声が受信されると、受信された画像を表示すると共に、受信された音声を出力する。
【0011】
したがって、ユーザは、端末がサーバから受信された画像を表示するのみでなく、端末がサーバから受信された音声を出力するので、サーバから受信された音声、つまり、サーバが用意した音声を聞くことにより、サーバから受信された画像を見ると共に、サーバが用意した音声を聞きながら例えば目的地を設定するための操作を行うことができる。これにより、上記した請求項1に記載したものと同様にして、ユーザが端末を操作する際の操作性を高めることができる。
【0012】
【発明の実施の形態】
(第1実施例)
以下、本発明の端末を携帯端末に適用した第1実施例について、図1ないし図7を参照して説明する。
まず、図1は、通信システムの全体構成を概略的に示している。携帯端末1は、ユーザが携帯可能な構造となっており、ユーザが携帯端末1にて操作を行うと、または、ユーザが音声を発すると、操作の内容を表す操作情報や音声を携帯電話網や固定電話網などの各種の電話網から構成される電話網2を通じてサーバ3に送信する。サーバ3は、例えばデスクトップ型のコンピュータ端末および周辺機器から構成されており、携帯端末1から操作情報や音声が受信されると、受信された操作情報を表示したり、受信された音声を出力して、その旨をオペレータに知らせる。
【0013】
図2は、上記した携帯端末1の電気的な構成を機能ブロック図として示している。携帯端末1は、制御プログラム(本発明でいうコンピュータプログラム)を実行するCPU(Central Processing Unit)4、マイクロホン5、スピーカ6、音声インタフェース部7、データインタフェース部8、多重化部9、通信部10、記憶部11、操作部12、表示部13を備えて構成されている。
【0014】
マイクロホン5は、ユーザにより発せられた音声を入力すると、入力された音声を音声インタフェース部7に出力し、音声インタフェース部7は、マイクロホン5から音声を入力すると、入力された音声を送信処理して多重化部9に出力する。多重化部9は、音声インタフェース部7から音声を入力すると共に、データインタフェース部8からデータを入力すると、それら入力された音声とデータとを多重化し、音声とデータとが多重化された送信信号を通信部10に出力する。そして、通信部10は、多重化部9から送信信号を入力すると、入力された送信信号を電波により送信する。
【0015】
また、通信部10は、音声とデータとが多重化された受信信号を電波により受信すると、受信された受信信号を多重化部9に出力する。多重化部9は、通信部10から受信信号を入力すると、入力された受信信号から音声とデータとを抽出し、音声を音声インタフェース部7に出力すると共に、データをデータインタフェース部8に出力する。音声インタフェース部7は、多重化部9から音声を入力すると、入力された音声を受信処理してスピーカ6に出力し、そして、スピーカ6は、音声インタフェース部7から音声を入力すると、入力された音声を外部に出力する。
【0016】
記憶部11は、各種の情報を記憶可能に構成されている。操作部12は、ユーザが操作するもので、幾つかのキー(ボタン)が配列されて構成されている。この場合、操作部12は、表示部13に表示されるタッチパネル形式のキーから構成されるものであっても良い。表示部13は、サーバ3から受信された画像(例えば地図)などを表示する。
【0017】
図3は、上記したサーバ3の電気的な構成を機能ブロック図として示している。サーバ3は、本体14、オペレータにより発せられた音声を入力する音声入力装置15、携帯端末1から受信された音声を出力する音声出力装置16、オペレータが操作する操作装置17、各種の情報を表示する表示装置18、携帯端末1との間の通信処理を行う通信装置19、各種の情報を記憶する記憶装置20を備えて構成されている。
以上に説明した構成では、携帯端末1とサーバ3とは、音声とデータ(画像、操作情報など)とを同時に通信可能となっている。
【0018】
次に、上記した構成の作用について、図4ないし図7を参照して説明する。尚、ここでは、一例として、ユーザが携帯端末1を操作して目的地を設定する場合を説明する。
【0019】
携帯端末1は、ユーザが目的地の設定を開始するための操作を操作部12にて行った旨を検出すると(図4中、ステップS1)、サーバ3との間で通信リンク(音声およびデータ)を通信部10により確立し、目的地の設定の開始を要求すべくリクエスト信号を通信部10から電話網3を通じてサーバ3に送信する。尚、この場合、携帯端末1は、リクエスト信号をサーバ3に送信すると共に、端末に固有の端末識別番号を通信部10から電話網3を通じてサーバ3に送信する。
【0020】
サーバ3は、携帯端末1からリクエスト信号および端末識別番号が通信装置19により受信されると、受信された端末識別番号を解析し(図4中、ステップT1)、図5(a)に示すように、例えば「携帯端末(端末ID:NNNN)から目的地を設定する要求があります。応答しますか?」という表示メッセージを表示装置18に表示する(図4中、ステップT2)。
【0021】
さて、オペレータは、このようにして表示装置18に表示された表示メッセージを確認すると、携帯端末1からの目的地の設定の要求に対して応答するか否かを選択する。ここで、サーバ3は、オペレータが携帯端末1からの目的地の設定の要求に対して応答するための操作を操作装置17にて行った旨を検出すると(図4中、ステップT3)、目的地の設定の要求に対して応答すべくレスポンス信号を通信装置19から電話網3を通じて携帯端末1に送信する。
【0022】
次いで、携帯端末1は、サーバ3からレスポンス信号が通信部10により受信されると、自身の表示領域のサイズや通信速度を表す端末能力を通信部10から電話網3を通じてサーバ3に送信する。ここで、携帯端末1が端末能力をサーバ3に送信するのは、携帯端末1とサーバ3との間の性能の相違が原因となって不具合が生じることを未然に回避するためである。
【0023】
サーバ3は、携帯端末1から端末能力が通信装置19により受信されると、受信された端末能力を解析し(図4中、ステップT4)、携帯端末1との間の性能の相違を吸収する(調整を図る)。そして、サーバ3は、図5(b)に示すように、携帯端末1(の表示部13)の外観(P参照)の概略を表示装置18に表示する(図4中、ステップT5)。これにより、オペレータは、これ以降、携帯端末1の表示部13に表示される画像と同じ画像を見ることになる。
【0024】
次いで、サーバ3は、オペレータが目的地を設定するために必要な画像を用意すると共に、用意された画像に適切な例えば「画像を表示します。領域を指定して下さい。」という音声を発した旨を検出すると(図4中、ステップT6)、図6に示すように、オペレータにより用意された画像を、表示領域を複数のブロック(図6では、A1〜A3、B1〜B3の6つのブロック)に区画化し、先に解析された端末能力に基づいて表示装置18に表示すると共に、表示装置18に表示された画像と同じ画像および音声入力装置15により入力された例えば「画像を表示します。領域を指定して下さい。」という音声を、先に解析された端末能力に基づいて通信装置19から電話網3を通じて携帯端末1に送信する。
【0025】
携帯端末1は、サーバ3から画像および音声が通信部10により受信されると、受信された画像を表示部13に表示すると共に、受信された音声をスピーカ6から出力する(図4中、ステップS2)。これにより、ユーザは、サーバ3から受信された表示領域が複数のブロックに区画化された画像を見ると共に、サーバ3から受信された音声、つまり、オペレータが発した例えば「画像を表示します。領域を指定して下さい。」という音声を聞くことが可能となる。
【0026】
ここで、ユーザは、このようにして表示部13に表示された画像を確認すると共に、オペレータが発した音声を確認すると、オペレータからの指示にしたがって、いずれかの領域を指定する。携帯端末1は、ユーザがいずれかの領域を指定するための操作を操作部12にて行った旨を検出すると(図4中、ステップS3)、ユーザが行った操作の内容を表す操作情報を通信部10からサーバ3に送信する。
【0027】
サーバ3は、携帯端末1から操作情報が通信装置19により受信されると、受信された操作情報をオペレータに報知する(図4中、ステップT7)。そして、オペレータは、サーバ3から報知された操作情報に基づいて、次の画像を用意すると共に、用意された画像に適切な次の音声を発し、これ以降、上記した動作を繰返し、ユーザが目的地を設定する作業を支援する。尚、図7は、一例としてユーザが図6に示す地図にて例えば「A2」の領域を指定した場合を示している。そして、詳しくは説明しないが、これ以降、ユーザやオペレータの操作に応じて、これと同様にして、携帯端末1の表示部13およびサーバ3の表示装置18に表示される画像が例えば広域な地図の画像から詳細な地図の画像に順次更新されていくことになる。
【0028】
以上のようにして、オペレータは、ユーザが見る画像と同じ画像を見ることができ、ユーザは、サーバから受信された画像を見ると共に、オペレータが発した音声を聞きながら目的地を設定するための操作を行うことができる。
【0029】
ところで、以上は、ユーザが領域を指定するのに操作部12にて操作する場合を説明したものであるが、ユーザが音声を発することにより領域を指定することが可能となる構成であっても良い。また、以上は、ユーザがサーバ3から受信された画像に基づいて目的地を設定する場合を説明したものであるが、例えばユーザが現在位置から目的地に至るまでの経路を検索する場合や、電子メールを閲覧する場合や、情報検索を行う場合などでも、サーバ3から受信された画像を見ると共に、オペレータが発した音声を聞きながら、ユーザがそれらの操作を行うことが可能となる構成であっても良い。
【0030】
以上に説明したように第1実施例によれば、サーバ3は、携帯端末1から操作情報や音声が受信されると、オペレータにより用意された画像を携帯端末1に送信するのみでなく、携帯端末1に表示される画像と同じ画像を表示すると共に、オペレータにより発せられた音声をも携帯端末1に送信し、携帯端末1は、サーバ3から画像および音声が受信されると、受信された画像を表示すると共に、受信された音声を出力するように構成した。
【0031】
したがって、オペレータは、サーバ3が携帯端末1に表示される画像と同じ画像を表示するので、ユーザが見る画像と同じ画像を見ることができ、ユーザの立場で、つまり、ユーザが携帯端末1を操作する状況を想定しながら、ユーザの操作を適切に促すような指示を音声により行うことができる。また、ユーザは、携帯端末1がサーバから受信された画像を表示するのみでなく、携帯端末1がサーバ3から受信された音声をも出力するので、サーバ3から受信された音声、つまり、オペレータが発した音声を聞くことにより、サーバ3から受信された画像を見ると共に、オペレータが発した音声を聞きながら目的地を設定するための操作を行うことができる。これにより、ユーザが携帯端末1を操作する際の操作性を高めることができる。
【0032】
また、サーバ3は、携帯端末1から受信された端末能力を解析することにより、携帯端末1に表示される画像と同じ画像を端末能力に基づいて表示すると共に、オペレータにより発せられた音声を端末能力に基づいて携帯端末1に送信するように構成したので、携帯端末1とサーバ3との間の性能の相違を吸収する(調整を図る)ことにより、携帯端末1とサーバ3との間の性能の相違が原因となって不具合が生じることを未然に回避することができる。
【0033】
さらに、携帯端末1およびサーバ3は、それぞれ表示領域を区画化した状態で画像を表示するように構成したので、ユーザやオペレータは、例えば地図上の任意の地点を指定するような場合に、区画化されたいずれかの表示領域を指定することにより、適切な操作を行うことができる。
【0034】
(第2実施例)
次に、本発明の第2実施例について、図8を参照して説明する。尚、上記した第1実施例と同じ部分については説明を省略し、異なる部分について説明する。上記した第1実施例は、オペレータが配置されていることにより、オペレータが携帯端末1から受信された操作情報や音声に対して対応するように構成されているものであるが、これに対して、この第2実施例は、第1実施例で説明したオペレータが行う処理をサーバが行うことにより、サーバがオペレータに代わって携帯端末1から受信された操作情報や音声に対して対応するように構成されている。
【0035】
すなわち、サーバ21は、上記した第1実施例で説明したサーバ3とは異なって、携帯端末1から受信された操作情報を自動的に認識する操作認識機能や、携帯端末1から受信された音声を自動的に認識する音声認識機能を有しており、携帯端末1から操作情報や音声が受信されると、受信された操作情報を解析することにより、または、受信された音声に対して音声認識を行うことにより、画像および音声を用意して携帯端末1に送信するように構成されている。
【0036】
以上に説明したように第2実施例によれば、サーバ21は、操作認識機能や音声認識機能を有し、携帯端末1から操作情報や音声が受信されると、受信された操作情報を解析することにより、または、受信された音声に対して音声認識を行うことにより、画像を用意して携帯端末1に送信するのみでなく、音声をも用意して携帯端末1に送信するように構成した。
【0037】
したがって、ユーザは、携帯端末1がサーバ21から受信された画像を表示するのみでなく、携帯端末1がサーバ21から受信された音声を出力するので、サーバ21から受信された音声、つまり、サーバ21が用意した音声を聞くことにより、サーバ21から受信された画像を見ると共に、サーバ21が用意した音声を聞きながら目的地を設定するための操作を行うことができる。これにより、上記した第1実施例に記載したものと同様にして、ユーザが携帯端末1を操作する際の操作性を高めることができる。
【0038】
(その他の実施例)
本発明は、上記した実施例にのみ限定されるものではなく、以下のように変形または拡張することができる。
端末は、携帯端末に限らず、携帯電話機や、自動車に搭載される車載端末であっても良い。
オペレータが携帯端末から受信された操作情報や音声に対して対応する期間と、サーバが音声認識機能を働かせることにより、サーバが携帯端末から受信された操作情報や音声に対して対応する期間とが混在し、それらが選択可能な構成であっても良い。
ユーザやオペレータが領域を指定する手順として、例えばタッチペンで操作する(マーキングする)などの他の方法が採用される構成であっても良い。
【図面の簡単な説明】
【図1】本発明の第1実施例の全体構成を概略的に示す図
【図2】携帯端末の電気的な構成を示す機能ブロック図
【図3】サーバの電気的な構成を示す機能ブロック図
【図4】処理の流れを概略的に示す図
【図5】サーバにおける表示の一例を示す図
【図6】携帯端末およびサーバにおける表示の一例を示す図
【図7】図6相当図
【図8】本発明の第2実施例の全体構成を概略的に示す図
【符号の説明】
図面中、1は携帯端末(端末)、3はサーバ、21はサーバである。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention provides a communication system in which a terminal such as a mobile terminal displays an image received from a server, thereby enabling a user to set a destination while viewing an image received from the server. It relates to a communication service method.
[0002]
[Problems to be solved by the invention]
In recent years, the server transmits an image to, for example, a mobile terminal, and the mobile terminal displays an image received from the server, so that the user can perform, for example, setting a destination while viewing the image received from the server. Is being put to practical use.
[0003]
Specifically, when the user performs an operation to start setting a destination on the mobile terminal, the mobile terminal transmits operation information indicating the content of the operation performed by the user to the server. When the operation information is received from the mobile terminal, the server notifies the operator of the fact, and the operator prepares an image (for example, a map) necessary for the user to set the destination. Then, the image prepared by the operator is transmitted to the portable terminal. Then, when the image is received from the server, the mobile terminal displays the received image. Through such a series of processes, the user can receive an image necessary for setting a destination from the server, and thereafter, set a desired destination while viewing the image received from the server. Can be.
[0004]
However, as described above, if the portable terminal only displays the image received from the server, the user must perform operations only by using the displayed image thereafter, which is excellent in operability. Is hard to say.
[0005]
The present invention has been made in view of the above circumstances, and has as its object the purpose of, for example, setting a destination while the user looks at an image received from a server. An object of the present invention is to provide a communication system and a communication service method capable of improving operability.
[0006]
[Means for Solving the Problems]
According to the communication system of the first aspect, when the user operates the terminal or utters a voice, the terminal transmits operation information or a voice indicating the content of the operation to the server. When receiving the operation information and the voice from the terminal, the server transmits the image prepared by the operator to the terminal. At this time, the server not only transmits the image prepared by the operator to the terminal, but also displays the same image as the image displayed on the terminal, and when the operator utters a voice, the server outputs the voice uttered by the operator. Send to Then, when the terminal receives the image and the sound from the server, the terminal displays the received image and outputs the received sound.
[0007]
Therefore, since the server displays the same image as the image displayed on the terminal by the server, the operator can see the same image as the user sees, and assumes the situation where the user operates the terminal from the user's standpoint. Meanwhile, an instruction to appropriately prompt the user's operation can be given by voice. In addition, since the terminal not only displays the image received from the server but also outputs the voice received from the server, the user can listen to the voice received from the server, that is, the voice emitted by the operator. Thereby, while viewing the image received from the server, it is possible to perform, for example, an operation for setting a destination while listening to the voice uttered by the operator. Thereby, the operability when the user operates the terminal can be improved.
[0008]
According to the communication system described in claim 2, the terminal transmits the terminal capability indicating the size of the display area and the communication speed of the terminal to the server, and the server analyzes the terminal capability received from the terminal. In addition, the same image as the image displayed on the terminal is displayed based on the terminal capability, and the voice generated by the operator is transmitted to the terminal based on the terminal capability. Therefore, by absorbing (adjusting) the difference in performance between the terminal and the server, it is possible to prevent a problem from occurring due to the difference in performance between the terminal and the server. .
[0009]
According to the communication system described in claim 3, the terminal and the server each display an image in a state where the display area is partitioned. Therefore, for example, when specifying an arbitrary point on a map, the user or the operator can perform an appropriate operation by specifying any of the partitioned display areas.
[0010]
According to the communication system described in claim 4, when the user operates the terminal or utters a voice, the terminal transmits operation information or voice indicating the content of the operation to the server. When the server receives operation information and voice from the terminal, the server prepares an image and transmits it to the terminal by analyzing the received operation information or performing voice recognition on the received voice. I do. At this time, the server not only transmits the image to the terminal, but also analyzes the operation information received from the terminal, or performs voice recognition on the voice received from the terminal, thereby generating the voice. Prepare and send to terminal. Then, when the terminal receives the image and the sound from the server, the terminal displays the received image and outputs the received sound.
[0011]
Therefore, since the terminal not only displays the image received from the server, but also outputs the audio received from the server, the user can listen to the audio received from the server, that is, the audio prepared by the server. Thereby, while viewing the image received from the server, it is possible to perform an operation for setting a destination, for example, while listening to the sound prepared by the server. Thus, the operability when the user operates the terminal can be improved in the same manner as in the first aspect.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
(First embodiment)
Hereinafter, a first embodiment in which the terminal of the present invention is applied to a portable terminal will be described with reference to FIGS.
First, FIG. 1 schematically shows an entire configuration of a communication system. The mobile terminal 1 has a structure that can be carried by the user. When the user performs an operation on the mobile terminal 1 or when the user utters a voice, the mobile terminal 1 transmits operation information and voice indicating the content of the operation to the mobile phone network. And a server 3 through a telephone network 2 composed of various telephone networks such as a telephone network and a fixed telephone network. The server 3 is composed of, for example, a desktop computer terminal and peripheral devices. When operation information or voice is received from the mobile terminal 1, the server 3 displays the received operation information or outputs the received voice. And inform the operator accordingly.
[0013]
FIG. 2 is a functional block diagram showing the electrical configuration of the portable terminal 1 described above. The mobile terminal 1 includes a CPU (Central Processing Unit) 4 for executing a control program (a computer program according to the present invention), a microphone 5, a speaker 6, a voice interface unit 7, a data interface unit 8, a multiplexing unit 9, and a communication unit 10. , A storage unit 11, an operation unit 12, and a display unit 13.
[0014]
The microphone 5 outputs the input voice to the voice interface unit 7 when the voice emitted by the user is input, and the voice interface unit 7 performs a transmission process on the input voice when the voice is input from the microphone 5. Output to the multiplexing unit 9. The multiplexing unit 9 receives the voice from the voice interface unit 7 and receives the data from the data interface unit 8, and multiplexes the voice and data thus input. Is output to the communication unit 10. When receiving the transmission signal from the multiplexing unit 9, the communication unit 10 transmits the input transmission signal by radio waves.
[0015]
Further, when receiving a reception signal in which voice and data are multiplexed by radio waves, the communication unit 10 outputs the received reception signal to the multiplexing unit 9. Upon receiving the received signal from the communication unit 10, the multiplexing unit 9 extracts voice and data from the input received signal, outputs the voice to the voice interface unit 7, and outputs the data to the data interface unit 8. . When audio is input from the multiplexing unit 9, the audio interface unit 7 receives and processes the input audio and outputs it to the speaker 6, and when the audio is input from the audio interface unit 7, the audio is input. Output audio to outside.
[0016]
The storage unit 11 is configured to be able to store various types of information. The operation unit 12 is operated by a user, and is configured by arranging some keys (buttons). In this case, the operation unit 12 may be configured by a touch panel type key displayed on the display unit 13. The display unit 13 displays an image (for example, a map) received from the server 3 and the like.
[0017]
FIG. 3 shows an electrical configuration of the server 3 as a functional block diagram. The server 3 displays a main body 14, a voice input device 15 for inputting a voice uttered by an operator, a voice output device 16 for outputting a voice received from the mobile terminal 1, an operation device 17 operated by the operator, and various kinds of information. And a communication device 19 for performing communication processing with the mobile terminal 1 and a storage device 20 for storing various information.
In the configuration described above, the mobile terminal 1 and the server 3 can simultaneously communicate voice and data (images, operation information, and the like).
[0018]
Next, the operation of the above configuration will be described with reference to FIGS. Here, as an example, a case where the user operates the mobile terminal 1 to set a destination will be described.
[0019]
When the mobile terminal 1 detects that the user has performed an operation for starting the setting of the destination using the operation unit 12 (step S1 in FIG. 4), a communication link (voice and data) with the server 3 is provided. ) Is established by the communication unit 10, and a request signal is transmitted from the communication unit 10 to the server 3 through the telephone network 3 in order to request the start of the destination setting. In this case, the mobile terminal 1 transmits a request signal to the server 3 and transmits a terminal identification number unique to the terminal to the server 3 via the telephone network 3 from the communication unit 10.
[0020]
When the communication device 19 receives the request signal and the terminal identification number from the mobile terminal 1, the server 3 analyzes the received terminal identification number (step T1 in FIG. 4), and as shown in FIG. A display message is displayed on the display device 18, for example, "There is a request to set the destination from the mobile terminal (terminal ID: NNNN). Do you want to respond?" (Step T2 in FIG. 4).
[0021]
When the operator confirms the display message displayed on the display device 18 in this way, the operator selects whether or not to respond to the request for setting the destination from the mobile terminal 1. Here, when the server 3 detects that the operator has performed an operation for responding to the request for setting the destination from the mobile terminal 1 with the operation device 17 (step T3 in FIG. 4), the server 3 A response signal is transmitted from the communication device 19 to the mobile terminal 1 through the telephone network 3 in order to respond to the request for setting the location.
[0022]
Next, when the response signal is received from the server 3 by the communication unit 10, the mobile terminal 1 transmits the terminal capability indicating the size of the display area and the communication speed of the mobile terminal 1 from the communication unit 10 to the server 3 via the telephone network 3. Here, the reason why the mobile terminal 1 transmits the terminal capability to the server 3 is to prevent a problem from occurring due to a difference in performance between the mobile terminal 1 and the server 3 beforehand.
[0023]
When the terminal capability is received from the mobile terminal 1 by the communication device 19, the server 3 analyzes the received terminal capability (step T4 in FIG. 4) and absorbs a difference in performance between the mobile terminal 1 and the mobile terminal 1. (Adjust). Then, as shown in FIG. 5B, the server 3 displays an outline of the appearance (see P) of (the display unit 13 of) the mobile terminal 1 on the display device 18 (Step T5 in FIG. 4). Thereby, the operator will see the same image as the image displayed on the display unit 13 of the mobile terminal 1 thereafter.
[0024]
Next, the server 3 prepares an image necessary for the operator to set the destination, and emits a sound appropriate to the prepared image, for example, “Display an image. Specify an area.” When it is detected that the operation has been performed (step T6 in FIG. 4), as shown in FIG. 6, the image prepared by the operator is displayed in a plurality of blocks (A1 to A3, B1 to B3 in FIG. 6). Block), and displays the image on the display device 18 on the basis of the terminal capability analyzed earlier, and displays the same image as the image displayed on the display device 18 and the image input by the voice input device 15, for example, Please specify the area. "Is transmitted from the communication device 19 to the portable terminal 1 through the telephone network 3 based on the terminal capability analyzed earlier.
[0025]
When the image and the sound are received from the server 3 by the communication unit 10, the mobile terminal 1 displays the received image on the display unit 13 and outputs the received sound from the speaker 6 (step in FIG. 4). S2). Thus, the user sees the image in which the display area received from the server 3 is partitioned into a plurality of blocks, and also displays the voice received from the server 3, that is, for example, an image generated by the operator. Please specify the area. "
[0026]
Here, when the user confirms the image displayed on the display unit 13 and confirms the voice uttered by the operator, the user designates one of the areas according to the instruction from the operator. When detecting that the user has performed an operation for designating any of the regions using the operation unit 12 (step S3 in FIG. 4), the mobile terminal 1 transmits operation information indicating the content of the operation performed by the user. The information is transmitted from the communication unit 10 to the server 3.
[0027]
When the operation information is received from the mobile terminal 1 by the communication device 19, the server 3 notifies the operator of the received operation information (step T7 in FIG. 4). Then, the operator prepares the next image based on the operation information notified from the server 3 and emits the next sound appropriate for the prepared image. Thereafter, the above operation is repeated, and the user Support the work of setting the land. FIG. 7 shows a case where the user specifies, for example, an area “A2” on the map shown in FIG. Although not described in detail, the images displayed on the display unit 13 of the mobile terminal 1 and the display device 18 of the server 3 are similarly displayed, for example, on a wide area map according to the operation of the user or the operator. Will be sequentially updated to the detailed map image.
[0028]
As described above, the operator can see the same image as the user sees, and the user can see the image received from the server and set the destination while listening to the voice uttered by the operator. Operations can be performed.
[0029]
By the way, the case where the user operates the operation unit 12 to specify the area has been described above. However, even in a configuration in which the user can specify the area by uttering a voice. good. In addition, the case where the user sets the destination based on the image received from the server 3 has been described above. For example, when the user searches for a route from the current position to the destination, Even when browsing an e-mail or performing an information search, the configuration allows the user to perform those operations while viewing the image received from the server 3 and listening to the voice emitted by the operator. There may be.
[0030]
As described above, according to the first embodiment, when the operation information and the voice are received from the portable terminal 1, the server 3 not only transmits the image prepared by the operator to the portable terminal 1, but also transmits the image to the portable terminal 1. The same image as the image displayed on the terminal 1 is displayed, and the voice uttered by the operator is also transmitted to the mobile terminal 1. When the mobile terminal 1 receives the image and the voice from the server 3, the received voice is received. It is configured to display the image and output the received sound.
[0031]
Therefore, since the server 3 displays the same image as the image displayed on the mobile terminal 1, the operator can see the same image as the image that the user sees. While assuming a situation in which the operation is performed, an instruction to appropriately prompt the user's operation can be given by voice. In addition, since the mobile terminal 1 not only displays the image received from the server, but also outputs the voice received from the server 3, the user receives the voice received from the server 3, ie, the operator. By listening to the voice emitted by the user, the user can view the image received from the server 3 and perform an operation for setting the destination while listening to the voice emitted by the operator. Thereby, the operability when the user operates the mobile terminal 1 can be improved.
[0032]
Further, the server 3 analyzes the terminal capability received from the mobile terminal 1 to display the same image as the image displayed on the mobile terminal 1 based on the terminal capability, and also outputs the voice uttered by the operator to the terminal. Since transmission is performed to the mobile terminal 1 based on the capability, the difference in performance between the mobile terminal 1 and the server 3 is absorbed (adjusted), so that the communication between the mobile terminal 1 and the server 3 is performed. Problems can be prevented from occurring due to differences in performance.
[0033]
Furthermore, since the mobile terminal 1 and the server 3 are configured to display an image in a state where the display area is partitioned, the user or the operator can specify a desired location on the map, for example, when the user specifies an arbitrary point on the map. An appropriate operation can be performed by designating any of the display areas.
[0034]
(Second embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG. The description of the same parts as in the first embodiment is omitted, and different parts will be described. In the above-described first embodiment, the arrangement of the operator enables the operator to respond to the operation information and the voice received from the mobile terminal 1. In the second embodiment, the server performs the processing performed by the operator described in the first embodiment so that the server responds to the operation information and the voice received from the mobile terminal 1 on behalf of the operator. It is configured.
[0035]
That is, unlike the server 3 described in the first embodiment, the server 21 has an operation recognition function for automatically recognizing the operation information received from the mobile terminal 1, and a voice received from the mobile terminal 1. Has a voice recognition function for automatically recognizing the operation information. When operation information or voice is received from the mobile terminal 1, the received operation information is analyzed or a voice is generated for the received voice. By performing the recognition, an image and a sound are prepared and transmitted to the mobile terminal 1.
[0036]
As described above, according to the second embodiment, the server 21 has the operation recognition function and the voice recognition function, and when the operation information and the voice are received from the mobile terminal 1, the server 21 analyzes the received operation information. Or by performing voice recognition on the received voice, so that not only an image is prepared and transmitted to the mobile terminal 1, but also a voice is prepared and transmitted to the mobile terminal 1. did.
[0037]
Therefore, the user does not only display the image received from the server 21 but also output the sound received from the server 21, so that the sound received from the server 21, that is, the server By listening to the sound prepared by the server 21, the user can view the image received from the server 21 and perform an operation for setting the destination while listening to the sound prepared by the server 21. Thus, the operability when the user operates the portable terminal 1 can be improved in the same manner as described in the first embodiment.
[0038]
(Other Examples)
The present invention is not limited to the above-described embodiment, but can be modified or expanded as follows.
The terminal is not limited to a mobile terminal, and may be a mobile phone or an in-vehicle terminal mounted on an automobile.
The period during which the operator responds to the operation information and voice received from the mobile terminal and the period at which the server responds to the operation information and voice received from the mobile terminal by the server operating the voice recognition function. They may be mixed and have a selectable configuration.
As a procedure for the user or the operator to specify the area, another method such as operating (marking) with a touch pen may be adopted.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing an entire configuration of a first embodiment of the present invention; FIG. 2 is a functional block diagram showing an electrical configuration of a portable terminal; FIG. 3 is a functional block showing an electrical configuration of a server; FIG. 4 is a diagram schematically showing a processing flow. FIG. 5 is a diagram showing an example of display on a server. FIG. 6 is a diagram showing an example of display on a mobile terminal and a server. FIG. 7 is a diagram corresponding to FIG. FIG. 8 is a diagram schematically showing the entire configuration of a second embodiment of the present invention.
In the drawings, 1 is a mobile terminal (terminal), 3 is a server, and 21 is a server.

Claims (6)

ユーザが端末を操作したり音声を発したことに応じて、操作の内容を表す操作情報や音声をサーバに送信する端末と、
端末から操作情報や音声が受信されたことに応じて、オペレータにより用意された画像を端末に送信するサーバとを備えてなる通信システムであって、
サーバは、端末に表示される画像と同じ画像を表示すると共に、オペレータにより発せられた音声を端末に送信するように構成され、
端末は、サーバから受信された画像を表示すると共に、サーバから受信された音声を出力するように構成されていることを特徴とする通信システム。
A terminal that transmits operation information or a voice representing the content of the operation to the server in response to a user operating the terminal or uttering a voice,
A communication system comprising: a server that transmits an image prepared by an operator to the terminal in response to reception of operation information and voice from the terminal,
The server is configured to display the same image as the image displayed on the terminal, and to transmit a voice uttered by the operator to the terminal,
A communication system, wherein the terminal is configured to display an image received from the server and output a sound received from the server.
請求項1に記載した通信システムにおいて、
端末は、自身の表示領域のサイズや通信速度などを表す端末能力をサーバに送信するように構成され、
サーバは、端末から受信された端末能力を解析することにより、端末に表示される画像と同じ画像を端末能力に基づいて表示すると共に、オペレータにより発せられた音声を端末能力に基づいて端末に送信するように構成されていることを特徴とする通信システム。
In the communication system according to claim 1,
The terminal is configured to transmit a terminal capability indicating the size of the display area, the communication speed, and the like to the server,
The server analyzes the terminal capability received from the terminal, displays the same image as the image displayed on the terminal based on the terminal capability, and transmits the voice emitted by the operator to the terminal based on the terminal capability. A communication system characterized in that the communication system is configured to:
請求項1または2に記載した通信システムにおいて、
端末およびサーバは、それぞれ表示領域を区画化した状態で画像を表示するように構成されていることを特徴とする通信システム。
In the communication system according to claim 1 or 2,
A communication system wherein the terminal and the server are each configured to display an image in a state where a display area is partitioned.
ユーザが端末を操作したり音声を発したことに応じて、操作の内容を表す操作情報や音声をサーバに送信する端末と、
端末から操作情報や音声が受信されたことに応じて、受信された操作情報を解析することにより、または、受信された音声に対して音声認識を行うことにより、画像を用意して端末に送信するサーバとを備えてなる通信システムであって、
サーバは、端末から受信された操作情報を解析することにより、または、端末から受信された音声に対して音声認識を行うことにより、音声を用意して端末に送信するように構成され、
端末は、サーバから受信された画像を表示すると共に、サーバから受信された音声を出力するように構成されていることを特徴とする通信システム。
A terminal that transmits operation information or a voice representing the content of the operation to the server in response to a user operating the terminal or uttering a voice,
Prepare an image and send it to the terminal by analyzing the received operation information or by performing voice recognition on the received voice in response to the reception of the operation information and voice from the terminal. A communication system comprising:
The server is configured to analyze the operation information received from the terminal, or to perform voice recognition on the voice received from the terminal, to prepare voice and transmit it to the terminal,
A communication system wherein the terminal is configured to display an image received from the server and output audio received from the server.
端末が、ユーザが端末を操作したり音声を発したことに応じて、操作の内容を表す操作情報や音声をサーバに送信し、
サーバが、端末から操作情報や音声が受信されたことに応じて、オペレータにより用意された画像を端末に送信する通信サービス方法であって、
サーバが、端末に表示される画像と同じ画像を表示すると共に、オペレータにより発せられた音声を端末に送信し、
端末が、サーバから受信された画像を表示すると共に、サーバから受信された音声を出力することを特徴とする通信サービス方法。
The terminal transmits operation information or voice representing the content of the operation to the server in response to the user operating the terminal or uttering a voice,
A communication service method in which a server transmits an image prepared by an operator to a terminal in response to operation information and voice received from the terminal,
The server displays the same image as the image displayed on the terminal, transmits the voice uttered by the operator to the terminal,
A communication service method, wherein a terminal displays an image received from a server and outputs a sound received from the server.
端末が、ユーザが端末を操作したり音声を発したことに応じて、操作の内容を表す操作情報や音声をサーバに送信し、
サーバが、端末から操作情報や音声が受信されたことに応じて、受信された操作情報を解析することにより、または、受信された音声に対して音声認識を行うことにより、画像を用意して端末に送信する通信サービス方法であって、
サーバが、端末から受信された操作情報を解析することにより、または、端末から受信された音声に対して音声認識を行うことにより、音声を用意して端末に送信し、
端末が、サーバから受信された画像を表示すると共に、サーバから受信された音声を出力することを特徴とする通信サービス方法。
The terminal transmits operation information or voice representing the content of the operation to the server in response to the user operating the terminal or uttering a voice,
The server prepares an image by analyzing the received operation information or performing voice recognition on the received voice according to the reception of the operation information or voice from the terminal. A communication service method for transmitting to a terminal,
The server prepares a voice and transmits it to the terminal by analyzing the operation information received from the terminal, or by performing voice recognition on the voice received from the terminal,
A communication service method, wherein a terminal displays an image received from a server and outputs a sound received from the server.
JP2002162994A 2002-06-04 2002-06-04 Communication system and communication service method Expired - Fee Related JP4307792B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002162994A JP4307792B2 (en) 2002-06-04 2002-06-04 Communication system and communication service method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002162994A JP4307792B2 (en) 2002-06-04 2002-06-04 Communication system and communication service method

Publications (2)

Publication Number Publication Date
JP2004015196A true JP2004015196A (en) 2004-01-15
JP4307792B2 JP4307792B2 (en) 2009-08-05

Family

ID=30431584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002162994A Expired - Fee Related JP4307792B2 (en) 2002-06-04 2002-06-04 Communication system and communication service method

Country Status (1)

Country Link
JP (1) JP4307792B2 (en)

Also Published As

Publication number Publication date
JP4307792B2 (en) 2009-08-05

Similar Documents

Publication Publication Date Title
JP4566443B2 (en) Wireless communication system
CN111641916B (en) Audio sharing method and electronic equipment
CN101641932A (en) Appratus for providing location information of hand-held device and method thereof
JP2010263556A (en) Telephone directory data memory device having near field communication function
JP2009159275A (en) Radio communication device
US8055194B2 (en) Method for searching for devices for Bluetooth communication in wireless terminal
US10140086B2 (en) Electronic device and audio ouputting method thereof
JP2008203973A (en) Operation input processing method and portable information processor
JP2022546542A (en) Communication method, communication device, communication system, server and computer program
WO2017215661A1 (en) Scenario-based sound effect control method and electronic device
CN111083755A (en) Equipment switching method and related equipment
CN115190197B (en) Bluetooth headset-based communication method and device and storage medium
CN111124345A (en) Audio source processing method and mobile terminal
US20050090234A1 (en) Incoming call notification system and method
CN109347980A (en) Presentation, the method for pushed information, medium, device and calculating equipment
KR20070080529A (en) Apparatus and method for furnishing epg information in digital multimedia broadcasting terminal
US20090186579A1 (en) Wireless headset with character message outputting function and method for outputting character message
US20050120309A1 (en) Method of and apparatus for displaying messages on a mobile terminal
US20220053585A1 (en) Method for pc5 link establishment, device, and system
CN109155803B (en) Audio data processing method, terminal device and storage medium
JP4307792B2 (en) Communication system and communication service method
JPH07111680A (en) Portable radio telephone system
CN105764116A (en) Method of connection between terminals and terminal
CN111756893A (en) Audio output method, electronic device, and medium
KR101688791B1 (en) Apparatus nad method for supporting general editor in mobile terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060418

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070205

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070314

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090430

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees