JP2004015196A - Communication system and communication service method - Google Patents
Communication system and communication service method Download PDFInfo
- Publication number
- JP2004015196A JP2004015196A JP2002162994A JP2002162994A JP2004015196A JP 2004015196 A JP2004015196 A JP 2004015196A JP 2002162994 A JP2002162994 A JP 2002162994A JP 2002162994 A JP2002162994 A JP 2002162994A JP 2004015196 A JP2004015196 A JP 2004015196A
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- server
- voice
- received
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Mobile Radio Communication Systems (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、例えば携帯端末などの端末がサーバから受信された画像を表示することにより、ユーザがサーバから受信された画像を見ながら例えば目的地の設定などを行うことが可能となる通信システムおよび通信サービス方法に関する。
【0002】
【発明が解決しようとする課題】
近年、サーバが例えば携帯端末に画像を送信し、携帯端末がサーバから受信された画像を表示することにより、ユーザがサーバから受信された画像を見ながら例えば目的地の設定などを行うことが可能となる通信システムが実用化されつつある。
【0003】
具体的には、ユーザが携帯端末にて目的地の設定を開始するための操作を行うと、携帯端末は、ユーザが行った操作の内容を表す操作情報をサーバに送信する。サーバは、携帯端末から操作情報が受信されると、その旨をオペレータに知らせ、オペレータは、ユーザが目的地を設定するために必要な画像(例えば地図など)を用意し、サーバは、このようにしてオペレータにより用意された画像を携帯端末に送信する。そして、携帯端末は、サーバから画像が受信されると、受信された画像を表示する。このような一連の処理によって、ユーザは、サーバから目的地を設定するために必要な画像を受信することができ、これ以降、サーバから受信された画像を見ながら所望の目的地を設定することができる。
【0004】
しかしながら、このように、携帯端末がサーバから受信された画像を表示するだけでは、ユーザは、これ以降、表示される画像のみに頼って操作を行わなければならず、操作性に優れているとは言い難いものである。
【0005】
本発明は、上記した事情に鑑みてなされたものであり、その目的は、ユーザがサーバから受信された画像を見ながら例えば目的地の設定などを行うものにおいて、ユーザが端末を操作する際の操作性を高めることができる通信システムおよび通信サービス方法を提供することにある。
【0006】
【課題を解決するための手段】
請求項1に記載した通信システムによれば、ユーザが端末を操作したり音声を発すると、端末は、操作の内容を表す操作情報や音声をサーバに送信する。サーバは、端末から操作情報や音声が受信されると、オペレータにより用意された画像を端末に送信する。このとき、サーバは、オペレータにより用意された画像を端末に送信するのみでなく、端末に表示される画像と同じ画像を表示し、オペレータが音声を発すると、オペレータにより発せられた音声をも端末に送信する。そして、端末は、サーバから画像および音声が受信されると、受信された画像を表示すると共に、受信された音声を出力する。
【0007】
したがって、オペレータは、サーバが端末に表示される画像と同じ画像を表示するので、ユーザが見る画像と同じ画像を見ることができ、ユーザの立場で、つまり、ユーザが端末を操作する状況を想定しながら、ユーザの操作を適切に促すような指示を音声により行うことができる。また、ユーザは、端末がサーバから受信された画像を表示するのみでなく、端末がサーバから受信された音声を出力するので、サーバから受信された音声、つまり、オペレータが発した音声を聞くことにより、サーバから受信された画像を見ると共に、オペレータが発した音声を聞きながら例えば目的地を設定するための操作を行うことができる。これにより、ユーザが端末を操作する際の操作性を高めることができる。
【0008】
請求項2に記載した通信システムによれば、端末は、自身の表示領域のサイズや通信速度などを表す端末能力をサーバに送信し、サーバは、端末から受信された端末能力を解析することにより、端末に表示される画像と同じ画像を端末能力に基づいて表示すると共に、オペレータにより発せられた音声を端末能力に基づいて端末に送信する。したがって、端末とサーバとの間の性能の相違を吸収する(調整を図る)ことにより、端末とサーバとの間の性能の相違が原因となって不具合が生じることを未然に回避することができる。
【0009】
請求項3に記載した通信システムによれば、端末およびサーバは、それぞれ表示領域を区画化した状態で画像を表示する。したがって、ユーザやオペレータは、例えば地図上の任意の地点を指定するような場合に、区画化されたいずれかの表示領域を指定することにより、適切な操作を行うことができる。
【0010】
請求項4に記載した通信システムによれば、ユーザが端末を操作したり音声を発すると、端末は、操作の内容を表す操作情報や音声をサーバに送信する。サーバは、端末から操作情報や音声が受信されると、受信された操作情報を解析することにより、または、受信された音声に対して音声認識を行うことにより、画像を用意して端末に送信する。このとき、サーバは、画像を端末に送信するのみでなく、端末から受信された操作情報を解析することにより、または、端末から受信された音声に対して音声認識を行うことにより、音声をも用意して端末に送信する。そして、端末は、サーバから画像および音声が受信されると、受信された画像を表示すると共に、受信された音声を出力する。
【0011】
したがって、ユーザは、端末がサーバから受信された画像を表示するのみでなく、端末がサーバから受信された音声を出力するので、サーバから受信された音声、つまり、サーバが用意した音声を聞くことにより、サーバから受信された画像を見ると共に、サーバが用意した音声を聞きながら例えば目的地を設定するための操作を行うことができる。これにより、上記した請求項1に記載したものと同様にして、ユーザが端末を操作する際の操作性を高めることができる。
【0012】
【発明の実施の形態】
(第1実施例)
以下、本発明の端末を携帯端末に適用した第1実施例について、図1ないし図7を参照して説明する。
まず、図1は、通信システムの全体構成を概略的に示している。携帯端末1は、ユーザが携帯可能な構造となっており、ユーザが携帯端末1にて操作を行うと、または、ユーザが音声を発すると、操作の内容を表す操作情報や音声を携帯電話網や固定電話網などの各種の電話網から構成される電話網2を通じてサーバ3に送信する。サーバ3は、例えばデスクトップ型のコンピュータ端末および周辺機器から構成されており、携帯端末1から操作情報や音声が受信されると、受信された操作情報を表示したり、受信された音声を出力して、その旨をオペレータに知らせる。
【0013】
図2は、上記した携帯端末1の電気的な構成を機能ブロック図として示している。携帯端末1は、制御プログラム(本発明でいうコンピュータプログラム)を実行するCPU(Central Processing Unit)4、マイクロホン5、スピーカ6、音声インタフェース部7、データインタフェース部8、多重化部9、通信部10、記憶部11、操作部12、表示部13を備えて構成されている。
【0014】
マイクロホン5は、ユーザにより発せられた音声を入力すると、入力された音声を音声インタフェース部7に出力し、音声インタフェース部7は、マイクロホン5から音声を入力すると、入力された音声を送信処理して多重化部9に出力する。多重化部9は、音声インタフェース部7から音声を入力すると共に、データインタフェース部8からデータを入力すると、それら入力された音声とデータとを多重化し、音声とデータとが多重化された送信信号を通信部10に出力する。そして、通信部10は、多重化部9から送信信号を入力すると、入力された送信信号を電波により送信する。
【0015】
また、通信部10は、音声とデータとが多重化された受信信号を電波により受信すると、受信された受信信号を多重化部9に出力する。多重化部9は、通信部10から受信信号を入力すると、入力された受信信号から音声とデータとを抽出し、音声を音声インタフェース部7に出力すると共に、データをデータインタフェース部8に出力する。音声インタフェース部7は、多重化部9から音声を入力すると、入力された音声を受信処理してスピーカ6に出力し、そして、スピーカ6は、音声インタフェース部7から音声を入力すると、入力された音声を外部に出力する。
【0016】
記憶部11は、各種の情報を記憶可能に構成されている。操作部12は、ユーザが操作するもので、幾つかのキー(ボタン)が配列されて構成されている。この場合、操作部12は、表示部13に表示されるタッチパネル形式のキーから構成されるものであっても良い。表示部13は、サーバ3から受信された画像(例えば地図)などを表示する。
【0017】
図3は、上記したサーバ3の電気的な構成を機能ブロック図として示している。サーバ3は、本体14、オペレータにより発せられた音声を入力する音声入力装置15、携帯端末1から受信された音声を出力する音声出力装置16、オペレータが操作する操作装置17、各種の情報を表示する表示装置18、携帯端末1との間の通信処理を行う通信装置19、各種の情報を記憶する記憶装置20を備えて構成されている。
以上に説明した構成では、携帯端末1とサーバ3とは、音声とデータ(画像、操作情報など)とを同時に通信可能となっている。
【0018】
次に、上記した構成の作用について、図4ないし図7を参照して説明する。尚、ここでは、一例として、ユーザが携帯端末1を操作して目的地を設定する場合を説明する。
【0019】
携帯端末1は、ユーザが目的地の設定を開始するための操作を操作部12にて行った旨を検出すると(図4中、ステップS1)、サーバ3との間で通信リンク(音声およびデータ)を通信部10により確立し、目的地の設定の開始を要求すべくリクエスト信号を通信部10から電話網3を通じてサーバ3に送信する。尚、この場合、携帯端末1は、リクエスト信号をサーバ3に送信すると共に、端末に固有の端末識別番号を通信部10から電話網3を通じてサーバ3に送信する。
【0020】
サーバ3は、携帯端末1からリクエスト信号および端末識別番号が通信装置19により受信されると、受信された端末識別番号を解析し(図4中、ステップT1)、図5(a)に示すように、例えば「携帯端末(端末ID:NNNN)から目的地を設定する要求があります。応答しますか?」という表示メッセージを表示装置18に表示する(図4中、ステップT2)。
【0021】
さて、オペレータは、このようにして表示装置18に表示された表示メッセージを確認すると、携帯端末1からの目的地の設定の要求に対して応答するか否かを選択する。ここで、サーバ3は、オペレータが携帯端末1からの目的地の設定の要求に対して応答するための操作を操作装置17にて行った旨を検出すると(図4中、ステップT3)、目的地の設定の要求に対して応答すべくレスポンス信号を通信装置19から電話網3を通じて携帯端末1に送信する。
【0022】
次いで、携帯端末1は、サーバ3からレスポンス信号が通信部10により受信されると、自身の表示領域のサイズや通信速度を表す端末能力を通信部10から電話網3を通じてサーバ3に送信する。ここで、携帯端末1が端末能力をサーバ3に送信するのは、携帯端末1とサーバ3との間の性能の相違が原因となって不具合が生じることを未然に回避するためである。
【0023】
サーバ3は、携帯端末1から端末能力が通信装置19により受信されると、受信された端末能力を解析し(図4中、ステップT4)、携帯端末1との間の性能の相違を吸収する(調整を図る)。そして、サーバ3は、図5(b)に示すように、携帯端末1(の表示部13)の外観(P参照)の概略を表示装置18に表示する(図4中、ステップT5)。これにより、オペレータは、これ以降、携帯端末1の表示部13に表示される画像と同じ画像を見ることになる。
【0024】
次いで、サーバ3は、オペレータが目的地を設定するために必要な画像を用意すると共に、用意された画像に適切な例えば「画像を表示します。領域を指定して下さい。」という音声を発した旨を検出すると(図4中、ステップT6)、図6に示すように、オペレータにより用意された画像を、表示領域を複数のブロック(図6では、A1〜A3、B1〜B3の6つのブロック)に区画化し、先に解析された端末能力に基づいて表示装置18に表示すると共に、表示装置18に表示された画像と同じ画像および音声入力装置15により入力された例えば「画像を表示します。領域を指定して下さい。」という音声を、先に解析された端末能力に基づいて通信装置19から電話網3を通じて携帯端末1に送信する。
【0025】
携帯端末1は、サーバ3から画像および音声が通信部10により受信されると、受信された画像を表示部13に表示すると共に、受信された音声をスピーカ6から出力する(図4中、ステップS2)。これにより、ユーザは、サーバ3から受信された表示領域が複数のブロックに区画化された画像を見ると共に、サーバ3から受信された音声、つまり、オペレータが発した例えば「画像を表示します。領域を指定して下さい。」という音声を聞くことが可能となる。
【0026】
ここで、ユーザは、このようにして表示部13に表示された画像を確認すると共に、オペレータが発した音声を確認すると、オペレータからの指示にしたがって、いずれかの領域を指定する。携帯端末1は、ユーザがいずれかの領域を指定するための操作を操作部12にて行った旨を検出すると(図4中、ステップS3)、ユーザが行った操作の内容を表す操作情報を通信部10からサーバ3に送信する。
【0027】
サーバ3は、携帯端末1から操作情報が通信装置19により受信されると、受信された操作情報をオペレータに報知する(図4中、ステップT7)。そして、オペレータは、サーバ3から報知された操作情報に基づいて、次の画像を用意すると共に、用意された画像に適切な次の音声を発し、これ以降、上記した動作を繰返し、ユーザが目的地を設定する作業を支援する。尚、図7は、一例としてユーザが図6に示す地図にて例えば「A2」の領域を指定した場合を示している。そして、詳しくは説明しないが、これ以降、ユーザやオペレータの操作に応じて、これと同様にして、携帯端末1の表示部13およびサーバ3の表示装置18に表示される画像が例えば広域な地図の画像から詳細な地図の画像に順次更新されていくことになる。
【0028】
以上のようにして、オペレータは、ユーザが見る画像と同じ画像を見ることができ、ユーザは、サーバから受信された画像を見ると共に、オペレータが発した音声を聞きながら目的地を設定するための操作を行うことができる。
【0029】
ところで、以上は、ユーザが領域を指定するのに操作部12にて操作する場合を説明したものであるが、ユーザが音声を発することにより領域を指定することが可能となる構成であっても良い。また、以上は、ユーザがサーバ3から受信された画像に基づいて目的地を設定する場合を説明したものであるが、例えばユーザが現在位置から目的地に至るまでの経路を検索する場合や、電子メールを閲覧する場合や、情報検索を行う場合などでも、サーバ3から受信された画像を見ると共に、オペレータが発した音声を聞きながら、ユーザがそれらの操作を行うことが可能となる構成であっても良い。
【0030】
以上に説明したように第1実施例によれば、サーバ3は、携帯端末1から操作情報や音声が受信されると、オペレータにより用意された画像を携帯端末1に送信するのみでなく、携帯端末1に表示される画像と同じ画像を表示すると共に、オペレータにより発せられた音声をも携帯端末1に送信し、携帯端末1は、サーバ3から画像および音声が受信されると、受信された画像を表示すると共に、受信された音声を出力するように構成した。
【0031】
したがって、オペレータは、サーバ3が携帯端末1に表示される画像と同じ画像を表示するので、ユーザが見る画像と同じ画像を見ることができ、ユーザの立場で、つまり、ユーザが携帯端末1を操作する状況を想定しながら、ユーザの操作を適切に促すような指示を音声により行うことができる。また、ユーザは、携帯端末1がサーバから受信された画像を表示するのみでなく、携帯端末1がサーバ3から受信された音声をも出力するので、サーバ3から受信された音声、つまり、オペレータが発した音声を聞くことにより、サーバ3から受信された画像を見ると共に、オペレータが発した音声を聞きながら目的地を設定するための操作を行うことができる。これにより、ユーザが携帯端末1を操作する際の操作性を高めることができる。
【0032】
また、サーバ3は、携帯端末1から受信された端末能力を解析することにより、携帯端末1に表示される画像と同じ画像を端末能力に基づいて表示すると共に、オペレータにより発せられた音声を端末能力に基づいて携帯端末1に送信するように構成したので、携帯端末1とサーバ3との間の性能の相違を吸収する(調整を図る)ことにより、携帯端末1とサーバ3との間の性能の相違が原因となって不具合が生じることを未然に回避することができる。
【0033】
さらに、携帯端末1およびサーバ3は、それぞれ表示領域を区画化した状態で画像を表示するように構成したので、ユーザやオペレータは、例えば地図上の任意の地点を指定するような場合に、区画化されたいずれかの表示領域を指定することにより、適切な操作を行うことができる。
【0034】
(第2実施例)
次に、本発明の第2実施例について、図8を参照して説明する。尚、上記した第1実施例と同じ部分については説明を省略し、異なる部分について説明する。上記した第1実施例は、オペレータが配置されていることにより、オペレータが携帯端末1から受信された操作情報や音声に対して対応するように構成されているものであるが、これに対して、この第2実施例は、第1実施例で説明したオペレータが行う処理をサーバが行うことにより、サーバがオペレータに代わって携帯端末1から受信された操作情報や音声に対して対応するように構成されている。
【0035】
すなわち、サーバ21は、上記した第1実施例で説明したサーバ3とは異なって、携帯端末1から受信された操作情報を自動的に認識する操作認識機能や、携帯端末1から受信された音声を自動的に認識する音声認識機能を有しており、携帯端末1から操作情報や音声が受信されると、受信された操作情報を解析することにより、または、受信された音声に対して音声認識を行うことにより、画像および音声を用意して携帯端末1に送信するように構成されている。
【0036】
以上に説明したように第2実施例によれば、サーバ21は、操作認識機能や音声認識機能を有し、携帯端末1から操作情報や音声が受信されると、受信された操作情報を解析することにより、または、受信された音声に対して音声認識を行うことにより、画像を用意して携帯端末1に送信するのみでなく、音声をも用意して携帯端末1に送信するように構成した。
【0037】
したがって、ユーザは、携帯端末1がサーバ21から受信された画像を表示するのみでなく、携帯端末1がサーバ21から受信された音声を出力するので、サーバ21から受信された音声、つまり、サーバ21が用意した音声を聞くことにより、サーバ21から受信された画像を見ると共に、サーバ21が用意した音声を聞きながら目的地を設定するための操作を行うことができる。これにより、上記した第1実施例に記載したものと同様にして、ユーザが携帯端末1を操作する際の操作性を高めることができる。
【0038】
(その他の実施例)
本発明は、上記した実施例にのみ限定されるものではなく、以下のように変形または拡張することができる。
端末は、携帯端末に限らず、携帯電話機や、自動車に搭載される車載端末であっても良い。
オペレータが携帯端末から受信された操作情報や音声に対して対応する期間と、サーバが音声認識機能を働かせることにより、サーバが携帯端末から受信された操作情報や音声に対して対応する期間とが混在し、それらが選択可能な構成であっても良い。
ユーザやオペレータが領域を指定する手順として、例えばタッチペンで操作する(マーキングする)などの他の方法が採用される構成であっても良い。
【図面の簡単な説明】
【図1】本発明の第1実施例の全体構成を概略的に示す図
【図2】携帯端末の電気的な構成を示す機能ブロック図
【図3】サーバの電気的な構成を示す機能ブロック図
【図4】処理の流れを概略的に示す図
【図5】サーバにおける表示の一例を示す図
【図6】携帯端末およびサーバにおける表示の一例を示す図
【図7】図6相当図
【図8】本発明の第2実施例の全体構成を概略的に示す図
【符号の説明】
図面中、1は携帯端末(端末)、3はサーバ、21はサーバである。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention provides a communication system in which a terminal such as a mobile terminal displays an image received from a server, thereby enabling a user to set a destination while viewing an image received from the server. It relates to a communication service method.
[0002]
[Problems to be solved by the invention]
In recent years, the server transmits an image to, for example, a mobile terminal, and the mobile terminal displays an image received from the server, so that the user can perform, for example, setting a destination while viewing the image received from the server. Is being put to practical use.
[0003]
Specifically, when the user performs an operation to start setting a destination on the mobile terminal, the mobile terminal transmits operation information indicating the content of the operation performed by the user to the server. When the operation information is received from the mobile terminal, the server notifies the operator of the fact, and the operator prepares an image (for example, a map) necessary for the user to set the destination. Then, the image prepared by the operator is transmitted to the portable terminal. Then, when the image is received from the server, the mobile terminal displays the received image. Through such a series of processes, the user can receive an image necessary for setting a destination from the server, and thereafter, set a desired destination while viewing the image received from the server. Can be.
[0004]
However, as described above, if the portable terminal only displays the image received from the server, the user must perform operations only by using the displayed image thereafter, which is excellent in operability. Is hard to say.
[0005]
The present invention has been made in view of the above circumstances, and has as its object the purpose of, for example, setting a destination while the user looks at an image received from a server. An object of the present invention is to provide a communication system and a communication service method capable of improving operability.
[0006]
[Means for Solving the Problems]
According to the communication system of the first aspect, when the user operates the terminal or utters a voice, the terminal transmits operation information or a voice indicating the content of the operation to the server. When receiving the operation information and the voice from the terminal, the server transmits the image prepared by the operator to the terminal. At this time, the server not only transmits the image prepared by the operator to the terminal, but also displays the same image as the image displayed on the terminal, and when the operator utters a voice, the server outputs the voice uttered by the operator. Send to Then, when the terminal receives the image and the sound from the server, the terminal displays the received image and outputs the received sound.
[0007]
Therefore, since the server displays the same image as the image displayed on the terminal by the server, the operator can see the same image as the user sees, and assumes the situation where the user operates the terminal from the user's standpoint. Meanwhile, an instruction to appropriately prompt the user's operation can be given by voice. In addition, since the terminal not only displays the image received from the server but also outputs the voice received from the server, the user can listen to the voice received from the server, that is, the voice emitted by the operator. Thereby, while viewing the image received from the server, it is possible to perform, for example, an operation for setting a destination while listening to the voice uttered by the operator. Thereby, the operability when the user operates the terminal can be improved.
[0008]
According to the communication system described in claim 2, the terminal transmits the terminal capability indicating the size of the display area and the communication speed of the terminal to the server, and the server analyzes the terminal capability received from the terminal. In addition, the same image as the image displayed on the terminal is displayed based on the terminal capability, and the voice generated by the operator is transmitted to the terminal based on the terminal capability. Therefore, by absorbing (adjusting) the difference in performance between the terminal and the server, it is possible to prevent a problem from occurring due to the difference in performance between the terminal and the server. .
[0009]
According to the communication system described in
[0010]
According to the communication system described in claim 4, when the user operates the terminal or utters a voice, the terminal transmits operation information or voice indicating the content of the operation to the server. When the server receives operation information and voice from the terminal, the server prepares an image and transmits it to the terminal by analyzing the received operation information or performing voice recognition on the received voice. I do. At this time, the server not only transmits the image to the terminal, but also analyzes the operation information received from the terminal, or performs voice recognition on the voice received from the terminal, thereby generating the voice. Prepare and send to terminal. Then, when the terminal receives the image and the sound from the server, the terminal displays the received image and outputs the received sound.
[0011]
Therefore, since the terminal not only displays the image received from the server, but also outputs the audio received from the server, the user can listen to the audio received from the server, that is, the audio prepared by the server. Thereby, while viewing the image received from the server, it is possible to perform an operation for setting a destination, for example, while listening to the sound prepared by the server. Thus, the operability when the user operates the terminal can be improved in the same manner as in the first aspect.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
(First embodiment)
Hereinafter, a first embodiment in which the terminal of the present invention is applied to a portable terminal will be described with reference to FIGS.
First, FIG. 1 schematically shows an entire configuration of a communication system. The
[0013]
FIG. 2 is a functional block diagram showing the electrical configuration of the
[0014]
The
[0015]
Further, when receiving a reception signal in which voice and data are multiplexed by radio waves, the
[0016]
The
[0017]
FIG. 3 shows an electrical configuration of the
In the configuration described above, the
[0018]
Next, the operation of the above configuration will be described with reference to FIGS. Here, as an example, a case where the user operates the
[0019]
When the
[0020]
When the
[0021]
When the operator confirms the display message displayed on the
[0022]
Next, when the response signal is received from the
[0023]
When the terminal capability is received from the
[0024]
Next, the
[0025]
When the image and the sound are received from the
[0026]
Here, when the user confirms the image displayed on the
[0027]
When the operation information is received from the
[0028]
As described above, the operator can see the same image as the user sees, and the user can see the image received from the server and set the destination while listening to the voice uttered by the operator. Operations can be performed.
[0029]
By the way, the case where the user operates the
[0030]
As described above, according to the first embodiment, when the operation information and the voice are received from the
[0031]
Therefore, since the
[0032]
Further, the
[0033]
Furthermore, since the
[0034]
(Second embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG. The description of the same parts as in the first embodiment is omitted, and different parts will be described. In the above-described first embodiment, the arrangement of the operator enables the operator to respond to the operation information and the voice received from the
[0035]
That is, unlike the
[0036]
As described above, according to the second embodiment, the
[0037]
Therefore, the user does not only display the image received from the
[0038]
(Other Examples)
The present invention is not limited to the above-described embodiment, but can be modified or expanded as follows.
The terminal is not limited to a mobile terminal, and may be a mobile phone or an in-vehicle terminal mounted on an automobile.
The period during which the operator responds to the operation information and voice received from the mobile terminal and the period at which the server responds to the operation information and voice received from the mobile terminal by the server operating the voice recognition function. They may be mixed and have a selectable configuration.
As a procedure for the user or the operator to specify the area, another method such as operating (marking) with a touch pen may be adopted.
[Brief description of the drawings]
FIG. 1 is a diagram schematically showing an entire configuration of a first embodiment of the present invention; FIG. 2 is a functional block diagram showing an electrical configuration of a portable terminal; FIG. 3 is a functional block showing an electrical configuration of a server; FIG. 4 is a diagram schematically showing a processing flow. FIG. 5 is a diagram showing an example of display on a server. FIG. 6 is a diagram showing an example of display on a mobile terminal and a server. FIG. 7 is a diagram corresponding to FIG. FIG. 8 is a diagram schematically showing the entire configuration of a second embodiment of the present invention.
In the drawings, 1 is a mobile terminal (terminal), 3 is a server, and 21 is a server.
Claims (6)
端末から操作情報や音声が受信されたことに応じて、オペレータにより用意された画像を端末に送信するサーバとを備えてなる通信システムであって、
サーバは、端末に表示される画像と同じ画像を表示すると共に、オペレータにより発せられた音声を端末に送信するように構成され、
端末は、サーバから受信された画像を表示すると共に、サーバから受信された音声を出力するように構成されていることを特徴とする通信システム。A terminal that transmits operation information or a voice representing the content of the operation to the server in response to a user operating the terminal or uttering a voice,
A communication system comprising: a server that transmits an image prepared by an operator to the terminal in response to reception of operation information and voice from the terminal,
The server is configured to display the same image as the image displayed on the terminal, and to transmit a voice uttered by the operator to the terminal,
A communication system, wherein the terminal is configured to display an image received from the server and output a sound received from the server.
端末は、自身の表示領域のサイズや通信速度などを表す端末能力をサーバに送信するように構成され、
サーバは、端末から受信された端末能力を解析することにより、端末に表示される画像と同じ画像を端末能力に基づいて表示すると共に、オペレータにより発せられた音声を端末能力に基づいて端末に送信するように構成されていることを特徴とする通信システム。In the communication system according to claim 1,
The terminal is configured to transmit a terminal capability indicating the size of the display area, the communication speed, and the like to the server,
The server analyzes the terminal capability received from the terminal, displays the same image as the image displayed on the terminal based on the terminal capability, and transmits the voice emitted by the operator to the terminal based on the terminal capability. A communication system characterized in that the communication system is configured to:
端末およびサーバは、それぞれ表示領域を区画化した状態で画像を表示するように構成されていることを特徴とする通信システム。In the communication system according to claim 1 or 2,
A communication system wherein the terminal and the server are each configured to display an image in a state where a display area is partitioned.
端末から操作情報や音声が受信されたことに応じて、受信された操作情報を解析することにより、または、受信された音声に対して音声認識を行うことにより、画像を用意して端末に送信するサーバとを備えてなる通信システムであって、
サーバは、端末から受信された操作情報を解析することにより、または、端末から受信された音声に対して音声認識を行うことにより、音声を用意して端末に送信するように構成され、
端末は、サーバから受信された画像を表示すると共に、サーバから受信された音声を出力するように構成されていることを特徴とする通信システム。A terminal that transmits operation information or a voice representing the content of the operation to the server in response to a user operating the terminal or uttering a voice,
Prepare an image and send it to the terminal by analyzing the received operation information or by performing voice recognition on the received voice in response to the reception of the operation information and voice from the terminal. A communication system comprising:
The server is configured to analyze the operation information received from the terminal, or to perform voice recognition on the voice received from the terminal, to prepare voice and transmit it to the terminal,
A communication system wherein the terminal is configured to display an image received from the server and output audio received from the server.
サーバが、端末から操作情報や音声が受信されたことに応じて、オペレータにより用意された画像を端末に送信する通信サービス方法であって、
サーバが、端末に表示される画像と同じ画像を表示すると共に、オペレータにより発せられた音声を端末に送信し、
端末が、サーバから受信された画像を表示すると共に、サーバから受信された音声を出力することを特徴とする通信サービス方法。The terminal transmits operation information or voice representing the content of the operation to the server in response to the user operating the terminal or uttering a voice,
A communication service method in which a server transmits an image prepared by an operator to a terminal in response to operation information and voice received from the terminal,
The server displays the same image as the image displayed on the terminal, transmits the voice uttered by the operator to the terminal,
A communication service method, wherein a terminal displays an image received from a server and outputs a sound received from the server.
サーバが、端末から操作情報や音声が受信されたことに応じて、受信された操作情報を解析することにより、または、受信された音声に対して音声認識を行うことにより、画像を用意して端末に送信する通信サービス方法であって、
サーバが、端末から受信された操作情報を解析することにより、または、端末から受信された音声に対して音声認識を行うことにより、音声を用意して端末に送信し、
端末が、サーバから受信された画像を表示すると共に、サーバから受信された音声を出力することを特徴とする通信サービス方法。The terminal transmits operation information or voice representing the content of the operation to the server in response to the user operating the terminal or uttering a voice,
The server prepares an image by analyzing the received operation information or performing voice recognition on the received voice according to the reception of the operation information or voice from the terminal. A communication service method for transmitting to a terminal,
The server prepares a voice and transmits it to the terminal by analyzing the operation information received from the terminal, or by performing voice recognition on the voice received from the terminal,
A communication service method, wherein a terminal displays an image received from a server and outputs a sound received from the server.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002162994A JP4307792B2 (en) | 2002-06-04 | 2002-06-04 | Communication system and communication service method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002162994A JP4307792B2 (en) | 2002-06-04 | 2002-06-04 | Communication system and communication service method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004015196A true JP2004015196A (en) | 2004-01-15 |
JP4307792B2 JP4307792B2 (en) | 2009-08-05 |
Family
ID=30431584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002162994A Expired - Fee Related JP4307792B2 (en) | 2002-06-04 | 2002-06-04 | Communication system and communication service method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4307792B2 (en) |
-
2002
- 2002-06-04 JP JP2002162994A patent/JP4307792B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP4307792B2 (en) | 2009-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4566443B2 (en) | Wireless communication system | |
CN111641916B (en) | Audio sharing method and electronic equipment | |
CN101641932A (en) | Appratus for providing location information of hand-held device and method thereof | |
JP2010263556A (en) | Telephone directory data memory device having near field communication function | |
JP2009159275A (en) | Radio communication device | |
US8055194B2 (en) | Method for searching for devices for Bluetooth communication in wireless terminal | |
US10140086B2 (en) | Electronic device and audio ouputting method thereof | |
JP2008203973A (en) | Operation input processing method and portable information processor | |
JP2022546542A (en) | Communication method, communication device, communication system, server and computer program | |
WO2017215661A1 (en) | Scenario-based sound effect control method and electronic device | |
CN111083755A (en) | Equipment switching method and related equipment | |
CN115190197B (en) | Bluetooth headset-based communication method and device and storage medium | |
CN111124345A (en) | Audio source processing method and mobile terminal | |
US20050090234A1 (en) | Incoming call notification system and method | |
CN109347980A (en) | Presentation, the method for pushed information, medium, device and calculating equipment | |
KR20070080529A (en) | Apparatus and method for furnishing epg information in digital multimedia broadcasting terminal | |
US20090186579A1 (en) | Wireless headset with character message outputting function and method for outputting character message | |
US20050120309A1 (en) | Method of and apparatus for displaying messages on a mobile terminal | |
US20220053585A1 (en) | Method for pc5 link establishment, device, and system | |
CN109155803B (en) | Audio data processing method, terminal device and storage medium | |
JP4307792B2 (en) | Communication system and communication service method | |
JPH07111680A (en) | Portable radio telephone system | |
CN105764116A (en) | Method of connection between terminals and terminal | |
CN111756893A (en) | Audio output method, electronic device, and medium | |
KR101688791B1 (en) | Apparatus nad method for supporting general editor in mobile terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060418 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061017 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070109 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070205 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070314 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20070406 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090430 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130515 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140515 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |