JPWO2018155052A1 - 情報処理装置、情報処理方法および情報処理システム - Google Patents
情報処理装置、情報処理方法および情報処理システム Download PDFInfo
- Publication number
- JPWO2018155052A1 JPWO2018155052A1 JP2019501133A JP2019501133A JPWO2018155052A1 JP WO2018155052 A1 JPWO2018155052 A1 JP WO2018155052A1 JP 2019501133 A JP2019501133 A JP 2019501133A JP 2019501133 A JP2019501133 A JP 2019501133A JP WO2018155052 A1 JPWO2018155052 A1 JP WO2018155052A1
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- voice
- control unit
- communication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 90
- 238000003672 processing method Methods 0.000 title claims abstract description 5
- 238000000034 method Methods 0.000 claims abstract description 159
- 230000008569 process Effects 0.000 claims abstract description 150
- 238000004891 communication Methods 0.000 claims description 322
- 238000012545 processing Methods 0.000 claims description 138
- 238000004458 analytical method Methods 0.000 claims description 121
- 230000033001 locomotion Effects 0.000 claims description 18
- 230000007613 environmental effect Effects 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 abstract description 37
- 230000006870 function Effects 0.000 description 84
- 230000001133 acceleration Effects 0.000 description 21
- 230000001629 suppression Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 206010011224 Cough Diseases 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000004886 head movement Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/16—Communication-related supplementary services, e.g. call-transfer or call-hold
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
1.概要
2.第1の実施形態
2.1.構成例
2.2.サーバの処理例
2.3.グルーピング処理例
3.第2の実施形態
3.1.音声通信の開始処理
3.2.通話対象の選択処理
3.3.通話対象との音声通信における音声出力処理
4.第3の実施形態
5.第4の実施形態
6.第5の実施形態
7.ハードウェア構成
8.まとめ
図1は、本開示の一実施形態に係る情報処理システムの概要を説明するための図である。図1に示すように、本実施形態に係る情報処理システムで、複数のユーザがクラウドサーバC0を介して音声により通話するためのシステムである。具体的には、図1に示すように、ユーザ1001、1002、1003は、各自の耳に装着した小型端末100A、100B、100C(以降、これらを特に区別しない限り、まとめて小型端末100とも称する)を用いて、クラウドサーバC0を介して音声により通話をすることができる。また、本実施形態に係る情報処理システムでは、耳に装着した小型端末100に対して各種操作を行うことにより、ユーザや、複数のユーザを含むグループ等の通話対象について様々な処理が可能である。
<2.1.構成例>
次に、本開示の第1の実施形態に係る情報処理システム1の詳細な構成について説明する。図3は、本開示の第1の実施形態に係る情報処理システム1の構成を示すブロック図である。各装置間の構成は上述したとおりであるので、以下では、各装置の構成について説明する。
情報解析部411は、携帯端末200から取得したセンサ情報や画像情報を解析する機能を有する。例えば、情報解析部411は、センサ情報の一例である音声情報、ユーザ端末の動きに関する情報、または位置情報を解析し、解析結果を出力してもよい。
コンテキスト解析部412は、ユーザ端末から得られた環境情報から、ユーザ端末を利用するユーザのコンテキストを解析し、当該コンテキストに関する情報を取得する機能を有する。ここで、コンテキストとは、ユーザ端末を利用するユーザの状況(すなわち、コンテキストアウェアネス)を意味する。具体的には、コンテキスト解析部412は、携帯端末200から得られた環境情報(情報解析部411において解析処理された情報を含む)から、携帯端末200を所持するユーザのコンテキストを解析する。そして、コンテキスト解析部412は、コンテキストの解析結果を、コンテキストに関する情報として出力する。なお、コンテキスト解析部412によるコンテキストの解析処理には、公知の技術が用いられ得る。
グルーピング処理部413は、ユーザ端末から取得したユーザ端末に関する環境情報に基づいて、ユーザ端末をグルーピングする機能を有する。具体的には、グルーピング処理部413は、携帯端末200から取得した携帯端末200に関する環境情報に基づいて、携帯端末200を通話対象としてグルーピングする。
通信制御部414は、音声通信に係る処理を制御する機能を有する。具体的には、通信制御部414は、複数の携帯端末200の間における音声通信に係る処理を制御する。
次に、本開示の第1の実施形態に係るサーバ400の処理例について説明する。図4は、本実施形態に係るサーバ400の処理の流れの一例を示すフローチャートである。
次に、グルーピング処理部413によるグルーピング処理の具体例について説明する。
例えば、グルーピング処理は、同様の音を検出することにより行われてもよい。具体的には、グルーピング処理部413は、複数の携帯端末200から取得した音に関する情報の解析結果が類似している(つまり同様の音が検出された)場合に、かかる音に関する情報を送信した携帯端末200を同一のグループにグルーピングしてもよい。
また、例えば、グルーピング処理は、同様の被写体を撮像することにより行われてもよい。具体的には、グルーピング処理部413は、複数の携帯端末200から取得した画像情報の解析結果が類似している(つまり同様の被写体が撮像された)場合に、かかる画像情報を送信した携帯端末200を同一のグループにグルーピングしてもよい。
また、例えば、グルーピング処理は、同様のジェスチャを検出することにより行われてもよい。具体的には、グルーピング処理部413は、複数の携帯端末200から取得した加速度センサ231またはジャイロセンサ232が検出して得られるセンサ情報の解析結果が類似している(つまり同様のジェスチャが検出された)場合に、かかるセンサ情報を送信した携帯端末200を同一のグループにグルーピングしてもよい。
また、例えば、グルーピング処理は、環境情報の履歴に基づいて行われてもよい。具体的には、グルーピング処理部413は、複数の携帯端末200から取得した環境情報の履歴の解析結果が類似している(つまり同様の環境情報の履歴が得られた)場合に、かかる環境情報を送信した携帯端末200を同一のグループにグルーピングしてもよい。
また、例えば、グルーピング処理は、コンテキストに関する情報に基づいて行われてもよい。図7は、本実施形態に係るグルーピング処理部413によるコンテキストに関する情報に基づくグルーピング処理の一例を示す概要図である。図7に示すように、例えば、小型端末100A〜100Cをそれぞれ装着するユーザ1009〜1011(各ユーザは不図示の携帯端末200A〜200Cを所持している)がランニングをしているとする。
また、グルーピング処理部413は、環境情報に基づいて、グルーピング処理により生成されるグループの識別情報を生成してもよい。ここでいう識別情報とは、例えば、グループの名称が挙げられる。
次に、本開示の第2の実施形態について説明する。本実施形態では、上記実施形態に係るグルーピング処理に加え、通信制御部による音声通信に係る処理の例について説明する。ここでいう音声通信とは、一対一のユーザ間において構築される音声通信、および複数のユーザを含むグループ内において構築される音声通信を意味する。かかる音声通信において、複数のユーザは通話をすることができる。
本実施形態に係る通信制御部414は、例えば、音声通信の開始に係る処理を行う。音声通信の開始に係る処理とは、複数のユーザ間における音声通信を有効な状態に切り替える処理をいう。一般的に音声通信は、トラフィックの観点から、複数のユーザのいずれかが通話している際にのみ有効であることが好ましい。そこで、本実施形態に係る通信制御部414は、通話が行われていない場合は音声通信をアイドル状態とし、所定の情報がトリガーとして入力された場合に、かかる音声通信の開始に係る処理を行う。
また、本実施形態に係る通信制御部414は、例えば、音声通信の通話対象の選択に係る処理を行う。音声通信の通話対象の選択に係る処理とは、通話対象である一のユーザ、または複数のユーザを含むグループのいずれかを選択し、自ユーザの携帯端末200と、選択されたユーザまたはグループにおける携帯端末200との間の音声通信を構築する処理をいう。本実施形態に係る通信制御部414は、例えば、音声通信における音声情報、センサ情報等の環境情報、または環境情報から得られるコンテキストに関する情報等に基づいて、通話対象を選択する処理を行う。なお、音声情報に基づく通話対象の選択処理については上述したので、ここでは、環境情報、およびコンテキストに関する情報に基づく通話対象の選択処理について説明する。
例えば、通信制御部414は、小型端末100等から得られるセンサ情報に基づいて、通話対象を選択する処理を制御してもよい。具体的には、まず、情報解析部411が小型端末100等から得られるセンサ情報を解析する。そして、通信制御部414は、環境情報の解析結果に基づいて、通話対象を選択する。
また、例えば、通信制御部414は、コンテキストに関する情報に基づいて、通話対象を選択する処理を制御してもよい。具体的には、まず、コンテキスト解析部412が環境情報等から携帯端末200を使用するユーザのコンテキストを解析し、コンテキストに関する情報を出力する。そして、通信制御部414は、コンテキストに関する情報に基づいて、通話対象を選択する。
また、本実施形態に係る通信制御部414は、例えば、通話対象との音声通信における音声出力処理を行う。通話対象との音声通信における音声出力処理は、例えば、音声通信における通話対象に対する代理発話処理を含む。音声通信における通信対象に対する代理発話処理とは、通話対象に対してユーザの発話が困難である場合に、ユーザに替えて所定の内容を含む音声を通話対象に対して伝達する(すなわち、代理発話)処理をいう。本実施形態に係る通信制御部414は、例えば、センサ情報等の環境情報、環境情報から得られるコンテキスト、または音声通信における音声情報等に基づいて、代理発話処理を行う。
例えば、通信制御部414は、小型端末100等から得られるセンサ情報等の環境情報等に基づいて、代理発話処理を制御してもよい。より具体的には、まず、情報解析部411が小型端末100等から得られるセンサ情報を解析する。そして、通信制御部414は、センサ情報の解析結果に基づいて、代理発話処理を行う。
また、例えば、通信制御部414は、コンテキストに関する情報に基づいて、代理発話処理を制御してもよい。具体的には、まず、コンテキスト解析部412が環境情報等から携帯端末200を使用するユーザのコンテキストを解析し、コンテキストに関する情報を出力する。そして、通信制御部414は、コンテキストに関する情報に基づいて、代理発話処理を行う。
例えば、通信制御部414は、音声通信において入力された音声の解析情報に基づいて、代理発話処理を制御してもよい。より具体的には、まず、情報解析部411が小型端末100等に入力された音声情報を解析する。そして、通信制御部414は、音声情報の解析結果に基づいて、代理発話処理を行う。
次に、本開示の第3の実施形態について説明する。図18は、本開示の第3の実施形態に係る情報処理システム1Aの構成を示すブロック図である。図18に示すサーバ400Aにおいては、第1の実施形態に係るサーバ400とは異なり、制御部410Aがグルーピング処理部413を有しない。すなわち、サーバ400Aは、グルーピング処理部413としての機能を有しない。
次に、本開示の第4の実施形態について説明する。本実施形態では、通信制御部414によるアシスタント機能について説明する。アシスタント機能とは、複数のユーザ間またはグループ内での音声通信における通話において、音声通信の状況の説明、ユーザに対する応答に係る機能である。かかるアシスタント機能により、通話の状況をより正確に把握でき、また、会話内容をより豊かなものとすることができる。
次に、本開示の第5の実施形態について説明する。本実施形態では、通信制御部414による遅延抑制機能について説明する。遅延抑制機能とは、発話元における発話の開始時点と、発話元と発話先との音声通信が構築されるまでの時点との間に生じる遅延を抑制する機能を意味する。かかる遅延抑制機能により、音声通信の構築により生じる遅延を低減させ、通話における発話の遅延を伝送速度に基づく遅延に留めることができる。そうすると、ユーザは、音声通信を開始した時点から発話をしても、ほぼ即時に通話対象に音声が伝達される。これにより、ユーザはフェイストゥフェイスで会話しているかのような体験が可能であり、音声通信における通話をより容易にすることができる。なお、本実施形態に係る遅延抑制機能はサーバ400により実現されるが、他の実施形態では、かかる遅延抑制機能は、小型端末100や携帯端末200により実現されてもよい。
以上、本開示の実施形態を説明した。上記の各種処理は、ソフトウェアと以下に説明するハードウェアとの協働により実現される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
(1)
ユーザ端末から取得した前記ユーザ端末に関する環境情報に基づいて前記ユーザ端末をグルーピングするグルーピング処理部を備える、情報処理装置。
(2)
前記環境情報は前記ユーザ端末が検出して得られる第1センサ情報を含み、
前記グルーピング処理部は、前記第1センサ情報を解析して得られる解析結果に基づいて前記ユーザ端末をグルーピングする、前記(1)に記載の情報処理装置。
(3)
前記第1センサ情報は、音に関する情報、前記ユーザ端末の動きに関する情報および前記ユーザ端末の位置情報の少なくともいずれかを含む、前記(2)に記載の情報処理装置。
(4)
前記環境情報は、前記ユーザ端末が被写体を撮像することにより生成される画像情報を含み、
前記グルーピング処理部は、前記画像情報を解析して得られる解析結果に基づいて前記ユーザ端末をグルーピングする、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記グルーピング処理部は、前記環境情報から得られる、前記ユーザ端末を利用するユーザのコンテキストに関する情報に基づいて、前記ユーザ端末をグルーピングする、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記環境情報は、前記ユーザ端末とは異なるデバイスが検出して得られる第2センサ情報を含む、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記グルーピング処理部は、前記環境情報の履歴に基づいて前記ユーザ端末をグルーピングする、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記グルーピング処理部は、前記環境情報に基づいて、グルーピング処理により生成されるグループの識別情報を生成する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記グルーピング処理部は、前記ユーザ端末を介した音声通信に関するグループについてのグルーピングを行い、
前記音声通信に係る処理を制御する通信制御部をさらに備える、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記通信制御部は、前記ユーザ端末に関する環境情報に基づいて前記音声通信に係る処理を制御する、前記(9)に記載の情報処理装置。
(11)
前記通信制御部は、前記環境情報から得られる、前記ユーザ端末を利用するユーザのコンテキストに関する情報に基づいて前記音声通信に係る処理を制御する、前記(10)に記載の情報処理装置。
(12)
前記通信制御部は、ユーザに付着または装着されるデバイスが検出して得られる第3センサ情報に基づいて前記音声通信に係る処理を制御する、前記(10)または(11)のいずれか1項に記載の情報処理装置。
(13)
前記ユーザに付着または装着されるデバイスは、前記音声通信に用いられる音声入出力デバイスを含む、前記(12)に記載の情報処理装置。
(14)
前記通信制御部は、前記音声通信において入力された音声の解析情報に基づいて前記音声通信に係る処理を制御する、前記(10)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記音声通信に係る処理は、前記音声通信の開始に係る処理を含む、前記(10)〜(14)のいずれか1項に記載の情報処理装置。
(16)
前記音声通信に係る処理は、前記音声通信の通信対象の選択に係る処理を含む、前記(10)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記音声通信に係る処理は、通話対象との前記音声通信における音声出力に係る処理を含む、前記(10)〜(16)のいずれか1項に記載の情報処理装置。
(18)
前記通話対象との前記音声通信における音声出力に係る処理は、前記音声通信における前記通話対象に対する代理発話処理を含む、前記(17)に記載の情報処理装置。
(19)
プロセッサが、
ユーザ端末から前記ユーザ端末に関する環境情報を取得することと、
取得した前記環境情報に基づいて前記ユーザ端末をグルーピングすることと
を含む情報処理方法。
(20)
ユーザ端末であって、前記ユーザ端末に関する環境情報を取得可能なユーザ端末と、
前記ユーザ端末から取得した前記ユーザ端末に関する環境情報に基づいて前記ユーザ端末をグルーピングするグルーピング処理部を備えるサーバと、
を有する情報処理システム。
100 小型端末
110 制御部
120 通信部
130 センサ部
131 近接センサ
132 加速度センサ
133 ジャイロセンサ
134 生体認証センサ
135 地磁気センサ
140 スピーカ
150 マイクロフォン
160 操作部
200 携帯端末
210 制御部
220 通信部
230 センサ部
231 加速度センサ
232 ジャイロセンサ
240 スピーカ
250 マイクロフォン
260 カメラモジュール
270 GNSSモジュール
280 表示操作部
300 通信ネットワーク
400 サーバ
410 制御部
411 情報解析部
412 コンテキスト解析部
413 グルーピング処理部
414 通信制御部
420 通信部
Claims (11)
- ユーザ端末から取得した前記ユーザ端末に関する環境情報に基づいて音声通話処理における代理発話処理を制御する通話制御部を備える、情報処理装置。
- 前記通話制御部は、前記環境情報から得られる、前記ユーザ端末から取得したジェスチャの内容に基づいて前記代理発話処理を制御する、請求項1に記載の情報処理装置。
- 前記通話制御部は、前記環境情報から得られる、前記ユーザ端末から取得した該ユーザ端末の装着状態に基づいて前記代理発話処理を制御する、請求項1に記載の情報処理装置。
- 前記通話制御部は、前記環境情報から得られる、前記ユーザ端末を利用するユーザのコンテキストに関する情報に基づいて前記代理発話処理を制御する、請求項1に記載の情報処理装置。
- 前記環境情報は前記ユーザ端末が検出して得られる第1センサ情報を含み、
前記通話制御部は、前記第1センサ情報を解析して得られる解析結果に基づいて前記代理発話処理を制御する、請求項1に記載の情報処理装置。 - 前記第1センサ情報は、前記ユーザ端末が検出した音に関する情報、前記ユーザ端末の動きに関する情報および前記ユーザ端末の位置情報の少なくともいずれかを含む、請求項5に記載の情報処理装置。
- 前記通話制御部は、前記音声通信において入力された音声の解析情報に基づいて前記代理発話処理を制御する、請求項1に記載の情報処理装置。
- 前記通話制御部は、前記ユーザ端末から取得した前記ユーザ端末に関する環境情報に基づいて通話対象に対して音声情報の送信をするか否かを決定する制御を行う、請求項1に記載の情報処理装置。
- 前記通話対象に対して送信される音声情報は、前記ユーザ端末を利用するユーザのコンテキストに応じた情報である、請求項8に記載の情報処理装置。
- プロセッサが、
ユーザ端末から前記ユーザ端末に関する環境情報を取得することと、
取得した前記環境情報に基づいて音声通話処理における代理発話処理を制御することと、
を含む情報処理方法。 - ユーザ端末であって、前記ユーザ端末に関する環境情報を取得可能なユーザ端末と、
前記ユーザ端末から取得した前記ユーザ端末に関する環境情報に基づいて音声通話処理における代理発話処理を制御する通話制御部を備えるサーバと、
を有する情報処理システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017033964 | 2017-02-24 | ||
JP2017033964 | 2017-02-24 | ||
PCT/JP2018/002130 WO2018155052A1 (ja) | 2017-02-24 | 2018-01-24 | 情報処理装置、情報処理方法および情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018155052A1 true JPWO2018155052A1 (ja) | 2019-12-19 |
JP6786700B2 JP6786700B2 (ja) | 2020-11-18 |
Family
ID=63252686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019501133A Active JP6786700B2 (ja) | 2017-02-24 | 2018-01-24 | 情報処理装置、情報処理方法および情報処理システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11217253B2 (ja) |
EP (1) | EP3576392A4 (ja) |
JP (1) | JP6786700B2 (ja) |
CN (1) | CN110291768B (ja) |
WO (1) | WO2018155052A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113767358A (zh) * | 2019-05-31 | 2021-12-07 | 苹果公司 | 基于环境呈现通信数据 |
WO2024009743A1 (ja) * | 2022-07-08 | 2024-01-11 | パイオニア株式会社 | 情報提供装置、情報提供方法、プログラム及び記録媒体 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3925430B2 (ja) * | 1996-12-27 | 2007-06-06 | 株式会社日立製作所 | 電話装置 |
TW391092B (en) | 1996-12-27 | 2000-05-21 | Hitachi Ltd | Cellular mobile telephone apparatus and method for transmitting a response message to an caller |
JP4442007B2 (ja) * | 2000-03-30 | 2010-03-31 | Kddi株式会社 | 移動端末にグループ通信を提供するシステム |
US7489771B2 (en) * | 2002-11-02 | 2009-02-10 | Verizon Business Global Llc | Systems and methods for implementing call pickup in a SIP environment |
JP2004112820A (ja) | 2003-10-31 | 2004-04-08 | Kyocera Corp | 携帯テレビ電話端末 |
JP4241484B2 (ja) | 2004-04-14 | 2009-03-18 | 日本電気株式会社 | 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置 |
US7292872B2 (en) | 2004-07-22 | 2007-11-06 | Sony Ericsson Mobile Communications Ab | Mobile phone push-to-talk voice activation |
US9137770B2 (en) * | 2005-09-15 | 2015-09-15 | Qualcomm Incorporated | Emergency circuit-mode call support |
US20070121902A1 (en) * | 2005-11-03 | 2007-05-31 | Andrei Stoica | Transfer of live calls |
KR20070071880A (ko) | 2005-12-30 | 2007-07-04 | 브이케이 주식회사 | 이동통신 단말기의 청아용 대언모드 제공 방법 |
JP2009094893A (ja) | 2007-10-10 | 2009-04-30 | Ntt Docomo Inc | 自動発呼システム及び自動発呼方法 |
JP2010034695A (ja) | 2008-07-25 | 2010-02-12 | Toshiba Corp | 音声応答装置及び方法 |
US8385975B2 (en) * | 2009-04-23 | 2013-02-26 | Qualcomm Incorporated | Context-based messaging for wireless communication |
JP4719804B2 (ja) | 2009-09-24 | 2011-07-06 | 富士通東芝モバイルコミュニケーションズ株式会社 | 携帯端末 |
JP5822742B2 (ja) | 2012-01-30 | 2015-11-24 | 株式会社日立製作所 | 配電線監視制御システムおよび配電線監視制御方法 |
US9204263B2 (en) * | 2012-05-23 | 2015-12-01 | Mark A. Lindner | Systems and methods for establishing a group communication based on motion of a mobile device |
CN103095912B (zh) * | 2012-12-24 | 2015-04-29 | 广东欧珀移动通信有限公司 | 一种移动终端自动拨打电话的方法及系统 |
CN103973724A (zh) | 2013-01-25 | 2014-08-06 | 索尼公司 | 社交网络的组网方法和装置 |
CN103973859A (zh) | 2013-01-29 | 2014-08-06 | 腾讯科技(深圳)有限公司 | 一种拨号方法、装置及移动终端 |
CN103248762A (zh) * | 2013-04-16 | 2013-08-14 | 广东欧珀移动通信有限公司 | 一种快捷拨号的方法、装置及手机 |
JP2015154180A (ja) | 2014-02-13 | 2015-08-24 | 富士通株式会社 | 呼出し方法、情報処理装置および呼出しプログラム |
EP3125189A4 (en) * | 2014-03-25 | 2018-01-17 | Sony Corporation | Server, client, control method and memory medium |
CN103929523A (zh) * | 2014-03-26 | 2014-07-16 | 广东明创软件科技有限公司 | 智能处理来电的方法及其移动终端 |
WO2016081809A1 (en) | 2014-11-20 | 2016-05-26 | Superchat, LLC | Multi-network chat system |
CN104935727B (zh) | 2015-04-24 | 2018-08-31 | 广东小天才科技有限公司 | 一种智能穿戴设备接听电话的方法及装置 |
CN105100482A (zh) * | 2015-07-30 | 2015-11-25 | 努比亚技术有限公司 | 一种实现手语识别的移动终端、系统及其通话实现方法 |
CN105306652A (zh) * | 2015-11-13 | 2016-02-03 | 上海斐讯数据通信技术有限公司 | 一种基于智能手机加速度传感器的拨号方法及系统 |
CN106453047A (zh) * | 2016-09-30 | 2017-02-22 | 珠海市魅族科技有限公司 | 快捷回复方法和装置 |
-
2018
- 2018-01-24 EP EP18757017.1A patent/EP3576392A4/en not_active Withdrawn
- 2018-01-24 WO PCT/JP2018/002130 patent/WO2018155052A1/ja unknown
- 2018-01-24 US US16/469,149 patent/US11217253B2/en active Active
- 2018-01-24 CN CN201880011785.9A patent/CN110291768B/zh active Active
- 2018-01-24 JP JP2019501133A patent/JP6786700B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US11217253B2 (en) | 2022-01-04 |
EP3576392A4 (en) | 2019-12-18 |
CN110291768A (zh) | 2019-09-27 |
EP3576392A1 (en) | 2019-12-04 |
CN110291768B (zh) | 2021-11-30 |
WO2018155052A1 (ja) | 2018-08-30 |
JP6786700B2 (ja) | 2020-11-18 |
US20200098373A1 (en) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220038615A1 (en) | Wearable Multimedia Device and Cloud Computing Platform with Application Ecosystem | |
JP6466565B2 (ja) | 発語トリガを常時リッスンするための動的閾値 | |
US8958569B2 (en) | Selective spatial audio communication | |
US10665229B2 (en) | Information processing device, information processing method, and program | |
WO2021232913A1 (zh) | 语音信息处理方法及装置、存储介质和电子设备 | |
US20180124225A1 (en) | Wireless Earpiece with Walkie-Talkie Functionality | |
US10403272B1 (en) | Facilitating participation in a virtual meeting using an intelligent assistant | |
WO2014008843A1 (zh) | 一种声纹特征模型更新方法及终端 | |
JPWO2017130486A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20180054688A1 (en) | Personal Audio Lifestyle Analytics and Behavior Modification Feedback | |
CN112806067B (zh) | 语音切换方法、电子设备及系统 | |
CN105677023B (zh) | 信息呈现方法及装置 | |
CN109257498B (zh) | 一种声音处理方法及移动终端 | |
JPWO2018155116A1 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
CN108648754A (zh) | 语音控制方法及装置 | |
JP6786700B2 (ja) | 情報処理装置、情報処理方法および情報処理システム | |
JP2023093714A (ja) | コンタクト制御プログラム、端末およびコンタクト制御方法 | |
WO2016157993A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JPWO2016158003A1 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
WO2018120241A1 (zh) | 识别通话对象身份的方法和终端设备 | |
JP6701887B2 (ja) | 情報処理システム、情報処理方法およびプログラム | |
EP3288035B1 (en) | Personal audio analytics and behavior modification feedback | |
US11948578B2 (en) | Composing electronic messages based on speech input | |
US20240242721A1 (en) | Composing electronic messages based on speech input | |
US11899911B2 (en) | Message composition interfaces for use with wearable multimedia devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6786700 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |