JP2015186199A - 通信装置および方法、並びにプログラム - Google Patents
通信装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP2015186199A JP2015186199A JP2014063523A JP2014063523A JP2015186199A JP 2015186199 A JP2015186199 A JP 2015186199A JP 2014063523 A JP2014063523 A JP 2014063523A JP 2014063523 A JP2014063523 A JP 2014063523A JP 2015186199 A JP2015186199 A JP 2015186199A
- Authority
- JP
- Japan
- Prior art keywords
- communication
- unit
- user
- communication device
- partner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006854 communication Effects 0.000 title claims abstract description 920
- 238000004891 communication Methods 0.000 title claims abstract description 862
- 238000000034 method Methods 0.000 title claims description 180
- 238000012545 processing Methods 0.000 claims abstract description 102
- 230000008569 process Effects 0.000 claims description 157
- 238000011156 evaluation Methods 0.000 claims description 77
- 230000004044 response Effects 0.000 claims description 70
- 230000008921 facial expression Effects 0.000 claims description 9
- 230000033001 locomotion Effects 0.000 claims description 6
- 238000012217 deletion Methods 0.000 description 13
- 230000037430 deletion Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000005520 cutting process Methods 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 238000012854 evaluation process Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M7/00—Arrangements for interconnection between switching centres
- H04M7/0024—Services and arrangements where telephone services are combined with data services
- H04M7/0036—Services and arrangements where telephone services are combined with data services where the data service is an information service
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/38—Displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/60—Medium conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2203/00—Aspects of automatic or semi-automatic exchanges
- H04M2203/10—Aspects of automatic or semi-automatic exchanges related to the purpose or context of the telephonic communication
- H04M2203/1016—Telecontrol
- H04M2203/1025—Telecontrol of avatars
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Telephone Function (AREA)
- Information Transfer Between Computers (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
1.第1の実施の形態(コミュニケーションデバイス)
2.第2の実施の形態(非生コミュニケーション)
3.第3の実施の形態(コミュニケーションの切り替え)
<コミュニケーションデバイス>
図1は、本技術を適用したコミュニケーションデバイスの筐体の主な構成例を示す外観図である。
次に、このコミュニケーションデバイス100の使用例を説明する。上述したように、コミュニケーションデバイス100は、ユーザの首からぶら下げた状態で使用することができる。この場合、コミュニケーションデバイス100の正面は、ユーザと対向せず、例えば、図2に示されるように、ユーザと同じ方向を無ことになる。
また、上述したように、コミュニケーションデバイス100は、ディスプレイ101やスピーカ104も筐体正面に設けられている。したがって、例えば、図3に示されるように、同じ場所にいるユーザAと対話相手Bとの会話に、遠隔地に居る通信相手Cを参加させることができる。
もちろん、コミュニケーションデバイス100は、上述した状態(姿勢)以外でも使用することができる。例えば、図4に示されるように、コミュニケーションデバイス100の正面とユーザAとを対面させた状態で使用することもできる。
上述したように、コミュニケーションデバイス100は、他の通信装置と通信を行う。この通信の方法は任意である。図4の例を用いて説明すると、例えば図5Aのように、コミュニケーションデバイス100−1とコミュニケーションデバイス100−2とが無線通信により互いに直接通信を行うようにしてもよい。この無線通信は、例えば、IEEE(Institute of Electrical and Electronic Engineers)802.11無線LAN(Local Area Network)のアドホックモード、IrDA(InfraRed Data Association)のような赤外線等の光通信、またはBluetooth(登録商標)等の所定の規格に準拠する方法であっても良いし、独自の無線通信方式であってもよい。
図6は、コミュニケーションデバイス100の内部の主な構成例を示すブロック図である。
図1においては、コミュニケーションデバイス100には、マイクロホン103やスピーカ104がそれぞれ1つずつ設けられるように説明したが、これらが複数設けられるようにしてもよい。
コミュニケーションデバイス100のディスプレイ101の表示例は任意であり、上述した通信相手画像111や通信相手名112以外の画像をディスプレイ101に表示させることができるようにしてもよい。
コミュニケーションデバイス100に、出力デバイスの1つとして、アクチュエータを設けるようにしてもよい。例えば、筐体を振動させるバイブレータをコミュニケーションデバイス100に設けるようにしてもよいし、図9の例のように、コミュニケーションデバイス100に可動部を設けるようにしてもよい。
<非生コミュニケーション>
コミュニケーションデバイス100は、図10に示されるように、通信相手の通信装置と通信の接続が確立していない状態であっても、仮想的なコミュニケーションを実現することができる。
このようなパーソナルの設定は、任意の装置において行うことができる。設定を行う装置と、登録(保持)する装置とが同一であってもよいし、同一でなくてもよい。例えば、ユーザがコミュニケーションデバイス100を操作してパーソナルを設定し、そのコミュニケーションデバイス100にその設定を登録(保持)するようにしてもよい。また、例えば、ユーザがコミュニケーションデバイス100を操作してパーソナルを設定し、サーバ132のような他の装置にその設定を登録(保持)するようにしてもよい。
以上のような非生コミュニケーションやパーソナルの設定を実現するための機能ブロックの例を図13に示す。図13の例において、CPU151は、機能ブロックとして、パーソナル設定部251、パーソナル学習部252、パーソナル提供部253、パーソナル取得部254、パーソナル削除部255、パーソナル管理部256、非生コミュニケーション部257、および非生情報提供部258を有する。これらの機能ブロックは、ハードウエアにより構成されるようにしてもよいが、ソフトウエアにより構成されるようにしてもよい。その場合、CPU151がプログラムやデータを実行することにより、上述した各機能ブロックが実現する。
ユーザが自身のパーソナルを設定したり更新したりする際、パーソナル設定部251は、パーソナル設定処理を実行する。図14のフローチャートを参照して、このパーソナル設定処理の流れの例を説明する。
自身のパーソナルが他の装置から要求された場合、パーソナル提供部253は、パーソナル提供処理を実行する。図15のフローチャートを参照して、このパーソナル提供処理の流れの例を説明する。
他の装置から他のユーザのパーソナルを取得する場合、パーソナル取得部254は、パーソナル取得処理を実行する。図16のフローチャートを参照して、このパーソナル取得処理の流れの例を説明する。
パーソナル記憶部261に記憶されているパーソナル(既存のパーソナル)を削除する場合、パーソナル削除部255は、パーソナル削除処理を実行する。図17のフローチャートを参照して、このパーソナル削除処理の流れの例を説明する。
非生コミュニケーションを実現する場合、非生コミュニケーション部257は、非生コミュニケーション処理を実行する。図18のフローチャートを参照して、この非生コミュニケーション処理の流れの例を説明する。
非生情報を提供する場合、非生情報提供部258は、非生情報提供処理を実行する。図19のフローチャートを参照して、この非生情報提供処理の流れの例を説明する。
以上のように提供される非生情報を用いて、非生コミュニケーションに用いられたパーソナル(特にプロファイル)を更新する場合、パーソナル学習部252は、学習処理を実行する。図20のフローチャートを参照して、この学習処理の流れの例を説明する。
<コミュニケーションの切り替え>
なお、上述した非生コミュニケーションは、他の通信装置と接続を確立することができるか否かに関わらずに実行することができる。例えば、ユーザは、生コミュニケーション(第2のコミュニケーション)を実行することができるにも関わらず、非生コミュニケーション(第1のコミュニケーション)を優先して実行することもできる。
以上のようなコミュニケーションの切り替えを実現するための機能ブロックの例を図22に示す。図22の例において、CPU151は、機能ブロックとして、パーソナル管理部256、非生コミュニケーション部257、非生情報提供部258、評価判定部351、呼び出し処理部352、接続部353、生コミュニケーション部354、非生情報表示部355、および切断部356を有する。これらの機能ブロックは、ハードウエアにより構成されるようにしてもよいが、ソフトウエアにより構成されるようにしてもよい。その場合、CPU151がプログラムやデータを実行することにより、上述した各機能ブロックが実現する。
例えば、コミュニケーションデバイス100は、非生コミュニケーション開始とともに生コミュニケーションへの切り替えを試みるようにしてもよい。つまり、生コミュニケーションが非生コミュニケーションに優先されることになる。この場合、非生コミュニケーションは、生コミュニケーションが開始されるまでの間つなぎとして行われる。
なお、非生コミュニケーション中に、その非生情報を、非生コミュニケーションの通信相手となるキャラクタに対応する現実の通信相手の通信装置に表示させるようにしてもよい。
非生コミュニケーションの通信相手となるキャラクタに対応する現実の通信相手のコミュニケーションデバイス100は、非生情報表示処理を実行して、このように供給される非生情報の表示を行う。図26のフローチャートを参照してこの非生情報表示処理の流れの例を説明する。
コミュニケーションデバイス100は、非生コミュニケーションの最初からではなく、非生コミュニケーションにおいて、例えば所定のキーワードが出現する等、所定の状態になった場合に、切替処理を行い、呼び出しを行うようにしてもよい。図27のフローチャートを参照してこの場合の切替処理の流れの例を説明する。
図28のフローチャートを参照して、図27のステップS321において実行される評価処理の流れの例を説明する。
呼び出しを受けたコミュニケーションデバイス100は、呼び出し応答処理を行い、呼び出しに対する応答を行う。図29のフローチャートを参照して呼び出し応答処理の流れの例を説明する。
上述したように切替の重要性が高い場合、アラート表示による呼び出しが行われる。アラート表示は、どのようなものであってもよいが、より緊急性を表現するようなものであるのが望ましい。例えば、図30Aに示されるように、検出されたネガティブなキーワードを文字化して表示するようにしてもよい。
なお、非生コミュニケーション中に、ユーザが、現実の通信相手を呼び出すように操作することができるようにしてもよい。
コミュニケーションデバイス100は、切替処理を行うことにより、生コミュニケーションを非生コミュニケーションに切り替えることができる。図32のフローチャートを参照してこの場合の切替処理の流れの例を説明する。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
(1) ユーザの入力を受け付ける入力部により受け付けられた該ユーザ入力に対する仮想的な通信相手による応答を生成し、前記応答を画像または音声を出力する出力部より出力することにより、ユーザと前記仮想的な通信相手とのコミュニケーションである第1のコミュニケーションを実現する第1のコミュニケーション部と、
前記第1のコミュニケーション部により前記第1のコミュニケーションが実現されている間に、他の装置と通信を行う通信部を制御し、前記仮想的な通信相手に関連付けられた現実の通信相手の通信装置に対して前記現実の通信相手を呼び出すための呼び出し処理を行う呼び出し処理部と、
前記通信部を制御して、前記入力部により受け付けられた前記ユーザ入力を、前記呼び出し処理部による前記呼び出し処理に応答した前記現実の通信相手の通信装置に供給し、前記現実の通信相手の通信装置から前記ユーザ入力に対する応答を取得し、前記応答を前記出力部より出力することにより、ユーザと前記現実の通信相手とのコミュニケーションである第2のコミュニケーションを実現する第2のコミュニケーション部と
を備える通信装置。
(2) 前記呼び出し処理部は、前記第1のコミュニケーションの開始とともに、前記呼び出し処理を開始する
(1)に記載の通信装置。
(3) 前記第1のコミュニケーションの内容を評価し、前記呼び出し処理を行うか否かを判定する評価判定部をさらに備え、
前記呼び出し処理部は、前記評価判定部により前記呼び出し処理を行うと判定された場合、前記呼び出し処理を開始する
(1)または(2)に記載の通信装置。
(4) 前記評価判定部は、前記入力部により受け付けられた前記ユーザの音声のトーンを分析し、評価する
(1)乃至(3)のいずれかに記載の通信装置。
(5) 前記評価判定部は、前記音声のトーンが普段の会話の音声のトーンの範囲内であるか否かを評価し、前記音声のトーンが前記範囲外である場合、前記呼び出し処理を行うと判定する
(1)乃至(4)のいずれかに記載の通信装置。
(6) 前記評価判定部は、前記入力部により受け付けられた前記ユーザの音声のキーワードを分析し、評価する
(1)乃至(5)のいずれかに記載の通信装置。
(7) 前記評価判定部は、前記ユーザの音声に、所定のネガティブなキーワードが含まれるか否かを評価し、前記ネガティブなキーワードが含まれる場合、前記呼び出し処理を行うと判定する
(1)乃至(6)のいずれかに記載の通信装置。
(8) 前記評価判定部は、前記入力部により受け付けられた画像を分析し、評価する
(1)乃至(7)のいずれかに記載の通信装置。
(9) 前記評価判定部は、前記画像に前記ユーザの顔が含まれている場合、前記ユーザの表情が普段の範囲内であるか否かを評価し、前記ユーザの表情が前記範囲外であるとき、前記呼び出し処理を行うと判定する
(1)乃至(8)のいずれかに記載の通信装置。
(10) 前記評価判定部は、前記画像に前記ユーザの顔の周辺が含まれている場合、前記周辺の画像が変化したか否かを評価し、前記ユーザの顔周辺の画像が変化したとき、前記呼び出し処理を行うと判定する
(1)乃至(9)のいずれかに記載の通信装置。
(11) 前記評価判定部は、前記入力部により受け付けられた前記通信装置自身の動きを分析し、評価する
(1)乃至(10)のいずれかに記載の通信装置。
(12) 前記評価判定部は、前記通信装置に対して所定の基準以上の振動や圧力が加えられたか否かを評価し、前記基準以上の振動や圧力が加えられた場合、前記呼び出し処理を行うと判定する
(1)乃至(11)のいずれかに記載の通信装置。
(13) 前記第1のコミュニケーション部は、前記第2のコミュニケーションの終了とともに、前記第1のコミュニケーションを開始する
(1)乃至(12)のいずれかに記載の通信装置。
(14) 前記通信部を制御して、前記第1のコミュニケーション部により実現される前記第1のコミュニケーションの内容を示す第1の情報を、前記仮想的な通信相手に関連付けられた現実の通信相手の通信装置に対して供給する第1の情報供給部をさらに備える
(1)乃至(13)のいずれかに記載の通信装置。
(15) 前記第1の情報は、前記第1のコミュニケーションのログ、若しくは前記ログの要約である
(1)乃至(14)のいずれかに記載の通信装置。
(16) 前記第1の情報は、前記第1のコミュニケーションの内容を示す色、濃度、模様、図形、文字、若しくは記号である
(1)乃至(15)のいずれかに記載の通信装置。
(17) 前記仮想的な通信相手の設定情報を記憶する記憶部をさらに備え、
前記第1のコミュニケーション部は、前記記憶部に記憶される前記設定情報を用いて、前記入力部により受け付けられた前記ユーザ入力に対する仮想的な通信相手による応答を生成し、前記第1のコミュニケーションを実現する
(1)乃至(16)のいずれかに記載の通信装置。
(18) 他の装置から前記設定情報を取得する設定情報取得部をさらに備え、
前記記憶部は、前記設定情報取得部により取得された前記設定情報を記憶する
(1)乃至(17)のいずれかに記載の通信装置。
(19) 受け付けられたユーザ入力に対する仮想的な通信相手による応答を生成し、前記応答を出力することにより、ユーザと前記仮想的な通信相手とのコミュニケーションである第1のコミュニケーションを実現し、
前記第1のコミュニケーションが実現されている間に、前記仮想的な通信相手に関連付けられた現実の通信相手の通信装置に対して前記現実の通信相手を呼び出すための呼び出し処理を行い、
受け付けられた前記ユーザ入力を、前記呼び出し処理に応答した前記現実の通信相手の通信装置に供給し、前記現実の通信相手の通信装置から前記ユーザ入力に対する応答を取得し、前記応答を出力することにより、ユーザと前記現実の通信相手とのコミュニケーションである第2のコミュニケーションを実現する
通信方法。
(20) コンピュータを、
ユーザの入力を受け付ける入力部により受け付けられた該ユーザ入力に対する仮想的な通信相手による応答を生成し、前記応答を画像または音声を出力する出力部より出力することにより、ユーザと前記仮想的な通信相手とのコミュニケーションである第1のコミュニケーションを実現する第1のコミュニケーション部と、
前記第1のコミュニケーション部により前記第1のコミュニケーションが実現されている間に、他の装置と通信を行う通信部を制御し、前記仮想的な通信相手に関連付けられた現実の通信相手の通信装置に対して前記現実の通信相手を呼び出すための呼び出し処理を行う呼び出し処理部と、
前記通信部を制御して、前記入力部により受け付けられた前記ユーザ入力を、前記呼び出し処理部による前記呼び出し処理に応答した前記現実の通信相手の通信装置に供給し、前記現実の通信相手の通信装置から前記ユーザ入力に対する応答を取得し、前記応答を前記出力部より出力することにより、ユーザと前記現実の通信相手とのコミュニケーションである第2のコミュニケーションを実現する第2のコミュニケーション部と
して機能させるプログラム。
Claims (20)
- ユーザの入力を受け付ける入力部により受け付けられた該ユーザ入力に対する仮想的な通信相手による応答を生成し、前記応答を画像または音声を出力する出力部より出力することにより、ユーザと前記仮想的な通信相手とのコミュニケーションである第1のコミュニケーションを実現する第1のコミュニケーション部と、
前記第1のコミュニケーション部により前記第1のコミュニケーションが実現されている間に、他の装置と通信を行う通信部を制御し、前記仮想的な通信相手に関連付けられた現実の通信相手の通信装置に対して前記現実の通信相手を呼び出すための呼び出し処理を行う呼び出し処理部と、
前記通信部を制御して、前記入力部により受け付けられた前記ユーザ入力を、前記呼び出し処理部による前記呼び出し処理に応答した前記現実の通信相手の通信装置に供給し、前記現実の通信相手の通信装置から前記ユーザ入力に対する応答を取得し、前記応答を前記出力部より出力することにより、ユーザと前記現実の通信相手とのコミュニケーションである第2のコミュニケーションを実現する第2のコミュニケーション部と
を備える通信装置。 - 前記呼び出し処理部は、前記第1のコミュニケーションの開始とともに、前記呼び出し処理を開始する
請求項1に記載の通信装置。 - 前記第1のコミュニケーションの内容を評価し、前記呼び出し処理を行うか否かを判定する評価判定部をさらに備え、
前記呼び出し処理部は、前記評価判定部により前記呼び出し処理を行うと判定された場合、前記呼び出し処理を開始する
請求項1に記載の通信装置。 - 前記評価判定部は、前記入力部により受け付けられた前記ユーザの音声のトーンを分析し、評価する
請求項3に記載の通信装置。 - 前記評価判定部は、前記音声のトーンが普段の会話の音声のトーンの範囲内であるか否かを評価し、前記音声のトーンが前記範囲外である場合、前記呼び出し処理を行うと判定する
請求項4に記載の通信装置。 - 前記評価判定部は、前記入力部により受け付けられた前記ユーザの音声のキーワードを分析し、評価する
請求項3に記載の通信装置。 - 前記評価判定部は、前記ユーザの音声に、所定のネガティブなキーワードが含まれるか否かを評価し、前記ネガティブなキーワードが含まれる場合、前記呼び出し処理を行うと判定する
請求項6に記載の通信装置。 - 前記評価判定部は、前記入力部により受け付けられた画像を分析し、評価する
請求項3に記載の通信装置。 - 前記評価判定部は、前記画像に前記ユーザの顔が含まれている場合、前記ユーザの表情が普段の範囲内であるか否かを評価し、前記ユーザの表情が前記範囲外であるとき、前記呼び出し処理を行うと判定する
請求項8に記載の通信装置。 - 前記評価判定部は、前記画像に前記ユーザの顔の周辺が含まれている場合、前記周辺の画像が変化したか否かを評価し、前記ユーザの顔周辺の画像が変化したとき、前記呼び出し処理を行うと判定する
請求項8に記載の通信装置。 - 前記評価判定部は、前記入力部により受け付けられた前記通信装置自身の動きを分析し、評価する
請求項3に記載の通信装置。 - 前記評価判定部は、前記通信装置に対して所定の基準以上の振動や圧力が加えられたか否かを評価し、前記基準以上の振動や圧力が加えられた場合、前記呼び出し処理を行うと判定する
請求項11に記載の通信装置。 - 前記第1のコミュニケーション部は、前記第2のコミュニケーションの終了とともに、前記第1のコミュニケーションを開始する
請求項1に記載の通信装置。 - 前記通信部を制御して、前記第1のコミュニケーション部により実現される前記第1のコミュニケーションの内容を示す第1の情報を、前記仮想的な通信相手に関連付けられた現実の通信相手の通信装置に対して供給する第1の情報供給部をさらに備える
請求項1に記載の通信装置。 - 前記第1の情報は、前記第1のコミュニケーションのログ、若しくは前記ログの要約である
請求項14に記載の通信装置。 - 前記第1の情報は、前記第1のコミュニケーションの内容を示す色、濃度、模様、図形、文字、若しくは記号である
請求項14に記載の通信装置。 - 前記仮想的な通信相手の設定情報を記憶する記憶部をさらに備え、
前記第1のコミュニケーション部は、前記記憶部に記憶される前記設定情報を用いて、前記入力部により受け付けられた前記ユーザ入力に対する仮想的な通信相手による応答を生成し、前記第1のコミュニケーションを実現する
請求項1に記載の通信装置。 - 他の装置から前記設定情報を取得する設定情報取得部をさらに備え、
前記記憶部は、前記設定情報取得部により取得された前記設定情報を記憶する
請求項17に記載の通信装置。 - 受け付けられたユーザ入力に対する仮想的な通信相手による応答を生成し、前記応答を出力することにより、ユーザと前記仮想的な通信相手とのコミュニケーションである第1のコミュニケーションを実現し、
前記第1のコミュニケーションが実現されている間に、前記仮想的な通信相手に関連付けられた現実の通信相手の通信装置に対して前記現実の通信相手を呼び出すための呼び出し処理を行い、
受け付けられた前記ユーザ入力を、前記呼び出し処理に応答した前記現実の通信相手の通信装置に供給し、前記現実の通信相手の通信装置から前記ユーザ入力に対する応答を取得し、前記応答を出力することにより、ユーザと前記現実の通信相手とのコミュニケーションである第2のコミュニケーションを実現する
通信方法。 - コンピュータを、
ユーザの入力を受け付ける入力部により受け付けられた該ユーザ入力に対する仮想的な通信相手による応答を生成し、前記応答を画像または音声を出力する出力部より出力することにより、ユーザと前記仮想的な通信相手とのコミュニケーションである第1のコミュニケーションを実現する第1のコミュニケーション部と、
前記第1のコミュニケーション部により前記第1のコミュニケーションが実現されている間に、他の装置と通信を行う通信部を制御し、前記仮想的な通信相手に関連付けられた現実の通信相手の通信装置に対して前記現実の通信相手を呼び出すための呼び出し処理を行う呼び出し処理部と、
前記通信部を制御して、前記入力部により受け付けられた前記ユーザ入力を、前記呼び出し処理部による前記呼び出し処理に応答した前記現実の通信相手の通信装置に供給し、前記現実の通信相手の通信装置から前記ユーザ入力に対する応答を取得し、前記応答を前記出力部より出力することにより、ユーザと前記現実の通信相手とのコミュニケーションである第2のコミュニケーションを実現する第2のコミュニケーション部と
して機能させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014063523A JP6071006B2 (ja) | 2014-03-26 | 2014-03-26 | 通信装置および方法、並びにプログラム |
US14/661,282 US9420111B2 (en) | 2014-03-26 | 2015-03-18 | Communication device, method, and program |
US15/202,377 US20160316054A1 (en) | 2014-03-26 | 2016-07-05 | Communication device, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014063523A JP6071006B2 (ja) | 2014-03-26 | 2014-03-26 | 通信装置および方法、並びにプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015186199A true JP2015186199A (ja) | 2015-10-22 |
JP2015186199A5 JP2015186199A5 (ja) | 2016-03-31 |
JP6071006B2 JP6071006B2 (ja) | 2017-02-01 |
Family
ID=54192107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014063523A Expired - Fee Related JP6071006B2 (ja) | 2014-03-26 | 2014-03-26 | 通信装置および方法、並びにプログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US9420111B2 (ja) |
JP (1) | JP6071006B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109104532B (zh) * | 2018-09-21 | 2020-09-22 | Oppo(重庆)智能科技有限公司 | 来电控制方法及相关装置和存储介质 |
US11134042B2 (en) * | 2019-11-15 | 2021-09-28 | Scott C Harris | Lets meet system for a computer using biosensing |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11122374A (ja) * | 1997-10-09 | 1999-04-30 | Sony Corp | 仮想対話機能付き電話機 |
US20030221183A1 (en) * | 2002-05-24 | 2003-11-27 | Petr Hejl | Virtual friend with special features |
JP2006086902A (ja) * | 2004-09-16 | 2006-03-30 | Fujitsu Ltd | コールセンタ支援システム、コールセンタ支援方法、およびコンピュータプログラム |
US20070036334A1 (en) * | 2005-04-22 | 2007-02-15 | Culbertson Robert F | System and method for intelligent service agent using VoIP |
US20080263458A1 (en) * | 2007-04-20 | 2008-10-23 | Utbk, Inc. | Methods and Systems to Facilitate Real Time Communications in Virtual Reality |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8108005B2 (en) * | 2001-08-28 | 2012-01-31 | Sony Corporation | Method and apparatus for displaying an image of a device based on radio waves |
US20030179306A1 (en) * | 2002-03-20 | 2003-09-25 | Kinpo Electronics, Inc. | Image display remote control device for digital camera or video camera |
US6771746B2 (en) * | 2002-05-16 | 2004-08-03 | Rockwell Electronic Commerce Technologies, Llc | Method and apparatus for agent optimization using speech synthesis and recognition |
US7665024B1 (en) * | 2002-07-22 | 2010-02-16 | Verizon Services Corp. | Methods and apparatus for controlling a user interface based on the emotional state of a user |
US20040126038A1 (en) * | 2002-12-31 | 2004-07-01 | France Telecom Research And Development Llc | Method and system for automated annotation and retrieval of remote digital content |
US7940897B2 (en) * | 2005-06-24 | 2011-05-10 | American Express Travel Related Services Company, Inc. | Word recognition system and method for customer and employee assessment |
KR100750157B1 (ko) * | 2006-01-18 | 2007-08-21 | 삼성전자주식회사 | 화상형성시스템 및 화상형성방법 |
US20080032627A1 (en) * | 2006-08-02 | 2008-02-07 | Cheng Uei Precision Industry Co., Ltd. | Bluetooth wireless communication system for transmitting image data in real time |
KR20080080917A (ko) * | 2007-03-02 | 2008-09-05 | 우민제 | 블루투스 통신 기반의 인터넷폰 장치와 이를 이용한 무선마우스 및 통신 시스템 |
JP2008271124A (ja) | 2007-04-19 | 2008-11-06 | Toyota Motor Corp | ハンズフリー電話装置及びハンズフリー接続方法 |
US8194117B2 (en) * | 2007-08-08 | 2012-06-05 | Qnx Software Systems Limited | Video phone system |
CN101427916B (zh) * | 2008-12-05 | 2012-02-22 | 张锦景 | 电生理数据与病理图像监测的移动网络终端装置及方法 |
US8831203B2 (en) * | 2008-12-23 | 2014-09-09 | Genesys Telecommunications Laboratories, Inc. | System and methods for tracking unresolved customer involvement with a service organization and automatically formulating a dynamic service solution |
US20100246571A1 (en) * | 2009-03-30 | 2010-09-30 | Avaya Inc. | System and method for managing multiple concurrent communication sessions using a graphical call connection metaphor |
TWI554076B (zh) * | 2009-09-04 | 2016-10-11 | 普露諾洛股份有限公司 | 遠距離的電話管理器 |
SG11201508518UA (en) * | 2013-04-22 | 2015-11-27 | Theranos Inc | Methods, devices, and systems for secure transport of materials |
US20150066797A1 (en) * | 2013-09-04 | 2015-03-05 | Christopher Scott Outwater | System and method for enhancing delivery security and preventing fraud |
-
2014
- 2014-03-26 JP JP2014063523A patent/JP6071006B2/ja not_active Expired - Fee Related
-
2015
- 2015-03-18 US US14/661,282 patent/US9420111B2/en active Active
-
2016
- 2016-07-05 US US15/202,377 patent/US20160316054A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11122374A (ja) * | 1997-10-09 | 1999-04-30 | Sony Corp | 仮想対話機能付き電話機 |
US20030221183A1 (en) * | 2002-05-24 | 2003-11-27 | Petr Hejl | Virtual friend with special features |
JP2006086902A (ja) * | 2004-09-16 | 2006-03-30 | Fujitsu Ltd | コールセンタ支援システム、コールセンタ支援方法、およびコンピュータプログラム |
US20070036334A1 (en) * | 2005-04-22 | 2007-02-15 | Culbertson Robert F | System and method for intelligent service agent using VoIP |
US20080263458A1 (en) * | 2007-04-20 | 2008-10-23 | Utbk, Inc. | Methods and Systems to Facilitate Real Time Communications in Virtual Reality |
Also Published As
Publication number | Publication date |
---|---|
US9420111B2 (en) | 2016-08-16 |
JP6071006B2 (ja) | 2017-02-01 |
US20150281443A1 (en) | 2015-10-01 |
US20160316054A1 (en) | 2016-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11722537B2 (en) | Communication sessions between computing devices using dynamically customizable interaction environments | |
KR101674337B1 (ko) | 인스턴트 메시징 방법, 장치, 프로그램 및 기록매체 | |
WO2018113639A1 (zh) | 用户终端之间的互动方法、终端、服务器、系统及存储介质 | |
JP7163908B2 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
KR20180057366A (ko) | 이동 단말기 및 그 제어방법 | |
US20220224735A1 (en) | Information processing apparatus, non-transitory computer readable medium storing program, and method | |
DE112011103728T5 (de) | Selbsttätiger Profilwechsel auf einer mobilen Rechenvorrichtung | |
WO2020063675A1 (zh) | 一种智能音箱及智能音箱使用的方法 | |
CN102981613A (zh) | 终端和终端控制方法 | |
EP3633497A1 (en) | Information processing apparatus, information processing method, and program | |
CN105677023B (zh) | 信息呈现方法及装置 | |
JP2015517268A (ja) | 呼管理方法及びこれを用いた端末装置 | |
WO2020210298A1 (en) | Techniques for participation in a shared setting | |
CN111739517A (zh) | 语音识别方法、装置、计算机设备及介质 | |
JP2018092528A (ja) | チャットシステム、管理装置、端末装置、宛先選択支援方法および宛先選択支援プログラム | |
WO2022127670A1 (zh) | 一种通话方法、相关设备和系统 | |
JP6071006B2 (ja) | 通信装置および方法、並びにプログラム | |
CN110178159A (zh) | 具有集成式投影仪的音频/视频可穿戴式计算机系统 | |
CN111108491A (zh) | 会议系统 | |
CN112423011B (zh) | 消息回复方法、装置、设备及存储介质 | |
WO2023134490A1 (zh) | 数据显示方法、装置、移动终端及存储介质 | |
US20230046894A1 (en) | Network dataset processing method and apparatus, computer device, and storage medium | |
KR20160092820A (ko) | 이동 단말기 및 그 제어방법 | |
CN113573154B (zh) | 多媒体数据播放方法、装置、终端及存储介质 | |
JP2015186199A5 (ja) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160210 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161221 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6071006 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |