JP5929698B2 - 通信システムおよびプログラム - Google Patents

通信システムおよびプログラム Download PDF

Info

Publication number
JP5929698B2
JP5929698B2 JP2012229890A JP2012229890A JP5929698B2 JP 5929698 B2 JP5929698 B2 JP 5929698B2 JP 2012229890 A JP2012229890 A JP 2012229890A JP 2012229890 A JP2012229890 A JP 2012229890A JP 5929698 B2 JP5929698 B2 JP 5929698B2
Authority
JP
Japan
Prior art keywords
communication
gesture
user
unit
communication system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012229890A
Other languages
English (en)
Other versions
JP2014082668A (ja
Inventor
佐古 曜一郎
曜一郎 佐古
智也 大沼
智也 大沼
丹下 明
明 丹下
宏平 浅田
宏平 浅田
和之 迫田
和之 迫田
隆俊 中村
隆俊 中村
一弘 渡邊
一弘 渡邊
鎌田 恭則
恭則 鎌田
博幸 花谷
博幸 花谷
有希 甲賀
有希 甲賀
竹原 充
充 竹原
今 孝安
孝安 今
林 和則
和則 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012229890A priority Critical patent/JP5929698B2/ja
Priority to CN201380053169.7A priority patent/CN104718511B/zh
Priority to PCT/JP2013/005034 priority patent/WO2014061185A1/en
Priority to US14/429,193 priority patent/US9952674B2/en
Priority to EP13771218.8A priority patent/EP2909698A1/en
Publication of JP2014082668A publication Critical patent/JP2014082668A/ja
Application granted granted Critical
Publication of JP5929698B2 publication Critical patent/JP5929698B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Description

本開示は、通信システムおよびプログラムに関する。
近年、ノートPC(パーソナルコンピュータ)、スマートフォン、タブレット端末等のモバイル端末装置が普及している。これらのモバイル端末装置は、操作入力用のボタン、スイッチ、タッチパネルディスプレイ等が設けられ、ユーザによる操作入力に応じて各アプリケーションを実行する。
ここで、モバイル端末装置の操作入力方法は、上述したボタンやスイッチ等からの操作入力の他、モバイル端末装置自身を動かすことでアプリケーション実行のトリガとする方法も提案されている。例えば、下記特許文献1では、モバイルデバイスに設けられた加速度計および近接センサ等から供給されるデータを使用して、ユーザの所定の姿勢や、モバイルデバイスを「シェイク」したり「フリップ」したりするジェスチャを識別することが開示されている。そして、特許文献1のモバイルデバイスは、識別したユーザの姿勢やジェスチャを録音ジェスチャとし、録音アプリケーションを実行する。
また、下記特許文献2、3では、無線ハンドセット等の通信装置において、通信装置に設けられた加速度計の出力に応じて、通信装置の動きを検知し、通信装置の状態を制御することが開示されている。具体的には、特許文献2、3では、例えば通信装置の動き(静止ポジションから移動へ推移)が検知された場合に、通信装置をオフフック状態にして、ユーザが「電話」ボタンを押さないで、かかってきた呼と通信できるようにする。また、通信装置の動き(静止ポジションから移動へ推移)が検知された場合に、即時ON状態にして、ユーザが「電話」ボタンを押さないで、直ちにダイヤルトーンがあり、発呼できる状態にしてもよい。このように、特許文献2、3では、無線電話機(無線ハンドセット)の動作態様を検知してオフフック状態や即時ON状態にすることで、有線電話機(有線ハンドセット)と同様に状態の切り替えを行うことができる。
また、下記特許文献4では、画像を比較し、予め登録したキーロック解除用の画像と一致する場合には、キーロックを解除するテレビ電話端末が開示されている。このように、キーロック解除アプリケーションの実行を、ボタンやスイッチから操作入力ではなく、画像比較に基づいて行う技術が提案されている。
特表2012−508530号公報 特開2001−36628号公報 特許第4938100号公報 特開2000−184050号公報
しかしながら、特許文献1〜3に開示されている技術は通信端末(いわゆるガジェット)に設けられた加速度計等の出力に応じて録音動作等を実行するものであって、通信端末を所持しないユーザのジェスチャのみに応じた制御については何ら言及されていない。
また、特許文献4においても、通信端末を所持しないユーザのジェスチャのみに応じた制御については何ら言及されていない。
特に、大量のイメージセンサ、マイク、スピーカ等が広範囲に配され、ユーザの身体拡張を実現する手段として用いる新たなコミュニケーション方法(通信システム)を想定したジェスチャ入力に関する技術は、何ら提案されていない。
そこで、本開示では、ジェスチャに応じて通信制御することが可能な、新規かつ改良された通信システムおよびプログラムを提案する。
本開示によれば、ユーザの通信相手先を指定する通信先指定部と、前記ユーザを撮像した撮像画像に基づいて、ユーザのジェスチャを認識するジェスチャ認識部と、前記ジェスチャ認識部により認識されたジェスチャに応じて、前記通信相手先との通信を制御する制御部と、を備える、通信システムを提案する。
本開示によれば、コンピュータを、ユーザの通信相手先を指定する通信先指定部と、前記ユーザを撮像した撮像画像に基づいて、ユーザのジェスチャを認識する認識部と、前記認識部により認識されたジェスチャに応じて、前記通信相手先との通信を制御する制御部、として機能させるための、プログラムを提案する。
以上説明したように本開示によれば、ジェスチャに応じて通信制御することが可能となる。
本開示の一実施形態による通信システムの概要を説明するための図である。 本実施形態による信号処理装置の主要構成例を示すブロック図である。 第1の実施形態による通信制御の処理を示すフローチャートである。 第1の実施形態による電話通信に関するジェスチャ入力の一例について説明するための図である。 第1の実施形態によるメール通信に関するジェスチャ入力の一例について説明するための図である。 第1の実施形態によるメール通信に関するジェスチャ入力の他の例について説明するための図である。 第2の実施形態によるジェスチャ認識による通信制御の処理を示すフローチャートである。 第3の実施形態によるジェスチャ登録の動作処理を示すフローチャートである。 第3の実施形態によるジェスチャ登録の画面の一例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による通信システムの概要
2.本実施形態による端末装置の主要構成例
3.各実施形態
3−1.第1の実施形態
3−2.第2の実施形態
3−3.第3の実施形態
4.まとめ
<1.本開示の一実施形態による通信システムの概要>
まず、本開示の一実施形態による通信システムの概要について、図1を参照して説明する。図1は、本開示の一実施形態による通信システムの概要を説明するための図である。図1に示すように、本実施形態では、屋外や屋内の床、壁、天井等の至る所に複数のマイクロフォン(以下、マイクと称す)2a〜2dやカメラ3a〜3b等のセンサと、スピーカ4a〜4d等のアクチュエータとが配置されていることを想定する。
マイク2a〜2d(以下、マイク2とも称す)は、ユーザの音声を集音し、信号処理装置1に出力する。カメラ3a〜3b(以下、カメラ3とも称す)は、ユーザを撮影し、撮影画像を信号処理装置1に出力する。スピーカ4a〜4d(以下、スピーカ4とも称す)は、信号処理装置1から出力されるオーディオ信号(相手先ユーザの音声や、発信音、着信音等)を再生する。
なお、図1では、センサおよびアクチュエータの具体例として、マイク2a〜2d、カメラ3a〜3b、スピーカ4a〜4dを示したが、各センサおよびアクチュエータの数は、図1に示す例に限定されない。また、センサおよびアクチュエータの種別は、図1に示す例に限定されない。例えば、センサとして、さらに人感センサが設置されていてもよいし、アクチュエータとしてさらにディスプレイが設置されていてもよい。人感センサは、周囲にユーザが居ることを検知し、検知結果を信号処理装置1に出力する。また、ディスプレイは、信号処理装置1による表示制御に応じて、Web画面やメール画面を表示する。
信号処理装置1は、これらセンサおよびアクチュエータと接続し、上述したようにデータの入出力を行う。また、信号処理装置1は、遠隔地に居る相手ユーザの周囲に同様に配されたセンサおよびアクチュエータと接続する信号処理装置と通信(データの送受信)したり、相手ユーザが所持する携帯電話端末やスマートフォンと通信したりすることができる。
これにより、ユーザが携帯電話端末やスマートフォン、タブレット端末等の通信端末を所持していなくても遠隔地に居る相手ユーザと通信ができる新たなコミュニケーションシステム(通信システム)が実現される。
ここで、ユーザが通信を開始したり相手ユーザを指定したりするための指示は、例えば音声による入力が考え得る。具体的には、信号処理装置1は、マイク2から集音したユーザの音声を解析し、「AAさんと電話したい」といったコマンドを受け付け、AAが居るエリアの信号処理装置と通信し、呼び出しを行う。
しかしながら、音声入力に限らず、ジェスチャ入力も可能となれば、このような通信端末を持ち歩く必要のない新たなコミュニケーションシステムにおいて、さらに利便性が向上する。
そこで、上記事情を一着眼点にして本開示の各実施形態による通信システムを創作するに至った。本開示の各実施形態による通信システムによれば、ジェスチャに応じて通信の開始/終了や、通信種別を制御することができる。
より具体的には、信号処理装置1は、カメラ3によりユーザを撮影した撮影画像に基づいて、ユーザのジェスチャを認識し、認識したジェスチャに応じて通信制御を行う。例えば、図1に示すように、親指と小指を立てて顔の近くに持っていく電話をかける動作のジェスチャG1が認識された場合、信号処理装置1は、電話通信開始の制御を行う。電話通信開始の制御とは、発呼状態(ダイヤルトーンがスピーカ4から鳴る状態、または相手先が既に指定されている場合は相手先への発信音および呼び出し音がスピーカ4から鳴る状態)にしたり、着呼に応じる(電話に出る)状態にしたりする制御である。
また、信号処理装置1は、ジェスチャに応じて、電話通信、インターネット通信、メール通信等のいずれかの通信種別であるかを判断し、電話の場合は発呼状態に制御し、インターネットやメールの場合はディスプレイに所定の画面を表示するよう制御してもよい。このように、ユーザは、ジェスチャにより通信種別を選択することができる。
以下、このような本実施形態による通信システムに含まれる信号処理装置1の主要構成例について図2を参照して説明する。
<2.本実施形態による信号処理装置の主要構成例>
図2は、本実施形態による信号処理装置1の主要構成例を示すブロック図である。図2に示すように、信号処理装置1は、制御部10、アンプ・ADC(アナログ−デジタルコンバータ)部12、DAC(デジタル−アナログコンバータ)・アンプ部14、信号処理部16、ジェスチャDB(データベース)18、および通信I/F(インタフェース)20を有する。なお、また、複数のマイク2、スピーカ4、カメラ3は、図2に示す例では、信号処理装置1と別に構成されているが、信号処理装置1に含まれていてもよい。
(制御部)
制御部10は、信号処理装置1の各構成を制御する機能を有する。具体的には、本実施形態による制御部10は、図2に示すように、音声認識部100、通信先指定部110、ジェスチャ認識部120、および通信制御部130として機能する。
・音声認識部
音声認識部100は、マイク2で集音されたユーザの音声を形態素解析し、通信相手の名称や、電話番号、アドレス等を認識する。また、音声認識部100は認識結果を通信先指定部110に出力する。
・通信先指定部
通信先指定部110は、音声認識部100から出力された認識結果に応じて、ユーザがコンタクトを要求する通信相手先を指定(決定)する機能を有する。具体的には、例えば通信先指定部110は、音声認識された通信相手の名称に紐付けられた電話番号や、音声認識された電話番号等に基づいて、通信相手が所持する携帯電話端末を通信相手先に決定する。また、通信先指定部110は、音声認識された通信相手が現在居る場所の周辺に配されるマイクやスピーカと接続する信号処理装置を通信相手先に決定してもよい。この場合、通信先指定部110は、通信I/F20から管理サーバ(不図示)に問い合わせを行い、通信相手が現在居る場所の周辺に配されるマイクやスピーカと接続する信号処理装置のIPアドレス等を取得してもよい。
以上、通信先指定部110がユーザに任意で指定された対象を通信相手先として決定する場合について説明したが、本実施形態による通信先の決定はこれに限定されず、通信先指定部110は、予め設定されたデフォルトの対象を通信相手先として決定してもよい。
・ジェスチャ認識部
ジェスチャ認識部120は、カメラ3で撮影された撮影画像に基づいて、ユーザのジェスチャを認識する。また、ジェスチャ認識部120は、認識結果を通信制御部130に出力する。ジェスチャ認識部120が認識するジェスチャは、予めジェスチャDB18に登録されていてもよい。例えば、ジェスチャ認識部120は、例えば撮影画像とジェスチャDB18に登録されているジェスチャ画像とを比較し、手の形や動きが一致する場合、ジェスチャとして認識する。
・通信制御部
通信制御部130は、ジェスチャ認識部120により認識されたジェスチャに応じて、通信先指定部110により指定された通信相手先との通信を制御する。具体的には、通信制御部130は、電話通信の開始/終了制御や、通信種別に応じた通信プロトコルでの接続を行うよう制御する。また、通信制御部130は、ジェスチャDB18を参照し、認識されたジェスチャに対応付けられた制御を実行する。
(アンプ・ADC部)
アンプ・ADC部12は、マイク2から出力された音声情報を増幅するアンプと、アンプにより増幅された音声情報を、アナログ電気信号からデジタル電気信号に変換するADCを有する。また、アンプ・ADC部12は、デジタル電気信号に変換した音声情報を信号処理部16に出力する。
(DAC・アンプ部)
DAC・アンプ部14は、信号処理部16から出力された通話相手の音声情報を、デジタル電気信号からアナログ電気信号に変換するDACと、アナログ電気信号に変換された音声情報を増幅するアンプを有する。また、DAC・アンプ部14は、アナログ電気信号に変換し、増幅した音声情報をスピーカ4に出力する。
(信号処理部)
信号処理部16は、制御部10による制御にしたがって、マイク2で集音され、アンプ・ADC部12から出力された音声情報(送話音声)、または通信I/F20により受信した音声情報(受話音声)に対して、所定の信号処理を行う機能を有する。所定の信号処理とは、例えばノイズ除去処理である。
また、信号処理部16は、マイク2で集音され、ノイズ除去処理等を行ったユーザの音声情報を制御部10の音声認識部100に出力する。なお電話通信中においては、信号処理部16は、マイク2で集音され、ノイズ除去処理等を行ったユーザの音声情報を送話音声として通信/F20に直接出力し、通信相手先に送信させてもよい。
(ジェスチャDB)
ジェスチャDB18は、ジェスチャと通信制御とを対応付けたデータを記憶する。具体的には、ジェスチャDB18は、ジェスチャの画像(静止画、動画)と、対応する通信制御内容(通信開始/終了、通信種別)を紐付けて記憶してもよい。
(通信I/F)
通信I/F20は、外部装置とデータを送受信する機能を有する。具体的には、本実施形態による通信I/F20は、信号処理部16から出力された音声情報(送話音声)を、電話通信相手先に送信する。また、通信I/F20は、電話通信相手先から通話相手の音声情報(受話音声)を受信し、信号処理部16に出力する。また、通信I/F20は、制御部10の通信制御部130による制御に応じて、通信開始/終了を制御する。また、通信I/F20は、制御部10の通信制御部130による制御に応じて、所定の通信種別に応じた通信プロトコルで接続する。具体的には、通信I/F20は、通信制御部130による制御に応じて、電話通信、メール通信、またはインターネット通信等の各通信種別に応じた通信プロトコルで所定の回線に接続する。
以上、本実施形態による信号処理装置1の主要構成例について詳細に説明した。続いて、本実施形態の信号処理装置1によるジェスチャに応じた通信制御について、複数の実施形態を用いて具体的に説明する。
<3.各実施形態>
[3−1.第1の実施形態]
図3は、第1の実施形態による通信制御の処理を示すフローチャートである。図3に示すように、まず、ステップS103において、カメラ3は、特定ユーザを撮影し、撮影した撮影画像を信号処理装置1に出力する。
次いで、ステップS106において、信号処理装置1のジェスチャ認識部120は、撮影画像に基づいて、ジェスチャを認識する。ここで認識するジェスチャは、電話通信、メール通信、またはインターネット通信のいずれかを開始するための共通ジェスチャであってもよいし、電話通信、メール通信、またはインターネット通信のいずれかの開始を示す個別ジェスチャであってもよい。また、ジェスチャ認識部120は、継続的にカメラ3から出力される撮影画像に対して、継続的にジェスチャ認識処理を行ってもよい。
次に、ジェスチャを認識できた場合(S106/YES)、ステップS109において、通信制御部130は、電話通信開始か否かを判断する。具体的には、例えばジェスチャ認識部120により認識されたジェスチャが、電話通信開始を示す個別ジェスチャであった場合、通信制御部130は、電話通信開始と判断する。または、認識されたジェスチャが通信開始を示す共通ジェスチャの場合、通信相手先との通信種別を設定する設定モードに移行され、通信制御部130は、例えばマイク2からユーザ音声が集音されたか否かに応じて電話通信開始か否かを判断する。
ここで、電話通信に関するジェスチャ入力の一例について、図4を参照して説明する。図4の状態S1−1に示すように、まず親指および小指のみを立てた手を耳の近くに持っていくジェスチャG1が、カメラ3により撮影され、ジェスチャ認識部120よりジェスチャ認識される。かかるジェスチャが電話通信開始を示す個別ジェスチャであった場合、通信制御部130は、電話通信開始と判断する。また、かかるジェスチャが何らかの通信開始を示す共通ジェスチャであった場合、通信制御部130は、さらにマイク2でユーザの音声(例えば電話番号の発声や通信相手の名称の発声)を集音した場合に電話通信開始と判断してもよい。なお、共通ジェスチャや電話通信開始を示す個別ジェスチャは、様々な態様が考えられ、また、国や文化によってジェスチャが意味するものは異なるので、ジェスチャ認識部120は、ユーザの国籍あるいはユーザが居る国に応じてジェスチャ認識を行ってもよい(ジェスチャ認識の切り替え)。ユーザが居る国とは、例えばユーザが居住している国である。具体的には、A国に居住するB国籍のユーザは、国籍はB国であってもA国のジェスチャに慣れ親しんでいる場合が想定されるので、ジェスチャ認識部120は、ユーザの居住国に応じて異なるジェスチャ認識を行う。
次いで、電話通信開始と判断されると(S109/YES)、ステップS115において、通信制御部130は、電話通信接続を行い、発呼状態(例えばダイヤルトーンをスピーカ4から出力)にして、さらに通信先指定部110において相手先の指定を行う。具体的には、例えばユーザが電話番号や相手先の名称を発した音声をマイク2が集音し、集音した音声情報を音声認識部100が認識し、かかる認識結果に基づいて、通信先指定部110が相手先の指定を行う。また、通信先指定部110は、予め設定されたデフォルトの相手先を指定してもよい。
次に、ステップS118において、通信制御部130は、通信先指定部110は、通信相手先の呼び出しを行う。この際、制御部10は、スピーカ4から呼び出し音を出力してもよい。
次いで、ステップS121において、通信制御部130は、相手先が応答した場合に通話を開始する。これにより例えば図4の状態S1−2に示すように、通信I/F20により受信した相手先の声(受話音声)がスピーカ4から出力され、ユーザが発した声(送話音声)がマイク2から集音されて通信I/F20により相手先に送信される。
続いて、ステップS124において、ジェスチャ認識部120は、通話終了のジェスチャが認識されたか否かを判断する。具体的には、例えば図4の状態S1−3に示すように、通話開始後に(通話中に)、ユーザが親指および小指のみを立てた手を耳の近くから下に降ろすジェスチャG2が、カメラ3により撮影されると、ジェスチャ認識部120は通話終了のジェスチャとして認識する。
そして、通話終了のジェスチャが認識された場合(S124/YES)、ステップS130において、通信制御部130は通話を終了するよう制御する。
また、通話終了のジェスチャが認識されない場合(S124/NO)、ステップS127において、通信制御部130は通話を継続する。
一方、上記S109で電話ではないと判断された場合(S109/NO)、ステップS112において、制御部10はメール通信またはインターネット通信を開始/開始準備する。具体的には、制御部10は、メールフォームをユーザの周囲に配されているディスプレイに表示してメール通信の開始準備をしたり、インターネット通信を開始して通信I/F20を介してネットワーク上から取得したWeb画面を同ディスプレイに表示したりする。
また、メール通信かインターネット通信かの判断については、ジェスチャ認識部120により認識された個別ジェスチャ(メール通信を指示するジェスチャ、インターネット通信を指示するジェスチャ)に応じて判断されてもよい。また、ジェスチャ認識部120により認識されたジェスチャが共通ジェスチャであって、さらにマイク2でユーザの音声が何も集音されなかった場合、制御部20は、メール通信かインターネット通信をユーザに選択させる選択画面をディスプレイに表示してもよい。
ここで、メール通信に関するジェスチャ入力の一例について、図5を参照して説明する。図5の状態S2−1に示すように、ユーザがペンを持つようにして文字を書くジェスチャG3が、カメラ3により撮影されると、ジェスチャ認識部120は、メール通信を指示するジェスチャとして認識する。この場合、信号処理装置1の制御部20は、図5の状態S2−2に示すように、ユーザの周囲に配されたタッチパネルディスプレイ5にメールフォームおよび操作画面を表示するよう制御する。ユーザは、かかるタッチパネルディスプレイ5に表示された操作画面に対してタッチ操作を行い、メールフォームに宛先や本文を入力する。ここで、制御部20は、横書きジェスチャならば英語入力、縦書きジェスチャならば日本語入力といったように、文字を書く方向に応じて異なる言語入力に設定してもよい。
なお、メール通信を指示するジェスチャは、図5に示すジェスチャG3に限定されない。例えば、「メールを送る」という意味の手話によるジェスチャや、操作画面を操作するよう手を挙げるジェスチャ(例えば両手を挙げてキーボードを打つジェスチャ)や、指で空中に四角(メールやキーボードの形)を描くジェスチャであってもよい。また、一方の手で他方の掌に文字を書くジェスチャであってもよい。このように、様々なジェスチャが考えられ、また、国や文化によってジェスチャが意味するものが異なるので、ジェスチャ認識部120は、ユーザの国籍に応じたジェスチャ認識を行ってもよい。
そして、入力終了後、メール送信を行う場合、ユーザは、操作画面に含まれる送信ボタンをタッチして送信指示を行ってもよいし、ジェスチャ入力により送信指示を行ってもよい。例えば図5の状態S2−3に示すように、手を身体の前から前方に払うジェスチャG4がカメラ3により撮影され、ジェスチャ認識部120により送信指示として認識されると、制御部10は、メール送信を実行して処理を終了させる。
以上、メール通信に関するジェスチャ入力の一例について説明した。なお、図5では、ディスプレイの一例として、ユーザの周囲、例えば壁に設置されたタッチパネルディスプレイ5を用いたが、メールフォーム等を表示するディスプレイはこれに限定されない。例えば、ユーザがHMD(ヘッドマウンドディスプレイ)を装着している場合、信号処理装置1の制御部10は、当該HMDにメールフォーム等を表示するよう通信I/F20からWi−Fiや赤外線通信等の近距離無線通信により制御指示を送信する。このようにHMDがディスプレイの一例として用いられる場合について図6を参照して説明する。
図6は、メール通信に関するジェスチャ入力の他の例について説明するための図である。図6に示すHMD7は、例えばシースルー型HMD(メガネ型ディスプレイ)であって、ユーザの眼の前に配されるレンズ部分には、透過率を制御できるディスプレイが設けられている。かかるディスプレイは、通常時は透明の状態に制御されるので、眼鏡のように常に装着していても日常生活に支障は無い。
本実施形態においては、図6の状態S3−1に示すように、ユーザがペンを持つようにして文字を書くジェスチャG3が、カメラ3により撮影されると、ジェスチャ認識部120は、メール通信を指示するジェスチャとして認識する。
この場合、信号処理装置1の制御部20は、図6の状態S3−2に示すように、HMD7にメールフォーム71および操作画面73をAR(拡張現実)表示させるよう、通信I/F20からHMD7に近距離無線通信により制御指示を送信する。ユーザは、HMD7に表示された仮想的な操作画面73の所定のキー部分の位置に指を重ねることで、メールフォーム71に宛先や本文を入力できる。具体的には、例えばHMD7にユーザの視線方向を撮影するカメラが設けられ、かかるカメラによりキー入力を行う指を撮影し、仮想的な操作画面73の各キーの表示位置と指の位置とを比較することで、HMD7は操作入力を受け付けることができる。また、HMD7は、入力データを信号処理装置1に送信する。
そして、入力終了後、メール送信を行う場合、ユーザは、操作画面に含まれる仮想的な送信ボタンを操作して送信指示を行ってもよいし、ジェスチャ入力により送信指示を行ってもよい。例えば図5の状態S3−3に示すように、手を身体の前から前方に払うジェスチャG4がカメラ3により撮影され、ジェスチャ認識部120により送信指示として認識されると、制御部10は、メール送信を実行して処理を終了させる。
なお、上述した図6では、ディスプレイをHMD7で実現する場合について説明したが、HMD7にマイク、スピーカ、カメラ、および図2に示す信号処理装置1の各構成を設け、本実施形態に係るジェスチャによる通信制御をHMD7で実現してもよい。
[3−2.第2の実施形態]
第1の実施形態では、ジェスチャ認識部120は、カメラ3で撮影された撮影画像に基づいてユーザのジェスチャを認識しているが、本実施形態によるジェスチャ認識部120はこれに限定されず、例えば筋電に基づいてユーザのジェスチャを認識してもよい。以下、図7を参照して筋電に基づいてユーザのジェスチャを認識する場合について説明する。
図7は、第2の実施形態によるジェスチャ認識による通信制御の処理を示すフローチャートである。図7では、一例として電話通信の開始・終了を制御する場合の処理を示す。
図7に示すように、まず、ステップS104において、信号処理装置1は、ユーザの筋電を検出する。具体的には、ユーザの皮膚に装着された筋電センサにより検出された検知データを、当該筋電センサから受信する。
次いで、ステップS107において、信号処理装置1のジェスチャ認識部120は、筋電センサにより検出された検知データに基づいて、手(腕)が挙がる動作(ジェスチャ)であるか否かを判断する。
次に、手が挙がる動作であると判断された場合(S107/YES)、ステップS110において、ジェスチャ認識部120は、手が挙がっている時間が、予め設定された時間(例えばt秒)以上であるか否かを判断する。
次いで、手が挙がっている時間がt秒以上である場合(S110/YES)、ジェスチャ認識部120は、電話通信開始を示すジェスチャであると認識し、認識結果を通信制御部130に出力する。通信制御部130は、電話通信を開始するに際して、まず、ステップS111で、電話通信の相手先が予めデフォルト設定されているか否かを判断する。
次に、相手先がデフォルト設定されていない場合(S111/NO)、ステップS116において、通信先指定部110は、ユーザ指示に応じて相手先の指定を行う。具体的には、例えばユーザが電話番号や相手先の名称を発した音声をマイク2が集音し、集音した音声情報を音声認識部100が認識し、かかる認識結果に基づいて、通信先指定部110が相手先の指定を行う。
次いで、音声認識等ができず、相手先の指定ができなかった場合(S116/NO)、ステップS117において、制御部10はエラー通知を行う。エラー通知は、例えばスピーカ4から「相手先を指定してください」といったアナウンスを流すものであってもよい。
続いて、相手先の指定ができた場合(S116/YES)、および相手先がデフォルト設定されている場合(S111/YES)、処理はステップS118に進む。ステップS118において、通信制御部130は、通信先指定部110により指定された相手先(デフォルトまたは任意の相手先)の呼び出しを行う。
そして、ステップS121〜S130において、図3に示す同ステップと同様の処理が行われる。
[3−3.第3の実施形態]
続いて、第3の実施形態として、ジェスチャDB18に任意のジェスチャを登録する場合について説明する。上述した図4〜図6に示す各ジェスチャは、電話開始/終了や、メール通信を指示するためのジェスチャの一例であって、国や文化、時代によって、ジェスチャの形や、そのジェスチャが意味するものは異なる。そこで、本実施形態では、ジェスチャDB18に任意のジェスチャを登録できるようにすることで、国や文化、時代に合わせたジェスチャ入力を可能とする。このようなジェスチャ登録は、パーソナルコンピュータ(PC)、スマートフォン、ノートPC等によって別途行われ、登録データが有線/無線通信を介して信号処理装置1のジェスチャDB18に格納されもよい。また、図1に示すカメラ3と、図5に示すタッチパネルディスプレイ5を用いて、信号処理装置1のジェスチャDB18に直接格納させてもよい。
以下、本実施形態によるジェスチャ登録の動作処理について図8〜図9を参照して説明する。なお、以下に説明する例では、ジェスチャ登録がパーソナルコンピュータ(PC)で別途行われる場合について説明する。
図8は、第3の実施形態によるジェスチャ登録の動作処理を示すフローチャートである。図8に示すように、まず、ステップS143において、PCは、PCの表示部に、ジェスチャ種別メニュー画面を表示する。ジェスチャ種別メニュー画面とは、これから登録するジェスチャ種別として、電話、TV電話、メール、インターネット等のいずれかを選択するためのメニュー画面である。
次いで、ステップS146において、PCは、ユーザによるジェスチャ種別の選択を受け付ける。ユーザは、例えばPCの操作部(マウスやキーボード)を操作して任意のジェスチャ種別を選択する。
次に、ステップS149において、PCは、カメラ(PCに接続されたカメラ)によりユーザのジェスチャ動作を撮影する。
次いで、ステップS152において、PCは、ジェスチャ動作を撮影した撮影画像を解析し、画像認識(ジェスチャ動作を認識)できたか否かを判断する。また、PCは、撮影した撮影画像を表示部に再生表示し、ユーザによりこのジェスチャでOKか否かを判断させてもよい。ユーザは、表示部で再生表示される撮影画像を目視で確認し、OKの場合、PCの表示部に表示される登録ボタンを選択する。
次に、画像認識できた(ユーザによりOKと判断された)場合(S152/YES)、ステップS155において、PCは、ジェスチャの撮影画像と、選択されたジェスチャ種別(制御内容)を対応付けて登録処理を行う。具体的には、例えばPCは、ジェスチャの撮影画像と、選択されたジェスチャ種別(制御内容)を対応付けたデータを、信号処理装置1に送信し、信号処理装置1のジェスチャDB18に格納させてもよい。
そして、ステップS158において、続けてその他のジェスチャを登録する場合(S158/YES)、PCの処理はS143に戻る。
以上、本実施形態によるジェスチャ登録処理について説明した。ここで、ジェスチャ登録の画面の一例を図9に示す。図9に示すように、PCの表示部8にジェスチャ登録画面が表示され、ジェスチャ登録画面は、種別メニュー(電話開始/終了、TV電話開始/終了、メール送信等)、撮影画像の再生表示領域、撮影スタートボタン、および登録ボタンを含む。また、表示部8の上部には、カメラ9が装着されている。これにより、PCは、カメラ9により撮影したジェスチャ動作を、ユーザに選択されたジェスチャ種別と対応つけて登録することができる。
<4.まとめ>
上述したように、本実施形態による通信システムでは、ジェスチャに応じて通信の開始/終了や、通信種別を制御することが可能となる。具体的には、信号処理装置1は、カメラ3によりユーザのジェスチャを撮影した撮影画像に基づいて、ジェスチャを認識し、認識したジェスチャに応じて、電話通信の開始/終了、メール通信の準備(メールフォームの表示)、インターネット通信等を行う。
これによりユーザは、手に何ら通信端末を所持しないで遠隔地の相手と通信することが可能な新たなコミュニケーションシステムにおいて、ジェスチャにより通信開始/終了を指示することができる。また、電話、メール、インターネット等を示す個別ジェスチャにより、通信プロトコル(通信種別)を選択することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザの通信相手先を指定する通信先指定部と、
前記ユーザを撮像した撮像画像に基づいて、ユーザのジェスチャを認識するジェスチャ認識部と、
前記ジェスチャ認識部により認識されたジェスチャに応じて、前記通信相手先との通信を制御する制御部と、
を備える、通信システム。
(2)
前記制御部は、前記認識されたジェスチャに応じて、前記通信相手先との通信を開始するよう制御する、前記(1)に記載の通信システム。
(3)
前記制御部は、前記認識されたジェスチャに応じて、発呼状態にするよう制御する、前記(1)または(2)に記載の通信システム。
(4)
前記制御部は、前記認識されたジェスチャに応じて、前記通信相手先との通信を終了するよう制御する、前記(1)〜(3)のいずれか1項に記載の通信システム。
(5)
前記制御部は、前記認識されたジェスチャに応じて、前記通信相手先との通信種別を決定する、前記(1)〜(4)のいずれか1項に記載の通信システム。
(6)
前記通信種別は、電話通信、インターネット通信、またはメール通信である、前記(5)に記載の通信システム。
(7)
前記制御部は、前記ジェスチャに応じて、前記通信相手先との通信種別を設定する設定モードに移行する、前記(1)〜(6)のいずれか1項に記載の通信システム。
(8)
前記通信システムは、
前記ユーザの周囲に配された撮像部をさらに備え、
前記撮像画像は、前記撮像部により取得される、前記(1)〜(7)に記載の通信システム。
(9)
前記通信システムは、
前記ユーザの周囲に配されたアクチュエータをさらに備え、
前記制御部は、前記通信相手先から取得したデータを、前記アクチュエータから出力するよう制御する、前記(1)〜(8)に記載の通信システム。
(10)
前記通信先指定部は、デフォルトの相手先を通信相手先に指定する、前記(1)〜(9)のいずれか1項に記載の通信システム。
(11)
前記通信先指定部は、前記ユーザに指定された相手先を通信相手先に指定する、前記(1)〜(9)のいずれか1項に記載の通信システム。
(12)
前記通信システムは、
前記ユーザの音声を認識する音声認識部をさらに備え、
前記通信先指定部は、前記音声認識部により認識された通信相手の名称、電話番号、またはアドレスに応じて、前記通信相手先を指定する、前記(11)に記載の通信システム。
(13)
前記ジェスチャ認識部は、ユーザの国籍あるいはユーザが居る国に応じて異なるジェスチャ認識を行う、前記(1)〜(12)に記載の通信システム。
(14)
コンピュータを、
ユーザの通信相手先を指定する通信先指定部と、
前記ユーザを撮像した撮像画像に基づいて、ユーザのジェスチャを認識する認識部と、
前記認識部により認識されたジェスチャに応じて、前記通信相手先との通信を制御する制御部、
として機能させるための、プログラム。
1 信号処理装置
2、2a〜2d マイクロフォン
3、3a〜3b カメラ
4、4a〜4d スピーカ
5 タッチパネルディスプレイ
7 HMD
8 PCの表示部
9 カメラ
10 制御部
100 音声認識部
110 通信先指定部
120 ジェスチャ認識部
130 通信制御部
12 アンプ・ADC部
14 DAC・アンプ部
16 信号処理部
18 ジェスチャDB
20 通信I/F

Claims (10)

  1. ユーザの音声による指示に従って前記ユーザの通信相手先を指定する通信先指定部と、
    前記ユーザを撮像した撮像画像に基づいて、ユーザのジェスチャを認識するジェスチャ認識部と、
    前記ジェスチャ認識部により認識されたジェスチャに応じて、前記通信相手先との通信種別を決定し、さらに前記通信相手先との通信を開始するよう制御する制御部と、
    を備える、通信システム。
  2. 前記制御部は、前記認識されたジェスチャに応じて、発呼状態にするよう制御する、請求項1に記載の通信システム。
  3. 前記制御部は、前記認識されたジェスチャに応じて、前記通信相手先との通信を終了するよう制御する、請求項1に記載の通信システム。
  4. 前記通信種別は、電話通信、インターネット通信、またはメール通信である、請求項記載の通信システム。
  5. 前記制御部は、前記ジェスチャに応じて、前記通信相手先との通信種別を設定する設定モードに移行し、ユーザ音声の有無に応じて通信種別を決定する、請求項1に記載の通信システム。
  6. 前記通信システムは、
    前記ユーザの周囲に配された撮像部をさらに備え、
    前記撮像画像は、前記撮像部により取得される、請求項1〜5のいずれか1項に記載の通信システム。
  7. 前記通信システムは、
    前記ユーザの周囲に配されたアクチュエータをさらに備え、
    前記制御部は、前記通信相手先から取得したデータを、前記アクチュエータから出力するよう制御する、請求項1〜6のいずれか1項に記載の通信システム。
  8. 前記通信システムは、
    前記ユーザの音声を認識する音声認識部をさらに備え、
    前記通信先指定部は、前記音声認識部により認識された通信相手の名称、電話番号、またはアドレスに応じて、前記通信相手先を指定する、請求項1〜7のいずれか1項に記載の通信システム。
  9. 前記ジェスチャ認識部は、ユーザの国籍あるいはユーザが居る国に応じて異なるジェスチャ認識を行う、請求項1〜8のいずれか1項に記載の通信システム。
  10. コンピュータを、
    ユーザの音声による指示に従って前記ユーザの通信相手先を指定する通信先指定部と、
    前記ユーザを撮像した撮像画像に基づいて、ユーザのジェスチャを認識する認識部と、
    前記認識部により認識されたジェスチャに応じて、前記通信相手先との通信種別を決定し、さらに前記通信相手先との通信を開始するよう制御する制御部、
    として機能させるための、プログラム。
JP2012229890A 2012-10-17 2012-10-17 通信システムおよびプログラム Active JP5929698B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012229890A JP5929698B2 (ja) 2012-10-17 2012-10-17 通信システムおよびプログラム
CN201380053169.7A CN104718511B (zh) 2012-10-17 2013-08-26 通信系统、通信方法和程序
PCT/JP2013/005034 WO2014061185A1 (en) 2012-10-17 2013-08-26 Communication system, communication method and program
US14/429,193 US9952674B2 (en) 2012-10-17 2013-08-26 Communication system, communication method and program
EP13771218.8A EP2909698A1 (en) 2012-10-17 2013-08-26 Communication system, communication method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012229890A JP5929698B2 (ja) 2012-10-17 2012-10-17 通信システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2014082668A JP2014082668A (ja) 2014-05-08
JP5929698B2 true JP5929698B2 (ja) 2016-06-08

Family

ID=49293803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012229890A Active JP5929698B2 (ja) 2012-10-17 2012-10-17 通信システムおよびプログラム

Country Status (5)

Country Link
US (1) US9952674B2 (ja)
EP (1) EP2909698A1 (ja)
JP (1) JP5929698B2 (ja)
CN (1) CN104718511B (ja)
WO (1) WO2014061185A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6483556B2 (ja) * 2015-07-15 2019-03-13 株式会社東芝 操作認識装置、操作認識方法及びプログラム
US10423237B2 (en) * 2016-08-15 2019-09-24 Purple Communications, Inc. Gesture-based control and usage of video relay service communications
JP2019185531A (ja) * 2018-04-13 2019-10-24 セイコーエプソン株式会社 透過型頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
WO2021131023A1 (ja) 2019-12-27 2021-07-01 マクセル株式会社 ヘッドマウント型情報出力装置
US11928263B2 (en) * 2020-12-07 2024-03-12 Samsung Electronics Co., Ltd. Electronic device for processing user input and method thereof

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184050A (ja) 1998-12-14 2000-06-30 Kyocera Corp 携帯テレビ電話端末
KR101041515B1 (ko) * 1999-05-19 2011-06-16 디지맥 코포레이션 컴퓨터들을 제어하거나 물리적 및 전자적 객체들로부터 인터넷 리소스들에 링크하기 위한 방법들 및 시스템들
US6549792B1 (en) 1999-06-25 2003-04-15 Agere Systems Inc. Accelerometer influenced communication device
US7200218B1 (en) * 1999-11-09 2007-04-03 Siemens Corporation Method and apparatus for extending PBX features via the public network
JP4380016B2 (ja) * 2000-04-20 2009-12-09 株式会社明電舎 携帯型情報伝送端末装置
JP2002202791A (ja) * 2000-12-28 2002-07-19 Canon Inc 通信装置、制御方法および記憶媒体
EP1408443B1 (en) 2002-10-07 2006-10-18 Sony France S.A. Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition
JP4241484B2 (ja) 2004-04-14 2009-03-18 日本電気株式会社 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置
US20060052109A1 (en) 2004-09-07 2006-03-09 Ashman William C Jr Motion-based user input for a wireless communication device
JP2006093901A (ja) * 2004-09-21 2006-04-06 Saxa Inc ジェスチャ操作可能な電話機
JP2008053937A (ja) * 2006-08-23 2008-03-06 Nec Fielding Ltd 音声認識/応答型携帯電話、携帯電話の操作方法、及び携帯電話の操作プログラム
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US8032472B2 (en) * 2007-04-04 2011-10-04 Tuen Solutions Limited Liability Company Intelligent agent for distributed services for mobile devices
JP2008269174A (ja) * 2007-04-18 2008-11-06 Fujifilm Corp 制御装置、方法およびプログラム
US8321219B2 (en) * 2007-10-05 2012-11-27 Sensory, Inc. Systems and methods of performing speech recognition using gestures
JP4434284B2 (ja) * 2008-02-06 2010-03-17 ソニー株式会社 情報処理装置、表示データ提供方法、およびプログラム
JP2010021924A (ja) * 2008-07-14 2010-01-28 Yamaha Corp 通信装置
KR102339297B1 (ko) 2008-11-10 2021-12-14 구글 엘엘씨 멀티센서 음성 검출
JP2010238145A (ja) * 2009-03-31 2010-10-21 Casio Computer Co Ltd 情報出力装置、遠隔制御方法、及びプログラム
KR101624920B1 (ko) 2009-11-16 2016-05-27 삼성전자주식회사 휴대단말의 통화 연결 방법 및 장치
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
CN101741952A (zh) 2009-12-10 2010-06-16 中国科学技术大学 盲人用移动电话交互系统及其装置
KR101896947B1 (ko) * 2011-02-23 2018-10-31 엘지이노텍 주식회사 제스쳐를 이용한 입력 장치 및 방법
US20110247065A1 (en) 2011-03-14 2011-10-06 Volodymyr Melnyk Simultaneous screen unlock and operation initiation
US20140002376A1 (en) * 2012-06-29 2014-01-02 Immersion Corporation Method and apparatus for providing shortcut touch gestures with haptic feedback

Also Published As

Publication number Publication date
CN104718511A (zh) 2015-06-17
EP2909698A1 (en) 2015-08-26
CN104718511B (zh) 2018-09-21
US9952674B2 (en) 2018-04-24
JP2014082668A (ja) 2014-05-08
US20150248168A1 (en) 2015-09-03
WO2014061185A1 (en) 2014-04-24

Similar Documents

Publication Publication Date Title
KR102102647B1 (ko) 무선 리시버 및 그 제어 방법
KR102269526B1 (ko) 정보 처리 장치 및 제어 방법
CN104038625A (zh) 来电时电话音频的自动路由
JP5929698B2 (ja) 通信システムおよびプログラム
KR20150144668A (ko) 이동 단말기 및 그 제어 방법
CN108184070A (zh) 一种拍摄方法及终端
WO2021190428A1 (zh) 图像拍摄方法和电子设备
US11232186B2 (en) Systems for fingerprint sensor triggered voice interaction in an electronic device
WO2021180176A1 (zh) 信息提示方法、电子设备及存储介质
CN109525712A (zh) 一种信息处理方法、移动终端及车载设备
WO2021104248A1 (zh) 视频通话方法、可穿戴设备及存储介质
WO2019120190A1 (zh) 拨号方法及移动终端
JP2022554129A (ja) 撮影方法及び電子機器
WO2018120487A1 (zh) 一种切换通话模式的方法和终端
JP6587918B2 (ja) 電子機器、電子機器の制御方法、電子機器の制御装置、制御プログラム及び電子機器システム
JP2019118134A (ja) 情報処理装置、通信制御方法およびコンピュータプログラム
JP6591167B2 (ja) 電子機器
JP6496632B2 (ja) 電子機器
CN108966094B (zh) 发声控制方法、装置、电子装置及计算机可读介质
KR20160015592A (ko) 이동 단말기 및 그 제어 방법
JP6933163B2 (ja) 通信装置、通信システム、通信方法およびプログラム
CN112637419A (zh) 行动装置的控制方法与行动装置
JP2020071547A (ja) 電子機器、電子ペン、方法、及びプログラム
CN109525726A (zh) 一种信息提示方法及终端设备
JP2016206960A (ja) 音声映像入出力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R151 Written notification of patent or utility model registration

Ref document number: 5929698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250