JP5929698B2 - 通信システムおよびプログラム - Google Patents
通信システムおよびプログラム Download PDFInfo
- Publication number
- JP5929698B2 JP5929698B2 JP2012229890A JP2012229890A JP5929698B2 JP 5929698 B2 JP5929698 B2 JP 5929698B2 JP 2012229890 A JP2012229890 A JP 2012229890A JP 2012229890 A JP2012229890 A JP 2012229890A JP 5929698 B2 JP5929698 B2 JP 5929698B2
- Authority
- JP
- Japan
- Prior art keywords
- communication
- gesture
- user
- unit
- communication system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/60—Substation equipment, e.g. for use by subscribers including speech amplifiers
- H04M1/6033—Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Description
1.本開示の一実施形態による通信システムの概要
2.本実施形態による端末装置の主要構成例
3.各実施形態
3−1.第1の実施形態
3−2.第2の実施形態
3−3.第3の実施形態
4.まとめ
まず、本開示の一実施形態による通信システムの概要について、図1を参照して説明する。図1は、本開示の一実施形態による通信システムの概要を説明するための図である。図1に示すように、本実施形態では、屋外や屋内の床、壁、天井等の至る所に複数のマイクロフォン(以下、マイクと称す)2a〜2dやカメラ3a〜3b等のセンサと、スピーカ4a〜4d等のアクチュエータとが配置されていることを想定する。
図2は、本実施形態による信号処理装置1の主要構成例を示すブロック図である。図2に示すように、信号処理装置1は、制御部10、アンプ・ADC(アナログ−デジタルコンバータ)部12、DAC(デジタル−アナログコンバータ)・アンプ部14、信号処理部16、ジェスチャDB(データベース)18、および通信I/F(インタフェース)20を有する。なお、また、複数のマイク2、スピーカ4、カメラ3は、図2に示す例では、信号処理装置1と別に構成されているが、信号処理装置1に含まれていてもよい。
制御部10は、信号処理装置1の各構成を制御する機能を有する。具体的には、本実施形態による制御部10は、図2に示すように、音声認識部100、通信先指定部110、ジェスチャ認識部120、および通信制御部130として機能する。
音声認識部100は、マイク2で集音されたユーザの音声を形態素解析し、通信相手の名称や、電話番号、アドレス等を認識する。また、音声認識部100は認識結果を通信先指定部110に出力する。
通信先指定部110は、音声認識部100から出力された認識結果に応じて、ユーザがコンタクトを要求する通信相手先を指定(決定)する機能を有する。具体的には、例えば通信先指定部110は、音声認識された通信相手の名称に紐付けられた電話番号や、音声認識された電話番号等に基づいて、通信相手が所持する携帯電話端末を通信相手先に決定する。また、通信先指定部110は、音声認識された通信相手が現在居る場所の周辺に配されるマイクやスピーカと接続する信号処理装置を通信相手先に決定してもよい。この場合、通信先指定部110は、通信I/F20から管理サーバ(不図示)に問い合わせを行い、通信相手が現在居る場所の周辺に配されるマイクやスピーカと接続する信号処理装置のIPアドレス等を取得してもよい。
ジェスチャ認識部120は、カメラ3で撮影された撮影画像に基づいて、ユーザのジェスチャを認識する。また、ジェスチャ認識部120は、認識結果を通信制御部130に出力する。ジェスチャ認識部120が認識するジェスチャは、予めジェスチャDB18に登録されていてもよい。例えば、ジェスチャ認識部120は、例えば撮影画像とジェスチャDB18に登録されているジェスチャ画像とを比較し、手の形や動きが一致する場合、ジェスチャとして認識する。
通信制御部130は、ジェスチャ認識部120により認識されたジェスチャに応じて、通信先指定部110により指定された通信相手先との通信を制御する。具体的には、通信制御部130は、電話通信の開始/終了制御や、通信種別に応じた通信プロトコルでの接続を行うよう制御する。また、通信制御部130は、ジェスチャDB18を参照し、認識されたジェスチャに対応付けられた制御を実行する。
アンプ・ADC部12は、マイク2から出力された音声情報を増幅するアンプと、アンプにより増幅された音声情報を、アナログ電気信号からデジタル電気信号に変換するADCを有する。また、アンプ・ADC部12は、デジタル電気信号に変換した音声情報を信号処理部16に出力する。
DAC・アンプ部14は、信号処理部16から出力された通話相手の音声情報を、デジタル電気信号からアナログ電気信号に変換するDACと、アナログ電気信号に変換された音声情報を増幅するアンプを有する。また、DAC・アンプ部14は、アナログ電気信号に変換し、増幅した音声情報をスピーカ4に出力する。
信号処理部16は、制御部10による制御にしたがって、マイク2で集音され、アンプ・ADC部12から出力された音声情報(送話音声)、または通信I/F20により受信した音声情報(受話音声)に対して、所定の信号処理を行う機能を有する。所定の信号処理とは、例えばノイズ除去処理である。
ジェスチャDB18は、ジェスチャと通信制御とを対応付けたデータを記憶する。具体的には、ジェスチャDB18は、ジェスチャの画像(静止画、動画)と、対応する通信制御内容(通信開始/終了、通信種別)を紐付けて記憶してもよい。
通信I/F20は、外部装置とデータを送受信する機能を有する。具体的には、本実施形態による通信I/F20は、信号処理部16から出力された音声情報(送話音声)を、電話通信相手先に送信する。また、通信I/F20は、電話通信相手先から通話相手の音声情報(受話音声)を受信し、信号処理部16に出力する。また、通信I/F20は、制御部10の通信制御部130による制御に応じて、通信開始/終了を制御する。また、通信I/F20は、制御部10の通信制御部130による制御に応じて、所定の通信種別に応じた通信プロトコルで接続する。具体的には、通信I/F20は、通信制御部130による制御に応じて、電話通信、メール通信、またはインターネット通信等の各通信種別に応じた通信プロトコルで所定の回線に接続する。
[3−1.第1の実施形態]
図3は、第1の実施形態による通信制御の処理を示すフローチャートである。図3に示すように、まず、ステップS103において、カメラ3は、特定ユーザを撮影し、撮影した撮影画像を信号処理装置1に出力する。
第1の実施形態では、ジェスチャ認識部120は、カメラ3で撮影された撮影画像に基づいてユーザのジェスチャを認識しているが、本実施形態によるジェスチャ認識部120はこれに限定されず、例えば筋電に基づいてユーザのジェスチャを認識してもよい。以下、図7を参照して筋電に基づいてユーザのジェスチャを認識する場合について説明する。
続いて、第3の実施形態として、ジェスチャDB18に任意のジェスチャを登録する場合について説明する。上述した図4〜図6に示す各ジェスチャは、電話開始/終了や、メール通信を指示するためのジェスチャの一例であって、国や文化、時代によって、ジェスチャの形や、そのジェスチャが意味するものは異なる。そこで、本実施形態では、ジェスチャDB18に任意のジェスチャを登録できるようにすることで、国や文化、時代に合わせたジェスチャ入力を可能とする。このようなジェスチャ登録は、パーソナルコンピュータ(PC)、スマートフォン、ノートPC等によって別途行われ、登録データが有線/無線通信を介して信号処理装置1のジェスチャDB18に格納されもよい。また、図1に示すカメラ3と、図5に示すタッチパネルディスプレイ5を用いて、信号処理装置1のジェスチャDB18に直接格納させてもよい。
上述したように、本実施形態による通信システムでは、ジェスチャに応じて通信の開始/終了や、通信種別を制御することが可能となる。具体的には、信号処理装置1は、カメラ3によりユーザのジェスチャを撮影した撮影画像に基づいて、ジェスチャを認識し、認識したジェスチャに応じて、電話通信の開始/終了、メール通信の準備(メールフォームの表示)、インターネット通信等を行う。
(1)
ユーザの通信相手先を指定する通信先指定部と、
前記ユーザを撮像した撮像画像に基づいて、ユーザのジェスチャを認識するジェスチャ認識部と、
前記ジェスチャ認識部により認識されたジェスチャに応じて、前記通信相手先との通信を制御する制御部と、
を備える、通信システム。
(2)
前記制御部は、前記認識されたジェスチャに応じて、前記通信相手先との通信を開始するよう制御する、前記(1)に記載の通信システム。
(3)
前記制御部は、前記認識されたジェスチャに応じて、発呼状態にするよう制御する、前記(1)または(2)に記載の通信システム。
(4)
前記制御部は、前記認識されたジェスチャに応じて、前記通信相手先との通信を終了するよう制御する、前記(1)〜(3)のいずれか1項に記載の通信システム。
(5)
前記制御部は、前記認識されたジェスチャに応じて、前記通信相手先との通信種別を決定する、前記(1)〜(4)のいずれか1項に記載の通信システム。
(6)
前記通信種別は、電話通信、インターネット通信、またはメール通信である、前記(5)に記載の通信システム。
(7)
前記制御部は、前記ジェスチャに応じて、前記通信相手先との通信種別を設定する設定モードに移行する、前記(1)〜(6)のいずれか1項に記載の通信システム。
(8)
前記通信システムは、
前記ユーザの周囲に配された撮像部をさらに備え、
前記撮像画像は、前記撮像部により取得される、前記(1)〜(7)に記載の通信システム。
(9)
前記通信システムは、
前記ユーザの周囲に配されたアクチュエータをさらに備え、
前記制御部は、前記通信相手先から取得したデータを、前記アクチュエータから出力するよう制御する、前記(1)〜(8)に記載の通信システム。
(10)
前記通信先指定部は、デフォルトの相手先を通信相手先に指定する、前記(1)〜(9)のいずれか1項に記載の通信システム。
(11)
前記通信先指定部は、前記ユーザに指定された相手先を通信相手先に指定する、前記(1)〜(9)のいずれか1項に記載の通信システム。
(12)
前記通信システムは、
前記ユーザの音声を認識する音声認識部をさらに備え、
前記通信先指定部は、前記音声認識部により認識された通信相手の名称、電話番号、またはアドレスに応じて、前記通信相手先を指定する、前記(11)に記載の通信システム。
(13)
前記ジェスチャ認識部は、ユーザの国籍あるいはユーザが居る国に応じて異なるジェスチャ認識を行う、前記(1)〜(12)に記載の通信システム。
(14)
コンピュータを、
ユーザの通信相手先を指定する通信先指定部と、
前記ユーザを撮像した撮像画像に基づいて、ユーザのジェスチャを認識する認識部と、
前記認識部により認識されたジェスチャに応じて、前記通信相手先との通信を制御する制御部、
として機能させるための、プログラム。
2、2a〜2d マイクロフォン
3、3a〜3b カメラ
4、4a〜4d スピーカ
5 タッチパネルディスプレイ
7 HMD
8 PCの表示部
9 カメラ
10 制御部
100 音声認識部
110 通信先指定部
120 ジェスチャ認識部
130 通信制御部
12 アンプ・ADC部
14 DAC・アンプ部
16 信号処理部
18 ジェスチャDB
20 通信I/F
Claims (10)
- ユーザの音声による指示に従って前記ユーザの通信相手先を指定する通信先指定部と、
前記ユーザを撮像した撮像画像に基づいて、ユーザのジェスチャを認識するジェスチャ認識部と、
前記ジェスチャ認識部により認識されたジェスチャに応じて、前記通信相手先との通信種別を決定し、さらに前記通信相手先との通信を開始するよう制御する制御部と、
を備える、通信システム。 - 前記制御部は、前記認識されたジェスチャに応じて、発呼状態にするよう制御する、請求項1に記載の通信システム。
- 前記制御部は、前記認識されたジェスチャに応じて、前記通信相手先との通信を終了するよう制御する、請求項1に記載の通信システム。
- 前記通信種別は、電話通信、インターネット通信、またはメール通信である、請求項1記載の通信システム。
- 前記制御部は、前記ジェスチャに応じて、前記通信相手先との通信種別を設定する設定モードに移行し、ユーザ音声の有無に応じて通信種別を決定する、請求項1に記載の通信システム。
- 前記通信システムは、
前記ユーザの周囲に配された撮像部をさらに備え、
前記撮像画像は、前記撮像部により取得される、請求項1〜5のいずれか1項に記載の通信システム。 - 前記通信システムは、
前記ユーザの周囲に配されたアクチュエータをさらに備え、
前記制御部は、前記通信相手先から取得したデータを、前記アクチュエータから出力するよう制御する、請求項1〜6のいずれか1項に記載の通信システム。 - 前記通信システムは、
前記ユーザの音声を認識する音声認識部をさらに備え、
前記通信先指定部は、前記音声認識部により認識された通信相手の名称、電話番号、またはアドレスに応じて、前記通信相手先を指定する、請求項1〜7のいずれか1項に記載の通信システム。 - 前記ジェスチャ認識部は、ユーザの国籍あるいはユーザが居る国に応じて異なるジェスチャ認識を行う、請求項1〜8のいずれか1項に記載の通信システム。
- コンピュータを、
ユーザの音声による指示に従って前記ユーザの通信相手先を指定する通信先指定部と、
前記ユーザを撮像した撮像画像に基づいて、ユーザのジェスチャを認識する認識部と、
前記認識部により認識されたジェスチャに応じて、前記通信相手先との通信種別を決定し、さらに前記通信相手先との通信を開始するよう制御する制御部、
として機能させるための、プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012229890A JP5929698B2 (ja) | 2012-10-17 | 2012-10-17 | 通信システムおよびプログラム |
CN201380053169.7A CN104718511B (zh) | 2012-10-17 | 2013-08-26 | 通信系统、通信方法和程序 |
PCT/JP2013/005034 WO2014061185A1 (en) | 2012-10-17 | 2013-08-26 | Communication system, communication method and program |
US14/429,193 US9952674B2 (en) | 2012-10-17 | 2013-08-26 | Communication system, communication method and program |
EP13771218.8A EP2909698A1 (en) | 2012-10-17 | 2013-08-26 | Communication system, communication method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012229890A JP5929698B2 (ja) | 2012-10-17 | 2012-10-17 | 通信システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014082668A JP2014082668A (ja) | 2014-05-08 |
JP5929698B2 true JP5929698B2 (ja) | 2016-06-08 |
Family
ID=49293803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012229890A Active JP5929698B2 (ja) | 2012-10-17 | 2012-10-17 | 通信システムおよびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9952674B2 (ja) |
EP (1) | EP2909698A1 (ja) |
JP (1) | JP5929698B2 (ja) |
CN (1) | CN104718511B (ja) |
WO (1) | WO2014061185A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6483556B2 (ja) * | 2015-07-15 | 2019-03-13 | 株式会社東芝 | 操作認識装置、操作認識方法及びプログラム |
US10423237B2 (en) * | 2016-08-15 | 2019-09-24 | Purple Communications, Inc. | Gesture-based control and usage of video relay service communications |
JP2019185531A (ja) * | 2018-04-13 | 2019-10-24 | セイコーエプソン株式会社 | 透過型頭部装着型表示装置、表示制御方法、およびコンピュータープログラム |
WO2021131023A1 (ja) | 2019-12-27 | 2021-07-01 | マクセル株式会社 | ヘッドマウント型情報出力装置 |
US11928263B2 (en) * | 2020-12-07 | 2024-03-12 | Samsung Electronics Co., Ltd. | Electronic device for processing user input and method thereof |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000184050A (ja) | 1998-12-14 | 2000-06-30 | Kyocera Corp | 携帯テレビ電話端末 |
KR101041515B1 (ko) * | 1999-05-19 | 2011-06-16 | 디지맥 코포레이션 | 컴퓨터들을 제어하거나 물리적 및 전자적 객체들로부터 인터넷 리소스들에 링크하기 위한 방법들 및 시스템들 |
US6549792B1 (en) | 1999-06-25 | 2003-04-15 | Agere Systems Inc. | Accelerometer influenced communication device |
US7200218B1 (en) * | 1999-11-09 | 2007-04-03 | Siemens Corporation | Method and apparatus for extending PBX features via the public network |
JP4380016B2 (ja) * | 2000-04-20 | 2009-12-09 | 株式会社明電舎 | 携帯型情報伝送端末装置 |
JP2002202791A (ja) * | 2000-12-28 | 2002-07-19 | Canon Inc | 通信装置、制御方法および記憶媒体 |
EP1408443B1 (en) | 2002-10-07 | 2006-10-18 | Sony France S.A. | Method and apparatus for analysing gestures produced by a human, e.g. for commanding apparatus by gesture recognition |
JP4241484B2 (ja) | 2004-04-14 | 2009-03-18 | 日本電気株式会社 | 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置 |
US20060052109A1 (en) | 2004-09-07 | 2006-03-09 | Ashman William C Jr | Motion-based user input for a wireless communication device |
JP2006093901A (ja) * | 2004-09-21 | 2006-04-06 | Saxa Inc | ジェスチャ操作可能な電話機 |
JP2008053937A (ja) * | 2006-08-23 | 2008-03-06 | Nec Fielding Ltd | 音声認識/応答型携帯電話、携帯電話の操作方法、及び携帯電話の操作プログラム |
US8462109B2 (en) * | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US8032472B2 (en) * | 2007-04-04 | 2011-10-04 | Tuen Solutions Limited Liability Company | Intelligent agent for distributed services for mobile devices |
JP2008269174A (ja) * | 2007-04-18 | 2008-11-06 | Fujifilm Corp | 制御装置、方法およびプログラム |
US8321219B2 (en) * | 2007-10-05 | 2012-11-27 | Sensory, Inc. | Systems and methods of performing speech recognition using gestures |
JP4434284B2 (ja) * | 2008-02-06 | 2010-03-17 | ソニー株式会社 | 情報処理装置、表示データ提供方法、およびプログラム |
JP2010021924A (ja) * | 2008-07-14 | 2010-01-28 | Yamaha Corp | 通信装置 |
KR102339297B1 (ko) | 2008-11-10 | 2021-12-14 | 구글 엘엘씨 | 멀티센서 음성 검출 |
JP2010238145A (ja) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | 情報出力装置、遠隔制御方法、及びプログラム |
KR101624920B1 (ko) | 2009-11-16 | 2016-05-27 | 삼성전자주식회사 | 휴대단말의 통화 연결 방법 및 장치 |
US8843857B2 (en) * | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
CN101741952A (zh) | 2009-12-10 | 2010-06-16 | 中国科学技术大学 | 盲人用移动电话交互系统及其装置 |
KR101896947B1 (ko) * | 2011-02-23 | 2018-10-31 | 엘지이노텍 주식회사 | 제스쳐를 이용한 입력 장치 및 방법 |
US20110247065A1 (en) | 2011-03-14 | 2011-10-06 | Volodymyr Melnyk | Simultaneous screen unlock and operation initiation |
US20140002376A1 (en) * | 2012-06-29 | 2014-01-02 | Immersion Corporation | Method and apparatus for providing shortcut touch gestures with haptic feedback |
-
2012
- 2012-10-17 JP JP2012229890A patent/JP5929698B2/ja active Active
-
2013
- 2013-08-26 US US14/429,193 patent/US9952674B2/en active Active
- 2013-08-26 EP EP13771218.8A patent/EP2909698A1/en not_active Ceased
- 2013-08-26 CN CN201380053169.7A patent/CN104718511B/zh active Active
- 2013-08-26 WO PCT/JP2013/005034 patent/WO2014061185A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN104718511A (zh) | 2015-06-17 |
EP2909698A1 (en) | 2015-08-26 |
CN104718511B (zh) | 2018-09-21 |
US9952674B2 (en) | 2018-04-24 |
JP2014082668A (ja) | 2014-05-08 |
US20150248168A1 (en) | 2015-09-03 |
WO2014061185A1 (en) | 2014-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102102647B1 (ko) | 무선 리시버 및 그 제어 방법 | |
KR102269526B1 (ko) | 정보 처리 장치 및 제어 방법 | |
CN104038625A (zh) | 来电时电话音频的自动路由 | |
JP5929698B2 (ja) | 通信システムおよびプログラム | |
KR20150144668A (ko) | 이동 단말기 및 그 제어 방법 | |
CN108184070A (zh) | 一种拍摄方法及终端 | |
WO2021190428A1 (zh) | 图像拍摄方法和电子设备 | |
US11232186B2 (en) | Systems for fingerprint sensor triggered voice interaction in an electronic device | |
WO2021180176A1 (zh) | 信息提示方法、电子设备及存储介质 | |
CN109525712A (zh) | 一种信息处理方法、移动终端及车载设备 | |
WO2021104248A1 (zh) | 视频通话方法、可穿戴设备及存储介质 | |
WO2019120190A1 (zh) | 拨号方法及移动终端 | |
JP2022554129A (ja) | 撮影方法及び電子機器 | |
WO2018120487A1 (zh) | 一种切换通话模式的方法和终端 | |
JP6587918B2 (ja) | 電子機器、電子機器の制御方法、電子機器の制御装置、制御プログラム及び電子機器システム | |
JP2019118134A (ja) | 情報処理装置、通信制御方法およびコンピュータプログラム | |
JP6591167B2 (ja) | 電子機器 | |
JP6496632B2 (ja) | 電子機器 | |
CN108966094B (zh) | 发声控制方法、装置、电子装置及计算机可读介质 | |
KR20160015592A (ko) | 이동 단말기 및 그 제어 방법 | |
JP6933163B2 (ja) | 通信装置、通信システム、通信方法およびプログラム | |
CN112637419A (zh) | 行动装置的控制方法与行动装置 | |
JP2020071547A (ja) | 電子機器、電子ペン、方法、及びプログラム | |
CN109525726A (zh) | 一种信息提示方法及终端设备 | |
JP2016206960A (ja) | 音声映像入出力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160418 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5929698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |