JP6016134B2 - 音声入力装置、音声入力方法及びプログラム - Google Patents
音声入力装置、音声入力方法及びプログラム Download PDFInfo
- Publication number
- JP6016134B2 JP6016134B2 JP2014501834A JP2014501834A JP6016134B2 JP 6016134 B2 JP6016134 B2 JP 6016134B2 JP 2014501834 A JP2014501834 A JP 2014501834A JP 2014501834 A JP2014501834 A JP 2014501834A JP 6016134 B2 JP6016134 B2 JP 6016134B2
- Authority
- JP
- Japan
- Prior art keywords
- posture
- user
- voice
- input
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000001514 detection method Methods 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 9
- 230000036544 posture Effects 0.000 description 74
- 230000007246 mechanism Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 12
- 238000012905 input function Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/083—Recognition networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
Description
ディクテーションによって文章を入力するとき、その文章の構造に応じたコマンドの入力を必要とすることがある。たとえば、改行などのコマンド入力、あるいは、文字の削除や任意位置へのカーソル移動、文字の挿入などのコマンド入力である。これらのコマンド入力を音声で行うことも可能(特許文献4、特許文献5)であるが、たとえば、“かいぎょう”と発声しても、それが文字入力なのかコマンド入力なのかを区別できない。この区別を行うために、一定の時間発声がないと、コマンド入力モードに切り換えるという技術(特許文献6)もあるが、発声のタイミングを意識する必要があり、使い勝手に難がある。また、特定のキーやボタンを押しながら発声した場合に、その発声をコマンド入力と解釈するという手法も考えられるが、この手法は、キーやボタンの操作を必要とし、操作性の悪化を招くので好ましくない。したがって、使い勝手や操作性の悪化を招くことなく、ディクテーション中の文字入力とコマンド入力を正しく区別することが求められる。
たとえば、職場などでディクテーションを行う場合、しばしば近くの人物から話しかけられることがある。このような場合、システムは近くの人物の発声をディクテーションと誤認し、不本意な文字入力が行われてしまう。このような不本意な文字入力が行われたときには、遡って文字の訂正処理(特許文献2、特許文献3)を実行しなければならないが、その間、ディクテーションを中断しなければならず、文章思考の連続性を保てない。この原因は、そもそも不本意な文字入力が行われるからである。したがって、ディクテーション中の不本意な文字入力を回避することも求められる。
本発明の音声入力方法は、ユーザの音声を入力する入力工程と、前記入力工程で入力されたユーザの音声を音声認識する認識工程と、前記認識工程の認識結果に基づいて文字またはコマンドを発生する発生工程と、自装置の姿勢を検出する検出工程と、前記検出工程の検出結果が特定の姿勢を示しているときには前記発生工程に対して前記コマンドの発生を指示する一方、前記検出工程の検出結果が特定の姿勢以外の姿勢を示しているときには前記発生工程に対して前記文字の発生を指示する指示工程と、前記特定の姿勢をユーザに選択させる選択工程とを含むことを特徴とする。
本発明のプログラムは、コンピュータに、ユーザの音声を入力する入力手段、前記入力手段によって入力されたユーザの音声を音声認識する認識手段、前記認識手段の認識結果に基づいて文字またはコマンドを発生する発生手段、自装置の姿勢を検出する検出手段、前記検出手段の検出結果が特定の姿勢を示しているときには前記発生手段に対して前記コマンドの発生を指示する一方、前記検出手段の検出結果が特定の姿勢以外の姿勢を示しているときには前記発生手段に対して前記文字の発生を指示する指示手段、前記特定の姿勢をユーザに選択させる姿勢選択手段としての機能を与えることを特徴とする。
まず、構成を説明する。
図1は、実施形態に係る音声入力装置1の構成図である。この図において、音声入力装置1は、少なくとも、中央制御部10、姿勢センサ11、マイク12、カメラ13、表示部14、及び、通信部15を備えて構成されている。なお、これら以外にもバッテリを含む電源部などを備えるが、図面の輻輳を避けるために省略している。
図2は、実施形態に係る音声入力装置1の動作フローを示す図である。この動作フローは、中央制御部10のCPU10aで実行される制御プログラムの動作フローの要部を示している。したがって、この動作フローにおける以下の各処理(ステップS1〜ステップS10)の実行主体は、中央制御部10のCPU10aである。
(第一の効果)ユーザの顔が所定の状態(表示部14に正対した状態)で検出されている間、ディクテーションを実施(ステップS6)する一方、所定の状態で検出されないときは、ディクテーションを一時停止(ステップS5をループ)する。これにより、ディクテーション中に近くの人物から話しかけられたりしたときの不本意な文字入力(当該近くの人物の発声が文字認識されてしまう)を回避することができ、冒頭の第二の問題点を解消することができる。
(第三の効果)先にも述べたとおり、実施形態は、ディクテーションの処理負担の軽減、または、ディクテーションの精度向上を図る仕組み(第四の仕組み)を備える。この仕組みに関与する主要な要素は、通信機能108であり、且つ、この通信機能108と共同で動作する通信部15である。これらの要素により、必要に応じて、外部(インターネット等のネットワーク16)に設けられている音声認識サーバ17にアクセスすることができる。この音声認識サーバ17でディクテーションのすべてまたは一部を実施したり、さらに、ディクテーション実施に必要な語彙データを音声認識サーバ17に蓄積したりすれば、低い処理能力の携帯型の音声入力装置1の処理負担や記憶容量の圧迫を招かないようにでき、且つ、語彙データの面倒な更新管理も行わなくて済むようにできる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
図3は、付記1、付記2及び付記3の構成図である。
付記1は、ユーザの音声を入力する入力手段200(実施形態の音声入力機能102に相当)と、
前記入力手段200によって入力されたユーザの音声を音声認識する認識手段201(実施形態のディクテーション機能104に相当)と、
前記認識手段201の認識結果に基づいて文字またはコマンドを発生する発生手段202(実施形態のコマンド認識機能103及びディクテーション機能104に相当)と、
自装置の姿勢を検出する検出手段203(実施形態の姿勢検出機能101に相当)と、
前記検出手段203の検出結果が特定の姿勢を示しているときには前記発生手段202に対して前記コマンドの発生を指示する一方、前記検出手段203の検出結果が特定の姿勢以外の姿勢を示しているときには前記発生手段202に対して前記文字の発生を指示する指示手段204(実施形態の姿勢検出機能101に相当)と
を備えたことを特徴とする音声入力装置205(実施形態の音声入力装置1に相当)である。
(付記2)
付記2は、さらに、前記ユーザの顔を検出する第二の検出手段206(実施形態の顔検出機能106に相当)と、
この第二の検出手段206で検出されたユーザの顔の状態が所定の状態にあるときに、前記認識手段201に対して認識動作を停止するように指示する第二の指示手段207(実施形態の顔検出機能106に相当)とを備えたことを特徴とする付記1に記載の音声入力装置である。
(付記3)
付記3は、さらに、前記入力手段200によって入力されたユーザの音声を外部のサーバ208(実施形態の音声認識サーバ17に相当)に送信する送信手段209(実施形態の通信機能108に相当)と、このサーバ208から返送される音声認識結果を受信する受信手段210(実施形態の通信機能108に相当)とを備えたことを特徴とする付記1に記載の音声入力装置である。
(付記4)
付記4は、ユーザの音声を入力する入力工程と、
前記入力工程で入力されたユーザの音声を音声認識する認識工程と、
前記認識工程の認識結果に基づいて文字またはコマンドを発生する発生工程と、
自装置の姿勢を検出する検出工程と、
前記検出工程の検出結果が特定の姿勢を示しているときには前記発生工程に対して前記コマンドの発生を指示する一方、前記検出工程の検出結果が特定の姿勢以外の姿勢を示しているときには前記発生工程に対して前記文字の発生を指示する指示工程と
を含むことを特徴とする音声入力方法である。
(付記5)
付記5は、コンピュータに、
ユーザの音声を入力する入力手段、
前記入力手段によって入力されたユーザの音声を音声認識する認識手段、
前記認識手段の認識結果に基づいて文字またはコマンドを発生する発生手段、
自装置の姿勢を検出する検出手段、
前記検出手段の検出結果が特定の姿勢を示しているときには前記発生手段に対して前記コマンドの発生を指示する一方、前記検出手段の検出結果が特定の姿勢以外の姿勢を示しているときには前記発生手段に対して前記文字の発生を指示する指示手段
としての機能を与えることを特徴とするプログラムである。
201 認識手段
202 発生手段
203 検出手段
204 指示手段
205 音声入力装置
206 第二の検出手段
207 第二の指示手段
208 サーバ
209 送信手段
210 受信手段
Claims (5)
- ユーザの音声を入力する入力手段と、
前記入力手段によって入力されたユーザの音声を音声認識する認識手段と、
前記認識手段の認識結果に基づいて文字またはコマンドを発生する発生手段と、
自装置の姿勢を検出する検出手段と、
前記検出手段の検出結果が特定の姿勢を示しているときには前記発生手段に対して前記コマンドの発生を指示する一方、前記検出手段の検出結果が特定の姿勢以外の姿勢を示しているときには前記発生手段に対して前記文字の発生を指示する指示手段と、
前記特定の姿勢をユーザに選択させる選択手段と
を備えたことを特徴とする音声入力装置。 - さらに、前記ユーザの顔を検出する第二の検出手段と、
この第二の検出手段で検出されたユーザの顔の状態が所定の状態にあるときに、前記認識手段に対して認識動作を停止するように指示する第二の指示手段とを備えたことを特徴とする請求項1に記載の音声入力装置。 - さらに、前記入力手段によって入力されたユーザの音声を外部のサーバに送信する送信手段と、このサーバから返送される音声認識結果を受信する受信手段とを備えたことを特徴とする請求項1に記載の音声入力装置。
- ユーザの音声を入力する入力工程と、
前記入力工程で入力されたユーザの音声を音声認識する認識工程と、
前記認識工程の認識結果に基づいて文字またはコマンドを発生する発生工程と、
自装置の姿勢を検出する検出工程と、
前記検出工程の検出結果が特定の姿勢を示しているときには前記発生工程に対して前記コマンドの発生を指示する一方、前記検出工程の検出結果が特定の姿勢以外の姿勢を示しているときには前記発生工程に対して前記文字の発生を指示する指示工程と、
前記特定の姿勢をユーザに選択させる選択工程と
を含むことを特徴とする音声入力方法。 - コンピュータに、
ユーザの音声を入力する入力手段、
前記入力手段によって入力されたユーザの音声を音声認識する認識手段、
前記認識手段の認識結果に基づいて文字またはコマンドを発生する発生手段、
自装置の姿勢を検出する検出手段、
前記検出手段の検出結果が特定の姿勢を示しているときには前記発生手段に対して前記コマンドの発生を指示する一方、前記検出手段の検出結果が特定の姿勢以外の姿勢を示しているときには前記発生手段に対して前記文字の発生を指示する指示手段、
前記特定の姿勢をユーザに選択させる姿勢選択手段
としての機能を与えることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014501834A JP6016134B2 (ja) | 2012-02-27 | 2012-10-10 | 音声入力装置、音声入力方法及びプログラム |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012040133 | 2012-02-27 | ||
JP2012040133 | 2012-02-27 | ||
JP2014501834A JP6016134B2 (ja) | 2012-02-27 | 2012-10-10 | 音声入力装置、音声入力方法及びプログラム |
PCT/JP2012/006476 WO2013128508A1 (ja) | 2012-02-27 | 2012-10-10 | 音声入力装置、音声入力方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013128508A1 JPWO2013128508A1 (ja) | 2015-07-30 |
JP6016134B2 true JP6016134B2 (ja) | 2016-10-26 |
Family
ID=49081773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014501834A Expired - Fee Related JP6016134B2 (ja) | 2012-02-27 | 2012-10-10 | 音声入力装置、音声入力方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US9842589B2 (ja) |
EP (1) | EP2821916B1 (ja) |
JP (1) | JP6016134B2 (ja) |
WO (1) | WO2013128508A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6459684B2 (ja) * | 2015-03-23 | 2019-01-30 | カシオ計算機株式会社 | 情報出力装置、情報出力方法及びプログラム |
JP2017116893A (ja) * | 2015-12-26 | 2017-06-29 | 株式会社村田製作所 | 立体型画像表示装置 |
JP2018073067A (ja) * | 2016-10-27 | 2018-05-10 | 京セラ株式会社 | 電子機器、制御方法およびプログラム |
CN107316025B (zh) * | 2017-06-27 | 2021-04-06 | 北京康邦科技有限公司 | 一种手部姿态识别方法及识别系统 |
US20190013016A1 (en) * | 2017-07-07 | 2019-01-10 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Converting speech to text and inserting a character associated with a gesture input by a user |
US20210166698A1 (en) * | 2018-08-10 | 2021-06-03 | Sony Corporation | Information processing apparatus and information processing method |
CN111079504A (zh) * | 2019-08-14 | 2020-04-28 | 广东小天才科技有限公司 | 一种文字识别方法及电子设备 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000020092A (ja) | 1998-06-30 | 2000-01-21 | Toshiba Corp | ディクテーション装置及びディクテーションプログラムを記録した記録媒体 |
US6453292B2 (en) | 1998-10-28 | 2002-09-17 | International Business Machines Corporation | Command boundary identifier for conversational natural language |
JP2000267695A (ja) * | 1999-01-14 | 2000-09-29 | Nissan Motor Co Ltd | 車載機器のリモートコントロール装置 |
JP2001306091A (ja) | 2000-04-26 | 2001-11-02 | Nec Software Kobe Ltd | 音声認識システムおよび単語検索方法 |
US6697777B1 (en) * | 2000-06-28 | 2004-02-24 | Microsoft Corporation | Speech recognition user interface |
JP2002278671A (ja) * | 2001-03-16 | 2002-09-27 | Just Syst Corp | 文字列変換装置、文字列変換方法およびその方法をコンピュータに実行させるプログラム |
JP4094255B2 (ja) | 2001-07-27 | 2008-06-04 | 日本電気株式会社 | コマンド入力機能つきディクテーション装置 |
JP2004093698A (ja) | 2002-08-29 | 2004-03-25 | Alpine Electronics Inc | 音声入力方法 |
US7747040B2 (en) * | 2005-04-16 | 2010-06-29 | Microsoft Corporation | Machine vision system and method for estimating and tracking facial pose |
US8207936B2 (en) * | 2006-06-30 | 2012-06-26 | Sony Ericsson Mobile Communications Ab | Voice remote control |
US8165886B1 (en) * | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US8121586B2 (en) * | 2008-09-16 | 2012-02-21 | Yellowpages.Com Llc | Systems and methods for voice based search |
JP4902617B2 (ja) | 2008-09-30 | 2012-03-21 | 株式会社フュートレック | 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム |
WO2010054373A2 (en) * | 2008-11-10 | 2010-05-14 | Google Inc. | Multisensory speech detection |
JP5646146B2 (ja) * | 2009-03-18 | 2014-12-24 | 株式会社東芝 | 音声入力装置、音声認識システム及び音声認識方法 |
US8817048B2 (en) * | 2009-07-17 | 2014-08-26 | Apple Inc. | Selective rotation of a user interface |
US8886541B2 (en) * | 2010-02-04 | 2014-11-11 | Sony Corporation | Remote controller with position actuatated voice transmission |
-
2012
- 2012-10-10 US US14/381,279 patent/US9842589B2/en not_active Expired - Fee Related
- 2012-10-10 JP JP2014501834A patent/JP6016134B2/ja not_active Expired - Fee Related
- 2012-10-10 WO PCT/JP2012/006476 patent/WO2013128508A1/ja active Application Filing
- 2012-10-10 EP EP12869934.5A patent/EP2821916B1/en not_active Not-in-force
Also Published As
Publication number | Publication date |
---|---|
EP2821916B1 (en) | 2018-12-19 |
WO2013128508A1 (ja) | 2013-09-06 |
US20150106098A1 (en) | 2015-04-16 |
JPWO2013128508A1 (ja) | 2015-07-30 |
US9842589B2 (en) | 2017-12-12 |
EP2821916A1 (en) | 2015-01-07 |
EP2821916A4 (en) | 2015-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6016134B2 (ja) | 音声入力装置、音声入力方法及びプログラム | |
EP2680110B1 (en) | Method and apparatus for processing multiple inputs | |
US8786562B2 (en) | Mobile electronic device, control method, and storage medium storing control program | |
WO2020258929A1 (zh) | 文件夹界面切换方法及终端设备 | |
WO2020151519A1 (zh) | 信息输入方法、终端设备和计算机可读存储介质 | |
US20150199320A1 (en) | Creating, displaying and interacting with comments on computing devices | |
KR20140045181A (ko) | 음성 인식을 이용한 미리 설정된 동작 모드의 수행 방법 및 장치 | |
US20140198032A1 (en) | Method and apparatus for displaying screen with eye tracking in portable terminal | |
KR101944416B1 (ko) | 영상 통화 분석 서비스를 제공하기 위한 방법 및 그 전자 장치 | |
JP2010530655A (ja) | 振動入力認識を有する電子装置と方法 | |
KR20190069877A (ko) | 전자 장치 및 그의 입력 제어 방법 | |
JP7055721B2 (ja) | 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム | |
CN106527928B (zh) | 一种截屏控制装置、方法及智能终端 | |
WO2015043200A1 (en) | Method and apparatus for controlling applications and operations on a terminal | |
EP3832440A1 (en) | Text input method and terminal | |
JP2019036914A (ja) | 連携表示システム | |
JP7055722B2 (ja) | 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム | |
KR20130082352A (ko) | 터치스크린을 구비하는 전자기기에서 화면을 확대하기 위한 장치 및 방법 | |
JP2019175453A (ja) | ユーザ音声入力の処理を含むシステム及びその動作方法並びに電子装置 | |
WO2021104175A1 (zh) | 信息的处理方法及装置 | |
US20150088525A1 (en) | Method and apparatus for controlling applications and operations on a terminal | |
JP5273782B2 (ja) | 携帯端末装置及びプログラム | |
KR102060064B1 (ko) | 단말기 제어방법 | |
KR102554899B1 (ko) | 음성 처리 방법 및 이동 단말기 | |
KR101661974B1 (ko) | 휴대 단말기 및 그 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150618 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160902 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160915 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6016134 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |