JP2019175159A - 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム - Google Patents

電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム Download PDF

Info

Publication number
JP2019175159A
JP2019175159A JP2018062924A JP2018062924A JP2019175159A JP 2019175159 A JP2019175159 A JP 2019175159A JP 2018062924 A JP2018062924 A JP 2018062924A JP 2018062924 A JP2018062924 A JP 2018062924A JP 2019175159 A JP2019175159 A JP 2019175159A
Authority
JP
Japan
Prior art keywords
voice input
user
electronic device
cpu
sensitivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018062924A
Other languages
English (en)
Inventor
智也 櫻井
Tomoya Sakurai
智也 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018062924A priority Critical patent/JP2019175159A/ja
Priority to US16/363,348 priority patent/US11145310B2/en
Priority to CN201910245603.0A priority patent/CN110320995B/zh
Publication of JP2019175159A publication Critical patent/JP2019175159A/ja
Priority to JP2023047431A priority patent/JP7468737B2/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/285Memory allocation or algorithm optimisation to reduce hardware requirements
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/06Input or output devices integrated in time-pieces using voice
    • GPHYSICS
    • G04HOROLOGY
    • G04BMECHANICALLY-DRIVEN CLOCKS OR WATCHES; MECHANICAL PARTS OF CLOCKS OR WATCHES IN GENERAL; TIME PIECES USING THE POSITION OF THE SUN, MOON OR STARS
    • G04B47/00Time-pieces combined with other articles which do not interfere with the running or the time-keeping of the time-piece
    • G04B47/06Time-pieces combined with other articles which do not interfere with the running or the time-keeping of the time-piece with attached measuring instruments, e.g. pedometer, barometer, thermometer or compass
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • G04G21/025Detectors of external physical values, e.g. temperature for measuring physiological data
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/04Input or output devices integrated in time-pieces using radio waves
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G04HOROLOGY
    • G04RRADIO-CONTROLLED TIME-PIECES
    • G04R20/00Setting the time according to the time information carried or implied by the radio signal
    • G04R20/02Setting the time according to the time information carried or implied by the radio signal the radio signal being sent by a satellite, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Electric Clocks (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの使用状態に起因して音声の認識精度が低下する可能性を、低減する。【解決手段】ユーザに携帯され音声入力手段を備える電子機器において、当該電子機器とユーザとの近接状態を検出する検出手段と、検出手段による検出結果に応じて、音声入力手段の検出感度を制御する制御手段と、を備えることを特徴とする電子機器が提供される。好ましくは、検出手段は、ユーザによる当該電子機器の装着状態を検出し、制御手段は、検出手段により未装着状態が検出された場合、音声入力手段の検出感度を、装着状態における音声入力手段の検出感度よりも高くする。【選択図】図5

Description

本発明は、電子機器、音声入力感度制御方法、及び音声入力感度制御プログラムに関する。
スマートウォッチ等のウェアラブル機器において、ユーザの音声を認識し、認識された音声に応じて所定の操作を行う技術が知られている。
特開2016−218852号公報
しかしながら、特許文献1の構成では、ユーザが機器を装着していない場合、ユーザと機器との距離が離れることによりユーザの音声が良好に認識されないおそれがある。このように、ユーザに携帯され音声入力手段を備える電子機器においては、ユーザの使用状態に起因して、音声の認識精度が低下するおそれがある。
そこで、1つの側面では、本発明は、ユーザの使用状態に起因して音声の認識精度が低下する可能性を、低減することを目的とする。
上記目的を達成するために、本発明の1つの側面では、ユーザに携帯され音声入力手段を備える電子機器において、
当該電子機器と前記ユーザとの近接状態と非近接状態とを検出する検出手段と、
前記検出手段により前記非近接状態が検出された場合、前記音声入力手段の検出感度を、前記近接状態における前記音声入力手段の検出感度よりも高くするように制御する制御手段と、
を備えることを特徴とする電子機器が提供される。
1つの側面では、本発明によれば、ユーザの使用状態に起因して音声の認識精度が低下する可能性を、低減することが可能となる。
本発明の一実施例である電子機器1の概略図である。 電子機器1のハードウェア構成を示すブロック図である。 第1入力部の一例によるブロック図である。 電子機器の機能ブロック図である。 音声入力感度調整処理の流れを説明するフローチャートである。
以下、添付図面を参照しながら各実施例について詳細に説明する。
図1は、本発明の一実施例である電子機器1の概略図である。図1に示すように、本実施例の電子機器1は、腕時計型の装置(スマートウォッチ等)として構成されている。また、電子機器1は、第1表示部18及び第2表示部24(後述)を備えており、第1表示部18の上に第2表示部24が積層されている。さらに、第2表示部24の上には、後述するタッチパネル17が設けられている。このため、電子機器1においては、第1表示部18の表示に第2表示部24の表示を重ね合わせて表示することが可能であるとともに、表示内容にタッチ操作することが可能となっている。
図2は、電子機器1のハードウェア構成を示すブロック図である。図2に示すように、電子機器1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、記憶部14と、RTC(Real Time Clock)部15と、ドライブ16と、タッチパネル17と、第1表示部18と、第1入力部19と、ブルートゥース(登録商標)用アンテナ20と、ブルートゥースモジュール21と、無線LAN(Local Area Network)アンテナ22と、無線LANモジュール23と、第2表示部24と、脈拍センサ25と、地磁気センサ26と、加速度センサ27と、ジャイロセンサ28と、照度センサ29と、第2入力部30と、GPS(Global Positioning System)アンテナ31と、GPSモジュール32と、を備えている。
CPU11は、第1CPU11Aと、第2CPU11Bとによって構成される。第1CPU11Aは、各種演算処理を行い、OS(Operating System)の処理を実行することにより、電子機器1におけるスマートフォンに類する機能を制御する。本実施例において、第1CPU11Aは、ブルートゥースモジュール21あるいは無線LANモジュール23を介して受信した電子メールの着信や気象情報に関するメッセージ等を第1表示部18に表示させたり、タッチパネル17を介して入力される操作を受け付けたりする。また、第1CPU11Aは、第1入力部19を介して入力される音声を認識したり、その他、スマートフォンに類する機能として実装された各種機能に係る処理を行ったりする。
また、本実施例において、第1CPU11Aは、RTC部15から所定タイミングで時刻信号を取得する。
第2CPU11Bは、特定のプログラムの処理を実行することにより、第2表示部24に対する表示の指示を行ったり、各種センサの検出結果を取得したり、その他、腕時計の機能として実装された各種機能に係る処理を行ったりする。本実施例において、第2CPU11Bは、第1CPU11Aから入力された時刻信号を基準として、時刻を計算したり、時刻、曜日あるいは日付等を第2表示部24に表示させたりする。第2CPU11Bが実行する特定のプログラムの処理(時刻の計算等)は、第1CPU11Aが実行するOSの処理に比べて単純な動作であることから処理負荷が小さく、低消費電力で実行可能である。また、そのため、第2CPU11Bに要求されるハードウェアのスペックは、第1CPU11Aに比べて低いもので足りる。
ROM12は、第1CPU11A及び第2CPU11Bそれぞれからデータの読み出しが可能であり、第1CPU11A及び第2CPU11Bが実行する種々のプログラムや初期設定データを格納する。例えば、ROM12は、第1CPU11Aが実行するOSのプログラムやOSの管理下で実行される各種プログラム、あるいは、第2CPU11Bが実行する特定のプログラム(ここでは、腕時計の機能を実現する組み込み用プログラム)のプログラムを格納する。
RAM13は、第1CPU11A及び第2CPU11Bそれぞれからデータの読み出し及び書き込みが可能であり、第1CPU11A及び第2CPU11Bに作業用のメモリ空間を提供し、作業用の一時データを記憶する。例えば、RAM13は、第1CPU11AがOSを実行する際のシステム領域やワークエリアを提供したり、第2CPU11Bが特定のプログラムを実行する際の記憶領域を提供したりする。
記憶部14は、第1CPU11A及び第2CPU11Bそれぞれからデータの読み出し及び書き込みが可能な不揮発性のメモリであり、例えば、フラッシュメモリやEEPROM(Electrically Erasable and Programmable Read Only Memory)である。記憶部14には、スマートフォンに類する各種機能や腕時計の機能等において生成された各種データ(各種設定内容のデータ等)が記憶される。
ドライブ16には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア41が適宜装着される。リムーバブルメディア41は、各種センサによって検出されたデータ等の各種データを記憶することができる。
タッチパネル17は、第2表示部24の表示画面上に設けられた静電容量方式又は抵抗膜式等のタッチパネルである。タッチパネル17は、操作面に対するユーザのタッチ操作位置と操作内容とを検出して当該操作に応じた信号を発生させて、入力信号として第1CPU11Aに出力する。
第1表示部18は、有機ELディスプレイ(OLED)によって構成され、第1CPU11Aの制御に従って、各種情報を表示画面に表示する。
第1入力部19は、入力された音声(操作のための音声コマンド等)を示す信号を第1CPU11Aに出力する。第1入力部19の更なる詳細は、図3を参照して後述する。
ブルートゥース用アンテナ20は、ブルートゥースの規格に基づく電磁波を送受信するアンテナであり、例えばモノポールアンテナ等によって構成される。ブルートゥース用アンテナ20は、ブルートゥースモジュール21から入力された無線通信の電気信号を電磁波として送信したり、受信した電磁波を電気信号に変換してブルートゥースモジュール21に出力したりする。
ブルートゥースモジュール21は、第1CPU11Aの指示に従って、ブルートゥース用アンテナ20を介して他の装置に信号を送信する。また、ブルートゥースモジュール21は、他の装置から送信された信号を受信し、受信した信号が示す情報を第1CPU11Aに出力する。
無線LANアンテナ22は、無線LANモジュール23によって利用される無線通信に対応した周波数の電波を受信可能なアンテナであり、例えばループアンテナやロッドアンテナによって構成される。無線LANアンテナ22は、無線LANモジュール23から入力された無線通信の電気信号を電磁波として送信したり、受信した電磁波を電気信号に変換して無線LANモジュール23に出力したりする。
無線LANモジュール23は、第1CPU11Aの指示に従って、無線LANアンテナ22を介して他の装置に信号を送信する。また、無線LANモジュール23は、他の装置から送信された信号を受信し、受信した信号が示す情報を第1CPU11Aに出力する。
第2表示部24は、部分的に又は全体的に光を透過可能なPN(Polymer Network)液晶ディスプレイから構成され、第2CPU11Bの制御に従って、各種情報を表示画面に表示(ここではセグメント表示)する。
本実施例において、第2表示部24であるPN液晶ディスプレイは、例えば、上述した第1表示部18である有機ELディスプレイの表示画面上に積層されている。このPN液晶ディスプレイは、電位が掛けられていない部位では液晶分子が不規則に並び、光を反射するようになっている。つまり、この電位が掛けられていない部位において、PN液晶ディスプレイによる表示がなされることとなる。一方、電位が掛けられた部位では、液晶分子が表示画面に対して垂直に整列するので、光を透過可能となっている。つまり、この電位が掛けられた部位では、上述の有機ELディスプレイからの光を透過可能となるので、当該PN液晶ディスプレイを介して当該有機ELディスプレイによる表示を視認することができる。すなわち、電子機器1の表示領域では、第1表示部18による表示に第2表示部24による表示を重ね合わせた状態で表示することができるようになっている。
脈拍センサ25は、電子機器1の裏面側(ユーザの腕に面する側)に設置され、電子機器1が装着されたユーザの脈拍を検出する。
地磁気センサ26は、地磁気の方向を検出し、検出した地磁気の方向を示す情報を第2CPU11Bに出力する。
加速度センサ27は、電子機器1における3軸方向の加速度を検出し、検出した加速度を示す情報を第2CPU11Bに出力する。
ジャイロセンサ28は、電子機器1における3軸方向の角速度を検出し、検出した角速度を示す情報を第2CPU11Bに出力する。
照度センサ29は、第1表示部18の裏面側の所定箇所に設置され、電子機器1の表示領域における明るさ(照度)を検出し、検出した明るさを示す情報を第2CPU11Bに出力する。
近接センサ40は、電子機器1の裏面側(ユーザの腕に面する側)に設置される。近接センサ40は、ユーザが電子機器1を手首に装着しているか否かを検出するために設けられる。近接センサ40は、物体との距離(近接度)に応じた信号を第2CPU11Bに出力する。
第2入力部30は、各種ボタンで構成され、ユーザの指示操作に応じて各種情報を入力する。
GPSアンテナ31は、GPSにおける衛星から発信される電波を受信して電気信号に変換し、変換した電気信号(以下、「GPS信号」と称する)をGPSモジュール32に出力する。
GPSモジュール32は、GPSアンテナ31から入力されたGPS信号に基づいて、電子機器1の位置(緯度、経度、高度)及びGPSによって示される現在時刻を検出する。また、GPSモジュール32は、検出した位置及び現在時刻を示す情報を第2CPU11Bに出力する。
図3は、第1入力部19の一例によるブロック図である。第1入力部19は、マイクロフォン191と、アナログアンプ192、ADC(Analog to Digital Converter)194と、デジタルアンプ196と、ローパスフィルタ198とを含む。
マイクロフォン191で拾われる音声信号は、アナログアンプ192で増幅されてから、ADC194に入力される。ADC194に入力された音声信号は、デジタル信号に変換され、デジタルアンプ196で増幅されてから、ローパスフィルタ198に通される。ローパスフィルタ198で高周波成分がカットされた音声信号は、第1CPU11Aで処理される。
次に、電子機器1の機能的構成について説明する。図4は、図2の電子機器1の機能的構成のうち、音声入力感度調整処理に関連する機能的構成を示す機能ブロック図である。
音声入力感度調整処理とは、電子機器1とユーザとの近接状態に応じて音声入力感度を調整する処理である。
音声入力感度調整処理が実行される場合、図4に示すように、第1CPU11Aにおいて、近接度情報取得部51と、近接判定部52と、音声入力感度制御部53と、音声認識部54とが機能し、第2CPU11Bにおいて、センサ情報取得部61が機能する。
近接度情報取得部51は、第2CPU11Bのセンサ情報取得部61によって検出された近接度を表す情報(以下、「近接度情報」という)を取得する。
近接判定部52は、近接度情報に基づいて、ユーザが電子機器1を手首に装着しているか否かの判定を行う。例えば、近接判定部52は、近接度が所定閾値以上(ユーザに近い側)である場合に、ユーザが電子機器1を手首に装着していると判定し、それ以外の場合は、ユーザが電子機器1を手首に装着していないと判定する。
音声入力感度制御部53は、近接判定部52による判定結果に基づいて、音声入力感度を制御する。すなわち、音声入力感度制御部53は、ユーザが電子機器1を手首に装着していない場合、マイクロフォン191に入力されるユーザの発声による音声入力レベルが比較的低くなるので、音声認識精度が悪化することを防ぐため、音声入力感度が高くなるように、第1入力部19を制御する。一方、音声入力感度制御部53は、ユーザが電子機器1を手首に装着している場合、マイクロフォン191に入力されるユーザの発声による音声入力レベルが相対的に高くなることから、音声入力感度が比較的低くなるように、第1入力部19を制御する。
なお、変形例では、音声入力感度制御部53は、ユーザの口とマイクロフォン191との間の距離に応じて、音声入力感度を3段階以上で制御してもよい。例えば、距離と音声入力感度との関係はテーブル形式のデータあるいは所定の関数として電子機器1に保持されており、音声入力感度制御部53は、これらテーブル形式のデータ又は所定の関数を参照して音声入力感度を制御する。ユーザの口とマイクロフォン191との間の距離は、ユーザが電子機器1を手首に装着している場合、例えばユーザの手の状態に応じて推定されてもよい。例えば、加速度センサ27からの情報等に基づいてユーザの手が前後に移動し歩行中であることが予測される場合、ユーザの口とマイクロフォン191との間の距離は、第1距離と予測されてよい。他方、加速度センサ27からの情報等に基づいてユーザの手が静止しておりかつユーザが画面のタッチ操作を行っていると判定される場合、ユーザの口とマイクロフォン191との間の距離は、第1距離よりも短い第2距離と予測されてよい。
音声入力感度の制御は、例えばアナログアンプ192のゲインを調整することで実現されてもよい。この場合、アナログアンプ192のゲインが高くなるほど音声入力感度が高くなる。あるいは、音声入力感度の制御は、デジタルアンプ196のゲインを調整することで実現されてもよい。この場合、デジタルアンプ196のゲインが高くなるほど音声入力感度が高くなる。あるいは、音声入力感度の制御は、ローパスフィルタ198によるノイズキャンセル機能を調整することで実現されてもよい。この場合、ローパスフィルタ198によるノイズキャンセル機能が低くなるほど音声入力感度が高くなる。なお、音声入力感度の制御は、アナログアンプ192のゲインとともに、デジタルアンプ196のゲインを調整することで実現されてもよいし、同様に複数の調整要素を調整することで実現されてもよい。
音声認識部54は、第1入力部19から音声信号が入力されると、入力された音声信号に対して音声認識処理を行う。音声認識部54は、常時、所定のボイストリガ(例えば“OK、○○”)を検出できるように、機能がオンしている状態であってよい。音声認識部54は、ボイストリガを検出すると、その後に入力されうる音声信号に基づいて、音声コマンドを認識する。
センサ情報取得部61は、近接センサ40によって検出された近接度等、各種センサによって検出された検出値を取得する。
図5は、図4の機能的構成を有する図1の電子機器1が実行する音声入力感度調整処理の流れを説明するフローチャートである。図5に示す処理は、所定周期ごとに繰り返し実行される。
音声入力感度調整処理は、電子機器1の電源投入とともに開始され、電子機器1の電源をオフする操作が行われた場合に終了する。
ステップS1において、近接度情報取得部51は、第2CPU11Bのセンサ情報取得部61によって取得された近接度情報を取得する。
ステップS2において、近接判定部52は、取得された近接度情報に基づいて、ユーザが電子機器1を手首に装着しているか否かの判定を行う。ユーザが電子機器1を手首に装着していると判定した場合、ステップS3に進み、ユーザが電子機器1を手首に装着していないと判定した場合、ステップS4に進む。
ステップS3において、音声入力感度制御部53は、アナログアンプ192のゲインを比較的低い第1の値にセット又は維持する。
ステップS4において、音声入力感度制御部53は、アナログアンプ192のゲインを比較的高い第2の値にセット又は維持する。
このような処理により、電子機器1においては、ユーザが電子機器1を手首に装着しているか否かに応じて、すなわちユーザと機器との距離が離れているか否かに応じて音声入力感度が調整される。すなわち、ユーザと機器との距離が離れている場合は、音声入力感度が高く設定され、ユーザと機器との距離が離れていない場合は、音声入力感度が低く設定される。この結果、ユーザと機器との距離が離れている場合でも、良好な音声認識精度を維持できる。また、ユーザと機器との距離が離れていない場合は、良好な音声認識精度を維持しつつ、消費電力を低減できる。
このようにして、本実施例によれば、ユーザの使用状態に起因して音声の認識精度が低下する可能性を、低減することができる。
なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、上記のような機能的構成は例示に過ぎず、特に限定されない。すなわち、上述した一連の処理を全体として実行できる機能が電子機器1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に上記のような機能的構成に限定されない。また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施例における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施例に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。例えば、音声認識部54は、CPUや、CodecIC、DSP等により実現されてもよいし、音声認識部54は、第1入力部19とともに、DSP内蔵マイクロフォン等により実現されてもよい。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図2のリムーバブルメディア41により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア41は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory)、DVD(Digital Versatile Disk)、Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12や、図2の記憶部14に含まれる半導体メモリ等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくても、並列的あるいは個別に実行される処理をも含むものである。
以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。
例えば、上述の実施例では、電子機器1は第1表示部18と第2表示部24とを備えるものとしたが、それに限らず、電子機器1は第1表示部18のみを備えるものであってもよい。
また、上述の実施例では、電子機器1のCPU11は第1CPU11Aと第2CPU11Bとからなるものとしたが、それに限らず、CPU11は第1CPU11Aの機能と第2CPU11Bの機能の両方を備える1つのCPUであってもよい。
また、上述の実施例では、本発明が適用される電子機器1は、デジタルカメラ腕時計型の装置(スマートウォッチ等)を例として説明したが、特にこれに限定されない。
例えば、本発明は、音声認識機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
また、上述した実施例では、電子機器1とユーザとの距離を測定する近接センサ40が用いられるが、電子機器1とユーザとの距離を測定することなく近接状態を判定してよい。すなわち、例えば、近接センサ40に代えて、感圧センサや静電容量センサが使用されてもよい。また、近接センサ40に代えて、脈拍センサ25が使用されてもよい。この場合、近接判定部52は、脈拍センサ25からのセンサ情報に基づいて脈拍が検出されている場合に、ユーザが電子機器1を手首に装着していると判定し、それ以外の場合は、ユーザが電子機器1を手首に装着していないと判定する。その他、機構的な構成を利用して、電子機器1の装着状態の判定することも可能である。例えば、時計型の電子機器1のバンドの開放・閉止状態を検出することで、電子機器1の装着状態の判定することも可能である。
また、電子機器1の装着位置が変化しうる場合は、電子機器1の装着位置に応じて入力感度の制御を行ってもよい。例えば、ジャイロセンサ28から出力されたデータにより装着位置(腕、肩、腰等)を判定し、装着位置に応じて入力感度を制御してもよい。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
ユーザに携帯され音声入力手段を備える電子機器において、
当該電子機器と前記ユーザとの近接状態と非近接状態とを検出する検出手段と、
前記検出手段により前記非近接状態が検出された場合、前記音声入力手段の検出感度を、前記近接状態における前記音声入力手段の検出感度よりも高くするように制御する制御手段と、
を備えることを特徴とする電子機器。
<請求項2>
前記制御手段は、前記電子機器と前記ユーザとの間の距離が増加するにつれて、前記音声入力手段の検出感度を高くすることを特徴とする請求項1に記載の電子機器。
<請求項3>
前記検出手段は、前記ユーザによる当該電子機器の装着状態と未装着状態とを検出し、
前記制御手段は、前記検出手段により前記未装着状態が検出された場合、前記音声入力手段の検出感度を、前記装着状態における前記音声入力手段の検出感度よりも高くすることを特徴とする請求項1又は2に記載の電子機器。
<請求項4>
ユーザに携帯され音声入力手段を備える電子機器と前記ユーザとの近接状態と非近接状態とを検出し、
前記非近接状態を検出した場合、前記音声入力手段の検出感度を、前記近接状態における前記音声入力手段の検出感度よりも高くするように制御することを含む、コンピュータにより実行される音声入力感度制御方法。
<請求項5>
ユーザに携帯され音声入力手段を備える電子機器と前記ユーザとの近接状態と非近接状態とを検出し、
前記非近接状態を検出した場合、前記音声入力手段の検出感度を、前記近接状態における前記音声入力手段の検出感度よりも高くするように制御する、
処理をコンピュータに実行させる音声入力感度制御プログラム。
1 電子機器
11A 第1CPU
11B 第2CPU
14 記憶部
15 RTC部
16 ドライブ
17 タッチパネル
18 第1表示部
19 第1入力部
20 ブルートゥース用アンテナ
21 ブルートゥースモジュール
22 無線LANアンテナ
23 無線LANモジュール
24 第2表示部
25 脈拍センサ
26 地磁気センサ
27 加速度センサ
28 ジャイロセンサ
29 照度センサ
30 第2入力部
31 GPSアンテナ
32 GPSモジュール
40 近接センサ
41 リムーバブルメディア
51 近接度情報取得部
52 近接判定部
53 音声入力感度制御部
54 音声認識部
61 センサ情報取得部
191 マイクロフォン
192 アナログアンプ
194 ADC
196 デジタルアンプ
198 ローパスフィルタ

Claims (5)

  1. ユーザに携帯され音声入力手段を備える電子機器において、
    当該電子機器と前記ユーザとの近接状態と非近接状態とを検出する検出手段と、
    前記検出手段により前記非近接状態が検出された場合、前記音声入力手段の検出感度を、前記近接状態における前記音声入力手段の検出感度よりも高くするように制御する制御手段と、
    を備えることを特徴とする電子機器。
  2. 前記制御手段は、前記電子機器と前記ユーザとの間の距離が増加するにつれて、前記音声入力手段の検出感度を高くすることを特徴とする請求項1に記載の電子機器。
  3. 前記検出手段は、前記ユーザによる当該電子機器の装着状態と未装着状態とを検出し、
    前記制御手段は、前記検出手段により前記未装着状態が検出された場合、前記音声入力手段の検出感度を、前記装着状態における前記音声入力手段の検出感度よりも高くすることを特徴とする請求項1又は2に記載の電子機器。
  4. ユーザに携帯され音声入力手段を備える電子機器と前記ユーザとの近接状態と非近接状態とを検出し、
    前記非近接状態を検出した場合、前記音声入力手段の検出感度を、前記近接状態における前記音声入力手段の検出感度よりも高くするように制御することを含む、コンピュータにより実行される音声入力感度制御方法。
  5. ユーザに携帯され音声入力手段を備える電子機器と前記ユーザとの近接状態と非近接状態とを検出し、
    前記非近接状態を検出した場合、前記音声入力手段の検出感度を、前記近接状態における前記音声入力手段の検出感度よりも高くするように制御する、
    処理をコンピュータに実行させる音声入力感度制御プログラム。
JP2018062924A 2018-03-28 2018-03-28 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム Pending JP2019175159A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018062924A JP2019175159A (ja) 2018-03-28 2018-03-28 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム
US16/363,348 US11145310B2 (en) 2018-03-28 2019-03-25 Electronic device, voice input sensitivity control method, and storage medium storing voice input sensitivity control program
CN201910245603.0A CN110320995B (zh) 2018-03-28 2019-03-28 电子设备、声音输入灵敏度控制方法以及存储介质
JP2023047431A JP7468737B2 (ja) 2018-03-28 2023-03-24 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018062924A JP2019175159A (ja) 2018-03-28 2018-03-28 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023047431A Division JP7468737B2 (ja) 2018-03-28 2023-03-24 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム

Publications (1)

Publication Number Publication Date
JP2019175159A true JP2019175159A (ja) 2019-10-10

Family

ID=68057100

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018062924A Pending JP2019175159A (ja) 2018-03-28 2018-03-28 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム
JP2023047431A Active JP7468737B2 (ja) 2018-03-28 2023-03-24 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023047431A Active JP7468737B2 (ja) 2018-03-28 2023-03-24 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム

Country Status (3)

Country Link
US (1) US11145310B2 (ja)
JP (2) JP2019175159A (ja)
CN (1) CN110320995B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112786042B (zh) * 2020-12-28 2024-05-31 阿波罗智联(北京)科技有限公司 车载语音设备的调整方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007221744A (ja) * 2006-02-15 2007-08-30 Asustek Computer Inc 音量を動的に調整できるモバイル装置及び関連方法
JP2010154407A (ja) * 2008-12-26 2010-07-08 Brother Ind Ltd 通話装置
WO2015141328A1 (ja) * 2014-03-18 2015-09-24 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JP2015228943A (ja) * 2014-06-04 2015-12-21 株式会社ニコン ウエアラブルデバイス
US20160259905A1 (en) * 2015-03-06 2016-09-08 Samsung Electronics Co., Ltd. Wearable electronic device and method for controlling the same
JP2017228132A (ja) * 2016-06-23 2017-12-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI390945B (zh) 2004-03-31 2013-03-21 Swisscom Ag 聲波通信用之方法及系統
JP2006074798A (ja) * 2005-09-05 2006-03-16 Olympus Corp 頭部装着型表示装置
US8583176B2 (en) * 2009-01-06 2013-11-12 Blackberry Limited Automatic audio routing dependent on dock state
JP5407848B2 (ja) 2009-12-25 2014-02-05 富士通株式会社 マイクロホンの指向性制御装置
JP5353854B2 (ja) * 2010-09-29 2013-11-27 ブラザー工業株式会社 遠隔会議装置
US20160072327A1 (en) * 2011-09-03 2016-03-10 Vieira Systems Inc. Dock for Portable Electronic Devices
JP5464674B2 (ja) * 2011-12-20 2014-04-09 Necインフロンティア株式会社 近接センサの誤検出防止方法、誤検出防止装置及び誤検出防止プログラム並びに誤検出防止装置を含む端末
JP2013239010A (ja) * 2012-05-15 2013-11-28 Sharp Corp 入力装置、情報処理装置、および、静電結合状態判定方法
US9812116B2 (en) * 2012-12-28 2017-11-07 Alexey Leonidovich Ushakov Neck-wearable communication device with microphone array
EP3267287A4 (en) 2015-03-05 2018-02-21 Fujitsu Limited Input detection method, input detection program, and device
JP2016218852A (ja) 2015-05-22 2016-12-22 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
JP6676324B2 (ja) * 2015-09-30 2020-04-08 シャープ株式会社 電子機器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007221744A (ja) * 2006-02-15 2007-08-30 Asustek Computer Inc 音量を動的に調整できるモバイル装置及び関連方法
JP2010154407A (ja) * 2008-12-26 2010-07-08 Brother Ind Ltd 通話装置
WO2015141328A1 (ja) * 2014-03-18 2015-09-24 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JP2015228943A (ja) * 2014-06-04 2015-12-21 株式会社ニコン ウエアラブルデバイス
US20160259905A1 (en) * 2015-03-06 2016-09-08 Samsung Electronics Co., Ltd. Wearable electronic device and method for controlling the same
JP2017228132A (ja) * 2016-06-23 2017-12-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US20190304464A1 (en) 2019-10-03
CN110320995A (zh) 2019-10-11
JP2023076539A (ja) 2023-06-01
CN110320995B (zh) 2023-05-02
US11145310B2 (en) 2021-10-12
JP7468737B2 (ja) 2024-04-16

Similar Documents

Publication Publication Date Title
US11669053B2 (en) Electronic device and computer-readable non-transitory recording medium
US10198118B2 (en) Operating method and electronic device for processing method thereof
US10184854B2 (en) Mobile device and control method for position correlation utilizing time-based atmospheric pressure measurements
JP2017135510A (ja) 電子機器、制御方法及び制御プログラム
US10614706B2 (en) Electronic apparatus, control method, and non-transitory computer-readable recording medium
JP7468737B2 (ja) 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム
JP7192260B2 (ja) 電子機器、情報処理方法及び情報処理プログラム
JP2022179660A (ja) 電子機器
JP2020065140A (ja) 音声処理装置、方法、プログラム、携帯端末
JP6391768B2 (ja) 携帯機器、制御方法及び制御プログラム
JP6779707B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2019168395A (ja) 電子機器、輝度制御方法及びプログラム
WO2017169607A1 (ja) 電子機器
US20170354371A1 (en) Mobile electronic device, control method and non-transitory storage medium
JP7067195B2 (ja) 電子機器、照度検出方法、及び照度検出プログラム
JP2020003467A (ja) 電子機器、情報処理方法及び情報処理プログラム
JP7251589B2 (ja) 通知制御装置、通知制御方法および通知制御プログラム
JP2019168508A (ja) 電子機器、輝度制御方法及びプログラム
JP2018056769A (ja) 電子機器、制御方法、及び制御プログラム
JP2020060872A (ja) 電子機器、制御方法及び制御プログラム
US20160057280A1 (en) Mobile electronic device, control method, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230110