JP2015005136A - Electronic apparatus, program and processing execution method - Google Patents

Electronic apparatus, program and processing execution method Download PDF

Info

Publication number
JP2015005136A
JP2015005136A JP2013130022A JP2013130022A JP2015005136A JP 2015005136 A JP2015005136 A JP 2015005136A JP 2013130022 A JP2013130022 A JP 2013130022A JP 2013130022 A JP2013130022 A JP 2013130022A JP 2015005136 A JP2015005136 A JP 2015005136A
Authority
JP
Japan
Prior art keywords
housing
input
sound
detection means
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013130022A
Other languages
Japanese (ja)
Inventor
夏樹 野瀬
Natsuki Nose
夏樹 野瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013130022A priority Critical patent/JP2015005136A/en
Publication of JP2015005136A publication Critical patent/JP2015005136A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus allowing easy operation input, a program and a processing execution method.SOLUTION: An electronic apparatus according to an embodiment includes a housing, a display part, input detection means, sound detection means, and execution means. At least a part of the display part is exposed from the housing. The input detection means detects an operation input applied to the housing. The sound detection means detects an operation input applied to the housing. The execution means executes predetermined processing on the basis of the detection results of the input detection means and the sound detection means.

Description

本発明の実施形態は、電子機器、プログラム及び処理実行方法に関する。   Embodiments described herein relate generally to an electronic device, a program, and a process execution method.

近年、電子機器の小型化、薄型化が進み携帯可能な電子機器が多く流通している。このような電子機器を宅外へ持ち出して利用するとき、片手で電子機器を保持し、もう片方の手で例えばタッチパネル等に操作入力を行う場合がある。しかし、例えば電車の中等の宅外では両手を利用することが困難な場合があり、片手で電子機器を保持した上で、もう片方の手を使うことなく操作入力を行いたいというユーザニーズが存在する。   In recent years, electronic devices have become smaller and thinner, and many portable electronic devices are in circulation. When such an electronic device is taken out of the house and used, the electronic device may be held with one hand and an operation input may be performed on, for example, a touch panel with the other hand. However, there are cases where it is difficult to use both hands outside the house, such as in a train, and there is a user need to hold an electronic device with one hand and perform operation input without using the other hand To do.

特開2006−285966号公報JP 2006-285966 A

本発明は上記に鑑みてなされたものであり、容易に操作入力を行うことのできる電子機器、プログラム及び処理実行方法を提供することを課題とする。   The present invention has been made in view of the above, and it is an object of the present invention to provide an electronic device, a program, and a process execution method capable of easily performing an operation input.

実施形態の電子機器は、筐体と、表示部と、入力検出手段と、音検出手段と、実行手段と、を具備する。表示部は、前記筐体から少なくとも一部が露出する。入力検出手段は、前記筐体に与えられた操作入力を検出する。音検出手段は、前記筐体に与えられた操作入力を検出する。実行手段は、前記入力検出手段及び前記音検出手段の検出結果に基づいて所定の処理を実行する。   The electronic device according to the embodiment includes a housing, a display unit, an input detection unit, a sound detection unit, and an execution unit. The display unit is at least partially exposed from the housing. The input detection means detects an operation input given to the casing. The sound detection means detects an operation input given to the casing. The execution means executes a predetermined process based on detection results of the input detection means and the sound detection means.

実施形態における電子機器の外観の一例を示す斜視図。The perspective view which shows an example of the external appearance of the electronic device in embodiment. 実施形態における電子機器のシステム構成の一例を示すブロック図。1 is an exemplary block diagram illustrating an example of a system configuration of an electronic apparatus according to an embodiment. 実施形態における機能構成の一例を示すブロック図。The block diagram which shows an example of the function structure in embodiment. 実施形態における入力操作認識処理の一例を示すフロー図。The flowchart which shows an example of the input operation recognition process in embodiment. 変形例1における入力操作認識処理の一例を示すフロー図。The flowchart which shows an example of the input operation recognition process in the modification 1. 変形例2における電子機器の外観の一例を示す斜視図。FIG. 11 is a perspective view illustrating an example of an external appearance of an electronic device according to Modification 2.

以下、図面を参照して、実施の形態を説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、本実施形態における電子機器の外観の一例を示す斜視図である。   FIG. 1 is a perspective view illustrating an example of an external appearance of an electronic apparatus according to the present embodiment.

本実施形態の電子機器は、携帯型の電子機器であり、例えば、タブレットコンピュータ10から実現されている。また、この電子機器は、スマートフォン、電子書籍、ノートブック型のパーソナルコンピュータ等として実現してもよい。   The electronic device of the present embodiment is a portable electronic device, and is realized by, for example, the tablet computer 10. The electronic device may be realized as a smartphone, an electronic book, a notebook personal computer, or the like.

タブレットコンピュータ10は、コンピュータ本体1と、タッチスクリーンディスプレイ17とを有する。コンピュータ本体1は薄い箱形の筐体13を有している。タッチスクリーンディスプレイ17はコンピュータ本体1の表面上に配置され、一部が筐体より露出している。タッチスクリーンディスプレイ17は、フラットパネルディスプレイ(たとえば、液晶表示装置(LCD:Liquid Crystal Display))と、タッチパネルとを備える。タッチパネルは、フラットパネルディスプレイの画面を覆うように設けられる。タッチパネルは、ユーザの指またはペンによってタッチされたタッチスクリーンディスプレイ17上の位置(座標)を検出するように構成されている。   The tablet computer 10 includes a computer main body 1 and a touch screen display 17. The computer main body 1 has a thin box-shaped housing 13. The touch screen display 17 is disposed on the surface of the computer main body 1, and a part thereof is exposed from the casing. The touch screen display 17 includes a flat panel display (for example, a liquid crystal display (LCD)) and a touch panel. The touch panel is provided so as to cover the screen of the flat panel display. The touch panel is configured to detect a position (coordinates) on the touch screen display 17 touched by a user's finger or pen.

また、タブレットコンピュータ10はタッチスクリーンディスプレイ17に対する操作入力以外によって、ユーザが操作入力を行うことができる。この操作入力方法としては、例えばユーザが指の腹又は爪等で筐体13を叩く(以下タップするとも呼ぶ)、擦る等の方法が挙げられる。タブレットコンピュータ10はこれらの操作入力を検出し、この操作入力に対応する所定の処理を実行する。   In addition, the tablet computer 10 can be operated by the user by an operation other than the operation input to the touch screen display 17. Examples of the operation input method include a method in which the user taps the housing 13 with a belly or a nail of a finger (hereinafter also referred to as tapping) or rubs. The tablet computer 10 detects these operation inputs and executes predetermined processing corresponding to the operation inputs.

筐体13の表面の一部には突起部15(以下凸部とも呼ぶ)が設けられている。突起部15はユーザがコンピュータ本体1を保持する際に、ユーザが保持した手で触りやすい位置に配置されている。ユーザはこの突起15を擦る等の動作によって操作入力を実行することができる。ユーザが筐体13の突起部15を擦った場合には、コンピュータ本体1には他の平坦な部位を擦る場合とは異なる振動が生じ、他の部位を擦る場合とは異なる音が発生する。本実施形態では、突起部15は筐体13に設けられているが、これに限定されず、例えば筐体13に貼付するシール等によって構成されているとしてもよい。   A protrusion 15 (hereinafter also referred to as a convex portion) is provided on a part of the surface of the housing 13. When the user holds the computer main body 1, the protrusion 15 is disposed at a position where the user can easily touch it with the hand held by the user. The user can execute an operation input by an operation such as rubbing the protrusion 15. When the user rubs the protrusion 15 of the housing 13, the computer main body 1 is vibrated differently from the case of rubbing other flat parts, and a sound different from the case of rubbing other parts is generated. In the present embodiment, the protruding portion 15 is provided in the housing 13, but is not limited thereto, and may be configured by, for example, a seal attached to the housing 13.

上記のようにユーザは筐体13へのタップ動作等によってタブレットコンピュータ10への操作入力が可能である。この操作入力の検出方法については、図3乃至5を用いて後述にて説明を行う。   As described above, the user can input an operation to the tablet computer 10 by a tap operation on the housing 13 or the like. This operation input detection method will be described later with reference to FIGS.

次に、図2を参照し、本実施形態における電子機器のシステム構成の概要について説明する。   Next, an overview of the system configuration of the electronic apparatus according to the present embodiment will be described with reference to FIG.

図2は本実施形態における電子機器のシステム構成の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of a system configuration of the electronic device according to the present embodiment.

タブレットコンピュータ10は、中央処理装置(CPU)101、システムコントローラ102、主メモリ103、グラフィクスコントローラ(GPU)105、サウンドコントローラ106、BIOS−ROM107、ソリッドステートドライブ(SSD)109、無線LANコントローラ112、エンベデッドコントローラ(EC)113、EEPROM114、USBコネクタ13、タッチスクリーンディスプレイ17、ビデオメモリ(VRAM)105A、加速度センサ205等を備える。   The tablet computer 10 includes a central processing unit (CPU) 101, a system controller 102, a main memory 103, a graphics controller (GPU) 105, a sound controller 106, a BIOS-ROM 107, a solid state drive (SSD) 109, a wireless LAN controller 112, an embedded A controller (EC) 113, an EEPROM 114, a USB connector 13, a touch screen display 17, a video memory (VRAM) 105A, an acceleration sensor 205, and the like are provided.

CPU101は、タブレットコンピュータ10内の各部の動作を制御するプロセッサである。CPU101は、SSD109から主メモリ103にロードされるオペレーティングシステム(OS)21及び各種アプリケーションプログラムを実行する。アプリケーションプログラムには、操作入力ユーティリティプログラム22やアプリケーションプログラム23等が含まれている。なお、操作入力ユーティリティプログラム22は、OS21に含まれるプログラムであってもよい。   The CPU 101 is a processor that controls the operation of each unit in the tablet computer 10. The CPU 101 executes an operating system (OS) 21 and various application programs loaded from the SSD 109 to the main memory 103. The application program includes an operation input utility program 22, an application program 23, and the like. The operation input utility program 22 may be a program included in the OS 21.

また、CPU101は、BIOS−ROM107に格納されたBIOS(basic input/output system)も実行する。BIOSは、ハードウェア制御のためのプログラムである。   The CPU 101 also executes a BIOS (basic input / output system) stored in the BIOS-ROM 107. The BIOS is a program for hardware control.

システムコントローラ102は、CPU101のローカルバスと、PCI(Peripheral Component Interconnect)バス上の各デバイス及びLPC(Low Pin Count)バス上の各デバイスと、の間を接続するブリッジデバイスである。また、システムコントローラ102は、SSD109を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、システムコントローラ102は、サウンドコントローラ106との通信を実行する機能も有している。さらに、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。   The system controller 102 is a bridge device that connects between the local bus of the CPU 101 and each device on a PCI (Peripheral Component Interconnect) bus and each device on an LPC (Low Pin Count) bus. Further, the system controller 102 includes an IDE (Integrated Drive Electronics) controller for controlling the SSD 109. Further, the system controller 102 has a function of executing communication with the sound controller 106. Furthermore, the system controller 102 also has a function of executing communication with the GPU 105 via a PCI EXPRESS serial bus or the like.

GPU105は、タブレットコンピュータ10のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。このGPU105によって生成される映像信号(表示信号ともいう)はLCD17Aに送られる。   The GPU 105 is a display controller that controls the LCD 17 </ b> A used as a display monitor of the tablet computer 10. A video signal (also referred to as a display signal) generated by the GPU 105 is sent to the LCD 17A.

サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A及びスピーカ18Bに出力する。無線LANコントローラ112は、例えばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。   The sound controller 106 is a sound source device, and outputs audio data to be reproduced to the speakers 18A and 18B. The wireless LAN controller 112 is a wireless communication device that executes wireless communication of, for example, the IEEE 802.11 standard.

EC113は、電力管理のためのエンベデッドコントローラである。EC113は、ユーザの操作に応じてタブレットコンピュータ10を電源オン/電源オフする機能を有している。電源回路121は、タブレットコンピュータ10内のバッテリ122から供給される電力、またはACアダプタ123のような外部電源から供給される電力を用いて、タブレットコンピュータ10の各コンポーネントに供給すべき動作電力を生成する。また、電源回路121は、外部電源から供給される電力を用いてバッテリ122の充電も行う。   The EC 113 is an embedded controller for power management. The EC 113 has a function of powering on / off the tablet computer 10 in accordance with a user operation. The power supply circuit 121 generates operating power to be supplied to each component of the tablet computer 10 using power supplied from the battery 122 in the tablet computer 10 or power supplied from an external power source such as the AC adapter 123. To do. The power supply circuit 121 also charges the battery 122 using power supplied from an external power supply.

タッチスクリーンディスプレイ17には、LCD17Aのほか、タッチパネル17Bが組み込まれている。LCD17Aに重ね合わせて配置されるタッチパネル17Bは、センサやMCU(Micro controller unit)等を有している。タッチパネル17B上でタッチ操作が行われると、そのタッチされた位置がセンサによって検出され、当該タッチパネル17B上のタッチされた位置(座標)を含む入力情報がMCUによって出力される。   In addition to the LCD 17A, the touch screen display 17 incorporates a touch panel 17B. The touch panel 17B arranged so as to overlap the LCD 17A includes a sensor, an MCU (Micro controller unit), and the like. When a touch operation is performed on the touch panel 17B, the touched position is detected by a sensor, and input information including the touched position (coordinates) on the touch panel 17B is output by the MCU.

ビデオメモリ(VRAM)105Aは、グラフィックスコントローラ105と接続されている。ビデオメモリ(VRAM)105Aは、例えば、外部ディスプレイやLCD17Aに表示される画面イメージに対応する画面イメージデータを記憶する。   The video memory (VRAM) 105 </ b> A is connected to the graphics controller 105. The video memory (VRAM) 105A stores, for example, screen image data corresponding to a screen image displayed on an external display or the LCD 17A.

加速度センサ205は、加速度を検出することのできるセンサモジュールであり、重力加速度を検出することでタブレットコンピュータ10の本体1の姿勢を検出することができる。また、加速度センサ205は所定の加速度のパターンを検出することで、ユーザの筐体13を叩いた(タップした)ことや、一部を擦ったことを検出することができる。換言すると加速度センサ205は、筐体13に加えられた衝撃や振動を検出することができ、ユーザからの操作入力を検出する操作入力検出手段として機能する。本実施形態では、操作入力検出手段として加速度センサを例示したが、筐体13へのユーザの操作入力を検出できる手段であればこれに限定されず、例えば角速度センサ、衝撃センサ、振動センサ等の他のセンサモジュールであってもよい。   The acceleration sensor 205 is a sensor module capable of detecting acceleration, and can detect the posture of the main body 1 of the tablet computer 10 by detecting gravitational acceleration. Further, the acceleration sensor 205 can detect that the user's casing 13 has been tapped (tapped) or rubbed in part by detecting a predetermined acceleration pattern. In other words, the acceleration sensor 205 can detect an impact or vibration applied to the housing 13 and functions as an operation input detection unit that detects an operation input from the user. In the present embodiment, an acceleration sensor is exemplified as the operation input detection unit. However, the operation input detection unit is not limited to this as long as it is a unit that can detect a user operation input to the housing 13. For example, an angular velocity sensor, an impact sensor, a vibration sensor, etc. Other sensor modules may be used.

マイク16は、周囲の音を集音することのできる集音手段であり、音検出手段として機能する。マイク16は周囲の音声をアナログ信号に変換し、サウンドコントローラ106へと出力する。マイク16は、筐体13へのユーザのタップ動作の音や、筐体13が擦られた音を集音(検出)することができる。   The microphone 16 is sound collecting means that can collect ambient sounds and functions as sound detecting means. The microphone 16 converts ambient sound into an analog signal and outputs it to the sound controller 106. The microphone 16 can collect (detect) a sound of a user's tap operation on the housing 13 and a sound generated by rubbing the housing 13.

本実施形態における、タブレットコンピュータ10は加速度センサ205で検出する加速度及びマイク16が集音する音に基づいて所定の処理を実行する機能を有している。換言すると、タブレットコンピュータ10は操作入力検出手段が検出するユーザの筐体13へ衝撃/振動と、音検出手段の検出する音に基づいて所定の処理を実行する機能を有している。   In this embodiment, the tablet computer 10 has a function of executing a predetermined process based on the acceleration detected by the acceleration sensor 205 and the sound collected by the microphone 16. In other words, the tablet computer 10 has a function of executing a predetermined process based on the impact / vibration on the user's casing 13 detected by the operation input detection unit and the sound detected by the sound detection unit.

次に、上記機能を構成する機能構成について説明する。   Next, a functional configuration that constitutes the above function will be described.

図3は、本実施形態における機能構成の一例を示すブロック図である。   FIG. 3 is a block diagram illustrating an example of a functional configuration according to the present embodiment.

OS21はタブレットコンピュータ10を統合的に制御する制御システム(オペレーティングシステム)である。   The OS 21 is a control system (operating system) that controls the tablet computer 10 in an integrated manner.

アプリケーション23は、OS21上で動作するアプリケーションであり、ユーザからの操作入力に基づいて所定の機能を実行する。ここでは、アプリケーション23は書籍アプリケーションであると例示する。アプリケーション23はユーザが本を呼んでいる感覚となるように、ブックコンテンツのデータを表示する機能を有している。   The application 23 is an application that runs on the OS 21 and executes a predetermined function based on an operation input from the user. Here, the application 23 is exemplified as a book application. The application 23 has a function of displaying book content data so that the user feels that he / she is calling a book.

入力操作認識部31は、マイク16が集音し、サウンドコントローラ106から送信される音声入力(音入力)及び加速度センサ205が検出した加速度に基づいてOS21またはアプリケーション23に所定の指示を入力する機能を有している。入力操作認識部31は入力された音及び加速度を解析することができる。入力操作認識部31は入力された音が所定の周波数、振幅と対応するか否かを判別し、入力された加速度の示す運動が所定の衝撃又は振動であるかを判別する。そして、入力操作認識部31は、所定の音と衝撃/振動との組み合わせと、OS21またはアプリケーション23への指示が対応付けられた対応テーブル32を参照し、入力された音と衝撃/振動の組み合わせに一致する指示が対応テーブル32に登録されている場合は、この指示をOS21またはアプリケーション23へと入力する。この対応テーブル32は、内容が更新されてもよい。例えばそれまで登録されていた、音と衝撃/振動の組み合わせに対応する指示を他の指示に変更できても良いし、新たな音と衝撃/振動の組み合わせに対応する新たな指示を追加できるとしても良い。尚、対応テーブル32の内容更新時には、入力操作認識部31が検出した音と衝撃/振動の組み合わせと指示内容とを対応テーブル32に登録する。   The input operation recognition unit 31 has a function of inputting a predetermined instruction to the OS 21 or the application 23 based on the voice input (sound input) collected by the microphone 16 and transmitted from the sound controller 106 and the acceleration detected by the acceleration sensor 205. have. The input operation recognition unit 31 can analyze the input sound and acceleration. The input operation recognition unit 31 determines whether or not the input sound corresponds to a predetermined frequency and amplitude, and determines whether or not the motion indicated by the input acceleration is a predetermined impact or vibration. Then, the input operation recognition unit 31 refers to the correspondence table 32 in which a combination of a predetermined sound and shock / vibration and an instruction to the OS 21 or the application 23 are associated with each other, and a combination of the input sound and shock / vibration If an instruction that matches is registered in the correspondence table 32, this instruction is input to the OS 21 or the application 23. The contents of the correspondence table 32 may be updated. For example, the instruction corresponding to the combination of sound and shock / vibration that has been registered so far may be changed to another instruction, or a new instruction corresponding to a new combination of sound and shock / vibration can be added. Also good. When the contents of the correspondence table 32 are updated, the sound detected by the input operation recognition unit 31 and the combination of shock / vibration and the instruction contents are registered in the correspondence table 32.

この操作入力に対応する指示は、例えばタッチスクリーンディスプレイ17上へのユーザの操作入力を代替する指示であってもよい。この場合タッチスクリーンディスプレイ17の所定位置へのタッチ操作等が代替される指示の一つとして考えられる。又は、タブレットコンピュータ10のハードウェアボタンによる指示を代替する指示であってもよい。さらに、タッチスクリーンディスプレイ17やハードウェアボタンからの指示として、定義されていない指示であってもよい。   The instruction corresponding to the operation input may be, for example, an instruction for substituting the user's operation input on the touch screen display 17. In this case, it can be considered as one of instructions to replace a touch operation on a predetermined position of the touch screen display 17 or the like. Alternatively, it may be an instruction that substitutes for an instruction by a hardware button of the tablet computer 10. Further, an undefined instruction may be used as an instruction from the touch screen display 17 or the hardware button.

また、この操作入力に対応する指示は、OS21によってサポートされている指示であってもよいし、OS21によってサポートされていない、アプリケーション23とネイティブにやり取りを行う指示であってもよい。アプリケーション23との間でネイティブに定義される指示である場合には、入力操作認識部31はアプリケーション23へ直接指示を送る。   The instruction corresponding to the operation input may be an instruction supported by the OS 21 or an instruction that is not supported by the OS 21 and that communicates natively with the application 23. If the instruction is natively defined with the application 23, the input operation recognition unit 31 sends the instruction directly to the application 23.

アプリケーション23が例えば書籍アプリケーションである場合には、操作入力に対応する指示としてはページ送り/戻し、又はページ飛ばし、拡大/縮小等が挙げられる。ユーザは、片手でタブレットコンピュータ10を保持しているとき、保持している手の指で筐体13に対してタップ等することで、もう片方の手を使うことなく、ページ送り/戻し、又はページ飛ばし等の操作入力を行うことができる。   When the application 23 is, for example, a book application, the instructions corresponding to the operation input include page turning / returning, page skipping, enlargement / reduction, and the like. When the user holds the tablet computer 10 with one hand, the user can tap and / or tap the housing 13 with the finger of the holding hand, without using the other hand, or Operation input such as page skipping can be performed.

例えば、入力操作認識部31は、操作入力検出手段が検出するユーザの筐体13へ衝撃/振動のみに基づいて、ユーザの入力操作を特定してもよいが、この検出結果と音検出手段の検出する音の2つの要素に基づいてユーザの入力操作を特定することで、より高精度な検出処理が可能であり、誤検出を低減することができる。   For example, the input operation recognition unit 31 may identify the user's input operation based only on the impact / vibration on the user's casing 13 detected by the operation input detection unit. By specifying the user's input operation based on the two elements of the sound to be detected, more accurate detection processing can be performed, and erroneous detection can be reduced.

タブレットコンピュータ10は筐体13内に様々な電子部品が収容されており、筐体13内の位置によって部品の密度が異なる。これにより筐体13を外部からタップ/擦った場合には位置によって異なる音が発生する場合がある。つまり、この筐体13上のタップ等が行われた箇所は一定の精度で特定することが可能であり、これを利用してタップ等された位置によって異なる機能を割り当ててもよい。つまり、筐体13の側面をタップするとページ送り、背面をタップするとページ戻し等のように、タブレットコンピュータ10は操作された位置に応じた所定処理を実行する。   The tablet computer 10 accommodates various electronic components in a housing 13, and the density of components varies depending on the position in the housing 13. Thereby, when the housing 13 is tapped / rubbed from the outside, a different sound may be generated depending on the position. That is, it is possible to specify the place where the tap or the like on the housing 13 is performed with a certain accuracy, and a different function may be assigned depending on the position where the tap is performed using this. That is, the tablet computer 10 executes a predetermined process according to the operated position, such as page turning when the side surface of the housing 13 is tapped and page returning when the back surface is tapped.

この操作位置特定の方法としては、タップ等した箇所の音質(音の波形パターン)の違いのほかにマイク16が集音する音の大きさ、加速度センサ205の検出結果等に応じて特定する方法が考えられる。例えばマイク16が集音する音が大きければマイク16の設置位置に近い位置がタップされ、小さければ遠い位置がタップされたはずであり、また衝撃/振動が大きいほど加速度センサ205に近い位置がタップされた可能性が高い。これらの方法よってタップ等の位置を判別することができる。また、音質、音の大きさ、衝撃/振動の大きさ等を複合的に用いて判断することにより、より高精度にタップ等位置を特定することが可能となる。   As a method for specifying the operation position, in addition to the difference in sound quality (sound waveform pattern) at a tapped location, the operation position is specified in accordance with the volume of sound collected by the microphone 16, the detection result of the acceleration sensor 205, and the like. Can be considered. For example, if the sound collected by the microphone 16 is large, the position close to the installation position of the microphone 16 should be tapped, and if it is small, the position far from the tapping should be tapped. It is likely that The position of a tap or the like can be determined by these methods. Further, it is possible to specify the position of the tap or the like with higher accuracy by making a composite determination using sound quality, loudness, impact / vibration, and the like.

次に、本実施形態における処理の流れを説明する。   Next, the flow of processing in this embodiment will be described.

図4は、本実施形態における入力操作認識処理の一例を示すフロー図である。   FIG. 4 is a flowchart showing an example of the input operation recognition process in the present embodiment.

まず、入力操作認識部31は、加速度センサ205による加速度の検出結果に基づいて所定パターンの衝撃/振動を検出したか否かを判別する(ステップS41)。所定パターンの衝撃/振動を検出していない場合には(ステップS41:No)、処理はステップS41をループする。   First, the input operation recognition unit 31 determines whether or not a predetermined pattern of impact / vibration has been detected based on the acceleration detection result by the acceleration sensor 205 (step S41). If the predetermined pattern of impact / vibration is not detected (step S41: No), the process loops through step S41.

入力操作認識部31は、所定パターンの衝撃/振動を検出した場合(ステップS41:Yes)、検出された時刻におけるマイク16が集音した音を検出する(ステップS42)。   When the input operation recognition unit 31 detects a predetermined pattern of impact / vibration (step S41: Yes), the input operation recognition unit 31 detects the sound collected by the microphone 16 at the detected time (step S42).

次に、入力操作認識部31は検出した衝撃/振動及び音の波形パターンを解析し、この結果と対応する入力操作を特定する(ステップS43)。この特定時には、入力操作認識部31は対応テーブル32を参照して、特定処理を行う。操作処理が特定されると、入力操作認識部31は、OS21またはアプリケーション23へ特定された操作入力を入力し、OS21またはアプリケーション23は入力操作に基づいた処理を実行する(ステップS44)。   Next, the input operation recognizing unit 31 analyzes the detected shock / vibration and sound waveform pattern, and specifies an input operation corresponding to the result (step S43). At the time of identification, the input operation recognition unit 31 performs identification processing with reference to the correspondence table 32. When the operation process is specified, the input operation recognition unit 31 inputs the specified operation input to the OS 21 or the application 23, and the OS 21 or the application 23 executes a process based on the input operation (step S44).

以上で、一連の処理フローは終了となる。   Thus, a series of processing flow is completed.

集音された音の特定のため、利用するユーザが筐体13へのタップ/擦る操作を行ったときの音を、例えば最初の使用時等に予め記憶させるとしてもよい。利用するユーザによってタップ/擦る操作の強さ速さ等が異なる可能性があるため、特定ユーザのタップ/擦る操作音を最初に記憶させておくことでより精度の高い検出を実現することができる。また、タブレット機器等では購入後に新たに本体にカバーをかけるケースが考えられるこのため、カバー取り付け後に再度音声のキャリブレーションを実行するとしてもよい。   In order to specify the collected sound, the sound when the user who uses the user taps / rubs the housing 13 may be stored in advance, for example, at the first use. Since the strength / speed of the tap / rub operation may differ depending on the user to be used, more accurate detection can be realized by first storing the tap / rub operation sound of a specific user. . In addition, since it is conceivable that a tablet device or the like may newly cover the main body after purchase, the sound calibration may be executed again after the cover is attached.

さらに、加速度センサ205が検出する加速度、及びマイク16が集音する音に基づいて、ユーザのタップ/擦る操作の早さを検出することもできる。入力操作認識部31はこの速さに基づいて操作入力を判別するとしてもよい。例えば、突起部15がゆっくり擦られた場合には1ページのみのページ送りを実行し、速く擦られた場合には複数ページのページ送り(ページ飛ばし)を実行するとしてもよい。   Furthermore, based on the acceleration detected by the acceleration sensor 205 and the sound collected by the microphone 16, it is possible to detect the speed of the user's tap / rub operation. The input operation recognition unit 31 may determine the operation input based on this speed. For example, when the protrusion 15 is rubbed slowly, only one page may be paged, and when rubbed quickly, multiple pages may be paged (page skipping).

次に、本実施形態における変形例について説明を行う。   Next, a modified example in the present embodiment will be described.

(変形例1)
図5を用いて変形例1について説明を行う。
(Modification 1)
Modification 1 will be described with reference to FIG.

図5は、本変形例における入力操作認識処理の一例を示すフロー図である。   FIG. 5 is a flowchart showing an example of the input operation recognition process in the present modification.

本変形例では、タブレットコンピュータ10は上記実施形態とほぼ同様のハードウェア及びソフトウェアの内部構成を有する。上述の実施形態では衝撃/振動の検出結果及び音の検出結果に基づいてユーザの操作入力を判別したが、本変形例では音の検出結果のみに基づいてユーザの操作入力を判別する。   In this modification, the tablet computer 10 has the same hardware and software internal configurations as those in the above embodiment. In the above-described embodiment, the user's operation input is determined based on the impact / vibration detection result and the sound detection result. However, in this modification, the user's operation input is determined based only on the sound detection result.

まず、入力操作認識部31は、マイク16が集音した音を検出する(ステップS51)。   First, the input operation recognition unit 31 detects the sound collected by the microphone 16 (step S51).

検出した音が所定の音量(閾値)以上でない場合には(ステップS52:No)、処理はステップS51に戻る。   If the detected sound is not equal to or higher than the predetermined volume (threshold) (step S52: No), the process returns to step S51.

検出した音が所定の音量(閾値)以上の場合(ステップS52:Yes)、入力操作認識部31は検出した音のパターンを解析し、この結果と対応する入力操作を特定する(ステップS53)。この特定時には、入力操作認識部31は対応テーブル32を参照して、特定処理を行う。操作処理が特定されると、入力操作認識部31は、OS21またはアプリケーション23へ特定された操作入力を入力し、OS21またはアプリケーション23は入力操作に基づいた処理を実行する(ステップS54)。   When the detected sound is equal to or higher than a predetermined volume (threshold) (step S52: Yes), the input operation recognition unit 31 analyzes the detected sound pattern and specifies an input operation corresponding to the result (step S53). At the time of identification, the input operation recognition unit 31 performs identification processing with reference to the correspondence table 32. When the operation process is specified, the input operation recognition unit 31 inputs the specified operation input to the OS 21 or the application 23, and the OS 21 or the application 23 executes a process based on the input operation (step S54).

以上で、一連の処理フローは終了となる。   Thus, a series of processing flow is completed.

本変形例では音の検出結果のみに基づいてユーザの操作入力を判別する。この際、音声パターンの解析処理は処理量が大きく、常に音の波形パターンの解析処理を実行することは、タブレットコンピュータ10全体の処理量の増加、消費電力の増加を招く可能性がある。このため、閾値以上の音量の音にのみ音の波形パターンの解析処理を実行することで、タブレットコンピュータ10全体の処理量及び消費電力を低減することができる。   In this modification, the user's operation input is determined based only on the sound detection result. At this time, the analysis process of the voice pattern has a large processing amount, and constantly executing the analysis process of the sound waveform pattern may increase the processing amount of the entire tablet computer 10 and increase the power consumption. For this reason, the processing amount and power consumption of the tablet computer 10 as a whole can be reduced by executing the analysis processing of the sound waveform pattern only for the sound having a volume equal to or higher than the threshold.

さらに、他の変形例について説明を行う。   Furthermore, other modified examples will be described.

(変形例2)
図6を用いて変形例2について説明を行う。
(Modification 2)
Modification 2 will be described with reference to FIG.

図6は、本変形例における電子機器の外観の一例を示す斜視図である。   FIG. 6 is a perspective view illustrating an example of an external appearance of an electronic device according to this modification.

本変形例では、タブレットコンピュータ10は上記実施形態とほぼ同様のソフトウェアの構成を有するが、ハードウェアの構成については一部異なっている。   In this modification, the tablet computer 10 has a software configuration substantially similar to that of the above-described embodiment, but the hardware configuration is partially different.

タブレットコンピュータ10は、略本型の形状で折り畳むことが可能である。図6では書籍アプリケーションが起動され、ブックコンテンツがディスプレイに表示されている。このような形状の場合、ユーザは筐体13の左右の縁を掴んで、タブレットコンピュータ10を保持する場合が考えられる。本変形例のタブレットコンピュータ10の筐体13は掴んだ左右それぞれの手から触りやすい位置に突起部15が設けられており、ユーザは左右それぞれの突起部15を擦ることで、タブレットコンピュータ10に異なる操作入力を行うことが可能となる。例えば、右側の突起部15を擦るとページ送りを行い、左側の突起部15を擦るとページ戻しを実行するとしてもよい。   The tablet computer 10 can be folded in a substantially book shape. In FIG. 6, the book application is activated and the book content is displayed on the display. In the case of such a shape, the user may hold the tablet computer 10 by grasping the left and right edges of the housing 13. The housing 13 of the tablet computer 10 of this modification is provided with a protrusion 15 at a position where it can be easily touched from the left and right hands, and the user differs from the tablet computer 10 by rubbing the left and right protrusions 15. Operation input can be performed. For example, page turning may be performed by rubbing the right protrusion 15, and page returning may be performed by rubbing the left protrusion 15.

これらの、実施形態、変形例により、ユーザは電子機器を保持した手を離すことなく容易に操作入力が可能となる。   With these embodiments and modifications, the user can easily perform operation input without releasing the hand holding the electronic device.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具現化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1…本体、10…タブレットコンピュータ、15…突起部、16…マイク、17…タッチスクリーンディスプレイ、17A…LCD、17B…タッチパネル、18A、B…スピーカ、101…CPU、102…システムコントローラ、103…主メモリ、105…GPU、105A…VRAM、106…サウンドコントローラ、107…BIOS−ROM、109…SSD、111A…USBコントローラ、112…無線LANコントローラ、113…EC、114…EEPROM、121…電源回路、122…バッテリ、123…ACアダプタ、205…加速度センサ、21…OS、22…操作入力ユーティリティプログラム、23…アプリケーション、31…入力操作認識部、32…対応テーブル。 DESCRIPTION OF SYMBOLS 1 ... Main body, 10 ... Tablet computer, 15 ... Projection part, 16 ... Microphone, 17 ... Touch screen display, 17A ... LCD, 17B ... Touch panel, 18A, B ... Speaker, 101 ... CPU, 102 ... System controller, 103 ... Main Memory, 105 ... GPU, 105A ... VRAM, 106 ... Sound controller, 107 ... BIOS-ROM, 109 ... SSD, 111A ... USB controller, 112 ... Wireless LAN controller, 113 ... EC, 114 ... EEPROM, 121 ... Power supply circuit, 122 ... Battery, 123 ... AC adapter, 205 ... Acceleration sensor, 21 ... OS, 22 ... Operation input utility program, 23 ... Application, 31 ... Input operation recognition unit, 32 ... Correspondence table.

Claims (9)

筐体と、
前記筐体から少なくとも一部が露出した表示部と、
前記筐体に与えられた操作入力を検出する入力検出手段と、
周囲の音を検出する音検出手段と、
前記入力検出手段及び前記音検出手段の検出結果に基づいて所定の処理を実行する実行手段と、
を具備する電子機器。
A housing,
A display part at least partially exposed from the housing;
Input detection means for detecting an operation input given to the housing;
Sound detection means for detecting ambient sounds;
Execution means for executing predetermined processing based on detection results of the input detection means and the sound detection means;
An electronic device comprising:
前記入力検出手段はセンサを具備する請求項1記載の電子機器。   The electronic device according to claim 1, wherein the input detection unit includes a sensor. 前記入力検出手段は前記筐体の振動を検出する請求項1記載の電子機器。   The electronic apparatus according to claim 1, wherein the input detection unit detects vibration of the housing. 前記入力検出手段は前記筐体への衝撃を検出する請求項1記載の電子機器。   The electronic device according to claim 1, wherein the input detection unit detects an impact on the housing. 前記筐体は凸部を有し、
前記実行手段は前記凸部に対する接触音を検出し、この接触音に基づいて所定の処理を判別する請求項1記載の電子機器。
The housing has a convex portion,
The electronic device according to claim 1, wherein the execution unit detects a contact sound with respect to the convex portion and determines a predetermined process based on the contact sound.
前記実行手段は、前記入力検出手段の検出結果と前記音検出手段の検出結果との組み合わせと実行する処理との対応を示すテーブルを有しており、このテーブルに基づいて実行する処理を決定する請求項1記載の電子機器。   The execution means has a table indicating a correspondence between a combination of the detection result of the input detection means and the detection result of the sound detection means and a process to be executed, and determines a process to be executed based on the table. The electronic device according to claim 1. 前記テーブルの内容を更新する更新手段を更に具備する請求項6記載の電子機器。   The electronic apparatus according to claim 6, further comprising updating means for updating the contents of the table. 筐体と、前記筐体から少なくとも一部が露出した表示部とを具備する電子機器において実行されるプログラムであって、
入力検出手段に前記筐体に与えられた操作入力を検出させ、
音検出手段に周囲の音を検出させ、
前記入力検出手段及び前記音検出手段の検出結果に基づいて所定の処理を実行するプログラム。
A program that is executed in an electronic device including a housing and a display unit that is at least partially exposed from the housing,
Let the input detection means detect the operation input given to the housing,
Let the sound detection means detect ambient sounds,
A program for executing predetermined processing based on detection results of the input detection means and the sound detection means.
筐体と、 前記筐体から少なくとも一部が露出した表示部とを具備する電子機器における処理実行方法であって、
入力検出手段で、前記筐体に与えられた操作入力を検出し、
音検出手段で、周囲の音を検出し、
前記入力検出手段及び前記音検出手段の検出結果に基づいて所定の処理を実行する処理実行方法。
A processing execution method in an electronic device comprising a housing and a display unit at least partially exposed from the housing,
An input detection means detects an operation input given to the housing,
Sound detection means detects ambient sounds,
A process execution method for executing a predetermined process based on detection results of the input detection means and the sound detection means.
JP2013130022A 2013-06-20 2013-06-20 Electronic apparatus, program and processing execution method Pending JP2015005136A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013130022A JP2015005136A (en) 2013-06-20 2013-06-20 Electronic apparatus, program and processing execution method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013130022A JP2015005136A (en) 2013-06-20 2013-06-20 Electronic apparatus, program and processing execution method

Publications (1)

Publication Number Publication Date
JP2015005136A true JP2015005136A (en) 2015-01-08

Family

ID=52300978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013130022A Pending JP2015005136A (en) 2013-06-20 2013-06-20 Electronic apparatus, program and processing execution method

Country Status (1)

Country Link
JP (1) JP2015005136A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017126218A (en) * 2016-01-14 2017-07-20 レノボ・シンガポール・プライベート・リミテッド Information terminal, information system, acoustic member, information processing method, and program
US10802790B2 (en) 2017-07-12 2020-10-13 Lenovo (Singapore) Pte. Ltd. Portable computing devices and command input methods for the portable computing devices

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017126218A (en) * 2016-01-14 2017-07-20 レノボ・シンガポール・プライベート・リミテッド Information terminal, information system, acoustic member, information processing method, and program
US10802790B2 (en) 2017-07-12 2020-10-13 Lenovo (Singapore) Pte. Ltd. Portable computing devices and command input methods for the portable computing devices

Similar Documents

Publication Publication Date Title
CN106030446B (en) Method and system for adjusting power mode of wearable computing device
CN107924278B (en) Method for playing virtual musical instrument and electronic device for supporting the same
EP2975497A1 (en) Terminal device, terminal device control method, and program
US20130257807A1 (en) System and method for enhancing touch input
US20160274718A1 (en) Touchscreen for use with flexible display
WO2018214885A1 (en) Radio frequency interference processing method and electronic device
JP2013015890A (en) Information processor and method for controlling the same
US20140333553A1 (en) Method of operating and electronic device thereof
KR20150131872A (en) Electronic device and method for executing a musical performance in the electronic device
JP2014062962A (en) Information processing apparatus, writing instrument, information processing method, and program
KR20140107788A (en) Method of controlling event and electronic device thereof
KR101474856B1 (en) Apparatus and method for generateg an event by voice recognition
JP2007011785A (en) Information processor, and vibration control method for touch panel
US9833706B2 (en) Storage medium having information processing program stored therein, information processing device, and coordinate calculation method
KR20190110690A (en) Method for providing information mapped between plurality inputs and electronic device supporting the same
JP2015215696A (en) Electronic equipment, program, and warning method in electronic equipment
JP5349642B2 (en) Electronic device, control method and program
US11545061B2 (en) Electronic device for displaying screen through display in low-power mode and operating method thereof
KR20160143428A (en) Pen terminal and method for controlling the same
JP2015005136A (en) Electronic apparatus, program and processing execution method
US9946560B2 (en) Development environment for multiple electronic devices
JP2000293289A (en) Portable terminal device
JP6392051B2 (en) Electronic device, method and program
JP2018195112A (en) Input device, input support program, and input support method
US20150302840A1 (en) Wearable device system for generating audio

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20150218