JP2022002033A - 電子機器、及び制御方法 - Google Patents

電子機器、及び制御方法 Download PDF

Info

Publication number
JP2022002033A
JP2022002033A JP2020107007A JP2020107007A JP2022002033A JP 2022002033 A JP2022002033 A JP 2022002033A JP 2020107007 A JP2020107007 A JP 2020107007A JP 2020107007 A JP2020107007 A JP 2020107007A JP 2022002033 A JP2022002033 A JP 2022002033A
Authority
JP
Japan
Prior art keywords
detection
resolution
person
gesture
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020107007A
Other languages
English (en)
Other versions
JP7008104B2 (ja
Inventor
和宏 小杉
Kazuhiro Kosugi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2020107007A priority Critical patent/JP7008104B2/ja
Priority to US17/237,570 priority patent/US11435833B2/en
Priority to CN202110494622.4A priority patent/CN113900154A/zh
Publication of JP2022002033A publication Critical patent/JP2022002033A/ja
Application granted granted Critical
Publication of JP7008104B2 publication Critical patent/JP7008104B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/04Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means
    • G01C21/08Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means involving use of the magnetic field of the earth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3296Power saving characterised by the action undertaken by lowering the supply or operating voltage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/44Program or device authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Computer Security & Cryptography (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Geophysics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Geology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Power Sources (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】消費電力を抑制しつつ、人物の検出に加えジェスチャーの検出も可能にすること。【解決手段】電子機器は、所定の範囲内に存在する物体から到来する波動を検出して検出信号を出力する検出センサと、検出センサから出力される検出信号に基づいて所定の範囲内に存在する物体を検出する物体検出部と、検出センサから出力される検出信号に基づいて物体の動きに応じたジェスチャーを検出するジェスチャー検出部と、検出センサにおける検出解像度を、所定の範囲内に存在する物体を検出する際には第1解像度に設定し、ジェスチャーを検出する際には第1解像度よりも高解像度の第2解像度に設定する検出解像度制御部と、を備える。【選択図】図3

Description

本発明は、電子機器、及び制御方法に関する。
PC(Personal Computer;パーソナルコンピュータ)などの電子機器は、正面に人物が存在するか否かを検出して動作を制御するものがある。例えば、特許文献1には、近づいてきた人物を検知したことに応じて操作画面を表示する端末処理装置について記載されている。
特開2003−255922号公報
一方、PCのユーザインターフェースの一つとして、ジェスチャーを用いた入力方法がある。例えば、ユーザがPCに向かって手を左から右へ又は右から左へ動かすことにより、そのジェスチャーに応じた制御(例えば、音量のアップ/ダウンなど)をPCが行うことが可能である。ジェスチャーを検出する際には、人物を検出する際と同様のセンサを用いてユーザの手の動きを検出する方法がある。
しかしながら、人物を検出するのみであれば低解像度の検出で可能であるが、ジェスチャーを検出するためには高解像度の検出が必要となり、消費電力も高くなる。
本発明は、上記した事情に鑑みてなされたもので、消費電力を抑制しつつ、人物の検出に加えジェスチャーの検出も可能な電子機器、及び制御方法を提供することを目的の一つとする。
本発明は上記の課題を解決するためになされたものであり、本発明の第1態様に係る電子機器は、所定の範囲内に存在する物体から到来する波動を検出して検出信号を出力する検出センサと、前記検出センサから出力される検出信号に基づいて前記所定の範囲内に存在する物体を検出する物体検出部と、前記検出センサから出力される検出信号に基づいて前記物体の動きに応じたジェスチャーを検出するジェスチャー検出部と、前記検出センサにおける検出解像度を、前記所定の範囲内に存在する物体を検出する際には第1解像度に設定し、前記ジェスチャーを検出する際には前記第1解像度よりも高解像度の第2解像度に設定する検出解像度制御部と、を備える。
上記電子機器において、前記検出解像度制御部は、前記物体検出部により前記所定の範囲内に第1物体が検出され且つ前記第1物体よりも近距離に第2物体が検出された場合、前記第1解像度から前記第2解像度へ変更してもよい。
上記電子機器において、前記検出解像度制御部は、前記物体検出部により前記所定の範囲内に第1物体が検出されている状態で、さらに前記第1物体よりも近距離に前記第2物体が検出された場合、前記第1解像度から前記第2解像度へ変更してもよい。
上記電子機器において、前記検出解像度制御部は、前記物体検出部により前記所定の範囲内に第1物体が検出されていない状態から検出された場合に前記第1解像度から前記第2解像度へ変更し、変更後に、所定の期間以内に前記第1物体よりも近距離に第2物体が検出された場合には前記第2解像度の設定を継続し、所定の期間以内に前記第1物体よりも近距離に前記第2物体が検出されなかった場合、前記第2解像度から前記第1解像度へ戻してもよい。
上記電子機器は、前記検出解像度制御部は、前記物体検出部により前記第1物体よりも近距離に前記第2物体が検出されている状態から検出されなくなったことに基づいて、前記第2解像度から前記第1解像度へ戻してもよい。
上記電子機器において、前記ジェスチャー検出部は、前記第2物体の動きに応じたジェスチャーを検出し、前記検出解像度制御部は、前記ジェスチャー検出部により前記第2物体の動きに応じたジェスチャーが検出されたことに基づいて、前記第2解像度から前記第1解像度へ戻してもよい。
上記電子機器において、前記検出解像度制御部は、前記第1物体よりも一定距離以上近距離に前記第2物体が検出された場合、前記第1解像度から前記第2解像度へ変更してもよい。
上記電子機器は、前記検出センサが設けられている第1筐体と、前記第1筐体に対して相対的に回動可能に接続され、ユーザの操作を受け付ける操作部が設けられている第2筐体と、前記第1筐体と前記第2筐体との開き角度を検出する角度検出部と、を備え、前記物体検出部は、前記角度検出部により検出された前記開き角度が所定値未満の場合、前記所定の範囲のうちの一部の範囲を検出対象から除外してもよい。
また、本発明の第2態様に係る、所定の範囲内に存在する物体から到来する波動を検出して検出信号を出力する検出センサを備える電子機器における制御方法は、物体検出部が、前記検出センサから出力される検出信号に基づいて前記所定の範囲内に存在する物体を検出するステップと、ジェスチャー検出部が、前記検出センサから出力される検出信号に基づいて前記物体の動きに応じたジェスチャーを検出するステップと、検出解像度制御部が、前記検出センサにおける検出解像度を、前記所定の範囲内に存在する物体を検出する際には第1解像度に設定し、前記ジェスチャーを検出する際には前記第1解像度よりも高解像度の第2解像度に設定するステップと、を有する。
本発明の上記態様によれば、消費電力を抑制しつつ、人物の検出に加えジェスチャーの検出も可能にすることができる。
第1の実施形態に係る電子機器の概要を説明する図。 第1の実施形態に係る近接センサの2種類の動作モードを示す図。 第1の実施形態に係る検出モードの状態遷移を示す図。 第1の実施形態に係る近接センサの検出状態を示す模式図。 第1の実施形態に係る人物が手を前に出している状態の検出信号例を示すグラフ。 第1の実施形態に係る電子機器の外観の構成例を示す斜視図。 第1の実施形態に係る電子機器の構成の一例を示す概略ブロック図。 第1の実施形態に係るジェスチャー検出時における近接センサの検出状態の一例を示す模式図。 第1の実施形態に係るジェスチャー検出モードに遷移するまでの処理の一例を示すフローチャート。 第1の実施形態に係るジェスチャー検出モードに遷移した後の処理の一例を示すフローチャート。 第1の実施形態に係るジェスチャーを検出した後の処理の一例を示すフローチャート。 第2の実施形態に係る検出モードの状態遷移を示す図。 第3の実施形態に係る電子機器の構成の一例を示す概略ブロック図。
<第1の実施形態>
まず、本発明の第1の実施形態に係る電子機器1の概要について、図面を参照して説明する。本実施形態に係る電子機器1は、例えば、ノート型PC(Personal Computer;パーソナルコンピュータ)などの情報処理装置である。なお、電子機器1は、デスクトップ型PC、タブレット端末装置、スマートフォンなど、いずれの形態の情報処理装置であってもよい。
電子機器1は、システムの動作状態として少なくとも通常動作状態(パワーオン状態)と待機状態との間を遷移可能である。通常動作状態とは、特に制限なく処理の実行が可能な動作状態であり、例えば、ACPI(Advanced Configuration and Power Interface)で規定されているS0状態に相当する。待機状態は、システム処理の少なくとも一部が制限されている状態である。例えば、待機状態は、少なくとも表示部の表示がOFFとなる状態であり、通常動作状態よりも電力の消費量が低い動作状態である。待機状態は、スタンバイ状態、スリープ状態等であってもよく、Windows(登録商標)におけるモダンスタンバイや、ACPIで規定されているS3状態(スリープ状態)等に相当する状態であってもよい。
以下では、システムの動作状態が待機状態から通常動作状態へ遷移することを起動と呼ぶことがある。待機状態では、一般的に通常動作状態よりも動作の活性度が低いため、電子機器1のシステム処理を起動させることは、電子機器1におけるシステム処理の動作を活性化させることになる。
図1は、本実施形態に係る電子機器1の概要を説明する図である。電子機器1は、後述する近接センサを備えており、電子機器1の近傍に存在する人物を検出する。この人物の存在を検出する処理のことを、HPD(Human Presence Detection)処理とも呼ぶことがある。電子機器1は、電子機器1の近傍に存在する人物を検出し、検出結果に基づいて電子機器1の動作状態を制御する。例えば、電子機器1は、図1(A)に示すように、電子機器1の前に人物が存在しない状態(Absence)から存在する状態(Presence)への変化、即ち電子機器1へ人物が接近したこと(Approach)を検出した場合、自動でシステムを起動して通常動作状態へ遷移させる。また、電子機器1は、図1(B)に示すように、電子機器1の前に人物が存在している状態(Presence)では、システムを待機状態へ遷移させないように制限し、通常動作状態を継続させる。そして、電子機器1は、図1(C)に示すように、電子機器1の前に人物が存在している状態(Presence)から存在しない状態(Absence))への変化、即ち電子機器1から人物が離脱したこと(Leave)を検出した場合には、システムを待機状態へ遷移させる。以下では、人物の接近を検出する検出モードを「接近検出モード」、人物の離脱を検出する検出モードを「離脱検出モード」とも称する。
また、電子機器1は、ユーザインターフェースとして、ジェスチャーを用いた入力にも対応している。電子機器1は、HPDに使用する近接センサを用いて人物のジェスチャーを検出する。ジェスチャーとしては、例えば、手を上から下へ(又は下から上へ)動かす、手を左から右へ(又は右から左へ)動かす、手で円を描く、手を前に出して静止させるなどを例示することができる。例えば、電子機器1は、手を上から下へ(又は下から上へ)動かすジェスチャーを検出すると、音量を下げる又は上げる制御を実行する。また、電子機器1は、手を左から右へ(又は右から左へ)動かすジェスチャーを検出すると、プレゼンテーションのアプリケーションプログラムの処理では頁を送る又は戻す制御を実行し、音楽プレイヤのアプリケーションの処理では次の曲を再生又は一つ前の曲を再生する制御を実行してもよい。ジェスチャーの種類と実行する制御との組み合わせは、OS(Operating System)やアプリケーションプログラムの仕様によって定めることができる。
検出に用いる近接センサは、所定の範囲内に存在する物体から到来する波動を検出して検出信号を出力する。例えば、近接センサは、赤外線を発光する発光部と、発光した赤外線が物体の表面に反射して戻ってくる反射光を受光する受光部とを含んで構成される赤外線距離センサである。近接センサは、所定のサンプリング周期(例えば、1Hz)で、受光部が受光した光を検出し、発光から受光までの時間差等を距離に換算するToF(Time of Flight)方式等を用いて、物体(例えば、人物(より具体的には人物の体や、体のうちの手など))との距離に応じて検出信号を出力する。この近接センサは、検出する解像度の違いによる2種類の動作モードを有している。
図2は、近接センサの検出解像度の違いによる2種類の動作モードを示す図である。図2(A)は、低解像度で検出する動作モード(以下、「低解像度モード」と称する)時の検出素子の数(例えば、4×4)を示している。一方、図2(B)は、高解像度で検出する動作モード(以下、「高解像度モード」と称する)時の検出素子の数(例えば、8×8)を示している。低解像度モードは、近接センサが備える検出素子(例えば、8×8)を間引いて(例えば、4×4)使用するため、消費電力が低いという利点がある。人物の有無を検出する際には、低解像度モードで十分であるが、ジェスチャーを検出する際には手の動きを判別する必要があるため解像度が不足する。一方、高解像度モードは、低解像度モードよりも使用する検出素子が多い(例えば、8×8)ため、ジェスチャーを検出することも可能であるが消費電力は高くなる。常に高解像度モードの設定であれば、人物の検出もジェスチャーの検出もどちらも可能であるが、常に消費電力が高くなってしまう。そこで、電子機器1は、初期設定では、低解像度モードに設定し、必要なときだけ高解像度モードに変更する。
なお、本実施形態では、近接センサ130には、水平方向に8個×垂直方向に8個の計64個の検出素子が配列されている例を用いて説明しているが、これに限定されるものではなく、配列されている検出素子の数は、任意の数とすることができる。また、低解像度モードのときの検出素子の数及び配列も4×4に限定されるものではない。低解像度モードのときの検出素子の数は。高解像度モードのときの検出素子の数より少なければよい。
図3は、本実施形態に係る検出モードの状態遷移を示す図である。電子機器1が備える近接センサ130は、検出視野角FoV(Field of View)と検出距離とで定まる人物検出範囲内の物体を(例えば、人物)検出する。電子機器1は、検出視野角FoV内において、電子機器1に対して接近検出距離ADの外側から内側に人物が入った時に人物が接近したと検出する。電子機器1は、人物の検出状態に応じて、(A)、(B)、(C)の状態に遷移する。
(A)は、人物Uが電子機器1に対して接近検出距離ADより遠くに存在している。電子機器1は、人物が存在しない状態(Absence)であると判定しており、低解像度モードで人物の接近を検出する接近検出モードである。人物Uが電子機器1に対して接近検出距離ADより近くに移動すると、(B)の離脱検出モードに遷移する。なお、接近検出モードでは、人物が存在しないためジェスチャー入力が行われることがない。
(B)は、人物Uが電子機器1に対して接近検出距離ADより近くに存在している。電子機器1は、人物が存在する状態(Presence)であると判定しており、低解像度モードで人物の離脱を検出する離脱検出モードである。離脱検出モードでは人物が存在するためジェスチャー入力を行う可能性がある。そのため、電子機器1は、人物Uの手が前に出された否かを監視する。電子機器1は、人物Uの手が前に出されたことを検出すると、(C)のジェスチャー検出モードに遷移する。なお、人物Uが電子機器1に対して接近検出距離ADより遠くに離れると、電子機器1は、(A)の接近検出モードに戻る。
(C)は、人物Uが電子機器1に対して接近検出距離ADより近くに存在しており、且つ人物Uが手を前に出している。電子機器1は、高解像度モードで人物Uのジェスチャーを検出するジェスチャー検出モードである。電子機器1は、ジェスチャーの検出が終了又は人物Uの手が検出されなくなると、(B)の離脱検出モードに戻る。また、電子機器1は、(C)のジェスチャー検出モードで人物Uが検出されなくなった場合には、(A)の接近検出モードに戻る。
このように、電子機器1は、人物が存在する状態(Presence)である離脱検出モードにおいて、人物が電子機器1に向かって手を前に出したときに、その手を検出して自動で近接センサ130を低解像度モードから高解像度モードに変更する。また、電子機器1は、ジェスチャーの検出が終了又は人物の手が検出されなくなった場合には、自動で近接センサ130を高解像度モードから低解像度モードに変更する。これにより、ジェスチャーの検出を行うときのみ高解像度モードにするため、消費電力を抑制しつつ、人物の検出に加えジェスチャーの検出も可能とすることができる。
次に、離脱検出モードにおいて人物が手を前に出したことを検出する検出方法について説明する。図4は、近接センサ130の検出状態を示す模式図である。(A)は、人物が存在しない状態(Absence)であり、接近検出モードである。近接センサ130は、低解像度モードであり、この(A)では、4×4の検出素子に対応する4×4のマスのそれぞれに番号付けして示している。すべてのマスにおいて接近検出距離AD以内に物体(人物)が検出されていない状態である。(B)は、人物が存在する状態(Presence)であり、離脱検出モードである。各マスの数字は、検出された物体(人物の体)との距離を示している。マス5,6,9,10、12〜15の合計8マスの検出距離が65cmで人物の体が検出されているマスである。(C)は、人物が手を前に出している状態であり、ジェスチャー検出モードである。(B)では、マス5,6,9,10、12〜15の合計8マスの検出距離が65cmであったが、(C)では、そのうちマス10のみ検出距離が30cmになっている。このマス10が人物の手が検出されている部分である。
図5は、図4の(C)に示す人物が手を前に出している状態の検出信号の一例を示すグラフである。検出信号は、近接センサ130が出力する検出信号に相当する。この図において、横軸が電子機器1(近接センサ130)に対する検出距離、縦軸が検出量を示している。この図に示すように、人物の体が検出されている65cmに相当する部分と、手が検出されている30cmに相当する部分との2カ所にピークが現れる。つまり、人物の体が検出されている65cmに相当する第1のピークよりも近距離に別の第2のピークが現れることを条件として、人物が手を前に出したことを検出することができる。
なお、第1のピークと第2のピークとの距離は、ピークが2カ所と判別できれば接近していても構わないが、一定距離以上(例えば、15cm〜20cm程度)離れていることを条件として人物が手を前に出したことを検出してもよい。一定距離以上離れていることを条件とすることで、例えば人物の肩が少し前に出ただけで手と誤判別してしまうことを抑制することができる。
(電子機器の外観構成)
図6は、本実施形態に係る電子機器1の外観の構成例を示す斜視図である。
電子機器1は、第1筐体10、第2筐体20、及びヒンジ機構15を備える。第1筐体10と第2筐体20は、ヒンジ機構15を用いて結合されている。第1筐体10は、第2筐体20に対して、ヒンジ機構15がなす回転軸の周りに相対的に回動可能である。回転軸の方向は、ヒンジ機構15が設置されている側面10c、20cに対して平行である。
第1筐体10は、Aカバー、ディスプレイ筐体とも呼ばれる。第2筐体20は、Cカバー、システム筐体とも呼ばれる。以下の説明では、第1筐体10と第2筐体20の側面のうち、ヒンジ機構15が備わる面を、それぞれ側面10c、20cと呼ぶ。第1筐体10と第2筐体20の側面のうち、側面10c、20cとは反対側の面を、それぞれ側面10a、20aと呼ぶ。図示において、側面20aから側面20cに向かう方向を「後」と呼び、側面20cから側面20aに向かう方向を「前(或いは正面)」と呼ぶ。後方に対して右方、左方を、それぞれ「右」、「左」と呼ぶ。第1筐体10、第2筐体20の左側面をそれぞれ側面10b、20bと呼び、右側面をそれぞれ側面10d、20dと呼ぶ。また、第1筐体10と第2筐体20とが重なり合って完全に閉じた状態(開き角θ=0°の状態)を「閉状態」と呼ぶ。閉状態において第1筐体10と第2筐体20との互いに対面する側の面を、それぞれの「内面」と呼び、内面に対して反対側の面を「外面」と呼ぶ。また、閉状態に対して第1筐体10と第2筐体20とが開いた状態のことを「開状態」と呼ぶ。
図6に示す電子機器1の外観は開状態の例を示している。開状態は、第1筐体10の側面10aと筐体20の側面20aとが離れた状態である。開状態では、第1筐体10と第2筐体20とのそれぞれの内面が表れ、電子機器1は通常の動作を実行可能とすることが期待される。開状態は、第1筐体10の内面と第2筐体20の内面とがなす開き角θが所定の角度(例えば、20°)以上になった状態であり、典型的な使用形態では100〜130°程度となる。なお、開状態となる開き角θの範囲は、ヒンジ機構15よって回動可能な角度の範囲等に応じて任意に定めることができる。
第1筐体10の内面には、表示部110が設けられている。表示部110は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどを含んで構成されている。また、第1筐体10の内面のうち表示部110の周縁の領域に、撮像部120と近接センサ130とが設けられている。即ち、撮像部120と近接センサ130とは、電子機器1を使用する人物(ユーザ)と対面するような位置に設けられている。撮像部120及び近接センサ130は、表示部110の周縁の領域のうち側面10a側に並んで配置されている。なお、撮像部120または近接センサ130は、表示部110の周縁の領域のうち側面10b側、10c側、または10d側のいずれに配置されてもよい。
撮像部120は、開状態において、第1筐体10の内面に対面する方向(前方)の所定の画角内の物体の像を撮像する。所定の画角とは、撮像部120が有する撮像素子と撮像素子の撮像面の前方に設けられた光学レンズとによって定める撮像画角である。
近接センサ130は、電子機器1の近傍に存在する物体(例えば、人物(より具体的には人物の体や、体のうちの手など))を検出する。例えば、近接センサ130は、赤外線(IR:Infrared)を発光する発光素子と、発光した赤外線が物体の表面に反射して戻ってくる反射波(即ち、物体から到来する赤外線)を検出する複数の検出素子とを含んで構成される赤外線センサである。なお、赤外線を放射する発光素子は、近接センサ130内で検出素子とは異なる位置(発光した赤外線が検出素子に直接到来しない位置)に内蔵されてもよいし、第1筐体10の内面の近接センサ130とは異なる位置に設けられてもよい。
図2を参照して説明したように、近接センサ130は、低解像度モードと高解像度モードの切り替えが可能である。近接センサ130は、高解像度モードでは、例えば8×8の検出素子を使用するが、低解像度モードでは、例えば4×4の検出素子に間引いて使用する。高解像度モードより低解像度モードの方が低消費電力である。近接センサ130は、所定のサンプリング周期(例えば、50〜200ms)ごとに各検出素子で検出された光度をサンプリングし、サンプリングした光度に応じた検出信号(即ち、物体までの距離に応じて検出量(図5参照)を示す検出信号)を出力する。
第2筐体20の内面には、キーボード151及びタッチパッド153が入力デバイスとして設けられている。なお、入力デバイスとして、表示部110の表示面に対応する領域へのタッチ操作を検出するタッチセンパネルが含まれてもよいし、マウスや外付けのキーボードが接続されてもよい。また、入力デバイスには、音声が入力されるマイクが含まれてもよい。
なお、第1筐体10と第2筐体20とが閉じた閉状態では、第1筐体10の内面に設けられている表示部110、撮像部120、及び近接センサ130は、第2筐体20の内面に覆われて、機能を発揮できない状態である。第1筐体10と第2筐体20とが完全に閉じた状態では、開き角θは0°となる。
(電子機器の構成)
図7は、本実施形態に係る電子機器1の構成の一例を示す概略ブロック図である。電子機器1は、表示部110、撮像部120、近接センサ130(検出センサの一例)、入力デバイス150、EC(Embedded Controller)200、システム処理部300、通信部350、記憶部360、及び電源部400を含んで構成される。表示部110は、システム処理部300により実行されるシステム処理により生成された表示データを表示する。
撮像部120は、第1筐体10の内面に対面する方向(前方)の所定の画角内の物体の像を撮像し、撮像した画像をシステム処理部300へ出力する。例えば、電子機器1に接近した人物の顔が撮像部120の画角内に含まれるとき、撮像部120は、人物の顔を撮像し、撮像した顔画像をシステム処理部300へ出力する。撮像部120は、赤外線カメラであってもよいし、通常のカメラであってもよい。赤外線カメラは、撮像素子として赤外線センサを備えるカメラである。通常のカメラは、撮像素子として可視光線を受光する可視光センサを備えるカメラである。
近接センサ130は、第1筐体10の正面方向(前方)に存在する物体(例えば、人物(より具体的には人物の体や、体のうちの手など))を検出し、検出結果を示す検出信号をEC200へ出力する。
入力デバイス150は、ユーザの入力を受け付ける入力部であり、例えばキーボード151及びタッチパッド153を含んで構成されている。入力デバイス150は、キーボード151及びタッチパッド153に対する操作を受け付けることに応じて、操作内容を示す操作信号をEC200へ出力する。
電源部400は、電子機器1の各部の動作状態に応じて電源系統を介して各部へ電力を供給する。電源部400は、DC(Direct Current)/DCコンバータを備える。DC/DCコンバータは、AC(Alternate Current)/DCアダプタもしくは電池パックから供給される直流電力の電圧を、各部で要求される電圧に変換する。DC/DCコンバータで電圧が変換された電力が各電源系統を介して各部へ供給される。例えば、電源部400は、EC200から入力される各部の動作状態に応じて制御信号に基づいて各電源系統を介して各部に電力を供給する。
EC200は、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)およびI/O(Input/Output)ロジック回路などを含んで構成されたマイクロコンピュータである。EC200のCPUは、自部のROMに予め記憶した制御プログラムを読み出し、読み出した制御プログラムを実行して、その機能を発揮する。EC200は、システム処理部300とは独立に動作し、システム処理部300の動作を制御し、その動作状態を管理する。また、EC200は、近接センサ130と、入力デバイス150と電源部400に接続されている。
例えば、EC200は、近接センサ130から検出結果を示す検出信号を取得し、検出結果に基づいて人物の存在を検出するHPD処理及び人物の手を検出してジェスチャーを検出するジェスチャー検出処理を実行する。また、EC200は、HPD処理に応じてシステム処理部300の動作状態を制御する。また、EC200は、電源部400と通信を行うことにより、バッテリーの状態(残容量など)の情報を電源部400から取得するとともに、電子機器1の各部の動作状態に応じた電力の供給を制御するための制御信号などを電源部400へ出力する。また、EC200は、入力デバイス150から操作信号を取得し、取得した操作信号のうちシステム処理部300の処理に関連する操作信号についてはシステム処理部300へ出力する。
例えば、EC200は、HPD処理及びジェスチャー検出処理に関する機能構成として、人物検出部210(物体検出部の一例)と、検出モード制御部220(検出解像度制御部の一例)と、ジェスチャー検出部230と、動作制御部240とを備えている。
人物検出部210は、近接センサ130から出力される検出信号に基づいて、検出視野角FoVと検出距離とで定まる人物検出範囲内に存在する物体(例えば、人物(より具体的には人物の体や、体のうちの手))を検出する(図3及び図4参照)。例えば、人物検出部210は、近接センサ130から出力される検出信号に基づいて、所定のサンプリング周期(例えば、1kHz)で電子機器1の正面(前方)に存在する物体(例えば、人物の体や手)を検出する。なお、以下の説明では、人物検出部210が物体(例えば、人物の体や手)を検出することを、単に、人物又は手を検出するとも記載する。人物とは、人物の体全般のことを指しており、手を前に出していないときは、その手の部分も含む体のうちの少なくとも一部のことであり、手を前に出しているときは、その手の部分を除く体の少なくとも一部のことである。人物検出部210が人物又は手を検出するとは、実際には人物又は手を検出することも、人物又は手以外の物体を検出することも含む。
なお、人物以外の物体と人物とを区別して検出する精度を上げる方法としては、図4(B)、(C)に示す近接センサ130の人物が検出されている検出状態において、顔よりも肩の部分の方が幅広く検出されること、即ち、近接センサ130の中央付近に配置されている検出素子(マス5,6,9,10)よりも下側の部分の検出素子(マス12〜15)の方が水平方向に幅広く検出距離が65cmとなっていることを利用してもよい。即ち、人物の検出条件に、近接センサ130の中央付近より下側の部分の方が幅広く検出されることを加えてもよい。また、人物は、止まっていたとしても、物体と違って完全に動かないということが無く、少なくとも揺れが生じる。そこで、人物の検出条件に、検出距離の変化から揺れが検出されることを加えてもよい。
例えば、人物検出部210は、人物検出範囲内に人物を検出しない状態から人物を検出した場合、電子機器1へ人物が接近したこと(Approach)を検出する。また、人物検出部210は、人物検出範囲内に人物を検出した後、継続して人物を検出している場合には、電子機器1の前に人物が存在する状態(Presence)であることを検出する。また、人物検出部210は、人物検出範囲内に人物を検出している状態から人物を検出しなくなった場合、電子機器1の前に存在していた人物が離れたものと判定し、電子機器1から人物が離脱したこと(Leave)を検出する。また、人物検出部210は、人物検出範囲内に人物を検出している状態で、さらに人物よりも近距離に物体を検出した場合、人物が手を前に出したことを検出する(図3(C)、図4(C)、図5参照)。なお、人物検出部210は、人物検出範囲内に人物を検出し、且つ人物よりも近距離に物体を検出した場合(例えば、人物と人物よりも近距離の物体とを同時に検出した場合)も、人物が手を前に出したことを検出してもよい。また、人物検出部210は、人物よりも一定距離(例えば、15cm〜20cm程度)以上近距離に物体を検出した場合、人物が手を前に出したことを検出してもよい。
検出モード制御部220は、人物検出部210による検出結果に基づいて検出モードを切り替える。例えば、検出モード制御部220は、接近検出モードにおいて、人物検出部210により電子機器1へ人物が接近したことが検出された場合、離脱検出モードへ遷移させる。また、検出モード制御部220は、離脱検出モードにおいて、人物検出部210により電子機器1から人物が離脱したことが検出された場合、離脱検出モードから接近検出モードへ遷移させる。
また、検出モード制御部220は、離脱検出モードにおいて、人物検出部210により人物が手を前に出したことが検出された場合、離脱検出モードからジェスチャー検出モードに遷移させる。さらに、検出モード制御部220は、ジェスチャー検出モードに遷移させる際に、近接センサ130における検出解像度を初期設定の低解像度モードから高解像度モードに切り替える。
ジェスチャー検出モードにおいて、ジェスチャー検出部230は、近接センサ130から出力される検出信号に基づいて、人物検出部210により検出された手の動きに応じたジェスチャーを検出する。例えば、ジェスチャー検出部230は、予め設定されたジェスチャーによる動きのパターンと、人物検出部210により検出された手の動きとを比較し、手の動きがジェスチャーによる動きのパターンと一致すると判定した場合、当該手の動きをジェスチャーとして検出する。そして、ジェスチャー検出部230は、検出したジェスチャーを識別するためのジェスチャーIDを、システム処理部300へ送信する。ジェスチャーIDは、ジェスチャー入力として予め設定されているジェスチャーのそれぞれに固有に対応付けられている。
図8は、ジェスチャー検出時における近接センサ130の検出状態の一例を示す模式図である。この図は、ジェスチャー検出モードにおいて、人物が手を前に出して左から右に動かすジェスチャーを行なったとき検出状態の例を示している。図4(C)で人物が手を前に出していることが検出されてジェスチャー検出モードに遷移すると、低解像度モード(図2(A)参照)から高解像度モードに切り替わる(図2(B)参照)。図8(A)は、図4(C)に示す検出状態から高解像度モードに切り替わったときの検出状態を示している。この図8では、8×8の各マスのうち手が検出されているマスの番号を図2(B)に示す番号を引用して引出線を用いて示している。また、8×8の各マスの中の数字は、検出された物体(人物又は手)との距離を示している。
ジェスチャー検出部230は、手の検出位置をトラッキングする。ここでは、時系列に(A)から(F)にかけて、手が継続的に検出されている。具体的には、手を検出している検出素子に対応するマスが、時系列に(A)から(F)にかけて37→44→51→50→57→56の順に移動している。これにより、図に向かって左から右へ手が動いたことを検出することができる。例えば、左から右へのジェスチャーの検出条件が「上下3マス以内で左から右へ4マス以上」と設定されている場合には、(A)〜(D)で条件を満たすため、(D)の時点で、左から右へのジェスチャーとして検出されてもよい。また、左から右へのジェスチャーの検出条件が「上下2マス以内で左から右へ4マス以上」と設定されている場合には、(C)〜(F)で条件を満たすため、(F)の時点で、左から右へのジェスチャーとして検出されてもよい。(G)では、手が検出されなくなっているため、ジェスチャー検出モードを終了して、高解像度モードから低解像度モードへ切り替わる。
つまり、検出モード制御部220は、人物検出部210により人物よりも近距離に手が検出されている状態(即ち、ジェスチャー検出モード)から手が検出されなくなったことに基づいて、ジェスチャー検出モードを終了して、離脱検出モードに遷移させる。また、この時、検出モード制御部220は、近接センサ130における検出解像度を高解像度モードから低解像度モードへ戻す。なお、検出モード制御部220は、ジェスチャー検出部230により手の動きに応じたジェスチャーが検出されたことに基づいて、離脱検出モードに遷移させ、高解像度モードから低解像度モードへ戻してもよい。このように、検出モード制御部220は、近接センサ130における検出解像度を、人物検出範囲内に存在する人物を検出する際には低解像度モードに設定し、ジェスチャーを検出する際には高解像度モードに設定する。
動作制御部240は、人物検出部210により人物検出範囲内に人物が検出された場合、システム処理部300によるシステム処理を起動させる。具体的には、動作制御部240は、人物検出部210が人物検出範囲内に人物を検出しない状態から人物を検出した場合(即ち、電子機器1への人物の接近を検出した場合)、システム処理を起動させる。より具体的には、動作制御部240は、システム処理部300によるシステム処理を起動させる場合、電源部400に対して、電子機器1の各部の動作に必要な電力を供給するための制御信号を出力する。その後、動作制御部240は、システム処理部300にシステム処理の起動を指示するための起動信号を出力する。システム処理部300は、起動信号を取得すると、システム処理を起動して通常動作状態へ遷移させる。
また、動作制御部240は、人物検出部210が人物検出範囲内に人物を継続して検出している場合、システム処理部300によるシステム処理を待機状態に遷移させないように制限し、通常動作状態を継続させる。なお、動作制御部240は、人物検出部210が人物検出範囲内に人物を継続して検出している場合であっても、所定の条件(例えば、無操作の期間が予め設定された期間継続した場合)によって、通常動作状態から待機状態へ遷移させてもよい。
また、動作制御部240は、人物検出部210が人物検出範囲内に人物を検出している状態から人物を検出しなくなった場合(即ち、電子機器1からの人物の離脱を検出した場合)、システム処理部300によるシステム処理を通常動作状態から待機状態に遷移させる。より具体的には、動作制御部240は、システム処理部300にシステム処理を通常動作状態から待機状態へ遷移させる指示をするための待機信号を出力する。システム処理部300は、待機信号を取得すると、システム処理を通常動作状態から待機状態へ遷移させる。その後、動作制御部240は、電源部400に対して、待機状態では不要な電力の供給を停止させるための制御信号を出力する。
システム処理部300は、CPU302、GPU(Graphic Processing Unit)304、メモリコントローラ306、I/O(Input−Output)コントローラ308、システムメモリ310、及び認証処理部312を含んで構成され、OSによるシステム処理によって、OS上で各種のアプリケーションプログラムの処理が実行可能である。CPU302とGPU304をプロセッサと総称することがある。前述したように、システムの動作状態として少なくとも通常動作状態(パワーオン状態)と待機状態との間を遷移可能である。
CPU302は、システム処理の動作状態が待機状態であって、EC200から起動信号が入力された場合、待機状態から通常動作状態に遷移させる。例えば、動作状態がスリープ状態であるとき、電源部400から電力の供給を受け、かつEC200から起動信号が入力されると、CPU302は、起動処理を開始する。CPU302は、起動処理において、システムメモリ310、記憶部360などの最小限のデバイスの検出と初期化を行う(プリブート)。CPU302は、記憶部360からシステムファームウェアをシステムメモリ310にロードし、通信部350、表示部110などその他のデバイスの検出と初期化を行う(ポスト処理)。初期化には、初期パラメータの設定などの処理が含まれる。なお、スリープ状態から通常動作状態への遷移(レジューム)においては、ポスト処理の一部が省略されることがある。CPU302は、起動処理が完了した後、OSによるシステム処理を実行するとともに、OS上で各種のアプリケーションプログラムの処理を実行する。
また、CPU302は、EC200からジェスチャーIDを受け取ると、OS又はOS上で動作するアプリケーションプログラムの処理に受け渡す。CPU302は、ジェスチャーIDを受け取ると、OS又はアプリケーションプログラムの処理に基づいて当該ジェスチャーIDに予め関連付けられている処理を実行する。例えば、CPU302は、手を上から下へ(又は下から上へ)動かすジェスチャーに対応するジェスチャーIDを受け取ると、音量を下げる又は上げる制御を実行する。また、CPU302は、プレゼンテーションのアプリケーションプログラムの処理を実行中に、手を左から右へ(又は右から左へ)動かすジェスチャーに対応するジェスチャーIDを受け取ると、頁を送る又は戻す制御を実行する。
なお、CPU302は、OSによるシステム処理の実行を開始すると、OSの利用を許可する前にログイン認証処理を実行し、ログイン認証処理でログインを許可するまで、以降のシステム処理の実行を一旦停止する。ログイン認証処理は、電子機器1を使用する人物が予め登録された正規のユーザであるか否かを判定するユーザ認証処理である。ログイン認証には、パスワード認証、顔認証、指紋認証などがある。ここでは、顔認証処理の場合を例に説明する。CPU302は、撮像部120で撮像された人物の顔画像に基づく顔認証処理の実行を認証処理部312に指示する。CPU302は、認証処理部312による認証結果が成功であった場合、ログインを許可し、一旦停止していたシステム処理の実行を再開する。一方、認証処理部312による認証結果が失敗であった場合、ログインを許可せず、システム処理の実行を停止したままにする。
GPU304は、表示部110に接続されている。GPU304は、CPU302の制御に基づいて画像処理を実行して表示データを生成する。GPU304は、生成した表示データを表示部110に出力する。なお、CPU302とGPU304は、一体化して1個のコアとして形成されてもよいし、個々のコアとして形成されたCPU302とGPU304の相互間で負荷が分担されてもよい。プロセッサの数は、1個に限られず、複数個であってもよい。
メモリコントローラ306は、CPU302とGPU304によるシステムメモリ310、記憶部360などからのデータの読出し、書込みを制御する。
I/Oコントローラ308は、通信部350、表示部110およびEC200からのデータの入出力を制御する。
システムメモリ310は、プロセッサの実行プログラムの読み込み領域ならびに処理データを書き込む作業領域として用いられる。
認証処理部312は、CPU302から顔認証処理の実行の指示を受け取ると、撮像部120で撮像された人物の顔画像に基づいて顔認証処理を実行する。撮像部120で撮像された人物の顔画像とは、電子機器1の前方から接近する人物の顔画像である。顔認証処理は、顔検出処理と顔照合処理とを含む。顔検出処理は、撮像部120から入力される画像信号から顔が表されている領域である顔領域を定める処理である。顔照合処理は、顔領域から顔の特徴を表す複数の顔特徴点(例えば、口、目、鼻、など)の位置を求め、顔領域の位置と大きさがそれぞれ所定の位置と大きさとなるように正規化し、正規化した顔特徴点の分布を画像特徴量として定める過程と、定めた画像特徴量と所定の人物の顔画像に係る画像特徴量と照合し、照合に成功した画像特徴量に係る人物を特定する過程を有する。記憶部360には、アカウント毎に、そのアカウントでログインする正規ユーザとしての認証情報が設定されている。認証情報には、そのユーザの顔画像の画像特徴量が含まれる。認証情報には、さらにそのユーザを示すユーザ情報を対応付けて記憶される。ユーザ情報は、例えば、ユーザ名、ユーザID(Identifier)、など電子機器1のユーザを特定できる情報であればよい。
認証処理部312は、撮像部120で撮像された人物の顔画像と、設定されているユーザの認証情報とを照合した結果が一致と判断できる場合に顔認証に成功したと判定する。一方、認証処理部312は、例えば、電子機器1を使用する人物以外の人物が前を単に横切った場合には、撮像部120で撮像された画像から顔領域が検出されない。認証処理部312は、顔認証の成否を示す認証情報をCPU302及びEC200に出力する。
通信部350は、無線または有線による通信ネットワークを介して他の機器と通信可能に接続し、各種のデータの送信および受信を行う。例えば、通信部350は、イーサネット(登録商標)等の有線LANインターフェースやWi−Fi(登録商標)等の無線LANインターフェース等を含んで構成されている。なお、通信部350は、USB(Universal Serial Bus)インターフェースやBluetooth(登録商標)インターフェースを含んで構成されてもよい。
記憶部360は、HDD(Hard Disk Drive)、セキュアNVRAM(Non−Volatile RAM)、ROM(Read Only Memory)などの記憶媒体を含んで構成される。HDDは、OS、デバイスドライバ、アプリケーションなどの各種のプログラム、その他、プログラムの動作により取得した各種のデータを記憶する。セキュアNVRAMには、各ユーザの認証に用いる認証データを記憶する。認証データには、各ユーザの識別情報と、認証情報とを対応付けて記憶する。セキュアNVRAMには、I/Oコントローラ308から経由したOSの動作環境からはアクセスできないように保護(ロック)される。但し、CPU302のパワーオン、リセット時にロックを解除し、プリブートの終了時にシステムファームウェアを実行してロックを開始する。
(処理の動作)
次に、本実施形態に係るジェスチャー検出に関する処理の動作について説明する。まず、図9を参照して、ジェスチャー検出モードに遷移するまでの処理について説明する。図9は、本実施形態に係るジェスチャー検出モードに遷移するまでの処理の一例を示すフローチャートである。
(ステップS101)EC200は、接近検出モードにおいて、近接センサ130における検出解像度を低解像度モードに設定し、電子機器1への人物の接近を検出する。そして、ステップS103の処理に進む。
(ステップS103)EC200は、電子機器1へ人物が接近したか否かを判定する。EC200は、電子機器1へ人物が接近していないと判定した場合(NO)、ステップS103の処理を再び実行する。一方、EC200は、電子機器1へ人物が接近したと判定した場合(YES)、ステップS105の処理に進む。
(ステップS105)EC200は、接近検出モードから離脱検出モードへ遷移させる。この離脱検出モードでは、近接センサ130における検出解像度は低解像度モードのままである。そして、ステップS107の処理に進む。
(ステップS107)EC200は、離脱検出モードにおいて、電子機器1から人物が離脱したか否かを検出する。EC200は、電子機器1から人物が離脱したと判定した場合(YES)、ステップS101の処理に戻り、離脱検出モードから接近検出モードへ遷移させる。一方、EC200は、電子機器1から人物が離脱していないと判定した場合(NO)、ステップS109の処理に進む。
(ステップS109)EC200は、離脱検出モードにおいて、人物より近距離に手を検出したか否かを判定する。EC200は、人物より近距離に手を検出していないと判定した場合(NO)、ステップS107の処理に戻る。一方、EC200は、人物より近距離に手を検出したと判定した場合(YES)、ステップS111の処理に進む。
(ステップS111)EC200は、離脱検出モードからジェスチャー検出モードへ遷移させる。また、EC200は、近接センサ130における検出解像度を低解像度モードから高解像度モードに切り替える。
次に、図10を参照して、ジェスチャー検出モードに遷移した後の処理について説明する。図10は、本実施形態に係るジェスチャー検出モードに遷移した後の処理の一例を示すフローチャートである。
(ステップS111)図9のステップS111の処理に対応し、EC200は、ジェスチャー検出モードに遷移させ、近接センサ130における検出解像度を高解像度モードに設定する。そして、ステップS113の処理に進む。
(ステップS113)EC200は、ジェスチャー検出モードにおいて、電子機器1から人物が離脱したか否かを検出する。EC200は、電子機器1から人物が離脱したと判定した場合(YES)、ステップS125の処理に進み、ジェスチャー検出モードから接近検出モードへ遷移させる。また、EC200は、接近検出モードへ遷移させることに応じて、近接センサ130における検出解像度を高解像度モードから低解像度モードに切り替える。一方、EC200は、電子機器1から人物が離脱していないと判定した場合(NO)、ステップS115の処理に進む。
(ステップS115)EC200は、ジェスチャー検出モードにおいて、手が検出されなくなったか否かを判定する。EC200は、手が検出されなくなったと判定した場合(YES)、ステップS123の処理に進み、ジェスチャー検出モードを終了し、離脱検出モードへ遷移させる。また、EC200は、離脱検出モードへ遷移させることに応じて、近接センサ130における検出解像度を高解像度モードから低解像度モードに切り替える。一方、EC200は、手が検出されていると判定した場合(NO)、ステップS117の処理に進む。
(ステップS117)EC200は、手の検出位置をトラッキングし、手の動きを検出する。そして、ステップS119の処理に進む。
(ステップS119)EC200は、検出した手の動きと、予め設定されたジェスチャーの動きのパターンとを比較する。そして、ステップS121の処理に進む。
(ステップS121)EC200は、ステップS119における比較結果に基づいて、ジェスチャーを検出したか否かを判定する。例えば、EC200は、ステップS119において検出した手の動きがジェスチャーによる動きのパターンと一致すると判定した場合、当該手の動きをジェスチャーとして検出する。一方、EC200は、ステップS119において検出した手の動きがジェスチャーによる動きのパターンと一致しないと判定した場合、当該手の動きをジェスチャーとして検出しない。EC200は、ジェスチャーを検出していない場合(NO)、ステップS115の処理に戻り、ジェスチャー検出モードを継続する。一方、EC200は、ジェスチャーを検出した場合(YES)、ステップS123の処理に進み、ジェスチャー検出モードを終了し、離脱検出モードへ遷移させる。また、EC200は、離脱検出モードへ遷移させることに応じて、近接センサ130における検出解像度を高解像度モードから低解像度モードに切り替える。
次に、図11を参照して、EC200がジェスチャーを検出した後にシステム処理部330に通知する処理について説明する。図11は、本実施形態に係るジェスチャーを検出した後の処理の一例を示すフローチャートである。
(ステップS131)EC200は、ジェスチャーを検出すると(図10のステップS121:YES)、ステップS133の処理に進む。
(ステップS133)EC200は、検出したジェスチャーに対応するジェスチャーIDを取得して、システム処理部300へ送信する。そして、ステップS135の処理に進む。
(ステップS135)システム処理部300は、EC200からジェスチャーIDを受け取ると、OS又はOS上で動作するアプリケーションプログラムの処理に受け渡し、OS又はアプリケーションプログラムの処理により、ジェスチャーIDに予め関連付けられている処理を実行する。
以上説明してきたように、本実施形態に係る電子機器1は、人物検出範囲(所定の範囲の一例)内に存在する人物(物体の一例)から到来する赤外線(波動の一例)を検出して検出信号を出力する近接センサ130を備えている。電子機器1は、近接センサ130から出力される検出信号に基づいて人物検出範囲内に存在する人物を検出する。また、電子機器1は、近接センサ130から出力される検出信号に基づいて手(物体の一例)の動きに応じたジェスチャーを検出する。そして、電子機器1は、近接センサ130における検出解像度を、人物検出範囲内に存在する人物(物体の一例)を検出する際には低解像度モード(第1解像度の一例)に設定し、ジェスチャーを検出する際には高解像度モード(第2解像度の一例)に設定する。
これにより、電子機器1は、近接センサ130における検出解像度を、人物を検出する際には低解像度にしてジェスチャーを検出するときのみ高解像度モードにするため、消費電力を抑制しつつ、人物の検出に加えジェスチャーの検出も可能にすることができる。
例えば、電子機器1は、人物検出範囲内に人物(人物の体、第1物体の一例)が検出され且つ人物よりも近距離に手(第2物体の一例)が検出された場合、低解像度モードから高解像度モードへ変更する。
これにより、電子機器1は、電子機器1を使用している人物がジェスチャーを開始するときには近接センサ130における検出解像度が高解像度モードに切り替わるため、ジェスチャーの検出精度を高めることができる。
一例として、電子機器1は、人物検出範囲内に人物(人物の体、第1物体の一例)が検出されている状態で(即ち、離脱検出モードにおいて)、さらに人物よりも近距離に手(第2物体の一例)が検出された場合、低解像度モードから高解像度モードへ変更する。
これにより、電子機器1は、電子機器1を使用している人物がジェスチャーを開始するときには近接センサ130における検出解像度が高解像度モードに切り替わるため、ジェスチャーの検出精度を高めることができる。
また、電子機器1は、人物(人物の体、第1物体の一例)よりも近距離に手(第2物体の一例)が検出されている状態から検出されなくなったことに基づいて、高解像度モードから低解像度モードへ戻す。
これにより、電子機器1は、人物がジェスチャーを行っていないときは低解像度モードにするため、消費電力を抑制することができる。
また、電子機器1は、手(第2物体の一例)の動きに応じたジェスチャーを検出し、手の動きに応じたジェスチャーが検出されたことに基づいて、高解像度モードから低解像度モードへ戻してもよい。
これにより、電子機器1は、人物がジェスチャーを行った後は低解像度モードにするため、消費電力を抑制することができる。
また、電子機器1は、人物(人物の体、第1物体の一例)よりも一定距離(例えば、15cm〜20cm程度)以上近距離に手(第2物体の一例)が検出された場合、低解像度モードから高解像度モードへ変更してもよい。
これにより、電子機器1は、例えば人物の肩が少し前に出ただけで手と誤判別してしまうことを抑制することができる。
なお、電子機器1は、人物検出範囲内に人物(人物の体、第1物体の一例)が検出されていない状態で、人物の手(第2物体の一例)が検出された場合、低解像度モードから高解像度モードへ変更してもよい。例えば、人物が人物検出範囲外であるが電子機器1の近傍(例えば、電子機器1の横)に存在する場合、手のみを電子機器1の前に差し出してジェスチャーすることも考えられる。この場合、人物検出範囲内に存在する物体は、手のみであり人物の体は存在しないため、人物より近距離であることを条件として手を検出することができない。そのため、電子機器1は、人物検出範囲内に人物(人物の体、第1物体の一例)が検出されていない状態から何らかの物体が検出された場合、その物体が人物(人物の体、第1物体の一例)であるのか、或いは手(第2物体の一例)であるのかを検出された物体の大きさから判定してもよい。例えば、電子機器1は、図4に示す近接センサ130の検出状態を示す図において、検出された物体の大きさが予め設定された閾値(例えば、4マス)以上の場合にはその物体が人物(人物の体、第1物体の一例)であると判定し、予め設定された閾値未満の場合にはその物体が手(第2物体の一例)であると判定してもよい。そして、電子機器1は、手(第2物体の一例)であると判定した場合、低解像度モードから高解像度モードへ変更してもよい。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
第1の実施形態では、図3に示すように、接近検出モードにおいて人物の接近が検出された場合、低解像度モードのまま離脱検出モードに遷移したが、接近検出モードにおいて人物の接近が検出された場合、一旦高解像度モードに切り替えてジェスチャー検出モードに遷移し、所定時間の間に人物より近距離に手が検出されない場合には、低解像度モードに切り替えて離脱検出モードに遷移するようにしてもよい。
図12は、本実施形態に係る検出モードの状態遷移を示す図である。この図に示す検出モードの状態遷移は、図3に示す検出モードの状態遷移が接近検出モードで人物の接近が検出された場合にまず離脱検出モードに遷移するのに対し、接近検出モードで人物の接近が検出された場合にまずジェスチャー検出モードに遷移する点が異なる。
検出モード制御部220は、(A)の接近検出モードにおいて、人物検出部210により人物検出範囲内に人物が検出されていない状態から検出された場合、(B)のジェスチャー検出モードに遷移させ、低解像度モードから高解像度モードへ切り替える。そして、検出モード制御部220は、高解像度モードへ変更した後、所定の期間以内に人物よりも近距離に手が検出された場合には高解像度モードの設定を継続してジェスチャーを検出する。一方、検出モード制御部220は、所定の期間以内に人物よりも近距離に手が検出されなかった場合、ジェスチャー検出モードから(C)の離脱検出モードに遷移させ、高解像度モードから低解像度モードへ戻す。
なお、検出モード制御部220は、(C)の離脱検出モードにおいて、人物検出部210により人物よりも近距離に手が検出された場合には、(B)のジェスチャー検出モードに遷移させ、低解像度モードから高解像度モードへ切り替える。また、検出モード制御部220は、(C)の離脱検出モードにおいて、人物検出部210により人物検出範囲内に人物が検出されなくなった場合、(A)の接近検出モードに遷移させる。また、検出モード制御部220は、(B)のジェスチャー検出モードにおいて、人物検出部210により人物も手も検出されなくなった場合には、(A)の接近検出モードに遷移させ、高解像度モードから低解像度モードへ戻す。
以上説明したように、電子機器1は、人物検出範囲内に人物(人物の体、第1物体の一例)が検出されていない状態から検出された場合に低解像度モードから高解像度モードへ変更する。そして、電子機器1は、高解像度モードへ変更した後、所定の期間以内に人物よりも近距離に手(第2物体の一例)が検出された場合には高解像度モードの設定を継続する。また、電子機器1は、所定の期間以内に人物よりも近距離に手が検出されなかった場合、高解像度モードから低解像度モードへ戻す。
これにより、電子機器1は、電子機器1を使用している人物がジェスチャーを開始するときには近接センサ130における検出解像度が高解像度モードに切り替わるため、ジェスチャーの検出精度を高めることができる。例えば、電子機器1は、人物が接近したときに同時にジェスチャーを開始したとしても、高解像度モードでジェスチャーの検出を行うことができるため、ジェスチャーの検出精度を高めることができる。
<第3の実施形態>
次に、本発明の第3の実施形態について説明する。本実施形態におけるHPD処理及びジェスチャー検出処理に伴う検出モードの遷移処理、第1の実施形態又は第2の実施形態と同様である。ここでは、近接センサ120の検出範囲の制御に関する一態様について説明する。なお、電子機器1の外観構成は、図6に示す構成と同様である。
近接センサ120の検出視野角FoVは電子機器1の開き角θ(図6参照)によって変化する。そのため、例えば、図3(B)に示すような離脱検出モードにおいて、開き角θが小さくなると(即ち、第1筐体10が立ち上がってくると)、検出視野角FoVの範囲にキーボード151などを操作している手が入ってしまうことが考えられる。この場合、キーボード151などを操作している手が人物検出範囲に入り且つ人物より近距離と判定されると、人物がジェスチャーを行うつもりがないのに高解像度モードに切り替わってしまい、不必要に消費電力が上がってしまうことになる。そこで、電子機器1は、開き角θに応じて、人物検出範囲うちの一部の範囲を検出対象から除外してもよい。具体的には、開き角θが所定の閾値未満になった場合、人物検出範囲うちの下側(第2筐体20の側)の一定範囲を検出対象から除外してもよい。検出対象から除外する一定範囲は、開き角θと第2筐体20に設けられているキーボード151などとの位置関係に基づいて予め設定されている。検出対象から除外する範囲は、開き角θの変化に応じて変化してもよい。
図13は、本実施形態に係る電子機器1の構成の一例を示す概略ブロック図である。この図において、図7に示す各部に対応する構成には同一の符号を付しており、その説明を省略する。この図13に示す構成は、動きセンサ140と、角度検出部250とを備える点が、図7に示す構成と異なる。
動きセンサ140は、第1筐体10に設けられた加速度センサ141と、第2筐体20設けられた加速度センサ142とを含んで構成されている。加速度センサ141は、第1筐体10の物理的な動き量や動き方向、傾きなどに応じた検出信号を出力する。加速度センサ142は、第2筐体20物理的な動き量や動き方向、傾きなどに応じた検出信号を出力する。なお、動きセンサ140は、加速度センサに代えてまたは加えて、ジャイロセンサ、傾斜センサ、地磁気センサ等を含んで構成されてもよい。
角度検出部250は、動きセンサ140から出力される検出信号を取得し、取得した検出信号に基づいて、第1筐体10と第2筐体20との開き角θを検出する。また、角度検出部250は、検出した開き角θに基づいて開状態であるかまたは閉状態であるかを判定する。また、角度検出部250は、動きセンサ140から取得した検出信号に基づいて、第1筐体10及び第2筐体20のそれぞれの姿勢(例えば、重力方向に対する角度)を検出してもよい。人物検出部210は、角度検出部250により検出された開き角θが所定値未満の場合、人物検出範囲のうちの一部の範囲を検出対象から除外する。
これにより、電子機器1は、使用中の電子機器1の開き角θによって、キーボード151などを操作している手をジェスチャーする手として誤検出しまわないようにすることができる。よって、電子機器1は、誤検出により不必要に消費電力が上がってしまうことを抑制することができる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。上述の実施形態において説明した各構成は、任意に組み合わせることができる。
なお、上記の説明では、近接センサ130が主に赤外線センサモジュールである場合を例にしたが、これには限られない。近接センサ130は、非接触で人物から到来する波動を検出できる検出素子を複数個備えていればよい。人物などの物体から到来する波動とは、上記のように、その物体で反射した反射波と、その物体自体が発する波動が含まれる。波動は、赤外線、可視光線の他、赤外線よりも波長が短い電波であってもよい。近接センサ130は、例えば、レーダセンサモジュールであってもよい。例えば、近接センサ130が電波を検出する場合、受信アンテナで受信する電波強度に基づいて人物などの物体を検出してもよいし、送信アンテナから送信した電波を2つ以上の受信アンテナで受信したときの受信時間の差分などに基づいて人物などの物体を検出してもよい。この場合、近接センサ130の検出可能範囲は、受信アンテナの受信可能範囲に相当する。
また、上述した待機状態には、ハイバネーション状態やパワーオフ状態等が含まれてもよい。ハイバネーション状態は、例えば、ACPIで規定されているS4状態に相当する。パワーオフ状態は、例えば、ACPIで規定されているS5状態(シャットダウンした状態)相当する。また、待機状態には、少なくとも表示部の表示がOFF(画面OFF)となる状態、または画面ロックとなる状態が含まれてもよい。画面ロックとは、処理中の内容が視認できないように予め設定された画像(例えば、画面ロック用の画像)が表示部に表示され、ロックを解除(例えば、ユーザ認証)するまで、使用できない状態である。
また、上記実施形態では、システム処理部300と独立に動作するEC200は、センサハブ、チップセット、などのいずれの処理部であってもよく、EC200以外の処理部がEC200に代えて上述の処理を実行してもよい。このEC200等の処理部と近接センサ130の電力消費量の合計は、通例、システム処理部300の電力消費量よりも格段に少ない。
なお、上述した電子機器1は、内部にコンピュータシステムを有している。そして、上述した電子機器1が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した電子機器1が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に電子機器1が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
また、上述した実施形態における電子機器1が備える各機能の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
また、上記実施形態の電子機器1は、PC、タブレット端末装置、スマートフォンなどに限られるものではなく、家庭用電気製品や業務用電気製品にも適用できる。家庭用電気製品としては、テレビや、表示部が備えられた冷蔵庫、電子レンジ等に適用できる。例えば、人物の接近または離脱に応じて、テレビの画面のON/OFF(通常動作状態/待機状態)の制御や、冷蔵庫や電子レンジ等の表示部の画面のON/OFF(通常動作状態/待機状態)の制御などに適用できるとともに、テレビ、冷蔵庫、電子レンジなどに対するジェスチャー入力などに適用できる。また、業務用電気製品としては、自動販売機や、マルチメディア端末等にも同様に適用できる。
1 電子機器、10 第1筐体、20 第2筐体、15 ヒンジ機構、110 表示部、120 撮像部、130 近接センサ、140 動きセンサ、141,142 加速度センサ、150 入力デバイス、151 キーボード、153 タッチパッド、200 EC、210 人物検出部、220 検出モード制御部、230 ジェスチャー検出部、240 動作制御部、250 角度検出部、300 システム処理部、302 CPU、304 GPU、306 メモリコントローラ、308 I/Oコントローラ、310 システムメモリ、312 認証処理部、350 通信部、360 記憶部、400 電源部

Claims (9)

  1. 所定の範囲内に存在する物体から到来する波動を検出して検出信号を出力する検出センサと、
    前記検出センサから出力される検出信号に基づいて前記所定の範囲内に存在する物体を検出する物体検出部と、
    前記検出センサから出力される検出信号に基づいて前記物体の動きに応じたジェスチャーを検出するジェスチャー検出部と、
    前記検出センサにおける検出解像度を、前記所定の範囲内に存在する物体を検出する際には第1解像度に設定し、前記ジェスチャーを検出する際には前記第1解像度よりも高解像度の第2解像度に設定する検出解像度制御部と、
    を備える電子機器。
  2. 前記検出解像度制御部は、
    前記物体検出部により前記所定の範囲内に第1物体が検出され且つ前記第1物体よりも近距離に第2物体が検出された場合、前記第1解像度から前記第2解像度へ変更する、
    請求項1に記載の電子機器。
  3. 前記検出解像度制御部は、
    前記物体検出部により前記所定の範囲内に第1物体が検出されている状態で、さらに前記第1物体よりも近距離に前記第2物体が検出された場合、前記第1解像度から前記第2解像度へ変更する、
    請求項2に記載の電子機器。
  4. 前記検出解像度制御部は、
    前記物体検出部により前記所定の範囲内に第1物体が検出されていない状態から検出された場合に前記第1解像度から前記第2解像度へ変更し、変更後に、所定の期間以内に前記第1物体よりも近距離に第2物体が検出された場合には前記第2解像度の設定を継続し、所定の期間以内に前記第1物体よりも近距離に前記第2物体が検出されなかった場合、前記第2解像度から前記第1解像度へ戻す、
    請求項1に記載の電子機器。
  5. 前記検出解像度制御部は、
    前記物体検出部により前記第1物体よりも近距離に前記第2物体が検出されている状態から検出されなくなったことに基づいて、前記第2解像度から前記第1解像度へ戻す、
    請求項2から請求項4のいずれか一項に記載の電子機器。
  6. 前記ジェスチャー検出部は、
    前記第2物体の動きに応じたジェスチャーを検出し、
    前記検出解像度制御部は、
    前記ジェスチャー検出部により前記第2物体の動きに応じたジェスチャーが検出されたことに基づいて、前記第2解像度から前記第1解像度へ戻す、
    請求項2から請求項4のいずれか一項に記載の電子機器。
  7. 前記検出解像度制御部は、
    前記第1物体よりも一定距離以上近距離に前記第2物体が検出された場合、前記第1解像度から前記第2解像度へ変更する、
    請求項2から請求項6のいずれか一項に記載の電子機器。
  8. 前記検出センサが設けられている第1筐体と、
    前記第1筐体に対して相対的に回動可能に接続され、ユーザの操作を受け付ける操作部が設けられている第2筐体と、
    前記第1筐体と前記第2筐体との開き角度を検出する角度検出部と、
    を備え、
    前記物体検出部は、
    前記角度検出部により検出された前記開き角度が所定値未満の場合、前記所定の範囲のうちの一部の範囲を検出対象から除外する、
    請求項1から請求項7のいずれか一項に記載の電子機器。
  9. 所定の範囲内に存在する物体から到来する波動を検出して検出信号を出力する検出センサを備える電子機器における制御方法であって、
    物体検出部が、前記検出センサから出力される検出信号に基づいて前記所定の範囲内に存在する物体を検出するステップと、
    ジェスチャー検出部が、前記検出センサから出力される検出信号に基づいて前記物体の動きに応じたジェスチャーを検出するステップと、
    検出解像度制御部が、前記検出センサにおける検出解像度を、前記所定の範囲内に存在する物体を検出する際には第1解像度に設定し、前記ジェスチャーを検出する際には前記第1解像度よりも高解像度の第2解像度に設定するステップと、
    を有する制御方法。
JP2020107007A 2020-06-22 2020-06-22 電子機器、及び制御方法 Active JP7008104B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020107007A JP7008104B2 (ja) 2020-06-22 2020-06-22 電子機器、及び制御方法
US17/237,570 US11435833B2 (en) 2020-06-22 2021-04-22 Electronic apparatus and control method
CN202110494622.4A CN113900154A (zh) 2020-06-22 2021-05-07 电子设备、以及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020107007A JP7008104B2 (ja) 2020-06-22 2020-06-22 電子機器、及び制御方法

Publications (2)

Publication Number Publication Date
JP2022002033A true JP2022002033A (ja) 2022-01-06
JP7008104B2 JP7008104B2 (ja) 2022-01-25

Family

ID=79022332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020107007A Active JP7008104B2 (ja) 2020-06-22 2020-06-22 電子機器、及び制御方法

Country Status (3)

Country Link
US (1) US11435833B2 (ja)
JP (1) JP7008104B2 (ja)
CN (1) CN113900154A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11800068B1 (en) * 2022-04-07 2023-10-24 Haier Us Appliance Solutions, Inc. Refrigerator camera modules and methods for conserving energy at the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115649A (ja) * 2011-11-29 2013-06-10 Toshiba Corp 制御装置、電力量制御方法
JP2016062148A (ja) * 2014-09-16 2016-04-25 株式会社東芝 情報処理装置および画像入力装置
JP2016086334A (ja) * 2014-10-28 2016-05-19 レノボ・シンガポール・プライベート・リミテッド ジェスチャの認識方法、ジェスチャ入力システムおよび電子機器
WO2018173792A1 (ja) * 2017-03-23 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 制御装置、制御方法、プログラム、及び、電子機器システム
WO2019239566A1 (ja) * 2018-06-14 2019-12-19 ソニー株式会社 情報処理装置、情報処理方法及び測距システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255922A (ja) 2002-02-27 2003-09-10 Toshiba Corp 表示装置、端末処理装置、及び、端末処理方法
KR101652110B1 (ko) * 2009-12-03 2016-08-29 엘지전자 주식회사 사용자의 제스쳐로 제어가능한 장치의 전력 제어 방법
KR101144347B1 (ko) * 2009-12-07 2012-05-11 에스케이플래닛 주식회사 휴대단말기를 이용한 제스처 인식방법 및 그 휴대단말기
US8830302B2 (en) * 2011-08-24 2014-09-09 Lg Electronics Inc. Gesture-based user interface method and apparatus
CN105793802A (zh) * 2013-09-27 2016-07-20 瑟克公司 用于改变能够变化灵敏度的触摸和邻近传感器的操作模式的逻辑
CN104331149B (zh) * 2014-09-29 2018-08-10 联想(北京)有限公司 一种控制方法、装置和电子设备
KR102627014B1 (ko) * 2018-10-02 2024-01-19 삼성전자 주식회사 전자 장치 및 제스처 인식 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115649A (ja) * 2011-11-29 2013-06-10 Toshiba Corp 制御装置、電力量制御方法
JP2016062148A (ja) * 2014-09-16 2016-04-25 株式会社東芝 情報処理装置および画像入力装置
JP2016086334A (ja) * 2014-10-28 2016-05-19 レノボ・シンガポール・プライベート・リミテッド ジェスチャの認識方法、ジェスチャ入力システムおよび電子機器
WO2018173792A1 (ja) * 2017-03-23 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 制御装置、制御方法、プログラム、及び、電子機器システム
WO2019239566A1 (ja) * 2018-06-14 2019-12-19 ソニー株式会社 情報処理装置、情報処理方法及び測距システム

Also Published As

Publication number Publication date
CN113900154A (zh) 2022-01-07
US11435833B2 (en) 2022-09-06
JP7008104B2 (ja) 2022-01-25
US20210397265A1 (en) 2021-12-23

Similar Documents

Publication Publication Date Title
JP6808780B2 (ja) 電子機器、制御方法、及びプログラム
JP7114651B2 (ja) 電子機器、及び制御方法
US20200356154A1 (en) Electronic apparatus, control method, and program
JP6751432B2 (ja) 電子機器、制御方法、及びプログラム
JP7036975B1 (ja) 電子機器、及び制御方法
JP2020102151A (ja) 電子機器、制御方法、及びプログラム
US20220366721A1 (en) Electronic apparatus and control method
JP7008104B2 (ja) 電子機器、及び制御方法
JP6758365B2 (ja) 電子機器、制御方法、及びプログラム
JP6849743B2 (ja) 電子機器、制御方法、及びプログラム
JP6710267B1 (ja) 情報処理装置、制御方法、及びプログラム
JP7032371B2 (ja) 電子機器、及び制御方法
US20230205858A1 (en) Electronic apparatus and control method
US11385702B2 (en) Electronic apparatus and controlling method
US20230289484A1 (en) Information processing apparatus and control method
US20230176897A1 (en) Electronic apparatus and control method
JP2021135870A (ja) 電子機器、及び制御方法
JP7474888B1 (ja) 電子機器、及び制御方法
US20240013571A1 (en) Information processing apparatus and control method
US20230289195A1 (en) Information processing apparatus and control method
US20230186679A1 (en) Electronic apparatus and control method
JP2024061207A (ja) 情報処理装置、及び制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220107

R150 Certificate of patent or registration of utility model

Ref document number: 7008104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350