JP7114651B2 - 電子機器、及び制御方法 - Google Patents

電子機器、及び制御方法 Download PDF

Info

Publication number
JP7114651B2
JP7114651B2 JP2020085163A JP2020085163A JP7114651B2 JP 7114651 B2 JP7114651 B2 JP 7114651B2 JP 2020085163 A JP2020085163 A JP 2020085163A JP 2020085163 A JP2020085163 A JP 2020085163A JP 7114651 B2 JP7114651 B2 JP 7114651B2
Authority
JP
Japan
Prior art keywords
detection
electronic device
detection range
person
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020085163A
Other languages
English (en)
Other versions
JP2021179831A (ja
Inventor
和宏 小杉
匡史 西尾
恵里 志水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2020085163A priority Critical patent/JP7114651B2/ja
Priority to US17/083,759 priority patent/US11556626B2/en
Publication of JP2021179831A publication Critical patent/JP2021179831A/ja
Priority to JP2022118604A priority patent/JP7410233B2/ja
Application granted granted Critical
Publication of JP7114651B2 publication Critical patent/JP7114651B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Bioethics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Power Sources (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、電子機器、及び制御方法に関する。
PC(Personal Computer;パーソナルコンピュータ)などの電子機器には、人物の接近や離脱を検出して動作を制御するものがある。例えば、特許文献1には、近づいてきた人物を検知したことに応じて操作画面を表示する端末処理装置について記載されている。
特開2003-255922号公報
例えば、PCなどの電子機器は、ユーザが電子機器から離れたら(離脱したら)画面をOFFにして待機状態に移行し、ユーザが電子機器に近づいたら(接近したら)待機状態から復帰して使用可能な状態へ移行するものがある。例えば、ユーザによっては、電子機器から離脱したとき(使用しなくなって離れたとき)はセキュリティの面からなるべく早く待機状態に移行し、電子機器へ接近したとき(使用したくて近づいたとき)には使い勝手の面からなるべく早く復帰してほしいという要望がある。電子機器からの離脱も電子機器への接近も早く検出するには、離脱を検出する際の離脱検出範囲を狭く設定し、接近する際の接近検出範囲を広く設定する方法が考えられる。
しかしながら、離脱検出範囲を狭く接近検出範囲を広く設定すると、ユーザが離脱検出範囲の外へ出たことにより待機状態へ移行したものの、ユーザが接近検出範囲内にとどまっている場合がある。この場合、ユーザが接近していると判定してしまうと、離脱したユーザが電子機器を使用するつもりがなくても近くに留まっているだけで待機状態から復帰してしまうという課題がある。また、この課題を解決するために、ユーザが一旦接近検出範囲外に出ないと接近したと判定しないようにすると、ユーザが本当に電子機器を使用したいときには、電子機器から一旦遠くへ離れてから接近する必要があるため不便である。
本発明は、上記した事情に鑑みてなされたもので、ユーザの接近及び離脱を適切に検出する電子機器、及び制御方法を提供することを目的の一つとする。
本発明は上記の課題を解決するためになされたものであり、本発明の第1態様に係る電子機器は、所定の検出範囲内に存在する物体を検出する検出部と、前記検出部による検出結果に基づいて、前記所定の検出範囲のうちの第1検出範囲内に前記物体が検出されている状態から検出されなくなった場合、前記物体が離脱したと判定する離脱判定部と、前記検出部による検出結果に基づいて、前記所定の検出範囲のうちの前記第1検出範囲よりも広い第2検出範囲内に前記物体が検出されていない状態から検出された場合、前記物体が接近したと判定する接近判定部と、を備え、前記接近判定部は、前記離脱判定部が離脱したと判定した前記物体が前記第2検出範囲内に検出されている間は、前記物体の検出位置が前記第1検出範囲の方へ移動することに基づいて、前記物体が接近したと判定する。
上記電子機器において、前記接近判定部は、前記離脱判定部が離脱したと判定した前記物体が前記第2検出範囲内に検出されている場合、前記物体の検出位置の前記第1検出範囲の方向への変化量が所定値以上の場合に、前記物体が接近したと判定してもよい。
上記電子機器は、システム処理を実行する処理部、を備え、前記離脱判定部は、前記処理部が実行する前記システム処理の少なくとも一部が制限される状態になった場合、前記物体の検出位置が前記第1検出範囲の方へ移動することに基づいて、前記物体が接近したと判定してもよい。
上記電子機器において、前記接近判定部は、前記離脱判定部が離脱したと判定した前記物体が前記第2検出範囲内に検出されている場合、前記物体が再び前記第1検出範囲内に検出されることに応じて、前記物体が接近したと判定してもよい。
上記電子機器において、前記離脱判定部は、前記接近判定部が接近したと判定した前記物体が前記第2検出範囲のうちの前記第1検出範囲以外に検出されている間は、前記第2検出範囲内に前記物体が検出されなくなることに応じて、前記物体が離脱したと判定してもよい。
上記電子機器において、前記検出範囲は、前記電子機器に対する距離と角度で定まる検出範囲であり、前記第1検出範囲及び前記第2検出範囲は、前記距離と前記角度のいずれか一方または両方が異なるように設定されてもよい。
上記電子機器において、前記検出範囲は、前記電子機器に対する距離で定まる検出範囲であり、前記第1検出範囲は、前記電子機器から第1検出距離までの範囲であり、前記第2検出範囲は、前記電子機器から第2検出距離までの範囲であり、前記第1検出距離よりも前記第2検出距離の方が長い距離であってもよい。
上記電子機器において、前記検出範囲は、前記電子機器に対する角度で定まる検出範囲であり、前記第1検出範囲は、前記電子機器に対する第1検出視野角の範囲であり、前記第2検出範囲は、前記電子機器に対する第2検出視野角の範囲であり、前記第1検出視野角よりも前記第2検出視野角の方が広い角度であってもよい。
上記電子機器において、前記検出範囲は、前記電子機器に対する角度で定まる検出範囲であり、前記第1検出範囲は、前記電子機器に対する第1検出視野角の範囲であり、前記第2検出範囲は、前記電子機器に対する第2検出視野角の範囲であり、前記第1検出視野角よりも前記第2検出視野角の方が狭い角度であってもよい。
上記電子機器は、システムに基づくシステム処理を実行する処理部と、前記離脱判定部により前記物体が離脱したと判定された場合、前記システムの動作状態を前記システム処理の少なくとも一部が制限された第1動作状態へと遷移させ、前記接近判定部により前記物体が接近したと判定された場合、前記第1動作状態から活性化させる動作制御部と、を備えてもよい。
また、本発明の第2態様に係る電子機器における制御方法は、検出部が、所定の検出範囲内に存在する物体を検出するステップと、離脱判定部が、前記検出部による検出結果に基づいて、前記所定の検出範囲のうちの第1検出範囲内に前記物体が検出されている状態から検出されなくなった場合、前記物体が離脱したと判定するステップと、接近判定部が、前記検出部による検出結果に基づいて、前記所定の検出範囲のうちの前記第1検出範囲よりも広い第2検出範囲内に前記物体が検出されていない状態から検出された場合、前記物体が接近したと判定するステップと、前記接近判定部が、前記離脱したと判定された前記物体が前記第2検出範囲内に検出されている間は、前記物体の検出位置が前記第1検出範囲の方へ移動することに基づいて、前記物体が接近したと判定するステップと、を有する。
本発明の上記態様によれば、ユーザの接近及び離脱を適切に検出することができる。
第1の実施形態に係る電子機器の概要を説明する図。 第1の実施形態に係る電子機器の外観の構成例を示す斜視図。 第1の実施形態にかかる検出範囲の一例を示す図。 第1の実施形態に係る人物の離脱及び接近の検出についての説明図。 第1の実施形態に係るトラッキングモード時の接近検出について説明図。 第1の実施形態に係る電子機器のハードウェア構成例を示す概略ブロック図。 第1の実施形態に係る検出モード制御処理の一例を示すフローチャート。 第1の実施形態に係る離脱検出モードにおける離脱検出処理の一例を示すフローチャート。 第1の実施形態に係るトラッキングモードにおける離脱または接近検出処理の一例を示すフローチャート。 第1の実施形態に係る接近検出モードにおける接近検出処理の一例を示すフローチャート。 第1の実施形態に係る起動制御の一例を示すフローチャート。 第1の実施形態に係る待機状態遷移処理の一例を示すフローチャート。 第2の実施形態に係るトラッキングモード時の接近検出についての説明図。 第2の実施形態に係るトラッキングモードにおける離脱または接近検出処理の一例を示すフローチャート。 第3の実施形態に係るトラッキングモード時の接近検出についての説明図。
<第1の実施形態>
まず、本発明の第1の実施形態に係る電子機器1について、図面を参照して説明する。本実施形態に係る電子機器1は、例えば、ノート型PC(Personal Computer;パーソナルコンピュータ)などの情報処理装置である。なお、電子機器1は、デスクトップ型PC、タブレット端末装置、スマートフォンなど、いずれの形態の情報処理装置であってもよい。
電子機器1は、システムの動作状態として少なくとも通常動作状態(パワーオン状態)と待機状態との間を遷移可能である。通常動作状態とは、特に制限なく処理の実行が可能な動作状態であり、例えば、ACPI(Advanced Configuration and Power Interface)で規定されているS0状態に相当する。待機状態は、システム処理の少なくとも一部が制限されている状態である。例えば、待機状態は、少なくとも表示部の表示がOFFとなる状態であり、通常動作状態よりも電力の消費量が低い動作状態である。待機状態は、スタンバイ状態、スリープ状態等であってもよく、Windows(登録商標)におけるモダンスタンバイや、ACPIで規定されているS3状態(スリープ状態)等に相当する状態であってもよい。
以下では、システムの動作状態が待機状態から通常動作状態へ遷移することを起動と呼ぶことがある。待機状態では、一般的に通常動作状態よりも動作の活性度が低いため、電子機器1のシステムを起動させることは、電子機器1におけるシステムの動作を活性化させることになる。
図1は、本実施形態に係る電子機器1の概要を説明する図である。電子機器1は、後述する近接センサを備えており、電子機器1の近傍に存在する人物を検出する。この人物の存在を検出する処理のことを、HPD(Human Presence Detection)処理とも呼ぶことがある。電子機器1は、電子機器1の近傍に存在する人物を検出し、検出結果に基づいて電子機器1の動作状態を制御する。例えば、電子機器1は、図1(a)に示すように、電子機器1の前に人物が存在しない状態(Absence)から存在する状態(Presence)への変化、即ち電子機器1へ人物が接近したこと(Approach)を検出した場合、待機状態から自動でシステムを起動して通常動作状態へ遷移させる。また、電子機器1は、図1(b)に示すように、電子機器1の前に人物が存在している状態(Presence)では、システムを待機状態へ遷移させないように制限し、通常動作状態を継続させる。そして、電子機器1は、図1(c)に示すように、電子機器1の前に人物が存在している状態(Presence)から存在しない状態(Absence)への変化、即ち電子機器1から人物が離脱したこと(Leave)を検出した場合には、システムを通常状態から待機状態へ遷移させる。
(電子機器の外観構成)
図2は、本実施形態に係る電子機器1の外観の構成例を示す斜視図である。
電子機器1は、第1筐体10、第2筐体20、及びヒンジ機構15を備える。第1筐体10と第2筐体20は、ヒンジ機構15を用いて結合されている。第1筐体10は、第2筐体20に対して、ヒンジ機構15がなす回転軸の周りに相対的に回動可能である。回転軸の方向は、ヒンジ機構15が設置されている側面10c、20cに対して平行である。
第1筐体10は、Aカバー、ディスプレイ筐体とも呼ばれる。第2筐体20は、Cカバー、システム筐体とも呼ばれる。以下の説明では、第1筐体10と第2筐体20の側面のうち、ヒンジ機構15が備わる面を、それぞれ側面10c、20cと呼ぶ。第1筐体10と第2筐体20の側面のうち、側面10c、20cとは反対側の面を、それぞれ側面10a、20aと呼ぶ。図示において、側面20aから側面20cに向かう方向を「後」と呼び、側面20cから側面20aに向かう方向を「前」と呼ぶ。後方に対して右方、左方を、それぞれ「右」、「左」と呼ぶ。第1筐体10、第2筐体20の左側面をそれぞれ側面10b、20bと呼び、右側面をそれぞれ側面10d、20dと呼ぶ。また、第1筐体10と第2筐体20とが重なり合って完全に閉じた状態(開き角θ=0°の状態)を「閉状態」と呼ぶ。閉状態において第1筐体10と第2筐体20との互いに対面する側の面を、それぞれの「内面」と呼び、内面に対して反対側の面を「外面」と呼ぶ。また、閉状態に対して第1筐体10と第2筐体20とが開いた状態のことを「開状態」と呼ぶ。
図2に示す電子機器1の外観は開状態の例を示している。開状態は、第1筐体10の側面10aと側2筐体20の側面20aとが離れた状態である。開状態では、第1筐体10と第2筐体20とのそれぞれの内面が表れ、電子機器1は通常の動作を実行可能とすることが期待される。開状態は、第1筐体10の内面と第2筐体20の内面とがなす開き角θが所定の角度以上になった状態であり、典型的には100~130°程度となる。なお、開状態となる開き角θの範囲は、ヒンジ機構15よって回動可能な角度の範囲等に応じて任意に定めることができる。
第1筐体10の内面には、表示部110が設けられている。表示部110は、液晶ディスプレイ(LCD: liquid crystal display)や有機EL(Electro Luminescence)ディスプレイなどを含んで構成されている。また、第1筐体10の内面のうち表示部110の周縁の領域に、撮像部120と近接センサ130とが設けられている。撮像部120及び近接センサ130は、表示部110の周縁の領域のうち側面20a側に並んで配置されている。なお、近接センサ130は、表示部110の周縁の領域のうち側面20c側に配置されてもよい。
撮像部120は、開状態において、第1筐体10の内面に対面する方向(前方)の所定の画角内の物体の像を撮像する。所定の画角とは、撮像部120が有する撮像素子と撮像素子の撮像面の前方に設けられた光学レンズとによって定める撮像画角である。
近接センサ130は、電子機器1の近傍に存在する物体(例えば、人物)を検出する。例えば、近接センサ130は、赤外線を発光する発光部と、発光した赤外線が物体の表面に反射して戻ってくる反射光を受光する受光部とを含んで構成される赤外線距離センサである。近接センサ130は、所定のサンプリング周期(例えば、1Hz)で、受光部が受光した光を検出し、受光した結像位置に基づいて距離を算出する三角測距方式や、発光から受光までの時間差等を距離に換算するToF(Time of Flight)方式等を用いて、物体(例えば、人物)との距離に応じて検出信号を出力する。
なお、近接センサ130は、発光ダイオードが発光する赤外線を用いたセンサであってもよいし、発光ダイオードが発光する赤外線よりも波長帯域が狭い光線を発光する赤外線レーザを用いたセンサであってもよい。また、近接センサ130は、赤外線距離センサに限定されるものでなく、物体との距離を検出するセンサであれば、超音波センサまたはUWB(Ultra Wide Band)レーダを用いたセンサ等の他の方式を用いたセンサであってもよい。
第2筐体20の内面には、キーボード151及びタッチパッド153が入力デバイスとして設けられている。なお、入力デバイスとして、キーボード151及びタッチパッド153に代えて、または加えて、タッチセンサが含まれてもよいし、マウスや外付けのキーボードが接続されてもよい。タッチセンサが設けられた構成の場合、タッチセンサが操作を受け付ける操作領域は、表示部110の表示面に対応する領域としていてもよい。また、入力デバイスには、音声が入力されるマイクが含まれてもよい。
なお、第1筐体10と第2筐体20とが閉じた閉状態では、第1筐体10の内面に設けられている表示部110、撮像部120、及び近接センサ130は、第2筐体20の内面に覆われて、機能を発揮できない状態である。第1筐体10と第2筐体20とが完全に閉じた状態では、開き角θは0°となる。
(近接センサの検出範囲)
ここで、近接センサ130の検出範囲について説明する。開状態において、第1筐体10の内面に配置されている近接センサ130は、第1筐体10の内面に対面する方向(正面濃厚、前方)における物体(例えば、人物)を検出する。以下では、近接センサ130が検出可能な検出範囲のことを、センサ検出範囲と称する。センサ検出範囲は、近接センサ130が検出可能な角度を示す検出視野角FoV(Field of View)と、近接センサ130が検出可能な距離を示す検出距離KDとで定義することができる。
電子機器1は、センサ検出範囲のうち、電子機器1からの人物の離脱を検出する場合の検出範囲と電子機器1への人物の接近を検出する場合の検出範囲とで、異なる検出範囲に設定する。以下では、電子機器1からの人物の離脱を検出する場合の検出範囲を離脱検出範囲、電子機器1への人物の接近を検出する場合の検出範囲を接近検出範囲と称する。また、電子機器1からの人物の離脱を検出する検出モードのことを離脱検出モード、電子機器1への人物の接近を検出する検出モードのことを接近検出モードと称する。
例えば、ユーザによって、電子機器から離脱したとき(使用しなくなったとき)はセキュリティの面からなるべく早く待機状態に移行し、電子機器へ接近したとき(使用したいとき)には使い勝手の面からなるべく早く復帰してほしいという要望がある。この要望に応えるため、離脱検出範囲が比較的に狭く、接近検出範囲が比較的に広く設定されている。
図3は、本実施形態にかかる検出範囲の一例を示す図である。センサ検出範囲DZは、近接センサ130の検出面に対して直交する光学軸AXを中心とした検出視野角FoVと近接センサ130の検出面からの検出距離KDとで示している。このセンサ検出範囲DZ内に、離脱検出範囲DZ1及び接近検出範囲DZ2が設定されている。接近検出範囲DZ2は、離脱検出範囲DZ1を含み且つ離脱検出範囲DZ1よりも広い検出範囲である。ここでは、離脱検出範囲DZ1の検出視野角と検出距離を、それぞれ離脱検出視野角FoV1と離脱検出距離KD1とする。また、接近検出範囲DZ2の検出視野角と検出距離を、それぞれ接近検出視野角FoV2と接近検出距離KD2とする。例えば、離脱検出距離KD1及び接近検出距離KD2は、電子機器1(近接センサ130)からの検出距離を表し、離脱検出距離KD1(例えば、70cm)よりも接近検出距離KD2の方が長い距離(例えば、150cm)である。また、離脱検出視野角FoV1及び接近検出視野角FoV2は、電子機器1(近接センサ130)に対する検出視野角を表し、離脱検出視野角FoV1(例えば、30°)よりも接近検出視野角FoV2の方が広い角度(例えば、90°)である。
電子機器1は、離脱検出範囲DZ1内に人物が検出されている状態から検出されなくなった場合、人物が離脱したと判定する。即ち、電子機器1を使用していた人物が電子機器1から離れて離脱検出範囲DZ1の外に出た場合、人物が離脱したと判定する。また、電子機器1は、接近検出範囲DZ2内に人物が検出されていない状態から検出された場合、人物が接近したと判定する。即ち、電子機器1の近傍に人物が存在しない状態から人物が近づいてきて接近検出範囲DZ2内に入った場合、人物が接近したと判定する。離脱検出範囲DZ1を比較的に狭く、接近検出範囲DZ2を比較的に広く設定することにより、電子機器1からの人物の離脱も電子機器1への人物の接近も早めに検出することができる。
ここで、離脱検出範囲DZ1の外に出たことにより離脱したと判定された人物が再び電子機器1を使用したい場合に、一旦接近検出範囲DZ2の外に出てから近づかないと接近と判定されないのでは不便である。そこで、本実施形態では、電子機器1は、離脱検出範囲DZ1の外に出たことにより離脱したと判定された人物が接近検出範囲DZ2内に留まっている場合には、人物の検出位置が離脱検出範囲DZ1の方へ移動することに基づいて人物の接近を検出する。ここで、離脱検出範囲DZ1の外であって、且つ接近検出範囲DZ2内である範囲を、トラッキング範囲TZとも称する。例えば、電子機器1は、トラッキング範囲に留まっている人物の検出位置をトラッキングし、離脱検出範囲DZ1の方へ(即ち、電子機器1の方へ)一定以上移動した場合に、人物が接近したと判定する。このトラッキング範囲TZ内に留まっている人物の検出位置をトラッキングする検出モードのことをトラッキングモードと称する。以下、図4及び図5を参照して、人物の離脱及び接近の検出について具体的に説明する。
図4及び図5は、本実施形態に係る人物の離脱及び接近の検出についての説明図である。ここでは、説明を容易にするため、各検出範囲の検出視野角と検出距離のうち検出距離のみを図示している。まず、図4を参照して、検出モードの遷移と、離脱検出モード時の離脱検出及び接近検出モード時の接近検出とについて説明する。
(a)は、人物Uが離脱検出距離KD1よりも電子機器1に近い位置に存在している状態を示している。このとき、電子機器1は、離脱検出範囲DZ1内に人物Uを検出している状態であり、通常動作状態である。また、検出モードは、離脱検出モードである。電子機器1は、離脱検出範囲DZ1内の人物Uが離脱検出距離KD1を超えて遠ざかった時点で離脱検出範囲DZ1内に人物を検出しなくなり、人物Uが離脱したと判定する。
(b)は、(a)に示す人物Uが電子機器1から離脱検出距離KD1以上に離れ、離脱検出範囲DZ1の外に出た状態を示している。電子機器1は、人物Uが離脱したと判定したことに応じて、通常動作状態から待機状態へ遷移させる。また、電子機器1は、トラッキング範囲TZ内に人物Uを検出している状態であり、検出モードを離脱検出モードからトラッキングモードへ遷移させる。
(c)は、(b)に示す人物Uがさらに電子機器1から接近検出距離KD2以上になるまで離れ、接近検出範囲DZ2の外に出た状態を示している。このとき、電子機器1は、引き続き待機状態であるが、接近検出範囲DZ2内(トラッキング範囲TZ内)に人物を検出しなくなるため、検出位置のトラッキングを終了し、トラッキングモードから接近検出モードへ遷移させる。要するに、電子機器1は、接近検出範囲DZ2の外に出た人物Uを完全に離脱したものとして判定し、その後は、接近検出モードにて接近検出範囲DZ2を用いて人物の接近を判定する。
(d)は、(c)に示す人物Uが電子機器1へ近づき、接近検出距離KD2を超えて接近検出距離KD2内に入った状態を示している。電子機器1は、(c)に示す人物Uが接近検出距離KD2を超えて近づいた時点で接近検出範囲DZ2内に人物を検出し、人物Uが接近したと判定する。電子機器1は、人物Uが近接したと判定したことに応じてシステムを起動させる。
次に、図5を参照して、トラッキングモード時の接近検出について説明する。図5の(a)、(b)に示す状態は、図4に示すの(a)、(b)に示す状態と同一である。(b)に示すように、電子機器1がトラッキング範囲TZ内に人物Uを検出している状態では、検出モードがトラッキングモードである、トラッキングモードでは、電子機器1は、人物Uの検出位置をトラッキングし、当該検出位置が離脱検出範囲DZ1の方へ近づくことに基づいて、人物Uが接近したと判定する、例えば、電子機器1は、(b)に示す人物Uが離脱検出距離KD1を超えて近づいた時点で離脱検出範囲DZ1内に人物を検出し、人物Uが接近したと判定する。
(e)は、(b)に示す人物Uが離脱検出距離KD1よりも近くまで電子機器1へ近づき、離脱検出範囲DZ1内に入った状態を示している。電子機器1は、人物Uが接近したと判定したことに応じてシステムを起動させる。
なお、図5に示す例では、トラッキングモードにおいて人物Uが離脱検出範囲DZ1(離脱検出距離KD1)の方へ(即ち、電子機器1の方へ)近づいたときに、電子機器1へ人物Uが接近したと判定する例を説明したが、離脱検出距離KD1よりもさらに電子機器1に近い距離を超えて近づいたときに、電子機器1へ人物Uが接近したと判定してもよい。つまり、トラッキングモードにおいて人物Uが接近したと判定する閾値は、離脱検出範囲DZ1(離脱検出距離KD1)と同一でなくてもよい。
また、図4の(d)に示すトラッキング範囲TZ内の人物Uが、離脱検出範囲DZ1内に入らずに、接近検出距離KD2以上になるまで電子機器1から離れ、接近検出範囲DZ2の外に出た場合、電子機器1は、接近検出範囲DZ2内(トラッキング範囲TZ内)に人物を検出しなくなるため、検出位置のトラッキングを終了し、トラッキングモードから接近検出モードへ遷移させる。また、電子機器1は、接近検出範囲DZ2の外に出た人物Uを完全に離脱したものとして判定し、通常動作状態から待機状態に遷移させる。
(電子機器のハードウェア構成)
図6は、本実施形態に係る電子機器1のハードウェアの構成例を示す概略ブロック図である。電子機器1は、表示部110、撮像部120、近接センサ130、入力デバイス150、EC(Embedded Controller)200、システム処理部300、通信部350、記憶部360、及び電源部400を含んで構成される。表示部110は、システム処理部300により実行されるシステム処理により生成された表示データを表示する。
撮像部120は、第1筐体10の内面に対面する方向(前方)の所定の画角内の物体の像を撮像し、撮像した画像をシステム処理部300へ出力する。例えば、電子機器1に接近した人物の顔面が撮像部120の画角内に含まれるとき、撮像部120は、人物の顔画像を撮像し、撮像した顔画像をシステム処理部300へ出力する。撮像部120は、赤外線カメラであってもよいし、通常のカメラであってもよい。赤外線カメラは、撮像素子として赤外線センサを備えるカメラである。通常のカメラは、撮像素子として可視光線を受光する可視光センサを備えるカメラである。
近接センサ130は、前述したように、第1筐体10の正面方向(前方)に存在する物体(例えば、人物)を検出し、検出結果に基づく検出信号をEC200へ出力する。検出信号には、センサ検出範囲内に検出した物体(例えば、人物)の検出位置(角度や距離)に応じた情報が含まれる。
入力デバイス150は、ユーザの入力を受け付ける入力部であり、例えばキーボード151及びタッチパッド153を含んで構成されている。入力デバイス150は、キーボード151及びタッチパッド153に対する操作を受け付けることに応じて、操作内容を示す操作信号をEC200へ出力する。
電源部400は、電子機器1の各部の動作状態に応じて各部へ電力を供給するための電源系統を介して電力を供給する。電源部400は、DC(Direct Current)/DCコンバータを備える。DC/DCコンバータは、AC(Alternate Current)/DCアダプタもしくは電池パックから供給される直流電力の電圧を、各部で要求される電圧に変換する。DC/DCコンバータで電圧が変換された電力が各電源系統を介して各部へ供給される。例えば、電源部400は、EC200から入力される各部の動作状態に応じて制御信号に基づいて各電源系統を介して各部に電力を供給する。
EC200は、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)およびI/O(Input/Output)ロジック回路などを含んで構成されたマイクロコンピュータである。EC200のCPUは、自部のROMに予め記憶した制御プログラムを読み出し、読み出した制御プログラムを実行して、その機能を発揮する。EC200は、システム処理部300とは独立に動作し、システム処理部300の動作を制御し、その動作状態を管理する。また、EC200は、近接センサ130と、入力デバイス150と電源部400に接続されている。
例えば、EC200は、近接センサ130から検出結果を示す検出信号を取得し、検出結果に基づいてHPD処理を実行し、人物の接近や離脱を判定する。また、EC200は、HPD処理に応じてシステム処理部300の動作状態を制御する。また、EC200は、電源部400と通信を行うことにより、バッテリーの状態(残容量など)の情報を電源部400から取得するとともに、電子機器1の各部の動作状態に応じた電力の供給を制御するための制御信号などを電源部400へ出力する。また、EC200は、入力デバイス150から操作信号を取得し、取得した操作信号のうちシステム処理部300の処理に関連する操作信号についてはシステム処理部300へ出力する。
例えば、EC200は、HPD処理に関する機能構成として、人物検出部210と、離脱判定部211と、接近判定部212と、動作制御部220とを備えている。人物検出部210は、近接センサ130から出力される検出信号に基づいて、所定のサンプリング周期(例えば、1kHz)で電子機器1の正面(前方)に存在する物体(例えば、人物)を検出する。なお、以下の説明では、人物検出部210が物体(例えば、人物)を検出することを、単に、人物を検出するとも記載する。即ち、人物検出部210が人物を検出するとは、人物検出部210が人物を検出することも、人物以外の物体を検出することも含む。例えば、人物検出部210は、近接センサ130から取得する検出信号に基づいて、電子機器1の正面(前方)のセンサ検出範囲内に存在する人物を検出する。より具体的には、人物検出部210は、離脱検出範囲DZ1、トラッキング範囲TZ、接近検出範囲DZ2内のそれぞれにおいて人物の存在の有無を検出する。
離脱判定部211は、人物検出部210による検出結果に基づいて、離脱検出範囲DZ1内に人物が検出されている状態から検出されなくなった場合、電子機器1から人物が離脱したと判定する。接近判定部212は、人物検出部210による検出結果に基づいて、接近検出範囲DZ2内に人物が検出されていない状態から検出された場合、電子機器1へ人物が接近したと判定する。
また、接近判定部212は、離脱判定部211が離脱したと判定した人物が接近検出範囲DZ2内(即ち、トラッキング範囲TZ内)に検出されている間は、人物の検出位置が離脱検出範囲DZ1の方(即ち、電子機器1の方)へ移動することに基づいて、人物が接近したと判定する。例えば、接近判定部212は、離脱判定部211が離脱したと判定した人物が接近検出範囲DZ2内(即ち、トラッキング範囲内)に検出されている場合、人物が再び離脱検出範囲DZ1内に検出されることに応じて、人物が接近したと判定する。
なお、離脱判定部211は、接近検出範囲DZ2内に人物が検出されていない状態から検出されたことに応じて接近判定部212が接近したと判定した人物がトラッキング範囲TZ内に検出されている間は、接近検出範囲DZ2内に人物が検出されなくなることに応じて、人物が離脱したと判定してもよい。
動作制御部220は、接近判定部212により人物が接近したと判定された場合、システム処理部300によるシステムの動作状態を待機状態から起動させる。例えば、動作制御部220は、システムを起動させる場合、電源部400に対して、電子機器1の各部の動作に必要な電力を供給するための制御信号を出力する。その後、動作制御部220は、システム処理部300に対して、システムの起動を指示するための起動信号を出力する。システム処理部300は、起動信号を取得すると、システムを起動して待機状態から通常動作状態へ遷移させる。なお、動作制御部220は、待機状態において、起動を指示する操作(電源ボタン(不図示)の押下など)や、画面ロックを解除する操作(キーボード151またはタッチパッド153への操作など)がされた場合、システムの動作状態を待機状態から起動させてもよい。
また、動作制御部220は、離脱判定部211により人物が離脱したと判定された場合、システム処理部300によるシステムの動作状態を通常動作状態から待機状態に遷移させる。例えば、動作制御部220は、システム処理部300に対して、システムの動作状態を通常動作状態から待機状態へ遷移させる指示をするための待機信号を出力する。システム処理部300は、待機信号を取得すると、システムを通常動作状態から待機状態へ遷移させる。その後、動作制御部220は、電源部400に対して、待機状態では不要な電力の供給を停止させるための制御信号を出力する。
なお、動作制御部220は、通常動作状態において、離脱判定部211により人物が離脱したと判定されない場合であっても、所定の条件が満たされることによって、通常動作状態から待機状態へ遷移させてもよい。所定の条件とは、例えば、待機状態への遷移を指示する操作(電源ボタン(不図示)の押下、画面のロックを選択する操作など)がされること、無操作の期間が予め設定された期間継続することなどである。
システム処理部300は、CPU302、GPU(Graphic Processing Unit)304、メモリコントローラ306、I/O(Input-Output)コントローラ308、システムメモリ310、及び認証処理部312を含んで構成され、オペレーティングシステム(OS:Operating System)によるシステム処理によって、OS上で各種のアプリケーションソフトウェアの処理が実行可能である。CPU302とGPU304をプロセッサと総称することがある。前述したように、システムの動作状態として少なくとも通常動作状態と待機状態との間を遷移可能である。
CPU302は、システムの動作状態が待機状態であって、EC200から起動信号が入力された場合、待機状態から通常動作状態に遷移させる。例えば、動作状態がスリープ状態であるとき、電源部400から電力の供給を受け、かつEC200から起動信号が入力されると、CPU302は、起動処理を開始する。CPU302は、起動処理において、システムメモリ310、記憶部360などの最小限のデバイスの検出と初期化を行う(プリブート)。CPU302は、記憶部360からシステムファームウェアをシステムメモリ310にロードし、通信部350、表示部110などその他のデバイスの検出と初期化を行う(ポスト処理)。初期化には、初期パラメータの設定などの処理が含まれる。なお、スリープ状態から通常動作状態への遷移(レジューム)においては、ポスト処理の一部が省略されることがある。CPU302は、起動処理が完了した後、OSによるシステム処理の実行を開始する(起動)。例えば、CPU302は、動作状態がスタンバイ状態であって、EC200から起動信号が入力されると、実行を停止していたソフトウェアの実行を再開する。
なお、CPU302は、OSによるシステム処理の実行を開始すると、OSの利用を許可する前にログイン認証処理を実行し、ログイン認証処理でログインを許可するまで、以降のシステム処理の実行を一旦停止する。ログイン認証処理は、電子機器1を使用する人物が予め登録された正規のユーザであるか否かを判定するユーザ認証処理である。ログイン認証には、パスワード認証、顔認証、指紋認証などがある。ここでは、顔認証処理の場合を例に説明する。CPU302は、撮像部120で撮像された人物の顔画像に基づく顔認証処理の実行を認証処理部312に指示する。CPU302は、認証処理部312による認証結果が成功であった場合、ログインを許可し、一旦停止していたシステム処理の実行を再開する。一方、認証処理部312による認証結果が失敗であった場合、ログインを許可せず、システム処理の実行を停止したままにする。
GPU304は、表示部110に接続されている。GPU304は、CPU302の制御に基づいて画像処理を実行して表示データを生成する。GPU304は、生成した表示データを表示部110に出力する。なお、CPU302とGPU304は、一体化して1個のコアとして形成されてもよいし、個々のコアとして形成されたCPU302とGPU304の相互間で負荷が分担されてもよい。プロセッサの数は、1個に限られず、複数個であってもよい。
メモリコントローラ306は、CPU302とGPU304によるシステムメモリ310、記憶部360などからのデータの読出し、書込みを制御する。
I/Oコントローラ308は、通信部350、表示部110およびEC200からのデータの入出力を制御する。
システムメモリ310は、プロセッサの実行プログラムの読み込み領域ならびに処理データを書き込む作業領域として用いられる。
認証処理部312は、CPU302から顔認証処理の実行の指示を受け取ると、撮像部120で撮像された人物の顔画像に基づいて顔認証処理を実行する。撮像部120で撮像された人物の顔画像とは、電子機器1の前方から接近する人物の顔画像である。顔認証処理は、顔検出処理と顔照合処理とを含む。顔検出処理は、撮像部120から入力される画像信号から顔が表されている領域である顔領域を定める処理である。顔照合処理は、顔領域から顔の特徴を表す複数の顔特徴点(例えば、口、目、鼻、など)の位置を求め、顔領域の位置と大きさがそれぞれ所定の位置と大きさとなるように正規化し、正規化した顔特徴点の分布を画像特徴量として定める過程と、定めた画像特徴量と所定の人物の顔画像に係る画像特徴量と照合し、照合に成功した画像特徴量に係る人物を特定する過程を有する。記憶部360には、アカウント毎に、そのアカウントでログインする正規ユーザとしての認証情報が設定されている。認証情報には、そのユーザの顔画像の画像特徴量が含まれる。認証情報には、さらにそのユーザを示すユーザ情報を対応付けて記憶される。ユーザ情報は、例えば、ユーザ名、ユーザID(Identifier)、など電子機器1のユーザを特定できる情報であればよい。
認証処理部312は、撮像部120で撮像された人物の顔画像と、設定されているユーザの認証情報とを照合した結果が一致と判断できる場合に顔認証に成功したと判定する。一方、認証処理部312は、例えば、電子機器1を使用する人物以外の人物が前を単に横切った場合には、撮像部120で撮像された画像から顔領域が検出されない。認証処理部312は、顔認証の成否を示す認証情報をCPU302及びEC200に出力する。
通信部350は、無線または有線による通信ネットワークを介して他の機器と通信可能に接続し、各種のデータの送信および受信を行う。例えば、通信部350は、イーサネット(登録商標)等の有線LANインターフェースやWi-Fi(登録商標)等の無線LANインターフェース等を含んで構成されている。なお、通信部350は、USB(Universal Serial Bus)インターフェースやBluetooTZ(登録商標)インターフェースを含んで構成されてもよい。
記憶部360は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、セキュアNVRAM(Non-Volatile RAM)、ROM(Read Only Memory)などの記憶媒体を含んで構成される。HDDまたはSSDは、OS、デバイスドライバ、アプリケーションなどの各種のプログラム、その他、プログラムの動作により取得した各種のデータを記憶する。セキュアNVRAMには、各ユーザの認証に用いる認証データを記憶する。認証データには、各ユーザの識別情報と、認証情報とを対応付けて記憶する。セキュアNVRAMには、I/Oコントローラ308から経由したOSの動作環境からはアクセスできないように保護(ロック)される。但し、CPU302のパワーオン、リセット時にロックを解除し、プリブートの終了時にシステムファームウェアを実行してロックを開始する。
次に、本実施形態に係る処理の動作について説明する。
(人物検出処理の動作)
まず、電子機器1が実行する人物検出処理の動作について説明する。
図7は、本実施形態に係る人物検出処理における検出モード制御処理の一例を示すフローチャートである。
(ステップS100)人物検出部210は、近接センサ130から取得する検出信号に基づいて、電子機器1の正面(前方)のセンサ検出範囲内に存在する人物を検出する。人物検出部210は、離脱検出範囲DZ1内に人物を検出した場合、検出モードを離脱検出モードに設定し、ステップS110の処理に進む。
(ステップS110)離脱検出モードでは、電子機器1は、離脱検出範囲DZ1内に検出された人物の離脱を検出する離脱検出処理を実行する。このステップS110の離脱検出モードにおける離脱検出処理の詳細について、図8を参照して説明する。
図8は、本実施形態に係る離脱検出モードにおける離脱検出処理の一例を示すフローチャートである。離脱判定部211は、人物検出部210による検出結果に基づいて、離脱検出範囲DZ1内に検出されている人物が未検出になったか否かを判定する(ステップS111)。離脱判定部211は、離脱検出範囲DZ1内に人物が検出されている状態から検出されなくなった場合(YES)、人物が離脱したと判定する(ステップS113)。一方、離脱判定部211は、離脱検出範囲DZ1内に人物が検出されている場合(NO)、ステップS113の処理を行なわない(人物が離脱したと判定しない)。
図7に戻り、ステップS100において人物検出部210は、トラッキング範囲TZ内に人物を検出した場合、トラッキングモードに設定し、ステップS120の処理に進む。
(ステップS120)トラッキングモードでは、電子機器1は、トラッキング範囲TZ内に検出された人物の接近または離脱を検出するトラッキング処理を実行する。このステップS110の離脱検出モードにおける離脱検出処理の詳細について、図9を参照して説明する。
図9は、本実施形態に係るトラッキングモードにおける離脱または接近検出処理の一例を示すフローチャートである。接近判定部212は、トラッキング範囲TZ内に検出されている人物の検出位置が離脱検出範囲DZ1の方(即ち、電子機器1の方)へ移動したか否かを判定する。例えば、接近判定部212は、人物検出部210による検出結果に基づいて、離脱検出範囲DZ1内に人物が検出されたか否かを判定する(ステップS121)。接近判定部212は、離脱検出範囲DZ1内に人物が検出されていない状態から検出された場合(YES)、人物が接近したと判定する(ステップS123)。これにより、トラッキングモードで人物が離脱したと判定されている状態(図4、5の(b)の状態)では、離脱検出範囲DZ1内に人物が検出されることに応じて人物が接近したと判定され、トラッキングモードから離脱検出モードへ遷移する。一方、トラッキングモードで人物が接近したと判定されている状態(図4の(d)の状態)では、離脱検出範囲DZ1内に人物が検出されても人物が接近した状態を継続するが、トラッキングモードから離脱検出モードへ遷移する。
また、ステップS121において接近判定部212は、離脱検出範囲DZ1内に人物が検出されない場合(NO)、ステップS125の処理に進む。ステップS125では、離脱判定部211は、トラッキング範囲TZ内に検出されている人物が接近検出範囲DZ2の外へ出たか否かを判定する。例えば、離脱判定部211は、接近検出範囲DZ2内に人物が未検出になったか否かを判定する。離脱判定部211は、接近検出範囲DZ2内に人物が検出されなくなった場合(NO)、人物が離脱したと判定する。これにより、トラッキングモードで人物が接近したと判定されている状態(図4の(d)の状態)では、接近検出範囲DZ2内に人物が検出されなくなったことに応じて人物が離脱したと判定され、トラッキングモードから接近検出モードへ遷移する。一方、トラッキングモードで人物が離脱したと判定されている状態(図4、5の(b)の状態)では、接近検出範囲DZ2内に人物が検出されなくなったことに応じて、完全に離脱したと判定され、トラッキングモードから接近検出モードへ遷移する。
図7に戻り、ステップS100において人物検出部210は、接近検出範囲DZ2内に人物を検出しなかった場合、接近検出モードに設定し、ステップS130の処理に進む。
(ステップS130)接近検出モードでは、電子機器1は、接近検出範囲DZ2の外からの人物の接近を検出する接近検出処理を実行する。このステップS130の接近検出モードにおける接近検出処理の詳細について、図10を参照して説明する。
図10は、本実施形態に係る接近検出モードにおける接近検出処理の一例を示すフローチャートである。接近判定部212は、人物検出部210による検出結果に基づいて、接近検出範囲DZ2内に人物が検出されたか否かを判定する(ステップS131)。接近判定部212は、接近検出範囲DZ2内に人物が検出された場合(YES)、人物が接近したと判定する(ステップS133)。一方、接近判定部212は、接近検出範囲DZ2内に人物が検出されない場合(NO)、ステップS133の処理を行なわない(人物が接近したと判定しない)。
(動作制御処理の動作)
次に、電子機器1が、人物検出処理の結果に応じてシステムの動作状態を制御する動作制御処理の動作について説明する。まず、図11を参照して、電子機器1が人物の接近を検出したことによりシステムを起動する起動処理の動作について説明する。
図11は、本実施形態に係る起動処理の一例を示すフローチャートである。ここでは、電子機器1は、開状態で机の上などに置かれており、待機状態であるものとする。
(ステップS201)接近判定部212は、人物検出部210による検出結果に基づいて、人物が接近したか否かを判定する。例えば、接近判定部212は、接近検出範囲DZ2内に人物が検出されていない状態から検出された場合、人物が接近したと判定する。また、接近判定部212は、トラッキング範囲TZ内に検出されている人物の検出位置が離脱検出範囲DZ1の方(即ち、電子機器1の方)へ移動することに基づいて、人物が接近したと判定してもよい。接近判定部212は、電子機器1へ人物が接近したと判定した場合(YES)、ステップS203の処理に進む。一方、接近判定部212は、電子機器1へ人物が接近していないと判定した場合(NO)、再びステップS201の処理を行う。
(ステップS203)動作制御部220は、システム処理部300によるシステムの動作状態を待機状態から起動させる。具体的には、動作制御部220は、システムを起動させる場合、電源部400に対して、電子機器1の各部の動作に必要な電力を供給するための制御信号を出力する。また、動作制御部220は、CPU302にシステムの起動を指示するための起動信号を出力する。CPU302は、起動信号を取得すると、起動処理を開始する。そして、ステップS205の処理に進む。
(ステップS205)CPU302は、ログイン認証を実行する。例えば、CPU302は、撮像部120で撮像された人物の顔画像を用いた顔認証によるログイン認証処理を実行する。具体的には、CPU302は、撮像部120で撮像された人物の顔画像に基づく顔認証処理の実行を認証処理部312に指示し、認証処理部312から認証結果を取得する。そして、ステップS207の処理に進む。
(ステップS207)CPU302は、認証結果が成功であるか否かを判定する。CPU302は、認証結果が成功の場合には(YES)、ステップS209の処理に進む。一方、CPU302は、認証結果が失敗の場合には(NO)、ステップS213の処理に進む。
(ステップS209)CPU302は、認証結果が成功の場合にはログイン成功である旨を通知し(例えば、表示部110に表示)、起動処理を継続する。そして、ステップS211の処理に進む。
(ステップS211)CPU302は、起動処理を終了し、通常動作状態に遷移する。
(ステップS213)CPU302は、認証結果が失敗の場合にはログイン失敗である旨を通知し(例えば、表示部110に表示)、ステップS205の認証処理に戻る。なお、CPU302は、連続して所定の回数の認証処理に失敗した場合には、認証処理を中止し、ログイン認証処理の実行が不可の状態に遷移させてもよい。
次に、図12を参照して、電子機器1からの人物の離脱を検出したことによりシステムを通常動作状態から待機状態へ遷移させる待機状態遷移処理の動作について説明する。
図12は、本実施形態に係る待機状態遷移処理の一例を示すフローチャートである。ここでは、電子機器1は、開状態で机の上等に置かれており、通常動作状態であるものとする。
(ステップS251)離脱判定部211は、人物検出部210による検出結果に基づいて、電子機器1から人物が離脱したか否かを判定する。例えば、離脱判定部211は、離脱検出範囲DZ1内に人物が検出されている状態から検出されなくなった場合、電子機器1から人物が離脱したと判定する。また、離脱判定部211は、トラッキング範囲TZ内に検出されている人物が、接近検出範囲DZ2内に検出されなくなることに応じて、人物が離脱したと判定してもよい。離脱判定部211は、電子機器1から人物が離脱したと判定した場合(YES)、ステップS253の処理に進む。一方、離脱判定部211は、電子機器1から人物が離脱していないと判定した場合(NO)、再びステップS251の処理を行う。
(ステップS253)動作制御部220は、システム処理部300によるシステムの動作状態を通常動作状態から待機状態へ遷移させる。具体的には、動作制御部220は、CPU302にシステムを待機状態へ遷移させる指示をするための待機信号を出力する。CPU302は、待機信号を取得すると、システムを通常動作状態から待機状態へ遷移させる。また、動作制御部220は、電源部400に対して、待機状態では不要な電力の供給を停止させるための制御信号を出力する。
以上説明してきたように、本実施形態に係る電子機器1は、人物検出部210(検出部の一例)は、センサ検出範囲DZ(所定の検出範囲の一例)内に存在する人物(物体の一例)を検出する。また、離脱判定部211は、人物検出部210による検出結果に基づいて、センサ検出範囲DZのうちの離脱検出範囲DZ1(第1検出範囲の一例)内に人物が検出されている状態から検出されなくなった場合、人物が離脱したと判定する。また、接近判定部212は、人物検出部210による検出結果に基づいて、センサ検出範囲DZのうちの離脱検出範囲DZ1よりも広い接近検出範囲DZ2(第2検出範囲の一例)内に人物が検出されていない状態から検出された場合、人物が接近したと判定する。また、接近判定部212は、離脱判定部211が離脱したと判定した人物が接近検出範囲DZ2内に検出されている間は、人物の検出位置が離脱検出範囲DZ1の方へ移動することに基づいて、人物が接近したと判定する。
これにより、電子機器1は、ユーザの接近及び離脱を適切に検出することができる。例えば、電子機器1は、電子機器1から人物が少しだけ離れただけでも離脱したことを検出することができるとともに、遠くから人物が接近してきたとき(使用したくて近づいたとき)には接近したことを早目に検出することができる。さらに、電子機器1は、人物が少しだけ離れたことにより離脱と検出された場合でも、再び使用したいときに一旦遠く(接近検出範囲DZ2外)へ離れてから接近しなくてもそのまま近づけば接近したことを適切に検出することができる。
例えば、接近判定部212は、離脱判定部211が離脱したと判定した人物が接近検出範囲DZ2内に検出されている場合、人物が再び離脱検出範囲DZ1内に検出されることに応じて、人物が接近したと判定する。
これにより、電子機器1は、人物が少しの距離だけ離れたことにより離脱と検出された場合でも、再び使用したいときには、一旦遠くへ離れてから接近しなおさなくても、離れる前の位置に戻れば接近したことを適切に検出することができる。
また、電子機器1は、人物が身体ごと移動しなくとも、手を前に伸ばすだけでもその手が離脱検出範囲DZ1内に検出されれば人物の接近を検出することができるため、利便性が良い。
また、離脱判定部211は、接近判定部212が接近したと判定した人物が接近検出範囲DZ2のうちの離脱検出範囲DZ1以外に検出されている間は、接近検出範囲DZ2内に人物が検出されなくなることに応じて、人物が離脱したと判定する。
これにより、電子機器1は、遠くから人物が接近してきたときに接近検出範囲DZ2内に人物が検出されることで早目に人物の接近を検出することができるが、その人物が離脱検出範囲DZ1内まで接近しないまま離れてしまった場合でも人物が離脱したと検出することができる。
また、上記の検出範囲は、電子機器1に対する距離と角度で定まる検出範囲であり、離脱検出範囲DZ1及び接近検出範囲DZ2は、距離と角度のいずれか一方または両方が異なるように設定されている。
これにより、電子機器1は、電子機器1に対する人物の距離と角度のいずれか一方または両方で、ユーザの接近及び離脱を適切に検出することができる。
一例として、上記の検出範囲は、電子機器1に対する距離で定まる検出範囲である。例えば、離脱検出範囲DZ1は、電子機器1から離脱検出距離KD1(第1検出距離の一例)までの範囲であり、接近検出範囲DZ2は、電子機器1から接近検出距離KD2(第2検出距離の一例)までの範囲である。そして、離脱検出距離KD1よりも接近検出距離KD2の方が長い距離である。
これにより、電子機器1は、電子機器1から人物が少しだけ離れただけでも離脱検出距離KD1外になれば離脱したことを検出することができるとともに、遠くから人物が接近してきたとき(使用したくて近づいたとき)には接近検出範囲DZ2内に入れば接近したことを早目に検出することができる。さらに、電子機器1は、人物が少しだけ離れたことにより離脱と検出された場合でも、再び使用したいときに一旦遠く(接近検出距離KD2外)へ離れてから接近しなくてもそのまま近づけば接近したことを適切に検出することができる。
また、別の一例として、上記の検出範囲は、電子機器1に対する角度で定まる検出範囲である。例えば、離脱検出範囲DZ1は、電子機器1に対する離脱検出視野角FoV1(第1検出視野角の一例)の範囲であり、接近検出範囲DZ2は、電子機器1に対する接近検出視野角FoV2(第2検出視野角の一例)の範囲である。そして、離脱検出視野角FoV1よりも接近検出視野角FoV2の方が広い角度である。
これにより、電子機器1は、電子機器1から人物が少しだけ離れただけでも離脱検出視野角FoV1外になれば離脱したことを検出することができるとともに、遠くから人物が接近してきたとき(使用したくて近づいたとき)には接近検出視野角FoV2内に入れば接近したことを早目に検出することができる。さらに、電子機器1は、人物が少しだけ離れたことにより離脱と検出された場合でも、再び使用したいときに一旦遠く(接近検出範囲DZ2外)へ離れてから接近しなくてもそのまま近づけば接近したことを適切に検出することができる。
また、電子機器1は、システムに基づくシステム処理を実行するシステム処理部300(処理部の一例)と、システムの動作状態を制御する動作制御部220とを備えている。動作制御部220は、離脱判定部211により人物が離脱したと判定された場合、システムの動作状態をシステム処理の少なくとも一部が制限された待機状態(第1動作状態の一例)へと遷移させる。一方、動作制御部220は、接近判定部に212より人物が接近したと判定された場合、待機状態から活性化させる。
これにより、電子機器1は、人物の接近または離脱に応じて、システム処理の動作を適切に制御することができる。例えば、電子機器1は、電子機器1から人物が少しだけ離れただけでも待機状態に移行するためセキュリティを向上することができるとともに、遠くから人物が接近してきたとき(使用したくて近づいたとき)には早目に起動するため使い勝手がよい。
さらに、電子機器1は、少しの距離だけ人物が離れたことにより待機状態になった場合でも、再び使用したいときに一旦遠くへ離れてから接近しなくてもそのまま近づけば起動するため利便性が良い。例えば、電子機器1は、少しの距離だけ人物が離れたことにより待機状態になった場合でも、再び使用したいときに一旦遠くへ離れてから接近しなおさなくても、離れる前の位置に戻れば起動するため利便性が良い。また、電子機器1は、人物が身体ごと移動しなくとも、手を前に伸ばすだけでもその手が離脱検出範囲DZ1内に検出されれば起動することができるため、利便性が良い。また、電子機器1は、遠くから人物が接近してきたときに接近検出範囲DZ2内に人物が検出されることで早目に起動するが、その人物が離脱検出範囲DZ1内まで接近しないまま離れてしまった場合でも待機状態へ遷移するため、セキュリティを向上することができる。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
本実施形態に係る電子機器1の基本的な構成は、第1の実施形態と同様であるため、本実施形態において特徴的な処理について説明する。第1の実施形態では、電子機器1は、トラッキング範囲TZに検出されている人物が離脱検出距離KD1を超えて電子機器1へ近づいた時点で離脱検出範囲DZ1内に人物を検出し、人物が接近したと判定する例を説明した(図5参照)。これに対し、本実施形態では、トラッキング範囲TZに検出されている人物の検出位置の変化量に基づいて、人物が接近したと判定する例を説明する。
図13は、本実施形態に係るトラッキングモード時の接近検出についての説明図である。この図において、(a)、(b)、(e)のそれぞれの電子機器1の動作状態、検出モード、及び人物Uの検出位置は、図5に示す(a)、(b)、(e)のそれぞれと同様である。ここでは、(b)において、電子機器1へ人物が接近したと判定する処理のみが、図5に示す例と異なる。
(b)に示すように、電子機器1がトラッキング範囲TZ内に人物Uを検出している状態では、検出モードがトラッキングモードである、トラッキングモードでは、電子機器1は、人物Uの検出位置をトラッキングし、当該検出位置が離脱検出範囲DZ1の方へ近づくことに基づいて、人物Uが接近したと判定する。具体的に、本実施形態では、電子機器1は、(b)に示す人物Uの検出位置の離脱検出範囲DZ1(離脱検出距離KD1)の方向(即ち、電子機器1の方向)への変化量DPが所定値以上の場合に、人物Uが接近したと判定する。変化量DPは、人物Uの検出位置の移動量のうち電子機器1ヘの方向成分である。上記の所定値は、予め設定された値(例えば、30cm)であるが、離脱検出距離KD1の設定値などと関連して任意に設定することができる。また、上記の所定値は、ユーザが設定可能なようにしてもよい。なお、トラッキング範囲TZは、例えば電子機器1から接近検出距離KD2までの範囲(即ち、接近検出範囲DZ2と同様の範囲)に設定されてもよい。
図14は、本実施形態に係るトラッキングモードにおける離脱または接近検出処理の一例を示すフローチャートである。この図において、図9に示す処理と同一の処理には同一の符号を付しており、その説明を省略する。本実施形態では、ステップS121Aの処理のみが、図9に示すステップS121の処理と異なる。ステップS121Aにおいて、接近判定部212は、トラッキング範囲TZ内に検出されている人物の検出位置が離脱検出範囲DZ1の方(即ち、電子機器1の方)へ移動したか否かを判定する。具体的には、接近判定部212は、人物検出部210による検出結果に基づいて、トラッキング範囲TZ内に検出されている人物の検出位置の離脱検出範囲DZ1の方向への変化量が所定値以上であるか否かを判定する。例えば、接近判定部212は、人物の検出位置の離脱検出範囲DZ1の方向への変化量が所定値以上であると判定した場合(YES)、人物が接近したと判定する(ステップS123)。また、ステップS121Aにおいて接近判定部212は、人物の検出位置の離脱検出範囲DZ1の方向への変化量が所定値未満であると判定された場合(NO)、ステップS125の処理に進む。
以上説明したように、本実施形態に係る電子機器1において、接近判定部212は、離脱判定部211が離脱したと判定した人物が接近検出範囲DZ2内に検出されている場合、人物の検出位置の離脱検出範囲DZ1の方向への変化量が所定値以上の場合に、人物が接近したと判定する。
これにより、電子機器1は、人物の接近及び離脱を適切に検出することができる。例えば、電子機器1は、人物が少しだけ離れたことにより離脱と検出された場合でも、再び使用したいときに一旦遠く(接近検出範囲DZ2外)へ離れてから接近しなくてもそのまま近づけば接近したことを適切に検出することができる。
<第3の実施形態>
次に、本発明の第3の実施形態について説明する。
本実施形態では、第2の実施形態に係るトラッキングモード時の処理を用いて、電子機器1が離脱検出以外で待機状態に遷移した場合も人物の近接を検出する例について説明する。
図15は、本実施形態に係るトラッキングモード時の接近検出についての説明図である。この図において、(a)、(b)、(e)のそれぞれの電子機器1の動作状態、及び検出モードの検出位置は、図13に示す(a)、(b)、(e)のそれぞれと同様であるが、電子機器1が通常動作状態から待機状態へ遷移するトリガと、人物Uの位置関係が異なる。(a)は、電子機器1から人物Uが離脱検出範囲DZ1内に検出されている状態で、電子機器1の電源ボタン(不図示)の押下(OFFする操作)がされたことを示している。この場合、(b)に示すように、電子機器1は通常動作状態から待機状態へ遷移する。また、検出モードは、離脱検出モードからトラッキングモードへ遷移する。トラッキング範囲TZは、例えば電子機器1から接近検出距離KD2までの範囲(即ち、接近検出範囲DZ2と同様の範囲)に設定される。これにより、人物Uが離脱検出範囲DZ1内に検出されている状態でも、人物Uの検出位置の離脱検出範囲DZ1(離脱検出距離KD1)の方向(即ち、電子機器1の方向)への変化量DPが所定値以上の場合に、人物Uが接近したと判定することができる。
なお、本実施形態において、電子機器1が通常動作状態から待機状態へ遷移するトリガは、電源ボタン(不図示)の押下に限定されず、例えば、画面のロックを選択する操作や、無操作の期間が予め設定された期間継続することなどであってもよい。
また、本実施形態に係る検出モード制御処理は、図7の検出モード制御処理に対して、ステップ100で人物検出部210が離脱検出範囲DZ1内に人物を検出した場合、電子機器1が通常動作状態のときには検出モードを離脱検出モードに設定してステップS110の処理に進み、電子機器1が通常動作状態から待機状態へ遷移したときにはトラッキングモードに設定してステップS120の処理に進む処理を追加すればよい。また、このときのトラッキングモードにおける離脱または接近検出処理は、図14に示す処理を適用することができる。
以上説明したように、本実施形態に係る電子機器1は、システム処理を実行するシステム処理部(処理部の一例)、を備えている。そして、接近判定部212は、システム処理部300が実行するシステム処理の少なくとも一部が制限される待機状態になった場合、人物の検出位置が離脱検出範囲DZ1の方へ移動することに基づいて、人物が接近したと判定する。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。上述の実施形態において説明した各構成は、任意に組み合わせることができる。
また、上記実施形態では、検出モードによって検出範囲を設定する際に、検出距離と検出視野角の両方の設定を変更してもよいし、いずれか一方の設定を変更してもよい。
また、上記実施形態では、離脱検出距離KD1よりも接近検出距離KD2の方が長い距離、且つ離脱検出視野角FoV1よりも接近検出視野角FoV2の方が広い角度である例を説明したが、これには限られない。例えば、離脱検出距離KD1よりも接近検出距離KD2の方が長い距離であるが、離脱検出視野角FoV1よりも接近検出視野角FoV2の方が狭い角度としてもよい。一例として、離脱検出視野角FoV1を60°、接近検出視野角FoV2を30°等としてもよい。この場合、電子機器1は、電子機器1から人物が少しだけ離れただけでも離脱したことを検出することができるとともに、左右に少し体を動かした程度で離脱と検出してしまわないようにすることができる。例えば、電子機器1は、電子機器1から人物が少しだけ離れただけでも待機状態に遷移することができるとともに、左右に少し体を動かした程度で待機状態に遷移してしまわないようにすることができる。一方、電子機器1は、遠くから人物が接近してきたとき(使用したくて近づいたとき)には接近したことを早目に検出することができるとともに、接近する人物が電子機器1の真正面への接近でないのに人物の接近と検出してしまわないようにすることができる。例えば、電子機器1は、遠くから人物が接近してきたとき(使用したくて近づいたとき)には早目に起動することができるとともに、接近する人物が電子機器1の真正面への接近でない場合は起動しないようにすることができる。人物が電子機器1から離脱した後に、再び電子機器1を使用するタイミングでは認証処理等もあり、必ず真正面に人物が接近する必要があるため、真正面に人物が接近する以外の条件で不要な起動をしないようにすることができる。
なお、上記の説明では、近接センサ130が主に赤外線センサモジュールである場合を例にしたが、これには限られない。近接センサ130は、非接触で人物から到来する波動を検出できる検出素子を複数個備えていればよい。人物などの物体から到来する波動とは、上記のように、その物体で反射した反射波と、その物体自体が発する波動が含まれる。波動は、赤外線、可視光線の他、赤外線よりも波長が短い電波であってもよい。近接センサ130は、例えば、レーダセンサモジュール(図示せず)であってもよい。例えば、近接センサ130が電波を検出する場合、受信アンテナで受信する電波強度に基づいて人物などの物体を検出してもよいし、送信アンテナから送信した電波を2つ以上の受信アンテナで受信したときの受信時間の差分などに基づいて人物などの物体を検出してもよい。この場合、近接センサ130の検出可能範囲は、受信アンテナの受信可能範囲に相当し、受信アンテナの一部を用いることで、検出可能範囲のうちの一部の範囲で検出した検出信号に基づいて人物などの物体を検出することができる。近接センサ130が電波を検出する場合であっても、検出範囲を狭めることで、送信電力や受信電力を削減することができ、諸費電力を低減することができる。
また、上述した待機状態には、ハイバネーション状態やパワーオフ状態等が含まれてもよい。ハイバネーション状態は、例えば、ACPIで規定されているS4状態に相当する。パワーオフ状態は、例えば、ACPIで規定されているS5状態(シャットダウンした状態)相当する。また、待機状態は、前述したように少なくとも表示部の表示がOFF(画面OFF)となる状態であってもよく、画面ロックとなる状態が含まれてもよい。画面ロックとは、処理中の内容が視認できないように予め設定された画像(例えば、画面ロック用の画像)が表示部に表示され、ロックを解除(例えば、ユーザ認証)するまで、使用できない状態である。
また、上記実施形態では、システム処理部300と独立に動作するEC200は、センサハブ、チップセット、などのいずれの処理部であってもよく、EC200以外の処理部がEC200に代えて上述の処理を実行してもよい。このEC200等の処理部と近接センサ130の電力消費量の合計は、通例、システム処理部300の電力消費量よりも格段に少ない。
なお、上述した電子機器1は、内部にコンピュータシステムを有している。そして、上述した電子機器1が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した電子機器1が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に電子機器1が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
また、上述した実施形態における電子機器1が備える各機能の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
また、上記実施形態の電子機器1は、PC、タブレット端末装置、スマートフォンなどに限られるものではなく、家庭用電気製品や業務用電気製品にも適用できる。家庭用電気製品としては、テレビや、表示部が備えられた冷蔵庫、電子レンジ等に適用できる。例えば、人物の接近または離脱に応じて、テレビの画面のON/OFFを制御すること、或いは、冷蔵庫や電子レンジ等の表示部の画面のON/OFFを制御することができる。また、業務用電気製品としては、自動販売機や、マルチメディア端末等に適用できる。例えば、人物の接近または離脱に応じて、自動販売機の照明のON/OFFなど、或いは、マルチメディア端末の表示部の画面のON/OFFなどのように動作状態を制御することができる。
1 電子機器、10 第1筐体、20 第2筐体、15 ヒンジ機構、110 表示部、120 撮像部、130 近接センサ、150 入力デバイス、151 キーボード、153 タッチパッド、200 EC、210 人物検出部、211 離脱判定部、212 接近判定部、220 動作制御部、300 システム処理部、302 CPU、304 GPU、306 メモリコントローラ、308 I/Oコントローラ、310 システムメモリ、312 認証処理部、350 通信部、360 記憶部、400 電源部

Claims (11)

  1. 所定の検出範囲内に存在する物体を検出する検出部と、
    前記検出部による検出結果に基づいて、前記所定の検出範囲のうちの第1検出範囲内に前記物体が検出されている状態から検出されなくなった場合、前記物体が離脱したと判定する離脱判定部と、
    前記検出部による検出結果に基づいて、前記所定の検出範囲のうちの前記第1検出範囲よりも広い第2検出範囲内に前記物体が検出されていない状態から検出された場合、前記物体が接近したと判定する接近判定部と、
    を備え、
    前記接近判定部は、
    前記離脱判定部が離脱したと判定した前記物体が前記第2検出範囲内に検出されない状態にならずに前記第2検出範囲内に検出されている間は、前記物体の検出位置が前記第1検出範囲の方へ移動することに基づいて、前記物体が接近したと判定する、
    電子機器。
  2. 前記接近判定部は、
    前記離脱判定部が離脱したと判定した前記物体が前記第2検出範囲内に検出されている場合、前記物体の検出位置の前記第1検出範囲の方向への変化量が所定値以上の場合に、前記物体が接近したと判定する、
    請求項1に記載の電子機器。
  3. システム処理を実行する処理部、を備え、
    前記接近判定部は、
    前記処理部が実行する前記システム処理の少なくとも一部が制限される状態になった場合、前記物体の検出位置が前記第1検出範囲の方へ移動することに基づいて、前記物体が接近したと判定する、
    請求項1または請求項2に記載の電子機器。
  4. 前記接近判定部は、
    前記離脱判定部が離脱したと判定した前記物体が前記第2検出範囲内に検出されている場合、前記物体の検出位置が前記第1検出範囲の方へ移動することにより前記物体が再び前記第1検出範囲内に検出されることに応じて、前記物体が接近したと判定する、
    請求項1に記載の電子機器。
  5. 前記離脱判定部は、
    前記接近判定部が接近したと判定した前記物体が前記第2検出範囲のうちの前記第1検出範囲以外に検出されている間は、前記第2検出範囲内に前記物体が検出されなくなることに応じて、前記物体が離脱したと判定する、
    請求項1から請求項4のいずれか一項に記載の電子機器。
  6. 前記検出範囲は、前記電子機器に対する距離と角度で定まる検出範囲であり、
    前記第1検出範囲及び前記第2検出範囲は、前記距離と前記角度のいずれか一方または両方が異なるように設定されている、
    求項1から請求項5のいずれか一項に記載の電子機器。
  7. 前記検出範囲は、前記電子機器に対する距離で定まる検出範囲であり、
    前記第1検出範囲は、前記電子機器から第1検出距離までの範囲であり、
    前記第2検出範囲は、前記電子機器から第2検出距離までの範囲であり、
    前記第1検出距離よりも前記第2検出距離の方が長い距離である、
    請求項1から請求項のいずれか一項に記載の電子機器。
  8. 前記検出範囲は、前記電子機器に対する角度で定まる検出範囲であり、
    前記第1検出範囲は、前記電子機器に対する第1検出視野角の範囲であり、
    前記第2検出範囲は、前記電子機器に対する第2検出視野角の範囲であり、
    前記第1検出視野角よりも前記第2検出視野角の方が広い角度である、
    請求項1から請求項のいずれか一項に記載の電子機器。
  9. 記第1検出範囲は、前記電子機器から第1検出距離までと前記電子機器に対する第1検出視野角の範囲であり、
    前記第2検出範囲は、前記電子機器から第2検出距離までと前記電子機器に対する第2検出視野角の範囲であり、
    前記第1検出距離よりも前記第2検出距離の方が長い距離であり、
    前記第1検出視野角よりも前記第2検出視野角の方が狭い角度である、
    請求項に記載の電子機器。
  10. ステム処理を実行する処理部と、
    前記離脱判定部により前記物体が離脱したと判定された場合、前記システムの動作状態を前記システム処理の少なくとも一部が制限された第1動作状態へと遷移させ、前記接近判定部により前記物体が接近したと判定された場合、前記第1動作状態から活性化させる動作制御部と、
    を備える請求項1から請求項9のいずれか一項に記載の電子機器。
  11. 電子機器における制御方法であって、
    検出部が、所定の検出範囲内に存在する物体を検出するステップと、
    離脱判定部が、前記検出部による検出結果に基づいて、前記所定の検出範囲のうちの第1検出範囲内に前記物体が検出されている状態から検出されなくなった場合、前記物体が離脱したと判定するステップと、
    接近判定部が、前記検出部による検出結果に基づいて、前記所定の検出範囲のうちの前記第1検出範囲よりも広い第2検出範囲内に前記物体が検出されていない状態から検出された場合、前記物体が接近したと判定するステップと、
    前記接近判定部が、前記離脱したと判定された前記物体が前記第2検出範囲内に検出されない状態にならずに前記第2検出範囲内に検出されている間は、前記物体の検出位置が前記第1検出範囲の方へ移動することに基づいて、前記物体が接近したと判定するステップと、
    を有する制御方法。
JP2020085163A 2020-05-14 2020-05-14 電子機器、及び制御方法 Active JP7114651B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020085163A JP7114651B2 (ja) 2020-05-14 2020-05-14 電子機器、及び制御方法
US17/083,759 US11556626B2 (en) 2020-05-14 2020-10-29 Electronic apparatus and control method
JP2022118604A JP7410233B2 (ja) 2020-05-14 2022-07-26 電子機器、及び制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020085163A JP7114651B2 (ja) 2020-05-14 2020-05-14 電子機器、及び制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022118604A Division JP7410233B2 (ja) 2020-05-14 2022-07-26 電子機器、及び制御方法

Publications (2)

Publication Number Publication Date
JP2021179831A JP2021179831A (ja) 2021-11-18
JP7114651B2 true JP7114651B2 (ja) 2022-08-08

Family

ID=78511533

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020085163A Active JP7114651B2 (ja) 2020-05-14 2020-05-14 電子機器、及び制御方法
JP2022118604A Active JP7410233B2 (ja) 2020-05-14 2022-07-26 電子機器、及び制御方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022118604A Active JP7410233B2 (ja) 2020-05-14 2022-07-26 電子機器、及び制御方法

Country Status (2)

Country Link
US (1) US11556626B2 (ja)
JP (2) JP7114651B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7114651B2 (ja) * 2020-05-14 2022-08-08 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法
US11094135B1 (en) * 2021-03-05 2021-08-17 Flyreel, Inc. Automated measurement of interior spaces through guided modeling of dimensions
EP4202735A1 (de) * 2021-12-22 2023-06-28 dormakaba EAD GmbH Anwesenheitserfassungs-terminal
EP4202605A1 (de) * 2021-12-22 2023-06-28 dormakaba EAD GmbH Anwesenheitserfassungs-terminal
JP7397118B2 (ja) 2022-04-12 2023-12-12 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012142778A (ja) 2010-12-28 2012-07-26 Fuji Xerox Co Ltd 電力供給制御装置、画像処理装置、電力供給制御プログラム
JP2013137655A (ja) 2011-12-28 2013-07-11 Canon Inc 電子機器、その制御方法、およびプログラム、並びに記録媒体
US20150006927A1 (en) 2013-06-28 2015-01-01 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method and non-transitory computer readable medium
JP2016103027A (ja) 2015-12-16 2016-06-02 富士ゼロックス株式会社 装置、画像形成装置
JP2018043416A (ja) 2016-09-14 2018-03-22 富士ゼロックス株式会社 監視制御装置、画像処理装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255922A (ja) 2002-02-27 2003-09-10 Toshiba Corp 表示装置、端末処理装置、及び、端末処理方法
US10091395B2 (en) * 2015-12-08 2018-10-02 Ricoh Company, Ltd. Image forming apparatus, method, and computer-readable recording medium for login and logout management based on multiple user authentication factors
JP2020085163A (ja) * 2018-11-28 2020-06-04 信越ポリマー株式会社 弾性ローラの製造方法
JP7114651B2 (ja) 2020-05-14 2022-08-08 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012142778A (ja) 2010-12-28 2012-07-26 Fuji Xerox Co Ltd 電力供給制御装置、画像処理装置、電力供給制御プログラム
JP2013137655A (ja) 2011-12-28 2013-07-11 Canon Inc 電子機器、その制御方法、およびプログラム、並びに記録媒体
US20150006927A1 (en) 2013-06-28 2015-01-01 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method and non-transitory computer readable medium
JP2015011541A (ja) 2013-06-28 2015-01-19 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2016103027A (ja) 2015-12-16 2016-06-02 富士ゼロックス株式会社 装置、画像形成装置
JP2018043416A (ja) 2016-09-14 2018-03-22 富士ゼロックス株式会社 監視制御装置、画像処理装置

Also Published As

Publication number Publication date
JP2022136191A (ja) 2022-09-15
US11556626B2 (en) 2023-01-17
US20210357485A1 (en) 2021-11-18
JP2021179831A (ja) 2021-11-18
JP7410233B2 (ja) 2024-01-09

Similar Documents

Publication Publication Date Title
JP7114651B2 (ja) 電子機器、及び制御方法
US11314306B2 (en) Electronic apparatus and control method
US20200356154A1 (en) Electronic apparatus, control method, and program
JP6751432B2 (ja) 電子機器、制御方法、及びプログラム
JP2020102151A (ja) 電子機器、制御方法、及びプログラム
US11287856B2 (en) Electronic apparatus and controlling method
JP7218397B2 (ja) 電子機器、及び制御方法
US11435833B2 (en) Electronic apparatus and control method
JP6849743B2 (ja) 電子機器、制御方法、及びプログラム
JP6710267B1 (ja) 情報処理装置、制御方法、及びプログラム
US11385702B2 (en) Electronic apparatus and controlling method
JP7223833B1 (ja) 電子機器、及び制御方法
JP7032371B2 (ja) 電子機器、及び制御方法
JP7413481B1 (ja) 情報処理装置、及び制御方法
JP7218421B1 (ja) 電子機器、及び制御方法
US20230289484A1 (en) Information processing apparatus and control method
US20230176897A1 (en) Electronic apparatus and control method
JP2021135870A (ja) 電子機器、及び制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220727

R150 Certificate of patent or registration of utility model

Ref document number: 7114651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350