JP6568331B1 - 電子機器、制御方法、及びプログラム - Google Patents

電子機器、制御方法、及びプログラム Download PDF

Info

Publication number
JP6568331B1
JP6568331B1 JP2019078885A JP2019078885A JP6568331B1 JP 6568331 B1 JP6568331 B1 JP 6568331B1 JP 2019078885 A JP2019078885 A JP 2019078885A JP 2019078885 A JP2019078885 A JP 2019078885A JP 6568331 B1 JP6568331 B1 JP 6568331B1
Authority
JP
Japan
Prior art keywords
sensor
gesture
electronic device
detected
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019078885A
Other languages
English (en)
Other versions
JP2020177428A (ja
Inventor
茂輝 田辺
茂輝 田辺
上野 泰弘
泰弘 上野
英樹 森田
英樹 森田
功 益池
功 益池
浩太郎 山内
浩太郎 山内
学 佐久間
学 佐久間
健史 島田
健史 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2019078885A priority Critical patent/JP6568331B1/ja
Application granted granted Critical
Publication of JP6568331B1 publication Critical patent/JP6568331B1/ja
Priority to EP20168380.2A priority patent/EP3726346A1/en
Priority to US16/843,802 priority patent/US11402993B2/en
Publication of JP2020177428A publication Critical patent/JP2020177428A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作性を向上させた電子機器、制御方法、及びプログラムを提供する。【解決手段】電子機器は、自機器に接触されないジェスチャを検出する第1センサと、自機器に接触されるタッチを検出する第2センサと、コントローラと、を備える。コントローラは、第1センサによってジェスチャが検出されると、第1センサが検出するジェスチャが行われる位置までの距離に応じて、ディスプレイに表示されるアイコンのサイズを大きくする。コントローラは、第2センサによってタッチが検出されると、第1センサが検出するジェスチャが行われる位置までの距離にかかわらず、アイコンのサイズを小さくする。【選択図】図1

Description

本開示は、電子機器、制御方法、及びプログラムに関する。
例えばスマートフォン及びタブレット端末等のような電子機器は、一般にタッチパネルを備えている。ユーザは、このような電子機器を、タッチパネルに触れることで制御するのが一般的である。また、近年、ユーザが端末から離れて行うジェスチャを例えば赤外線センサによって検出し、ジェスチャに対応する入力操作を実行する電子機器が知られている(例えば特許文献1)。ジェスチャを検出するセンサ(以下、「ジェスチャセンサ」とも記す)を備える電子機器によれば、ユーザは、電子機器に触れずに操作を行うことができる。
特開2015−225493号公報
出願人は、タッチパネルのようなタッチセンサと、ジェスチャセンサとの双方を備える電子機器に関する研究を行ってきた。また出願人は、その研究の成果に基づいて、いくつかの特許出願をすでに行っている。このような電子機器において、ユーザの操作を適切に検出して、その検出結果に応じた処理を行うことができれば、電子機器の操作性を向上することができる。
本開示は、操作性を向上された電子機器、制御方法、及びプログラムを提供することに関する。
一実施形態に係る電子機器は、自機器に接触されないジェスチャを検出する第1センサと、自機器に接触されるタッチを検出する第2センサと、コントローラと、を備える。
前記コントローラは、前記第1センサによってジェスチャが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離に応じて、ディスプレイに表示されるアイコンのサイズを大きくする。前記コントローラは、前記第2センサによってタッチが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離にかかわらず、前記アイコンのサイズを小さくする。
一実施形態に係る制御方法は、自機器に接触されないジェスチャを第1センサによって検出するステップと、自機器に接触されるタッチを第2センサによって検出するステップと、前記第1センサによってジェスチャが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離に応じて、ディスプレイに表示されるアイコンのサイズを大きくするステップと、前記第2センサによってタッチが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離にかかわらず、前記アイコンのサイズを小さくするステップと、を含む。
一実施形態に係るプログラムは、コンピュータに、自機器に接触されないジェスチャを第1センサによって検出するステップと、自機器に接触されるタッチを第2センサによって検出するステップと、前記第1センサによってジェスチャが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離に応じて、ディスプレイに表示されるアイコンのサイズを大きくするステップと、前記第2センサによってタッチが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離にかかわらず、前記アイコンのサイズを小さくするステップと、を実行させる。
一実施形態によれば、操作性を向上させた電子機器、制御方法、及びプログラムを提供することができる。
一実施形態に係る電子機器の概略構成図である。 ユーザがジェスチャにより電子機器を操作する様子を例示する図である。 近接センサの概略構成図である。 各赤外フォトダイオードが検出する検出値の推移を示す図である。 電子機器をジェスチャで操作する状況を例示する図である。 ユーザがジェスチャにより電子機器を操作する様子を例示する図である。 電子機器のコントローラが実行する処理の一例を示すフローチャートである。 電子機器の表示画面を例示する図である。 ユーザがジェスチャにより電子機器を操作する様子を例示する図である。 ユーザがジェスチャにより電子機器を操作する様子を例示する図である。 ユーザがタッチにより電子機器を操作する様子を例示する図である。 電子機器のコントローラが実行する処理の一例を示すフローチャートである。 電子機器のコントローラが実行する処理の一例を示すフローチャートである。 測距センサを模式的に示す図である。 図14に示す受光部における受光素子の配置の一例を模式的に示す図である。 各受光素子により検出される対象物までの距離の推移を模式的に示す図である。
(電子機器の構成)
図1に示すように、一実施形態に係る電子機器1は、コントローラ11と、タイマー12と、カメラ13と、ディスプレイ14と、マイク15と、ストレージ16と、通信ユニット17と、近接センサ18(ジェスチャセンサ)と、を備える。電子機器1は、さらに、UVセンサ19と、照度センサ20と、加速度センサ21と、地磁気センサ22と、気圧センサ23と、ジャイロセンサ24と、スピーカー25と、タッチセンサ26と、を備える。図1は例示である。電子機器1は、図1に示す構成要素の一部を備えなくてよい。また、電子機器1は、図1に示す以外の構成要素を備えていてよい。
電子機器1は、例えば携帯電話端末、ファブレット、タブレットPC(Personal Computer)、スマートフォン、又はフィーチャーフォン等として実現されてよい。電子機器1は、前述のような機器に限定されず、種々の機器として実現されてよい。例えば、電子機器1は、PDA(Personal Digital Assistant)、リモコン端末、携帯音楽プレイヤ、ゲーム機、電子書籍リーダ、家電製品、又は産業用機器(FA機器)等により実現されてもよい。また、ユーザの操作を検出することにより、当該操作に応じた処理を実行する専用の機器としてもよい。以下、一実施形態に係る電子機器1は、ユーザの操作を検出する機能を有する例えばスマートファン又はタブレットPCのような機器として実現される態様について説明する。
また、電子機器1は、例えばデジタルサイネージのような宣伝/広告を実現する機器として実現されてもよい。この場合、電子機器1は、例えば駅又は公共施設のような場に設置されるディスプレイ型(比較的大型とすることもできる)の機器としてもよい。
また、電子機器1は、自動車などの移動体に搭載される場合、例えば自動車に搭載されたカーナビゲーションシステム等の機器として実現されてよい。ここで、電子機器1が搭載される移動体は、自動車に限定されない。移動体は、例えば、車両、船舶、及び航空機等を含んでよい。車両は、例えば、電気自動車、ハイブリッド電気自動車、ガソリン自動車、バイク、二輪車、及び福祉車両等を含んでよい。車両は、例えば鉄道車両を含んでよい。移動体は、ユーザによって運転又は操縦されてよい。移動体の運転又は操縦に関するユーザ操作の少なくとも一部が自動化されていてよい。移動体は、ユーザ操作によらず、自律して移動可能であってよい。この場合、電子機器1は、ユーザが運転する自動車に搭載されたシステムと、有線又は無線により通信可能に接続されてよい。例えば、電子機器1は、スマートフォンとして実現され、Bluetooth(登録商標)により自動車に搭載されたシステムと通信可能に接続されてよい。電子機器1は、これらの例に限られず、移動体の運転又は操縦において用いられる任意の機器として実現されてもよい。
タイマー12は、コントローラ11からタイマー動作の指示を受け、所定時間経過した時点で、その旨を示す信号をコントローラ11に出力する。タイマー12は、図1に示すように、コントローラ11とは独立して設けられていてよいし、コントローラ11が内蔵する構成であってよい。
カメラ13は、電子機器1の周囲の被写体を撮像する。カメラ13は、一例として、電子機器1のディスプレイ14が設けられる面に設けられるインカメラである。また、カメラ13は、一例として、電子機器1の筐体の背面(ディスプレイ14が設けられる面の反対側の面)に設けられるアウトカメラである。カメラ13はインカメラ及びアウトカメラを含み得る。カメラ13は、例えばCCD(Charge Coupled Device)センサ又はCMOS(Complementary Metal Oxide Semiconductor)センサ等の光電変換を行う撮像素子を含んで構成されてよい。
ディスプレイ14は画面を表示する。画面は、例えば文字、画像、記号、及び図形等の少なくとも一つを含む。ディスプレイ14は、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence Panel)、又は無機ELパネル(Inorganic Electro-Luminescence Panel)等であってよい。本実施形態において、ディスプレイ14は、タッチセンサ26と一体化したタッチパネルディスプレイ(タッチスクリーンディスプレイ)としてよい。タッチパネルディスプレイは、指又はスタイラスペン等の接触を検出して、その接触位置を特定する。ディスプレイ14は、指又はスタイラスペン等が接触した位置を同時に複数検出することができる。
マイク15は、人が発する声を含む、電子機器1の周囲の音を検出する。マイク15は、音を空気振動として例えばダイヤフラムなどで検出したものを電気信号に変換したものとしてよい。
ストレージ16は、記憶部としてプログラム及びデータを記憶する。ストレージ16は、コントローラ11の処理結果を一時的に記憶する。ストレージ16は、半導体記憶デバイス及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。ストレージ16は、複数の種類の記憶デバイスを含んでよい。ストレージ16は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
ストレージ16に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとを含む。アプリケーションは、例えば、ジェスチャに応じた処理をコントローラ11に実行させる。制御プログラムは、例えば、OS(Operating System)である。アプリケーション及び制御プログラムは、通信ユニット17による通信又は記憶媒体を介して、ストレージ16にインストールされてよい。ストレージ16に記憶されるデータは、例えば静止画(写真)、動画、文字情報などの各種の情報を含む。これらの情報は、通信ユニット17を介して取得及び更新され得る。
通信ユニット17は、有線又は無線により通信するためのインタフェースである。一実施形態の通信ユニット17によって行われる通信方式は無線通信規格である。例えば、無線通信規格は2G、3G、4G、及び5G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、及びPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、及びNFC(Near Field Communication)等を含む。通信ユニット17は、上記の通信規格の1つ又は複数をサポートすることができる。
スピーカー25は、音を出力する。スピーカー25は、例えば入力された自動車の目的地までの経路を案内する音声を出力する。電子機器1が通話可能な機器として実現されている場合には、例えば通話の際に、スピーカー25は、通話相手の声を出力する。また、例えばニュース又は天気予報等の読み上げの際に、スピーカー25は、その内容を音又は音声によって出力する。
近接センサ18は、電子機器1の周囲の対象物との相対距離、及び対象物の移動方向等を、非接触で検出する。本実施形態において、近接センサ18は、1つの光源用赤外LED(Light Emitting Diode)と4つの赤外フォトダイオードとを有する。近接センサ18は、光源用赤外LEDから赤外光を対象物に向けて照射する。近接センサ18は、対象物からの反射光を、赤外フォトダイオードの入射光とする。そして、近接センサ18は、赤外フォトダイオードの出力電流に基づいて、対象物との相対距離を測定することができる。また、近接センサ18は、対象物からの反射光がそれぞれの赤外フォトダイオードに入射する時間差により、対象物の移動方向を検出する。したがって、近接センサ18は、電子機器1のユーザが電子機器1に触れずに行うエアジェスチャ(以下単に「ジェスチャ」という)を用いた操作を検出することができる。ここで、近接センサ18は、可視光フォトダイオードを有していてよい。
コントローラ11は、例えばCPU(Central Processing Unit)等のプロセッサである。コントローラ11は、他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってよい。コントローラ11は、複数の集積回路を組み合わせて構成されてよい。コントローラ11は、電子機器1の動作を統括的に制御して各種の機能を実現する。
電子機器1が自動車に搭載されたカーナビゲーションシステムとして実現される場合、電子機器1が備えるコントローラ11は、例えば、自動車が備えるECU(Electric Control Unit又はEngine Control Unit)により構成されていてよい。
コントローラ11は、ストレージ16に記憶されているデータを、必要に応じて参照する。コントローラ11は、ストレージ16に記憶されているプログラムに含まれる命令を実行してディスプレイ14等の他の機能部を制御することによって、各種機能を実現する。例えばコントローラ11は、近接センサ18が検出したユーザのジェスチャに関する情報を取得する。コントローラ11は、例えば電子機器1がタッチパネルによって操作可能である場合に、ユーザによる接触のデータをタッチパネルから取得する。また、例えばコントローラ11は、近接センサ18以外のセンサが検出した情報を取得する。
また、本実施形態において、コントローラ11は、ディスプレイ14の表示を制御するディスプレイドライバとしての機能を有する。すなわち、本実施形態において、コントローラ11は、直接的にディスプレイ14の制御を行って、画像を表示することが可能である。別の実施形態として、ディスプレイドライバは、コントローラ11から独立して設けられていてよい。この場合に、コントローラ11は、ディスプレイドライバを介して、ディスプレイ14に画像を表示させてよい。
UVセンサ19は、太陽光等に含まれる紫外線(Ultraviolet)量を測定することができる。
照度センサ20は、当該照度センサ20に入射する周囲光の照度を検出する。照度センサ20は、例えばフォトダイオードを用いたものでよい。また、照度センサ20は、例えばフォトトランジスタを用いたものでよい。
加速度センサ21は、電子機器1に働く加速度の方向及び大きさを検出する。加速度センサ21は、検出した加速度の情報を出力信号とする。加速度センサ21は、例えばx軸方向、y軸方向、及びz軸方向の加速度を検出する3軸(3次元)タイプである。加速度センサ21は、例えばピエゾ抵抗型であってよいし、静電容量型であってよい。
地磁気センサ22は、地磁気の向きを検出して、電子機器1の向きを測定可能にする。
気圧センサ23は、電子機器1の外側の気圧(大気圧)を検出する。
ジャイロセンサ24は、電子機器1の角速度を検出する。コントローラ11は、ジャイロセンサ24により取得された角速度を時間積分することにより、電子機器1の向きの変化を測定することができる。
(ジェスチャによる電子機器の操作)
図2は、ユーザがジェスチャにより電子機器1を操作する様子を示す。図2において、電子機器1は、一例としてスタンドによって支持される。代替例として、電子機器1は、壁に立てかけられたり、テーブルに置かれたりしてよい。近接センサ18がユーザのジェスチャを検出すると、コントローラ11は検出されたジェスチャに基づく処理を行う。図2に示す例では、ジェスチャに基づく処理はレシピが表示されている画面のスクロールである。例えば、ユーザが電子機器1の長手方向上方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が上方へとスクロールする。また、例えば、ユーザが電子機器1の長手方向下方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が下方へとスクロールする。ここで、近接センサ18によるジェスチャ検出に代えて、カメラ13が撮影した画像に基づいてコントローラ11がジェスチャ検出を実行してよい。
図2の例では、画面は2つに分割されている。図2の例では、2つの画面のうち上の画面にレシピが表示されており、上記のようにジェスチャによってスクロールさせることが可能である。2つの画面のうち下の画面には、複数のアイコンが並んだホーム画面が表示されている。ユーザは下の画面のアイコンへのタッチによって、アイコンに対応付けられたアプリケーションを起動することができる。本明細書において、ユーザのタッチパネルディスプレイへのタッチ動作(接触動作)は単にタッチと表記される。タッチは、例えばタップ、ダブルタップ、ロングタップ(長押し)及びスライド等の様々な動作を含む。
(近接センサによるジェスチャを検出する方法)
ここで、図3及び図4を参照しながら、コントローラ11が近接センサ18の出力に基づいてユーザのジェスチャを検出する方法を説明する。図3は、電子機器1を正面から見たときの近接センサ18の構成例を示す図である。近接センサ18は、光源用赤外LED180と、4つの赤外フォトダイオードSU,SR,SD,及びSLと、を有する。4つの赤外フォトダイオードSU,SR,SD,及びSLは、レンズ181を介して検出対象物からの反射光を検出する。4つの赤外フォトダイオードSU,SR,SD,及びSLは、レンズ181の中心から見て対称的に配置されている。ここで、図3の仮想線D1上に、赤外フォトダイオードSUと赤外フォトダイオードSDとが離れて配置されている。そして、赤外フォトダイオードSR及びSLは、図3に示す仮想線D1の方向において、赤外フォトダイオードSUと赤外フォトダイオードSDとの間に配置されている。
図4は、4つの赤外フォトダイオードSU,SR,SD,及びSLの検出対象物(例えばユーザの手等)が、図3に示す仮想線D1の方向に沿って移動したときの検出値の推移を例示する。ここで、図3に示す仮想線D1の方向において、赤外フォトダイオードSDと赤外フォトダイオードSUとが最も離れている。そのため、図4に示すように、赤外フォトダイオードSDの検出値(細い実線)の変化(例えば上昇)と、赤外フォトダイオードSUの検出値(破線)の同じ変化(例えば上昇)との時間差が最も大きい。コントローラ11は、フォトダイオードSU,SR,SD,及びSLの検出値の所定の変化の時間差を把握することによって、検出対象物の移動方向を判定できる。
コントローラ11は、近接センサ18からフォトダイオードSU,SR,SD,及びSLの検出値を取得する。そして、コントローラ11は、例えば検出対象物の仮想線D1の方向への移動を把握するために、フォトダイオードSDの検出値からフォトダイオードSUの検出値を減算した値を所定の時間で積分してよい。図4の例では、領域R41及びR42において積分値は非ゼロの値となる。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1の方向における検出対象物の移動を把握できる。
また、コントローラ11は、フォトダイオードSLの検出値からフォトダイオードSRの検出値を減算した値を所定の時間で積分してよい。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1に直交する方向における検出対象物の移動を把握できる。
代替例として、コントローラ11はフォトダイオードSU,SR,SD,及びSLの全ての検出値を用いて演算を行ってよい。すなわち、コントローラ11は検出対象物の移動方向を、仮想線D1の方向及び直交する方向の成分に分離して演算することなく把握してよい。
近接センサ18によって検出されるジェスチャは、例えば、左右のジェスチャ、上下のジェスチャ、斜めのジェスチャ、時計回りで円を描くジェスチャ、及び反時計回りで円を描くジェスチャ等である。左右のジェスチャとは、例えば図2に示す電子機器1の短手方向と略平行な方向に行われるジェスチャである。上下のジェスチャとは、例えば図2に示す電子機器1の長手方向と略平行な方向に行われるジェスチャである。斜めのジェスチャとは、例えば図2に示す電子機器1と略平行な平面において、電子機器1の長手方向と短手方向とのいずれとも平行でない方向に行われるジェスチャである。
ここで、フォトダイオードSU,SR,SD,及びSLは、光源用赤外LED180から照射された赤外光の検出対象物による反射光を受光し、受光量に応じた大きさの検出値を出力し得る。このとき、コントローラ11は、検出対象物が近接センサ18に近付くこと、及び、遠ざかることも判定可能である。まず、コントローラ11は、フォトダイオードSU,SR,SD,及びSLの少なくとも1つの検出値がある閾値(例えばゼロでない値)以上であることによって、検出対象物が存在すると判定可能である。そして、コントローラ11は、検出対象物が存在すると判定した後に、フォトダイオードSU,SR,SD,及びSLの少なくとも1つの検出値が相対的に大きくなることによって、検出対象物が電子機器1に近付いていると判定できる。また、コントローラ11は、検出対象物が存在すると判定した後に、フォトダイオードSU,SR,SD,及びSLの少なくとも1つの検出値が相対的に小さくなることによって、検出対象物が電子機器1から遠ざかっていると判定できる。このとき、コントローラ11は、ユーザが電子機器1に向かって、手を近付けるジェスチャ、手を遠ざけるジェスチャ、及び、これらのジェスチャと上記の別のジェスチャ(例えば左右のジェスチャ等)とを組み合わせたジェスチャを判別可能である。
以上のように、一実施形態に係る電子機器1は、例えば近接センサ18のように、自機器(電子機器1)に接触されないジェスチャを検出する第1センサ(ジェスチャセンサ)を備えている。第1センサは、当該第1センサが検出するジェスチャまでの距離を測定可能なものとしてもよい。一方、第1センサがジェスチャまでの距離を測定可能でなくても、第1センサが検出したジェスチャに基づいてコントローラ11がジェスチャまでの距離を推定してもよい。また、上述のように、一実施形態に係る電子機器1は、例えばタッチセンサ26(タッチパネルディスプレイ/タッチスクリーンディスプレイ)のように、自機器(電子機器1)に接触されるタッチを検出する第2センサ(タッチセンサ)を備えている。以下、例えば近接センサ18のように、自機器(電子機器1)に触れられずにジェスチャを検出するセンサを、適宜、第1センサ又はジェスチャセンサと記す。また、以下、例えばタッチセンサ26のように、自機器(電子機器1)に接触されるタッチを検出するセンサを、適宜、第2センサ又はタッチセンサと記す。
(キッチンモード)
図5は、ユーザがジェスチャにより電子機器1を操作する状況の一例を示す。図5の例で、ユーザは料理のレシピを電子機器1のディスプレイ14に表示しながら、キッチンでレシピに従って料理をしている。図5の例において、近接センサ18はユーザのジェスチャを検出する。そして、コントローラ11は近接センサ18が検出したジェスチャに基づく処理を行う。例えば、コントローラ11は特定のジェスチャ(例えばユーザが手を上下に動かすジェスチャ)に応じてレシピをスクロールする処理が可能である。料理中は、ユーザの手が汚れたり、濡れたりすることがある。しかし、ユーザは電子機器1に触れることなくレシピをスクロールすることができる。したがって、ディスプレイ14が汚れること、及び料理中のユーザの手にディスプレイ14の汚れがうつることを回避できる。
ここで、電子機器1は、複数のモードを有してよい。モードとは、電子機器1の全体の動作について制限等を与える動作モード(動作状態又は動作状況)を意味する。また、モードとは、電子機器1の動作について所定の機能を付加したり、所定の機能に関する制限を解除したりする動作モードとしてもよい。モードは同時に1つだけ選択可能としてよい。本実施形態において、電子機器1のモードは、例えば第1モード及び第2モードを含んでよい。
第1モードは、例えばキッチンで料理をする時以外の状況における使用に適している通常の動作モード(通常モード)である。キッチンで料理をする時以外の状況は、例えば、スマートフォンで料理のレシピを表示していない状態、又はスマートフォンで料理のレシピを表示するアプリケーションを(フォアグラウンドで)起動していない状態などとしてよい。ここで、スマートフォンで料理のレシピを表示するアプリケーションを(フォアグラウンドで)起動していない状態において、他のアプリケーションをフォアグラウンド又はバックグラウンドで起動していてもよい。これらのような状態において、電子機器1のモードは第1モード(通常モード)としてよい。また、例えばスマートフォンで通常の通話を待ち受けしている状態、又はスマートフォンがスリープ状態において、電子機器1のモードを第1モード(通常モード)としてもよい。
第2モードは、キッチンでレシピを表示しながら料理を行うのに最適な電子機器1の動作モード(キッチンモード)としてよい。
上述のように、第2モードの場合には、ジェスチャによる入力が可能であることが好ましい。つまり、電子機器1のモードが第2モードに切り替わる場合には、連動して近接センサ18を動作させてジェスチャを検出可能にしてもよい。電子機器1は、例えばユーザによる電子機器1に対する所定の入力操作又は所定のアプリケーションの起動などに基づいて、電子機器1のモードを切り替えてよい。
また、上述のモード以外にも、電子機器1において、種々のモードを設定してもよい。例えば、所定の機能が有効になるモードを第1モードとして設定した上で、第1モード以外のモードを第2モードとしてもよい。この場合、第2モードを例えば「通常モード」としてもよい。
また、電子機器1において、例えば近接センサ18によって自機器(電子機器1)に触れられずにジェスチャを検出するモードと、例えばタッチセンサ26によって自機器(電子機器1)に接触されるタッチを検出するモードと、を設定してもよい。この場合、電子機器1において、これらのモードが排他的に切り替えられるように動作してもよいし、これらのモードの少なくとも一部が時間的な重なりを有して実行されてもよい。
さらに、電子機器1において、例えば、上述のジェスチャのみを検出するモードと、上述のタッチのみを検出するモードと、上述のジェスチャ及びタッチの双方とも検出するモードと、の少なくともいずれかを設定してもよい。
(カーモード)
図6は、ユーザが、カーモードで動作する電子機器1をジェスチャにより操作する様子を示す。図6において、電子機器1は、例えば、自動車のコンソールパネルに設置される。代替例として、電子機器1は、自動車内に設けられた支持具によって支持されてもよい。また、支持具は、ダッシュボードの上に設置されてよい。また、図6に示すように、カーモードで動作する電子機器1は、横向き(長手方向が左右となる向き)で使用されてよい。近接センサ18がユーザのジェスチャを検出すると、コントローラ11は検出されたジェスチャに基づく処理を行う。図6に示す例では、ジェスチャに基づく処理は、広域地図が表示されている画面の移動としてよい。例えば、ユーザが電子機器1の長手方向左方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が左方へと移動する。ここで、ユーザの手を動かすジェスチャの向きと、画面が移動する向きとの対応は任意に設定可能である。例えば、ユーザが左方へと手を動かすジェスチャを行うと、画面は左方でなく右方へ移動してもよい。
上記の通り、図6に示す電子機器1は、コンソールパネルに設置及び取り外しが可能なスマートフォンとしてよい。他の例として、電子機器1は車両に設置されたカーナビゲーション装置としてもよい。この場合、電子機器1のモードは第2モードを含まなくてもよい。
ここでも、電子機器1は、複数のモードを有してよい。この場合、第1モードは、例えば運転以外の状況での使用に適している通常の動作モード(通常モード)としてよい。運転以外の状況は、例えば、自動車のエンジンがかかっていない状態、シフトレバーが所定のレンジ(例えばパーキングレンジ)になっている状態、ブレーキが踏まれている状態、及び、目的地までの経路の表示が行われていない状態のいずれかを含んでよい。第2モードは、目的地までの経路を電子機器1のディスプレイ14に表示させて自動車を運転するのに適した電子機器1の動作モード(カーモード)としてよい。
電子機器1がキッチンモード又はカーモードで動作する場合に、ユーザはジェスチャ及びタッチの少なくとも一方を用いて電子機器1を操作することが可能である。本開示の電子機器1は、ジェスチャ及びタッチを以下に説明するような処理に対応付けることによって、ユーザが入力操作を行う際の操作性を向上させ得る。
次に、一実施形態に係る電子機器1の動作について説明する。
電子機器1がスマートフォンのような機器である場合、電子機器1の「ユーザ」とは、典型的には、電子機器1の所有者など、電子機器1を使用する者としてよい。しかしながら、電子機器1のユーザは、必ずしも電子機器1の所有者に限定されず、電子機器1に対して操作を行う者であって電子機器1の所有者以外の者としてもよい。また、電子機器1は、ジェスチャによる入力及び/又はタッチによる入力を行ったユーザを特定してもよい。この場合、電子機器1は、ジェスチャによる入力及び/又はタッチによる入力を行ったユーザに応じて、異なる処理を実行してもよい。
また、電子機器1がデジタルサイネージに用いられる場合、電子機器1の「ユーザ」とは、電子機器1の所有者でなくてもよい。この場合、例えば電子機器1付近の通行人なども、電子機器1のユーザになり得る。電子機器1がデジタルサイネージに用いられる場合、最初は電子機器1を操作していない者でも、ディスプレイ14における表示を見て電子機器1に近づいて操作を開始する者も、電子機器1の「ユーザ」になり得る。
また、電子機器1の「ユーザ」とは、例えば電子機器1が搭載された自動車の運転者としてよい。しかしながら、電子機器1のユーザは、必ずしも電子機器1が搭載された自動車の運転者に限定されず、電子機器1が搭載された自動車に乗車している者であって運転者以外の者としてもよい。また、電子機器1は、ジェスチャによる入力及び/又はタッチによる入力を行ったユーザが運転者であるか否かを判定してもよい。この場合、電子機器1は、ジェスチャによる入力及び/又はタッチによる入力を行ったユーザが運転者であるか否かに応じて、異なる処理を実行してもよい。
図7は、一実施形態に係る電子機器1のコントローラ11が行う処理の一例を示すフローチャートである。
図7に示す処理が開始する前に、コントローラ11は、例えば図8に示すような画面をディスプレイ14に表示してよい。図8は、電子機器1において、ディスプレイ14にアイコン30A〜アイコン30Lを表示している状態を示す図である。図8においては、一例として、アイコン30A〜アイコン30Lまでの12個のアイコンを表示してある。しかしながら、一実施形態において、コントローラ11は、ディスプレイ14に任意の数のアイコンを表示してよい。以下、アイコン30A〜アイコン30Lのそれぞれを特に区別しない場合、単に「アイコン30」と記すことがある。
コントローラ11は、アイコン30のいずれかに対するユーザのタッチ操作に応じて、当該アイコン30に対応付けられた動作を行う。アイコン30に対するユーザのタッチ操作は、タッチセンサ26によって検出することができる。また、アイコン30に対応付けられた動作とは、各種の動作としてよい。例えば、コントローラ11は、所定のアイコン30に対するユーザのタッチ操作に応じて、当該所定のアイコン30に関連付けられたアプリケーションを起動してよい。上述のように、タッチは、例えばタップ、ダブルタップ、ロングタップ(長押し)及びスライド等の様々な動作を含む。
図7に示す処理が開始すると、コントローラ11は、近接センサ18(ジェスチャセンサ)によってユーザのジェスチャが検出されたか否かを判定する(ステップS1)。ステップS1において、コントローラ11は、近接センサ18によって特定のジェスチャが検出されたか否かを判定してもよい。また、ステップS1において、コントローラ11は、近接センサ18によって任意のジェスチャが検出されたか否かを判定してもよい。
ステップS1においてジェスチャが検出されたら、コントローラ11は、ジェスチャまでの距離に応じて、ディスプレイ14に表示されるアイコン30のサイズを大きくする(ステップS2)。ステップS2においては、ユーザによるジェスチャが行われた位置と、自機器(電子機器1)との間の距離に基づいて処理を行う。ここで、電子機器1から近接センサ18が検出するジェスチャが行われる位置までの距離は、例えば近接センサ18が測距センサを兼ねる場合、近接センサ18によって検出することができる。また、例えばカメラ13によって撮像された画像から距離を推定することが可能な場合も想定される。この場合、電子機器1から近接センサ18が検出するジェスチャが行われる位置までの距離は、カメラ13によって撮像された画像に基づいて、例えばコントローラ11が推定してもよい。
図9は、ユーザがジェスチャにより電子機器1を操作する様子を例示する図である。図9は、近接センサ18によってユーザのジェスチャが検出された際の様子を示している。図9に示すように、近接センサ18によってジェスチャが検出された際に、電子機器1からジェスチャが行われた位置までの距離がZ1であったとする。この場合、コントローラ11は、距離Z1に応じて、ディスプレイ14に表示されるアイコン30のサイズを大きくする。図9に示すアイコン30は、図8に示したアイコン30よりも、ディスプレイ14においてサイズが大きく表示されている。ここで、距離Z1とアイコン30が表示されるサイズとの相関関係は、任意に設定してよい。このように設定された相関関係は、例えば予めストレージ16などに記憶しておいてもよいし、通信ユニット17などを介して適宜取得してもよい。
距離Z1とアイコン30が表示されるサイズとの相関関係は、例えばZ1が長くなるにつれて、表示されるアイコン30のサイズも大きくなるようにしてよい。具体的には、例えば距離Z1が2倍になると、アイコン30が表示されるサイズも2倍になってもよい。ここで、例えば距離Z1が2倍になると、アイコン30のサイズは、タテ及びヨコのサイズの少なくとも一方が2倍になってもよい。また、例えば距離Z1が2倍になると、アイコン30の面積が2倍になるサイズになってもよい。
図10は、ユーザがジェスチャにより電子機器1を操作する様子を例示する図である。図10は、図9と同様に、近接センサ18によってユーザのジェスチャが検出された際の様子を示している。図10に示すように、近接センサ18によってジェスチャが検出された際に、電子機器1からジェスチャが行われた位置までの距離がZ2(>Z1)であったとする。この場合、コントローラ11は、距離Z2に応じて、ディスプレイ14に表示されるアイコン30のサイズを大きくする。図10に示すアイコン30は、図9に示したアイコン30よりも、ディスプレイ14においてサイズがさらに大きく表示されている。
図10に示す例において、コントローラ11は、距離Z2に応じて、ディスプレイ14に表示されるアイコン30A以外にも、例えばアイコン30Bなど他のアイコン30のサイズも大きくしている。しかしながら、一実施形態において、コントローラ11は、例えばディスプレイ14に表示されるアイコン30Aのみのサイズを大きくして、例えばアイコン30Bなど他のアイコン30のサイズは大きくしなくてもよい。例えば、コントローラ11は、アイコン30Aが選択されている場合、距離Z2に応じて、アイコン30Aのみのサイズを大きくしてもよい。
このように、一実施形態に係る電子機器1において、コントローラ11は、近接センサ18によってジェスチャが検出されると、ディスプレイ14に表示されるアイコンのサイズを大きくする。この場合、コントローラ11は、近接センサ18が検出するジェスチャが行われる位置までの距離に応じて、ディスプレイ14に表示されるアイコンのサイズを大きくしてよい。また、この場合、コントローラ11は、近接センサ18が検出するジェスチャが行われる位置までの距離が長くなるにつれて、ディスプレイ14に表示されるアイコンのサイズを大きくしてもよい。
ステップS2においてアイコンのサイズが大きくされたら、コントローラ11は、ステップS3の処理を行う。また、ステップS1においてジェスチャが検出されない場合も、コントローラ11は、ステップS3の処理を行う。
ステップS3において、コントローラ11は、タッチセンサ26によってユーザのタッチが検出されたか否かを判定する(ステップS3)。ステップS3において、コントローラ11は、タッチセンサ26によって特定のタッチが検出されたか否かを判定してもよい。また、ステップS3において、コントローラ11は、タッチセンサ26によって任意のジェスチャが検出されたか否かを判定してもよい。
ステップS3においてタッチが検出されたら、コントローラ11は、ジェスチャまでの距離によらず、ディスプレイ14に表示されるアイコン30のサイズを小さくする(ステップS4)。ステップS4においては、ユーザによるジェスチャが行われた位置と、自機器(電子機器1)との間の距離に基づかずに処理を行う。すなわち、ステップS4においては、近接センサ18によってユーザのジェスチャ操作が検出されている場合でも、ディスプレイ14に表示されるアイコン30のサイズを小さくする処理を行う。
図11は、ユーザがタッチにより電子機器1を操作する様子を例示する図である。図11は、タッチセンサ26によってユーザ(の指)のタッチが検出された際の様子を示している。図11に示すように、タッチセンサ26によってタッチが検出された場合、近接センサ18によってユーザのジェスチャが検出される位置までの距離にかかわらず、ディスプレイ14に表示されるアイコン30のサイズを小さくする。図11に示すアイコン30は、図9及び図10に示したアイコン30よりも、ディスプレイ14においてサイズが小さく表示されている。ここで、タッチが検出された際にアイコン30が小さく表示されるサイズは、任意に設定してよい。このように設定されたサイズは、例えば予めストレージ16などに記憶しておいてもよいし、通信ユニット17などを介して適宜取得してもよい。
図11に示すアイコン30の大きさは、図8に示すアイコン30の大きさ、すなわち大きくされる前のアイコン30の大きさ(以下、単に「元の大きさ」とも記す)と同じになっている。このように、コントローラ11は、ステップS2において大きくされたアイコン30のサイズを、ステップS4において大きくされる前のサイズまで小さくしてもよい。すなわち、ステップS4において、コントローラ11は、ディスプレイ14に表示されるアイコン30を元の大きさまで小さくしてもよい。一方、ステップS4において、コントローラ11は、ディスプレイ14に表示されるアイコン30を小さくする際に、元の大きさよりも小さくしてもよいし、元の大きさよりは大きくしてもよい。
また、コントローラ11は、ステップS2においてサイズを大きくしたアイコン30のみを、ステップS4においてディスプレイ14に小さく表示してもよい。また、コントローラ11は、ステップS4においてディスプレイ14に表示されるアイコン30の全てを小さくしてもよい。
このように、一実施形態に係る電子機器1において、コントローラ11は、タッチセンサ26によってタッチが検出されると、近接センサ18が検出するジェスチャが行われる位置までの距離にかかわらず、ディスプレイ14に表示されるアイコンのサイズを小さくする。すなわち、コントローラ11は、タッチセンサ26によってタッチが検出されると、近接センサ18によってジェスチャが検出されていたとしても、ディスプレイ14に表示されるアイコンのサイズを小さくする。また、コントローラ11は、タッチセンサ26によってタッチが検出されると、ディスプレイ14に表示されるアイコンの大きくされたサイズを小さくしてもよい。
一実施形態に係る電子機器1によれば、ユーザのジェスチャが電子機器1から離れて検出されるほど、ディスプレイ14に表示されるアイコン30が大きくなる。このため、ユーザは電子機器1から離れた場所にいても、ディスプレイ14に表示されるアイコン30を視認し易くなる。したがって、一実施形態に係る電子機器1によれば、操作性が向上する。また、一実施形態に係る電子機器1によれば、ユーザのタッチが検出されると、ディスプレイ14に表示されるアイコン30は小さくなる。このため、ユーザは、電子機器1に対してタッチ操作を行う際には、ディスプレイ14にアイコン30を多数表示して操作ができる。したがって、一実施形態に係る電子機器1によれば、操作性が向上する。
また、コントローラ11は、図7に示す処理を終了した後、即座に、又は所定の時間間隔で、再び図7に示す処理を開始してよい。この場合、図7に示す処理を繰り返し、電子機器1からジェスチャが行われた位置までの距離がより長くなるにつれて、ディスプレイ14に表示されるアイコンのサイズをより大きくしてもよい。この場合においても、ひとたびユーザのタッチがタッチセンサ26によって検出されると、ディスプレイ14に表示されるアイコンのサイズは小さくしてよい。
近年、デジタルサイネージのような情報伝達技術が注目を集めている。一実施形態に係る電子機器1によれば、電子機器1の周囲の者に各種の情報を提示することができるのみならず、提示される情報をユーザのタッチ又はジェスチャによって変化させることもできる。したがって、一実施形態に係る電子機器1によれば、個々のユーザに対して異なり得るデジタルサイネージを、インタラクティブに提供することができる。
図12は、一実施形態に係る電子機器1のコントローラ11が行う処理の他の例を示すフローチャートである。図12に示す処理は、図7において説明した処理に続けて実行することができる。
図12に示す処理は、図7に示した処理によってアイコンを大きく表示した後で、その後に検出されるジェスチャが行われた位置までの距離が短くなると、ディスプレイ14に表示されるアイコンを小さくする。
図12に示す処理が開始すると、コントローラ11は、近接センサ18によってユーザのジェスチャが検出されたか否かを判定する(ステップS21)。ステップS21において、コントローラ11は、図7のステップS1と同様の処理を行ってよい。すなわち、ステップS21において、コントローラ11は、近接センサ18によって特定のジェスチャが検出されたか否かを判定してもよい。また、ステップS21において、コントローラ11は、近接センサ18によって任意のジェスチャが検出されたか否かを判定してもよい。ステップS21においてジェスチャが検出されない場合、コントローラ11は、図7に示す処理を終了する。
一方、ステップS21においてジェスチャが検出される場合、コントローラ11は、電子機器1から近接センサ18が検出するジェスチャが行われる位置までの距離が、ステップS1において検出された距離よりも短いか否かを判定する(ステップS22)。すなわち、ステップS22において、コントローラ11は、ステップS21において検出される距離が、ステップS1において検出された距離よりも短くなっているか否か判定する。要するに、ステップS22において、コントローラ11は、検出されたジェスチャまでの距離が短くなったか否かを判定する。
ステップS22においてジェスチャまでの距離が短くなっていない場合、コントローラ11は、図12に示す処理を終了する。一方、ステップS22においてジェスチャまでの距離が短くなっている場合、コントローラ11は、ディスプレイ14に表示されるアイコン30のサイズを小さくする(ステップS23)。
例えば、図10に示すように、近接センサ18によってジェスチャが検出された際に、電子機器1からジェスチャが行われた位置までの距離がZ2であったとする。この後、図9に示すように、近接センサ18によってジェスチャが検出された際、電子機器1からジェスチャが行われた位置までの距離がZ1(<Z2)であったとする。この場合、図9に示すように、ディスプレイ14に表示されるアイコン30のサイズは小さくなる。図9に示すアイコン30は、図10に示したアイコン30よりも、ディスプレイ14においてサイズが小さく表示されている。ここで、電子機器1からジェスチャが行われた位置までの距離の減少とアイコン30が表示されるサイズとの相関関係は、任意に設定してよい。このように設定された相関関係は、例えば予めストレージ16などに記憶しておいてもよいし、通信ユニット17などを介して適宜取得してもよい。
電子機器1からジェスチャが行われた位置までの距離の減少とアイコン30が表示されるサイズとの相関関係は、例えば当該距離が減少するにつれて、表示されるアイコン30のサイズも小さくなるようにしてよい。具体的には、例えば当該距離が半分になると、アイコン30が表示されるサイズも半分になってもよい。ここで、例えば前記距離が半分になると、アイコン30のサイズは、タテ及びヨコのサイズの少なくとも一方が半分になってもよい。また、例えば前記距離が半分になると、アイコン30の面積が半分になるサイズになってもよい。
このように、一実施形態に係る電子機器1において、コントローラ11は、近接センサ18によってジェスチャが検出され、ディスプレイ14に表示されるアイコンのサイズを大きくした後、次のような処理を行ってもよい。すなわち、コントローラ11は、近接センサ18が検出するジェスチャが行われる位置までの距離が短くなるにつれて、ディスプレイ14に表示されるアイコンの大きくされたサイズを小さくしてもよい。
一実施形態に係る電子機器1によれば、ユーザのジェスチャが検出される位置が電子機器1に近づくほど、ディスプレイ14に表示されるアイコン30が小さくなる。このため、ユーザは、電子機器1に対してジェスチャ操作を行う際に、ディスプレイ14にアイコン30を多数表示して操作ができる。したがって、一実施形態に係る電子機器1によれば、操作性が向上する。
図13は、一実施形態に係る電子機器1のコントローラ11が行う処理の他の例を示すフローチャートである。図13に示す処理は、図7及び図12において説明した処理に続けて実行することができる。また、図14に示す処理は、図7及び図12において説明した処理と並行して行ってもよい。
図14に示す処理が開始すると、コントローラ11は、タッチセンサ26によってユーザのタッチが検出されたか否かを判定する(ステップS31)。ステップS31において、コントローラ11は、図7のステップS3と同様の処理を行ってよい。例えば、ステップS31において、コントローラ11は、タッチセンサ26によって特定のタッチが検出されたか否かを判定してもよい。また、ステップS31において、コントローラ11は、タッチセンサ26によって任意のジェスチャが検出されたか否かを判定してもよい。
ステップS31においてタッチが検出されない場合、コントローラ11は、図13に示す処理を終了する。一方、ステップS31においてタッチが検出される場合、コントローラ11は、近接センサ18(ジェスチャセンサ)によるジェスチャの検出機能を無効にする(ステップS32)。
ステップS32において、ジェスチャの検出機能が無効とは、例えば近接センサ18のようなジェスチャセンサによってユーザのジェスチャを検出する機能が無効であることを意味する。ここで、ジェスチャセンサによってユーザのジェスチャを検出する機能が「無効」とは、当該センサによってユーザの所定のジェスチャを検出しない状態としてよい。この場合、近接センサ18のようなジェスチャセンサに対する電力の供給を停止してもよい。また、ジェスチャセンサによってユーザのタッチを検出する機能が「無効」とは、当該センサによってユーザの所定のジェスチャを検出するが、その検出結果に応じて、コントローラ11が所定の処理を行わない状態としてもよい。ここで、所定のジェスチャとは、特定のジェスチャとしてもよいし、任意のジェスチャとしてもよい。
このように、一実施形態に係る電子機器1において、コントローラ11は、タッチセンサ26によってタッチが検出されると、近接センサ18による検出機能を無効にしてもよい。一実施形態に係る電子機器1によれば、ユーザのタッチが検出されると、ユーザのジェスチャが検出されなくなる。このため、ユーザが電子機器1に対してタッチ操作を行う際に、ジェスチャが誤検出されることによる不都合は回避される。したがって、一実施形態に係る電子機器1によれば、操作性が向上する。また、一実施形態に係る電子機器1によれば、ユーザが電子機器1に対してタッチ操作を行う際に、ジェスチャ検出に要する近接センサ18などの消費電力を低減し得る。
(その他の実施形態)
本開示を図面及び実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。したがって、これらの変形及び修正は本開示の範囲に含まれることに留意されたい。例えば、各手段又は各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段又はステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。
上記の実施形態では、ジェスチャは、近接センサ18により検出されると説明したが、必ずしも近接センサ18により検出されなくてよい。ジェスチャは、自機器に触れずにユーザのジェスチャを検出可能な任意のセンサにより検出されてよい。このようなセンサの一例は、例えば、カメラ13等を含む。
自機器に触れずにユーザのジェスチャを検出可能なセンサは、例えば測距センサを含んでよい。例えば、電子機器1は、近接センサ18に代えて、又は近接センサ18とともに、測距センサを含み、測距センサにより、ジェスチャを検出してよい。
測距センサは、対象物との距離を測定可能なセンサである。測距センサは、例えばToF(Time of Flight)センサにより構成されていてよい。ToFセンサとして構成される測距センサは、正弦波変調光(赤外レーザ光)を対象物に向けて照射する発光部と、照射された赤外レーザ光の対象物からの反射光を受光する受光部とを備える。受光部は、例えば複数の受光素子を配置したイメージセンサを有する。ToFセンサは、赤外レーザ光を照射してから、各受光素子で反射光を受光するまでの時間(飛行時間)を測定する。ToFセンサは、照射した赤外レーザ光と、受光した反射光との位相差に基づき、飛行時間を測定できる。ToFセンサは、測定した飛行時間に基づき、照射した赤外レーザ光を反射した対象物までの距離を測定できる。ToFセンサは、対象物からの反射光が複数の受光素子それぞれに入射する時間差により対象物の移動方向を検出することができる。これにより、ToFセンサも、近接センサ18で説明した原理と同様の原理で、ユーザが行うジェスチャを検出することができる。測距センサは、電子機器1において、例えば近接センサ18が配置された面と同じ面に配置されてよい。
ここで、図14から図16を参照しながら、コントローラ11が測距センサの出力に基づいてユーザのジェスチャを検出する方法を説明する。図14は、測距センサ126を模式的に示す図である。図14は、側面視における測距センサ126を示している。測距センサ126は、発光部126aと受光部126bとを備える。発光部126aは、赤外レーザ光を対象物に向けて照射する。受光部126bは、照射された赤外光の対象物からの反射光を受光する。
受光部126bは、複数の受光素子を備えていてよい。例えば、受光部126bは、図15に示すように、3行×3列に配置された9つの受光素子を備えていてよい。9つの受光素子は、それぞれ対象物からの反射光を受光する。受光部126bにおいて、上段には、左から順にCh11、Ch12、及びCh13の3つの受光素子が配置されている。受光部126bにおいて、中段には、左から順にCh21、Ch22、及びCh23の3つの受光素子が配置されている。受光部126bにおいて、下段には、左から順にCh31、Ch32、及びCh33の3つの受光素子が配置されている。
測距センサ126は、発光部126aが照射した赤外レーザ光と、受光部126bの9つの受光素子がそれぞれ受光した反射光との位相差に基づき、9つの受光素子それぞれから対象物までの距離を測定できる。測距センサ126は、9つの受光素子それぞれから対象物までの距離と、時間経過に伴う距離の変化に基づいて、ジェスチャを検出することができる。
例えば、ユーザが手を左から右に動かすジェスチャを行ったとする。このとき、例えば中段の受光素子Ch21、Ch22、及びCh23により検出される、対象物までの距離をそれぞれD21、D22、及びD23とする。図16は、各受光素子により検出される対象物までの距離の推移を模式的に示す図である。例えば図16に模式的に示すように、まず、対象物である手が最初に左側に配置された受光素子Ch21に近づくため、受光素子Ch21により検出される対象物の距離D21が近くなる。その後、対象物である手が中央に配置された受光素子Ch22に近づくと、受光素子Ch22により検出される対象物の距離D22が近くなる。最後に、対象物である手が右側に移動すると、右側に配置された受光素子Ch23により検出される対象物の距離D23が近くなる。各受光素子Ch21、Ch22、及びCh23に近づいた手が遠ざかる順序も、Ch21、Ch22、Ch23の順である。そのため、距離D21、D22、及びD23は、この順序で大きくなる(初期値に戻る)。上下方向のジェスチャも、同様の原理により、例えば受光素子Ch12、Ch22、及びCh32を用いて検出することができる。このように、測距センサ126は、9つの受光素子それぞれから対象物までの距離と、時間経過に伴う距離の変化に基づいて、ジェスチャを検出することができる。
ここでは、受光部126bが9つの受光素子を備えるとして説明したが、受光部126bが備える受光素子の数量はこれに限られない。複数の受光素子の配置も図15に示す配置に限られない。受光部126bが備える受光素子の数量及びその配置は、検出するジェスチャの種類に応じて、適宜定められてよい。
また、測距センサ126の発光部126aは、複数の発光素子を備えていてよい。この場合、各発光素子から発光される赤外レーザ光と、受光部126bが受光する反射光との位相差に基づき、9つの発光素子それぞれから対象物までの距離を測定できる。この場合においても、測距センサ126は、9つの発光素子それぞれから対象物までの距離と、時間経過に伴う距離の変化に基づいて、上記の原理を応用することにより、ジェスチャを検出することができる。
上述した実施形態は、電子機器1としての実施のみに限定されるものではない。例えば、上述した実施形態は、電子機器1のような機器の制御方法として実施してもよい。さらに、例えば、上述した実施形態は、電子機器1のような機器に実行させるプログラムとして実施してもよい。
本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機又はその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作又は制御方法は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)、一以上のプロセッサにより実行される論理ブロック及び/又はプログラムモジュール等により実行されることに留意されたい。論理ブロック及び/又はプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置及び/又はこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード又はこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコード又はコードセグメントであってよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラス又は命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってよい。コードセグメントは、他のコードセグメント又はハードウェア回路と、情報、データ引数、変数又は記憶内容の送信及び/又は受信を行い、これにより、コードセグメントが他のコードセグメント又はハードウェア回路と接続される。
ここで用いられるストレージ16は、さらに、ソリッドステートメモリ、磁気ディスク及び光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができる。かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュール等のコンピュータ命令の適宜なセット又はデータ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気及び光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスク及びブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)もしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体又はこれらいずれかの組合せが含まれる。メモリは、プロセッサ又はプロセッシングユニットの内部及び/又は外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性又はその他のメモリを意味する。つまり、「メモリ」は特定の種類及び/又は数に限定されない。また、記憶が格納される媒体の種類も限定されない。
1 電子機器
11 コントローラ
12 タイマー
13 カメラ
14 ディスプレイ
15 マイク
16 ストレージ
17 通信ユニット
18 近接センサ
19 UVセンサ
20 照度センサ
21 加速度センサ
22 地磁気センサ
23 気圧センサ
24 ジャイロセンサ
25 スピーカー
26 タッチセンサ
30 アイコン
126 測距センサ
126a 発光部
126b 受光部
180 光源用赤外LED
181 レンズ
SU,SR,SD,SL フォトダイオード

Claims (7)

  1. 自機器に接触されないジェスチャを検出する第1センサと、
    自機器に接触されるタッチを検出する第2センサと、
    前記第1センサによってジェスチャが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離に応じて、ディスプレイに表示されるアイコンのサイズを大きくし、
    前記第2センサによってタッチが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離にかかわらず、前記アイコンのサイズを小さくするコントローラと、
    を備える電子機器。
  2. 前記コントローラは、
    前記第1センサによってジェスチャが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離が長くなるにつれて、前記アイコンのサイズを大きくする、請求項1に記載の電子機器。
  3. 前記コントローラは、
    前記第1センサによってジェスチャが検出され、前記アイコンのサイズを大きくした後、前記第1センサが検出するジェスチャが行われる位置までの距離が短くなるにつれて、前記アイコンの大きくされたサイズを小さくする、請求項1又は2に記載の電子機器。
  4. 前記コントローラは、
    前記第2センサによってタッチが検出されると、前記アイコンの大きくされたサイズを小さくする、請求項1から3のいずれかに記載の電子機器。
  5. 前記コントローラは、
    前記第2センサによってタッチが検出されると、前記第1センサによる検出機能を無効にする、請求項1から4のいずれかに記載の電子機器。
  6. 自機器に接触されないジェスチャを第1センサによって検出するステップと、
    自機器に接触されるタッチを第2センサによって検出するステップと、
    前記第1センサによってジェスチャが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離に応じて、ディスプレイに表示されるアイコンのサイズを大きくするステップと、
    前記第2センサによってタッチが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離にかかわらず、前記アイコンのサイズを小さくするステップと、
    を含む、電子機器の制御方法。
  7. コンピュータに、
    自機器に接触されないジェスチャを第1センサによって検出するステップと、
    自機器に接触されるタッチを第2センサによって検出するステップと、
    前記第1センサによってジェスチャが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離に応じて、ディスプレイに表示されるアイコンのサイズを大きくするステップと、
    前記第2センサによってタッチが検出されると、前記第1センサが検出するジェスチャが行われる位置までの距離にかかわらず、前記アイコンのサイズを小さくするステップと、
    を実行させるプログラム。
JP2019078885A 2019-04-17 2019-04-17 電子機器、制御方法、及びプログラム Active JP6568331B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019078885A JP6568331B1 (ja) 2019-04-17 2019-04-17 電子機器、制御方法、及びプログラム
EP20168380.2A EP3726346A1 (en) 2019-04-17 2020-04-07 Electronic device, control method, and recording medium
US16/843,802 US11402993B2 (en) 2019-04-17 2020-04-08 Electronic device, control method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019078885A JP6568331B1 (ja) 2019-04-17 2019-04-17 電子機器、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6568331B1 true JP6568331B1 (ja) 2019-08-28
JP2020177428A JP2020177428A (ja) 2020-10-29

Family

ID=67766695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078885A Active JP6568331B1 (ja) 2019-04-17 2019-04-17 電子機器、制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US11402993B2 (ja)
EP (1) EP3726346A1 (ja)
JP (1) JP6568331B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3748476B1 (en) * 2018-02-22 2024-05-08 Kyocera Corporation Electronic device, control method, and program

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280316A (ja) * 2006-04-12 2007-10-25 Xanavi Informatics Corp タッチパネル入力装置
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
DE112009003521T5 (de) * 2008-12-04 2013-10-10 Mitsubishi Electric Corp. Anzeigeeingabevorrichtung
JP2011253468A (ja) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
KR101731346B1 (ko) * 2010-11-12 2017-04-28 엘지전자 주식회사 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치
KR101729523B1 (ko) * 2010-12-21 2017-04-24 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP2012256110A (ja) * 2011-06-07 2012-12-27 Sony Corp 情報処理装置、情報処理方法およびプログラム
EP2825944B1 (en) * 2012-03-14 2017-07-26 Nokia Technologies Oy Touch screen hover input handling
KR101987098B1 (ko) * 2012-09-25 2019-09-30 삼성전자주식회사 터치 입력을 처리하는 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
US20140267142A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Extending interactive inputs via sensor fusion
JP2015090547A (ja) * 2013-11-05 2015-05-11 ソニー株式会社 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP6494926B2 (ja) 2014-05-28 2019-04-03 京セラ株式会社 携帯端末、ジェスチャ制御プログラムおよびジェスチャ制御方法
KR102324083B1 (ko) * 2014-09-01 2021-11-09 삼성전자주식회사 화면 확대 제공 방법 및 그 전자 장치
US10318034B1 (en) * 2016-09-23 2019-06-11 Apple Inc. Devices, methods, and user interfaces for interacting with user interface objects via proximity-based and contact-based inputs
CN107643852B (zh) * 2017-10-17 2021-02-19 厦门天马微电子有限公司 显示面板和显示装置
JP2019078885A (ja) 2017-10-25 2019-05-23 キヤノン株式会社 硬化型液体現像剤

Also Published As

Publication number Publication date
US11402993B2 (en) 2022-08-02
US20200333948A1 (en) 2020-10-22
JP2020177428A (ja) 2020-10-29
EP3726346A1 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
JP6239796B1 (ja) 電子機器
JP6360112B2 (ja) 電子機器
WO2020003914A1 (ja) 電子機器、移動体、プログラムおよび制御方法
JP6101881B1 (ja) 電子機器、プログラムおよび制御方法
US11054911B2 (en) Electronic device, program, and control method
JP6163278B1 (ja) 電子機器、プログラムおよび制御方法
US20200371597A1 (en) Electronic device
JP6568331B1 (ja) 電子機器、制御方法、及びプログラム
JP2019144955A (ja) 電子機器、制御方法およびプログラム
US11354030B2 (en) Electronic device, control method, and program
JP2019145094A (ja) 電子機器、制御方法およびプログラム
JP6541910B1 (ja) 電子機器、制御方法、及びプログラム
JP6471261B1 (ja) 電子機器、制御方法およびプログラム
JP6417062B1 (ja) 電子機器、制御方法およびプログラム
JP2019040247A (ja) 電子機器、プログラムおよび制御方法
JP6173625B1 (ja) 電子機器、プログラムおよび制御方法
JP6235175B1 (ja) 電子機器、プログラムおよび制御方法
JP2018110370A (ja) 電子機器、プログラムおよび制御方法
JP6557385B1 (ja) 電子機器、移動体、プログラムおよび制御方法
JP6163274B1 (ja) 電子機器、プログラムおよび制御方法
JP6346699B1 (ja) 電子機器
JP2018109955A (ja) 電子機器、プログラムおよび制御方法
JP2018109873A (ja) 電子機器、プログラムおよび制御方法
JP2018018549A (ja) 電子機器
JP2018109871A (ja) 電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190417

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190417

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190801

R150 Certificate of patent or registration of utility model

Ref document number: 6568331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150