JP2022087700A - 電子機器および画像形成装置 - Google Patents

電子機器および画像形成装置 Download PDF

Info

Publication number
JP2022087700A
JP2022087700A JP2020199779A JP2020199779A JP2022087700A JP 2022087700 A JP2022087700 A JP 2022087700A JP 2020199779 A JP2020199779 A JP 2020199779A JP 2020199779 A JP2020199779 A JP 2020199779A JP 2022087700 A JP2022087700 A JP 2022087700A
Authority
JP
Japan
Prior art keywords
hand gesture
finger
command
unit
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020199779A
Other languages
English (en)
Inventor
浩平 小西
Kohei Konishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2020199779A priority Critical patent/JP2022087700A/ja
Priority to US17/532,444 priority patent/US11816270B2/en
Publication of JP2022087700A publication Critical patent/JP2022087700A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3284Power saving in printer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00381Input by recognition or interpretation of visible user gestures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

【課題】空中でのハンドジェスチャーについて触感を得ることができ、ハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減する。【解決手段】画像形成装置1は、ユーザーの空中にかざした手を撮像するカメラ60と、当該手の特定の指と他の指とが接触する動作を含む複数のハンドジェスチャーと各コマンドとを対応付けて記憶するHDD92と、カメラ60から順次に得られる複数の撮像画像からハンドジェスチャーを認識するハンドジェスチャー認識部103と、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得するコマンド取得部104と、表示部473の表示画面上のカーソル位置に対して、コマンド取得部104により取得されたコマンドに対応する操作を行う制御部100と、を備える。【選択図】図2

Description

本発明は、電子機器および画像形成装置に関し、特に、ユーザーのハンドジェスチャーに従って操作を実行するための技術に関する。
近年では、テレビやパーソナルコンピューター等の電子機器をユーザーのジェスチャーによって操作する方法が提案されている。このような方法によれば、マウス、キーボード又はリモートコントローラといった入力装置を使用せずに、電子機器を遠隔操作することができる。
例えば、下記特許文献1に記載の電子機器では、ユーザーの手を撮像するカメラと、握り拳、平手、サムズアップなどの予め定められた複数の手形状を予め記憶する記憶部と、カメラで撮像された手形状が記憶部に記憶された何れかの手形状と一致するか否かを判定する手形状認識部と、撮像された手形状が記憶部の手形状と一致すると判定され、かつ、撮像された手形状の移動量の絶対値が閾値以上である場合に、当該一致すると判定された手形状に対応するコマンド(例えば、フォーカスの移動、メディアの再生、メディアの一時停止など)を実行するコマンド実行制御部と、を備え、撮像されたユーザーのハンドジェスチャーに応じたコマンドを実行することを可能としている。
特開2010-237766号公報
しかし、上記の電子機器では、ユーザーが空中でハンドジェスチャーを行い、操作パネルなどに触れたりしない。このような、触感が得られないハンドジェスチャーでは、操作について実感が伴わない。このため、上記の電子機器では、当該ハンドジェスチャーによる操作に不安定さを抱えており、操作ミスを起こしやすいという問題がある。
本発明は、上記の事情に鑑みなされたものであり、空中でのハンドジェスチャーについて触感を得ることができ、ハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減することを目的とする。
本発明の一局面に係る電子機器は、表示部と、ユーザーの空中にかざした手を撮像するカメラと、前記カメラの撮像画像から前記ユーザーの空中にかざした手における特定の指を特定すると共に、前記撮像画像中における前記特定の指の位置を特定する指位置特定部と、前記指位置特定部により特定された前記特定の指の位置が対応する前記表示部の表示画面上の対応位置にカーソルを表示させる表示制御部と、前記特定の指と他の指とが接触する動作を少なくとも含む予め定められた複数のハンドジェスチャーと、前記複数のハンドジェスチャー毎に対応付けられた各コマンドとを予め記憶する記憶部と、前記カメラから順次に得られる複数の撮像画像からハンドジェスチャーを認識するハンドジェスチャー認識部と、前記ハンドジェスチャー認識部が認識した前記ハンドジェスチャーに対応付けられたコマンドを前記記憶部から取得するコマンド取得部と、前記表示部の表示画面上のカーソル位置に対して、前記コマンド取得部により取得された前記コマンドに対応する操作を行う制御部と、を備えるものである。
本発明の一局面に係る画像形成装置は、上記電子機器と、記録媒体に画像を形成する画像形成部とを備えるものである。
本発明によれば、空中でのハンドジェスチャーについて触感を得ることができ、ハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減することができる。
本発明の一実施形態に係る画像形成装置の外観を示す斜視図である。 画像形成装置の主要内部構成を示す機能ブロック図である。 ユーザーが空中にかざした手がカメラにより撮像される様子を示す図である。 ハンドジェスチャーとコマンドとが対応付けられたデータテーブルの一例を示す図である。 画像形成装置によるハンドジェスチャー操作処理を示すフローチャートである。 (A)は画像形成装置の表示部に表示される選択確認画面の一例を示す図、(B)はハンドジェスチャーによる操作の開始前に行われるキャリブレーション時にユーザーがかざした右手が撮像された撮像画像の一例を示す図である。 (A)はユーザーの右手を空中で移動させている様子を示す図、(B)は(A)の場合の撮像画像を示す図である。 (A)は図7(B)に示す撮像画像を左右反対に示した場合の図、(B)は(A)に示す人差し指の移動に伴ってカーソルが移動する場合の表示画面を示す図である。 (A)はクリックハンドジェスチャーを示す図、(B)はダブルクリックハンドジェスチャーを示す図、(C)は長押しハンドジェスチャーを示す図である。 (A)はドラッグアンドドロップハンドジェスチャーを示す図、(B)は(A)の場合にカーソルが移動してドラッグアンドドロップ操作される表示画面を示す図である。 (A)はスワイプハンドジェスチャーを示す図、(B)は表示部に個別に表示される第1画面用画像及び第2画面用画像がスワイプ方向に並べられた長尺画像における第2画面用画像が表示部に表示されている状態を示す図、(C)はスワイプハンドジェスチャーによりスワイプされて表示部に表示された第1画面を示す図である。 (A)はピンチアウトハンドジェスチャーを示す図、(B)はピンチインハンドジェスチャーを示す図、(C)はローテートハンドジェスチャーを示す図である。
以下、本発明の一実施形態に係る電子機器及び電子機器を搭載した画像形成装置について図面を参照して説明する。図1は、本発明の一実施形態に係る画像形成装置の外観を示す斜視図である。
画像形成装置1は、ファクシミリ通信機能、コピー機能、プリンター機能、およびスキャナー機能等の複数の機能を兼ね備えた複合機である。図1に示すように、画像形成装置1は、装置本体2と、装置本体2の上方に配置された画像読取部5と、画像読取部5と装置本体2との間に設けられた連結部3とから構成される。
画像形成装置1の外郭を構成する筐体7には、画像形成装置1の様々な機能を実現するための複数の構成機器が収容されている。例えば、筐体7には、画像読取部5、画像形成部12(図2)、定着部、給紙部30、操作部47、及びカメラ60等が収容されている。
画像読取部5は、原稿搬送部6と、原稿搬送部6により搬送されてくる原稿又は不図示のコンタクトガラスに載置された原稿を光学的に読み取るスキャナーとを有するADF(Auto Document Feeder)である。画像読取部5は、ファクシミリ送信対象の原稿を1枚ずつ読み取ることで、画像形成対象となる画像データを取得する。
画像形成部12は、感光体ドラム、帯電装置、露光装置、現像装置、及び転写装置を備え、画像読取部5によって読み取られた画像や、ネットワーク接続されたパーソナルコンピューターから送られてくるプリント対象データを用いて、給紙部30から供給される記録に画像を形成(印刷)する。画像形成済みの記録紙は上記定着部による定着処理を受けた後、排出トレイ4に排出される。
なお、電子機器は、例えば、画像形成装置1から画像読取部5と原稿搬送部6と画像形成部12とを除いた構成である。
操作部47は、例えば、当該画像形成装置1により可能な機能の実行を指示するためのスタートキー、操作画面を操作して入力した設定を確定させる決定キー(エンターキー)、数値入力を行うための数値入力キー等のハードキーを備える。操作部47は、画像形成装置1が実行可能な各種動作及び処理についてユーザーからの指示を受け付ける。
また、操作部47は、ユーザーへの操作案内等を表示する表示部473を備えている。表示部473は、タッチ操作可能な表示装置であり、例えば液晶パネルなどのディスプレイと、このディスプレイの前面側に配置されたタッチパネルとを備えている。ユーザーは、表示部473の画面に表示されるボタンやキーに触れて画像形成装置1を操作することができる。
カメラ60は、例えば、赤外線カメラであり、画像形成装置1の正面にいるユーザーが空中にかざした手を撮像する。なお、カメラ60は、奥行き情報を取得する深度センサー(又は距離画像センサー)を通常のカメラに内蔵したデプスカメラとしてもよい。このデプスカメラによれば、通常のカメラが撮影する2次元画像に加えて奥行き情報を取得することにより、3次元情報を取得することができる。
さらに、画像形成装置1の正面側の側部には、画像形成装置1の前方における一定範囲内に存在するユーザーを検知するユーザー検知センサー80が設けられている。ユーザー検知センサー80は、例えば、光学センサーであり、発光及び受光部を有し、発光部から発光した光の当該ユーザーからの反射光を受光部が受光できた場合に、画像形成装置1の前方の一定範囲内にユーザーが存在することを示す検知信号を後述する制御部100に出力する。
次に、画像形成装置1の構成を説明する。図2は画像形成装置の主要内部構成を示す機能ブロック図である。
画像形成装置1は、制御ユニット10を備える。制御ユニット10は、プロセッサー、RAM(Random Access Memory)、ROM(Read Only Memory)、及び専用のハードウェア回路を含んで構成される。プロセッサーは、例えばCPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、MPU(Micro Processing Unit)等である。
画像読取部5は、制御ユニット10による制御の下、光照射部及びCCDセンサー等を有する読取機構を備える。画像読取部5は、光照射部により原稿を照射し、その反射光をCCDセンサーで受光することにより、原稿から画像を読み取る。
画像処理部31は、画像読取部5で読み取られた画像の画像データを、必要に応じて画像処理を行う。例えば、画像処理部31は、画像読取部5により読み取られた画像が画像形成部12により画像形成された後の品質を向上させるために、シェーディング補正等の予め定められた画像処理を行う。
画像メモリー32は、画像読取部5による読取で得られた原稿画像のデータを一時的に記憶したり、画像形成部12による画像形成の対象となるデータを一時的に保存したりする領域である。
画像形成部12は、画像読取部5で読み取られた印刷データ、ネットワーク接続されたコンピューター200から受信した印刷データ等の画像形成を行う。
ネットワークインターフェース部91は、LANボード等の通信モジュールから構成され、当該ネットワークインターフェース部91に接続されたLAN等を介して、ローカルエリア内のコンピューター200等と種々のデータの送受信を行う。画像形成装置1には複数のコンピューター200が接続され得る。
HDD92は、画像読取部5によって読み取られた原稿画像、各種のプログラム及びデータ、後述するデータテーブルTB1などを記憶する大容量の記憶装置である。
制御ユニット10は、HDD92に記憶されている制御プログラムに従った上記プロセッサーによる動作により、制御部100、指位置特定部101、表示制御部102、ハンドジェスチャー認識部103、及びコマンド取得部104として機能するものである。但し、上記の制御部100等の各構成は、制御ユニット10による制御プログラムに従った動作によらず、ハードウェア回路により構成することも可能である。
制御部100は、画像読取部5、原稿搬送部6、画像処理部31、画像メモリー32、画像形成部12、操作部47、ネットワークインターフェース部91、HDD(ハードディスクドライブ)92、カメラ60、及びユーザー検知センサー80等と接続され、これら各部の駆動制御を行う。
図3は、ユーザーが空中にかざした手がカメラにより撮像される様子を示す図である。カメラ60は、図3に示すように、画像形成装置1の正面にいるユーザーが空中の予め定められた撮像領域E1内にかざした手を撮像する。ここでは、撮像領域E1は、図3に示すように、画像形成装置1の前方方向の任意の位置(例えば、画像形成装置1の正面側側面部と同一位置又はその付近の位置など)であって、一般成人の胸元の高さ位置とされる。カメラ60が撮像領域E1を撮像した画像が、後述する図6(B)に示す撮像画像C1、後述する図7(B)に示す撮像画像C1、C2である。
指位置特定部101は、カメラ60の撮像画像から、画像形成装置1の正面にいるユーザーが空中にかざした手における特定の指(例えば、人差し指)を特定すると共に、前記撮像画像中における前記特定の指の位置を特定する。
より詳細には、指位置特定部101は、カメラ60の撮像画像を基に、2値化処理や濃淡情報によるパターンマッチング等の画像処理を行って、ユーザーの指の画像を判別する。ここでは、指位置特定部101は、撮像画像より抽出されるユーザーの手の画像と、HDD92などに予め記憶している一般成人の手を示す基本画像とのパターンマッチングにより、撮像画像がユーザーの手の画像であるか否か、及び、右手又は左手の何れであるかを判別する。なお、基本画像として、一般成人ではなく、ユーザー自身の手を示す個別基本画像をカメラ60で事前に撮像しておき、この個別基本画像を用いるようにしてもよい。そして、指位置特定部101は、カメラ60の撮像画像がユーザーの右手又は左手の画像であると判別されると、さらに、当該撮像画像に、予め定められた人指し指の画像が含まれるかをパターンマッチング等の画像処理により判別することで、当該右手又は左手における特定の指、例えば人差し指を認識し、撮像画像における当該特定の指の位置座標を特定する。また、指位置特定部101は、特定の指の場合と同様に、当該特定の指以外の他の指(少なくとも、親指、中指など)を認識し、撮像画像における当該他の指の位置座標を特定する。
なお、上記のカメラ60及び指位置特定部101は、既知のジェスチャーセンサーで構成されるとしてもよい。既知のジェスチャーセンサーは、手の形及び動きを赤外線カメラによって撮像し、撮像した画像を画像処理モジュールにて処理し、3次元空間座標における各指の位置座標などを示す処理結果を取り出すことが可能である。この場合には、既知のジェスチャーセンサーの赤外線カメラがカメラ60に対応し、画像処理モジュールが指位置特定部101に対応する。また、赤外線カメラに替えてデプスカメラを採用した場合には、奥行き情報を用いることにより、より正確にハンドジェスチャーを特定することができる。
表示制御部102は、指位置特定部101により特定された特定の指(例えば、人差し指)の位置が対応する表示部473の表示画面上の対応位置にカーソルを表示させる。例えば、表示制御部102は、矩形状の撮像画像C1の座標位置を表示部473の矩形状の表示画面に投影するための既知の投影計算式を予め有しており、当該既知の投影計算式を用いて、指位置特定部101が特定した撮像画像C1中の人差し指の座標位置が対応する表示部473の表示画面上の対応位置を算出し、この算出した対応位置にカーソルを表示させる。
HDD92は、特定の指(例えば、人差し指)と他の指とが接触する動作を少なくとも含む予め定められた複数のハンドジェスチャーと、前記複数のハンドジェスチャー毎に対応付けられた各コマンドとを予め記憶している。
具体的には、HDD92は、図4に示すように、ハンドジェスチャーとコマンドとが対応付けられたデータテーブルTB1を予め記憶している。図4は、ハンドジェスチャーとコマンドとが対応付けられたデータテーブルの一例を示す図である。データテーブルTB1には、例えば、8種類のハンドジェスチャーと8種類のコマンドとが一対一に対応付けられている。
クリックハンドジェスチャーは、ユーザーの手の指などの移動軌跡が、人差し指と親指とを接触させて離す動作を示す軌跡であるハンドジェスチャーであり、クリック操作を示すコマンドが対応付けられている。また、ダブルクリックハンドジェスチャーは、ユーザーの手の指などの移動軌跡が、人差し指と親指とを接触させて離すことを2回素早く行う動作を示す軌跡であるハンドジェスチャーであり、ダブルクリック操作を示すコマンドが対応付けられている。
長押しハンドジェスチャーは、ユーザーの手の指などの移動軌跡が、人差し指と親指とを接触させた接触状態のままで動かさずに予め定められた時間以上継続された後に人差し指と親指とを離す動作を示す軌跡であるハンドジェスチャーであり、長押し操作を示すコマンドが対応付けられている。
ドラッグアンドドロップハンドジェスチャーは、ユーザーの手の指などの移動軌跡が、人差し指と親指とを接触させた接触状態とし、当該接触状態のままで移動先まで手を動かした後に人差し指と親指とを離す動作を示す軌跡であるハンドジェスチャーであり、ドラッグアンドドロップ操作を示すコマンドが対応付けられている。具体的には、ドラッグアンドドロップハンドジェスチャーは、人差し指と親指とを接触させた接触状態とし、当該接触状態のままで移動先まで手を動かすドラッグ動作を示すドラッグジェスチャーと、当該ドラッグジェスチャーをした後に当該移動先において人差し指と親指とを離すドロップ動作を示すドロップジェスチャーとからなる。
スワイプハンドジェスチャーは、ユーザーの手の指などの移動軌跡が、人差し指と親指とを接触させて一方の指を滑り方向に滑らす動作を示す軌跡であるハンドジェスチャーであり、スワイプ操作を示すコマンドが対応付けられている。
ピンチアウトハンドジェスチャーは、ユーザーの手の指などの移動軌跡が、人差し指と親指と中指とを接触させて人差し指だけを離す動作を示す軌跡であるハンドジェスチャーであり、ピンチアウト操作を示すコマンドが対応付けられている。また、ピンチインハンドジェスチャーは、ユーザーの手の指などの移動軌跡が、親指と中指とを接触させた状態として人差し指を親指又は中指に近づけるか又は接触させる動作を示す軌跡であるハンドジェスチャーであり、ピンチイン操作を示すコマンドが対応付けられている。
ローテートハンドジェスチャーは、ユーザーの手の指などの移動軌跡が、親指と中指とを接触させた状態とし、かつ、人差し指を親指及び中指から離した状態で、手首を右回り又は左回りに回す動作を示す軌跡であり、ローテート操作を示すコマンドが対応付けられている。
ハンドジェスチャー認識部103は、カメラ60から順次に得られる複数の撮像画像から、画像形成装置1の正面にいるユーザーのジェスチャーを認識する。より詳細には、ハンドジェスチャー認識部103は、カメラ60の撮像画像に含まれるユーザーの手を示す画像を判別し、カメラ60の撮像画像における当該判別した画像の手、特定の指及び他の指の移動軌跡を検出し、当該検出した移動軌跡が、HDD92に記憶された予め定められた複数のジェスチャーを示す各軌跡のいずれに一致するかを判定することで、ユーザーにより行われたジェスチャーを認識する。
コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得する。例えば、コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーがクリックハンドジェスチャーであれば、HDD92のデータテーブルTB1を用いて、クリックハンドジェスチャーに対応するコマンドとして、クリック操作を示すコマンドを取得する。
制御部100は、表示部473の表示画面上のカーソル位置に対して、コマンド取得部104により取得されたコマンドに対応する操作を行う。
次に、本発明の一実施形態に係る画像形成装置1によるハンドジェスチャー操作処理を説明する。図5は、画像形成装置によるハンドジェスチャー操作処理を示すフローチャートである。
まず、制御部100は、画像形成装置1の前方における一定範囲内にユーザーが存在するか否かを検知する(S1)。例えば、制御部100は、ユーザー検知センサー80からの検知信号が有れば(S1でYES)、ユーザーが存在すると判定する。一方、制御部100は、ユーザー検知センサー80からの検知信号が無ければ(S1でNO)、ユーザーが存在しないと判定し、S1に戻り、ユーザーを検知するまで待機する。
制御部100は、画像形成装置1の前方にユーザー有りと検知すると(S1でYES)、図6(A)に示すように、ハンドジェスチャーの選択確認画面を表示部473に表示させる(S2)。図6(A)は、画像形成装置の表示部に表示される選択確認画面の一例を示す図である。図6(A)に示す選択確認画面には、例えば「ハンドジェスチャー又は通常のタッチ操作を選択できます。」のメッセージM1と、「ハンドジェスチャー:手のひらをかざして」のメッセージM2と、「通常のタッチ操作:タッチ操作ボタンをタッチ」のメッセージM3とが表示される。メッセージM2は、ハンドジェスチャーによる操作の開始前に行われるキャリブレーションを促すメッセージである。
制御部100は、図6(A)に示す表示部473の表示画面に表示されたタッチ操作ボタンB1へのユーザーによるタッチ操作の有無を判定する(S3)。制御部100は、表示部473のタッチパネル機能により、タッチ操作ボタンB1のタッチ操作が検出されると(S3でYES)、通常の操作を選択する(S21)。つまり、制御部100は、ユーザーによる操作部47のハードキーの押下操作及び表示部473の表示画面へのタッチ操作を受け付け、ハンドジェスチャーによる操作を受け付けない。そして、制御部100は、表示部473のタッチパネル機能により、通常の操作の終了を示す図示しない終了ボタンのタッチ操作が検出されるか、又は、ユーザーが画像形成装置1から離れてユーザー検知センサー80にて非検知となると(S22でYES)、本処理を終了させる。なお、制御部100は、図示しない終了ボタンのタッチ操作が検出されず、かつ、ユーザーがユーザー検知センサー80にて検知が維持されているときに、通常の操作があれば(S22でNO)、通常の操作を受け付け、S22に戻る。
一方、S3において、制御部100は、タッチ操作ボタンB1のタッチ操作が検出されずに待機時間が経過した場合(S3でNO)、メッセージM2を表示部473に表示すると共に、カメラ60の撮像タイミングを報知するカウントダウン表示を表示部473に表示し、上記撮像タイミングにおいてカメラ60が撮像した撮像画像を取得する(S4)。ここでは、画像形成装置1の正面にいるユーザーが右手をひらいた状態で空中にかざしており、カメラ60がそれを撮像したとする。
図6(B)は、ハンドジェスチャーのキャリブレーション時にユーザーがかざした右手が撮像された撮像画像の一例を示す図である。図6(B)に示す撮像画像C1は、カメラ60にて撮像された画像であり、右手のひらを含む画像である。図6(B)に示す撮像画像C1は、右上角が座標(0,0)、左上角が座標(x,0)、右下角が座標(0,y)、左下角が座標(x,y)である。指位置特定部101は、撮像画像C1から、ユーザーの空中にかざした右手の人差し指F1、親指F2及び中指F3などの各指を特定すると共に、撮像画像C1中における人差し指F1、親指F2及び中指F3などの位置を特定する。
ハンドジェスチャー認識部103は、カメラ60の撮像画像C1に、手のひらをかざすという開始ジェスチャーが含まれているか否かを判定する(S5)。ここでは、ハンドジェスチャー認識部103は、カメラ60の撮像画像C1から、画像形成装置1の正面にいるユーザーの右手の手のひらが開いた状態であると認識し、開始ジェスチャーであると認識する(S5でYES)。表示制御部102は、後述する図8(B)に示すホーム画面を表示部473に表示させる。図8(B)に示すホーム画面は、ソフトキーとして、コピー機能を選択するためのキー61、送信機能を選択するためのキー62、ファクシミリ機能を選択するためのキー63、スキャン機能を選択するためのキー64、ジョブボックスを選択するためのキー65、及び、外部メモリーを選択するためのキー66等を含む。そして、指位置特定部101は、ユーザーが空中にかざした右手の人差し指を特定すると共に、撮像画像C1中における人差し指の座標位置を特定する。表示制御部102は、撮像画像C1中の人差し指の座標位置が対応する表示部473の表示画面上の対応位置を算出し、この算出した対応位置にカーソルCRを表示させる。
一方、S5において、ハンドジェスチャー認識部103が開始ジェスチャーでないと認識すると(S5でNO)、制御部100はS3に戻る。
そして、制御部100は、カメラ60の撮像画像を取得する(S6)。そして、指位置特定部101は、ユーザーが空中にかざした手の人差し指を特定すると共に、撮像画像中における人差し指の位置を特定する(S7)。図7(A)は、ユーザーの右手を空中で移動させている様子を示す図である。図7(B)は、図7(A)の場合の撮像画像を示す図である。図7(A)に示すように、空中にかざした右手H1の人差し指F1が撮像領域E1における位置Z1から位置Z2に移動したとする。図7(B)に示す撮像画像C1は、実線で示した右手H1の人差し指F1が位置Z1(m1,n1)に位置するときの画像である。図7(B)に示す撮像画像C2は、点線で示した右手H1の人差し指F1が位置Z2(m2,n2)に位置するときの画像である。指位置特定部101は、図7(B)に示す撮像画像C1,C2から、人差し指F1が撮像画像C1における位置Z1(m1,n1)から撮像画像C2における位置Z2(m2,n2)に移動したことを特定する。図8(A)は、図7(B)に示す撮像画像を左右反対に示した場合の図である。言い換えれば、図8(A)に示す撮像画像C1,C2は、ユーザー側から見た場合の画像である。
表示制御部102は、指位置特定部101により特定された人差し指の位置が対応する表示部473の表示画面上の対応位置にカーソルを表示させる(S8)。図8(B)は、図8(A)に示す人差し指の移動に伴ってカーソルが移動する場合の表示画面を示す図である。表示制御部102は、図8(B)に示すように、指位置特定部101により特定された人差し指の位置Z1が対応する表示部473の表示画面(ここではホーム画面)上の対応位置P1にカーソルCRを表示させ、人差し指F1の移動に伴ってカーソルCRを移動させ、指位置特定部101により特定された人差し指の位置Z2が対応する表示部473の表示画面(ホーム画面)上の対応位置P2にカーソルCRを表示させる。
制御部100は、人差し指の移動が停止したか否かを判定する(S9)。例えば、制御部100は、最新の撮像画像において指位置特定部101により特定された人差し指の位置と、直前の1枚又は予め定められた枚数の撮像画像において指位置特定部101により特定された人差し指の位置とを比較し、移動量が予め定められた規定値以下であれば、人差し指の移動が停止したと判定する。また、制御部100は、人差し指の加速度が規定加速度以下であれば、人差し指の移動が停止したと判定してもよい。
制御部100は、人差し指の移動が停止していないと判定すると(S9でNO)、S6に戻る。一方、ハンドジェスチャー認識部103は、制御部100において人差し指の移動が停止したと判定されると(S9でYES)、カメラ60から順次に得られる複数の撮像画像から、画像形成装置1の正面にいるユーザーのジェスチャーを認識する(S10)。ここでは、図8(A)に示すように、人差し指F1が撮像画像C2における位置Z2(m2,n2)で停止したとする。図8(B)で言えば、表示部473の表示画面上の対応位置P2、つまり、キー66上の位置でカーソルCRが停止したとする。なお、制御部100は、ホーム画面においてカーソルCRが停止した対応位置P2を示す情報を、RAM(又はHDD92)に記憶する。なお、制御部100は、撮像画像C2において人差し指F1が停止した位置Z2(m2,n2)を示す情報を、RAM(又はHDD92)に記憶してもよい。
ハンドジェスチャー認識部103は、人差し指F1の移動が停止した後、人差し指F1(特定の指)と親指F2(他の指)とが接触する動作が予め定められた時間(例えば、1秒)内にあった場合、ハンドジェスチャーとして認識し(S10でYES)、S11に進む。一方、ハンドジェスチャー認識部103は、人差し指F1の移動が停止した後、人差し指F1(特定の指)と親指F2(他の指)とが接触する動作が予め定められた時間(例えば、1秒)を超える場合、ハンドジェスチャーとして認識せず(S10でNO)、S6に戻る。
なお、ハンドジェスチャー認識部103は、人差し指F1の移動が停止した後、人差し指F1(特定の指)と親指F2(他の指)が接触するまでの移動速度又は移動加速度が閾値以上である場合、ハンドジェスチャーとして認識するとしてもよい。
ここでは、図9(A)に示すクリックハンドジェスチャーがあったとする。図9(A)に示すクリックハンドジェスチャーは、人差し指と親指とを接触させて離す動作を示すハンドジェスチャーである。
ハンドジェスチャー認識部103は、ハンドジェスチャーとして認識した場合(S10でYES)、カメラ60の複数の撮像画像から検出された、ユーザーの右手の人差し指F1(特定の指)と親指F2(他の指)とを素早く接触させて離す動作を示す移動軌跡が、HDD92に記憶された予め定められた複数のジェスチャーを示す各軌跡のいずれに一致するかを判定する(S11)。
ここでは、ハンドジェスチャー認識部103は、人差し指F1と親指F2とを素早く接触させて離す動作を示す移動軌跡が、HDD92に記憶されたクリックハンドジェスチャーが示す軌跡と一致すると判定する(S11でYES)。このため、ハンドジェスチャー認識部103は、ユーザーにより行われたジェスチャーがクリックハンドジェスチャーであると認識する。
なお、ハンドジェスチャー認識部103は、検出された移動軌跡が、HDD92に記憶された予め定められた複数のジェスチャーを示す各軌跡のいずれにも一致しない場合(S11でNO)、S6に戻る。
コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得する(S12)。ここで、コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーがクリックハンドジェスチャーであれば、図4に示すデータテーブルTB1を用いて、クリックハンドジェスチャーに対応するコマンドとして、クリック操作を示すコマンドを取得する。
制御部100は、RAM(又はHDD92)に記憶した情報、つまり、ホーム画面においてカーソルCRが停止した対応位置P2を示す情報を用いて、カーソルCRが停止した対応位置P2を特定する。すなわち、制御部100は、ハンドジェスチャーの直前のカーソルCRを特定する。そして、制御部100は、表示部473の表示画面上のカーソルCRの位置に対して、コマンド取得部104により取得されたコマンド(ここでは、クリック操作を示すコマンド)に対応する操作を行う(S13)。すなわち、制御部100は、図8(B)に示すキー66をクリック操作する制御を行う。
ところで、S10において、図9(B)に示すダブルクリックハンドジェスチャーがあった場合について説明する。図9(B)に示すダブルクリックハンドジェスチャーは、人差し指と親指とを接触させて離すことを2回素早く行う動作を示すハンドジェスチャーである。
ハンドジェスチャー認識部103は、ハンドジェスチャーとして認識した場合(S10でYES)、カメラ60の複数の撮像画像から検出された、ユーザーの右手の人差し指F1(特定の指)と親指F2(他の指)とを素早く接触させて離すことを2回行う動作を示す移動軌跡が、HDD92に記憶された予め定められた複数のジェスチャーを示す各軌跡のいずれに一致するかを判定する(S11)。
ここでは、ハンドジェスチャー認識部103は、人差し指F1と親指F2とを素早く接触させて離すことを2回素早く行う動作を示す移動軌跡が、HDD92に記憶されたダブルクリックハンドジェスチャーが示す軌跡と一致すると判定する(S11でYES)。このため、ハンドジェスチャー認識部103は、ユーザーにより行われたジェスチャーがダブルクリックハンドジェスチャーであると認識する。
コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得する(S12)。ここで、コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーがダブルクリックハンドジェスチャーであれば、図4に示すデータテーブルTB1を用いて、ダブルクリックハンドジェスチャーに対応するコマンドとして、ダブルクリック操作を示すコマンドを取得する。
制御部100は、RAM(又はHDD92)に記憶した情報、つまり、ホーム画面においてカーソルCRが停止した対応位置P2を示す情報を用いて、カーソルCRが停止した対応位置P2を特定する。すなわち、制御部100は、ハンドジェスチャーの直前のカーソルCRを特定する。そして、制御部100は、表示部473の表示画面上のカーソルCRの位置に対して、コマンド取得部104により取得されたコマンド(ここでは、ダブルクリック操作を示すコマンド)に対応する操作を行う(S13)。すなわち、制御部100は、図8(B)に示すキー66をダブルクリック操作する制御を行う。
ところで、S10において、図9(C)に示す長押しハンドジェスチャーがあった場合について説明する。図9(C)に示す長押しハンドジェスチャーは、人差し指と親指とを接触させた接触状態のままで動かさずに予め定められた時間(例えば、2秒)以上継続された後に人差し指と親指とを離す動作を示すハンドジェスチャーである。
ハンドジェスチャー認識部103は、ハンドジェスチャーとして認識した場合(S10でYES)、カメラ60の複数の撮像画像から検出された、ユーザーの右手の人差し指F1(特定の指)と親指F2(他の指)とを接触させた接触状態のままで動かさずに予め定められた時間(例えば、2秒)以上継続された後に人差し指F1と親指F2とを離す動作を示す移動軌跡が、HDD92に記憶された予め定められた複数のジェスチャーを示す各軌跡のいずれに一致するかを判定する(S11)。
ここでは、ハンドジェスチャー認識部103は、上記の移動軌跡が、HDD92に記憶された長押しハンドジェスチャーが示す軌跡と一致すると判定する(S11でYES)。このため、ハンドジェスチャー認識部103は、ユーザーにより行われたジェスチャーが長押しハンドジェスチャーであると認識する。
コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得する(S12)。ここで、コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーが長押しハンドジェスチャーであれば、図4に示すデータテーブルTB1を用いて、長押しハンドジェスチャーに対応するコマンドとして、長押し操作を示すコマンドを取得する。
制御部100は、RAM(又はHDD92)に記憶した情報、つまり、ホーム画面においてカーソルCRが停止した対応位置P2を示す情報を用いて、カーソルCRが停止した対応位置P2を特定する。すなわち、制御部100は、ハンドジェスチャーの直前のカーソルCRを特定する。そして、制御部100は、表示部473の表示画面上のカーソルCRの位置に対して、コマンド取得部104により取得されたコマンド(ここでは、長押し操作を示すコマンド)に対応する操作を行う(S13)。すなわち、制御部100は、図8(B)に示すキー66を長押し操作する制御を行う。
ところで、S10において、図10(A)に示すドラッグアンドドロップハンドジェスチャーがあった場合について説明する。図10(A)は、ドラッグアンドドロップハンドジェスチャーを示す図である。図10(B)は、図10(A)の場合にカーソルが移動してドラッグアンドドロップ操作される表示画面を示す図である。図10(A)に示すドラッグアンドドロップハンドジェスチャーは、人差し指と親指とを接触させた接触状態とし、当該接触状態のままで移動先まで手を動かした後に人差し指と親指とを離す動作を示すハンドジェスチャーである。
ハンドジェスチャー認識部103は、ハンドジェスチャーとして認識した場合(S10でYES)、カメラ60の複数の撮像画像から検出された、ユーザーの右手の人差し指F1(特定の指)と親指F2(他の指)とを接触させた接触状態とし、当該接触状態のままで移動先まで手を動かす動作を示す移動軌跡が、HDD92に記憶された予め定められた複数のジェスチャーを示す各軌跡のいずれに一致するかを判定する(S11)。
ここでは、ハンドジェスチャー認識部103は、上記の移動軌跡が、HDD92に記憶されたドラッグアンドドロップハンドジェスチャーのドラッグジェスチャーが示す軌跡と一致すると判定する(S11でYES)。このため、ハンドジェスチャー認識部103は、ユーザーにより行われたジェスチャーがドラッグアンドドロップハンドジェスチャーのドラッグジェスチャーであると認識する。
コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得する(S12)。ここでは、コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーがドラッグアンドドロップハンドジェスチャーのドラッグジェスチャーであれば、図4に示すデータテーブルTB1を用いて、ドラッグジェスチャーに対応するコマンドとして、ドラッグ操作を示すドラッグコマンドを取得する。
制御部100は、RAM(又はHDD92)に記憶した情報、つまり、ホーム画面においてカーソルCRが停止した対応位置P2を示す情報を用いて、カーソルCRが停止した対応位置P2を特定する。すなわち、制御部100は、ハンドジェスチャーの直前のカーソルCRを特定する。そして、制御部100は、表示部473の表示画面上のカーソルCRの位置を、人差し指F1と親指F2とを接触させた位置である開始角部SP1とし、当該接触状態のままで移動させて停止した位置である移動先を、開始角部SP1を一端とする対角線の他端に位置する終点角部SP2とし、開始角部SP1と終点角部SP2とからなる矩形状範囲A1を選択するドラッグ操作を行う(S13)。すなわち、制御部100は、図10(B)に示す矩形状範囲A1を選択するドラッグ操作する制御を行う。
そして、S13のあと、制御部100は、ハンドジェスチャーの終了の有無を判定する(S14)。ここでは、ユーザーの右手H1がサムズアップとされていないので(S14でNO)、上記S6~S10の処理を経て、S11の処理に進む。
このS11では、ハンドジェスチャー認識部103は、終点角部SP2において、ユーザーの右手の人差し指F1と親指F2とを離す動作を示す移動軌跡が、HDD92に記憶されたドラックアンドドロップハンドジェスチャーのドロップジェスチャーが示す軌跡と一致すると判定したとする(S11でYES)。このため、ハンドジェスチャー認識部103は、ユーザーにより行われたジェスチャーがドラッグアンドドロップハンドジェスチャーのドロップジェスチャーであると認識する。
コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得する(S12)。ここでは、コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーがドラッグアンドドロップハンドジェスチャーのドロップジェスチャーであれば、図4に示すデータテーブルTB1を用いて、ドラッグアンドドロップジェスチャーに対応するコマンドとして、ドロップ操作を示すドロップコマンドを取得する。
制御部100は、図10(B)に示す矩形状範囲A1を指定するドロップ操作する制御を行う。すなわち、制御部100は、図10(B)に示す開始角部SP1と終点角部SP2とからなる矩形状範囲A1を選択するドラッグ操作と、矩形状範囲A1を指定するドロップ操作とからなるドラッグアンドドロップ操作する制御を行う。
ところで、S10において、図11(A)に示すスワイプハンドジェスチャーがあった場合について説明する。図11(A)は、スワイプハンドジェスチャーを示す図である。図11(A)に示すスワイプハンドジェスチャーは、人差し指と親指とを接触させて一方の指(ここでは人差し指)を滑り方向D1に滑らす動作を示すハンドジェスチャーである。
ハンドジェスチャー認識部103は、ハンドジェスチャーとして認識した場合(S10でYES)、カメラ60の複数の撮像画像から検出された、ユーザーの右手の人差し指F1(特定の指)と親指F2(他の指)とを接触させて人差し指F1を滑り方向D1に滑らす動作を示す移動軌跡が、HDD92に記憶された予め定められた複数のジェスチャーを示す各軌跡のいずれに一致するかを判定する(S11)。
ここでは、ハンドジェスチャー認識部103は、上記の移動軌跡が、HDD92に記憶されたスワイプハンドジェスチャーが示す軌跡と一致すると判定する(S11でYES)。このため、ハンドジェスチャー認識部103は、ユーザーにより行われたジェスチャーがスワイプハンドジェスチャーであると認識する。
図11(B)は、表示部に個別に表示される第1画面用画像及び第2画面用画像がスワイプ方向に並べられた長尺画像における第2画面用画像が表示部に表示されている状態を示す図である。図11(B)に示すように、長尺画像LGは、第1画面用画像FS及び第2画面用画像SSが縦方向(スワイプ方向)に並べられた長尺状の画像である。表示部473には、長尺画像LGのうちの第2画面用画像SSが表示されている。
コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得する(S12)。ここで、コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーがスワイプハンドジェスチャーであれば、図4に示すデータテーブルTB1を用いて、スワイプハンドジェスチャーに対応するコマンドとして、スワイプ操作を示すコマンドを取得する。
制御部100は、RAM(又はHDD92)に記憶した情報、つまり、ホーム画面においてカーソルCRが停止した対応位置P2を示す情報を用いて、カーソルCRが停止した対応位置P2を特定する。すなわち、制御部100は、ハンドジェスチャーの直前のカーソルCRを特定する。そして、制御部100は、表示部473の表示画面上のカーソルCRの位置に対して、コマンド取得部104により取得されたコマンド(ここでは、スワイプ操作を示すコマンド)に対応する操作を行う(S13)。すなわち、制御部100は、図11(C)に示す表示画面をスワイプ操作する制御を行う。図11(C)は、スワイプハンドジェスチャーによりスワイプされて表示部に表示された第1画面を示す図である。表示部473の表示画面が、図11(B)に示す第2画面用画像SSから滑り方向D1と同じ方向であるスワイプ方向D2に移動されて、図11(C)に示す第1画面用画像FSが表示される。
ところで、S10において、図12(A)に示すピンチアウトハンドジェスチャーがあった場合について説明する。図12(A)は、ピンチアウトハンドジェスチャーを示す図である。図12(A)に示すピンチアウトハンドジェスチャーは、人差し指F1と親指F2と中指F3とを接触させて人差し指F1だけを離す動作を示すハンドジェスチャーである。
ハンドジェスチャー認識部103は、ハンドジェスチャーとして認識した場合(S10でYES)、カメラ60の複数の撮像画像から検出された、ユーザーの右手の人差し指F1と親指F2と中指F3とを接触させて人差し指F1だけを離す動作を示す移動軌跡が、HDD92に記憶された予め定められた複数のジェスチャーを示す各軌跡のいずれに一致するかを判定する(S11)。
ここでは、ハンドジェスチャー認識部103は、上記の移動軌跡が、HDD92に記憶されたピンチアウトハンドジェスチャーが示す軌跡と一致すると判定する(S11でYES)。このため、ハンドジェスチャー認識部103は、ユーザーにより行われたジェスチャーがピンチアウトハンドジェスチャーであると認識する。
コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得する(S12)。ここで、コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーがピンチアウトハンドジェスチャーであれば、図4に示すデータテーブルTB1を用いて、ピンチアウトハンドジェスチャーに対応するコマンドとして、ピンチアウト操作を示すコマンドを取得する。
制御部100は、RAM(又はHDD92)に記憶した情報、つまり、ホーム画面においてカーソルCRが停止した対応位置P2を示す情報を用いて、カーソルCRが停止した対応位置P2を特定する。すなわち、制御部100は、ハンドジェスチャーの直前のカーソルCRを特定する。そして、制御部100は、表示部473の表示画面上のカーソルCRの位置に対して、コマンド取得部104により取得されたコマンド(ここでは、ピンチアウト操作を示すコマンド)に対応する操作を行う(S13)。すなわち、制御部100は、表示部473の表示画面のカーソルCRを中心に、当該表示画面の中心部分を拡大表示させるピンチアウト操作する制御を行う。
ところで、S10において、図12(B)に示すピンチインハンドジェスチャーがあった場合について説明する。図12(B)は、ピンチインハンドジェスチャーを示す図である。図12(B)に示すピンチインハンドジェスチャーは、親指F2と中指F3とを接触させた状態で人差し指F1を親指F2又は中指F3に近づけるか又は接触させる動作を示すハンドジェスチャーである。
ハンドジェスチャー認識部103は、ハンドジェスチャーとして認識した場合(S10でYES)、カメラ60の複数の撮像画像から検出された、ユーザーの右手の親指F2と中指F3とを接触させて人差し指F1を親指F2又は中指F3に近づけるか又は接触させる動作を示す移動軌跡が、HDD92に記憶された予め定められた複数のジェスチャーを示す各軌跡のいずれに一致するかを判定する(S11)。
ここでは、ハンドジェスチャー認識部103は、上記の移動軌跡が、HDD92に記憶されたピンチインハンドジェスチャーが示す軌跡と一致すると判定する(S11でYES)。このため、ハンドジェスチャー認識部103は、ユーザーにより行われたジェスチャーがピンチインハンドジェスチャーであると認識する。
コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得する(S12)。ここで、コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーがピンチインハンドジェスチャーであれば、図4に示すデータテーブルTB1を用いて、ピンチインハンドジェスチャーに対応するコマンドとして、ピンチイン操作を示すコマンドを取得する。
制御部100は、RAM(又はHDD92)に記憶した情報、つまり、ホーム画面においてカーソルCRが停止した対応位置P2を示す情報を用いて、カーソルCRが停止した対応位置P2を特定する。すなわち、制御部100は、ハンドジェスチャーの直前のカーソルCRを特定する。そして、制御部100は、表示部473の表示画面上のカーソルCRの位置に対して、コマンド取得部104により取得されたコマンド(ここでは、ピンチイン操作を示すコマンド)に対応する操作を行う(S13)。すなわち、制御部100は、表示部473の表示画面のカーソルCRを中心に、当該表示画面を縮小表示させるピンチイン操作する制御を行う。
ところで、S10において、図12(C)に示すローテートハンドジェスチャーがあった場合について説明する。図12(C)は、ローテートハンドジェスチャーを示す図である。図12(C)に示すローテートハンドジェスチャーは、親指F2と中指F3とを接触させた状態とし、かつ、人差し指F1を親指F2及び中指F3から離した状態で、手首を右回り又は左回りに回す動作を示すハンドジェスチャーである。
ハンドジェスチャー認識部103は、ハンドジェスチャーとして認識した場合(S10でYES)、カメラ60の複数の撮像画像から検出された、ユーザーの右手の親指F2と中指F3とを接触させた状態とし、かつ、人差し指F1を親指F2及び中指F3から離した状態で、手首を右回り又は左回りに回す動作を示す移動軌跡が、HDD92に記憶された予め定められた複数のジェスチャーを示す各軌跡のいずれに一致するかを判定する(S11)。
ここでは、ハンドジェスチャー認識部103は、上記の移動軌跡が、HDD92に記憶されたローテートハンドジェスチャーが示す軌跡と一致すると判定する(S11でYES)。このため、ハンドジェスチャー認識部103は、ユーザーにより行われたジェスチャーがローテートハンドジェスチャーであると認識する。
コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーに対応付けられたコマンドをHDD92から取得する(S12)。ここで、コマンド取得部104は、ハンドジェスチャー認識部103が認識したハンドジェスチャーがローテートハンドジェスチャーであれば、図4に示すデータテーブルTB1を用いて、ローテートハンドジェスチャーに対応するコマンドとして、ローテート操作を示すコマンドを取得する。
制御部100は、RAM(又はHDD92)に記憶した情報、つまり、ホーム画面においてカーソルCRが停止した対応位置P2を示す情報を用いて、カーソルCRが停止した対応位置P2を特定する。すなわち、制御部100は、ハンドジェスチャーの直前のカーソルCRを特定する。そして、制御部100は、表示部473の表示画面上のカーソルCRの位置に対して、コマンド取得部104により取得されたコマンド(ここでは、ローテート操作を示すコマンド)に対応する操作を行う(S13)。すなわち、制御部100は、表示部473の表示画面のカーソルCRを中心として、右手首を右回りとした場合には右回りのローテート操作する制御を行い、右手首を左回りとした場合には左回りのローテート操作する制御を行う。
図5に戻って、S13のあと、制御部100は、ハンドジェスチャーの終了の有無を判定する(S14)。例えば、ユーザーの右手H1がサムズアップとされたとする。制御部100は、ハンドジェスチャー認識部103がカメラ60の撮像画像から、ユーザーの右手H1がサムズアップであるハンドジェスチャーを認識するか、又は、ユーザーが画像形成装置1から離れてユーザー検知センサー80にて非検知となると、ハンドジェスチャーの終了と判定し(S14でYES)、本処理を終了させる。なお、制御部100は、サムズアップのハンドジェスチャーが検出されず、かつ、ユーザーがユーザー検知センサー80にて検知が維持されている場合(S14でNO)、S6に進む。
このように本実施形態に係る画像形成装置1によれば、特定の指(人差し指F1)と他の指(親指F2)とが接触する動作を含むハンドジェスチャーを認識することができる。ユーザーが空中にかざした手によるジェスチャーは、特定の指と他の指とが接触する動作を含むものであり、特定の指と他の指とが接触する触感が得られるハンドジェスチャーとすることができる。言い換えれば、特定の指又は他の指をタッチパネル面と見立てて操作するという触感が得られることから、ハンドジェスチャーによる操作について実感を伴わせることができる。このため、ハンドジェスチャーによる操作の不安定さを解消できる。したがって、操作ミスを低減することができる。
また、制御部100は、コマンド取得部104によりクリック操作を示すコマンドが取得されると、表示部473の表示画面上のカーソル位置をクリック操作する制御を行う。すなわち、ユーザーによるクリックハンドジェスチャーがあると、表示部473の表示画面上のカーソル位置がクリック操作される。このため、人差し指F1又は親指F2をタッチパネル面と見立てて操作するという触感が得られることから、クリックハンドジェスチャーによる操作について実感を伴わせることができる。このため、クリックハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減することができる。
また、制御部100は、コマンド取得部104によりダブルクリック操作を示すコマンドが取得されると、表示部473の表示画面上のカーソル位置をダブルクリック操作する制御を行う。すなわち、ユーザーによるダブルクリックハンドジェスチャーがあると、表示部473の表示画面上のカーソル位置がダブルクリック操作される。このため、人差し指F1又は親指F2をタッチパネル面と見立てて操作するという触感が得られることから、ダブルクリックハンドジェスチャーによる操作について実感を伴わせることができる。このため、ダブルクリックハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減することができる。
また、制御部100は、コマンド取得部104により長押し操作を示すコマンドが取得されると、表示部473の表示画面上のカーソル位置を長押し操作する制御を行う。すなわち、ユーザーによる長押しハンドジェスチャーがあると、表示部473の表示画面上のカーソル位置が長押し操作される。このため、人差し指F1又は親指F2をタッチパネル面と見立てて操作するという触感が得られることから、長押しハンドジェスチャーによる操作について実感を伴わせることができる。このため、長押しハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減することができる。
また、制御部100は、コマンド取得部104によりドラッグコマンドが取得されると、表示部473の表示画面上のカーソル位置を開始角部SP1とし、移動先を、前記開始角部SP1を一端とする対角線の他端に位置する終点角部SP2とする矩形状範囲A1を選択し、コマンド取得部104によりドロップコマンドが取得されると、矩形状範囲A1を指定するドラッグアンドドロップ操作する制御を行う。すなわち、ユーザーによるドラッグアンドドロップハンドジェスチャー(ドラッグジェスチャー及びドロップジェスチャーからなる)があると、表示部473の表示画面上のカーソル位置から移動先までの矩形状範囲A1を指定するドラッグアンドドロップ操作が行われる。このため、人差し指F1又は親指F2をタッチパネル面と見立てて操作するという触感が得られることから、ドラッグアンドドロップハンドジェスチャーによる操作について実感を伴わせることができる。このため、ドラッグアンドドロップハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減することができる。
また、制御部100は、コマンド取得部104によりスワイプ操作を示すコマンドが取得されると、表示部473の表示画面を滑り方向に移動させるスワイプ操作する制御を行う。すなわち、ユーザーによるスワイプハンドジェスチャーがあると、表示部473の表示画面を滑り方向に移動させるスワイプ操作が行われる。このため、人差し指F1又は親指F2をタッチパネル面と見立てて操作するという触感が得られることから、スワイプハンドジェスチャーによる操作について実感を伴わせることができる。このため、スワイプハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減することができる。
また、制御部100は、コマンド取得部104によりピンチアウト操作を示すコマンドが取得されると、表示部473の表示画面上のカーソル位置を中心としてピンチアウト操作する制御を行う。すなわち、ユーザーによるピンチアウトハンドジェスチャーがあると、表示部473の表示画面上のカーソル位置を中心としてピンチアウト操作が行われる。このため、人差し指F1と親指F2と中指F3とを接触させて人差し指F1だけを離すという触感が得られることから、ピンチアウトハンドジェスチャーによる操作について実感を伴わせることができる。このため、ピンチアウトハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減することができる。
また、制御部100は、コマンド取得部104によりピンチイン操作を示すコマンドが取得されると、表示部473の表示画面上のカーソル位置を中心としてピンチイン操作する制御を行う。すなわち、ユーザーによるピンチインハンドジェスチャーがあると、表示部473の表示画面上のカーソル位置を中心としてピンチイン操作が行われる。このため、親指F2と中指F3とをタッチパネル面と見立てて操作するという触感が得られることから、ピンチインハンドジェスチャーによる操作について実感を伴わせることができる。このため、ピンチインハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減することができる。
また、制御部100は、コマンド取得部104によりローテート操作を示すコマンドが取得されると、表示部473の表示画面上のカーソル位置を中心として表示画面をローテートさせるローテート操作する制御を行う。すなわち、ユーザーによるローテートハンドジェスチャーがあると、表示部473の表示画面上のカーソル位置を中心としてローテート操作が行われる。このため、親指F2と中指F3とを接触させるという触感が得られることから、ローテートハンドジェスチャーによる操作について実感を伴わせることができる。このため、ローテートハンドジェスチャーによる操作の不安定さを解消でき、操作ミスを低減することができる。
また、ハンドジェスチャー認識部103は、特定の指の移動が停止した後、特定の指(人差し指F1)と他の指(親指F2)とが接触する動作が予め定められた時間内にあった場合、又は、特定の指と他の指とが接触するまでの移動速度又は移動加速度が閾値以上である場合、ハンドジェスチャーとして認識する。このため、特定の指と他の指とが接触する触感が得られるハンドジェスチャーを正確に認識することができる。
なお、本発明は上記実施の形態の構成に限られず種々の変形が可能である。例えば、上記実施形態では、電子機器として画像形成装置1を例示しているが、画像形成装置1以外のパーソナルコンピューター、サーバー、携帯情報端末などの電子機器に広く適用が可能である。
また、上記実施形態では、ユーザーの右手でハンドジェスチャーを行っているが、左手であっても構わない。
また、上記実施形態において、図1乃至図12(C)を用いて上記実施形態により示した構成及び処理は、本発明の一実施形態に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。
1 画像形成装置
60 カメラ
92 HDD(記憶部)
100 制御部
101 指位置特定部
102 表示制御部
103 ジェスチャー認識部
104 コマンド取得部
473 表示部

Claims (11)

  1. 表示部と、
    ユーザーの空中にかざした手を撮像するカメラと、
    前記カメラの撮像画像から前記ユーザーの空中にかざした手における特定の指を特定すると共に、前記撮像画像中における前記特定の指の位置を特定する指位置特定部と、
    前記指位置特定部により特定された前記特定の指の位置が対応する前記表示部の表示画面上の対応位置にカーソルを表示させる表示制御部と、
    前記特定の指と他の指とが接触する動作を少なくとも含む予め定められた複数のハンドジェスチャーと、前記複数のハンドジェスチャー毎に対応付けられた各コマンドとを予め記憶する記憶部と、
    前記カメラから順次に得られる複数の撮像画像からハンドジェスチャーを認識するハンドジェスチャー認識部と、
    前記ハンドジェスチャー認識部が認識した前記ハンドジェスチャーに対応付けられたコマンドを前記記憶部から取得するコマンド取得部と、
    前記表示部の表示画面上のカーソル位置に対して、前記コマンド取得部により取得された前記コマンドに対応する操作を行う制御部と、を備える電子機器。
  2. 前記特定の指は人差し指であり、前記他の指は親指であり、
    前記記憶部は、前記複数のハンドジェスチャーうちの1つのハンドジェスチャーとして、人差し指と親指とを接触させて離す動作を示すクリックハンドジェスチャーを記憶し、前記クリックハンドジェスチャーに対応付けられた前記コマンドとして、クリック操作を示すコマンドを記憶し、
    前記コマンド取得部は、前記ハンドジェスチャー認識部が認識した前記クリックハンドジェスチャーに対応付けられたコマンドを前記記憶部から取得し、
    前記制御部は、前記コマンド取得部により前記クリック操作を示すコマンドが取得されると、前記表示部の表示画面上のカーソル位置をクリック操作する制御を行う請求項1に記載の電子機器。
  3. 前記特定の指は人差し指であり、前記他の指は親指であり、
    前記記憶部は、前記複数のハンドジェスチャーうちの1つのハンドジェスチャーとして、人差し指と親指とを接触させて離すことを2回素早く行う動作を示すダブルクリックハンドジェスチャーを記憶し、前記ダブルクリックハンドジェスチャーに対応付けられた前記コマンドとして、ダブルクリック操作を示すコマンドを記憶し、
    前記コマンド取得部は、前記ハンドジェスチャー認識部が認識した前記ダブルクリックハンドジェスチャーに対応付けられたコマンドを前記記憶部から取得し、
    前記制御部は、前記コマンド取得部により前記ダブルクリック操作を示すコマンドが取得されると、前記表示部の表示画面上のカーソル位置をダブルクリック操作する制御を行う請求項1に記載の電子機器。
  4. 前記特定の指は人差し指であり、前記他の指は親指であり、
    前記記憶部は、前記複数のハンドジェスチャーうちの1つのハンドジェスチャーとして、人差し指と親指とを接触させた接触状態のままで動かさずに予め定められた時間以上継続された後に人差し指と親指とを離す動作を示す長押しハンドジェスチャーを記憶し、前記長押しハンドジェスチャーに対応付けられた前記コマンドとして、長押し操作を示すコマンドを記憶し、
    前記コマンド取得部は、前記ハンドジェスチャー認識部が認識した前記長押しハンドジェスチャーに対応付けられたコマンドを前記記憶部から取得し、
    前記制御部は、前記コマンド取得部により前記長押し操作を示すコマンドが取得されると、前記表示部の表示画面上のカーソル位置を長押し操作する制御を行う請求項1に記載の電子機器。
  5. 前記特定の指は人差し指であり、前記他の指は親指であり、
    前記記憶部は、前記複数のハンドジェスチャーうちの1つのハンドジェスチャーとして、人差し指と親指とを接触させた接触状態とし、当該接触状態のままで移動先まで手を動かすドラッグ動作を示すドラッグジェスチャー及び当該ドラッグジェスチャーをした後に当該移動先において人差し指と親指とを離すドロップ動作を示すドロップジェスチャーからなるドラッグアンドドロップジェスチャーを記憶し、前記ドラッグアンドドロップハンドジェスチャーに対応付けられた前記コマンドとして、ドラッグ操作を示すドラッグコマンドとドロップ操作を示すドロップコマンドを記憶し、
    前記コマンド取得部は、前記ハンドジェスチャー認識部が認識した前記ドラッグアンドドロップハンドジェスチャーに対応付けられた前記ドラッグコマンド及び前記ドロップコマンドを順次に前記記憶部から取得し、
    前記制御部は、前記コマンド取得部により前記ドラッグコマンドが取得されると、前記表示部の表示画面上のカーソル位置を開始角部とし、前記移動先を、前記開始角部を一端とする対角線の他端に位置する終点角部とする矩形状範囲を選択し、前記コマンド取得部により前記ドロップコマンドが取得されると、前記矩形状範囲を指定するドラッグアンドドロップ操作する制御を行う請求項1に記載の電子機器。
  6. 前記特定の指は人差し指であり、前記他の指は親指であり、
    前記記憶部は、前記複数のハンドジェスチャーうちの1つのハンドジェスチャーとして、人差し指と親指とを接触させて一方の指を滑り方向に滑らす動作を示すスワイプハンドジェスチャーを記憶し、前記スワイプハンドジェスチャーに対応付けられた前記コマンドとして、スワイプ操作を示すコマンドを記憶し、
    前記コマンド取得部は、前記ハンドジェスチャー認識部が認識した前記スワイプハンドジェスチャーに対応付けられたコマンドを前記記憶部から取得し、
    前記制御部は、前記コマンド取得部により前記スワイプ操作を示すコマンドが取得されると、前記表示部の表示画面を前記滑り方向に移動させるスワイプ操作する制御を行う請求項1に記載の電子機器。
  7. 前記特定の指は人差し指であり、前記他の指は親指及び中指を含み、
    前記記憶部は、前記複数のハンドジェスチャーうちの1つのハンドジェスチャーとして、人差し指と親指と中指とを接触させて人差し指だけを離す動作を示すピンチアウトハンドジェスチャーを記憶し、前記ピンチアウトハンドジェスチャーに対応付けられた前記コマンドとして、ピンチアウト操作を示すコマンドを記憶し、
    前記コマンド取得部は、前記ハンドジェスチャー認識部が認識した前記ピンチアウトハンドジェスチャーに対応付けられたコマンドを前記記憶部から取得し、
    前記制御部は、前記コマンド取得部により前記ピンチアウト操作を示すコマンドが取得されると、前記表示部の表示画面上のカーソル位置を中心としてピンチアウト操作する制御を行う請求項1に記載の電子機器。
  8. 前記特定の指は人差し指であり、前記他の指は親指及び中指を含み、
    前記記憶部は、前記複数のハンドジェスチャーうちの1つのハンドジェスチャーとして、親指と中指とを接触させた状態として人差し指を親指又は中指に近づけるか又は接触させる動作を示すピンチインハンドジェスチャーを記憶し、前記ピンチインハンドジェスチャーに対応付けられた前記コマンドとして、ピンチイン操作を示すコマンドを記憶し、
    前記コマンド取得部は、前記ハンドジェスチャー認識部が認識した前記ピンチインハンドジェスチャーに対応付けられたコマンドを前記記憶部から取得し、
    前記制御部は、前記コマンド取得部により前記ピンチイン操作を示すコマンドが取得されると、前記表示部の表示画面上のカーソル位置を中心としてピンチイン操作する制御を行う請求項1に記載の電子機器。
  9. 前記特定の指は人差し指であり、前記他の指は親指及び中指を含み、
    前記記憶部は、前記複数のハンドジェスチャーうちの1つのハンドジェスチャーとして、親指と中指とを接触させた状態とし、かつ、人差し指を親指及び中指から離した状態で、手首を右回り又は左回りに回す動作を示すローテートハンドジェスチャーを記憶し、前記ローテートハンドジェスチャーに対応付けられた前記コマンドとして、ローテート操作を示すコマンドを記憶し、
    前記コマンド取得部は、前記ハンドジェスチャー認識部が認識した前記ローテートハンドジェスチャーに対応付けられたコマンドを前記記憶部から取得し、
    前記制御部は、前記コマンド取得部により前記ローテート操作を示すコマンドが取得されると、前記表示部の表示画面上のカーソル位置を中心としてローテート操作する制御を行う請求項1に記載の電子機器。
  10. 前記ハンドジェスチャー認識部は、前記特定の指の移動が停止した後、前記特定の指と前記他の指とが接触する動作が予め定められた時間内にあった場合、又は、前記特定の指と他の指とが接触するまでの移動速度又は移動加速度が閾値以上である場合、前記ハンドジェスチャーとして認識する請求項1乃至請求項9の何れか1項に記載の電子機器。
  11. 請求項1乃至請求項10の何れかに記載の電子機器と、
    記録媒体に画像を形成する画像形成部と、を備える画像形成装置。
JP2020199779A 2020-12-01 2020-12-01 電子機器および画像形成装置 Pending JP2022087700A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020199779A JP2022087700A (ja) 2020-12-01 2020-12-01 電子機器および画像形成装置
US17/532,444 US11816270B2 (en) 2020-12-01 2021-11-22 Electronic device that operates according to user's hand gesture, and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020199779A JP2022087700A (ja) 2020-12-01 2020-12-01 電子機器および画像形成装置

Publications (1)

Publication Number Publication Date
JP2022087700A true JP2022087700A (ja) 2022-06-13

Family

ID=81752550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020199779A Pending JP2022087700A (ja) 2020-12-01 2020-12-01 電子機器および画像形成装置

Country Status (2)

Country Link
US (1) US11816270B2 (ja)
JP (1) JP2022087700A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11948266B1 (en) 2022-09-09 2024-04-02 Snap Inc. Virtual object manipulation with gestures in a messaging system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4977162B2 (ja) 2009-03-30 2012-07-18 株式会社東芝 情報処理装置、コマンド実行制御方法及びコマンド実行制御プログラム
KR101184460B1 (ko) * 2010-02-05 2012-09-19 연세대학교 산학협력단 마우스 포인터 제어 장치 및 방법
US20150220149A1 (en) * 2012-02-14 2015-08-06 Google Inc. Systems and methods for a virtual grasping user interface
US9880629B2 (en) * 2012-02-24 2018-01-30 Thomas J. Moscarillo Gesture recognition devices and methods with user authentication
KR101791366B1 (ko) * 2012-03-26 2017-10-27 애플 인크. 증강된 가상 터치패드 및 터치스크린
AU2013205613B2 (en) * 2012-05-04 2017-12-21 Samsung Electronics Co., Ltd. Terminal and method for controlling the same based on spatial interaction
EP2891950B1 (en) * 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
US11221680B1 (en) * 2014-03-01 2022-01-11 sigmund lindsay clements Hand gestures used to operate a control panel for a device
WO2019120290A1 (zh) * 2017-12-22 2019-06-27 北京市商汤科技开发有限公司 动态手势识别方法和装置、手势交互控制方法和装置
WO2019178114A1 (en) * 2018-03-13 2019-09-19 Magic Leap, Inc. Gesture recognition system and method of using same
US20190377423A1 (en) * 2018-06-12 2019-12-12 Gergely Marton User interface controlled by hand gestures above a desktop or a keyboard
US10990240B1 (en) * 2019-06-07 2021-04-27 Facebook Technologies, Llc Artificial reality system having movable application content items in containers
WO2022056036A2 (en) * 2020-09-11 2022-03-17 Apple Inc. Methods for manipulating objects in an environment
US11562528B2 (en) * 2020-09-25 2023-01-24 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Also Published As

Publication number Publication date
US20220171468A1 (en) 2022-06-02
US11816270B2 (en) 2023-11-14

Similar Documents

Publication Publication Date Title
JP5874465B2 (ja) 情報処理装置、画像形成装置、情報処理装置の制御方法、画像形成装置の制御方法、情報処理装置の制御プログラム、及び画像形成装置の制御プログラム
JP5545497B2 (ja) 入力表示装置、画像形成装置、撮像装置、及びプログラム
US9648181B2 (en) Touch panel device and image processing apparatus
WO2015159548A1 (ja) 投影制御装置、投影制御方法及び投影制御プログラムを記録した記録媒体
CN104915110A (zh) 显示控制装置及显示控制方法
JP5854237B2 (ja) 画像処理システム、画像処理装置、携帯情報端末およびプログラム
JP2018129765A (ja) 撮像装置及びその制御方法
JP5657471B2 (ja) デジタルプラットフォーム装置
JP2022087700A (ja) 電子機器および画像形成装置
US20220241681A1 (en) Input apparatus for a games console
JP6245690B2 (ja) 画像形成装置
JP6737239B2 (ja) 表示装置及び表示制御プログラム
JP2013152529A (ja) 情報処理装置及びその制御方法
JP5831852B2 (ja) 装置
US20160156793A1 (en) Operation display apparatus and input method thereto
US10708445B2 (en) Information processing apparatus and non-transitory computer readable medium
CN107533361B (zh) 图像形成装置
JP6213581B2 (ja) 情報処理装置及び情報処理装置の制御プログラム
JP7007805B2 (ja) 表示制御装置及びその制御方法
JP6562832B2 (ja) 電子機器およびその制御方法
JP6176284B2 (ja) 操作表示システム、操作表示装置および操作表示プログラム
JP6098752B1 (ja) 情報処理装置およびプログラム
JP6179785B2 (ja) 操作表示装置 プログラム
JP6435869B2 (ja) 操作表示装置、操作表示システム
JP6758994B2 (ja) 電子機器およびその制御方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128