JP2019046252A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2019046252A
JP2019046252A JP2017169617A JP2017169617A JP2019046252A JP 2019046252 A JP2019046252 A JP 2019046252A JP 2017169617 A JP2017169617 A JP 2017169617A JP 2017169617 A JP2017169617 A JP 2017169617A JP 2019046252 A JP2019046252 A JP 2019046252A
Authority
JP
Japan
Prior art keywords
line
sight
selection
display
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017169617A
Other languages
English (en)
Inventor
英樹 山崎
Hideki Yamazaki
英樹 山崎
祐一 河田
Yuichi Kawada
祐一 河田
齋藤 玲子
Reiko Saito
玲子 齋藤
義文 板東
Yoshibumi Bando
義文 板東
健資 岡本
Kensuke Okamoto
健資 岡本
知世 西田
Tomoyo Nishida
知世 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017169617A priority Critical patent/JP2019046252A/ja
Priority to US16/119,494 priority patent/US20190073027A1/en
Priority to CN201811024784.6A priority patent/CN109426351A/zh
Publication of JP2019046252A publication Critical patent/JP2019046252A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】本発明の目的は、表示手段に表示される要素を片手で選択し、選択した要素を移動させる操作を別の手で行う場合に両手がふさがってしまうという課題を解決することである。
【解決手段】情報処理装置は、表示手段と、使用者の手を用いた操作により、前記表示手段に表示された要素の少なくとも1つの選択を選択要素として受け付ける選択受付手段と、前記使用者の視線の向けられた領域を検知する視線検知手段と、前記選択受付手段により選択された前記選択要素を前記視線検知手段により検知された領域に対応した領域に移動させた場合に行われる処理を、前記選択受付手段により選択された前記選択要素又は前記選択要素によって特定される処理対象に対して行う処理手段とを備える。
【選択図】図1

Description

本発明は、情報処理装置及びプログラムに関する。
近年、利用者による入力の位置をより正確に調整する端末装置が提案されている(例えば、特許文献1参照。)。
特許文献1に記載された端末装置は、表示部と、前記表示部に対応する接触位置を検出する接触位置検出部と、前記表示部に対する視線位置を検出する視線位置検出部と、前記表示部に対する接触位置と当該接触位置の検出が行われた際の前記表示部に対する視線位置との間に差分が生じた場合、当該接触位置の検出が行われた際の前記表示部に対する視線位置に基づいて前記表示部に対する接触位置を補正する制御部とを有する。
特開2016−92440号公報
表示手段に表示された要素を手を用いて選択し、さらに選択された要素を移動させる動作を行う場合等、表示手段に表示される要素に対する移動操作を選択操作に用いた手と同じ手(あるいは指)で行うと、例えば移動の途中で選択操作を行っていた手や指が離れたりする等、操作の失敗が起きることがある。
また、表示手段に表示される要素に対して、片手で選択操作を行い、別の手で移動操作を行う場合に両手がふさがってしまう。
本発明の目的は、表示手段に表示された要素を片手で選択し、選択した要素を移動させる操作を別の手で行う場合に両手がふさがってしまうという課題を解決することである。
[1]表示手段と、使用者の手を用いた操作により、前記表示手段に表示された要素の少なくとも1つの選択を選択要素として受け付ける選択受付手段と、前記使用者の視線の向けられた領域を検知する視線検知手段と、前記選択受付手段により選択された前記選択要素を前記視線検知手段により検知された領域に対応した領域に移動させた場合に行われる処理を、前記選択受付手段により選択された前記選択要素又は前記選択要素によって特定される処理対象に対して行う処理手段と、を有する情報処理装置。
[2]前記処理手段により行われる処理は、前記表示手段に表示されていない領域が表示されるように前記表示手段に表示される表示領域を変化させる処理である、前記[1]に記載の情報処理装置。
[3]前記処理手段は、前記視線検知手段が表示画面の外側の領域に向けられた視線を検知したとき、表示領域を変化させる、前記[2]に記載の情報処理装置。
[4]前記処理手段は、前記視線検知手段が前記表示手段に表示された表示対象に向けられた視線を検知したとき、前記表示対象中に格納された対象物を表示する、前記[2]に記載の情報処理装置。
[5]前記処理手段は、前記選択要素を表示させた状態で、前記表示画面の切り替えを行う、前記[3]又は[4]に記載の情報処理装置。
[6]前記処理手段は、前記選択要素を移動させずに前記表示画面の切り替えを行う、前記[5]に記載の情報処理装置。
[7]前記処理手段は、前記視線検知手段が複数の前記表示対象のうち少なくとも1つの前記表示対象を含む領域に向けられた視線を検知したとき、前記領域を拡大して表示する、前記[4]から[6]のいずれか1つに記載の情報処理装置。
[8]前記選選択要素を前記視線検知手段により検知された領域に対応した領域に移動させた場合に行われる処理は、連続的な操作の途中で行われる処理の性質が変化するものである、前記[1]から[7]のいずれか1つに記載の情報処理装置。
[9]前記視線検知手段は、前記選択受付手段が前記選択要素を選択した後に、前記選択要素の移動先の位置へ向けられた視線の検知を開始する、前記[1]から[8]のいずれか1つに記載の情報処理装置。
[10]前記視線検知手段は、前記選択受付手段が前記選択要素を選択する前に、前記選択要素の移動先の位置へ向けられた視線の検知を開始する、前記[1]から[8]のいずれか1つに記載の情報処理装置。
[11]前記処理手段は、前記視線検知手段が視線の位置を検知したとき、該視線の位置に仮想的に前記選択対象を移動させて表示する、前記[1]から[10]のいずれか1つに記載の情報処理装置。
[12]前記処理手段は、前記選択対象を仮想的に移動するとき、前記選択対象の表示態様を変更して表示する、前記[11]に記載の情報処理装置。
[13]前記処理手段は、前記視線検知手段が仮想的に移動した前記選択対象から視線が外れたことを検知したとき、前記選択対象の移動を確定させる、前記[11]又は[12]に記載の情報処理装置。
[14]前記処理手段は、前記視線検知手段が予め定められた時間継続して視線を検知したとき、該視線の位置に前記選択対象を移動して表示する、前記[1]から[13]のいずれか1つに記載の情報処理装置。
[15]コンピュータを、使用者の手を用いた操作により、表示手段に表示された要素の少なくとも1つの選択を選択要素として受け付ける選択受付手段と、前記使用者の視線の向けられた領域を検知する視線検知手段と、前記選択受付手段により選択された前記選択要素を前記視線検知手段により検知された領域に対応した領域に移動させた場合に行われる処理を、前記選択受付手段により選択された前記選択要素又は前記選択要素によって特定される処理対象に対して行う処理手段として、機能させるためのプログラム。
請求項1、15に係る発明によれば、両手がふさがれることなく、表示手段に表示される要素を片手で選択し、選択した要素を移動させる操作を別の手で行うことができる。
請求項2、3、5、6、8、9、に係る発明によれば、使用者は、両手をふさぐことなく表示領域を変化させることができる。
請求項4に係る発明によれば、選択要素を指で移動させる操作を行わずに表示対象中に格納された対象物を表示することができる。
請求項7に係る発明によれば、使用者は、両手をふさぐことなく選択要素を元の大きさよりも大きく表示することができる。
請求項10に係る発明によれば、選択要素が選択された後に視線検知を開始する場合と比較して視線検知の精度を高くすることができる。
請求項11、12、13、14に係る発明によれば、使用者が意図しない要素の移動を抑制することができる。
図1は、本発明の第1の実施の形態に係る情報処理装置の構成例を示す図である。 図2は、画面の一例を示す図である。 図3は、画面変更領域の一例を示す図である。 図4は、画面を切り替える操作の一例を示す図であり、(a)は、画面変更領域における視線の位置の検知の一例を示す図、(b)は、切り替え後の画面の一例を示す図である。 図5は、第1の実施の形態に係る情報処理装置の動作の一例を示すフローチャートである。 図6は、本発明の第2の実施の形態に係る情報処理装置の制御系の一例を示すブロック図である。 図7は、アイコンの移動の一例を示す図であり、(a)は、移動対象となるアイコンを選択する操作の一例を示す図、(b)は、アイコンの移動の一例を示す図である。 図8は、アイコンの移動の一例を示す図であり、(a)は、移動対象となるアイコンを選択する操作及び画面を切り替える操作の一例を示す図、(b)は、切り替えられた画面の一例を示す図である。 図9は、アイコンの移動の一例を示す図であり、(a)は、視線の位置の検知の一例を示す図、(b)は、アイコンの移動後の画面の一例を示す図である。 図10は、アイコンを拡大して表示する一例を示す図であり、(a)は、拡大の対象となるアイコンを選択する操作の一例を示す図である、(b)は、アイコンの拡大表示の一例を示す図である。 図11は、フォルダの中身を拡大して表示するとともにアイコンを移動する処理の一例を示す図であり、(a)は、アイコンを選択する操作及びフォルダの中身を表示する操作の一例を示す図、(b)は、アイコンの移動の一例を示す図である。 図12は、フォルダ内に格納されたアイコンを当該フォルダ外に移動する処理の一例を示す図であり、(a)は、拡張して表示されたフォルダの一例を示す図、(b)は、フォルダ外へのアイコンの移動の一例を示す図である。 図13は、フォルダを作成してアイコンを格納する処理の一例を示す図であり、(a)は、アイコンを選択する操作の一例を示す図であり、(b)は、フォルダの作成及びアイコンの格納の一例を示す図である。 図14は、第4の実施の形態に係る情報処理装置の制御系の一例を示す図である。 図15は、印刷処理の一例を示す図であり、(a)は、印刷処理の実行を指示するアイコンが表示された画面の一例を示す図であり、(b)は、確認画面の一例を示す図である。
以下、本発明の実施の形態について図面を参照して説明する。なお、各図中、実質的に同一の機能を有する構成要素については、同一の符号を付してその重複した説明を省略する。
[第1の実施の形態]
図1は、本発明の第1の実施の形態に係る情報処理装置の制御系の一例を示すブロック図である。情報処理装置1は、例えば、パーソナルコンピュータ、タブレッド端末、多機能携帯電話機(スマートフォン)等が該当する。
情報処理装置1は、情報処理装置1の各部を制御する制御部10と、各種のデータを記憶する記憶部11と、使用者Uの視線Eの位置e(図2参照)を検知するために前方にいる使用者Uを撮影するカメラ120、及び情報の入力及び表示を行う操作表示部121を有する操作部12とを備える。カメラ120は、撮影する手段の一例である。
制御部10は、CPU(Central Processing Unit)やインターフェース等から構成されている。CPUは、記憶部11に記録されたプログラム110に従って動作することにより、予備操作検出手段100、撮影制御手段101、視線検知手段102、表示制御手段103等として機能する。予備操作検出手段100は、選択受付手段の一例である。表示制御手段103は、処理手段の一例である。各手段100〜103の詳細については後述する。
記憶部11は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等から構成され、プログラム110、画面情報111等の各種データを記憶する。
次に、操作部12の構成について説明する。カメラ120は、使用者Uの視線Eを検知できるものであればよく、可視光カメラ、赤外カメラ等公知のものを用いてよい。カメラ120は、好ましくは、操作部12の縁部(不図示)に設けられている。
操作表示部121は、例えば、タッチパネルディスプレイであり、液晶ディスプレイ等のディスプレイにタッチパネルを重合配置した構成を有する。また、操作表示部121は、各種の画面を表示する表示画面121a(図2等参照)を備えている。操作表示部121は、表示手段の一例である。
次に、図2〜図5を参照して制御部10の各手段100〜103について説明する。図2は、画面の一例を示す図である。図2に示すように、画面2には、各処理に対応付けられた複数のアイコン20が表示されている。アイコン20とは、機能を図形で示したものをいうが、文字や記号を含んでもよく、文字や記号のみで表示されたものでもよい。
予備操作検出手段100は、使用者Uによりアイコン20に対して行われる予備操作を検出する。予備操作とは、後述するカメラ120による視線検知を開始するための動作をいう。予備操作には、例えば、図2に示すように、予め定められた時間(例えば、3秒間)継続してアイコン20に指(人差し指)50等で接触する操作(以下、「ロングタッチ」ともいう。)や、アイコン20に予め定められた回数(例えば、2〜5回)連射的にタップする操作等が含まれる。予備操作は、手5を用いた操作の一例である。アイコン20は、表示手段に表示された要素の一例である。また、アイコン20は、処理対象の一例である。
撮影制御手段101は、予備操作検出手段100が予備操作を検出すると、カメラ120を制御して撮像を開始する。
視線検知手段102は、使用者Uの視線Eの向けられた領域を検知する。具体的には、視線検知手段102は、カメラ120が撮影した画像から使用者Uの視線Eの方向を検知し、検知した視線Eの方向に基づいて、使用者Uが操作表示部121のどの位置eを視認しているかを特定する。視線検知手段102は、特定した位置eに関する情報を表示制御手段103に出力する。なお、表示部121における位置には、表示部121の表示画面121aのみならず、表示画面121aから外れた位置も含まれる。
視線Eを検知する動作で用いる技術としては、例えば、可視光カメラを用いて、目頭の位置に対する虹彩の位置に基づいて視線Eを検知してもよく、赤外線カメラと赤外線LEDを用いて、角膜反射の位置に対する瞳孔の位置に基づいて視線Eを検知してもよい。
図3は、画面変更領域の一例を示す図である。画面変更領域21とは、画面2を切り替える処理を行うための視線の位置eを検知する領域である。表示制御手段103は、予備操作検出手段100が予備操作を検出すると、図3に示すように、表示画面121aの縁部に画面変更領域21を表示するよう制御する。画面変更領域21の表示位置は、特定の位置に限定されるものではなく、図3に示すように左右の両端部でもよく、上下の両端部でもよい。なお、図3以降の図では、使用者Uの記載は省略する。なお、画面変更領域21は、必ずしも表示画面121a上に表示しなくてもよい。
図4は、画面2を切り替える操作の一例を示す図であり、(a)は、画面変更領域21における視線の位置eの検知の一例を示す図、(b)は、切り替え後の画面2の一例を示す図である。
表示制御手段103は、視線検知手段102が特定した視線の位置eが画面変更領域21にあるか否かを判定する。表示制御手段103は、予備操作検出手段100が予備操作を検出している状態において、図4(a)に示すように、視線検知手段102が特定した視線の位置eが画面変更領域21にあると判定した場合、図4(b)に示すように、現在表示されている画面2を隣接する画面に切り替えて表示するよう制御する。図4(b)に示す画面2では、図4(a)に示す画面2では表示しきれなかった複数のアイコン20が表示されることになる。この画面を切り替える処理は、アイコン20を視線検知手段102により検知された領域に移動させた場合に行われる処理の一例である。
なお、「アイコン20を視線検知手段102により検知された領域に移動させた場合に行われる処理」には、画面の切り替えの他に、例えば、ファイルの移動、フォルダの格納物の拡大表示、フォルダへのファイルの格納、印刷、メール送信、ファクシミリ送信等が含まれる。これらの処理の詳細何ついては、後述する。また、「アイコン20を視線検知手段102により検知された領域に移動させた場合に行われる処理」には、同一の操作をしていても処理の性質が途中で代わることが含まれる。この「操作の性質が代わる」は、例えば、アイコン20を選択した上でドラッグ操作を行う場合に、該ドラック操作の途中に該アイコン20が画面2の端部に移動した場合に、ドラック操作の処理が画面2をスクロースするスクロール処理に代わることが該当する。
(第1の実施の形態の動作)
次に、情報処理装置1の動作の一例について図5を参照して説明する。図5は、情報処理装置1の動作の一例を示すフローチャートである。
図2に示すように、使用者Uが表示画面121aに表示された複数のアイコン20のうちの1つのアイコン20に対してロングタッチを行うと、予備操作検出手段100は、そのロングタッチを検出する(S1)。
次に、撮影制御手段101は、カメラ120を制御して撮像を開始する(S2)。また、表示制御手段103は、図3に示すように、表示画面121aの縁部に画面変更領域21を表示するよう制御する(S3)。
次に、表示制御手段103は、視線検知手段102が特定した視線の位置eが画面変更領域21にあるか否かを判定する(S4)。
表示制御手段103が、図4(a)に示すように、視線の位置eが画面変更領域21にあると判定した場合(S4:Yes)、表示制御手段103は、図4(b)に示すように、現在表示されている画面2を隣接する画面2に切り替えて表示するよう制御する(S5)。
以上のようにすれば、ロングタッチを行った指を移動させずに、画面の表示を切り替えることができる。これにより、片手でロングタッチを行った場合、別の手で画面を切り替える操作を行うことによって両手がふさがってしまうことを抑制することができる。
[第2の実施の形態]
図6は、本発明の第2の実施の形態に係る情報処理装置1の制御系の一例を示すブロック図である。第2の実施の形態では、アイコン20を選択する操作を検出する選択操作検出手段104を有する点で第1の実施の形態と相違する。以下、第1の実施の形態と異なる点を中心に説明する。
情報処理装置1の制御部10は、選択操作検出手段104をさらに備える。すなわち、CPUは、記憶部11に記憶されたプログラム110に従って動作することにより、選択操作検出手段104等としてさらに機能する。選択操作検出手段104は、選択受付手段の一例である。
図7を参照して、選択操作検出手段104及び表示制御手段103について説明する。図7は、アイコン20の移動の一例を示す図であり、(a)は、移動対象となるアイコン20を選択する操作の一例を示す図、(b)は、アイコン20の移動の一例を示す図である。
選択操作検出手段104は、図7(a)に示すように、使用者Uによって行われる、操作表示部121の表示画面121aに表示された複数のアイコン20から少なくとも1つのアイコン20(四角枠参照)を選択する操作を検出する。
表示制御手段103は、図7(b)に示すように、選択されたアイコン20(四角枠参照)を視線検知手段102が特定した視線の位置eに移動して表示するよう制御する。このアイコン20を移動して表示する処理は、アイコン20を視線検知手段102により検知された領域に移動させた場合に行われる処理の一例である。
<変形例1>
図8は、アイコン20の移動の一例を示す図であり、(a)は、移動対象となるアイコン20を選択する操作及び画面2を切り替える操作の一例を示す図、(b)は、切り替え後の画面2内へのアイコン20の移動の一例を示す図である。
表示制御手段103は、画面2を切り替えて表示するとともに、選択操作検出手段104により選択されたアイコン20(図8(a)の四角枠参照)を、切り替え後の画面2内の視線の位置eに移動して表示するよう制御してもよい。
具体的に説明する。選択操作検出手段104は、図8(a)に示すように、使用者Uによって行われる、操作表示部121の表示画面121aに表示された複数のアイコン20から1つのアイコン20を選択する操作を検出する。
次に、表示制御手段103は、図8(b)に示すように、視線検知手段102が特定した視線の位置eが画面変更領域21にあると判定した場合、現在表示されている画面2を隣接する画面2に切り替えて表示するよう制御する。
次に、表示制御手段103は、選択された切り替え前の画面2内のアイコン20を、切り替え後の画面2内において視線検知手段102が特定した視線の位置eに移動して表示するよう制御する。
<変形例2>
図9は、アイコン20の移動の一例を示す図であり、(a)は、視線の位置eの検知の一例を示す図、(b)は、アイコン20の移動後の画面の一例を示す図である。表示制御手段103は、図9(a)に示すように、視線検知手段102が特定した視線の位置eが特定のアイコン20の位置にある場合、ロングタッチ等の予備操作が終了すると、図9(b)に示すように、当該特定のアイコン20の隣(右隣)の位置にロングタッチがなされていたアイコン20(四角枠参照)を移動して表示するよう制御してもよい。
この場合、予備操作検出手段100が、使用者Uによる予備操作が終了したこと、すなわちアイコン20から手が離れたことを検出してもよい。
また、本変形例2では、表示制御手段103は、視線の位置eが検知されたアイコン20の右隣にロングタッチがなされていたアイコン20を移動して表示するよう制御したが、これに限定されるものではなく、視線の位置eが検知されたアイコン20の左隣、上隣、下隣でもよい。
<変形例3>
図10は、アイコン20を拡大して表示する一例を示す図であり、(a)は、拡大の対象となるアイコン20を選択する操作の一例を示す図である、(b)は、アイコン20の拡大表示の一例を示す図である。
表示制御手段103は、図10(a)に示すように、視線検知手段102が特定した視線の位置eが複数のアイコン20の間の位置にある場合、図10(b)に示すように、視線の位置eの近傍にある複数のアイコン20(例えば、図10(a)の円枠で囲む領域内のアイコン20)を拡大して表示するよう制御してもよい。
また、表示制御手段103は、使用者Uにより予め選択されたアイコン20(図10(a)の四角枠参照)を、視線検知手段102が特定した拡大して表示された複数のアイコン20内における視線の位置eに移動して表示するよう制御してもよい。
<変形例4>
表示制御手段103は、使用者Uにより予め選択されたアイコン20を、視線検知手段102が検知した視線の位置に仮想的に移動して表示するよう制御してもよい。「仮想的に移動する」とは、視線検知手段102が検知した視線の位置へのアイコン20の移動を確定的に完了せずに、視線検知手段102が検知した視線の位置にアイコン20を暫定的に移動することをいう。
表示制御手段103は、アイコン20を仮想的に移動して表示する際に、アイコン20の表示態様を変えて表示するよう制御してもよい。「表示態様を変える」には、例えば、アイコン20の透明度を変更することや、アイコン20の大きさ、形状、色を変更することが含まれる。
また、表示制御手段103は、視線検知手段102が仮想的に移動したアイコン20の位置から視線が外れたことを検知したとき、アイコン20の移動を確定させるように制御してもよい。また、表示制御手段103は、視線検知手段102が予め定められた時間継続して移動先の位置に向けられた視線を検知したとき、アイコン20を移動して表示するよう制御してもよい。
また、表示制御手段103は、アイコン20を移動して表示する際に、移動させるか否かを使用者Uに確認させる確認画面を表示するよう制御してもよい。
以上のようにすれば、選択操作を行った指を移動させずに、アイコン20を移動させることができる。これにより、片手で選択操作を行った場合、別の手でアイコン20を移動操作を行うことによって両手がふさがってしまうことを抑制することができる。
[第3の実施の形態]
次に、図11及び図12を参照して、本発明の第3の実施の形態について説明する。図11は、フォルダの中身を拡大して表示するとともにアイコン20を移動する処理の一例を示す図であり、(a)は、アイコン20を選択する操作及びフォルダの中身を表示する操作の一例を示す図、(b)は、アイコン20の移動の一例を示す図である。図11(a)に示すように、画面2(例えば、デスクトップ画面)には、複数のアイコン20と、1つ以上のフォルダ22とが表示されている。
表示制御手段103は、図11(a)に示すように、視線検知手段102が特定した視線の位置eが特定のフォルダ22の位置にある場合、図11(b)に示すように、視線の位置eがあるフォルダ22の中身を拡大して表示するよう制御してもよい。「中身を拡大して表示する」とは、当該フォルダ22に格納されている文書、画像、動作、音声等の各種ファイルやアプリケーションの一覧を、例えばサムネイルやアイコン等の形式で表示することをいう。なお、「フォルダ22の中身を拡大して表示する」には、別の表現として、「フォルダ22を開いて表示する」という表現を用いてもよい。
また、表示制御手段103は、視線検知手段102が特定した視線の位置eが開かれたフォルダ22内の位置にある場合、図11(b)に示すように、使用者Uにより予め選択されたアイコン20(図11(a)の四角枠参照)を、当該フォルダ22内に移動して表示するよう制御してもよい。
図12は、フォルダ22内に格納されたアイコン20を当該フォルダ22外に移動する処理の一例を示す図であり、(a)は、拡張して表示されたフォルダ22の一例を示す図、(b)は、フォルダ22外へのアイコン20の移動の一例を示す図である。
表示制御手段103は、図12(a)に示すように、特定のフォルダ22が開かれている場合に視線検知手段102が特定した視線の位置eが開かれたフォルダ22の外側の領域23にある場合、図12(b)に示すように、使用者Uにより予め選択されたアイコン20(四角枠参照)を当該フォルダ22外に移動して表示するよう制御する。
<変形例>
図13は、フォルダ22を作成してアイコン20を格納する処理の一例を示す図であり、(a)は、アイコン20を選択する操作の一例を示す図であり、(b)は、フォルダ22の作成及びアイコン20の格納の一例を示す図である。
表示制御手段103は、図13(a)に示すように、使用者Uにより予めアイコン20が選択され、視線検知手段102が特定した視線の位置eが特定のアイコン20(但し、フォルダ22を示すアイコン20を除く)の位置にある場合、図13(b)に示すように、新たなフォルダ22を作成して表示する。また、表示制御手段103は、作成したフォルダ22に、当該選択されたアイコン20と視線の位置eがあるアイコン20とを格納する。
また、表示制御手段103は、新たに表示したフォルダ22の名称を入力するための入力欄24を表示するよう制御してもよい。
使用者Uにより選択されるアイコン20の数は1つに限られるものではなく、複数であってもよい。
[第4の実施の形態]
次に、図14を参照して本発明の第4の実施の形態について説明する。図14は、第4の実施の形態に係る情報処理装置1の制御系の一例を示す図である。第4の実施の形態では、情報処理装置1として画像形成装置を例に説明する。
図14に示すように、情報処理装置1は、第1の実施の形態で説明した構成に加えて、スキャナ部13と、プリンタ部14、ファクシミリ通信部15と、ネットワーク通信部16とを備える。
スキャナ部13は、原稿台(不図示)に配置された原稿、又は自動給紙装置(不図示)から給紙された原稿から画像データを光学的に読み取る。プリンタ部14は、電子写真方式、インクジェット方式等により画像データを用紙等の記録媒体に印刷する。ファクシミリ通信部15は、G3、G4等のファクシミリプロトコルに従ってデータの変復調を行い、公衆回線網3を介してファクシミリ送受信を行う。ネットワーク通信部16は、NIC(Network Interface Card)等によって実現され、ネットワーク4を介して外部装置との間で信号を送受信する。
情報処理装置1の制御部10は、実行手段105をさらに備える。すなわち、CPUは、記憶部11に記憶されたプログラム110に従って動作することにより、実行手段105等としてさらに機能する。実行手段105は、処理手段の一例である。
実行手段105は、スキャン、印刷、ファクシミ送受信等の各種処理を実行する。具体的には、実行手段105は、スキャナ部13を制御してスキャン処理を実行する。また、実行手段105は、プリンタ部14を制御して印刷処理を実行する。また、実行手段105は、ファクシミリ通信部15を制御してファクシミリ送信又は受信を実行する。また、実行手段105は、ネットワーク通信部16を制御して電子メール送受信を行う。
図15は、印刷処理の一例を示す図であり、(a)は、印刷処理の実行を指示するアイコン20が表示された画面2の一例を示す図であり、(b)は、確認画面の一例を示す図である。図15(a)に示す画面2には、印刷処理の実行を指示するアイコン20(以下、「アイコン20A」ともいう。)の他に、印刷対象となる文書を示すアイコン20(以下、「アイコン20B」ともいう。)や、ファクシミリ送信の実行を指示するアイコン20(以下、「アイコン20C」ともいう。)、メールの送信の実行を指示するアイコン20(以下、「アイコン20D」ともいう。)、クラウドに対象物を格納する処理の実行を指示するアイコン20(以下、「アイコン20E」ともいう。)等が表示されている。
表示制御手段103は、図15(a)に示すように、視線検知手段102が特定した視線の位置eが画面2に表示された印刷処理の実行を指示するアイコン20Aの位置にある場合、図15(b)に示すように、印刷処理を実行するかどうかを使用者Uに確認させる確認画面2Aを表示するよう制御する。
実行手段105は、使用者Uにより確認画面2Aに含まれる実行釦25が操作された場合、使用者Uにより予め選択されたアイコン20Bに関連付けられた文書の印刷を実行する。
第4の実施の形態では、印刷処理を例に説明したが、上述の方法により実行される処理は印刷処理に限られるものではなく、メール送信、ファクシミリ送信、クラウドサーバへのファイルの格納等の各種処理が含まれる。
これら処理は、アイコン20を視線検知手段102により検知された領域に移動させた場合に行われる処理の一例である。
<変形例>
表示制御手段103は、必ずしも確認画面2Aを表示するよう制御しなくてもよく、視線検知手段102が視線を検知したとき、実行手段105が使用者Uにより予め選択されたアイコン20Bに関連付けられた文書の印刷を実行するようにしてもよい。また、視線検知手段102が視線を検知してから、予め定められた時間が経過した後に、実行手段105が予め選択されたアイコン20Bに関連付けられた文書の印刷を実行するようにしてもよい。なお、紙が出力される処理については、他の処理に比べて視線を検知してから処理を実行されるまでの時間を長くしても良い。
以上、本発明の実施の形態を説明したが、本発明の実施の形態は上記実施の形態に限定されるものではなく、本発明の要旨を変更しない範囲内で種々の変形、実施が可能である。例えば、上記実施の形態では、カメラ120を操作部12に設けたが、情報処理装置1の他の箇所に設けてもよく、情報処理装置1から切り離して天井や壁に設けてもよい。また、視線検知機能を外部やカメラに持たせてもよい。
制御部10の各手段は、それぞれ一部又は全部を再構成可能回路(FPGA:Field Programmable Gate Array)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)等のハードウエア回路によって構成してもよい。
また、本発明の要旨を変更しない範囲内で、上記実施の形態の構成要素の一部を省くことや変更することが可能である。また、本発明の要旨を変更しない範囲内で、上記実施の形態のフローにおいて、ステップの追加、削除、変更、入替え等が可能である。また、上記実施の形態で用いたプログラムをCD−ROM等のコンピュータ読み取り可能な記録媒体に記録して提供することができ、クラウドサーバ等の外部サーバに格納しておき、ネットワークを介して利用することもできる。
1…情報処理装置、10…制御部、100…予備操作検出手段、101…撮影制御手段、102…視線検知手段、103…表示制御手段、104…選択操作検出手段、105…実行手段、11…記憶部、110…プログラム、12…操作部、120…カメラ、121…操作表示部、121a…表示画面、13…スキャナ部、14…プリンタ部、15…ファクシミリ通信部、16…ネットワーク通信部、2…画面、2A…確認画面、20,20A,20B,20C,20D,20E…アイコン、21…画面変更領域、22…フォルダ、23…外側の領域、24…入力欄、25…実行釦、3…公衆回線網、4…ネットワーク、5…手、50…人差し指、E…視線、e…位置、U…使用者

Claims (15)

  1. 表示手段と、
    使用者の手を用いた操作により、前記表示手段に表示された要素の少なくとも1つの選択を選択要素として受け付ける選択受付手段と、
    前記使用者の視線の向けられた領域を検知する視線検知手段と、
    前記選択受付手段により選択された前記選択要素を前記視線検知手段により検知された領域に対応した領域に移動させた場合に行われる処理を、前記選択受付手段により選択された前記選択要素又は前記選択要素によって特定される処理対象に対して行う処理手段と、
    を有する情報処理装置。
  2. 前記処理手段により行われる処理は、前記表示手段に表示されていない領域が表示されるように前記表示手段に表示される表示領域を変化させる処理である、
    請求項1に記載の情報処理装置。
  3. 前記処理手段は、前記視線検知手段が表示画面の外側の領域に向けられた視線を検知したとき、表示領域を変化させる、
    請求項2に記載の情報処理装置。
  4. 前記処理手段は、前記視線検知手段が前記表示手段に表示された表示対象に向けられた視線を検知したとき、前記表示対象中に格納された対象物を表示する、
    請求項2に記載の情報処理装置。
  5. 前記処理手段は、前記選択要素を表示させた状態で、前記表示画面の切り替えを行う、
    請求項3又は4に記載の情報処理装置。
  6. 前記処理手段は、前記選択要素を移動させずに前記表示画面の切り替えを行う、
    請求項5に記載の情報処理装置。
  7. 前記処理手段は、前記視線検知手段が複数の前記表示対象のうち少なくとも1つの前記表示対象を含む領域に向けられた視線を検知したとき、前記領域を拡大して表示する、
    請求項4から6のいずれか1項に記載の情報処理装置。
  8. 前記選選択要素を前記視線検知手段により検知された領域に対応した領域に移動させた場合に行われる処理は、連続的な操作の途中で行われる処理の性質が変化するものである、
    請求項1から7のいずれか1項に記載の情報処理装置。
  9. 前記視線検知手段は、前記選択受付手段が前記選択要素を選択した後に、前記選択要素の移動先の位置へ向けられた視線の検知を開始する、
    請求項1から8のいずれか1項に記載の情報処理装置。
  10. 前記視線検知手段は、前記選択受付手段が前記選択要素を選択する前に、前記選択要素の移動先の位置へ向けられた視線の検知を開始する、
    請求項1から8のいずれか1項に記載の情報処理装置。
  11. 前記処理手段は、前記視線検知手段が視線の位置を検知したとき、該視線の位置に仮想的に前記選択対象を移動させて表示する、
    請求項1から10のいずれか1項に記載の情報処理装置。
  12. 前記処理手段は、前記選択対象を仮想的に移動するとき、前記選択対象の表示態様を変更して表示する、
    請求項11に記載の情報処理装置。
  13. 前記処理手段は、前記視線検知手段が仮想的に移動した前記選択対象から視線が外れたことを検知したとき、前記選択対象の移動を確定させる、
    請求項11又は12に記載の情報処理装置。
  14. 前記処理手段は、前記視線検知手段が予め定められた時間継続して視線を検知したとき、該視線の位置に前記選択対象を移動して表示する、
    請求項1から13のいずれか1項に記載の情報処理装置。
  15. コンピュータを、
    使用者の手を用いた操作により、表示手段に表示された要素の少なくとも1つの選択を選択要素として受け付ける選択受付手段と、
    前記使用者の視線の向けられた領域を検知する視線検知手段と、
    前記選択受付手段により選択された前記選択要素を前記視線検知手段により検知された領域に対応した領域に移動させた場合に行われる処理を、前記選択受付手段により選択された前記選択要素又は前記選択要素によって特定される処理対象に対して行う処理手段として、
    機能させるためのプログラム。
JP2017169617A 2017-09-04 2017-09-04 情報処理装置及びプログラム Pending JP2019046252A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017169617A JP2019046252A (ja) 2017-09-04 2017-09-04 情報処理装置及びプログラム
US16/119,494 US20190073027A1 (en) 2017-09-04 2018-08-31 Information processing apparatus and non-transitory computer readable medium
CN201811024784.6A CN109426351A (zh) 2017-09-04 2018-09-04 信息处理装置以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017169617A JP2019046252A (ja) 2017-09-04 2017-09-04 情報処理装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2019046252A true JP2019046252A (ja) 2019-03-22

Family

ID=65514816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169617A Pending JP2019046252A (ja) 2017-09-04 2017-09-04 情報処理装置及びプログラム

Country Status (3)

Country Link
US (1) US20190073027A1 (ja)
JP (1) JP2019046252A (ja)
CN (1) CN109426351A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7387493B2 (ja) 2020-03-06 2023-11-28 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099386A (ja) * 2000-09-25 2002-04-05 Sanyo Electric Co Ltd 画面表示制御システム
JP2012022589A (ja) * 2010-07-16 2012-02-02 Hitachi Ltd 商品選択支援方法
JP2015176311A (ja) * 2014-03-14 2015-10-05 株式会社Nttドコモ 端末及び制御方法
WO2016136837A1 (ja) * 2015-02-25 2016-09-01 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101311882A (zh) * 2007-05-23 2008-11-26 华为技术有限公司 视线跟踪人机交互方法及装置
DE102009050519A1 (de) * 2009-10-23 2011-04-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Fahrerinformation
KR20150108216A (ko) * 2014-03-17 2015-09-25 삼성전자주식회사 입력 처리 방법 및 그 전자 장치
CN104055478B (zh) * 2014-07-08 2016-02-03 金纯� 基于视线追踪控制的医用内窥镜操控系统
CN104076930B (zh) * 2014-07-22 2018-04-06 北京智谷睿拓技术服务有限公司 盲操作控制方法、装置和系统
US9652035B2 (en) * 2015-02-23 2017-05-16 International Business Machines Corporation Interfacing via heads-up display using eye contact
KR102545665B1 (ko) * 2016-07-20 2023-06-21 삼성전자주식회사 알림 정보 표시 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099386A (ja) * 2000-09-25 2002-04-05 Sanyo Electric Co Ltd 画面表示制御システム
JP2012022589A (ja) * 2010-07-16 2012-02-02 Hitachi Ltd 商品選択支援方法
JP2015176311A (ja) * 2014-03-14 2015-10-05 株式会社Nttドコモ 端末及び制御方法
WO2016136837A1 (ja) * 2015-02-25 2016-09-01 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7387493B2 (ja) 2020-03-06 2023-11-28 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体

Also Published As

Publication number Publication date
CN109426351A (zh) 2019-03-05
US20190073027A1 (en) 2019-03-07

Similar Documents

Publication Publication Date Title
JP7342208B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
US10063722B2 (en) Image forming apparatus configured to display function setting buttons and switch display mode between first display mode and second display mode and image recording medium
US10275035B2 (en) Device and method for determining gesture, and computer-readable storage medium for computer program
US20130246973A1 (en) Information device and computer-readable storage medium for computer program
US9363395B2 (en) Image processing device, display device and non-transitory computer readable recording medium
JP7070003B2 (ja) 表示装置及び画像形成装置
JP5941849B2 (ja) 電子機器及び画像形成装置
JP5790402B2 (ja) 画像処理装置及びプログラム
JP6988205B2 (ja) 情報処理装置及びプログラム
US10616426B2 (en) Information processing in which setting item list is scrolled when selection gesture is performed on shortcut button
EP3171583A1 (en) Image processing apparatus with thumbnail display function
JP5516473B2 (ja) 画像形成装置、表示方法および表示プログラム
JP6631573B2 (ja) 表示装置および表示システム
CN114063867A (zh) 图像处理装置、图像处理装置的控制方法和记录介质
US20170359474A1 (en) Image forming apparatus, display control method, and storage medium
JP2019046252A (ja) 情報処理装置及びプログラム
JP2019003491A (ja) 情報処理装置及びプログラム
JP5821600B2 (ja) 画像形成装置、設定方法および設定プログラム
JP2017182154A (ja) 表示操作装置及び操作指示受付プログラム
JP5949418B2 (ja) 画像処理装置、設定方法および設定プログラム
US20190037094A1 (en) Information processing apparatus and non-transitory computer readable medium
JP6776753B2 (ja) 処理装置および画像形成装置
EP3223137A1 (en) Display control device, electronic device, program and display control method
JP7052842B2 (ja) 情報処理装置およびプログラム
US11379159B2 (en) Information processing device and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210907