JP2021099711A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2021099711A
JP2021099711A JP2019231743A JP2019231743A JP2021099711A JP 2021099711 A JP2021099711 A JP 2021099711A JP 2019231743 A JP2019231743 A JP 2019231743A JP 2019231743 A JP2019231743 A JP 2019231743A JP 2021099711 A JP2021099711 A JP 2021099711A
Authority
JP
Japan
Prior art keywords
function
unit
gesture
information processing
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019231743A
Other languages
Japanese (ja)
Inventor
レジル・ヤナ
マックレイ・カニェーテ ガヴィン
マックレイ・カニェーテ ガヴィン
クリスティアン レイ・パンティン カール
クリスティアン レイ・パンティン カール
ジョン・アバキタ アール
ジョン・アバキタ アール
レイ・アリガト ジョン
レイ・アリガト ジョン
オルシー・バントッグ クライブ
オルシー・バントッグ クライブ
Original Assignee
京セラドキュメントソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラドキュメントソリューションズ株式会社 filed Critical 京セラドキュメントソリューションズ株式会社
Priority to JP2019231743A priority Critical patent/JP2021099711A/en
Publication of JP2021099711A publication Critical patent/JP2021099711A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】登録するジェスチャーの種類(文字種)を削減できる情報処理装置を提供する。【解決手段】情報処理装置10は、起動部30と、表示部14と、検知部23と、登録部28とを備える。起動部30は、上位機能を起動する。表示部14は、上位機能の名称が示された機能表示領域41を表示する。検知部23は、機能表示領域41に入力されたジェスチャー71を検知する。登録部28は、複数の上位機能ごと、および、上位機能に含まれる下位機能を表わす複数の文字種ごとに、ジェスチャー71を登録する。検知部23は、さらに、上位機能ごとに、機能表示領域41にジェスチャー71が入力されたことを検知する。起動部30は、さらに、上位機能ごとに、入力されたジェスチャー71に基づいて、ジェスチャー71に割り当てられた下位機能を起動する。【選択図】図2PROBLEM TO BE SOLVED: To provide an information processing device capable of reducing the types (character types) of gestures to be registered. An information processing device (10) includes an activation unit (30), a display unit (14), a detection unit (23), and a registration unit (28). The activation unit 30 activates a higher-level function. The display unit 14 displays the function display area 41 in which the name of the higher-level function is shown. The detection unit 23 detects the gesture 71 input to the function display area 41. The registration unit 28 registers the gesture 71 for each of the plurality of higher-level functions and for each of the plurality of character types representing the lower-level functions included in the higher-level functions. The detection unit 23 further detects that the gesture 71 is input to the function display area 41 for each higher-level function. Further, the activation unit 30 activates the lower function assigned to the gesture 71 based on the input gesture 71 for each upper function. [Selection diagram] Fig. 2

Description

本発明は、情報処理装置に関する。 The present invention relates to an information processing device.
特許文献1に記載された情報処理装置は、アプリケーションプログラムを起動するアプリ指定文字と、アプリケーションプログラムによって実現される機能に対応付けられた機能指定文字とを、ユーザーが手書きで入力できる技術を開示する。 The information processing device described in Patent Document 1 discloses a technique in which a user can manually input an application-designated character for invoking an application program and a function-designated character associated with a function realized by the application program. ..
特開2017−68752号公報JP-A-2017-67852
しかしながら、特許文献1に記載された情報処理装置は、ユーザーが手書き入力した手書き文字によってひとつの機能を実行するため、機能が多くなるに従って多くの文字の種類が必要になるという課題がある。 However, since the information processing apparatus described in Patent Document 1 executes one function by handwritten characters input by the user, there is a problem that many types of characters are required as the number of functions increases.
本発明は、上記課題に鑑みてなされたものであり、登録するジェスチャーの種類(文字種)を削減できる情報処理装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing device capable of reducing the types (character types) of gestures to be registered.
本発明の一局面によれば、情報処理装置は、起動部と、表示部と、検知部と、登録部とを備える。前記起動部は、上位機能を起動する。前記表示部は、前記上位機能の種類が異なる機能表示領域を表示する。前記検知部は、前記機能表示領域に入力されたジェスチャーを検知する。前記登録部は、前記上位機能ごと、および、前記上位機能に含まれる下位機能を表わす文字種ごとに、前記ジェスチャーを登録する。前記検知部は、さらに、前記上位機能ごとに、前記機能表示領域に前記ジェスチャーが入力されたことを検知する。前記起動部は、さらに、前記上位機能ごとに、入力された前記ジェスチャーに基づいて、前記ジェスチャーに割り当てられた前記下位機能を起動する。 According to one aspect of the present invention, the information processing apparatus includes an activation unit, a display unit, a detection unit, and a registration unit. The activation unit activates a higher-level function. The display unit displays a function display area in which the type of the higher-level function is different. The detection unit detects a gesture input to the function display area. The registration unit registers the gesture for each of the higher-level functions and for each character type representing a lower-level function included in the higher-level function. The detection unit further detects that the gesture has been input to the function display area for each of the higher-level functions. The activation unit further activates the lower function assigned to the gesture based on the input gesture for each higher function.
本発明によれば、同じ文字種のジェスチャーを入力しても、上位機能ごとに異なる下位機能が起動される。つまり、1つのジェスチャーに複数の下位機能を定義づけることができるため、登録するジェスチャーの種類(文字種)を削減できる。 According to the present invention, even if gestures of the same character type are input, different lower functions are activated for each upper function. That is, since a plurality of subordinate functions can be defined for one gesture, the types of gestures (character types) to be registered can be reduced.
本発明の実施形態に係る情報処理装置を示す外観斜視図である。It is an external perspective view which shows the information processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置を示す機能ブロック図である。It is a functional block diagram which shows the information processing apparatus which concerns on embodiment of this invention. 本発明の実施形態1に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on Embodiment 1 of this invention. 本実施形態1に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on this Embodiment 1. 本実施形態1に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on this Embodiment 1. 本実施形態1に係る情報処理装置の表示部の一部を示す図である。It is a figure which shows a part of the display part of the information processing apparatus which concerns on this Embodiment 1. 本実施形態1に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on this Embodiment 1. 本実施形態1に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on this Embodiment 1. 本実施形態1に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on this Embodiment 1. 本実施形態1に係る情報処理装置の表示部の一部を示す図である。It is a figure which shows a part of the display part of the information processing apparatus which concerns on this Embodiment 1. 本実施形態1に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on this Embodiment 1. 本実施形態1に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on this Embodiment 1. 本実施形態1に係る情報処理装置の登録部が有するテーブルを示す図である。It is a figure which shows the table which the registration part of the information processing apparatus which concerns on this Embodiment 1 has. 本実施形態1に係る情報処理装置の登録部が有するテーブルを示す図である。It is a figure which shows the table which the registration part of the information processing apparatus which concerns on this Embodiment 1 has. 本実施形態1に係る情報処理装置の制御を示すフローチャートである。It is a flowchart which shows the control of the information processing apparatus which concerns on Embodiment 1. 本発明の実施形態2に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on Embodiment 2 of this invention. 本実施形態2に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on this Embodiment 2. 本実施形態2に係る情報処理装置の制御を示すフローチャートである。It is a flowchart which shows the control of the information processing apparatus which concerns on Embodiment 2. 本発明の実施形態3に係る情報処理装置の表示部を示す図である。It is a figure which shows the display part of the information processing apparatus which concerns on Embodiment 3 of this invention. 本実施形態3に係る情報処理装置の制御を示すフローチャートである。It is a flowchart which shows the control of the information processing apparatus which concerns on this Embodiment 3. 本発明の実施形態4に係る情報処理装置の比較部の機能を示す概念図である。It is a conceptual diagram which shows the function of the comparison part of the information processing apparatus which concerns on Embodiment 4 of this invention. 本実施形態4に係る情報処理装置の制御を示すフローチャートである。It is a flowchart which shows the control of the information processing apparatus which concerns on this Embodiment 4.
以下、本発明の実施形態について、図面を参照しながら説明する。尚、図中、同一または相当部分については同一の参照符号を付して説明を繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are designated by the same reference numerals and the description is not repeated.
まず、図1を参照して、情報処理装置10を説明する。図1は、本発明の実施形態に係る情報処理装置10を示す外観斜視図である。 First, the information processing apparatus 10 will be described with reference to FIG. FIG. 1 is an external perspective view showing an information processing device 10 according to an embodiment of the present invention.
図1において、情報処理装置10は、画像読取装置11と、操作部13と、画像形成装置16とを備える。 In FIG. 1, the information processing device 10 includes an image reading device 11, an operation unit 13, and an image forming device 16.
画像読取装置11は、自動原稿給紙装置(ADF:Auto Document Feeder)と、スキャナーとを含む。 The image reading device 11 includes an automatic document feeding device (ADF: Auto Document Feeder) and a scanner.
画像読取装置11は、原稿給紙台12を有する。原稿給紙台12に載置された図示しない原稿は、画像読取装置11の図示しない搬送機構により、図示しない原稿読取面に搬送され、図示しない画像読取部に読み取られて、画像データに変換される。 The image reading device 11 has a document feeding table 12. A document (not shown) placed on the document feeding table 12 is conveyed to a document reading surface (not shown) by a transfer mechanism (not shown) of the image reading device 11, read by an image reading unit (not shown), and converted into image data. To.
操作部13は、表示部14と、操作ボタン15とを有する。 The operation unit 13 has a display unit 14 and an operation button 15.
操作部13は、ユーザーからの操作を受け付ける。 The operation unit 13 receives an operation from the user.
表示部14は、ユーザーに情報を表示し、または、ユーザーが入力した情報を、表示制御部27(図2)を介して制御部20(図2)に出力する。表示部14は、例えば、LCD(Liquid Crystal Display)のようなディスプレーを含み、種々の画像を表示する。また、ディスプレーは、タッチパネル機能を有しており、タッチセンサーを含む。タッチパネル機能を有するディスプレーは、入力部の一部を構成する。入力部は、情報を入力可能な複数のハードウェアボタンを含む。 The display unit 14 displays information to the user, or outputs the information input by the user to the control unit 20 (FIG. 2) via the display control unit 27 (FIG. 2). The display unit 14 includes, for example, a display such as an LCD (Liquid Crystal Display) and displays various images. The display also has a touch panel function and includes a touch sensor. A display having a touch panel function constitutes a part of an input unit. The input unit includes a plurality of hardware buttons into which information can be input.
操作ボタン15には、数字、記号等が付される。ユーザーは、操作ボタン15を操作して、印字枚数などを指示することができる。 Numbers, symbols, etc. are attached to the operation buttons 15. The user can operate the operation button 15 to instruct the number of prints and the like.
ユーザーは、表示部14を操作して、画像形成指示、画像形成設定、データ送受信指示、データ送受信設定、画像読取指示、および画像読取設定を行うことができる。 The user can operate the display unit 14 to perform image formation instruction, image formation setting, data transmission / reception instruction, data transmission / reception setting, image reading instruction, and image reading setting.
画像形成装置16は、給送トレイ17と、排出トレイ18とを有する。 The image forming apparatus 16 has a feed tray 17 and a discharge tray 18.
画像形成装置16は、内部に、図示しない印字機構として、例えば、給送機構、搬送機構、帯電機構、露光機構、現像機構、転写機構、定着機構、または、排出機構が配置される。 The image forming apparatus 16 is provided with, for example, a feeding mechanism, a conveying mechanism, a charging mechanism, an exposure mechanism, a developing mechanism, a transfer mechanism, a fixing mechanism, or a discharging mechanism as a printing mechanism (not shown) inside the image forming apparatus 16.
給送トレイ17は、画像形成装置16から引き出し可能であり、給送トレイ17に載置された図示しないシートは、給送機構、原稿搬送機構により給送される。 The feeding tray 17 can be pulled out from the image forming apparatus 16, and a sheet (not shown) placed on the feeding tray 17 is fed by a feeding mechanism and a document transporting mechanism.
シートは、帯電機構、露光機構、現像機構、および転写機構によりトナーなどの現像剤で現像され、定着機構に搬送される。 The sheet is developed with a developer such as toner by a charging mechanism, an exposure mechanism, a developing mechanism, and a transfer mechanism, and is conveyed to a fixing mechanism.
シートは、定着機構でトナーなどの現像剤が定着され、排出機構により、排出トレイ18に排出される。 A developer such as toner is fixed to the sheet by the fixing mechanism, and the sheet is discharged to the discharge tray 18 by the discharge mechanism.
次に、図1に加え、図2を参照して、実施形態に係る情報処理装置10を説明する。図2は、実施形態に係る情報処理装置10を示す機能ブロック図である。 Next, the information processing apparatus 10 according to the embodiment will be described with reference to FIG. 2 in addition to FIG. FIG. 2 is a functional block diagram showing the information processing device 10 according to the embodiment.
本実施形態では、情報処理装置10は、起動部30と、表示部14と、検知部23と、登録部28とを備える。 In the present embodiment, the information processing device 10 includes an activation unit 30, a display unit 14, a detection unit 23, and a registration unit 28.
起動部30は、登録部28に記憶されたソフトウェアを読み出し、アプリケーションを起動する。起動部30は、上位機能を起動する。表示部14は、上位機能の種類が異なる機能表示領域41と、GestureSettingModeアイコン44と(図3)を表示する。 The activation unit 30 reads the software stored in the registration unit 28 and activates the application. The activation unit 30 activates a higher-level function. The display unit 14 displays a function display area 41 having a different type of higher-level function, a Guest SettingMode icon 44, and (FIG. 3).
検知部23は、後述するGestureSettingModeにおいて、入力エリア70に入力されたジェスチャー71を検知する(図7)。検知部23は、後述する起動モードにおいて、機能表示領域41に入力されたジェスチャー90を検知する。検知部23の一例は、タッチパネルである。登録部28は、ジェスチャー登録モードにおいて、上位機能ごと、および、上位機能に含まれる下位機能を表わす文字種(DEFINEDGESTURES65)(図6)ごとに、ジェスチャー71を登録する。 The detection unit 23 detects the gesture 71 input to the input area 70 in the Guest Setting Mode described later (FIG. 7). The detection unit 23 detects the gesture 90 input to the function display area 41 in the activation mode described later. An example of the detection unit 23 is a touch panel. In the gesture registration mode, the registration unit 28 registers the gesture 71 for each upper function and for each character type (DEFINEGESTURES65) (FIG. 6) representing the lower function included in the upper function.
登録部28は、ユーザーごとにジェスチャー71を登録するテーブル29を有する。 The registration unit 28 has a table 29 for registering the gesture 71 for each user.
さらに、検知部23は、起動モードにおいて、上位機能ごとに、機能表示領域41にジェスチャー71が入力されたことを検知する。起動部30は、上位機能ごとに、入力されたジェスチャー71に基づいて、ジェスチャー71に割り当てられた下位機能を起動する。 Further, the detection unit 23 detects that the gesture 71 is input to the function display area 41 for each higher-level function in the activation mode. The activation unit 30 activates the lower function assigned to the gesture 71 based on the input gesture 71 for each upper function.
複数の上位機能は、画像形成機能、データ送受信機能、画像読取機能のいずれかを含む。 The plurality of higher-level functions include any of an image forming function, a data transmitting / receiving function, and an image reading function.
上位機能が画像形成機能の場合、下位機能は、画像形成指示機能、画像形成設定機能のいずれかを含む。上位機能がデータ送受信機能の場合、下位機能は、データ送受信指示機能、データ送受信設定機能のいずれかを含む。上位機能が画像読取機能の場合、下位機能は、画像読取指示機能、画像読取設定機能のいずれかを含む。 When the upper function is an image formation function, the lower function includes either an image formation instruction function or an image formation setting function. When the higher-level function is a data transmission / reception function, the lower-level function includes either a data transmission / reception instruction function or a data transmission / reception setting function. When the upper function is an image reading function, the lower function includes either an image reading instruction function or an image reading setting function.
情報処理装置10は、さらに、モード設定部21と、認識部22とを備える。モード設定部21は、情報処理装置10の各機能を起動する起動モードを設定する。モード設定部21は、ジェスチャー71を登録する登録モード(GestureSettingMode)を設定する。認識部22は、登録モード(GestureSettingMode)において、入力エリア70に入力されるジェスチャー71を認識する。認識部22は、起動モードにおいて、機能表示領域41に入力されたジェスチャー90を認識する。 The information processing device 10 further includes a mode setting unit 21 and a recognition unit 22. The mode setting unit 21 sets an activation mode for activating each function of the information processing apparatus 10. The mode setting unit 21 sets a registration mode (gestureSettingMode) for registering the gesture 71. The recognition unit 22 recognizes the gesture 71 input to the input area 70 in the registration mode (gestureSettingMode). The recognition unit 22 recognizes the gesture 90 input to the function display area 41 in the activation mode.
情報処理装置10は、回線Lによりサーバー200、または、クラウド300と接続されている。 The information processing device 10 is connected to the server 200 or the cloud 300 by the line L.
情報処理装置10の具体例は、印刷装置、MFP(Multi Function Printer)、ファックス装置である。 Specific examples of the information processing device 10 are a printing device, an MFP (Multifunction Printer), and a fax machine.
回線Lは、例えば、LAN(Local Area Network)、WAN(Wide Area Network)である。回線Lは、無線回線または有線回線のいずれかに限定されない。 The line L is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network). The line L is not limited to either a wireless line or a wired line.
情報処理装置10は、さらに、送受信部19と、制御部20と、表示制御部27と、登録部28と、起動部30とを備える。 The information processing device 10 further includes a transmission / reception unit 19, a control unit 20, a display control unit 27, a registration unit 28, and an activation unit 30.
送受信部19の一例は、CODEC(CODER/DECODER)である。 An example of the transmission / reception unit 19 is a CODEC (CODER / DECODER).
制御部20は、モード設定部21と、認識部22と、検知部23と、判別部24と、判定部25と、比較部26とを含む。 The control unit 20 includes a mode setting unit 21, a recognition unit 22, a detection unit 23, a discrimination unit 24, a determination unit 25, and a comparison unit 26.
制御部20は、情報処理装置10の動作を制御する。制御部20は、CPU(Central Processing Unit)のようなプロセッサーを含む。モード設定部21と、認識部22と、検知部23と、判別部24と、判定部25と、比較部26とは、具体的には、ASIC(Application Specific Integrated Circuit)などで実現される。 The control unit 20 controls the operation of the information processing device 10. The control unit 20 includes a processor such as a CPU (Central Processing Unit). Specifically, the mode setting unit 21, the recognition unit 22, the detection unit 23, the discrimination unit 24, the determination unit 25, and the comparison unit 26 are realized by an ASIC (Application Specific Integrated Circuit) or the like.
登録部28は、テーブル29を含む。登録部28は、記憶装置を含み、データおよびコンピュータープログラムを記憶する。具体的には、登録部28は、半導体メモリーのような主記憶装置と、半導体メモリーおよび/またはハードディスクドライブのような補助記憶装置とを含む。 The registration unit 28 includes a table 29. The registration unit 28 includes a storage device and stores data and computer programs. Specifically, the registration unit 28 includes a main storage device such as a semiconductor memory and an auxiliary storage device such as a semiconductor memory and / or a hard disk drive.
登録部28は、リムーバブルメディアを含んでいてもよい。制御部20のプロセッサーは、登録部28の記憶装置が記憶しているコンピュータープログラムを実行して、情報処理装置10の動作を制御する。 The registration unit 28 may include removable media. The processor of the control unit 20 executes a computer program stored in the storage device of the registration unit 28 to control the operation of the information processing device 10.
起動部30は、登録部28に記憶されたソフトウェアを読み出し、アプリケーションを起動する。起動部30は、上位機能を起動する。起動部30は、上位機能ごとに、入力されたジェスチャー90に基づいて、ジェスチャー90に割り当てられた下位機能を起動する。 The activation unit 30 reads the software stored in the registration unit 28 and activates the application. The activation unit 30 activates a higher-level function. The activation unit 30 activates the lower function assigned to the gesture 90 based on the input gesture 90 for each upper function.
起動部30は、GestureSettingModeを起動する。具体的には、モード設定部21がGestureSettingModeに切り換え、GestureSettingModeを設定すると、起動部30は、GestureSettingModeを起動する。 The activation unit 30 activates the Guest Setting Mode. Specifically, when the mode setting unit 21 switches to the GestureSettingMode and sets the GestureSettingMode, the activation unit 30 starts the GestureSettingMode.
起動部30は、起動モードを起動する。具体的には、モード設定部21が起動モードに切り換え、起動モードを設定すると、起動部30は、起動モードを起動する。 The activation unit 30 activates the activation mode. Specifically, when the mode setting unit 21 switches to the activation mode and sets the activation mode, the activation unit 30 activates the activation mode.
制御部20において、モード設定部21は、GestureSettingModeと、起動モードとを切り替えて設定する。 In the control unit 20, the mode setting unit 21 switches between the Guest Setting Mode and the start mode for setting.
GestureSettingModeは、テーブル29にジェスチャー71を登録するモードである。GestureSettingModeにおいて、認識部22は、表示部14に表示された入力エリア70に入力されたジェスチャー71を認識する。登録部28は、テーブル29にジェスチャー71を登録する。 The Guest Setting Mode is a mode in which the gesture 71 is registered in the table 29. In the Guest Setting Mode, the recognition unit 22 recognizes the gesture 71 input to the input area 70 displayed on the display unit 14. The registration unit 28 registers the gesture 71 in the table 29.
起動モードは、機能表示領域41に入力されたジェスチャー71に基づいて、下位機能を起動させるモードである。起動モードにおいて、認識部22は、表示部14に表示された機能表示領域41に入力されたジェスチャー71を認識する。起動部30は、認識されたジェスチャー71に基づいて、下位機能を起動させる。 The activation mode is a mode in which a lower function is activated based on the gesture 71 input to the function display area 41. In the activation mode, the recognition unit 22 recognizes the gesture 71 input to the function display area 41 displayed on the display unit 14. The activation unit 30 activates a lower function based on the recognized gesture 71.
上位機能は、例えば、画像読取機能、データ送受信機能、画像形成機能である。画像読取機能は、例えば、画像読取装置11により、原稿に記載された画像を読み取って、画像データを生成する機能である。データ送受信機能は、例えば、電子メールソフトにより電子メールを送受信する機能である。電子メールには、文字データまたは画像データが添付され得る。画像形成機能は、例えば、MFPなどの画像形成装置16により、シートに画像を形成する機能である。 The higher-level functions are, for example, an image reading function, a data transmission / reception function, and an image forming function. The image reading function is, for example, a function of reading an image described in a document by an image reading device 11 and generating image data. The data transmission / reception function is, for example, a function for transmitting / receiving e-mail by e-mail software. Character data or image data may be attached to the e-mail. The image forming function is a function of forming an image on a sheet by, for example, an image forming device 16 such as an MFP.
下位機能は、画像読取機能、データ送受信機能、および画像形成機能のそれぞれの下位に含まれる機能である。 The subordinate functions are functions included in the subordinates of the image reading function, the data transmission / reception function, and the image forming function.
画像読取機能の下位機能は、画像読取指示機能、画像読取設定機能のいずれかを含む。画像読取指示機能は、画像読取装置11に、原稿に記載された画像情報を読み取って、画像データを生成する機能を発揮させるよう指示する機能である。具体的には、ユーザーが、端末により、または、情報処理装置10の表示部14により画像読取指示を出す。 The subordinate functions of the image reading function include either an image reading instruction function or an image reading setting function. The image reading instruction function is a function of instructing the image reading device 11 to exert a function of reading image information described in a document and generating image data. Specifically, the user issues an image reading instruction by the terminal or by the display unit 14 of the information processing device 10.
画像読取設定機能は、画像読取装置11が、どのように原稿に記載された画像情報を読み取るかの設定を行う機能である。例えば、ユーザーは、端末により、または、情報処理装置10の表示部14により、カラー/モノクロの別、両面読み取りなどの設定を行う。 The image reading setting function is a function of setting how the image reading device 11 reads the image information described in the document. For example, the user makes settings such as color / monochrome distinction and double-sided reading by the terminal or the display unit 14 of the information processing device 10.
データ送受信機能の下位機能は、データ送受信指示機能、データ送受信設定機能のいずれかを含む。 The subordinate functions of the data transmission / reception function include either a data transmission / reception instruction function or a data transmission / reception setting function.
データ送受信指示機能は、電子メール(Eメール)またはFaxの送受信を指示する機能である。 The data transmission / reception instruction function is a function for instructing transmission / reception of e-mail (e-mail) or fax.
例えば、ユーザーは、端末、または、情報処理装置10の表示部14に表示された電子メールまたはFaxデータを送信するよう指示する。ユーザーは、端末、または、情報処理装置10の表示部14により、回線Lから受信した電子メールまたはFaxデータを受信するよう指示する。 For example, the user is instructed to transmit the e-mail or fax data displayed on the terminal or the display unit 14 of the information processing device 10. The user instructs the terminal or the display unit 14 of the information processing apparatus 10 to receive the e-mail or the fax data received from the line L.
データ送受信設定機能は、電子メールまたはFaxをどのように送受信するかを設定する機能である。 The data transmission / reception setting function is a function for setting how to send / receive e-mail or fax.
例えば、ユーザーは、端末、または、情報処理装置10の表示部14により、電子メールまたはFaxデータをどのように送受信するかを設定する。 For example, the user sets how to send and receive e-mail or fax data by the terminal or the display unit 14 of the information processing device 10.
画像形成機能の下位機能は、画像形成指示機能、画像形成設定機能のいずれかを含む。 The subordinate functions of the image formation function include either an image formation instruction function or an image formation setting function.
画像形成指示機能は、画像形成装置16により、シートに画像形成するよう指示する機能である。 The image formation instruction function is a function of instructing the sheet to form an image by the image forming apparatus 16.
例えば、ユーザーは、端末、または、情報処理装置10の表示部14により、シートに画像形成するよう指示する。 For example, the user instructs the terminal or the display unit 14 of the information processing apparatus 10 to form an image on the sheet.
画像形成設定機能は、画像形成装置16により、シートにどのように画像形成するかを設定する機能である。 The image formation setting function is a function of setting how an image is formed on a sheet by the image forming apparatus 16.
例えば、ユーザーは、端末、または、情報処理装置10の表示部14により、シートのサイズ、カラー/モノクロの別、両面印刷などを設定する。 For example, the user sets the sheet size, color / monochrome distinction, double-sided printing, and the like on the terminal or the display unit 14 of the information processing device 10.
次に、制御部20に含まれる認識部22は、GestureSettingModeにおいて、入力エリア70に入力されるジェスチャー71を認識する。具体的には、ユーザーが、ペンまたは指により表示部14に入力したジェスチャー71を、画像認識または文字認識し、画像データとして出力する。 Next, the recognition unit 22 included in the control unit 20 recognizes the gesture 71 input to the input area 70 in the Guest Setting Mode. Specifically, the gesture 71 input by the user to the display unit 14 with a pen or a finger is image-recognized or character-recognized and output as image data.
認識部22は、起動モードにおいて、機能表示領域41に入力されるジェスチャー90を認識する。具体的には、ユーザーが、ペンまたは指により表示部14に入力したジェスチャー90を、画像認識または文字認識し、画像データとして出力する。ジェスチャー71は、ユーザーが指を入力エリア70または機能表示領域41でなぞった筆跡であってもよい。ジェスチャー71は、ユーザーがペンを入力エリア70または機能表示領域41でなぞった筆跡であってもよい。 The recognition unit 22 recognizes the gesture 90 input to the function display area 41 in the activation mode. Specifically, the gesture 90 input by the user to the display unit 14 with a pen or a finger is image-recognized or character-recognized and output as image data. The gesture 71 may be a handwriting in which the user traces a finger in the input area 70 or the function display area 41. The gesture 71 may be a handwriting in which the user traces the pen in the input area 70 or the function display area 41.
検知部23は、GestureSettingModeにおいて、ユーザーが、ペンまたは指により表示部14の入力エリア70に入力したジェスチャー71を検知し、画像データとして出力する。 The detection unit 23 detects the gesture 71 input by the user into the input area 70 of the display unit 14 with a pen or a finger in the Guest Setting Mode and outputs it as image data.
検知部23は、起動モードにおいて、ユーザーが、ペンまたは指により表示部14の機能表示領域41に入力したジェスチャー90を検知し、画像データとして出力する。 In the activation mode, the detection unit 23 detects the gesture 90 input by the user into the function display area 41 of the display unit 14 with a pen or a finger, and outputs the gesture 90 as image data.
判別部24は、入力エリア70にジェスチャー71が入力されたとき、登録部28のテーブル29に基づいて、ジェスチャー71を登録したユーザーを判別する。 When the gesture 71 is input to the input area 70, the determination unit 24 determines the user who has registered the gesture 71 based on the table 29 of the registration unit 28.
判別部24は、機能表示領域41にジェスチャー90が入力されたとき、登録部28のテーブル29に基づいて、ジェスチャー90を登録したユーザーを判別する。 When the gesture 90 is input to the function display area 41, the determination unit 24 determines the user who has registered the gesture 90 based on the table 29 of the registration unit 28.
判定部25は、入力エリア70にジェスチャー71、または、機能表示領域41に入力されたジェスチャー90が、登録部28のテーブル29に登録されているか否かを判定する。具体的には、判定部25は、ユーザーが機能表示領域41に入力したジェスチャー71の軌跡を解析し、同様の軌跡を有するジェスチャー71が登録部28のテーブル29に登録されているか否かを判定する。 The determination unit 25 determines whether or not the gesture 71 input in the input area 70 or the gesture 90 input in the function display area 41 is registered in the table 29 of the registration unit 28. Specifically, the determination unit 25 analyzes the locus of the gesture 71 input by the user in the function display area 41, and determines whether or not the gesture 71 having the same locus is registered in the table 29 of the registration unit 28. To do.
判定部25は、ジェスチャー71の軌跡が、検知部23の機能表示領域41にあるか否かを判定する。具体的には、判定部25は、ユーザーが機能表示領域41に入力したジェスチャー71の軌跡を解析し、ジェスチャー71の少なくとも一部が機能表示領域41にないことを判定する。 The determination unit 25 determines whether or not the locus of the gesture 71 is in the function display area 41 of the detection unit 23. Specifically, the determination unit 25 analyzes the locus of the gesture 71 input by the user in the function display area 41, and determines that at least a part of the gesture 71 is not in the function display area 41.
比較部26は、機能表示領域41に入力された新ジェスチャー93(図21)と、登録部28に登録されたジェスチャーとを比較する。具体的には、ユーザーが機能表示領域41に新ジェスチャー93を入力すると、新ジェスチャー93と、テーブル29に登録されているジェスチャーとを比較する。 The comparison unit 26 compares the new gesture 93 (FIG. 21) input in the function display area 41 with the gesture registered in the registration unit 28. Specifically, when the user inputs the new gesture 93 in the function display area 41, the new gesture 93 is compared with the gesture registered in the table 29.
表示制御部27は、画像データに基づき、表示部14に表示される画像のレイアウトを制御する。 The display control unit 27 controls the layout of the image displayed on the display unit 14 based on the image data.
(実施形態1)
次に、図1および図2に加えて、図3〜図15を参照して、実施形態1に係る情報処理装置10について具体的に説明する。
(Embodiment 1)
Next, in addition to FIGS. 1 and 2, the information processing apparatus 10 according to the first embodiment will be specifically described with reference to FIGS. 3 to 15.
実施形態1は、情報処理装置10の登録部28にジェスチャー71を登録する実施形態を説明する。 The first embodiment describes an embodiment in which the gesture 71 is registered in the registration unit 28 of the information processing device 10.
図3〜図5は、本実施形態1に係る情報処理装置10の表示部14を示す図である。図6は、本実施形態1に係る情報処理装置10の表示部14の一部を示す図である。図7〜図9は、本実施形態1に係る情報処理装置10の表示部14を示す図である。図10は、本実施形態1に係る情報処理装置10の表示部14の一部を示す図である。図11および図12は、本実施形態1に係る情報処理装置10の表示部14を示す図である。 3 to 5 are views showing a display unit 14 of the information processing apparatus 10 according to the first embodiment. FIG. 6 is a diagram showing a part of the display unit 14 of the information processing device 10 according to the first embodiment. 7 to 9 are views showing a display unit 14 of the information processing apparatus 10 according to the first embodiment. FIG. 10 is a diagram showing a part of the display unit 14 of the information processing apparatus 10 according to the first embodiment. 11 and 12 are views showing a display unit 14 of the information processing apparatus 10 according to the first embodiment.
図13および図14は、本実施形態1に係る情報処理装置10の登録部28が有するテーブル29を示す図である。図15は、本実施形態1に係る情報処理装置10の制御を示すフローチャートである。 13 and 14 are views showing a table 29 included in the registration unit 28 of the information processing apparatus 10 according to the first embodiment. FIG. 15 is a flowchart showing control of the information processing apparatus 10 according to the first embodiment.
まず、図3に示すように、起動部30は、アプリケーションを起動する。 First, as shown in FIG. 3, the activation unit 30 activates the application.
表示制御部27(図2)は、表示部14に、HOMESCREEN40を表示させる。表示部14は、HOMESCREEN40を表示する。 The display control unit 27 (FIG. 2) causes the display unit 14 to display HOMESCREEN 40. The display unit 14 displays HOMESCREEN 40.
モード設定部21は、GestureSettingModeを設定する。 The mode setting unit 21 sets the Guest Setting Mode.
表示部14は、HOMESCREEN40において、さらに、複数の機能表示領域41を表示する。機能表示領域41には、上位機能の名称が表示される。 The display unit 14 further displays a plurality of function display areas 41 in the HOMESCREEN 40. The name of the higher-level function is displayed in the function display area 41.
表示部14は、機能表示領域41Aに、上位機能であるCopy機能を表示する。Copy機能の一例は、画像形成機能である。表示部14は、機能表示領域41Bに、上位機能であるSend機能を表示する。Send機能の一例は、電子メール送受信機能である。表示部14は、機能表示領域41Cに、上位機能であるFax機能を表示する。Fax機能の一例は、ファックス送受信機能である。 The display unit 14 displays the Copy function, which is a higher-level function, in the function display area 41A. An example of the Copy function is an image forming function. The display unit 14 displays the Send function, which is a higher-level function, in the function display area 41B. An example of the Send function is an e-mail transmission / reception function. The display unit 14 displays the fax function, which is a higher-level function, in the function display area 41C. An example of the fax function is a fax transmission / reception function.
表示部14は、GestureSettingModeアイコン44を表示する。ユーザーが、GestureSettingModeアイコン44を指示すると、モード設定部21は、情報処理装置10のモードをGestureSettingModeに切り替え、設定する。 The display unit 14 displays the Guest SettingMode icon 44. When the user instructs the GuestureSettingMode icon 44, the mode setting unit 21 switches the mode of the information processing device 10 to the GuestureSettingMode and sets the mode.
図4に示すように、表示部14は、GestureSettingsMode画面45を表示する。GestureSettingsMode画面45では、表示部14は、Copyアイコン46と、Sendアイコン47と、Faxアイコン48と、Homeアイコン49とを表示する。 As shown in FIG. 4, the display unit 14 displays the Guest SettingsMode screen 45. On the Guest SettingsMode screen 45, the display unit 14 displays the Copy icon 46, the Send icon 47, the Fax icon 48, and the Home icon 49.
実施形態1では、例えば、ユーザーが、Copyアイコン46と、Faxアイコン48とを選択した実施形態について説明する。 In the first embodiment, for example, an embodiment in which the user selects the Copy icon 46 and the Fax icon 48 will be described.
まず、ユーザーがCopyアイコン46を指示すると、図5に示すように、表示部14は、Copy機能におけるジェスチャー登録の選択メニューを表示する。同様に、図4において、ユーザーがSendアイコン47を表示すると、表示部14は、図示しないSend機能におけるジェスチャー登録の選択メニューを表示する。ユーザーがFaxアイコン48を選択すると、表示部14は、図示しないFax機能におけるジェスチャー登録の選択メニューを表示する。 First, when the user instructs the Copy icon 46, the display unit 14 displays the gesture registration selection menu in the Copy function, as shown in FIG. Similarly, in FIG. 4, when the user displays the Send icon 47, the display unit 14 displays a gesture registration selection menu in the Send function (not shown). When the user selects the fax icon 48, the display unit 14 displays a selection menu for gesture registration in the fax function (not shown).
図4において、ユーザーがHomeアイコン49を指示すると、HOMESCREEN40に戻ることができる。表示部14は、図3で説明したHOMESCREEN40を表示する。 In FIG. 4, when the user instructs the Home icon 49, it is possible to return to the HOMESCREEN 40. The display unit 14 displays the HOMESCREEN 40 described with reference to FIG.
Copy機能におけるジェスチャー登録の選択メニューは、図5に示すように、例えば、CopyGesturesアイコン60と、NumberofCopiesアイコン61と、Previewアイコン62とを有する。 As shown in FIG. 5, the gesture registration selection menu in the Copy function has, for example, a Copygestures icon 60, a NumberofCopyes icon 61, and a Preview icon 62.
図5において、ユーザーが、CopyGesturesアイコン60を指示すると、登録部28は、Copy機能におけるジェスチャー71Aを登録可能にする。ユーザーが、NumberofCopiesアイコン61を指示すると、登録部28は、印刷枚数を登録可能にする。ユーザーが、Previewアイコン62を指示すると、表示部14は、登録しようとするジェスチャー71のプレビューを表示する。 In FIG. 5, when the user instructs the Copygestures icon 60, the registration unit 28 enables the gesture 71A in the Copy function to be registered. When the user instructs the NumberofCopys icon 61, the registration unit 28 makes it possible to register the number of prints. When the user instructs the preview icon 62, the display unit 14 displays a preview of the gesture 71 to be registered.
図5において、ユーザーが、NumberofCopiesアイコン61を指示すると、図6に示すように、表示部14は、DEFINEDGESTURES65(文字種)を表示する。 In FIG. 5, when the user instructs the NumberofCopys icon 61, the display unit 14 displays the DEFINED GESTURES 65 (character type) as shown in FIG.
DEFINEDGESTURES65は、例えば、複数のエレメント66で構成される。エレメント66の一例は、「2」、「S」、「P」、「C」、「9」、「V」、「Q」、「6」、および「N」である。これらのエレメント66は、一例として、一筆書きできる数字またはアルファベットが好適である。 The DEFINED GESTURES 65 is composed of, for example, a plurality of elements 66. Examples of the element 66 are "2", "S", "P", "C", "9", "V", "Q", "6", and "N". As an example, these elements 66 are preferably numbers or alphabets that can be written with a single stroke.
ユーザーは、上位機能に応じて、エレメント66を自由に定義できる。具体的には、ユーザーは、表示部14から、上位機能ごとに、それぞれのエレメント66を設定できる。登録部28は、設定されたエレメント66を登録する。 The user can freely define the element 66 according to the higher-level function. Specifically, the user can set each element 66 for each higher-level function from the display unit 14. The registration unit 28 registers the set element 66.
例えば、上位機能がCopy機能である場合、ユーザーは、「2」のエレメント66を、「2枚印刷する」に定義できる。例えば、上位機能がCopy機能である場合、ユーザーは、「P」のエレメント66を、「両面印刷する」に定義できる。登録部28は、定義されたエレメント66を登録する。 For example, when the higher-level function is the Copy function, the user can define the element 66 of "2" to "print two sheets". For example, when the higher-level function is the Copy function, the user can define the element 66 of "P" as "double-sided printing". The registration unit 28 registers the defined element 66.
また、上位機能がFax機能である場合、ユーザーは、「2」のエレメント66を、「リスト番号2番の送信アドレスにファックス送信する」に定義できる。登録部28は、定義されたエレメント66を登録する。 Further, when the higher-level function is a fax function, the user can define the element 66 of "2" to "send by fax to the transmission address of the list number 2." The registration unit 28 registers the defined element 66.
図6に示すように、ユーザーが「2」のエレメント66を指示すると、図7に示すように、表示部14は、「2」のエレメント66に対応する「2」のジェスチャーを入力する入力エリア70を表示する。さらに、図7に示すように、表示部14は、Saveアイコン72と、Deleteアイコン73と、Previewアイコン74とを表示してもよい。また、ユーザーが、図6に示すエレメント66を指示するステップは、省略されてもよい。 As shown in FIG. 6, when the user instructs the element 66 of "2", as shown in FIG. 7, the display unit 14 is an input area for inputting the gesture of "2" corresponding to the element 66 of "2". 70 is displayed. Further, as shown in FIG. 7, the display unit 14 may display the Save icon 72, the Delete icon 73, and the Preview icon 74. Further, the step in which the user instructs the element 66 shown in FIG. 6 may be omitted.
入力エリア70は、選択された「2」のエレメント66について、ユーザーが指またはペンを用いて、ユーザー固有のジェスチャー71Aを描画する領域である。 The input area 70 is an area in which the user draws a user-specific gesture 71A with a finger or a pen on the selected element 66 of “2”.
ユーザーがSaveアイコン72を指示すると、描画したジェスチャー71Aが登録部28のテーブル29(図2)に登録される。ユーザーがDeleteアイコン73を指示すると、描画したジェスチャー71Aが消去される。ユーザーがDeleteアイコン73を指示すると、すでに登録部28のテーブル29に登録されたジェスチャー71Aが消去されてもよい。当該事項は、他の実施形態にも適用され得る。 When the user instructs the Save icon 72, the drawn gesture 71A is registered in the table 29 (FIG. 2) of the registration unit 28. When the user instructs the Delete icon 73, the drawn gesture 71A is deleted. When the user instructs the Delete icon 73, the gesture 71A already registered in the table 29 of the registration unit 28 may be deleted. The matter may also apply to other embodiments.
ユーザーがPreviewアイコン74を指示すると、すでに登録部28のテーブル29に登録されているジェスチャー71が表示されてもよい。ユーザーがPreviewアイコン74を指示すると、登録部28のテーブル29に登録される予定のジェスチャー71Aの画像が表示されてもよい。当該事項は、他の実施形態にも適用され得る。 When the user instructs the preview icon 74, the gesture 71 already registered in the table 29 of the registration unit 28 may be displayed. When the user instructs the preview icon 74, the image of the gesture 71A scheduled to be registered in the table 29 of the registration unit 28 may be displayed. The matter may also apply to other embodiments.
図7に示すように、ユーザーは、図6において「2」のエレメント66を選択したので、図7に示す入力エリア70に「2」を描画する。 As shown in FIG. 7, since the user has selected the element 66 of “2” in FIG. 6, “2” is drawn in the input area 70 shown in FIG.
図7に示すように、ユーザーがSaveアイコン72を指示すると、入力エリア70に描画されたユーザー固有の「2」のジェスチャー71Aが、登録部28のテーブル29に登録されたDEFINEDGESTURES65の「2」のエレメント66に登録される。 As shown in FIG. 7, when the user instructs the Save icon 72, the user-specific “2” gesture 71A drawn in the input area 70 is the “2” of the DEFINEGESTURES 65 registered in the table 29 of the registration unit 28. Registered in element 66.
表示制御部27は、ジェスチャー71Aの登録が完了すると、図8に示すように、再び、図5と同様のGestureSettingsMode画面45を表示してもよい。 When the registration of the gesture 71A is completed, the display control unit 27 may display the GestureSettingsMode screen 45 similar to that of FIG. 5 again as shown in FIG.
次に、図8に示すGestureSettingsMode画面45において、ユーザーがFaxアイコン48を指示すると、図9に示すように、表示部14は、例えば、CopyGestures60と、NumberofAddressアイコン63と、Previewアイコン64とを表示する。 Next, on the GhostSettingsMode screen 45 shown in FIG. 8, when the user instructs the Fax icon 48, as shown in FIG. 9, the display unit 14 displays, for example, the CopyGestures60, the Numberaddless icon 63, and the Preview icon 64. ..
ユーザーがCopyGestures67を指示すると、例えば、Faxしようとする原稿をコピーする枚数を登録できる。ユーザーがNumberofAddressアイコン63を指示すると、例えば、Faxの送信アドレスのリスト番号を登録できる。 When the user instructs Copygestures67, for example, the number of copies of the original to be faxed can be registered. When the user instructs the NumberofAdless icon 63, for example, a list number of fax transmission addresses can be registered.
ユーザーがPreviewアイコン64を指示すると、例えば、ユーザーが登録しようとするリスト番号の描画をプレビューさせることができる。ユーザーがPreviewアイコン64を指示すると、例えば、すでに登録されているリスト番号の画像をプレビューさせてもよい。 When the user instructs the Preview icon 64, for example, the drawing of the list number that the user intends to register can be previewed. When the user instructs the preview icon 64, for example, the image of the list number already registered may be previewed.
図9に示すように、ユーザーがNumberofAddressアイコン63を指示すると、表示部14は、図10に示すように、DEFINEDGESTURES65を表示する。 As shown in FIG. 9, when the user instructs the Number of Adsless icon 63, the display unit 14 displays the DEFINED GESTURES 65 as shown in FIG.
DEFINEDGESTURES65は、一例として、複数の数字またはアルファベットを含むことが好適である。図10に示すDEFINEDGESTURES65は、例えば、複数のエレメント66で構成される。エレメント66の一例は、図6と同様の、「2」、「S」、「P」、「C」、「9」、「V」、「Q」、「6」、および「N」である。これらのエレメント66は、一例として、一筆書きできる数字またはアルファベットが好適である。 DEFINEDGESTURES65 preferably contains, for example, a plurality of numbers or alphabets. The DEFINEGESTURES 65 shown in FIG. 10 is composed of, for example, a plurality of elements 66. An example of the element 66 is "2", "S", "P", "C", "9", "V", "Q", "6", and "N" as in FIG. .. As an example, these elements 66 are preferably numbers or alphabets that can be written with a single stroke.
つまり、図6のCopyジェスチャーを示すDEFINEDGESTURES65のエレメント66と、図10のFaxジェスチャーを示すDEFINEDGESTURES65のエレメント66とは同一であることが好適である。同一のジェスチャーで異なる下位機能を起動させるためである。 That is, it is preferable that the element 66 of the DEFINED GESTURES 65 showing the Copy gesture of FIG. 6 and the element 66 of the DEFINE GESTURES 65 showing the Fax gesture of FIG. 10 are the same. This is to activate different subordinate functions with the same gesture.
図10に示すように、ユーザーがDEFINEDGESTURES65の「2」のエレメント66を指示すると、図11に示すように、表示部14は、「2」のエレメント66に対応する入力エリア81を表示する。さらに、図11に示すように、表示部14は、Saveアイコン83と、Deleteアイコン84と、Previewアイコン85とを表示してもよい。 As shown in FIG. 10, when the user instructs the element 66 of “2” of DEFINED DESTURES 65, the display unit 14 displays the input area 81 corresponding to the element 66 of “2” as shown in FIG. Further, as shown in FIG. 11, the display unit 14 may display the Save icon 83, the Delete icon 84, and the Preview icon 85.
入力エリア81は、選択された「2」のエレメント66について、ユーザーが指またはペンを用いて、ユーザー固有のジェスチャー71Bを描画する領域である。 The input area 81 is an area in which the user draws a user-specific gesture 71B with a finger or a pen on the selected element 66 of “2”.
ユーザーがSaveアイコン83を指示すると、描画したジェスチャー71Bがテーブル29のDEFINEDGESTURES65の「2」のエレメント66に登録される。ユーザーがDeleteアイコン84を指示すると、描画したジェスチャー71Bが消去される。ユーザーがDeleteアイコン84を指示すると、すでに登録部28のテーブル29に登録されたジェスチャー71Bが消去されてもよい。 When the user instructs the Save icon 83, the drawn gesture 71B is registered in the element 66 of "2" of the DEFINEED GESTURES 65 of the table 29. When the user instructs the Delete icon 84, the drawn gesture 71B is deleted. When the user instructs the Delete icon 84, the gesture 71B already registered in the table 29 of the registration unit 28 may be deleted.
ユーザーがPreviewアイコン85を指示すると、すでに登録部28のテーブル29に登録されているジェスチャー71Bが表示されてもよい。ユーザーがPreviewアイコン85を指示すると、登録部28のテーブル29に登録される予定のジェスチャー71Bの画像が表示されてもよい。 When the user instructs the preview icon 85, the gesture 71B already registered in the table 29 of the registration unit 28 may be displayed. When the user instructs the preview icon 85, the image of the gesture 71B to be registered in the table 29 of the registration unit 28 may be displayed.
図11に示すように、ユーザーは、図10において「2」のエレメント66を選択したので、図11に示す入力エリア81に「2」を描画する。 As shown in FIG. 11, since the user has selected the element 66 of “2” in FIG. 10, “2” is drawn in the input area 81 shown in FIG.
図11に示すように、ユーザーがSaveアイコン83を指示すると、入力エリア81に描画されたユーザー固有の「2」が、登録部28のテーブル29に登録される。 As shown in FIG. 11, when the user instructs the Save icon 83, the user-specific "2" drawn in the input area 81 is registered in the table 29 of the registration unit 28.
表示制御部27は、ジェスチャー71Bの登録が完了すると、図12に示すように、再び、図5および図8と同様のGestureSettingsMode画面45を表示してもよい。 When the registration of the gesture 71B is completed, the display control unit 27 may display the same GestureSettingsMode screen 45 as in FIGS. 5 and 8 again as shown in FIG.
図12に示すように、ユーザーがHomeアイコン82を指示すると、表示制御部27は、表示部14にHOMESCREEN40を表示させてもよい。表示部14は、表示制御部27の制御に基づいて、HOMESCREEN40を表示する。 As shown in FIG. 12, when the user instructs the Home icon 82, the display control unit 27 may display the HOMESCREEN 40 on the display unit 14. The display unit 14 displays the HOMESCREEN 40 based on the control of the display control unit 27.
次に、図13および図14を参照して、登録部28のテーブル29を説明する。図13および図14に示すように、一例として、テーブル29の縦枠に上位機能を記載する。テーブル29の横枠に下位機能を記載する。 Next, the table 29 of the registration unit 28 will be described with reference to FIGS. 13 and 14. As shown in FIGS. 13 and 14, as an example, higher-level functions are described in the vertical frame of the table 29. Subordinate functions are described in the horizontal frame of the table 29.
図13および図14に示すテーブル29は、登録部28がユーザーごとにジェスチャー71を登録する。つまり、図13は、ユーザーAが登録したジェスチャー71Aのテーブル29Aを示す。図14は、ユーザーBが登録したジェスチャー71Aのテーブル29Bを示す。 In the table 29 shown in FIGS. 13 and 14, the registration unit 28 registers the gesture 71 for each user. That is, FIG. 13 shows the table 29A of the gesture 71A registered by the user A. FIG. 14 shows a table 29B of the gesture 71A registered by the user B.
図13に示すテーブル29Aの縦枠は、例えば、上位機能である、コピー、印刷、ファックス、メール、スキャナーの各機能が記載される。 The vertical frame of the table 29A shown in FIG. 13 describes, for example, each function of copy, print, fax, mail, and scanner, which are higher-level functions.
図13に示すテーブル29Aの横枠は、例えば、各上位機能における下位機能が表示される。上位機能がコピーである場合、下位機能の「2」または「3」は、例えば、コピー枚数が定義されてよい。下位機能の「P」は、例えば、両面印字が定義されてよい。 In the horizontal frame of the table 29A shown in FIG. 13, for example, the lower functions in each upper function are displayed. When the higher-level function is a copy, the number of copies may be defined for the lower-level function "2" or "3", for example. For the lower function "P", for example, double-sided printing may be defined.
下位機能の数、または、下位機能の定義は、ユーザーが、例えば、表示部14から適宜定義できる。 The number of subordinate functions or the definition of subordinate functions can be appropriately defined by the user, for example, from the display unit 14.
図13に示すように、例えば、各上位機能に対して、下位機能の「2」の欄に登録されるジェスチャー71Aは、すべてユーザーAにより登録されるので、ユーザーAに特有の同一または類似の字体である。しかし、同じ「2」であっても、コピーの「2」とファックスの「2」では互いに異なる定義で登録されている。 As shown in FIG. 13, for example, for each upper function, all the gestures 71A registered in the "2" column of the lower function are registered by the user A, so that they are the same or similar to the user A. It is a font. However, even if the same "2" is used, the copy "2" and the fax "2" are registered with different definitions.
すなわち、上位機能がコピーの場合、下位機能の「2」は、例えば、コピー枚数として定義されている。上位機能がファックスの場合、下位機能の「2」は、例えば、送信アドレスのリスト番号として定義されている。 That is, when the upper function is a copy, the lower function "2" is defined as, for example, the number of copies. When the higher-level function is fax, the lower-level function "2" is defined as, for example, a list number of transmission addresses.
次に、図14は、ユーザーBが登録したジェスチャー71Aのテーブル29Bを示す。テーブル29Bの縦枠および横枠は、図13で説明したテーブル29Aと同一であってもよい。 Next, FIG. 14 shows a table 29B of the gesture 71A registered by the user B. The vertical frame and the horizontal frame of the table 29B may be the same as the table 29A described with reference to FIG.
テーブル29Bに登録されたユーザーBの字体は、一般的に、ユーザーAの字体と異なる。従って、後述する判別部24は、字体に基づいて、ユーザーAによる指示とユーザーBによる指示とを判別することができる。 The font of user B registered in table 29B is generally different from the font of user A. Therefore, the discriminating unit 24, which will be described later, can discriminate between the instruction by the user A and the instruction by the user B based on the font.
具体的には、図14に示すテーブル29Bにおいて、例えば、上位機能がCopyである場合の下位機能である「2」は、ページ数を示す。ユーザーBは、図16で後述するHOMESCREEN40の機能表示領域41Aで、「2」をジェスチャーすると、Copyが2枚印字される。 Specifically, in the table 29B shown in FIG. 14, for example, “2”, which is a lower function when the upper function is Copy, indicates the number of pages. When the user B makes a gesture of "2" in the function display area 41A of the HOMESCREEN 40 described later in FIG. 16, two copies are printed.
図14に示すテーブル29Bにおいて、例えば、上位機能がFax機能である場合の下位機能である「2」は、送信アドレスのリスト番号を示す。ユーザーBは、図16で後述するHOMESCREEN40の機能表示領域41Cで、「2」をジェスチャーすると、リスト番号2番の送信アドレスに、Faxが送信される。 In the table 29B shown in FIG. 14, for example, “2”, which is a lower function when the upper function is a fax function, indicates a list number of transmission addresses. When the user B gestures "2" in the function display area 41C of the HOMESCREEN 40 described later in FIG. 16, a fax is transmitted to the transmission address of the list number 2.
次に、図15を参照して、本実施形態1に係る情報処理装置10の制御を説明する。図15は、本実施形態1に係る情報処理装置10の制御を示すフローチャートである。図15に示すように、処理は、ステップS10からステップS18を含む。具体的には次の通りである。 Next, the control of the information processing apparatus 10 according to the first embodiment will be described with reference to FIG. FIG. 15 is a flowchart showing control of the information processing apparatus 10 according to the first embodiment. As shown in FIG. 15, the process includes steps S10 to S18. Specifically, it is as follows.
図15に示すように、ステップS10において、起動部30は、アプリケーションを起動する。処理は、ステップS11に進む。 As shown in FIG. 15, in step S10, the activation unit 30 activates the application. The process proceeds to step S11.
ステップS11において、モード設定部21は、GestureSettingModeを設定する。処理は、ステップS12に進む。 In step S11, the mode setting unit 21 sets the Guest Setting Mode. The process proceeds to step S12.
ステップS12において、表示部14は、上位機能を表示する。処理は、ステップS13に進む。 In step S12, the display unit 14 displays the higher-level function. The process proceeds to step S13.
ステップS13において、検知部23は、上位機能を検知する。処理は、ステップS14に進む。 In step S13, the detection unit 23 detects a higher-level function. The process proceeds to step S14.
ステップS14において、DEFINEDGESTURES65を表示する。処理は、ステップS15に進む。 In step S14, DEFINEGESTURES 65 is displayed. The process proceeds to step S15.
ステップS15において、認識部22は、選択されたDEFINEDGESTURES65を認識する。処理は、ステップS16に進む。 In step S15, the recognition unit 22 recognizes the selected DEFINEGESTURES 65. The process proceeds to step S16.
ステップS16において、表示部14は、入力エリア70を表示する。処理は、ステップS17に進む。 In step S16, the display unit 14 displays the input area 70. The process proceeds to step S17.
ステップS17において、検知部23は、ジェスチャー71を検知する。処理は、ステップS18に進む。 In step S17, the detection unit 23 detects the gesture 71. The process proceeds to step S18.
ステップS18において、登録部28は、テーブル29にジェスチャー71を登録する。そして、処理は終了する。 In step S18, the registration unit 28 registers the gesture 71 in the table 29. Then, the process ends.
本実施形態によれば、複数のユーザー(ユーザーAおよびユーザーB)が同じ文字種(DEFINEDGESTURES65)のジェスチャー71を入力しても、登録部28は、字体に基づいて、ユーザーごとに、かつ、上位機能ごとに異なる下位機能を登録する。つまり、ユーザーごとに、1つのジェスチャー71に複数の下位機能を定義づけることができるため、登録するジェスチャー71の種類(文字種(DEFINEDGESTURES65))をさらに好適に削減できる。 According to the present embodiment, even if a plurality of users (user A and user B) input the gesture 71 of the same character type (DEFINEDGESTURES65), the registration unit 28 performs each user and higher-level function based on the font. Register different subordinate functions for each. That is, since a plurality of subordinate functions can be defined for one gesture 71 for each user, the types of gestures 71 to be registered (character type (DEFINEGESTURES65)) can be further preferably reduced.
さらに、モード設定部21により登録モード(GestureSettingMode画面45)が設定されることにより、入力エリア70へ入力された文字または記号は、登録されるジェスチャー71として認識される。そのため、上位機能を起動するためのジェスチャー90の入力と区別することができ、好適にジェスチャー71を登録できる。 Further, when the registration mode (gestureSettingMode screen 45) is set by the mode setting unit 21, the characters or symbols input to the input area 70 are recognized as the registered gesture 71. Therefore, it can be distinguished from the input of the gesture 90 for activating the higher-level function, and the gesture 71 can be preferably registered.
(実施形態2)
次に、図1および図2に加えて、図16〜図18を参照して、本発明の実施形態2に係る情報処理装置10について説明する。図16および図17は、本発明の実施形態2に係る情報処理装置10の表示部14を示す図である。図18は、本実施形態2に係る情報処理装置10の制御を示すフローチャートである。
(Embodiment 2)
Next, the information processing apparatus 10 according to the second embodiment of the present invention will be described with reference to FIGS. 16 to 18 in addition to FIGS. 1 and 2. 16 and 17 are views showing a display unit 14 of the information processing apparatus 10 according to the second embodiment of the present invention. FIG. 18 is a flowchart showing control of the information processing apparatus 10 according to the second embodiment.
実施形態2は、ジェスチャー90を入力することによる、下位機能の起動について説明する。 The second embodiment describes the activation of the lower function by inputting the gesture 90.
実施形態2では、図2に示すように、情報処理装置10は、さらに、判別部24を備える。判別部24は、テーブル29に基づいて、機能表示領域41に入力されたジェスチャー90を登録したユーザーを判別する。 In the second embodiment, as shown in FIG. 2, the information processing device 10 further includes a discriminating unit 24. The determination unit 24 determines the user who has registered the gesture 90 input to the function display area 41 based on the table 29.
図2に示すように、起動部30は、登録部28に記憶されたソフトウェアを読み出し、アプリケーションを起動する。さらに、起動部30は、起動モードを起動する。 As shown in FIG. 2, the activation unit 30 reads the software stored in the registration unit 28 and activates the application. Further, the activation unit 30 activates the activation mode.
図16に示すように、表示部14は、HOMESCREEN40を表示する。表示部14は、HOMESCREEN40において、上位機能であるCopy機能を表示する機能表示領域41Aを表示する。表示部14は、上位機能であるSend機能を表示する機能表示領域41Bを表示する。表示部14は、上位機能であるFax機能を表示する機能表示領域41Cを表示する。 As shown in FIG. 16, the display unit 14 displays HOMESCREEN 40. The display unit 14 displays the function display area 41A for displaying the copy function, which is a higher-level function, in the HOMESCREEN 40. The display unit 14 displays a function display area 41B for displaying the Send function, which is a higher-level function. The display unit 14 displays the function display area 41C for displaying the fax function, which is a higher-level function.
さらに、表示部14は、GestureSettingModeアイコン44を表示する。 Further, the display unit 14 displays the Guest SettingMode icon 44.
図16では、ユーザーAは、図示しない原稿について、コピーを2枚とりたいと考えているものとする。 In FIG. 16, it is assumed that the user A wants to make two copies of a manuscript (not shown).
ユーザーAは、表示部14上で、Copy機能を表示する機能表示領域41Aに、指またはペンで「2」となぞることにより、「2」のジェスチャー90を入力する。 The user A inputs the gesture 90 of "2" by tracing "2" with a finger or a pen in the function display area 41A for displaying the Copy function on the display unit 14.
検知部23は、機能表示領域41Aにジェスチャー90が入力されたことを検知する。 The detection unit 23 detects that the gesture 90 is input to the function display area 41A.
認識部22は、「2」のジェスチャー90を認識する。 The recognition unit 22 recognizes the gesture 90 of "2".
判別部24は、テーブル29Aに基づいて、機能表示領域41Aに入力されたジェスチャー90を登録したユーザーAを判別する。すなわち、判別部24は、機能表示領域41Aに入力された「2」のジェスチャー90の字体と、テーブル29Aに登録された字体とを照合し、「2」のジェスチャー90が、ユーザーAにより入力されたジェスチャー90であることを判別する。 The determination unit 24 determines the user A who has registered the gesture 90 input to the function display area 41A based on the table 29A. That is, the determination unit 24 collates the font of the gesture 90 of "2" input in the function display area 41A with the font registered in the table 29A, and the gesture 90 of "2" is input by the user A. It is determined that the gesture is 90.
図13で先述した通り、登録部28のテーブル29Aにおいて、上位機能がCopyであるとき、下位機能の「2」は、印刷枚数が定義されている。従って、起動部30は、画像形成装置16を起動する。画像形成装置16は、図示しない原稿についてコピーを2枚印刷する。 As described above in FIG. 13, in the table 29A of the registration unit 28, when the upper function is Copy, the number of prints is defined for the lower function "2". Therefore, the activation unit 30 activates the image forming apparatus 16. The image forming apparatus 16 prints two copies of a document (not shown).
次に、図17では、ユーザーAは、図示しない原稿をFaxで送信したいと考えているものとする。 Next, in FIG. 17, it is assumed that the user A wants to transmit a manuscript (not shown) by fax.
ユーザーAは、表示部14上で、Fax機能を表示する機能表示領域41Cに、指またはペンで「2」となぞることにより、「2」のジェスチャー91を入力する。 The user A inputs the gesture 91 of "2" by tracing "2" with a finger or a pen in the function display area 41C for displaying the fax function on the display unit 14.
検知部23は、機能表示領域41Cにジェスチャー91が入力されたことを検知する。 The detection unit 23 detects that the gesture 91 has been input to the function display area 41C.
認識部22は、「2」のジェスチャー91を認識する。 The recognition unit 22 recognizes the gesture 91 of "2".
判別部24は、テーブル29Aに基づいて、機能表示領域41Cに入力されたジェスチャー91を登録したユーザーAを判別する。すなわち、判別部24は、機能表示領域41Cに入力された「2」の字体と、テーブル29Aに登録された字体とを照合し、「2」のジェスチャー91が、ユーザーAにより入力されたジェスチャー91であることを判別する。 The determination unit 24 determines the user A who has registered the gesture 91 input to the function display area 41C based on the table 29A. That is, the discriminating unit 24 collates the font of "2" input to the function display area 41C with the font registered in the table 29A, and the gesture 91 of "2" is the gesture 91 input by the user A. To determine that.
図13で先述した通り、登録部28のテーブル29Aにおいて、上位機能がFaxであるとき、下位機能の「2」は、送信アドレスのリスト番号「2」が定義されている。従って、起動部30は、Fax機能を起動する。送受信部19は、図示しない原稿について、送信アドレスのリスト番号「2」に、Faxを送信する。 As described above in FIG. 13, in the table 29A of the registration unit 28, when the upper function is a fax, the lower function "2" is defined as the transmission address list number "2". Therefore, the activation unit 30 activates the fax function. The transmission / reception unit 19 transmits a fax to the list number "2" of the transmission address for a document (not shown).
次に、図18を参照して、情報処理装置10の制御を説明する。図18に示すように、処理は、ステップS20からステップS25を含む。具体的には次の通りである。 Next, the control of the information processing apparatus 10 will be described with reference to FIG. As shown in FIG. 18, the process includes steps S20 to S25. Specifically, it is as follows.
図18に示すステップS20において、起動部30は、ソフトウェアを登録部28から読み出し、アプリケーションを起動する。処理は、ステップS21に進む。 In step S20 shown in FIG. 18, the activation unit 30 reads the software from the registration unit 28 and starts the application. The process proceeds to step S21.
ステップS21において、起動部30は、起動モードを起動する。処理は、ステップS22に進む。 In step S21, the activation unit 30 activates the activation mode. The process proceeds to step S22.
ステップS22において、認識部22は、機能表示領域41に入力されたジェスチャー90(ジェスチャー91)を認識する。処理は、ステップS23に進む。 In step S22, the recognition unit 22 recognizes the gesture 90 (gesture 91) input to the function display area 41. The process proceeds to step S23.
ステップS23において、判別部24は、ジェスチャー90の字体と、テーブル29Aに登録された字体とを照合する。処理は、ステップS24に進む。 In step S23, the discriminating unit 24 collates the font of the gesture 90 with the font registered in the table 29A. The process proceeds to step S24.
ステップS24において、判別部24は、ユーザーAにより入力されたジェスチャー90(ジェスチャー91)であることを判別する。処理は、ステップS25に進む。 In step S24, the determination unit 24 determines that the gesture 90 (gesture 91) is input by the user A. The process proceeds to step S25.
ステップS25において、起動部30は、ジェスチャー90(ジェスチャー91)に定義された下位機能を起動する。そして、処理は終了する。 In step S25, the activation unit 30 activates the lower function defined in the gesture 90 (gesture 91). Then, the process ends.
本実施形態によれば、同じ文字種(DEFINEDGESTURES65)のジェスチャー71を入力しても、上位機能ごとに異なる下位機能が起動される。つまり、1つのジェスチャー71に複数の下位機能を定義づけることができるため、登録するジェスチャー71の種類(文字種(DEFINEDGESTURES65))を削減できる。 According to the present embodiment, even if the gesture 71 of the same character type (DEFINEDGESTURES65) is input, a different lower function is activated for each upper function. That is, since a plurality of subordinate functions can be defined for one gesture 71, the types of gestures 71 to be registered (character type (DEFINEGESTURES65)) can be reduced.
また、本実施形態によれば、同じ文字種(DEFINEDGESTURES65)のジェスチャー71を入力しても、画像形成ジョブごとに異なる画像形成指示機能、画像形成設定機能が起動される。同じ文字種(DEFINEDGESTURES65)のジェスチャー71を入力しても、データ送信ジョブごとに異なる送信指示機能、送信設定機能が起動される。 Further, according to the present embodiment, even if the gesture 71 of the same character type (DEFINEGESTURES65) is input, different image formation instruction functions and image formation setting functions are activated for each image formation job. Even if the gesture 71 of the same character type (DEFINEGESTURES65) is input, different transmission instruction functions and transmission setting functions are activated for each data transmission job.
同じ文字種(DEFINEDGESTURES65)のジェスチャー71を入力しても、画像読取ジョブごとに異なる画像読取指示機能、画像読取設定機能が起動される。つまり、1つのジェスチャー71に複数の下位機能を定義づけることができるため、登録するジェスチャー71の種類(文字種(DEFINEDGESTURES65))を削減できる。 Even if the gesture 71 of the same character type (DEFINEGESTURES65) is input, a different image reading instruction function and image reading setting function are activated for each image reading job. That is, since a plurality of subordinate functions can be defined for one gesture 71, the types of gestures 71 to be registered (character type (DEFINEGESTURES65)) can be reduced.
本実施形態によれば、同じ文字種でも、ユーザーごとに字体が異なることから、テーブル29に登録された字体に基づいて、機能表示領域41に入力されたジェスチャー90がどのユーザーによって登録されたかを判別することができる。従って、同一の文字種が機能表示領域41に入力されても、判別されたユーザーが定義した下位機能を好適に起動することができる。 According to the present embodiment, since the font is different for each user even if the character type is the same, it is determined by which user the gesture 90 input to the function display area 41 is registered based on the font registered in the table 29. can do. Therefore, even if the same character type is input to the function display area 41, the subordinate function defined by the determined user can be preferably activated.
(実施形態3)
次に、図19および図20を参照して、本発明に係る情報処理装置10の実施形態3について説明する。図19は、本発明の実施形態3に係る情報処理装置10の表示部14を示す図である。図20は、本実施形態3に係る情報処理装置10の制御を示すフローチャートである。
(Embodiment 3)
Next, the third embodiment of the information processing apparatus 10 according to the present invention will be described with reference to FIGS. 19 and 20. FIG. 19 is a diagram showing a display unit 14 of the information processing device 10 according to the third embodiment of the present invention. FIG. 20 is a flowchart showing control of the information processing apparatus 10 according to the third embodiment.
実施形態3は、入力されたジェスチャー92が認識されない実施形態について説明する。 The third embodiment describes an embodiment in which the input gesture 92 is not recognized.
実施形態3では、情報処理装置10は、さらに、判定部25を備える。判定部25は、ジェスチャー92の軌跡が、検知部23の機能表示領域41にないか否かを判定する。 In the third embodiment, the information processing device 10 further includes a determination unit 25. The determination unit 25 determines whether or not the locus of the gesture 92 is in the function display area 41 of the detection unit 23.
起動部30は、ジェスチャー92の軌跡の少なくとも一部が機能表示領域41にないと判定された場合に、下位機能を起動しない。 The activation unit 30 does not activate the lower function when it is determined that at least a part of the locus of the gesture 92 is not in the function display area 41.
図2に示すように、起動部30は、登録部28に記憶されたソフトウェアを読み出し、アプリケーションを起動する。さらに、起動部30は、起動モードを起動する。 As shown in FIG. 2, the activation unit 30 reads the software stored in the registration unit 28 and activates the application. Further, the activation unit 30 activates the activation mode.
表示部14は、HOMESCREEN40を表示する。表示部14は、HOMESCREEN40において、上位機能であるCopy機能を表示する機能表示領域41Aを表示する。 The display unit 14 displays HOMESCREEN 40. The display unit 14 displays the function display area 41A for displaying the copy function, which is a higher-level function, in the HOMESCREEN 40.
図19では、例えば、ユーザーAは、図示しない両面原稿のコピーをとりたいと考えているものとする。 In FIG. 19, for example, it is assumed that the user A wants to make a copy of a double-sided original (not shown).
ユーザーAは、表示部14上で、Copy機能を表示する機能表示領域41Aに、指またはペンで「P」となぞることにより、「P」のジェスチャー90を入力する。図13で先述した登録部28のテーブル29Aにおいて、上位機能がCopy機能であるとき、下位機能の「P」は、両面原稿のCopyが定義されているものとする。 The user A inputs the gesture 90 of "P" by tracing "P" with a finger or a pen in the function display area 41A for displaying the Copy function on the display unit 14. In the table 29A of the registration unit 28 described above in FIG. 13, when the upper function is the Copy function, it is assumed that the lower function “P” defines the Copy of the double-sided original.
検知部23は、機能表示領域41Aにジェスチャー92が入力されたことを検知する。 The detection unit 23 detects that the gesture 92 is input to the function display area 41A.
判定部25は、ジェスチャー92の軌跡および字体と、テーブル29に登録された字体とを照合してもよい。 The determination unit 25 may collate the locus and font of the gesture 92 with the font registered in the table 29.
判定部25は、ジェスチャー92の軌跡が、検知部23の機能表示領域41にあるか否かを判定する。 The determination unit 25 determines whether or not the locus of the gesture 92 is in the function display area 41 of the detection unit 23.
判定部25は、ジェスチャー92の軌跡の一部が、検知部23の機能表示領域41にないことを判定する。 The determination unit 25 determines that a part of the locus of the gesture 92 is not in the function display area 41 of the detection unit 23.
表示部14は、機能表示領域41に入力されたジェスチャー92が、テーブル29に登録されていないことを注意表示してもよい。表示部14は、機能表示領域41に入力されたジェスチャー92の一部が機能表示領域41にないことを注意表示してもよい。 The display unit 14 may warnly display that the gesture 92 input to the function display area 41 is not registered in the table 29. The display unit 14 may carefully display that a part of the gesture 92 input to the function display area 41 is not in the function display area 41.
さらに、表示部14は、ジェスチャー92を機能表示領域41に再入力するよう、喚起表示してもよい。 Further, the display unit 14 may urge the gesture 92 to be re-entered in the function display area 41.
起動部30は、判定部25の判定結果に基づき、ジェスチャー92の入力を無効処理し、下位機能を起動させない。 Based on the determination result of the determination unit 25, the activation unit 30 invalidates the input of the gesture 92 and does not activate the lower function.
このとき、判定部25は、ジェスチャー92の軌跡の一部が、検知部23の機能表示領域41にないことを判定した回数をカウントしてもよい。 At this time, the determination unit 25 may count the number of times it is determined that a part of the locus of the gesture 92 is not in the function display area 41 of the detection unit 23.
起動部30は、判定部25のカウントが所定回数以上のとき、ジェスチャー92の入力を無効処理し、下位機能を起動させないようにしてもよい。 When the count of the determination unit 25 is equal to or greater than the predetermined number of times, the activation unit 30 may invalidate the input of the gesture 92 so as not to activate the lower function.
次に、図20を参照して、情報処理装置10の制御を悦明する。図20に示すように、処理は、ステップS30からステップS39を含む。具体的には次の通りである。 Next, with reference to FIG. 20, the control of the information processing apparatus 10 is delighted. As shown in FIG. 20, the process includes steps S30 to S39. Specifically, it is as follows.
図20に示すステップS30において、起動部30は、ソフトウェアを登録部28から読み出し、アプリケーションを起動する。処理は、ステップS31に進む。 In step S30 shown in FIG. 20, the activation unit 30 reads the software from the registration unit 28 and starts the application. The process proceeds to step S31.
ステップS31において、起動部30は、起動モードを起動する。処理は、ステップS32に進む。 In step S31, the activation unit 30 activates the activation mode. The process proceeds to step S32.
ステップS32において、認識部22は、機能表示領域41に入力されたジェスチャー92を認識する。処理は、ステップS33に進む。 In step S32, the recognition unit 22 recognizes the gesture 92 input to the function display area 41. The process proceeds to step S33.
ステップS33において、判定部25は、ジェスチャー92の軌跡が、検知部23の機能表示領域41にないか否かを判定する。ジェスチャー92の全部が機能表示領域41にあると判定された場合(ステップS33において、No)、処理は、ステップS34に進む。ジェスチャー92の一部が機能表示領域41にないと判定された場合(ステップS33において、Yes)、処理は、ステップS36に進む。 In step S33, the determination unit 25 determines whether or not the locus of the gesture 92 is in the function display area 41 of the detection unit 23. When it is determined that all of the gestures 92 are in the function display area 41 (No in step S33), the process proceeds to step S34. When it is determined that a part of the gesture 92 is not in the function display area 41 (Yes in step S33), the process proceeds to step S36.
ステップS34において、判定部25は、ジェスチャー92の軌跡および字体と、テーブル29に登録された字体とを照合する。処理は、ステップS35に進む。 In step S34, the determination unit 25 collates the locus and font of the gesture 92 with the font registered in the table 29. The process proceeds to step S35.
ステップS35において、起動部30は、テーブル29に登録されたジェスチャー92の定義に基づき、下位機能を起動させる。そして、処理は終了する。 In step S35, the activation unit 30 activates the lower function based on the definition of the gesture 92 registered in the table 29. Then, the process ends.
ステップS36において、表示部36は、注意表示する。処理は、ステップS37に進む。 In step S36, the display unit 36 displays caution. The process proceeds to step S37.
ステップS37において、表示部14は、ジェスチャー92を再入力することを喚起表示する。処理は、ステップS38に進む。 In step S37, the display unit 14 urges and displays the gesture 92 to be re-entered. The process proceeds to step S38.
ステップS38において、判定部25は、ジェスチャー92の軌跡の一部が、検知部23の機能表示領域41にないことを判定した回数が所定回数以上か否かを判定する。所定回数以上である場合(ステップS38において、Yes)、処理は、ステップS39に進む。所定回数未満である場合(ステップS38において、No)、処理は、ステップS30に進み、ステップS30からの処理を繰り返す。 In step S38, the determination unit 25 determines whether or not the number of times it is determined that a part of the locus of the gesture 92 is not in the function display area 41 of the detection unit 23 is equal to or greater than a predetermined number of times. If the number of times is equal to or greater than a predetermined number (Yes in step S38), the process proceeds to step S39. If the number of times is less than the predetermined number (No in step S38), the process proceeds to step S30, and the process from step S30 is repeated.
ステップS39において、起動部30は、判定部25の判定結果に基づき、ジェスチャー92の入力を無効処理し、下位機能を起動させない。そして、処理は終了する。 In step S39, the activation unit 30 invalidates the input of the gesture 92 based on the determination result of the determination unit 25, and does not activate the lower function. Then, the process ends.
本実施形態によれば、ジェスチャー92の軌跡の一部が機能表示領域41にないと判定された場合に、下位機能を起動させないようにする。従って、ユーザーに正確なジェスチャー92の入力を促し、下位機能を好適に起動させることができる。 According to the present embodiment, when it is determined that a part of the locus of the gesture 92 is not in the function display area 41, the lower function is not activated. Therefore, it is possible to prompt the user to input the correct gesture 92 and preferably activate the lower function.
(実施形態4)
次に、図2および図3に加え、図21および図22を参照して、本発明に係る情報処理装置10の実施形態4について説明する。図21は、本発明の実施形態3に係る情報処理装置10の比較部26の機能を示す概念図である。図22は、本実施形態4に係る情報処理装置10の制御を示すフローチャートである。
(Embodiment 4)
Next, in addition to FIGS. 2 and 3, the fourth embodiment of the information processing apparatus 10 according to the present invention will be described with reference to FIGS. 21 and 22. FIG. 21 is a conceptual diagram showing the function of the comparison unit 26 of the information processing apparatus 10 according to the third embodiment of the present invention. FIG. 22 is a flowchart showing control of the information processing apparatus 10 according to the fourth embodiment.
実施形態4では、情報処理装置10は、さらに、比較部26を備える。比較部26は、機能表示領域41に入力された新ジェスチャー93と、登録部28に登録されたジェスチャーとを比較する。 In the fourth embodiment, the information processing device 10 further includes a comparison unit 26. The comparison unit 26 compares the new gesture 93 input in the function display area 41 with the gesture registered in the registration unit 28.
さらに、モード設定部21は、比較部26の比較結果に基づいて、登録モードを設定する。登録部28は、新ジェスチャー93を登録する。 Further, the mode setting unit 21 sets the registration mode based on the comparison result of the comparison unit 26. The registration unit 28 registers the new gesture 93.
図2に示すように、起動部30は、登録部28に記憶されたソフトウェアを読み出し、アプリケーションを起動する。さらに、起動部30は、起動モードを起動する。 As shown in FIG. 2, the activation unit 30 reads the software stored in the registration unit 28 and activates the application. Further, the activation unit 30 activates the activation mode.
図3で先述したように、表示部14は、HOMESCREEN40を表示する。表示部14は、HOMESCREEN40において、上位機能であるCopy機能を表示する機能表示領域41Aを表示する。 As described above in FIG. 3, the display unit 14 displays the HOMESCREEN 40. The display unit 14 displays the function display area 41A for displaying the copy function, which is a higher-level function, in the HOMESCREEN 40.
図21では、例えば、ユーザーAは、図示しない両面原稿のコピーをとりたいと考えているものとする。 In FIG. 21, for example, it is assumed that the user A wants to make a copy of a double-sided original (not shown).
ユーザーAは、表示部14上で、Copy機能を表示する機能表示領域41Aに、指またはペンで「P」となぞることにより、「P」のジェスチャー93(新ジェスチャー93)を入力する。図13で先述した登録部28のテーブル29Aにおいて、上位機能がCopy機能であるとき、下位機能の「P」は、両面原稿のCopyが定義されているものとする。 The user A inputs the gesture 93 (new gesture 93) of "P" by tracing "P" with a finger or a pen in the function display area 41A for displaying the Copy function on the display unit 14. In the table 29A of the registration unit 28 described above in FIG. 13, when the upper function is the Copy function, it is assumed that the lower function “P” defines the Copy of the double-sided original.
検知部23は、機能表示領域41Aにジェスチャー93(新ジェスチャー93)が入力されたことを検知する。 The detection unit 23 detects that the gesture 93 (new gesture 93) has been input to the function display area 41A.
比較部26は、機能表示領域41に入力されたジェスチャー93(新ジェスチャー93)と、登録部28のテーブル29に登録されたDEFINEDGESTURE65の「P」のエレメント66に登録されたジェスチャーとを比較する。 The comparison unit 26 compares the gesture 93 (new gesture 93) input in the function display area 41 with the gesture registered in the element 66 of “P” of the DEFINED GESTURE 65 registered in the table 29 of the registration unit 28.
比較部26は、ジェスチャー93(新ジェスチャー93)が、登録部28のテーブル29に登録されているか否かを判定する。 The comparison unit 26 determines whether or not the gesture 93 (new gesture 93) is registered in the table 29 of the registration unit 28.
起動部30は、比較部26が、ジェスチャー93(新ジェスチャー93)が、登録部28のテーブル29に登録されていると判定した場合、下位機能を起動する。 When the comparison unit 26 determines that the gesture 93 (new gesture 93) is registered in the table 29 of the registration unit 28, the activation unit 30 activates the lower function.
表示部14は、ジェスチャー93(新ジェスチャー93)が、テーブル29に登録されていないことを注意表示してもよい。 The display unit 14 may warnly indicate that the gesture 93 (new gesture 93) is not registered in the table 29.
さらに、表示部14は、新ジェスチャー93を機能表示領域41に再入力するよう、喚起表示してもよい。 Further, the display unit 14 may urge the new gesture 93 to be re-entered in the function display area 41.
起動部30は、比較部26が、新ジェスチャー93が、登録部28のテーブル29に登録されていないと判定した場合、登録モードを起動する。 When the comparison unit 26 determines that the new gesture 93 is not registered in the table 29 of the registration unit 28, the activation unit 30 activates the registration mode.
図3〜図15で説明したように、表示部14は、機能表示領域41Aを表示する。登録部28は、テーブル29に新ジェスチャー93を登録する。 As described with reference to FIGS. 3 to 15, the display unit 14 displays the function display area 41A. The registration unit 28 registers the new gesture 93 in the table 29.
次に、図22を参照して、情報処理装置10の制御を悦明する。図22に示すように、処理は、ステップS40からステップS51を含む。具体的には次の通りである。 Next, with reference to FIG. 22, the control of the information processing apparatus 10 is delighted. As shown in FIG. 22, the process includes steps S40 to S51. Specifically, it is as follows.
図22に示すステップS40において、起動部30は、ソフトウェアを登録部28から読み出し、アプリケーションを起動する。処理は、ステップS41に進む。 In step S40 shown in FIG. 22, the activation unit 30 reads the software from the registration unit 28 and starts the application. The process proceeds to step S41.
ステップS41において、起動部30は、起動モードを起動する。処理は、ステップS42に進む。 In step S41, the activation unit 30 activates the activation mode. The process proceeds to step S42.
ステップS42において、認識部22は、機能表示領域41に入力されたジェスチャー93(新ジェスチャー93)を認識する。処理は、ステップS43に進む。 In step S42, the recognition unit 22 recognizes the gesture 93 (new gesture 93) input to the function display area 41. The process proceeds to step S43.
ステップS44において、比較部26は、機能表示領域41に入力されたジェスチャー93(新ジェスチャー93)と、登録部28に登録されたジェスチャーとを比較する。比較部26は、ジェスチャー93(新ジェスチャー93)が、登録部28のテーブル29に登録されているか否かを判定する。 In step S44, the comparison unit 26 compares the gesture 93 (new gesture 93) input to the function display area 41 with the gesture registered in the registration unit 28. The comparison unit 26 determines whether or not the gesture 93 (new gesture 93) is registered in the table 29 of the registration unit 28.
ジェスチャー93(新ジェスチャー93)がテーブル29に登録されていると判定された場合(ステップS44において、Yes)、処理は、ステップS45に進む。ジェスチャー93(新ジェスチャー93)がテーブル29に登録されていないと判定された場合(ステップS44において、No)、処理は、ステップS46に進む。 When it is determined that the gesture 93 (new gesture 93) is registered in the table 29 (Yes in step S44), the process proceeds to step S45. If it is determined that the gesture 93 (new gesture 93) is not registered in the table 29 (No in step S44), the process proceeds to step S46.
ステップS45において、起動部30は、ジェスチャー93に基づいて、下位機能を起動する。そして、処理は終了する。 In step S45, the activation unit 30 activates the lower function based on the gesture 93. Then, the process ends.
ステップS46において、表示部36は、注意表示する。処理は、ステップS47に進む。 In step S46, the display unit 36 displays caution. The process proceeds to step S47.
ステップS47において、表示部14は、新ジェスチャー93を登録することを喚起表示する。処理は、ステップS48に進む。 In step S47, the display unit 14 urges and displays the registration of the new gesture 93. The process proceeds to step S48.
ステップS48において、起動部30は、登録モードを起動する。処理は、ステップS49に進む。 In step S48, the activation unit 30 activates the registration mode. The process proceeds to step S49.
ステップS49において、表示部14は、入力エリア70を表示する。処理は、ステップS50に進む。 In step S49, the display unit 14 displays the input area 70. The process proceeds to step S50.
ステップS50において、検知部23は、入力エリア70に新ジェスチャー93が入力されたことを検知する。処理は、ステップS51に進む。 In step S50, the detection unit 23 detects that the new gesture 93 has been input to the input area 70. The process proceeds to step S51.
ステップS51において、登録部28は、テーブル29に、新ジェスチャー93を登録する。そして、処理は終了する。 In step S51, the registration unit 28 registers the new gesture 93 in the table 29. Then, the process ends.
本実施形態によれば、ユーザーが入力した新ジェスチャー93が、登録されたジェスチャーと異なる場合、好適にジェスチャーを新ジェスチャー93に更新して登録できる。 According to the present embodiment, when the new gesture 93 input by the user is different from the registered gesture, the gesture can be preferably updated to the new gesture 93 and registered.
以上、図面(図1〜図22)を参照しながら、本発明の実施形態を説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で、種々の態様において実施することが可能である。また、上記の各実施形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明の形成が可能である。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合わせてもよい。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図面作成の都合上から実際とは異なる場合がある。また、上記の実施形態で示す各構成要素は一例であって、特に限定されるものではなく、本発明の構成から実質的に逸脱しない範囲で種々の変更が可能である。 The embodiments of the present invention have been described above with reference to the drawings (FIGS. 1 to 22). However, the present invention is not limited to the above-described embodiment, and can be implemented in various aspects without departing from the gist thereof. In addition, various inventions can be formed by appropriately combining the plurality of components disclosed in each of the above embodiments. For example, some components may be removed from all the components shown in the embodiments. In addition, components from different embodiments may be combined as appropriate. The drawings are schematically shown mainly for each component in order to make it easier to understand, and may differ from the actual ones for the convenience of drawing creation. Further, each component shown in the above embodiment is an example, and is not particularly limited, and various modifications can be made without substantially deviating from the configuration of the present invention.
本発明は、情報処理装置の分野に利用可能である。 The present invention can be used in the field of information processing devices.
10 情報処理装置
11 画像読取装置
12 原稿給紙台
13 操作部
14 表示部
15 操作ボタン
16 画像形成装置
17 給送トレイ
18 排出トレイ
19 送受信部
20 制御部
21 モード設定部
22 認識部
23 検知部
24 判別部
25 判定部
26 比較部
27 表示制御部
28 登録部
29 テーブル
30 起動部
200 サーバー
300 クラウド
10 Information processing device 11 Image reading device 12 Document feeding table 13 Operation unit 14 Display unit 15 Operation button 16 Image forming device 17 Feeding tray 18 Discharge tray 19 Transmission / reception unit 20 Control unit 21 Mode setting unit 22 Recognition unit 23 Detection unit 24 Discrimination unit 25 Judgment unit 26 Comparison unit 27 Display control unit 28 Registration unit 29 Table 30 Startup unit 200 Server 300 Cloud

Claims (7)

  1. 上位機能を起動する起動部と、
    前記上位機能の種類が異なる機能表示領域を表示する表示部と、
    前記機能表示領域に入力されたジェスチャーを検知する検知部と、
    複数の前記上位機能ごと、および、前記上位機能に含まれる下位機能を表わす複数の文字種ごとに、前記ジェスチャーを登録する登録部と
    を備え、
    前記検知部は、前記上位機能ごとに、前記機能表示領域に前記ジェスチャーが入力されたことを検知し、
    前記起動部は、前記上位機能ごとに、入力された前記ジェスチャーに基づいて、前記ジェスチャーに割り当てられた前記下位機能を起動する、情報処理装置。
    A starter that activates higher-level functions,
    A display unit that displays a function display area with a different type of higher-level function,
    A detector that detects gestures input to the function display area,
    A registration unit for registering the gesture is provided for each of the plurality of higher-level functions and for each of the plurality of character types representing the lower-level functions included in the higher-level functions.
    The detection unit detects that the gesture is input to the function display area for each of the higher-level functions, and detects that the gesture is input to the function display area.
    The activation unit is an information processing device that activates the lower function assigned to the gesture based on the input gesture for each higher function.
  2. 複数の前記上位機能は、画像形成機能、データ送受信機能、画像読取機能のいずれかを含み、
    前記上位機能が前記画像形成機能の場合、前記下位機能は、画像形成指示機能、画像形成設定機能のいずれかを含み、
    前記上位機能が前記データ送受信機能の場合、前記下位機能は、送信指示機能、送信設定機能のいずれかを含み、
    前記上位機能が前記画像読取機能の場合、前記下位機能は、画像読取指示機能、画像読取設定機能のいずれかを含む、請求項1に記載の情報処理装置。
    The plurality of higher-level functions include any of an image forming function, a data transmitting / receiving function, and an image reading function.
    When the upper function is the image forming function, the lower function includes any one of an image forming instruction function and an image forming setting function.
    When the higher-level function is the data transmission / reception function, the lower-level function includes any of a transmission instruction function and a transmission setting function.
    The information processing apparatus according to claim 1, wherein when the higher-level function is the image reading function, the lower-level function includes either an image reading instruction function or an image reading setting function.
  3. 前記ジェスチャーを登録する登録モードを設定するモード設定部と、
    前記登録モードにおいて、前記機能表示領域に入力される前記ジェスチャーを認識する認識部と
    をさらに備える、請求項1または請求項2に記載の情報処理装置。
    A mode setting unit that sets the registration mode for registering the gesture, and
    The information processing device according to claim 1 or 2, further comprising a recognition unit that recognizes the gesture input to the function display area in the registration mode.
  4. 前記登録部は、ユーザーごとに前記ジェスチャーを登録するテーブルを有する、請求項1〜請求項3のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 3, wherein the registration unit has a table for registering the gesture for each user.
  5. 前記テーブルに基づいて、前記機能表示領域に入力された前記ジェスチャーを登録した前記ユーザーを判別する判別部
    をさらに備える、請求項4に記載の情報処理装置。
    The information processing apparatus according to claim 4, further comprising a discriminating unit for discriminating the user who has registered the gesture input to the function display area based on the table.
  6. 前記ジェスチャーの軌跡が、前記検知部の前記機能表示領域にないか否かを判定する判定部をさらに備え、
    前記起動部は、前記軌跡の少なくとも一部が前記機能表示領域にないと判定された場合に、前記下位機能を起動しない、請求項1から請求項5のいずれか1項に記載の情報処理装置。
    A determination unit for determining whether or not the locus of the gesture is not in the function display area of the detection unit is further provided.
    The information processing apparatus according to any one of claims 1 to 5, wherein the activation unit does not activate the lower function when it is determined that at least a part of the locus is not in the function display area. ..
  7. 前記機能表示領域に入力された新たなジェスチャーと、前記登録部に登録された前記ジェスチャーとを比較する比較部
    をさらに備え、
    前記モード設定部は、比較結果に基づいて前記登録モードを設定し、
    前記登録部は、前記新たなジェスチャーを登録する、請求項3に記載の情報処理装置。
    A comparison unit for comparing a new gesture input in the function display area with the gesture registered in the registration unit is further provided.
    The mode setting unit sets the registration mode based on the comparison result.
    The information processing device according to claim 3, wherein the registration unit registers the new gesture.
JP2019231743A 2019-12-23 2019-12-23 Information processing device Pending JP2021099711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019231743A JP2021099711A (en) 2019-12-23 2019-12-23 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019231743A JP2021099711A (en) 2019-12-23 2019-12-23 Information processing device

Publications (1)

Publication Number Publication Date
JP2021099711A true JP2021099711A (en) 2021-07-01

Family

ID=76541274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019231743A Pending JP2021099711A (en) 2019-12-23 2019-12-23 Information processing device

Country Status (1)

Country Link
JP (1) JP2021099711A (en)

Similar Documents

Publication Publication Date Title
US9210281B2 (en) Display input device, image forming apparatus and method of controlling display input device, to enable an input for changing or adding a setting value while a preview image is displayed
JP5542757B2 (en) Image processing device
JP5365654B2 (en) Image forming apparatus, setting method, and setting program
JP6106153B2 (en) Image forming apparatus
JP2021099711A (en) Information processing device
US9148534B2 (en) Display input device to display preview and default setting images, image forming apparatus, control method for display input device
JP2016118959A (en) Display input device and image forming apparatus including the same
JP2012114877A (en) Image reading controller, image formation device, and image reading method
US20180084122A1 (en) Processing device, image forming apparatus, and non-transitory computer readable medium
JP6375543B2 (en) Input / display device and image forming apparatus
JP2017033146A (en) Display device and image processing apparatus
JP2015165438A (en) Numerical value input device and image processing device comprising the same
JP2014241143A (en) Display input device, and image forming apparatus including the same
JPWO2019230163A1 (en) Transmitter and image forming device
JP2020049921A (en) Image formation device, display device, control program and control method
US10884600B2 (en) Display apparatus scrolling first image and second image in accordance with speed of scroll operation
JP2018120606A (en) Numeric value input device, image processing device equipped with the same, and control method thereof
US10924616B2 (en) Image processing apparatus, image processing method, and non-transitory storage medium storing instructions executable by the image processing apparatus having a shortcut function
US10013222B2 (en) Image forming system, control method for the same and recording medium
US20180213094A1 (en) Information processing apparatus, image processing apparatus, and non-transitory computer readable medium
JP6310105B2 (en) Numerical input device, image processing apparatus including the same, and control method of these apparatuses
JP2020006634A (en) Image forming apparatus, control program and control method
US20210006677A1 (en) Image processing apparatus, control method for image processing apparatus, and image processing system
US20210160387A1 (en) Image forming apparatus and method of controlling image forming apparatus
JP6424955B2 (en) Image processing device