JP7102740B2 - 情報処理装置、情報処理装置の制御方法、およびプログラム - Google Patents

情報処理装置、情報処理装置の制御方法、およびプログラム Download PDF

Info

Publication number
JP7102740B2
JP7102740B2 JP2018003690A JP2018003690A JP7102740B2 JP 7102740 B2 JP7102740 B2 JP 7102740B2 JP 2018003690 A JP2018003690 A JP 2018003690A JP 2018003690 A JP2018003690 A JP 2018003690A JP 7102740 B2 JP7102740 B2 JP 7102740B2
Authority
JP
Japan
Prior art keywords
display area
indicator
information processing
divided display
detection position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018003690A
Other languages
English (en)
Other versions
JP2019123105A (ja
Inventor
智史 内野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018003690A priority Critical patent/JP7102740B2/ja
Priority to US16/226,047 priority patent/US10817166B2/en
Priority to CN201910010898.3A priority patent/CN110032325B/zh
Publication of JP2019123105A publication Critical patent/JP2019123105A/ja
Application granted granted Critical
Publication of JP7102740B2 publication Critical patent/JP7102740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Accessory Devices And Overall Control Thereof (AREA)
  • Digital Computer Display Output (AREA)

Description

本発明は、情報処理装置およびそれに関連する技術に関する。
情報処理装置に設けられた表示部の表示領域にて指示体(ユーザの手指等)が検出されたことに応答して、当該指示体の検出位置を示す検出位置情報を当該表示部から情報処理装置の制御部へと送信する技術が存在する。
たとえば、特許文献1に記載の技術では、情報処理装置の表示部の表示領域にてユーザの手指が検出されたことに応答して、当該表示部は、当該手指の検出位置に関する検出位置情報(座標情報)を制御部へと送信する。そして、当該制御部は、表示部から取得された検出位置情報に基づいて、ユーザ操作(タッチ操作)に応じた処理を実行する。
特開2016-224804号公報
ところで、本願出願人は、複数のデバイスを備える1つの情報処理装置において、1つの表示部を当該複数のデバイスで共用することを案出した。
1つの表示部が複数のデバイスで共用される場合、当該複数のデバイスのうち、指示体によるユーザ操作に応じた処理を実行すべきデバイス(操作対象デバイス)を特定する処理(操作対象デバイスの特定処理)を表示部が実行し、操作対象デバイスとして特定されたデバイスのみに対して表示部が検出位置情報を送信する技術を採用することが可能である。当該技術においては、当該表示部内に設けられたCPUにおいてこれらの処理(操作対象デバイスの特定処理等)が行われる。
しかしながら、当該技術を実現するためには、表示部内のCPUを用いて上述のような処理を行わなくてはならない。そのため、CPUを表示部内に新たに設けることを要するなどの問題が生じる。
そこで、この発明は、複数のデバイスと当該複数のデバイスによって共用される表示部とを備える情報処理装置において、ユーザ操作の操作対象デバイスを特定する処理を実行するためのCPUを表示部に必ずしも設けずとも、各デバイスにおける動作を適切に実行することが可能な技術を提供することを課題とする。
上記課題を解決すべく、請求項1の発明は、情報処理装置であって、制御部をそれぞれ有する複数のデバイスと、前記複数のデバイスによって共用される表示部と、を備え、前記表示部は、前記表示部の表示領域においてユーザの指示体が検出されたことに応答して、前記指示体の検出位置を示す検出位置情報を前記複数のデバイスのそれぞれに送信し、前記複数のデバイスのそれぞれの制御部は、前記表示部から受信された前記検出位置情報に基づいて、前記指示体によるユーザ操作が自デバイスに対する操作であるか否かを判定することを特徴とする。
請求項2の発明は、請求項1の発明に係る情報処理装置において、前記複数のデバイスのそれぞれの制御部は、前記ユーザ操作が自デバイスに対する操作である旨を判定する場合、前記検出位置情報に基づいて、前記ユーザ操作に応じた処理を実行することを特徴とする。
請求項3の発明は、請求項1または請求項2の発明に係る情報処理装置において、前記複数のデバイスのそれぞれの制御部は、前記ユーザ操作が自デバイスに対する操作でない旨を判定する場合、前記表示部から受信された前記検出位置情報を破棄することを特徴とする。
請求項4の発明は、請求項1から請求項3のいずれかの発明に係る情報処理装置において、前記表示領域は、複数の分割表示領域に分割され、前記表示部は、各デバイスから受信された表示用画像を各分割表示領域に表示するとともに、前記表示領域にて前記指示体が検出されたことに応答して、前記検出位置情報を前記複数のデバイスのそれぞれに送信することを特徴とする。
請求項5の発明は、請求項4の発明に係る情報処理装置において、前記複数のデバイスのうちの一のデバイスである第1のデバイスは、第1の制御部を有し、前記第1の制御部は、前記複数の分割表示領域のうち、前記第1のデバイスに関する表示用画像を表示する分割表示領域である第1の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合、前記ユーザ操作が前記第1のデバイスに対する操作である旨を判定し、前記複数の分割表示領域のうち、前記第1の分割表示領域とは異なる分割表示領域である第2の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合、前記ユーザ操作が前記第1のデバイスに対する操作でない旨を判定することを特徴とする。
請求項6の発明は、請求項5の発明に係る情報処理装置において、前記第1の制御部は、前記第2の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合であっても、所定の条件が充足されるときには、前記ユーザ操作が前記第1のデバイスに対する操作である旨を判定することを特徴とする。
請求項7の発明は、請求項6の発明に係る情報処理装置において、前記所定の条件は、前記第1の分割表示領域にて開始された前記指示体による押下操作が継続された状態で前記指示体が前記第1の分割表示領域と前記第2の分割表示領域との境界部分を通過して前記第1の分割表示領域から前記第2の分割表示領域へと移動したことによって、前記第2の分割表示領域にて前記指示体が検出されていることを含むことを特徴とする。
請求項8の発明は、請求項6の発明に係る情報処理装置において、前記所定の条件は、前記第1の分割表示領域内の表示要素に対する移動操作が前記第1の分割表示領域にて開始された時点から前記指示体による押下が継続された状態で前記指示体が前記第1の分割表示領域と前記第2の分割表示領域との境界部分を通過して前記第1の分割表示領域から前記第2の分割表示領域へと移動したことによって、前記第2の分割表示領域にて前記指示体が検出されていることを含み、前記第1の制御部は、当該所定の条件が充足されるときには、前記ユーザ操作が前記第1のデバイスに対する操作であり且つ前記第1の分割表示領域内の前記表示要素に対する前記移動操作が継続されている旨を判定することを特徴とする。
請求項9の発明は、請求項6の発明に係る情報処理装置において、前記所定の条件は、前記指示体を含む2つの指示体を用いたピンチアウト操作が前記第1の分割表示領域にて開始された時点から前記2つの指示体による押下が継続された状態で前記指示体が前記第1の分割表示領域と前記第2の分割表示領域との境界部分を通過して前記第1の分割表示領域から前記第2の分割表示領域へと移動したことによって、前記第2の分割表示領域にて前記指示体が検出されていることを含み、前記第1の制御部は、当該所定の条件が充足されるときには、前記ユーザ操作が前記第1のデバイスに対する操作であり且つ前記第1の分割表示領域に対する前記ピンチアウト操作が継続されている旨を判定することを特徴とする。
請求項10の発明は、請求項5の発明に係る情報処理装置において、前記第1の制御部は、前記第1の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合であっても、所定の条件が充足されるときには、前記ユーザ操作が前記第1のデバイスに対する操作でない旨を判定することを特徴とする。
請求項11の発明は、請求項10の発明に係る情報処理装置において、前記所定の条件は、前記第2の分割表示領域にて開始された前記指示体による押下操作が継続された状態で前記指示体が前記第2の分割表示領域と前記第1の分割表示領域との境界部分を通過して前記第2の分割表示領域から前記第1の分割表示領域へと移動したことによって、前記第1の分割表示領域にて前記指示体が検出されていることを含むことを特徴とする。
請求項12の発明は、請求項6の発明に係る情報処理装置において、前記表示領域においては、前記指示体を含む2つの指示体が検出され、前記第1の制御部は、所定の微小期間内に前記2つの指示体が検出される場合において、前記2つの指示体のうち第1の指示体が前記第1の分割表示領域にて検出されており且つ前記2つの指示体のうち第2の指示体が前記第2の分割表示領域にて検出されている旨を前記検出位置情報に基づき判定するときには、前記第1の分割表示領域と前記第2の分割表示領域との境界部分から前記第1の指示体の検出位置までの距離である第1の距離と、前記境界部分から前記第2の指示体の検出位置までの距離である第2の距離とをそれぞれ算出し、前記所定の微小期間内に前記2つの指示体が検出され且つ前記第1の距離が前記第2の距離よりも大きい旨の条件が充足される場合、前記ユーザ操作がピンチ操作であり且つ前記ユーザ操作が前記第1のデバイスに対するピンチ操作である旨を判定することを特徴とする。
請求項13の発明は、請求項10の発明に係る情報処理装置において、前記複数のデバイスは、前記第1のデバイスと、前記第1のデバイスとは異なる第2のデバイスとを含み、前記第2のデバイスは、第2の制御部を有し、前記第2の分割表示領域は、前記複数の分割表示領域のうち、前記第2のデバイスに関する表示用画像を表示する分割表示領域であり、前記第1の制御部は、前記第1の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合であっても、前記所定の条件が充足されるときには、前記ユーザ操作が前記第1のデバイスではなく前記第2のデバイスに対する操作である旨を判定するとともに、前記ユーザ操作が前記第2のデバイスに対する操作である旨の判定結果を前記第2のデバイスに送信し、前記第2の制御部は、前記第1の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合であっても、特定の操作を受け付けることが可能な特定の画像が前記第2の分割表示領域に表示されており且つ前記第1のデバイスから前記判定結果が受信されるときには、前記ユーザ操作が前記第2のデバイスに対する操作であって前記特定の画像に対する前記特定の操作である旨を判定することを特徴とする。
請求項14の発明は、請求項13の発明に係る情報処理装置において、前記特定の画像は、閲覧用画像を含み、前記特定の操作は、ピンチ操作を含むことを特徴とする。
請求項15の発明は、請求項13または請求項14の発明に係る情報処理装置において、前記所定の条件は、前記指示体の検出位置が操作入力用の表示要素の配置位置とは異なることと、前記特定の操作を受け付けることが可能な画像が前記第1の分割表示領域に表示されていないこととの双方を含むことを特徴とする。
請求項16の発明は、請求項13から請求項15のいずれかの発明に係る情報処理装置において、前記第1の制御部は、前記ユーザ操作が前記第2のデバイスに対する操作である旨を前記表示部からの前記検出位置情報に基づき判定する場合、前記表示部からの前記検出位置情報を前記第2のデバイスに転送し、前記第2の制御部は、前記ユーザ操作が前記第2のデバイスに対する前記特定の操作である旨を判定する場合、前記第1のデバイスから受信された前記検出位置情報に基づいて、前記第2の分割表示領域において前記特定の操作に応じた処理を実行することを特徴とする。
請求項17の発明は、請求項13から請求項15のいずれかの発明に係る情報処理装置において、前記第2の制御部は、前記判定結果を前記第1のデバイスから受信した後においては、前記表示部から受信した前記検出位置情報に基づいて、前記第2の分割表示領域において前記特定の操作に応じた処理を実行することを特徴とする。
請求項18の発明は、請求項1から請求項17のいずれかの発明に係る情報処理装置において、前記複数のデバイスは、一の筐体に収容されていることを特徴とする。
請求項19の発明は、請求項1から請求項18のいずれかの発明に係る情報処理装置において、前記情報処理装置は、画像処理装置であることを特徴とする。
請求項20の発明は、複数のデバイスを備える情報処理装置の制御方法であって、a)前記情報処理装置に設けられる表示部であって前記複数のデバイスによって共用される表示部が、前記表示部の表示領域においてユーザの指示体が検出されたことに応答して、前記指示体の検出位置を示す検出位置情報を前記複数のデバイスのそれぞれに送信するステップと、b)前記複数のデバイスのそれぞれに設けられた各制御部が、前記表示部から受信された前記検出位置情報に基づいて、前記指示体によるユーザ操作が自デバイスに対する操作であるか否かを判定するステップと、を備えることを特徴とする。
請求項21の発明は、情報処理装置に設けられた複数のデバイスであって制御部をそれぞれ有する複数のデバイスのうちの一のデバイスである第1のデバイスに内蔵されたコンピュータに、a)前記情報処理装置に設けられ且つ前記複数のデバイスによって共用される表示部の表示領域において検出された指示体の検出位置を示す検出位置情報であって、前記表示領域において前記指示体が検出されたことに応答して前記表示部から前記複数のデバイスのそれぞれに送信される検出位置情報を受信するステップと、b)前記表示部から受信された前記検出位置情報に基づいて、前記指示体によるユーザ操作が自デバイスに対する操作であるか否かを判定するステップと、を実行させるプログラムであることを特徴とする。
請求項1から請求項21に記載の発明によれば、表示部の表示領域にて指示体が検出されたことに応答して、当該指示体の検出位置を示す検出位置情報が当該表示部から複数のデバイスのそれぞれに送信される。そして、当該複数のデバイスのそれぞれの制御部において、当該検出位置情報に基づいて、当該指示体によるユーザ操作が自デバイスに対する操作であるか否かが判定される。したがって、複数のデバイスと当該複数のデバイスによって共用される表示部とを備える情報処理装置において、ユーザ操作の操作対象デバイスを特定する処理を実行するためのCPUを表示部に必ずしも設けずとも、各デバイスにおける動作を適切に実行することが可能である。
特に、請求項6および請求項10に記載の発明によれば、第1のデバイスにおいて、ユーザ操作が自デバイスに対する操作であるか否かを柔軟に判定することが可能である。
MFP(情報処理装置)の外観を示す図である。 MFPの概略構成を示すブロック図である。 画像形成デバイスの機能ブロックを示す図である。 サーバデバイスの機能ブロックを示す図である。 左側表示用領域にて指示体が検出される様子を示す図である。 指示体が左側表示用領域から右側表示用領域に移動した後に右側表示用領域から左側表示用領域へと再び移動する様子を示す図である。 指示体が右側表示用領域から左側表示用領域に移動した後に左側表示用領域から右側表示用領域へと再び移動する様子を示す図である。 1画面表示の表示領域にて指示体が検出される様子を示す図である。 各デバイスの動作を示すフローチャートである。 ピンチアウト操作における一方の指示体が左側表示用領域から右側表示用領域へと移動する様子を示す図である。 境界線を跨いだ状態でピンチ操作が開始される様子を示す図である。 各指示体の検出位置(検出開始位置)から境界線までの距離等を示す図である。 第2実施形態に係る各デバイスの動作を示すフローチャートである。 左側表示用領域にてユーザ操作が行われる様子を示す図である。 左側表示用領域にてユーザ操作が行われる様子を示す図である。 第3実施形態に係る各デバイスの動作を示すフローチャートである。 他デバイスからの検出位置情報の待機処理に関するサブルーチン処理を示す図である。
以下、本発明の実施形態を図面に基づいて説明する。
<1.第1実施形態>
<1-1.構成概要>
図1は、MFP(マルチ・ファンクション・ペリフェラル(Multi-Functional Peripheral))10の外観を示す図である。ここでは、情報処理装置として、MFP10を例示する。なお、MFP10は、画像形成装置あるいは画像処理装置などとも称される。
図2は、MFP10の概略構成を示すブロック図である。
このMFP10は、互いに独立して動作する複数のデバイス(ここではサーバデバイス20と画像形成デバイス30との2つのデバイス)を備える。ここでは、サーバデバイス20と画像形成デバイス30とは、一の筐体に収容され、一体的に構成されている。なお、当該一の筐体には、所定の部材と当該所定の部材に対して開閉自在に設けられた部材(たとえば、MFP10の原稿台に設けられた回転軸に対して回動自在に設けられた原稿カバー等)とが含まれるものとする。
また、このMFP10は、操作表示部40(図1も参照)をも備える。当該操作表示部40は、後述するように、当該複数のデバイス20,30によって共用される。
<1-2.画像形成デバイス30の構成>
画像形成デバイス30(図1も参照)は、各種のジョブ(コピージョブ、スキャンジョブ等)を実行することが可能なデバイスである。なお、画像形成デバイス30は、MFPデバイスとも称される。
図3は、画像形成デバイス30の機能ブロックを示す図である。画像形成デバイス30は、コピー機能、スキャン機能、ファクシミリ機能およびボックス印刷機能等を管理している。具体的には、画像形成デバイス30は、図3に示すように、画像読取部32、印刷出力部33、通信部34、格納部35およびコントローラ(制御部)39等を備えており、これらの各部を複合的に動作させることによって、各種の機能を実現する。
画像読取部32は、画像形成デバイス30の所定の位置(自動原稿供給部(ADF:Auto Document Feeder)あるいはガラス面等)に載置された原稿を光学的に読み取って(すなわちスキャンして)、当該原稿の画像データ(原稿画像あるいはスキャン画像とも称する)を生成する処理部である。この画像読取部32は、スキャン部などとも称される。画像形成デバイス30は、所定の位置に載置された原稿を読み取ることが可能なデバイスであり、画像読取デバイスとも称される。
印刷出力部33は、印刷対象に関するデータに基づいて紙などの各種の媒体に画像を印刷出力する出力部である。画像形成デバイス30は、各種の媒体に画像を印刷出力することが可能なデバイスであり、印刷出力デバイスとも称される。
通信部34は、公衆回線等を介したファクシミリ通信を行うことが可能な処理部である。さらに、通信部34は、ネットワークを介したネットワーク通信を行うことも可能である。このネットワーク通信では、たとえば、TCP/IP(Transmission Control Protocol / Internet Protocol)等の各種のプロトコルが利用される。当該ネットワーク通信を利用することによって、画像形成デバイス30は、所望の相手先との間で各種のデータを授受することが可能である。
格納部35は、各種の記憶装置((揮発性および/または不揮発性の)半導体メモリおよび/またはハードディスクドライブ(HDD)等)で構成される。
コントローラ39は、画像形成デバイス30に内蔵され、画像形成デバイス30を統括的に制御する制御装置である。コントローラ39は、CPU(Central Processing Unit)(マイクロプロセッサあるいはコンピュータプロセッサなどとも称される)および各種の半導体メモリ(RAMおよびROM)等を備えるコンピュータシステムとして構成される。コントローラ39は、CPUにおいて、ROM(例えば、EEPROM(登録商標))内に格納されている所定のソフトウエアプログラム(以下、単にプログラムとも称する)を実行することによって、各種の処理部を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されて画像形成デバイス30にインストールされるようにしてもよい。あるいは、当該プログラムは、ネットワークを経由してダウンロードされて画像形成デバイス30にインストールされるようにしてもよい。
具体的には、図3に示されるように、コントローラ39は、上記のプログラムの実行により、通信制御部39aと操作制御部39bと動作制御部39cとを含む各種の処理部を実現する。
通信制御部39aは、通信部34等と協働して他のデバイス(同一筐体(同一装置)内の他のデバイス(サーバデバイス20等)、および別の筐体内にて構成される他の装置内のデバイスを含む)との間の通信動作を制御する処理部である。
操作制御部39bは、操作表示部40(図1参照)と協働して、操作表示部40(特にタッチパネル45(図1参照))に対する入力動作を制御するとともに、操作表示部40(特にタッチパネル45)における表示動作(表示出力動作)を制御する処理部である。たとえば、操作制御部39bは、画像形成デバイス30用の表示画面(各種ジョブの設定画面等)を操作表示部40(タッチパネル45)に表示させる。具体的には、操作制御部39bは、画像形成デバイス30用の表示画面の表示用画像(表示用画像データ)を信号線L30(図2)を介してタッチパネル45に送信して当該表示画面をタッチパネル45に表示させる。また、操作制御部39bは、検出位置情報100(110)(図5等参照)を信号線L30を介して操作表示部40から取得(受信)する。検出位置情報100(タッチ座標情報)は、タッチパネル45の表示領域400(図5等)にて検出されたユーザの指示体(たとえば、ユーザの手指)の検出位置を示す情報である。なお、ここでは、ユーザの手指が指示体として例示されるが、これに限定されず、指示体は、ペン型の入力用部材等であってもよい。
また、操作制御部39bは、操作表示部40から受信された検出位置情報100(110)に基づいて、ユーザの指示体(手指)によるユーザ操作が自デバイス30に対する操作であるか否かを判定する判定処理をも実行する。換言すれば、操作制御部39bは、自デバイス30が操作対象デバイス(ユーザ操作に応じた処理を実行すべきデバイス)であるか否か、を判定する。
動作制御部39cは、画像形成デバイス30における各種の動作(ジョブ動作等)を制御する処理部である。
なお、ここでは、主にコントローラ39のCPUにてソフトウエアプログラムを実行することによって、上述の各種の動作が実行されているが、これに限定されず、画像形成デバイス30(詳細には、コントローラ39の内部あるいは外部)にて設けられた専用ハードウエア等を用いて、上述の各種の動作が実行されるようにしてもよい。たとえば、通信制御部39a、操作制御部39bおよび動作制御部39c(図3)等の全部または一部が、1または複数の専用ハードウエアを用いて実現されてもよい。
<1-3.サーバデバイス20の構成>
サーバデバイス20(図1も参照)は、サーバ機能を実現することが可能なデバイスである。サーバデバイス20は、たとえば汎用的なコンピュータ装置として構成される。
図4は、サーバデバイス20の機能ブロックを示す図である。
サーバデバイス20は、図4の機能ブロック図に示すように、通信部24、格納部25、コントローラ(制御部)29等を備えており、これらの各部を複合的に動作させることによって、各種の機能を実現する。
通信部24は、ネットワーク通信を行うことが可能である。このネットワーク通信では、たとえば、TCP/IP(Transmission Control Protocol / Internet Protocol)等の各種のプロトコルが利用される。当該ネットワーク通信を利用することによって、サーバデバイス20は、所望の相手先と連携して各種のデータを授受することが可能である。
格納部25は、各種の記憶装置((揮発性および/または不揮発性の)半導体メモリおよび/またはハードディスクドライブ(HDD)等)で構成される。
コントローラ(制御部)29は、サーバデバイス20に内蔵され、サーバデバイス20を統括的に制御する制御装置である。コントローラ29は、CPUおよび各種の半導体メモリ(RAMおよびROM)等を備えるコンピュータシステムとして構成される。コントローラ29は、CPUにおいて、記憶部(半導体メモリ等)内に格納されている所定のプログラムを実行することによって、各種の処理部を実現する。なお、当該プログラム(詳細にはプログラムモジュール群)は、USBメモリなどの可搬性の記録媒体に記録され、当該記録媒体から読み出されてサーバデバイス20にインストールされるようにしてもよい。あるいは、当該プログラムは、ネットワークを経由してダウンロードされてサーバデバイス20にインストールされるようにしてもよい。
具体的には、コントローラ29は、当該プログラム等の実行により、通信制御部29aと操作制御部29bと動作制御部29cとを含む各種の処理部を実現する。
通信制御部29aは、通信部24等と協働して他のデバイス(同一筐体(同一装置)内の他のデバイス(画像形成デバイス30等)、および別の筐体内にて構成される他の装置内のデバイスを含む)との間の通信動作を制御する処理部である。
操作制御部29bは、操作表示部40と協働して、操作表示部40(特にタッチパネル45)に対する入力動作を制御するとともに、操作表示部40(特にタッチパネル45)における表示動作を制御する処理部である。たとえば、操作制御部29bは、サーバデバイス20にて管理される機能(電子メール機能、データ保存機能、ファイル形式変換機能および画像編集機能等)に関する表示画面を操作表示部40(タッチパネル45)に表示させる。具体的には、操作制御部29bは、サーバデバイス20用の表示画面の表示用画像データを信号線L20(図2)を介してタッチパネル45に送信して当該表示画面をタッチパネル45に表示させる。また、操作制御部39bは、検出位置情報100(110)を信号線L20を介して操作表示部40から取得(受信)する。
また、操作制御部29bは、操作表示部40から受信された検出位置情報100(110)に基づいて、ユーザ操作が自デバイスに対する操作であるか否かを判定する判定処理をも実行する。換言すれば、操作制御部29bは、自デバイス20がユーザ操作の操作対象デバイスであるか否かを判定する。
動作制御部29cは、サーバデバイス20における各種の動作を制御する処理部である。
また、サーバデバイス20は、電子メール機能、データ保存機能、ファイル形式変換機能および画像編集機能等を管理している。具体的には、サーバデバイス20には、各種の機能を実現するためのアプリケーション(アプリケーションソフトウエアプログラム)が予めインストールされており、サーバデバイス20は、各アプリケーションを用いて各種の機能を実現する。
なお、ここでは、主にコントローラ29のCPUにてソフトウエアプログラムを実行することによって、上述の各種の動作が実行されているが、これに限定されず、画像形成デバイス30(詳細には、コントローラ29の内部あるいは外部)にて設けられた専用ハードウエア等を用いて、上述の各種の動作が実行されるようにしてもよい。たとえば、通信制御部29a、操作制御部29bおよび動作制御部29c(図4)等の全部または一部が、1または複数の専用ハードウエアを用いて実現されてもよい。
<1-4.操作表示部40の構成>
このMFP10においては、略板状の操作表示部40(図1参照)が設けられている。操作表示部40は、その正面側にタッチパネル45(図1参照)を有している。タッチパネル(操作パネルとも称する)45は、液晶表示パネルに各種センサ等が埋め込まれて構成され、各種情報を表示するとともに操作者の指示体(手指等)を検出して各種の操作入力を受け付けることが可能である。タッチパネル45は、タッチパネル45に対する操作入力を受け付ける操作入力部としても機能するとともに、各種情報を表示する表示部としても機能する。なお、この操作表示部40は、CPU(制御部)を有していないものとする。
また、操作表示部40は、MFP10内に設けられた複数のデバイス(ここではサーバデバイス20と画像形成デバイス30との2つのデバイス)によって共用される。
タッチパネル45は、複数のデバイス(ここでは2つのデバイス20,30)の双方の表示用画像を同時に表示することが可能である。端的に言えば、タッチパネル45は、2画面表示(2画面同時表示)(図5等参照)を行うことが可能である。
具体的には、タッチパネル45は、互いに隣接する2つの表示用領域(左側表示用領域200および右側表示用領域300(図5))を有している。当該2つの表示用領域200,300は、タッチパネル45の全表示用領域400(図5)を論理的に分割(区分)した分割表示領域である。なお、各表示用領域(各分割表示領域)200,300は、それぞれ常に同じ大きさ(タッチパネル45の1/2の大きさ)を有していてもよいが、これに限定されず、ユーザの操作等に応じてそれぞれの大きさが変更されるようにしてもよい。たとえば、両領域200,300のうち一方の領域がタッチパネル45全体の1/3の大きさを有し且つ他方の領域がタッチパネル45全体の2/3の大きさを有するように、ユーザによる境界変更操作に応じて各領域200,300の大きさが変更されてもよい。
タッチパネル45の左側表示用領域200には、サーバデバイス20用の画面(サーバデバイス20内のアプリケーションの表示画面等)が表示される。換言すれば、左側表示用領域200は、サーバデバイス20に関する表示用画像を表示する分割表示領域(分割表示画面)である。
タッチパネル45の右側表示用領域300には、画像形成デバイス30用の画面(各種ジョブの設定画面等)が表示される。換言すれば、右側表示用領域300は、画像形成デバイス30に関する表示用画像を表示する分割表示領域(分割表示画面)である。
タッチパネル45は、複数のデバイス20,30のうちの一方のデバイス(たとえばサーバデバイス20)の表示用画像のみを表示することも可能である。端的に言えば、タッチパネル45は、1画面表示(図8参照)を行うことも可能である。当該1画面表示と2画面表示(2画面同時表示)とは、たとえば、ユーザによる表示切替操作等に応じて切り替えられる。
<1-5.動作>
このMFP10の操作表示部40は、タッチパネル45の表示領域400においてユーザの指示体(ここでは手指)が検出されたことに応答して、全ての検出位置情報110(100)を複数のデバイス20,30のそれぞれに送信(伝送)する(図5等参照)。換言すれば、指示体が表示領域400内のいずれの位置で検出された場合であっても、操作表示部40は、検出位置情報110をデバイス20,30の双方に送信する。そして、当該複数のデバイス20,30のそれぞれの制御部29,39は、操作表示部40からの当該検出位置情報110に基づいて、ユーザ操作が自デバイスに対する操作であるか否かを判定する。換言すれば、表示部がユーザ操作の操作対象デバイスを特定するのではなく、各デバイス20,30が、自デバイスが操作対象デバイスであるか否かを判定する。
このような動作の詳細について、以下に説明する。
操作表示部40は、指示体が検出されてから当該指示体がタッチパネル45から離れるまで(すなわち、ドラッグ操作の開始から当該ドラッグ操作の終了まで)の間における指示体の各検出位置(P11(X11,Y11),P12(X12,Y12),...)(図5参照)に関する各検出位置情報110(111,112,...)を両デバイス20,30へと送信する。なお、図示の都合上、図5では、検出位置P11と次の検出位置P12との距離が比較的大きいが、実際には、検出位置P11と次の検出位置P12との距離は微小な距離である。
具体的には、操作表示部40は、まず、指示体が位置P11(図5)にて検出されたことに応答して、最初の検出位置情報111(110)をサーバデバイス20と画像形成デバイス30との双方に送信する。
そして、操作表示部40は、指示体の次の検出位置P12(図5)を示す検出位置情報112(110)を両デバイス20,30に送信する。
操作表示部40は、このような動作を、指示体の移動動作の継続中において(指示体が検出されてから当該指示体がタッチパネル45から離れるまで)繰り返す。
指示体の移動動作としては、図6および図7に示されるような動作が例示される。
図6では、指示体によるドラッグ操作(表示要素(ここではアイコン)の移動操作)が左側表示用領域200にて開始された後、当該指示体が左側表示用領域200から右側表示用領域300へと移動し、さらにその後、当該指示体が左側表示用領域200へと移動している。
具体的には、図6では、まず、指示体によるドラッグ操作(表示要素(ここではアイコン)の移動操作)が左側表示用領域200にて開始され、その後、指示体の移動区間M11においては、当該指示体は左側表示用領域200に存在している。移動区間M11は、指示体によるドラッグ操作が左側表示用領域200にて開始されてから(指示体が最初に検出されてから)当該指示体が境界線450に到達するまでの区間である。
そして、当該指示体が左側表示用領域200から境界線450(境界部分)を通過して右側表示用領域300へと移動し、移動区間M12においては、当該指示体は右側表示用領域300に存在している。移動区間M12は、指示体が境界線450を通過して右側表示用領域300へと進入してから再び境界線450に到達するまでの区間である。
その後、当該指示体が右側表示用領域300から境界線450を通過して再び左側表示用領域200へと移動し、移動区間M13においては、当該指示体は左側表示用領域200に存在している。移動区間M13は、指示体が境界線450を再び通過して左側表示用領域200へと移動して(戻って)から左側表示用領域200内の或る位置に至るまでの区間である。
また、図7においては、指示体による移動操作が右側表示用領域300にて開始された後、当該指示体が右側表示用領域300から左側表示用領域200へと移動し、さらにその後当該指示体が右側表示用領域300へと移動する状況が示されている。図7に示されるように、指示体の移動区間M21,M23においては、指示体が右側表示用領域300に存在しており、指示体の移動区間M22においては、指示体が左側表示用領域200に存在している。移動区間M21は、指示体によるドラッグ操作が右側表示用領域300にて開始されてから当該指示体が境界線450に到達するまでの区間である。移動区間M22は、指示体が境界線450を通過して左側表示用領域200へと進入してから再び境界線450に到達するまでの区間である。移動区間M23は、指示体が境界線450を再び通過して右側表示用領域300へと移動して(戻って)から右側表示用領域300内の或る位置に至るまでの区間である。
各デバイス20,30においては、操作表示部40から受信される検出位置情報110(111,112,...)に基づいて、指示体によるユーザ操作が自デバイスに対する操作であるか否かが判定される。
以下では、主にサーバデバイス20の動作について説明する。
サーバデバイス20は、次のような動作を原則動作として実行する。
具体的には、サーバデバイス20は、「自デバイス20用の分割表示領域200」(以下、「自デバイス20側」とも称する)にて指示体が(現時点で)検出されている旨を判定する場合、原則として、当該指示体によるユーザ操作が自デバイスに対する操作である旨を判定する。たとえば、図6の移動区間M11,M13では、サーバデバイス20は、自デバイス20側にて指示体が検出されている旨を判定し、当該指示体によるユーザ操作が自デバイス20に対する操作である旨を判定する。そして、サーバデバイス20は、当該ユーザ操作に応じた処理(たとえば、アイコン等の移動処理)を実行する。
また、サーバデバイス20は、「他デバイス30用の分割表示領域300」(以下、「他デバイス30側」とも称する)にて指示体が(現時点で)検出されている旨を判定する場合、原則として、当該指示体によるユーザ操作が自デバイスに対する操作でない旨を判定する。たとえば、図7の移動区間M21,M23では、サーバデバイス20は、他デバイス30側にて指示体が検出されている旨を判定し、当該指示体によるユーザ操作が自デバイス20に対する操作でない旨を判定する。そして、サーバデバイス20は、当該ユーザ操作に応じた処理を実行せず、操作表示部40からの検出位置情報110を破棄する。
このような動作が原則動作として実行される。ただし、このような原則動作が常に実行される場合、ユーザの意図しない処理がMFP10にて実行される恐れがある。
たとえば、左側表示用領域200にて行われていたドラッグ操作において、ユーザの手指が右側表示用領域300へと(偶発的に)進入した場合(図6の移動区間M12)において、上記の原則動作がサーバデバイス20にて実行されるときには、左側表示用領域200にて行われていた当該ドラッグ操作に応じた処理(移動処理)が(ユーザの意図しない位置で)中断されてしまう。
この点を考慮して、サーバデバイス20は、指示体が他デバイス30側にて検出されている旨を判定する場合であっても、自デバイス20側で開始された押下操作が継続された状態で指示体が他デバイス30側へと移動したことによって指示体が他デバイス30側にて検出されているときには、ユーザ操作が自デバイス20に対する操作である旨を例外的に判定する。
また、右側表示用領域300にて行われていたドラッグ操作において、ユーザの手指が左側表示用領域200へと(偶発的に)進入した場合(図7の移動区間M22)において、上記の原則動作がサーバデバイス20にて実行されるときには、右側表示用領域300にて行われていた当該ドラッグ操作に応じた処理(移動処理)が(ユーザの意図しない位置で)中断されてしまう。
この点を考慮して、サーバデバイス20は、指示体が自デバイス20側にて検出されている旨を判定する場合であっても、他デバイス30側で開始された押下操作が継続された状態で指示体が自デバイス20側へと移動したことによって指示体が自デバイス20側にて検出されているときには、ユーザ操作が自デバイス20に対する操作でない旨を例外的に判定する。
このような動作が例外動作としてサーバデバイス20にて実行される。
以下では、原則動作および例外動作の詳細について、図9を参照しつつ説明する。
図9は、サーバデバイス20における動作を示すフローチャートである。図9の動作は、操作表示部40から検出位置情報110(100)が受信されたことに応答して、サーバデバイス20にて開始される。
ここでは、後述するように、移動区間M11,M13(図6)においては、処理はステップS11,S12を経てステップS14(,S15)へと進み、サーバデバイス20は、原則通り、ユーザ操作が自デバイス20に対する操作である旨を判定する。
移動区間M12(図6)においては、処理はステップS11,S16を経てステップS14(,S15)へと進み、サーバデバイス20は、例外的に、ユーザ操作が自デバイス20に対する操作である旨を判定する。
また、移動区間M21,M23(図7)においては、処理はステップS11,S16を経てステップS18(,S19)へと進み、サーバデバイス20は、原則通り、ユーザ操作が自デバイス20に対する操作でない旨を判定する。
移動区間M22(図7)においては、処理はステップS11,S12を経てステップS18(,S19)へと進み、サーバデバイス20は、例外的に、ユーザ操作が自デバイス20に対する操作でない旨を判定する。
以下では、まず図6の移動動作について説明し、その後、図7の移動動作について説明する。
ステップS11においては、サーバデバイス20は、操作表示部40からの検出位置情報110(100)(図6)に基づいて、自デバイス20用の分割表示領域200にて指示体が検出されているか否か、を判定する。具体的には、サーバデバイス20は、自デバイス20用の分割表示領域200の座標情報(分割表示領域200の左上端の点の座標値および分割表示領域200の右下端の点の座標値)を有し、当該座標情報に基づいて、指示体の検出位置が分割表示領域200内に存在するか否か、を判定する。
たとえば移動区間M11,M13(図6)においては指示体が分割表示領域200に存在しており、当該移動区間M11,M13において、サーバデバイス20は、自デバイス20用の分割表示領域200にて指示体が検出されている旨をステップS11にて判定する。そして、処理はステップS11からステップS12へと進む。
一方、移動区間M12(図6)においては指示体が分割表示領域300に存在しており、当該移動区間M12において、サーバデバイス20は、自デバイス20用の分割表示領域200とは異なる分割表示領域(ここでは分割表示領域300)にて指示体が検出されている旨をステップS11にて判定する。そして、処理はステップS11からステップS16へと進む。
ステップS12,S16においては、サーバデバイス20は、押下開始情報と押下継続情報とに基づいて、指示体による押下操作が自デバイス20用の分割表示領域200にて開始されたか否か、を判定する。押下開始情報は、指示体による押下操作(タッチパネル45に対する押下操作)が自デバイス20用の分割表示領域200にて開始されたか否かを示す情報であり、押下継続情報は、分割表示領域200にて開始された指示体による押下操作が継続されている旨を示す情報である。
具体的には、サーバデバイス20は、「自デバイス20側にて開始された押下操作が継続された状態で指示体が自デバイス20側から境界線450を通過して他デバイス30側へと移動したことによって、他デバイス30側にて指示体が検出されているか否か」を判定する。換言すれば、「自デバイス20側にて開始された押下操作が継続された状態で指示体が自デバイス20側から境界線450を通過して他デバイス30側へと移動した結果、他デバイス30側にて指示体が検出されているか否か」が判定される。
ここでは、図6に示されるように、指示体による押下操作が分割表示領域200にて開始されており、且つ、移動区間M11~M13において、当該押下操作が開始された時点から当該押下操作が継続されている。
そのため、移動区間M11,M13(図6)では、サーバデバイス20は、指示体による押下操作の開始位置が他デバイス30用の分割表示領域300でない(自デバイス20用の分割表示領域200である)旨を判定する(ステップS12)。そして、処理はステップS12からステップS14へと進む。
また、移動区間M12(図6)では、サーバデバイス20側にて開始された押下操作が継続された状態で指示体がサーバデバイス20側から画像形成デバイス30側へと移動したことによって、画像形成デバイス30側にて指示体が検出され、ステップS11にて「NO」と判定される。そして、処理はステップS11からステップS16へと進み、サーバデバイス20は、指示体による押下操作の開始位置が自デバイス20用の分割表示領域200である旨を判定する。その後、処理はステップS16からステップS14へと進む。
このように、移動区間M11,M13においては、処理はステップS11,S12を経てステップS14へと進み、移動区間M12においては、処理はステップS11,S16を経てステップS14へと進む。
ステップS14においては、サーバデバイス20は、指示体によるユーザ操作が自デバイス20に対する操作である旨を判定する。換言すれば、サーバデバイス20は、自デバイス20が操作対象デバイス(ユーザ操作に応じた処理を実行すべきデバイス)である旨を判定する。そして、処理はステップS14からステップS15へと進み、サーバデバイス20は、検出位置情報110に基づいて、ユーザ操作に応じた処理を実行する。
たとえば、移動区間M11,M13では、サーバデバイス20は、分割表示領域200内のアイコンに対するドラッグ操作が分割表示領域200にて開始された時点から指示体による押下が継続されていることに基づいて、ユーザ操作が分割表示領域200内の当該アイコンに対するドラッグ操作である旨を判定する。そして、サーバデバイス20は、分割表示領域200において、ユーザ操作(ドラッグ操作)に応じた処理(選択されたアイコンの移動処理)を実行する。
また、移動区間M12では、サーバデバイス20は、当該ドラッグ操作が分割表示領域200にて開始された時点から指示体による押下が継続された状態で当該指示体が自デバイス20側から境界線450を通過して他デバイス30側へと移動したことに基づいて、分割表示領域200内のアイコンに対するドラッグ操作が継続されている旨を判定する。そして、サーバデバイス20は、ユーザ操作(ドラッグ操作)に応じた処理を実行する。ただし、指示体がサーバデバイス20側から画像形成デバイス30側へと移動した(図6の移動区間M12参照)場合であっても分割表示領域200内のアイコン自体は画像形成デバイス30側へと移動されず、当該アイコンは分割表示領域300には表示されない。当該移動区間M12においては、サーバデバイス20は、アイコンの押下状態が維持されていると判定しつつ、境界線450付近(分割表示領域200内の境界線450付近)にて当該アイコンを表示する(ステップS15)。なお、移動区間M12の後に指示体が他デバイス30側から自デバイス20側へと戻ってきた(図6の移動区間M13参照)ことに応答して、サーバデバイス20は、ドラッグ操作に応じた処理(当該アイコンの移動処理)を再開する。
つぎに、図7の移動動作について説明する。
移動区間M21,M23(図7)においては指示体が分割表示領域300に存在しており、当該移動区間M21,M23において、サーバデバイス20は、他デバイス30用の分割表示領域300にて指示体が検出されている旨をステップS11にて判定する。そして、処理はステップS11からステップS16へと進む。
一方、移動区間M22(図7)においては指示体が分割表示領域200に存在しており、当該移動区間M22において、サーバデバイス20は、自デバイス20用の分割表示領域200にて指示体が検出されている旨をステップS11にて判定する。そして、処理はステップS11からステップS12へと進む。
ステップS12,S16においては、サーバデバイス20は、押下操作が自デバイス20用の分割表示領域200にて開始されたか否か、を判定する。
ここでは、図7に示されるように、指示体による押下操作が分割表示領域300にて開始されており、且つ、移動区間M21~M23において、当該押下操作が開始された時点から当該押下操作が継続されている。
そのため、移動区間M21,M23では、サーバデバイス20は、指示体による押下操作の開始位置が自デバイス20用の分割表示領域200でない旨を判定する(ステップS16)。そして、処理はステップS16からステップS18へと進む。
また、移動区間M22では、画像形成デバイス30側にて開始された押下操作が継続された状態で指示体が画像形成デバイス30側からサーバデバイス20側へと移動したことによって、サーバデバイス20側にて指示体が検出され、ステップS11にて「YES」と判定される。そして、処理はステップS11からステップS12へと進み、サーバデバイス20は、指示体による押下操作の開始位置が他デバイス30用の分割表示領域300である旨をステップS12にて判定する。その後、処理はステップS12からステップS18へと進む。
このように、移動区間M21,M23(図7)においては、処理はステップS11,S16を経てステップS18へと進み、移動区間M22においては、処理はステップS11,S12を経てステップS18へと進む。
ステップS18においては、サーバデバイス20は、指示体によるユーザ操作が自デバイス20に対する操作でない旨を判定する。換言すれば、サーバデバイス20は、自デバイス20が当該ユーザ操作の操作対象デバイスでない旨を判定する。
そして、処理はステップS18からステップS19へと進み、サーバデバイス20は、操作表示部40から受信した検出位置情報100を破棄する(図7参照)。換言すれば、サーバデバイス20は、ユーザ操作に応じた処理を実行しない。
以上のような動作がサーバデバイス20にて実行される。
なお、画像形成デバイス30においても、図9の動作(サーバデバイス20の動作)と同様の動作が実行される。ただし、画像形成デバイス30における判定結果は、サーバデバイス20における判定結果とは逆になる。たとえば、サーバデバイス20が、ユーザ操作は自デバイス20に対する操作である旨を判定する場合は、画像形成デバイス30は、ユーザ操作が自デバイス30に対する操作でない旨を判定する。また、サーバデバイス20が、ユーザ操作は自デバイス20に対する操作でない旨を判定する場合は、画像形成デバイス30は、ユーザ操作が自デバイス30に対する操作である旨を判定する。
また、ここでは、タッチパネル45の画面構成が2画面表示であるが、タッチパネル45の画面構成が1画面表示であっても、同様の動作が実行される。たとえば、サーバデバイス20からの表示用画像のみが表示領域400に表示されている(図8)場合、操作表示部40は、当該表示領域400にて検出された指示体に関する検出位置情報120(100)をサーバデバイス20と画像形成デバイス30との双方に送信する。そして、各デバイス20,30は、操作表示部40からの検出位置情報120に基づいて、ユーザ操作が自デバイスに対する操作であるか否か、を判定する(図9)。具体的には、サーバデバイス20は、当該検出位置情報120に基づいて、ユーザ操作が自デバイス20に対する操作である旨を判定する(ステップS14)。一方、画像形成デバイス30は、当該検出位置情報120に基づいて、ユーザ操作が自デバイス30に対する操作でない旨を判定する(ステップS18)。
以上のように、第1実施形態では、タッチパネル45の表示領域400にて指示体が検出されたことに応答して、当該指示体の検出位置を示す検出位置情報110(100)が操作表示部40から両デバイス20,30のそれぞれに送信される(図5参照)。そして、両デバイス20,30において、当該指示体によるユーザ操作が自デバイスに対する操作であるか否かが判定される(図9)。換言すれば、操作表示部40において、ユーザ操作の操作対象デバイスを特定する処理は実行されず、各デバイス20,30に設けられている各制御部29,39(図3,4)において、ユーザ操作が自デバイスに対する操作であるか否かが判定される。したがって、複数のデバイス20,30と当該複数のデバイス20,30によって共用される操作表示部40とを備えるMFP10において、操作表示部40内におけるCPUの有無にかかわらず、指示体によるユーザ操作が自デバイスに対する操作であるか否かを適切に判定することが可能である。ひいては、各デバイス20,30における動作を適切に実行することが可能である。
特に、操作表示部40にCPUが設けられていない場合には、操作表示部40に当該CPUを新たに設けることに起因するコストアップを回避することが可能である。
また、第1実施形態では、サーバデバイス20は、自デバイス20側にて開始された押下操作が継続された状態で指示体が自デバイス20側から他デバイス30側へと移動したことによって、当該指示体が他デバイス30側にて検出されている(図6の移動区間M12参照)旨を判定する場合、ユーザ操作が自デバイス20に対する操作である旨を例外的に判定する。同様に、サーバデバイス20は、他デバイス30側にて開始された押下操作が継続された状態で指示体が他デバイス30側から自デバイス20側へと移動したことによって、当該指示体が自デバイス20側にて検出されている(図7の移動区間M22参照)旨を判定する場合、ユーザ操作が自デバイス20に対する操作でない旨を例外的に判定する。したがって、サーバデバイス20において、ユーザ操作が自デバイス20に対する操作であるか否かを柔軟に判定することが可能である。
特に、サーバデバイス20は、自デバイス20側にてドラッグ操作が開始された時点から指示体による押下が継続された状態で指示体が自デバイス20側から他デバイス30側へと移動したことによって、当該指示体が他デバイス30側にて検出されている(図6の移動区間M12参照)旨を判定する場合、当該ドラッグ操作が継続されている旨を判定する。そのため、サーバデバイス20側にて行われていたドラッグ操作においてユーザの手指が画像形成デバイス30側へと(意図せずに)進入してしまった場合であっても、当該ドラッグ操作に応じた処理(移動処理)は中断されない。したがって、サーバデバイス20は、自デバイス20にて受け付けられていたユーザ操作に応じた処理を継続することが可能である。換言すれば、サーバデバイス20にて受け付けられていたユーザ操作に応じた処理がユーザの意図に反して中断されること、を回避することが可能である。
なお、上記第1実施形態では、一方の分割表示領域にてドラッグ操作が受け付けられている(図6,7)が、これに限定されない。たとえば、一方の分割表示領域にてピンチアウト操作(2つの指示体の相互間の距離を拡大させる拡大操作)が受け付けられてもよい。
ここでは、図10に示されるように、左側表示用領域200内の位置P31,P41にて2つの指示体701,702を用いたピンチアウト操作が開始された後に、当該2つの指示体701,702の相互間の距離が拡大し、一方の指示体702が当該位置P41から分割表示領域300内の位置P42に移動する状況を想定する。
操作表示部40は、表示領域400にて2つの指示体701,702を検出すると、指示体701に関する検出位置情報130と指示体702に関する検出位置情報140とを両デバイス20,30に送信する(図10参照)。
そして、サーバデバイス20は、図9の動作を実行する。なお、サーバデバイス20は、図9の動作に先立って、所定の微小期間T1(たとえば0.5秒)内に(端的に言えば、ほぼ同時に)2つの指示体701,702が検出されたことに基づいて、ユーザ操作がピンチ操作である旨を判定(特定)する。
ステップS11においては、サーバデバイス20は、2つの指示体701,702の双方が自デバイス20用の分割表示領域200にて検出されているか否か、を判定する。
2つの指示体701,702の双方が自デバイス20用の分割表示領域200にて検出されている場合、処理はステップS11からステップS12へと進む。
たとえば移動区間M31,M41(図10)においては、2つの指示体701,702の双方が分割表示領域200に存在しており、処理はステップS11,S12を経てステップS14へと進む。移動区間M31は、指示体701の検出開始位置P31(図10)から分割表示領域200内の位置P32までの区間であり、移動区間M41は、指示体702の検出開始位置P41(図10)から境界線450までの区間である。
そして、サーバデバイス20は、原則通り、ユーザ操作(詳細にはピンチ操作)が自デバイス20に対する操作である旨を判定し(ステップS14)、分割表示領域200において、ユーザ操作に応じた処理を実行する(ステップS15)。なお、移動区間M31,M41では、指示体701,702の相互間の距離が拡大されることに応じて、ユーザ操作がピンチアウト操作である旨が特定される。
一方、2つの指示体701,702の双方が画像形成デバイス30用の分割表示領域300にて検出されている場合、処理はステップS11からステップS16を経てステップS18(,S19)へと進み、サーバデバイス20は、ユーザ操作が自デバイス20に対する操作でない旨を判定する。
また、2つの指示体701,702のうちの一方の指示体のみが自デバイス20用の分割表示領域200にて検出されている場合、処理はステップS11からステップS16へと進む。
たとえば移動区間M42(図10)においては、2つの指示体701,702のうちの一方の指示体702が分割表示領域300に存在しており、処理はステップS11からステップS16へと進む。具体的には、移動区間M42では、サーバデバイス20側にて開始された押下操作(当該一方の指示体702による押下操作)が継続された状態で当該一方の指示体702がサーバデバイス20側から画像形成デバイス30側へと移動したことによって、画像形成デバイス30側にて当該指示体702が検出され、ステップS11にて「NO」と判定される。なお、移動区間M42は、境界線450から分割表示領域300内の位置P42までの区間である。
そして、処理はステップS11からステップS16へと進み、サーバデバイス20は、指示体による押下操作の開始位置が自デバイス20用の分割表示領域200である旨を判定する。その後、処理はステップS16からステップS14へと進み、サーバデバイス20は、例外的に、ユーザ操作(ピンチ操作(詳細にはピンチアウト操作))が自デバイス20に対する操作である旨を判定する。具体的には、サーバデバイス20は、2つの指示体701,702を用いたピンチアウト操作が自デバイス20側にて開始された時点から当該2つの指示体による押下が継続された状態で一方の指示体702が自デバイス20側から他デバイス30側へと移動したことに基づいて、分割表示領域200に対するピンチアウト操作が継続されている旨を判定する。そして、処理はステップS14からステップS15へと進む。
ステップS15においては、サーバデバイス20は、ユーザ操作に応じた処理(拡大処理)を実行する。具体的には、まず、サーバデバイス20は、自デバイス20側にて検出されている指示体701に関する検出位置情報130に基づいて、自デバイス20側での指示体701の移動量を算出するとともに、他デバイス30側にて検出されている指示体702に関する検出位置情報140に基づいて、他デバイス30側での指示体702の移動量をも算出する。そして、サーバデバイス20は、自デバイス20側の指示体701の移動量と他デバイス30側の指示体702の移動量とに基づいて、分割表示領域200に対する拡大処理を実行する。このように、サーバデバイス20は、画像形成デバイス30側に進入した指示体702の移動量を考慮して、自デバイス20に対するピンチアウト操作に応じた処理(拡大処理)を実行する。
なお、さらにその後、ユーザがピンチイン操作(2つの指示体の相互間の距離を縮小させる縮小操作)を行い、指示体702が画像形成デバイス30側からサーバデバイス20側へと向けて分割表示領域300内にて移動した場合は、画像形成デバイス30側での指示体の移動量をも考慮した縮小処理が実行される(ステップS15)。
<2.第2実施形態>
第2実施形態は、第1実施形態の変形例(特に例外動作に関する変形例)である。以下では、第1実施形態との相違点を中心に説明する。
上記第1実施形態では、一方のデバイス20側にて開始されるピンチ操作(2つの指示体701,702の双方が一方のデバイス20用の分割表示領域200に接触した状態から開始されるピンチ操作)(図10参照)に関する判定動作等が例示されている。
これに対して、この第2実施形態では、境界線450を跨いだ2つの位置P51,P61で開始されるピンチ操作(図11参照)に関する判定動作が例示される。具体的には、2つの指示体701,702のうちの一方の指示体701が一方のデバイス20用の分割表示領域200に接触し且つ他方の指示体702が他方のデバイス30用の分割表示領域300に接触した状態から開始されるピンチ操作が、自デバイスに対する操作であるか否かが各デバイス20,30によって判定される。
ピンチ操作(ピンチアウト操作あるいはピンチイン操作)が境界線450付近で行われる場合、ピンチ操作における2つの指示体701,702のうちの一方の指示体701が一方の分割表示領域に存在するとともに、他方の指示体702が他方の分割表示領域に存在すること(図11)がある。端的に言えば、2つの指示体701,702が境界線450を跨いだ状態でピンチ操作が開始されることがある。
このようなピンチ操作が行われた場合、上述の原則動作では、サーバデバイス20は、自デバイス20側の指示体701に関する処理を実行し、画像形成デバイス30は、自デバイス30側の指示体702に関する処理を実行する。換言すれば、各指示体701,702による各ユーザ操作に応じた処理が各デバイス20,30にて別個に実行される。その結果、ユーザの所望のデバイスにおいて、2つの指示体701,702によるピンチ操作に応じた処理が実行されない。
この点を考慮して、この第2実施形態では、各デバイス20,30は、ピンチ操作に係る2つの指示体701,702が互いに異なる分割表示領域にて検出されている旨を判定する場合、各指示体701,702の検出位置と境界線450との位置関係に基づいて、当該ピンチ操作が自デバイスに対する操作であるか否かを判定する。
以下では、主にサーバデバイス20の動作について説明する。
図13は、第2実施形態に係るサーバデバイス20の動作を示すフローチャートである。
操作表示部40は、微小期間T1内に2つ指示体701,702を表示領域400にて検出すると、各指示体701,702に関する検出位置情報150,160を複数のデバイス20,30のそれぞれに送信する(図11)。
サーバデバイス20は、当該検出位置情報150,160の受信に応答して、図13の動作を開始する。なお、サーバデバイス20は、図13の動作に先立って、微小期間T1内に2つの指示体701,702が検出されたことに基づいて、ユーザ操作がピンチ操作である旨を判定(特定)する。
ステップS31においては、サーバデバイス20は、検出位置情報150,160(図11)に基づいて、自デバイス20用の分割表示領域200にて少なくとも1つの指示体が検出されているか否か、を判定する。ここでは、サーバデバイス20は、2つの指示体701,702のうちの一方の指示体(701)が自デバイス20用の分割表示領域200にて検出されている旨を判定し、処理をステップS31からステップS32へと進める。なお、2つの指示体701,702の双方が画像形成デバイス30用の分割表示領域300にて検出されている旨が判定される場合、処理はステップS31からステップS18,S19へと進む。図13のステップS18,S19の処理は、図9のステップS18,S19の処理(第1実施形態参照)と同様である。
ステップS32においては、サーバデバイス20は、自デバイス20用の分割表示領域200にて検出されている指示体の数を判定する。
ここでは、2つの指示体701,702のうちの一方の指示体701が分割表示領域200にて検出されており、且つ当該2つの指示体701,702のうちの他方の指示体702が分割表示領域300にて検出されている(図11)。そのため、サーバデバイス20は、分割表示領域200にて検出されている指示体の数が値「1」である旨をステップS32にて判定し、処理をステップS32からステップS33へと進める。なお、2つの指示体701,702の双方がサーバデバイス20用の分割表示領域200にて検出されている旨が判定される場合、分割表示領域200にて検出されている指示体の数が値「2」である旨がステップS32にて判定され、処理はステップS32からステップS14,S15へと進む。図13のステップS14,S15の処理は、図9のステップS14,S15の処理(第1実施形態参照)と同様である。
ステップS33においては、サーバデバイス20は、各指示体701,702の各検出位置P51(X51,Y51),P61(X61,Y61)から境界線450までの距離D1,D2(図12)に基づいて、ユーザ操作(ピンチ操作)が自デバイス20に対する操作であるか否かを判定する。
具体的には、サーバデバイス20は、各指示体701,702の最初の各検出位置P51,P61から境界線450までの距離D1,D2(図12)を算出して比較し、比較結果に基づいて、ピンチ操作が自デバイス20に対する操作であるか否かを判定する。
詳細には、サーバデバイス20は、自デバイス20側の指示体701(図11)の最初の検出位置P51から境界線450までの距離(以下、「自デバイス20側の距離」とも称する)(ここでは距離D1(図12))を算出する。さらに、サーバデバイス20は、他デバイス30側の指示体702の最初の検出位置P61から境界線450までの距離(以下、「他デバイス30側の距離」とも称する)(ここでは距離D2)をも算出する。そして、サーバデバイス20は、算出された距離D1,D2の大小関係を比較する。ここでは、サーバデバイス20は、自デバイス20側の距離(D1)が他デバイス30側の距離(D2)よりも大きい旨を判定する。
自デバイス20側の距離(D1)が他デバイス30側の距離(距離D2)よりも大きい場合、処理はステップS33からステップS14へと進み、サーバデバイス20は、2つの指示体701,702によるピンチ操作が自デバイス20に対する操作である旨を判定する。そして、処理はステップS14からステップS15へと進む。なお、自デバイス20側の距離(D1)が他デバイス30側の距離(D2)よりも小さい旨がステップS32にて判定される場合、処理はステップS33からステップS18へと進み、サーバデバイス20は、ピンチ操作が自デバイス20に対する操作でない旨を判定する。また、自デバイス20側の距離と他デバイス30側の距離とが等しい(D1=D2)場合は、たとえば、予め定められたデバイス(たとえばサーバデバイス20)に対するピンチ操作である旨が判定される。
ステップS15においては、サーバデバイス20は、ユーザ操作(ピンチ操作)に応じた処理を実行する。なお、ピンチ操作がピンチアウト操作とピンチイン操作とのいずれであるかは、その後の各指示体701,702の移動状況により特定される。たとえば、2つの指示体701,702の各検出位置の相互間の距離が拡大された場合は、ユーザ操作がピンチアウト操作である旨が特定される。逆に、当該相互間の距離が縮小された場合は、ユーザ操作がピンチイン操作である旨が特定される。
なお、画像形成デバイス30においても、図13の動作と同様の動作が実行される。
画像形成デバイス30においては、自デバイス30用の分割表示領域300にて指示体702が検出されていることに基づいて、処理はステップS31からステップS32を経てステップS33へと進む。そして、画像形成デバイス30は、自デバイス30側の距離と他デバイス20側の距離との大小関係を比較する(ステップS33)。
具体的には、画像形成デバイス30は、自デバイス30側の指示体702(図11)の最初の検出位置P61(図12)から境界線450までの距離(自デバイス30側の距離)(ここでは距離D2)を算出する。また、画像形成デバイス30は、他デバイス20側の指示体701の最初の検出位置P51から境界線450までの距離(他デバイス20側の距離)(ここでは距離D1)をも算出する。そして、画像形成デバイス30は、算出された自デバイス30側の距離(D2)と他デバイス20側の距離(D1)との大小関係を比較する。ここでは、自デバイス30側の距離(D2)が他デバイス20側の距離(D1)よりも小さい旨がステップS32にて判定され、処理はステップS18,S19へと進む。
そして、画像形成デバイス30は、2つの指示体701,702によるピンチ操作が自デバイスに対する操作でない旨を判定し(ステップS18)、操作表示部40からの検出位置情報150,160を破棄する(ステップS19)(図11参照)。
なお、自デバイス30側の距離(D2)が他デバイス20側の距離(D1)よりも大きい旨がステップS32にて判定される場合、処理はステップS32からステップS14へと進み、画像形成デバイス30は、ピンチ操作が自デバイス30に対する操作である旨を判定する。
以上のように、第2実施形態では、一方のデバイス(たとえばサーバデバイス20)は、ピンチ操作に係る2つの指示体701,702が互いに異なる分割表示領域にて検出されている(図11)旨を判定する場合において、自デバイス側の距離(D1(図12))が他デバイス側の距離(D2)よりも大きいときには、当該ピンチ操作が自デバイス20に対する操作である旨を判定する。その結果、各指示体701,702による各ユーザ操作に応じた処理が各デバイス20,30にて別個に実行されることがなく、当該2つの指示体によるピンチ操作に応じた処理がユーザ操作の操作対象デバイス(ここではサーバデバイス20)にて実行される。したがって、ユーザの意図に反する処理がMFP10にて実行されることを回避することが可能である。
<3.第3実施形態>
第3実施形態は、第1実施形態の変形例である。以下では、第1実施形態との相違点を中心に説明する。
上記第1実施形態では、各デバイス20,30は、自デバイス用の分割表示領域にて指示体が検出されている旨を判定する場合、原則として、当該指示体によるユーザ操作が自デバイスに対する操作である旨を判定している(図6等)。換言すれば、各デバイス20,30用の分割表示領域(200,300)は、原則として、各デバイス20,30用の分割表示領域(200,300)に表示された画像に対するユーザ操作の操作用領域として用いられている。
第3実施形態においても、このような動作が各デバイス20,30にて原則的に実行される。ただし、この第3実施形態では、所定の条件(後述)が充足される場合、一方のデバイス(たとえばサーバデバイス20)用の分割表示領域(200)が、例外的に、他方のデバイス(画像形成デバイス30)用の分割表示領域300に表示された画像に対するユーザ操作の操作用領域として用いられる(図14)。
ここにおいて、画像形成デバイス30用の分割表示領域300に閲覧用画像が表示されている場合、ユーザは、当該分割表示領域300に対してピンチアウト操作(あるいはピンチイン操作)を行うことによって、当該閲覧用画像を拡大(あるいは縮小)させることが可能である。なお、閲覧用画像は、特定の操作(たとえばピンチ操作(ピンチアウト操作およびピンチイン操作))を受け付けることが可能な画像である。当該閲覧用画像としては、たとえば、ボックス印刷ジョブ等におけるプレビュー画像が例示される。
ただし、分割表示領域300に表示された閲覧用画像に対してユーザ操作(たとえばピンチ操作)が行われる場合、ユーザの手指を分割表示領域300に接触させてユーザ操作が行われることに起因して、当該閲覧用画像の一部が当該手指等によって覆われてしまう。その結果、ユーザは、当該覆われた部分を視認することができない。
この点を考慮して、この第3実施形態では、所定の条件が充足される場合、サーバデバイス20用の分割表示領域200が、例外的に、画像形成デバイス30用の分割表示領域300に表示された閲覧用画像に対するユーザ操作の操作用領域として用いられる(図14)。これにより、ユーザは、画像形成デバイス30用の分割表示領域300に表示された閲覧用画像の全体を見つつ、サーバデバイス20用の分割表示領域200を用いて当該閲覧用画像の拡大等を行うことができる。
まず、サーバデバイス20の動作について説明する。なお、ここでは、サーバデバイス20用の分割表示領域200にて指示体が検出される状況を想定する。
図16は、第3実施形態に係るサーバデバイス20の動作を示すフローチャートである。
サーバデバイス20は、自デバイス20側にて指示体が検出されている場合であっても、自デバイス20用の分割表示領域200における表示内容とは無関係の操作が行われているときには、ユーザ操作が画像形成デバイス30に対する操作である旨を例外的に判定する。具体的には、サーバデバイス20は、自デバイス20側にて指示体が検出されている場合であっても、当該指示体の検出位置が操作入力用の表示要素の配置位置とは異なる旨と閲覧用画像が自デバイス20側に表示されていない旨との双方の条件が充足されるときには、ユーザ操作が画像形成デバイス30に対する操作である旨を例外的に判定する(ステップS43)。そして、サーバデバイス20は、ユーザ操作が画像形成デバイス30に対する操作である旨の判定結果を画像形成デバイス30に送信する(ステップS44)。
具体的には、まず、サーバデバイス20は、ステップS11の後、ステップS41において、操作入力用の表示要素(キー画像251,252(図14)等)が指示体701,702の最初の検出位置P71,P81(ピンチ操作における操作開始位置)に存在するか否か、を判定する。
操作入力用の表示要素が指示体701,702の最初の検出位置P71(X71,Y71),P81(X81,Y81)に存在する場合、処理はステップS41からステップS14へと進み、サーバデバイス20は、原則通り、ユーザ操作が自デバイス20に対する操作(たとえば、当該表示要素の押下操作)である旨を判定する。
一方、操作入力用の表示要素が指示体701.702の検出位置P71,P81に存在しない(図14参照)場合、処理はステップS41からステップS42へと進む。換言すれば、指示体の検出位置が操作入力用の表示要素の配置位置とは異なる場合、処理はステップS41からステップS42へと進む。
ステップS42においては、サーバデバイス20は、閲覧用画像が自デバイス20用の分割表示領域200に表示されているか否か、を判定する。
閲覧用画像(或る静止画コンテンツ等)が分割表示領域200に表示されている場合、処理はステップS42からステップS14へと進み、サーバデバイス20は、原則通り、ユーザ操作が自デバイス20に対する操作である旨を判定する。そして、サーバデバイス20は、ユーザ操作に応じた処理(たとえば、分割表示領域200に表示された静止画コンテンツに対する拡大処理)を実行する(ステップS15)。
一方、閲覧用画像が分割表示領域200に表示されていない場合、処理はステップS42からステップS43へと進み、サーバデバイス20は、ユーザ操作が自デバイス20ではなく他デバイス30に対する操作である旨を判定する。
そして、処理はステップS43からステップS44へと進み、サーバデバイス20は、ユーザ操作が画像形成デバイス30に対する操作である旨の判定結果を当該画像形成デバイス30に送信する。また、サーバデバイス20は、操作表示部40から受信した検出位置情報170,180をも画像形成デバイス30に送信(転送)する(図14)。当該判定結果と検出位置情報170,180とは、信号線L50(図14)を介してサーバデバイス20から画像形成デバイス30へと送信される。
そして、サーバデバイス20における図16の動作は終了する。ただし、サーバデバイス20は、操作表示部40からの検出位置情報170,180を画像形成デバイス30へと転送する転送動作を継続して実行する(当該転送動作を繰り返す)。換言すれば、検出位置情報170,180は、随時更新されてサーバデバイス20から画像形成デバイス30へと転送される。
つぎに、画像形成デバイス30の動作について説明する。画像形成デバイス30においても、図16の動作と同様の動作が実行される。
画像形成デバイス30は、他デバイス20側にて指示体が検出されている場合であっても、ユーザ操作が画像形成デバイス30に対する操作である旨の判定結果が他デバイス20から受信され且つ自デバイス30側に閲覧用画像が表示されているときには、ユーザ操作が自デバイス30に対する特定の操作(たとえばピンチ操作)である旨を判定する。そして、画像形成デバイス30は、自デバイス30用の分割表示領域300において、当該特定の操作に応じた処理を実行する。
具体的には、まず、画像形成デバイス30は、自デバイス30用の分割表示領域300にて指示体が検出されていない旨をステップS11にて判定し、処理をステップS11からステップS18へと進める。そして、画像形成デバイス30は、原則動作に従って、ユーザ操作が自デバイス30に対する操作でない旨を(一旦)判定し(ステップS18)、操作表示部40から(直接的に)受信された検出位置情報170,180を破棄する(ステップS19)(図14参照)。
そして、処理はステップS19からステップS50へと進む。
ステップS50においては、画像形成デバイス30は、他デバイス20からの検出位置情報100の待機処理を実行する。図17は、ステップS50のサブルーチン処理を示す図である。
ステップS51においては、画像形成デバイス30は、ユーザ操作が画像形成デバイス30に対する操作である旨の判定結果と検出位置情報100とを他デバイス20から受信したか否か、を判定する。ここでは、上述のように、サーバデバイス20から画像形成デバイス30に対して当該判定結果と検出位置情報170,180とが送信されており(ステップS44)、画像形成デバイス30は、当該判定結果と検出位置情報100とを他デバイス20から受信した旨をステップS51にて判定する。そして、処理はステップS51からステップS52へと進む。
ステップS52においては、画像形成デバイス30は、閲覧用画像が自デバイス30用の分割表示領域300に表示されているか否か、を判定する。
たとえば各種ジョブの設定用画像(ピンチ操作が受け付けられない画像)が分割表示領域300に表示されている場合、画像形成デバイス30は、閲覧用画像が自デバイス30用の分割表示領域300に表示されていない旨をステップS52にて判定する。
そして、処理はステップS52からステップS53へと進み、画像形成デバイス30は、サーバデバイス20から受信された(転送された)検出位置情報170,180を破棄する。
一方、ボックス印刷ジョブ等におけるプレビュー画像が分割表示領域300に表示されている場合、画像形成デバイス30は、閲覧用画像が自デバイス30用の分割表示領域300に表示されている旨をステップS52にて判定する。
そして、処理はステップS52からステップS54へと進み、画像形成デバイス30は、ユーザ操作が自デバイス30に対する特定の操作(たとえばピンチ操作)である旨を判定する。
このように、画像形成デバイス30は、他デバイス20側にて指示体が検出されている旨を判定する(ステップS11)場合であっても、ユーザ操作が画像形成デバイス30に対する操作である旨の判定結果が他デバイス20から受信され且つ自デバイス30側に閲覧用画像が表示されているときには、当該ユーザ操作が自デバイス30に対する操作である旨を例外的に判定する。
そして、処理はステップS54からステップS55へと進み、画像形成デバイス30は、サーバデバイス20から受信された検出位置情報170,180(図14)に基づいて、ユーザ操作(たとえば、分割表示領域300に対するピンチアウト操作)に応じた処理(拡大処理)を実行する。具体的には、画像形成デバイス30は、分割表示領域300内の位置であって、分割表示領域200における指示体の検出位置に対応する位置を算出し、算出された位置を基点に閲覧用画像の拡大処理を実行する。より具体的には、画像形成デバイス30は、他デバイス20用の分割表示領域200における一方の指示体701の検出位置P71(図14)と他方の指示体702の検出位置P81との中点P91を求めるとともに、分割表示領域300にて当該中点P91に対応する位置P93を、分割表示領域300における拡大処理の基準位置(基点)として算出する。位置P93は、たとえば、分割表示領域300内にて、分割表示領域200における座標値と同一の座標値を有する位置である。また、画像形成デバイス30は、各指示体701,702の各移動量に応じて、拡大処理における拡大率を算出する。そして、画像形成デバイス30は、算出された当該基準位置P93を基点とし且つ算出された当該拡大率で閲覧用画像を拡大する拡大処理(閲覧用画像の拡大処理)を実行する。なお、これに限定されず、画像形成デバイス30用の分割表示領域300の中心点を基点に閲覧用画像の拡大処理が実行されてもよい。
なお、ここでは、画像形成デバイス30は、当該判定結果をサーバデバイス20から受信した後においても、引き続き、サーバデバイス20から転送される検出位置情報170,180を用いてユーザ操作に応じた処理を実行する。
以上のように、第3実施形態では、サーバデバイス20において、自デバイス20側で検出されている指示体の検出位置がキー画像251,252等(図14)の配置位置とは異なり且つ特定の操作(ピンチ操作等)を受け付けることが可能な画像が自デバイス20側に表示されていない場合、ユーザ操作が自デバイス20に対する操作でない旨が判定される(ステップS43)。そして、ユーザ操作が画像形成デバイス30に対する操作である旨の判定結果がサーバデバイス20から画像形成デバイス30へと送信される。当該画像形成デバイス30においては、当該特定の操作(ピンチ操作等)を受け付けることが可能な特定の画像が自デバイス30側に表示されており且つ当該判定結果がサーバデバイス20から受信されるときには、ユーザ操作が自デバイス30に対する当該特定の操作である旨が判定される(ステップS54)。端的に言えば、サーバデバイス20用の分割表示領域200が、画像形成デバイス30用の分割表示領域300に表示された閲覧用画像に対する特定の操作の操作用領域として用いられる。
そのため、ユーザは、サーバデバイス20用の分割表示領域200においてピンチアウト操作等を行うことによって、画像形成デバイス30用の分割表示領域300に表示された閲覧用画像に対する拡大処理等を実行させることができる。換言すれば、ユーザは、画像形成デバイス30用の分割表示領域300に表示された閲覧用画像の全体を見つつ、サーバデバイス20用の分割表示領域200を用いて当該閲覧用画像の拡大等を行うことができる。したがって、ユーザの利便性を向上させることが可能である。
なお、上記第3実施形態では、画像形成デバイス30は、ユーザ操作が画像形成デバイス30に対する操作である旨の判定結果をサーバデバイス20から受信した後においても、引き続き、サーバデバイス20から転送される検出位置情報170,180を用いてユーザ操作に応じた処理を実行している(図14)が、これに限定されない。
ここにおいて、一方のデバイス(ここではサーバデバイス20)から他方のデバイス(画像形成デバイス30)へと検出位置情報100が転送される場合、当該他方のデバイス(30)において、ユーザ操作に応じた処理の応答性が低下する。詳細には、サーバデバイス20側にてピンチアウト操作が行われてから拡大処理が画像形成デバイス30側にて実行(反映)されるまでの時間(応答性)が、操作表示部40から直接的に受信された検出位置情報100を用いて拡大処理が実行される場合よりも長くなる。
この点を考慮して、画像形成デバイス30は、当該判定結果をサーバデバイス20から受信した後においては、操作表示部40から直接的に受信された検出位置情報170,180を用いてユーザ操作に応じた処理を実行してもよい(図15)。なお、当該判定結果がサーバデバイス20から受信された後においては、画像形成デバイス30は、サーバデバイス20から転送されてくる検出位置情報170,180を破棄してもよい(図15)。
操作表示部40から直接的に受信された検出位置情報170,180が利用されることによれば、ユーザ操作に応じた処理の応答性の低下を抑制することが可能である。
なお、画像形成デバイス30は、ユーザ操作が画像形成デバイス30に対する操作である旨の判定結果の受信後に操作表示部40から直接的に受信された検出位置情報170,180のみならず、当該判定結果の受信前に操作表示部40から直接的に受信された検出位置情報170,180を用いてユーザ操作に応じた処理を実行してもよい。具体的には、画像形成デバイス30は、操作表示部40からの検出位置情報170,180を破棄せずに記憶しておき、当該判定結果(サーバデバイス20から受信される判定結果)に基づいて、操作表示部40から受信した検出位置情報170,180を用いてユーザ操作に応じた処理(たとえば、ピンチ操作の開始点を特定する処理)を実行してもよい。
また、上記第3実施形態では、サーバデバイス20用の分割表示領域200が、画像形成デバイス30用の分割表示領域300に表示された閲覧用画像(プレビュー画像等)に対する特定の操作の操作用領域として用いられているが、これに限定されない。逆に、画像形成デバイス30用の分割表示領域300が、サーバデバイス20用の分割表示領域200に表示された閲覧用画像(静止画コンテンツ等)に対する特定の操作の操作用領域として用いられてもよい。
<4.変形例等>
以上、この発明の実施の形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
たとえば、上記各実施形態等においては、情報処理装置(MFP10)に2つのデバイス(サーバデバイス20および画像形成デバイス30)が設けられている(図2)が、これに限定されず、情報処理装置に3つ以上のデバイスが設けられていてもよい。
また、上記各実施形態等においては、図9等の動作を実行する情報処理装置としてMFP10(図1)が例示されているが、これに限定されず、当該情報処理装置は、その他の各種の装置(たとえばパーソナルコンピュータ)であってもよい。
10 MFP(情報処理装置)
20 サーバデバイス
30 画像形成デバイス
40 操作表示部
45 タッチパネル
200 左側表示用領域(サーバデバイス用の分割表示領域)
300 右側表示用領域(画像形成デバイス用の分割表示領域)
400 タッチパネルの表示領域

Claims (21)

  1. 情報処理装置であって、
    制御部をそれぞれ有する複数のデバイスと、
    前記複数のデバイスによって共用される表示部と、
    を備え、
    前記表示部は、前記表示部の表示領域においてユーザの指示体が検出されたことに応答して、前記指示体の検出位置を示す検出位置情報を前記複数のデバイスのそれぞれに送信し、
    前記複数のデバイスのそれぞれの制御部は、前記表示部から受信された前記検出位置情報に基づいて、前記指示体によるユーザ操作が自デバイスに対する操作であるか否かを判定することを特徴とする情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    前記複数のデバイスのそれぞれの制御部は、前記ユーザ操作が自デバイスに対する操作である旨を判定する場合、前記検出位置情報に基づいて、前記ユーザ操作に応じた処理を実行することを特徴とする情報処理装置。
  3. 請求項1または請求項2に記載の情報処理装置において、
    前記複数のデバイスのそれぞれの制御部は、前記ユーザ操作が自デバイスに対する操作でない旨を判定する場合、前記表示部から受信された前記検出位置情報を破棄することを特徴とする情報処理装置。
  4. 請求項1から請求項3のいずれかに記載の情報処理装置において、
    前記表示領域は、複数の分割表示領域に分割され、
    前記表示部は、各デバイスから受信された表示用画像を各分割表示領域に表示するとともに、前記表示領域にて前記指示体が検出されたことに応答して、前記検出位置情報を前記複数のデバイスのそれぞれに送信することを特徴とする情報処理装置。
  5. 請求項4に記載の情報処理装置において、
    前記複数のデバイスのうちの一のデバイスである第1のデバイスは、第1の制御部を有し、
    前記第1の制御部は、
    前記複数の分割表示領域のうち、前記第1のデバイスに関する表示用画像を表示する分割表示領域である第1の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合、前記ユーザ操作が前記第1のデバイスに対する操作である旨を判定し、
    前記複数の分割表示領域のうち、前記第1の分割表示領域とは異なる分割表示領域である第2の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合、前記ユーザ操作が前記第1のデバイスに対する操作でない旨を判定することを特徴とする情報処理装置。
  6. 請求項5に記載の情報処理装置において、
    前記第1の制御部は、前記第2の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合であっても、所定の条件が充足されるときには、前記ユーザ操作が前記第1のデバイスに対する操作である旨を判定することを特徴とする情報処理装置。
  7. 請求項6に記載の情報処理装置において、
    前記所定の条件は、前記第1の分割表示領域にて開始された前記指示体による押下操作が継続された状態で前記指示体が前記第1の分割表示領域と前記第2の分割表示領域との境界部分を通過して前記第1の分割表示領域から前記第2の分割表示領域へと移動したことによって、前記第2の分割表示領域にて前記指示体が検出されていることを含むことを特徴とする情報処理装置。
  8. 請求項6に記載の情報処理装置において、
    前記所定の条件は、前記第1の分割表示領域内の表示要素に対する移動操作が前記第1の分割表示領域にて開始された時点から前記指示体による押下が継続された状態で前記指示体が前記第1の分割表示領域と前記第2の分割表示領域との境界部分を通過して前記第1の分割表示領域から前記第2の分割表示領域へと移動したことによって、前記第2の分割表示領域にて前記指示体が検出されていることを含み、
    前記第1の制御部は、当該所定の条件が充足されるときには、前記ユーザ操作が前記第1のデバイスに対する操作であり且つ前記第1の分割表示領域内の前記表示要素に対する前記移動操作が継続されている旨を判定することを特徴とする情報処理装置。
  9. 請求項6に記載の情報処理装置において、
    前記所定の条件は、前記指示体を含む2つの指示体を用いたピンチアウト操作が前記第1の分割表示領域にて開始された時点から前記2つの指示体による押下が継続された状態で前記指示体が前記第1の分割表示領域と前記第2の分割表示領域との境界部分を通過して前記第1の分割表示領域から前記第2の分割表示領域へと移動したことによって、前記第2の分割表示領域にて前記指示体が検出されていることを含み、
    前記第1の制御部は、当該所定の条件が充足されるときには、前記ユーザ操作が前記第1のデバイスに対する操作であり且つ前記第1の分割表示領域に対する前記ピンチアウト操作が継続されている旨を判定することを特徴とする情報処理装置。
  10. 請求項5に記載の情報処理装置において、
    前記第1の制御部は、前記第1の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合であっても、所定の条件が充足されるときには、前記ユーザ操作が前記第1のデバイスに対する操作でない旨を判定することを特徴とする情報処理装置。
  11. 請求項10に記載の情報処理装置において、
    前記所定の条件は、前記第2の分割表示領域にて開始された前記指示体による押下操作が継続された状態で前記指示体が前記第2の分割表示領域と前記第1の分割表示領域との境界部分を通過して前記第2の分割表示領域から前記第1の分割表示領域へと移動したことによって、前記第1の分割表示領域にて前記指示体が検出されていることを含むことを特徴とする情報処理装置。
  12. 請求項6に記載の情報処理装置において、
    前記表示領域においては、前記指示体を含む2つの指示体が検出され、
    前記第1の制御部は、
    所定の微小期間内に前記2つの指示体が検出される場合において、前記2つの指示体のうち第1の指示体が前記第1の分割表示領域にて検出されており且つ前記2つの指示体のうち第2の指示体が前記第2の分割表示領域にて検出されている旨を前記検出位置情報に基づき判定するときには、前記第1の分割表示領域と前記第2の分割表示領域との境界部分から前記第1の指示体の検出位置までの距離である第1の距離と、前記境界部分から前記第2の指示体の検出位置までの距離である第2の距離とをそれぞれ算出し、
    前記所定の微小期間内に前記2つの指示体が検出され且つ前記第1の距離が前記第2の距離よりも大きい旨の条件が充足される場合、前記ユーザ操作がピンチ操作であり且つ前記ユーザ操作が前記第1のデバイスに対するピンチ操作である旨を判定することを特徴とする情報処理装置。
  13. 請求項10に記載の情報処理装置において、
    前記複数のデバイスは、前記第1のデバイスと、前記第1のデバイスとは異なる第2のデバイスとを含み、
    前記第2のデバイスは、第2の制御部を有し、
    前記第2の分割表示領域は、前記複数の分割表示領域のうち、前記第2のデバイスに関する表示用画像を表示する分割表示領域であり、
    前記第1の制御部は、前記第1の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合であっても、前記所定の条件が充足されるときには、前記ユーザ操作が前記第1のデバイスではなく前記第2のデバイスに対する操作である旨を判定するとともに、前記ユーザ操作が前記第2のデバイスに対する操作である旨の判定結果を前記第2のデバイスに送信し、
    前記第2の制御部は、前記第1の分割表示領域にて前記指示体が検出されている旨を前記検出位置情報に基づき判定する場合であっても、特定の操作を受け付けることが可能な特定の画像が前記第2の分割表示領域に表示されており且つ前記第1のデバイスから前記判定結果が受信されるときには、前記ユーザ操作が前記第2のデバイスに対する操作であって前記特定の画像に対する前記特定の操作である旨を判定することを特徴とする情報処理装置。
  14. 請求項13に記載の情報処理装置において、
    前記特定の画像は、閲覧用画像を含み、
    前記特定の操作は、ピンチ操作を含むことを特徴とする情報処理装置。
  15. 請求項13または請求項14に記載の情報処理装置において、
    前記所定の条件は、前記指示体の検出位置が操作入力用の表示要素の配置位置とは異なることと、前記特定の操作を受け付けることが可能な画像が前記第1の分割表示領域に表示されていないこととの双方を含むことを特徴とする情報処理装置。
  16. 請求項13から請求項15のいずれかに記載の情報処理装置において、
    前記第1の制御部は、前記ユーザ操作が前記第2のデバイスに対する操作である旨を前記表示部からの前記検出位置情報に基づき判定する場合、前記表示部からの前記検出位置情報を前記第2のデバイスに転送し、
    前記第2の制御部は、前記ユーザ操作が前記第2のデバイスに対する前記特定の操作である旨を判定する場合、前記第1のデバイスから受信された前記検出位置情報に基づいて、前記第2の分割表示領域において前記特定の操作に応じた処理を実行することを特徴とする情報処理装置。
  17. 請求項13から請求項15のいずれかに記載の情報処理装置において、
    前記第2の制御部は、前記判定結果を前記第1のデバイスから受信した後においては、前記表示部から受信した前記検出位置情報に基づいて、前記第2の分割表示領域において前記特定の操作に応じた処理を実行することを特徴とする情報処理装置。
  18. 請求項1から請求項17のいずれかに記載の情報処理装置において、
    前記複数のデバイスは、一の筐体に収容されていることを特徴とする情報処理装置。
  19. 請求項1から請求項18のいずれかに記載の情報処理装置において、
    前記情報処理装置は、画像処理装置であることを特徴とする情報処理装置。
  20. 複数のデバイスを備える情報処理装置の制御方法であって、
    a)前記情報処理装置に設けられる表示部であって前記複数のデバイスによって共用される表示部が、前記表示部の表示領域においてユーザの指示体が検出されたことに応答して、前記指示体の検出位置を示す検出位置情報を前記複数のデバイスのそれぞれに送信するステップと、
    b)前記複数のデバイスのそれぞれに設けられた各制御部が、前記表示部から受信された前記検出位置情報に基づいて、前記指示体によるユーザ操作が自デバイスに対する操作であるか否かを判定するステップと、
    を備えることを特徴とする制御方法。
  21. 情報処理装置に設けられた複数のデバイスであって制御部をそれぞれ有する複数のデバイスのうちの一のデバイスである第1のデバイスに内蔵されたコンピュータに、
    a)前記情報処理装置に設けられ且つ前記複数のデバイスによって共用される表示部の表示領域において検出された指示体の検出位置を示す検出位置情報であって、前記表示領域において前記指示体が検出されたことに応答して前記表示部から前記複数のデバイスのそれぞれに送信される検出位置情報を受信するステップと、
    b)前記表示部から受信された前記検出位置情報に基づいて、前記指示体によるユーザ操作が自デバイスに対する操作であるか否かを判定するステップと、
    を実行させるプログラム。
JP2018003690A 2018-01-12 2018-01-12 情報処理装置、情報処理装置の制御方法、およびプログラム Active JP7102740B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018003690A JP7102740B2 (ja) 2018-01-12 2018-01-12 情報処理装置、情報処理装置の制御方法、およびプログラム
US16/226,047 US10817166B2 (en) 2018-01-12 2018-12-19 Information processing apparatus, method of controlling information processing apparatus, and recording medium
CN201910010898.3A CN110032325B (zh) 2018-01-12 2019-01-07 信息处理装置、信息处理装置的控制方法以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018003690A JP7102740B2 (ja) 2018-01-12 2018-01-12 情報処理装置、情報処理装置の制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019123105A JP2019123105A (ja) 2019-07-25
JP7102740B2 true JP7102740B2 (ja) 2022-07-20

Family

ID=67212901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003690A Active JP7102740B2 (ja) 2018-01-12 2018-01-12 情報処理装置、情報処理装置の制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US10817166B2 (ja)
JP (1) JP7102740B2 (ja)
CN (1) CN110032325B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114115633A (zh) * 2020-08-25 2022-03-01 广州视源电子科技股份有限公司 单触摸屏多触摸接收设备的触控方法、装置和计算机设备
CN114168057B (zh) * 2021-12-07 2024-04-09 中船重工(武汉)凌久电子有限责任公司 一种多画面对应多主机实时触控交互的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149440A (ja) 2003-11-20 2005-06-09 Hitachi Ltd 画面共有制御方法
JP2015018432A (ja) 2013-07-11 2015-01-29 株式会社デンソー ジェスチャ入力装置
JP2015026100A (ja) 2013-07-24 2015-02-05 シャープ株式会社 画像切替装置、画像切替システムおよび画像切替方法
US20160034058A1 (en) 2014-07-31 2016-02-04 Microsoft Corporation Mobile Device Input Controller For Secondary Display
JP2016208140A (ja) 2015-04-17 2016-12-08 キヤノン株式会社 印刷システム、画面表示装置、画像処理装置、印刷装置、その制御方法、及びプログラム
JP2017123126A (ja) 2016-01-08 2017-07-13 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199326A (ja) * 1990-11-29 1992-07-20 Hitachi Ltd 端末制御方式および端末共有計算機システム
US7711681B2 (en) * 2004-11-05 2010-05-04 Accenture Global Services Gmbh System for distributed information presentation and interaction
JP5360140B2 (ja) * 2011-06-17 2013-12-04 コニカミノルタ株式会社 情報閲覧装置及び制御プログラム並びに制御方法
JP5930363B2 (ja) * 2011-11-21 2016-06-08 株式会社ソニー・インタラクティブエンタテインメント 携帯情報機器およびコンテンツ表示方法
JP6196017B2 (ja) * 2012-01-13 2017-09-13 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
KR102072582B1 (ko) * 2012-12-31 2020-02-03 엘지전자 주식회사 듀얼 디스플레이 방법 및 장치
CN103984579B (zh) * 2014-05-30 2018-04-13 满金标 多设备间分享当前应用程序实时运行状态的方法
JP6432449B2 (ja) 2015-06-02 2018-12-05 コニカミノルタ株式会社 情報処理装置、情報処理プログラム、及び情報処理方法
CN106293320A (zh) * 2015-06-12 2017-01-04 施耐德电器工业公司 人机界面设备及其操作方法
CN106412055A (zh) * 2016-09-27 2017-02-15 武汉启目科技有限公司 一种多终端设备相互分享文件资源的方法
US20190102135A1 (en) * 2017-10-03 2019-04-04 Summit Technology Laboratory Scalable interaction with multi-displays

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149440A (ja) 2003-11-20 2005-06-09 Hitachi Ltd 画面共有制御方法
JP2015018432A (ja) 2013-07-11 2015-01-29 株式会社デンソー ジェスチャ入力装置
JP2015026100A (ja) 2013-07-24 2015-02-05 シャープ株式会社 画像切替装置、画像切替システムおよび画像切替方法
US20160034058A1 (en) 2014-07-31 2016-02-04 Microsoft Corporation Mobile Device Input Controller For Secondary Display
JP2016208140A (ja) 2015-04-17 2016-12-08 キヤノン株式会社 印刷システム、画面表示装置、画像処理装置、印刷装置、その制御方法、及びプログラム
JP2017123126A (ja) 2016-01-08 2017-07-13 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
CN110032325A (zh) 2019-07-19
CN110032325B (zh) 2022-06-24
US10817166B2 (en) 2020-10-27
US20190220165A1 (en) 2019-07-18
JP2019123105A (ja) 2019-07-25

Similar Documents

Publication Publication Date Title
JP5556767B2 (ja) 画像形成装置、画像形成システム、画像形成装置の制御方法およびプログラム
JP7062388B2 (ja) スキャン画像にファイル名等を設定するための装置、その制御方法及びプログラム
JP6035985B2 (ja) 画像処理装置、画像処理装置の制御プログラム、および画像処理システム
JP2012182613A (ja) 操作指示装置、それを備えた画像形成装置及び操作指示方法
JP7102740B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
US8994988B2 (en) Image forming apparatus, host apparatus, and print method thereof
JP5141743B2 (ja) 画像処理装置
JP2014241506A (ja) 画像処理システム、情報処理装置、及び情報処理プログラム
US9413908B2 (en) Image forming apparatus remotely operated by external terminal, method for controlling image forming apparatus, recording medium, and image forming system including image forming apparatus
US9600162B2 (en) Information processing apparatus, information processing method, and computer readable-recording medium
US20220141345A1 (en) Information processing apparatus, method for controlling information processing, and storage medium
JP5609909B2 (ja) 画像形成システム、画像形成装置、外部端末およびプログラム
JP5834669B2 (ja) リモート端末、リモート端末の制御方法および制御プログラム
US9307104B2 (en) Information processing apparatus, method for controlling the same, and storage medium
JP6160194B2 (ja) 画像形成システム、外部端末およびプログラム
JP5645621B2 (ja) 情報処理装置、画像処理装置、情報処理装置の制御方法、画像処理装置の制御方法、及びプログラム
JP6863094B2 (ja) 情報処理装置およびプログラム
JP2014068152A (ja) 画像処理装置、画像処理方法及びプログラム
JP6123109B2 (ja) 画像形成装置
JP6838703B2 (ja) 情報処理装置およびプログラム
JP2002152447A (ja) データ通信装置、データ処理方法および記憶媒体
JP2024116855A (ja) プログラム、情報処理方法、及び情報処理装置
JP2015177503A (ja) 画像形成装置、画像形成システムおよびプログラム
JP5676895B2 (ja) 画像処理システム、画像処理方法及びプログラム、並びに画像処理システムを構成する画像形成装置及び外部装置
JP2024077988A (ja) 情報処理装置、その制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R150 Certificate of patent or registration of utility model

Ref document number: 7102740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150