JP2015204047A - 画像処理連携システムと連携方法、携帯端末装置及び画像処理連携プログラム - Google Patents

画像処理連携システムと連携方法、携帯端末装置及び画像処理連携プログラム Download PDF

Info

Publication number
JP2015204047A
JP2015204047A JP2014084070A JP2014084070A JP2015204047A JP 2015204047 A JP2015204047 A JP 2015204047A JP 2014084070 A JP2014084070 A JP 2014084070A JP 2014084070 A JP2014084070 A JP 2014084070A JP 2015204047 A JP2015204047 A JP 2015204047A
Authority
JP
Japan
Prior art keywords
gesture
image processing
screen
gesture input
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014084070A
Other languages
English (en)
Other versions
JP6003939B2 (ja
Inventor
山田 圭
Kei Yamada
圭 山田
浩友 石井
Hirotomo Ishii
浩友 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014084070A priority Critical patent/JP6003939B2/ja
Priority to US14/685,124 priority patent/US9875433B2/en
Publication of JP2015204047A publication Critical patent/JP2015204047A/ja
Application granted granted Critical
Publication of JP6003939B2 publication Critical patent/JP6003939B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K15/00Arrangements for producing a permanent visual presentation of the output data, e.g. computer output printers
    • G06K15/002Interacting with the operator
    • G06K15/007Interacting with the operator only remotely, e.g. at a host computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/452Remote windowing, e.g. X-Window System, desktop virtualisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1205Improving or facilitating administration, e.g. print management resulting in increased flexibility in print job configuration, e.g. job settings, print requirements, job tickets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1253Configuration of print job parameters, e.g. using UI at the client
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1278Dedicated interfaces to print systems specifically adapted to adopt a particular infrastructure
    • G06F3/1292Mobile client, e.g. wireless printing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Facsimiles In General (AREA)
  • Computer Networks & Wireless Communication (AREA)

Abstract

【課題】携帯端末装置の表示手段に画像処理装置の操作画面をリモート画面として表示したときに、携帯端末装置の表示画面が小さくてもユーザーがジェスチャ操作を行い易くして操作性を向上した画像処理連携システムと連携方法及び携帯端末装置等を提供する。【解決手段】画像処理装置1の表示手段107bに表示される操作画面を構成する画面データと、画面上におけるジェスチャ操作による入力が可能な1個または複数のジェスチャ入力可能領域300a〜300cについての情報が携帯端末2に送信される。携帯端末は、受信した画面データ及びジェスチャ入力可能領域についての情報に基づき、いずれかのジェスチャ入力可能領域をユーザーが選択可能な態様で表示手段204aに表示する。ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、選択されたジェスチャ入力可能領域がそのサイズ及び/または表示位置を変更されて表示手段に表示される。【選択図】図5

Description

この発明は、多機能デジタル複合機であるMFP(Multi Function Peripherals)等の画像処理装置と無線通信等により接続可能なスマートフォン、タブレット端末等の携帯端末装置を備えた画像処理連携システムと連携方法、携帯端末装置及び画像処理連携プログラムに関する。
近年、スマートフォン、タブレット端末等の携帯端末装置は、電子化された文書を記憶可能であり、時と場所を選ばず、文書を閲覧したり編集したりできる。また、携帯端末装置で編集等したファイルを前記MFP等の画像処理装置に送信し、画像処理装置で印刷または保存等の処理を実行させることができる。さらに、画像処理装置のスキャナ部で読み取った原稿の画像データ等からなるファイルを携帯端末装置に送信し、携帯端末装置で編集等を行うこともできる。
しかし、携帯端末装置と画像処理装置とをそれぞれ別個に操作する必要があり、操作が煩雑になるといった問題がある。
そこで、最近、画像処理装置の機能を使用するための画像処理装置側の操作画面を、携帯端末装置の表示部にリモート画面として表示し、携帯端末装置から画像処理装置を連携操作できるようにした、画像処理装置と携帯端末装置との連携システムが提案されている(例えば特許文献1)。この連携システムでは、携帯端末装置の表示部に表示される画像処理装置側のリモート画面は、画像処理装置から送信される画面データに基づいて表示される。
つまり、操作が行われたことを示す情報が携帯端末装置から画像処理装置に送信され、画像処理装置はこの情報に基づいて次の画面データを作成し、この画面データを携帯端末装置に送信し、携帯端末装置はこの画面データに基づいてリモート画面を更新表示する。
ところで、近年、画像処理装置の操作パネルは、表示画面に対してユーザーがジェスチャ操作を行うことにより入力が可能となっており、従来のボタン操作から複数の指を使用したマルチタッチ操作やフリック、ピンチといった複雑な操作が多く利用されている。また、これに伴い、操作パネルの画面サイズも大型化してきており、画面に表示されるボタン等のパーツも増加している。
一方、携帯端末装置も表示画面に対してユーザーがジェスチャ操作を行うことで入力が可能な機種が一般的になっているが、画面サイズは画像処理装置の画面サイズよりも小さいものが多い。
特開2002−281195号公報
しかしながら、画像処理装置の画面サイズよりも携帯端末装置の画面サイズの方が小さい場合、画像処理装置の操作画面も縮小されて携帯端末装置に表示されるため、ユーザーはジェスチャ操作を行いにくく、操作性が良くないという問題がある。このため、携帯端末装置の小さい画面であっても、画像処理装置の操作画面に対してユーザーがジェスチャ操作を行い易くするための方策が望まれている。
この発明は、このような実情に鑑みてなされたものであり、携帯端末装置の表示手段に画像処理装置の操作画面をリモート画面として表示したときに、携帯端末装置の表示画面が小さくてもユーザーがジェスチャ操作を行い易くして操作性を向上した画像処理連携システムと連携方法及び携帯端末装置を提供し、さらには前記携帯端末装置のコンピュータに処理を実行させるための画像処理連携プログラムを提供することを課題とする。
上記課題は、以下の手段によって解決される。
(1)相互に接続可能な画像処理装置と携帯端末装置とを備えた画像処理連携システムであって、前記画像処理装置は、ジェスチャ操作による入力が可能な表示手段と、前記表示手段に表示される操作画面を構成する画面データと、前記画面データと対応付けられ、ジェスチャ操作による入力が可能な画面上の1個または複数個のジェスチャ入力可能領域についての情報とを前記携帯端末装置に送信する送信手段と、を備え、前記携帯端末装置は、ジェスチャ操作による入力が可能な表示手段と、前記画面データ及び前記ジェスチャ入力可能領域についての情報を受信する受信手段と、前記受信手段により受信した前記画面データ及び前記ジェスチャ入力可能領域についての情報に基づいて、前記画像処理装置の操作画面を、いずれかのジェスチャ入力可能領域をユーザーが選択できる態様の領域選択画面として表示するとともに、表示された前記領域選択画面において、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、前記選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示手段に表示させる表示制御手段と、前記表示手段に表示されたジェスチャ入力可能領域に対して、ジェスチャ操作がなされたときは、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前の操作情報に変換する操作情報変換手段と、前記変換された操作情報を前記画像処理装置に送信する送信手段と、を備え、前記画像処理装置は、前記携帯端末装置から送信された操作情報を受信して、該操作情報に対応する処理を行うことを特徴とする画像処理連携システム。
(2)前記画像処理装置と携帯端末装置が、ジェスチャ操作による入力が不可能な表示手段を有する情報処理装置を介して接続可能となされ、該情報処理装置は、前記画像処理装置からの前記画面データ及びジェスチャ入力可能領域についての情報を受信して前記携帯端末装置に転送し、前記携帯端末装置からの操作情報を受信して前記画像処理装置に転送する前項1に記載の画像処理連携システム。
(3)前記ジェスチャ操作は、シングルタッチ操作及びマルチタッチ操作の少なくともいずれかである前項1または2に記載の画像処理連携システム。
(4)前記ジェスチャ入力可能領域についての情報は、各ジェスチャ入力可能領域毎に受け付け可能なジェスチャ操作の情報を含み、前記携帯端末装置の前記操作情報変換手段は、受け付け可能なジェスチャ操作が行われた場合にのみ、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前の操作情報に変換する前項1〜3のいずれかに記載の画像処理連携システム。
(5)前記携帯端末装置は、前記表示手段に表示されたジェスチャ入力可能領域の形状が、携帯端末装置の前記表示手段の画面形状と一定以上相違する場合、ジェスチャ入力を受け付け可能な範囲を前記ジェスチャ入力可能領域を超えて拡大する前項1〜4のいずれかに記載の画像処理連携システム。
(6)前記携帯端末装置の前記表示制御手段は、ジェスチャ入力可能領域が複数個存在する場合、全てのジェスチャ入力可能領域を表示手段に同時に表示するか、指定されたジェスチャ入力可能領域を選択的に表示するかを、予め設定された条件に基づいて切り替えて前記領域選択画面を表示する前項1〜5のいずれかに記載の画像処理連携システム。
(7)前記情報処理装置の表示手段には、前記画像処理装置からの前記画面データに基づいて画像処理装置の操作画面が表示される前項2に記載の画像処理連携システム。
(8)前記情報処理装置の表示手段に表示された前記画像処理装置の操作画面において、前記携帯端末装置でユーザーにより選択されたジェスチャ入力可能領域が他のジェスチャ入力可能領域とは識別可能な態様で表示される前項7に記載の画像処理連携システム。
(9)相互に接続可能な画像処理装置と携帯端末装置とを備えた画像処理連携システムで実行される画像処理連携方法であって、前記画像処理装置は、ジェスチャ操作による入力が可能な表示手段に表示される操作画面を構成する画面データと、前記画面データと対応付けられ、ジェスチャ操作による入力が可能な画面上の1個または複数個のジェスチャ入力可能領域についての情報とを前記携帯端末装置に送信する送信ステップを実行し、前記携帯端末装置は、前記画面データ及びジェスチャ入力可能領域についての情報を受信する受信ステップと、前記受信ステップにより受信した前記画面データ及び前記ジェスチャ入力可能領域についての情報に基づいて、前記画像処理装置の操作画面を、いずれかのジェスチャ入力可能領域をユーザーが選択できる態様の領域選択画面として表示するとともに、表示された前記領域選択画面において、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、前記選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示手段に表示させる表示制御ステップと、前記表示手段に表示されたジェスチャ入力可能領域に対して、ジェスチャ操作がなされたときは、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前の画面の操作情報に変換する操作情報変換ステップと、前記変換された操作情報を前記画像処理装置に送信する送信ステップと、を実行し、前記画像処理装置は、前記携帯端末装置から送信された操作情報を受信して、該操作情報に対応する処理を行うことを特徴とする画像処理連携方法。
(10)ジェスチャ操作による入力が可能な表示手段を有する画像処理装置と接続するための接続手段と、ジェスチャ操作による入力が可能な表示手段と、前記画像処理装置側の操作画面を構成する画面データと、前記画面データと対応付けられ、ジェスチャ操作による入力が可能な画面上の1個または複数個のジェスチャ入力可能領域についての情報とを、前記画像処理装置から受信する受信手段と、前記受信手段により受信した前記画面データ及び前記ジェスチャ入力可能領域についての情報に基づいて、前記画像処理装置の操作画面を、いずれかのジェスチャ入力可能領域をユーザーが選択できる態様の領域選択画面として表示するとともに、表示された前記領域選択画面において、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、前記選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示手段に表示させる表示制御手段と、前記表示手段に表示されたジェスチャ入力可能領域に対して、ジェスチャ操作がなされたときは、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前の操作情報に変換する操作情報変換手段と、前記変換された操作情報を前記画像処理装置に送信する送信手段と、を備えたことを特徴とする携帯端末装置。
(11)ジェスチャ操作による入力が不可能な表示手段を有する情報処理装置を介して前記画像処理装置と接続可能となされ、前記受信手段は、前記画像処理装置からの前記画面データ及びジェスチャ入力可能領域についての情報を前記情報処理装置から受信し、前記送信手段は、前記操作情報を前記情報処理装置に送信する前項10に記載の携帯端末装置。
(12)前記ジェスチャ操作は、シングルタッチ操作及びマルチタッチ操作の少なくともいずれかである前項10または11に記載の携帯端末装置。
(13)前記ジェスチャ入力可能領域についての情報は、各ジェスチャ入力可能領域毎に受け付け可能なジェスチャ操作の情報を含み、前記操作情報変換手段は、受け付け可能なジェスチャ操作が行われた場合にのみ、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前のジェスチャ入力可能領域の操作情報に変換する前項10〜12のいずれかに記載の携帯端末装置。
(14)前記表示手段に表示されたジェスチャ入力可能領域の形状が、前記表示手段の画面形状と一定以上相違する場合、ジェスチャ入力を受け付け可能な範囲を前記ジェスチャ入力可能領域を超えて拡大する前項10〜13のいずれかに記載の携帯端末装置。
(15)前記表示制御手段は、ジェスチャ入力可能領域が複数個存在する場合、全てのジェスチャ入力可能領域を表示手段に同時に表示するか、指定されたジェスチャ入力可能領域を選択的に表示するかを、予め設定された条件に基づいて切り替えて前記領域選択画面を表示する前項10〜14のいずれかに記載の携帯端末装置。
(16)ジェスチャ操作による入力が可能な表示手段を有する携帯端末装置のコンピュータに、ジェスチャ操作による入力が可能な表示手段を有する画像処理装置と接続する接続ステップと、前記画像処理装置の操作画面を構成する画面データと、前記画面データと対応付けられ、ジェスチャ操作による入力が可能な画面上の1個または複数個のジェスチャ入力可能領域についての情報とを、前記画像処理装置から受信する受信ステップと、前記受信ステップにより受信した前記画面データ及び前記ジェスチャ入力可能領域についての情報に基づいて、前記画像処理装置の操作画面を、いずれかのジェスチャ入力可能領域をユーザーが選択できる態様の領域選択画面として表示するとともに、表示された前記領域選択画面において、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、前記選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示手段に表示させる表示制御ステップと、前記表示手段に表示されたジェスチャ入力可能領域に対して、ジェスチャ操作がなされたときは、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前の操作情報に変換する操作情報変換ステップと、前記変換された操作情報を前記画像処理装置に送信する送信ステップと、を実行させるための画像処理連携プログラム。
前項(1)に記載の発明によれば、画像処理装置の表示手段に表示される操作画面を構成する画面データと、この画面データと対応付けられ、画面上におけるジェスチャ操作による入力が可能な1個または複数個のジェスチャ入力可能領域についての情報とが携帯端末装置に送信される。一方、携帯端末装置は、受信した画面データ及びジェスチャ入力可能領域についての情報に基づいて、いずれかのジェスチャ入力可能領域をユーザーが選択可能な態様で画像処理装置の操作画面を表示手段に表示する。また、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、選択されたジェスチャ入力可能領域がそのサイズ及び/または表示位置を変更されて表示手段に表示される。
つまり、ユーザーが選択したジェスチャ入力可能領域を、従来よりも拡大して表示できまたはジェスチャ操作しやすい表示位置に変更して表示できるから、ユーザーは選択した領域に対してジェスチャ操作を行いやすくなり、操作性が向上する。
なお、表示されたジェスチャ入力可能領域に対して、ジェスチャ操作がなされたときは、該ジェスチャ操作に対応する操作情報が、サイズ及び/または表示位置の変更前の操作情報に変換されて画像処理装置に送信され、画像処理装置で操作情報に対応する処理が行われ、次画面への更新やジョブの実行等が行われる。
前項(2)に記載の発明によれば、ジェスチャ操作による入力が不可能な表示手段を有する情報処理装置と携帯端末装置との間で、画面データ、ジェスチャ入力可能領域についての情報、操作情報等の送受信が行われるから、携帯端末装置を、ジェスチャ操作による入力が不可能な情報処理装置に対してジェスチャ操作による入力を可能とするための支援装置として利用できる。
前項(3)に記載の発明によれば、ジェスチャ操作としてシングルタッチ操作及びマルチタッチ操作の少なくともいずれかが受け付けられる。
前項(4)に記載の発明によれば、各ジェスチャ入力可能領域毎に受け付け可能なジェスチャ操作が設定されているときは、受け付け可能なジェスチャ操作がなさたれときにのみこれが受け付けられ、ジェスチャ操作に対応する操作情報がサイズ等変更前の操作情報に変換されて画像処理装置に送信される。
前項(5)に記載の発明によれば、選択されたジェスチャ入力可能領域の形状が携帯端末装置の表示手段の画面形状と一定以上相違する場合、ジェスチャ入力を受け付け可能な範囲が前記ジェスチャ入力可能領域を超えて拡大されるから、さらにジェスチャ操作を行いやすくなる。
前項(6)に記載の発明によれば、領域選択画面として、複数個のジェスチャ入力可能領域の全てを表示手段に同時に表示するか、指定されたジェスチャ入力可能領域を選択的に表示するかが、予め設定された条件、例えば携帯端末装置の表示手段の画面サイズに応じて切り替えて表示されるから、状況に適した領域選択画面の表示が可能となる。
前項(7)に記載の発明によれば、情報処理装置の表示手段には、画像処理装置からの画面データに基づいて画像処理装置の操作画面が表示されるから、ユーザーはこの画面を見ながら携帯端末装置を操作することができる。
前項(8)に記載の発明によれば、情報処理装置の表示手段に表示された画像処理装置の操作画面において、携帯端末装置でユーザーにより選択されたジェスチャ入力可能領域が他のジェスチャ入力可能領域とは識別可能な態様で表示されるから、選択されたジェスチャ入力可能領域を情報処理装置の画面上で確認することができる。
前項(9)に記載の発明によれば、ユーザーがジェスチャ操作を行いたいジェスチャ入力可能領域を選択すると、選択されたジェスチャ入力可能領域がそのサイズ及び/または表示位置を変更して表示されるから、ユーザーは、選択した領域に対してジェスチャ操作を行いやすくなり、操作性が向上する。
前項(10)に記載の発明によれば、ユーザーがジェスチャ操作を行いたいジェスチャ入力可能領域を選択すると、選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示する携帯端末装置となり、ユーザーは、選択した領域に対してジェスチャ操作を行いやすくなる。
前項(11)に記載の発明によれば、携帯端末装置をジェスチャ操作による入力が不可能な情報処理装置に対して、ジェスチャ操作による入力を可能とするための支援装置として利用できる。
前項(12)に記載の発明によれば、ジェスチャ操作としてシングルタッチ操作及びマルチタッチ操作の少なくともいずれかが受け付けられる。
前項(13)に記載の発明によれば、各ジェスチャ入力可能領域毎に受け付け可能なジェスチャ操作が設定されているときは、受け付け可能なジェスチャ操作がなさたれときにのみこれが受け付けられる。
前項(14)に記載の発明によれば、選択されたジェスチャ入力可能領域の形状が表示手段の画面形状と一定以上相違する場合、ジェスチャ入力を受け付け可能な範囲が前記ジェスチャ入力可能領域を超えて拡大されるから、さらにジェスチャ操作を行いやすくなる。
前項(15)に記載の発明によれば、領域選択画面として、複数個のジェスチャ入力可能領域の全てを表示手段に同時に表示するか、指定されたジェスチャ入力可能領域を選択的に表示するかが、予め設定された条件、例えば携帯端末装置の表示手段の画面サイズに応じて、切り替えて表示されるから、状況に適した領域選択画面の表示が可能となる。
前項(16)に記載の発明によれば、ユーザーがジェスチャ操作を行いたいジェスチャ入力可能領域を選択すると、選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示する処理を、携帯端末装置のコンピュータに実行させることができる。
この発明の一実施形態に係る画像処理連携システムの構成図である。 画像処理装置及び携帯端末装置の電気的な構成を示すブロック図である。 画像処理装置及び携帯端末装置のファームウェア構成を示すブロック図である。 画像処理装置及び携帯端末装置の各ソフトウェアの関係を示す図である。 ジェスチャ入力可能領域についての情報の説明図である。 各ジェスチャ入力可能領域の範囲を示す座標情報と受け付け可能なジェスチャ操作の内容の詳細説明図である。 領域選択画面として、複数のジェスチャ入力可能領域を同時に表示するか、指定されたジェスチャ入力可能領域のみを表示するかを、予め設定された条件に基づいて切り替える場合の説明図である。 携帯端末装置の表示画面の形状と、選択されたジェスチャ入力可能領域の形状とが大きく異なる場合の処理についての説明図である。 携帯端末装置の動作を示すフローチャートである。 画像処理装置の動作を示すフローチャートである。 この発明の他の実施形態を説明するための図である。 情報処理装置の構成を示すブロック図である。 情報処理装置の動作を示すフローチャートである。
以下、この発明の実施形態を図面に基づいて説明する。
図1は、この発明の一実施形態に係る携帯端末装置が用いられた画像処理連携システムの構成図である。
この画像処理連携システムは、画像処理装置1と、スマートフォンやタブレット端末等からなる携帯端末装置2等を備え、これらの画像処理装置1と携帯端末装置2は、無線LANルータ3、ネットワーク4を介して相互に接続可能となされている。なお、画像処理装置1と携帯端末装置2は、USBインターフェース等により有線接続可能であるが、この実施形態では、無線通信により相互に接続されるものとなされている。
この実施形態では、画像処理装置1としてコピー機能、プリント機能、スキャン機能、ファクシミリ機能等を備えた前述のMFPが用いられている。以下、画像処理装置をMFPとも記す。また、携帯端末装置を携帯端末とも記す。
図2は、前記MFP1と携帯端末2の電気的な構成を示すブロック図である。
MFP1は、CPU101、ROM102、RAM103,スキャナ部104、プリント部105、記憶部106、操作パネル部107、WIFI(Wireless Fidelity)モジュール109、LAN(Local Area Network)コントローラ110、USBインターフェース(USBI/F)111等を備えている。
前記CPU101は、ROM102等に記憶された動作プログラムに従って動作することにより、MFP1の全体を統括的に制御するものである。例えば、MFP1の各種機能を使用可能に制御するほか、この実施形態では、携帯端末2からの要求に基づいて、自装置の操作画面を構成し携帯端末2にリモート画面として表示させるための画面データや、画面上におけるジェスチャ操作による入力が可能な1個または複数個のジェスチャ入力可能領域についての情報を携帯端末2に送信したり、携帯端末2側で行われたユーザー操作に応じて、ジョブを実行したり次に表示させる操作画面の画面データ等を携帯端末2に送信する。
前記ROM102は、CPU101の動作プログラム等を記憶するメモリであり、RAM103はCPU101が動作プログラムに従って動作するときの作業領域を提供するメモリである。
前記スキャナ部104は、図示しないプラテンガラス上にセットされた原稿や、同じく図示しない自動原稿搬送装置にセットされた原稿の画像を読み取って、電子データである画像データを出力するものである。
前記プリント部105は、スキャナ部104により読み取られた原稿の画像データや、携帯端末2等から送信されたプリントデータを、用紙に印刷するものである。
前記記憶部106は、各種のデータやアプリケーション等を記憶するものであり、ハードディスク装置などが用いられている。特に、この実施形態では、操作パネル部107に表示される各種の操作画面の表示用データ(画面データ)が記憶されており、ユーザーの操作に応じた操作画面の画面データがCPU101によって記憶部106から呼び出され、操作パネル部107に表示されたり、携帯端末2に送信される。また、各画面上におけるジェスチャ操作による入力が可能な1個または複数個のジェスチャ入力可能領域についての情報、例えばジェスチャ入力可能領域を示す座標情報や、各ジェスチャ入力可能領域において受け付け可能なジェスチャ操作の種類等が記憶されている。また、スキャナ部104で読み取られた画像データからなる文書ファイルや、外部装置から送信された文書ファイル等の複数のファイルも保存されている。
操作パネル部107は、MFP1を操作したりユーザーにメッセージ等を表示するものであり、スタートキー、ストップキー、リセットキー、テンキー等の機械的なハードウェアキーを有するキー部107aと、タッチ入力操作が可能な液晶等のタッチパネルを備えた表示部107bを備えている。タッチ操作は通常、タッチした指の数や指の移動に応じて操作内容を規定するジェスチャ操作によって行われる。ジェスチャ操作としては1本の指をタッチさせて行うシングルタッチ操作や、複数本の指をタッチさせて行うマルチタッチ操作がある。シングルタッチ操作の一例として、画面を引き出したりスクロール(ページ送りやページ戻し)するためのフリック操作、画面をスライドさせるためのスライド操作を例示でき、マルチタッチ操作の一例として、画像の変倍(拡大または縮小)や回転等を指示するためのピンチイン操作、ピンチアウト操作などを例示できる。
前記WIFIモジュール109は、携帯端末2と無線接続するためのインターフェースであり、前記LANコントローラ110は、パーソナルコンピュータや他のMFP等の外部装置との間の通信を制御するものである。
前記USBインターフェース111は携帯端末2と有線接続するためのインターフェースである。
一方、携帯端末2には、スマートフォン、タブレット端末、電子ペーパー等が用いられる。携帯端末2は、CPU201、RAM202、記憶部203、表示部204a、操作部204b、WIFIモジュール205、LANコントローラ206、USBインターフェース207、ファイル処理部208a、208b、連携部209等を備えている。
前記CPU201は、携帯端末2の全体を統括的に制御するものであり、基本ソフトウェアであるOS(Operating System)や、後述する連携アプリケーションあるいは汎用アプリケーションに従って動作する。
前記RAM202は、CPU201が動作プログラムに従って動作するときの作業領域となるメモリである。
前記記憶部203は、各種のデータやアプリケーション等を記憶するものであり、ハードディスク装置などが用いられている。この実施形態では、MFP1から送信されたリモート画面表示用データ、ジェスチャ入力可能領域についての情報、基本OS、連携アプリケーション、汎用アプリケーション等のプログラムを記憶している。なお、以下の説明ではアプリケーションを単にアプリともいう。
前記表示部204aは液晶等のデバイスからなり、操作部204bは表示部204aに設けられ、タッチ入力操作が可能なタッチパネルからなる。タッチ操作はMFP1の場合と同様に、通常は、タッチした指の数や指の移動に応じて操作内容を規定するジェスチャー操作によって行われる。ジェスチャ操作としてはシングルタッチ操作やマルチタッチ操作があり、シングルタッチ操作の一例としてフリック操作やスライド操作を例示でき、マルチタッチ操作の一例としてピンチイン操作、ピンチアウト操作などを例示できる。
前記WIFIモジュール205は、携帯端末2をMFP1と無線接続するためのインターフェースであり、前記LANコントローラ206は、ユーザー端末等の外部装置との間の通信を制御するものである。また、前記USBインターフェース207は、携帯端末装置2をMFP1と有線接続するためのインターフェースである。
前記ファイル処理部208a、208bは、ファイルの編集、転送あるいはメール配信等の処理を実施する。以下、ファイル処理部208a、208bをいずれもファイル処理部208と記す。
前記連携部209は、MFP1と携帯端末2の間の機能連携を円滑に行うために、MFP1の機能を使用できるようにするためのものである。具体的には、MFP1のコピー機能、プリント機能、スキャン機能、ファクシミリ機能等を使用するためにMFP1の操作パネル部107に表示される操作画面と同じ操作画面を再生するための画面データをMFP1から受信し、前記操作画面をリモート画面として表示部204に表示したり、リモート画面に表示された操作ボタン等をユーザーが押下したときに、画面上の操作位置の座標を検出して操作情報としてMFP1に送信する。MFP1は前記操作位置の座標を解析することにより、ユーザーの操作指示を特定し、操作指示に応じた動作を実行する。
前記ファイル処理部208は、CPU201が汎用アプリを実行することによりその機能が実現される。つまり、汎用アプリは各種ファイルを処理するファイル処理部208を実現するためのソフトウェアであり、例えばファイル編集用アプリ、ファイルを電子メールで配信する機能を有するアプリ、ウェブ上にファイルをストレージする機能を有するアプリ等、各種のアプリを用いることができる。
また、前記連携部209は、CPU201が前述した連携アプリを実行することによりそれらの機能が実現される。つまり、連携アプリはMFP1と携帯端末2とのスムーズな機能連携を図るためのソフトウェアである。また、連携アプリと汎用アプリとの間で、ファイルの転送やダウンロードを行うことができる。
図3は、MFP1と携帯端末2のファームウェア構成を示すブロック図である。
MFP1は、アプリ層に、操作パネル(アプリ)121やオープンAPI(Open Application Program Interface)122等を備え、共通API層に、共通API(Common API)125やパネル表示画像生成部126等を備え、ハードウェア依存層に、パネル画面生成部123、パネル制御部124、携帯端末用制御部127等を備えている。
さらに、カーネル層に、パネル入力制御部129、パネルLCD制御部130、JPEGコーダドライバ131等を備え、デバイス層に、操作パネル部107、USBインターフェース部111、JPEG圧縮部133、WIFIモジュール109等を備えている。
パネル画面生成部123は、携帯端末2から連携操作が行われた場合に、操作パネル部107に表示されるMFP1側の画面データを作成する。
パネル制御部124は操作パネル部107との通信状態の制御等を行い、携帯端末用制御部127は、携帯端末2との連携処理時に、携帯端末2と通信を行うためのインターフェース等を制御する。
パネル入力制御部129は、操作パネル部107の操作入力に関する制御を行い、パネルLCD制御部130は、操作パネル部107の表示部107bの表示制御を行う。JPEG圧縮部133は、JPEGコーダドライバ131を介して携帯端末用制御部127から送信されてきたリモート画面表示用データ等をJPEG圧縮するものであり、圧縮されたデータはUSBインターフェース111やWIFIモジュール109を介して、携帯端末2に送信される。
一方、携帯端末2は、画像表示アプリ221、表示画像生成アプリ222、JPEG展開アプリ223、ブラウザ224等の各種アプリケーションを備えたアプリケーション層と、各種のマネージャー225、226等を備えたプラットフォーム層と、各種のライブラリ227及びカーネル228を備えたOS層と、ハードウェア229によって構成されている。
前記JPEG展開アプリ223は、MFP1から送信されてきた圧縮データを伸張するものである。
表示画像生成アプリ222は、MFP1の操作画面を、ジェスチャ入力可能領域をユーザーが選択可能な態様にして携帯端末2の表示部204に表示させる。また、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、該選択されたジェスチャ入力可能領域を、そのサイズ及び/または表示位置を表示部204の画面サイズに合わせて変更して表示する。この処理については後述する。
前記画像表示アプリ221は、MFP1から送信されJPEG展開アプリ223で伸張されたリモート画面表示用データを用いて、MFP1の操作画面をリモート画面として作成し表示部204に表示させるものである。
なお、この実施形態では、画像表示アプリ221、表示画像生成アプリ222、JPEG展開アプリ223は、連携アプリで実現される機能の一部として構成されている。
次に、MFP1と携帯端末2を連携操作する場合の処理について説明する。
ユーザーが携帯端末2をMFP1にネットワーク経由にて無線接続し、携帯端末2とMFP1を連携して操作しようとしている。携帯端末2とMFP1の連携操作は、ユーザーが携帯端末2にインストールされている連携アプリを起動することにより、開始される。
図4は、MFP1及び携帯端末2の各ソフトウェアの関係を示すものであり、左側にMFP1側のソフトウェアを、右側に携帯端末2のソフトウェアをそれぞれ示す。
携帯端末2の連携アプリは、携帯端末2のOSと汎用のソフトウェアであるアプリソフトの中間に位置しており、MFP1からのデータの受信及び受信したデータの処理、ユーザーの操作情報や携帯端末2側の操作画面データの取得等を行うことができ、必要に応じて取得したデータをMFP1へ送信することができる。つまり、携帯端末2の連携ソフトは、アプリの呼び出し等の携帯端末2側でのユーザー操作受付処理、MFP1の操作画面の画面データの受信・表示処理(携帯端末側操作画面処理)、連携操作関連処理等を実行する。連携操作関連処理としては、操作の内容を示す操作情報のMFP1との通信等が挙げられる。
一方、MFP1の連携アプリは、MFP1側のOSやMFP1用のアプリソフトが全て自社設計/自社カスタマイズであって必要な情報をすべて得られる場合は、OS−アプリソフト間に位置しなくても良く、OSやアプリソフトと独立でありながら、OSやアプリソフトと通信することにより、必要な情報を入手してもよい。MFP1の連携アプリは、アプリの呼び出し等のMFP1側のユーザー操作受付処理、携帯端末2へのMFP側画面データの送信処理(MFP側操作画面処理)、連携操作関連処理等を実行する。連携操作関連処理としては、携帯端末2からの操作情報等の受信・実行処理等が挙げられる。
ユーザーが携帯端末2の表示部204に表示された連携操作アイコンを選択し、MFP連携を指示すると、携帯端末2の連携ソフトは、登録されているMFP1への通信を行い、MFP1の連携ソフトを呼び出し、画面データの取得を要求する。それにより、連携操作モードが開始され、MFP1の表示部105aと携帯端末2の表示部204に、MFP側の操作画面が表示される。なお、MFP1の表示部105aにおける画面表示は行われなくても良い。
携帯端末2からの画面データの取得要求に応じて、MFP1は操作画面の画面データと、この画面データに対応付けらた、つまりこの画面データが表示されたときのジェスチャ操作による入力が可能な画面上の1個または複数個のジェスチャ入力可能領域についての情報を携帯端末2に送信する。
ジェスチャ入力可能領域についての情報について、図5を参照して説明する。
図5では、MFP1の操作画面は3個のジェスチャ入力可能領域300a〜300cから形成されており、この操作画面の画面データが携帯端末2に送信される場合を示している。ジェスチャ入力可能領域300a〜300cについての情報は、各ジェスチャ入力可能領域300a〜300cの範囲を示す座標情報と、各ジェスチャ入力可能領域300a〜300cが受け付け可能なジェスチャ操作を示す情報と、優先領域情報が含まれる。
図6に、各ジェスチャ入力可能領域300a〜300cの範囲を示す座標情報と受け付け可能なジェスチャ操作の内容を詳しく示す。ジェスチャ入力可能領域300aはスライダー操作のみを受け付け可能であり、ジェスチャ入力可能領域300bは上下スクロール操作のみを受け付け可能であり、ジェスチャ入力可能領域300cはピンチ操作とスクロール操作のみを受け付け可能に設定されている。
また、優先領域情報は、携帯端末2にジェスチャ入力可能領域の選択画面を表示させる際に、優先的に表示させるジェスチャ入力可能領域を示す情報である。図5の例では、ジェスチャ入力可能領域300cが優先領域に設定されている。なお、優先領域は設定されていなくても良い。
携帯端末2は、画面データとジェスチャ入力可能領域300a〜300cについての情報をMFP1から受信すると、これらのデータ及び情報に基づいて、ジェスチャ入力可能領域の選択画面を表示部204aに表示する。上述したように、図5の例ではジェスチャ入力可能領域300cが優先領域に設定されているから、ジェスチャ入力可能領域300cが表示部204aの画面サイズに合わせてそのサイズを変更された状態で、表示部204aの全体に表示される。また、3個のジェスチャ入力可能領域300a〜300cのそれぞれをユーザーが選択するための各選択ボタン400a〜400cが、表示画面の上部に表示されている。
携帯端末2のユーザーが、ジェスチャ操作を行いたい領域を選択するために、例えば選択ボタン400aをタッチして選択すると、ジェスチャ入力可能領域300cに代えてジェスチャ入力可能領域300aの画面に切り替わる。この際、例えば図8に示すように、ジェスチャ入力可能領域300aが画面の上下方向中央部の見やすい位置に表示位置を変更されて表示される。なお、表示位置の変更と共にあるいは表示位置は変更せず、サイズを変更して表示しても良い。
また、ユーザーが選択ボタン400bをタッチして選択すると、ジェスチャ入力可能領域300bの画面に切り替わる。この場合も図示は省略したが、ジェスチャ入力可能領域300bがそのサイズ及び/または表示位置を変更して表示される。
ジェスチャ入力可能領域300cに対してジェスチャ操作を行いたいユーザーは、領域選択画面の初期画面として既にジェスチャ入力可能領域300cが表示されているから、選択ボタン400cを選択する必要はない。
なお、表示されているジェスチャ入力可能領域に対応する選択ボタンを、他の選択ボタンとは異なる表示態様で強調表示してもよい。図5の例では、太枠で囲まれた選択ボタン400cが強調表示されていることを示している。
画面に表示されたジェスチャ入力可能領域に対して、ユーザーがジェスチャ操作を行うと、携帯端末2はその種類を特定し、その領域が受け付け可能なジェスチャ操作であればこれを受け付ける。また、ジェスチャ操作を特定するための具体的内容、例えば操作方向、操作座標、操作速度等を検出する。そして、検出した操作情報を、サイズ及び/または表示位置の変更前の、MFP1の画面に対応する操作情報に変換したのち、変換された操作情報とジェスチャ操作の種類、現在選択されている(アクティブとなっている)ジェスチャ入力可能領域の情報等とともに、ジェスチャ入力情報としてMFP1に送信する。
MFP1は、携帯端末2からジェスチャ入力情報を受信すると、ジェスチャ入力情報の内容を解析し、操作情報に対応した動作を行う。具体的には、操作情報に対応する動作が次画面の更新である場合は、次画面を作成するとともに、次画面の画面データとジェスチャ入力可能領域についての情報を携帯端末2に送信する。また、操作情報に対応する動作が印刷ジョブ等の実行指示である場合は、ジョブの実行を指示する。
ユーザーが携帯端末2によるMFP1との連携処理を終了すると、終了指示が携帯端末2からMFP1へと送信され、MFP1は連携処理を終了する。
このように、この実施形態では、携帯端末2は、MFP1から受信した画面データ及びジェスチャ入力可能領域300a〜300cについての情報に基づいて、いずれかのジェスチャ入力可能領域をユーザーが選択可能な態様でMFP1の操作画面を表示部204aに表示する。また、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、選択されたジェスチャ入力可能領域がそのサイズ及び/または表示位置を変更されて画面に表示される。
携帯端末2の表示部204aの画面サイズがMFP1の表示部107bの画面サイズよりも小さい場合、従来では、MFP1の操作画面が縮小されて携帯端末2の表示部204aに表示されるが、この実施形態では、ユーザーが選択したジェスチャ入力可能領域を、従来よりも拡大して表示できまたはジェスチャ操作しやすい表示位置に変更して表示できるから、ユーザーは選択した領域に対してジェスチャ操作を行いやすくなり、操作性が向上する。
図5で説明した実施形態では、ジェスチャ入力可能領域300cが優先領域として設定され、携帯端末2はこのジェスチャ入力可能領域300cを優先的に表示する領域選択画面を作成し表示する構成とした。しかし、MFP1から送信された複数のジェスチャ入力可能領域を含む画面データを、図7の右側上図のように、ジェスチャ入力可能領域300a〜300cを含んだまま領域選択画面として表示するか、図7の右側下図のように、ジェスチャ入力可能領域300a〜300cの全てではなく、優先情報等により指定されたジェスチャ入力可能領域のみを表示するかを、予め設定された条件に基づいて切り替えてもよい。
予め設定された条件とは、例えば携帯端末2の表示部204aの画面サイズや、各ジャスチャ入力可能領域の形状やサイズがジェスチャ入力に十分可能な形状やサイズかどうか、あるいはユーザーによる設定等を挙げることができる。表示部204aの画面サイズが予め設定された閾値以上の場合は、全てのジェスチャ入力可能領域を同時に表示しても、各ジェスチャ入力可能領域に対するジェスチャ入力は比較的容易と考えられることから、全てのジェスチャ入力可能領域を同時に表示する。また、各ジャスチャ入力可能領域の形状が予め設定された形状であるとか、サイズが予め設定された閾値以上のサイズである場合も、各ジェスチャ入力可能領域に対するジェスチャ入力は比較的容易と考えられることから、全てのジェスチャ入力可能領域を同時に表示する。
なお、全てのジェスチャ入力可能領域が同時に表示される場合、いずれかのジェスチャ入力可能領域をタップ等することで、そのジェスチャ入力可能領域が選択されたものと判断して、そのジェスチャ入力可能領域の表示画面に切り替える構成としてもよい。
また、図8に示すように、横長帯状のジェスチャ入力可能領域300aが選択されて表示されたような場合、ジェスチャ入力可能領域300aの縦の長さが、携帯端末2の表示部204aの画面の縦の長さに比較して極めて小さく、このためジェスチャ入力可能領域300aの形状が表示部204aの画面形状とは著しく相違する。このため、表示位置やサイズの変更だけでは、ピンチ操作等のジェスチャ操作を行う場合にはやはり操作性が良くない。
そこで、ジェスチャ入力可能領域の形状が、表示部204aの画面の形状と予め設定された閾値以上に相違する場合は、携帯端末2は、表示部204aの例えば画面全体をジェスチャ入力を受け付け可能な領域に拡大設定する構成とすることも推奨される。これにより、ジェスチャ操作の受け付け範囲が拡大し、さらにジェスチャ操作を行いやすくなる。勿論、画面全体に拡大しなくても良いし、あるいはこのような設定を行わなくても良い。
図9は携帯端末2の動作を説明するためのフローチャートである。このフローチャートに示される動作は、携帯端末2のCPU201が連携アプリや動作プログラムに従って動作することにより実行される。
ステップS101では、ユーザー操作に基づいて画面データの取得要求をMFP2に送信する。ステップS102では、MFP2から画面データ及びジェスチャ入力可能領域についての情報を受信したかどうかを判断する。受信していなければ(ステップS102でNO)、受信するのを待つ。
受信すると(ステップS102でYES)、ステップS103で、画面データ及びジェスチャ入力可能領域についての情報に基づいて、領域選択画面を作成し表示する。この際、ジェスチャ入力可能領域が複数個存在する場合は、全てのジェスチャ入力可能領域を同時に表示するか、優先指定等された指定されたジェスチャ入力可能領域を選択的に表示するかを、予め設定された条件に応じて切り替えて表示する。
次いで、ステップS104で、ユーザーによりジェスチャ入力可能領域が選択されるのを待つ。なお、ジェスチャ入力可能領域が選択されることなく、直接にジェスチャ操作が行われた場合は、そのままステップS108でジャスチャ操作を受け付ければ良い。
ジェスチャ入力可能領域が選択されると(ステップS104でYES)、ステップS105で、選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示部204aに表示する。
次に、ステップS106で、選択されたジェスチャ入力可能領域の形状が、表示部204aの画面の形状と予め設定された閾値以上に相違するかどうかを判断する。相違しなければ(ステップS106でNO)、ステップS108に進む。相違する場合(ステップS106でYES)、ステップS107で、表示部204aの画面全体をジェスチャ入力を受け付け可能な領域に設定したのち、ステップS108に進む。
ステップS108ではジェスチャ操作がなされるのを待つ(ステップS108でNO)。ジェスチャ操作がなされると(ステップS108でYES)、ステップS109で、そのジェスチャ操作の種類を特定し、ジェスチャ入力可能領域にとって受け付け可能なジェスチャ操作かどうかを判断する。受け付け可能なジェスチャ操作でない場合(ステップS109でNO)、ステップS113で、再操作を促すメッセージを表示した後、ステップS108に戻る。
受け付け可能なジェスチャ操作である場合(ステップS109でYES)、ステップS110に進み、ジェスチャ操作を特定するための具体的内容、例えば操作方向、操作座標、操作速度等を検出するとともに、検出した操作情報を、MFP1の画面に対応する操作情報に変換する。そして、ステップS111で、変換された操作情報とジェスチャ操作の種類等をジェスチャ入力情報としてMFP1へ送信する。
次に、ステップS112で、連携操作の終了が指示されたかとうかを調べ、指示されていなければ(ステップS112でNO)、次の画面データ等を受信するためにステップS102に戻る。連携操作の終了が指示された場合(ステップS112でYES)、処理を終了する。
図10はMFP1の動作を示すフローチャートである。この動作はMFP1のCPU101が動作プログラムに従って動作することにより実行される。
ステップS201では、携帯端末2から画面データの取得要求があるのを待ち(ステップS201でNO)、取得要求があると(ステップS201でYES)、ステップS202で、画面データ及びジェスチャ入力可能領域についての情報を携帯端末2に送信する。
次いでステップS203では、携帯端末2から送信されるジェスチャ入力情報を受信したかどうかを調べる。受信しなければ(ステップS203でNO)、ステップS207に進む。受信すると(ステップS203でYES)、ステップS204でジェスチャ入力情報を解析し、ステップS205で、対応する操作が次画面への画面更新かどうかを判断する。次画面への画面更新であれば(ステップS205でYES)、ステップS202に戻り、次画面の画面データ及びジェスチャ入力可能領域についての情報を携帯端末2に送信する。
次画面への画面更新でなければ(ステップS205でNO)、ステップS206で、操作情報に応じたジョブ実行等の処理を行った後、ステップS207に進み、終了指示があったかどうかを判断する。終了指示がなければ(ステップS207でNO)、ステップS203に戻り、終了指示があれば(ステップS207でYES)、処理を終了する。
図11は、この発明の他の実施形態を説明するための図である。この実施形態では、MFP1とパーソナルコンピュータからなるユーザー端末装置としての情報処理装置5が、ネットワーク4を介して接続されている。また、情報処理装置5はジェスチャ入力が不可能であり、携帯端末2が情報処理装置5のジェスチャ入力支援装置として使用されるものとなされている。
即ち、情報処理装置5は、MFP1から、画面データ及びジェスチャ入力可能領域についての情報を受信する。情報処理装置5の表示装置55には、MFP1から送信された画面データが表示されており、この画面テータには3個のジェスチャ入力可能領域500a〜500cが表示されている。
情報処理装置5と携帯端末2とはブルートゥース(登録商標)等により無線接続されている。情報処理装置5は携帯端末2に、MFP1から受信した画面データ及びジェスチャ入力可能領域についての情報をそのまま送信する。
画面データ及びジェスチャ入力可能領域についての情報を受信した携帯端末2の動作は、図5〜図10で説明した実施形態と同様に実行される。つまり、携帯端末2の表示部204aには、ユーザーが選択したジェスチャ入力可能領域が表示される。
ユーザーが携帯端末2の画面上に表示されたジェスチャ入力可能領域に対して受け付け可能なジェスチャ操作を実行すると、ジェスチャ入力情報が携帯端末2から情報処理装置5に送信される。ジェスチャ入力情報の内容も、図5〜図10で説明した実施形態と同じである。
ジェスチャ入力情報を受信した情報処理装置5は、受信したジェスチャ入力情報をMFP1に転送する。ジェスチャ入力情報を受信したMFP1の動作も、図5〜図10で説明した実施形態と同じである。
このように、この実施形態では、情報処理装置2は、MFP1から受信した画面データ、ジェスチャ入力可能領域についての情報を携帯端末2に送信し、携帯端末2から送信されたジェスチャ入力情報をMFP1に転送するから、情報処理装置2がジェスチャ入力機能を有していなくても、ユーザーは携帯端末2を用いてMFP1の操作画面に対するジェスチャ入力を容易に行うことができる。つまり携帯端末2を情報処理装置5のジェスチャ入力支援装置として使用することができる。また、情報処理装置5の表示装置55にMFP1の操作画面が表示されるから、ユーザーはこの操作画面を確認しながら、携帯端末2の画面に対してジェスチャ操作を行うことができ、操作性が良くなる。
このとき、携帯端末2から情報処理装置5に、ユーザーが選択したジェスチャ入力可能領域についての情報が転送され、情報処理装置5は表示装置55に表示されたMFP1の操作画面のうち、選択されたジェスチャ入力可能領域を他のジェスチャ入力可能領域とは識別できる態様で表示するのがよい。図11の例では、太枠で囲まれたジェスチャ入力可能領域500cが異なる態様で表示されていることを示している。
図12は、情報処理装置5のシステム構成を示すブロック図である。
情報処理装置5は、CPU51、ROM52、RAM53、記憶部54、表示装置55、入力装置56、ネットワークインターフェース部(ネットワークI/F部)57、無線通信部59等を備え、システムバス58を介して互いに接続されている。
CPU51は、ROM52や記憶部54等に保存されているプログラムを実行することにより、情報処理装置5の全体を制御する。ROM52は、CPU51が実行するためのプログラムやその他のデータを保存する記憶媒体である。
RAM53は、CPU51が動作用プログラムに従って動作する際の作業領域を提供する記憶媒体である。記憶部54は、ハードディスク等の記憶媒体からなり、各種のデータ、アプリケーションプログラム等が記憶されている。表示装置55は液晶表示装置等からなり、MFP1の操作画面、各種のメッセージ及びユーザーに対する入力受付画面、選択画面等を表示する。
入力装置56は、ユーザによる入力操作に用いられるもので、キーボードやマウス等からなる。ネットワークインターフェース部57は、MFP1との間でネットワーク4を介して、データの送受信を行う通信手段として機能する。無線通信部59は、携帯端末2との間で無線通信を行う。
図13は、図11に示した実施形態における情報処理装置5の動作を説明するためのフローチャートである。
ステップS301では、MFP2から画面データ及びジェスチャ入力可能領域についての情報を受信したかどうかを判断する。受信していなければ(ステップS301でNO)、ステップS304に進む。受信すると(ステップS301でYES)、ステップS304で、受信したデータ等を携帯端末2に転送したのち、ステップS303で、MFP1からの画面データを表示装置55に表示する。次いでステップS304に進む。
ステップS304では、情報処理装置5において入力装置56等によりユーザー操作がなされたかどうかを判断する。操作があれば(ステップS304でYES)、ステップS306で、操作情報をMFP1に送信したのち、ステップS308に進む。操作がなければ(ステップS304でNO)、ステップS305で、携帯端末2からジェスチャ入力情報を受信したかどうかを判断する。受信していれば(ステップS305でYES)、ステップS307で、ジェスチャ入力情報をMFP1に転送したのち、ステップS308に進む。受信していなければ(ステップS305でNO)、そのままステップS308に進む。
ステップS308では、終了指示がなされたかどうかを判断し、終了指示がなされなければ(ステップS308でNO)、ステップS301に進む。終了指示がなされると(ステップS308でYES)、処理を終了する。
1 画像処理装置
2 携帯端末装置
101 CPU
102 ROM
107b 表示部
201 CPU
202 RAM
203 記憶部
204a 表示部
209 連携部
300a〜300c ジェスチャ入力可能領域

Claims (16)

  1. 相互に接続可能な画像処理装置と携帯端末装置とを備えた画像処理連携システムであって、
    前記画像処理装置は、
    ジェスチャ操作による入力が可能な表示手段と、
    前記表示手段に表示される操作画面を構成する画面データと、前記画面データと対応付けられ、ジェスチャ操作による入力が可能な画面上の1個または複数個のジェスチャ入力可能領域についての情報とを前記携帯端末装置に送信する送信手段と、
    を備え、
    前記携帯端末装置は、
    ジェスチャ操作による入力が可能な表示手段と、
    前記画面データ及び前記ジェスチャ入力可能領域についての情報を受信する受信手段と、
    前記受信手段により受信した前記画面データ及び前記ジェスチャ入力可能領域についての情報に基づいて、前記画像処理装置の操作画面を、いずれかのジェスチャ入力可能領域をユーザーが選択できる態様の領域選択画面として表示するとともに、表示された前記領域選択画面において、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、前記選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示手段に表示させる表示制御手段と、
    前記表示手段に表示されたジェスチャ入力可能領域に対して、ジェスチャ操作がなされたときは、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前の操作情報に変換する操作情報変換手段と、
    前記変換された操作情報を前記画像処理装置に送信する送信手段と、
    を備え、
    前記画像処理装置は、前記携帯端末装置から送信された操作情報を受信して、該操作情報に対応する処理を行うことを特徴とする画像処理連携システム。
  2. 前記画像処理装置と携帯端末装置が、ジェスチャ操作による入力が不可能な表示手段を有する情報処理装置を介して接続可能となされ、該情報処理装置は、前記画像処理装置からの前記画面データ及びジェスチャ入力可能領域についての情報を受信して前記携帯端末装置に転送し、前記携帯端末装置からの操作情報を受信して前記画像処理装置に転送する請求項1に記載の画像処理連携システム。
  3. 前記ジェスチャ操作は、シングルタッチ操作及びマルチタッチ操作の少なくともいずれかである請求項1または2に記載の画像処理連携システム。
  4. 前記ジェスチャ入力可能領域についての情報は、各ジェスチャ入力可能領域毎に受け付け可能なジェスチャ操作の情報を含み、前記携帯端末装置の前記操作情報変換手段は、受け付け可能なジェスチャ操作が行われた場合にのみ、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前の操作情報に変換する請求項1〜3のいずれかに記載の画像処理連携システム。
  5. 前記携帯端末装置は、前記表示手段に表示されたジェスチャ入力可能領域の形状が、携帯端末装置の前記表示手段の画面形状と一定以上相違する場合、ジェスチャ入力を受け付け可能な範囲を前記ジェスチャ入力可能領域を超えて拡大する請求項1〜4のいずれかに記載の画像処理連携システム。
  6. 前記携帯端末装置の前記表示制御手段は、ジェスチャ入力可能領域が複数個存在する場合、全てのジェスチャ入力可能領域を表示手段に同時に表示するか、指定されたジェスチャ入力可能領域を選択的に表示するかを、予め設定された条件に基づいて切り替えて前記領域選択画面を表示する請求項1〜5のいずれかに記載の画像処理連携システム。
  7. 前記情報処理装置の表示手段には、前記画像処理装置からの前記画面データに基づいて画像処理装置の操作画面が表示される請求項2に記載の画像処理連携システム。
  8. 前記情報処理装置の表示手段に表示された前記画像処理装置の操作画面において、前記携帯端末装置でユーザーにより選択されたジェスチャ入力可能領域が他のジェスチャ入力可能領域とは識別可能な態様で表示される請求項7に記載の画像処理連携システム。
  9. 相互に接続可能な画像処理装置と携帯端末装置とを備えた画像処理連携システムで実行される画像処理連携方法であって、
    前記画像処理装置は、
    ジェスチャ操作による入力が可能な表示手段に表示される操作画面を構成する画面データと、前記画面データと対応付けられ、ジェスチャ操作による入力が可能な画面上の1個または複数個のジェスチャ入力可能領域についての情報とを前記携帯端末装置に送信する送信ステップを実行し、
    前記携帯端末装置は、
    前記画面データ及びジェスチャ入力可能領域についての情報を受信する受信ステップと、
    前記受信ステップにより受信した前記画面データ及び前記ジェスチャ入力可能領域についての情報に基づいて、前記画像処理装置の操作画面を、いずれかのジェスチャ入力可能領域をユーザーが選択できる態様の領域選択画面として表示するとともに、表示された前記領域選択画面において、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、前記選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示手段に表示させる表示制御ステップと、
    前記表示手段に表示されたジェスチャ入力可能領域に対して、ジェスチャ操作がなされたときは、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前の画面の操作情報に変換する操作情報変換ステップと、
    前記変換された操作情報を前記画像処理装置に送信する送信ステップと、
    を実行し、
    前記画像処理装置は、前記携帯端末装置から送信された操作情報を受信して、該操作情報に対応する処理を行うことを特徴とする画像処理連携方法。
  10. ジェスチャ操作による入力が可能な表示手段を有する画像処理装置と接続するための接続手段と、
    ジェスチャ操作による入力が可能な表示手段と、
    前記画像処理装置側の操作画面を構成する画面データと、前記画面データと対応付けられ、ジェスチャ操作による入力が可能な画面上の1個または複数個のジェスチャ入力可能領域についての情報とを、前記画像処理装置から受信する受信手段と、
    前記受信手段により受信した前記画面データ及び前記ジェスチャ入力可能領域についての情報に基づいて、前記画像処理装置の操作画面を、いずれかのジェスチャ入力可能領域をユーザーが選択できる態様の領域選択画面として表示するとともに、表示された前記領域選択画面において、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、前記選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示手段に表示させる表示制御手段と、
    前記表示手段に表示されたジェスチャ入力可能領域に対して、ジェスチャ操作がなされたときは、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前の操作情報に変換する操作情報変換手段と、
    前記変換された操作情報を前記画像処理装置に送信する送信手段と、
    を備えたことを特徴とする携帯端末装置。
  11. ジェスチャ操作による入力が不可能な表示手段を有する情報処理装置を介して前記画像処理装置と接続可能となされ、前記受信手段は、前記画像処理装置からの前記画面データ及びジェスチャ入力可能領域についての情報を前記情報処理装置から受信し、前記送信手段は、前記操作情報を前記情報処理装置に送信する請求項10に記載の携帯端末装置。
  12. 前記ジェスチャ操作は、シングルタッチ操作及びマルチタッチ操作の少なくともいずれかである請求項10または11に記載の携帯端末装置。
  13. 前記ジェスチャ入力可能領域についての情報は、各ジェスチャ入力可能領域毎に受け付け可能なジェスチャ操作の情報を含み、前記操作情報変換手段は、受け付け可能なジェスチャ操作が行われた場合にのみ、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前のジェスチャ入力可能領域の操作情報に変換する請求項10〜12のいずれかに記載の携帯端末装置。
  14. 前記表示手段に表示されたジェスチャ入力可能領域の形状が、前記表示手段の画面形状と一定以上相違する場合、ジェスチャ入力を受け付け可能な範囲を前記ジェスチャ入力可能領域を超えて拡大する請求項10〜13のいずれかに記載の携帯端末装置。
  15. 前記表示制御手段は、ジェスチャ入力可能領域が複数個存在する場合、全てのジェスチャ入力可能領域を表示手段に同時に表示するか、指定されたジェスチャ入力可能領域を選択的に表示するかを、予め設定された条件に基づいて切り替えて前記領域選択画面を表示する請求項10〜14のいずれかに記載の携帯端末装置。
  16. ジェスチャ操作による入力が可能な表示手段を有する携帯端末装置のコンピュータに、
    ジェスチャ操作による入力が可能な表示手段を有する画像処理装置と接続する接続ステップと、
    前記画像処理装置の操作画面を構成する画面データと、前記画面データと対応付けられ、ジェスチャ操作による入力が可能な画面上の1個または複数個のジェスチャ入力可能領域についての情報とを、前記画像処理装置から受信する受信ステップと、
    前記受信ステップにより受信した前記画面データ及び前記ジェスチャ入力可能領域についての情報に基づいて、前記画像処理装置の操作画面を、いずれかのジェスチャ入力可能領域をユーザーが選択できる態様の領域選択画面として表示するとともに、表示された前記領域選択画面において、ユーザーによりいずれかのジェスチャ入力可能領域が選択されたときは、前記選択されたジェスチャ入力可能領域をそのサイズ及び/または表示位置を変更して表示手段に表示させる表示制御ステップと、
    前記表示手段に表示されたジェスチャ入力可能領域に対して、ジェスチャ操作がなされたときは、該ジェスチャ操作に対応する操作情報をサイズ及び/または表示位置の変更前の操作情報に変換する操作情報変換ステップと、
    前記変換された操作情報を前記画像処理装置に送信する送信ステップと、
    を実行させるための画像処理連携プログラム。
JP2014084070A 2014-04-15 2014-04-15 画像処理連携システムと連携方法、携帯端末装置及び画像処理連携プログラム Expired - Fee Related JP6003939B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014084070A JP6003939B2 (ja) 2014-04-15 2014-04-15 画像処理連携システムと連携方法、携帯端末装置及び画像処理連携プログラム
US14/685,124 US9875433B2 (en) 2014-04-15 2015-04-13 Linkage system and linkage method for image processing, portable terminal device, and image processing linkage program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014084070A JP6003939B2 (ja) 2014-04-15 2014-04-15 画像処理連携システムと連携方法、携帯端末装置及び画像処理連携プログラム

Publications (2)

Publication Number Publication Date
JP2015204047A true JP2015204047A (ja) 2015-11-16
JP6003939B2 JP6003939B2 (ja) 2016-10-05

Family

ID=54265122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014084070A Expired - Fee Related JP6003939B2 (ja) 2014-04-15 2014-04-15 画像処理連携システムと連携方法、携帯端末装置及び画像処理連携プログラム

Country Status (2)

Country Link
US (1) US9875433B2 (ja)
JP (1) JP6003939B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097646A (ja) * 2015-11-25 2017-06-01 コニカミノルタ株式会社 画像形成装置、その制御方法、および、プログラム
KR20170104943A (ko) * 2016-03-08 2017-09-18 캐논 가부시끼가이샤 정보 처리 장치, 정보 처리 장치의 제어 방법, 및 기록 매체
JP2018157382A (ja) * 2017-03-17 2018-10-04 コニカミノルタ株式会社 情報処理システム、情報処理システムの制御方法、および携帯端末

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6222190B2 (ja) * 2015-09-03 2017-11-01 コニカミノルタ株式会社 文書処理装置およびその通信制御方法
US9729740B2 (en) * 2015-09-21 2017-08-08 Toshiba Tec Kabushiki Kaisha Image display device
JP2022074772A (ja) * 2020-11-05 2022-05-18 キヤノン株式会社 情報処理装置、情報処理の制御方法、並びにコンピュータプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000312391A (ja) * 1999-04-27 2000-11-07 Matsushita Electric Ind Co Ltd 機器制御装置、制御装置、双方向リモコン装置および被制御装置
JP2008225707A (ja) * 2007-03-09 2008-09-25 Sharp Corp 画像データ処理装置
JP2009245095A (ja) * 2008-03-31 2009-10-22 Nec Personal Products Co Ltd 情報処理装置、プログラム、及び、遠隔操作システム
JP2011512570A (ja) * 2007-12-21 2011-04-21 ソニー株式会社 遠隔制御のためのタッチセンサ式無線ナビゲーション装置
JP2012093877A (ja) * 2010-10-26 2012-05-17 Konica Minolta Business Technologies Inc 遠隔操作システム、遠隔操作方法、および、遠隔操作プログラム
JP2013182536A (ja) * 2012-03-02 2013-09-12 Konica Minolta Inc 画像形成装置用の操作入力装置
JP2013222277A (ja) * 2012-04-16 2013-10-28 Kyocera Document Solutions Inc 画像形成装置
JP2014006782A (ja) * 2012-06-26 2014-01-16 Konica Minolta Inc 表示制御装置、遠隔操作システム、遠隔操作方法、および遠隔操作プログラム
JP2014006668A (ja) * 2012-06-22 2014-01-16 Konica Minolta Inc 操作表示システム、プログラム、携帯端末、操作表示装置、携帯端末プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020474A (ja) 1998-07-02 2000-01-21 Casio Comput Co Ltd 携帯情報端末装置、データ処理装置、及び記録媒体
JP2002281195A (ja) 2001-03-19 2002-09-27 Ricoh Co Ltd Oa機器のリモート操作システム、oa機器、リモート操作装置、コンピュータが実行するためのプログラム、およびコンピュータが実行するためのプログラムを格納したコンピュータが読み取り可能な記録媒体
KR101590357B1 (ko) * 2009-06-16 2016-02-01 엘지전자 주식회사 휴대 단말기, 휴대 단말기 동작방법 및 휴대 단말기 싱크 시스템
KR20120015931A (ko) * 2010-08-13 2012-02-22 삼성전자주식회사 휴대용 전자 장치 및 그것의 디스플레이 미러링 방법
JP5892408B2 (ja) * 2011-09-26 2016-03-23 日本電気株式会社 画面共有表示システム、画面共有表示方法、およびプログラム
JP5494615B2 (ja) * 2011-10-20 2014-05-21 コニカミノルタ株式会社 表示システムおよび表示装置
JP5765366B2 (ja) * 2013-04-30 2015-08-19 コニカミノルタ株式会社 画像処理装置、携帯端末装置、リモート画面データの作成プログラム及び表示制御プログラム
KR102084633B1 (ko) * 2013-09-17 2020-03-04 삼성전자주식회사 화면 미러링 방법 및 그에 따른 소스 기기

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000312391A (ja) * 1999-04-27 2000-11-07 Matsushita Electric Ind Co Ltd 機器制御装置、制御装置、双方向リモコン装置および被制御装置
JP2008225707A (ja) * 2007-03-09 2008-09-25 Sharp Corp 画像データ処理装置
JP2011512570A (ja) * 2007-12-21 2011-04-21 ソニー株式会社 遠隔制御のためのタッチセンサ式無線ナビゲーション装置
JP2009245095A (ja) * 2008-03-31 2009-10-22 Nec Personal Products Co Ltd 情報処理装置、プログラム、及び、遠隔操作システム
JP2012093877A (ja) * 2010-10-26 2012-05-17 Konica Minolta Business Technologies Inc 遠隔操作システム、遠隔操作方法、および、遠隔操作プログラム
JP2013182536A (ja) * 2012-03-02 2013-09-12 Konica Minolta Inc 画像形成装置用の操作入力装置
JP2013222277A (ja) * 2012-04-16 2013-10-28 Kyocera Document Solutions Inc 画像形成装置
JP2014006668A (ja) * 2012-06-22 2014-01-16 Konica Minolta Inc 操作表示システム、プログラム、携帯端末、操作表示装置、携帯端末プログラム
JP2014006782A (ja) * 2012-06-26 2014-01-16 Konica Minolta Inc 表示制御装置、遠隔操作システム、遠隔操作方法、および遠隔操作プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017097646A (ja) * 2015-11-25 2017-06-01 コニカミノルタ株式会社 画像形成装置、その制御方法、および、プログラム
KR20170104943A (ko) * 2016-03-08 2017-09-18 캐논 가부시끼가이샤 정보 처리 장치, 정보 처리 장치의 제어 방법, 및 기록 매체
KR102113554B1 (ko) * 2016-03-08 2020-05-21 캐논 가부시끼가이샤 정보 처리 장치, 정보 처리 장치의 제어 방법, 및 기록 매체
JP2018157382A (ja) * 2017-03-17 2018-10-04 コニカミノルタ株式会社 情報処理システム、情報処理システムの制御方法、および携帯端末

Also Published As

Publication number Publication date
JP6003939B2 (ja) 2016-10-05
US20150293731A1 (en) 2015-10-15
US9875433B2 (en) 2018-01-23

Similar Documents

Publication Publication Date Title
JP5720661B2 (ja) 携帯端末装置、画像処理連携システム、画面データの表示方法及び表示プログラム
JP5765366B2 (ja) 画像処理装置、携帯端末装置、リモート画面データの作成プログラム及び表示制御プログラム
JP5776725B2 (ja) 画像処理連携システム、携帯端末装置、画像処理連携方法及び画像処理連携プログラム
JP6003939B2 (ja) 画像処理連携システムと連携方法、携帯端末装置及び画像処理連携プログラム
JP5700020B2 (ja) 画像処理装置、プログラム及び操作イベント判別方法
JP6035985B2 (ja) 画像処理装置、画像処理装置の制御プログラム、および画像処理システム
JP2011008768A (ja) 指示入力装置、指示入力方法、プログラムおよびその記録媒体
JP6170452B2 (ja) 画像処理装置及びそれを含むシステム
JP5696721B2 (ja) 表示処理装置、画像形成装置、リモート画面の表示処理システム及び表示処理方法
JP2014175918A (ja) 画像処理システム、制御方法及び制御プログラム
US8982397B2 (en) Image processing device, non-transitory computer readable recording medium and operational event determining method
JP6418258B2 (ja) 画像処理装置及びリモート画面制御プログラム
JP6252028B2 (ja) 画像処理システム、画像処理装置及びリモート画面の表示制御プログラム
JP5907002B2 (ja) 画像処理連携システム、画像処理装置及び携帯端末装置
JP6089702B2 (ja) 画像処理装置、画面データの生成方法、及びプログラム
JP6191470B2 (ja) 画像処理システム、画像処理装置及び携帯端末装置
JP6314499B2 (ja) 操作支援プログラムおよび端末装置
JP5418713B1 (ja) 画像形成装置及びプログラム
JP6127800B2 (ja) 画像処理システム、リモート画面の表示制御方法、携帯端末装置及びリモート画面の表示制御プログラム
JP2018067858A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2016225709A (ja) 画像処理連携システムと連携方法、画像処理装置および画像処理連携プログラム
JP2015179371A (ja) 処理実行装置および処理実行プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160822

R150 Certificate of patent or registration of utility model

Ref document number: 6003939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees