JP6098752B1 - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP6098752B1
JP6098752B1 JP2016157771A JP2016157771A JP6098752B1 JP 6098752 B1 JP6098752 B1 JP 6098752B1 JP 2016157771 A JP2016157771 A JP 2016157771A JP 2016157771 A JP2016157771 A JP 2016157771A JP 6098752 B1 JP6098752 B1 JP 6098752B1
Authority
JP
Japan
Prior art keywords
output
image
unit
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016157771A
Other languages
Japanese (ja)
Other versions
JP2018025992A (en
Inventor
賢吾 得地
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016157771A priority Critical patent/JP6098752B1/en
Application granted granted Critical
Publication of JP6098752B1 publication Critical patent/JP6098752B1/en
Publication of JP2018025992A publication Critical patent/JP2018025992A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作体の形状と位置とに基づいて、表示されている画像の全部または一部の領域を出力する指示を受付ける。【解決手段】表示部14は、制御部11の制御の下、画像を表示する。検知部151は、表示部14に対して操作される操作体を検知し、その形状および位置をそれぞれ示す情報を制御部11に供給する。特定部110は、検知部151が検知した操作体の形状を示す情報を検知部151から受取ると、この形状に基づいて利用者が操作体を用いて示した指示の内容を特定する。決定部111は、検知部151が検知した操作体の位置を示す情報を検知部151から受取ると、この操作体の位置に基づいて画像における領域を決定する。特定部110が特定した指示が、決定部111で決定された領域に含まれる画像を示す画像データの出力の指示である場合に、出力部112は、通信部13を介して画像処理装置3にこの画像データを出力する。【選択図】図4An instruction to output all or a part of a displayed image is received based on the shape and position of an operating tool. A display unit 14 displays an image under the control of a control unit 11. The detection unit 151 detects an operating body operated on the display unit 14 and supplies information indicating the shape and position to the control unit 11. When receiving the information indicating the shape of the operating tool detected by the detecting unit 151 from the detecting unit 151, the specifying unit 110 specifies the content of the instruction indicated by the user using the operating tool based on the shape. Upon receiving information indicating the position of the operating tool detected by the detecting unit 151 from the detecting unit 151, the determining unit 111 determines a region in the image based on the position of the operating tool. When the instruction specified by the specifying unit 110 is an instruction to output image data indicating an image included in the area determined by the determining unit 111, the output unit 112 sends information to the image processing apparatus 3 via the communication unit 13. This image data is output. [Selection] Figure 4

Description

本発明は、情報処理装置およびプログラムに関する。   The present invention relates to an information processing apparatus and a program.

特許文献1には、スタイラスペン等の操作用外部機器を保持する保持手段と、その操作用外部機器が保持手段に保持されているか否か等を判別する判別手段とを有する電子機器であって、ウェブページをディスプレイに表示している状態が継続しているときに、操作用外部機器が保持手段に保持されている状態から保持されていない状態に変化した状態変化を検知すると、ディスプレイに表示されている情報をキャプチャして画像データを生成し、生成した画像データに対する編集を受付ける電子機器が開示されている。   Patent Document 1 discloses an electronic device having a holding unit that holds an external device for operation such as a stylus pen, and a determination unit that determines whether the external device for operation is held by the holding unit. When the state where the external device for operation is changed from the state held by the holding means to the state where it is not held is detected while the state where the web page is displayed on the display continues, it is displayed on the display. An electronic device that captures information that has been generated to generate image data and accepts editing of the generated image data is disclosed.

特開2015−32215号公報JP2015-32215A

操作体の形状と位置とに基づいて、表示されている画像の全部または一部の領域を出力する指示を受付ける情報処理装置を提供することを目的とする。   An object of the present invention is to provide an information processing apparatus that receives an instruction to output all or part of a displayed image based on the shape and position of an operating tool.

上述した課題を解決するため、本発明の請求項1に係る情報処理装置は、画像を表示する表示部と、前記表示部を操作する操作体を検知する検知部と、前記検知部で検知した前記操作体が前記画像を利用することで実行できる機能を有した機器を操作する形状であって、かつ、出力指示を示す場合に、前記操作体を検知した位置から前記画像の出力領域を決定し、前記機器の画像を前記表示部に表示させて該出力領域を制御する出力制御部と、を有する。 In order to solve the above-described problem, an information processing apparatus according to claim 1 of the present invention detects a display unit that displays an image, a detection unit that detects an operating body that operates the display unit, and detection by the detection unit. When the operating tool has a shape for operating a device having a function that can be executed by using the image and indicates an output instruction, an output area of the image is determined from a position where the operating tool is detected. And an output control unit that controls the output area by displaying an image of the device on the display unit .

本発明の請求項2に係る情報処理装置は、請求項1に記載の態様において、前記出力領域が決定された後に検知された前記操作体の動作に基づいて該出力領域を調整する調整部、を有し、前記出力制御部は、調整された前記出力領域に含まれる前記画像を出力することを特徴とする。 An information processing apparatus according to a second aspect of the present invention is the information processing device according to the first aspect, wherein the adjustment unit adjusts the output area based on the operation of the operating tool detected after the output area is determined. The output control unit outputs the image included in the adjusted output area.

本発明の請求項3に係る情報処理装置は、請求項1または2に記載の態様において、前記出力領域が決定された後に検知された前記操作体の動作に基づいて前記画像の出力に関する設定を受付ける受付部、を有し、前記出力制御部は、受付けられた前記設定に応じて前記画像を出力することを特徴とする An information processing apparatus according to a third aspect of the present invention is the information processing apparatus according to the first or second aspect, wherein the setting relating to the output of the image is performed based on the operation of the operating tool detected after the output area is determined. A reception unit that receives the image, and the output control unit outputs the image according to the received setting.

本発明の請求項4に係る情報処理装置は、請求項1から3のいずれか1項に記載の態様において、前記表示部は、前記出力領域を表示する、ことを特徴とする。 An information processing apparatus according to a fourth aspect of the present invention is the information processing apparatus according to any one of the first to third aspects, wherein the display section displays the output area .

本発明の請求項5に係る情報処理装置は、請求項1から4のいずれか1項に記載の態様において、前記出力制御部は、決定した前記出力領域の色を変化させて該出力領域を前記表示部に表示させることを特徴とする。 An information processing apparatus according to a fifth aspect of the present invention is the information processing apparatus according to any one of the first to fourth aspects, wherein the output control unit changes the determined color of the output area to change the output area. It displays on the said display part, It is characterized by the above-mentioned .

本発明の請求項6に係る情報処理装置は、請求項に記載の態様において、前記設定を報知する報知部、を有することを特徴とする。 The information processing apparatus according to claim 6 of the present invention, in the embodiment according to claim 3, characterized in that it have the notification unit, for notifying the setting.

本発明の請求項7に係る情報処理装置は、請求項に記載の態様において、前記設定は、前記画像の前記出力領域の出力先を定めることを特徴とする。 An information processing apparatus according to a seventh aspect of the present invention is the information processing apparatus according to the third aspect, wherein the setting determines an output destination of the output area of the image .

本発明の請求項8に係る情報処理装置は、請求項に記載の態様において、前記表示部は、前記出力制御部が前記画像を出力する複数の出力先が設置されている場所の自装置に対する方向に対応する位置に、該出力先を識別する識別画像をそれぞれ表示し、
前記受付部は、表示された前記識別画像に対する前記操作体の動作に基づいて、複数の出力先のうち一の出力先を選択する設定を受付けることを特徴とする。
An information processing apparatus according to an eighth aspect of the present invention is the information processing apparatus according to the third aspect, wherein the display unit is a local device where a plurality of output destinations from which the output control unit outputs the image are installed. An identification image for identifying the output destination is displayed at a position corresponding to the direction with respect to
The accepting unit accepts a setting for selecting one output destination from among a plurality of output destinations based on the operation of the operating tool with respect to the displayed identification image .

本発明の請求項9に係る画像形成装置は、請求項1から8のいずれか1項に記載の態様において、前記機器の画像は、前記出力領域の出力先となる前記機器の画像と紐付いていることを特徴とする。 An image forming apparatus according to a ninth aspect of the present invention is the image forming apparatus according to any one of the first to eighth aspects, wherein the image of the device is associated with an image of the device that is an output destination of the output area. and said that you are.

本発明の請求項10に係る情報処理装置は、請求項1から9のいずれか1項に記載の態様において、前記機器の画像は、前記出力指示の実行が完了すると前記表示部から消えることを特徴とする。 An information processing apparatus according to a tenth aspect of the present invention is the information processing apparatus according to any one of the first to ninth aspects, wherein the image of the device disappears from the display unit when the execution of the output instruction is completed. Features.

本発明の請求項1に係るプログラムは、画像を表示する表示部と、前記表示部を操作する操作体を検知する検知部と、を有するコンピュータを、前記検知部で検知した前記操作が前記画像を利用することで実行できる機能を有した機器を操作する形状であって、かつ、出力指示を示す場合に、前記操作体を検知した位置から前記画像の出力領域を決定し、前記機器の画像を前記表示部に表示させて該出力領域を制御する出力制御部、として機能させるためのプログラムである。 Program according to claim 1 of the present invention includes a display unit displaying an image, said a detection unit for detecting an operation body for operating the display unit, the computer having the operation detected by the detection unit the When the shape of the device has a function that can be executed by using the image and indicates an output instruction, the output area of the image is determined from the position where the operation tool is detected, and the device It is a program for causing an image to be displayed on the display unit and functioning as an output control unit that controls the output area .

請求項1、1に係る発明によれば、操作体の形状と位置とに基づいて、表示されている画像の全部または一部の領域を出力する指示を受付けることができる。
請求項に係る発明によれば、利用者は出力領域の出力先となる機器の画像を把握することができる。
請求項10に係る発明によれば、出力指示の実行が完了したら、その実行内容に関わらず次の処理に表示部を使わせることができる。
請求項に係る発明によれば、画像データの出力の指示をしたときに決定された領域をその決定の後に調整することができる。
請求項に係る発明によれば、領域が決定された後に画像データの出力に関する設定をすることができる。
請求項に係る発明によれば、利用者は決定された領域を把握することができる。
請求項5、6に係る発明によれば、利用者は操作体の動作に基づいて行った設定を把握することができる。
請求項に係る発明によれば、利用者は出力領域の出力先を設定できる。
請求項に係る発明によれば、利用者は複数の出力先をそれらがそれぞれ設置されている方向に基づいて選択する設定をすることができる。
According to the first and eleventh aspects of the present invention, it is possible to accept an instruction to output all or part of the displayed image based on the shape and position of the operating tool.
According to the ninth aspect of the invention, the user can grasp the image of the device that is the output destination of the output area.
According to the invention of claim 10, when the execution of the output instruction is completed, the display unit can be used for the next processing regardless of the execution content.
According to the second aspect of the present invention, it is possible to adjust the area determined when the image data output instruction is given after the determination.
According to the third aspect of the present invention, it is possible to make settings relating to the output of image data after the area is determined.
According to the invention of claim 4 , the user can grasp the determined area.
According to the invention which concerns on Claim 5 , 6 , the user can grasp | ascertain the setting performed based on operation | movement of the operation body.
According to the invention of claim 7 , the user can set the output destination of the output area.
According to the invention which concerns on Claim 8 , the user can perform the setting which selects several output destinations based on the direction in which each is installed.

本実施形態に係る画像形成システム9の全体構成を示す図。1 is a diagram illustrating an overall configuration of an image forming system 9 according to the present embodiment. 端末1の構成の一例を示す図。The figure which shows an example of a structure of the terminal. 表示部14の上に重ねて配置される検知部151の一例を示す図。The figure which shows an example of the detection part 151 arrange | positioned on the display part 14 so that it may overlap. 端末1の機能的構成の一例を示す図。The figure which shows an example of a functional structure of the terminal. 端末1の動作の流れを示すフロー図。The flowchart which shows the flow of operation | movement of the terminal 1. FIG. 操作体の形状が示す指示を説明するための図。The figure for demonstrating the instruction | indication which the shape of an operating body shows. 出力指示を実行する動作の流れを示すフロー図。The flowchart which shows the flow of the operation | movement which performs an output instruction | indication. 端末1が利用者に向けて報知する例を示す図。The figure which shows the example which the terminal 1 alert | reports toward a user. 受付けた設定を利用者に報知する例を示す図。The figure which shows the example which alert | reports the received setting to a user. 検知された操作体の位置を説明するための図。The figure for demonstrating the position of the detected operating body. 利用者が操作体の接触する位置を動かしたときに調整される領域を説明するための図。The figure for demonstrating the area | region adjusted when a user moves the position which an operation body contacts. 変形例に係る出力先の設定を説明するための図。The figure for demonstrating the setting of the output destination which concerns on a modification.

1.実施形態
1−1.画像形成システムの全体構成
図1は、本実施形態に係る画像形成システム9の全体構成を示す図である。画像形成システム9は、LAN(Local Area Network)を形成する通信回線2と、この通信回線2に接続された端末1および複数の画像処理装置3と、を有する。
1. Embodiment 1-1. Overall Configuration of Image Forming System FIG. 1 is a diagram showing an overall configuration of an image forming system 9 according to the present embodiment. The image forming system 9 includes a communication line 2 that forms a LAN (Local Area Network), a terminal 1 connected to the communication line 2, and a plurality of image processing apparatuses 3.

図1に示す端末1は、通信回線2を介して画像処理装置3と接続するように構成された情報処理装置である。画像形成システム9が有する端末1は図1に示す通り1つであってもよいし、複数であってもよい。端末1は、通信回線2を介して画像処理装置3と接続して画像処理装置3に画像を示す画像データを出力する。   A terminal 1 shown in FIG. 1 is an information processing apparatus configured to be connected to an image processing apparatus 3 via a communication line 2. The image forming system 9 may have one terminal 1 as shown in FIG. 1 or a plurality of terminals. The terminal 1 is connected to the image processing device 3 via the communication line 2 and outputs image data indicating an image to the image processing device 3.

図1において画像形成システム9は、複数の画像処理装置3A、3B、3Cを有する。これらを特に区別しない場合、単に「画像処理装置3」という。画像処理装置3は、端末1から出力された画像データを受取って何らかの処理をする装置である。この処理の内容は様々であり、例えば、受取った画像データに基づいて用紙等の媒体上に画像を形成する画像形成であってもよい。この場合、画像処理装置3は、例えば電子写真方式や熱転写方式、インクジェット方式等による画像形成を行う。   In FIG. 1, the image forming system 9 includes a plurality of image processing apparatuses 3A, 3B, and 3C. When these are not particularly distinguished, they are simply referred to as “image processing device 3”. The image processing device 3 is a device that receives the image data output from the terminal 1 and performs some processing. The content of this process varies, and for example, image formation may be performed in which an image is formed on a medium such as paper based on received image data. In this case, the image processing apparatus 3 performs image formation by, for example, an electrophotographic method, a thermal transfer method, an ink jet method, or the like.

また、上述の処理の内容は、画像データを他の装置に送信する画像送信であってもよい。この場合、画像処理装置3は、図示しない公衆電話回線に接続し、この公衆電話回線を介して画像データを他の装置に送信するファクシミリなどである。   Further, the content of the above-described processing may be image transmission for transmitting image data to another device. In this case, the image processing apparatus 3 is a facsimile or the like that is connected to a public telephone line (not shown) and transmits image data to another apparatus via the public telephone line.

また、上述の処理の内容は、画像データを記憶装置に記憶させる処理であってもよい。図1に示す画像処理装置3Aは、画像送信の機能を備えたファクシミリである。また、図1に示す画像処理装置3Bは、画像形成の機能を備えた画像形成装置である。また、図1に示す画像処理装置3Cは、画像データを記憶する機能を備えた記憶装置である。   Further, the content of the above process may be a process of storing image data in a storage device. An image processing apparatus 3A shown in FIG. 1 is a facsimile provided with an image transmission function. An image processing apparatus 3B shown in FIG. 1 is an image forming apparatus having an image forming function. The image processing device 3C shown in FIG. 1 is a storage device having a function of storing image data.

1−2.端末の構成
図2は、端末1の構成の一例を示す図である。端末1は、制御部11と、記憶部12と、通信部13と、表示部14と、操作部15とを有する。
1-2. Terminal Configuration FIG. 2 is a diagram illustrating an example of the configuration of the terminal 1. The terminal 1 includes a control unit 11, a storage unit 12, a communication unit 13, a display unit 14, and an operation unit 15.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有し、CPUがROMや記憶部12に記憶されているコンピュータプログラム(以下、単にプログラムという)を読み出して実行することにより端末1の各部を制御する。   The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and a computer program (hereinafter simply referred to as a program) in which the CPU is stored in the ROM or the storage unit 12. Is read and executed to control each part of the terminal 1.

通信部13は、例えばIEEE802.11に準拠した方式により、無線アクセスポイントを介して通信回線2に接続する通信回路である。通信部13は、無線に限らず有線により通信回線2に接続してもよい。端末1は、通信部13により通信回線2を介して画像処理装置3と情報を遣り取りする。   The communication unit 13 is a communication circuit that is connected to the communication line 2 via a wireless access point, for example, by a method compliant with IEEE 802.11. The communication unit 13 may be connected to the communication line 2 not only wirelessly but also by wire. The terminal 1 exchanges information with the image processing apparatus 3 through the communication line 2 by the communication unit 13.

操作部15は、各種の指示を入力するための操作ボタン等の操作子を備えており、利用者による操作を受付けてその操作内容に応じた信号を制御部11に供給する。また、操作部15は、利用者の指やスタイラスペンなどの操作体を検知する検知部151を有する。検知部151は、例えばタッチパネルである。   The operation unit 15 includes operation elements such as operation buttons for inputting various instructions. The operation unit 15 receives an operation by a user and supplies a signal corresponding to the operation content to the control unit 11. The operation unit 15 also includes a detection unit 151 that detects an operation body such as a user's finger or a stylus pen. The detection unit 151 is, for example, a touch panel.

表示部14は、液晶ディスプレイを有しており、制御部11の制御の下、画像を表示する。表示部14の液晶ディスプレイの上には、操作部15の検知部151が重ねて配置されてもよい。   The display unit 14 includes a liquid crystal display, and displays an image under the control of the control unit 11. On the liquid crystal display of the display unit 14, the detection unit 151 of the operation unit 15 may be arranged to overlap.

図3は、表示部14の上に重ねて配置される検知部151の一例を示す図である。図3に示す検知部151は、表示部14の液晶ディスプレイで表示された画像が利用者から見えるように透明な素材で構成される。この検知部151は、表示部14に対して操作される操作体を検知し、少なくとも検知した操作体の形状および位置をそれぞれ示す情報を制御部11に供給する。   FIG. 3 is a diagram illustrating an example of the detection unit 151 that is arranged on the display unit 14. The detection unit 151 shown in FIG. 3 is made of a transparent material so that an image displayed on the liquid crystal display of the display unit 14 can be seen by the user. The detection unit 151 detects an operating body operated on the display unit 14 and supplies at least information indicating the detected shape and position of the operating body to the control unit 11.

記憶部12は、ソリッドステートドライブ等の大容量の記憶手段であり、制御部11のCPUに読み込まれる各種のプログラムを記憶する。また、記憶部12は、表示部14に表示される画像を示す画像データを記憶する。   The storage unit 12 is a large-capacity storage unit such as a solid state drive, and stores various programs read by the CPU of the control unit 11. The storage unit 12 stores image data indicating an image displayed on the display unit 14.

1−3.端末の機能的構成
図4は、端末1の機能的構成の一例を示す図である。端末1の制御部11は、記憶部12から読み出したプログラムを実行することで、図4に示す特定部110、決定部111、および出力部112として機能する。また、端末1の制御部11は、このプログラムを実行することで、図4に破線で示す受付部114、および報知部115として機能してもよい。
1-3. Functional Configuration of Terminal FIG. 4 is a diagram illustrating an example of a functional configuration of the terminal 1. The control unit 11 of the terminal 1 functions as the specifying unit 110, the determination unit 111, and the output unit 112 illustrated in FIG. 4 by executing the program read from the storage unit 12. Moreover, the control part 11 of the terminal 1 may function as the reception part 114 and the alerting | reporting part 115 which are shown with a broken line in FIG. 4 by running this program.

特定部110は、検知部151が検知した操作体の形状を示す情報を検知部151から受取ると、この形状に基づいて利用者が操作体を用いて示した指示の内容を特定する。   When receiving the information indicating the shape of the operating tool detected by the detecting unit 151 from the detecting unit 151, the specifying unit 110 specifies the content of the instruction indicated by the user using the operating tool based on the shape.

決定部111は、検知部151が検知した操作体の位置を示す情報を検知部151から受取ると、この操作体の位置に基づいて表示部14に表示されている画像における領域を決定する。   When receiving the information indicating the position of the operating tool detected by the detecting unit 151 from the detecting unit 151, the determining unit 111 determines an area in the image displayed on the display unit 14 based on the position of the operating tool.

特定部110が特定した指示が、決定部111で決定された領域に含まれる画像を示す画像データの出力の指示である場合に、出力部112は、通信部13を介して画像処理装置3にこの画像データを出力する。   When the instruction specified by the specifying unit 110 is an instruction to output image data indicating an image included in the area determined by the determining unit 111, the output unit 112 sends information to the image processing apparatus 3 via the communication unit 13. This image data is output.

受付部114は、決定部111により領域が決定された後に、検知部151により検知された操作体の動作に基づいて画像データの出力に関する設定を受付ける。出力に関する設定は、例えば、出力先の指定や、画像の出力に用いる色彩の設定、面付けなど媒体への画像形成を行う場合における媒体上の画像のレイアウトの設定、出力部数の設定などである。出力部112は、受付部114で受付けられた設定に応じて上述した画像データを出力する。なお、設定は、予め定めておいてもよい。   After the region is determined by the determination unit 111, the reception unit 114 receives settings related to output of image data based on the operation of the operating tool detected by the detection unit 151. The settings relating to output include, for example, designation of an output destination, setting of a color used for image output, setting of an image layout on a medium when performing image formation on the medium such as imposition, setting of the number of output copies, and the like. . The output unit 112 outputs the above-described image data according to the setting received by the receiving unit 114. The setting may be determined in advance.

報知部115は、受付部114が受付けた設定を利用者に報知する。例えば利用者が出力に関する設定として出力先を設定した場合、報知部115は、この設定に応じてその出力先の外観を示す写真や型番、識別名などを表示部14に表示したり、音声で再生したりすることで利用者に報知する。   The notification unit 115 notifies the user of the setting received by the reception unit 114. For example, when the user sets an output destination as a setting relating to output, the notification unit 115 displays a photograph, a model number, an identification name, and the like indicating the appearance of the output destination on the display unit 14 according to this setting, or by voice. The user is notified by playing it.

1−4.端末の動作
図5は、端末1の動作の流れを示すフロー図である。端末1の制御部11は、操作部15の検知部151による操作体の検知があったか否かを判断し(ステップS101)、操作体の検知がない間は(ステップS101;NO)この判断を続ける。操作体の検知があったと判断すると(ステップS101;YES)、制御部11は検知部151から供給される操作体の形状の情報に基づいて、利用者がした機能の実行指示を特定する(ステップS102)。
1-4. Operation of Terminal FIG. 5 is a flowchart showing a flow of operation of the terminal 1. The control unit 11 of the terminal 1 determines whether or not the operation body is detected by the detection unit 151 of the operation unit 15 (step S101), and continues this determination while the operation body is not detected (step S101; NO). . If it is determined that the operating tool has been detected (step S101; YES), the control unit 11 specifies an instruction to execute the function performed by the user based on the information on the shape of the operating tool supplied from the detecting unit 151 (step S101). S102).

図6は、操作体の形状が示す指示を説明するための図である。端末1の表示部14に対して利用者が操作体である右手M1および左手M2を操作すると、表示部14に重ねて設けられた検知部151は右手M1および左手M2を検知して、これらの形状および位置を示す情報を制御部11に供給する。これにより、端末1は利用者の指示の内容を特定する。   FIG. 6 is a diagram for explaining an instruction indicated by the shape of the operating tool. When the user operates the right hand M1 and the left hand M2, which are operating bodies, with respect to the display unit 14 of the terminal 1, the detection unit 151 provided to overlap the display unit 14 detects the right hand M1 and the left hand M2, and these Information indicating the shape and position is supplied to the control unit 11. Thereby, the terminal 1 specifies the content of the user's instruction.

例えば、図6(a)に示す右手M1および左手M2は、それぞれの親指および人差し指で検知部151の4箇所に触れている。この4箇所は矩形の頂点であり、この頂点の位置により、端末1の制御部11は操作体のそれぞれの形状を把握する。   For example, the right hand M1 and the left hand M2 shown in FIG. 6A touch the four places of the detection unit 151 with their respective thumbs and index fingers. These four places are rectangular vertices, and the control unit 11 of the terminal 1 grasps each shape of the operation tool based on the positions of the vertices.

この場合、制御部11は、検知部151が検知した右手M1および左手M2のそれぞれの親指および人差し指の形状に基づき、利用者がした指示を、上記の矩形の領域に含まれる画像を示す画像データを出力する指示であると特定する。そして、制御部11は上記の矩形の領域を示す破線の画像G1を右手M1および左手M2の触れる位置に応じて表示部14に表示させる。   In this case, the control unit 11 provides image data indicating an image included in the rectangular area based on the shape of the thumb and index finger of the right hand M1 and the left hand M2 detected by the detection unit 151. Is specified to be output. Then, the control unit 11 causes the display unit 14 to display a broken line image G1 indicating the rectangular area described above according to the position where the right hand M1 and the left hand M2 touch.

また、例えば、図6(b)に示す右手M1および左手M2は、それぞれの親指および人差し指で検知部151の4箇所に触れているが、それぞれの親指と人差し指との距離が決められた距離よりも短い。この場合、制御部11は、利用者がした指示を、表示部14の中の指定した2つの位置の距離を測定する指示であると判断し、目盛りのついた定規の画像G2を右手M1および左手M2の触れる位置に応じて表示部14に表示させる。   In addition, for example, the right hand M1 and the left hand M2 shown in FIG. 6B touch the four portions of the detection unit 151 with the respective thumbs and index fingers, but the distance between each thumb and the index finger is determined. Also short. In this case, the control unit 11 determines that the instruction given by the user is an instruction to measure the distance between the two specified positions in the display unit 14, and displays the ruler image G2 with a scale on the right hand M1 and It is displayed on the display unit 14 according to the position touched by the left hand M2.

また、例えば、図6(c)に示す右手M1は棒状のものを握る形状であり、親指を除く四本の指の背側で表示部14に触れている。このとき検知部151は右手M1を検出するが、左手M2は検出しない。制御部11は検知部151から供給される情報に基づいて、右手M1が虫眼鏡の柄を握っている様子を示していることを把握し、利用者の指示が虫眼鏡により表示部14に表示されている画像を拡大して表示する指示であると特定する。   Also, for example, the right hand M1 shown in FIG. 6C has a shape that grips a rod-like object, and touches the display unit 14 on the back side of four fingers excluding the thumb. At this time, the detection unit 151 detects the right hand M1, but does not detect the left hand M2. Based on the information supplied from the detection unit 151, the control unit 11 grasps that the right hand M1 is holding the handle of the magnifying glass, and the user's instruction is displayed on the display unit 14 by the magnifying glass. Is specified as an instruction to display an enlarged image.

制御部11は、虫眼鏡を示す画像G3を右手M1の触れる位置に応じて表示部14に表示させ、この画像G3のうち虫眼鏡のレンズに相当する領域の画像を拡大して表示させる。   The control unit 11 displays the image G3 showing the magnifying glass on the display unit 14 in accordance with the position where the right hand M1 touches, and displays an enlarged image of an area corresponding to the lens of the magnifying glass in the image G3.

また、例えば、図6(d)に示す右手M1は親指、人差し指、および中指で何かの道具を摘む形状であり、この3本の指で検知部151に触れている。このとき検知部151は右手M1を検出するが、左手M2は検出しない。制御部11は検知部151から供給される情報に基づいて、右手M1が消しゴムやプラスチック字消し等の道具を摘んで表示部14の画像をこすっている様子を示していることを把握し、利用者の指示が表示部14に表示されている画像のうちこの道具が通過した領域を消去する指示であると特定する。   Further, for example, the right hand M1 shown in FIG. 6D has a shape in which a tool is picked by the thumb, index finger, and middle finger, and the three fingers touch the detection unit 151. At this time, the detection unit 151 detects the right hand M1, but does not detect the left hand M2. Based on the information supplied from the detection unit 151, the control unit 11 grasps that the right hand M1 shows a state of picking a tool such as an eraser or a plastic eraser and rubbing the image on the display unit 14, and uses it. It is specified that the user's instruction is an instruction to erase the area through which the tool has passed in the image displayed on the display unit 14.

制御部11は、上記の道具を示す画像G4を右手M1の触れる位置に応じて表示部14に表示させ、この画像G4が通過した軌跡に沿って画像を消去する。   The control unit 11 causes the display unit 14 to display the image G4 indicating the above-described tool on the display unit 14 according to the position touched by the right hand M1, and erases the image along the trajectory through which the image G4 has passed.

図5に示す動作において制御部11は、特定した指示が画像データの出力の指示(出力指示という)であるか否かを判断し(ステップS103)、この指示が出力指示ではないと判断すると(ステップS103;NO)、出力指示以外であるその指示、すなわち、他の指示を実行する(ステップS104)。一方、特定した指示が出力指示であると判断すると(ステップS103;YES)、制御部11は、出力指示を実行する(ステップS200)。   In the operation shown in FIG. 5, the control unit 11 determines whether or not the specified instruction is an instruction to output image data (referred to as an output instruction) (step S103), and determines that this instruction is not an output instruction (step S103). Step S103; NO), the instruction other than the output instruction, that is, another instruction is executed (step S104). On the other hand, when determining that the specified instruction is an output instruction (step S103; YES), the control unit 11 executes the output instruction (step S200).

図7は、図5に示すステップS200の出力指示を実行する動作の流れを示すフロー図である。制御部11は、検知部151が検知した操作体の位置に基づいて表示部14に表示された画像における領域を決定し(ステップS201)、この領域に含まれる画像の出力指示を受付けたことを利用者に報知する(ステップS202)。そして、制御部11は、受付けた出力指示が示す画像データの出力に関する設定を行うか否かを利用者に対して問い合わせ、その回答によりこれを判断する(ステップS203)。   FIG. 7 is a flowchart showing a flow of an operation for executing the output instruction in step S200 shown in FIG. The control unit 11 determines a region in the image displayed on the display unit 14 based on the position of the operating tool detected by the detection unit 151 (step S201), and receives an output instruction for the image included in this region. The user is notified (step S202). Then, the control unit 11 inquires of the user whether or not to perform setting related to the output of the image data indicated by the received output instruction, and determines this based on the answer (step S203).

図8は、端末1が利用者に向けて報知する例を示す図である。図8に示す通り、端末1の制御部11は表示部14のうち右手M1および左手M2の触れる位置に対応する位置に矩形の領域を示す破線の画像G1を表示させ、さらに、例えばこの画像G1の内部に、カメラを示す画像G5を50%の透過率などで重ねて表示させる。この画像G5を表示することにより端末1は、利用者から受付けた指示を、画像G1で示した矩形の領域に含まれる画像を示す画像データを画像処理装置3に出力する指示として解釈していることを利用者に伝える。利用者は、この出力指示を意図していない場合、この画像G5を見て右手M1および左手M2の形状を変更すればよい。これにより制御部11は、利用者が設定を行わないと判断し(ステップS203;NO)、処理を終了する。   FIG. 8 is a diagram illustrating an example in which the terminal 1 notifies the user. As shown in FIG. 8, the control unit 11 of the terminal 1 displays a broken line image G1 indicating a rectangular area at a position corresponding to a position where the right hand M1 and the left hand M2 touch in the display unit 14, and further, for example, the image G1 , An image G5 showing the camera is displayed so as to overlap with a transmittance of 50%. By displaying this image G5, the terminal 1 interprets the instruction received from the user as an instruction to output image data indicating the image included in the rectangular area indicated by the image G1 to the image processing apparatus 3. Tell the user. When the user does not intend this output instruction, the user can change the shapes of the right hand M1 and the left hand M2 by looking at the image G5. Thereby, the control part 11 judges that a user does not set (step S203; NO), and complete | finishes a process.

一方、利用者が出力指示を意図しており、上記の画像データの出力に関する設定を行う意思が固まった場合、利用者は例えば右手M1および左手M2のそれぞれの親指および人差し指を今までよりも強く検知部151に押し付ける。検知部151には接触する操作体から受ける圧力を検知する機能が備えられている。そのため検知部151は、決められた圧力を超えて操作体が押し付けられると、その圧力未満で操作体が触れていた状態と区別して、その操作体を検知する。制御部11は、検知部151から操作体から受ける圧力の増加を示す情報を受取ると、利用者が設定を行うと判断し(ステップS203;YES)、設定の受付けを行い(ステップS204)、受付けた設定を利用者に報知する(ステップS205)。   On the other hand, if the user intends to give an output instruction and decides to make the setting related to the output of the image data, the user, for example, pushes the thumb and index finger of the right hand M1 and the left hand M2 stronger than before. Press against the detector 151. The detection unit 151 has a function of detecting pressure received from an operating body that comes into contact with the detection unit 151. Therefore, when the operating body is pressed beyond a predetermined pressure, the detection unit 151 detects the operating body by distinguishing it from the state in which the operating body is touched below the pressure. When the control unit 11 receives information indicating an increase in pressure received from the operating body from the detection unit 151, the control unit 11 determines that the user performs the setting (step S203; YES), and accepts the setting (step S204). The setting is notified to the user (step S205).

図9は、受付けた設定を利用者に報知する例を示す図である。例えば、端末1の制御部11は、図9に示す通り、表示部14のうち右手M1および左手M2の位置に対応する位置に出力先の外観を示す写真の画像G6を50%の透過率などで重ねて表示させる。これにより端末1が画像データを出力する出力先の設定として、この画像G6で示される出力先を選択していることが利用者に報知される。   FIG. 9 is a diagram illustrating an example of notifying the user of the accepted setting. For example, as shown in FIG. 9, the control unit 11 of the terminal 1 displays a photographic image G6 showing the appearance of the output destination at a position corresponding to the position of the right hand M1 and the left hand M2 in the display unit 14 with a transmittance of 50%, etc. Use to overlay the display. Thus, the user is notified that the terminal 1 has selected the output destination indicated by the image G6 as the output destination setting for outputting the image data.

利用者がこの画像G6で示される出力先に画像データを出力させる意思があれば、例えば右手M1および左手M2のそれぞれの指を今までよりも強く検知部151に押し付ければよい。また、他の出力先を選択する意思があれば、利用者は、例えば右手M1および左手M2のいずれかの指を一度、検知部151から離した後、再び検知部151にその指を接触させればよい。利用者がこの出力先に画像データを出力させる意思がないのであれば、例えば右手M1および左手M2を決められた長さ以上の時間にわたって検知部151から離せばよい。   If the user intends to output the image data to the output destination indicated by the image G6, for example, the fingers of the right hand M1 and the left hand M2 may be pressed against the detection unit 151 more strongly than before. If there is an intention to select another output destination, for example, the user once brings the finger of either the right hand M1 or the left hand M2 away from the detection unit 151, and then makes the detection unit 151 contact again. Just do it. If the user does not intend to output image data to the output destination, for example, the right hand M1 and the left hand M2 may be separated from the detection unit 151 for a time longer than a predetermined length.

なお、出力が完了したり、出力指示がキャンセルされたりした場合、画像G6は表示部14から消える。上述した通り、画像G5が画像G6へ変化することで、出力指示の実行がどの段階にあるのか、視覚的にわかり易くなる。利用者の設定により、画像G5から画像G6への遷移をなくしてもよく、固定的にしてもよい。   Note that the image G6 disappears from the display unit 14 when the output is completed or the output instruction is canceled. As described above, when the image G5 is changed to the image G6, it is visually easy to understand at which stage the output instruction is executed. Depending on user settings, the transition from the image G5 to the image G6 may be eliminated or may be fixed.

制御部11は、利用者が出力に関する設定を終えて、この出力を実行する意思があるか否かを操作体の動作に基づいて判断する(ステップS206)。利用者が出力を実行する意思があると判断する場合(ステップS206;YES)、制御部11は、設定された出力先に画像データを出力する処理を実行し(ステップS207)、その実行を利用者に報知して(ステップS208)、処理を終了する。一方、利用者が出力を実行する意思がないと判断する場合(ステップS206;NO)、制御部11は、出力の中止を報知して(ステップS209)、処理を終了する。   The control unit 11 determines whether or not the user finishes the setting related to the output and intends to execute the output based on the operation of the operating tool (step S206). When determining that the user intends to execute the output (step S206; YES), the control unit 11 executes a process of outputting the image data to the set output destination (step S207), and uses the execution. The user is notified (step S208), and the process is terminated. On the other hand, when it is determined that the user does not intend to execute the output (step S206; NO), the control unit 11 notifies the stop of the output (step S209) and ends the process.

以上、説明した通り、端末1は、この構成により、操作体の形状と位置に基づいて、表示されている画像の全部または一部を出力する指示を受付ける。端末1は、出力指示を受付けるとともに出力の対象となる領域の指定も受付けるため、利用者は出力の指示と出力対象の領域の指示とを別々に行う必要がない。   As described above, with this configuration, the terminal 1 receives an instruction to output all or part of the displayed image based on the shape and position of the operating tool. Since the terminal 1 receives the output instruction and also receives the designation of the output target area, the user does not need to separately issue the output instruction and the output target area.

2.変形例
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の変形例を組み合わせてもよい。
2. Modification The above is the description of the embodiment, but the contents of this embodiment can be modified as follows. Further, the following modifications may be combined.

2−1.変形例1
上述した実施形態において、端末1の制御部11は、特定部110、決定部111、出力部112、受付部114、および報知部115として機能していたが、他にも図4に破線で示す調整部113として機能してもよい。
2-1. Modification 1
In the above-described embodiment, the control unit 11 of the terminal 1 functions as the specifying unit 110, the determination unit 111, the output unit 112, the reception unit 114, and the notification unit 115, but is indicated by a broken line in FIG. It may function as the adjustment unit 113.

例えば、調整部113は、決定部111により領域が決定された後に、検知部151によって検知された操作体の動作に基づいてこの領域を調整する。例えば、利用者が出力指示をした右手M1および左手M2のそれぞれの検知部151に触れている指を動かすことで検知部151が操作体と接触している接触点が移動する。   For example, the adjustment unit 113 adjusts the region based on the operation of the operating tool detected by the detection unit 151 after the determination unit 111 determines the region. For example, the contact point where the detection unit 151 is in contact with the operating body is moved by moving the finger touching the detection unit 151 of each of the right hand M1 and the left hand M2 that the user has instructed to output.

制御部11は、この接触点に基づいて出力の対象とする領域の大きさや形状を調整すればよい。領域は、例えば複数の接触点を頂点とする多角形であってもよいし、複数の接触点に内接または外接する円や楕円などであってもよい。この場合、出力部112は、調整部113によって調整された後の領域に含まれる画像を示す画像データを出力する。   The control part 11 should just adjust the magnitude | size and shape of the area | region made into the output object based on this contact point. The region may be, for example, a polygon having a plurality of contact points as vertices, or may be a circle or an ellipse inscribed or circumscribed with the plurality of contact points. In this case, the output unit 112 outputs image data indicating an image included in the area after being adjusted by the adjustment unit 113.

図10は、検知された操作体の位置を説明するための図である。図10に示す通り、利用者が操作体である右手M1および左手M2で表示部14に重ねられた検知部151に接触すると、検知部151は、右手M1および左手M2のそれぞれが接触する接触点の位置を検知する。例えば図10に示す右手M1は人差し指で点P11に接触し、親指で点P12に接触している。そして図10に示す左手M2は人差し指で点P21に接触し、親指で点P22に接触している。この場合、検知部151は、点P11、点P12、点P22、および点P21を結ぶ多角形(この場合、四角形)を、出力の対象とする領域として決定する。   FIG. 10 is a diagram for explaining the detected position of the operating tool. As shown in FIG. 10, when the user touches the detection unit 151 superimposed on the display unit 14 with the right hand M1 and the left hand M2 which are operating bodies, the detection unit 151 is a contact point where each of the right hand M1 and the left hand M2 comes into contact. The position of is detected. For example, the right hand M1 shown in FIG. 10 is in contact with the point P11 with the index finger and is in contact with the point P12 with the thumb. The left hand M2 shown in FIG. 10 is in contact with the point P21 with the index finger and is in contact with the point P22 with the thumb. In this case, the detection unit 151 determines a polygon (in this case, a rectangle) connecting the points P11, P12, P22, and P21 as a region to be output.

そして、領域が決定された後に、利用者が操作体の接触する位置を動かすと、制御部11は、この位置の変動に応じて出力の対象とする領域の大きさや形状を調整する。図11は、利用者が操作体の接触する位置を動かしたときに調整される領域を説明するための図である。   Then, after the area is determined, when the user moves the position where the operating body contacts, the control unit 11 adjusts the size and shape of the area to be output according to the change in the position. FIG. 11 is a diagram for explaining a region that is adjusted when the user moves the position where the operating body contacts.

例えば、利用者が操作体である右手M1の親指が検知部151に接触する点を点P12から右下の点P13に動かすと、制御部11は図11(a)に示すように、動かした先の位置を示す点P13と、動かしていない点P11、点P21、および点P22とに内接する矩形を新たな領域として調整する。そして、制御部11は、この矩形を示す画像G11を表示部14に表示させる。   For example, when the user moves the point where the thumb of the right hand M1 as the operating body contacts the detection unit 151 from the point P12 to the lower right point P13, the control unit 11 moves as shown in FIG. A rectangle inscribed in the point P13 indicating the previous position and the points P11, P21, and P22 that have not moved is adjusted as a new area. And the control part 11 displays the image G11 which shows this rectangle on the display part 14. FIG.

また、利用者が右手M1の親指の接触点を点P12から右下の点P13に動かすと、制御部11は図11(b)に示すように、動かした先の位置を示す点P13と、動かしていない点P11、点P21、および点P22とをそれぞれ頂点とする多角形(この場合、四角形)を新たな領域として調整する。そして、制御部11は、この多角形を示す画像G12を表示部14に表示させる。これにより、動かした接触点だけが突出した多角形が新たな領域として決定される。   When the user moves the contact point of the thumb of the right hand M1 from the point P12 to the lower right point P13, as shown in FIG. 11 (b), the control unit 11 includes a point P13 indicating the moved position, A polygon (in this case, a quadrangle) whose vertices are the unmoving points P11, P21, and P22 is adjusted as a new area. And the control part 11 displays the image G12 which shows this polygon on the display part 14. FIG. Thereby, the polygon which only the moved contact point protruded is determined as a new area.

また、制御部11は図11(c)に示すように、複数の接触点、すなわち点P11、点P12、点P22、および点P21に内接する楕円を出力の対象とする領域として決定してもよい。この場合、制御部11は、この楕円を示す画像G10を表示部14に表示させる。   Further, as shown in FIG. 11C, the control unit 11 may determine a plurality of contact points, that is, points P11, P12, P22, and an ellipse inscribed in the point P21 as an output target region. Good. In this case, the control unit 11 causes the display unit 14 to display an image G10 indicating this ellipse.

そして、利用者が右手M1の親指の接触点を点P12から右下の点P13に動かすと、制御部11は図11(c)に示すように、動かした先の位置を示す点P13と、動かしていない点P11、点P21、および点P22とに内接する楕円を新たな領域として調整する。制御部11は、この楕円を示す画像G13を表示部14に表示させる。   Then, when the user moves the contact point of the thumb of the right hand M1 from the point P12 to the lower right point P13, as shown in FIG. 11 (c), the control unit 11 has a point P13 indicating the moved position, An ellipse inscribed in the points P11, P21, and P22 that are not moved is adjusted as a new area. The control unit 11 causes the display unit 14 to display an image G13 indicating this ellipse.

2−2.変形例2
上述した実施形態において、検知部151は操作体が接触した位置を検知するタッチパネルであったが、操作体を検知する検知部151はこれに限られない。検知部151は、例えばカメラなど、操作体を撮像する撮像装置であってもよい。この場合、検知部151は表示部14に重ねて設けられなくてもよく、例えば表示部14の表示面を周縁部から囲むように設けられていてもよい。検知部151は、CMOSイメージセンサやCCDイメージセンサなどを備え、操作体を撮像したデータを生成してこのデータを解析することにより操作体の形状と位置を検知すればよい。検知部151は、複数の撮像装置を備えていてもよく、この場合、複数の視点で撮像された画像をそれぞれ解析して、操作体の表示部14に対する立体空間上における姿勢を特定してもよい。
2-2. Modification 2
In the above-described embodiment, the detection unit 151 is a touch panel that detects the position where the operating body comes into contact, but the detection unit 151 that detects the operating body is not limited thereto. The detection unit 151 may be an imaging device that images an operation body, such as a camera. In this case, the detection unit 151 may not be provided so as to overlap the display unit 14. For example, the detection unit 151 may be provided so as to surround the display surface of the display unit 14 from the periphery. The detection unit 151 includes a CMOS image sensor, a CCD image sensor, and the like. The detection unit 151 may detect the shape and position of the operation body by generating data obtained by imaging the operation body and analyzing the data. The detection unit 151 may include a plurality of imaging devices. In this case, even if each of the images captured from a plurality of viewpoints is analyzed, the posture of the operating tool in the three-dimensional space is specified. Good.

また、検知部151は、操作体に赤外線や超音波などを照射して反射したこれらを感知することで操作体の形状や位置を検知してもよい。検知部151は、表示部14に対して決められた範囲内に近づいた操作体を検知する近接センサであってもよい。この近接センサには、電磁誘導方式、静電容量方式、静電気方式などの種々の方式のものが用いられる。   Further, the detection unit 151 may detect the shape and position of the operation body by sensing these reflected by irradiating the operation body with infrared rays or ultrasonic waves. The detection unit 151 may be a proximity sensor that detects an operating tool that has approached a range determined for the display unit 14. Various sensors such as an electromagnetic induction system, a capacitance system, and an electrostatic system are used for the proximity sensor.

2−3.変形例3
上述した実施形態において、制御部11は、領域が決定された後に画像データの出力に関する設定を受付ける受付部114として機能していたが、この設定を受付けなくてもよい。この場合、制御部11は、出力先などについて予め決められた設定に従って画像データを出力すればよい。
2-3. Modification 3
In the above-described embodiment, the control unit 11 functions as the reception unit 114 that receives the setting related to the output of the image data after the area is determined. However, the setting may not be received. In this case, the control part 11 should just output image data according to the setting predetermined about the output destination etc.

2−4.変形例4
上述した実施形態において、端末1の制御部11は、決定した領域を表示部14に表示させて利用者に報知していたが、表示以外の方法でこの領域を報知してもよい。制御部11は、例えば、音声によってこの領域を報知してもよい。また、制御部11は、決定した領域を報知しなくてもよい。
2-4. Modification 4
In the embodiment described above, the control unit 11 of the terminal 1 displays the determined region on the display unit 14 to notify the user, but the region may be notified by a method other than display. The control part 11 may alert | report this area | region with an audio | voice, for example. Moreover, the control part 11 does not need to alert | report the determined area | region.

2−5.変形例5
上述した実施形態において、端末1の制御部11は、受付けた設定を利用者に報知していたが、報知しなくてもよい。
2-5. Modification 5
In the above-described embodiment, the control unit 11 of the terminal 1 notifies the user of the accepted setting, but may not notify the user.

2−6.変形例6
上述した実施形態において、端末1の制御部11は、出力の実行前に選択している1つの出力先を、その外観を示す画像を表示することで報知していたが、複数の出力先を表示して利用者に選択を促してもよい。
2-6. Modification 6
In the above-described embodiment, the control unit 11 of the terminal 1 has notified the one output destination selected before execution of output by displaying an image showing the appearance. It may be displayed to prompt the user to select.

図12は、変形例に係る出力先の設定を説明するための図である。端末1の制御部11は、出力部112が画像データを出力する複数の出力先の設置場所を特定する。例えば、記憶部12に、これらの設置場所が記憶されている場合、制御部11は、記憶部12からこれらの設置場所の情報を読み出す。また、複数の出力先の位置を定期的に確認するサーバ装置がある場合、制御部11は、通信部13および通信回線2を介してこのサーバ装置に問い合わせることにより、これらの設置場所をそれぞれ特定する。   FIG. 12 is a diagram for explaining setting of an output destination according to the modification. The control unit 11 of the terminal 1 identifies installation locations of a plurality of output destinations from which the output unit 112 outputs image data. For example, when these installation locations are stored in the storage unit 12, the control unit 11 reads out information on these installation locations from the storage unit 12. In addition, when there is a server device that periodically confirms the positions of a plurality of output destinations, the control unit 11 specifies each of these installation locations by inquiring to the server device via the communication unit 13 and the communication line 2. To do.

また、端末1は衛星測位システムなどにより自身の位置を特定するとともに、加速度センサなどにより自身の姿勢を特定する。そして、端末1の制御部11は、上述した複数の出力先の位置、自身の位置、および、自身の姿勢などに基づいて、自身に対するこれら複数の出力先の方向に対応する、表示部14における位置を特定し、この位置に対応する出力先の写真などの識別画像を表示部14に表示させる。   Further, the terminal 1 specifies its own position by a satellite positioning system or the like, and specifies its own posture by an acceleration sensor or the like. And the control part 11 of the terminal 1 in the display part 14 corresponding to the direction of these several output destinations with respect to self based on the position of several output destinations mentioned above, own position, own posture, etc. A position is specified, and an identification image such as an output destination photo corresponding to this position is displayed on the display unit 14.

図12に示す例では、表示部14の表示画面における左側には図1に示した画像処理装置3Aの外観を示す画像G7が、右側には図1に示した画像処理装置3Bの外観を示す画像G8が、それぞれ表示される。これは端末1から見て左側に画像処理装置3Aが、右側に画像処理装置3Bがそれぞれ配置されていることを意味する。   In the example shown in FIG. 12, the image G7 showing the appearance of the image processing device 3A shown in FIG. 1 is shown on the left side of the display screen of the display unit 14, and the appearance of the image processing device 3B shown in FIG. Images G8 are displayed respectively. This means that the image processing device 3A is arranged on the left side when viewed from the terminal 1, and the image processing device 3B is arranged on the right side.

表示部14には、出力の対象として決定した矩形の領域を示す画像G1が表示されている。利用者は、例えば自身の右手M1の人差し指で検知部151のうち、画像G1が示す領域内に対応する位置に触れながら、この右手M1を破線で表す位置から実線で表す位置まで移動させる。これにより右手M1の人差し指と検知部151との接触点は矢印D方向に移動し、画像G8が表示されている領域に入る。   The display unit 14 displays an image G1 indicating a rectangular area determined as an output target. For example, the user moves the right hand M1 from the position indicated by the broken line to the position indicated by the solid line while touching the position corresponding to the area indicated by the image G1 in the detection unit 151 with the index finger of his / her right hand M1. As a result, the contact point between the index finger of the right hand M1 and the detection unit 151 moves in the direction of the arrow D, and enters the area where the image G8 is displayed.

端末1の制御部11は、受付部114として、検知部151が検知した右手M1(操作体)の動作に基づいて、画像処理装置3Aおよび画像処理装置3Bのうち一の出力先を選択する設定を受付ける。この場合、受付部114は、上述した利用者の操作に基づいて、利用者が出力先として画像G8を識別画像とする画像処理装置3Bを選択する設定をしたと解釈してその旨の設定を記憶部12に記憶する。   The control unit 11 of the terminal 1 is configured to select, as the reception unit 114, one output destination from the image processing device 3A and the image processing device 3B based on the operation of the right hand M1 (operation body) detected by the detection unit 151. Accept. In this case, the accepting unit 114 interprets that the user has made a setting for selecting the image processing device 3B that uses the image G8 as an identification image as an output destination based on the above-described user operation, and sets the setting to that effect. Store in the storage unit 12.

この構成によれば、出力先の識別画像が端末1から見た設置場所の方向に沿った位置に表示されるため、利用者は実際の出力先の配置に応じて操作体を動作させることで利用したい出力先を選択する。   According to this configuration, since the identification image of the output destination is displayed at a position along the direction of the installation location as viewed from the terminal 1, the user can operate the operating tool according to the actual arrangement of the output destination. Select the output destination you want to use.

2−7.変形例7
端末1の制御部11によって実行されるプログラムは、磁気テープや磁気ディスク等の磁気記録媒体、光ディスク等の光記録媒体、光磁気記録媒体、半導体メモリ等の、コンピュータ装置が読み取り可能な記録媒体に記憶された状態で提供し得る。また、このプログラムを、インターネット等の通信回線経由でダウンロードさせることも可能である。なお、上記の制御部11によって例示した制御手段としてはCPU以外にも種々の装置が適用される場合があり、例えば、専用のプロセッサ等が用いられる。
2-7. Modification 7
The program executed by the control unit 11 of the terminal 1 is stored on a recording medium readable by a computer device such as a magnetic recording medium such as a magnetic tape or a magnetic disk, an optical recording medium such as an optical disk, a magneto-optical recording medium, or a semiconductor memory. It can be provided in a stored state. It is also possible to download this program via a communication line such as the Internet. Note that various devices other than the CPU may be applied as the control means exemplified by the control unit 11 described above. For example, a dedicated processor or the like is used.

1…端末、11…制御部、110…特定部、111…決定部、112…出力部、113…調整部、114…受付部、115…報知部、12…記憶部、13…通信部、14…表示部、15…操作部、151…検知部、2…通信回線、3…画像処理装置、9…画像形成システム。 DESCRIPTION OF SYMBOLS 1 ... Terminal, 11 ... Control part, 110 ... Identification part, 111 ... Determination part, 112 ... Output part, 113 ... Adjustment part, 114 ... Reception part, 115 ... Notification part, 12 ... Storage part, 13 ... Communication part, 14 DESCRIPTION OF SYMBOLS ... Display part, 15 ... Operation part, 151 ... Detection part, 2 ... Communication line, 3 ... Image processing apparatus, 9 ... Image forming system.

Claims (11)

画像を表示する表示部と、
前記表示部を操作する操作体を検知する検知部と、
前記検知部で検知した前記操作体が前記画像を利用することで実行できる機能を有した機器を操作する形状であって、かつ、出力指示を示す場合に、前記操作体を検知した位置から前記画像の出力領域を決定し、前記機器の画像を前記表示部に表示させて該出力領域を制御する出力制御部と、
を有する情報処理装置。
A display for displaying an image;
A detection unit for detecting an operating body for operating the display unit;
When the operation body detected by the detection unit is configured to operate a device having a function that can be executed by using the image and indicates an output instruction, the operation body is detected from the position where the operation body is detected. An output control unit that determines an output region of an image, displays an image of the device on the display unit, and controls the output region ;
An information processing apparatus.
前記出力領域が決定された後に検知された前記操作体の動作に基づいて該出力領域を調整する調整部、を有し、
前記出力制御部は、調整された前記出力領域に含まれる前記画像を出力する
ことを特徴とする請求項に記載の情報処理装置。
An adjustment unit that adjusts the output area based on the operation of the operating body detected after the output area is determined;
The information processing apparatus according to claim 1 , wherein the output control unit outputs the image included in the adjusted output area .
前記出力領域が決定された後に検知された前記操作体の動作に基づいて前記画像の出力に関する設定を受付ける受付部、を有し、
前記出力制御部は、受付けられた前記設定に応じて前記画像を出力する
ことを特徴とする請求項1または2に記載の情報処理装置。
A reception unit that receives a setting related to the output of the image based on the operation of the operating body detected after the output area is determined;
The output control unit, the information processing apparatus according to claim 1 or 2 and outputs the image in accordance with accepted the setting.
前記表示部は、前記出力領域を表示する
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
Wherein the display unit, the information processing apparatus according to any one of claims 1 to 3, characterized in that displaying the output region.
前記出力制御部は、決定した前記出力領域の色を変化させて該出力領域を前記表示部に表示させる
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
The output control unit, the information processing apparatus according the determined output area by changing the color of the output region from claim 1, characterized in that to be displayed on the display unit in any one of 4.
前記設定を報知する報知部、
を有することを特徴とする請求項に記載の情報処理装置。
An informing unit for informing the setting,
The information processing apparatus according to claim 3 , further comprising:
前記設定は、前記画像の前記出力領域の出力先を定める
ことを特徴とする請求項に記載の情報処理装置。
The information processing apparatus according to claim 3 , wherein the setting determines an output destination of the output area of the image .
前記表示部は、前記出力制御部が前記画像を出力する複数の出力先が設置されている場所の自装置に対する方向に対応する位置に、該出力先を識別する識別画像をそれぞれ表示し、
前記受付部は、表示された前記識別画像に対する前記操作体の動作に基づいて、複数の出力先のうち一の出力先を選択する設定を受付ける
ことを特徴とする請求項に記載の情報処理装置。
The display unit respectively displays an identification image for identifying the output destination at a position corresponding to a direction with respect to the own device where a plurality of output destinations where the output control unit outputs the image is installed,
The information processing according to claim 3 , wherein the reception unit receives a setting for selecting one output destination from among a plurality of output destinations based on an operation of the operating tool with respect to the displayed identification image. apparatus.
前記機器の画像は、前記出力領域の出力先となる前記機器の画像と紐付いている
ことを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
The information processing apparatus according to claim 1 , wherein the image of the device is associated with an image of the device that is an output destination of the output area .
前記機器の画像は、前記出力指示の実行が完了すると前記表示部から消える
ことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
Image of the device, the information processing apparatus according to any one of claims 1 9, characterized in that the execution of the output instruction is completed disappears from the display unit.
像を表示する表示部と、
前記表示部を操作する操作体を検知する検知部と、
を有するコンピュータを、
前記検知部で検知した前記操作体が前記画像を利用することで実行できる機能を有した機器を操作する形状であって、かつ、出力指示を示す場合に、前記操作体を検知した位置から前記画像の出力領域を決定し、前記機器の画像を前記表示部に表示させて該出力領域を制御する出力制御部、
として機能させるためのプログラム。
A display unit for displaying the images,
A detection unit for detecting an operating body for operating the display unit;
A computer having
When the operation body detected by the detection unit is configured to operate a device having a function that can be executed by using the image and indicates an output instruction, the operation body is detected from the position where the operation body is detected. An output control unit for determining an output region of the image and displaying the image of the device on the display unit to control the output region ;
Program to function as.
JP2016157771A 2016-08-10 2016-08-10 Information processing apparatus and program Active JP6098752B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016157771A JP6098752B1 (en) 2016-08-10 2016-08-10 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016157771A JP6098752B1 (en) 2016-08-10 2016-08-10 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP6098752B1 true JP6098752B1 (en) 2017-03-22
JP2018025992A JP2018025992A (en) 2018-02-15

Family

ID=58363092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016157771A Active JP6098752B1 (en) 2016-08-10 2016-08-10 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP6098752B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014110054A (en) * 2012-11-30 2014-06-12 Samsung Electronics Co Ltd Device and method for managing multiple objects displayed on touch screen
JP2014174767A (en) * 2013-03-08 2014-09-22 Hitachi Solutions Ltd Information processor, electronic conference system and program
JP2015056096A (en) * 2013-09-13 2015-03-23 シャープ株式会社 Information processor
JP2016031744A (en) * 2014-07-30 2016-03-07 シャープ株式会社 Content display device and display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014110054A (en) * 2012-11-30 2014-06-12 Samsung Electronics Co Ltd Device and method for managing multiple objects displayed on touch screen
JP2014174767A (en) * 2013-03-08 2014-09-22 Hitachi Solutions Ltd Information processor, electronic conference system and program
JP2015056096A (en) * 2013-09-13 2015-03-23 シャープ株式会社 Information processor
JP2016031744A (en) * 2014-07-30 2016-03-07 シャープ株式会社 Content display device and display method

Also Published As

Publication number Publication date
JP2018025992A (en) 2018-02-15

Similar Documents

Publication Publication Date Title
TWI358028B (en) Electronic device capable of transferring object b
US9671952B2 (en) Function execution program, terminal device, function execution method, recording medium and information processing system
WO2013035724A1 (en) Electronic book display device that performs page turning in response to user operation pressing screen, page turning method, and program
KR101960906B1 (en) Information processing apparatus, method, and non-transitory computer-readable medium
US8922351B2 (en) Display apparatus, information processing system, recording medium and television receiver
JP2020074245A (en) Indicator detection device and signal processing method thereof
WO2012054060A1 (en) Evaluating an input relative to a display
JP2009259110A (en) Display object control device, display object control program, and display device
JP5945926B2 (en) Operation display device
JP6055459B2 (en) Touch panel device and image processing device
CN103593045A (en) Display control device, image forming apparatus, and display control method
JP5589309B2 (en) Display control apparatus, image processing apparatus, and program
WO2010061448A1 (en) Operation input device, information processor, and selected button identification method
JP7279737B2 (en) Information processing device, image forming device, program, and system
JP2008009572A (en) Document processing system, document processing method, and program
JP6127465B2 (en) Information processing apparatus, information processing system, and program
JP6098752B1 (en) Information processing apparatus and program
US11979529B2 (en) Information processing apparatus, information processing method, and non-transitory recording medium for reading aloud content for visually impaired users
CN106227432A (en) A kind of terminal demonstration interface local amplification method, system and touch terminal
KR20170063375A (en) Information processing apparatus, control method of information processing apparatus, and storage medium
JP2017162126A (en) Input system, input method, control program and storage medium
JP6287079B2 (en) Inspection support device, inspection support system and program
JP6304071B2 (en) Image processing device
JP6003166B2 (en) Touch panel system, touch panel device, and program
JP2016103214A (en) Touch panel device and image display method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170206

R150 Certificate of patent or registration of utility model

Ref document number: 6098752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350