JP6098752B1 - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP6098752B1 JP6098752B1 JP2016157771A JP2016157771A JP6098752B1 JP 6098752 B1 JP6098752 B1 JP 6098752B1 JP 2016157771 A JP2016157771 A JP 2016157771A JP 2016157771 A JP2016157771 A JP 2016157771A JP 6098752 B1 JP6098752 B1 JP 6098752B1
- Authority
- JP
- Japan
- Prior art keywords
- output
- image
- unit
- processing apparatus
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】操作体の形状と位置とに基づいて、表示されている画像の全部または一部の領域を出力する指示を受付ける。【解決手段】表示部14は、制御部11の制御の下、画像を表示する。検知部151は、表示部14に対して操作される操作体を検知し、その形状および位置をそれぞれ示す情報を制御部11に供給する。特定部110は、検知部151が検知した操作体の形状を示す情報を検知部151から受取ると、この形状に基づいて利用者が操作体を用いて示した指示の内容を特定する。決定部111は、検知部151が検知した操作体の位置を示す情報を検知部151から受取ると、この操作体の位置に基づいて画像における領域を決定する。特定部110が特定した指示が、決定部111で決定された領域に含まれる画像を示す画像データの出力の指示である場合に、出力部112は、通信部13を介して画像処理装置3にこの画像データを出力する。【選択図】図4An instruction to output all or a part of a displayed image is received based on the shape and position of an operating tool. A display unit 14 displays an image under the control of a control unit 11. The detection unit 151 detects an operating body operated on the display unit 14 and supplies information indicating the shape and position to the control unit 11. When receiving the information indicating the shape of the operating tool detected by the detecting unit 151 from the detecting unit 151, the specifying unit 110 specifies the content of the instruction indicated by the user using the operating tool based on the shape. Upon receiving information indicating the position of the operating tool detected by the detecting unit 151 from the detecting unit 151, the determining unit 111 determines a region in the image based on the position of the operating tool. When the instruction specified by the specifying unit 110 is an instruction to output image data indicating an image included in the area determined by the determining unit 111, the output unit 112 sends information to the image processing apparatus 3 via the communication unit 13. This image data is output. [Selection] Figure 4
Description
本発明は、情報処理装置およびプログラムに関する。 The present invention relates to an information processing apparatus and a program.
特許文献1には、スタイラスペン等の操作用外部機器を保持する保持手段と、その操作用外部機器が保持手段に保持されているか否か等を判別する判別手段とを有する電子機器であって、ウェブページをディスプレイに表示している状態が継続しているときに、操作用外部機器が保持手段に保持されている状態から保持されていない状態に変化した状態変化を検知すると、ディスプレイに表示されている情報をキャプチャして画像データを生成し、生成した画像データに対する編集を受付ける電子機器が開示されている。
操作体の形状と位置とに基づいて、表示されている画像の全部または一部の領域を出力する指示を受付ける情報処理装置を提供することを目的とする。 An object of the present invention is to provide an information processing apparatus that receives an instruction to output all or part of a displayed image based on the shape and position of an operating tool.
上述した課題を解決するため、本発明の請求項1に係る情報処理装置は、画像を表示する表示部と、前記表示部を操作する操作体を検知する検知部と、前記検知部で検知した前記操作体が前記画像を利用することで実行できる機能を有した機器を操作する形状であって、かつ、出力指示を示す場合に、前記操作体を検知した位置から前記画像の出力領域を決定し、前記機器の画像を前記表示部に表示させて該出力領域を制御する出力制御部と、を有する。
In order to solve the above-described problem, an information processing apparatus according to
本発明の請求項2に係る情報処理装置は、請求項1に記載の態様において、前記出力領域が決定された後に検知された前記操作体の動作に基づいて該出力領域を調整する調整部、を有し、前記出力制御部は、調整された前記出力領域に含まれる前記画像を出力することを特徴とする。 An information processing apparatus according to a second aspect of the present invention is the information processing device according to the first aspect, wherein the adjustment unit adjusts the output area based on the operation of the operating tool detected after the output area is determined. The output control unit outputs the image included in the adjusted output area.
本発明の請求項3に係る情報処理装置は、請求項1または2に記載の態様において、前記出力領域が決定された後に検知された前記操作体の動作に基づいて前記画像の出力に関する設定を受付ける受付部、を有し、前記出力制御部は、受付けられた前記設定に応じて前記画像を出力することを特徴とする An information processing apparatus according to a third aspect of the present invention is the information processing apparatus according to the first or second aspect, wherein the setting relating to the output of the image is performed based on the operation of the operating tool detected after the output area is determined. A reception unit that receives the image, and the output control unit outputs the image according to the received setting.
本発明の請求項4に係る情報処理装置は、請求項1から3のいずれか1項に記載の態様において、前記表示部は、前記出力領域を表示する、ことを特徴とする。 An information processing apparatus according to a fourth aspect of the present invention is the information processing apparatus according to any one of the first to third aspects, wherein the display section displays the output area .
本発明の請求項5に係る情報処理装置は、請求項1から4のいずれか1項に記載の態様において、前記出力制御部は、決定した前記出力領域の色を変化させて該出力領域を前記表示部に表示させることを特徴とする。 An information processing apparatus according to a fifth aspect of the present invention is the information processing apparatus according to any one of the first to fourth aspects, wherein the output control unit changes the determined color of the output area to change the output area. It displays on the said display part, It is characterized by the above-mentioned .
本発明の請求項6に係る情報処理装置は、請求項3に記載の態様において、前記設定を報知する報知部、を有することを特徴とする。 The information processing apparatus according to claim 6 of the present invention, in the embodiment according to claim 3, characterized in that it have the notification unit, for notifying the setting.
本発明の請求項7に係る情報処理装置は、請求項3に記載の態様において、前記設定は、前記画像の前記出力領域の出力先を定めることを特徴とする。 An information processing apparatus according to a seventh aspect of the present invention is the information processing apparatus according to the third aspect, wherein the setting determines an output destination of the output area of the image .
本発明の請求項8に係る情報処理装置は、請求項3に記載の態様において、前記表示部は、前記出力制御部が前記画像を出力する複数の出力先が設置されている場所の自装置に対する方向に対応する位置に、該出力先を識別する識別画像をそれぞれ表示し、
前記受付部は、表示された前記識別画像に対する前記操作体の動作に基づいて、複数の出力先のうち一の出力先を選択する設定を受付けることを特徴とする。
An information processing apparatus according to an eighth aspect of the present invention is the information processing apparatus according to the third aspect, wherein the display unit is a local device where a plurality of output destinations from which the output control unit outputs the image are installed. An identification image for identifying the output destination is displayed at a position corresponding to the direction with respect to
The accepting unit accepts a setting for selecting one output destination from among a plurality of output destinations based on the operation of the operating tool with respect to the displayed identification image .
本発明の請求項9に係る画像形成装置は、請求項1から8のいずれか1項に記載の態様において、前記機器の画像は、前記出力領域の出力先となる前記機器の画像と紐付いていることを特徴とする。 An image forming apparatus according to a ninth aspect of the present invention is the image forming apparatus according to any one of the first to eighth aspects, wherein the image of the device is associated with an image of the device that is an output destination of the output area. and said that you are.
本発明の請求項10に係る情報処理装置は、請求項1から9のいずれか1項に記載の態様において、前記機器の画像は、前記出力指示の実行が完了すると前記表示部から消えることを特徴とする。 An information processing apparatus according to a tenth aspect of the present invention is the information processing apparatus according to any one of the first to ninth aspects, wherein the image of the device disappears from the display unit when the execution of the output instruction is completed. Features.
本発明の請求項11に係るプログラムは、画像を表示する表示部と、前記表示部を操作する操作体を検知する検知部と、を有するコンピュータを、前記検知部で検知した前記操作が前記画像を利用することで実行できる機能を有した機器を操作する形状であって、かつ、出力指示を示す場合に、前記操作体を検知した位置から前記画像の出力領域を決定し、前記機器の画像を前記表示部に表示させて該出力領域を制御する出力制御部、として機能させるためのプログラムである。
Program according to
請求項1、11に係る発明によれば、操作体の形状と位置とに基づいて、表示されている画像の全部または一部の領域を出力する指示を受付けることができる。
請求項9に係る発明によれば、利用者は出力領域の出力先となる機器の画像を把握することができる。
請求項10に係る発明によれば、出力指示の実行が完了したら、その実行内容に関わらず次の処理に表示部を使わせることができる。
請求項2に係る発明によれば、画像データの出力の指示をしたときに決定された領域をその決定の後に調整することができる。
請求項3に係る発明によれば、領域が決定された後に画像データの出力に関する設定をすることができる。
請求項4に係る発明によれば、利用者は決定された領域を把握することができる。
請求項5、6に係る発明によれば、利用者は操作体の動作に基づいて行った設定を把握することができる。
請求項7に係る発明によれば、利用者は出力領域の出力先を設定できる。
請求項8に係る発明によれば、利用者は複数の出力先をそれらがそれぞれ設置されている方向に基づいて選択する設定をすることができる。
According to the first and eleventh aspects of the present invention, it is possible to accept an instruction to output all or part of the displayed image based on the shape and position of the operating tool.
According to the ninth aspect of the invention, the user can grasp the image of the device that is the output destination of the output area.
According to the invention of claim 10, when the execution of the output instruction is completed, the display unit can be used for the next processing regardless of the execution content.
According to the second aspect of the present invention, it is possible to adjust the area determined when the image data output instruction is given after the determination.
According to the third aspect of the present invention, it is possible to make settings relating to the output of image data after the area is determined.
According to the invention of claim 4 , the user can grasp the determined area.
According to the invention which concerns on Claim 5 , 6 , the user can grasp | ascertain the setting performed based on operation | movement of the operation body.
According to the invention of claim 7 , the user can set the output destination of the output area.
According to the invention which concerns on Claim 8 , the user can perform the setting which selects several output destinations based on the direction in which each is installed.
1.実施形態
1−1.画像形成システムの全体構成
図1は、本実施形態に係る画像形成システム9の全体構成を示す図である。画像形成システム9は、LAN(Local Area Network)を形成する通信回線2と、この通信回線2に接続された端末1および複数の画像処理装置3と、を有する。
1. Embodiment 1-1. Overall Configuration of Image Forming System FIG. 1 is a diagram showing an overall configuration of an image forming system 9 according to the present embodiment. The image forming system 9 includes a communication line 2 that forms a LAN (Local Area Network), a
図1に示す端末1は、通信回線2を介して画像処理装置3と接続するように構成された情報処理装置である。画像形成システム9が有する端末1は図1に示す通り1つであってもよいし、複数であってもよい。端末1は、通信回線2を介して画像処理装置3と接続して画像処理装置3に画像を示す画像データを出力する。
A
図1において画像形成システム9は、複数の画像処理装置3A、3B、3Cを有する。これらを特に区別しない場合、単に「画像処理装置3」という。画像処理装置3は、端末1から出力された画像データを受取って何らかの処理をする装置である。この処理の内容は様々であり、例えば、受取った画像データに基づいて用紙等の媒体上に画像を形成する画像形成であってもよい。この場合、画像処理装置3は、例えば電子写真方式や熱転写方式、インクジェット方式等による画像形成を行う。
In FIG. 1, the image forming system 9 includes a plurality of image processing apparatuses 3A, 3B, and 3C. When these are not particularly distinguished, they are simply referred to as “image processing device 3”. The image processing device 3 is a device that receives the image data output from the
また、上述の処理の内容は、画像データを他の装置に送信する画像送信であってもよい。この場合、画像処理装置3は、図示しない公衆電話回線に接続し、この公衆電話回線を介して画像データを他の装置に送信するファクシミリなどである。 Further, the content of the above-described processing may be image transmission for transmitting image data to another device. In this case, the image processing apparatus 3 is a facsimile or the like that is connected to a public telephone line (not shown) and transmits image data to another apparatus via the public telephone line.
また、上述の処理の内容は、画像データを記憶装置に記憶させる処理であってもよい。図1に示す画像処理装置3Aは、画像送信の機能を備えたファクシミリである。また、図1に示す画像処理装置3Bは、画像形成の機能を備えた画像形成装置である。また、図1に示す画像処理装置3Cは、画像データを記憶する機能を備えた記憶装置である。 Further, the content of the above process may be a process of storing image data in a storage device. An image processing apparatus 3A shown in FIG. 1 is a facsimile provided with an image transmission function. An image processing apparatus 3B shown in FIG. 1 is an image forming apparatus having an image forming function. The image processing device 3C shown in FIG. 1 is a storage device having a function of storing image data.
1−2.端末の構成
図2は、端末1の構成の一例を示す図である。端末1は、制御部11と、記憶部12と、通信部13と、表示部14と、操作部15とを有する。
1-2. Terminal Configuration FIG. 2 is a diagram illustrating an example of the configuration of the
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を有し、CPUがROMや記憶部12に記憶されているコンピュータプログラム(以下、単にプログラムという)を読み出して実行することにより端末1の各部を制御する。
The
通信部13は、例えばIEEE802.11に準拠した方式により、無線アクセスポイントを介して通信回線2に接続する通信回路である。通信部13は、無線に限らず有線により通信回線2に接続してもよい。端末1は、通信部13により通信回線2を介して画像処理装置3と情報を遣り取りする。
The
操作部15は、各種の指示を入力するための操作ボタン等の操作子を備えており、利用者による操作を受付けてその操作内容に応じた信号を制御部11に供給する。また、操作部15は、利用者の指やスタイラスペンなどの操作体を検知する検知部151を有する。検知部151は、例えばタッチパネルである。
The
表示部14は、液晶ディスプレイを有しており、制御部11の制御の下、画像を表示する。表示部14の液晶ディスプレイの上には、操作部15の検知部151が重ねて配置されてもよい。
The
図3は、表示部14の上に重ねて配置される検知部151の一例を示す図である。図3に示す検知部151は、表示部14の液晶ディスプレイで表示された画像が利用者から見えるように透明な素材で構成される。この検知部151は、表示部14に対して操作される操作体を検知し、少なくとも検知した操作体の形状および位置をそれぞれ示す情報を制御部11に供給する。
FIG. 3 is a diagram illustrating an example of the
記憶部12は、ソリッドステートドライブ等の大容量の記憶手段であり、制御部11のCPUに読み込まれる各種のプログラムを記憶する。また、記憶部12は、表示部14に表示される画像を示す画像データを記憶する。
The
1−3.端末の機能的構成
図4は、端末1の機能的構成の一例を示す図である。端末1の制御部11は、記憶部12から読み出したプログラムを実行することで、図4に示す特定部110、決定部111、および出力部112として機能する。また、端末1の制御部11は、このプログラムを実行することで、図4に破線で示す受付部114、および報知部115として機能してもよい。
1-3. Functional Configuration of Terminal FIG. 4 is a diagram illustrating an example of a functional configuration of the
特定部110は、検知部151が検知した操作体の形状を示す情報を検知部151から受取ると、この形状に基づいて利用者が操作体を用いて示した指示の内容を特定する。
When receiving the information indicating the shape of the operating tool detected by the detecting
決定部111は、検知部151が検知した操作体の位置を示す情報を検知部151から受取ると、この操作体の位置に基づいて表示部14に表示されている画像における領域を決定する。
When receiving the information indicating the position of the operating tool detected by the detecting
特定部110が特定した指示が、決定部111で決定された領域に含まれる画像を示す画像データの出力の指示である場合に、出力部112は、通信部13を介して画像処理装置3にこの画像データを出力する。
When the instruction specified by the specifying
受付部114は、決定部111により領域が決定された後に、検知部151により検知された操作体の動作に基づいて画像データの出力に関する設定を受付ける。出力に関する設定は、例えば、出力先の指定や、画像の出力に用いる色彩の設定、面付けなど媒体への画像形成を行う場合における媒体上の画像のレイアウトの設定、出力部数の設定などである。出力部112は、受付部114で受付けられた設定に応じて上述した画像データを出力する。なお、設定は、予め定めておいてもよい。
After the region is determined by the determination unit 111, the
報知部115は、受付部114が受付けた設定を利用者に報知する。例えば利用者が出力に関する設定として出力先を設定した場合、報知部115は、この設定に応じてその出力先の外観を示す写真や型番、識別名などを表示部14に表示したり、音声で再生したりすることで利用者に報知する。
The
1−4.端末の動作
図5は、端末1の動作の流れを示すフロー図である。端末1の制御部11は、操作部15の検知部151による操作体の検知があったか否かを判断し(ステップS101)、操作体の検知がない間は(ステップS101;NO)この判断を続ける。操作体の検知があったと判断すると(ステップS101;YES)、制御部11は検知部151から供給される操作体の形状の情報に基づいて、利用者がした機能の実行指示を特定する(ステップS102)。
1-4. Operation of Terminal FIG. 5 is a flowchart showing a flow of operation of the
図6は、操作体の形状が示す指示を説明するための図である。端末1の表示部14に対して利用者が操作体である右手M1および左手M2を操作すると、表示部14に重ねて設けられた検知部151は右手M1および左手M2を検知して、これらの形状および位置を示す情報を制御部11に供給する。これにより、端末1は利用者の指示の内容を特定する。
FIG. 6 is a diagram for explaining an instruction indicated by the shape of the operating tool. When the user operates the right hand M1 and the left hand M2, which are operating bodies, with respect to the
例えば、図6(a)に示す右手M1および左手M2は、それぞれの親指および人差し指で検知部151の4箇所に触れている。この4箇所は矩形の頂点であり、この頂点の位置により、端末1の制御部11は操作体のそれぞれの形状を把握する。
For example, the right hand M1 and the left hand M2 shown in FIG. 6A touch the four places of the
この場合、制御部11は、検知部151が検知した右手M1および左手M2のそれぞれの親指および人差し指の形状に基づき、利用者がした指示を、上記の矩形の領域に含まれる画像を示す画像データを出力する指示であると特定する。そして、制御部11は上記の矩形の領域を示す破線の画像G1を右手M1および左手M2の触れる位置に応じて表示部14に表示させる。
In this case, the
また、例えば、図6(b)に示す右手M1および左手M2は、それぞれの親指および人差し指で検知部151の4箇所に触れているが、それぞれの親指と人差し指との距離が決められた距離よりも短い。この場合、制御部11は、利用者がした指示を、表示部14の中の指定した2つの位置の距離を測定する指示であると判断し、目盛りのついた定規の画像G2を右手M1および左手M2の触れる位置に応じて表示部14に表示させる。
In addition, for example, the right hand M1 and the left hand M2 shown in FIG. 6B touch the four portions of the
また、例えば、図6(c)に示す右手M1は棒状のものを握る形状であり、親指を除く四本の指の背側で表示部14に触れている。このとき検知部151は右手M1を検出するが、左手M2は検出しない。制御部11は検知部151から供給される情報に基づいて、右手M1が虫眼鏡の柄を握っている様子を示していることを把握し、利用者の指示が虫眼鏡により表示部14に表示されている画像を拡大して表示する指示であると特定する。
Also, for example, the right hand M1 shown in FIG. 6C has a shape that grips a rod-like object, and touches the
制御部11は、虫眼鏡を示す画像G3を右手M1の触れる位置に応じて表示部14に表示させ、この画像G3のうち虫眼鏡のレンズに相当する領域の画像を拡大して表示させる。
The
また、例えば、図6(d)に示す右手M1は親指、人差し指、および中指で何かの道具を摘む形状であり、この3本の指で検知部151に触れている。このとき検知部151は右手M1を検出するが、左手M2は検出しない。制御部11は検知部151から供給される情報に基づいて、右手M1が消しゴムやプラスチック字消し等の道具を摘んで表示部14の画像をこすっている様子を示していることを把握し、利用者の指示が表示部14に表示されている画像のうちこの道具が通過した領域を消去する指示であると特定する。
Further, for example, the right hand M1 shown in FIG. 6D has a shape in which a tool is picked by the thumb, index finger, and middle finger, and the three fingers touch the
制御部11は、上記の道具を示す画像G4を右手M1の触れる位置に応じて表示部14に表示させ、この画像G4が通過した軌跡に沿って画像を消去する。
The
図5に示す動作において制御部11は、特定した指示が画像データの出力の指示(出力指示という)であるか否かを判断し(ステップS103)、この指示が出力指示ではないと判断すると(ステップS103;NO)、出力指示以外であるその指示、すなわち、他の指示を実行する(ステップS104)。一方、特定した指示が出力指示であると判断すると(ステップS103;YES)、制御部11は、出力指示を実行する(ステップS200)。
In the operation shown in FIG. 5, the
図7は、図5に示すステップS200の出力指示を実行する動作の流れを示すフロー図である。制御部11は、検知部151が検知した操作体の位置に基づいて表示部14に表示された画像における領域を決定し(ステップS201)、この領域に含まれる画像の出力指示を受付けたことを利用者に報知する(ステップS202)。そして、制御部11は、受付けた出力指示が示す画像データの出力に関する設定を行うか否かを利用者に対して問い合わせ、その回答によりこれを判断する(ステップS203)。
FIG. 7 is a flowchart showing a flow of an operation for executing the output instruction in step S200 shown in FIG. The
図8は、端末1が利用者に向けて報知する例を示す図である。図8に示す通り、端末1の制御部11は表示部14のうち右手M1および左手M2の触れる位置に対応する位置に矩形の領域を示す破線の画像G1を表示させ、さらに、例えばこの画像G1の内部に、カメラを示す画像G5を50%の透過率などで重ねて表示させる。この画像G5を表示することにより端末1は、利用者から受付けた指示を、画像G1で示した矩形の領域に含まれる画像を示す画像データを画像処理装置3に出力する指示として解釈していることを利用者に伝える。利用者は、この出力指示を意図していない場合、この画像G5を見て右手M1および左手M2の形状を変更すればよい。これにより制御部11は、利用者が設定を行わないと判断し(ステップS203;NO)、処理を終了する。
FIG. 8 is a diagram illustrating an example in which the
一方、利用者が出力指示を意図しており、上記の画像データの出力に関する設定を行う意思が固まった場合、利用者は例えば右手M1および左手M2のそれぞれの親指および人差し指を今までよりも強く検知部151に押し付ける。検知部151には接触する操作体から受ける圧力を検知する機能が備えられている。そのため検知部151は、決められた圧力を超えて操作体が押し付けられると、その圧力未満で操作体が触れていた状態と区別して、その操作体を検知する。制御部11は、検知部151から操作体から受ける圧力の増加を示す情報を受取ると、利用者が設定を行うと判断し(ステップS203;YES)、設定の受付けを行い(ステップS204)、受付けた設定を利用者に報知する(ステップS205)。
On the other hand, if the user intends to give an output instruction and decides to make the setting related to the output of the image data, the user, for example, pushes the thumb and index finger of the right hand M1 and the left hand M2 stronger than before. Press against the
図9は、受付けた設定を利用者に報知する例を示す図である。例えば、端末1の制御部11は、図9に示す通り、表示部14のうち右手M1および左手M2の位置に対応する位置に出力先の外観を示す写真の画像G6を50%の透過率などで重ねて表示させる。これにより端末1が画像データを出力する出力先の設定として、この画像G6で示される出力先を選択していることが利用者に報知される。
FIG. 9 is a diagram illustrating an example of notifying the user of the accepted setting. For example, as shown in FIG. 9, the
利用者がこの画像G6で示される出力先に画像データを出力させる意思があれば、例えば右手M1および左手M2のそれぞれの指を今までよりも強く検知部151に押し付ければよい。また、他の出力先を選択する意思があれば、利用者は、例えば右手M1および左手M2のいずれかの指を一度、検知部151から離した後、再び検知部151にその指を接触させればよい。利用者がこの出力先に画像データを出力させる意思がないのであれば、例えば右手M1および左手M2を決められた長さ以上の時間にわたって検知部151から離せばよい。
If the user intends to output the image data to the output destination indicated by the image G6, for example, the fingers of the right hand M1 and the left hand M2 may be pressed against the
なお、出力が完了したり、出力指示がキャンセルされたりした場合、画像G6は表示部14から消える。上述した通り、画像G5が画像G6へ変化することで、出力指示の実行がどの段階にあるのか、視覚的にわかり易くなる。利用者の設定により、画像G5から画像G6への遷移をなくしてもよく、固定的にしてもよい。
Note that the image G6 disappears from the
制御部11は、利用者が出力に関する設定を終えて、この出力を実行する意思があるか否かを操作体の動作に基づいて判断する(ステップS206)。利用者が出力を実行する意思があると判断する場合(ステップS206;YES)、制御部11は、設定された出力先に画像データを出力する処理を実行し(ステップS207)、その実行を利用者に報知して(ステップS208)、処理を終了する。一方、利用者が出力を実行する意思がないと判断する場合(ステップS206;NO)、制御部11は、出力の中止を報知して(ステップS209)、処理を終了する。
The
以上、説明した通り、端末1は、この構成により、操作体の形状と位置に基づいて、表示されている画像の全部または一部を出力する指示を受付ける。端末1は、出力指示を受付けるとともに出力の対象となる領域の指定も受付けるため、利用者は出力の指示と出力対象の領域の指示とを別々に行う必要がない。
As described above, with this configuration, the
2.変形例
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の変形例を組み合わせてもよい。
2. Modification The above is the description of the embodiment, but the contents of this embodiment can be modified as follows. Further, the following modifications may be combined.
2−1.変形例1
上述した実施形態において、端末1の制御部11は、特定部110、決定部111、出力部112、受付部114、および報知部115として機能していたが、他にも図4に破線で示す調整部113として機能してもよい。
2-1.
In the above-described embodiment, the
例えば、調整部113は、決定部111により領域が決定された後に、検知部151によって検知された操作体の動作に基づいてこの領域を調整する。例えば、利用者が出力指示をした右手M1および左手M2のそれぞれの検知部151に触れている指を動かすことで検知部151が操作体と接触している接触点が移動する。
For example, the
制御部11は、この接触点に基づいて出力の対象とする領域の大きさや形状を調整すればよい。領域は、例えば複数の接触点を頂点とする多角形であってもよいし、複数の接触点に内接または外接する円や楕円などであってもよい。この場合、出力部112は、調整部113によって調整された後の領域に含まれる画像を示す画像データを出力する。
The
図10は、検知された操作体の位置を説明するための図である。図10に示す通り、利用者が操作体である右手M1および左手M2で表示部14に重ねられた検知部151に接触すると、検知部151は、右手M1および左手M2のそれぞれが接触する接触点の位置を検知する。例えば図10に示す右手M1は人差し指で点P11に接触し、親指で点P12に接触している。そして図10に示す左手M2は人差し指で点P21に接触し、親指で点P22に接触している。この場合、検知部151は、点P11、点P12、点P22、および点P21を結ぶ多角形(この場合、四角形)を、出力の対象とする領域として決定する。
FIG. 10 is a diagram for explaining the detected position of the operating tool. As shown in FIG. 10, when the user touches the
そして、領域が決定された後に、利用者が操作体の接触する位置を動かすと、制御部11は、この位置の変動に応じて出力の対象とする領域の大きさや形状を調整する。図11は、利用者が操作体の接触する位置を動かしたときに調整される領域を説明するための図である。
Then, after the area is determined, when the user moves the position where the operating body contacts, the
例えば、利用者が操作体である右手M1の親指が検知部151に接触する点を点P12から右下の点P13に動かすと、制御部11は図11(a)に示すように、動かした先の位置を示す点P13と、動かしていない点P11、点P21、および点P22とに内接する矩形を新たな領域として調整する。そして、制御部11は、この矩形を示す画像G11を表示部14に表示させる。
For example, when the user moves the point where the thumb of the right hand M1 as the operating body contacts the
また、利用者が右手M1の親指の接触点を点P12から右下の点P13に動かすと、制御部11は図11(b)に示すように、動かした先の位置を示す点P13と、動かしていない点P11、点P21、および点P22とをそれぞれ頂点とする多角形(この場合、四角形)を新たな領域として調整する。そして、制御部11は、この多角形を示す画像G12を表示部14に表示させる。これにより、動かした接触点だけが突出した多角形が新たな領域として決定される。
When the user moves the contact point of the thumb of the right hand M1 from the point P12 to the lower right point P13, as shown in FIG. 11 (b), the
また、制御部11は図11(c)に示すように、複数の接触点、すなわち点P11、点P12、点P22、および点P21に内接する楕円を出力の対象とする領域として決定してもよい。この場合、制御部11は、この楕円を示す画像G10を表示部14に表示させる。
Further, as shown in FIG. 11C, the
そして、利用者が右手M1の親指の接触点を点P12から右下の点P13に動かすと、制御部11は図11(c)に示すように、動かした先の位置を示す点P13と、動かしていない点P11、点P21、および点P22とに内接する楕円を新たな領域として調整する。制御部11は、この楕円を示す画像G13を表示部14に表示させる。
Then, when the user moves the contact point of the thumb of the right hand M1 from the point P12 to the lower right point P13, as shown in FIG. 11 (c), the
2−2.変形例2
上述した実施形態において、検知部151は操作体が接触した位置を検知するタッチパネルであったが、操作体を検知する検知部151はこれに限られない。検知部151は、例えばカメラなど、操作体を撮像する撮像装置であってもよい。この場合、検知部151は表示部14に重ねて設けられなくてもよく、例えば表示部14の表示面を周縁部から囲むように設けられていてもよい。検知部151は、CMOSイメージセンサやCCDイメージセンサなどを備え、操作体を撮像したデータを生成してこのデータを解析することにより操作体の形状と位置を検知すればよい。検知部151は、複数の撮像装置を備えていてもよく、この場合、複数の視点で撮像された画像をそれぞれ解析して、操作体の表示部14に対する立体空間上における姿勢を特定してもよい。
2-2. Modification 2
In the above-described embodiment, the
また、検知部151は、操作体に赤外線や超音波などを照射して反射したこれらを感知することで操作体の形状や位置を検知してもよい。検知部151は、表示部14に対して決められた範囲内に近づいた操作体を検知する近接センサであってもよい。この近接センサには、電磁誘導方式、静電容量方式、静電気方式などの種々の方式のものが用いられる。
Further, the
2−3.変形例3
上述した実施形態において、制御部11は、領域が決定された後に画像データの出力に関する設定を受付ける受付部114として機能していたが、この設定を受付けなくてもよい。この場合、制御部11は、出力先などについて予め決められた設定に従って画像データを出力すればよい。
2-3. Modification 3
In the above-described embodiment, the
2−4.変形例4
上述した実施形態において、端末1の制御部11は、決定した領域を表示部14に表示させて利用者に報知していたが、表示以外の方法でこの領域を報知してもよい。制御部11は、例えば、音声によってこの領域を報知してもよい。また、制御部11は、決定した領域を報知しなくてもよい。
2-4. Modification 4
In the embodiment described above, the
2−5.変形例5
上述した実施形態において、端末1の制御部11は、受付けた設定を利用者に報知していたが、報知しなくてもよい。
2-5. Modification 5
In the above-described embodiment, the
2−6.変形例6
上述した実施形態において、端末1の制御部11は、出力の実行前に選択している1つの出力先を、その外観を示す画像を表示することで報知していたが、複数の出力先を表示して利用者に選択を促してもよい。
2-6. Modification 6
In the above-described embodiment, the
図12は、変形例に係る出力先の設定を説明するための図である。端末1の制御部11は、出力部112が画像データを出力する複数の出力先の設置場所を特定する。例えば、記憶部12に、これらの設置場所が記憶されている場合、制御部11は、記憶部12からこれらの設置場所の情報を読み出す。また、複数の出力先の位置を定期的に確認するサーバ装置がある場合、制御部11は、通信部13および通信回線2を介してこのサーバ装置に問い合わせることにより、これらの設置場所をそれぞれ特定する。
FIG. 12 is a diagram for explaining setting of an output destination according to the modification. The
また、端末1は衛星測位システムなどにより自身の位置を特定するとともに、加速度センサなどにより自身の姿勢を特定する。そして、端末1の制御部11は、上述した複数の出力先の位置、自身の位置、および、自身の姿勢などに基づいて、自身に対するこれら複数の出力先の方向に対応する、表示部14における位置を特定し、この位置に対応する出力先の写真などの識別画像を表示部14に表示させる。
Further, the
図12に示す例では、表示部14の表示画面における左側には図1に示した画像処理装置3Aの外観を示す画像G7が、右側には図1に示した画像処理装置3Bの外観を示す画像G8が、それぞれ表示される。これは端末1から見て左側に画像処理装置3Aが、右側に画像処理装置3Bがそれぞれ配置されていることを意味する。
In the example shown in FIG. 12, the image G7 showing the appearance of the image processing device 3A shown in FIG. 1 is shown on the left side of the display screen of the
表示部14には、出力の対象として決定した矩形の領域を示す画像G1が表示されている。利用者は、例えば自身の右手M1の人差し指で検知部151のうち、画像G1が示す領域内に対応する位置に触れながら、この右手M1を破線で表す位置から実線で表す位置まで移動させる。これにより右手M1の人差し指と検知部151との接触点は矢印D方向に移動し、画像G8が表示されている領域に入る。
The
端末1の制御部11は、受付部114として、検知部151が検知した右手M1(操作体)の動作に基づいて、画像処理装置3Aおよび画像処理装置3Bのうち一の出力先を選択する設定を受付ける。この場合、受付部114は、上述した利用者の操作に基づいて、利用者が出力先として画像G8を識別画像とする画像処理装置3Bを選択する設定をしたと解釈してその旨の設定を記憶部12に記憶する。
The
この構成によれば、出力先の識別画像が端末1から見た設置場所の方向に沿った位置に表示されるため、利用者は実際の出力先の配置に応じて操作体を動作させることで利用したい出力先を選択する。
According to this configuration, since the identification image of the output destination is displayed at a position along the direction of the installation location as viewed from the
2−7.変形例7
端末1の制御部11によって実行されるプログラムは、磁気テープや磁気ディスク等の磁気記録媒体、光ディスク等の光記録媒体、光磁気記録媒体、半導体メモリ等の、コンピュータ装置が読み取り可能な記録媒体に記憶された状態で提供し得る。また、このプログラムを、インターネット等の通信回線経由でダウンロードさせることも可能である。なお、上記の制御部11によって例示した制御手段としてはCPU以外にも種々の装置が適用される場合があり、例えば、専用のプロセッサ等が用いられる。
2-7. Modification 7
The program executed by the
1…端末、11…制御部、110…特定部、111…決定部、112…出力部、113…調整部、114…受付部、115…報知部、12…記憶部、13…通信部、14…表示部、15…操作部、151…検知部、2…通信回線、3…画像処理装置、9…画像形成システム。
DESCRIPTION OF
Claims (11)
前記表示部を操作する操作体を検知する検知部と、
前記検知部で検知した前記操作体が前記画像を利用することで実行できる機能を有した機器を操作する形状であって、かつ、出力指示を示す場合に、前記操作体を検知した位置から前記画像の出力領域を決定し、前記機器の画像を前記表示部に表示させて該出力領域を制御する出力制御部と、
を有する情報処理装置。 A display for displaying an image;
A detection unit for detecting an operating body for operating the display unit;
When the operation body detected by the detection unit is configured to operate a device having a function that can be executed by using the image and indicates an output instruction, the operation body is detected from the position where the operation body is detected. An output control unit that determines an output region of an image, displays an image of the device on the display unit, and controls the output region ;
An information processing apparatus.
前記出力制御部は、調整された前記出力領域に含まれる前記画像を出力する
ことを特徴とする請求項1に記載の情報処理装置。 An adjustment unit that adjusts the output area based on the operation of the operating body detected after the output area is determined;
The information processing apparatus according to claim 1 , wherein the output control unit outputs the image included in the adjusted output area .
前記出力制御部は、受付けられた前記設定に応じて前記画像を出力する
ことを特徴とする請求項1または2に記載の情報処理装置。 A reception unit that receives a setting related to the output of the image based on the operation of the operating body detected after the output area is determined;
The output control unit, the information processing apparatus according to claim 1 or 2 and outputs the image in accordance with accepted the setting.
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。 Wherein the display unit, the information processing apparatus according to any one of claims 1 to 3, characterized in that displaying the output region.
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。 The output control unit, the information processing apparatus according the determined output area by changing the color of the output region from claim 1, characterized in that to be displayed on the display unit in any one of 4.
を有することを特徴とする請求項3に記載の情報処理装置。 An informing unit for informing the setting,
The information processing apparatus according to claim 3 , further comprising:
ことを特徴とする請求項3に記載の情報処理装置。 The information processing apparatus according to claim 3 , wherein the setting determines an output destination of the output area of the image .
前記受付部は、表示された前記識別画像に対する前記操作体の動作に基づいて、複数の出力先のうち一の出力先を選択する設定を受付ける
ことを特徴とする請求項3に記載の情報処理装置。 The display unit respectively displays an identification image for identifying the output destination at a position corresponding to a direction with respect to the own device where a plurality of output destinations where the output control unit outputs the image is installed,
The information processing according to claim 3 , wherein the reception unit receives a setting for selecting one output destination from among a plurality of output destinations based on an operation of the operating tool with respect to the displayed identification image. apparatus.
ことを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。 The information processing apparatus according to claim 1 , wherein the image of the device is associated with an image of the device that is an output destination of the output area .
ことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。 Image of the device, the information processing apparatus according to any one of claims 1 9, characterized in that the execution of the output instruction is completed disappears from the display unit.
前記表示部を操作する操作体を検知する検知部と、
を有するコンピュータを、
前記検知部で検知した前記操作体が前記画像を利用することで実行できる機能を有した機器を操作する形状であって、かつ、出力指示を示す場合に、前記操作体を検知した位置から前記画像の出力領域を決定し、前記機器の画像を前記表示部に表示させて該出力領域を制御する出力制御部、
として機能させるためのプログラム。 A display unit for displaying the images,
A detection unit for detecting an operating body for operating the display unit;
A computer having
When the operation body detected by the detection unit is configured to operate a device having a function that can be executed by using the image and indicates an output instruction, the operation body is detected from the position where the operation body is detected. An output control unit for determining an output region of the image and displaying the image of the device on the display unit to control the output region ;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016157771A JP6098752B1 (en) | 2016-08-10 | 2016-08-10 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016157771A JP6098752B1 (en) | 2016-08-10 | 2016-08-10 | Information processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6098752B1 true JP6098752B1 (en) | 2017-03-22 |
JP2018025992A JP2018025992A (en) | 2018-02-15 |
Family
ID=58363092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016157771A Active JP6098752B1 (en) | 2016-08-10 | 2016-08-10 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6098752B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014110054A (en) * | 2012-11-30 | 2014-06-12 | Samsung Electronics Co Ltd | Device and method for managing multiple objects displayed on touch screen |
JP2014174767A (en) * | 2013-03-08 | 2014-09-22 | Hitachi Solutions Ltd | Information processor, electronic conference system and program |
JP2015056096A (en) * | 2013-09-13 | 2015-03-23 | シャープ株式会社 | Information processor |
JP2016031744A (en) * | 2014-07-30 | 2016-03-07 | シャープ株式会社 | Content display device and display method |
-
2016
- 2016-08-10 JP JP2016157771A patent/JP6098752B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014110054A (en) * | 2012-11-30 | 2014-06-12 | Samsung Electronics Co Ltd | Device and method for managing multiple objects displayed on touch screen |
JP2014174767A (en) * | 2013-03-08 | 2014-09-22 | Hitachi Solutions Ltd | Information processor, electronic conference system and program |
JP2015056096A (en) * | 2013-09-13 | 2015-03-23 | シャープ株式会社 | Information processor |
JP2016031744A (en) * | 2014-07-30 | 2016-03-07 | シャープ株式会社 | Content display device and display method |
Also Published As
Publication number | Publication date |
---|---|
JP2018025992A (en) | 2018-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI358028B (en) | Electronic device capable of transferring object b | |
US9671952B2 (en) | Function execution program, terminal device, function execution method, recording medium and information processing system | |
WO2013035724A1 (en) | Electronic book display device that performs page turning in response to user operation pressing screen, page turning method, and program | |
KR101960906B1 (en) | Information processing apparatus, method, and non-transitory computer-readable medium | |
US8922351B2 (en) | Display apparatus, information processing system, recording medium and television receiver | |
JP2020074245A (en) | Indicator detection device and signal processing method thereof | |
WO2012054060A1 (en) | Evaluating an input relative to a display | |
JP2009259110A (en) | Display object control device, display object control program, and display device | |
JP5945926B2 (en) | Operation display device | |
JP6055459B2 (en) | Touch panel device and image processing device | |
CN103593045A (en) | Display control device, image forming apparatus, and display control method | |
JP5589309B2 (en) | Display control apparatus, image processing apparatus, and program | |
WO2010061448A1 (en) | Operation input device, information processor, and selected button identification method | |
JP7279737B2 (en) | Information processing device, image forming device, program, and system | |
JP2008009572A (en) | Document processing system, document processing method, and program | |
JP6127465B2 (en) | Information processing apparatus, information processing system, and program | |
JP6098752B1 (en) | Information processing apparatus and program | |
US11979529B2 (en) | Information processing apparatus, information processing method, and non-transitory recording medium for reading aloud content for visually impaired users | |
CN106227432A (en) | A kind of terminal demonstration interface local amplification method, system and touch terminal | |
KR20170063375A (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
JP2017162126A (en) | Input system, input method, control program and storage medium | |
JP6287079B2 (en) | Inspection support device, inspection support system and program | |
JP6304071B2 (en) | Image processing device | |
JP6003166B2 (en) | Touch panel system, touch panel device, and program | |
JP2016103214A (en) | Touch panel device and image display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6098752 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |