JP6607083B2 - Program and information processing apparatus - Google Patents

Program and information processing apparatus Download PDF

Info

Publication number
JP6607083B2
JP6607083B2 JP2016036712A JP2016036712A JP6607083B2 JP 6607083 B2 JP6607083 B2 JP 6607083B2 JP 2016036712 A JP2016036712 A JP 2016036712A JP 2016036712 A JP2016036712 A JP 2016036712A JP 6607083 B2 JP6607083 B2 JP 6607083B2
Authority
JP
Japan
Prior art keywords
object image
display
positioning
boundary line
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016036712A
Other languages
Japanese (ja)
Other versions
JP2017156793A (en
Inventor
諒一 佐藤
弘和 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2016036712A priority Critical patent/JP6607083B2/en
Publication of JP2017156793A publication Critical patent/JP2017156793A/en
Application granted granted Critical
Publication of JP6607083B2 publication Critical patent/JP6607083B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本願は、画像を表示部に表示させるプログラムおよび情報処理装置に関する。   The present application relates to a program and an information processing apparatus for displaying an image on a display unit.

特許文献1には、タッチパネル上に表示された画像データに対して、ユーザのタッチ操作により任意の領域を指定する技術が開示されている。具体的には、任意の形状を有する閉じた境界線を備えた範囲指定枠を表示させることにより、範囲指定枠の内側の領域を指定する。また、指定された領域内の画像に対して各種の処理を行う技術が開示されている。   Patent Document 1 discloses a technique for designating an arbitrary area by a user's touch operation on image data displayed on a touch panel. Specifically, an area inside the range designation frame is designated by displaying a range designation frame having a closed boundary line having an arbitrary shape. In addition, a technique for performing various processes on an image in a designated area is disclosed.

特開2011−035539号JP 2011-035539 A

上記技術では、範囲指定枠の形状を決定する際に、タッチパネルを操作する指示体によって境界線が隠れてしまう場合がある。指示体の一例としては、ユーザの指先やタッチペンが挙げられる。この場合、正確な領域指定ができないといった問題がある。本明細書では、このような不便性を解消することができる技術を提供する。   In the above technique, when determining the shape of the range designation frame, the boundary line may be hidden by the indicator that operates the touch panel. Examples of the indicator include a user's fingertip and a touch pen. In this case, there is a problem that an accurate area cannot be specified. In this specification, the technique which can eliminate such inconvenience is provided.

(1)本明細書に記載されているプログラムは、表示部と、タッチパネルと、を備えた情報処理装置のコンピュータが読み取り可能なプログラムであって、コンピュータに、所定範囲を示す閉じた境界線であって、所定範囲を決定するための複数の位置決め点が線上に位置している境界線を表示部に表示させる第1表示処理と、複数の位置決め点を移動させる移動操作の入力を受け付けるための複数のオブジェクト画像を、複数の位置決め点の各々の近傍に、境界線に重複しないように表示させる第2表示処理と、複数のオブジェクト画像のうちからユーザにより選択された選択オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、指示体が接触または近接した位置を示す第1の指示位置を、タッチパネルに検出させる第1検出処理と、第1の指示位置が第1検出処理によって検出された後に、第1の指示位置とは異なる第2の指示位置をタッチパネルに検出させる第2検出処理と、選択オブジェクト画像に対応する位置決め点である選択位置決め点の第1表示位置を、第2検出処理で検出された第2の指示位置の近傍に決定する第1位置決め処理と、選択位置決め点が第1表示位置に位置するように境界線を再表示する第3表示処理と、移動後の選択オブジェクト画像が境界線に重複しないように、かつ、移動後の選択オブジェクト画像が第3表示処理で再表示された選択位置決め点の近傍に表示されるように、選択オブジェクト画像の表示位置である第2表示位置を決定する第2位置決め処理と、選択オブジェクト画像が第2表示位置に位置するように選択オブジェクト画像を再表示させる第4表示処理と、を実行させることを特徴とする。   (1) A program described in this specification is a computer-readable program of an information processing apparatus including a display unit and a touch panel, and has a closed boundary line indicating a predetermined range on the computer. A first display process for displaying on the display unit a boundary line on which a plurality of positioning points for determining a predetermined range are located on the line, and an input for a moving operation for moving the plurality of positioning points. A second display process for displaying a plurality of object images in the vicinity of each of the plurality of positioning points so as not to overlap the boundary line; and within a display area of a selected object image selected by the user from the plurality of object images When the indicator touches or approaches, the touch panel detects a first pointing position indicating a position where the indicator touches or approaches the first point. Corresponding to the selected object image, the output process, the second detection process in which the touch panel detects a second designated position different from the first designated position after the first designated position is detected by the first detection process. A first positioning process for determining the first display position of the selected positioning point, which is a positioning point, in the vicinity of the second indicated position detected in the second detection process; and the selected positioning point is positioned at the first display position. The third display process for redisplaying the boundary line, and the selected positioning point where the selected object image after the movement is displayed again in the third display process so that the selected object image after the movement does not overlap the boundary line. A second positioning process for determining a second display position that is a display position of the selected object image so that the selected object image is displayed in the vicinity; and a selection option so that the selected object image is positioned at the second display position. A fourth display processing for redisplay the object image, characterized in that to the execution.

上記構成によれば、複数の位置決め点を移動させるための複数のオブジェクト画像を、境界線に重複しないように表示させることができる。これにより、境界線の形状を決定する操作の入力中に、指示体によって境界線が隠されてしまうことがない。所定範囲を正確に決定することが可能となる。   According to the above configuration, a plurality of object images for moving a plurality of positioning points can be displayed so as not to overlap the boundary line. Thereby, the boundary line is not hidden by the indicator during the input of the operation for determining the shape of the boundary line. It is possible to accurately determine the predetermined range.

(2)好ましくは、本明細書に記載されているプログラムは、境界線の表示領域の枠線の内側に枠線に沿って配置されている特定領域であって、枠線から第1所定距離内の領域である特定領域に、選択オブジェクト画像の少なくとも一部が重複するか否かについて判断する第1判断処理を、コンピュータにさらに実行させ、第2位置決め処理は、第1判断処理で選択オブジェクト画像の少なくとも一部が特定領域に重複すると判断された場合に、選択オブジェクト画像の全領域が特定領域に含まれないように、第2表示位置を決定することを特徴とする。   (2) Preferably, the program described in the present specification is a specific area arranged along the frame line inside the frame line of the boundary line display area, and is a first predetermined distance from the frame line. The computer further executes a first determination process for determining whether or not at least a part of the selected object image overlaps a specific area that is an inner area, and the second positioning process is performed by the first determination process. When it is determined that at least a part of the image overlaps the specific area, the second display position is determined so that the entire area of the selected object image is not included in the specific area.

上記構成によれば、オブジェクト画像が、境界線の表示領域の枠線の近傍に表示されることがない。オブジェクト画像に対する入力操作性が劣化してしまう事態を、防止することができる。   According to the above configuration, the object image is not displayed in the vicinity of the frame line of the boundary line display area. A situation in which the input operability with respect to the object image is deteriorated can be prevented.

(3)好ましくは、本明細書に記載されているプログラムは、所定範囲の範囲内に表示されているオブジェクト画像であって、他のオブジェクト画像または境界線と一部が重複しているオブジェクト画像である第1オブジェクト画像が、存在しているか否かについて判断する第2判断処理と、第2判断処理で第1オブジェクト画像が存在していると判断された場合に、第1オブジェクト画像が所定範囲の範囲外に位置し、かつ、第1オブジェクト画像が境界線に重複しないように、第1オブジェクト画像の第3表示位置を決定する第3位置決め処理と、第1オブジェクト画像が第3表示位置に位置するように第1オブジェクト画像を表示する第5表示処理と、をコンピュータにさらに実行させることを特徴とする。   (3) Preferably, the program described in the present specification is an object image displayed within a predetermined range, and an object image partially overlapping with another object image or a boundary line When the first object image is determined to be present and the second determination processing determines that the first object image exists, the first object image is predetermined. A third positioning process for determining a third display position of the first object image so that the first object image does not overlap the boundary line, and the first object image is the third display position. And a fifth display process for displaying the first object image so as to be positioned in the computer.

上記構成によれば、オブジェクト画像の表示位置を、所定範囲の形状に応じて適切に変更することが可能となる。これにより、所定範囲の形状に関わらず、適切に所定範囲を決定することが可能になる。   According to the above configuration, the display position of the object image can be appropriately changed according to the shape of the predetermined range. As a result, the predetermined range can be appropriately determined regardless of the shape of the predetermined range.

(4)好ましくは、本明細書に記載されているプログラムは、所定範囲は多角形であり、複数の位置決め点は、多角形の各頂点であることを特徴とする。   (4) Preferably, the program described in this specification is characterized in that the predetermined range is a polygon, and the plurality of positioning points are each vertex of the polygon.

上記構成によれば、オブジェクト画像に移動操作を入力することにより、多角形の所定範囲を決定することが可能となる。   According to the above configuration, a polygonal predetermined range can be determined by inputting a moving operation to the object image.

(5)好ましくは、本明細書に記載されているプログラムは、所定範囲の範囲内に表示されているオブジェクト画像であって、鋭角の頂点に位置する位置決め点に対する移動操作の入力を受け付けるオブジェクト画像である第2オブジェクト画像が、存在しているか否かについて判断する第3判断処理と、第3判断処理で第2オブジェクト画像が存在していると判断された場合に、第2オブジェクト画像が所定範囲の範囲外に位置し、かつ、第2オブジェクト画像が境界線に重複しないように、第2オブジェクト画像の第4表示位置を決定する第4位置決め処理と、第2オブジェクト画像が第4表示位置に位置するように第2オブジェクト画像を表示する第6表示処理と、をコンピュータにさらに実行させることを特徴とする。   (5) Preferably, the program described in the present specification is an object image displayed within a predetermined range, and is an object image that receives an input of a movement operation with respect to a positioning point positioned at an acute vertex. The second object image is determined when the second object image is determined to be present, and when the third determination process determines that the second object image exists. A fourth positioning process for determining a fourth display position of the second object image so that the second object image does not overlap the boundary line, and the second object image is the fourth display position. And a sixth display process for displaying the second object image so as to be positioned in the computer.

上記構成によれば、所定範囲の形状が鋭角の頂点を有する形状である場合においても、オブジェクト画像が境界線に重複しないように、適切に表示させることができる。   According to the above configuration, even when the shape in the predetermined range is a shape having acute vertices, the object image can be appropriately displayed so as not to overlap the boundary line.

(6)好ましくは、本明細書に記載されているプログラムは、位置決め点を交点とする直交する2本の仮想的な分割線を引くことにより、位置決め点の周囲に4つの分割領域を生成する処理を、複数の位置決め点の各々について実行する分割処理を、コンピュータにさらに実行させ、第2表示処理および第4表示処理は、4つの分割領域のうちから境界線が含まれていない分割領域の領域内にオブジェクト画像を表示させる処理を、複数の位置決め点の各々について実行することを特徴とする。   (6) Preferably, the program described in this specification generates four divided regions around a positioning point by drawing two orthogonal virtual dividing lines with the positioning point as an intersection. The computer further executes a dividing process for executing the processing for each of the plurality of positioning points, and the second display process and the fourth display process are performed for the divided areas that do not include the boundary line among the four divided areas. A process of displaying an object image in an area is executed for each of a plurality of positioning points.

上記構成によれば、オブジェクト画像の表示位置を、適切に決定することが可能となる。   According to the above configuration, it is possible to appropriately determine the display position of the object image.

(7)好ましくは、本明細書に記載されているプログラムは、表示部を上方から見たときに指示体が表示部に投影されている投影領域を、情報処理装置の検出部に検出させる第3検出処理と、位置決め点を基準としたときの投影領域の位置する方向である所定方向を決定する処理を、複数の位置決め点の各々について実行する方向決定処理と、をコンピュータにさらに実行させ、第2表示処理は、位置決め点を基準としたときの所定方向側にオブジェクト画像を表示させる処理を、複数の位置決め点の各々について実行することを特徴とする。   (7) Preferably, the program described in the present specification causes the detection unit of the information processing device to detect a projection area in which the indicator is projected on the display unit when the display unit is viewed from above. (3) causing the computer to further execute a detection process and a direction determination process for executing a process for determining a predetermined direction, which is a direction in which the projection area is located when the positioning point is used as a reference, for each of the plurality of positioning points; The second display process is characterized in that a process of displaying an object image on a predetermined direction side with respect to the positioning point is executed for each of the plurality of positioning points.

上記構成によれば、指示体の到来方向に応じて、オブジェクト画像の表示位置を変更することができる。これにより、境界線の形状を決定する操作の入力中に、指示体によって境界線が隠されてしまうことがない。所定範囲を正確に決定することが可能となる。   According to the above configuration, the display position of the object image can be changed according to the arrival direction of the indicator. Thereby, the boundary line is not hidden by the indicator during the input of the operation for determining the shape of the boundary line. It is possible to accurately determine the predetermined range.

(8)好ましくは、本明細書に記載されているプログラムは、表示部の右側から指示体を近接させる第1態様と、表示部の左側から指示体を近接させる第2態様と、の何れかのユーザによる選択を受け付ける受付処理をコンピュータにさらに実行させ、第2表示処理は、第1態様が選択されている場合には位置決め点を基準としたときの右側にオブジェクト画像を表示させ、第2態様が選択されている場合には位置決め点を基準としたときの左側にオブジェクト画像を表示させる処理を、複数の位置決め点の各々について実行することを特徴とする。   (8) Preferably, the program described in the present specification is any one of a first mode in which the indicator is brought closer from the right side of the display unit and a second mode in which the pointer is brought closer from the left side of the display unit. In the second display process, when the first mode is selected, the object image is displayed on the right side when the positioning point is used as a reference, and the second display process When the mode is selected, the processing for displaying the object image on the left side with respect to the positioning point is executed for each of the plurality of positioning points.

上記構成によれば、ユーザが操作入力する手が右手か左手かに応じて、オブジェクト画像の表示位置を変更することができる。これにより、境界線の形状を決定する操作の入力中に、指示体によって境界線が隠されてしまうことがない。所定範囲を正確に決定することが可能となる。   According to the above configuration, it is possible to change the display position of the object image depending on whether the user inputs an operation input to the right hand or the left hand. Thereby, the boundary line is not hidden by the indicator during the input of the operation for determining the shape of the boundary line. It is possible to accurately determine the predetermined range.

(9)好ましくは、本明細書に記載されているプログラムは、選択オブジェクト画像との距離が予め定められた第2所定距離以内となるオブジェクト画像であって選択オブジェクト画像以外の他のオブジェクト画像である第3オブジェクト画像が存在するか否かについて判断する第4判断処理と、第4判断処理で第3オブジェクト画像が存在すると判断された場合に、第3オブジェクト画像から第2所定距離の範囲内に選択オブジェクト画像が存在せず、かつ、第3オブジェクト画像が境界線に重複しないように、第3オブジェクト画像の第5表示位置を決定する第5位置決め処理と、第3オブジェクト画像が第5表示位置に位置するように第3オブジェクト画像を表示する第7表示処理と、をコンピュータにさらに実行させることを特徴とする。   (9) Preferably, the program described in the present specification is an object image whose distance from the selected object image is within a predetermined second predetermined distance and is an object image other than the selected object image. A fourth determination process for determining whether or not a third object image exists, and a second predetermined distance from the third object image when it is determined by the fourth determination process that the third object image exists. There is no selected object image and the third object image does not overlap the boundary line, a fifth positioning process for determining the fifth display position of the third object image, and the third object image is displayed in the fifth And causing the computer to further execute a seventh display process for displaying the third object image so as to be positioned at the position. That.

上記構成によれば、選択オブジェクト画像が移動することによって他のオブジェクト画像に重なりそうになる場合には、当該他のオブジェクト画像を選択オブジェクト画像から離すように移動させることができる。他のオブジェクト画像に、移動操作が誤入力されてしまうことがない。   According to the above configuration, when the selected object image is likely to overlap another object image due to movement, the other object image can be moved away from the selected object image. A moving operation is not erroneously input to another object image.

(10)好ましくは、本明細書に記載されているプログラムは、選択オブジェクト画像との距離が予め定められた第2所定距離以内となるオブジェクト画像であって選択オブジェクト画像以外の他のオブジェクト画像である第3オブジェクト画像が存在するか否かについて判断する第4判断処理と、第4判断処理で第3オブジェクト画像が存在すると判断された場合に、第3オブジェクト画像を非表示にする第8表示処理と、第8表示処理によって第3オブジェクト画像が非表示とされた後に、第2検出処理によって第2の指示位置が検出された場合に、第3オブジェクト画像を再表示する第9表示処理と、をコンピュータにさらに実行させることを特徴とする。   (10) Preferably, the program described in the present specification is an object image whose distance from the selected object image is within a predetermined second predetermined distance and is an object image other than the selected object image. A fourth determination process for determining whether or not a third object image exists, and an eighth display for hiding the third object image when it is determined in the fourth determination process that the third object image exists. A ninth display process for re-displaying the third object image when the second designated position is detected by the second detection process after the third object image has been hidden by the eighth display process. Are further executed by a computer.

上記構成によれば、選択オブジェクト画像が移動することによって他のオブジェクト画像に重なりそうになる場合には、当該他のオブジェクト画像を表示させないようにすることができる。他のオブジェクト画像に、移動操作が誤入力されてしまうことがない。   According to the above configuration, when the selected object image is likely to overlap another object image due to movement, the other object image can be prevented from being displayed. A moving operation is not erroneously input to another object image.

(11)好ましくは、本明細書に記載されているプログラムは、第1の指示位置が第1検出処理によって検出された場合に、選択オブジェクト画像以外の他のオブジェクト画像の全てを非表示にする第10表示処理と、第10表示処理によって他のオブジェクト画像の全てが非表示とされた後に、第2検出処理によって第2の指示位置が検出された場合に、他のオブジェクト画像の全てを再表示する第11表示処理と、をコンピュータにさらに実行させることを特徴とする。   (11) Preferably, the program described in the present specification hides all object images other than the selected object image when the first designated position is detected by the first detection process. After all the other object images are hidden by the tenth display process and the tenth display process, when the second designated position is detected by the second detection process, all the other object images are re-displayed. An eleventh display process for displaying is further executed by a computer.

上記構成によれば、選択オブジェクト画像に移動操作が入力されている期間中において、他のオブジェクト画像を表示させないようにすることができる。他のオブジェクト画像に、移動操作が誤入力されてしまうことがない。   According to the above configuration, it is possible to prevent other object images from being displayed during a period in which a movement operation is input to the selected object image. A moving operation is not erroneously input to another object image.

(12)好ましくは、本明細書に記載されているプログラムは、複数のオブジェクト画像の各々は、第1領域と、第1領域よりも狭い幅を有するとともに第1端部および第2端部を備えた第2領域と、を備えており、第1端部は第1領域に接続されており、第2端部は、位置決め点の近傍の位置であって第1領域と位置決め点との間の位置に配置されており、第2領域は境界線に重複しないことを特徴とする。   (12) Preferably, in the program described in the present specification, each of the plurality of object images has a first area, a width narrower than the first area, and a first end and a second end. The first end is connected to the first region, and the second end is a position in the vicinity of the positioning point between the first region and the positioning point. The second region is not overlapped with the boundary line.

上記構成によれば、オブジェクト画像が対応している位置決め点を、ユーザに明確に認識させることが可能となる。   According to the above configuration, the user can clearly recognize the positioning point corresponding to the object image.

(13)本明細書に記載されている情報処理装置は、表示部と、タッチパネルと、を備えた情報処理装置であって、所定範囲を示す閉じた境界線であって、所定範囲を決定するための複数の位置決め点が線上に位置している境界線を表示部に表示させる第1表示手段と、複数の位置決め点を移動させる移動操作の入力を受け付けるための複数のオブジェクト画像を、複数の位置決め点の各々の近傍に、境界線に重複しないように表示させる第2表示手段と、複数のオブジェクト画像のうちからユーザにより選択された選択オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、指示体が接触または近接した位置を示す第1の指示位置を、タッチパネルに検出させる第1検出手段と、第1の指示位置が第1検出手段によって検出された後に、第1の指示位置とは異なる第2の指示位置をタッチパネルに検出させる第2検出手段と、選択オブジェクト画像に対応する位置決め点である選択位置決め点の第1表示位置を、第2検出手段で検出された第2の指示位置の近傍に決定する第1位置決め手段と、選択位置決め点が第1表示位置に位置するように境界線を再表示する第3表示手段と、移動後の選択オブジェクト画像が境界線に重複しないように、かつ、移動後の選択オブジェクト画像が第3表示手段で再表示された選択位置決め点の近傍に表示されるように、選択オブジェクト画像の表示位置である第2表示位置を決定する第2位置決め手段と、選択オブジェクト画像が第2表示位置に位置するように選択オブジェクト画像を再表示させる第4表示手段と、を備えることを特徴とする。   (13) An information processing apparatus described in the present specification is an information processing apparatus including a display unit and a touch panel, and is a closed boundary line indicating a predetermined range, and determines the predetermined range. A plurality of object images for receiving input of a moving operation for moving a plurality of positioning points; Second indicator means for displaying in the vicinity of each of the positioning points so as not to overlap the boundary line, and the indicator is in contact with or close to the display area of the selected object image selected by the user from among the plurality of object images In this case, a first detection means for causing the touch panel to detect a first indication position indicating a position where the indicator is in contact with or close to the indicator, and a first indication position detected by the first detection means. After that, the second detection means for causing the touch panel to detect a second designated position different from the first designated position, and the first display position of the selected positioning point, which is the positioning point corresponding to the selected object image, are First positioning means for determining in the vicinity of the second designated position detected by the detecting means; third display means for redisplaying the boundary line so that the selected positioning point is located at the first display position; This is the display position of the selected object image so that the selected object image does not overlap the boundary line, and the selected object image after movement is displayed in the vicinity of the selected positioning point redisplayed by the third display means. Second positioning means for determining the second display position; and fourth display means for redisplaying the selected object image so that the selected object image is positioned at the second display position. And wherein the door.

情報処理装置のブロック図である。It is a block diagram of an information processor. 情報処理装置の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of information processing apparatus. 情報処理装置の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of information processing apparatus. 情報処理装置の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of information processing apparatus. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 禁止領域の説明図である。It is explanatory drawing of a prohibition area | region. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. オブジェクト画像の表示位置を決定する方法の説明図である。It is explanatory drawing of the method of determining the display position of an object image. オブジェクト画像の拡大図である。It is an enlarged view of an object image. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen. 表示画面の一例を示す図である。It is a figure which shows an example of a display screen.

図1に、本実施形態として例示される情報処理装置10のブロック図を示す。図1に示すように、情報処理装置10は、CPU11、記憶部12、前面カメラ14、無線送受信部15、無線アンテナ部16、ボタン入力部17、パネル18、座標検出部19、メインカメラ23、接触強度センサ22を主に備えている。情報処理装置10の一例としては、スマートフォン、タブレット端末、携帯電話、PCが挙げられる。   FIG. 1 shows a block diagram of an information processing apparatus 10 exemplified as the present embodiment. As illustrated in FIG. 1, the information processing apparatus 10 includes a CPU 11, a storage unit 12, a front camera 14, a wireless transmission / reception unit 15, a wireless antenna unit 16, a button input unit 17, a panel 18, a coordinate detection unit 19, a main camera 23, A contact strength sensor 22 is mainly provided. Examples of the information processing apparatus 10 include a smartphone, a tablet terminal, a mobile phone, and a PC.

前面カメラ14は、情報処理装置10の前面に配置されているカメラである。メインカメラ23は、情報処理装置10の背面に配置されているカメラである。ボタン入力部17は、情報処理装置10のユーザによる操作を受け付ける。ボタン入力部17の一例としては、ハードウェアキーが挙げられる。パネル18は、情報処理装置10の各種機能情報を表示する。座標検出部19は、パネル18の表示領域内へ指示体(例:ユーザの指先)が接触した位置を示す座標である、指示座標を検出する部位である。また座標検出部19は、指示体の接触強度を検出することができる。座標検出部19は、パネル18と一体に構成されることで、タッチパネル20として機能する。座標検出部19は、同時に複数の指示座標を検出することが可能とされている。無線送受信部15は、無線アンテナ部16を介して、携帯電話の規格や無線LANの規格に基づいた無線通信を行う。接触強度センサ22は、タッチパネル20への接触の力(又は、圧力)を測定するために使用されるセンサである。接触強度センサ22は、タッチパネル20と一体に、又は近接して配置される。   The front camera 14 is a camera disposed in front of the information processing apparatus 10. The main camera 23 is a camera disposed on the back surface of the information processing apparatus 10. The button input unit 17 receives an operation by the user of the information processing apparatus 10. An example of the button input unit 17 is a hardware key. The panel 18 displays various function information of the information processing apparatus 10. The coordinate detection unit 19 is a part that detects indication coordinates, which are coordinates indicating a position where an indicator (eg, a user's fingertip) contacts the display area of the panel 18. Moreover, the coordinate detection part 19 can detect the contact strength of a pointer. The coordinate detection unit 19 functions as the touch panel 20 by being configured integrally with the panel 18. The coordinate detection unit 19 can detect a plurality of designated coordinates at the same time. The wireless transmission / reception unit 15 performs wireless communication based on a cellular phone standard or a wireless LAN standard via the wireless antenna unit 16. The contact strength sensor 22 is a sensor used to measure the force (or pressure) of contact with the touch panel 20. The contact strength sensor 22 is disposed integrally with or close to the touch panel 20.

CPU11は、記憶部12内のプログラム21に従って処理を実行する。以降、文書作成アプリケーション31やオペレーティングシステム21eなど、プログラムを実行するCPU11のことを、単にプログラム名でも記載する場合がある。例えば「オペレーティングシステム21eが」という記載は、「オペレーティングシステム21eを実行するCPU11が」を意味する場合がある。   The CPU 11 executes processing according to the program 21 in the storage unit 12. Hereinafter, the CPU 11 that executes a program such as the document creation application 31 or the operating system 21e may be simply described by a program name. For example, the description “operating system 21e” may mean “the CPU 11 executing the operating system 21e”.

記憶部12は、RAM、ROM、フラッシュメモリ、HDD、CPU11が備えるバッファなどが組み合わされて構成されている。記憶部12は、プログラム21を記憶する。プログラム21は、オペレーティングシステム21e、文書作成アプリケーション31、画像処理アプリケーション32、印刷アプリケーション33、を含んでいる。   The storage unit 12 is configured by combining a RAM, a ROM, a flash memory, an HDD, a buffer included in the CPU 11, and the like. The storage unit 12 stores a program 21. The program 21 includes an operating system 21e, a document creation application 31, an image processing application 32, and a printing application 33.

オペレーティングシステム21eは、パネル18に各種の画像を表示させる機能や、文書作成アプリケーション31や印刷アプリケーション33に共通して利用される基本的な機能を、提供するプログラムである。またオペレーティングシステム21eは、各アプリケーションが各種ハードウェアに指示をするためのAPI(Application Programming Interfaceの略)を提供するプログラムでもある。   The operating system 21e is a program that provides a function for displaying various images on the panel 18 and a basic function commonly used by the document creation application 31 and the printing application 33. The operating system 21e is also a program that provides an API (abbreviation of application programming interface) for each application to instruct various hardware.

文書作成アプリケーション31は、各種の文書ファイルを作成するためのプログラムである。画像処理アプリケーション32は、画像に対して各種の処理を実行するためのプログラムである。印刷アプリケーション33は、画像データを用いて不図示のプリンタに印刷を実行させるためのプログラムである。文書作成アプリケーション31〜印刷アプリケーション33の各アプリケーションは、ユーザ等によって情報処理装置10にインストールすることで、利用することが可能である。   The document creation application 31 is a program for creating various document files. The image processing application 32 is a program for executing various processes on the image. The print application 33 is a program for causing a printer (not shown) to perform printing using image data. Each application of the document creation application 31 to the printing application 33 can be used by being installed in the information processing apparatus 10 by a user or the like.

<情報処理装置の動作>
本実施形態に係る情報処理装置10の動作を、図2のフローチャートを用いて説明する。ユーザが、ボタン入力部17を介して画像処理アプリケーション32を起動させる操作を入力すると、CPU11は、画像処理アプリケーション32を読み込んで情報処理装置10の全体の制御を開始する。これにより、図2のフローが開始される。画像処理アプリケーション32は、例えば、メインカメラ23で撮影した画像をプレビュー表示する操作を入力したことに応じて、起動されてもよい。
<Operation of information processing apparatus>
The operation of the information processing apparatus 10 according to the present embodiment will be described using the flowchart of FIG. When the user inputs an operation for starting the image processing application 32 via the button input unit 17, the CPU 11 reads the image processing application 32 and starts overall control of the information processing apparatus 10. Thereby, the flow of FIG. 2 is started. For example, the image processing application 32 may be activated in response to input of an operation for displaying a preview of an image captured by the main camera 23.

S80においてCPU11は、処理対象となる処理画像データを取得する。メインカメラ23で撮影した画像をプレビュー表示することに応じて画像処理アプリケーション32が起動された場合には、処理画像データは、メインカメラ23で撮影した画像の画像データであってもよい。または、処理画像データは、記憶部12に記憶されている複数の画像データのうちからユーザによって選択された画像データであってもよい。   In S80, the CPU 11 acquires processed image data to be processed. When the image processing application 32 is activated in response to the preview display of the image captured by the main camera 23, the processed image data may be image data of an image captured by the main camera 23. Alternatively, the processed image data may be image data selected by the user from among a plurality of image data stored in the storage unit 12.

S90においてCPU11は、表示画面をタッチパネル20に表示する。図5に、表示画面の一例を示す。表示画面には、表示領域G1およびG2が含まれている。表示領域G1は、電池残量などの各種のステータスが表示される領域である。表示領域G2は、画像処理アプリケーション32によって各種の画像が表示される領域である。図5の例では、表示領域G2には、処理画像M1、ボタン画像B1およびB2が表示される。処理画像M1は、処理画像データによって表示される画像である。ボタン画像B1は、決定指示の入力を受け付けるための画像である。ボタン画像B2は、キャンセル指示の入力を受け付けるための画像である。   In S <b> 90, the CPU 11 displays a display screen on the touch panel 20. FIG. 5 shows an example of the display screen. The display screen includes display areas G1 and G2. The display area G1 is an area in which various statuses such as the remaining battery level are displayed. The display area G <b> 2 is an area where various images are displayed by the image processing application 32. In the example of FIG. 5, the processing image M1 and the button images B1 and B2 are displayed in the display area G2. The processed image M1 is an image displayed by the processed image data. The button image B1 is an image for receiving an input of a determination instruction. The button image B2 is an image for receiving an input of a cancel instruction.

また処理画像M1には、禁止領域R11が設定されている。禁止領域R11は、後述するオブジェクト画像O1〜O4を表示することが禁止される領域である。図6を用いて、禁止領域R11について説明する。禁止領域R11は、処理画像M1の枠線の内側に、枠線に沿って配置されている領域である。禁止領域R11は、処理画像M1の枠線から第1所定距離T1内の領域である。第1所定距離T1は、オブジェクト画像の大きさに応じて決定してもよい。例えば第1所定距離T1は、オブジェクト画像の最大幅よりも大きい値としてもよい。禁止領域R11は、非表示とされることでユーザに認識させないとしてもよい。また禁止領域R11は、例えば色つきで表示することで、ユーザが認識できるように処理画像M1内に表示してもよい。   Further, the prohibited area R11 is set in the processed image M1. The prohibited area R11 is an area where display of object images O1 to O4 described later is prohibited. The prohibited region R11 will be described with reference to FIG. The prohibited area R11 is an area arranged along the frame line inside the frame line of the processed image M1. The prohibited area R11 is an area within the first predetermined distance T1 from the frame line of the processed image M1. The first predetermined distance T1 may be determined according to the size of the object image. For example, the first predetermined distance T1 may be a value larger than the maximum width of the object image. The prohibited area R11 may not be recognized by the user by being hidden. The prohibited area R11 may be displayed in the processed image M1 so that the user can recognize it by displaying it with a color, for example.

S100においてCPU11は、範囲指定枠F1を処理画像M1内に表示する。範囲指定枠F1は、所定範囲を示す閉じた境界線である。範囲指定枠F1は、多角形である。本実施形態の説明例では、範囲指定枠F1が四角形である場合について、以下に説明する。範囲指定枠F1の各頂点には、所定範囲を決定するための位置決め点N1〜N4が位置している。   In S100, the CPU 11 displays a range designation frame F1 in the processed image M1. The range designation frame F1 is a closed boundary line indicating a predetermined range. The range designation frame F1 is a polygon. In the explanation example of the present embodiment, a case where the range designation frame F1 is a rectangle will be described below. Positioning points N1 to N4 for determining a predetermined range are located at each vertex of the range designation frame F1.

S102においてCPU11は、投影領域が前面カメラ14で検出されたか否かを判断する。投影領域は、タッチパネル20を上方から見たときに、指示体がタッチパネル20に投影されている領域である。換言すると、投影領域は、指示体によって隠されてしまう領域である。本実施形態の説明例では、図7に示すように、ユーザの手が投影されている投影領域A11が、タッチパネル20の左側で検出された場合を説明する。   In S <b> 102, the CPU 11 determines whether a projection area is detected by the front camera 14. The projection area is an area where the indicator is projected onto the touch panel 20 when the touch panel 20 is viewed from above. In other words, the projection area is an area hidden by the indicator. In the explanation example of the present embodiment, as shown in FIG. 7, a case where a projection area A <b> 11 on which a user's hand is projected is detected on the left side of the touch panel 20 will be described.

S102において否定判断される場合(S102:NO)にはS106へ進み、肯定判断される場合(S102:YES)にはS104へ進む。S104においてCPU11は、オブジェクト画像の表示方向を決定する処理を実行する。オブジェクト画像の表示方向は、位置決め点N1〜N4の各々を基準としたときの、オブジェクト画像O1〜O4を表示させる方向である。具体的には、S102で検出された投影領域に基づいて、指示体がタッチパネル20へ近づいてきた方向である所定方向を決定する。そして、オブジェクト画像の表示方向を、所定方向側に決定する。本実施形態の説明例では、図7に示すように、所定方向は「左方向」である。よってオブジェクト画像の表示方向は、「左方向」に決定される。   When a negative determination is made in S102 (S102: NO), the process proceeds to S106, and when an affirmative determination is made (S102: YES), the process proceeds to S104. In S104, the CPU 11 executes a process for determining the display direction of the object image. The display direction of the object image is a direction in which the object images O1 to O4 are displayed with respect to the positioning points N1 to N4. Specifically, a predetermined direction that is a direction in which the indicator approaches the touch panel 20 is determined based on the projection area detected in S102. Then, the display direction of the object image is determined to the predetermined direction side. In the example of the present embodiment, as shown in FIG. 7, the predetermined direction is “left direction”. Therefore, the display direction of the object image is determined as “left direction”.

S106においてCPU11は、オブジェクト画像O1〜O4を処理画像M1内に表示する。オブジェクト画像は、複数の位置決め点N1〜N4を移動させる移動操作の入力を受け付けるための画像である。オブジェクト画像は、対応する位置決め点の近傍に、範囲指定枠F1の境界線に重複しないように表示される。   In S106, the CPU 11 displays the object images O1 to O4 in the processed image M1. The object image is an image for receiving an input of a moving operation for moving the plurality of positioning points N1 to N4. The object image is displayed in the vicinity of the corresponding positioning point so as not to overlap the boundary line of the range designation frame F1.

ここで、図8を用いて、オブジェクト画像の表示位置を決定する具体的方法を説明する。位置決め点Nを交点とする直交する2本の仮想的な分割線L1およびL2を引く。分割線L1は、処理画像M1の縦の輪郭線と平行な線である。分割線L2は、処理画像M1の横の輪郭線と平行な線である。これにより、位置決め点Nの周囲に4つの分割領域R1〜R4が生成される。そして、4つの分割領域R1〜R4のうちから、境界線Bが含まれていない2つ以上の選択分割領域を選択する。図8の例では、選択分割領域R1およびR3が選択される。   Here, a specific method for determining the display position of the object image will be described with reference to FIG. Two perpendicular virtual dividing lines L1 and L2 having the positioning point N as an intersection are drawn. The dividing line L1 is a line parallel to the vertical contour line of the processed image M1. The dividing line L2 is a line parallel to the horizontal outline of the processed image M1. As a result, four divided regions R1 to R4 are generated around the positioning point N. Then, two or more selected divided regions that do not include the boundary line B are selected from the four divided regions R1 to R4. In the example of FIG. 8, the selected divided regions R1 and R3 are selected.

そして、2つ以上の選択分割領域のうち、S104で決定されたオブジェクト画像の表示方向に対応する領域に、オブジェクト画像を表示させる。図8の例では、例えば、オブジェクト画像の表示方向が「左方向」である場合には、分割線L1の左側の領域である選択分割領域R1にオブジェクト画像を表示させる。一方、オブジェクト画像の表示方向が「右方向」である場合には、分割線L1の右側の領域である選択分割領域R3にオブジェクト画像を表示させる。なお、S102において投影領域が検出されない場合(S102:NO)、予め決められた表示方向(例えば、「右方向」)に対応する領域に、オブジェクト画像を表示させる。   Then, the object image is displayed in an area corresponding to the display direction of the object image determined in S104 among the two or more selected divided areas. In the example of FIG. 8, for example, when the display direction of the object image is “left direction”, the object image is displayed in the selected divided region R1 that is the region on the left side of the dividing line L1. On the other hand, when the display direction of the object image is “right direction”, the object image is displayed in the selected divided region R3 which is the region on the right side of the dividing line L1. If no projection area is detected in S102 (S102: NO), an object image is displayed in an area corresponding to a predetermined display direction (for example, “right direction”).

また、位置決め点Nが90度の頂点である場合には、境界線Bが分割線L1およびL2と重なることになる。この場合は、4つの分割領域R1〜R4の全てが選択分割領域となる。   In addition, when the positioning point N is a vertex of 90 degrees, the boundary line B overlaps the dividing lines L1 and L2. In this case, all of the four divided regions R1 to R4 are selected divided regions.

本実施形態の説明例では、図7に示すように、オブジェクト画像O1〜O4が表示される。オブジェクト画像O1〜O4の各々は、位置決め点N1〜N4の各々に対応している。   In the explanation example of the present embodiment, object images O1 to O4 are displayed as shown in FIG. Each of the object images O1 to O4 corresponds to each of the positioning points N1 to N4.

また図9に、オブジェクト画像O1の拡大図を示す。オブジェクト画像O1は、いわゆる吹き出し図形の形状を備えている。オブジェクト画像O1は、第1領域A1および第2領域A2を備える。第1領域A1は、位置決め点N1を移動させる操作の入力を受け付けるための領域である。第2領域A2は、第1領域A1が位置決め点N1に対応していることを示す領域である。第2領域A2は、第1領域A1よりも狭い幅を有している。第2領域A2の第1端部E1は、第1領域A1に接続されている。第2領域A2の第2端部E2は、位置決め点N1の近傍の位置であって第1領域A1と位置決め点N1との間の位置に配置されている。第2領域A2は境界線Bに重複しない。なお、オブジェクト画像O2〜O4の形状についても、オブジェクト画像O1と同様である。   FIG. 9 shows an enlarged view of the object image O1. The object image O1 has a so-called balloon graphic shape. The object image O1 includes a first area A1 and a second area A2. The first area A1 is an area for receiving an input of an operation for moving the positioning point N1. The second area A2 is an area indicating that the first area A1 corresponds to the positioning point N1. The second area A2 has a narrower width than the first area A1. The first end E1 of the second area A2 is connected to the first area A1. The second end E2 of the second area A2 is located in the vicinity of the positioning point N1 and between the first area A1 and the positioning point N1. The second region A2 does not overlap with the boundary line B. The shape of the object images O2 to O4 is the same as that of the object image O1.

S110においてCPU11は、タッチパネル20の表示領域G2内で第1の指示位置P1が検出されたか否かを判断する。第1の指示位置P1は、表示領域G2内へ指示体が接触した位置である。指示体の一例としては、ユーザの指先や、スタイラスペンが挙げられる。否定判断される場合(S110:NO)にはS110へ戻り、肯定判断される場合(S110:YES)にはS120へ進む。   In S110, the CPU 11 determines whether or not the first designated position P1 is detected in the display area G2 of the touch panel 20. The first indication position P1 is a position where the indicator contacts the display area G2. Examples of the indicator include a user's fingertip and a stylus pen. When a negative determination is made (S110: NO), the process returns to S110, and when an affirmative determination is made (S110: YES), the process proceeds to S120.

S120においてCPU11は、検出された第1の指示位置P1が、オブジェクト画像O1〜O4の何れかの表示領域内であるか否かを判断する。否定判断される場合(S120:NO)には、S125へ進む。   In S120, the CPU 11 determines whether or not the detected first designated position P1 is within any display area of the object images O1 to O4. If a negative determination is made (S120: NO), the process proceeds to S125.

S125においてCPU11は、検出された第1の指示位置P1が、ボタン画像B1およびB2の何れかの表示領域内であるか否かを判断する。否定判断される場合(S125:NO)にはS102へ戻り、肯定判断される場合(S125:YES)にはS130へ進む。   In S125, the CPU 11 determines whether or not the detected first designated position P1 is within one of the display areas of the button images B1 and B2. When a negative determination is made (S125: NO), the process returns to S102, and when an affirmative determination is made (S125: YES), the process proceeds to S130.

S130においてCPU11は、選択されたボタン画像に対応付けられている処理を実行する。ボタン画像B1が選択された場合には、範囲指定枠F1内の所定範囲が、処理対象範囲として決定される。そして、処理対象範囲内の画像に対して、各種の画像処理が行われる。画像処理は、例えば、処理対象範囲内の画像をトリミングする処理であってもよい。また、処理対象範囲内の画像が台形である場合に、長方形に補正する台形補正処理であってもよい。書類やホワイトボードなど長方形であるべき物体を斜めから撮影した場合に、撮影画像が台形に歪んでしまう場合がある。台形補正処理は、この台形に歪んだ画像を元の長方形に戻すことができる処理である。また、処理対象範囲内の画像を画像認識し、文字を認識して文字データを生成してもよい。そしてフローを終了する。   In S130, the CPU 11 executes a process associated with the selected button image. When the button image B1 is selected, the predetermined range in the range designation frame F1 is determined as the processing target range. Various image processes are performed on the image within the processing target range. The image processing may be, for example, processing for trimming an image within the processing target range. Further, when the image within the processing target range is a trapezoid, it may be a trapezoid correction process for correcting the image to a rectangle. When an object that should be rectangular, such as a document or a whiteboard, is photographed from an oblique direction, the photographed image may be distorted into a trapezoid. The trapezoidal correction process is a process that can return an image distorted to this trapezoid to the original rectangle. Alternatively, the image data may be generated by recognizing an image within the processing target range and recognizing the character. Then, the flow ends.

また、S130においてボタン画像B2が選択された場合には、キャンセル処理が実行される。キャンセル処理では、例えば、画像処理アプリケーション32が終了されてもよい。   Further, when the button image B2 is selected in S130, a cancel process is executed. In the cancel process, for example, the image processing application 32 may be terminated.

一方、S120において肯定判断される場合(S120:YES)には、オブジェクト画像O1〜O4のうちの何れか1つが、選択オブジェクト画像として選択された場合であると判断され、S140へ進む。   On the other hand, when a positive determination is made in S120 (S120: YES), it is determined that any one of the object images O1 to O4 is selected as the selected object image, and the process proceeds to S140.

(オブジェクト画像の移動中における表示処理)
S140〜S180では、オブジェクト画像の移動表示処理を説明する。移動表示処理は、指示体でタッチされた選択オブジェクト画像をドラッグ操作により移動させている期間中に実行される処理である。
(Display processing while moving the object image)
In S140 to S180, the object image moving display process will be described. The moving display process is a process executed during a period in which the selected object image touched with the indicator is moved by a drag operation.

S140においてCPU11は、選択オブジェクト画像を移動させる操作が入力されたか否かを判断する。具体的には、第1の指示位置の移動が検出されたかを判断する。例えば、指示体が選択オブジェクト画像に接触した状態を維持しながら、タッチパネル20表面上を移動する場合に、S140において肯定判断される。否定判断される場合(S140:NO)にはS190へ進み、肯定判断される場合(S140:YES)にはS150へ進む。   In S140, the CPU 11 determines whether an operation for moving the selected object image has been input. Specifically, it is determined whether the movement of the first designated position is detected. For example, when the indicator moves on the surface of the touch panel 20 while maintaining the state in which the indicator is in contact with the selected object image, an affirmative determination is made in S140. When a negative determination is made (S140: NO), the process proceeds to S190, and when an affirmative determination is made (S140: YES), the process proceeds to S150.

本実施形態の説明例では、図10に示すように、オブジェクト画像O1が選択オブジェクト画像とされる場合を説明する。この説明例では、オブジェクト画像O1内で第1の指示位置P1が検出され、第1の指示位置P1aまで移動する場合を説明する(矢印Y11参照)。この場合、S140で肯定判断される。   In the explanation example of this embodiment, as shown in FIG. 10, a case where the object image O1 is a selected object image will be described. In this example, the case where the first designated position P1 is detected in the object image O1 and moved to the first designated position P1a will be described (see arrow Y11). In this case, a positive determination is made in S140.

S150においてCPU11は、移動後の第1の指示位置に、選択オブジェクト画像の表示位置を移動する。本実施形態の説明例では図11に示すように、移動後の第1の指示位置P1aに、選択オブジェクト画像O1が移動する。   In S150, the CPU 11 moves the display position of the selected object image to the first designated position after the movement. In the example of the present embodiment, as shown in FIG. 11, the selected object image O1 moves to the first designated position P1a after movement.

S155においてCPU11は、選択位置決め点の移動後の位置を決定する。選択位置決め点は、選択オブジェクト画像に対応する位置決め点である。具体的には、選択位置決め点N1の表示位置を、移動後の第1の指示位置P1aの近傍に決定する。本実施形態の説明例では、図11に示すように、移動後の第1の指示位置P1aの近傍に、移動後の選択位置決め点N1aを決定する。   In S155, the CPU 11 determines the position after the movement of the selected positioning point. The selected positioning point is a positioning point corresponding to the selected object image. Specifically, the display position of the selected positioning point N1 is determined in the vicinity of the first designated position P1a after the movement. In the example of this embodiment, as shown in FIG. 11, the selected positioning point N1a after the movement is determined in the vicinity of the first designated position P1a after the movement.

S160においてCPU11は、移動後の位置決め点に従って、境界線Bを再表示する。これにより、範囲指定枠F1の形状が、図10の形状から図11の形状に変化する。   In S160, the CPU 11 redisplays the boundary line B in accordance with the moved positioning point. As a result, the shape of the range specification frame F1 changes from the shape of FIG. 10 to the shape of FIG.

S170においてCPU11は、選択オブジェクト画像との距離が予め定められた第2所定距離T2以内となる、移動対象オブジェクト画像が存在するか否かについて判断する。否定判断される場合(S170:NO)にはS190へ進み、肯定判断される場合(S170:YES)にはS175へ進む。本実施形態の説明例では、図11に示すように、選択オブジェクト画像O1とオブジェクト画像O2の距離K1が、第2所定距離T2以内となる場合を説明する。よってオブジェクト画像O2が、移動対象オブジェクト画像であると判断される。   In S <b> 170, the CPU 11 determines whether there is a moving target object image whose distance from the selected object image is within a predetermined second predetermined distance T <b> 2. When a negative determination is made (S170: NO), the process proceeds to S190, and when an affirmative determination is made (S170: YES), the process proceeds to S175. In the explanation example of the present embodiment, as shown in FIG. 11, the case where the distance K1 between the selected object image O1 and the object image O2 is within the second predetermined distance T2 will be described. Therefore, it is determined that the object image O2 is a movement target object image.

S175においてCPU11は、移動対象オブジェクト画像の移動後の位置を決定する。具体的には、移動対象オブジェクト画像から第2所定距離T2の範囲内に選択オブジェクト画像が存在せず、かつ、移動対象オブジェクト画像が境界線に重複しないように、移動対象オブジェクト画像の移動後の位置を決定する。S180においてCPU11は、移動対象オブジェクト画像を、S175で決定された表示位置へ移動させる。   In S175, the CPU 11 determines the position after the movement of the movement target object image. Specifically, the selected object image does not exist within the range of the second predetermined distance T2 from the movement target object image, and the movement target object image is moved so that the movement target object image does not overlap the boundary line. Determine the position. In S180, the CPU 11 moves the movement target object image to the display position determined in S175.

本実施形態の説明例では、移動対象オブジェクト画像O2の表示位置が、図11の位置から図12の位置へ移動する。   In the example of the present embodiment, the display position of the movement target object image O2 moves from the position shown in FIG. 11 to the position shown in FIG.

(オブジェクト画像の移動完了後における表示処理)
S190〜S270では、選択オブジェクト画像の移動が完了した後に実行される、表示処理を説明する。S190においてCPU11は、S110で検出された第1の指示位置が、検出されなくなったか否かを判断する。否定判断される場合(S190:NO)にはS140へ戻り、肯定判断される場合(S190:YES)にはS200へ進む。
(Display processing after completion of movement of object image)
In S190 to S270, a display process executed after the movement of the selected object image is completed will be described. In S190, the CPU 11 determines whether or not the first designated position detected in S110 is no longer detected. If a negative determination is made (S190: NO), the process returns to S140. If an affirmative determination is made (S190: YES), the process proceeds to S200.

S200においてCPU11は、第2の指示位置を決定する。第2の指示位置は、選択オブジェクト画像の移動後の位置を示す位置である。例えば、指示体が選択オブジェクト画像に接触した状態を維持しながら、タッチパネル20表面上を移動し、その後に指示体がタッチパネル20表面から離反した場合に、その離反位置が第2の指示位置として決定される。すなわち、いわゆるドラッグ操作により、第2の指示位置が決定される。   In S200, the CPU 11 determines the second designated position. The second designated position is a position indicating the position after the selected object image is moved. For example, when the indicator moves on the surface of the touch panel 20 while maintaining the state in contact with the selected object image, and then the indicator moves away from the surface of the touch panel 20, the separation position is determined as the second indication position. Is done. That is, the second designated position is determined by a so-called drag operation.

本実施形態の説明例では、図13に示すように、オブジェクト画像O1が選択オブジェクト画像とされる場合を説明する。この説明例では、オブジェクト画像O1内で第1の指示位置P1が検出され、その後第2の指示位置P2が決定される場合を説明する。   In the description example of the present embodiment, a case will be described in which the object image O1 is a selected object image as shown in FIG. In this explanation example, a case will be described in which the first designated position P1 is detected in the object image O1, and then the second designated position P2 is determined.

S205においてCPU11は、選択オブジェクト画像の表示位置を、第2の指示位置P2に、仮想的に決定する。「表示位置を仮想的に決定する」とは、実際には第2の指示位置P2には選択オブジェクト画像が表示されないことを意味する。すなわち、CPU11の内部処理的に、第2の指示位置P2に選択オブジェクト画像を表示したものとして、以後の処理を実行する。本実施形態の説明例では図13に示すように、第2の指示位置P2に、選択オブジェクト画像O1の位置が仮想的に決定される。   In S205, the CPU 11 virtually determines the display position of the selected object image as the second designated position P2. “Virtually determining the display position” means that the selected object image is not actually displayed at the second designated position P2. That is, in the internal processing of the CPU 11, the subsequent processing is executed assuming that the selected object image is displayed at the second designated position P2. In the example of the present embodiment, as shown in FIG. 13, the position of the selected object image O1 is virtually determined at the second designated position P2.

S210においてCPU11は、選択位置決め点の移動後の位置を決定する。選択位置決め点は、選択オブジェクト画像に対応する位置決め点である。具体的には、選択位置決め点の表示位置を、S200で決定した第2の指示位置の近傍に決定する。本実施形態の説明例では、図13に示すように、第2の指示位置P2の近傍に、移動後の選択位置決め点N1bを決定する。S215においてCPU11は、移動後の位置決め点に従って、境界線Bを再表示する。これにより、範囲指定枠F1の形状が、図13の形状から図14の形状に変化する。   In S210, the CPU 11 determines the position after the movement of the selected positioning point. The selected positioning point is a positioning point corresponding to the selected object image. Specifically, the display position of the selected positioning point is determined in the vicinity of the second designated position determined in S200. In the example of this embodiment, as shown in FIG. 13, the selected positioning point N1b after the movement is determined in the vicinity of the second designated position P2. In S215, the CPU 11 redisplays the boundary line B according to the positioning point after the movement. As a result, the shape of the range designation frame F1 changes from the shape of FIG. 13 to the shape of FIG.

S220においてCPU11は、S205で仮想的に表示位置が決定された選択オブジェクト画像の少なくとも一部が、禁止領域R11に重複しているか否かを判断する。否定判断される場合には、S222へ進む。S222においてCPU11は、S205で仮想的に決定された選択オブジェクト画像の表示位置を、実際の表示位置として確定する。そしてS230へ進む。   In S220, the CPU 11 determines whether or not at least a part of the selected object image whose display position is virtually determined in S205 overlaps the prohibited area R11. If a negative determination is made, the process proceeds to S222. In S222, the CPU 11 determines the display position of the selected object image virtually determined in S205 as the actual display position. Then, the process proceeds to S230.

一方、S220において肯定判断される場合(S220:YES)には、S225へ進む。S225においてCPU11は、選択オブジェクト画像の表示位置を、S205で仮想的に決定された位置から変更する。このとき、選択オブジェクト画像の全領域が禁止領域R11に重複しないように、選択オブジェクト画像の表示位置を決定する。そしてS230へ進む。S230においてCPU11は、選択オブジェクト画像を、S222またはS225で決定された表示位置へ表示させる。   On the other hand, when a positive determination is made in S220 (S220: YES), the process proceeds to S225. In S225, the CPU 11 changes the display position of the selected object image from the position virtually determined in S205. At this time, the display position of the selected object image is determined so that the entire area of the selected object image does not overlap the prohibited area R11. Then, the process proceeds to S230. In S230, the CPU 11 displays the selected object image at the display position determined in S222 or S225.

本実施形態の説明例では図14に示すように、仮想的に表示位置が決定された選択オブジェクト画像O1の一部が、禁止領域R11に重複している(S220:YES)。従ってS225において、選択オブジェクト画像O1の全領域が禁止領域R11に重複しないように、選択オブジェクト画像の表示位置が決定される。そしてS230において、図15に示すように、選択オブジェクト画像O1が表示される。   In the explanation example of the present embodiment, as shown in FIG. 14, a part of the selected object image O1 whose display position is virtually determined overlaps the prohibited area R11 (S220: YES). Accordingly, in S225, the display position of the selected object image is determined so that the entire area of the selected object image O1 does not overlap the prohibited area R11. In S230, the selected object image O1 is displayed as shown in FIG.

S240〜S250では、重複オブジェクト画像を移動させる処理が行われる。S240においてCPU11は、オブジェクト画像O1〜O4のうちに、重複オブジェクト画像が存在しているか否かを判断する。重複オブジェクト画像とは、他のオブジェクト画像または境界線と、その一部が重複しているオブジェクト画像である。否定判断される場合(S240:NO)にはS260へ進み、肯定判断される場合(S240:YES)にはS245へ進む。   In S240 to S250, processing for moving the duplicate object image is performed. In S240, the CPU 11 determines whether or not a duplicate object image exists among the object images O1 to O4. An overlapping object image is an object image that partially overlaps another object image or boundary line. When a negative determination is made (S240: NO), the process proceeds to S260, and when an affirmative determination is made (S240: YES), the process proceeds to S245.

S245においてCPU11は、重複オブジェクト画像の表示位置を変更する。重複オブジェクト画像の変更後の表示位置は、重複オブジェクト画像が禁止領域R11の範囲外に位置し、かつ、境界線Bに重複しないように決定される。S250においてCPU11は、重複オブジェクト画像を、S245で決定された表示位置へ表示させる。   In S245, the CPU 11 changes the display position of the overlapping object image. The display position after the overlapping object image is changed is determined so that the overlapping object image is located outside the range of the prohibited region R11 and does not overlap the boundary line B. In S250, the CPU 11 displays the overlapping object image at the display position determined in S245.

本実施形態の説明例では、図17の矢印Y1に示すように、位置決め点N1が位置決め点N1cまで移動した場合についての処理例を説明する。この場合、S240において、境界線Bと重複する重複オブジェクト画像O2が存在していると判断される(S240:YES)。従ってS245において、重複オブジェクト画像O2の表示位置が、境界線Bに重複しない位置に変更される。そして重複オブジェクト画像O2の表示位置が、図16の位置から図17の位置へ変更される。   In the explanation example of the present embodiment, as shown by the arrow Y1 in FIG. 17, a processing example in the case where the positioning point N1 has moved to the positioning point N1c will be described. In this case, in S240, it is determined that there is an overlapping object image O2 that overlaps the boundary line B (S240: YES). Accordingly, in S245, the display position of the overlapping object image O2 is changed to a position that does not overlap the boundary line B. Then, the display position of the overlapping object image O2 is changed from the position of FIG. 16 to the position of FIG.

S260〜S270では、鋭角オブジェクト画像を移動させる処理が行われる。S260においてCPU11は、オブジェクト画像O1〜O4のうちに、鋭角オブジェクト画像が存在しているか否かを判断する。鋭角オブジェクト画像とは、範囲指定枠F1の範囲内に表示されているオブジェクト画像である。また、鋭角の頂点に位置する位置決め点に対する移動操作の入力を受け付けるための、オブジェクト画像である。否定判断される場合(S260:NO)にはS102へ戻り、肯定判断される場合(S260:YES)にはS265へ進む。   In S260 to S270, a process of moving the acute angle object image is performed. In S260, the CPU 11 determines whether or not an acute angle object image exists among the object images O1 to O4. The acute angle object image is an object image displayed within the range of the range designation frame F1. In addition, it is an object image for receiving an input of a movement operation for a positioning point located at an acute vertex. If a negative determination is made (S260: NO), the process returns to S102, and if an affirmative determination is made (S260: YES), the process proceeds to S265.

S265においてCPU11は、鋭角オブジェクト画像の表示位置を変更する。鋭角オブジェクト画像の変更後の表示位置は、鋭角オブジェクト画像が範囲指定枠F1の範囲外に位置し、かつ、境界線Bに重複しないように、決定される。S270においてCPU11は、鋭角オブジェクト画像を、S265で決定された表示位置へ表示させる。   In S265, the CPU 11 changes the display position of the acute angle object image. The display position after the change of the acute angle object image is determined such that the acute angle object image is located outside the range designation frame F1 and does not overlap the boundary line B. In S270, the CPU 11 displays the acute angle object image at the display position determined in S265.

本実施形態の説明例では、図18の矢印Y2に示すように、位置決め点N1が位置決め点N1cまで移動した場合についての処理例を説明する。この場合、S260において、鋭角オブジェクト画像O2が存在していると判断される(S260:YES)。従ってS265において、鋭角オブジェクト画像O2の表示位置が、境界線Bに重複しない位置に変更される。そして重複オブジェクト画像O2の表示位置が、図18の位置から図17の位置へ変更される。   In the explanation example of the present embodiment, as shown by the arrow Y2 in FIG. 18, a processing example in the case where the positioning point N1 has moved to the positioning point N1c will be described. In this case, in S260, it is determined that the acute angle object image O2 exists (S260: YES). Therefore, in S265, the display position of the acute angle object image O2 is changed to a position that does not overlap the boundary line B. Then, the display position of the overlapping object image O2 is changed from the position in FIG. 18 to the position in FIG.

<効果>
図7に示すように、複数の位置決め点N1〜N4、および、範囲指定枠F1を構成する境界線Bに重複しないように、複数のオブジェクト画像O1〜O4を表示させることができる。これにより、選択位置決め点を移動させるために選択オブジェクト画像を指示体でタッチした場合においても、選択位置決め点自身や、選択位置決め点に接続されている境界線Bが、指示体によって隠されてしまうことがない。範囲指定枠F1の形状を正確に決定することが可能となる。
<Effect>
As shown in FIG. 7, a plurality of object images O1 to O4 can be displayed so as not to overlap a plurality of positioning points N1 to N4 and a boundary line B that constitutes the range designation frame F1. As a result, even when the selected object image is touched with an indicator to move the selected positioning point, the selected positioning point itself or the boundary line B connected to the selected positioning point is hidden by the indicator. There is nothing. It becomes possible to accurately determine the shape of the range designation frame F1.

例えば図14に示すように、オブジェクト画像O1が処理画像M1の左側の枠線の極近傍に位置している場合を想定する。この場合、オブジェクト画像O1は、枠線を超えて左側に移動することができないため、位置決め点N1をこれ以上左側に移動させることができない。すなわち、位置決め点N1を、処理画像M1の左辺の枠線上まで移動させることができない。本明細書の技術によれば、図15に示すように、オブジェクト画像の少なくとも一部が禁止領域R11に重複することがないように、オブジェクト画像を表示することができる(S225、S230)。これにより、オブジェクト画像が、処理画像M1の枠線の近傍に表示されることがない。従って、オブジェクト画像の移動が、処理画像M1の枠線によって制限されてしまうことがない。以上より、位置決め点N1〜N4を、処理画像M1の枠線上まで移動させることが可能となる。   For example, as shown in FIG. 14, it is assumed that the object image O1 is located in the immediate vicinity of the left frame line of the processed image M1. In this case, since the object image O1 cannot move to the left side beyond the frame line, the positioning point N1 cannot be moved further to the left side. That is, the positioning point N1 cannot be moved to the left side border line of the processed image M1. According to the technique of the present specification, as shown in FIG. 15, the object image can be displayed so that at least a part of the object image does not overlap the prohibited region R11 (S225, S230). As a result, the object image is not displayed near the frame line of the processed image M1. Therefore, the movement of the object image is not limited by the frame line of the processed image M1. As described above, the positioning points N1 to N4 can be moved to the frame line of the processed image M1.

例えば図16の矢印Y1に示すように、範囲指定枠F1を変形させる場合には、境界線Bと重複する重複オブジェクト画像O2が発生してしまう場合がある。この場合、重複オブジェクト画像O2を選択しようとすると必ず指示体により境界線Bが隠れてしまう。その結果、操作入力性が低下してしまう。本明細書の技術によれば、重複オブジェクト画像O2が発生した場合(S240:YES)には、図17に示すように、重複オブジェクト画像O2の表示位置を、境界線Bに重複しない位置に変更することができる(S245、S250)。これにより、重複オブジェクト画像O2の操作入力性が低下してしまうことを防止することが可能となる。   For example, as shown by an arrow Y1 in FIG. 16, when the range designation frame F1 is deformed, an overlapping object image O2 that overlaps the boundary line B may occur. In this case, the boundary line B is always hidden by the indicator when trying to select the overlapping object image O2. As a result, the operation input performance is degraded. According to the technique of this specification, when the overlapping object image O2 occurs (S240: YES), the display position of the overlapping object image O2 is changed to a position that does not overlap the boundary line B as shown in FIG. (S245, S250). Thereby, it becomes possible to prevent the operation input property of the overlapping object image O2 from being deteriorated.

例えば図18の矢印Y2に示すように、範囲指定枠F1を変形させる場合には、位置決め点N2を頂点として境界線Bが鋭角を形成している領域に、鋭角オブジェクト画像O2が発生してしまう場合がある。境界線Bが鋭角を形成している場合には、境界線Bが鈍角を形成している場合に比して、鋭角オブジェクト画像O2と境界線Bとの距離が近くなってしまう。よって、鋭角オブジェクト画像O2をタッチする際に、鋭角オブジェクト画像O2近傍の境界線Bが指示体によって隠れてしまう事態が発生しやすい。鋭角オブジェクト画像O2の操作入力性が低下してしまう。本明細書の技術によれば、鋭角オブジェクト画像O2が発生した場合(S260:YES)には、図17に示すように、鋭角オブジェクト画像O2の表示位置を、鋭角な境界線Bに挟まれた領域の外に変更することができる(S265、S270)。これにより、鋭角オブジェクト画像O2の操作入力性が低下してしまうことを防止することが可能となる。   For example, as shown by the arrow Y2 in FIG. 18, when the range designation frame F1 is deformed, the acute angle object image O2 is generated in the region where the boundary line B forms an acute angle with the positioning point N2 as the vertex. There is a case. When the boundary line B forms an acute angle, the distance between the acute angle object image O2 and the boundary line B becomes shorter than when the boundary line B forms an obtuse angle. Therefore, when the acute angle object image O2 is touched, the boundary line B near the acute angle object image O2 is likely to be hidden by the indicator. The operation input property of the acute angle object image O2 is deteriorated. According to the technique of the present specification, when the acute angle object image O2 is generated (S260: YES), the display position of the acute angle object image O2 is sandwiched between the acute boundary lines B as shown in FIG. The area can be changed outside the area (S265, S270). Thereby, it becomes possible to prevent the operation input property of the acute angle object image O2 from being deteriorated.

図8に示すように、位置決め点Nの周囲に4つの分割領域R1〜R4を形成し、境界線Bが含まれていない分割領域の領域内にオブジェクト画像を表示させることができる(S106)。これにより、境界線Bに重複しない適切な位置に、オブジェクト画像を表示させることが可能となる。   As shown in FIG. 8, four divided areas R1 to R4 are formed around the positioning point N, and an object image can be displayed in the area of the divided area not including the boundary line B (S106). As a result, the object image can be displayed at an appropriate position that does not overlap the boundary line B.

投影領域を検出することによって、指示体がタッチパネル20の上下左右方向の何れから到来してきたかを示す所定方向を判断することができる(S102)。そして、位置決め点を基準とした所定方向側に、オブジェクト画像を表示することができる(S106)。これにより、選択位置決め点を移動させるために選択オブジェクト画像を指示体でタッチした場合においても、選択位置決め点自身や、選択位置決め点に接続されている境界線Bが、指示体によって隠されてしまうことがない。また、S102において、所定方向を毎回検出している。従って、ユーザが情報処理装置10を持つ手を持ち替える場合など、タッチパネルへ指示体を近づける方向が頻繁に変更される場合においても、選択位置決め点や境界線Bが、指示体によって隠されないようにすることが可能となる。   By detecting the projection area, it is possible to determine a predetermined direction indicating from which of the up, down, left and right directions of the touch panel 20 the indicator has come (S102). Then, the object image can be displayed on the predetermined direction side with the positioning point as a reference (S106). As a result, even when the selected object image is touched with an indicator to move the selected positioning point, the selected positioning point itself or the boundary line B connected to the selected positioning point is hidden by the indicator. There is nothing. In S102, the predetermined direction is detected every time. Therefore, even when the direction in which the indicator is brought close to the touch panel is frequently changed, such as when the user changes the hand holding the information processing apparatus 10, the selected positioning point and the boundary line B are not hidden by the indicator. It becomes possible.

選択オブジェクト画像が移動することによって他のオブジェクト画像に重なりそうになる場合(S170:YES)には、当該他のオブジェクト画像を選択オブジェクト画像から離すように移動させることができる(S175、S180)。これにより、他のオブジェクト画像が、誤ってタッチされてしまうことがない。   When the selected object image is likely to overlap another object image due to movement (S170: YES), the other object image can be moved away from the selected object image (S175, S180). This prevents other object images from being touched by mistake.

図9に示すように、オブジェクト画像を、いわゆる吹き出し図形の形状とすることができる。これにより、境界線や位置決め点と重複しないようにオブジェクト画像を表示する場合においても、オブジェクト画像が対応している位置決め点を、ユーザに明確に認識させることができる。   As shown in FIG. 9, the object image can have a so-called balloon graphic shape. Accordingly, even when the object image is displayed so as not to overlap with the boundary line or the positioning point, the user can clearly recognize the positioning point corresponding to the object image.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。上記の実施例の変形例を以下に列挙する。   Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. The modifications of the above embodiment are listed below.

<第1変形例>
オブジェクト画像の表示方向を決定する方法は、S102で投影領域を検出する方法に限られず、各種の方法を用いることが可能である。例えば、タッチパネル20の右側から指示体を近接させる第1態様と、表示部の左側から指示体を近接させる第2態様と、の何れを用いるかについてのユーザによる選択を、予め受け付けるとしてもよい。そして、選択結果を示す設定情報を、記憶部12に記憶させてもよい。CPU11は、S102で投影領域を検出することなく、オブジェクト画像の表示方向を決定する処理(S104)を実行するとしてもよい。S104の処理では、第1態様が選択されていることを設定情報が示している場合には、位置決め点を基準としたときの「右方向」を、オブジェクト画像の表示方向として決定する。一方、第2態様が選択されていることを設定情報が示している場合には、位置決め点を基準としたときの「左方向」を、オブジェクト画像の表示方向として決定する。
<First Modification>
The method of determining the display direction of the object image is not limited to the method of detecting the projection area in S102, and various methods can be used. For example, the selection by the user as to which of the first mode in which the indicator is brought closer from the right side of the touch panel 20 and the second mode in which the pointer is brought closer from the left side of the display unit may be accepted. Then, setting information indicating the selection result may be stored in the storage unit 12. The CPU 11 may execute the process of determining the display direction of the object image (S104) without detecting the projection area in S102. In the process of S104, when the setting information indicates that the first mode is selected, the “right direction” with respect to the positioning point is determined as the display direction of the object image. On the other hand, when the setting information indicates that the second mode is selected, the “left direction” with respect to the positioning point is determined as the display direction of the object image.

これにより、ユーザが操作入力する手が右手か左手かに応じて、オブジェクト画像の表示位置を適切に設定することができる。従って、選択位置決め点自身や、選択位置決め点に接続されている境界線Bが、指示体によって隠されてしまうことがない。   As a result, the display position of the object image can be appropriately set according to whether the user's operation input is the right hand or the left hand. Therefore, the selected positioning point itself and the boundary line B connected to the selected positioning point are not hidden by the indicator.

<第2変形例>
移動対象オブジェクト画像が存在すると判断された場合(S170:YES)に、移動対象オブジェクト画像を非表示にしてもよい。そして、移動対象オブジェクト画像が非表示とされた後に、第2の指示位置が検出された場合(S200)には、移動対象オブジェクト画像を再表示するとしてもよい。これにより、選択オブジェクト画像が移動することによって他のオブジェクト画像に重なりそうになる場合には、当該他のオブジェクト画像を表示させないようにすることができる。従って、他のオブジェクト画像が、誤ってタッチされてしまうことがない。
<Second Modification>
When it is determined that the movement target object image exists (S170: YES), the movement target object image may be hidden. Then, when the second designated position is detected after the movement target object image is not displayed (S200), the movement target object image may be displayed again. Thereby, when the selected object image is likely to overlap another object image due to movement, the other object image can be prevented from being displayed. Therefore, no other object image is touched by mistake.

<第3変形例>
選択オブジェクト画像の表示範囲内で第1の指示位置P1が検出された場合(S120:YES)に、選択オブジェクト画像以外の他のオブジェクト画像の全てを非表示にしてもよい。この場合、図3のS170〜180の処理を実行する必要が無い。そして、他のオブジェクト画像の全てが非表示とされた後に、第2の指示位置が検出された場合(S200)には、他のオブジェクト画像の全てを再表示するとしてもよい。これにより、選択オブジェクト画像に移動操作が入力されている期間中において、他のオブジェクト画像を表示させないようにすることができる。従って、他のオブジェクト画像が、誤ってタッチされてしまうことがない。
<Third Modification>
When the first designated position P1 is detected within the display range of the selected object image (S120: YES), all other object images other than the selected object image may be hidden. In this case, it is not necessary to execute the processes of S170 to S180 in FIG. Then, when the second designated position is detected after all the other object images are hidden (S200), all the other object images may be redisplayed. Accordingly, it is possible to prevent other object images from being displayed during a period in which a movement operation is input to the selected object image. Therefore, no other object image is touched by mistake.

<第4変形例>
例えば図14に示すように、オブジェクト画像O1が処理画像M1の左側の枠線の極近傍に位置している場合において、オブジェクト画像O1を、枠線を超えたさらに左側に移動させる場合を想定する。この場合に、処理画像M1をスクロール表示することによって、オブジェクト画像O1を枠線を超えた左側に移動可能としてもよい。図19を用いて、スクロール表示の一例を説明する。表示領域G2には、表示枠C1が表示されている。オブジェクト画像O1を、矢印Y21に示すように、処理画像M1の左側の枠線を超えて左側へ移動させる。このとき、枠線を超えて移動した距離分だけ、処理画像M1が表示枠C1の右側へ移動するようにスクロール表示が行われる。なお、処理画像M1のうち、表示枠C1からはみ出た領域は、表示領域G2内には表示されない。そして移動後のオブジェクト画像O1aが、スクロール表示により新たに表示された余白領域R21に表示される。これにより、オブジェクト画像の移動が、処理画像M1の枠線によって制限されてしまうことがない。以上より、位置決め点を、処理画像M1の枠線上まで移動させることが可能となる。
<Fourth Modification>
For example, as shown in FIG. 14, in the case where the object image O1 is located in the immediate vicinity of the left frame line of the processed image M1, it is assumed that the object image O1 is moved further to the left beyond the frame line. . In this case, the object image O1 may be moved to the left beyond the frame line by scrolling the processed image M1. An example of scroll display will be described with reference to FIG. A display frame C1 is displayed in the display area G2. The object image O1 is moved to the left beyond the left frame line of the processed image M1, as indicated by an arrow Y21. At this time, scroll display is performed so that the processed image M1 moves to the right side of the display frame C1 by the distance moved beyond the frame line. In addition, the area | region which protruded from the display frame C1 among the process images M1 is not displayed in the display area G2. The moved object image O1a is displayed in the newly displayed blank area R21 by scroll display. Thereby, the movement of the object image is not limited by the frame line of the processed image M1. As described above, the positioning point can be moved to the frame line of the processed image M1.

<第5変形例>
指示体がタッチパネル20へのタッチを開始してから終了するまでの接触強度を、接触強度センサ22で監視してもよい。そして、接触強度の出力値があらかじめ決められた閾値を超えた時点における指示体の位置を、第2の指示位置として決定してもよい。この場合、選択オブジェクト画像にドラッグ操作を入力することで、選択オブジェクト画像を移動させることができる。そして、選択オブジェクト画像を強く押し込むように接触力を高めることで、選択オブジェクト画像の移動後の位置を決定することができる。
<Fifth Modification>
The contact strength sensor 22 may monitor the contact strength from when the indicator starts touching the touch panel 20 until it ends. Then, the position of the indicator at the time when the output value of the contact strength exceeds a predetermined threshold value may be determined as the second indication position. In this case, the selected object image can be moved by inputting a drag operation to the selected object image. And the position after the movement of a selection object image can be determined by raising contact force so that a selection object image may be pushed in strongly.

指示体がタッチパネル20へのタッチを開始してから終了するまでの接触強度を、接触強度センサ22で監視してもよい。そして、接触強度の出力値があらかじめ決められた閾値を超えた時点における指示体の位置を、第2の指示位置として決定してもよい。この場合、選択オブジェクト画像にドラッグ操作を入力することで、選択オブジェクト画像を移動させることができる。そして、選択オブジェクト画像を強く押し込むように接触力を高めることで、選択オブジェクト画像の移動後の位置を決定することができる。   The contact strength sensor 22 may monitor the contact strength from when the indicator starts touching the touch panel 20 until it ends. Then, the position of the indicator at the time when the output value of the contact strength exceeds a predetermined threshold value may be determined as the second indication position. In this case, the selected object image can be moved by inputting a drag operation to the selected object image. And the position after the movement of a selection object image can be determined by raising contact force so that a selection object image may be pushed in strongly.

<その他の変形例>
禁止領域R11の設定方法は、各種の方法であってよい。例えば、タッチパネル20の枠線から第1所定距離T1内の領域を、禁止領域R11としてもよい。
<Other variations>
Various methods may be used for setting the prohibited region R11. For example, a region within the first predetermined distance T1 from the frame line of the touch panel 20 may be set as the prohibited region R11.

範囲指定枠F1が四角形である場合を説明したが、この形態に限られない。J角形(Jは3以上の自然数)であってもよい。この場合、J個の位置決め点およびオブジェクト画像が、処理画像M1内に表示されることになる。また範囲指定枠F1の形状は、多角形に限られず、少なくとも一部に曲線を備えた形状であってもよい。例えば、円形や楕円形であってもよい。   Although the case where the range designation frame F1 is a rectangle has been described, the present invention is not limited to this form. It may be a J square (J is a natural number of 3 or more). In this case, J positioning points and object images are displayed in the processed image M1. Further, the shape of the range designation frame F1 is not limited to a polygon, and may be a shape provided with a curve at least partially. For example, it may be circular or elliptical.

位置決め点の表示位置は、範囲指定枠F1の各頂点に限られない。境界線の線上に表示されるとしても、本発明の技術を適用することが可能である。   The display position of the positioning point is not limited to each vertex of the range designation frame F1. Even if displayed on the boundary line, the technique of the present invention can be applied.

S102において、投影領域を検出する方法は、様々な態様であってよい。例えば、パネル18の画素が光受信素子として機能してもよい。これにより、パネル18が受光部としても機能する。よって、投影領域をパネル18で検出することができる。また例えば、座標検出部19が、高感度の静電容量型のセンサであってもよい。これにより、投影領域を座標検出部19で検出することができる。   In S102, the method of detecting the projection area may be various modes. For example, the pixel of the panel 18 may function as a light receiving element. Thereby, the panel 18 also functions as a light receiving unit. Therefore, the projection area can be detected by the panel 18. For example, the coordinate detection unit 19 may be a high-sensitivity capacitive sensor. Thereby, the projection area can be detected by the coordinate detection unit 19.

第1の指示位置P1や第2の指示位置P2は、指示体がタッチパネル20表面に接触した場合に検出されるのみならず、近接した場合に検出されてもよい。   The first designated position P1 and the second designated position P2 may be detected not only when the indicator is in contact with the surface of the touch panel 20, but also when the indicator is close.

図5〜図19に示した表示画面の表示態様は一例であり、他の表示態様を用いることも可能である。   The display modes of the display screens shown in FIGS. 5 to 19 are examples, and other display modes can also be used.

また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。   The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

パネル18は、表示部の一例である。CPU11は、コンピュータの一例である。画像処理アプリケーション32は、プログラムの一例である。S100を実行するCPU11は、第1表示処理の一例である。S106を実行するCPU11は、第2表示処理の一例である。S120を実行するCPU11は、第1検出処理の一例である。S200を実行するCPU11は、第2検出処理の一例である。S210を実行するCPU11は、第1位置決め処理の一例である。S215を実行するCPU11は、第3表示処理の一例である。S222、S225を実行するCPU11は、第2位置決め処理の一例である。S230を実行するCPU11は、第4表示処理の一例である。禁止領域R11は、特定領域の一例である。S220を実行するCPU11は、第1判断処理の一例である。S240を実行するCPU11は、第2判断処理の一例である。S245を実行するCPU11は、第3位置決め処理の一例である。S250を実行するCPU11は、第5表示処理の一例である。鋭角オブジェクト画像は、第2オブジェクト画像の一例である。S265を実行するCPU11は、第4位置決め処理の一例である。S270を実行するCPU11は、第6表示処理の一例である。前面カメラ14は、検出部の一例である。S102を実行するCPU11は、第3検出処理の一例である。S104を実行するCPU11は、方向決定処理の一例である。移動対象オブジェクト画像は、第3オブジェクト画像の一例である。S170を実行するCPU11は、第4判断処理の一例である。S175を実行するCPU11は、第5位置決め処理の一例である。S180を実行するCPU11は、第7表示処理の一例である。S170を実行するCPU11は、第4判断処理の一例である。   The panel 18 is an example of a display unit. The CPU 11 is an example of a computer. The image processing application 32 is an example of a program. The CPU 11 that executes S100 is an example of a first display process. The CPU 11 that executes S106 is an example of a second display process. The CPU 11 that executes S120 is an example of a first detection process. The CPU 11 that executes S200 is an example of a second detection process. The CPU 11 that executes S210 is an example of a first positioning process. The CPU 11 that executes S215 is an example of a third display process. The CPU 11 that executes S222 and S225 is an example of a second positioning process. The CPU 11 that executes S230 is an example of a fourth display process. The prohibited area R11 is an example of a specific area. The CPU 11 that executes S220 is an example of a first determination process. The CPU 11 that executes S240 is an example of a second determination process. The CPU 11 that executes S245 is an example of a third positioning process. The CPU 11 that executes S250 is an example of a fifth display process. The acute angle object image is an example of a second object image. The CPU 11 that executes S265 is an example of a fourth positioning process. The CPU 11 that executes S270 is an example of a sixth display process. The front camera 14 is an example of a detection unit. The CPU 11 that executes S102 is an example of a third detection process. The CPU 11 that executes S104 is an example of a direction determination process. The movement target object image is an example of a third object image. The CPU 11 that executes S170 is an example of a fourth determination process. The CPU 11 that executes S175 is an example of a fifth positioning process. The CPU 11 that executes S180 is an example of a seventh display process. The CPU 11 that executes S170 is an example of a fourth determination process.

なお、各プログラムは一つのプログラムモジュールから構成されるものであってもよいし、複数のプログラムモジュールから構成されるものであってもよい。また、各一例は置換可能な他の構成であってもよく、本発明の範疇である。アプリケーションプログラム(文書作成アプリケーション31など)に基づく処理を実行するコンピュータ(CPU11など)であってもよいし、オペレーティングシステムなど、アプリケーションプログラム以外のプログラムに基づく処理を実行するコンピュータであってもよいし、コンピュータの指示に従って動作するハード構成(パネル18など)であってもよいし、コンピュータとハード構成とが連動した構成であってもよい。もちろん、複数のプログラムに基づく処理を連動させて処理を実行するコンピュータであってもよいし、複数のプログラムに基づく処理を連動させて処理を実行するコンピュータの指示に従って動作するハード構成であってもよい。   Each program may be composed of a single program module, or may be composed of a plurality of program modules. In addition, each example may have another replaceable configuration and is within the scope of the present invention. It may be a computer (CPU 11 or the like) that executes processing based on an application program (such as the document creation application 31), a computer that executes processing based on a program other than an application program such as an operating system, A hardware configuration (panel 18 or the like) that operates according to instructions from the computer may be used, or a configuration in which the computer and the hardware configuration are linked. Of course, it may be a computer that executes processes by linking processes based on a plurality of programs, or may have a hardware configuration that operates according to instructions from a computer that executes processes by linking processes based on a plurality of programs. Good.

10:情報処理装置、11:CPU、12:記憶部、18:パネル、19:座標検出部、20:タッチパネル、21e:オペレーティングシステム、32:画像処理アプリケーション、N1〜N4:位置決め点、O1〜O4:オブジェクト画像   10: Information processing device, 11: CPU, 12: Storage unit, 18: Panel, 19: Coordinate detection unit, 20: Touch panel, 21e: Operating system, 32: Image processing application, N1 to N4: Positioning points, O1 to O4 : Object image

Claims (13)

表示部と、
タッチパネルと、
を備えた情報処理装置のコンピュータが読み取り可能なプログラムであって、
前記コンピュータに、
所定範囲を示す閉じた境界線であって、前記所定範囲を決定するための複数の位置決め点が線上に位置している前記境界線を前記表示部に表示させる第1表示処理と、
前記複数の位置決め点を移動させる移動操作の入力を受け付けるための複数のオブジェクト画像を、前記複数の位置決め点の各々の近傍に、前記境界線に重複しないように表示させる第2表示処理と、
前記複数のオブジェクト画像のうちからユーザにより選択された選択オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置を、前記タッチパネルに検出させる第1検出処理と、
前記第1の指示位置が前記第1検出処理によって検出された後に、前記第1の指示位置とは異なる第2の指示位置を前記タッチパネルに検出させる第2検出処理と、
前記選択オブジェクト画像に対応する位置決め点である選択位置決め点の第1表示位置を、前記第2検出処理で検出された前記第2の指示位置の近傍に決定する第1位置決め処理と、
前記選択位置決め点が前記第1表示位置に位置するように前記境界線を再表示する第3表示処理と、
移動後の前記選択オブジェクト画像が前記境界線に重複しないように、かつ、移動後の前記選択オブジェクト画像が前記第3表示処理で再表示された前記選択位置決め点の近傍に表示されるように、前記選択オブジェクト画像の表示位置である第2表示位置を決定する第2位置決め処理と、
前記選択オブジェクト画像が前記第2表示位置に位置するように前記選択オブジェクト画像を再表示させる第4表示処理と、
を実行させることを特徴とするプログラム。
A display unit;
A touch panel;
A computer readable program of an information processing apparatus comprising:
In the computer,
A first display process for displaying on the display section the boundary line, which is a closed boundary line indicating a predetermined range, and a plurality of positioning points for determining the predetermined range are located on the line;
A second display process for displaying a plurality of object images for receiving an input of a movement operation for moving the plurality of positioning points in the vicinity of each of the plurality of positioning points so as not to overlap the boundary line;
When the indicator contacts or approaches the display area of the selected object image selected by the user from among the plurality of object images, the first indicating position indicating the position where the indicator contacts or approaches A first detection process to be detected by the touch panel;
A second detection process for causing the touch panel to detect a second designated position different from the first designated position after the first designated position is detected by the first detection process;
A first positioning process for determining a first display position of a selected positioning point, which is a positioning point corresponding to the selected object image, in the vicinity of the second designated position detected by the second detection process;
A third display process for redisplaying the boundary line so that the selected positioning point is located at the first display position;
The selected object image after movement does not overlap the boundary line, and the selected object image after movement is displayed in the vicinity of the selected positioning point redisplayed in the third display process. A second positioning process for determining a second display position which is a display position of the selected object image;
A fourth display process for redisplaying the selected object image so that the selected object image is positioned at the second display position;
A program characterized by having executed.
前記境界線の表示領域の枠線の内側に前記枠線に沿って配置されている特定領域であって、前記枠線から第1所定距離内の領域である前記特定領域に、前記選択オブジェクト画像の少なくとも一部が重複するか否かについて判断する第1判断処理を、前記コンピュータにさらに実行させ、
前記第2位置決め処理は、前記第1判断処理で前記選択オブジェクト画像の少なくとも一部が前記特定領域に重複すると判断された場合に、前記選択オブジェクト画像の全領域が前記特定領域に含まれないように、前記第2表示位置を決定することを特徴とする請求項1に記載のプログラム。
The selected object image in the specific area that is arranged along the frame line inside the border line of the display area of the boundary line and that is within a first predetermined distance from the frame line. Further causing the computer to execute a first determination process for determining whether or not at least a part of the
In the second positioning process, when it is determined in the first determination process that at least a part of the selected object image overlaps the specific area, the entire area of the selected object image is not included in the specific area. The program according to claim 1, wherein the second display position is determined.
前記所定範囲の範囲内に表示されている前記オブジェクト画像であって、他のオブジェクト画像または前記境界線と一部が重複しているオブジェクト画像である第1オブジェクト画像が、存在しているか否かについて判断する第2判断処理と、
前記第2判断処理で前記第1オブジェクト画像が存在していると判断された場合に、前記第1オブジェクト画像が前記所定範囲の範囲外に位置し、かつ、前記第1オブジェクト画像が前記境界線に重複しないように、前記第1オブジェクト画像の第3表示位置を決定する第3位置決め処理と、
前記第1オブジェクト画像が前記第3表示位置に位置するように前記第1オブジェクト画像を表示する第5表示処理と、
を前記コンピュータにさらに実行させることを特徴とする請求項1または2に記載のプログラム。
Whether or not there is a first object image that is displayed within the predetermined range and that is an object image that partially overlaps with another object image or the boundary line A second determination process for determining
When it is determined in the second determination process that the first object image exists, the first object image is located outside the predetermined range, and the first object image is the boundary line. A third positioning process for determining a third display position of the first object image so as not to overlap with
A fifth display process for displaying the first object image such that the first object image is positioned at the third display position;
The program according to claim 1, further causing the computer to execute.
前記所定範囲は多角形であり、
前記複数の位置決め点は、前記多角形の各頂点であることを特徴とする請求項1〜3の何れか1項に記載のプログラム。
The predetermined range is a polygon;
The program according to any one of claims 1 to 3, wherein the plurality of positioning points are each vertex of the polygon.
前記所定範囲の範囲内に表示されている前記オブジェクト画像であって、鋭角の前記頂点に位置する位置決め点に対する前記移動操作の入力を受け付けるオブジェクト画像である第2オブジェクト画像が、存在しているか否かについて判断する第3判断処理と、
前記第3判断処理で前記第2オブジェクト画像が存在していると判断された場合に、前記第2オブジェクト画像が前記所定範囲の範囲外に位置し、かつ、前記第2オブジェクト画像が前記境界線に重複しないように、前記第2オブジェクト画像の第4表示位置を決定する第4位置決め処理と、
前記第2オブジェクト画像が前記第4表示位置に位置するように前記第2オブジェクト画像を表示する第6表示処理と、
を前記コンピュータにさらに実行させることを特徴とする請求項4に記載のプログラム。
Whether or not there is a second object image that is the object image displayed within the predetermined range and that is an object image that receives an input of the moving operation with respect to the positioning point located at the acute vertex. A third determination process for determining whether or not
When it is determined in the third determination process that the second object image exists, the second object image is located outside the predetermined range, and the second object image is the boundary line. A fourth positioning process for determining a fourth display position of the second object image so as not to overlap with
A sixth display process for displaying the second object image such that the second object image is positioned at the fourth display position;
The program according to claim 4, further causing the computer to execute.
前記位置決め点を交点とする直交する2本の仮想的な分割線を引くことにより、前記位置決め点の周囲に4つの分割領域を生成する処理を、前記複数の位置決め点の各々について実行する分割処理を、前記コンピュータにさらに実行させ、
前記第2表示処理および前記第4表示処理は、前記4つの分割領域のうちから前記境界線が含まれていない分割領域の領域内に前記オブジェクト画像を表示させる処理を、前記複数の位置決め点の各々について実行することを特徴とする請求項1〜5の何れか1項に記載のプログラム。
Division processing for generating four division regions around the positioning points by drawing two orthogonal virtual division lines with the positioning points as intersections for each of the plurality of positioning points Is further executed by the computer,
In the second display process and the fourth display process, a process of displaying the object image in an area of the divided area that does not include the boundary line among the four divided areas is performed on the plurality of positioning points. The program according to claim 1, wherein the program is executed for each.
前記表示部を上方から見たときに前記指示体が前記表示部に投影されている投影領域を、前記情報処理装置の検出部に検出させる第3検出処理と、
前記位置決め点を基準としたときの前記投影領域の位置する方向である所定方向を決定する処理を、前記複数の位置決め点の各々について実行する方向決定処理と、
を前記コンピュータにさらに実行させ、
前記第2表示処理は、前記位置決め点を基準としたときの前記所定方向側に前記オブジェクト画像を表示させる処理を、前記複数の位置決め点の各々について実行することを特徴とする請求項1〜6の何れか1項に記載のプログラム。
A third detection process for causing the detection unit of the information processing device to detect a projection area in which the indicator is projected onto the display unit when the display unit is viewed from above;
A direction determining process for executing a process for determining a predetermined direction, which is a direction in which the projection area is positioned when the positioning point is used as a reference, for each of the plurality of positioning points;
Further executing on the computer,
7. The second display process, wherein the process of displaying the object image on the predetermined direction side with respect to the positioning point is executed for each of the plurality of positioning points. The program according to any one of the above.
前記表示部の右側から前記指示体を近接させる第1態様と、前記表示部の左側から前記指示体を近接させる第2態様と、の何れかのユーザによる選択を受け付ける受付処理
を前記コンピュータにさらに実行させ、
前記第2表示処理は、前記第1態様が選択されている場合には前記位置決め点を基準としたときの右側に前記オブジェクト画像を表示させ、前記第2態様が選択されている場合には前記位置決め点を基準としたときの左側に前記オブジェクト画像を表示させる処理を、前記複数の位置決め点の各々について実行することを特徴とする請求項1〜6の何れか1項に記載のプログラム。
Accepting processing for accepting selection by a user of either the first mode in which the indicator is brought closer from the right side of the display unit or the second mode in which the pointer is brought closer from the left side of the display unit Let it run
The second display process displays the object image on the right when the first mode is selected, and the second mode is displayed when the second mode is selected. The program according to any one of claims 1 to 6, wherein a process of displaying the object image on the left side with respect to a positioning point is executed for each of the plurality of positioning points.
前記選択オブジェクト画像との距離が予め定められた第2所定距離以内となるオブジェクト画像であって前記選択オブジェクト画像以外の他のオブジェクト画像である第3オブジェクト画像が存在するか否かについて判断する第4判断処理と、
前記第4判断処理で前記第3オブジェクト画像が存在すると判断された場合に、前記第3オブジェクト画像から前記第2所定距離の範囲内に前記選択オブジェクト画像が存在せず、かつ、前記第3オブジェクト画像が前記境界線に重複しないように、前記第3オブジェクト画像の第5表示位置を決定する第5位置決め処理と、
前記第3オブジェクト画像が前記第5表示位置に位置するように前記第3オブジェクト画像を表示する第7表示処理と、
を前記コンピュータにさらに実行させることを特徴とする請求項1〜8の何れか1項に記載のプログラム。
A determination is made as to whether or not there is a third object image that is an object image whose distance from the selected object image is within a predetermined second predetermined distance and is an object image other than the selected object image. 4 judgment processing,
When it is determined in the fourth determination process that the third object image exists, the selected object image does not exist within the second predetermined distance from the third object image, and the third object A fifth positioning process for determining a fifth display position of the third object image so that the image does not overlap the boundary line;
A seventh display process for displaying the third object image such that the third object image is located at the fifth display position;
The program according to claim 1, further causing the computer to execute.
前記選択オブジェクト画像との距離が予め定められた第2所定距離以内となるオブジェクト画像であって前記選択オブジェクト画像以外の他のオブジェクト画像である第3オブジェクト画像が存在するか否かについて判断する第4判断処理と、
前記第4判断処理で前記第3オブジェクト画像が存在すると判断された場合に、前記第3オブジェクト画像を非表示にする第8表示処理と、
前記第8表示処理によって前記第3オブジェクト画像が非表示とされた後に、前記第2検出処理によって前記第2の指示位置が検出された場合に、前記第3オブジェクト画像を再表示する第9表示処理と、
を前記コンピュータにさらに実行させることを特徴とする請求項1〜8の何れか1項に記載のプログラム。
A determination is made as to whether or not there is a third object image that is an object image whose distance from the selected object image is within a predetermined second predetermined distance and is an object image other than the selected object image. 4 judgment processing,
An eighth display process for hiding the third object image when it is determined in the fourth determination process that the third object image exists;
Ninth display for redisplaying the third object image when the second designated position is detected by the second detection process after the third object image has been hidden by the eighth display process Processing,
The program according to claim 1, further causing the computer to execute.
前記第1の指示位置が前記第1検出処理によって検出された場合に、前記選択オブジェクト画像以外の他のオブジェクト画像の全てを非表示にする第10表示処理と、
前記第10表示処理によって前記他のオブジェクト画像の全てが非表示とされた後に、前記第2検出処理によって前記第2の指示位置が検出された場合に、前記他のオブジェクト画像の全てを再表示する第11表示処理と、
を前記コンピュータにさらに実行させることを特徴とする請求項1〜8の何れか1項に記載のプログラム。
A tenth display process for hiding all other object images other than the selected object image when the first designated position is detected by the first detection process;
When all the other object images are hidden by the tenth display process and then the second designated position is detected by the second detection process, all the other object images are redisplayed. Eleventh display processing to
The program according to claim 1, further causing the computer to execute.
前記複数のオブジェクト画像の各々は、第1領域と、前記第1領域よりも狭い幅を有するとともに第1端部および第2端部を備えた第2領域と、を備えており、
前記第1端部は前記第1領域に接続されており、
前記第2端部は、前記位置決め点の近傍の位置であって前記第1領域と前記位置決め点との間の位置に配置されており、
前記第2領域は前記境界線に重複しないことを特徴とする請求項1〜11の何れか1項に記載のプログラム。
Each of the plurality of object images includes a first region and a second region having a narrower width than the first region and having a first end and a second end.
The first end is connected to the first region;
The second end portion is located near the positioning point and is located between the first region and the positioning point,
The program according to claim 1, wherein the second area does not overlap the boundary line.
表示部と、
タッチパネルと、
を備えた情報処理装置であって、
所定範囲を示す閉じた境界線であって、前記所定範囲を決定するための複数の位置決め点が線上に位置している前記境界線を前記表示部に表示させる第1表示手段と、
前記複数の位置決め点を移動させる移動操作の入力を受け付けるための複数のオブジェクト画像を、前記複数の位置決め点の各々の近傍に、前記境界線に重複しないように表示させる第2表示手段と、
前記複数のオブジェクト画像のうちからユーザにより選択された選択オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置を、前記タッチパネルに検出させる第1検出手段と、
前記第1の指示位置が前記第1検出手段によって検出された後に、前記第1の指示位置とは異なる第2の指示位置を前記タッチパネルに検出させる第2検出手段と、
前記選択オブジェクト画像に対応する位置決め点である選択位置決め点の第1表示位置を、前記第2検出手段で検出された前記第2の指示位置の近傍に決定する第1位置決め手段と、
前記選択位置決め点が前記第1表示位置に位置するように前記境界線を再表示する第3表示手段と、
移動後の前記選択オブジェクト画像が前記境界線に重複しないように、かつ、移動後の前記選択オブジェクト画像が前記第3表示手段で再表示された前記選択位置決め点の近傍に表示されるように、前記選択オブジェクト画像の表示位置である第2表示位置を決定する第2位置決め手段と、
前記選択オブジェクト画像が前記第2表示位置に位置するように前記選択オブジェクト画像を再表示させる第4表示手段と、
を備えることを特徴とする情報処理装置。
A display unit;
A touch panel;
An information processing apparatus comprising:
First display means for displaying on the display section the boundary line, which is a closed boundary line indicating a predetermined range, and a plurality of positioning points for determining the predetermined range are located on the line;
Second display means for displaying a plurality of object images for receiving an input of a movement operation for moving the plurality of positioning points in the vicinity of each of the plurality of positioning points so as not to overlap the boundary line;
When the indicator contacts or approaches the display area of the selected object image selected by the user from among the plurality of object images, the first indicating position indicating the position where the indicator contacts or approaches First detection means for causing the touch panel to detect;
Second detection means for causing the touch panel to detect a second designated position different from the first designated position after the first designated position is detected by the first detecting means;
First positioning means for determining a first display position of a selected positioning point, which is a positioning point corresponding to the selected object image, in the vicinity of the second designated position detected by the second detecting means;
Third display means for redisplaying the boundary line so that the selected positioning point is located at the first display position;
The selected object image after moving does not overlap the boundary line, and the selected object image after moving is displayed in the vicinity of the selected positioning point redisplayed by the third display means. Second positioning means for determining a second display position which is a display position of the selected object image;
Fourth display means for redisplaying the selected object image so that the selected object image is positioned at the second display position;
An information processing apparatus comprising:
JP2016036712A 2016-02-29 2016-02-29 Program and information processing apparatus Active JP6607083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016036712A JP6607083B2 (en) 2016-02-29 2016-02-29 Program and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016036712A JP6607083B2 (en) 2016-02-29 2016-02-29 Program and information processing apparatus

Publications (2)

Publication Number Publication Date
JP2017156793A JP2017156793A (en) 2017-09-07
JP6607083B2 true JP6607083B2 (en) 2019-11-20

Family

ID=59810137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016036712A Active JP6607083B2 (en) 2016-02-29 2016-02-29 Program and information processing apparatus

Country Status (1)

Country Link
JP (1) JP6607083B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7379052B2 (en) * 2019-09-30 2023-11-14 キヤノン株式会社 Display control device, method and program
KR102176443B1 (en) * 2019-11-18 2020-11-09 셀렉트스타 주식회사 Method and Device for Data Labeling

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08147491A (en) * 1994-11-15 1996-06-07 Canon Inc Document editing device
US7302650B1 (en) * 2003-10-31 2007-11-27 Microsoft Corporation Intuitive tools for manipulating objects in a display
JP2012256270A (en) * 2011-06-10 2012-12-27 Sony Corp Information processor, program, and information processing method
US9612670B2 (en) * 2011-09-12 2017-04-04 Microsoft Technology Licensing, Llc Explicit touch selection and cursor placement
JP2014035623A (en) * 2012-08-08 2014-02-24 Sharp Corp Operation input device, operation input method, operation input program, and electronic device

Also Published As

Publication number Publication date
JP2017156793A (en) 2017-09-07

Similar Documents

Publication Publication Date Title
JP5371798B2 (en) Information processing apparatus, information processing method and program
EP2420914A2 (en) Information processing apparatus, information processing method and program
US8525854B2 (en) Display device and screen display method
JP6432409B2 (en) Touch panel control device and touch panel control program
JP2008134918A (en) Image processor and image processing determination method
JP6171643B2 (en) Gesture input device
US20130328804A1 (en) Information processing apparatus, method of controlling the same and storage medium
US9557904B2 (en) Information processing apparatus, method for controlling display, and storage medium
US10735606B2 (en) Display device, image processing device and non-transitory recording medium determining continuity of operation two or more display areas
US9575656B2 (en) Method, electronic device, and computer program product for displaying virtual button
US10705698B2 (en) Executing functions associated with icons having overlapping areas
JP6607083B2 (en) Program and information processing apparatus
US20160028905A1 (en) Image processing apparatus, method for controlling the same, and storage medium
JP2015138360A (en) System, control program, and control method for object manipulation
US10057315B2 (en) Communication support system, information processing apparatus, control method, and storage medium that display an output image obtained by superposing a reference image over a captured image
JP6682951B2 (en) Program and information processing device
US9348443B2 (en) Information processing apparatus, method of controlling the same, program and storage medium
US9229608B2 (en) Character display apparatus, character display method, and computer readable medium
JP2017097814A (en) Information processing apparatus, control method thereof, and program
JP6252351B2 (en) Electronics
JP4940911B2 (en) Image processing apparatus and image processing selection method
JP6973524B2 (en) program
JP6665575B2 (en) program
JP2017123055A (en) Image processing apparatus, preview image display control method, and computer program
JP2017138759A (en) Electronic apparatus, and electronic apparatus control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6607083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150