JP5867094B2 - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP5867094B2
JP5867094B2 JP2012002885A JP2012002885A JP5867094B2 JP 5867094 B2 JP5867094 B2 JP 5867094B2 JP 2012002885 A JP2012002885 A JP 2012002885A JP 2012002885 A JP2012002885 A JP 2012002885A JP 5867094 B2 JP5867094 B2 JP 5867094B2
Authority
JP
Japan
Prior art keywords
line
image
information processing
area range
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012002885A
Other languages
Japanese (ja)
Other versions
JP2013143001A (en
JP2013143001A5 (en
Inventor
哲司 牧野
哲司 牧野
紳一 松井
紳一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012002885A priority Critical patent/JP5867094B2/en
Publication of JP2013143001A publication Critical patent/JP2013143001A/en
Publication of JP2013143001A5 publication Critical patent/JP2013143001A5/ja
Application granted granted Critical
Publication of JP5867094B2 publication Critical patent/JP5867094B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、指等の物体の接触の操作に基づいて選択した箇所を視認することが容易な、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program that make it easy to visually recognize a location selected based on an operation of touching an object such as a finger.

従来から、大画面の表示部を備えたパーソナルコンピュータ等の情報処理装置は、写真等の画像に対し各種画像処理を実行している。そのような画像処理を実行するアプリケーションソフトウェアの1つとして、画像から絵柄データ(オブジェクト)の切り抜きを行うアプリケーションソフトウェアが存在する(例えば、特許文献1参照)。   Conventionally, an information processing apparatus such as a personal computer having a large screen display unit executes various image processing on images such as photographs. As one example of application software that executes such image processing, there is application software that cuts out pattern data (object) from an image (see, for example, Patent Document 1).

一方で、昨今、液晶ディスプレイに積層されたタッチパネルを備えた情報処理装置の需要が高まりつつある。情報処理装置は、タッチパネルに対するユーザの指やタッチペン等の物体の接触の操作に基づいて、表示部に表示されるオブジェクトに関する処理を実行する(例えば、特許文献2乃至6参照)。
近年の情報処理分野の著しい高度化により、このようなタッチパネルを備えた情報処理装置の小型化が進み、スマートフォンに代表される、片手で筐体全体を保持できる程度の情報処理装置も登場してきている。
On the other hand, recently, there is an increasing demand for an information processing apparatus including a touch panel laminated on a liquid crystal display. The information processing apparatus executes processing related to an object displayed on the display unit based on an operation of touching an object such as a user's finger or a touch pen on the touch panel (see, for example, Patent Documents 2 to 6).
With the recent sophistication of the information processing field, downsizing of information processing devices equipped with such touch panels has progressed, and information processing devices that can hold the entire housing with one hand, such as smartphones, have also appeared. Yes.

特開平07−271008号公報JP 07-271008 A 特開平07−334308号公報JP 07-334308 A 実用新案登録第3150179号公報Utility Model Registration No. 3150179 特開2009−26155号公報JP 2009-26155 A 特開2006−236143号公報JP 2006-236143 A 特開2000−163031号公報JP 2000-163031 A

しかしながら、スマートフォン等の小型の情報処理装置は、装置全体の小型化を反映して、必然的に表示部も小型になる。ユーザが、そのような小型化された表示部に表示されるオブジェクトを指等の物体の接触の操作に基づいて選択する操作をした場合、選択した箇所を視認しにくいという問題があった。   However, a small information processing apparatus such as a smart phone inevitably has a small display unit reflecting the miniaturization of the entire apparatus. When the user performs an operation of selecting an object displayed on the downsized display unit based on an operation of touching an object such as a finger, there is a problem that it is difficult to visually recognize the selected portion.

本発明は、このような状況に鑑みてなされたものであり、指等の物体の接触の操作に基づいて選択した箇所を視認しやすくすることを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to make it easy to visually recognize a portion selected based on an operation of touching an object such as a finger.

上記目的を達成するため、本発明の一態様の情報処理装置は
示された画像上に線を描画する描画手段と、
前記描画手段による線の描画中に、所定の描画領域範囲における前記描画手段による線の描画が中断されたか否かを判断する判断手段と、
前記判断手段により所定の描画領域範囲における前記描画手段による線の描画が中断されたと判断された時又は判断された直前に前記描画手段により線が描画された位置を、前記描画領域範囲の略中心となるように、前記画像をスクロールさせて表示させる表示制御手段と、
を備えることを特徴とする。
In order to achieve the above object, an information processing apparatus of one embodiment of the present invention provides :
And drawing means for drawing a line on the table shown image,
Determining means for determining whether drawing of the line by the drawing means in a predetermined drawing area range is interrupted during drawing of the line by the drawing means;
The position of the line by the drawing means immediately before the due line drawing said drawing means is a point or determined when it is determined to have been interrupted in a predetermined drawing area range has been drawn by the determining means, substantially in the drawing area range Display control means for scrolling and displaying the image so as to be centered ;
It is characterized by providing.

本発明によれば、指等の物体の接触の操作に基づいて選択した箇所を視認しやすくすることができる。   ADVANTAGE OF THE INVENTION According to this invention, the location selected based on contact operation of objects, such as a finger | toe, can be made easy to visually recognize.

本発明の実施形態に係る情報処理装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing apparatus which concerns on embodiment of this invention. 図1の情報処理装置の機能的構成のうち、軌跡描画画像生成処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a locus | trajectory drawing image generation process among the functional structures of the information processing apparatus of FIG. 拡大表示処理の概要を示す、情報処理装置の正面図である。It is a front view of an information processor showing an outline of enlarging display processing. スクロール表示処理の概要を示す、情報処理装置の正面図である。It is a front view of an information processor showing an outline of scroll display processing. 図2の機能的構成を有する図1の情報処理装置が実行する軌跡描画画像生成処理の流れを説明するフローチャートである。3 is a flowchart for explaining a flow of a locus drawing image generation process executed by the information processing apparatus of FIG. 1 having the functional configuration of FIG. 2. 図2の機能的構成を有する図1の情報処理装置が実行する拡大表示処理の流れを説明するフローチャートである。3 is a flowchart illustrating a flow of an enlarged display process executed by the information processing apparatus of FIG. 1 having the functional configuration of FIG. 2. 図2の機能的構成を有する図1の情報処理装置が実行する第2実施形態の軌跡描画画像生成処理の流れの一例であって、図5とは異なる例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of a trajectory drawing image generation process according to a second embodiment executed by the information processing apparatus of FIG. 1 having the functional configuration of FIG. 2, and an example different from FIG. 5.

以下、本発明の一実施形態について図面を適宜参照しつつ説明する。
[第1実施形態]
図1は、本発明の第1実施形態の情報処理装置のハードウェア構成を示すブロック図である。
情報処理装置1は、例えばスマートフォンとして構成される。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings as appropriate.
[First Embodiment]
FIG. 1 is a block diagram illustrating a hardware configuration of the information processing apparatus according to the first embodiment of this invention.
The information processing apparatus 1 is configured as a smartphone, for example.

情報処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、タッチパネル16と、表示部17と、記憶部18と、通信部19と、ドライブ20と、を備えている。   The information processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, a touch panel 16, and a display unit 17. A storage unit 18, a communication unit 19, and a drive 20.

CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムにしたがって各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 18 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、タッチパネル16、表示部17、記憶部18、通信部19及びドライブ20が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. A touch panel 16, a display unit 17, a storage unit 18, a communication unit 19, and a drive 20 are connected to the input / output interface 15.

タッチパネル16は、表示部17の表示画面に積層される静電容量式又は抵抗膜式のタッチパネルとして構成され、タッチ操作がなされた位置(以下、「タッチ位置」と呼ぶ)の座標を検出する。ここで、タッチ操作とは、タッチパネル16に対する物体(ユーザの指やタッチペン等)の接触又は近接の操作をいう。
表示部17は、ディスプレイにより構成され画像を表示する。
記憶部18は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部19は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The touch panel 16 is configured as a capacitive or resistive touch panel laminated on the display screen of the display unit 17 and detects coordinates of a position where touch operation is performed (hereinafter referred to as “touch position”). Here, the touch operation refers to a contact or proximity operation of an object (such as a user's finger or a touch pen) with respect to the touch panel 16.
The display unit 17 includes a display and displays an image.
The storage unit 18 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 19 controls communication with other devices (not shown) via a network including the Internet.

ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ20によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア31は、記憶部18に記憶されている画像のデータ等の各種データも、記憶部18と同様に記憶することができる。   A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 20. The program read from the removable medium 31 by the drive 20 is installed in the storage unit 18 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 18 in the same manner as the storage unit 18.

このような構成の情報処理装置1のCPU11は、人物等のオブジェクト領域を含む画像を原画像として、当該原画像からオブジェクト領域を切り抜く画像処理を実行することができる。このような画像処理を、以下、「切抜処理」と呼ぶ。
CPU11は、このような切抜処理により原画像から切り出されたオブジェクト領域のデータを、原画像とは別の新たな画像(新たな背景画像等)のデータと合成することによって、合成画像のデータを生成する。
The CPU 11 of the information processing apparatus 1 having such a configuration can execute image processing in which an object region such as a person is used as an original image and the object region is cut out from the original image. Such image processing is hereinafter referred to as “cutout processing”.
The CPU 11 combines the data of the object area cut out from the original image by such a clipping process with the data of a new image (new background image or the like) different from the original image, thereby converting the data of the composite image. Generate.

CPU11は、このような切抜処理を実行するに際し、原画像から、切抜き対象のオブジェクト領域を指定する必要がある。そこで、CPU11は、次のような一連の処理を実行する。
CPU11は、原画像のデータを記憶部18から読み出して、当該原画像を表示部17に表示させる。
この状態で、ユーザは、表示部17に表示された画像内のオブジェクト領域とその他の領域とを区分する境界線に沿って、ユーザの指等を移動させるタッチ操作(マウスのドラッグ操作に模して、以下「ドラッグ操作」と呼ぶ)をする。
CPU11は、当該ドラッグ操作の軌跡上に線を描画する。そして、CPU11は、ドラッグ操作の軌跡上に描画された線が重畳された画像(以下、「軌跡描画画像」と呼ぶ)を表示部17に表示させ、当該軌跡描画画像のデータを記憶部18に記憶させる。
このような一連の処理を、以下、「軌跡描画画像生成処理」と呼ぶ。
軌跡描画画像生成処理により生成された軌跡描画画像のうち、描画された線により囲まれる領域が、切抜き処理で切り抜かれるオブジェクト領域として指定される。
When executing such a clipping process, the CPU 11 needs to specify an object region to be clipped from the original image. Therefore, the CPU 11 executes the following series of processes.
The CPU 11 reads the original image data from the storage unit 18 and causes the display unit 17 to display the original image.
In this state, the user moves the user's finger or the like along a boundary line that separates the object area and the other area in the image displayed on the display unit 17 (simulating a mouse drag operation). (Hereinafter referred to as “drag operation”).
The CPU 11 draws a line on the locus of the drag operation. Then, the CPU 11 causes the display unit 17 to display an image in which a line drawn on the locus of the drag operation is superimposed (hereinafter referred to as “trajectory drawing image”), and stores data of the locus drawing image in the storage unit 18. Remember.
Such a series of processing is hereinafter referred to as “trajectory drawing image generation processing”.
Of the locus drawing image generated by the locus drawing image generation processing, an area surrounded by the drawn line is designated as an object region to be cut out by the cutting processing.

図2は、情報処理装置の機能的構成のうち、このような軌跡描画画像生成処理を実行するための機能的構成を示す機能ブロック図である。   FIG. 2 is a functional block diagram showing a functional configuration for executing such a locus drawing image generation process among the functional configurations of the information processing apparatus.

CPU11においては、軌跡描画画像生成処理の実行が制御される場合、表示制御部41と、タッチ操作検出部42と、タッチ操作時間検出部43と、拡大率決定部44と、線描画部45と、スクロール有無判断部46と、スクロール量算定部47と、記憶制御部48と、が機能する。
記憶部18の一領域として、切抜処理における原画像となり得る各種画像のデータを記憶している画像記憶部51が設けられている。
In the CPU 11, when execution of the locus drawing image generation process is controlled, the display control unit 41, the touch operation detection unit 42, the touch operation time detection unit 43, the enlargement ratio determination unit 44, and the line drawing unit 45 The scroll presence / absence determination unit 46, the scroll amount calculation unit 47, and the storage control unit 48 function.
As one area of the storage unit 18, an image storage unit 51 that stores data of various images that can be an original image in the clipping process is provided.

表示制御部41は、所定の画像のデータを画像記憶部51から読み出して、当該画像を、切抜き処理における原画像として表示部17に表示させる制御を実行する。   The display control unit 41 reads out data of a predetermined image from the image storage unit 51 and executes control for causing the display unit 17 to display the image as an original image in the clipping process.

タッチ操作検出部42は、ユーザによるタッチ操作がタッチパネル16に対してなされたことを検出し、そのタッチ操作の位置を認識する。タッチ操作検出部42は、タッチパネル16に対する物体(ユーザの指やタッチペン等)の接触又は近接の操作(以下、「タッチダウン」と呼ぶ)やタッチダウンの状態から物体(ユーザの指やタッチペン等)の接触を解除する操作(以下、「タッチアップ」と呼ぶ)を検出することができる。   The touch operation detection unit 42 detects that a touch operation by the user has been performed on the touch panel 16, and recognizes the position of the touch operation. The touch operation detection unit 42 touches or touches an object (such as a user's finger or touch pen) with respect to the touch panel 16 (hereinafter, referred to as “touch down”) or touches down to detect an object (such as a user's finger or touch pen) It is possible to detect an operation to release the contact (hereinafter referred to as “touch-up”).

タッチ操作時間検出部43は、ドラッグ操作の前にタッチ操作検出部42により最初にタッチ操作が検出されたとき(即ち、タッチダウンしたとき)計時を開始し、位置の変化が無い状態でタッチ操作が継続している時間(以下、「タッチ操作時間」と呼ぶ)として検出する。即ち、ユーザの指等がタッチパネル16等に接触又は近接して最初のタッチ操作が開始されてから、タッチパネル16から指等が離されてタッチ操作が終了する(即ち、タッチアップした)か、又は指等の移動が開始(ドラッグ操作が開始)されるまでの時間が、タッチ操作時間である。   The touch operation time detection unit 43 starts timing when the touch operation is first detected by the touch operation detection unit 42 before the drag operation (that is, when touched down), and the touch operation is performed without any change in position. Is detected as the time (hereinafter referred to as “touch operation time”). That is, after the user's finger or the like touches or comes close to the touch panel 16 or the like and the first touch operation is started, the finger or the like is released from the touch panel 16 and the touch operation is finished (that is, touched up), or The time until the movement of a finger or the like is started (drag operation is started) is the touch operation time.

拡大率決定部44は、タッチ操作時間検出部43により検出されたタッチ操作時間に応じて、原画像の拡大率を決定する。
表示制御部41は、拡大率決定部44により決定された拡大率で、原画像を拡大して表示部17に表示させる。
The enlargement rate determination unit 44 determines the enlargement rate of the original image according to the touch operation time detected by the touch operation time detection unit 43.
The display control unit 41 enlarges the original image on the display unit 17 with the enlargement rate determined by the enlargement rate determination unit 44.

このようなタッチ操作時間検出部43、拡大率決定部44、及び表示制御部41による一連の処理を、以下、「拡大表示処理」と呼ぶ。
図3は、拡大表示処理の概要を示す、情報処理装置1の正面図である。
Such a series of processes performed by the touch operation time detection unit 43, the enlargement rate determination unit 44, and the display control unit 41 is hereinafter referred to as “enlargement display process”.
FIG. 3 is a front view of the information processing apparatus 1 showing an outline of the enlarged display process.

図3(A)に示すように、表示部17のうち描画領域範囲ADには、人間の上半身を示すオブジェクト領域を含む原画像が、透過レイヤとともにオーバラップ表示されている。
このような図3(A)の状態で、ユーザが、描画領域範囲ADに表示されたオブジェクト領域の境界線に対して指UFを接触させ、タッチ操作を開始したとする。
As shown in FIG. 3A, in the drawing area range AD of the display unit 17, the original image including the object area indicating the upper half of the human body is overlapped and displayed along with the transparent layer.
In such a state of FIG. 3A, it is assumed that the user touches the boundary line of the object area displayed in the drawing area range AD with the finger UF and starts the touch operation.

ここで図2に戻り、線描画部45は、指UFの接触位置における線の開始点L1のデータを生成する。このようにして、線描画部45が、表示部17の所定位置における線のデータを生成する処理を、以下、「所定位置に線を描画する」と表現する。したがって、線描画部45により線が描画された段階では、当該線は表示部17に表示されておらずユーザは視認することができない状態である。   Returning to FIG. 2, the line drawing unit 45 generates data of the start point L1 of the line at the contact position of the finger UF. In this way, the process in which the line drawing unit 45 generates line data at a predetermined position on the display unit 17 is hereinafter expressed as “draw a line at a predetermined position”. Therefore, at the stage where the line is drawn by the line drawing unit 45, the line is not displayed on the display unit 17 and the user cannot visually recognize it.

そこで、表示制御部41は、線の開始点L1を、原画像のオブジェクト領域のうち指UFの接触位置に重畳させて表示させる。より具体的には、表示制御部41は、透過レイヤにおける指UFの接触位置に線の開始点L1を表示させる。
ところが、線の開始点L1の表示サイズは小さいため、図3(A)に示すように、線の開始点が自己の指UFに隠されてしまう。このため、ユーザが、どこに線の開始点L1が表示されたのか、そもそも線の開始点L1が表示されているのか、ということさえ視認することが困難になる。
Therefore, the display control unit 41 causes the line start point L1 to be displayed superimposed on the contact position of the finger UF in the object area of the original image. More specifically, the display control unit 41 displays the line start point L1 at the contact position of the finger UF in the transmissive layer.
However, since the display size of the line start point L1 is small, the line start point is hidden by the finger UF as shown in FIG. For this reason, it is difficult for the user to visually recognize where the line start point L1 is displayed or whether the line start point L1 is displayed in the first place.

そこで、本実施形態では、拡大率決定部44は、タッチ操作時間検出部43により検出されたタッチ操作時間が増加する程、原画像の拡大率を上昇させていく。即ち、表示制御部41は、図3(B)に示すように、指UFによるタッチ操作が継続されている間、原画像及び線の開始点L1(透過レイヤ)を、拡大率の上昇に伴い徐々に拡大させていくように表示部17に表示させる。   Therefore, in the present embodiment, the enlargement rate determination unit 44 increases the enlargement rate of the original image as the touch operation time detected by the touch operation time detection unit 43 increases. That is, as shown in FIG. 3B, the display control unit 41 displays the original image and the line start point L1 (transparent layer) as the enlargement ratio increases while the touch operation with the finger UF is continued. It is displayed on the display unit 17 so as to be gradually enlarged.

線の開始点L1が指UFからはみ出して表示される程度まで拡大された段階(表示状態が図3(A)の状態から図3(B)の状態になった段階)、又は、指UFが移動されてドラッグ操作が開始された段階で、線の開始点の拡大は終了する。即ち、拡大表示処理が終了となる。   The stage where the line start point L1 is enlarged to the extent that it is displayed out of the finger UF (the stage when the display state is changed from the state of FIG. 3A to the state of FIG. 3B), or the finger UF At the stage where the drag operation is started after the movement, the expansion of the start point of the line ends. That is, the enlarged display process ends.

その後、ドラッグ操作による指UFの移動の軌跡(オブジェクト領域の境界線)に沿って線L2が描画され、図3(C)に示すように、拡大表示されたオブジェクト領域の境界線の上に線L2が表示されるようになる。   Thereafter, a line L2 is drawn along the locus of movement of the finger UF by the drag operation (boundary line of the object area), and a line is drawn on the enlarged boundary line of the object area as shown in FIG. L2 is displayed.

図2に戻り、スクロール有無判断部46は、線描画部45による線の描画中に所定条件を満たすか否かを判断することによって、後述する原画像のスクロール表示処理を実行するか否かを判断する。
所定条件は特に限定されないが、本実施形態では、線描画部45による線の描画が、表示部17における所定の描画領域範囲内において行われるということを前提として、線描画部45による線の描画中の位置が、所定の描画領域範囲の境界上に位置するという条件が採用されている。
即ち、本実施形態では、線描画部45により、所定の描画領域範囲内で線が描画されている間は、スクロール有無判断部46は、所定条件が満たされないため、原画像のスクロール表示処理は実行しないと判断する。
これに対して、線描画部45により描画された線が移動してきて、所定の描画領域範囲の境界上に到達すると、スクロール有無判断部46は、所定条件が満たされたので、原画像のスクロール表示処理を実行すると判断する。
Returning to FIG. 2, the scroll presence / absence determination unit 46 determines whether or not to execute a scroll display process of the original image, which will be described later, by determining whether or not a predetermined condition is satisfied during line drawing by the line drawing unit 45. to decide.
Although the predetermined condition is not particularly limited, in the present embodiment, line drawing by the line drawing unit 45 is performed on the premise that the line drawing by the line drawing unit 45 is performed within a predetermined drawing area range in the display unit 17. The condition that the inside position is located on the boundary of a predetermined drawing area range is employed.
In other words, in the present embodiment, while the line drawing unit 45 is drawing a line within a predetermined drawing area range, the scroll presence / absence determination unit 46 does not satisfy the predetermined condition. It is determined not to execute.
On the other hand, when the line drawn by the line drawing unit 45 moves and reaches the boundary of the predetermined drawing area range, the scroll presence / absence determination unit 46 satisfies the predetermined condition. It is determined that display processing is executed.

図4は、このようなスクロール表示処理の概要を示す、情報処理装置1の正面図である。   FIG. 4 is a front view of the information processing apparatus 1 showing an outline of such scroll display processing.

図4(A)に示すように、表示部17のうち描画領域範囲ADには、人間の上半身を示すオブジェクト領域を含む原画像が、透過レイヤとともにオーバラップ表示されている。ただし、上述の拡大表示処理により、オブジェクト領域の全てが描画領域範囲ADに収まりきらない状態である。
このような図4(A)の状態で、ユーザが、描画領域範囲ADに表示されたオブジェクト領域の境界線に沿って自己の指UFを移動させる操作、即ちドラッグ操作をしている。
線描画部45は、このようなドラッグ操作による指UFの移動の軌跡(オブジェクト領域の境界線)に沿って線L3を描画する。表示制御部41は、図4(A)に示すように、拡大表示されたオブジェクト領域の境界線の上に線L3を表示する。
As shown in FIG. 4A, in the drawing area range AD of the display unit 17, an original image including an object area indicating the upper body of a human is displayed in an overlapping manner together with a transparent layer. However, in the above-described enlargement display process, the entire object area does not fit in the drawing area range AD.
In such a state of FIG. 4A, the user performs an operation of moving his / her finger UF along the boundary line of the object area displayed in the drawing area range AD, that is, a drag operation.
The line drawing unit 45 draws a line L3 along the trajectory (boundary line of the object area) of the finger UF by such a drag operation. As shown in FIG. 4A, the display control unit 41 displays a line L3 on the boundary line of the enlarged object area.

ドラッグ操作により指UFの位置がさらに移動して、図4(B)に示すように、指UFの位置、即ち線描画部45による線L3の描画中の位置が、描画領域範囲ADの境界上に到達すると、スクロール有無判断部46により、所定条件が満たされたと判断され、次のような原画像のスクロール表示処理が実行される。
なお、指UFの移動速度が速くて、所定条件が満たされたと判断する前に、指UFが描画領域範囲ADの境界を越えてしまう場合がある。このような場合にも、スクロール有無判断部46が所定条件が満たされたと適切に判断することができるように、本実施形態では、ドラッグ操作をしながら移動している指UFの位置を検出することが可能な範囲が、描画領域範囲ADよりも広い範囲AMとして設けられている。このような範囲AMを、以下、移動検出範囲AMと呼ぶ。
The position of the finger UF is further moved by the drag operation, and as shown in FIG. 4B, the position of the finger UF, that is, the position during drawing of the line L3 by the line drawing unit 45 is on the boundary of the drawing area range AD. Is reached, the scroll presence / absence determining unit 46 determines that the predetermined condition is satisfied, and the following scroll display processing of the original image is executed.
Note that the finger UF may move beyond the boundary of the drawing area range AD before determining that the predetermined condition is satisfied because the moving speed of the finger UF is high. Even in such a case, in the present embodiment, the position of the finger UF that is moving while performing a drag operation is detected so that the scroll presence / absence determination unit 46 can appropriately determine that the predetermined condition is satisfied. The possible range is provided as a range AM wider than the drawing area range AD. Such a range AM is hereinafter referred to as a movement detection range AM.

即ち、スクロール量算定部47は、スクロール有無判断部46により所定条件を満たすと判断された時又は直前に線描画部45により線が描画された位置を、所定位置にスクロール移動させる場合における、そのスクロール量を算定する。
本実施形態では、所定の描画領域範囲ADの境界上の所定位置に線L3が到達すると所定条件が満たされるため、当該所定位置(図4(B)に示す位置)を始点として、描画領域範囲ADの中心位置を終点として、始点から終点までスクロール移動させるための移動量が、スクロール量として算定される。
表示制御部41は、図4(C)に示すように、スクロール量算定手段により算定されたスクロール量にしたがって、原画像及びそれに重畳された線(透過レイヤ)をスクロールさせて表示部17に表示させる。
In other words, the scroll amount calculation unit 47, when it is determined that the predetermined condition is satisfied by the scroll presence / absence determination unit 46 or when the position where the line is drawn by the line drawing unit 45 immediately before is scrolled to a predetermined position, Calculate the scroll amount.
In the present embodiment, when the line L3 reaches a predetermined position on the boundary of the predetermined drawing area range AD, the predetermined condition is satisfied. Therefore, the drawing area range is started from the predetermined position (the position shown in FIG. 4B). The amount of movement for scrolling from the start point to the end point with the AD center position as the end point is calculated as the scroll amount.
As shown in FIG. 4C, the display control unit 41 scrolls the original image and a line (transparent layer) superimposed on the original image according to the scroll amount calculated by the scroll amount calculation unit, and displays it on the display unit 17. Let

原画像のスクロール表示処理についてまとめると、切抜き処理で切り抜かれるオブジェクト領域を指定するためには、ユーザは、当該オブジェクトの境界線に沿って指UFを動かす、といったドラッグ操作をする必要がある。
ただし、原画像が拡大表示されている状態では、描画領域範囲ADに表示されている範囲内でドラッグ操作を完結させることができない場合が多い。
このため、原画像をスクロール表示させることを繰り返すことで、ドラッグ操作で指定されていない(指UFでタッチされていない)境界線が描画領域範囲ADに常時含まれるようにする必要がある。
従来では、ドラッグ操作により、図4(B)に示すように、指UFの位置、即ち線描画部45による線L3の描画中の位置が、描画領域範囲ADの境界上に到達すると、ユーザは、線を描画するためのドラッグ操作を中断して、ドラッグ操作の操作モードを切り替えて、ドラッグ操作により原画像をスクロールしていた(この間、ドラッグ操作で線を描画することは禁止される)。
しかしながら、ユーザにとって、このような一連の操作、即ち、線を描画するためのドラッグ操作を中断して、ドラッグ操作の操作モードを切り替えて、ドラッグ操作により原画像をスクロールすることを繰り返すといった操作は、煩雑で手間のかかる操作であり高負荷となっている。
そこで、本実施形態では、情報処理装置1が原画像のスクロール処理を実行することで、ユーザにとっては、線を描画するためのドラッグ操作をしているだけで、自動的に原画像のスクロールが行われることになり、操作負担が軽減される。
Summarizing the scroll display processing of the original image, in order to specify the object region to be cut out by the cutting processing, the user needs to perform a drag operation such as moving the finger UF along the boundary line of the object.
However, when the original image is displayed in an enlarged manner, the drag operation cannot often be completed within the range displayed in the drawing area range AD.
For this reason, by repeatedly scrolling the original image, it is necessary to always include the boundary line not designated by the drag operation (not touched by the finger UF) in the drawing area range AD.
Conventionally, when the position of the finger UF, that is, the position during drawing of the line L3 by the line drawing unit 45 reaches the boundary of the drawing area range AD by the drag operation, as shown in FIG. The drag operation for drawing the line is interrupted, the operation mode of the drag operation is switched, and the original image is scrolled by the drag operation (while drawing the line by the drag operation is prohibited).
However, for a user, such a series of operations, that is, an operation of interrupting a drag operation for drawing a line, switching an operation mode of the drag operation, and repeatedly scrolling the original image by the drag operation is not performed. This is a cumbersome and time-consuming operation and a high load.
Therefore, in the present embodiment, the information processing apparatus 1 executes the scroll process of the original image, so that the user can automatically scroll the original image only by performing a drag operation for drawing a line. As a result, the operational burden is reduced.

なお、原画像のスクロール直後は、図4(C)に示すように、指UFは描画領域ADの境界上に依然として配置されているのに対して、線L3の終端は描画領域範囲ADの略中心にスクロールされている。
このため、線L3の描画を継続するためには、ユーザは、指UFを線L3の終端まで移動させる必要がある。この場合、ユーザが指UFの表示部17へのタッチ状態を継続したまま当該指UFを移動させたときに、情報処理装置1が仮にドラッグ操作を受け付けてしまうと、オブジェクト領域の境界線とは全く別の領域に線が描画されてしまうといった事態が生じてしまう。
そこで、このような事態が生じないように、本実施形態では、情報処理装置1は、原画像のスクロール直後は、ユーザが指UFの表示部17へのタッチ状態が解除されるまでの間、指UFの移動をドラッグ操作として受け付けずに、即ち書き込みを無視して、線の描画を禁止する。
即ち、ユーザは、線L3の描画を継続するためには、指UFを表示部17から一旦離した後、表示部17における線L3の終端が表示された位置に対して指UFを再度タッチさせる。これにより、その後の指U3の移動は、ドラッグ操作として情報処理装置1に認識されるために、線L3の描画が再開される。
Immediately after scrolling the original image, as shown in FIG. 4C, the finger UF is still arranged on the boundary of the drawing area AD, whereas the end of the line L3 is an abbreviation of the drawing area range AD. It is scrolled to the center.
For this reason, in order to continue drawing the line L3, the user needs to move the finger UF to the end of the line L3. In this case, when the information processing apparatus 1 accepts a drag operation when the user moves the finger UF while keeping the touch state of the finger UF on the display unit 17, what is the boundary line of the object region? A situation occurs in which a line is drawn in a completely different area.
Therefore, in order to prevent such a situation from occurring, in the present embodiment, the information processing apparatus 1 immediately after the original image is scrolled until the user releases the touch state of the finger UF on the display unit 17. The drawing of the line is prohibited without accepting the movement of the finger UF as a drag operation, ie, ignoring the writing.
That is, in order to continue drawing the line L3, the user once releases the finger UF from the display unit 17, and then touches the finger UF again at the position where the end of the line L3 is displayed on the display unit 17. . Thereby, the subsequent movement of the finger U3 is recognized by the information processing apparatus 1 as a drag operation, so that the drawing of the line L3 is resumed.

このようにして、線L3がオブジェクト領域を囲う様に描画されると、図2の記憶制御部48は、オブジェクト領域の境界線上に線L3が重畳された原画像のデータを、軌跡描画画像のデータとして画像記憶部51に記憶させる。
これにより、情報処理装置1のCPU11は、その後の任意のタイミングで、軌跡描画画像のデータを用いて切抜き処理を実行することで、当該原画像からオブジェクト領域を切り抜くことができるようになる。
When the line L3 is drawn so as to surround the object area in this way, the storage control unit 48 in FIG. 2 converts the data of the original image in which the line L3 is superimposed on the boundary line of the object area into the locus drawing image. The data is stored in the image storage unit 51 as data.
As a result, the CPU 11 of the information processing apparatus 1 can cut out the object region from the original image by executing the cut-out process using the data of the locus drawing image at an arbitrary timing thereafter.

次に、図5を参照して、このような図2の機能的構成の情報処理装置1が実行する軌跡描画画像生成処理について説明する。
図5は、図2の機能的構成を有する図1の情報処理装置1が実行する軌跡描画画像生成処理の流れを説明するフローチャートである。
Next, with reference to FIG. 5, a locus drawing image generation process executed by the information processing apparatus 1 having the functional configuration shown in FIG. 2 will be described.
FIG. 5 is a flowchart for explaining the flow of a locus drawing image generation process executed by the information processing apparatus 1 of FIG. 1 having the functional configuration of FIG.

軌跡描画画像生成処理は、ユーザによりタッチパネル16に対する所定の操作がなされたことを契機として開始され、次のような処理が実行される。   The locus drawing image generation processing is started when a predetermined operation is performed on the touch panel 16 by the user, and the following processing is executed.

ステップS1において、表示制御部41は、原画像のデータを記憶部18から読み出して、処理対象となる原画像(以下、「処理対象画像」と呼ぶ)を表示部17に表示する。   In step S <b> 1, the display control unit 41 reads the original image data from the storage unit 18 and displays the original image to be processed (hereinafter referred to as “processing target image”) on the display unit 17.

ステップS2において、タッチ操作検出部42は、タッチダウンを検出したか否かを判定する。タッチダウンを検出していない場合には、ステップS2においてNOであると判定されて、ステップS2の判定処理が繰り返される。即ち、ユーザによるタッチ操作がなされるまでの間、軌跡描画画像生成処理は待機する。その後、ユーザによるタッチ操作が行われると、ステップS2においてYESであると判定されて、処理はステップS3に進む。   In step S2, the touch operation detection unit 42 determines whether or not a touchdown is detected. When the touchdown is not detected, it is determined as NO in Step S2, and the determination process in Step S2 is repeated. That is, the locus drawing image generation process waits until the user performs a touch operation. Thereafter, when a touch operation is performed by the user, it is determined as YES in Step S2, and the process proceeds to Step S3.

ステップS3において、CPU11は、後にステップS4で行われる拡大表示処理は終了済か否かを判定する。拡大表示処理が終了している場合、ステップS3においてNOであると判定されて、処理はステップS5に進む。ただし、ステップS5以降の処理については後述する。これに対して、拡大表示処理は終了していない場合、ステップS3においてYESであると判定されて、処理はステップS4に進む。   In step S3, the CPU 11 determines whether or not the enlarged display process performed later in step S4 has been completed. If the enlarged display process has been completed, it is determined as NO in Step S3, and the process proceeds to Step S5. However, the processing after step S5 will be described later. On the other hand, when the enlarged display process has not ended, it is determined as YES in Step S3, and the process proceeds to Step S4.

ステップS4において、CPU11は、後述の図6を参照して説明する拡大表示処理を行う。拡大表示処理では、タッチ操作時間検出部43により検出されたタッチ操作時間に応じて、処理対象画像の拡大率が決定され、決定された拡大率で、処理対象画像を拡大して表示部17に表示する処理が行われる。   In step S4, the CPU 11 performs an enlarged display process described with reference to FIG. In the enlargement display process, the enlargement ratio of the processing target image is determined according to the touch operation time detected by the touch operation time detection unit 43, and the processing target image is enlarged at the determined enlargement ratio to the display unit 17. Processing to display is performed.

ステップS5において、CPU11は、処理の終了が指示されたか否かを判定する。処理の終了の指示は、特に限定されないが、本実施形態では、例えば所定の時間タッチ操作検出部42がタッチ操作を検出しなかった場合にCPU11に対して通知がされるものとする。処理の終了が指示された場合、ステップS5においてYESであると判定されて、処理はステップS14に進む。ステップS14の処理については、後述する。これに対し、処理の終了が指示されていない場合、ステップS5においてNOであると判定されて、処理はステップS6に進む。   In step S5, the CPU 11 determines whether or not an instruction to end the process has been issued. The instruction to end the process is not particularly limited, but in the present embodiment, for example, when the touch operation detection unit 42 does not detect the touch operation for a predetermined time, the CPU 11 is notified. When the end of the process is instructed, it is determined as YES in Step S5, and the process proceeds to Step S14. The process of step S14 will be described later. On the other hand, when the end of the process is not instructed, it is determined as NO in Step S5, and the process proceeds to Step S6.

ステップS6において、線描画部45は、タッチ位置が描画領域範囲の境界上であるか否かを判定する。タッチ位置が描画領域範囲の境界上でない場合、ステップS6においてNOであると判定されて、処理はステップS7に進む。   In step S6, the line drawing unit 45 determines whether or not the touch position is on the boundary of the drawing area range. If the touch position is not on the boundary of the drawing area range, it is determined as NO in step S6, and the process proceeds to step S7.

ステップS7において、CPU11は、ドラッグ操作が行われたか否かを判定する。ドラッグ操作が行われていない場合、ステップS7においてNOであると判定されて、処理はステップ2に戻る。即ち、ユーザによるドラッグ操作がなされるまでの間、ステップS2乃至ステップS7の処理が繰り返し行われる。これに対し、ドラッグ操作が行われた場合、ステップS7においてYESであると判定されて、処理はステップS8に進む。   In step S7, the CPU 11 determines whether or not a drag operation has been performed. When the drag operation is not performed, it is determined as NO in Step S7, and the process returns to Step 2. That is, the processes in steps S2 to S7 are repeatedly performed until the user performs a drag operation. On the other hand, when the drag operation is performed, it is determined as YES in Step S7, and the process proceeds to Step S8.

ステップS8において、表示制御部41は、処理対象画像に対して、ドラッグ操作による指の移動の軌跡に沿って描画される線を表示する。この処理が終了すると、処理はステップS2に戻る。
ステップS6の処理において、タッチ位置が描画領域範囲の境界上である場合、ステップS6においてYESであると判定されて、処理はステップS9に進む。
In step S8, the display control unit 41 displays a line drawn along the trajectory of the finger movement by the drag operation on the processing target image. When this process ends, the process returns to step S2.
If it is determined in step S6 that the touch position is on the boundary of the drawing area range, YES is determined in step S6, and the process proceeds to step S9.

ステップS9において、スクロール量算定部47は、最終のタッチ位置が描画領域範囲の中心となるようにスクロール量を算定する。具体的には、スクロール量算定部47は、線描画部45による線の描画中の位置が、描画領域範囲の境界上に来た点、即ち最終のタッチ位置を始点とし、描画領域範囲の中心位置を終点とする。そして、スクロール量算定部47は、始点から終点までスクロール移動させるための移動量を、スクロール量として算定する。   In step S9, the scroll amount calculation unit 47 calculates the scroll amount so that the final touch position is at the center of the drawing area range. Specifically, the scroll amount calculation unit 47 starts from the point where the line drawing unit 45 is drawing the line on the boundary of the drawing area range, that is, the final touch position, and the center of the drawing area range. The position is the end point. Then, the scroll amount calculation unit 47 calculates the amount of movement for scrolling from the start point to the end point as the scroll amount.

ステップS10において、表示制御部41は、スクロール後の描画領域範囲に処理対象画像の領域外が存在するか否かを判定する。スクロール後の描画領域範囲に処理対象画像の領域外が存在しない場合、ステップS10においてNOであると判定されて、処理はステップS12に進む。スクロール後の描画領域範囲に処理対象画像の領域外が存在する場合、ステップS10においてYESであると判定されて、処理はステップS11に進む。   In step S <b> 10, the display control unit 41 determines whether or not there is an area outside the processing target image in the drawing area range after scrolling. If there is no area outside the processing target image in the drawing area range after scrolling, it is determined as NO in step S10, and the process proceeds to step S12. If there is an area outside the processing target image in the drawing area range after scrolling, it is determined as YES in Step S10, and the process proceeds to Step S11.

ステップS11において、スクロール量算定部47は、描画領域範囲の全域に処理対象画像が収まるようにスクロール量を修正する。   In step S <b> 11, the scroll amount calculation unit 47 corrects the scroll amount so that the processing target image fits in the entire drawing area range.

ステップ12において、表示制御部41は、ステップS9で算定したスクロール量及びステップS11において修正したスクロール量の分だけスクロールした、処理対象画像を表示する。   In step 12, the display control unit 41 displays the processing target image that is scrolled by the scroll amount calculated in step S9 and the scroll amount corrected in step S11.

ステップS13において、タッチ操作検出部42は、タッチアップを検出したか否かを判定する。タッチアップを検出していない場合には、ステップS13においてNOであると判定されて、ステップS13の判定処理が繰り返される。即ち、ユーザによるタッチ操作が解除されるまでの間、軌跡描画画像生成処理は待機する。その後、ユーザによるタッチ操作が解除されると、ステップS13においてYESであると判定されて、処理はステップS2に戻る。   In step S13, the touch operation detection unit 42 determines whether or not a touch-up has been detected. When the touch-up is not detected, it is determined as NO in Step S13, and the determination process in Step S13 is repeated. That is, the locus drawing image generation process waits until the touch operation by the user is released. Thereafter, when the touch operation by the user is released, it is determined as YES in Step S13, and the process returns to Step S2.

ステップS14において、記憶制御部48は、線が描画された処理対象の画像のデータを画像記憶部51に記憶する。この処理が終了すると軌跡描画画像生成処理は終了となる。   In step S <b> 14, the storage control unit 48 stores in the image storage unit 51 the data of the processing target image on which the line is drawn. When this process ends, the locus drawing image generation process ends.

以上、図5を参照して、軌跡描画画像生成処理の流れについて説明した。
次に、図6を参照して、図5の軌跡描画画像生成処理のうち、ステップS4の拡大表示処理の詳細な流れについて説明する。
The flow of the locus drawing image generation process has been described above with reference to FIG.
Next, with reference to FIG. 6, the detailed flow of the enlarged display process of step S4 in the locus drawing image generation process of FIG. 5 will be described.

図6は、拡大表示処理の流れを説明するフローチャートである。
上述したように、CPU11により、図5のステップS3の処理で、拡大表示処理は終了していないと判定されると、処理はステップS4に進み、拡大表示処理として次のような処理が実行される。
FIG. 6 is a flowchart for explaining the flow of the enlarged display process.
As described above, when the CPU 11 determines in step S3 in FIG. 5 that the enlarged display process has not ended, the process proceeds to step S4, and the following process is executed as the enlarged display process. The

即ち、図6のステップS21において、タッチ操作時間検出部43は、タッチ操作時間の計時を開始する。   That is, in step S21 of FIG. 6, the touch operation time detection unit 43 starts measuring the touch operation time.

ステップS22において、タッチ操作検出部42は、タッチアップを検出したか否かを判定する。タッチアップを検出していない場合には、ステップS22においてNOであると判定されて、処理はステップS23に進む。   In step S22, the touch operation detection unit 42 determines whether or not a touch-up is detected. When the touch-up is not detected, it is determined as NO in Step S22, and the process proceeds to Step S23.

ステップS23において、拡大率決定部44は、タッチ操作時間検出部43により検出されたタッチ操作時間に応じて拡大率を上昇する。この処理では、拡大率決定部44は、タッチ操作時間が増加する程、処理対象画像の拡大率を上昇させていく。   In step S <b> 23, the enlargement rate determination unit 44 increases the enlargement rate according to the touch operation time detected by the touch operation time detection unit 43. In this process, the enlargement ratio determination unit 44 increases the enlargement ratio of the processing target image as the touch operation time increases.

ステップS24において、表示制御部41は、ステップS23で上昇させた拡大率で拡大された処理対象画像を表示する。この処理が終了すると、処理はステップS22に戻り、タッチアップが行われるまで、ステップS22乃至ステップS24の処理が繰り返し行われる。即ち、表示制御部41は、ユーザによるタッチ操作が継続されている限り、処理対象画像の開始点を徐々に拡大する。これに対し、タッチ操作検出部42がタッチアップを検出した場合、ステップS22においてYESであると判定されて、処理はステップS25に進む。   In step S24, the display control unit 41 displays the processing target image enlarged at the enlargement ratio increased in step S23. When this process ends, the process returns to step S22, and the processes of steps S22 to S24 are repeated until touch-up is performed. That is, as long as the user's touch operation is continued, the display control unit 41 gradually expands the start point of the processing target image. On the other hand, when the touch operation detection unit 42 detects a touch-up, it is determined as YES in Step S22, and the process proceeds to Step S25.

ステップS25において、タッチ操作時間検出部43は、ステップS21において開始したタッチ操作時間の計時を終了する。ステップS25の処理が終了すると、拡大表示処理が終了し、即ち図5のステップS4の処理が終了し、処理はステップS5に進む。   In step S25, the touch operation time detection unit 43 ends the time measurement of the touch operation time started in step S21. When the process of step S25 ends, the enlarged display process ends, that is, the process of step S4 of FIG. 5 ends, and the process proceeds to step S5.

以上説明したように、第1実施形態では、情報処理装置1は、線描画部45と、スクロール有無判断部46と、表示制御部41と、を備える。線描画部45は、表示部17に表示された処理対象画像上に線を描画する。スクロール有無判断部46は、線描画部45による線の描画中に所定条件を満たすか否かを判断する。そして、表示制御部41は、スクロール有無判断部46により所定条件を満たすと判断された時又は直前に線描画部45により線が描画された位置を、所定位置に移動させるように、処理対象画像をスクロールさせて表示させる。   As described above, in the first embodiment, the information processing apparatus 1 includes the line drawing unit 45, the scroll presence / absence determination unit 46, and the display control unit 41. The line drawing unit 45 draws a line on the processing target image displayed on the display unit 17. The scroll presence / absence determination unit 46 determines whether or not a predetermined condition is satisfied during line drawing by the line drawing unit 45. Then, the display control unit 41 is configured to move the position where the line is drawn by the line drawing unit 45 to the predetermined position when the scroll presence / absence determination unit 46 determines that the predetermined condition is satisfied or immediately before. Scroll to display.

これにより、ユーザが切抜き処理等でオブジェクト領域を指定する際に、当該オブジェクトの境界線に沿って指UFを動かす、といったドラッグ操作をした場合、所定の条件を満たしたとき、又は直前に線が描画された位置を、所定位置に移動させるように処理対象画像をスクロールして表示される。したがって、ユーザにとっては、線を描画するためのドラッグ操作をしているだけで、自動的に処理対象画像のスクロールが行われることになり、操作負担が軽減される。   As a result, when the user specifies an object area by a clipping process or the like, if a drag operation such as moving the finger UF along the boundary line of the object is performed, a line is displayed immediately when a predetermined condition is satisfied or immediately before The processing target image is scrolled and displayed so as to move the drawn position to a predetermined position. Therefore, for the user, only by performing a drag operation for drawing a line, the processing target image is automatically scrolled, and the operation burden is reduced.

第1実施形態において、スクロール有無判断部46により判断される所定条件は、線描画部45による描画中の位置が、所定の描画領域範囲の境界上に位置するという条件である。要するに、第1実施形態では、ドラッグ操作により、線の描画中の位置が、描画領域範囲の境界上に到達した場合であっても、自動的に処理対象画像がスクロールされることから、ユーザの操作負担が軽減される。即ち、ユーザは、線を描画するためのドラッグ操作を中断して、ドラッグ操作の操作モードを切り替えて、ドラッグ操作により原画像をスクロールするといった煩雑な操作が必要なくなる。   In the first embodiment, the predetermined condition determined by the scroll presence / absence determining unit 46 is a condition that the position during drawing by the line drawing unit 45 is located on the boundary of a predetermined drawing area range. In short, in the first embodiment, the processing target image is automatically scrolled even when the drawing position of the line reaches the boundary of the drawing area range by the drag operation. Operation burden is reduced. That is, the user does not need to perform complicated operations such as interrupting the drag operation for drawing a line, switching the operation mode of the drag operation, and scrolling the original image by the drag operation.

また、表示制御部41は、スクロール有無判断部46により所定条件を満たすと判断された時又は直前に線描画部45により線が描画された位置を、描画領域範囲の略中心となるように、画像をスクロールさせて表示させる。
これにより、線が描画された位置がユーザの視認しにくい位置、又はタッチしづらい位置になった場合、描画領域範囲の略中心に自動的にスクロールされることから、ユーザは常に視認しやすく、且つタッチしやすい位置でドラッグ操作を行うことができる。
Further, the display control unit 41 is configured so that the position where the line is drawn by the line drawing unit 45 when the scroll presence / absence judging unit 46 determines that the predetermined condition is satisfied is set to the approximate center of the drawing area range. Scroll the image to display.
As a result, when the position where the line is drawn becomes a position that is difficult for the user to visually recognize or a position where it is difficult to touch, it is automatically scrolled to the approximate center of the drawing area range. In addition, a drag operation can be performed at a position where touch is easy.

また、線描画部45により描画される線は、処理対象画像に含まれるオブジェクト領域とその他の領域とを区分する境界線である。したがって、ユーザはドラッグ操作を行うだけで、表示部17に表示された処理対象画像内のオブジェクト領域とその他の領域とを区分する境界線に沿って、線を描画することができる。   The line drawn by the line drawing unit 45 is a boundary line that divides the object area included in the processing target image from other areas. Therefore, the user can draw a line along the boundary line that divides the object area and the other area in the processing target image displayed on the display unit 17 only by performing a drag operation.

また、情報処理装置1は、物体の接触又は近接の操作をタッチ操作として受け付けるタッチパネル16をさらに備える。そして、線描画部45は、タッチ操作の位置の移動軌跡に沿って線を描画する。これにより、ユーザは、タッチパネル16に対して指やタッチペン等によりタッチ操作を行う場合であっても、指やタッチペン等により選択した箇所を視認しやすくすることができる。   The information processing apparatus 1 further includes a touch panel 16 that accepts an operation of touching or approaching an object as a touch operation. The line drawing unit 45 draws a line along the movement locus of the position of the touch operation. Thereby, even if it is a case where a user performs touch operation with respect to the touch panel 16 with a finger, a touch pen, etc., it can make it easy to visually recognize the location selected with the finger, the touch pen, etc.

また、情報処理装置1は、拡大率決定部44をさらに備える。拡大率決定部44は、初回のタッチ操作がなされてから、当該タッチ操作をした物体がタッチパネル16から離れるまでの時間、又は当該タッチ操作の位置の移動が開始されるまでの時間に応じて、処理対象画像の拡大率を変化させて決定する。そして、表示制御部41は、さらに、拡大率決定部44により決定された拡大率にしたがって、処理対象画像を拡大して表示部17に表示させる、これにより、ユーザによるタッチ操作時間が増加する程、処理対象画像の拡大率が上昇される。したがって、指等によるタッチ操作が継続されている間、処理対象画像を、拡大率の上昇に伴い徐々に拡大して表示される。したがって、ユーザはタッチ操作を継続するだけで、指等の物体の接触の操作に基づいて選択した箇所を視認しやすくすることができる。   The information processing apparatus 1 further includes an enlargement rate determination unit 44. The enlargement ratio determining unit 44 is configured to perform a time period from when the first touch operation is performed until the object that has performed the touch operation moves away from the touch panel 16 or a time until the movement of the position of the touch operation starts. This is determined by changing the enlargement ratio of the processing target image. Then, the display control unit 41 further enlarges the processing target image on the display unit 17 in accordance with the enlargement rate determined by the enlargement rate determination unit 44, thereby increasing the touch operation time by the user. The enlargement ratio of the processing target image is increased. Therefore, while the touch operation with a finger or the like is continued, the processing target image is gradually enlarged and displayed as the enlargement rate increases. Therefore, the user can easily visually recognize the portion selected based on the contact operation of an object such as a finger only by continuing the touch operation.

[第2実施形態]
スクロール量は、タッチ位置が描画領域範囲の境界上にきたことを契機として算定されたが、特に第1実施形態の例に限定されない。また、最終のタッチ位置が描画領域範囲の中心となるようにスクロール量が算定されたが、特に第1実施形態の例に限定されない。
そこで、第2実施形態では、タッチアップを検出したことを契機として、スクロール量を算定するものとする。また、算定されるスクロール量は、タップアップの直前のタップ位置が描画領域範囲の中心となるように算定されるものとする。
[Second Embodiment]
The scroll amount is calculated when the touch position is on the boundary of the drawing area range, but is not particularly limited to the example of the first embodiment. In addition, the scroll amount is calculated so that the final touch position is the center of the drawing area range, but is not particularly limited to the example of the first embodiment.
Therefore, in the second embodiment, the scroll amount is calculated in response to detection of touch-up. The calculated scroll amount is calculated so that the tap position immediately before the tap-up is at the center of the drawing area range.

第2実施形態の情報処理装置のハードウェア構成及び機能的構成は、第1実施形態のものと同様、即ち図1及び図2の各々に示すとおりであり、ここではその説明は省略する。また、第2実施形態の拡大表示処理は、第1実施形態のものと同様、即ち図6に示すとおりであり、ここではその説明は省略する。
そこで以下、図7を参照して、第2実施形態の情報処理装置が実行する軌跡描画画像生成処理についてのみ説明する。
図7は、図2の機能的構成を有する図1の情報処理装置1が実行する第2実施形態の軌跡描画画像生成処理の流れの一例であって、図5とは異なる例を説明するフローチャートである。
The hardware configuration and functional configuration of the information processing apparatus of the second embodiment are the same as those of the first embodiment, that is, as shown in each of FIGS. 1 and 2, and description thereof is omitted here. Further, the enlarged display process of the second embodiment is the same as that of the first embodiment, that is, as shown in FIG. 6, and the description thereof is omitted here.
Accordingly, only the locus drawing image generation process executed by the information processing apparatus of the second embodiment will be described below with reference to FIG.
FIG. 7 is a flowchart illustrating an example of a flow of trajectory drawing image generation processing according to the second embodiment executed by the information processing apparatus 1 of FIG. 1 having the functional configuration of FIG. 2 and an example different from FIG. It is.

軌跡描画画像生成処理は、ユーザによりタッチパネル16に対する所定の操作がなされたことを契機として開始され、次のような処理が実行される。   The locus drawing image generation processing is started when a predetermined operation is performed on the touch panel 16 by the user, and the following processing is executed.

ステップS41において、表示制御部41は、処理対象画像のデータを記憶部18から読み出して、処理対象画像を表示部17に表示する。   In step S <b> 41, the display control unit 41 reads the processing target image data from the storage unit 18 and displays the processing target image on the display unit 17.

ステップS42において、タッチ操作検出部42は、タッチダウンを検出したか否かを判定する。タッチダウンを検出していない場合には、ステップS42においてNOであると判定されて、ステップS42の判定処理が繰り返される。即ち、ユーザによるタッチ操作がなされるまでの間、軌跡描画画像生成処理は待機する。その後、ユーザによるタッチ操作が行われると、ステップS42においてYESであると判定されて、処理はステップS43に進む。   In step S42, the touch operation detection unit 42 determines whether or not a touchdown is detected. When the touchdown is not detected, it is determined as NO in Step S42, and the determination process in Step S42 is repeated. That is, the locus drawing image generation process waits until the user performs a touch operation. Thereafter, when a touch operation is performed by the user, it is determined as YES in Step S42, and the process proceeds to Step S43.

ステップS43において、CPU11は、後にステップS44で行われる拡大表示処理は終了済か否かを判定する。拡大表示処理が終了している場合、ステップS43においてNOであると判定されて、処理はステップS45に進む。ただし、ステップS45以降の処理については後述する。これに対して、拡大表示処理は終了していない場合、ステップS43においてYESであると判定されて、処理はステップS44に進む。   In step S43, the CPU 11 determines whether or not the enlarged display process performed later in step S44 has been completed. If the enlarged display process has been completed, it is determined as NO in Step S43, and the process proceeds to Step S45. However, the processing after step S45 will be described later. On the other hand, when the enlarged display process has not ended, it is determined as YES in Step S43, and the process proceeds to Step S44.

ステップS44において、CPU11は、図6を参照して説明する拡大表示処理を行う。拡大表示処理では、タッチ操作時間検出部43により検出されたタッチ操作時間に応じて、処理対象画像の拡大率が決定され、決定された拡大率で、処理対象画像を拡大して表示部17に表示する処理が行われる。   In step S44, the CPU 11 performs an enlarged display process described with reference to FIG. In the enlargement display process, the enlargement ratio of the processing target image is determined according to the touch operation time detected by the touch operation time detection unit 43, and the processing target image is enlarged at the determined enlargement ratio to the display unit 17. Processing to display is performed.

ステップS45において、CPU11は、処理の終了が指示されたか否かを判定する。処理の終了の指示は、特に限定されないが、本実施形態では、例えば所定の時間タッチ操作検出部42がタッチ操作を検出しなかった場合にCPU11に対して通知がされるものとする。処理の終了が指示された場合、ステップS45においてYESであると判定されて、処理はステップS53に進む。ステップS53の処理については、後述する。これに対し、処理の終了が指示されていない場合、ステップS45においてNOであると判定されて、処理はステップS46に進む。   In step S45, the CPU 11 determines whether or not an instruction to end the process is given. The instruction to end the process is not particularly limited, but in the present embodiment, for example, when the touch operation detection unit 42 does not detect the touch operation for a predetermined time, the CPU 11 is notified. When the end of the process is instructed, it is determined as YES in Step S45, and the process proceeds to Step S53. The process of step S53 will be described later. On the other hand, when the end of the process is not instructed, it is determined as NO in Step S45, and the process proceeds to Step S46.

ステップS46において、CPU11は、ドラッグ操作が行われたか否かを判定する。ドラッグ操作が行われた場合、ステップS46においてYESであると判定されて、処理はステップS47に進む。   In step S46, the CPU 11 determines whether or not a drag operation has been performed. When the drag operation is performed, it is determined as YES in Step S46, and the process proceeds to Step S47.

ステップS47において、表示制御部41は、処理対象画像に対して、ドラッグ操作による指の移動の軌跡に沿って描画される線を表示する。この処理が終了すると、処理はステップS42に戻る。
ステップS46の処理において、ドラッグ操作が行われた場合、ステップS46においてNOであると判定されて、処理はステップS48に進む。
In step S47, the display control unit 41 displays a line drawn along the trajectory of the finger movement by the drag operation on the processing target image. When this process ends, the process returns to step S42.
If a drag operation is performed in the process of step S46, it is determined as NO in step S46, and the process proceeds to step S48.

ステップS48において、タッチ操作検出部42は、タッチアップを検出したか否かを判定する。タッチアップが検出されていない場合、ステップS48においてNOであると判定されて、処理はステップS42に戻る。これに対し、タッチアップが検出された場合、ステップS48においてYESであると判定されて、処理はステップS49に進む。   In step S48, the touch operation detection unit 42 determines whether or not a touch-up has been detected. When the touch-up is not detected, it is determined as NO in Step S48, and the process returns to Step S42. On the other hand, when touch-up is detected, it is determined as YES in Step S48, and the process proceeds to Step S49.

ステップS49において、スクロール量算定部47は、タッチアップの直前のタッチ位置が描画領域範囲の中心となるように、スクロール量を算定する。具体的には、スクロール量算定部47は、線描画部45による線の描画中の位置が、タッチアップの直前のタッチ位置を始点とし、描画領域範囲の中心位置を終点とする。そして、スクロール量算定部47は、始点から終点までスクロール移動させるための移動量を、スクロール量として算定する。   In step S49, the scroll amount calculation unit 47 calculates the scroll amount so that the touch position immediately before the touch-up is at the center of the drawing area range. Specifically, the scroll amount calculation unit 47 sets the position during line drawing by the line drawing unit 45 as the starting point at the touch position immediately before the touch-up and the center position of the drawing area range as the end point. Then, the scroll amount calculation unit 47 calculates the amount of movement for scrolling from the start point to the end point as the scroll amount.

ステップS50において、表示制御部41は、スクロール後の描画領域範囲に処理対象画像の領域外が存在するか否かを判定する。スクロール後の描画領域範囲に処理対象画像の領域外が存在しない場合、ステップS50においてNOであると判定されて、処理はステップS52に進む。スクロール後の描画領域範囲に処理対象画像の領域外が存在する場合、ステップS50においてYESであると判定されて、処理はステップS51に進む。   In step S50, the display control unit 41 determines whether or not there is an area outside the processing target image in the drawing area range after scrolling. If there is no area outside the processing target image in the drawing area range after scrolling, it is determined NO in step S50, and the process proceeds to step S52. If there is an area outside the processing target image in the drawing area range after scrolling, it is determined as YES in Step S50, and the process proceeds to Step S51.

ステップS51において、スクロール量算定部47は、描画領域範囲の全域に処理対象画像が収まるようにスクロール量を修正する。   In step S51, the scroll amount calculation unit 47 corrects the scroll amount so that the processing target image fits in the entire drawing area range.

ステップ52において、表示制御部41は、ステップS49で算定したスクロール量及びステップS51において修正したスクロール量の分だけスクロールした、処理対象画像を表示する。この処理が終了すると、処理はステップS42に戻る。   In step 52, the display control unit 41 displays the processing target image scrolled by the scroll amount calculated in step S49 and the scroll amount corrected in step S51. When this process ends, the process returns to step S42.

ステップS53において、記憶制御部48は、線が描画された処理対象の画像のデータを画像記憶部51に記憶する。この処理が終了すると軌跡描画画像生成処理は終了となる。   In step S <b> 53, the storage control unit 48 stores, in the image storage unit 51, data of a processing target image on which a line is drawn. When this process ends, the locus drawing image generation process ends.

以上説明したように、第2実施形態において、スクロール有無判断部46により判断される所定条件は、所定の描画領域範囲における描画手段による線の描画が中断されたという条件である。要するに、第2実施形態では、ユーザがドラッグ操作を中断した場合に、自動的に処理対象画像がスクロールされることから、ユーザの操作負担が軽減される。即ち、ユーザは、線を描画するためのドラッグ操作を中断するだけで、処理対象画像をスクロールすることが可能となる。   As described above, in the second embodiment, the predetermined condition determined by the scroll presence / absence determining unit 46 is a condition that the line drawing by the drawing means in the predetermined drawing area range is interrupted. In short, in the second embodiment, when the user interrupts the drag operation, the processing target image is automatically scrolled, so that the operation burden on the user is reduced. That is, the user can scroll the processing target image only by interrupting the drag operation for drawing a line.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、線描画部45は、指UFの接触位置における線の開始点L1のデータを生成しているがこれに限られるものではない。例えば、線描画部45は、指UFの接触位置における線の開始点L1からオブジェクト側、又はオブジェクトの反対側に所定距離離れた箇所に開始点のデータを生成することができる。これにより、線が指先で隠れてしまうのを防ぐことができる。   In the above-described embodiment, the line drawing unit 45 generates data of the line start point L1 at the contact position of the finger UF, but is not limited thereto. For example, the line drawing unit 45 can generate start point data at a position a predetermined distance away from the start point L1 of the line at the contact position of the finger UF on the object side or the opposite side of the object. This can prevent the line from being hidden by the fingertip.

また、上述の実施形態では、本発明が適用される情報処理装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、表示機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the information processing apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a display function. Specifically, for example, the present invention can be applied to a notebook personal computer, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が情報処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the information processing apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部18に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. The recording medium etc. provided in The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being incorporated in advance in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which the program is recorded, the hard disk included in the storage unit 18 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
表示された画像上に線を描画する描画手段と、
前記描画手段による線の描画中に所定条件を満たすか否かを判断する判断手段と、
前記判断手段により前記所定条件を満たすと判断された時又は直前に前記描画手段により線が描画された位置を、所定位置に移動させるように、前記画像をスクロールさせて表示させる表示制御手段と、
を備えることを特徴とする情報処理装置。
[付記2]
前記判断手段により判断される前記所定条件は、前記描画手段による線の描画中の位置が、所定の描画領域範囲の境界上に位置するという条件である、
ことを特徴とする付記1に記載の情報処理装置。
[付記3]
前記判断手段により判断される前記所定条件は、所定の描画領域範囲における前記描画手段による線の描画が中断されたという条件である、
ことを特徴とする付記1に記載の情報処理装置。
[付記4]
前記表示制御手段は、前記判断手段により前記所定条件を満たすと判断された時又は直前に前記描画手段により線が描画された位置を、前記描画領域範囲の略中心となるように、前記画像をスクロールさせて表示させる、
ことを特徴とする付記2又は3に記載の情報処理装置。
[付記5]
前記描画手段により描画される前記線は、前記画像に含まれるオブジェクト領域とその他の領域とを区分する境界線である、
ことを特徴とする付記1乃至4のうち何れか1つに記載の情報処理装置。
[付記6]
物体の接触又は近接の操作をタッチ操作として受け付けるタッチパネルをさらに備え、
前記描画手段は、タッチ操作の位置の移動軌跡に沿って線を描画する、
ことを特徴とする付記1乃至5のうち何れか1つに記載の情報処理装置。
[付記7]
初回のタッチ操作がなされてから、当該タッチ操作をした物体が前記タッチパネルから離れるまでの時間、又は当該タッチ操作の位置の移動が開始されるまでの時間に応じて、画像の拡大率を変化させて決定する拡大率決定手段をさらに備え、
前記表示制御手段は、さらに、前記拡大率決定手段により決定された拡大率にしたがって、前記画像を拡大して表示させる、
ことを特徴とする付記6に記載の情報処理装置。
[付記8]
画像の表示を制御する情報処理装置が実行する情報処理方法であって、
表示された画像上に線を描画する描画ステップと、
前記描画ステップの処理による線の描画中に所定の要件を満たすか否かを判断する判断ステップと、
前記判断ステップの処理により前記所定の要件を満たすと判断された時又は直前に前記描画ステップの処理により線が描画された位置を、所定位置に移動させるように、前記画像をスクロールさせて表示させる表示制御ステップと、
を含むことを特徴とする情報処理方法。
[付記9]
画像の表示を制御するコンピュータを、
表示された画像上に線を描画する描画手段、
前記描画手段による線の描画中に所定の要件を満たすか否かを判断する判断手段、
前記判断手段により前記所定の要件を満たすと判断された時又は直前に前記描画手段により線が描画された位置を、所定位置に移動させるように、前記画像をスクロールさせて表示させる表示制御手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
A drawing means for drawing a line on the displayed image;
Determination means for determining whether or not a predetermined condition is satisfied during line drawing by the drawing means;
Display control means for scrolling and displaying the image so that the position at which the line is drawn by the drawing means is moved to a predetermined position or when the judgment means determines that the predetermined condition is satisfied;
An information processing apparatus comprising:
[Appendix 2]
The predetermined condition determined by the determination unit is a condition that a position during drawing of a line by the drawing unit is located on a boundary of a predetermined drawing area range.
The information processing apparatus according to appendix 1, wherein
[Appendix 3]
The predetermined condition determined by the determination unit is a condition that line drawing by the drawing unit in a predetermined drawing area range is interrupted.
The information processing apparatus according to appendix 1, wherein
[Appendix 4]
The display control means adjusts the image so that the position where the line is drawn by the drawing means immediately before or after the judgment means determines that the predetermined condition is satisfied is approximately the center of the drawing area range. Scroll to display,
The information processing apparatus according to appendix 2 or 3, characterized by the above.
[Appendix 5]
The line drawn by the drawing means is a boundary line that divides an object area included in the image from other areas.
The information processing apparatus according to any one of supplementary notes 1 to 4, characterized in that:
[Appendix 6]
A touch panel that accepts an object contact or proximity operation as a touch operation;
The drawing means draws a line along the movement locus of the position of the touch operation;
The information processing apparatus according to any one of supplementary notes 1 to 5, wherein:
[Appendix 7]
The image enlargement ratio is changed according to the time from when the first touch operation is performed until the touched object leaves the touch panel, or until the movement of the position of the touch operation starts. Further comprising an enlargement ratio determining means for determining
The display control means further enlarges and displays the image according to the enlargement ratio determined by the enlargement ratio determination means.
The information processing apparatus according to appendix 6, wherein:
[Appendix 8]
An information processing method executed by an information processing apparatus that controls display of an image,
A drawing step for drawing a line on the displayed image;
A determination step of determining whether or not a predetermined requirement is satisfied during line drawing by the processing of the drawing step;
The image is scrolled and displayed so that the position where the line is drawn by the drawing step process is moved to a predetermined position when it is determined by the process of the decision step that the predetermined requirement is satisfied. A display control step;
An information processing method comprising:
[Appendix 9]
A computer that controls the display of images,
A drawing means for drawing a line on the displayed image;
Determination means for determining whether or not a predetermined requirement is satisfied during drawing of a line by the drawing means;
Display control means for scrolling and displaying the image so as to move the position where the line was drawn by the drawing means to a predetermined position when it is determined by the determination means to satisfy the predetermined requirement;
A program characterized by functioning as

11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・タッチパネル、17・・・表示部、18・・・記憶部、19・・・通信部、20・・・ドライブ、31・・・リムーバブルメディア、41・・・表示制御部、42・・・タッチ操作検出部、43・・・タッチ操作時間検出部、44・・・拡大率決定部、45・・・線描画部、46・・・スクロール有無判断部、47・・・スクロール量算定部、48・・・記憶制御部、51・・・画像記憶部   11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... bus, 15 ... input / output interface, 16 ... touch panel, 17 ... display unit, 18 ... memory Unit 19 communication unit 20 drive 31 removable media 41 display control unit 42 touch operation detection unit 43 touch operation time detection unit 44・ ・ ・ Magnification rate determination unit, 45 ... Line drawing unit, 46 ... Scroll presence / absence determination unit, 47 ... Scroll amount calculation unit, 48 ... Storage control unit, 51 ... Image storage unit

Claims (7)

表示された画像上に線を描画する描画手段と、
前記描画手段による線の描画中に、所定の描画領域範囲における前記描画手段による線の描画が中断されたか否かを判断する判断手段と、
前記判断手段により所定の描画領域範囲における前記描画手段による線の描画が中断されたと判断された時又は判断された直前に前記描画手段により線が描画された位置を、前記描画領域範囲の略中心となるように、前記画像をスクロールさせて表示させる表示制御手段と、
を備えることを特徴とする情報処理装置。
A drawing means for drawing a line on the displayed image;
Determining means for determining whether drawing of the line by the drawing means in a predetermined drawing area range is interrupted during drawing of the line by the drawing means;
The position of the line by the drawing means immediately before the due line drawing said drawing means is a point or determined when it is determined to have been interrupted in a predetermined drawing area range has been drawn by the determining means, substantially in the drawing area range Display control means for scrolling and displaying the image so as to be centered ;
An information processing apparatus comprising:
前記表示制御手段によりスクロールさせて表示される前記画像が、前記描画領域範囲に収まるようにスクロール量を修正する修正手段を更に備え、
前記表示制御手段は、前記画像を、前記修正手段により修正されたスクロール量分更にスクロールさせて表示させる、
ことを特徴とする請求項に記載の情報処理装置。
A correction unit that corrects a scroll amount so that the image scrolled and displayed by the display control unit is within the drawing area range;
The display control means further displays the image by further scrolling the scroll amount corrected by the correction means.
The information processing apparatus according to claim 1 .
前記描画手段により描画される前記線は、前記画像に含まれるオブジェクト領域とその他の領域とを区分する境界線である、
ことを特徴とする請求項1又は2に記載の情報処理装置。
The line drawn by the drawing means is a boundary line that divides an object area included in the image from other areas.
The information processing apparatus according to claim 1 or 2 .
物体の接触又は近接の操作をタッチ操作として受け付けるタッチパネルをさらに備え、
前記描画手段は、タッチ操作の位置の移動軌跡に沿って線を描画する、
ことを特徴とする請求項1乃至3のうち何れか1項に記載の情報処理装置。
A touch panel that accepts an object contact or proximity operation as a touch operation;
The drawing means draws a line along the movement locus of the position of the touch operation;
The information processing apparatus according to claim 1 , wherein the information processing apparatus is an information processing apparatus.
初回のタッチ操作がなされてから、当該タッチ操作をした物体が前記タッチパネルから離れるまでの時間、又は当該タッチ操作の位置の移動が開始されるまでの時間に応じて、画像の拡大率を変化させて決定する拡大率決定手段をさらに備え、
前記表示制御手段は、さらに、前記拡大率決定手段により決定された拡大率にしたがって、前記画像を拡大して表示させる、
ことを特徴とする請求項に記載の情報処理装置。
The image enlargement ratio is changed according to the time from when the first touch operation is performed until the touched object leaves the touch panel, or until the movement of the position of the touch operation starts. Further comprising an enlargement ratio determining means for determining
The display control means further enlarges and displays the image according to the enlargement ratio determined by the enlargement ratio determination means.
The information processing apparatus according to claim 4 .
画像の表示を制御する情報処理装置が実行する情報処理方法であって、
表示された画像上に線を描画する描画処理と、
前記描画処理による線の描画中に、所定の描画領域範囲における前記描画処理による線の描画が中断されたか否かを判断する判断処理と、
前記判断処理により所定の描画領域範囲における前記描画処理による線の描画が中断されたと判断された時又は判断された直前に前記描画処理により線が描画された位置を、前記描画領域範囲の略中心となるように、前記画像をスクロールさせて表示させる表示制御処理と、
を含むことを特徴とする情報処理方法。
An information processing method executed by an information processing apparatus that controls display of an image,
A drawing process for drawing a line on the displayed image;
A determination process for determining whether or not the drawing of the line by the drawing process in a predetermined drawing area range is interrupted during the drawing of the line by the drawing process;
The drawing processing position where the line is drawn by immediately before the drawing process line drawing with is the point or determined when it is determined to have been interrupted in a predetermined drawing area range by the determination process, substantially the drawing area range Display control processing for scrolling and displaying the image so as to be centered ;
An information processing method comprising:
画像の表示を制御するコンピュータに、
表示された画像上に線を描画する描画機能、
前記描画機能による線の描画中に、所定の描画領域範囲における前記描画機能による線の描画が中断されたか否かを判断する判断機能、
前記判断機能により所定の描画領域範囲における前記描画機能による線の描画が中断されたと判断された時又は判断された直前に前記描画機能により線が描画された位置を、前記描画領域範囲の略中心となるように、前記画像をスクロールさせて表示させる表示制御機能、
を実現させることを特徴とするプログラム。
To the computer that controls the display of images,
A drawing function that draws a line on the displayed image,
A determination function for determining whether or not line drawing by the drawing function in a predetermined drawing area range is interrupted during line drawing by the drawing function;
The drawing function position the lines drawn by just before the drawing of the drawing function according to the line is the point or determined when it is determined to have been interrupted in a predetermined drawing area range by the determination function, substantially the drawing area range A display control function for scrolling and displaying the image so as to be centered ;
A program characterized by realizing.
JP2012002885A 2012-01-11 2012-01-11 Information processing apparatus, information processing method, and program Active JP5867094B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012002885A JP5867094B2 (en) 2012-01-11 2012-01-11 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012002885A JP5867094B2 (en) 2012-01-11 2012-01-11 Information processing apparatus, information processing method, and program

Publications (3)

Publication Number Publication Date
JP2013143001A JP2013143001A (en) 2013-07-22
JP2013143001A5 JP2013143001A5 (en) 2015-02-19
JP5867094B2 true JP5867094B2 (en) 2016-02-24

Family

ID=49039537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012002885A Active JP5867094B2 (en) 2012-01-11 2012-01-11 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5867094B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101518453B1 (en) 2013-08-29 2015-05-11 주식회사 픽스트리 Apparatus and methdo for playing contents
JP6051183B2 (en) * 2014-08-19 2016-12-27 京セラドキュメントソリューションズ株式会社 Display control apparatus and electronic device
JP2022111670A (en) 2021-01-20 2022-08-01 キヤノン株式会社 Projection apparatus

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01306916A (en) * 1988-06-06 1989-12-11 Toshiba Corp Graphic input device
JPH04263294A (en) * 1991-02-18 1992-09-18 Matsushita Electric Ind Co Ltd Image processor
JPH11327433A (en) * 1998-05-18 1999-11-26 Denso Corp Map display device
JP2007025023A (en) * 2005-07-13 2007-02-01 Xanavi Informatics Corp Navigation system
JP4080498B2 (en) * 2005-08-12 2008-04-23 義隆電子股▲ふん▼有限公司 Control method of intelligent type movement of touch panel
JP2010134897A (en) * 2008-10-28 2010-06-17 Nippon Telegr & Teleph Corp <Ntt> Drawing device, drawing method, program and recording medium

Also Published As

Publication number Publication date
JP2013143001A (en) 2013-07-22

Similar Documents

Publication Publication Date Title
JP6130096B2 (en) Touch screen terminal and method of controlling screen display in the terminal
JP5761216B2 (en) Information processing apparatus, information processing method, and program
JP5970086B2 (en) Touch screen hover input processing
US8847978B2 (en) Information processing apparatus, information processing method, and information processing program
EP2386941B1 (en) Information processing apparatus and method, and program
JP5160579B2 (en) Display device and screen display method
EP2706449B1 (en) Method for changing object position and electronic device thereof
TW201401150A (en) Dynamic wallpaper of mobile systems
US20210240316A1 (en) Non-transitory computer-readable medium and device for book display
US20140068499A1 (en) Method for setting an edit region and an electronic device thereof
EP2759920B1 (en) Method and apparatus for controlling content playback
CN109804340B (en) Method and device for page display, graphical user interface and mobile terminal
US11119622B2 (en) Window expansion method and associated electronic device
EP2778880A2 (en) Method for controlling display function and an electronic device thereof
JP5835240B2 (en) Information processing apparatus, information processing method, and program
JP2010237928A (en) Touch panel device and information display method
JP5867094B2 (en) Information processing apparatus, information processing method, and program
JP2004280532A (en) Selecting area control device, selecting area control method, and selecting area control program
JP5906344B1 (en) Information processing apparatus, information display program, and information display method
JP2015125462A (en) Information processing device, information processing method, and program
US9817633B2 (en) Information processing apparatus and information processing method
WO2015141091A1 (en) Information processing device, information processing method, and information processing program
JP5944147B2 (en) Information processing apparatus and information processing method
JP7121260B2 (en) Information processing device, image processing range designation method, and image processing range designation program
JP6194383B2 (en) Information processing apparatus, information display program, and information display method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151221

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5867094

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150