JP6409932B2 - Image processing program, image processing method, and information processing apparatus - Google Patents

Image processing program, image processing method, and information processing apparatus Download PDF

Info

Publication number
JP6409932B2
JP6409932B2 JP2017192943A JP2017192943A JP6409932B2 JP 6409932 B2 JP6409932 B2 JP 6409932B2 JP 2017192943 A JP2017192943 A JP 2017192943A JP 2017192943 A JP2017192943 A JP 2017192943A JP 6409932 B2 JP6409932 B2 JP 6409932B2
Authority
JP
Japan
Prior art keywords
image
unit
area
extraction target
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017192943A
Other languages
Japanese (ja)
Other versions
JP2018028923A (en
Inventor
慎太郎 木田
慎太郎 木田
伸一 田代
伸一 田代
茂 高本
茂 高本
亨 戸口
亨 戸口
藤田 香織
香織 藤田
佐伯 敦
敦 佐伯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017192943A priority Critical patent/JP6409932B2/en
Publication of JP2018028923A publication Critical patent/JP2018028923A/en
Application granted granted Critical
Publication of JP6409932B2 publication Critical patent/JP6409932B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本願は、画像処理プログラム、画像処理方法、及び情報処理装置に関する。   The present application relates to an image processing program, an image processing method, and an information processing apparatus.

スマートフォンやタブレット端末等の情報通信端末等を利用して、1又は複数の人にデータ等の情報の提供を行うシステムが存在する。例えば、学校等の授業において、生徒毎にタブレット端末等を配布し、先生と生徒とが、撮影した写真や画像キャプチャ、ファイル、文字情報等を共有して閲覧可能にするシステム等がある。このように、情報通信端末を利用することで、先生から配布されたワークファイルや写真、デジタル教科書等の資料を参照できるだけでなく、一部を抽出して保存する等の作業も行うことができる。   There are systems that provide information such as data to one or more people using information communication terminals such as smartphones and tablet terminals. For example, in a class such as a school, there is a system that distributes a tablet terminal or the like for each student so that a teacher and the student can share and view a photograph, an image capture, a file, character information, and the like. In this way, by using the information communication terminal, not only can the work files, photographs, and digital textbooks distributed by the teacher be referenced, but also work such as extracting and saving a part can be performed. .

特開2013−41332号公報JP 2013-41332 A 特開2007−28536号公報JP 2007-28536 A 特開2003−141105号公報JP 2003-141105 A

しかしながら、配布された資料の一部を抽出して保存しておくような場合、抽出部分は、新聞記事等のようにある纏まった領域に限定されるとは限らない。そのため、部分的な画像の抽出を行うには、画像の所望の領域を指定するための操作技術が必要となり、簡単な作業ではなかった。   However, when a part of the distributed material is extracted and stored, the extracted portion is not necessarily limited to a certain area such as a newspaper article. Therefore, in order to extract a partial image, an operation technique for designating a desired region of the image is required, which is not a simple operation.

1つの側面では、本発明は、簡単な操作で画像の所望の領域を抽出した部分画像を取得することを目的とする。   In one aspect, an object of the present invention is to obtain a partial image obtained by extracting a desired region of an image with a simple operation.

一態様における画像処理プログラムは、表示画像に対するタッチ操作の軌跡のうち、前記軌跡の開始点と終了点の間の途中部分が前記開始点と終了点を対角線とする矩形領域の外に位置する場合に、少なくとも前記途中部分がはみ出さないように前記矩形領域を拡張した矩形領域を抽出対象として特定する、処理をコンピュータに実行させる。 The image processing program according to one aspect includes a case where a midway portion between a start point and an end point of the trajectory of a touch operation on a display image is located outside a rectangular region having the start point and the end point as a diagonal line In addition, the computer is caused to execute a process of specifying a rectangular area obtained by expanding the rectangular area as an extraction target so that at least the middle portion does not protrude .

簡単な操作で画像の所望の領域を抽出した部分画像を取得することができる。   A partial image obtained by extracting a desired region of the image can be acquired with a simple operation.

本実施形態における情報処理装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the information processing apparatus in this embodiment. 本実施形態における情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the information processing apparatus in this embodiment. 画像処理の一例を示すフローチャートである。It is a flowchart which shows an example of an image process. モード設定時の画面例について説明するための図である。It is a figure for demonstrating the example of a screen at the time of mode setting. 第1のモードパターンにおける抽出対象領域の一例を示す図である。It is a figure which shows an example of the extraction object area | region in a 1st mode pattern. 第2のモードパターンにおける抽出対象領域の一例を示す図である。It is a figure which shows an example of the extraction object area | region in a 2nd mode pattern. 第3のモードパターンにおける抽出対象領域の一例を示す図である。It is a figure which shows an example of the extraction object area | region in a 3rd mode pattern. 抽出対象領域が特定された後の画面例を示す図である。It is a figure which shows the example of a screen after the extraction object area | region is specified. キャプチャ画面の一例を示す図である。It is a figure which shows an example of a capture screen. サムネイル画像の一例を示す図である。It is a figure which shows an example of a thumbnail image.

以下、添付図面を参照しながら、実施例について詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

<本実施形態における情報処理装置の機能構成例>
図1は、本実施形態における情報処理装置の機能構成の一例を示す図である。図1の例において、情報処理装置10は、設定部11と、モード切替部12と、タッチ位置取得部13と、領域特定部14と、表示制御部15と、表示部16と、記憶部17と、通信部18と、制御部19とを有する。
<Functional Configuration Example of Information Processing Device in Present Embodiment>
FIG. 1 is a diagram illustrating an example of a functional configuration of the information processing apparatus according to the present embodiment. In the example of FIG. 1, the information processing apparatus 10 includes a setting unit 11, a mode switching unit 12, a touch position acquisition unit 13, a region specifying unit 14, a display control unit 15, a display unit 16, and a storage unit 17. And a communication unit 18 and a control unit 19.

設定部11は、情報処理装置10の画面上に表示させる画像や文字情報等に対して、どの部分を抽出するかのモードの設定を行う。設定部11は、例えば本実施形態における画像処理プログラムの実行後に、予め設定された画像を抽出するための複数のモードの種類をアイコンやメニュー、ダイアログボックス等で画面に提示して、ユーザに選択させることで、モードの設定を行ってもよい。   The setting unit 11 sets a mode for extracting which portion of the image or character information to be displayed on the screen of the information processing apparatus 10. For example, after executing the image processing program in the present embodiment, the setting unit 11 presents a plurality of types of modes for extracting preset images on the screen using icons, menus, dialog boxes, and the like, and selects them for the user. By doing so, the mode may be set.

モードの設定としては、例えば画面に表示された画像に対し、ユーザが所望する一部の画像領域を、ユーザの指やタッチペン等でタッチ操作によりなぞることで抽出する「フリーハンドモードのON/OFF」を設定する。また、本実施形態では、フリーハンドモードに対し、更に複数の詳細モードを設定することができる。   As the mode setting, for example, a part of the image area desired by the user is extracted by touching the image displayed on the screen with a user's finger or a touch pen, etc. "Is set. In the present embodiment, a plurality of detailed modes can be set for the freehand mode.

本実施形態における詳細モードのパターンとしては、例えばタッチ操作によりなぞられた部分(タッチ操作の軌跡上の部分)を選択する第1のモードパターンがある。また、詳細モードのパターンとしては、例えばフリーハンドで囲まれた領域であって、画面上のなぞられた領域において、その軌跡が閉ループであると検出した場合に、閉ループで囲まれた画像部分(閉ループ領域)を選択する第2のモードパターンがある。なお、閉ループ領域とは、例えばタッチ操作によりなぞられた軌跡が、他の軌跡と交わることで得られる軌跡内の領域であるが、これに限定されるものではない。   As a pattern of the detailed mode in the present embodiment, for example, there is a first mode pattern that selects a part traced by a touch operation (a part on the locus of the touch operation). In addition, as a pattern of the detailed mode, for example, an area surrounded by freehand, and in a traced area on the screen, when it is detected that the locus is a closed loop, an image portion ( There is a second mode pattern for selecting (closed loop region). Note that the closed loop region is a region in a trajectory obtained by, for example, a trajectory traced by a touch operation intersecting with another trajectory, but is not limited thereto.

また、詳細モードのパターンとしては、例えば画面をXY平面とし、フリーハンドでなぞられた領域のXY座標軸の最大領域を抽出する第3のモードパターンがある。したがって、第3のモードパターンにより抽出される領域は、例えばなぞられた領域のX軸に対する最大(MAX)値及び最小(MIN)値と、Y軸に対する最大値及び最小値との4点で囲まれた矩形領域である。第3のモードパターンは、言い換えれば、タッチ操作の軌跡のうち、表示部16の画面の縦方向に最も離れた二つのポイントのそれぞれを通る二つの横線と、横方向に最も離れた二つのポイントのそれぞれを通る二つの縦線とで囲まれる領域を抽出する。   As a detailed mode pattern, for example, there is a third mode pattern in which the screen is an XY plane and the maximum region of the XY coordinate axes of the region traced freehand is extracted. Therefore, the region extracted by the third mode pattern is surrounded by four points, for example, the maximum (MAX) value and minimum (MIN) value for the X axis of the traced region and the maximum value and minimum value for the Y axis. This is a rectangular area. In other words, in the third mode pattern, the two horizontal lines passing through the two points farthest in the vertical direction of the screen of the display unit 16 and the two points farthest in the horizontal direction in the trajectory of the touch operation. A region surrounded by two vertical lines passing through each of the above is extracted.

詳細モードのパターンとしては、上述した第1〜第3のモードパターンに限定されるものではなく、他のモードパターンを有していてもよい。例えば、ユーザが画面をタップすることで、画面全体を選択するモードや、スワイプ操作により画像領域を選択するモード等を有していてもよい。   The detailed mode pattern is not limited to the first to third mode patterns described above, and may have other mode patterns. For example, the user may have a mode for selecting the entire screen by tapping the screen, a mode for selecting an image region by a swipe operation, and the like.

上述した設定部11による各種設定は、ユーザ等による画像領域の指定の前に予め設定されていることが好ましい。設定部11により設定された情報は、記憶部17等に記憶される。   The various settings by the setting unit 11 described above are preferably set in advance before the user or the like designates the image area. Information set by the setting unit 11 is stored in the storage unit 17 or the like.

モード切替部12は、表示部16の画面に表示された情報(例えば、画像)の一部を抽出するため、その一部の領域を指定するモードの切り替えを行う。モード切替部12において、切り替えられるモードは、上述した設定部11により設定されたモードである。   In order to extract a part of information (for example, an image) displayed on the screen of the display unit 16, the mode switching unit 12 switches a mode for designating a part of the area. The mode to be switched in the mode switching unit 12 is a mode set by the setting unit 11 described above.

タッチ位置取得部13は、ユーザの指やユーザが操作するタッチペン等による表示部16の画面上のタッチ操作位置を取得する。例えば、タッチ位置取得部13は、タッチ操作するタッチペン等による画面上のタッチ位置(座標)を取得する。また、タッチ位置取得部13は、タッチ操作によりなぞられた軌跡に対応する連続的なタッチ位置の座標を取得する。   The touch position acquisition unit 13 acquires a touch operation position on the screen of the display unit 16 using a user's finger or a touch pen operated by the user. For example, the touch position acquisition unit 13 acquires a touch position (coordinates) on the screen with a touch pen or the like that performs a touch operation. In addition, the touch position acquisition unit 13 acquires continuous touch position coordinates corresponding to the trace traced by the touch operation.

また、タッチ位置取得部13は、最初にタッチされた位置と、最後にタッチされた位置の座標を取得する。最初にタッチされた位置とは、例えば画面をタッチしていない状態から指等で画面にタッチしたときの座標値である。また、最後にタッチされた位置とは、例えば最初に画面をタッチした時間から所定時間経過後にタッチしていた位置等である。なお、最後にタッチされた位置とは、これに限定されるものではなく、例えば移動中のタッチの軌道が停止してから所定時間経過後のタッチ位置であってもよく、画面をなぞっている指等が画面から離れたときの位置であってもよいが、これに限定されるものではない。   In addition, the touch position acquisition unit 13 acquires the coordinates of the position touched first and the position touched last. The first touched position is a coordinate value when the screen is touched with a finger or the like from a state where the screen is not touched, for example. The last touched position is, for example, a position touched after a predetermined time has elapsed from the time when the screen was first touched. Note that the last touched position is not limited to this. For example, the touched position may be a touch position after a predetermined time has elapsed since the trajectory of the moving touch stops, and the user traces the screen. The position when the finger or the like is separated from the screen may be used, but is not limited to this.

また、タッチ位置取得部13は、マウス等の入力インターフェース等による入力により、表示部16の画面上にカーソル等が表示されている場合には、そのカーソルに対応付けられた位置を取得する。また、タッチ位置取得部13は、タップやダブルタップ等の動作に対応させてタッチ位置を取得してもよく、フリックやスワイプのようなタッチ位置の移動情報、ピンチインやピンチアウト等のような複数の指等を用いた操作内容を取得することができる。   In addition, when a cursor or the like is displayed on the screen of the display unit 16 by an input through an input interface such as a mouse, the touch position acquisition unit 13 acquires a position associated with the cursor. Further, the touch position acquisition unit 13 may acquire a touch position corresponding to an operation such as a tap or a double tap, and may include a plurality of pieces of movement information of the touch position such as flicks and swipes, and pinch-in and pinch-out. The operation content using the finger or the like can be acquired.

領域特定部14は、設定部11による抽出モードの種類と、タッチ位置取得部13により得られるタッチ操作の軌跡に基づいて画像抽出対象領域を特定する。また、領域特定部14は、特定した画像抽出対象領域に対応する画像データ(部分画像)を抽出する。また、領域特定部14は、抽出した画像データを記憶部17に記憶(保存)する。   The region specifying unit 14 specifies an image extraction target region based on the type of extraction mode by the setting unit 11 and the touch operation locus obtained by the touch position acquisition unit 13. Further, the area specifying unit 14 extracts image data (partial image) corresponding to the specified image extraction target area. The area specifying unit 14 stores (saves) the extracted image data in the storage unit 17.

例えば、領域特定部14は、表示された画像のうち、タッチ操作の軌跡上の部分を画像抽出対象領域として特定する。また、領域特定部14は、例えばタッチ操作の軌跡が閉ループを形成したことを検出すると、検出した閉ループ領域を画像抽出対象領域として抽出してもよい。   For example, the region specifying unit 14 specifies a portion on the locus of the touch operation in the displayed image as an image extraction target region. For example, when detecting that the locus of the touch operation forms a closed loop, the area specifying unit 14 may extract the detected closed loop area as an image extraction target area.

また、領域特定部14は、例えばタッチ操作の軌跡のうち、表示部16の画面の縦方向に最も離れた二つのポイントのそれぞれを通る二つの横線と、横方向に最も離れた二つのポイントのそれぞれを通る二つの縦線とで囲まれる領域を抽出対象領域として特定してもよい。   In addition, the area specifying unit 14 includes, for example, two horizontal lines that pass through two points that are the farthest in the vertical direction of the screen of the display unit 16 and two points that are the farthest in the horizontal direction. You may specify the area | region enclosed by the two vertical lines which pass through each as an extraction object area | region.

また、領域特定部14は、例えば連続してなぞるタッチ操作の軌跡の開始点と終了点との間の途中部分が開始点と終了点とを対角線とする矩形領域の外に位置する場合に、少なくとも上述した途中部分がはみ出さないように矩形領域を拡張した矩形領域を抽出対象領域として特定してもよい。なお、この場合、拡張した矩形領域は、例えば軌跡を囲む最小面積の四角形であるが、これに限定されるものではなく、他の形状でもよい。   In addition, the area specifying unit 14 is, for example, when the middle part between the start point and the end point of the trace of the touch operation that is continuously traced is located outside the rectangular area having the start point and the end point as diagonal lines. You may specify the rectangular area which extended the rectangular area so that at least the above-mentioned middle part may not protrude as an extraction object area. In this case, the expanded rectangular area is, for example, a rectangle having the minimum area surrounding the trajectory, but is not limited to this, and may have other shapes.

表示制御部15は、本実施形態における画像の抽出を行うための処理を実行する指示を受け付けたり、設定部11によりユーザにモードを設定させるための画面、アイコン、メニュー、ダイアログボックス等を表示する。   The display control unit 15 receives an instruction to execute processing for extracting an image in the present embodiment, and displays a screen, icons, menus, dialog boxes, and the like for allowing the setting unit 11 to set a mode. .

また、表示制御部15は、タッチ位置取得部13により取得されたなぞられた部分の位置情報(タッチ位置)を画面に表示する。また、表示制御部15は、領域特定部14により特定された抽出対象部分が示された画像を表示する。表示制御部15は、抽出する画像の一部がどの部分であるかをユーザに提示するために、タッチ操作の軌跡上の部分をタッチ操作の軌跡上以外の部分と識別可能に表示してもよい。この場合、表示制御部15は、タッチ操作の軌跡上の部分をタッチ操作の軌跡上以外の部分とは色を変えて識別可能としてもよい。どのような色に替えるかについては、予め設定部11により設定することができるが、任意の色を用いることができる。   Further, the display control unit 15 displays the position information (touch position) of the traced part acquired by the touch position acquisition unit 13 on the screen. Further, the display control unit 15 displays an image showing the extraction target portion specified by the region specifying unit 14. The display control unit 15 may display a portion on the locus of the touch operation so as to be distinguishable from a portion other than the locus of the touch operation in order to present to the user which part of the image to be extracted is a part. Good. In this case, the display control unit 15 may make it possible to distinguish a portion on the locus of the touch operation from a portion other than the portion on the locus of the touch operation by changing the color. The color to be changed can be set in advance by the setting unit 11, but any color can be used.

また、特定された領域の表示方法については、これに限定されるものではなく、例えば、斜線や模様、領域の点滅等を行うことで識別してもよい。また、表示制御部15は、抽出した画像領域(部分画像)のキャプチャ画像やサムネイル画像を生成して表示してもよい。   Further, the display method of the specified region is not limited to this, and for example, the region may be identified by performing oblique lines, a pattern, blinking of the region, or the like. Further, the display control unit 15 may generate and display a captured image or a thumbnail image of the extracted image region (partial image).

表示部16は、記憶部17に記憶された配布資料や、各種画像や映像等のデータ、通信部18等を介して外部装置(例えば、他の情報処理装置、サーバ、一以上の情報処理装置から構成されるクラウドサーバ)等から配信されたデータ等を表示する。また、表示部16は、本実施形態における各モードにより抽出された部分画像を表示する。なお、上述したタッチ位置取得部13と、表示部16とは、例えば一体のタッチパネルディスプレイとして構成されていてもよい。この場合、タッチ位置取得部13は、表示部16をタッチした位置(座標)を取得する。   The display unit 16 is a distribution material stored in the storage unit 17, data such as various images and videos, an external device (for example, another information processing device, a server, one or more information processing devices) via the communication unit 18 or the like. Data distributed from a cloud server comprised of, etc.). Further, the display unit 16 displays the partial image extracted by each mode in the present embodiment. The touch position acquisition unit 13 and the display unit 16 described above may be configured as, for example, an integrated touch panel display. In this case, the touch position acquisition unit 13 acquires the position (coordinates) where the display unit 16 is touched.

記憶部17は、本実施形態における画像処理時に用いられる各種データ等を記憶する。例えば、記憶部17は、本実施形態におけるモード設定情報や、表示内容に関する設定情報、抽出される前の情報(例えば、全体画像)、抽出された後の情報(例えば、部分画像)等を記憶するが、これに限定されるものではない。記憶部17は、処理結果を示すログ情報(履歴情報)やエラー情報、外部装置とデータの送受信を行うための通信設定情報等を記憶してもよい。   The storage unit 17 stores various data used at the time of image processing in the present embodiment. For example, the storage unit 17 stores mode setting information according to the present embodiment, setting information regarding display contents, information before extraction (for example, an entire image), information after extraction (for example, a partial image), and the like. However, the present invention is not limited to this. The storage unit 17 may store log information (history information) indicating processing results, error information, communication setting information for transmitting / receiving data to / from an external device, and the like.

通信部18は、例えばインターネットやLocal Area Network(LAN)等に代表される通信ネットワークを介して外部装置とデータの送受信を行う。なお、通信ネットワークは、有線でも無線でもよく、これらの組み合わせでもよい。   The communication unit 18 transmits / receives data to / from an external device via a communication network represented by the Internet, a Local Area Network (LAN), and the like. Note that the communication network may be wired or wireless, or a combination thereof.

制御部19は、本実施形態における画像処理を行うための各構成全体を制御する。制御部19の制御としては、例えば設定部11による設定、モード切替部12による部分画像の抽出時のモード設定、タッチ位置取得部13によるタッチ位置の取得、領域特定部14による画像抽出対象領域(切り出し領域)の特定、表示制御部15による表示制御、表示部16による表示等を行う。なお、制御部19による制御内容は、これに限定されるものではなく、例えば配布情報の資料要求処理や、各種情報のダウンロードやアップロード処理、異常発生時のエラー処理等を行うことができる。   The control unit 19 controls the entire components for performing image processing in the present embodiment. Control by the control unit 19 includes, for example, setting by the setting unit 11, mode setting at the time of partial image extraction by the mode switching unit 12, acquisition of a touch position by the touch position acquisition unit 13, and an image extraction target region ( (Cutout area) is specified, display control by the display control unit 15, display by the display unit 16, and the like are performed. The content of control by the control unit 19 is not limited to this, and for example, a distribution information material request process, various information download / upload processes, an error process when an abnormality occurs, and the like can be performed.

図1の例に示す情報処理装置10は、例えばスマートフォン、タブレット端末、Personal Digital Assistant(PDA)等の情報通信端末である。また、情報処理装置10は、電子ボート(電子黒板等)や汎用のPersonal Computer(PC)、ゲーム機器、音楽再生装置等でもよい。   The information processing apparatus 10 illustrated in the example of FIG. 1 is an information communication terminal such as a smartphone, a tablet terminal, or a personal digital assistant (PDA). Further, the information processing apparatus 10 may be an electronic boat (electronic blackboard or the like), a general-purpose personal computer (PC), a game machine, a music playback device, or the like.

<情報処理装置10のハードウェア構成例>
図2は、本実施形態における情報処理装置のハードウェア構成の一例を示す図である。図2の例において、情報処理装置10は、マイクロフォン(以下、マイクという)21と、スピーカ22と、表示部23と、操作部24と、センサ部25と、電力部26と、無線部27と、近距離通信部28と、補助記憶装置29と、主記憶装置30と、Central Processing Unit(CPU)31と、ドライブ装置32とを有し、これらはシステムバスBで相互に接続されている。
<Hardware Configuration Example of Information Processing Apparatus 10>
FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus according to the present embodiment. In the example of FIG. 2, the information processing apparatus 10 includes a microphone (hereinafter referred to as a microphone) 21, a speaker 22, a display unit 23, an operation unit 24, a sensor unit 25, a power unit 26, and a wireless unit 27. The short-range communication unit 28, the auxiliary storage device 29, the main storage device 30, the central processing unit (CPU) 31, and the drive device 32 are connected to each other via a system bus B.

マイク21は、ユーザが発した音声や、その他の音を入力する。スピーカ22は、通話相手先の音声を出力したり、着信音等の音を出力する。マイク21及びスピーカ22は、例えば、通話機能等により通話相手と会話するとき等に用いられる。   The microphone 21 inputs a voice uttered by the user and other sounds. The speaker 22 outputs the other party's voice or sounds such as a ringtone. The microphone 21 and the speaker 22 are used, for example, when talking to a call partner using a call function or the like.

表示部23は、例えばLiquid Crystal Display(LCD)や有機Electro Luminescence(EL)等のディスプレイである。また、表示部23は、例えばディスプレイとタッチパネルとを有するタッチパネルディスプレイ等でもよい。表示部23は、例えば上述した表示部16の一例に対応する。   The display unit 23 is a display such as a Liquid Crystal Display (LCD) or an organic Electro Luminescence (EL). The display unit 23 may be a touch panel display having a display and a touch panel, for example. The display unit 23 corresponds to an example of the display unit 16 described above, for example.

操作部24は、操作ボタン、タッチパネル等である。操作ボタンは、例えば電源ボタン、音量調整ボタン、その他の操作ボタンである。また、タッチパネルは、例えばディスプレイ(表示部23)とタッチパネルとが重畳されたタッチパネルディスプレイとして構成される。タッチパネルは、例えば抵抗膜方式や静電容量方式、光学式、電磁誘導方式等を利用することができ、例えばソフトウェアキーボードへのタッチ入力が行える程度のサンプリングレート及び分解能があれば方式は問わない。操作部24は、例えば上述したタッチ位置取得部13の一例に対応する。   The operation unit 24 is an operation button, a touch panel, or the like. The operation buttons are, for example, a power button, a volume adjustment button, and other operation buttons. The touch panel is configured as a touch panel display in which a display (display unit 23) and a touch panel are superimposed, for example. As the touch panel, for example, a resistive film method, a capacitance method, an optical method, an electromagnetic induction method, or the like can be used. Any method can be used as long as the touch panel has a sampling rate and resolution sufficient to allow touch input to the software keyboard. The operation unit 24 corresponds to an example of the touch position acquisition unit 13 described above, for example.

センサ部25は、情報処理装置10のある時点又は継続的な動作を検出する。例えば、センサ部25は、情報処理装置10自体の傾き角度、加速度、方向、位置等を検出するが、これに限定されるものではない。なお、センサ部25としては、例えばアナログ出力の加速度センサを有するが、これに限定されるものではなく、例えば傾きセンサやジャイロセンサ、Global Positioning System(GPS)等を有していてもよい。   The sensor unit 25 detects a certain point in time or continuous operation of the information processing apparatus 10. For example, the sensor unit 25 detects the tilt angle, acceleration, direction, position, and the like of the information processing apparatus 10 itself, but is not limited thereto. The sensor unit 25 includes, for example, an analog output acceleration sensor. However, the sensor unit 25 is not limited thereto. For example, the sensor unit 25 may include an inclination sensor, a gyro sensor, a global positioning system (GPS), or the like.

電力部26は、情報処理装置10の各構成に対して電力を供給する。電力部26は、例えばバッテリ等の内部電源であるが、これに限定されるものではない。電力部26は、電力量を常時又は所定の時間間隔で検出し、電力量の残量等を監視することもできる。   The power unit 26 supplies power to each component of the information processing apparatus 10. The power unit 26 is, for example, an internal power source such as a battery, but is not limited thereto. The power unit 26 can also detect the amount of power constantly or at predetermined time intervals and monitor the remaining amount of power.

無線部27は、例えばアンテナ等を用いて基地局からの無線信号(通信データ)を受信したり、アンテナを介して無線信号を基地局に送信する通信データの送受信部である。   The radio unit 27 is a communication data transmission / reception unit that receives a radio signal (communication data) from a base station using, for example, an antenna or transmits a radio signal to the base station via an antenna.

近距離通信部28は、例えば赤外線通信やBluetooth(登録商標)、Wi−Fi(登録商標)等の通信手法を用いて、他の情報処理装置や外部装置との近距離通信を行う。上述した無線部27及び近距離通信部28は、外部装置等との間でデータの送受信を可能とする通信インターフェースである。   The short-range communication unit 28 performs short-range communication with other information processing apparatuses and external devices using communication methods such as infrared communication, Bluetooth (registered trademark), and Wi-Fi (registered trademark). The wireless unit 27 and the short-range communication unit 28 described above are communication interfaces that enable data transmission / reception with an external device or the like.

補助記憶装置29は、例えばHard Disk Drive(HDD)やSolid State Drive(SSD)等のストレージ手段である。補助記憶装置29は、各種のプログラム等を記憶し、必要に応じてデータの入出力を行う。   The auxiliary storage device 29 is a storage unit such as a hard disk drive (HDD) or a solid state drive (SSD). The auxiliary storage device 29 stores various programs and the like and inputs / outputs data as necessary.

主記憶装置30は、CPU31からの指示により補助記憶装置29から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置30は、例えばRead Only Memory(ROM)やRandom Access Memory(RAM)等であるが、これに限定されるものではない。補助記憶装置29及び主記憶装置30は、例えば上述した記憶部17の一例に対応する。   The main storage device 30 stores an execution program read from the auxiliary storage device 29 in response to an instruction from the CPU 31, and stores various information obtained during program execution. The main storage device 30 is, for example, a read only memory (ROM) or a random access memory (RAM), but is not limited thereto. The auxiliary storage device 29 and the main storage device 30 correspond to an example of the storage unit 17 described above, for example.

CPU31は、オペレーティングシステム等の制御プログラム、及び主記憶装置30に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、画像処理における各処理を実現する。   The CPU 31 controls processing of the entire computer, such as various operations and data input / output with each hardware component, based on a control program such as an operating system and an execution program stored in the main storage device 30. Thus, each process in the image processing is realized.

具体的には、CPU31は、例えば表示部23や操作部24等から得られるプログラムの実行指示等に基づき、補助記憶装置29にインストールされたプログラムを実行させることにより、主記憶装置30上でプログラムに対応する処理を行う。例えば、CPU31は、画像処理プログラムを実行させることで、上述した設定部11によるモード設定、モード切替部12による部分画像の抽出時のモード切り替え、タッチ位置取得部13によるタッチ位置の取得、領域特定部14による画像抽出対象領域の特定等の処理を行う。また、CPU31は、画像処理プログラムを実行させることで、表示制御部15による表示制御、表示部16による表示、記憶部17によるデータの読み出しや書き込み、通信部18によるデータの送受信等の処理を行う。CPU31における処理内容は、上述した内容に限定されるものではない。CPU31により実行された内容は、必要に応じて補助記憶装置29等に記憶される。   Specifically, the CPU 31 executes a program on the main storage device 30 by causing the auxiliary storage device 29 to execute a program based on, for example, a program execution instruction obtained from the display unit 23, the operation unit 24, or the like. Process corresponding to. For example, by executing the image processing program, the CPU 31 sets the mode by the setting unit 11 described above, mode switching at the time of partial image extraction by the mode switching unit 12, acquisition of the touch position by the touch position acquisition unit 13, and area specification Processing such as specifying an image extraction target region by the unit 14 is performed. Further, the CPU 31 executes an image processing program to perform processing such as display control by the display control unit 15, display by the display unit 16, reading and writing of data by the storage unit 17, and transmission and reception of data by the communication unit 18. . The processing contents in the CPU 31 are not limited to the contents described above. The contents executed by the CPU 31 are stored in the auxiliary storage device 29 or the like as necessary.

ドライブ装置32は、例えば記録媒体33等を着脱自在にセットすることができ、セットした記録媒体33に記録された各種情報を読み込んだり、所定の情報を記録媒体33に書き込むことができる。ドライブ装置32は、例えば媒体装填スロット等であるが、これに限定されるものではない。   For example, the drive device 32 can detachably set the recording medium 33 and the like, and can read various information recorded on the set recording medium 33 and write predetermined information on the recording medium 33. The drive device 32 is, for example, a medium loading slot or the like, but is not limited thereto.

記録媒体33は、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体33は、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体33は、Universal Serial Bus(USB)メモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。   The recording medium 33 is a computer-readable recording medium that stores an execution program and the like as described above. The recording medium 33 may be a semiconductor memory such as a flash memory, for example. Further, the recording medium 33 may be a portable recording medium such as a Universal Serial Bus (USB) memory, but is not limited thereto.

本実施形態では、上述したコンピュータ本体のハードウェア構成に実行プログラム(例えば、画像処理プログラム等)をインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における画像処理等を実現することができる。また、上述した画像処理に対応する画像処理プログラムは、例えば装置上で常駐している状態であってもよく、起動指示により起動させてもよい。   In this embodiment, by installing an execution program (for example, an image processing program or the like) in the hardware configuration of the computer main body described above, hardware processing and software cooperate to realize image processing or the like in this embodiment. can do. Further, the image processing program corresponding to the above-described image processing may be in a resident state on the apparatus, for example, or may be activated by an activation instruction.

上述した情報処理装置10は、一態様として、例えば表示装置一体型のタッチパネルディスプレイを搭載したデバイスと、その上で動作するソフトウェアとを用いて実装される。ソフトウェアの部分は、等価な働きをするハードウェアによって実現されていてもよい。また、情報処理装置10は、例えばPC等のハードウェア構成により実現されていてもよい。   As one aspect, the information processing apparatus 10 described above is mounted using, for example, a device on which a display device-integrated touch panel display is mounted and software that operates on the device. The software part may be realized by hardware that performs an equivalent function. Further, the information processing apparatus 10 may be realized by a hardware configuration such as a PC.

<画像処理の一例>
次に、情報処理装置10における画像処理の一例について、フローチャートを用いて説明する。図3は、画像処理の一例を示すフローチャートである。なお、図3の例に示す画像処理では、処理実行の前に予め設定部11によるモード等の各種設定がなされているものとする。また、図3の例では、本実施形態によるフリーハンドによる部分画像の抽出モードとして、上述した第1〜第3のモードパターンが設定されているものとして説明するが、これに限定されるものではない。
<Example of image processing>
Next, an example of image processing in the information processing apparatus 10 will be described using a flowchart. FIG. 3 is a flowchart illustrating an example of image processing. In the image processing shown in the example of FIG. 3, it is assumed that various settings such as a mode by the setting unit 11 are made in advance before the processing is executed. In the example of FIG. 3, the first to third mode patterns described above are set as the freehand partial image extraction mode according to the present embodiment. However, the present invention is not limited to this. Absent.

図3の例において、情報処理装置10の設定部11は、ユーザ等からの指示により、表示されている画像の一部を抽出して保存するためのモード(例えば、フリーハンドモード)の選択を受け付け(S01)、更に詳細モードの選択を受け付ける(S02)。なお、S01及びS02の処理において、モード切替部12は、表示部16の画面上に表示されたアイコンやメニュー、ダイアログボックス等に対してユーザが選択したモードを受け付けることができるが、これに限定されるものではない。   In the example of FIG. 3, the setting unit 11 of the information processing apparatus 10 selects a mode (for example, a freehand mode) for extracting and storing a part of the displayed image according to an instruction from the user or the like. Acceptance (S01) and further selection of the detailed mode is accepted (S02). In the processes of S01 and S02, the mode switching unit 12 can accept the mode selected by the user with respect to icons, menus, dialog boxes, and the like displayed on the screen of the display unit 16. However, the present invention is not limited to this. Is not to be done.

次に、情報処理装置10のモード切替部12は、S02の処理で受け付けたモードに切り替える(S03)。次に、情報処理装置10のタッチ位置取得部13は、ユーザから選択されたモードが上述した第1のモードパターンか否かを判断する(S04)。タッチ位置取得部13は、第1のモードパターンである場合(S04において、YES)、情報処理装置10のタッチ位置取得部13は、タッチ開始(開始点)を受け付け(S05)、なぞられた部分の位置情報(座標等)を取得する(S06)。なお、S06の処理では、画面上のどの部分がなぞられたかがユーザに分かるように、表示制御部15は、指等でなぞられた部分の位置に対応する軌跡情報を表示部16に表示してもよい。また、タッチ位置取得部13は、S06の処理で取得した位置情報を内部メモリ等に一時的に記憶してもよい。   Next, the mode switching unit 12 of the information processing apparatus 10 switches to the mode accepted in the process of S02 (S03). Next, the touch position acquisition unit 13 of the information processing apparatus 10 determines whether the mode selected by the user is the first mode pattern described above (S04). If the touch position acquisition unit 13 is the first mode pattern (YES in S04), the touch position acquisition unit 13 of the information processing apparatus 10 receives a touch start (start point) (S05) and is traced. Is acquired (S06). In the process of S06, the display control unit 15 displays the trajectory information corresponding to the position of the part traced with the finger or the like on the display unit 16 so that the user can know which part is traced on the screen. Also good. The touch position acquisition unit 13 may temporarily store the position information acquired in the process of S06 in an internal memory or the like.

次に、情報処理装置10は、表示部16の画面をタッチ操作している指が画面から離れたか否かを判断する(S07)。S07の処理では、ユーザの指が離れたことにより、終了点として認識したか否かを判断するものである。S07の処理では、例えば開始点を受け付けてから所定時間経過後のタッチ位置を受け付けたか否かで判断してもよい。また、S07の処理では、所定間隔毎に指が離れたか否かを判断する。   Next, the information processing apparatus 10 determines whether or not the finger touching the screen of the display unit 16 has left the screen (S07). In the process of S07, it is determined whether or not the user's finger is recognized as an end point when the finger is removed. In the process of S07, for example, a determination may be made based on whether or not a touch position after a predetermined time has elapsed since the start point was received. In the process of S07, it is determined whether or not the finger is removed at every predetermined interval.

S07の処理において、指が離れていない場合(S07において、NO)、S06の処理に戻る。つまり、指が離れたと判断されるまで、なぞられたタッチ位置(軌跡上の位置)の情報が記憶される。また、S07の処理において、指が離れた場合(S07において、YES)、情報処理装置10の領域特定部14は、上述した開始点から終了点までの軌跡と、第1のモードパターンにおける領域特定条件とに基づいて、抽出対象領域を特定する(S08)。第1のモードパターンでは、タッチの操作の軌跡上の部分が画像抽出対象領域として特定される。   If the finger is not removed in the process of S07 (NO in S07), the process returns to S06. That is, information on the touched position (position on the trajectory) is stored until it is determined that the finger has been released. When the finger is released in the process of S07 (YES in S07), the area specifying unit 14 of the information processing apparatus 10 specifies the locus from the start point to the end point described above and the area in the first mode pattern. Based on the conditions, the extraction target area is specified (S08). In the first mode pattern, the part on the locus of the touch operation is specified as the image extraction target area.

また、タッチ位置取得部13は、S04の処理において、第1のモードパターンでない場合(S04において、NO)、上述した第2のモードパターンであるか否かを判断する(S09)。第2のモードパターンである場合(S09において、YES)、タッチ位置取得部13は、タッチ開始(開始点)を受け付け(S10)、なぞられた部分の位置情報を取得する(S11)。なお、S11の処理では、上述したように軌跡情報を表示部16に表示してもよい。また、取得した位置情報は、内部メモリ等に一時的に記憶される。   In addition, when it is not the first mode pattern in the process of S04 (NO in S04), the touch position acquisition unit 13 determines whether or not it is the second mode pattern described above (S09). If it is the second mode pattern (YES in S09), the touch position acquisition unit 13 receives a touch start (start point) (S10) and acquires position information of the traced part (S11). In the process of S11, the trajectory information may be displayed on the display unit 16 as described above. The acquired position information is temporarily stored in an internal memory or the like.

次に、領域特定部14は、なぞれられた軌跡が閉ループとなったか否かを判断し(S12)、閉ループでない場合(S12において、NO)、S11の処理に戻る。つまり、閉ループになるまで処理が継続される。また、閉ループである場合(S12において、YES)、領域特定部14は、その閉ループ内を抽出領域として選択する(S13)。   Next, the region specifying unit 14 determines whether or not the traced trajectory has become a closed loop (S12). If the trajectory is not a closed loop (NO in S12), the process returns to S11. That is, processing is continued until a closed loop is reached. If it is a closed loop (YES in S12), the area specifying unit 14 selects the inside of the closed loop as an extraction area (S13).

次に、タッチ位置取得部13は、ユーザの指が表示部16の画面から離れたか否かを判断し(S14)、ユーザの指が離れていない場合(S14において、NO)、S11の処理に戻る。また、ユーザの指が離れた場合(S14において、YES)、開始点及び終了点の位置座標と、第2のモードパターンにおける領域特定条件とに基づいて、抽出対象領域を特定する(S15)。第2のモードパターンでは、連続してなぞられるタッチ操作の軌跡が閉ループを形成したことを検出すると、その閉ループで囲まれた画像部分が画像抽出対象として特定される。   Next, the touch position acquisition unit 13 determines whether or not the user's finger has left the screen of the display unit 16 (S14). If the user's finger has not been released (NO in S14), the process of S11 is performed. Return. When the user's finger is released (YES in S14), the extraction target region is specified based on the position coordinates of the start point and the end point and the region specifying condition in the second mode pattern (S15). In the second mode pattern, when it is detected that the trace of the touch operation continuously traced forms a closed loop, an image portion surrounded by the closed loop is specified as an image extraction target.

また、タッチ位置取得部13は、S09の処理において、第2のモードパターンでない場合(S09において、NO)、上述した第3のモードパターンであるとして処理を行う。   In addition, when the touch position acquisition unit 13 is not the second mode pattern in the process of S09 (NO in S09), the touch position acquisition unit 13 performs the process as the above-described third mode pattern.

タッチ位置取得部13は、ユーザの指等によるタッチ開始(開始点)を受け付け(S16)、なぞられた部分の位置情報を取得する(S17)。なお、S17の処理では、上述したように軌跡情報を表示部16に表示してもよい。また、取得した位置情報は、内部メモリ等に一時的に記憶される。   The touch position acquisition unit 13 receives a touch start (start point) by a user's finger or the like (S16), and acquires position information of the traced part (S17). In the process of S17, the trajectory information may be displayed on the display unit 16 as described above. The acquired position information is temporarily stored in an internal memory or the like.

次に、タッチ位置取得部13は、指が離れたか否か(終了点)を判断し(S18)、指が離れていない場合(S18において、NO)、S17の処理に戻る。また、指が離れた場合(S17において、YES)、タッチ位置取得部13は、なぞられた部分のうちX軸の最大値及び最小値、Y軸の最大値及び最小値を取得し(S19)、S19の処理で得られた情報と、第3のモードパターンにおける領域特定条件とに基づいて、抽出対象領域を特定する(S20)。第3のモードパターンでは、例えばタッチ操作の軌跡のうち、縦方向に最も離れた二つのポイント(例えば、Y軸の最大値、最小値)のそれぞれを通る二つの横線と、横方向に最も離れた二つのポイント(例えば、X軸の最大値、最小値)のそれぞれを通る二つの縦線とで囲まれる領域を抽出対象領域として特定される。   Next, the touch position acquisition unit 13 determines whether or not the finger has been released (end point) (S18). If the finger has not been released (NO in S18), the process returns to S17. When the finger is released (YES in S17), the touch position acquisition unit 13 acquires the maximum and minimum values of the X axis and the maximum and minimum values of the Y axis among the traced portions (S19). The extraction target area is specified based on the information obtained in the process of S19 and the area specifying condition in the third mode pattern (S20). In the third mode pattern, for example, two horizontal lines passing through two points (for example, the maximum value and the minimum value of the Y axis) that are farthest in the vertical direction from the locus of the touch operation, and the furthest distance in the horizontal direction A region surrounded by two vertical lines passing through each of the two points (for example, the maximum value and the minimum value of the X axis) is specified as the extraction target region.

また、第3のモードパターンとして、例えばタッチ操作の軌跡の開始点と終了点の間の途中部分が開始点と終了点を対角線とする矩形領域の外に位置する場合に、少なくとも途中部分がはみ出さないように矩形領域を拡張した矩形領域を抽出対象領域として特定してもよい。   In addition, as the third mode pattern, for example, when the middle part between the start point and the end point of the touch operation locus is located outside the rectangular area having the start point and the end point as diagonal lines, at least the middle part protrudes. Alternatively, a rectangular area that is an expanded rectangular area may be specified as the extraction target area.

次に、情報処理装置10の表示制御部15は、S08、S15,又はS20の処理により特定された抽出対象領域を保存するための保存ボタンを表示部16に表示し(S21)、ユーザが保存ボタンを押したか否かを判断する(S22)。上述したS21の処理では、保存ボタンと共に、キャンセルボタン等を表示させてもよい。また、S21の処理では、ボタンを表示してから所定時間(例えば、3〜5秒等)内にボタンを選択されたか否かを判断してもよい。上述したS22の処理では、例えばユーザが指定したタッチ位置が、表示された保存ボタンの領域内にあるか否かにより判断することができるが、これに限定されるものではない。   Next, the display control unit 15 of the information processing apparatus 10 displays a save button for saving the extraction target area specified by the process of S08, S15, or S20 on the display unit 16 (S21), and the user saves it. It is determined whether or not the button has been pressed (S22). In the process of S21 described above, a cancel button or the like may be displayed together with the save button. In the process of S21, it may be determined whether or not the button is selected within a predetermined time (for example, 3 to 5 seconds) after the button is displayed. In the process of S22 described above, for example, it can be determined whether or not the touch position designated by the user is within the area of the displayed save button, but is not limited thereto.

S22の処理において、画面に表示された保存ボタンが所定時間以上押さなかった場合(S22において、NO)、情報処理装置10の制御部19は、保存ボタンを画面から消去すると共に特定された抽出対象領域を解除してS01の処理に戻る。なお、保存ボタンを所定時間以上押さなかった場合には、S01の処理に戻らずに画像処理を終了してもよい。また、制御部19は、画面に表示されたキャンセルボタン等を押した場合にも、所定期間内に保存ボタンを押さなかった場合と同様の処理を行ってもよい。   In the process of S22, when the save button displayed on the screen has not been pressed for a predetermined time or longer (NO in S22), the control unit 19 of the information processing apparatus 10 deletes the save button from the screen and specifies the extraction target specified. The area is released and the process returns to S01. If the save button has not been pressed for a predetermined time or more, the image processing may be terminated without returning to the processing of S01. The control unit 19 may perform the same processing as when the save button is not pressed within a predetermined period even when the cancel button or the like displayed on the screen is pressed.

また、S22の処理において、保存ボタンを押した場合(S22において、YES)、表示制御部15は、画面キャプチャ保存確認画面を表示し(S23)、ユーザに確認を促す。ここで、制御部19は、ユーザが保存ボタンを押したか否かを判断し(S24)、保存ボタンを押さなかった場合(S24において、NO)、S01の処理に戻る。なお、キャンセルボタンを押した場合に処理を終了してもよい。   If the save button is pressed in the process of S22 (YES in S22), the display control unit 15 displays a screen capture save confirmation screen (S23), and prompts the user for confirmation. Here, the control unit 19 determines whether or not the user has pressed the save button (S24). If the user has not pressed the save button (NO in S24), the process returns to the process of S01. Note that the processing may be terminated when the cancel button is pressed.

また、制御部19は、保存ボタンが押されたことを受け付けた場合(S24において、YES)画像を記憶部17に保存し(S25)、処理を終了する。なお、上述した保存処理は、領域特定部14が行ってもよい。上述の処理においては、第1〜第3のモードパターンを用いて処理を行ったが、モードパターンの種類や順序やモードパターン数については、これに限定されるものではない。例えば、フリーハンドモード以外のモードとして、画面をタップすることで、画面全体を選択するモードや、スワイプ操作により抽出する領域を選択するモードがあってもよい。本実施形態では、予め設定されたモードパターンに基づいて、抽出対象領域が特定される。   If control unit 19 accepts that the save button has been pressed (YES in S24), image is stored in storage unit 17 (S25), and the process ends. Note that the storage processing described above may be performed by the region specifying unit 14. In the above-described processing, processing is performed using the first to third mode patterns. However, the type and order of the mode patterns and the number of mode patterns are not limited to this. For example, as a mode other than the freehand mode, there may be a mode for selecting the entire screen by tapping the screen or a mode for selecting an area to be extracted by a swipe operation. In the present embodiment, the extraction target region is specified based on a preset mode pattern.

また、本実施形態では、例えば、上述したS21の処理において、保存ボタンを表示した場合に、詳細モードの選択画面を表示し、ユーザがモードの切り替えを行うと、その切り替えにあった画面を表示して、ユーザに保存するか否かを確認してもよい。なお、この場合には、全てのモードについて並列的に抽出対象領域を特定するまでの処理を実行しておくことが好ましい。これにより、ユーザのモードの切り替えに応じて、すぐに対応する領域を特定することができる。   In the present embodiment, for example, when the save button is displayed in the above-described processing of S21, a detailed mode selection screen is displayed, and when the user switches the mode, the screen corresponding to the switching is displayed. Then, the user may confirm whether or not to save. In this case, it is preferable to execute processing until the extraction target region is specified in parallel for all modes. As a result, it is possible to immediately identify the corresponding area in accordance with the user's mode switching.

<画面例>
次に、本実施形態における画像処理を行うための各種画面例について、図を用いて説明する。図4は、モード設定時の画面例について説明するための図である。図4の例では、タッチパネルディスプレイ等の情報処理装置10を用いているが、これに限定されるものではない。また、図4の例では、通信ネットワーク等を介して接続される外部装置(サーバ)等から配信された小学校用の資料が表示されているが、抽出対象の画像については、これに限定されるものではない。
<Screen example>
Next, examples of various screens for performing image processing in the present embodiment will be described with reference to the drawings. FIG. 4 is a diagram for explaining an example of a screen at the time of mode setting. In the example of FIG. 4, the information processing apparatus 10 such as a touch panel display is used, but the present invention is not limited to this. Further, in the example of FIG. 4, elementary school materials distributed from an external device (server) connected via a communication network or the like are displayed, but the extraction target image is limited to this. It is not a thing.

例えば、本実施形態では、図4(A)に示すように表示部16の画面に表示された基本画像40から本実施形態における操作により、基本画像40の一部の画像(部分画像)を抽出する処理を行う。この場合、複数の処理内容を選択して行うことができるメニューバー41が表示されており、その中から予め表示画面の一部をキャプチャ(一時保存)するアイコン(例えば、アイコン41a)の選択を受け付ける。これにより、図4(B)に示すように、画像の一部を抽出するための設定入力画面42等が行われる。例えば、図4(B)の画面では、抽出範囲を指定するためのモードを設定する各種のボタン43が表示される。   For example, in the present embodiment, as shown in FIG. 4A, a partial image (partial image) of the basic image 40 is extracted from the basic image 40 displayed on the screen of the display unit 16 by the operation in the present embodiment. Perform the process. In this case, a menu bar 41 capable of selecting a plurality of processing contents is displayed, and an icon (for example, icon 41a) for capturing (temporarily saving) a part of the display screen is selected from the menu bar 41 in advance. Accept. Thereby, as shown in FIG. 4B, a setting input screen 42 for extracting a part of the image is performed. For example, on the screen of FIG. 4B, various buttons 43 for setting a mode for designating the extraction range are displayed.

例えば、「メニューへ」ボタン43−1は、図4(B)に示す画面モードを解除して図4(A)の基本画像40が表示される画面に戻るためのボタンである。また、「フリーハンド」ボタン43−2は、本実施形態における画像の一部を抽出して保存するためのモードを選択するためのボタンである。「タップ・スワイプ」ボタン43−3は、タップやスワイプ操作により画面全体等を保存するモードを選択するためのボタンである。   For example, the “go to menu” button 43-1 is a button for canceling the screen mode shown in FIG. 4B and returning to the screen on which the basic image 40 shown in FIG. 4A is displayed. The “free hand” button 43-2 is a button for selecting a mode for extracting and storing a part of an image in the present embodiment. The “tap / swipe” button 43-3 is a button for selecting a mode for saving the entire screen or the like by a tap or swipe operation.

本実施形態では、フリーハンドボタン43−2の選択を受け付けると、ポップアップ画面44により詳細モードが表示される。詳細モードでは、上述した3つのモード(なぞられた領域(第1のモードパターン)、囲まれた領域(第2のモードパターン)、最小・最大領域(第3のモードパターン))が表示される。ユーザが上述した詳細モードから1つを選択することで、情報処理装置10は、そのモードに合わせた抽出対象領域の特定が行われる。   In the present embodiment, when the selection of the freehand button 43-2 is accepted, the detailed mode is displayed on the pop-up screen 44. In the detailed mode, the three modes described above (the traced area (first mode pattern), the enclosed area (second mode pattern), and the minimum / maximum area (third mode pattern)) are displayed. . When the user selects one of the above-described detailed modes, the information processing apparatus 10 specifies the extraction target region in accordance with the mode.

<各モードパターンにおける抽出対象領域について>
次に、上述した第1〜第3のモードパターンにおける抽出対象領域について、図を用いて説明する。
<Regarding the extraction target area in each mode pattern>
Next, extraction target areas in the above-described first to third mode patterns will be described with reference to the drawings.

<第1のモードパターンにおける抽出対象領域の一例>
図5は、第1のモードパターンにおける抽出対象領域の一例を示す図である。図5の例に示す第1のモードパターンは、タッチ操作による軌跡上の部分(なぞられた部分)のみを選択するものである。なお、タッチ操作による軌跡上の部分とは、例えば画面に対して連続的にタッチ操作された、いわゆる一筆書きによる軌跡上の部分である。
<Example of Extraction Target Area in First Mode Pattern>
FIG. 5 is a diagram illustrating an example of an extraction target area in the first mode pattern. The first mode pattern shown in the example of FIG. 5 selects only a portion (traced portion) on the locus by the touch operation. Note that the portion on the locus by the touch operation is a portion on the locus by the so-called one-stroke writing in which the touch operation is continuously performed on the screen, for example.

例えば、ユーザの指51が画面上をタッチし、図5の点線に示すタッチ操作の軌跡があった場合、そのタッチ位置の軌跡上の部分52が、抽出対象領域として特定される。なお、第1のモードパターンでは、タッチ位置の軌跡に対して予め設定された幅W(例えば、例えば1〜5cm程度)を有する領域が選択される。この幅は、画面に接している指の太さ(接触面の大きさ)に対応して設定してもよい。また、タッチペン等で画面をなぞっている場合には、細い線になるため、その線を中心にして所定の幅(太さ)を持たせてもよい。   For example, when the user's finger 51 touches the screen, and there is a touch operation locus indicated by a dotted line in FIG. 5, the portion 52 on the locus of the touch position is specified as the extraction target region. In the first mode pattern, an area having a preset width W (for example, about 1 to 5 cm) with respect to the locus of the touch position is selected. This width may be set corresponding to the thickness of the finger in contact with the screen (the size of the contact surface). Further, when the screen is traced with a touch pen or the like, a thin line is formed, and therefore, a predetermined width (thickness) may be given around the line.

上述したように、第1のモードパターンでは、タッチ操作の軌跡に表示画像のうちタッチ操作の軌跡上の部分が画像抽出対象領域として特定され、特定された画像抽出対象領域の画像データが抽出される。つまり、第1のモードパターンでは、なぞられた部分(軌跡上の部分)の塗りつぶしにより画像抽出対象領域が特定される。   As described above, in the first mode pattern, a portion of the display image on the locus of the touch operation is specified as an image extraction target region in the touch operation locus, and image data of the specified image extraction target region is extracted. The In other words, in the first mode pattern, the image extraction target area is specified by painting the traced part (the part on the trajectory).

<第2のモードパターンにおける抽出対象領域の一例>
次に、第2のモードパターンにおける抽出対象領域の一例について、図を用いて説明する。図6は、第2のモードパターンにおける抽出対象領域の一例を示す図である。図6(A)〜(C)は、それぞれの領域を選択する例を示すものである。第2のモードパターンでは、ユーザの指51によりなぞられた領域53で、軌跡が閉ループを検出した場合、閉ループで囲まれた部分の画像が抽出対象領域として特定される。
<Example of Extraction Target Area in Second Mode Pattern>
Next, an example of the extraction target area in the second mode pattern will be described with reference to the drawings. FIG. 6 is a diagram illustrating an example of an extraction target area in the second mode pattern. 6A to 6C show an example of selecting each region. In the second mode pattern, when a closed loop is detected in the region 53 traced by the user's finger 51, an image of a portion surrounded by the closed loop is specified as the extraction target region.

例えば、第2のモードパターンでは、開始点から終了点までの軌跡(なぞられた領域53)において、各点を所定時間間隔又は指の移動量が所定値以上になった場合に、その時点での位置(座標)をプロットしていく。また、第2のモードパターンにおいて、画面上の指の軌跡が、それまでなぞられていた他の軌跡と交わる場合に、その中の軌跡で囲まれた領域(閉ループ領域)が抽出対象領域となる。   For example, in the second mode pattern, when a point from a start point to an end point (traced region 53) is set at a predetermined time interval or a finger movement amount exceeds a predetermined value, Plot the position (coordinates). Further, in the second mode pattern, when the trajectory of the finger on the screen intersects with another trajectory that has been traced up to that point, the region (closed loop region) surrounded by the trajectory is the extraction target region. .

図6(A)の例では、開始点と終了点が同じ位置にある。そのため、開始点から終了点までの軌跡(なぞられた領域53)で囲まれた閉ループ領域54−1が抽出対象領域として特定される。また、図6(B)の例でも開始点と終了点が交わっているため、その中の軌跡で囲まれた領域(閉ループ領域)が抽出対象領域として特定される。なお、図6(B)の例では、開始点と終了点以外で軌跡が一度交わっているため二つの閉ループ領域54−2,54−3が存在している。この場合、領域特定部14は、閉ループ領域54−2,54−3の両方を抽出対象領域として特定してもよく、最初にできた閉ループ領域54−2又は最後にできた閉ループ領域54−3を抽出対象領域として特定してもよい。   In the example of FIG. 6A, the start point and the end point are at the same position. Therefore, the closed loop region 54-1 surrounded by the trajectory (traced region 53) from the start point to the end point is specified as the extraction target region. Also, in the example of FIG. 6B, since the start point and the end point intersect, an area (closed loop area) surrounded by the locus is specified as the extraction target area. In the example of FIG. 6B, since the trajectories once intersect except for the start point and the end point, two closed loop regions 54-2 and 54-3 exist. In this case, the region specifying unit 14 may specify both the closed loop regions 54-2 and 54-3 as extraction target regions, and the first closed loop region 54-2 or the last closed loop region 54-3. May be specified as the extraction target region.

また、図6(C)では、開始点から終了点までのタッチ操作の軌跡(なぞられた領域53)において、交点が1カ所あるため、その部分のみの閉ループ領域54−4が特定された抽出対象領域となる。   In FIG. 6C, since there is one intersection point in the locus of the touch operation from the start point to the end point (traced region 53), the closed loop region 54-4 of only that portion is identified. This is the target area.

なお、第2のモードパターンでは、軌跡が交わった場合に軌跡で囲まれた領域(閉ループ領域)を選択対象としたが、これに限定されるものではなく、軌跡同士が所定距離以内(例えば、約1cm未満)となった場合にも、閉ループ領域とみなして抽出対象領域を特定してもよい。この場合、軌跡が最も近くなる軌跡上の2点を直線等で結ぶことにより、閉ループ領域を形成することができるが、これに限定されるものではない。   In the second mode pattern, when the trajectories intersect, the region surrounded by the trajectories (closed loop region) is selected, but the present invention is not limited to this, and the trajectories are within a predetermined distance (for example, Even if it is less than about 1 cm), the extraction target region may be specified as a closed loop region. In this case, a closed loop region can be formed by connecting two points on the locus where the locus is closest to each other with a straight line or the like, but the present invention is not limited to this.

<第3のモードパターンにおける抽出対象領域の一例>
次に、第3のモードパターンにおける抽出対象領域の一例について、図を用いて説明する。図7は、第3のモードパターンにおける抽出対象領域の一例を示す図である。第3のモードパターンでは、ユーザの指51によるタッチ操作において、指51の軌跡(なぞられた領域53)から得られる矩形領域を用いて抽出対象領域を特定する。
<Example of Extraction Target Area in Third Mode Pattern>
Next, an example of the extraction target area in the third mode pattern will be described with reference to the drawings. FIG. 7 is a diagram illustrating an example of an extraction target area in the third mode pattern. In the third mode pattern, in the touch operation by the user's finger 51, the extraction target region is specified using a rectangular region obtained from the locus of the finger 51 (the traced region 53).

例えば、第3のモードパターンとして、タッチ操作の軌跡のうち、縦方向(Y方向)に最も離れた二つのポイントのそれぞれを通る二つの横線と、横方向(X方向)に最も離れた二つのポイントのそれぞれを通る二つの縦線とで囲まれる領域を抽出対象領域として特定する。   For example, as a third mode pattern, two horizontal lines passing through each of two points farthest in the vertical direction (Y direction) and two farthest in the horizontal direction (X direction) of the locus of the touch operation An area surrounded by two vertical lines passing through each point is specified as an extraction target area.

例えば、図7(A)の例では、画面上に設定したXY軸に基づく座標系(XY座標系)において、ユーザのタッチ操作による指51の軌跡(なぞられた領域53)のうち、X軸に対する座標(X座標)の最大値及び最小値が横方向に最も離れた二つのポイントである。また、Y軸に対する座標(Y座標)の最大値及び最小値が、縦方向に最も離れた二つのポイントとなる。したがって、図7(A)に示すように、Y座標の最大値(Y軸MAX)及び最小値(Y軸MIN)を通る二つの横線a,bと、X座標の最大値(X軸MAX)及び最小値(X軸MIN)を通る二つの縦線c,dとで囲まれた領域55−1が、抽出対象領域として特定される。なお、図7(A)の例では、X座標の最大、最小と、Y座標の最大、最小との4点が定まるため、この4点に接する矩形領域を抽出対象領域として特定してもよい。   For example, in the example of FIG. 7A, in the coordinate system (XY coordinate system) based on the XY axes set on the screen, the X axis of the trajectory (traced region 53) of the finger 51 by the user's touch operation. The maximum value and the minimum value of the coordinates (X coordinate) with respect to are the two points farthest apart in the horizontal direction. In addition, the maximum value and the minimum value of the coordinates (Y coordinate) with respect to the Y axis are the two points that are farthest in the vertical direction. Accordingly, as shown in FIG. 7A, two horizontal lines a and b passing through the maximum value (Y axis MAX) and the minimum value (Y axis MIN) of the Y coordinate, and the maximum value of the X coordinate (X axis MAX). A region 55-1 surrounded by two vertical lines c and d passing through the minimum value (X axis MIN) is specified as the extraction target region. In the example of FIG. 7A, since the four points of the maximum and minimum of the X coordinate and the maximum and minimum of the Y coordinate are determined, a rectangular region in contact with these four points may be specified as the extraction target region. .

また、第3のモードパターンを選択した場合、上述した図6(C)と同様のタッチ操作の軌跡であっても、上述した図7(A)と同様の領域特定条件から、図7(B)に示すように異なる領域55−2を抽出対象領域として特定することができる。   When the third mode pattern is selected, even if the locus of the touch operation is the same as that in FIG. 6C described above, the region specifying condition similar to that in FIG. ), A different area 55-2 can be specified as the extraction target area.

例えば、第3のモードパターンでは、図7(C)に示すように、タッチ操作の軌跡(なぞられた領域53)の開始点と終了点との間の途中部分が開始点と終了点を対角線とする矩形領域56の外に位置する場合に、少なくとも途中部分がはみ出さないように矩形領域56を拡張した領域55−3を抽出対象領域として検出する。なお、拡張した矩形領域は、上述した軌跡を囲む最小面積の四角形であるが、これに限定されるものではなく、予め設定された形状であってもよい。図7(A)及び図7(C)の例では、結果的に同じ大きさの抽出対象領域が指定される。なお、図7(C)のモードパターンは、図7(A),(B)と異なるモードパターン(第4のモードパターン)として設定されていてもよい。   For example, in the third mode pattern, as shown in FIG. 7C, the middle part between the start point and end point of the locus of the touch operation (traced region 53) is a diagonal line between the start point and end point. When it is located outside the rectangular area 56, an area 55-3 that is an extension of the rectangular area 56 so as not to protrude at least partway is detected as an extraction target area. The expanded rectangular area is a rectangle having the minimum area surrounding the trajectory described above, but is not limited to this and may have a preset shape. In the example of FIGS. 7A and 7C, as a result, extraction target regions having the same size are designated. Note that the mode pattern in FIG. 7C may be set as a mode pattern (fourth mode pattern) different from that in FIGS.

上述した各モードパターンにより選択された領域は、画面に表示され、その後、ユーザの指示(例えば、保存指示)等により、その領域内の画像(部分画像)が抽出されて、記憶部17等に保存される。   The area selected by each mode pattern described above is displayed on the screen, and then an image (partial image) in the area is extracted according to a user instruction (for example, a save instruction) or the like and stored in the storage unit 17 or the like. Saved.

また、本実施形態では、上述したタッチ操作により選択された領域に対し、例えばピンチインやピンチアウト等の動作(2本の指を離したり、近づけたりする動作)を行うことで、領域の拡大、縮小等を行ってもよい。   In the present embodiment, the area selected by the touch operation described above is enlarged by, for example, performing an operation such as pinch-in or pinch-out (an action of releasing or bringing two fingers apart), Reduction or the like may be performed.

<抽出対象領域が特定された後の画面例>
図8は、抽出対象領域が特定された後の画面例を示す図である。図8の例では、上述した第3のモードパターンにより画像抽出対象領域が特定された後の画面例を示している。 図8の例では、表示制御部15により、画面60に画像に対する抽出対象領域(タッチ操作の軌跡(なぞられた領域53)上の部分)61と、非抽出対象領域(タッチ操作の軌跡上以外の部分)62とが識別可能に表示されている。これにより、ユーザは、特定された抽出対象領域(切り出し部分)を容易に把握することができる。なお、抽出対象領域61と非抽出対象領域62との識別について、表示制御部15は、例えば画面60に対する抽出対象領域61と非抽出対象領域62とを色等を変えることで識別することができるが、これに限定されるものではない。例えば、表示制御部15は、抽出対象領域61と非抽出対象領域62とを、斜線や模様、領域の点滅等により識別可能にしてもよい。このような画面60をユーザが確認すると共に、画面60に表示された保存ボタン63(図8の例では、「選択した領域を保存」)を選択すると、表示制御部15は、抽出対象領域内の画像(部分画像)の画面キャプチャを行い、そのキャプチャ画面を表示部16に表示する。
<Screen example after the extraction target area is specified>
FIG. 8 is a diagram illustrating an example of a screen after the extraction target area is specified. The example of FIG. 8 shows an example of the screen after the image extraction target area is specified by the above-described third mode pattern. In the example of FIG. 8, the display control unit 15 causes the screen 60 to extract an extraction target area (part on the touch operation trace (traced area 53)) 61 on the screen 60 and a non-extraction target area (other than on the touch operation trace). ) 62 is displayed in an identifiable manner. Thereby, the user can easily grasp the specified extraction target region (cutout portion). Note that the display control unit 15 can identify the extraction target area 61 and the non-extraction target area 62 by changing the color or the like, for example, with respect to the screen 60. However, the present invention is not limited to this. For example, the display control unit 15 may make it possible to identify the extraction target area 61 and the non-extraction target area 62 by diagonal lines, patterns, blinking areas, and the like. When the user confirms such a screen 60 and selects a save button 63 (“Save Selected Area” in the example of FIG. 8) displayed on the screen 60, the display control unit 15 causes the extraction within the extraction target area. The image (partial image) is captured and the captured screen is displayed on the display unit 16.

なお、本実施形態では、図8に示す画面60において、モードパターンの切替ボタンを表示し、モードの切替を行うことで、切り替えられたモードパターンに対応したモードを表示させることができる。   In the present embodiment, a mode pattern switching button is displayed on the screen 60 shown in FIG. 8, and the mode corresponding to the switched mode pattern can be displayed by switching the mode.

<キャプチャ画面の一例>
図9は、キャプチャ画面の一例を示す図である。図9に示すキャプチャ画面70には、特定された抽出対象領域71と、最終的に保存の決定をする保存ボタン72と、保存をキャンセルするキャンセルボタン73とを有する。なお、図9の例に示す抽出対象領域71は、図8で示した領域に相当する。
<Example of capture screen>
FIG. 9 is a diagram illustrating an example of a capture screen. The capture screen 70 shown in FIG. 9 has an identified extraction target area 71, a save button 72 for finally deciding to save, and a cancel button 73 for canceling the save. The extraction target area 71 illustrated in the example of FIG. 9 corresponds to the area illustrated in FIG.

図9に示すように、キャプチャ画面70を有することで、ユーザは、各モードにより特定された画像の抽出対象領域を容易に把握することができ、保存ボタン72やキャンセルボタン73を選択することで、最終的に保存するか否かを判断し、所望の画像のみを保存することができる。なお、本実施形態では、例えば図9の画面を表示させずに、図8に示す保存ボタンを選択後に対応する領域の部分画像を記憶部17に記憶してもよい。   As shown in FIG. 9, by having the capture screen 70, the user can easily grasp the extraction target area of the image specified by each mode, and by selecting the save button 72 or the cancel button 73. Then, it is determined whether or not to finally save, and only a desired image can be saved. In the present embodiment, for example, the partial image of the corresponding region may be stored in the storage unit 17 after the save button shown in FIG.

<サムネイル画像の一例>
図10は、サムネイル画像の一例を示す図である。図9の例に示すキャプチャ画面70において、ユーザが保存ボタン72を選択すると、抽出対象領域71に対応する部分画像が記憶部17に記憶される。このとき、予め設定されたフォルダ等に保存される。表示制御部15は、そのフォルダに保存されている部分画像を、図10に示す画面80によりサムネイル画像81として表示することができる。サムネイル表示により複数の部分画像を同時に確認することができる。
<Example of thumbnail image>
FIG. 10 is a diagram illustrating an example of a thumbnail image. When the user selects the save button 72 on the capture screen 70 illustrated in the example of FIG. 9, the partial image corresponding to the extraction target area 71 is stored in the storage unit 17. At this time, it is stored in a preset folder or the like. The display control unit 15 can display the partial images stored in the folder as thumbnail images 81 on the screen 80 shown in FIG. A plurality of partial images can be confirmed simultaneously by thumbnail display.

なお、図10の例では、算数の授業で用いた資料(画像)の一部を抽出しているため、算数のデータを保存するフォルダ内にサムネイル画像81が保存される。サムネイル画像81には、図10の例に示すように、ファイル名や作成者名、画像作成日時等の詳細情報も表示することができるが、これに限定されるものではない。   In the example of FIG. 10, since a part of the material (image) used in the arithmetic class is extracted, the thumbnail image 81 is stored in the folder in which the arithmetic data is stored. As shown in the example of FIG. 10, the thumbnail image 81 can also display detailed information such as a file name, a creator name, an image creation date and time, but is not limited thereto.

上述した各実施例は、その一部又は全部を組み合わせてもよい。例えば、上述した第1のモードパターンと第2のモードパターンとを組み合わせて、タッチ操作の軌跡上の部分を抽出対象領域として抽出すると共に、タッチ操作の軌跡が閉ループで形成する場合には、その閉ループ領域も抽出対象領域として抽出してもよい。この場合には、例えば図6(C)や図7(B)と同様の軌跡(なぞられた領域)であっても、図6(C)や図7(B)とは異なる抽出対象領域を抽出することができる。   Each of the embodiments described above may be combined in part or in whole. For example, when the first mode pattern and the second mode pattern described above are combined to extract a portion on the locus of the touch operation as an extraction target region and the locus of the touch operation is formed in a closed loop, A closed loop region may also be extracted as an extraction target region. In this case, for example, even if the locus (traced area) is the same as that in FIGS. 6C and 7B, an extraction target area different from that in FIGS. 6C and 7B is selected. Can be extracted.

上述した実施形態の一態様によれば、簡単な操作で画像の所望の領域を抽出した部分画像を取得することができる。なお、本実施形態における画像処理手法は、様々な分野に広く適用することができる。その一例は、Information and Communication Technology (ICT、情報コミュニケーション技術)活用授業への適用である。ICT活用授業に本実施形態における画像処理手法を適用することで、例えば先生が提示したワークシートの一部を抽出したり、水槽の写真からその中にいる魚の部分のみを抽出したり、デジタル教科書の一部を画面キャプチャして抽出したりして保存すること等ができる。本実施形態は、画像の一部の抽出を簡単な操作で実現できるため、例えば、小学生や中学生だけでなく、お年寄り等も含めた広い世代に適用可能である。   According to one aspect of the above-described embodiment, it is possible to acquire a partial image obtained by extracting a desired region of an image with a simple operation. Note that the image processing method in the present embodiment can be widely applied to various fields. An example of this is application to Information and Communication Technology (ICT, Information Communication Technology) utilization classes. By applying the image processing method in this embodiment to the ICT utilization class, for example, you can extract a part of the worksheet presented by the teacher, extract only the part of the fish in it from the aquarium photo, digital textbook A part of the screen can be captured and extracted and saved. Since this embodiment can realize extraction of a part of an image with a simple operation, it can be applied to a wide generation including not only elementary school students and junior high school students but also elderly people.

また、ICT活用授業が誰でも簡単にでき、授業の記録、学習の記録が蓄積されるため、蓄積されたデータを有効活用することができる。また、授業の見える化、児童生徒の学習履歴を分析することができる。したがって、データ活用による教育の質を向上できる。また、校内に留まらない学びの環境を提供することにより、保護者との情報共有、家庭学習の見える化、最適な教材や学習方法の推薦等により、家庭と学びの連続性を実現することができる。なお、上述した情報処理装置10は、上述した学校教育だけでなく、情報提供の一つのツールとして企業、個人等にも活用することができる。   In addition, anyone can easily use ICT classes, and records of lessons and learning are accumulated, so that the accumulated data can be used effectively. In addition, visualization of classes and learning history of students can be analyzed. Therefore, the quality of education by using data can be improved. Also, by providing a learning environment that does not stop at the school, it is possible to realize continuity of learning with the home by sharing information with parents, visualizing home learning, and recommending optimal teaching materials and learning methods. it can. The information processing apparatus 10 described above can be used not only for the school education described above, but also for companies, individuals, etc. as a tool for providing information.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、上記変形例以外にも種々の変形及び変更が可能である。   Each embodiment has been described in detail above. However, the present invention is not limited to the specific embodiment, and various modifications and changes other than the above-described modification are possible within the scope described in the claims. .

なお、以上の実施例に関し、更に以下の付記を開示する。
(付記1)
表示画像のうちタッチ操作の軌跡上の部分を抽出対象領域として特定し、
特定した前記抽出対象領域の画像データを抽出して記憶部に保存する、
処理をコンピュータに実行させる画像処理プログラム。
(付記2)
前記タッチ操作の軌跡上の部分は、連続的にタッチ操作された軌跡上の部分であることを特徴とする付記1に記載の画像処理プログラム。
(付記3)
前記タッチ操作の軌跡上の部分を前記タッチ操作の軌跡上以外の部分と識別可能に表示することを特徴とする付記1又は2に記載の画像処理プログラム。
(付記4)
前記識別可能に表示する際に、前記タッチ操作の軌跡上の部分を前記タッチ操作の軌跡上以外の部分とは色を変えて識別可能とすることを特徴とする付記3に記載の画像処理プログラム。
(付記5)
前記タッチ操作の軌跡が、閉ループを形成した場合に、前記閉ループで囲まれた領域を前記抽出対象領域として特定することを特徴とする付記1乃至4の何れか1項に記載の画像処理プログラム。
(付記6)
表示画像に対するタッチ操作の軌跡のうち、縦方向に最も離れた二つのポイントのそれぞれを通る二つの横線と、横方向に最も離れた二つのポイントのそれぞれを通る二つの縦線とで囲まれる領域を抽出対象領域として特定する、
処理をコンピュータに実行させる画像処理プログラム。
(付記7)
前記縦方向に最も離れた二つのポイントは、画面上に設定したXY座標系におけるY座標の最大値及び最小値であり、前記横方向に最も離れた二つのポイントは、前記XY座標系におけるX座標の最大値及び最小値であることを特徴とする付記6に記載の画像処理プログラム。
(付記8)
表示画像に対するタッチ操作の軌跡のうち、前記軌跡の開始点と終了点の間の途中部分が前記開始点と終了点を対角線とする矩形領域の外に位置する場合に、少なくとも前記途中部分がはみ出さないように前記矩形領域を拡張した矩形領域を抽出対象として特定する、
処理をコンピュータに実行させる画像処理プログラム。
(付記9)
前記拡張した矩形領域は、前記軌跡を囲む最小面積の四角形であることを特徴とする付記8に記載の画像処理プログラム。
(付記10)
情報処理装置が、
表示画像のうちタッチ操作の軌跡上の部分を抽出対象領域として特定し、
特定した前記抽出対象領域の画像データを抽出して記憶部に保存する、
ことを特徴とする画像処理方法。
(付記11)
情報処理装置が、
表示画像に対するタッチ操作の軌跡のうち、縦方向に最も離れた二つのポイントのそれぞれを通る二つの横線と、横方向に最も離れた二つのポイントのそれぞれを通る二つの縦線とで囲まれる領域を抽出対象領域として特定する、
ことを特徴とする画像処理方法。
(付記12)
情報処理装置が、
表示画像に対するタッチ操作の軌跡のうち、前記軌跡の開始点と終了点の間の途中部分が前記開始点と終了点を対角線とする矩形領域の外に位置する場合に、少なくとも前記途中部分がはみ出さないように前記矩形領域を拡張した矩形領域を抽出対象として特定する、
ことを特徴とする画像処理方法。
(付記13)
表示画像のうちタッチ操作の軌跡上の部分を抽出対象領域として特定し、特定した前記抽出対象領域の画像データを抽出して記憶部に保存する領域特定部を有することを特徴とする情報処理装置。
(付記14)
表示画像に対するタッチ操作の軌跡のうち、縦方向に最も離れた二つのポイントのそれぞれを通る二つの横線と、横方向に最も離れた二つのポイントのそれぞれを通る二つの縦線とで囲まれる領域を抽出対象領域として特定する領域特定部を有することを特徴とする情報処理装置。
(付記15)
表示画像に対するタッチ操作の軌跡のうち、前記軌跡の開始点と終了点の間の途中部分が前記開始点と終了点を対角線とする矩形領域の外に位置する場合に、少なくとも前記途中部分がはみ出さないように前記矩形領域を拡張した矩形領域を抽出対象として特定する領域特定部を有することを特徴とする情報処理装置。
In addition, the following additional remarks are disclosed regarding the above Example.
(Appendix 1)
Specify the part of the display image on the locus of the touch operation as the extraction target area,
Extracting the image data of the identified extraction target area and storing it in a storage unit;
An image processing program that causes a computer to execute processing.
(Appendix 2)
The image processing program according to claim 1, wherein the part on the locus of the touch operation is a part on the locus on which the touch operation is continuously performed.
(Appendix 3)
The image processing program according to appendix 1 or 2, wherein a portion on the locus of the touch operation is displayed so as to be distinguishable from a portion other than the portion on the locus of the touch operation.
(Appendix 4)
The image processing program according to appendix 3, wherein when the display is performed so as to be identifiable, a portion on the locus of the touch operation can be distinguished from a portion other than the portion on the locus of the touch operation by changing a color. .
(Appendix 5)
The image processing program according to any one of appendices 1 to 4, wherein when the touch operation locus forms a closed loop, an area surrounded by the closed loop is specified as the extraction target area.
(Appendix 6)
A region surrounded by two horizontal lines passing through each of the two points furthest away in the vertical direction and two vertical lines passing through each of the two points furthest away in the horizontal direction in the locus of the touch operation on the display image Identify the region to be extracted,
An image processing program that causes a computer to execute processing.
(Appendix 7)
The two points farthest in the vertical direction are the maximum and minimum values of the Y coordinate in the XY coordinate system set on the screen, and the two points farthest in the horizontal direction are the X and Y values in the XY coordinate system. The image processing program according to attachment 6, wherein the image processing program has a maximum value and a minimum value of coordinates.
(Appendix 8)
Of the trajectory of the touch operation on the display image, when the midway portion between the start point and end point of the trajectory is located outside the rectangular area having the start point and end point as a diagonal line, at least the midway portion protrudes. Specify a rectangular area that is an extension of the rectangular area as an extraction target,
An image processing program that causes a computer to execute processing.
(Appendix 9)
The image processing program according to appendix 8, wherein the expanded rectangular area is a quadrangle having a minimum area surrounding the locus.
(Appendix 10)
Information processing device
Specify the part of the display image on the locus of the touch operation as the extraction target area,
Extracting the image data of the identified extraction target area and storing it in a storage unit;
An image processing method.
(Appendix 11)
Information processing device
A region surrounded by two horizontal lines passing through each of the two points furthest away in the vertical direction and two vertical lines passing through each of the two points furthest away in the horizontal direction in the locus of the touch operation on the display image Identify the region to be extracted,
An image processing method.
(Appendix 12)
Information processing device
Of the trajectory of the touch operation on the display image, when the midway portion between the start point and end point of the trajectory is located outside the rectangular area having the start point and end point as a diagonal line, at least the midway portion protrudes. Specify a rectangular area that is an extension of the rectangular area as an extraction target,
An image processing method.
(Appendix 13)
An information processing apparatus comprising: an area specifying unit that specifies a part of a display image on a locus of a touch operation as an extraction target area, extracts image data of the specified extraction target area, and stores the extracted image data in a storage unit .
(Appendix 14)
A region surrounded by two horizontal lines passing through each of the two points furthest away in the vertical direction and two vertical lines passing through each of the two points furthest away in the horizontal direction in the locus of the touch operation on the display image An information processing apparatus comprising: an area specifying unit that specifies an extraction target area.
(Appendix 15)
Of the trajectory of the touch operation on the display image, when the midway portion between the start point and end point of the trajectory is located outside the rectangular area having the start point and end point as a diagonal line, at least the midway portion protrudes. An information processing apparatus comprising: an area specifying unit that specifies a rectangular area obtained by expanding the rectangular area as an extraction target.

10 情報処理装置
11 設定部
12 モード切替部
13 タッチ位置取得部
14 領域特定部
15 表示制御部
16,23 表示部
17 記憶部
18 通信部
19 制御部
21 マイク
22 スピーカ
24 操作部
25 センサ部
26 電力部
27 無線部
28 近距離通信部
29 補助記憶装置
30 主記憶装置
31 CPU
32 ドライブ装置
33 記録媒体
40 基本画像
41 メニューバー
42 設定入力画面
43 ボタン
51 指
52 部分
53 なぞられた領域
54 閉ループ領域
55 領域
56 矩形領域
60,80 画面
61,71 抽出対象領域
62 非抽出対象領域
63,72 保存ボタン
70 キャプチャ画面
73 キャンセルボタン
81 サムネイル画像
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 11 Setting part 12 Mode switching part 13 Touch position acquisition part 14 Area | region specific part 15 Display control part 16,23 Display part 17 Memory | storage part 18 Communication part 19 Control part 21 Microphone 22 Speaker 24 Operation part 25 Sensor part 26 Electric power Unit 27 Radio unit 28 Short-range communication unit 29 Auxiliary storage device 30 Main storage device 31 CPU
32 Drive device 33 Recording medium 40 Basic image 41 Menu bar 42 Setting input screen 43 Button 51 Finger 52 Part 53 Traced area 54 Closed loop area 55 Area 56 Rectangular area 60, 80 Screen 61, 71 Extraction target area 62 Non-extraction target area 63, 72 Save button 70 Capture screen 73 Cancel button 81 Thumbnail image

Claims (3)

表示画像に対するタッチ操作の軌跡のうち、前記軌跡の開始点と終了点の間の途中部分が前記開始点と終了点を対角線とする矩形領域の外に位置する場合に、少なくとも前記途中部分がはみ出さないように前記矩形領域を拡張した矩形領域を抽出対象として特定する、
処理をコンピュータに実行させる画像処理プログラム。
Of the trajectory of the touch operation on the display image, when the midway portion between the start point and end point of the trajectory is located outside the rectangular area having the start point and end point as a diagonal line, at least the midway portion protrudes. Specify a rectangular area that is an extension of the rectangular area as an extraction target,
An image processing program that causes a computer to execute processing.
情報処理装置が、
表示画像に対するタッチ操作の軌跡のうち、前記軌跡の開始点と終了点の間の途中部分が前記開始点と終了点を対角線とする矩形領域の外に位置する場合に、少なくとも前記途中部分がはみ出さないように前記矩形領域を拡張した矩形領域を抽出対象として特定する、
ことを特徴とする画像処理方法。
Information processing device
Of the trajectory of the touch operation on the display image, when the midway portion between the start point and end point of the trajectory is located outside the rectangular area having the start point and end point as a diagonal line, at least the midway portion protrudes. Specify a rectangular area that is an extension of the rectangular area as an extraction target,
An image processing method.
表示画像に対するタッチ操作の軌跡のうち、前記軌跡の開始点と終了点の間の途中部分が前記開始点と終了点を対角線とする矩形領域の外に位置する場合に、少なくとも前記途中部分がはみ出さないように前記矩形領域を拡張した矩形領域を抽出対象として特定する領域特定部を有することを特徴とする情報処理装置。   Of the trajectory of the touch operation on the display image, when the midway portion between the start point and end point of the trajectory is located outside the rectangular area having the start point and end point as a diagonal line, at least the midway portion protrudes. An information processing apparatus comprising: an area specifying unit that specifies a rectangular area obtained by expanding the rectangular area as an extraction target.
JP2017192943A 2017-10-02 2017-10-02 Image processing program, image processing method, and information processing apparatus Active JP6409932B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017192943A JP6409932B2 (en) 2017-10-02 2017-10-02 Image processing program, image processing method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017192943A JP6409932B2 (en) 2017-10-02 2017-10-02 Image processing program, image processing method, and information processing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014053952A Division JP2015176483A (en) 2014-03-17 2014-03-17 Image processing program, image processing method, and information processing device

Publications (2)

Publication Number Publication Date
JP2018028923A JP2018028923A (en) 2018-02-22
JP6409932B2 true JP6409932B2 (en) 2018-10-24

Family

ID=61248496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017192943A Active JP6409932B2 (en) 2017-10-02 2017-10-02 Image processing program, image processing method, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP6409932B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816347A (en) * 1994-06-28 1996-01-19 Mitsubishi Electric Corp Information processor
JP3543397B2 (en) * 1994-11-04 2004-07-14 ソニー株式会社 Video magnifier
JP2007188512A (en) * 2000-09-29 2007-07-26 Japan Science & Technology Agency Character recognizing method, character recognizing program and computer readable recording medium recorded with character recognizing program
JP4740972B2 (en) * 2008-03-26 2011-08-03 ヤフー株式会社 Information linkage server, method and program for linking print information and print data
JP2009266061A (en) * 2008-04-28 2009-11-12 Panasonic Corp Image processor, image processing method, and image transmission system
JP2015038642A (en) * 2010-06-09 2015-02-26 株式会社東芝 Display processing apparatus and display processing method
JP5060651B2 (en) * 2011-12-20 2012-10-31 株式会社東芝 Display processing apparatus, display control program, and display processing method

Also Published As

Publication number Publication date
JP2018028923A (en) 2018-02-22

Similar Documents

Publication Publication Date Title
JP7467534B2 (en) DEVICE AND METHOD FOR MEASURING USING AUGMENTED REALITY - Patent application
EP3461291B1 (en) Implementation of a biometric enrollment user interface
US9766739B2 (en) Method and apparatus for constructing a home screen in a terminal having a touch screen
US10304163B2 (en) Landscape springboard
KR102053822B1 (en) Portable apparatus and method for displaying a screen
KR102184269B1 (en) Display apparatus, portable apparatus and method for displaying a screen thereof
RU2672134C2 (en) Portable terminal and method for providing haptic effect for input unit
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
KR20110041915A (en) Terminal and method for displaying data thereof
JP2011134260A (en) Information processing apparatus and control method therefor
US9870139B2 (en) Portable apparatus and method for sharing content with remote device thereof
EP2829967A2 (en) Method of processing input and electronic device thereof
JP6102474B2 (en) Display device, input control method, and input control program
JP2014123159A (en) Display processor
CN109885222A (en) Icon processing method, device, electronic equipment and computer-readable medium
CN108885556B (en) Controlling digital input
JP6359862B2 (en) Touch operation input device, touch operation input method, and program
TW202144984A (en) Equipment control method and device, storage medium and electronic equipment
JP2015176483A (en) Image processing program, image processing method, and information processing device
JP6409932B2 (en) Image processing program, image processing method, and information processing apparatus
CN110032317B (en) Wireless demonstration equipment and marking control method and device thereof
JP6533566B2 (en) Display device
KR101811344B1 (en) Method and apparatus for display control, and computer program recorded on computer readable recording medium for executing the method
CN110622119A (en) Object insertion
CN110945469A (en) Touch input device and method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180910

R150 Certificate of patent or registration of utility model

Ref document number: 6409932

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150