JP2017162371A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2017162371A
JP2017162371A JP2016048443A JP2016048443A JP2017162371A JP 2017162371 A JP2017162371 A JP 2017162371A JP 2016048443 A JP2016048443 A JP 2016048443A JP 2016048443 A JP2016048443 A JP 2016048443A JP 2017162371 A JP2017162371 A JP 2017162371A
Authority
JP
Japan
Prior art keywords
image
specified
image processing
area
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016048443A
Other languages
Japanese (ja)
Inventor
賢治 吉沢
Kenji Yoshizawa
賢治 吉沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016048443A priority Critical patent/JP2017162371A/en
Publication of JP2017162371A publication Critical patent/JP2017162371A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide appropriate support when an area to be processed is specified by a user's operation.SOLUTION: When a position on an image obtained from an imaging part is continuously specified, for example, when swiping operation is performed on a touch screen, an area including the specified position is determined as a target area for image processing by following the specified position (touch position), and the processing target area is notified by following the specified position. In this case, a guide frame demonstrating the processing target area is superimposed and displayed on the image displayed on the touch screen by following the swiping operation.SELECTED DRAWING: Figure 2

Description

本発明は、ユーザ操作によって指定された領域内の画像に対して所定の処理を行う画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for performing predetermined processing on an image in an area designated by a user operation.

一般に、撮影画像からその一部分の画像を切り出して、他の撮影画像に張り付けたり、所定の画像処理を施したりする場合に、その切り出し領域をユーザ操作によって任意に指定するようにしている。例えば、切り出し領域の形状が矩形の領域であれば、特許文献1に示すようにその矩形の4隅に対応する画面上の各位置をそれぞれユーザ操作によって指定するようにしている。   In general, when a part of an image is cut out from a shot image and pasted on another shot image or subjected to predetermined image processing, the cut-out area is arbitrarily designated by a user operation. For example, if the shape of the cutout region is a rectangular region, each position on the screen corresponding to the four corners of the rectangle is designated by a user operation as shown in Patent Document 1.

特開2000−106623号公報JP 2000-106623 A

しかしながら、上述のように4点指定によって切り出し領域を指定する場合、ユーザは、既に指定し終わった位置と今回新たに指定する位置との関係を考慮して、どのような切り出し領域(位置や大きさ)となるかを想定しながら指定する必要があり、実際に切り出された領域が想定していた範囲と少しでも異なってしまうと、所望する被写体の一部が欠けた状態となるなど、切り出された画像に大きな影響を与えてしまう。   However, when the clip region is specified by specifying four points as described above, the user considers the relationship between the position that has already been specified and the position that is newly specified this time, and what kind of clip region (position or size) If the area actually cut out is slightly different from the expected range, some of the desired subject will be cut out. It will have a big effect on the image.

本発明の課題は、処理を実行させる領域をユーザ操作によって指定する際に、その指定を適切に支援できるようにすることである。   An object of the present invention is to appropriately support the designation of a region where a process is executed by a user operation.

上述した課題を解決するために本発明は、
画像を取得する画像取得手段と、
前記画像取得手段によって取得された画像上の異なる位置を連続的に指定する位置指定手段と、
前記位置指定手段によって連続的に指定された位置に追従してその指定位置を含む領域を画像処理の処理対象領域として特定する領域特定手段と、
前記領域特定手段によって特定された前記処理対象領域を前記指定位置に追従して報知する報知手段と、
を備えることを特徴とする画像処理装置である。
In order to solve the above-described problems, the present invention
Image acquisition means for acquiring images;
Position specifying means for continuously specifying different positions on the image acquired by the image acquiring means;
Area specifying means for following the position continuously specified by the position specifying means and specifying an area including the specified position as a processing target area for image processing;
Informing means for informing the processing target area specified by the area specifying means in accordance with the designated position;
An image processing apparatus comprising:

本発明によれば、処理を実行させる領域をユーザ操作によって指定する際に、その指定を適切に支援することができる。   According to the present invention, when a region for executing processing is designated by a user operation, the designation can be appropriately supported.

画像処理装置として適用したデジタルカメラの基本的な構成要素を示したブロック図。The block diagram which showed the basic component of the digital camera applied as an image processing apparatus. (1)、(2)は、所定の画像処理を実行させる領域をユーザ操作によって指定する場合の様子を示した図。(1), (2) is a diagram showing a state in which a region for executing predetermined image processing is designated by a user operation. 撮影モードに切り替えられた際に実行開始される動作(本実施形態の特徴的な動作)を説明するためのフローチャート。The flowchart for demonstrating the operation | movement (characteristic operation | movement of this embodiment) started execution when it switches to imaging | photography mode. 図3の動作に続くフローチャート。The flowchart following the operation | movement of FIG. (1)、(2)は、ライブビュー画面に表示されている魚眼画像上でシングルタップ操作が行われた場合の表示状態を示した図、(3)は、その魚眼画像から切り出されて歪み補正された画像を示した図。(1) and (2) are diagrams showing a display state when a single tap operation is performed on the fisheye image displayed on the live view screen, and (3) is cut out from the fisheye image. The figure which showed the image by which distortion correction was carried out. (1)は、ライブビュー画面に表示されている魚眼画像上でスワイプ操作が行われた場合の表示状態を示した図、(2)は、その魚眼画像から切り出されて歪み補正された画像を示した図。(1) is a diagram showing a display state when a swipe operation is performed on a fisheye image displayed on the live view screen, and (2) is cut out from the fisheye image and corrected for distortion. The figure which showed the image. (1)は、ライブビュー画面に表示されている魚眼画像上でスワイプ操作が行われた場合の表示状態を示した図、(2)は、その魚眼画像から切り出されて歪み補正された画像を示した図。(1) is a diagram showing a display state when a swipe operation is performed on a fisheye image displayed on the live view screen, and (2) is cut out from the fisheye image and corrected for distortion. The figure which showed the image. 実施形態の変形例を説明するための図で、ライブビュー画面に表示されている魚眼画像上でスワイプ操作が行われた場合の表示状態を示した図。The figure for demonstrating the modification of embodiment, and the figure which showed the display state when swipe operation is performed on the fisheye image currently displayed on the live view screen.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

以下、図1〜図7を参照して本発明の実施形態を説明する。
本実施形態は、画像処理装置としてデジタルカメラに適用した場合を例示したもので、図1は、このデジタルカメラの基本的な構成要素を示したブロック図である。
画像処理装置(デジタルカメラ)は、基本的な機能として、魚眼レンズ、又はその他の通常の撮像レンズを使用して撮像が可能な撮像機能、魚眼レンズなどを使用して撮像された画像を再生する再生機能などを備えている。
Hereinafter, embodiments of the present invention will be described with reference to FIGS.
This embodiment exemplifies a case where the present invention is applied to a digital camera as an image processing apparatus, and FIG. 1 is a block diagram showing basic components of the digital camera.
An image processing apparatus (digital camera) has, as a basic function, an imaging function capable of imaging using a fisheye lens or other normal imaging lens, and a playback function for reproducing an image captured using a fisheye lens. Etc.

制御部1は、電源部(二次電池)2からの電力供給によって動作し、記憶部3内の各種のプログラムに応じてこのデジタルカメラの全体動作を制御するもので、この制御部1には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。記憶部3は、例えば、ROM、フラッシュメモリなどを有する構成で、後述する図3及び図4に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリ3Aと、このカメラが動作するために必要となる各種の情報(例えば、フラグなど)を一時的に記憶するワークメモリ3Bなどを有している。   The control unit 1 operates by supplying power from the power source unit (secondary battery) 2 and controls the overall operation of the digital camera in accordance with various programs in the storage unit 3. A CPU (Central Processing Unit) and a memory (not shown) are provided. The storage unit 3 includes, for example, a ROM, a flash memory, and the like, and stores a program and various applications for realizing the present embodiment in accordance with an operation procedure illustrated in FIGS. 3 and 4 to be described later. A program memory 3A, and a work memory 3B for temporarily storing various information (for example, a flag) necessary for the operation of the camera.

なお、記憶部3は、例えば、魚眼画像などを記録保存するSDカード、USBメモリカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続されている状態においては所定のサーバ装置側の記憶領域を含むものであってもよい。操作部4は、電源をオン又はオフする電源キー、撮影を指示するレリーズキー、露出やシャッタスピードなどの撮影条件を設定する設定キーなどの各種の押しボタン式のキーを備えたもので、制御部1は、この操作部4からの入力操作信号に応じた処理を行う。   Note that the storage unit 3 may be configured to include a removable portable memory (recording medium) such as an SD card or a USB memory card that records and saves fisheye images or the like. In a state where it is connected to the network via a network, it may include a storage area on a predetermined server device side. The operation unit 4 includes various push button type keys such as a power key for turning on / off the power, a release key for instructing photographing, and a setting key for setting photographing conditions such as exposure and shutter speed. The unit 1 performs processing according to the input operation signal from the operation unit 4.

撮像部5は、被写体を高精細に撮影可能なカメラ部を構成するもので、この撮像部5のレンズユニット5Aには、魚眼レンズ5B、撮像素子5Cなどが設けられている。なお、本実施形態のカメラは、通常の撮像レンズ(図示省略)と魚眼レンズ5Bとが交換可能なもので、図示の例は、通常の撮像レンズに代わって魚眼レンズ5Bを装着した状態を示している。この魚眼レンズ5Bは、例えば、3枚構成のレンズ系からなり、画角が略180゜という広範囲な撮像が可能な円周魚眼レンズ(全周魚眼レンズ)であり、この魚眼レンズ5Bによって撮像された画像の全体は、円形の画像となる。この場合、射影方式を採用しているために、魚眼レンズ5Bで撮像された画像(魚眼画像)は、その中心から離れる(端部に向かう)ほど、大きく歪むなどの特徴を有している。   The imaging unit 5 constitutes a camera unit capable of photographing a subject with high definition. The lens unit 5A of the imaging unit 5 is provided with a fisheye lens 5B, an imaging element 5C, and the like. Note that the camera according to the present embodiment can exchange a normal imaging lens (not shown) and the fisheye lens 5B, and the illustrated example shows a state in which the fisheye lens 5B is mounted instead of the normal imaging lens. . The fish-eye lens 5B is a circumferential fish-eye lens (all-around fish-eye lens) that has a three-lens lens system and can capture a wide range of angles of view of approximately 180 °. The entire image captured by the fish-eye lens 5B Becomes a circular image. In this case, since the projection method is adopted, the image (fisheye image) picked up by the fisheye lens 5B has a feature that the image is distorted as it is farther from the center (toward the end).

この魚眼レンズ5Bからの被写体像(光学像)が撮像素子(例えば、CMOS又はCCD)5Cに結像されると、撮像素子5Cによって光電変換された画像信号(アナログ値の信号)は、図示省略のA/D変換部によってデジタル信号(画像信号)に変換されると共に、所定の画像表示処理が施された後、タッチ表示部6にライブビュー画像としてリアルタイムにモニタ表示される。制御部1は、撮影を指示するレリーズボタンの操作に応じて撮像画像に対して現像処理を行うと共に、標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる。   When a subject image (optical image) from the fisheye lens 5B is formed on an image sensor (for example, CMOS or CCD) 5C, an image signal (analog signal) photoelectrically converted by the image sensor 5C is not shown. After being converted into a digital signal (image signal) by the A / D conversion unit and subjected to predetermined image display processing, it is displayed on the touch display unit 6 in real time as a live view image. The control unit 1 performs development processing on the captured image in accordance with the operation of a release button that instructs photographing, converts the image into a standard file format, and then records and saves it on a recording medium in the storage unit 3.

タッチ表示部6は、高精細液晶などのディスプレイ6A上にタッチパネル6Bを積層配置したタッチスクリーンを構成するもので、各種のソフトウェアキー(タッチキー)を割り当て配置してその機能名を表示したり、指などによるタッチ操作を感知してそのタッチ位置に応じた操作信号を入力したりする。タッチ表示部6の表示画面は、魚眼レンズ5Bによって撮像された画像(魚眼画像)などをリアルタイムに表示するモニタ画面(ライブビュー画面)となったり、撮影済み画像(魚眼画像)などを再生する再生画面となったりする。   The touch display unit 6 constitutes a touch screen in which a touch panel 6B is laminated on a display 6A such as a high-definition liquid crystal, and various software keys (touch keys) are allocated and displayed to display the function names. A touch operation with a finger or the like is detected, and an operation signal corresponding to the touch position is input. The display screen of the touch display unit 6 becomes a monitor screen (live view screen) that displays an image (fisheye image) or the like captured by the fisheye lens 5B in real time, or reproduces a captured image (fisheye image) or the like. The playback screen may appear.

図2は、撮像部5によって撮影された画像(魚眼画像)のうち、所定の画像処理を実行させる領域をユーザ操作によって指定する場合の様子を示した図である。
すなわち、撮像部5によって撮影された画像(魚眼画像)がタッチ表示部6上にライブビュー画像として表示されている状態において、そのタッチ画面(例えば、ライブビュー画面)上でのタッチ操作によって処理対象領域を指定する場合を示している。本実施形態において所定の画像処理とは、魚眼画像から一部の画像を切り出す処理を示し、処理対象領域とは、その切り出し領域を示しているが、それに限らない。
FIG. 2 is a diagram illustrating a state where a region for executing predetermined image processing is designated by a user operation among images (fisheye images) captured by the imaging unit 5.
That is, in a state where an image (fisheye image) photographed by the imaging unit 5 is displayed on the touch display unit 6 as a live view image, processing is performed by a touch operation on the touch screen (for example, a live view screen). This shows the case of specifying the target area. In the present embodiment, the predetermined image processing indicates processing for cutting out a part of an image from a fisheye image, and the processing target area indicates the cutting area, but is not limited thereto.

図2(1)は、タッチ表示部6に魚眼画像が表示されている状態において、そのタッチ画面上で所定のタッチ操作、例えば、1回のタッチ操作(シングルタップ操作)が行われ場合を例示した図である。
ユーザは、魚眼画像内からその一部(所望する被写体部分)の画像の切り出しを指示する場合には、その切り出し領域(処理対象領域)をタッチ操作によって指定する。その際、例えば、縦横比が横4:縦3の標準サイズの画像を希望する場合には、その所望する被写体部分に対して所定のタッチ操作(例えば、シングルタップ操作)を行う。制御部1は、この所定のタッチ操作(シングルタップ操作)によってタッチ画面上の任意の一点が指定されると、そのタッチ位置を魚眼画像上に重畳表示(報知)させると共に、そのタッチ位置を含む領域を処理対象領域として特定し、この処理対象領域を明示するための案内枠を魚眼画像上に重畳表示(報知)させるようにしている。
FIG. 2A illustrates a case where a predetermined touch operation, for example, a single touch operation (single tap operation) is performed on the touch screen in a state where a fisheye image is displayed on the touch display unit 6. FIG.
When the user instructs to cut out an image of a part (desired subject portion) from the fisheye image, the user designates the cutout region (processing target region) by a touch operation. At this time, for example, when a standard size image with an aspect ratio of 4: 4 is desired, a predetermined touch operation (for example, a single tap operation) is performed on the desired subject portion. When an arbitrary point on the touch screen is designated by the predetermined touch operation (single tap operation), the control unit 1 superimposes (notifies) the touch position on the fisheye image, and displays the touch position. A region to be included is specified as a processing target region, and a guide frame for clearly indicating the processing target region is superimposed and displayed (notified) on the fisheye image.

すなわち、制御部1は、まず、タッチ位置を中心とする所定の領域を生成する。例えば、タッチ位置を中心点とする矩形領域として、縦横比が横4:縦3の標準サイズの横長の長方形領域を生成する。そして、この長方形の領域(標準サイズ展開用の領域)を魚眼画像の歪み率に応じて歪曲補正する処理を施すと、この歪み補正により補正後の領域は、円弧状の領域に変形される。この補正後の領域(円弧状の領域)を処理対象領域として特定した後、この処理対象領域(円弧状の領域)を明示するための案内枠(図中、太い破線枠)を、そのタッチ位置を示すマーク(図中、黒点)と共に、魚眼画像上に重畳表示させるようにしている。   That is, the control unit 1 first generates a predetermined area centered on the touch position. For example, as a rectangular area having the touch position as the center point, a horizontally long rectangular area having an aspect ratio of 4: 3 and a standard size is generated. Then, when this rectangular region (region for standard size development) is subjected to a distortion correction process according to the distortion rate of the fisheye image, the corrected region is transformed into an arcuate region by this distortion correction. . After specifying this corrected region (arc-shaped region) as a processing target region, a guide frame (thick dashed frame in the figure) for clearly indicating the processing target region (arc-shaped region) is displayed at the touch position. In addition to a mark (indicated by a black dot in the figure), a fisheye image is superimposed and displayed.

図2(2)は、タッチ表示部6に魚眼画像が表示されている状態において、そのタッチ画面上で所定のタッチ操作、例えば、円弧状の軌跡を描くスライド操作(スワイプ操作)が行われた場合を例示した図である。
ユーザは、魚眼画像内からその一部(所望する被写体部分)の画像の切り出しを指示する際に、例えば、縦横比が横8:縦3のパノラマサイズの画像を希望する場合には、所望する被写体部分に対して所定のタッチ操作として、被写体部分を含むように広範囲を移動するスライド操作(スワイプ操作)を行う。この場合、スワイプ操作の開始位置をパノラマ展開の始点、スワイプ操作の終了位置をパノラマ展開の終点となるようにスワイプ操作を行うが、魚眼レンズ5Bで撮影された画像は、その中心から離れるほど歪み具合が大きくなるという性質を有しているため、所望する被写体部分が魚眼画像の中央部分から周辺部分に亘るような場合には、被写体部分上を移動するスワイプ操作は、直線的な軌跡とはならず、円弧状に曲がった軌跡となる。
FIG. 2B shows a state in which a fisheye image is displayed on the touch display unit 6, and a predetermined touch operation, for example, a slide operation (swipe operation) for drawing an arcuate locus is performed on the touch screen. It is the figure which illustrated the case.
When the user instructs to cut out a part of the fisheye image (desired subject part), for example, when the user desires a panoramic image having an aspect ratio of 8: 3, he / she As a predetermined touch operation with respect to the subject portion to be performed, a slide operation (swipe operation) for moving a wide range so as to include the subject portion is performed. In this case, the swipe operation is performed so that the start position of the swipe operation is the start point of panorama development, and the end position of the swipe operation is the end point of panorama development. Therefore, if the desired subject part extends from the central part to the peripheral part of the fisheye image, swipe operation to move on the subject part is a linear trajectory. Instead, the trajectory is curved in an arc.

制御部1は、この円弧状のスワイプ操作によって連続的に変化するタッチ位置が指定されると、そのスワイプ操作に追従してそのタッチ軌跡を示すマーク(図中、矢印付の破線)を魚眼画像上に重畳表示させると共に、このタッチ位置を含む円弧状の領域(タッチ軌跡を中心とする円弧状の領域)を生成し、この生成領域を処理対象領域として特定した後、この円弧状の処理対象領域を明示するための案内枠(図中、太い破線枠)をスワイプ操作に追従して魚眼画像上に重畳表示させる。この円弧状の処理対象領域は、スワイプ操作の開始位置をパノラマ展開の始点、スワイプ操作の終了位置をパノラマ展開の終点とするパノラマ展開用の領域である。なお、スワイプ操作に追従したタッチ軌跡に基づいて円弧状の領域を生成するが、この円弧状の領域の曲率は、魚眼レンズ5Bによって撮影された画像の歪みを考慮に入れた上で生成されることになる。   When the touch position continuously changing by the arc-shaped swipe operation is designated, the control unit 1 follows the swipe operation and marks the mark indicating the touch locus (broken line with an arrow in the figure) as a fisheye. The arc-shaped area including the touch position (arc-shaped area centered on the touch locus) is generated and superimposed on the image, and the arc-shaped process is performed after the generated area is specified as the processing target area. A guide frame (indicated by a thick broken line in the figure) for clearly indicating the target area is superimposed on the fisheye image following the swipe operation. This arc-shaped processing target area is an area for panorama development in which the start position of the swipe operation is the start point of panorama development and the end position of the swipe operation is the end point of panorama development. Note that an arc-shaped area is generated based on the touch trajectory following the swipe operation, and the curvature of the arc-shaped area is generated in consideration of distortion of the image captured by the fisheye lens 5B. become.

次に、本実施形態における画像処理装置(デジタルカメラ)の動作概念を図3及び図4に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図3及び図4は、画像処理装置(デジタルカメラ)の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図3及び図4のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。   Next, an operation concept of the image processing apparatus (digital camera) in the present embodiment will be described with reference to flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. In other words, in addition to the recording medium, an operation unique to the present embodiment can be executed using a program / data supplied externally via a transmission medium. 3 and 4 are flowcharts showing an outline of the operation of the characterizing portion of the present embodiment in the overall operation of the image processing apparatus (digital camera). When the flow of FIG. 3 and FIG. The process returns to the main flow (not shown) of the overall operation.

図3及び図4は、撮影モードに切り替えられた際に実行開始される動作(本実施形態の特徴的な動作)を説明するためのフローチャートである。
まず、制御部1は、撮影モードにおいて、撮像部5から画像(魚眼画像)を取得して、タッチ表示部6にライブビュー画像として表示させる動作を開始する(ステップS1)。そして、このライブビュー画面(タッチ画面)へのタッチ操作の有無(タッチ開始の有無)を調べたり(ステップS2)、操作部4上のレリーズキーの操作有無を調べたりする(ステップS10)。
3 and 4 are flowcharts for explaining an operation (characteristic operation of the present embodiment) that is started when the mode is switched to the shooting mode.
First, in the shooting mode, the control unit 1 acquires an image (fisheye image) from the imaging unit 5 and starts an operation of displaying the image on the touch display unit 6 as a live view image (step S1). Then, the presence / absence of touch operation on the live view screen (touch screen) (presence / absence of touch start) is checked (step S2), and the presence / absence of operation of the release key on the operation unit 4 is checked (step S10).

いま、タッチ操作を検出すると(ステップS2でYES)、そのタッチ位置を検出してワークメモリ3Bに一時記憶しておく(ステップS3)。そして、タッチ位置は変化したか(タッチ操作は移動したか)を調べ(ステップS4)、タッチ位置が変化しなければ(ステップS4でNO)、タッチ操作の終了か(タッチは離れたか)を調べる(ステップS5)。ここで、タッチしたままの状態であれば(ステップS5でNO)、上述のステップS4に戻るが、タッチ位置が変化しないままの状態で(ステップS4でNO)、タッチが離れた場合(ステップS5でYES)、つまり、タッチしてから離すタッチ操作(1回のタッチ操作:シングルタップ操作)が行われた場合には、次のステップS6に移り、ワークメモリ3Bに一時記憶されているタッチ位置を読み出し、このタッチ位置を中心とする標準サイズの矩形領域、例えば、縦横比が横4:縦3の横長の長方形領域を生成する。   If a touch operation is detected (YES in step S2), the touch position is detected and temporarily stored in the work memory 3B (step S3). Then, it is checked whether the touch position has changed (whether the touch operation has moved) (step S4). If the touch position has not changed (NO in step S4), it is checked whether the touch operation has ended (whether the touch has been released). (Step S5). Here, if the state remains touched (NO in step S5), the process returns to step S4 described above, but if the touch position remains unchanged (NO in step S4), the touch is released (step S5). YES), that is, when a touch operation that is performed after touching (one touch operation: single tap operation) is performed, the process proceeds to the next step S6, and the touch position temporarily stored in the work memory 3B Is generated, and a rectangular region having a standard size centered on the touch position, for example, a horizontally long rectangular region having an aspect ratio of horizontal 4: vertical 3 is generated.

次に、制御部1は、この生成領域(横長の長方形領域)に応じて魚眼レンズ5Bの歪み率を取得し、この生成領域に対して歪みを補正する処理を行う(ステップS7)。すなわち、魚眼画像は、魚眼レンズ5Bの中心から離れる程、その歪み率が大きくなるため、予め設定されている魚眼レンズ5Bのパラメータ(レンズの中心から縁までの一連の歪み率)を読み出し、その中から生成領域(横長の長方形領域)に相当する各位置の歪み率を取得し、この複数の歪み率を用いて生成領域に対して歪み補正を施す。これによって横長の長方形領域は、円弧状の領域に変形される。次に、制御部1は、この補正後の円弧状の領域を画像処理の対象領域として特定してワークメモリ3Bに一時記憶させる(ステップS8)。そして、この処理対象領域を明示する案内枠をそのタッチ位置を示すマークと共に、魚眼画像上に重畳表示させる(ステップS9)。   Next, the control unit 1 acquires the distortion rate of the fisheye lens 5B according to the generation area (horizontal rectangular area), and performs a process of correcting the distortion for the generation area (step S7). That is, since the distortion rate of the fisheye image increases as the distance from the center of the fisheye lens 5B increases, the preset parameters of the fisheye lens 5B (a series of distortion rates from the center of the lens to the edge) are read out. The distortion rate at each position corresponding to the generation region (horizontal rectangular region) is acquired from the above, and distortion correction is performed on the generation region using the plurality of distortion rates. As a result, the horizontally long rectangular region is transformed into an arcuate region. Next, the control unit 1 specifies the corrected arc-shaped area as a target area for image processing, and temporarily stores it in the work memory 3B (step S8). Then, a guide frame that clearly indicates the processing target area is displayed on the fisheye image together with a mark indicating the touch position (step S9).

図5は、図2(1)で示した場合と同様に、シングルタップ操作が行われた場合を示し、図5(1)は、親子を撮影した魚眼画像がライブビュー画面に表示されている状態において、その魚眼画像上で親子が写っている辺りがシングルタップ操作された場合を示している。図5(2)は、そのシングルタップ操作によってライブビュー画面上に処理対象領域(魚眼画像の歪みに応じて補正された円弧状の領域)を明示する案内枠と、そのタッチ位置を示すマークが魚眼画像上に重畳表示された状態を示している。   FIG. 5 shows a case where a single tap operation is performed as in the case shown in FIG. 2 (1). FIG. 5 (1) shows a fisheye image obtained by photographing the parent and child on the live view screen. In this state, a single tap operation is performed around the area where the parent and child are reflected on the fisheye image. FIG. 5 (2) shows a guide frame that clearly indicates a processing target region (an arc-shaped region corrected according to distortion of a fisheye image) on the live view screen by the single tap operation, and a mark indicating the touch position. Indicates a state of being superimposed and displayed on the fisheye image.

一方、タッチ位置の変化を検出した場合には(ステップS4でYES)、変化したタッチ位置を検出してワークメモリ3Bに一時記憶(ステップS11)させた後、このタッチ軌跡に応じた形状の領域を生成する(ステップS12)。すなわち、タッチ軌跡を、例えば中心線とする所定幅を持った円弧状の領域を生成する。そして、この生成領域を画像処理の対象領域として特定してワークメモリ3Bに一時記憶(ステップS13)させた後、この処理対象領域を明示する案内枠をそのタッチ軌跡を示すマークと共に、魚眼画像上に重畳表示させる(ステップS14)。この状態において、タッチ操作の終了か(タッチは離れたか)を調べ(ステップS15)、以下、タッチが離れるまで上述のステップS4に戻り、以下、タッチ位置が変化する毎に(ステップS4でYES)、上述の動作(ステップS11〜S15)を繰り返す。これによって魚眼画像上に重畳表示されている処理対象領域は、タッチ操作(スワイプ操作)に追従して順次変化するようになる。   On the other hand, if a change in the touch position is detected (YES in step S4), the changed touch position is detected and temporarily stored in the work memory 3B (step S11), and then a region corresponding to the touch locus is formed. Is generated (step S12). That is, an arc-shaped region having a predetermined width with the touch locus as a center line, for example, is generated. Then, after specifying this generation region as a target region for image processing and temporarily storing it in the work memory 3B (step S13), a fisheye image with a guide frame indicating the processing target region and a mark indicating the touch trajectory is displayed. The image is superimposed and displayed on top (step S14). In this state, it is checked whether the touch operation has been completed (whether the touch has been released) (step S15). Thereafter, the process returns to step S4 until the touch is released, and thereafter, every time the touch position changes (YES in step S4). The above operations (steps S11 to S15) are repeated. As a result, the processing target area superimposed and displayed on the fisheye image sequentially changes following the touch operation (swipe operation).

図6は、図2(2)で示した場合と同様に、円弧状の軌跡を描くスワイプ操作が行われた場合で、図6(1)は、親子を撮影した魚眼画像がライブビュー画面に表示されている状態において、その魚眼画像上で親子が写っている辺り(魚眼画像の中央部分)がスワイプ操作された場合を示し、このスワイプ操作のタッチ軌跡に応じてライブビュー画面上に円弧状の処理対象領域を明示する案内枠が魚眼画像上に重畳表示されると共に、そのタッチ軌跡を示すマークが魚眼画像上に重畳表示される。この処理対象領域を明示する案内枠とタッチ軌跡を示すマークは、スワイプ操作に追従して順次変化するもので、両者を識別可能となるように、それらの線種や太さなどを変えて表示するようにしている。   FIG. 6 shows a case where a swipe operation for drawing an arcuate locus is performed, as in the case shown in FIG. 2 (2). FIG. 6 (1) shows a fisheye image obtained by photographing a parent and child in a live view screen. In the state displayed on the screen, the area where the parent and child are reflected on the fisheye image (the center of the fisheye image) is swiped. On the live view screen according to the swipe operation touch track A guide frame that clearly indicates the arc-shaped processing target area is superimposed on the fisheye image, and a mark indicating the touch locus is superimposed on the fisheye image. The guide frame that clearly indicates the processing target area and the mark indicating the touch trajectory change sequentially following the swipe operation, and are displayed with their line type and thickness changed so that they can be identified. Like to do.

図7は、図2(2)で示した場合と同様に、円弧状の軌跡を描くスワイプ操作が行われた場合で、図6(1)の場合には魚眼画像の中央部分がスワイプ操作された場合であるが、図7(1)の場合には魚眼画像の周辺部分がスワイプ操作された場合である。すなわち、図7(1)に示した魚眼画像は、魚眼レンズ5Bを天に向けて周囲のビル群を撮影した場合を例示したもので、その周囲のビル群(魚眼画像の周辺部分)のうち、図中、下半分の周辺部分がスワイプ操作された場合を示し、このスワイプ操作のタッチ軌跡に応じてライブビュー画面上に円弧状の処理対象領域を明示する案内枠が魚眼画像上に重畳表示されると共に、そのタッチ軌跡を示すマークが魚眼画像上に重畳表示される。この処理対象領域を明示する案内枠とタッチ軌跡を示すマークは、スワイプ操作に追従して順次変化するもので、両者を識別可能となるように、それらの線種や太さなどを変えて表示するようにしている。   FIG. 7 shows a case where a swipe operation for drawing an arcuate locus is performed as in the case shown in FIG. 2 (2). In the case of FIG. 6 (1), the center portion of the fisheye image is swiped. In the case of FIG. 7 (1), the peripheral portion of the fisheye image is swiped. That is, the fish-eye image shown in FIG. 7 (1) is an example of the case where the surrounding building group is photographed with the fish-eye lens 5B facing the sky, and the surrounding building group (the peripheral part of the fish-eye image) is illustrated. The figure shows the case where the lower half of the figure is swiped, and a guide frame that clearly indicates the arc-shaped processing target area on the live view screen is displayed on the fisheye image according to the touch trajectory of the swipe operation. In addition to being superimposed, a mark indicating the touch locus is superimposed on the fisheye image. The guide frame that clearly indicates the processing target area and the mark indicating the touch trajectory change sequentially following the swipe operation, and are displayed with their line type and thickness changed so that they can be identified. Like to do.

このようなタッチ操作(シングルタップ操作又はスワイプ操作)によって処理対象領域を特定して報知する処理が終わると、レリーズキーが操作されたかを調べ(ステップS10)、レリーズキーが操作されなければ(ステップS10でNO)、上述のステップS2に戻る。いま、レリーズキーが操作されると(ステップS10でYES)、図4のステップS16に移り、ワークメモリ3Bに処理対象領域が一時記憶されているか、つまり、撮影準備として処理対象領域は特定済みであるかを調べる。ここで、処理対象領域が特定されていなければ(ステップS16でNO)、撮像部5から魚眼画像を取得して現像処理を行うと共に、標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップS24)。   When the process of specifying and notifying the processing target region by such a touch operation (single tap operation or swipe operation) is finished, it is checked whether the release key is operated (step S10), and if the release key is not operated (step S10). NO at S10), the process returns to step S2. If the release key is operated (YES in step S10), the process proceeds to step S16 in FIG. 4, and whether the processing target area is temporarily stored in the work memory 3B, that is, the processing target area has been specified as a preparation for photographing. Find out if there is. Here, if the processing target area is not specified (NO in step S16), a fisheye image is acquired from the imaging unit 5 and development processing is performed, and after conversion into a standard file format, Recording and storage are performed on the recording medium (step S24).

また、処理対象領域が特定済みであれば(ステップS16でYES)、撮像部5から魚眼画像を取得し、その魚眼画像から処理対象領域内の画像を切り出す(ステップS17)。そして、上述の場合と同様に、予め設定されている魚眼レンズ5Bのパラメータ(レンズの中心から縁までの一連の歪み率)を読み出し(ステップS18)、その中から処理対象領域に相当する各位置の歪み率を取得し、この複数の歪み率を用いて処理対象領域内の画像の歪みを補正する処理を行う(ステップS19)。これによって円弧状の処理対象領域内の画像は、矩形状の画像に変形される。そして、この補正画像に対して現像処理を行うと共に、標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させる(ステップS20)。即ち、ここまで説明したように、上述したレリーズキー操作により、特定された処理対象領域が画像処理する対象であると本決定されることになる。   If the processing target area has been specified (YES in step S16), a fisheye image is acquired from the imaging unit 5, and an image in the processing target area is cut out from the fisheye image (step S17). Then, in the same manner as described above, the preset parameters of the fisheye lens 5B (a series of distortion rates from the center of the lens to the edge) are read (step S18), and the position of each position corresponding to the processing target region is read from the parameters. A distortion rate is acquired, and a process of correcting distortion of the image in the processing target region using the plurality of distortion rates is performed (step S19). As a result, the image in the arc-shaped processing target region is transformed into a rectangular image. Then, the corrected image is developed and converted into a standard file format, and then recorded and stored in the recording medium of the storage unit 3 (step S20). That is, as described so far, the above-described release key operation determines that the specified processing target area is a target for image processing.

図5(3)は、図5(1)に示したように、魚眼画像の中央部分へのシングルタップ操作によって特定された円弧状の処理対象領域内の画像に対して、その歪みを補正した後の補正画像を示し、この補正画像が標準サイズ展開画像として記録保存される。この場合、円弧状の画像は、歪み補正によって矩形状の画像に変形されて、例えば、縦横比が横4:縦3の矩形状の画像(標準サイズ展開画像)となる。   As shown in FIG. 5 (3), as shown in FIG. 5 (1), the distortion is corrected for the image in the arc-shaped processing target area specified by the single tap operation to the center part of the fisheye image. The corrected image is shown, and this corrected image is recorded and saved as a standard size developed image. In this case, the arc-shaped image is transformed into a rectangular image by distortion correction, and becomes, for example, a rectangular image (standard size developed image) having an aspect ratio of 4: 4.

図6(2)は、図6(1)に示したように、魚眼画像の中央部分から周辺部分へのスワイプ操作によって特定された円弧状の処理対象領域内の画像に対して、その歪みを補正した後の補正画像を示し、この補正画像がパノラマサイズ展開画像として記録保存される。この場合、円弧状の画像は、歪み補正によって矩形状の画像に変形されて、例えば、縦横比が横8:縦3の矩形状の画像(パノラマサイズ展開画像)となる。   FIG. 6 (2) shows the distortion of the image in the arc-shaped processing target area specified by the swipe operation from the central part to the peripheral part of the fish-eye image as shown in FIG. 6 (1). The corrected image after correcting is shown, and this corrected image is recorded and saved as a panorama size developed image. In this case, the arc-shaped image is transformed into a rectangular image by distortion correction, and becomes, for example, a rectangular image (panorama size developed image) having an aspect ratio of 8: 3.

図7(2)は、図7(1)に示したように、魚眼画像の周辺部分へのスワイプ操作によって特定された円弧状の処理対象領域内の画像に対して、その歪みを補正した後の補正画像を示し、この補正画像がパノラマサイズ展開画像として記録保存される。この場合、円弧状の画像は、歪み補正によって矩形状の画像に変形されて、例えば、縦横比が横8:縦3の矩形状の画像(パノラマサイズ展開画像)となる。   In FIG. 7 (2), as shown in FIG. 7 (1), the distortion is corrected for the image in the arc-shaped processing target area specified by the swipe operation to the peripheral part of the fisheye image. The corrected image is shown later, and this corrected image is recorded and saved as a panorama size developed image. In this case, the arc-shaped image is transformed into a rectangular image by distortion correction, and becomes, for example, a rectangular image (panorama size developed image) having an aspect ratio of 8: 3.

このようにして補正画像を記録保存すると、その補正画像の元となった魚眼画像を記録保存させる(ステップS21)。この場合においても魚眼画像に対して現像処理を行うと共に、標準的なファイル形式に変換した後、記憶部3の記録メディアに記録保存させるが、その際、補正画像と魚眼画像とを対応付けて記録保存するようにしている。その後、ワークメモリ3Bの内容を消去する処理(ステップS22)を行った後、撮影モードが解除されたかを調べる(ステップS23)。いま、撮影モードが解除されると(ステップS23でYES)、図3及び図4のフローから抜けるが、撮影モードのままであれば(ステップS23でNO)、図3のステップS2に戻り、上述の動作を繰り返す。   When the corrected image is recorded and saved in this way, the fisheye image that is the basis of the corrected image is recorded and saved (step S21). Even in this case, the fish-eye image is subjected to development processing, converted into a standard file format, and then recorded and stored in the recording medium of the storage unit 3. At this time, the correction image and the fish-eye image are associated with each other. The record is saved. Thereafter, after performing the process of erasing the contents of the work memory 3B (step S22), it is checked whether or not the shooting mode has been canceled (step S23). If the shooting mode is canceled (YES in step S23), the flow of FIGS. 3 and 4 is exited, but if the shooting mode remains (NO in step S23), the process returns to step S2 of FIG. Repeat the operation.

以上のように、本実施形態において制御部1は、撮像部5から取得した画像上の位置が連続的に指定された場合に、その指定位置に追従してその指定位置を含む領域を画像処理の対象領域として特定し、この処理対象領域を指定位置に追従して報知するようにしたので、処理を実行させる領域をユーザ操作によって指定する際に、その指定を適切に支援することができる。例えば、図6(1)、図7(1)に示したスワイプ操作によってライブビュー画面上に処理対象領域を明示する案内枠が、そのスワイプ操作に追従して順次表示されるため、ユーザにあってはスワイプ操作を行うだけで適切な処理対象領域を容易に目視確認することかできる。また、魚眼画像の歪曲を補正してその補正画像を表示させた状態で、切り出し領域の指定や、その他の画像処理を実行させる領域をその補正画像上で指定することを受け付け可能とするのではなく、歪みを有する画像上で画像処理を実行させる領域を指定することができる。   As described above, in the present embodiment, when the position on the image acquired from the imaging unit 5 is continuously specified, the control unit 1 performs image processing on the region including the specified position following the specified position. Since the target region is specified and the processing target region is notified in accordance with the specified position, the specification can be appropriately supported when the region to be processed is specified by the user operation. For example, the guide frames that clearly indicate the processing target area on the live view screen by the swipe operation shown in FIGS. 6 (1) and 7 (1) are sequentially displayed following the swipe operation. Thus, it is possible to easily visually check an appropriate processing target area simply by performing a swipe operation. In addition, with the distortion of the fisheye image corrected and the corrected image displayed, it is possible to accept the designation of the cutout area and the designation of the area on which other image processing is to be performed on the corrected image. Instead, it is possible to specify an area in which image processing is executed on an image having distortion.

制御部1は、連続的に指定された位置に追従してその指定軌跡に応じた形状の領域を画像処理の対象領域として特定するようにしたので、ユーザにあっては魚眼レンズ5Bの歪みを考慮しながら連続的な位置指定が可能となる。   Since the control unit 1 continuously follows the designated position and specifies a region having a shape corresponding to the designated locus as a target region for image processing, the user considers the distortion of the fisheye lens 5B. However, continuous position designation is possible.

制御部1は、撮像部5から取得した画像上の位置が指定された場合に、その指定位置とその位置に対応する歪み率に基づいて、その指定位置を含む領域を画像処理の対象領域として特定し、この処理対象領域を報知するようにしたので、処理を実行させる領域をユーザが指定する場合に、その指定を適切に支援することができる。例えば、図5(1)、(2)に示したシングルタップ操作によってライブビュー画面上に処理対象領域を明示する案内枠が表示されるため、ユーザにあってはシングルタップ操作を行うだけで適切な処理対象領域を容易に目視確認することができる。   When the position on the image acquired from the imaging unit 5 is specified, the control unit 1 sets the region including the specified position as a target region for image processing based on the specified position and the distortion rate corresponding to the position. Since the process target area is specified and specified, when the user designates an area for executing the process, the designation can be appropriately supported. For example, a guide frame that clearly indicates the processing target area is displayed on the live view screen by the single tap operation shown in FIGS. 5 (1) and 5 (2), so that the user only needs to perform the single tap operation. It is possible to easily visually check a target processing area.

制御部1は、魚眼レンズ5Bのパラメータに基づいてその魚眼画像の歪み率を算出するようにしたので、その歪み率を的確に求めることができる。   Since the control unit 1 calculates the distortion rate of the fisheye image based on the parameters of the fisheye lens 5B, the distortion rate can be accurately obtained.

制御部1は、撮像部5から取得した画像のうち、特定した処理対象領域内の画像に対して所定の画像処理を行うようにしたので、適切な支援によって特定された処理対象領域に対して的確な画像処理が可能となる。   Since the control unit 1 performs predetermined image processing on the image in the specified processing target area among the images acquired from the imaging unit 5, the control unit 1 performs processing on the processing target area specified by appropriate support. Accurate image processing is possible.

制御部1は、撮像部5から取得した画像の中から特定した処理対象領域内の画像を切り出す処理を行うようにしたので、例えば、処理対象領域の特定が不正確なために所望する被写体の一部が切り取られてしまうなどの事態を防ぐことができる。   Since the control unit 1 performs the process of cutting out the image in the processing target area specified from the images acquired from the imaging unit 5, for example, because the specification of the processing target area is inaccurate, It is possible to prevent such a situation that a part is cut off.

制御部1は、撮像部5から取得した広角画像の中から特定した処理対象領域内の画像を切り出す処理を行うと共に、その切り出した画像に対してその歪を補正する処理を行うようにしたので、魚眼画像から処理対象領域内の画像を切り抜いても歪みの無い画像を得ることができる。   Since the control unit 1 performs the process of cutting out the image within the processing target area specified from the wide-angle image acquired from the imaging unit 5, the control unit 1 performs the process of correcting the distortion on the cut-out image. Even if the image in the processing target area is cut out from the fisheye image, an image without distortion can be obtained.

制御部1は、撮像部5から取得した画像を表示する画面上に、ユーザ操作により指定された位置と共に、その指定位置に応じて特定した処理対象領域を識別表示するようにしたので、ユーザに対して見やすい報知が可能となる。   The control unit 1 identifies and displays the processing target area specified according to the designated position together with the position designated by the user operation on the screen that displays the image acquired from the imaging unit 5. On the other hand, it is possible to provide easy-to-see notification.

制御部1は、撮像部5から取得した画像をタッチ表示部6に表示させている状態において、タッチ操作によって指定された位置に基づいて特定した処理対象領域をその画像上に重畳表示させるようにしたので、画像上でのタッチ操作によって処理対象領域を的確に指定することが可能となる。   In a state where the image acquired from the imaging unit 5 is displayed on the touch display unit 6, the control unit 1 superimposes and displays the processing target region specified based on the position specified by the touch operation on the image. Therefore, it is possible to accurately specify the processing target area by a touch operation on the image.

<変形例1>
なお、上述した実施形態においては、タッチ表示部6に魚眼画像が表示されている状態において、そのタッチ画面上で魚眼画像の性質を考慮に入れて円弧状のスワイプ操作が行われた場合を示したが、円弧状のスワイプ操作に限らず、直線的な軌跡を描くスワイプ操作を行うようにしてもよい。
図8は、タッチ表示部6に魚眼画像が表示されている状態において、直線的な軌跡を描くスワイプ操作が行われた場合を説明するための図である。
<Modification 1>
In the above-described embodiment, when a fish-eye image is displayed on the touch display unit 6, an arc-shaped swipe operation is performed on the touch screen in consideration of the properties of the fish-eye image. However, the present invention is not limited to the arc-shaped swipe operation, and a swipe operation for drawing a linear trajectory may be performed.
FIG. 8 is a diagram for explaining a case where a swipe operation for drawing a linear locus is performed in a state where a fisheye image is displayed on the touch display unit 6.

ここで、制御部1は、図8に示すように、直線的なスワイプ操作に追従してタッチ軌跡を示すマーク(図中、矢印付の破線)を魚眼画像上に重畳表示させると共に、このタッチ位置を含む矩形領域、つまり、タッチ軌跡を中心とする矩形領域を生成し、この生成領域に対して歪み補正を行う。すなわち、予め設定されている魚眼レンズ5Bのパラメータ(レンズの中心から縁までの一連の歪み率)の中から処理対象領域に相当する各位置の歪み率を取得し、この複数の歪み率を用いて処理対象領域に対して歪み補正を行う。これによって矩形領域は、円弧状の領域に変形され、この円弧状の領域を処理対象領域として特定して魚眼画像上に重畳表示させる。   Here, as shown in FIG. 8, the control unit 1 superimposes and displays a mark indicating a touch locus (a broken line with an arrow in the figure) on the fisheye image following a linear swipe operation. A rectangular area including the touch position, that is, a rectangular area centered on the touch locus is generated, and distortion correction is performed on the generated area. That is, the distortion rate at each position corresponding to the processing target region is acquired from the preset parameters of the fisheye lens 5B (a series of distortion rates from the center to the edge of the lens), and the plurality of distortion rates are used. Distortion correction is performed on the processing target area. As a result, the rectangular area is transformed into an arc-shaped area, and this arc-shaped area is specified as a processing target area and is superimposed and displayed on the fisheye image.

このようにスワイプ操作に追従して処理対象領域を特定して報知する場合に、タッチ位置を含む矩形領域を生成し、この矩形領域に対して歪み補正を行って円弧状の領域に変形した後、この円弧状の領域を処理対象領域として特定して報知するようにすれば、直線的なスワイプ操作が行われても実際に処理される領域を報知することができる。   In this way, when the processing target area is identified and notified following the swipe operation, a rectangular area including the touch position is generated and the rectangular area is subjected to distortion correction to be transformed into an arc-shaped area. If this arc-shaped region is specified and notified as a processing target region, the region that is actually processed can be notified even if a linear swipe operation is performed.

<変形例2>
上述した実施形態においては、予め設定されている魚眼レンズ5Bのパラメータ(レンズの中心から縁までの一連の歪み率)を使用して歪み率を求めるようにしたが、魚眼画像を解析することによりその各点に対する歪み率を求めるようにしてもよい。すなわち、魚眼画像内に含まれている特徴線(例えば、地平線、テレビや机の縁部の直線など、現実世界で水平な線、又は垂直な線)を検出し、その特徴線を基準にして、各点の歪み具合を求めて歪み率を算出するようにしてもよい。このように画像解析によって歪み率を求めるようにすれば、レンズパラメータが用意されていない場合でも歪み率を求めることが可能となる。
<Modification 2>
In the above-described embodiment, the distortion rate is obtained using the preset parameters of the fisheye lens 5B (a series of distortion rates from the center of the lens to the edge), but by analyzing the fisheye image, You may make it obtain | require the distortion factor with respect to each point. That is, a feature line included in a fisheye image (for example, a horizontal line or a vertical line in the real world such as a horizon line, a straight line at the edge of a TV or a desk) is detected, and the feature line is used as a reference. Thus, the distortion rate may be calculated by obtaining the degree of distortion at each point. Thus, if the distortion rate is obtained by image analysis, the distortion rate can be obtained even when no lens parameter is prepared.

<変形例3>
上述した実施形態においては、撮影時のライブビュー画面上で処理対象領域を報知するようにしたが、撮影済み画像(保存画像)の再生時にその再生画面上で処理対象領域を報知するようにしてもよい。すなわち、撮影済み画像(保存画像)が表示されている再生画面上において、上述した実施形態と同様に、シングルタップ操作又はスワイプ操作が行われると、それに応じて処理対象領域を特定し、この処理対象領域を明示する案内枠を再生画面上に重畳表示するようにしてもよい。この場合、処理対象領域内の画像を切り出して歪み補正を行い、その補正後の画像を再生画面上に切り替え表示したり、記録保存したりするようにしてもよい。なお、この場合、シングルタップ操作やスワイプ操作が行われて、それに応じて処理対象領域を特定した後、例えば画面上のダブルクリックや、所定の釦操作などの所定操作を検知したら、或いは処理対象領域を特定した後に、数秒間操作が無いことを検知したら、その処理対象領域を画像処理する領域であると本決定するようにしてもよい。
<Modification 3>
In the above-described embodiment, the processing target area is notified on the live view screen at the time of shooting. However, the processing target area is notified on the playback screen when the captured image (saved image) is played back. Also good. That is, when a single tap operation or a swipe operation is performed on the playback screen on which a captured image (stored image) is displayed, a processing target area is specified according to the single tap operation or swipe operation, and this processing is performed. A guide frame that clearly indicates the target area may be superimposed on the playback screen. In this case, an image in the processing target area may be cut out and distortion correction may be performed, and the corrected image may be switched and displayed on the playback screen or recorded and saved. In this case, after a single tap operation or swipe operation is performed and a processing target area is specified accordingly, for example, when a predetermined operation such as a double click on the screen or a predetermined button operation is detected, or a processing target If it is detected that there is no operation for several seconds after the area is specified, the processing target area may be determined as an area for image processing.

上述した実施形態においては、魚眼レンズ5Bで撮影した画像に対して適用した場合を示したが、魚眼画像上での領域指定に限らず、その他の広角レンズで撮影した画像、又は歪の無い画像上で領域指定する場合も同様に適用可能である。なお、上述した実施形態のように歪みのある画像の場合は画像の歪みを考慮に入れた上で処理対象領域を生成するが、歪みの無い画像の場合は、画像の歪みを考慮に入れることなく、処理対象領域を生成することとなる。   In the above-described embodiment, the case where the present invention is applied to an image photographed with the fisheye lens 5B has been described. The same can be applied to the area designation above. In the case of an image with distortion as in the above-described embodiment, the processing target region is generated after taking image distortion into consideration. However, in the case of an image without distortion, image distortion should be taken into consideration. Instead, the processing target area is generated.

上述した実施形態においては、撮像部5から取得した画像を表示する画面上において、処理対象領域を明示する案内枠の他に、ユーザ操作により指定された位置を表示するようにしたが、処理対象領域を明示する案内枠を表示するだけで、指定位置を表示しなくてもよく、また、処理対象領域を明示する案内枠を魚眼画像上に重畳表示する場合に限らず、案内枠、又は処理対象領域の全体を着色表示したり、点滅表示したりするなど、処理対象領域を識別可能であれば、その報知の仕方は限らない。   In the above-described embodiment, the position specified by the user operation is displayed on the screen that displays the image acquired from the imaging unit 5 in addition to the guide frame that clearly indicates the processing target area. It is not necessary to display the designated position only by displaying a guide frame that clearly indicates the area, and is not limited to the case where the guide frame that clearly indicates the processing target area is superimposed on the fisheye image. As long as the processing target area can be identified, such as displaying the entire processing target area in a colored manner or blinking, the notification method is not limited.

上述した実施形態においては、所定の処理として処理対象領域内の画像を切り出す処理を行うようにしたが、これに限らず、画像を表示する処理、コントラスト・ぼかし・シャープネスなどの特殊効果を施す画像処理などであってもよい。   In the above-described embodiment, the processing for cutting out the image in the processing target area is performed as the predetermined processing. However, the present invention is not limited to this, and the image is subjected to processing for displaying special effects such as contrast, blurring, and sharpness. It may be processing.

また、上述した実施形態においては、画像処理装置として、デジタルカメラ、ノート型PCに限らず、例えば、PDA(個人向け携帯型情報通信機器)、タブレット端末装置、スマートフォンなどの携帯電話機、電子ゲーム、音楽プレイヤーなどであってもよい。   In the above-described embodiment, the image processing apparatus is not limited to a digital camera and a notebook PC, but may be, for example, a PDA (personal portable information communication device), a tablet terminal device, a mobile phone such as a smartphone, an electronic game, It may be a music player.

また、上述した実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “apparatus” and “unit” shown in the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
画像を取得する画像取得手段と、
前記画像取得手段によって取得された画像上の異なる位置を連続的に指定する位置指定手段と、
前記位置指定手段によって連続的に指定された位置に追従してその指定位置を含む領域を画像処理の処理対象領域として特定する領域特定手段と、
前記領域特定手段によって特定された前記処理対象領域を前記指定位置に追従して報知する報知手段と、
を備えることを特徴とする画像処理装置である。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記領域特定手段は、前記位置指定手段によって連続的に指定された位置に追従してその指定軌跡に応じた形状の領域を画像処理の対象領域として特定する、
ことを特徴とする。
(請求項3)
請求項に記載の発明は、
歪みを有する画像を取得する画像取得手段と、
前記画像取得手段によって取得された画像上の位置を指定する位置指定手段と、
前記画像取得手段によって取得された画像上において、前記位置指定手段によって指定された位置に対応する歪み率を取得する歪み率取得手段と、
前記位置指定手段によって指定された位置と前記歪み率取得手段によって取得された歪み率に基づいて、その指定位置を含む領域を画像処理の対象領域として特定する領域特定手段と、
前記領域特定手段によって特定された処理対象領域を報知する報知手段と、
を備えることを特徴とする画像処理装置である。
(請求項4)
請求項4に記載の発明は、請求項3に記載の画像処理装置において、
前記位置指定手段は、前記画像取得手段によって取得された画像上の異なる位置を連続的に指定し、
前記領域特定手段は、前記位置指定手段によって連続的に指定された位置に追従してその指定位置を含む領域を画像処理の対象領域として特定し、
前記報知手段は、前記領域特定手段によって特定された処理対象領域を前記指定位置に追従して報知する、
ことを特徴とする。
(請求項5)
請求項5に記載の発明は、請求項3又は4に記載の画像処理装置において、
前記歪み率取得手段は、前記画像取得手段により取得される画像を撮影するレンズのパラメータに基づいてその画像の歪み率を算出する、
ことを特徴とする。
(請求項6)
請求項6に記載の発明は、請求項3又は4に記載の画像処理装置において、
前記歪み率取得手段は、前記画像取得手段により取得される画像を解析することによりその画像の歪み率を算出する、
ことを特徴とする。
(請求項7)
請求項7に記載の発明は、請求項1乃至6の何れかに記載の画像処理装置において、
前記領域特定手段によって特定された処理対象領域を、画像処理する領域であると決定する処理領域決定手段と、
前記処理領域決定手段によって決定された処理対象領域内の画像に対して所定の画像処理を行う画像処理手段と、
を更に備えることを特徴とする。
(請求項8)
請求項8に記載の発明は、請求項7に記載の画像処理装置において、
前記画像処理手段は、前記画像取得手段によって取得された画像の中から前記処理領域決定手段によって決定された処理対象領域内の画像を切り出す処理を行う、
ことを特徴とする。
(請求項9)
請求項9に記載の発明は、請求項7に記載の画像処理装置において、
前記画像処理手段は、前記画像取得手段によって取得された広角画像の中から前記処理領域決定手段によって決定された処理対象領域内の画像に対してその歪を補正する処理を行う、
ことを特徴とする。
(請求項10)
請求項10に記載の発明は、請求項1乃至9の何れか1項に記載の画像処理装置において、
前記画像取得手段によって取得された画像を表示する表示手段を更に備え、
前記報知手段は、前記画像が表示されている前記表示手段に、前記位置指定手段によって指定された位置と共に、前記領域特定手段によって特定された処理対象領域を識別表示する、
ことを特徴とする。
(請求項11)
請求項11に記載の発明は、請求項1乃至10の何れか1項に記載の画像処理装置において、
前記画像取得手段によって取得された画像を表示する表示手段を更に備え、
前記位置指定手段は、前記表示手段上のタッチ操作手段であり、
前記報知手段は、前記画像が表示されている前記表示手段に、前記領域特定手段によって特定された処理対象領域を重畳表示する、
ことを特徴とする。
(請求項12)
請求項12に記載の発明は、
画像処理装置における画像処理方法であって、
画像を取得する処理と、
前記取得された画像上の異なる位置を連続的に指定する処理と、
前記連続的に指定された位置に追従してその指定位置を含む領域を画像処理の処理対象領域として特定する処理と、
前記特定された前記処理対象領域を前記指定位置に追従して報知する処理と、
を含むことを特徴とする。
(請求項13)
請求項13に記載の発明は、
画像処理装置のコンピュータに対して、
画像を取得する機能と、
前記取得された画像上の異なる位置を連続的に指定する処理と、
前記連続的に指定された位置に追従してその指定位置を含む領域を画像処理の処理対象領域として特定する機能と、
前記特定された前記処理対象領域を前記指定位置に追従して報知する機能と、
を実現させるためのプログラムである。
(請求項14)
請求項14に記載の発明は、
画像処理装置における画像処理方法であって、
歪みを有する画像を取得する処理と、
前記取得された画像上の位置を指定する処理と、
前記取得された画像上において、前記指定された位置に対応する歪み率を取得する処理と、
前記指定された位置と前記取得された歪み率に基づいて、その指定位置を含む領域を画像処理の対象領域として特定する処理と、
前記特定された処理対象領域を前記指定位置に追従して報知する処理と、
を含むことを特徴とする。
(請求項15)
請求項15に記載の発明は、
画像処理装置のコンピュータに対して、
歪みを有する画像を取得する機能と、
前記取得された画像上の位置を指定する機能と、
前記取得された画像上において、前記指定された位置に対応する歪み率を取得する機能と、
前記指定された位置と前記取得された歪み率に基づいて、その指定位置を含む領域を画像処理の対象領域として特定する機能と、
前記特定された処理対象領域を前記指定位置に追従して報知する機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
Image acquisition means for acquiring images;
Position specifying means for continuously specifying different positions on the image acquired by the image acquiring means;
Area specifying means for following the position continuously specified by the position specifying means and specifying an area including the specified position as a processing target area for image processing;
Informing means for informing the processing target area specified by the area specifying means in accordance with the designated position;
An image processing apparatus comprising:
(Claim 2)
The invention according to claim 2 is the image processing apparatus according to claim 1,
The region specifying unit specifies a region having a shape according to the specified locus following the position continuously specified by the position specifying unit as a target region for image processing;
It is characterized by that.
(Claim 3)
The invention described in the claims
Image acquisition means for acquiring an image having distortion;
Position designation means for designating a position on the image acquired by the image acquisition means;
On the image acquired by the image acquisition unit, a distortion rate acquisition unit that acquires a distortion rate corresponding to the position specified by the position specification unit;
Area specifying means for specifying an area including the specified position as a target area for image processing based on the position specified by the position specifying means and the distortion rate acquired by the distortion rate acquiring means;
Informing means for informing the processing target area specified by the area specifying means;
An image processing apparatus comprising:
(Claim 4)
The invention according to claim 4 is the image processing apparatus according to claim 3,
The position specifying means continuously specifies different positions on the image acquired by the image acquisition means;
The region specifying unit specifies a region including the specified position following the position continuously specified by the position specifying unit as a target region for image processing,
The notification means notifies the processing target area specified by the area specifying means following the specified position,
It is characterized by that.
(Claim 5)
The invention according to claim 5 is the image processing apparatus according to claim 3 or 4,
The distortion rate acquisition means calculates a distortion rate of the image based on a parameter of a lens that captures the image acquired by the image acquisition means;
It is characterized by that.
(Claim 6)
The invention according to claim 6 is the image processing apparatus according to claim 3 or 4,
The distortion rate acquisition means calculates the distortion rate of the image by analyzing the image acquired by the image acquisition means;
It is characterized by that.
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6,
A processing area determining means for determining that the processing target area specified by the area specifying means is an area for image processing;
Image processing means for performing predetermined image processing on an image in the processing target area determined by the processing area determination means;
Is further provided.
(Claim 8)
The invention according to claim 8 is the image processing apparatus according to claim 7,
The image processing means performs a process of cutting out an image in a processing target area determined by the processing area determination means from the images acquired by the image acquisition means.
It is characterized by that.
(Claim 9)
The invention according to claim 9 is the image processing apparatus according to claim 7,
The image processing means performs a process of correcting the distortion of the image in the processing target area determined by the processing area determination means from the wide-angle image acquired by the image acquisition means.
It is characterized by that.
(Claim 10)
The invention according to claim 10 is the image processing apparatus according to any one of claims 1 to 9,
And further comprising display means for displaying the image acquired by the image acquisition means,
The informing means identifies and displays the processing target area specified by the area specifying means together with the position specified by the position specifying means on the display means on which the image is displayed.
It is characterized by that.
(Claim 11)
According to an eleventh aspect of the present invention, in the image processing apparatus according to any one of the first to tenth aspects,
And further comprising display means for displaying the image acquired by the image acquisition means,
The position specifying means is a touch operation means on the display means,
The notifying means superimposes and displays the processing target area specified by the area specifying means on the display means on which the image is displayed;
It is characterized by that.
(Claim 12)
The invention according to claim 12
An image processing method in an image processing apparatus,
Processing to acquire images,
A process of continuously designating different positions on the acquired image;
A process of following the continuously specified position and specifying an area including the specified position as a processing target area of image processing;
A process of notifying the specified processing target area following the specified position;
It is characterized by including.
(Claim 13)
The invention according to claim 13
For the computer of the image processing device,
The ability to retrieve images,
A process of continuously designating different positions on the acquired image;
A function of following the continuously designated position and specifying an area including the designated position as a processing target area for image processing;
A function of notifying the specified processing target area following the specified position;
It is a program for realizing.
(Claim 14)
The invention according to claim 14
An image processing method in an image processing apparatus,
Processing to acquire an image having distortion;
A process for designating a position on the acquired image;
On the acquired image, a process for acquiring a distortion rate corresponding to the designated position;
Based on the designated position and the acquired distortion rate, a process for specifying an area including the designated position as a target area for image processing;
A process of notifying the specified processing target area following the specified position;
It is characterized by including.
(Claim 15)
The invention according to claim 15 is:
For the computer of the image processing device,
A function of acquiring an image having distortion;
A function for designating a position on the acquired image;
A function for acquiring a distortion rate corresponding to the designated position on the acquired image;
Based on the specified position and the acquired distortion rate, a function for specifying an area including the specified position as a target area for image processing;
A function of notifying the specified processing target area following the specified position;
It is a program for realizing.

1 制御部
3 記憶部
3A プログラムメモリ
5 撮像部
5B 魚眼レンズ
5C 撮像素子
6 タッチ表示部
6A ディスプレイ
6B タッチパネル
DESCRIPTION OF SYMBOLS 1 Control part 3 Memory | storage part 3A Program memory 5 Imaging part 5B Fisheye lens 5C Image pick-up element 6 Touch display part 6A Display 6B Touch panel

Claims (15)

画像を取得する画像取得手段と、
前記画像取得手段によって取得された画像上の異なる位置を連続的に指定する位置指定手段と、
前記位置指定手段によって連続的に指定された位置に追従してその指定位置を含む領域を画像処理の処理対象領域として特定する領域特定手段と、
前記領域特定手段によって特定された前記処理対象領域を前記指定位置に追従して報知する報知手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring images;
Position specifying means for continuously specifying different positions on the image acquired by the image acquiring means;
Area specifying means for following the position continuously specified by the position specifying means and specifying an area including the specified position as a processing target area for image processing;
Informing means for informing the processing target area specified by the area specifying means in accordance with the designated position;
An image processing apparatus comprising:
前記領域特定手段は、前記位置指定手段によって連続的に指定された位置に追従してその指定軌跡に応じた形状の領域を画像処理の対象領域として特定する、
ことを特徴とする請求項1に記載の画像処理装置。
The region specifying unit specifies a region having a shape according to the specified locus following the position continuously specified by the position specifying unit as a target region for image processing;
The image processing apparatus according to claim 1.
歪みを有する画像を取得する画像取得手段と、
前記画像取得手段によって取得された画像上の位置を指定する位置指定手段と、
前記画像取得手段によって取得された画像上において、前記位置指定手段によって指定された位置に対応する歪み率を取得する歪み率取得手段と、
前記位置指定手段によって指定された位置と前記歪み率取得手段によって取得された歪み率に基づいて、その指定位置を含む領域を画像処理の対象領域として特定する領域特定手段と、
前記領域特定手段によって特定された処理対象領域を報知する報知手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring an image having distortion;
Position designation means for designating a position on the image acquired by the image acquisition means;
On the image acquired by the image acquisition unit, a distortion rate acquisition unit that acquires a distortion rate corresponding to the position specified by the position specification unit;
Area specifying means for specifying an area including the specified position as a target area for image processing based on the position specified by the position specifying means and the distortion rate acquired by the distortion rate acquiring means;
Informing means for informing the processing target area specified by the area specifying means;
An image processing apparatus comprising:
前記位置指定手段は、前記画像取得手段によって取得された画像上の異なる位置を連続的に指定し、
前記領域特定手段は、前記位置指定手段によって連続的に指定された位置に追従してその指定位置を含む領域を画像処理の対象領域として特定し、
前記報知手段は、前記領域特定手段によって特定された処理対象領域を前記指定位置に追従して報知する、
ことを特徴とする請求項3に記載の画像処理装置。
The position specifying means continuously specifies different positions on the image acquired by the image acquisition means;
The region specifying unit specifies a region including the specified position following the position continuously specified by the position specifying unit as a target region for image processing,
The notification means notifies the processing target area specified by the area specifying means following the specified position,
The image processing apparatus according to claim 3.
前記歪み率取得手段は、前記画像取得手段により取得される画像を撮影するレンズのパラメータに基づいてその画像の歪み率を算出する、
ことを特徴とする請求項3又は4に記載の画像処理装置。
The distortion rate acquisition means calculates a distortion rate of the image based on a parameter of a lens that captures the image acquired by the image acquisition means;
The image processing apparatus according to claim 3 or 4,
前記歪み率取得手段は、前記画像取得手段により取得される画像を解析することによりその画像の歪み率を算出する、
ことを特徴とする請求項3又は4に記載の画像処理装置。
The distortion rate acquisition means calculates the distortion rate of the image by analyzing the image acquired by the image acquisition means;
The image processing apparatus according to claim 3, wherein the image processing apparatus is an image processing apparatus.
前記領域特定手段によって特定された処理対象領域を、画像処理する領域であると決定する処理領域決定手段と、
前記処理領域決定手段によって決定された処理対象領域内の画像に対して所定の画像処理を行う画像処理手段と、
を更に備えることを特徴とする請求項1乃至6の何れかに記載の画像処理装置。
A processing area determining means for determining that the processing target area specified by the area specifying means is an area for image processing;
Image processing means for performing predetermined image processing on an image in the processing target area determined by the processing area determination means;
The image processing apparatus according to claim 1, further comprising:
前記画像処理手段は、前記画像取得手段によって取得された画像の中から前記処理領域決定手段によって決定された処理対象領域内の画像を切り出す処理を行う、
ことを特徴とする請求項7に記載の画像処理装置。
The image processing means performs a process of cutting out an image in a processing target area determined by the processing area determination means from the images acquired by the image acquisition means.
The image processing apparatus according to claim 7.
前記画像処理手段は、前記画像取得手段によって取得された広角画像の中から前記処理領域決定手段によって決定された処理対象領域内の画像に対してその歪を補正する処理を行う、
ことを特徴とする請求項7に記載の画像処理装置。
The image processing means performs a process of correcting the distortion of the image in the processing target area determined by the processing area determination means from the wide-angle image acquired by the image acquisition means.
The image processing apparatus according to claim 7.
前記画像取得手段によって取得された画像を表示する表示手段を更に備え、
前記報知手段は、前記画像が表示されている前記表示手段に、前記位置指定手段によって指定された位置と共に、前記領域特定手段によって特定された処理対象領域を識別表示する、
ことを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。
And further comprising display means for displaying the image acquired by the image acquisition means,
The informing means identifies and displays the processing target area specified by the area specifying means together with the position specified by the position specifying means on the display means on which the image is displayed.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記画像取得手段によって取得された画像を表示する表示手段を更に備え、
前記位置指定手段は、前記表示手段上のタッチ操作手段であり、
前記報知手段は、前記画像が表示されている前記表示手段に、前記領域特定手段によって特定された処理対象領域を重畳表示する、
ことを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。
And further comprising display means for displaying the image acquired by the image acquisition means,
The position specifying means is a touch operation means on the display means,
The notifying means superimposes and displays the processing target area specified by the area specifying means on the display means on which the image is displayed;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
画像処理装置における画像処理方法であって、
画像を取得する処理と、
前記取得された画像上の異なる位置を連続的に指定する処理と、
前記連続的に指定された位置に追従してその指定位置を含む領域を画像処理の処理対象領域として特定する処理と、
前記特定された前記処理対象領域を前記指定位置に追従して報知する処理と、
を含むことを特徴とする画像処理方法。
An image processing method in an image processing apparatus,
Processing to acquire images,
A process of continuously designating different positions on the acquired image;
A process of following the continuously specified position and specifying an area including the specified position as a processing target area of image processing;
A process of notifying the specified processing target area following the specified position;
An image processing method comprising:
画像処理装置のコンピュータに対して、
画像を取得する機能と、
前記取得された画像上の異なる位置を連続的に指定する処理と、
前記連続的に指定された位置に追従してその指定位置を含む領域を画像処理の処理対象領域として特定する機能と、
前記特定された前記処理対象領域を前記指定位置に追従して報知する機能と、
を実現させるためのプログラム。
For the computer of the image processing device,
The ability to retrieve images,
A process of continuously designating different positions on the acquired image;
A function of following the continuously designated position and specifying an area including the designated position as a processing target area for image processing;
A function of notifying the specified processing target area following the specified position;
A program to realize
画像処理装置における画像処理方法であって、
歪みを有する画像を取得する処理と、
前記取得された画像上の位置を指定する処理と、
前記取得された画像上において、前記指定された位置に対応する歪み率を取得する処理と、
前記指定された位置と前記取得された歪み率に基づいて、その指定位置を含む領域を画像処理の対象領域として特定する処理と、
前記特定された処理対象領域を前記指定位置に追従して報知する処理と、
を含むことを特徴とする画像処理方法。
An image processing method in an image processing apparatus,
Processing to acquire an image having distortion;
A process for designating a position on the acquired image;
On the acquired image, a process for acquiring a distortion rate corresponding to the designated position;
Based on the designated position and the acquired distortion rate, a process for specifying an area including the designated position as a target area for image processing;
A process of notifying the specified processing target area following the specified position;
An image processing method comprising:
画像処理装置のコンピュータに対して、
歪みを有する画像を取得する機能と、
前記取得された画像上の位置を指定する機能と、
前記取得された画像上において、前記指定された位置に対応する歪み率を取得する機能と、
前記指定された位置と前記取得された歪み率に基づいて、その指定位置を含む領域を画像処理の対象領域として特定する機能と、
前記特定された処理対象領域を前記指定位置に追従して報知する機能と、
を実現させるためのプログラム。
For the computer of the image processing device,
A function of acquiring an image having distortion;
A function for designating a position on the acquired image;
A function for acquiring a distortion rate corresponding to the designated position on the acquired image;
Based on the specified position and the acquired distortion rate, a function for specifying an area including the specified position as a target area for image processing;
A function of notifying the specified processing target area following the specified position;
A program to realize
JP2016048443A 2016-03-11 2016-03-11 Image processing device, image processing method and program Pending JP2017162371A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016048443A JP2017162371A (en) 2016-03-11 2016-03-11 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016048443A JP2017162371A (en) 2016-03-11 2016-03-11 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2017162371A true JP2017162371A (en) 2017-09-14

Family

ID=59857944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016048443A Pending JP2017162371A (en) 2016-03-11 2016-03-11 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2017162371A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019041944A (en) * 2017-08-31 2019-03-22 株式会社ソフイア Game machine
JP2019041943A (en) * 2017-08-31 2019-03-22 株式会社ソフイア Game machine
JP2019041938A (en) * 2017-08-31 2019-03-22 株式会社ソフイア Game machine
JP2019041942A (en) * 2017-08-31 2019-03-22 株式会社ソフイア Game machine
JP2021009742A (en) * 2020-10-30 2021-01-28 株式会社ミクシィ Screen information processor, and control method and control program for the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019041944A (en) * 2017-08-31 2019-03-22 株式会社ソフイア Game machine
JP2019041943A (en) * 2017-08-31 2019-03-22 株式会社ソフイア Game machine
JP2019041938A (en) * 2017-08-31 2019-03-22 株式会社ソフイア Game machine
JP2019041942A (en) * 2017-08-31 2019-03-22 株式会社ソフイア Game machine
JP2021009742A (en) * 2020-10-30 2021-01-28 株式会社ミクシィ Screen information processor, and control method and control program for the same
JP7148817B2 (en) 2020-10-30 2022-10-06 株式会社ミクシィ Screen information processing device and its control method and control program

Similar Documents

Publication Publication Date Title
US9712751B2 (en) Camera field of view effects based on device orientation and scene content
EP2283642B1 (en) Method, apparatus, and computer program product for presenting burst images
JP6328255B2 (en) Multi-imaging device, multi-imaging method, program, and recording medium
CN107197137B (en) Image processing apparatus, image processing method, and recording medium
TW201617717A (en) Method and system for stabilization and reframing
JP2017162371A (en) Image processing device, image processing method and program
JP2018503269A (en) Preview image display method and apparatus
JP6333990B2 (en) Panorama photo generation method and apparatus
CN112584043B (en) Auxiliary focusing method and device, electronic equipment and storage medium
JP2017118472A (en) Image processing device, image processing method and program
JP2013009189A (en) Imaging device and imaging method
CN113014798A (en) Image display method and device and electronic equipment
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP2013183306A (en) Imaging apparatus, imaging method, and program
JP6104077B2 (en) Photographing equipment and photographing method
JP2010041365A (en) Imaging apparatus
JP2017126942A (en) Image processing apparatus, image processing method, and program
US20130235233A1 (en) Methods and devices for capturing images
JP6290038B2 (en) Electronic device, method and program
KR20100093955A (en) Method of magnifying the image in digital image processing device
JP6415933B2 (en) Advice display device
JP2012073512A (en) Photographing device and program
EP2637397A1 (en) Methods and devices for capturing images
JP6504693B2 (en) Image pickup apparatus, operation support method, and operation support program
JP2013131811A (en) Image display device