JP2014175716A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2014175716A
JP2014175716A JP2013044408A JP2013044408A JP2014175716A JP 2014175716 A JP2014175716 A JP 2014175716A JP 2013044408 A JP2013044408 A JP 2013044408A JP 2013044408 A JP2013044408 A JP 2013044408A JP 2014175716 A JP2014175716 A JP 2014175716A
Authority
JP
Japan
Prior art keywords
image
creation
main image
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013044408A
Other languages
Japanese (ja)
Inventor
Norikazu Tsunekawa
法和 恒川
Norihiro Hirota
憲洋 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2013044408A priority Critical patent/JP2014175716A/en
Publication of JP2014175716A publication Critical patent/JP2014175716A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operability on retrieval of main image data by referring to thumbnail image data.SOLUTION: When a shutter button 30sh is operated in a camera mode, a CPU 28 generates main image data of one frame showing an imaged scene on the basis of output of an imaging device 16; and generates thumbnail image data of 5 frames, each of which shows part of the imaged scene, on the main image data. The generated main image data of one frame and thumbnail image data of 5 frames are stored in a single image file. When a reproduction mode is selected, the CPU 28 performs multi-display of a thumbnail image of 9 frames on an LCD monitor 38 in order to support retrieval of the main image data.

Description

この発明は、画像処理装置に関し、特に、主画像に対応する見出し画像を作成する機能を有する、画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus having a function of creating a heading image corresponding to a main image.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、単一の再生画像を形成する複数の主画像が共通の画像ファイルに収められる。また、この複数の主画像に基づいて複数のサムネイル画像が作成され、複数のサムネイル画像に基づいて統合サムネイル画像が作成される。統合サムネイル画像は再生画像の画角と同じ画角を有し、作成元の主画像が収められた画像ファイルに追加的に収められる。   An example of this type of device is disclosed in Patent Document 1. According to this background art, a plurality of main images forming a single reproduction image are stored in a common image file. Further, a plurality of thumbnail images are created based on the plurality of main images, and an integrated thumbnail image is created based on the plurality of thumbnail images. The integrated thumbnail image has the same angle of view as that of the reproduced image, and is additionally stored in an image file in which the main image of the creation source is stored.

特開2010−81589号公報JP 2010-81589 A

しかし、統合サムネイル画像の画角は再生画像の画角と同じであるため、再生画像の詳細を統合サムネイル画像から認識することは困難であり、背景技術では主画像の探索に関する操作性に限界がある。   However, since the angle of view of the integrated thumbnail image is the same as the angle of view of the reproduced image, it is difficult to recognize the details of the reproduced image from the integrated thumbnail image. is there.

それゆえに、この発明の主たる目的は、見出し画像を参照した主画像の探索に関する操作性を高めることができる、画像処理装置を提供することである。   Therefore, a main object of the present invention is to provide an image processing apparatus capable of enhancing the operability related to searching for a main image with reference to a heading image.

この発明に従う画像処理装置(10:実施例で相当する参照符号。以下同じ)は、第1画角を有する第1撮像シーンを表す主画像を撮像手段(16)の出力に基づいて作成する第1作成手段(S15)、第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を第1作成手段の処理に関連して作成する第2作成手段(S17)、第2作成手段によって作成された1または2以上の見出し画像を第1作成手段によって作成された主画像に割り当てる割り当て手段(S19)、および割り当て手段の割り当て結果に基づく主画像の探索を支援するべく第2作成手段によって作成された1または2以上の見出し画像の少なくとも1つを再生する再生手段(S31~S43)を備える。   An image processing apparatus according to the present invention (10: reference numeral corresponding to the embodiment; hereinafter the same) creates a main image representing a first imaging scene having a first angle of view based on the output of the imaging means (16). 1 creation means (S15), a second creation means for creating one or more headline images each representing a second imaging scene having a second angle of view smaller than the first angle of view in relation to the processing of the first creation means. Creating means (S17), assigning means (S19) for assigning one or more headline images created by the second creating means to the main image created by the first creating means, and a main image based on the assignment result of the assigning means Replaying means (S31 to S43) for replaying at least one of one or more heading images created by the second creating means to support the search of

好ましくは、第2作成手段は、第1作成手段によって作成された主画像上の1または2以上の部分エリアから1または2以上の部分画像を切り出す切り出し手段(S21~S23, S27~S29)、および切り出し手段によって切り出された1または2以上の部分画像を1または2以上の見出し画像に変換する変換手段(S25)を含む。   Preferably, the second creation means is a cut-out means (S21 to S23, S27 to S29) for cutting out one or more partial images from one or more partial areas on the main image created by the first creation means, And conversion means (S25) for converting one or more partial images cut out by the cut-out means into one or more heading images.

さらに好ましくは、第1作成手段によって作成された主画像から特定物体像を探索する探索手段(S71)がさらに備えられ、第2作成手段は探索手段の探索結果に応じて異なる要領で1または2以上の部分エリアを定義する定義手段(S77)をさらに含む。   More preferably, a search means (S71) for searching for a specific object image from the main image created by the first creation means is further provided, and the second creation means is 1 or 2 in different ways depending on the search result of the search means. It further includes definition means (S77) for defining the above partial areas.

より好ましくは、特定物体像は人物または動物の顔画像に相当する。   More preferably, the specific object image corresponds to a human or animal face image.

好ましくは、所望の見出し画像を選択する選択操作を再生手段の処理に関連して受け付ける受け付け手段(S45)、および選択操作によって選択された見出し画像に対応する主画像を割り当て手段の割り当て結果に基づいて特定する特定手段(S47~S51)がさらに備えられる。   Preferably, receiving means (S45) for accepting a selection operation for selecting a desired headline image in relation to the processing of the reproduction means, and a main image corresponding to the headline image selected by the selection operation based on the assignment result of the assignment means Identification means (S47 to S51) is further provided.

さらに好ましくは、再生手段は1または2以上の見出し画像の少なくとも1つをモニタ画面(38)に表示する見出し画像表示手段(S33~S35)を含み、特定手段は選択操作によって選択された見出し画像に対応する主画像をモニタ画面に表示する主画像表示手段(S51)を含む。   More preferably, the reproducing means includes heading image display means (S33 to S35) for displaying at least one of one or more heading images on the monitor screen (38), and the specifying means is the heading image selected by the selection operation. Main image display means (S51) for displaying a main image corresponding to the above on the monitor screen.

より好ましくは、再生手段は見出し画像表示手段の表示対象をスクロール指示に応答してスクロールするスクロール手段(S39)をさらに含む。   More preferably, the reproduction means further includes scroll means (S39) for scrolling the display target of the headline image display means in response to the scroll instruction.

この発明に従う画像処理プログラムは、画像処理装置(10)のプロセッサ(28)に、第1画角を有する第1撮像シーンを表す主画像を撮像手段(16)の出力に基づいて作成する第1作成ステップ(S15)、第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を第1作成ステップの処理に関連して作成する第2作成ステップ(S17)、第2作成ステップによって作成された1または2以上の見出し画像を第1作成ステップによって作成された主画像に割り当てる割り当てステップ(S19)、および割り当てステップの割り当て結果に基づく主画像の探索を支援するべく第2作成ステップによって作成された1または2以上の見出し画像の少なくとも1つを再生する再生ステップ(S31~S43)を実行させるための、画像処理プログラムである。   An image processing program according to the present invention creates a first image representing a first imaging scene having a first angle of view on a processor (28) of an image processing device (10) based on an output of an imaging means (16). Creation step (S15), a second creation for creating one or more headline images each representing a second imaging scene having a second angle of view smaller than the first angle of view in relation to the processing of the first creation step A step (S17), an assignment step (S19) for assigning one or more headline images created in the second creation step to a main image created in the first creation step, and a main image based on the assignment result of the assignment step An image processing program for executing a reproduction step (S31 to S43) for reproducing at least one of one or more headline images created by the second creation step to support the search. It is.

この発明に従う画像処理方法は、画像処理装置(10)によって実行される画像処理方法であって、第1画角を有する第1撮像シーンを表す主画像を撮像手段(16)の出力に基づいて作成する第1作成ステップ(S15)、第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を第1作成ステップの処理に関連して作成する第2作成ステップ(S17)、第2作成ステップによって作成された1または2以上の見出し画像を第1作成ステップによって作成された主画像に割り当てる割り当てステップ(S19)、および割り当てステップの割り当て結果に基づく主画像の探索を支援するべく第2作成ステップによって作成された1または2以上の見出し画像の少なくとも1つを再生する再生ステップ(S31~S43)を備える。   The image processing method according to the present invention is an image processing method executed by the image processing device (10), and based on the output of the imaging means (16), a main image representing a first imaging scene having a first angle of view. First creation step (S15) for creating, creating one or more headline images each representing a second imaging scene having a second angle of view smaller than the first angle of view in relation to the processing of the first creation step A second creation step (S17), an assignment step (S19) for assigning one or more headline images created in the second creation step to the main image created in the first creation step, and an assignment result of the assignment step A playback step (S31 to S43) for playing back at least one of one or more headline images created by the second creation step to support the search of the main image based thereon.

この発明に従う外部制御プログラムは、メモリ(46)に保存された内部制御プログラムに従う処理を実行するプロセッサ(28)を備える画像処理装置(10)に供給される外部制御プログラムであって、第1画角を有する第1撮像シーンを表す主画像を撮像手段(16)の出力に基づいて作成する第1作成ステップ(S15)、第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を第1作成ステップの処理に関連して作成する第2作成ステップ(S17)、第2作成ステップによって作成された1または2以上の見出し画像を第1作成ステップによって作成された主画像に割り当てる割り当てステップ(S19)、および割り当てステップの割り当て結果に基づく主画像の探索を支援するべく第2作成ステップによって作成された1または2以上の見出し画像の少なくとも1つを再生する再生ステップ(S31~S43)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   An external control program according to the present invention is an external control program supplied to an image processing apparatus (10) including a processor (28) that executes processing according to an internal control program stored in a memory (46). A first creation step (S15) for creating a main image representing a first imaging scene having an angle based on the output of the imaging means (16), and a second imaging scene having a second angle of view smaller than the first angle of view. A second creation step (S17) for creating one or more headline images represented by each in relation to the processing of the first creation step, and the first creation of one or more headline images created by the second creation step An assignment step (S19) to be assigned to the main image created by the step, and one or more steps created by the second creation step to support the search of the main image based on the assignment result of the assignment step Is an external control program for causing a processor to execute a reproduction step (S31 to S43) for reproducing at least one of two or more headline images in cooperation with the internal control program.

この発明に従う画像処理装置(10)は、外部制御プログラムを取り込む取り込み手段(48)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(46)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(28)を備える画像処理装置であって、外部制御プログラムは、第1画角を有する第1撮像シーンを表す主画像を撮像手段(16)の出力に基づいて作成する第1作成ステップ(S15)、第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を第1作成ステップの処理に関連して作成する第2作成ステップ(S17)、第2作成ステップによって作成された1または2以上の見出し画像を第1作成ステップによって作成された主画像に割り当てる割り当てステップ(S19)、および割り当てステップの割り当て結果に基づく主画像の探索を支援するべく第2作成ステップによって作成された1または2以上の見出し画像の少なくとも1つを再生する再生ステップ(S31~S43)を内部制御プログラムと協働して実行するプログラムに相当する。   An image processing apparatus (10) according to the present invention executes a process according to a fetching means (48) for fetching an external control program, and an external control program fetched by the fetching means and an internal control program stored in a memory (46). An image processing apparatus including a processor (28), wherein an external control program creates a main image representing a first imaging scene having a first angle of view based on an output of an imaging means (16) ( S15), a second creation step (S17) for creating one or more headline images each representing a second imaging scene having a second angle of view smaller than the first angle of view in association with the process of the first creation step (S17). ), An assigning step (S19) for assigning one or more headline images created in the second creating step to the main image created in the first creating step, and an assigning step In cooperation with the internal control program, the reproduction step (S31 to S43) for reproducing at least one of one or more headline images created by the second creation step to support the search of the main image based on the assignment result of the group Corresponds to a program to be executed.

この発明に従う画像処理装置は、撮像シーンを表す主画像を撮像手段(16)の出力に基づいて作成する第1作成手段(S15)、撮像シーンに現れた1または2以上の特定物体がそれぞれ強調された1または2以上の見出し画像を第1作成手段の処理に関連して作成する第2作成手段(S85~S99)、第2作成手段によって作成された1または2以上の見出し画像を第1作成手段によって作成された主画像に割り当てる割り当て手段(S19)、および割り当て手段の割り当て結果に基づく主画像の探索を支援するべく第2作成手段によって作成された1または2以上の見出し画像の少なくとも1つを再生する再生手段(S31~S43)を備える。   The image processing apparatus according to the present invention includes a first creating means (S15) for creating a main image representing an imaging scene based on an output of the imaging means (16), and one or more specific objects appearing in the imaging scene are emphasized. Second creation means (S85 to S99) for creating one or two or more headline images related to the processing of the first creation means, and one or more headline images created by the second creation means are first Assignment means (S19) assigned to the main image created by the creation means, and at least one of one or more headline images created by the second creation means to support the search of the main image based on the assignment result of the assignment means Reproduction means (S31 to S43).

好ましくは、第1作成手段によって作成された主画像から特定物体像を探索する探索手段(S81)がさらに備えられ、第2作成手段は探索手段の探索結果に応じて異なる要領で強調処理を実行する強調手段(S85, S93)をさらに含む。   Preferably, search means (S81) for searching for a specific object image from the main image created by the first creation means is further provided, and the second creation means executes enhancement processing in a different manner depending on the search result of the search means. Further includes an enhancing means (S85, S93).

この発明によれば、主画像は第1画角を有する第1撮像シーンを表す一方、主画像に割り当てられる見出し画像は第1画角よりも小さい第2画角を有する第2撮像シーンを表す。また、見出し画像は主画像の探索を支援するために再生される。これによって、見出し画像を参照した主画像の探索に関する操作性が向上する。   According to the present invention, the main image represents the first imaging scene having the first angle of view, while the heading image assigned to the main image represents the second imaging scene having the second angle of view smaller than the first angle of view. . The headline image is reproduced to assist the search for the main image. This improves the operability related to the search for the main image with reference to the heading image.

また、この発明によれば、主画像は撮像シーンを表す画像に相当し、主画像に割り当てられる見出し画像は撮像シーンに現れた特定物体が強調された画像に相当する。また、見出し画像は主画像の探索を支援するために再生される。これによって、見出し画像を参照した主画像の探索に関する操作性が向上する。   According to the present invention, the main image corresponds to an image representing a captured scene, and the heading image assigned to the main image corresponds to an image in which a specific object appearing in the captured scene is emphasized. The headline image is reproduced to assist the search for the main image. This improves the operability related to the search for the main image with reference to the heading image.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

(A)はこの発明の一実施例の基本的構成を示すブロック図であり、(B)はこの発明の他の実施例の基本的構成を示すブロック図である。(A) is a block diagram showing a basic configuration of one embodiment of the present invention, and (B) is a block diagram showing a basic configuration of another embodiment of the present invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG. 2; 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. 主画像における切り出し領域の割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the cut-out area | region in a main image. 図2実施例によって作成される画像ファイルの構造の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a structure of an image file created by the embodiment in FIG. 2; (A)は主画像データの一例を示す図解図であり、(B)は切り出し画像データの一例を示す図解図である。(A) is an illustrative view showing an example of main image data, and (B) is an illustrative view showing an example of cut-out image data. (A)は主画像データの他の一例を示す図解図であり、(B)は切り出し画像データの他の一例を示す図解図である。(A) is an illustrative view showing another example of main image data, and (B) is an illustrative view showing another example of cut-out image data. サムネイルエリアに展開されたサムネイル画像データのマッピング状態の一例を示す図解図である。It is an illustration figure which shows an example of the mapping state of the thumbnail image data expand | deployed by the thumbnail area. モニタ画面にマルチ表示されたサムネイル画像の一例を示す図解図である。It is an illustration figure which shows an example of the thumbnail image multi-displayed on the monitor screen. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 他の実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to another Example. その他の実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to another Example. この発明の他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the other Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成1A]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration 1A]

図1(A)を参照して、この実施例の画像処理装置は、基本的に次のように構成される。第1作成手段1aは、第1画角を有する第1撮像シーンを表す主画像を撮像手段5aの出力に基づいて作成する。第2作成手段2aは、第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を第1作成手段1aの処理に関連して作成する。割り当て手段3aは、第2作成手段2aによって作成された1または2以上の見出し画像を第1作成手段1aによって作成された主画像に割り当てる。再生手段4aは、割り当て手段3aの割り当て結果に基づく主画像の探索を支援するべく第2作成手段2aによって作成された1または2以上の見出し画像の少なくとも1つを再生する。   Referring to FIG. 1A, the image processing apparatus of this embodiment is basically configured as follows. The first creation means 1a creates a main image representing the first imaging scene having the first angle of view based on the output of the imaging means 5a. The second creating means 2a creates one or more headline images each representing a second imaging scene having a second angle of view smaller than the first angle of view in association with the processing of the first creating means 1a. The assigning unit 3a assigns one or more headline images created by the second creating unit 2a to the main image created by the first creating unit 1a. The reproducing unit 4a reproduces at least one of one or more headline images created by the second creating unit 2a so as to support the search of the main image based on the assignment result of the assigning unit 3a.

主画像は第1画角を有する第1撮像シーンを表す一方、主画像に割り当てられる見出し画像は第1画角よりも小さい第2画角を有する第2撮像シーンを表す。また、見出し画像は主画像の探索を支援するために再生される。これによって、見出し画像を参照した主画像の探索に関する操作性が向上する。
[基本的構成1B]
The main image represents a first imaging scene having a first angle of view, while the heading image assigned to the main image represents a second imaging scene having a second angle of view smaller than the first angle of view. The headline image is reproduced to assist the search for the main image. This improves the operability related to the search for the main image with reference to the heading image.
[Basic configuration 1B]

図1(B)を参照して、他の実施例の画像処理装置は、基本的に次のように構成される。第1作成手段1bは、撮像シーンを表す主画像を撮像手段5bの出力に基づいて作成する。第2作成手段2bは、撮像シーンに現れた1または2以上の特定物体がそれぞれ強調された1または2以上の見出し画像を第1作成手段1bの処理に関連して作成する。割り当て手段3bは、第2作成手段2bによって作成された1または2以上の見出し画像を第1作成手段1bによって作成された主画像に割り当てる。再生手段4bは、割り当て手段3bの割り当て結果に基づく主画像の探索を支援するべく第2作成手段2bによって作成された1または2以上の見出し画像の少なくとも1つを再生する。   Referring to FIG. 1B, an image processing apparatus according to another embodiment is basically configured as follows. The first creation means 1b creates a main image representing an imaging scene based on the output of the imaging means 5b. The second creating means 2b creates one or more headline images in which one or more specific objects appearing in the imaging scene are emphasized in relation to the processing of the first creating means 1b. The assigning unit 3b assigns one or more headline images created by the second creating unit 2b to the main image created by the first creating unit 1b. The reproducing unit 4b reproduces at least one of one or more headline images created by the second creating unit 2b so as to support the search of the main image based on the assignment result of the assigning unit 3b.

主画像は撮像シーンを表す画像に相当し、主画像に割り当てられる見出し画像は撮像シーンに現れた特定物体が強調された画像に相当する。また、見出し画像は主画像の探索を支援するために再生される。これによって、見出し画像を参照した主画像の探索に関する操作性が向上する。
[実施例]
The main image corresponds to an image representing a captured scene, and the heading image assigned to the main image corresponds to an image in which a specific object appearing in the captured scene is emphasized. The headline image is reproduced to assist the search for the main image. This improves the operability related to the search for the main image with reference to the heading image.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、レンズドライバ18,絞りドライバ20およびセンサドライバ22によってそれぞれ駆動されるフォーカスレンズ12,絞りユニット14および撮像装置16を有する。フォーカスレンズ12および絞りユニット14を経た光学像は撮像装置16に設けられた撮像面に照射され、照射された光学像に対応する電荷が光電変換によって生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a focus lens 12, an aperture unit 14, and an imaging device 16 that are driven by a lens driver 18, an aperture driver 20, and a sensor driver 22, respectively. The optical image that has passed through the focus lens 12 and the aperture unit 14 is irradiated onto an imaging surface provided in the imaging device 16, and charges corresponding to the irradiated optical image are generated by photoelectric conversion.

キー入力装置30に設けられたモードスイッチ30mdによってカメラモードが選択されると、CPU28は、動画取り込み処理の実行をセンサドライバ22およびカメラ処理回路24に命令し、動画表示処理の実行をLCDドライバ36に命令する。   When the camera mode is selected by the mode switch 30md provided in the key input device 30, the CPU 28 instructs the sensor driver 22 and the camera processing circuit 24 to execute the moving image capturing process, and executes the moving image display process to the LCD driver 36. To order.

センサドライバ22は、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像装置16の撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。撮像装置16からは、読み出された電荷に基づく生画像データが周期的に出力される。   In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the sensor driver 22 exposes the imaging surface of the imaging device 16 and charges generated on the imaging surface in a raster scanning manner. read out. From the imaging device 16, raw image data based on the read charges is periodically output.

カメラ処理回路24は、撮像装置16から出力された生画像データに色分離,白バランス調整およびYUV変換の一連の処理を施し、これによって生成されたYUV形式の画像データをメモリ制御回路32を通してSDRAM34の動画像エリア34a(図3参照)に書き込む。   The camera processing circuit 24 performs a series of processes of color separation, white balance adjustment, and YUV conversion on the raw image data output from the imaging device 16, and outputs the YUV image data generated thereby through the memory control circuit 32 to the SDRAM 34. Is written in the moving image area 34a (see FIG. 3).

LCDドライバ36は、こうして書き込まれた画像データをメモリ制御回路32を通して動画像エリア34aから繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、撮像シーンを表す動画像(スルー画像)がLCDモニタ38に表示される。   The LCD driver 36 repeatedly reads out the image data thus written from the moving image area 34a through the memory control circuit 32, and drives the LCD monitor 38 based on the read image data. As a result, a moving image (through image) representing the imaging scene is displayed on the LCD monitor 38.

図4を参照して、撮像装置16の撮像面には、評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示すカメラ処理回路24は、上述した処理に加えて、生画像データを簡易的にYデータに変換する簡易Y変換処理を実行する。   With reference to FIG. 4, an evaluation area EVA is allocated to the imaging surface of the imaging device 16. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the above-described processing, the camera processing circuit 24 shown in FIG. 2 executes simple Y conversion processing that simply converts raw image data into Y data.

AE/AF評価回路26は、カメラ処理回路24によって生成されたYデータのうち評価エリアEVAに属するYデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE/AF評価回路26から出力される。   The AE / AF evaluation circuit 26 integrates Y data belonging to the evaluation area EVA among the Y data generated by the camera processing circuit 24 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AE evaluation values, are output from the AE / AF evaluation circuit 26 in response to the vertical synchronization signal Vsync.

AE/AF評価回路26はまた、カメラ処理回路24によって生成されたYデータのうち評価エリアEVAに属するYデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAE/AF評価回路26から出力される。   The AE / AF evaluation circuit 26 also integrates the high-frequency component of Y data belonging to the evaluation area EVA among the Y data generated by the camera processing circuit 24 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AF evaluation values, are output from the AE / AF evaluation circuit 26 in response to the vertical synchronization signal Vsync.

キー入力装置30に設けられたシャッタボタン30shが非操作状態にあるとき、CPU28は、AE/AF評価回路26から出力された256個のAE評価値に基づいて簡易AE処理を実行し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間は絞りドライバ20およびセンサドライバ22に設定され、これによってスルー画像の明るさが大まかに調整される。   When the shutter button 30sh provided in the key input device 30 is in a non-operating state, the CPU 28 executes the simple AE process based on the 256 AE evaluation values output from the AE / AF evaluation circuit 26, and sets the appropriate EV. Calculate the value. The aperture amount and exposure time that define the calculated appropriate EV value are set in the aperture driver 20 and the sensor driver 22, whereby the brightness of the through image is roughly adjusted.

シャッタボタン30shが半押しされると、CPU28は、AE/AF評価回路26から出力された256個のAE評価値に基づいて厳格AE処理を実行する。これによって最適EV値が算出され、算出された最適EV値を定義する絞り量および露光時間もまた絞りドライバ20およびセンサドライバ22に設定される。この結果、スルー画像の明るさが最適値に調整される。   When the shutter button 30 sh is half-pressed, the CPU 28 executes a strict AE process based on the 256 AE evaluation values output from the AE / AF evaluation circuit 26. As a result, the optimum EV value is calculated, and the aperture amount and the exposure time that define the calculated optimum EV value are also set in the aperture driver 20 and the sensor driver 22. As a result, the brightness of the through image is adjusted to the optimum value.

CPU28はまた、AE/AF評価回路26から出力された256個のAF評価値に基づいてAF処理を実行する。フォーカスレンズ12は合焦点の探索のためにレンズドライバ18によって光軸方向に移動し、これによって発見された合焦点に配置される。この結果、スルー画像の鮮鋭度が向上する。   The CPU 28 also executes AF processing based on the 256 AF evaluation values output from the AE / AF evaluation circuit 26. The focus lens 12 is moved in the optical axis direction by the lens driver 18 in order to search for a focal point, and is arranged at the focal point found by this. As a result, the sharpness of the through image is improved.

シャッタボタン30shが全押しされると、CPU28は、静止画取り込み処理およびサムネイル作成処理を自ら実行し、記録処理の実行をメモリI/F42に命令する。シャッタボタン30shが全押しされた時点のシーンを表す1フレームの画像データつまり主画像データは、静止画取り込み処理によって動画像エリア34aから記録画像エリア34b(図4参照)に退避される。   When the shutter button 30sh is fully pressed, the CPU 28 executes the still image capturing process and the thumbnail creating process by itself and instructs the memory I / F 42 to execute the recording process. One frame of image data representing the scene at the time when the shutter button 30sh is fully pressed, that is, main image data, is saved from the moving image area 34a to the recorded image area 34b (see FIG. 4) by the still image capturing process.

図5を参照して、主画像データには、共通のサイズを有する5つの切り出し領域が割り当てられる。1番目の切り出し領域は主画像データの左上に配置され、2番目の切り出し領域は主画像データの右上に配置され、3番目の切り出し領域は主画像データの中央に配置され、4番目の切り出し領域は主画像データの左下に配置され、5番目の切り出し領域は主画像データの右下に配置される。したがって、各切り出し領域に対応する一部の撮像シーンの画角は、主画像に対応する撮像シーンの画角よりも小さい。   Referring to FIG. 5, five cutout areas having a common size are assigned to main image data. The first cut-out area is arranged at the upper left of the main image data, the second cut-out area is arranged at the upper right of the main image data, the third cut-out area is arranged at the center of the main image data, and the fourth cut-out area Is arranged at the lower left of the main image data, and the fifth cutout area is arranged at the lower right of the main image data. Therefore, the angle of view of a part of the imaging scene corresponding to each cut-out area is smaller than the angle of view of the imaging scene corresponding to the main image.

サムネイル作成処理では、これらの切り出し領域から合計5フレームの部分画像データが切り出され、切り出された各フレームの部分画像データの解像度が低減される。こうして作成された5フレームのサムネイル画像データは、サムネイルエリア34dに格納される。   In the thumbnail creation process, partial image data of a total of 5 frames is cut out from these cut-out areas, and the resolution of the partial image data of each cut-out frame is reduced. The five-frame thumbnail image data created in this way is stored in the thumbnail area 34d.

主画像データが図7(A)に示すシーンを表す場合、5フレームのサムネイル画像データは図7(B)に示すシーンを表す。また、主画像データが図8(A)に示すシーンを表す場合、5フレームのサムネイル画像データは図8(B)に示すシーンを表す。   When the main image data represents the scene shown in FIG. 7A, the 5-frame thumbnail image data represents the scene shown in FIG. When the main image data represents the scene shown in FIG. 8A, the 5-frame thumbnail image data represents the scene shown in FIG.

メモリI/F42は、記録画像エリア34bに格納された1フレームの主画像データとサムネイルエリア34dに格納された5フレームのサムネイル画像データとをメモリ制御回路30を通して読み出し、読み出された画像データを収めた画像ファイルを記録媒体46に記録する。サムネイル画像データはファイルヘッダに埋め込まれ、画像ファイルは図6に示す要領で作成される。したがって、5フレームのサムネイル画像データは、画像ファイル内で作成元の主画像データに割り当てられる。   The memory I / F 42 reads out one frame of main image data stored in the recording image area 34b and five frames of thumbnail image data stored in the thumbnail area 34d through the memory control circuit 30, and reads the read image data. The stored image file is recorded on the recording medium 46. The thumbnail image data is embedded in the file header, and the image file is created as shown in FIG. Accordingly, the 5-frame thumbnail image data is assigned to the main image data of the creation source in the image file.

モードスイッチ30mdによって再生モードが選択されると、CPU28は、60フレームのサムネイル画像データをサムネイルエリア34dに展開するべく、対応する命令をメモリI/F42に命令する。   When the playback mode is selected by the mode switch 30md, the CPU 28 commands the corresponding command to the memory I / F 42 in order to expand the 60-frame thumbnail image data in the thumbnail area 34d.

メモリI/F42は、記録媒体44に収められた最新の画像ファイルから遡る12個の画像ファイルから合計60フレームのサムネイル画像データを読み出し、読み出されたサムネイル画像データをメモリ制御回路32を通してサムネイルエリア34dに書き込む。サムネイル画像データは、図9に示す要領でサムネイルエリア34dに格納される。   The memory I / F 42 reads thumbnail image data of a total of 60 frames from 12 image files retroactive to the latest image file stored in the recording medium 44, and reads the read thumbnail image data into the thumbnail area through the memory control circuit 32. Write to 34d. The thumbnail image data is stored in the thumbnail area 34d in the manner shown in FIG.

CPU28は続いて、最新の9フレームのサムネイル画像データを対象とする表示エリアを図9に示す要領でサムネイルエリア34dに設定し、サムネイル画像表示の開始をLCDモニタ36に命令する。   Subsequently, the CPU 28 sets the display area for the latest nine frames of thumbnail image data as the thumbnail area 34d as shown in FIG. 9, and instructs the LCD monitor 36 to start displaying thumbnail images.

LCDドライバ36は、表示エリアに属する9フレームのサムネイル画像データをメモリ制御回路30を通してサムネイルエリア34dから読み出し、読み出されたサムネイル画像データに基づいてLCDモニタ40を駆動する。この結果、9フレームのサムネイル画像がLCDモニタ40にマルチ表示される。   The LCD driver 36 reads out nine frames of thumbnail image data belonging to the display area from the thumbnail area 34d through the memory control circuit 30, and drives the LCD monitor 40 based on the read thumbnail image data. As a result, 9-frame thumbnail images are displayed in multiple on the LCD monitor 40.

図8(A)に示す主画像データおよび図8(B)に示すサムネイル画像データを収めた画像ファイルが最新の画像ファイルで、図9(A)に示す主画像データおよび図9(B)に示すサムネイル画像データを収めた画像ファイルが次に新しい画像ファイルである場合、図10に示す要領で9フレームのサムネイル画像がLCDモニタ40にマルチ表示される。   The image file containing the main image data shown in FIG. 8A and the thumbnail image data shown in FIG. 8B is the latest image file. The main image data shown in FIG. 9A and the image file shown in FIG. When the image file containing the thumbnail image data shown is the next new image file, 9-frame thumbnail images are displayed in multiple on the LCD monitor 40 in the manner shown in FIG.

タッチセンサ40は、LCDモニタ38へのタッチを検知し、検知結果をCPU28に与える。検知結果には、タッチ位置を示す位置情報とタッチ態様が“フリック”および“タップ”のいずれであるかを示す態様情報が記述される。また、タッチ態様が“フリック”であれば、フリック方向を示す方向情報が検知結果に追記される。   The touch sensor 40 detects a touch on the LCD monitor 38 and gives a detection result to the CPU 28. In the detection result, position information indicating the touch position and mode information indicating whether the touch mode is “flick” or “tap” are described. If the touch mode is “flick”, direction information indicating the flick direction is added to the detection result.

サムネイル画像がマルチ表示されている状態でタッチセンサ40から与えられた検知結果が上下方向のフリック操作を示すとき、CPU28は、スクロール操作が行われたとみなし、表示エリアを上下方向にスクロールさせる。この結果、LCDモニタ40にマルチ表示されたサムネイル画像もまたスクロールされる。   When the detection result given from the touch sensor 40 indicates a vertical flick operation in a state where the thumbnail images are multi-displayed, the CPU 28 considers that the scroll operation has been performed and scrolls the display area in the vertical direction. As a result, the thumbnail images displayed in multiple on the LCD monitor 40 are also scrolled.

表示エリアがサムネイルエリア34dに展開済みのサムネイル画像データの終端に達すると、CPU28は、未展開の15フレームのサムネイル画像データをサムネイルエリア34dに展開するべく、対応する命令をメモリI/F42に命令する。   When the display area reaches the end of the thumbnail image data expanded in the thumbnail area 34d, the CPU 28 issues a corresponding command to the memory I / F 42 to expand the unexpanded 15-frame thumbnail image data in the thumbnail area 34d. To do.

メモリI/F42は、モニタ画面の右下に表示されたサムネイル画像を収めた画像ファイルからさらに遡る3個の画像ファイルを記録媒体44から検出し、検出された画像ファイルから合計15フレームのサムネイル画像データを読み出し、そして読み出されたサムネイル画像データをメモリ制御回路32を通してサムネイルエリア34dに書き込む。   The memory I / F 42 detects three image files retroactive from the image file containing the thumbnail images displayed at the lower right of the monitor screen from the recording medium 44, and a total of 15 thumbnail images from the detected image files. The data is read, and the read thumbnail image data is written into the thumbnail area 34d through the memory control circuit 32.

なお、サムネイルエリア34dはいわゆるリングバッファをなし、書き込み先がサムネイルエリア34dの末尾アドレスに達すると、次はサムネイルエリア34dの先頭アドレスが書き込み先として指定される。   The thumbnail area 34d forms a so-called ring buffer. When the write destination reaches the end address of the thumbnail area 34d, the start address of the thumbnail area 34d is designated as the write destination.

タッチセンサ40から与えられた検知結果がいずれかのサムネイル画像に対するタップ操作を示すとき、CPU28は、画像選択操作が行われたとみなし、タップされたサムネイル画像を収めた画像ファイルを指定し、指定画像ファイルに収められた主画像データの再生をメモリI/F44に命令する。メモリI/F44は、指定画像ファイルに格納された主画像データを読み出し、読み出された主画像データをメモリ制御回路30を通してSDRAM34の再生画像エリア34cに書き込む。   When the detection result given from the touch sensor 40 indicates a tap operation on any thumbnail image, the CPU 28 considers that an image selection operation has been performed, designates an image file containing the tapped thumbnail image, and designates the designated image. The memory I / F 44 is instructed to reproduce the main image data stored in the file. The memory I / F 44 reads the main image data stored in the designated image file, and writes the read main image data into the reproduction image area 34 c of the SDRAM 34 through the memory control circuit 30.

CPU28は続いて、主画像表示の開始をLCDドライバ36に命令する。LCDドライバ36は、再生画像エリア34cに格納された主画像データをメモリ制御回路30を通して読み出し、読み出された画像データに基づいてLCDモニタ40を駆動する。この結果、マルチ表示されたサムネイル画像に代えて主画像がLCDモニタ40に表示される。   Subsequently, the CPU 28 instructs the LCD driver 36 to start displaying the main image. The LCD driver 36 reads the main image data stored in the reproduction image area 34c through the memory control circuit 30, and drives the LCD monitor 40 based on the read image data. As a result, the main image is displayed on the LCD monitor 40 in place of the multi-displayed thumbnail image.

したがって、図10に示す9フレームのサムネイル画像のうち先行する5フレームのサムネイル画像のいずれか1つがタップされたときは、図8(A)に示す主画像がLCDモニタ40に代替表示される。また、同じ9フレームのサムネイル画像のうち後続する4フレームのサムネイル画像のいずれか1つがタップされたときは、図9(A)に示す主画像がLCDモニタ40に代替表示される。   Therefore, when any one of the preceding five frames of thumbnail images shown in FIG. 10 is tapped, the main image shown in FIG. When any one of the subsequent four frames of the same nine-frame thumbnail images is tapped, the main image shown in FIG. 9A is displayed on the LCD monitor 40 instead.

主画像が表示されている状態でタッチセンサ40から与えられた検知結果が水平方向のフリック操作を示すとき、CPU28は、主画像更新操作が行われたとみなし、記録媒体46に記録された前画像ファイルまたは次画像ファイルを指定するとともに、指定画像ファイルに収められた主画像データの再生をメモリI/F44に命令する。この結果、LCDモニタ40に表示された主画像が、前フレームまたは次フレームの主画像に更新される。   When the detection result given from the touch sensor 40 in the state where the main image is displayed indicates a horizontal flick operation, the CPU 28 considers that the main image update operation has been performed, and the previous image recorded in the recording medium 46. The file or the next image file is designated, and the memory I / F 44 is instructed to reproduce the main image data stored in the designated image file. As a result, the main image displayed on the LCD monitor 40 is updated to the main image of the previous frame or the next frame.

なお、LCDモニタ40に表示された主画像に対応する5フレームのサムネイル画像データの少なくとも一部がサムネイルエリア34dに未だ展開されていなければ、CPU28は、未展開のサムネイル画像データの展開をメモリI/F42に命令する。メモリI/F42は、表示中の主画像を収めた画像ファイルから未展開のサムネイル画像データを読み出し、読み出されたサムネイル画像データをメモリ制御回路32を通してサムネイルエリア34dに書き込む。   If at least a part of the 5-frame thumbnail image data corresponding to the main image displayed on the LCD monitor 40 has not been developed in the thumbnail area 34d, the CPU 28 develops the unexpanded thumbnail image data in the memory I. / F42 is commanded. The memory I / F 42 reads unexpanded thumbnail image data from the image file containing the main image being displayed, and writes the read thumbnail image data to the thumbnail area 34d through the memory control circuit 32.

主画像が表示されている状態でタッチセンサ40から与えられた検知結果が連続2回のタップ操作を示すとき、CPU28は、サムネイル表示操作が行われたとみなし、表示エリアを設定する。表示エリアは、表示中の主画像に対応するサムネイル画像データを含む9フレームのサムネイル画像データを対象として、サムネイルエリア34dに設定される。表示エリアの設定が完了すると、CPU28は、サムネイル画像表示の開始をLCDモニタ36に命令する。この結果、9フレームのサムネイル画像が主画像に代えてLCDモニタ40にマルチ表示される。   When the detection result given from the touch sensor 40 in the state where the main image is displayed indicates two consecutive tap operations, the CPU 28 considers that the thumbnail display operation has been performed and sets the display area. The display area is set in the thumbnail area 34d for 9-frame thumbnail image data including thumbnail image data corresponding to the main image being displayed. When the setting of the display area is completed, the CPU 28 instructs the LCD monitor 36 to start displaying thumbnail images. As a result, 9-frame thumbnail images are displayed in a multi-display on the LCD monitor 40 instead of the main image.

したがって、図8(A)に示す主画像が表示されている状態で連続2回のタップ操作が行われると、図10に示す9フレームのサムネイル画像がLCDモニタ40にマルチ表示される。   Therefore, if the tap operation is performed twice in succession while the main image shown in FIG. 8A is displayed, the nine-frame thumbnail image shown in FIG.

CPU28は、図11〜図12に示す撮像タスクおよび図13〜図14に示す再生タスクを含む複数のタスクをマルチタスクOSの制御の下で並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ48に記憶される。   The CPU 28 executes a plurality of tasks including the imaging task shown in FIGS. 11 to 12 and the reproduction task shown in FIGS. 13 to 14 in parallel under the control of the multitask OS. Note that control programs corresponding to these tasks are stored in the flash memory 48.

図11を参照して、ステップS1では動画取り込み処理を開始し、ステップS3では動画表示処理を開始する。この結果、撮像シーンを表すYUV形式の画像データがカメラ処理回路24から繰り返し出力され、これに基づくスルー画像がLCDドライバ36によってLCDモニタ40に表示される。ステップS5ではシャッタボタン30shが半押しされたか否かを判別し、判別結果がNOである限り、ステップS7で簡易AE処理を繰り返す。この結果、スルー画像の明るさが大まかに調整される。   Referring to FIG. 11, in step S1, a moving image capturing process is started, and in step S3, a moving image display process is started. As a result, YUV format image data representing the imaged scene is repeatedly output from the camera processing circuit 24, and a through image based on the image data is displayed on the LCD monitor 40 by the LCD driver 36. In step S5, it is determined whether or not the shutter button 30sh is half-pressed, and the simple AE process is repeated in step S7 as long as the determination result is NO. As a result, the brightness of the through image is roughly adjusted.

ステップS5の判別結果がNOからYESに更新されると、ステップS9で厳格AE処理およびAF処理を実行する。この結果、スルー画像の輝度および鮮鋭度が最適値に調整される。ステップS11ではシャッタボタン30shが全押しされたか否かを判別し、ステップS13ではシャッタボタン30shの操作が解除されたか否かを判別する。ステップS13の判別結果がYESであればステップS5に戻り、ステップS11の判別結果がYESであればステップS15に進む。   When the determination result in step S5 is updated from NO to YES, a strict AE process and an AF process are executed in step S9. As a result, the brightness and sharpness of the through image are adjusted to optimum values. In step S11, it is determined whether or not the shutter button 30sh has been fully pressed. In step S13, it is determined whether or not the operation of the shutter button 30sh has been released. If the determination result of step S13 is YES, it will return to step S5, and if the determination result of step S11 is YES, it will progress to step S15.

ステップS15では静止画取り込み処理を実行し、ステップS17ではサムネイル作成処理を実行する。シャッタボタン30shが全押しされた時点のシーンを表す1フレームの画像データつまり主画像データは、静止画取り込み処理によって動画像エリア34aから記録画像エリア34bに退避される。サムネイル作成処理では、退避された主画像データに基づいて5フレームのサムネイル画像データが作成される。作成されたサムネイル画像データは、サムネイルエリア34dに格納される。   In step S15, a still image capturing process is executed, and in step S17, a thumbnail creating process is executed. One frame of image data representing the scene at the time when the shutter button 30sh is fully pressed, that is, main image data, is saved from the moving image area 34a to the recorded image area 34b by still image capturing processing. In the thumbnail creation process, 5-frame thumbnail image data is created based on the saved main image data. The created thumbnail image data is stored in the thumbnail area 34d.

ステップS19では、記録処理の実行をメモリI/F42に命令する。メモリI/F42は、記録画像エリア34cに格納された1フレームの主画像データとサムネイルエリア34dに格納された5フレームのサムネイル画像データとをメモリ制御回路30を通して読み出し、読み出された画像データを収めた画像ファイルを記録媒体46に記録する。ステップS19の処理が完了すると、ステップS5に戻る。   In step S19, the memory I / F 42 is commanded to execute the recording process. The memory I / F 42 reads out one frame of main image data stored in the recording image area 34c and five frames of thumbnail image data stored in the thumbnail area 34d through the memory control circuit 30, and reads the read image data. The stored image file is recorded on the recording medium 46. When the process of step S19 is completed, the process returns to step S5.

ステップS17のサムネイル作成処理は、図12に示すサブルーチンに従って実行される。まずステップS21で変数Kを“1”に設定する。ステップS23では、主画像データに割り当てられたK番目の切り出し領域に属する部分画像データを切り出す。ステップS25では、切り出された部分画像データの解像度を低減してサムネイル画像データを作成する。作成されたサムネイル画像データは、サムネイルエリア34dに格納される。ステップS27では、変数Kが“5”に達したか否かを判別する。判別結果がNOであればステップS29で変数KをインクリメントしてからステップS23に戻り、判別結果がYESであれば上階層のルーチンに復帰する。   The thumbnail creation process in step S17 is executed according to a subroutine shown in FIG. First, the variable K is set to “1” in step S21. In step S23, partial image data belonging to the Kth cutout area assigned to the main image data is cut out. In step S25, thumbnail image data is created by reducing the resolution of the cut out partial image data. The created thumbnail image data is stored in the thumbnail area 34d. In step S27, it is determined whether or not the variable K has reached “5”. If the determination result is NO, the variable K is incremented in step S29 and then the process returns to step S23. If the determination result is YES, the process returns to the upper layer routine.

図13を参照して、ステップS31では、60フレームのサムネイル画像データをサムネイルエリア34dに展開するべく、対応する命令をメモリI/F42に命令する。メモリI/F42は、記録媒体44に収められた最新の画像ファイルから遡る12個の画像ファイルから合計60フレームのサムネイル画像データを読み出し、読み出されたサムネイル画像データをメモリ制御回路32を通してサムネイルエリア34dに書き込む。   Referring to FIG. 13, in step S31, a corresponding command is commanded to memory I / F 42 in order to develop 60-frame thumbnail image data in thumbnail area 34d. The memory I / F 42 reads thumbnail image data of a total of 60 frames from 12 image files retroactive to the latest image file stored in the recording medium 44, and reads the read thumbnail image data into the thumbnail area through the memory control circuit 32. Write to 34d.

ステップS33では最新の9フレームのサムネイル画像データを対象とする表示エリアをサムネイルエリア34dに設定し、ステップS35ではサムネイル画像表示の開始をLCDモニタ36に命令する。LCDドライバ36は、表示エリアに属する9フレームのサムネイル画像データをメモリ制御回路30を通してサムネイルエリア34dから読み出し、読み出されたサムネイル画像データに基づいてLCDモニタ40を駆動する。この結果、9フレームのサムネイル画像がLCDモニタ40にマルチ表示される。   In step S33, the display area for the latest nine frames of thumbnail image data is set in the thumbnail area 34d. In step S35, the LCD monitor 36 is instructed to start displaying thumbnail images. The LCD driver 36 reads out nine frames of thumbnail image data belonging to the display area from the thumbnail area 34d through the memory control circuit 30, and drives the LCD monitor 40 based on the read thumbnail image data. As a result, 9-frame thumbnail images are displayed in multiple on the LCD monitor 40.

ステップS37ではスクロール操作(=上下方向のフリック操作)が行われたか否かを判別し、ステップS45では画像選択操作(=いずれかのサムネイル画像に対するタップ操作)が行われたか否かを判別する。いずれの判別処理も、タッチセンサ40の出力に基づいて実行される。   In step S37, it is determined whether or not a scroll operation (= flick operation in the vertical direction) has been performed. In step S45, it is determined whether or not an image selection operation (= tap operation on any thumbnail image) has been performed. Any discrimination process is executed based on the output of the touch sensor 40.

ステップS37の判別結果がYESであれば、ステップS39で表示エリアをスクロールする。この結果、LCDモニタ40にマルチ表示されたサムネイル画像もまたスクロールされる。ステップS41では、表示エリアがサムネイルエリア34dに展開済みのサムネイル画像データの終端に達したか否かを判別する。判別結果がNOであればそのままステップS37に戻り、判別結果がYESであればステップS43の処理を経てステップS37に戻る。   If the decision result in the step S37 is YES, the display area is scrolled in a step S39. As a result, the thumbnail images displayed in multiple on the LCD monitor 40 are also scrolled. In step S41, it is determined whether or not the display area has reached the end of the thumbnail image data developed in the thumbnail area 34d. If a determination result is NO, it will return to step S37 as it is, and if a determination result is YES, it will return to step S37 through the process of step S43.

ステップS43では、未展開の15フレームのサムネイル画像データをサムネイルエリア34dに展開するべく、対応する命令をメモリI/F42に命令する。メモリI/F42は、ステップS31または前回のステップS43の処理の対象とされた画像ファイルからさらに遡る3個の画像ファイルを記録媒体44から検出し、検出された画像ファイルから合計15フレームのサムネイル画像データを読み出し、そして読み出されたサムネイル画像データをメモリ制御回路32を通してサムネイルエリア34dに書き込む。   In step S43, a corresponding command is commanded to the memory I / F 42 in order to develop the unexpanded 15-frame thumbnail image data in the thumbnail area 34d. The memory I / F 42 detects from the recording medium 44 three image files that are further retroactive from the image file subjected to the processing in step S31 or the previous step S43, and a total of 15 thumbnail images from the detected image files. The data is read, and the read thumbnail image data is written into the thumbnail area 34d through the memory control circuit 32.

ステップS45の判別結果がYESであれば、タップされたサムネイル画像を収めた画像ファイルをステップS47で指定し、指定画像ファイルに収められた主画像データの再生をステップS49でメモリI/F44に命令する。メモリI/F44は、指定画像ファイルに格納された主画像データを読み出し、読み出された主画像データをメモリ制御回路30を通してSDRAM34の再生画像エリア34cに書き込む。   If the decision result in the step S45 is YES, an image file containing the tapped thumbnail image is designated in a step S47, and the reproduction of the main image data contained in the designated image file is instructed to the memory I / F 44 in a step S49. To do. The memory I / F 44 reads the main image data stored in the designated image file, and writes the read main image data into the reproduction image area 34 c of the SDRAM 34 through the memory control circuit 30.

ステップS51では、主画像表示の開始をLCDドライバ36に命令する。LCDドライバ36は、再生画像エリア34cに格納された主画像データをメモリ制御回路30を通して読み出し、読み出された画像データに基づいてLCDモニタ40を駆動する。この結果、マルチ表示されたサムネイル画像に代えて主画像がLCDモニタ40に表示される。   In step S51, the LCD driver 36 is instructed to start main image display. The LCD driver 36 reads the main image data stored in the reproduction image area 34c through the memory control circuit 30, and drives the LCD monitor 40 based on the read image data. As a result, the main image is displayed on the LCD monitor 40 in place of the multi-displayed thumbnail image.

ステップS53では主画像更新操作(=水平方向のフリック操作)が行われたか否かを判別し、ステップS63ではサムネイル表示操作(=連続2回のタップ操作)が行われたか否かを判別する。この判別処理もタッチセンサ40の出力に基づいて実行される。   In step S53, it is determined whether or not a main image update operation (= horizontal flick operation) has been performed. In step S63, it is determined whether or not a thumbnail display operation (= two consecutive tap operations) has been performed. This discrimination process is also executed based on the output of the touch sensor 40.

ステップS53の判別結果がYESであれば、記録媒体46に記録された前画像ファイルまたは次画像ファイルをステップS55で指定し、指定画像ファイルに収められた主画像データの再生をステップS57でメモリI/F44に命令する。この結果、LCDモニタ40に表示された主画像が、前フレームまたは次フレームの主画像に更新される。ステップS59では、指定画像ファイルに収められた5フレームのサムネイル画像データがサムネイルエリア34dに展開済みであるか否かを判別する。判別結果がYESであればステップS53に戻り、判別結果がNOであればステップS61に進む。   If the decision result in the step S53 is YES, the previous image file or the next image file recorded on the recording medium 46 is designated in a step S55, and the main image data stored in the designated image file is reproduced in the memory I in a step S57. / F44 is commanded. As a result, the main image displayed on the LCD monitor 40 is updated to the main image of the previous frame or the next frame. In step S59, it is determined whether or not the 5-frame thumbnail image data stored in the designated image file has been developed in the thumbnail area 34d. If a determination result is YES, it will return to Step S53, and if a determination result is NO, it will progress to Step S61.

ステップS61では、指定画像ファイルに収められた5つのサムネイル画像データのうち未展開のサムネイル画像データの展開をメモリI/F42に命令する。メモリI/F42は、所望のサムネイル画像データを指定画像ファイルから読み出し、読み出されたサムネイル画像データをメモリ制御回路32を通してサムネイルエリア34dに書き込む。ステップS61の処理が完了すると、ステップS53に戻る。   In step S61, the memory I / F 42 is instructed to expand the unexpanded thumbnail image data among the five thumbnail image data stored in the designated image file. The memory I / F 42 reads desired thumbnail image data from the designated image file, and writes the read thumbnail image data into the thumbnail area 34d through the memory control circuit 32. When the process of step S61 is completed, the process returns to step S53.

ステップS63の判別結果がYESであれば、ステップS65で表示エリアを設定する。表示エリアは、指定画像ファイルに収められた5フレームのサムネイル画像データを含む9フレームのサムネイル画像データを対象とするように、サムネイルエリア34dに設定される。表示エリアの設定が完了するとステップS67に進み、サムネイル画像表示の開始をLCDモニタ36に命令する。この結果、9フレームのサムネイル画像が主画像に代えてLCDモニタ40にマルチ表示される。ステップS67の処理が完了すると、ステップS37に戻る。   If the determination result of step S63 is YES, a display area is set in step S65. The display area is set in the thumbnail area 34d so as to target 9 frames of thumbnail image data including 5 frames of thumbnail image data stored in the designated image file. When the setting of the display area is completed, the process advances to step S67 to instruct the LCD monitor 36 to start displaying the thumbnail image. As a result, 9-frame thumbnail images are displayed in a multi-display on the LCD monitor 40 instead of the main image. When the process of step S67 is completed, the process returns to step S37.

以上の説明から分かるように、CPU28は、カメラモードの下でシャッタボタン30shが操作されたとき、撮像シーンを表す1フレームの主画像データを撮像装置16の出力に基づいて作成し(S15)、撮像シーンの一部を各々が表す5フレームのサムネイル画像データを主画像データに基づいて作成する(S17)。こうして作成された1フレームの主画像データおよび5フレームのサムネイル画像データは共通の画像ファイルに収められる(S19)。5フレームのサムネイル画像データは、こうして作成元の主画像データに割り当てられる。再生モードが選択されると、CPU28は、主画像データの探索を支援するべく、9フレームのサムネイル画像をLCDモニタ38にマルチ表示する(S31~S43)。   As can be understood from the above description, when the shutter button 30sh is operated in the camera mode, the CPU 28 creates one frame of main image data representing an imaging scene based on the output of the imaging device 16 (S15), Five-frame thumbnail image data each representing a part of the imaging scene is created based on the main image data (S17). The 1-frame main image data and 5-frame thumbnail image data created in this way are stored in a common image file (S19). The 5-frame thumbnail image data is thus assigned to the main image data of the creation source. When the playback mode is selected, the CPU 28 multi-displays nine-frame thumbnail images on the LCD monitor 38 to support the search for main image data (S31 to S43).

このように、主画像データは撮像シーンの全部を表す一方、主画像データに割り当てられるサムネイル画像データは撮像シーンの一部を表す。また、サムネイル画像データは主画像データの探索を支援するために再生される。これによって、サムネイル画像データを参照した主画像データの探索に関する操作性が向上する。   As described above, the main image data represents the entire captured scene, while the thumbnail image data assigned to the main image data represents a part of the captured scene. The thumbnail image data is reproduced in order to support searching for main image data. As a result, the operability related to the search for the main image data with reference to the thumbnail image data is improved.

なお、この実施例では、5つの切り出し領域を主画像データに固定的に割り当てるようにしている。しかし、人物または動物の顔画像を主画像データから探索し、探索結果に応じて異なる態様で切り出し領域を主画像データに割り当てるようにしてもよい。この場合、図12に示すサブルーチンは、好ましくは図15に示すサブルーチンに部分的に修正される。   In this embodiment, five cutout areas are fixedly assigned to the main image data. However, a face image of a person or animal may be searched from the main image data, and the cutout area may be assigned to the main image data in a different manner depending on the search result. In this case, the subroutine shown in FIG. 12 is preferably partially modified to the subroutine shown in FIG.

まずステップS71で、記録画像エリア34bに格納された主画像データから人物または動物の顔画像を探索する。ステップS73では顔画像が探知されたか否かを判別し、判別結果がYESであればそのままステップS21に進み、判別結果がNOであればステップS75〜S77の処理を経てステップS21に進む。ステップS75では、探知された1または2以上の顔画像の中から主顔画像を決定する。ステップS77では、決定された主顔画像を覆う位置に3番目の切り出し領域を設定する。これによって、サムネイル画像データを参照した主画像データの探索に関する操作性がさらに向上する。   First, in step S71, a face image of a person or animal is searched from the main image data stored in the recorded image area 34b. In step S73, it is determined whether or not a face image has been detected. If the determination result is YES, the process proceeds directly to step S21, and if the determination result is NO, the process proceeds to step S21 through steps S75 to S77. In step S75, a main face image is determined from one or more detected face images. In step S77, a third cutout region is set at a position covering the determined main face image. This further improves the operability related to the search for the main image data with reference to the thumbnail image data.

また、この実施例では、主画像データに5つの切り出し領域を割り当て、これらの切り出し領域に属する物体を表す5フレームのサムネイル画像データを作成するようにしている。しかし、撮像シーンに現れた特定物体が強調されるように主画像データを加工し、加工後の画像データに基づいてサムネイル画像データを作成するようにしてもよい。この場合、好ましくは、図12に示すサブルーチンに代えて図16に示すサブルーチンが実行される。   In this embodiment, five cutout areas are assigned to the main image data, and five-frame thumbnail image data representing objects belonging to these cutout areas is created. However, the main image data may be processed so that a specific object appearing in the imaging scene is emphasized, and thumbnail image data may be generated based on the processed image data. In this case, preferably, a subroutine shown in FIG. 16 is executed instead of the subroutine shown in FIG.

まずステップS81で、記録画像エリア34bに格納された主画像データから人物または動物の顔画像を探索する。ステップS83では顔画像が探知されたか否かを判別し、判別結果がNOであればステップS85に進む一方、判別結果がYESであればステップS89に進む。   First, in step S81, a face image of a person or animal is searched from the main image data stored in the recorded image area 34b. In step S83, it is determined whether or not a face image has been detected. If the determination result is NO, the process proceeds to step S85, and if the determination result is YES, the process proceeds to step S89.

ステップS85では、撮像シーンの中央に存在する物体を特定物体とみなし、撮像シーンの中央領域が拡大されるように主画像データを加工する。ステップS87では加工された画像データに基づいてサムネイル画像データを作成し、その後に上階層のルーチンに復帰する。したがって、上述の実施例と異なり、顔画像が探知されなかったときは、単一フレームのサムネイル画像データが主画像データに割り当てられる。   In step S85, the object existing in the center of the imaging scene is regarded as a specific object, and the main image data is processed so that the central area of the imaging scene is enlarged. In step S87, thumbnail image data is created based on the processed image data, and then the process returns to the upper layer routine. Therefore, unlike the above-described embodiment, when a face image is not detected, thumbnail image data of a single frame is assigned to main image data.

ステップS89では探知された顔画像の数を最大値Kmaxとして設定し、ステップS91では変数Kを“1”に設定する。ステップS93ではK番目の顔画像の領域が拡大されるように主画像データを加工し、ステップS95では加工された画像データに基づいてサムネイル画像データを作成する。つまり、顔画像が探知されたときは、人物の顔が特定物体とみなされ、顔画像が強調されるようにサムネイル画像データが作成される。ステップS97では変数Kが最大値Kmaxに達したか否かを判別し、判別結果がNOであればステップS99で変数KをインクリメントしてからステップS93に戻る一方、判別結果がYESであれば上階層のルーチンに復帰する。   In step S89, the number of detected face images is set as the maximum value Kmax, and in step S91, the variable K is set to “1”. In step S93, the main image data is processed so that the area of the Kth face image is enlarged, and in step S95, thumbnail image data is created based on the processed image data. That is, when a face image is detected, the face of a person is regarded as a specific object, and thumbnail image data is created so that the face image is emphasized. In step S97, it is determined whether or not the variable K has reached the maximum value Kmax. If the determination result is NO, the variable K is incremented in step S99 and the process returns to step S93. Return to the hierarchy routine.

これによって、サムネイル画像データを参照した主画像データの探索に関する操作性がさらに向上する。なお、主画像データが全方位画像のような歪みを有する画像データである場合、好ましくは歪みを補正する処理がステップS85またはS93で追加的に実行される。   This further improves the operability related to the search for the main image data with reference to the thumbnail image data. If the main image data is image data having distortion such as an omnidirectional image, preferably a process for correcting the distortion is additionally executed in step S85 or S93.

なお、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ48に予め記憶される。しかし、図17に示すように通信I/F48をディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ46に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 48 in advance. However, as shown in FIG. 17, a communication I / F 48 is provided in the digital camera 10, and some control programs are prepared as internal control programs in the flash memory 46 from the beginning, while some other control programs are prepared as external control programs. May be acquired from an external server. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

また、この実施例では、CPU28によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   In this embodiment, the process executed by the CPU 28 is divided into a plurality of tasks as described above. However, each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when each task is divided into a plurality of small tasks, all or part of the tasks may be acquired from an external server.

10 …ディジタルカメラ
16 …イメージセンサ
24 …カメラ処理回路
28 …CPU
36 …LCDドライバ
38 …LCDモニタ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 16 ... Image sensor 24 ... Camera processing circuit 28 ... CPU
36 ... LCD driver 38 ... LCD monitor

Claims (13)

第1画角を有する第1撮像シーンを表す主画像を撮像手段の出力に基づいて作成する第1作成手段、
前記第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を前記第1作成手段の処理に関連して作成する第2作成手段、
前記第2作成手段によって作成された1または2以上の見出し画像を前記第1作成手段によって作成された主画像に割り当てる割り当て手段、および
前記割り当て手段の割り当て結果に基づく主画像の探索を支援するべく前記第2作成手段によって作成された1または2以上の見出し画像の少なくとも1つを再生する再生手段を備える、画像処理装置。
First creation means for creating a main image representing a first imaging scene having a first angle of view based on an output of the imaging means;
Second creation means for creating one or more headline images each representing a second imaging scene having a second angle of view smaller than the first angle of view in relation to the processing of the first creation means;
An assignment unit that assigns one or more headline images created by the second creation unit to a main image created by the first creation unit, and a search for a main image based on an assignment result of the assignment unit An image processing apparatus, comprising: reproducing means for reproducing at least one of one or more headline images created by the second creating means.
前記第2作成手段は、前記第1作成手段によって作成された主画像上の1または2以上の部分エリアから1または2以上の部分画像を切り出す切り出し手段、および前記切り出し手段によって切り出された1または2以上の部分画像を前記1または2以上の見出し画像に変換する変換手段を含む、請求項1記載の画像処理装置。   The second creation means includes a cutout means for cutting out one or more partial images from one or more partial areas on the main image created by the first creation means, and 1 or 2 cut out by the cutout means The image processing apparatus according to claim 1, further comprising conversion means for converting two or more partial images into the one or more heading images. 前記第1作成手段によって作成された主画像から特定物体像を探索する探索手段をさらに備え、
前記第2作成手段は前記探索手段の探索結果に応じて異なる要領で前記1または2以上の部分エリアを定義する定義手段をさらに含む、請求項2記載の画像処理装置。
Search means for searching for a specific object image from the main image created by the first creation means,
The image processing apparatus according to claim 2, wherein the second creation unit further includes a definition unit that defines the one or more partial areas in different manners according to a search result of the search unit.
前記特定物体像は人物または動物の顔画像に相当する、請求項3記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the specific object image corresponds to a face image of a person or an animal. 所望の見出し画像を選択する選択操作を前記再生手段の処理に関連して受け付ける受け付け手段、および
前記選択操作によって選択された見出し画像に対応する主画像を前記割り当て手段の割り当て結果に基づいて特定する特定手段をさらに備える、請求項1ないし4のいずれかに記載の画像処理装置。
A receiving unit that accepts a selection operation for selecting a desired heading image in association with the processing of the reproduction unit; and a main image corresponding to the heading image selected by the selection operation is specified based on an allocation result of the allocation unit The image processing apparatus according to claim 1, further comprising a specifying unit.
前記再生手段は前記1または2以上の見出し画像の少なくとも1つをモニタ画面に表示する見出し画像表示手段を含み、
前記特定手段は前記選択操作によって選択された見出し画像に対応する主画像を前記モニタ画面に表示する主画像表示手段を含む、請求項5記載の画像処理装置。
The reproduction means includes heading image display means for displaying at least one of the one or more heading images on a monitor screen,
The image processing apparatus according to claim 5, wherein the specifying unit includes a main image display unit that displays a main image corresponding to the heading image selected by the selection operation on the monitor screen.
前記再生手段は前記見出し画像表示手段の表示対象をスクロール指示に応答してスクロールするスクロール手段をさらに含む、請求項6記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the reproduction unit further includes a scroll unit that scrolls a display target of the heading image display unit in response to a scroll instruction. 画像処理装置のプロセッサに、
第1画角を有する第1撮像シーンを表す主画像を撮像手段の出力に基づいて作成する第1作成ステップ、
前記第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を前記第1作成ステップの処理に関連して作成する第2作成ステップ、
前記第2作成ステップによって作成された1または2以上の見出し画像を前記第1作成ステップによって作成された主画像に割り当てる割り当てステップ、および
前記割り当てステップの割り当て結果に基づく主画像の探索を支援するべく前記第2作成ステップによって作成された1または2以上の見出し画像の少なくとも1つを再生する再生ステップを実行させるための、画像処理プログラム。
In the processor of the image processing device,
A first creation step of creating a main image representing a first imaging scene having a first angle of view based on an output of the imaging means;
A second creation step of creating one or more headline images each representing a second imaging scene having a second angle of view smaller than the first angle of view in relation to the process of the first creation step;
An assignment step for assigning one or more headline images created by the second creation step to a main image created by the first creation step, and a search for the main image based on the assignment result of the assignment step An image processing program for executing a reproduction step of reproducing at least one of one or more headline images created by the second creation step.
画像処理装置によって実行される画像処理方法であって、
第1画角を有する第1撮像シーンを表す主画像を撮像手段の出力に基づいて作成する第1作成ステップ、
前記第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を前記第1作成ステップの処理に関連して作成する第2作成ステップ、
前記第2作成ステップによって作成された1または2以上の見出し画像を前記第1作成ステップによって作成された主画像に割り当てる割り当てステップ、および
前記割り当てステップの割り当て結果に基づく主画像の探索を支援するべく前記第2作成ステップによって作成された1または2以上の見出し画像の少なくとも1つを再生する再生ステップを備える、画像処理方法。
An image processing method executed by an image processing apparatus,
A first creation step of creating a main image representing a first imaging scene having a first angle of view based on an output of the imaging means;
A second creation step of creating one or more headline images each representing a second imaging scene having a second angle of view smaller than the first angle of view in relation to the process of the first creation step;
An assignment step for assigning one or more headline images created by the second creation step to a main image created by the first creation step, and a search for the main image based on the assignment result of the assignment step An image processing method comprising: a reproduction step of reproducing at least one of one or more headline images created by the second creation step.
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える画像処理装置に供給される外部制御プログラムであって、
第1画角を有する第1撮像シーンを表す主画像を撮像手段の出力に基づいて作成する第1作成ステップ、
前記第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を前記第1作成ステップの処理に関連して作成する第2作成ステップ、
前記第2作成ステップによって作成された1または2以上の見出し画像を前記第1作成ステップによって作成された主画像に割り当てる割り当てステップ、および
前記割り当てステップの割り当て結果に基づく主画像の探索を支援するべく前記第2作成ステップによって作成された1または2以上の見出し画像の少なくとも1つを再生する再生ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
An external control program supplied to an image processing apparatus including a processor that executes processing according to an internal control program stored in a memory,
A first creation step of creating a main image representing a first imaging scene having a first angle of view based on an output of the imaging means;
A second creation step of creating one or more headline images each representing a second imaging scene having a second angle of view smaller than the first angle of view in relation to the process of the first creation step;
An assignment step for assigning one or more headline images created by the second creation step to a main image created by the first creation step, and a search for the main image based on the assignment result of the assignment step An external control program for causing the processor to execute a reproduction step of reproducing at least one of one or more headline images created by the second creation step in cooperation with the internal control program.
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える画像処理装置であって、
前記外部制御プログラムは、
第1画角を有する第1撮像シーンを表す主画像を撮像手段の出力に基づいて作成する第1作成ステップ、
前記第1画角よりも小さい第2画角を有する第2撮像シーンを各々が表す1または2以上の見出し画像を前記第1作成ステップの処理に関連して作成する第2作成ステップ、
前記第2作成ステップによって作成された1または2以上の見出し画像を前記第1作成ステップによって作成された主画像に割り当てる割り当てステップ、および
前記割り当てステップの割り当て結果に基づく主画像の探索を支援するべく前記第2作成ステップによって作成された1または2以上の見出し画像の少なくとも1つを再生する再生ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、画像処理装置。
An image processing apparatus comprising: a capturing unit that captures an external control program; and a processor that executes processing according to the external control program captured by the capturing unit and an internal control program stored in a memory,
The external control program is
A first creation step of creating a main image representing a first imaging scene having a first angle of view based on an output of the imaging means;
A second creation step of creating one or more headline images each representing a second imaging scene having a second angle of view smaller than the first angle of view in relation to the process of the first creation step;
An assignment step for assigning one or more headline images created by the second creation step to a main image created by the first creation step, and a search for the main image based on the assignment result of the assignment step An image processing apparatus corresponding to a program that executes a reproduction step of reproducing at least one of one or more headline images created by the second creation step in cooperation with the internal control program.
撮像シーンを表す主画像を撮像手段の出力に基づいて作成する第1作成手段、
前記撮像シーンに現れた1または2以上の特定物体がそれぞれ強調された1または2以上の見出し画像を前記第1作成手段の処理に関連して作成する第2作成手段、
前記第2作成手段によって作成された1または2以上の見出し画像を前記第1作成手段によって作成された主画像に割り当てる割り当て手段、および
前記割り当て手段の割り当て結果に基づく主画像の探索を支援するべく前記第2作成手段によって作成された1または2以上の見出し画像の少なくとも1つを再生する再生手段を備える、画像処理装置。
First creation means for creating a main image representing an imaging scene based on an output of the imaging means;
Second creation means for creating one or more headline images in which one or more specific objects appearing in the imaging scene are emphasized in association with the processing of the first creation means;
An assignment unit that assigns one or more headline images created by the second creation unit to a main image created by the first creation unit, and a search for a main image based on an assignment result of the assignment unit An image processing apparatus, comprising: reproducing means for reproducing at least one of one or more headline images created by the second creating means.
前記第1作成手段によって作成された主画像から特定物体像を探索する探索手段をさらに備え、
前記第2作成手段は前記探索手段の探索結果に応じて異なる要領で強調処理を実行する強調手段をさらに含む、請求項12記載の画像処理装置。
Search means for searching for a specific object image from the main image created by the first creation means,
The image processing apparatus according to claim 12, wherein the second creating unit further includes an emphasizing unit that executes an emphasizing process in a different manner according to a search result of the searching unit.
JP2013044408A 2013-03-06 2013-03-06 Image processing device Pending JP2014175716A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013044408A JP2014175716A (en) 2013-03-06 2013-03-06 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013044408A JP2014175716A (en) 2013-03-06 2013-03-06 Image processing device

Publications (1)

Publication Number Publication Date
JP2014175716A true JP2014175716A (en) 2014-09-22

Family

ID=51696584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013044408A Pending JP2014175716A (en) 2013-03-06 2013-03-06 Image processing device

Country Status (1)

Country Link
JP (1) JP2014175716A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016072841A (en) * 2014-09-30 2016-05-09 ブラザー工業株式会社 Information processor, recording system and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016072841A (en) * 2014-09-30 2016-05-09 ブラザー工業株式会社 Information processor, recording system and program

Similar Documents

Publication Publication Date Title
JP5880263B2 (en) Display control device, display control method, program, and recording medium
JP4413235B2 (en) Electronic camera
KR101559992B1 (en) Imaging apparatus which performs development processing on captured image
JP2010050798A (en) Electronic camera
CN110502117B (en) Screenshot method in electronic terminal and electronic terminal
JP2011091635A (en) Imaging apparatus
US20120229678A1 (en) Image reproducing control apparatus
JP2013134579A (en) User interface device
JP6010303B2 (en) Image playback device
JP2014107775A (en) Electronic camera
US9626782B2 (en) Image processing apparatus, image processing method and computer-readable storage medium
JP2014175716A (en) Image processing device
JP2007267309A (en) Electronic camera
JP2007266676A (en) Imaging apparatus, method and program for displaying photographed image, and method and program for deleting photographed image
JP2013115444A (en) Electronic camera
JP2014036339A (en) Moving image processing device
JP5675188B2 (en) Video content creation apparatus, method and program
JP5188633B2 (en) Electronics
JP2009038485A (en) Image editing device, image editing method, and image editing program
JP5926062B2 (en) User interface device
JP2010134216A (en) Image display apparatus, and digital camera having the same
JP2014027560A (en) Image processor
JP6611478B2 (en) Imaging apparatus, recording control method, and program
JP2014157463A (en) User interface device
JP4767201B2 (en) Image playback device