JP2014072642A - Moving image data processing system, moving image data transmission device, and moving image data reception device - Google Patents

Moving image data processing system, moving image data transmission device, and moving image data reception device Download PDF

Info

Publication number
JP2014072642A
JP2014072642A JP2012216323A JP2012216323A JP2014072642A JP 2014072642 A JP2014072642 A JP 2014072642A JP 2012216323 A JP2012216323 A JP 2012216323A JP 2012216323 A JP2012216323 A JP 2012216323A JP 2014072642 A JP2014072642 A JP 2014072642A
Authority
JP
Japan
Prior art keywords
image data
moving image
unit
information
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012216323A
Other languages
Japanese (ja)
Inventor
Tadashi Okazaki
正 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012216323A priority Critical patent/JP2014072642A/en
Publication of JP2014072642A publication Critical patent/JP2014072642A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily extract an arbitrary portion from moving image data on the basis of a representative image being an appropriate indication.SOLUTION: A moving image data processing system SYS1 includes a moving image data transmission device 1 and a moving image data reception device 2. The moving image data transmission device 1 includes a score calculation part 301, a moving image data division part 302, and a representative image data specification part 303. The score calculation part 301 calculates the score of moving image data. The moving image data division part 302 divides the moving image data into a plurality of divided pieces of moving image data and generates divided position information thereof. Information on representative image data in each divided piece of moving image data specified by the representative image data specification part 303 is transmitted to the moving image data reception device 2 as representative image information with the divided position information. The moving image data reception device 2 displays a selection image having each representative image on a monitor 505. A portion of the moving image data to be extracted from the moving image data is specified on the basis of the selection image.

Description

本発明は動画像データ処理システム及び動画像データ送信装置に関し、より詳細には適切な指標となる代表画像に基づき、動画像データの中から容易に任意の部分を抽出することができる動画像データ処理システム及び動画像データ送信装置に関する。   The present invention relates to a moving image data processing system and a moving image data transmission device, and more specifically, moving image data that can easily extract an arbitrary part from moving image data based on a representative image that is an appropriate index. The present invention relates to a processing system and a moving image data transmission apparatus.

デジタルカメラやカメラ付き携帯端末等で取得された撮像データが、ネットワークを介して様々な場所にある様々な機器間で、送受信され共有されることは既に広く一般化している。さらに近年の無線通信の発達により、撮像データの送受信等も無線のネットワーク通信を介して行われるようになってきており、データ共有が行われる場所や機器がより多様化していっている。   It is already widely generalized that image data acquired by a digital camera, a mobile terminal with a camera, and the like is transmitted and received and shared between various devices at various locations via a network. Further, with the recent development of wireless communication, transmission / reception of imaging data and the like has also been performed via wireless network communication, and places and devices where data sharing is performed are becoming more diverse.

送受信される撮像データが動画像データであった場合は、原則として静止画像データよりもデータ容量が大きい。そのため静止画像データの送受信と比べて、動画像データの送受信には、より多くの時間を要する。また、ユーザが動画像データを再生して内容を確認するのに要する時間は、当然、静止画像データの内容確認よりも多くの時間を要する。   When the image data to be transmitted / received is moving image data, in principle, the data capacity is larger than that of still image data. Therefore, more time is required for transmission / reception of moving image data than for transmission / reception of still image data. In addition, the time required for the user to check the content by reproducing the moving image data naturally requires more time than the content check of the still image data.

一方で、動画像データを受信して取得するユーザが、その動画像データの全体の取得を所望しているとはかぎらない。一つの動画像データに含まれる一部のシーンだけをユーザが鑑賞したい場合等は、動画像データから所望する一部分のみが抽出され取得されればよい。所望のシーンを含む部分のみを見つけ出し、抽出して取得することができれば、前述したような送受信時間や内容確認時間の負担は大きく軽減される。   On the other hand, a user who receives and acquires moving image data does not necessarily want to acquire the entire moving image data. When the user wants to view only a part of the scenes included in one moving image data, only a desired portion is extracted and acquired from the moving image data. If only a portion including a desired scene can be found, extracted, and acquired, the burden of the transmission / reception time and the content confirmation time as described above can be greatly reduced.

そこで、動画像データのなかから所定の部分を抽出しやすくし、抽出された部分だけを送受信するための技術が開発されている。例えば特許文献1には、撮像された動画像データ1つに対し複数の代表静止画像を生成し、ユーザが携帯端末側で代表静止画像を選択することで、選択された代表静止画像に対応した開始点以降の、及び/又は対応した終了点以前の部分動画像データだけを、その動画像データから切り出して携帯端末に送信することができる画像送信機器が記載されている。この画像送信機器によれば、ユーザは、撮像された動画像データのうち不必要な部分を排除して必要な部分だけを、携帯端末で取得し閲覧することができる。   Therefore, a technique has been developed for facilitating extraction of a predetermined part from moving image data and transmitting / receiving only the extracted part. For example, in Patent Document 1, a plurality of representative still images are generated for one captured moving image data, and the user selects a representative still image on the mobile terminal side, thereby corresponding to the selected representative still image. An image transmitting device is described that can extract only partial moving image data after the start point and / or before the corresponding end point and cut out from the moving image data and transmit it to the mobile terminal. According to this image transmission device, the user can acquire and view only the necessary part by removing the unnecessary part from the captured moving image data with the mobile terminal.

特開2004−32636号公報JP 2004-32636 A

しかし前述の特許文献1に記載の画像送信機器が生成する代表静止画像は、撮像内容とは無関係に、所定のフレーム毎、所定時間毎、又はシーンの変わり目毎に生成されている。このため生成された代表静止画は、その動画像データの見どころを示す手がかりとはならないことが多い。したがって特許文献1に記載の画像送信機器が生成する代表静止画像は、ユーザが、動画像データから所望の部分を特定するための適切な指標とはならないという問題を有することが推察される。   However, the representative still image generated by the image transmission device described in Patent Document 1 described above is generated every predetermined frame, every predetermined time, or every scene change, regardless of the captured content. For this reason, the generated representative still image often does not serve as a clue indicating the highlight of the moving image data. Therefore, it is inferred that the representative still image generated by the image transmission device described in Patent Document 1 has a problem that the user does not become an appropriate index for specifying a desired portion from moving image data.

そこで本発明は、適切な指標となる代表画像に基づき、動画像データの中から容易に任意の部分を抽出することができる動画像データ処理システム、動画像データ送信装置、及び動画像データ受信装置を提供することを目的とする。   Therefore, the present invention provides a moving image data processing system, a moving image data transmitting device, and a moving image data receiving device that can easily extract an arbitrary portion from moving image data based on a representative image that is an appropriate index. The purpose is to provide.

前述した課題を解決するために本発明は、動画像データ送信装置(1)と動画像データ受信装置(2)とを備えた動画像データ処理システム(SYS1)であって、前記動画像データ送信装置(1)は、動画像データが入力される動画像データ入力部(211)と、前記入力された動画像データを複数に分割して複数の分割動画像データを生成するとともに、その動画像データにおける、それら複数の分割動画像データそれぞれの位置を示す分割位置情報を生成する動画像データ分割部(302)と、前記動画像データについて所定時間毎のスコアを算出するスコア算出部(301)と、前記算出されたスコアに基づいて、前記複数の分割動画像データのそれぞれから所定の画像単位データを代表画像データとして特定する代表画像データ特定部(303)と、前記特定された代表画像データ、及びその代表画像データの前記動画像データにおける位置を示す情報を含む代表画像情報を生成する代表画像情報生成部(304)と、前記分割位置情報及び前記代表画像情報を送信する情報送信部(210又は214)と、前記動画像データ受信装置(2)が送信した選択情報を受信する選択情報受信部(210又は214)と、前記選択情報の受信に応じて、前記代表画像データとして特定された画像単位データを含む前記動画像データの一部を、抽出動画像データとして抽出する動画像データ抽出部(305)と、前記抽出された抽出動画像データを送信する動画像データ送信部(210又は214)とを備え、前記動画像データ受信装置(2)は、前記送信された分割位置情報及び代表画像情報を受信する情報受信部(509又は513)と、前記受信された分割位置情報及び代表画像情報に基づいて選択画像データを生成する選択画像データ生成部(601)と、前記選択画像データに基づいて、前記複数の分割動画像データそれぞれの分割位置を示す情報及び代表画像を含む選択画像を表示する選択画像表示部(505)と、前記選択画像における複数の前記代表画像の中から任意の代表画像を選択する指示、及び前記抽出動画像データの長さを指定する指示が入力される操作部(507)と、前記入力された指示に応じて、前記選択された代表画像に係る代表画像データの前記動画像データにおける位置を示す情報と、前記抽出動画像データの長さを示す情報とを有する選択情報を生成する選択情報生成部(602)と、前記生成された選択情報を送信する選択情報送信部(509又は513)と、前記送信された抽出動画像データを受信する動画像データ受信部(509又は513)とを備えることを特徴とする動画像データ処理システム(SYS1)を提供する。
また本発明は、動画像データが入力される動画像データ入力部(212)と、前記入力された動画像データを複数に分割して複数の分割動画像データを生成するとともに、その動画像データにおける、それら複数の分割動画像データそれぞれの位置を示す分割位置情報を生成する動画像データ分割部(302)と、前記動画像データについて所定時間毎のスコアを算出するスコア算出部(301)と、前記算出されたスコアに基づいて、前記複数の分割動画像データのそれぞれから所定の画像単位データを代表画像データとして特定する代表画像データ特定部(303)と、前記特定された代表画像データ、及びその代表画像データの前記動画像データにおける位置を示す情報を含む代表画像情報を生成する代表画像情報生成部(304)と、前記分割位置情報及び前記代表画像情報を外部機器(2)に送信する情報送信部(210又は214)と、前記外部機器(2)から送信された、前記複数の前記代表画像データの中から選択された代表画像データを特定する情報と、抽出時間を示す情報とを含む選択情報を受信する選択情報受信部(210又は214)と、前記選択情報の受信に応じて、前記選択された代表画像データを特定する情報に基づき特定された画像単位データを含む、前記抽出時間分の前記動画像データの一部を、抽出動画像データとして抽出する動画像データ抽出部(305)と、抽出された抽出動画像データを前記外部機器に送信する動画像データ送信部(210又は214)とを備えることを特徴とする動画像データ送信装置(2)を提供する。
また本発明は、動画像データが複数に分割された各分割動画像データの分割位置を示す分割位置情報と、前記動画像データについて所定時間毎のスコアが算出されて、そのスコアに基づいて代表画像データとして特定された各画像単位データ及びそれら各画像単位データの前記動画像データにおける位置を示す情報を含む代表画像情報とを受信する情報受信部(509又は513)と、前記受信された分割位置情報及び代表画像情報に基づいて選択画像データを生成する選択画像データ生成部(601)と、前記選択画像データに基づいて、前記複数の分割動画像データそれぞれの分割位置を示す情報及び代表画像を含む選択画像を表示する選択画像表示部(505)と、前記選択画像における複数の前記代表画像の中から任意の代表画像を選択する指示、及び前記抽出動画像データの長さを指定する指示が入力される操作部(507)と、前記入力された指示に応じて、前記選択された代表画像に係る代表画像データの前記動画像データにおける位置を示す情報と、前記抽出動画像データの長さを示す情報とを有する選択情報を生成する選択情報生成部(602)と、前記生成された選択情報を送信する選択情報送信部(509又は513)と、前記送信された選択情報に基づいて前記外部機器が抽出し送信した抽出動画像データを受信する動画像データ受信部(509又は513)とを備えることを特徴とする動画像データ受信装置(2)を提供する。
In order to solve the above-described problems, the present invention provides a moving image data processing system (SYS1) including a moving image data transmitting device (1) and a moving image data receiving device (2), wherein the moving image data transmission is performed. The apparatus (1) generates a plurality of divided moving image data by dividing the input moving image data into a plurality of moving image data input units (211) to which moving image data is input, and the moving image A moving image data dividing unit (302) for generating divided position information indicating the position of each of the plurality of divided moving image data in the data, and a score calculating unit (301) for calculating a score for each predetermined time for the moving image data And based on the calculated score, a representative image data characteristic that specifies predetermined image unit data as representative image data from each of the plurality of divided moving image data. A representative image information generation unit (304) for generating representative image information including information indicating a position of the identified representative image data and the position of the representative image data in the moving image data, and the division position An information transmitting unit (210 or 214) for transmitting information and the representative image information, a selection information receiving unit (210 or 214) for receiving selection information transmitted by the moving image data receiving device (2), and the selection information In response to reception, a moving image data extraction unit (305) that extracts a part of the moving image data including the image unit data specified as the representative image data as extracted moving image data, and the extracted extraction A moving image data transmitting unit (210 or 214) for transmitting moving image data, and the moving image data receiving device (2) includes the transmitted divided position information and An information receiving unit (509 or 513) for receiving representative image information, a selected image data generating unit (601) for generating selected image data based on the received division position information and representative image information, and the selected image data Based on the selection image display unit (505) for displaying a selection image including information indicating the division position of each of the plurality of divided moving image data and the representative image, and arbitrarily selecting from the plurality of the representative images in the selection image An operation unit (507) to which an instruction to select a representative image and an instruction to specify the length of the extracted moving image data are input, and a representative related to the selected representative image according to the input instruction A selection information generation unit (602) that generates selection information having information indicating the position of image data in the moving image data and information indicating the length of the extracted moving image data ), A selection information transmitting unit (509 or 513) for transmitting the generated selection information, and a moving image data receiving unit (509 or 513) for receiving the transmitted extracted moving image data. A moving image data processing system (SYS1) is provided.
According to the present invention, a moving image data input unit (212) to which moving image data is input and a plurality of divided moving image data are generated by dividing the input moving image data into a plurality of moving image data. A moving image data dividing unit (302) for generating divided position information indicating the position of each of the plurality of divided moving image data, and a score calculating unit (301) for calculating a score for each predetermined time for the moving image data, A representative image data specifying unit (303) for specifying predetermined image unit data as representative image data from each of the plurality of divided moving image data based on the calculated score; and the specified representative image data; And a representative image information generation unit (304) that generates representative image information including information indicating the position of the representative image data in the moving image data. An information transmission unit (210 or 214) for transmitting the division position information and the representative image information to the external device (2), and a selection from the plurality of the representative image data transmitted from the external device (2) A selection information receiving unit (210 or 214) that receives selection information including information for specifying the representative image data and information indicating an extraction time; and the selected representative image in response to reception of the selection information A moving image data extraction unit (305) for extracting a part of the moving image data for the extraction time including the image unit data specified based on the information for specifying data as extracted moving image data; Provided is a moving image data transmission device (2) comprising a moving image data transmission unit (210 or 214) for transmitting extracted moving image data to the external device.
The present invention also provides division position information indicating a division position of each divided moving image data obtained by dividing the moving image data, and a score for each predetermined time is calculated for the moving image data, and the representative is based on the score. An information receiving unit (509 or 513) for receiving each image unit data specified as image data and representative image information including information indicating a position of each of the image unit data in the moving image data; and the received division A selection image data generation unit (601) that generates selection image data based on the position information and the representative image information, and information indicating the division position of each of the plurality of divided moving image data and the representative image based on the selection image data A selected image display unit (505) for displaying a selected image including the image, and an arbitrary representative image from among the plurality of representative images in the selected image. An operation unit (507) to which an instruction to select and an instruction to specify the length of the extracted moving image data are input, and the representative image data related to the selected representative image according to the input instruction A selection information generating unit (602) for generating selection information having information indicating a position in the moving image data and information indicating a length of the extracted moving image data; and a selection information transmission for transmitting the generated selection information Unit (509 or 513) and a moving image data receiving unit (509 or 513) for receiving the extracted moving image data extracted and transmitted by the external device based on the transmitted selection information. A moving image data receiving device (2) is provided.

本発明に係る動画像データ処理システム、動画像データ送信装置、及び動画像データ受信装置によれば、適切な指標となる代表画像に基づき、動画像データの中から容易に任意の部分を抽出することができる。   According to the moving image data processing system, the moving image data transmitting apparatus, and the moving image data receiving apparatus according to the present invention, an arbitrary portion is easily extracted from moving image data based on a representative image that is an appropriate index. be able to.

本発明の実施形態である動画像データ処理システムSYS1の構成を説明するための図である。It is a figure for demonstrating the structure of the moving image data processing system SYS1 which is embodiment of this invention. 本発明の実施形態である撮像装置1の概略的な内部構成を示すブロック図である。1 is a block diagram showing a schematic internal configuration of an imaging apparatus 1 that is an embodiment of the present invention. 撮像装置1によるスコア算出処理を説明するためのフローチャートである。5 is a flowchart for explaining score calculation processing by the imaging apparatus 1. 本発明の実施形態である通信端末2の概略的な内部構成を示すブロック図である。It is a block diagram which shows the schematic internal structure of the communication terminal 2 which is embodiment of this invention. 撮像装置1による分割位置情報及び代表静止画情報の生成処理を説明するためのフローチャートである。6 is a flowchart for explaining a process for generating division position information and representative still image information by the imaging apparatus 1. 撮像装置1による動画像データの分割について説明するための模式図である。6 is a schematic diagram for explaining division of moving image data by the imaging apparatus 1. FIG. 代表画像データを特定する処理について説明するための模式図である。It is a schematic diagram for demonstrating the process which specifies representative image data. 抽出動画像データの取得に係る一連の処理を説明するためのフローチャートである。It is a flowchart for demonstrating a series of processes concerning acquisition of extraction moving image data. リスト画像の模式図である。It is a schematic diagram of a list image. 選択画像の模式図である。It is a schematic diagram of a selection image. ユーザが、任意の代表画像に対応するタッチパネル領域をタッチした場合の、選択画像を示す模式図である。It is a schematic diagram which shows a selection image when a user touches the touch panel area | region corresponding to arbitrary representative images. 選択画像における抽出動画像データの長さの設定・変更のための画像の模式図である。It is a schematic diagram of an image for setting / changing the length of extracted moving image data in a selected image. 選択画像の別の対応を示す模式図である。It is a schematic diagram which shows another response | compatibility of a selection image.

以下に図面を参照しながら、本発明に係る動画像データ処理システム、並びにそれを構成する動画像送信装置及び動画像受信装置の好適な実施形態を説明する。かかる実施形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお本明細書及び図面において、実質的に同一の機能・構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   DESCRIPTION OF EMBODIMENTS Preferred embodiments of a moving image data processing system according to the present invention, and a moving image transmitting apparatus and a moving image receiving apparatus constituting the moving image data processing system will be described below with reference to the drawings. Specific numerical values and the like shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same functions and configurations are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. .

(動画像データ処理システムSYS1の構成)
本発明に係る動画像データ処理システムの好適な実施形態として、動画像処理システムSYS1について、図1を参照して以下に説明する。図1は、動画像データ処理システムSYS1の構成を説明するための図である。
(Configuration of moving image data processing system SYS1)
As a preferred embodiment of the moving image data processing system according to the present invention, a moving image processing system SYS1 will be described below with reference to FIG. FIG. 1 is a diagram for explaining the configuration of the moving image data processing system SYS1.

動画像データ処理システムSYS1は、本システムにおいて動画像データ送信装置としての役割も果たす撮像装置1と、動画像データ受信装置としての役割も果たす通信端末2又は3とからなる。撮像装置1は、撮像により動画像データを生成することができるデジタルビデオカメラである。通信端末2及び3は、いわゆるスマートフォン等の携帯電話機器である。撮像装置1と、通信端末2又は3とは、通信規格であるIEEE802.11シリーズ等を利用した無線ネットワーク通信によって、各種データを相互に送受信することができる。無線ネットワーク通信には、無線ネットワーク通信N1のように撮像装置1と通信端末2との間で直接形成されるものと、無線ネットワーク通信N2のように、撮像装置1と通信端末3との間でルータ4を介して形成されるものとがある。また撮像装置1は、図示しない他の通信端末との間でインターネットを経由して各種データを相互に送受信すること等もできる。   The moving image data processing system SYS1 includes an imaging device 1 that also functions as a moving image data transmission device and a communication terminal 2 or 3 that also functions as a moving image data reception device. The imaging device 1 is a digital video camera that can generate moving image data by imaging. The communication terminals 2 and 3 are mobile phone devices such as so-called smartphones. The imaging apparatus 1 and the communication terminal 2 or 3 can transmit / receive various data to / from each other by wireless network communication using the IEEE 802.11 series or the like that is a communication standard. In wireless network communication, between the imaging device 1 and the communication terminal 3 as in the wireless network communication N1, the wireless network communication N1 is directly formed between the imaging device 1 and the communication terminal 2, and the wireless network communication N2. Some are formed via the router 4. The imaging apparatus 1 can also transmit and receive various data to and from other communication terminals (not shown) via the Internet.

(撮像装置1の構成)
次に、撮像装置1の構成について図2を参照して説明する。図2は撮像装置1の概略的な内部構成を示すブロック図である。
(Configuration of the imaging device 1)
Next, the configuration of the imaging apparatus 1 will be described with reference to FIG. FIG. 2 is a block diagram illustrating a schematic internal configuration of the imaging apparatus 1.

中央制御部300は、CPU(Central Processing Unit)、各種プログラムが格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成される。この中央制御部300は、撮像による撮像データの生成処理、撮像データの再生表示処理、ユーザが各種設定を行うためのメニュー画像等を表示する処理等の各種処理のために各部を統括的に制御する。   The central control unit 300 is configured by a semiconductor integrated circuit including a CPU (Central Processing Unit), a ROM (Read Only Memory) in which various programs are stored, a RAM (Random Access Memory) as a work area, and the like. The central control unit 300 comprehensively controls each unit for various processing such as imaging data generation processing by imaging, imaging data reproduction display processing, and menu image display processing for the user to perform various settings. To do.

また中央制御部300は、後述する撮像データ(動画像データ)のスコアの算出、撮像データ(動画像データ)の複数の動画像データへの分割、分割された各動画像データの位置を示す情報の生成、分割された各動画像データにおける代表静止画の特定、及び動画像データの一部分の抽出といった処理も行う。以下では先ず、この中央制御部300により制御される他の各部について述べた後、これらの中央制御部300による制御について説明する。   The central control unit 300 also calculates the score of imaging data (moving image data), which will be described later, divides the imaging data (moving image data) into a plurality of moving image data, and information indicating the position of each divided moving image data Generation, identification of representative still images in each divided moving image data, and extraction of a part of moving image data are also performed. In the following, first, other parts controlled by the central control unit 300 will be described, and then the control by the central control unit 300 will be described.

撮像装置1は、ズームレンズ101、絞り102、フォーカスレンズ103、及び撮像素子104で構成される撮像部100を備える。ズームレンズ101は図示しないズームアクチュエータによって光軸LAに沿って移動する。同様に、フォーカスレンズ103は、図示しないフォーカスアクチュエータによって光軸LAに沿って移動する。絞り102は、図示しない絞りアクチュエータに駆動されて露光調整を行う。撮像素子104は、CMOS(Complementary Metal Oxide Semiconductor)又はCCD(Charge Coupled Device)等からなるイメージセンサである。   The imaging apparatus 1 includes an imaging unit 100 including a zoom lens 101, a diaphragm 102, a focus lens 103, and an imaging element 104. The zoom lens 101 is moved along the optical axis LA by a zoom actuator (not shown). Similarly, the focus lens 103 is moved along the optical axis LA by a focus actuator (not shown). The diaphragm 102 is driven by a diaphragm actuator (not shown) to perform exposure adjustment. The image sensor 104 is an image sensor composed of a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD).

ズームレンズ101、絞り102、及びフォーカスレンズ103を通過した光は、撮像素子104によって光電変換されアナログ画像信号となる。アナログ画像信号処理部105が、このアナログ画像信号を増幅等する。そして画像A/D変換部106が、その増幅された信号をデジタル画像データに変換する。   The light that has passed through the zoom lens 101, the diaphragm 102, and the focus lens 103 is photoelectrically converted by the image sensor 104 into an analog image signal. An analog image signal processing unit 105 amplifies the analog image signal. Then, the image A / D conversion unit 106 converts the amplified signal into digital image data.

画像入力コントローラ107は、画像A/D変換部106から出力されたデジタル画像データを撮像データとして取り込んで、バス200を介してメインメモリ201に格納する。撮像装置1では、撮像データとして動画像データ及び静止画像データの両方を生成・取得することができる。   The image input controller 107 takes in digital image data output from the image A / D conversion unit 106 as imaging data and stores it in the main memory 201 via the bus 200. The imaging apparatus 1 can generate and acquire both moving image data and still image data as imaging data.

このときA/D変換部106から出力されたデジタル画像データは、デジタル信号処理部108によって所定の信号処理を施され輝度信号と色差信号とからなる撮像データに変換される。デジタル信号処理部108はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル処理を行う。   At this time, the digital image data output from the A / D conversion unit 106 is subjected to predetermined signal processing by the digital signal processing unit 108 and converted into imaging data including a luminance signal and a color difference signal. The digital signal processing unit 108 also performs various kinds of digital processing such as offset processing, white balance adjustment processing, gamma correction processing, RGB interpolation processing, noise reduction processing, contour correction processing, color tone correction processing, and light source type determination processing.

マイク109は、撮像時における撮像装置1の周囲の音声を周音し、アナログ音声信号を生成する。アナログ音声信号処理部110がそのアナログ音声信号を増幅する。そして音声A/D変換部111が、その増幅された信号をデジタル音声データに変換する。音声入力コントローラ112は、音声A/D変換部111から出力されたデジタル音声データを撮像データと併せてメインメモリ201に格納する。   The microphone 109 circulates the sound around the imaging device 1 at the time of imaging and generates an analog audio signal. The analog audio signal processing unit 110 amplifies the analog audio signal. Then, the audio A / D converter 111 converts the amplified signal into digital audio data. The audio input controller 112 stores the digital audio data output from the audio A / D converter 111 in the main memory 201 together with the imaging data.

圧縮・伸長処理部202は、メインメモリ201に格納された各種データに所定の圧縮処理を施し、圧縮データを生成する。また圧縮・伸長処理部202は、中央制御部300からの指令に従い、記録メディア212等に格納された圧縮データに所定形式の伸張処理を施し、非圧縮データを生成する。なお、本実施の形態の撮像装置1では、静止画像に対してはJPEG規格に準拠した圧縮方式が、動画像に対してはMPEG2規格、AVC/H.264規格、又はMotion JPEG規格等に準拠した圧縮方式が採用される。   The compression / decompression processing unit 202 performs predetermined compression processing on various data stored in the main memory 201 to generate compressed data. Further, the compression / decompression processing unit 202 performs decompression processing in a predetermined format on the compressed data stored in the recording medium 212 or the like in accordance with a command from the central control unit 300 to generate non-compressed data. Note that in the imaging apparatus 1 according to the present embodiment, a compression method conforming to the JPEG standard is used for still images, and an MPEG2 standard, AVC / H. A compression method conforming to the H.264 standard or the Motion JPEG standard is adopted.

また圧縮・伸長処理部202は、後述する無線モジュール214等を介して外部の機器(通信端末2等)に動画像データを送信する際に、送信対象なる動画像データにトランスコードを施す。   The compression / decompression processing unit 202 transcodes moving image data to be transmitted when transmitting moving image data to an external device (communication terminal 2 or the like) via a wireless module 214 or the like described later.

多重化部203は、デジタル画像データ及びデジタル音声データをはじめとした各種データを多重化してストリームデータを生成する。上述のようにして生成された動画像データ及びデジタル音声データが、この多重化部203によって多重化されて一つのデータとなる。以下、説明の簡略化のために、多重化部203が生成したデータも、単に動画像データ、又は撮像データと呼ぶ。   The multiplexing unit 203 multiplexes various data including digital image data and digital audio data to generate stream data. The moving image data and digital audio data generated as described above are multiplexed by the multiplexing unit 203 into one data. Hereinafter, for simplification of description, data generated by the multiplexing unit 203 is also simply referred to as moving image data or imaging data.

画像処理部204は、メインメモリ201から読み出された上述のデジタル画像データに所定の画像処理を施したり、モニタ207に表示される画像に係る画像データを別途生成したりする。例えば画像処理部204は、後述する顔検出部401が検出した顔画像データに基づき、同じく後述するモニタ207が表示する、いわゆるスルー画像中の顔画像周辺に矩形の画像を表示するためのデータ生成等を行う。また、撮像装置1の設定に関する各種メニュー画像に係る画像データを生成する。   The image processing unit 204 performs predetermined image processing on the above-described digital image data read from the main memory 201, or separately generates image data relating to an image displayed on the monitor 207. For example, the image processing unit 204 generates data for displaying a rectangular image around the face image in the so-called through image displayed on the monitor 207, which will be described later, based on the face image data detected by the face detection unit 401, which will be described later. Etc. In addition, image data relating to various menu images related to the settings of the imaging apparatus 1 is generated.

さらに画像処理部204は、記録メディア212等に記録された撮像データについて、いわゆるサムネイル画像データを生成する。サムネイル画像データとともに、動画像データの数や再生時間等をユーザに提示する画像に係る画像データを生成する。生成されたこれらの画像データは入出力I/F206を介してモニタ207等に出力される。   Further, the image processing unit 204 generates so-called thumbnail image data for the imaging data recorded on the recording medium 212 or the like. Along with the thumbnail image data, image data relating to an image that presents the number of moving image data, reproduction time, and the like to the user is generated. These generated image data are output to the monitor 207 or the like via the input / output I / F 206.

VRAM205は、後述するモニタ207が表示する動画像や静止画像に係る画像データや、上述した画像処理部204が生成した画像データの一時記憶領域として使用される。またメインメモリ201は、画像データをはじめとした各種データの一時記憶領域として使用されるとともに、中央制御部300の演算作業領域としても使用される。   The VRAM 205 is used as a temporary storage area for image data related to moving images and still images displayed on the monitor 207 described later, and image data generated by the image processing unit 204 described above. The main memory 201 is used as a temporary storage area for various data including image data, and is also used as a calculation work area for the central control unit 300.

モニタ207、スピーカ208、操作部209、及び入出力端子210は入出力I/F206に接続されている。以下に、各部について説明する。   The monitor 207, the speaker 208, the operation unit 209, and the input / output terminal 210 are connected to the input / output I / F 206. Hereinafter, each part will be described.

モニタ207は、例えば液晶ディスプレイや有機EL(Electroluminescence)ディスプレイから構成されている。モニタ207は、メインメモリ201に一時記憶される撮像データを、いわゆるスルー画像として表示したり、記録メディア212等に記録された動画像データや静止画像データを再生表示したりする。スピーカ208は、記録メディア212等に記録された動画像データに付随する音声等を出力する。   The monitor 207 is composed of, for example, a liquid crystal display or an organic EL (Electroluminescence) display. The monitor 207 displays imaging data temporarily stored in the main memory 201 as a so-called through image, and reproduces and displays moving image data and still image data recorded on the recording medium 212 or the like. The speaker 208 outputs sound associated with moving image data recorded on the recording medium 212 or the like.

操作部209は、図示しない各種ボタン、操作キー、レバー、又はモニタ207上に重畳されたタッチパネル等から構成される。操作部209は、撮像の開始及び終了をはじめとした、ユーザの撮像装置1への各種の操作入力、又は設定に関する入力等を受け付ける。   The operation unit 209 includes various buttons (not shown), operation keys, levers, a touch panel superimposed on the monitor 207, and the like. The operation unit 209 accepts various operation inputs of the user to the imaging apparatus 1 such as start and end of imaging, or input related to settings.

入出力端子210は、図示しない外部機器、例えばテレビをはじめとしたディスプレイ装置やPC(Personal Computer)等との接続に使用される。この入出力端子210を介して、各種のデータが撮像装置1と外部機器との間で入出力される。入出力端子307は、例えばHDMI(High-Definition Multimedia Interface)(登録商標)端子やUSB(Universal Serial Bus)端子等から構成される。   The input / output terminal 210 is used for connection to an external device (not shown) such as a display device such as a television, a PC (Personal Computer), and the like. Various data are input / output between the imaging apparatus 1 and an external device via the input / output terminal 210. The input / output terminal 307 includes, for example, a high-definition multimedia interface (HDMI) (registered trademark) terminal, a universal serial bus (USB) terminal, or the like.

メインメモリ201に記録された撮像データをはじめとした各種データは、メディアI/F211を介して記録メディア212に出力され、この記録メディア212に記録される。記録メディア212としては、撮像装置1に着脱可能なSD(Secure Digital)メモリカード等が使用される。なお、SDメモリカードの替りに、DVD、BD(Blu-ray Disc)(登録商標)、若しくはフラッシュメモリ等の他の記録媒体を使用してもよい。また記録メディア212は、撮像装置1に内蔵されていても、着脱可能とされていてもよい。   Various data including imaging data recorded in the main memory 201 are output to the recording medium 212 via the medium I / F 211 and recorded on the recording medium 212. As the recording medium 212, an SD (Secure Digital) memory card that can be attached to and detached from the imaging apparatus 1 is used. Instead of the SD memory card, other recording media such as a DVD, a BD (Blu-ray Disc) (registered trademark), or a flash memory may be used. The recording medium 212 may be built in the imaging apparatus 1 or detachable.

無線モジュール214は、無線I/F213を介して外部機器との間で各種データを無線ネットワーク通信により送受信する。この無線ネットワーク通信には、例えばIEEE802.11シリーズを利用した方式が利用される。   The wireless module 214 transmits / receives various data to / from an external device via the wireless I / F 213 by wireless network communication. For this wireless network communication, for example, a method using the IEEE802.11 series is used.

時計215は、時刻情報を生成する。時計215が生成した時刻情報は、生成された撮像データの開始時刻や終了時刻を示す情報の生成に使用されたり、撮像データの長さ(再生時間)を示す情報の生成に使用されたりする。また、時計215が生成した時刻情報は、後述する中央制御部300の動画像データ分割部302が生成する、各分割動画像データの分割位置情報の生成に用いられる。   The clock 215 generates time information. The time information generated by the clock 215 is used to generate information indicating the start time and end time of the generated imaging data, or to generate information indicating the length (reproduction time) of the imaging data. Further, the time information generated by the clock 215 is used to generate division position information of each divided moving image data generated by a moving image data dividing unit 302 of the central control unit 300 described later.

角速度センサ217は、撮像の際のパン・チルトやユーザの手ぶれ等によって生じる撮像装置1の角速度を検出する。角速度センサ217によって検出された角速度に係る信号はA/D変換部216によってデジタル信号に変換された後、バス200を介して中央制御部300に送られる。   The angular velocity sensor 217 detects the angular velocity of the imaging device 1 caused by pan / tilt, user's camera shake, or the like during imaging. A signal related to the angular velocity detected by the angular velocity sensor 217 is converted into a digital signal by the A / D converter 216 and then sent to the central controller 300 via the bus 200.

顔画像データ検出部401は、メインメモリ201に記憶された撮像データから、既知の手法により、被写体となる人物の顔画像データを検出する。顔画像データ認識部402は、顔画像データ検出部401が検出した顔画像データと、顔画像データ登録部403に予め登録されている人物の顔画像データとを照合し、検出された顔画像データを有する人物が何者であるかを認識する。顔画像データ検出部401による顔検出、及び顔画像データ認識部402による認識の結果は、後述する後述する撮像データ(動画像データ)のスコアの算出において使用される。   The face image data detection unit 401 detects face image data of a person who is a subject from the captured data stored in the main memory 201 by a known method. The face image data recognition unit 402 collates the face image data detected by the face image data detection unit 401 with the face image data of a person registered in advance in the face image data registration unit 403 and detects the detected face image data. Recognize who the person with The results of face detection by the face image data detection unit 401 and recognition by the face image data recognition unit 402 are used in calculating the score of imaging data (moving image data), which will be described later.

中央制御部300は、上述した他の各部の機能を統括的に制御するとともに、スコア算出部301、動画像データ分割部302、代表画像データ特定部303、代表画像情報生成部304、及び動画像データ抽出部305としても機能する。以下、各部について説明する。   The central control unit 300 comprehensively controls the functions of the other units described above, and also calculates a score calculation unit 301, a moving image data division unit 302, a representative image data specifying unit 303, a representative image information generation unit 304, and a moving image. It also functions as the data extraction unit 305. Hereinafter, each part will be described.

<<スコアの算出>>
ここでまず、スコア算出部301による撮像データ(動画像データ)のスコアの算出処理(方法)の詳細について説明する。スコア算出部301は、生成され記録されていく撮像データに対して、所定時間毎にスコアを算出する。図3は、スコア算出部301がスコアを算出する処理を説明するためのフローチャートである。
<< Score calculation >>
First, details of the score calculation processing (method) of imaging data (moving image data) by the score calculation unit 301 will be described. The score calculation unit 301 calculates a score for each predetermined time with respect to imaging data that is generated and recorded. FIG. 3 is a flowchart for explaining processing in which the score calculation unit 301 calculates a score.

ユーザが、操作部209の図示しない録画ボタンを押下すると、撮像部100を介して風景や被写体の画像が、及びマイク109を介して周囲の音声が、それぞれ取得されはじめ、撮像が開始される(ステップS101)。そしてメインメモリ201は、取得された画像及び音声を、撮像データ及び音声データとして、一時記憶し始める(ステップS102)。   When the user presses a recording button (not shown) on the operation unit 209, an image of a landscape or a subject is acquired via the imaging unit 100, and surrounding sounds are acquired via the microphone 109, and imaging starts ( Step S101). Then, the main memory 201 starts to temporarily store the acquired image and sound as imaging data and sound data (step S102).

ステップS102で撮像データ等の一時記憶が開始されると、スコア算出部301は、所定時間毎に撮像データのスコアを算出する(ステップ103)。スコア算出部301は、ホワイトバランスの調整度合い、ズームの変更度合い、パン及びチルトの度合い、顔検出の結果、撮像画像中の顔画像のサイズ、顔認識の結果、及び手ぶれ補正の結果等から各種パラメータを算出する。そして、それらのパラメータが加算・減算等されることでスコアが算出される。なお、スコアの算出に使用する上記各種のパラメータは例示に過ぎず、その撮像データのうち上手く撮像されている部分や見どころとなる部分を特定できるものであれば、全て採用可能である。また以下に記載した算出に用いる式も一例に過ぎず、他の式を用いても構わない。   When temporary storage of imaging data or the like is started in step S102, the score calculation unit 301 calculates the imaging data score every predetermined time (step 103). The score calculation unit 301 performs various operations based on the white balance adjustment degree, the zoom change degree, the pan and tilt degree, the face detection result, the size of the face image in the captured image, the face recognition result, the camera shake correction result, and the like. Calculate the parameters. Then, a score is calculated by adding / subtracting these parameters. It should be noted that the various parameters used for calculating the score are merely examples, and any parameter can be adopted as long as it can identify a well-captured portion or a highlight portion of the imaging data. Moreover, the formula used for the calculation described below is only an example, and another formula may be used.

ホワイトバランスの調整度合いに基づくパラメータをF1、ズームの変更度合いに基づくパラメータをF2、パン及びチルトの度合いに基づくパラメータをF3、顔検出の結果に基づくパラメータをF4、撮像画像中の顔画像のサイズに基づくパラメータをF5、顔認識の結果に基づくパラメータをF6、そして手ぶれ補正に基づくパラメータをF7とし、以下にそれぞれのパラメータの算出方法を説明する。   The parameter based on the white balance adjustment degree is F1, the parameter based on the zoom change degree is F2, the parameter based on the pan and tilt degree is F3, the parameter based on the face detection result is F4, and the size of the face image in the captured image F5 is a parameter based on the face recognition result, F6 is a parameter based on the face recognition result, and F7 is a parameter based on the camera shake correction. The calculation method of each parameter will be described below.

ホワイトバランスの調整度合いに基づくパラメータF1の算出は、例えば以下のようにして行われる。デジタル信号処理部108は、既知の各種方法により、メインメモリ201に一時記憶されたデジタル画像データから、色温度を算出し、算出された色温度に応じてデジタル画像データのホワイトバランスを調整する。スコア算出部301は、デジタル信号処理部108がこの調整を実施している時間Twを導出する。   The calculation of the parameter F1 based on the degree of white balance adjustment is performed as follows, for example. The digital signal processing unit 108 calculates a color temperature from digital image data temporarily stored in the main memory 201 by various known methods, and adjusts the white balance of the digital image data according to the calculated color temperature. The score calculation unit 301 derives a time Tw during which the digital signal processing unit 108 performs this adjustment.

Twが導出されると、スコア算出部301は、以下の数式1から、ホワイトバランスの調整度合いに基づくパラメータF1を算出する。なお、数式1及び後述する各数式におけるPTは、予め定められた時間(例えば、2秒)であり、中央制御部300のROMに予め記録されている値である。ユーザは、この値を操作部209を使って設定・変更することもできる。
F1=Tw/PT ・・・(数式1)
When Tw is derived, the score calculation unit 301 calculates a parameter F1 based on the degree of white balance adjustment from Equation 1 below. Note that PT in Formula 1 and each formula described below is a predetermined time (for example, 2 seconds), and is a value recorded in advance in the ROM of the central control unit 300. The user can also set / change this value using the operation unit 209.
F1 = Tw / PT (Formula 1)

以上により、撮像データの所定時間PTあたりのホワイトバランスの自動調整が行われた時間の割合が算出され、この割合が、その所定時間PTにおけるデジタル画像データ、すなわち撮像データのスコアを示すパラメータF1とされる。このF1は最終的に算出されるスコアにおいて、他のパラメータから減算されることになる。これによって調整の行われていない、より自然な色で撮像されている撮像データのスコアを高い値とすることができる。   As described above, the ratio of the time during which the white balance is automatically adjusted per predetermined time PT of the imaging data is calculated, and this ratio is the digital image data at the predetermined time PT, that is, the parameter F1 indicating the score of the imaging data. Is done. This F1 is subtracted from other parameters in the finally calculated score. As a result, the score of the imaging data that has not been adjusted and is captured in a more natural color can be set to a high value.

ズームの変更度合いに基づくパラメータF2の算出は、例えば以下のようにして行われる。ズームレンズ101の図示しないズームアクチュエータが駆動すると、スコア算出部は、その駆動時間Tzを導出する。   The calculation of the parameter F2 based on the zoom change degree is performed as follows, for example. When a zoom actuator (not shown) of the zoom lens 101 is driven, the score calculation unit derives the drive time Tz.

Tzが導出されると、スコア算出部301は、以下の数式2から、ズームの変更度合いに基づくパラメータF2を算出する。なお、数式2におけるPTは、上記数式1と同じ値が採用される。
F2=Tz/PT ・・・(数式2)
When Tz is derived, the score calculation unit 301 calculates a parameter F2 based on the zoom change degree from the following Equation 2. In addition, the same value as the said Numerical formula 1 is employ | adopted for PT in Numerical formula 2.
F2 = Tz / PT (Formula 2)

以上により、撮像データの所定時間PTあたりのズーム倍率の変更が行われた時間の割合が算出され、この割合が、その所定時間PTにおけるスコアを示すパラメータF2とされる。ズーム倍率が変更されている時間帯は、ユーザが被写体を望ましい倍率で捉え切れていない時間帯と考えられる。このF2が、最終的に算出されるスコアにおいて、他のパラメータから減算されることで、ズーム倍率が固定された、ユーザが被写体画像を意図する倍率に捉えた後の撮像データのスコアを高い値とすることができる。   As described above, the ratio of the time when the zoom magnification is changed per predetermined time PT of the imaging data is calculated, and this ratio is set as the parameter F2 indicating the score at the predetermined time PT. The time zone in which the zoom magnification is changed is considered to be a time zone in which the user cannot grasp the subject at a desired magnification. This F2 is subtracted from the other parameters in the finally calculated score, so that the zoom magnification is fixed, and the score of the imaging data after capturing the subject image at the magnification intended by the user is high. It can be.

パン又はチルトの度合いに基づくパラメータF3の算出は、例えば以下のようにして行われる。スコア算出部301は、角速度センサ217の出力等からユーザが撮像装置1をパン又はチルトしている時間Tpを導出する。   The calculation of the parameter F3 based on the degree of panning or tilting is performed as follows, for example. The score calculation unit 301 derives the time Tp during which the user pans or tilts the imaging device 1 from the output of the angular velocity sensor 217 or the like.

Tpが導出されると、スコア算出部301は、以下の数式3から、パン又はチルトの度合いに基づくパラメータF3を算出する。なお、数式3におけるPTは、上記数式1と同じ値が採用される。
F3=Tp/PT ・・・(数式3)
When Tp is derived, the score calculation unit 301 calculates a parameter F3 based on the degree of panning or tilting from Equation 3 below. It should be noted that the same value as that in Equation 1 is adopted as PT in Equation 3.
F3 = Tp / PT (Formula 3)

以上により、撮像データの所定の時間あたりのパン又はチルトが行われた時間の割合が算出され、この割合がスコアを示すパラメータF3とされる。パン又はチルトが行われている時間帯は、ユーザが被写体を完全に捉え切れていない時間帯とも考えられる。このF3が、最終的に算出されるスコアにおいて、他のパラメータから減算されることで、パン又はチルトが行われた後の、すなわちユーザが意図する被写体を捉えた後の撮像データのスコアを高い値とすることができる。   As described above, the ratio of the time when panning or tilting is performed per predetermined time of the imaging data is calculated, and this ratio is set as the parameter F3 indicating the score. The time zone in which panning or tilting is performed can also be considered as a time zone in which the user does not completely capture the subject. This F3 is subtracted from the other parameters in the finally calculated score, thereby increasing the score of the imaging data after panning or tilting, that is, after capturing the subject intended by the user. Can be a value.

顔検出に基づくパラメータF4の算出は、例えば以下のようにして行われる。
顔画像データ検出部401は、図3のステップS102でメインメモリ201に一時記憶された撮像データから、人物の顔画像データを検出する。例えば、顔画像データ検出部401は、顔全体の輪郭または目、口、鼻、耳等の顔の構成要素から特徴量を算出し、その特徴量に基づくテンプレートマッチングによって顔画像データを検出する。または、顔画像データ検出部401は、肌の色に近い領域を検出し、その領域を顔として検出してもよい。
The calculation of the parameter F4 based on the face detection is performed as follows, for example.
The face image data detection unit 401 detects human face image data from the imaging data temporarily stored in the main memory 201 in step S102 of FIG. For example, the face image data detection unit 401 calculates feature amounts from the contours of the entire face or face components such as eyes, mouth, nose, and ears, and detects face image data by template matching based on the feature amounts. Or the face image data detection part 401 may detect the area | region close | similar to the color of skin, and may detect the area | region as a face.

顔画像データが検出されると、スコア算出部301は、顔画像データ検出部401が顔画像データを検出している時間Tfを算出し、以下の数式4から、顔検出に基づくパラメータF4を算出する。なお、PTは数式1と同じ値が採用される。
F4=Tf/PT ・・・(数式4)
When the face image data is detected, the score calculation unit 301 calculates a time Tf during which the face image data detection unit 401 detects the face image data, and calculates a parameter F4 based on the face detection from Equation 4 below. To do. In addition, the same value as Formula 1 is employ | adopted for PT.
F4 = Tf / PT (Formula 4)

以上により、撮像データの所定時間PTあたりの顔画像データの検出されている時間の割合が算出され、この割合がスコアを示すパラメータF4とされる。動画像の撮像では、被写体として人物を撮像することが多いと考えられる。このF4が、最終的に算出されるスコアにおいて、他のパラメータに加算されることになり、ユーザが被写体となる人物を捉えている撮像データのスコアを高い値とすることができる。   As described above, the ratio of the detected time of the face image data per predetermined time PT of the imaging data is calculated, and this ratio is set as the parameter F4 indicating the score. In capturing moving images, it is considered that a person is often imaged as a subject. This F4 is added to other parameters in the finally calculated score, and the score of the imaging data in which the user captures the person who is the subject can be set to a high value.

撮像画像中の顔画像のサイズに基づくパラメータF5の算出は、例えば以下のようにして行われる。顔画像データ検出部401が上述のようにして、撮像データから被写体となる人物の顔画像データを検出すると、スコア算出部301は、検出されている顔画像データに係る画像のサイズ(面積)が、撮像画像データに係る画像全体のサイズ(面積)に占める割合を算出し、この算出された割合が所定の範囲内(例えば、30%〜70%)にある時間Tsを算出する。顔画像のサイズは、既知の方法に基づき、顔画像の領域面積を特定することで行われる。   Calculation of the parameter F5 based on the size of the face image in the captured image is performed as follows, for example. When the face image data detection unit 401 detects the face image data of the person who is the subject from the imaging data as described above, the score calculation unit 301 determines that the size (area) of the image related to the detected face image data is Then, a ratio of the entire image size (area) related to the captured image data is calculated, and a time Ts in which the calculated ratio is within a predetermined range (for example, 30% to 70%) is calculated. The size of the face image is determined by specifying the area of the face image based on a known method.

そして、スコア算出部301は、以下の数式5から、撮像画像中の顔画像のサイズに基づくパラメータF5を算出する。なお、PTは数式1と同じ値が採用される。
F5=Ts/PT ・・・(数式5)
And the score calculation part 301 calculates the parameter F5 based on the size of the face image in a captured image from the following Numerical formula 5. In addition, the same value as Formula 1 is employ | adopted for PT.
F5 = Ts / PT (Formula 5)

以上により、撮像データの所定時間PTあたりにおける、検出されている顔画像のサイズが、撮像画像全体のサイズに占める割合が所定の範囲となっている時間の割合が算出され、この割合がスコアを示すパラメータF5とされる。動画像データの撮像では人物を撮像することが多いと考えられるが、さらに被写体を小さすぎず、また大きすぎず撮像できている場合は、撮像が上手く行われていると考えられる。このF5が、最終的に算出されるスコアにおいて、他のパラメータに加算されることになり、ユーザが被写体となる人物を上手く捉えている撮像データのスコアを高い値とすることができる。   As described above, the ratio of the time during which the size of the detected face image in the predetermined time PT of the imaging data occupies the size of the entire captured image is within the predetermined range is calculated, and this ratio is the score. Parameter F5 is shown. In capturing moving image data, it is considered that a person is often imaged. However, if the subject is captured without being too small or too large, it is considered that the image is captured well. This F5 is added to other parameters in the finally calculated score, so that the score of the imaging data in which the user well captures the person who is the subject can be set to a high value.

顔認識の結果に基づくパラメータF6の算出は、例えば以下のようにして行われる。顔画像データ検出部401が上述のようにして、撮像データから被写体となる人物の顔画像データを検出すると、顔画像データ認識部402は検出された顔画像データと、顔画像データ登録部403に予め登録された顔画像データと照合する。そして、顔画像データ認識部402は、検出された顔画像データと、顔画像データ登録部403に予め登録された顔画像データとが所定の類似度の範囲におさまる場合は、検出された顔画像データは、予め登録された人物のものであると認識する。スコア算出部301は、顔画像データ認識部403がこの認識を行っている時間Trを算出する。   Calculation of the parameter F6 based on the result of face recognition is performed as follows, for example. When the face image data detection unit 401 detects the face image data of the person who is the subject from the imaging data as described above, the face image data recognition unit 402 stores the detected face image data and the face image data registration unit 403. It collates with face image data registered in advance. The face image data recognition unit 402 then detects the detected face image when the detected face image data and the face image data registered in advance in the face image data registration unit 403 fall within a predetermined similarity range. It is recognized that the data is that of a person registered in advance. The score calculation unit 301 calculates a time Tr during which the face image data recognition unit 403 performs this recognition.

そして、スコア算出部301は、以下の数式6から、顔認識の結果に基づくパラメータF6を算出する。なお、数式6におけるPTは、上記数式1と同じ値が採用される。
F6=Tr/PT ・・・(数式6)
And the score calculation part 301 calculates the parameter F6 based on the result of face recognition from the following Numerical formula 6. It should be noted that the same value as that in Equation 1 is adopted as PT in Equation 6.
F6 = Tr / PT (Formula 6)

以上により、撮像データの所定時間PTあたりにおける、予め顔画像データが登録された人物の顔画像データが検出されている時間の割合が算出され、この割合がスコア示すパラメータF6とされる。予め顔画像データが登録されているような人物は、ユーザにとって重要な被写体である可能性が高いと考えられる。このF6が、最終的に算出されるスコアにおいて、他のパラメータに加算されることになり、ユーザが重要な被写体となる人物を捉えている撮像データのスコアを高い値とすることができる。   As described above, the ratio of the time when the face image data of the person whose face image data is registered in advance is detected per predetermined time PT of the imaging data is calculated, and this ratio is set as the parameter F6 indicating the score. It is considered that a person whose face image data is registered in advance is likely to be an important subject for the user. This F6 is added to other parameters in the finally calculated score, and the score of the imaging data in which the user captures a person who is an important subject can be set to a high value.

手ぶれ補正に基づくパラメータF7の算出は、例えば以下のようにして行われる。中央制御部300は、角速度センサ217の出力に応じて、いわゆる手ぶれ補正を、既知の方法により実施する。スコア算出部405は、中央制御部300が所定の度合いよりも大きく手ぶれ補正を実施している時間Tmを算出し、以下の数式7から、手ぶれ補正に基づくパラメータF7を算出する。なお、数式7におけるPTは、上記数式1と同じ値が採用される。
F7=Tm/PT ・・・(数式7)
The calculation of the parameter F7 based on the camera shake correction is performed as follows, for example. The central control unit 300 performs so-called camera shake correction by a known method in accordance with the output of the angular velocity sensor 217. The score calculation unit 405 calculates a time Tm during which the central control unit 300 performs the camera shake correction larger than a predetermined degree, and calculates a parameter F7 based on the camera shake correction from Equation 7 below. It should be noted that the same value as that in Equation 1 is adopted as PT in Equation 7.
F7 = Tm / PT (Expression 7)

以上により、撮像データの所定時間PTあたりの手ぶれ補正が行われた時間の割合が算出され、この割合がスコアを示すパラメータF7とされる。手ぶれ補正が所定の度合いよりも大きく行われている時間は、ユーザが大きく手ぶれをおこし、撮像自体は上手く行えていない可能性がある。このF7が、最終的に算出されるスコアにおいて、他のパラメータから減算されることになり、手ぶれが比較的少ない、上手く撮像された撮像データのスコアを高い値とすることができる。   As described above, the ratio of the time when the camera shake correction is performed per predetermined time PT of the imaging data is calculated, and this ratio is set as the parameter F7 indicating the score. During the time when camera shake correction is performed greater than a predetermined degree, there is a possibility that the user shakes greatly and imaging itself is not performed well. This F7 is subtracted from the other parameters in the finally calculated score, and the score of well-captured imaging data with relatively little camera shake can be set to a high value.

スコア算出部301は、上述のようにして、ホワイトバランスの調整度合いに基づくパラメータF1、ズームの変更度合いに基づくパラメータF2、パン及びチルトの度合いに基づくパラメータF3、顔検出の結果に基づくパラメータF4、撮像画像中の顔画像のサイズに基づくパラメータF5、顔認識の結果に基づくパラメータF6、及び手ぶれ補正に基づくパラメータF7を算出し、以下の数式8により、各パラメータを加算し、スコアPを算出する。
P=−n1F1−n2F2−n3F3+n4F4+n5F5+n6F6−n7F7
・・・(数式8)
As described above, the score calculation unit 301 includes the parameter F1 based on the white balance adjustment degree, the parameter F2 based on the zoom change degree, the parameter F3 based on the pan and tilt degree, the parameter F4 based on the face detection result, A parameter F5 based on the size of the face image in the captured image, a parameter F6 based on the result of face recognition, and a parameter F7 based on the camera shake correction are calculated, and each parameter is added by the following Equation 8 to calculate the score P. .
P = -n1F1-n2F2-n3F3 + n4F4 + n5F5 + n6F6-n7F7
... (Formula 8)

ここで、n1からn7までの各nx(x=1〜7)は、各パラメータの重み付けのための係数であり、各係数は中央制御部300のROMに予め記憶されている。またユーザが、各係数を、操作部209を用いて設定することができる。また、全てのパラメータを使用するのではなく、ユーザが事前に選択した一部のパラメータのみを使用するようにしてもよい。なお、ここではnxは全てゼロ以上の整数である。   Here, each nx from n1 to n7 (x = 1 to 7) is a coefficient for weighting each parameter, and each coefficient is stored in advance in the ROM of the central control unit 300. The user can set each coefficient using the operation unit 209. Further, not all parameters may be used, but only some parameters selected in advance by the user may be used. Here, nx is an integer greater than or equal to zero.

また、n1からn7までの各nxの値や関係は、中央制御部300のROMが記憶している各種撮像モードに応じて、予め設定されていてもよい。例えば、運動会等を撮像するスポーツモードでは、激しく動く特定の人物を、他の人物の中から判別して撮像を行う必要がある。そこで、顔検出の結果に基づくパラメータF4の重み付け係数n4、及び顔認識の結果に基づくパラメータF6の重み付け係数n6を他のパラメータの重み付け係数より大きくするとともに、被写体を追従した撮像が必要になることから、パンやチルトが激しく行われることを想定し、パン及びチルトの度合いに基づくパラメータF3の重み付け係数n3をゼロにする等のアレンジ設定が考えられる。   In addition, the value and relationship of each nx from n1 to n7 may be set in advance according to various imaging modes stored in the ROM of the central control unit 300. For example, in a sports mode that captures an athletic meet or the like, it is necessary to perform imaging by identifying a specific person who moves violently from other persons. Therefore, the weighting coefficient n4 of the parameter F4 based on the result of face detection and the weighting coefficient n6 of the parameter F6 based on the result of face recognition are made larger than the weighting coefficients of other parameters, and imaging that tracks the subject is required. Therefore, assuming that panning and tilting are performed violently, arrangement setting such as setting the weighting coefficient n3 of the parameter F3 based on the degree of panning and tilting to zero can be considered.

また、暗い環境で撮像が行われる夜景モードでは、撮像素子104のシャッタスピードが落ちることから、手ぶれが起こりやすくなる。そこで、手ぶれ補正に基づくパラメータF7の重み付け係数n7を他のパラメータの重み付け係数よりも大きくする等の様々なアレンジ設定が考えられる。   Further, in the night view mode in which imaging is performed in a dark environment, the shutter speed of the image sensor 104 is reduced, so that camera shake is likely to occur. Therefore, various arrangement settings such as making the weighting coefficient n7 of the parameter F7 based on the camera shake correction larger than the weighting coefficients of the other parameters can be considered.

図3に戻り、ステップS103でスコアが算出されると、取得された撮像データと算出され全所定期間のスコアとが、関連付けられてメインメモリ201や記録メディア212に記録される(ステップS104)。この時、例えば、中央制御部300は、時計215が導出する時刻情報を利用して撮像データと算出された各所定期間のスコアのタイムスタンプを共通にする関連付けを行う。   Returning to FIG. 3, when the score is calculated in step S103, the acquired imaging data and the calculated score for all the predetermined periods are associated and recorded in the main memory 201 or the recording medium 212 (step S104). At this time, for example, the central control unit 300 uses the time information derived by the clock 215 to associate the imaging data with the calculated time stamp of the score for each predetermined period.

ユーザが操作部209の図示しない録画ボタンを再度押下すると(ステップS105でYES)、撮像の終了とともに、スコアの算出の処理を終了する。ユーザが操作部209の図示しない録画ボタンを再度押下せず、撮像を継続した場合は(ステップS105でNO)、ステップS102に戻り、撮像と当該算出処理が継続される。   When the user presses a recording button (not shown) of the operation unit 209 again (YES in step S105), the score calculation process is ended along with the end of imaging. If the user does not press the recording button (not shown) of the operation unit 209 again and continues imaging (NO in step S105), the process returns to step S102, and imaging and the calculation process are continued.

なお上述した例では、スコア算出部301によるスコアの算出は、撮像データの生成と略同じタイミングで実施された。一方で、スコア算出部301は、既に生成され記録メディア212に記録されてしまっている撮像データのスコアを算出することもできる。例えば、上述したパラメータだけを撮像データの生成時に算出し、後述するリクエスト情報が通信端末2から受信されたタイミングでスコアが算出されてもよい。また、撮像時以外にも導出可能なパラメータのみを使用して、外部機器等から取得された動画像データのスコアを算出することもできる。   In the above-described example, the score calculation by the score calculation unit 301 is performed at substantially the same timing as the generation of the imaging data. On the other hand, the score calculation unit 301 can also calculate the score of imaging data that has already been generated and recorded in the recording medium 212. For example, only the parameters described above may be calculated at the time of generating the imaging data, and the score may be calculated at the timing when request information described later is received from the communication terminal 2. It is also possible to calculate the score of moving image data acquired from an external device or the like using only parameters that can be derived other than during imaging.

以上のようにして、スコア算出部301は、撮像データ(動画像データ)に対し、所定時間毎のスコアを算出する。算出されたスコアは、分割された動画像データから代表画像データが特定され、代表画像情報が生成される際に利用される。次に、図2に戻り、中央制御部300の動画像データ分割部302等について順に説明する。   As described above, the score calculation unit 301 calculates a score for each predetermined time for the imaging data (moving image data). The calculated score is used when representative image data is specified from the divided moving image data and representative image information is generated. Next, returning to FIG. 2, the moving image data dividing unit 302 and the like of the central control unit 300 will be described in order.

動画像データ分割部302は、記録メディア212に記録されている一つの動画像データを複数の部分に分割する。以下では、この一つの動画像データが分割されて生じる部分的な動画像データを、「分割動画像データ」とよぶ。そして、動画像データ分割部302は、各分割動画像データの位置を示す情報である「分割位置情報」を生成する。分割位置情報は、時計215の出力する時刻情報が参照されて、分割前の動画像データ全体における各分割動画像データの開始及び終了時点に基づいて生成される。また、分割位置情報は、各分割動画像データの開始点及び終了点のそれぞれに対応する、各ピクチャデータの位置を示す情報等に基づいて生成されてもよい。   The moving image data dividing unit 302 divides one moving image data recorded on the recording medium 212 into a plurality of parts. Hereinafter, partial moving image data generated by dividing one piece of moving image data is referred to as “divided moving image data”. Then, the moving image data dividing unit 302 generates “divided position information” that is information indicating the position of each divided moving image data. The division position information is generated based on the start and end points of each piece of divided moving image data in the whole moving image data before division with reference to time information output from the clock 215. Further, the division position information may be generated based on information indicating the position of each picture data corresponding to the start point and the end point of each divided moving image data.

動画像データ分割部302は、一つの動画像データを、予め設定された個数に分割したり、予め設定ざれた時間毎に分割したりすることができる。これらの設定には、中央制御部300のROMに予め記憶されている情報を使用したり、操作部209を介して行われたユーザ入力の内容を使用したりすることができる。   The moving image data dividing unit 302 can divide a piece of moving image data into a preset number or can be divided every preset time. For these settings, information stored in advance in the ROM of the central control unit 300 can be used, or the contents of the user input made via the operation unit 209 can be used.

代表画像データ特定部303は、スコア算出部301が算出したスコアに基づき、動画像データ分割部301の分割によって生じた各分割動画像データのそれぞれから、最も高いスコアを有する所定時間に属する所定の画像単位データを代表画像データとして特定する。例えば代表画像データ特定部303は、最も高いスコアを有する所定時間に属する各ピクチャデータの中から、先頭に位置するIピクチャデータを、代表画像データとして特定する。   Based on the score calculated by the score calculation unit 301, the representative image data specifying unit 303 selects a predetermined time belonging to a predetermined time having the highest score from each of the divided moving image data generated by the division of the moving image data dividing unit 301. The image unit data is specified as representative image data. For example, the representative image data specifying unit 303 specifies the I picture data located at the head as representative image data from among the pieces of picture data belonging to a predetermined time having the highest score.

代表画像情報生成部304は、代表画像データ特定部303が特定した代表画像データとなるピクチャデータについて、分割される前の動画像データ中の位置を示す情報、及びピクチャデータに係る画像が描画されるために必要なデータを、代表画像情報として生成する。生成された代表画像情報は、無線モジュール214等を介して、通信端末2等に送信されることになる。   The representative image information generation unit 304 draws information indicating the position in the moving image data before being divided and the image related to the picture data for the picture data to be the representative image data specified by the representative image data specifying unit 303. Data necessary for this is generated as representative image information. The generated representative image information is transmitted to the communication terminal 2 or the like via the wireless module 214 or the like.

動画像データ抽出部305は、通信端末2又は3から送信された選択情報(詳細は後述する。)に基づき、動画像データの一部を抽出する。以下、この抽出される一部の動画像データを「抽出動画像データ」とよぶ。抽出された抽出動画像データは、無線モジュール214等を介して、通信端末2等に送信されることになる。   The moving image data extraction unit 305 extracts a part of moving image data based on selection information (details will be described later) transmitted from the communication terminal 2 or 3. Hereinafter, this part of the extracted moving image data is referred to as “extracted moving image data”. The extracted extracted moving image data is transmitted to the communication terminal 2 or the like via the wireless module 214 or the like.

上述した動画像データ分割部302、代表画像データ特定部303、及び代表画像情報生成部304については、後述する<撮像装置1による分割位置情報及び代表静止画情報の生成>処理のなかでも詳細に説明する。また、動画像データ抽出部305については、同じく後述する<抽出動画像データの取得>処理のなかでも詳細に説明する。   The above-described moving image data dividing unit 302, representative image data specifying unit 303, and representative image information generating unit 304 will be described in detail in the <generation of division position information and representative still image information by the imaging device 1> process described later. explain. The moving image data extraction unit 305 will be described in detail in the <extracted moving image data acquisition> process, which will be described later.

(通信端末2の構成)
続いて、通信端末2または3の構成について説明する。なお、通信端末2及び3の本発明に関する構成は実質的に同じであるため、以降の説明では通信端末2の構成を説明し、通信端末3の構成についての説明は省略する。図4は通信端末2の概略的な内部構成を示すブロック図である。
(Configuration of communication terminal 2)
Next, the configuration of the communication terminal 2 or 3 will be described. In addition, since the structure regarding this invention of the communication terminals 2 and 3 is substantially the same, in the following description, the structure of the communication terminal 2 is demonstrated and description about the structure of the communication terminal 3 is abbreviate | omitted. FIG. 4 is a block diagram showing a schematic internal configuration of the communication terminal 2.

中央制御部600は、CPU、各種プログラムが格納されたROM、及びワークエリアとしてのRAM等を含む半導体集積回路から構成される。この中央制御部600は、通話、電子メールの送受信、ネットワークを介した各種データの送受信をはじめとして、各種アプリケーション・プログラムの処理を統括的に制御する。   The central control unit 600 includes a semiconductor integrated circuit including a CPU, a ROM storing various programs, a RAM as a work area, and the like. The central control unit 600 comprehensively controls processing of various application programs such as a call, transmission / reception of electronic mail, transmission / reception of various data via a network.

また中央制御部600は、後述する選択画像データの生成や選択情報の生成といった処理を行う。以下では先ず、この中央制御部300により制御される他の各部について述べた後、これらの中央制御部600による処理について説明する。   The central control unit 600 performs processing such as generation of selected image data and generation of selection information, which will be described later. In the following, first, the other units controlled by the central control unit 300 will be described, and then the processing by the central control unit 600 will be described.

メインメモリ501は、入出力端子509や無線モジュール513を介して受信された各種データや、各種のアプリケーション・プログラム等を記憶する。VRAM502は、画像処理部503が生成する各種メニュー画像データや、選択画像データ生成部601が生成した選択画像データをはじめとした、GUI(Graphical User Interface)に係る画像データを一次記憶する。   The main memory 501 stores various data received via the input / output terminal 509 and the wireless module 513, various application programs, and the like. The VRAM 502 primarily stores image data related to GUI (Graphical User Interface) including various menu image data generated by the image processing unit 503 and selected image data generated by the selected image data generating unit 601.

モニタ505、スピーカ506、操作部507、マイク508、及び入出力端子509は入出力I/F504に接続されている。以下に、各部について説明する。   A monitor 505, a speaker 506, an operation unit 507, a microphone 508, and an input / output terminal 509 are connected to the input / output I / F 504. Hereinafter, each part will be described.

モニタ505は、例えば液晶ディスプレイや有機EL(Electroluminescence)ディスプレイから構成されている。モニタ505は、画像処理部503が生成した各種GUIの画像データや、記録メディア511に記録された各種画像データに係る画像を表示する。モニタ505は、後述する選択画像の表示も行う。   The monitor 505 is composed of, for example, a liquid crystal display or an organic EL (Electroluminescence) display. The monitor 505 displays various GUI image data generated by the image processing unit 503 and images related to various image data recorded on the recording medium 511. The monitor 505 also displays a selected image described later.

スピーカ506は、記録メディア511等に記録された画像データに付随する音声や、音楽データに係る音楽を出力する。操作部507は、図示しない各種ボタン、操作キー、又はモニタ505上に重畳されたタッチパネル等から構成される。操作部507は、撮像装置1からのデータの受信指示や、後述する代表画像の選択指示等、ユーザの通信端末2への各種の操作入力、又は設定に関する入力等を受け付ける。   The speaker 506 outputs sound associated with image data recorded on the recording medium 511 or the like, or music related to music data. The operation unit 507 includes various buttons, operation keys, or a touch panel superimposed on the monitor 505. The operation unit 507 accepts various operation inputs to the user's communication terminal 2 such as an instruction to receive data from the imaging apparatus 1 and an instruction to select a representative image, which will be described later, or an input regarding settings.

マイク509を介して、通話時等のユーザの音声が入力される。入出力端子509は、図示しない外部機器、例えばテレビをはじめとしたディスプレイ装置やPC等との接続に使用される。この入出力端子509を介して、各種のデータが通信端末2と外部機器との間で入出力される。入出力端子509は、例えばHDMI(登録商標)端子やUSB端子等から構成される。   A user's voice during a call or the like is input via the microphone 509. The input / output terminal 509 is used for connection to an external device (not shown) such as a display device such as a television set, a PC, and the like. Various data are input / output between the communication terminal 2 and the external device via the input / output terminal 509. The input / output terminal 509 includes, for example, an HDMI (registered trademark) terminal, a USB terminal, or the like.

メインメモリ501に記録された抽出動画像データをはじめとした各種データは、メディアI/F510を介して記録メディア511に出力され、この記録メディア511に記録される。記録メディア511としては、通信端末2に着脱可能なSDメモリカード等が使用される。なお、SDメモリカードの替りに他の記録媒体を使用してもよい。また記録メディア212は、撮像装置1に内蔵されていても、着脱可能とされていてもよい。   Various data including the extracted moving image data recorded in the main memory 501 are output to the recording medium 511 via the medium I / F 510 and recorded on the recording medium 511. As the recording medium 511, an SD memory card that can be attached to and detached from the communication terminal 2 is used. Note that another recording medium may be used instead of the SD memory card. The recording medium 212 may be built in the imaging apparatus 1 or detachable.

無線モジュール513は、無線I/F512を介して外部機器との間で各種データを無線ネットワーク通信により送受信する。この無線ネットワーク通信には、例えばIEEE802.11シリーズを利用した方式が利用される。   The wireless module 513 transmits / receives various data to / from an external device via wireless I / F 512 by wireless network communication. For this wireless network communication, for example, a method using the IEEE802.11 series is used.

前述した通り、中央制御部600は、選択画像データの生成処理を行う選択画像データ生成部601、及び選択情報の生成処理を行う選択情報生成部602としても機能する。以下、各部について説明する。   As described above, the central control unit 600 also functions as a selection image data generation unit 601 that performs selection image data generation processing and a selection information generation unit 602 that performs selection information generation processing. Hereinafter, each part will be described.

撮像装置1の動画像データ分割部302が生成した分割位置情報、及び代表画像情報生成部304が生成した代表画像情報が、無線モジュール513を介して、通信端末2に受信される。選択画像データ生成部601は、受信された分割位置情報及び代表画像情報に基づいて、選択画像データを生成する。   The division position information generated by the moving image data division unit 302 of the imaging apparatus 1 and the representative image information generated by the representative image information generation unit 304 are received by the communication terminal 2 via the wireless module 513. The selected image data generation unit 601 generates selected image data based on the received division position information and representative image information.

詳細は後述するが、撮像装置1に記録された動画像データから抽出動画像データをユーザが取得するにあたり、モニタ505は、各分割動画像データの代表画像及び分割位置情報を示す画像、並びに取得される抽出動画像データの時間的長さを示す画像を含む選択画像を表示する。この選択画像は、選択画像データ生成部601が生成した選択画像データに基づいて生成される。   Although details will be described later, when the user obtains the extracted moving image data from the moving image data recorded in the imaging apparatus 1, the monitor 505 obtains a representative image and divided position information of each divided moving image data, and obtains the image. A selected image including an image indicating the time length of the extracted moving image data is displayed. The selected image is generated based on the selected image data generated by the selected image data generation unit 601.

ユーザが、選択画像に含まれる複数の代表画像の中から任意の代表画像を選択し、抽出動画像データの長さ(再生時間)を指定すると、選択情報生成部602が、それらの選択及び指定に基づき、選択情報を生成する。生成された選択情報は、無線モジュール513を介して撮像装置1に送信される。撮像装置1は、受信した選択情報に基づき、動画像データから抽出動画像データを生成(抽出)する。なお、上述の選択及び指定の入力は、操作部507のタッチパネルのタッチに基づいて行われる。   When the user selects an arbitrary representative image from a plurality of representative images included in the selected image and designates the length (reproduction time) of the extracted moving image data, the selection information generation unit 602 selects and designates them. Based on the above, selection information is generated. The generated selection information is transmitted to the imaging apparatus 1 via the wireless module 513. The imaging apparatus 1 generates (extracts) extracted moving image data from moving image data based on the received selection information. Note that the selection and designation input described above is performed based on a touch on the touch panel of the operation unit 507.

<撮像装置1による分割位置情報及び代表静止画情報の生成>
続いて、撮像装置1による分割位置情報及び代表画像情報の生成処理(方法)について説明する。図5は、この処理を説明するためのフローチャートである。
<Generation of Division Position Information and Representative Still Image Information by Imaging Device 1>
Subsequently, a generation process (method) of division position information and representative image information by the imaging apparatus 1 will be described. FIG. 5 is a flowchart for explaining this process.

まず動画像データ分割部302が、記録メディア212に記録された一つの動画像データ(撮像データ)を、複数の分割動画像データに分割する(ステップS201)。一つの動画像データを、どのように分割するかは、中央制御部300のROMに予め記録されている設定を使用することができる。なお、この設定はユーザが適宜変更することができる。   First, the moving image data dividing unit 302 divides one moving image data (imaging data) recorded on the recording medium 212 into a plurality of divided moving image data (step S201). The settings recorded in advance in the ROM of the central control unit 300 can be used as how to divide one moving image data. This setting can be changed by the user as appropriate.

図6は、動画像データ分割部302による動画像データの分割について説明するための模式図である。ユーザが操作部209の図示しない録画ボタンを押下して撮像を開始し、録画ボタンを再度押下して撮像を終了すると、一つの動画像データが生成され、記録メディア212に記録される。図6では、時間T00から撮像を開始し、時間T05に撮像を終了した動画像データMD100が生成され記録された動画像データである。   FIG. 6 is a schematic diagram for explaining the division of moving image data by the moving image data dividing unit 302. When the user presses a recording button (not shown) on the operation unit 209 to start imaging, and the recording button is pressed again to finish imaging, one moving image data is generated and recorded on the recording medium 212. In FIG. 6, the moving image data MD100 that has been picked up at time T00 and has been picked up at time T05 is generated and recorded.

ここでは、再生時間が等しい計5つの分割動画像データを生成するように、動画像データの分割に関する設定が行われていた場合を例示する。動画像データ分割部301は、動画像データMD100を、時間T00〜T01までの分割動画像データMD101、時間T01〜T02までの分割動画像データMD102、時間T02〜T03までの分割動画像データMD103、時間T03〜T04までの分割動画像データMD104、及び時間T04〜T05までの分割動画像データMD105の、合計5つの分割動画像データに分割する。   Here, a case where settings relating to division of moving image data are performed so as to generate a total of five divided moving image data having the same reproduction time will be exemplified. The moving image data dividing unit 301 converts the moving image data MD100 into divided moving image data MD101 from time T00 to T01, divided moving image data MD102 from time T01 to T02, divided moving image data MD103 from time T02 to T03, The divided moving image data MD104 from time T03 to T04 and the divided moving image data MD105 from time T04 to T05 are divided into a total of five divided moving image data.

図6の例では、分割動画像データMD101、MD102、MD103、MD104、及びMD105は、それぞれ同じ撮像時間(再生時間)となるように、動画像データ分割部301が、動画像データMD100を分割している。   In the example of FIG. 6, the moving image data dividing unit 301 divides the moving image data MD100 so that the divided moving image data MD101, MD102, MD103, MD104, and MD105 have the same imaging time (reproduction time). ing.

図5に戻り、ステップS201で動画像データが分割されると、動画像データ分割部301は、各分割動画像データの開始位置及び終了位置を示す分割位置情報を生成する(ステップS202)。この分割位置情報の生成は、時計215の出力する時刻情報が参照され、各分割動画像データの開始時間及び終了時間に基づいて行われる。すなわち例えば、図5の模式図では、分割動画像データMD101の分割位置情報は、開始時間T00及び終了時間T01を示す情報となる。   Returning to FIG. 5, when the moving image data is divided in step S201, the moving image data dividing unit 301 generates division position information indicating the start position and the end position of each divided moving image data (step S202). The division position information is generated by referring to the time information output from the clock 215 and based on the start time and end time of each divided moving image data. That is, for example, in the schematic diagram of FIG. 5, the division position information of the divided moving image data MD101 is information indicating the start time T00 and the end time T01.

また、この分割位置情報は、分割される動画像データ中における、各分割動画像データの開始時間及び終了時間に対応する、各ピクチャデータの位置を示す情報に基づいて生成されてもよい。この場合は例えば、図5の模式図では、分割動画像データMD101の分割位置情報は、開始時間T00及び終了時間T01のそれぞれに対応するピクチャデータの位置情報に基づいて生成されることとなる。   Further, the division position information may be generated based on information indicating the position of each picture data corresponding to the start time and end time of each divided moving image data in the divided moving image data. In this case, for example, in the schematic diagram of FIG. 5, the division position information of the divided moving image data MD101 is generated based on the position information of the picture data corresponding to the start time T00 and the end time T01.

ステップS202で動画像データ分割部301が分割位置情報を生成すると、スコア算出部301が、動画像データのスコアを導出する(ステップS203)。上述した通り、スコア算出部301が撮像データの生成時に算出したスコアは、メインメモリ201等に記録されている。スコア算出部301は、この記録されたスコアを呼び出して、スコアを導出する。あるいは上述した各パラメータのみが記録さており、スコア算出部301が、このステップS203の段階で各パラメータの加算等を行い、スコアの導出を行ってもよい。   When the moving image data division unit 301 generates division position information in step S202, the score calculation unit 301 derives the score of the moving image data (step S203). As described above, the score calculated by the score calculation unit 301 when generating the imaging data is recorded in the main memory 201 or the like. The score calculation unit 301 calls the recorded score to derive a score. Alternatively, only the above-described parameters may be recorded, and the score calculation unit 301 may perform the derivation of the score by adding each parameter in the step S203.

ステップS203でスコア算出部301がスコアを導出すると、代表画像データ特定部303が、導出されたスコアに基づいて、各分割画像データから代表静止画データを特定する(ステップS204)。例えば代表画像データ特定部303は、最も高いスコアを有する所定時間に属する各ピクチャデータの中から、先頭に位置するIピクチャデータを、代表画像データとして特定する。   When the score calculation unit 301 derives a score in step S203, the representative image data specifying unit 303 specifies representative still image data from each divided image data based on the derived score (step S204). For example, the representative image data specifying unit 303 specifies the I picture data located at the head as representative image data from among the pieces of picture data belonging to a predetermined time having the highest score.

図7は、代表画像データ特定部303による代表画像データを特定する処理について説明するための模式図である。上述した通り、スコア算出部301が、動画像データMD100について、所定時間毎にスコアを算出する。図7(a)では、分割動画像データMD101において、時間t11a〜t11bの時間帯が最も高いスコアを有する時間帯であることを例示している。代表画像データ特定部303は、この時間t11a〜t11bの時間帯に属するピクチャデータから、先頭のIピクチャPD11aに係るデータを、代表画像データとして特定している。なお、このIピクチャPD11aに係るデータは、時間t11の時点に位置している。   FIG. 7 is a schematic diagram for explaining processing for specifying representative image data by the representative image data specifying unit 303. As described above, the score calculation unit 301 calculates a score for each moving image data MD100 every predetermined time. FIG. 7A illustrates that in the divided moving image data MD101, the time period from time t11a to time t11b is a time period having the highest score. The representative image data specifying unit 303 specifies the data related to the leading I picture PD11a as representative image data from the picture data belonging to the time period t11a to t11b. Note that the data related to the I picture PD11a is located at the time t11.

図7(b)に示した通り、代表画像データ特定部303は、分割動画像データMD102からはIピクチャPD12a、分割動画像データMD103からはIピクチャPD13a、分割動画像データMD104からはIピクチャPD14a、及び分割動画像データMD105からはIピクチャPD15aを、代表画像データとして特定する。   As shown in FIG. 7B, the representative image data specifying unit 303 performs the I picture PD 12a from the divided moving image data MD102, the I picture PD 13a from the divided moving image data MD103, and the I picture PD 14a from the divided moving image data MD104. The I picture PD 15a is specified as representative image data from the divided moving image data MD105.

図5に戻り、ステップS204で代表画像データ特定部303が代表画像データを特定すると、代表画像情報生成部304が代表画像情報を生成する(ステップS205)。代表画像情報生成部304は、代表画像データ特定部303が特定した代表画像データとなるピクチャデータについて、分割される前の動画像データ中の位置を示す情報、及びピクチャデータに係る画像が描画されるために必要なデータを、代表画像情報として生成する。   Returning to FIG. 5, when the representative image data specifying unit 303 specifies the representative image data in step S204, the representative image information generating unit 304 generates representative image information (step S205). The representative image information generation unit 304 draws information indicating the position in the moving image data before being divided and the image related to the picture data for the picture data to be the representative image data specified by the representative image data specifying unit 303. Data necessary for this is generated as representative image information.

図7(b)の例では、代表画像情報生成部304は、分割動画像データMD101からは、IピクチャPD11aの位置を示す情報として時間t11を示す情報、及びIピクチャPD11aが描画されるために必要なデジタル画像データを、代表画像情報として生成する。同様に、分割動画像データMD102からは、IピクチャPD12aの位置を示す情報として時間t12を示す情報、及びIピクチャPD12aが描画されるために必要なデジタル画像データ、分割動画像データMD103からは、IピクチャPD13aの位置を示す情報として時間t13を示す情報、及びIピクチャPD13aが描画されるために必要なデジタル画像データ、分割動画像データMD104からは、IピクチャPD14aの位置を示す情報として時間t14を示す情報、及びIピクチャPD14aが描画されるために必要なデジタル画像データ、及び分割動画像データMD105からは、IピクチャPD15aの位置を示す情報として時間t15を示す情報、及びIピクチャPD15aが描画されるために必要なデジタル画像データ、がそれぞれ代表画像情報とされる。   In the example of FIG. 7B, the representative image information generation unit 304 draws information indicating the time t11 as information indicating the position of the I picture PD11a and the I picture PD11a from the divided moving image data MD101. Necessary digital image data is generated as representative image information. Similarly, from the divided moving image data MD102, information indicating the time t12 as information indicating the position of the I picture PD12a, digital image data necessary for rendering the I picture PD12a, and divided moving image data MD103, Information indicating the time t13 as information indicating the position of the I picture PD13a, and digital image data necessary for rendering the I picture PD13a and the divided moving image data MD104, as information indicating the position of the I picture PD14a, are indicated as time t14. From the digital image data necessary for rendering the I picture PD 14a and the divided moving image data MD105, the information indicating the time t15 as the information indicating the position of the I picture PD 15a, and the I picture PD 15a are rendered. Digital images required to be Data, but are respectively representative picture information.

図5に戻り、ステップS205で代表画像情報が生成されると、ステップS202で生成された分割位置情報、及び生成された代表画像情報が、それぞれメインメモリ201等に記録される(ステップS206)。   Returning to FIG. 5, when the representative image information is generated in step S205, the division position information generated in step S202 and the generated representative image information are recorded in the main memory 201 or the like (step S206).

以上の<撮像装置1による分割位置情報及び代表静止画情報の生成>処理は、撮像データが生成され記録メディア212に記録される際に実施されてもよいし、記録メディア212に記録された直後等のタイミングで実施されてもよい。また、通信端末2から、動画像データの送信処理を要求する情報を受信したタイミングで実施されてもよい。   The above processing <generation of division position information and representative still image information by the imaging apparatus 1> may be performed when imaging data is generated and recorded on the recording medium 212, or immediately after being recorded on the recording medium 212. It may be carried out at the same timing. Alternatively, it may be performed at the timing when information requesting the moving image data transmission process is received from the communication terminal 2.

<抽出動画像データの取得>
続いて、撮像装置1が記録している撮像データ(動画像データ)から所望する部分が抽出され、抽出された部分が通信端末2に取得されるまでの、システムSYS1で実施される一連の処理について説明する。この処理では、ユーザは通信端末2が表示する代表画像等を用いて、所望の部分を通信端末2に取得させることができる。図8は、この一連の処理を説明するためのフローチャートである。
<Acquisition of extracted moving image data>
Subsequently, a series of processes performed by the system SYS1 until a desired portion is extracted from the imaging data (moving image data) recorded by the imaging device 1 and the extracted portion is acquired by the communication terminal 2. Will be described. In this process, the user can cause the communication terminal 2 to acquire a desired portion using a representative image or the like displayed by the communication terminal 2. FIG. 8 is a flowchart for explaining this series of processing.

先ずユーザは、通信端末2において、撮像装置1から抽出動画像データを取得するための所定のアプリケーション・プログラムを起動させ、通信端末2と撮像装置1との間のネットワーク通信を確立する(ステップS301)。そして通信端末2は、撮像装置1に記録されている動画像データの所望の部分を通信端末2に送信する処理の開始を要求する旨の、開始リクエスト情報を生成し、撮像装置1に送信する(ステップS302)。この開始リクエスト情報は、通信端末2のモニタ505に表示された、アプリケーション・プログラムのGUIの所定のボタンをユーザがタッチ等することで生成され送信される。リクエスト情報は中央制御部600が生成し、無線モジュール513等から送信される。   First, the user activates a predetermined application program for acquiring the extracted moving image data from the imaging device 1 in the communication terminal 2, and establishes network communication between the communication terminal 2 and the imaging device 1 (step S301). ). Then, the communication terminal 2 generates start request information for requesting the start of processing for transmitting a desired portion of the moving image data recorded in the imaging device 1 to the communication terminal 2, and transmits the start request information to the imaging device 1. (Step S302). This start request information is generated and transmitted when the user touches a predetermined button of the GUI of the application program displayed on the monitor 505 of the communication terminal 2. The request information is generated by the central control unit 600 and transmitted from the wireless module 513 or the like.

撮像装置1が、開始リクエスト情報を受信すると、中央制御部300が導出した動画像データの生成日時(撮像日時)を示す情報及び動画像データの再生時間を示す情報、並びに画像処理部204が生成した動画像データのサムネイル画像データを含む、リスト情報が生成される(ステップS302)。リスト情報は、記録メディア212に記録された動画像データ毎に生成される。   When the imaging device 1 receives the start request information, the information indicating the generation date and time (imaging date and time) of the moving image data derived by the central control unit 300, the information indicating the reproduction time of the moving image data, and the image processing unit 204 generate List information including thumbnail image data of the moving image data is generated (step S302). The list information is generated for each moving image data recorded on the recording medium 212.

動画像データの生成日時(撮像日時)を示す情報及び動画像データの再生時間を示す情報は、動画像データの所定の領域に格納されたものが読み出されることで導出されてもよいし、中央制御部300が算出して導出してもよい。そして、代表画像情報生成部304が代表画像情報を生成する際に生成された、各分割動画像データの代表画像データのなかから、最もスコアの高いものが、サムネイル画像データとなる。   The information indicating the generation date and time (imaging date and time) of the moving image data and the information indicating the reproduction time of the moving image data may be derived by reading out data stored in a predetermined area of the moving image data, The controller 300 may calculate and derive it. Then, among the representative image data of each divided moving image data generated when the representative image information generation unit 304 generates the representative image information, the one with the highest score is the thumbnail image data.

ステップS302で生成された、撮像データ毎の各リスト情報が、無線モジュール214から送信され、通信端末2がそれらを受信すると、通信端末2のモニタ505は、受信した各リスト情報に基づきリスト画像を表示する(ステップS304)。画像処理部503が、受信されたリスト情報を統合し、リスト画像に係る画像データを生成する。そして、その画像データに基づくリスト画像が、モニタ505に表示されることになる。図9は、表示されるリスト画像の模式図である。   Each list information for each imaging data generated in step S302 is transmitted from the wireless module 214, and when the communication terminal 2 receives them, the monitor 505 of the communication terminal 2 displays a list image based on the received list information. It is displayed (step S304). The image processing unit 503 integrates the received list information and generates image data related to the list image. Then, a list image based on the image data is displayed on the monitor 505. FIG. 9 is a schematic diagram of a displayed list image.

リスト画像は、動画像データ毎に、サムネイル画像、生成日時(撮像日時)を示す画像、及び再生時間を示す画像からなる。図9の例では、撮像装置1の記録メディア212に、動画像データMD100、MD200、MD300、MD400、MD500、及びMD600が記録されており、それぞれに対応するリスト情報から生成された画像が表示されている。リスト画像L90は、動画像データMD100〜MD600のそれぞれに対応する、サムネイル画像PD10b〜PD60b、撮像日時を示す画像TD10b〜TD60b、及び再生時間を示す画像DD10b〜DD60bから構成されている。   The list image is composed of a thumbnail image, an image indicating the generation date / time (imaging date / time), and an image indicating the reproduction time for each moving image data. In the example of FIG. 9, moving image data MD100, MD200, MD300, MD400, MD500, and MD600 are recorded on the recording medium 212 of the imaging apparatus 1, and images generated from the corresponding list information are displayed. ing. The list image L90 includes thumbnail images PD10b to PD60b, images TD10b to TD60b indicating the shooting date and time, and images DD10b to DD60b indicating the reproduction time corresponding to the moving image data MD100 to MD600, respectively.

図8に戻り、ユーザが、リスト画像に表示された複数の動画像データのなかから、所望の動画像データを選択すると、その所望の動画像データの情報を要求する旨のリクエスト情報が生成され、撮像装置1に送信される(ステップS305)。このリクエスト情報は、リスト画像において、所望の動画像データに関する各画像が表示されている領域をユーザがタッチ等することで生成される。リクエスト情報は、中央制御部600が生成し、無線モジュール513を介して撮像装置1に送信される。   Returning to FIG. 8, when the user selects desired moving image data from among the plurality of moving image data displayed in the list image, request information for requesting information on the desired moving image data is generated. Are transmitted to the imaging apparatus 1 (step S305). This request information is generated when the user touches an area where each image related to desired moving image data is displayed in the list image. The request information is generated by the central control unit 600 and transmitted to the imaging apparatus 1 via the wireless module 513.

撮像装置1が、リクエスト情報を受信すると、対象となる動画像データについて、動画像データ分割部302が生成した分割位置情報、及び代表画像情報生成部304が生成した代表画像情報が導出される(ステップS306)。中央制御部300が、メインメモリ201等に記録された分割位置情報及び代表画像情報を呼び出すことで、これらの導出が行われる。   When the imaging apparatus 1 receives the request information, for the target moving image data, the division position information generated by the moving image data dividing unit 302 and the representative image information generated by the representative image information generating unit 304 are derived ( Step S306). The central control unit 300 calls the division position information and the representative image information recorded in the main memory 201 or the like, so that these are derived.

一方で、この情報リクエスト情報が受信されたタイミングで、分割位置情報及び代表画像情報が生成されるようにしてもよい。この場合は、ステップS303等で生成等されたサムネイル画像データは、対応する動画像データの先頭のIピクチャデータ等を使用する。   On the other hand, the division position information and the representative image information may be generated at the timing when the information request information is received. In this case, the thumbnail image data generated in step S303 or the like uses the first I picture data of the corresponding moving image data.

ステップS306で生成された分割位置情報及び代表画像情報が無線モジュール214から送信され、通信端末2がそれらを受信すると、選択画像データ生成部601は、受信された各情報に基づき、選択画像データを生成する(ステップS307)。そしてモニタ505は、生成された選択画像データに基づき、選択画像を表示する(ステップS308)。図10は、モニタ505に表示される選択画像の例を示す模式図であり、以下に、この模式図を参照して選択画像について説明する。   When the division position information and the representative image information generated in step S306 are transmitted from the wireless module 214 and the communication terminal 2 receives them, the selected image data generation unit 601 selects the selected image data based on each received information. Generate (step S307). The monitor 505 displays the selected image based on the generated selected image data (step S308). FIG. 10 is a schematic diagram illustrating an example of a selected image displayed on the monitor 505. Hereinafter, the selected image will be described with reference to the schematic diagram.

図10の模式図に示した選択画像SG10は、大別して6つの画像から構成されている。すなわち、対象となる動画像データ(撮像データ)の生成日時(撮像日時)を示す画像TG1、対象となる動画像データの先頭画像PD10c及び代表画像PD11c〜PD15c、各分割画像データの開始時点を示す画像TG10〜TG15、サムネイル画像PD10c又は各代表画像PD11c〜PD15cの位置する時点を示す画像TG16、LG10、及びIG10、抽出される抽出動画像データの長さを示す画像TG17、及び抽出を要求するボタン画像TF10から、選択画像SG10は構成される。   The selection image SG10 shown in the schematic diagram of FIG. 10 is roughly composed of six images. That is, the image TG1 indicating the generation date (imaging date) of the target moving image data (imaging data), the head image PD10c and the representative images PD11c to PD15c of the target moving image data, and the start time of each divided image data are indicated. Images TG10, TG15, thumbnail images PD10c, or images TG16, LG10, and IG10 that indicate the positions of the representative images PD11c to PD15c, an image TG17 that indicates the length of the extracted moving image data to be extracted, and a button that requests extraction The selected image SG10 is composed of the image TF10.

対象となる撮像データ(動画像データ)の生成日時(撮像日時)を示す画像は、ステップS304の際に通信端末4が受信した情報が利用される。または、ステップS307で、撮像装置1が、分割位置情報等と併せて送信したものが使用されるようにしてもよい。   Information received by the communication terminal 4 at the time of step S304 is used for an image indicating the generation date (imaging date) of target imaging data (moving image data). Or what was transmitted together with division position information etc. by imaging device 1 at Step S307 may be used.

次に、対象となる動画像データの先頭画像PD10b及び代表画像PD11b〜PD15bについて説明する。中央制御部300は、記録メディア212に記録されている動画像データの先頭のIピクチャに基づく画像データを生成する。そして、この生成された画像データが、分割位置情報及び代表画像情報とともに送信され、選択画像内で先頭画像PD10cとして表示される。   Next, the first image PD10b and the representative images PD11b to PD15b of the target moving image data will be described. The central control unit 300 generates image data based on the first I picture of the moving image data recorded on the recording medium 212. Then, the generated image data is transmitted together with the division position information and the representative image information, and is displayed as the first image PD10c in the selected image.

代表画像PD11c〜PD15cは、動画像データ分割部302により動画像データが分割されて生成された、計5つの分割動画像データのそれぞれにおける、代表画像データ特定部303が特定した代表画像データとなるピクチャデータに基づいて表示される。これらのピクチャデータに係る画像を描画するためのデータは、上述した通り代表画像情報に含まれている。   The representative images PD11c to PD15c are representative image data specified by the representative image data specifying unit 303 in each of the total of five divided moving image data generated by dividing the moving image data by the moving image data dividing unit 302. Displayed based on picture data. Data for drawing an image related to these picture data is included in the representative image information as described above.

各分割画像データの開始時点を示す画像TG10〜TG15は、分割位置情報に含まれる各分割動画像データの開始時点を示す情報に基づいて生成される。なお図10の例では、各分割画像データの終了時点を示す画像を省略しているが、各分割動画像データの終了時点、または動画像データ全体の終了時点のみを示す画像が表示されるようにしてもよい。   Images TG10 to TG15 indicating the start time of each divided image data are generated based on information indicating the start time of each divided moving image data included in the division position information. In the example of FIG. 10, an image indicating the end time of each divided image data is omitted, but an image indicating only the end time of each divided moving image data or the entire moving image data is displayed. It may be.

続いてサムネイル画像PD10c又は各代表画像PD11c〜PD15cの位置する時点を示す画像TG16、LG10、及びIG10について、以下に説明する。ここで図11は、ユーザが代表画像PD11cに対応するタッチパネル領域をタッチした場合の、選択画像を示す模式図である。   Next, the images TG16, LG10, and IG10 that indicate the time points at which the thumbnail images PD10c or the representative images PD11c to PD15c are located will be described below. Here, FIG. 11 is a schematic diagram showing a selected image when the user touches the touch panel area corresponding to the representative image PD11c.

ユーザが代表画像PD11bに対応するタッチパネル領域をタッチすると、この代表画像が選択されている旨を示すカーソル画像CG10が表示される。なお、このカーソル画像CG10は、画像処理部503が生成した画像データに基づいて表示される。   When the user touches the touch panel area corresponding to the representative image PD11b, a cursor image CG10 indicating that the representative image is selected is displayed. The cursor image CG10 is displayed based on the image data generated by the image processing unit 503.

そして、画像TG16は、選択された代表画像が、動画像データ中で位置する場所を数字で表示する。図11の例では、代表画像PD11b(に相当するピクチャデータ)は、動画像データ再生から3分45秒後に表示される位置に存在することを示している。また、画像LG10及びIG11は、選択された代表画像が、動画像データ中で位置する場所を図形的に表示する。画像LG10は、動画像データの開始から終了までの全体を現すタイムライン画像であり、画像IG11は、このタイムライン画像中で、選択された代表画像がどの当たりに位置するかを示すインジケータ画像である。これらの画像LG10及びIG10により、ユーザは、選択した代表画像が、動画像全体のどの当たりに位置するのかを視覚的に認識しやすくなる。   Then, the image TG16 displays the number where the selected representative image is located in the moving image data. In the example of FIG. 11, the representative image PD11b (corresponding to the picture data) is present at a position where it is displayed 3 minutes and 45 seconds after the reproduction of the moving image data. Further, the images LG10 and IG11 graphically display a location where the selected representative image is located in the moving image data. The image LG10 is a timeline image showing the entire moving image data from the start to the end, and the image IG11 is an indicator image indicating where the selected representative image is located in the timeline image. is there. With these images LG10 and IG10, the user can easily visually recognize where the selected representative image is located in the entire moving image.

抽出される抽出動画像データの長さを示す画像TG17は、設定されている抽出動画像データの長さ(再生時間)を示す画像である。図11の例では、100秒間分の連続した抽出動画像データを、撮像装置1の記録メディア217に記録された動画像データから抽出することを示している。   The image TG17 indicating the length of the extracted moving image data to be extracted is an image indicating the length (reproduction time) of the set extracted moving image data. In the example of FIG. 11, continuous extracted moving image data for 100 seconds is extracted from moving image data recorded on the recording medium 217 of the imaging device 1.

ユーザは、この抽出動画像データの長さを都度、設定・変更することができる。ユーザが、画像TG17に対応するタッチパネル領域をタッチすると、モニタ505は抽出動画像データの長さの設定・変更のための画像を表示する。図12は、この画像の一例を示す模式図である。   The user can set / change the length of the extracted moving image data each time. When the user touches the touch panel area corresponding to the image TG17, the monitor 505 displays an image for setting / changing the length of the extracted moving image data. FIG. 12 is a schematic diagram showing an example of this image.

ユーザが画像TG17に対応するタッチパネル領域をタッチすると、画像処理部503が生成した画像データに基づき、モニタ505に設定・変更画像SG12が表示される。設定・変更画像SG12は、レバー画像TL12及びCG12、設定・変更される時間を示す画像TG19、並びに決定を示す画像OG10から構成される。   When the user touches the touch panel area corresponding to the image TG17, the setting / change image SG12 is displayed on the monitor 505 based on the image data generated by the image processing unit 503. The setting / change image SG12 includes lever images TL12 and CG12, an image TG19 indicating the time for setting / changing, and an image OG10 indicating determination.

ユーザは、レバー画像CG12に対応するタッチパネル領域をタッチし、レバー画像TL12上で、このレバー画像CG12を、図12示したX軸方向に移動させることで、抽出動画像データの長さの設定・変更を行うことができる。変更された抽出動画像データの長さは、画像TG19に表示される。   The user touches the touch panel area corresponding to the lever image CG12 and moves the lever image CG12 in the X-axis direction shown in FIG. 12 on the lever image TL12 to set the length of the extracted moving image data. Changes can be made. The changed length of the extracted moving image data is displayed on the image TG19.

図12中の画像TG19は、抽出動画像データの長さが200秒間に変更されたことを示している。また、図12中に黒塗りで示した領域画像TL12aは、設定・変更される抽出動画像データの長さの増減を視覚的に表示する。つまり、レバー画像CG12がX軸の正方向に移動すると、レバー画像TL12に占める、この領域画像TL12aの面積が増加する。これによって、ユーザは、抽出動画像データの長さを増加させたことを視覚的に認識することができる。   An image TG19 in FIG. 12 indicates that the length of the extracted moving image data has been changed to 200 seconds. Further, the region image TL12a shown in black in FIG. 12 visually displays the increase / decrease in the length of the extracted moving image data to be set / changed. That is, when the lever image CG12 moves in the positive direction of the X axis, the area of the region image TL12a that occupies the lever image TL12 increases. Thereby, the user can visually recognize that the length of the extracted moving image data is increased.

反対に、レバー画像CG12がX軸の負方向に移動すると、レバー画像TL12に占める、この領域画像TL12aの面積が減少する。これによって、ユーザは、抽出動画像データの長さを減少させたことを視覚的に認識することができる。   Conversely, when the lever image CG12 moves in the negative direction of the X axis, the area of the region image TL12a occupied in the lever image TL12 decreases. Thus, the user can visually recognize that the length of the extracted moving image data has been reduced.

ユーザが、決定を示す画像OG10に対応するタッチパネル領域をタッチすると、上述のようにして設定・変更された、抽出動画像データの長さが決定される。図13は、ユーザが画像OG10に対応するタッチパネル領域をタッチした後に、モニタ505が表示する選択画像SG10の模式図である。   When the user touches the touch panel area corresponding to the image OG10 indicating the determination, the length of the extracted moving image data set / changed as described above is determined. FIG. 13 is a schematic diagram of the selection image SG10 displayed on the monitor 505 after the user touches the touch panel area corresponding to the image OG10.

抽出を要求するボタン画像TF10に対応するタッチパネル領域がタッチ等されると、抽出動画像データの長さ、及び代表画像の選択が決定される。この画像TF10は、画像処理部503が生成した画像データに基づいて表示される。   When the touch panel area corresponding to the button image TF10 requiring extraction is touched, the length of the extracted moving image data and the selection of the representative image are determined. The image TF10 is displayed based on the image data generated by the image processing unit 503.

図8に戻り、ユーザが、上述のようにして抽出動画像データの長さを決定し、代表画像を選択し、抽出を要求するボタン画像TF10に対応するタッチパネル領域をタッチ等する(ステップS309)と、通信端末2の選択情報生成部602が選択情報を生成する(ステップS310)。選択情報は、代表画像情報に含まれていた代表画像データの位置を示す情報、及び指定された抽出動画像データの長さを示す情報から構成される。生成された選択情報は、無線モジュール513を介して撮像装置1に送信される。   Returning to FIG. 8, the user determines the length of the extracted moving image data as described above, selects a representative image, and touches the touch panel area corresponding to the button image TF10 requesting extraction (step S309). Then, the selection information generation unit 602 of the communication terminal 2 generates selection information (step S310). The selection information includes information indicating the position of the representative image data included in the representative image information and information indicating the length of the specified extracted moving image data. The generated selection information is transmitted to the imaging apparatus 1 via the wireless module 513.

ステップS310で生成された選択情報が撮像装置1に受信されると、撮像装置1の動画像データ抽出部305は、受信された選択情報に基づいて、動画像データから抽出動画像データを抽出する(ステップS311)。抽出される抽出動画像データは、選択された代表画像データを先頭としてもよいし、選択された代表画像データよりも所定時間または所定ピクチャだけ前の画像データを先頭としてもよい。   When the selection information generated in step S310 is received by the imaging device 1, the moving image data extraction unit 305 of the imaging device 1 extracts the extracted moving image data from the moving image data based on the received selection information. (Step S311). The extracted moving image data to be extracted may have the selected representative image data as the head, or may start with image data that is a predetermined time or a predetermined picture ahead of the selected representative image data.

すなわち例えば、図13の例では、代表画像PD11bに対応する画像データを開始時点として、動画像データから3分45秒から7分5秒までのデータが、抽出動画像データとして抽出されてもよい。また、代表画像PD11bに対応する画像データよりも所定時間又は所定ピクチャだけ前の、例えば3分0秒から5分20秒までのデータが、抽出動画像データとして抽出されてもよい。   That is, for example, in the example of FIG. 13, data from 3 minutes 45 seconds to 7 minutes 5 seconds from the moving image data may be extracted as the extracted moving image data, starting from the image data corresponding to the representative image PD11b. . Further, for example, data from 3 minutes 0 seconds to 5 minutes 20 seconds before the predetermined time or predetermined picture from the image data corresponding to the representative image PD11b may be extracted as the extracted moving image data.

抽出された抽出動画像データは、予め設定された条件に従い、圧縮・伸長処理部202でトランスコードされた後、無線モジュール214から送信される(ステップS312)。そして、通信端末2が無線モジュール513を介して、送信された抽出動画像データを受信する(ステップS313)。   The extracted extracted moving image data is transmitted from the wireless module 214 after being transcoded by the compression / decompression processing unit 202 in accordance with preset conditions (step S312). Then, the communication terminal 2 receives the transmitted extracted video data via the wireless module 513 (step S313).

以上の通り本発明に係る動画像データ処理システムSYS1によれば、ユーザは、撮像装置1に記録された撮像データ(動画像データ)に関し、通信端末2のモニタ505に表示された適切な代表画像を指針として、容易に所望の抽出動画像データを取得することができる。なお、本発明に係る動画像データ送信装置としては、撮像装置1のように撮像部による撮像を介して動画像データを生成する電子機器に限らず、動画像データの入出力が可能な機器であればよい。同様に、本発明に係る動画像データ送信装置としては、通信端末2のようなポータブルな通信機器に限らず、動画像データの入出力が可能な機器であればよい。   As described above, according to the moving image data processing system SYS1 according to the present invention, a user can display an appropriate representative image displayed on the monitor 505 of the communication terminal 2 with respect to imaging data (moving image data) recorded in the imaging device 1. The desired extracted moving image data can be easily obtained using the above as a guideline. Note that the moving image data transmission device according to the present invention is not limited to an electronic device that generates moving image data through imaging by an imaging unit, such as the imaging device 1, but a device that can input and output moving image data. I just need it. Similarly, the moving image data transmission apparatus according to the present invention is not limited to a portable communication device such as the communication terminal 2 and may be any device that can input and output moving image data.

本発明の実施の形態にかかる動画像データ処理システムSYS1、並びにそれを構成する撮像装置1及び通信端末2は、前述した実施の形態の各機能を実現するプログラムを、CPUが実行する構成とすることも可能である。   The moving image data processing system SYS1 according to the embodiment of the present invention, and the imaging device 1 and the communication terminal 2 that configure the moving image data processing system SYS1 are configured such that the CPU executes a program that implements each function of the above-described embodiment. It is also possible.

また、このプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   The program can be stored using various types of non-transitory computer readable media and supplied to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

SYS1 動画像データ処理システム、1 撮像装置、100 撮像部、105 アナログ画像信号処理部、106 画像A/D変換部、107 画像入力コントローラ、108 デジタル信号処理部、200 バス、201 メインメモリ、202 圧縮・伸長処理部、203 多重化部、204 画像処理部、205 VRAM、206 入出力I/F、207 モニタ、209 操作部、210 入出力端子、211 メディアI/F、 212 記録メディア、213 無線I/F、214 無線モジュール、215 時計、216 A/D変換部、217 角速度センサ、300 中央制御部、301 スコア算出部、302 動画像データ分割部、303 代表画像データ特定部、304 代表画像情報生成部、305 動画像データ抽出部、401 顔画像データ検出部、402 顔画像データ認識部、403 顔画像データ登録部、2 通信端末、500 バス、501 メインメモリ、502 VRAM、503 画像処理部、504 入出力I/F、505 モニタ、507 操作部、509 入出力端子、510 メディアI/F、511 記録メディア、512 無線I/F、513 無線モジュール、600 中央制御部、601 選択画像データ、602 選択情報生成部   SYS1 moving image data processing system, 1 imaging device, 100 imaging unit, 105 analog image signal processing unit, 106 image A / D conversion unit, 107 image input controller, 108 digital signal processing unit, 200 bus, 201 main memory, 202 compression Decompression processing unit, 203 multiplexing unit, 204 image processing unit, 205 VRAM, 206 input / output I / F, 207 monitor, 209 operation unit, 210 input / output terminal, 211 media I / F, 212 recording media, 213 wireless I / F, 214 wireless module, 215 clock, 216 A / D conversion unit, 217 angular velocity sensor, 300 central control unit, 301 score calculation unit, 302 moving image data division unit, 303 representative image data specifying unit, 304 representative image information generation 305, moving image data extraction unit 401 Face image data detection unit, 402 Face image data recognition unit, 403 Face image data registration unit, 2 communication terminal, 500 bus, 501 main memory, 502 VRAM, 503 image processing unit, 504 input / output I / F, 505 monitor, 507 Operation unit, 509 input / output terminal, 510 media I / F, 511 recording medium, 512 wireless I / F, 513 wireless module, 600 central control unit, 601 selection image data, 602 selection information generation unit

Claims (3)

動画像データ送信装置と動画像データ受信装置とを備えた動画像データ処理システムであって、
前記動画像データ送信装置は、
動画像データが入力される動画像データ入力部と、
前記入力された動画像データを複数に分割して複数の分割動画像データを生成するとともに、その動画像データにおける、それら複数の分割動画像データそれぞれの位置を示す分割位置情報を生成する動画像データ分割部と、
前記動画像データについて所定時間毎のスコアを算出するスコア算出部と、
前記算出されたスコアに基づいて、前記複数の分割動画像データのそれぞれから所定の画像単位データを代表画像データとして特定する代表画像データ特定部と、
前記特定された代表画像データ、及びその代表画像データの前記動画像データにおける位置を示す情報を含む代表画像情報を生成する代表画像情報生成部と、
前記分割位置情報及び前記代表画像情報を送信する情報送信部と、
前記動画像データ受信装置が送信した選択情報を受信する選択情報受信部と、
前記選択情報の受信に応じて、前記代表画像データとして特定された画像単位データを含む前記動画像データの一部を、抽出動画像データとして抽出する動画像データ抽出部と、
前記抽出された抽出動画像データを送信する動画像データ送信部とを備え、
前記動画像データ受信装置は、
前記送信された分割位置情報及び代表画像情報を受信する情報受信部と、
前記受信された分割位置情報及び代表画像情報に基づいて選択画像データを生成する選択画像データ生成部と、
前記選択画像データに基づいて、前記複数の分割動画像データそれぞれの分割位置を示す情報及び代表画像を含む選択画像を表示する選択画像表示部と、
前記選択画像における複数の前記代表画像の中から任意の代表画像を選択する指示、及び前記抽出動画像データの長さを指定する指示が入力される操作部と、
前記入力された指示に応じて、前記選択された代表画像に係る代表画像データの前記動画像データにおける位置を示す情報と、前記抽出動画像データの長さを示す情報とを有する選択情報を生成する選択情報生成部と、
前記生成された前記選択情報を送信する選択情報送信部と、
前記送信された抽出動画像データを受信する動画像データ受信部とを備える
ことを特徴とする動画像データ処理システム。
A moving image data processing system comprising a moving image data transmitting device and a moving image data receiving device,
The moving image data transmission device includes:
A moving image data input unit for inputting moving image data;
A moving image that divides the input moving image data into a plurality of pieces to generate a plurality of divided moving image data, and generates divided position information indicating positions of the plurality of divided moving image data in the moving image data. A data division unit;
A score calculator for calculating a score for each predetermined time for the moving image data;
A representative image data specifying unit that specifies predetermined image unit data as representative image data from each of the plurality of divided moving image data based on the calculated score;
A representative image information generating unit that generates representative image information including the identified representative image data and information indicating a position of the representative image data in the moving image data;
An information transmission unit for transmitting the division position information and the representative image information;
A selection information receiving unit for receiving selection information transmitted by the moving image data receiving device;
A moving image data extraction unit that extracts a part of the moving image data including the image unit data specified as the representative image data as extracted moving image data in response to reception of the selection information;
A moving image data transmitter that transmits the extracted extracted moving image data;
The moving image data receiving device includes:
An information receiving unit for receiving the transmitted divided position information and representative image information;
A selection image data generation unit that generates selection image data based on the received division position information and representative image information;
Based on the selected image data, a selected image display unit for displaying a selected image including information indicating a division position of each of the plurality of divided moving image data and a representative image;
An operation unit to which an instruction to select an arbitrary representative image from the plurality of representative images in the selected image and an instruction to specify the length of the extracted moving image data are input;
In response to the input instruction, generation of selection information including information indicating the position of the representative image data related to the selected representative image in the moving image data and information indicating the length of the extracted moving image data A selection information generation unit to
A selection information transmission unit for transmitting the generated selection information;
A moving image data processing system comprising: a moving image data receiving unit that receives the transmitted extracted moving image data.
動画像データが入力される動画像データ入力部と、
前記入力された動画像データを複数に分割して複数の分割動画像データを生成するとともに、その動画像データにおける、それら複数の分割動画像データそれぞれの位置を示す分割位置情報を生成する動画像データ分割部と、
前記動画像データについて所定時間毎のスコアを算出するスコア算出部と、
前記算出されたスコアに基づいて、前記複数の分割動画像データのそれぞれから所定の画像単位データを代表画像データとして特定する代表画像データ特定部と、
前記特定された代表画像データ、及びその代表画像データの前記動画像データにおける位置を示す情報を含む代表画像情報を生成する代表画像情報生成部と、
前記分割位置情報及び前記代表画像情報を外部機器に送信する情報送信部と、
前記外部機器から送信された、前記複数の前記代表画像データの中から選択された代表画像データを特定する情報と、抽出時間を示す情報とを含む選択情報を受信する選択情報受信部と、
前記選択情報の受信に応じて、前記選択された代表画像データを特定する情報に基づき特定された画像単位データを含む、前記抽出時間分の前記動画像データの一部を、抽出動画像データとして抽出する動画像データ抽出部と、
前記抽出された抽出動画像データを前記外部機器に送信する動画像データ送信部と
を備えることを特徴とする動画像データ送信装置。
A moving image data input unit for inputting moving image data;
A moving image that divides the input moving image data into a plurality of pieces to generate a plurality of divided moving image data, and generates divided position information indicating positions of the plurality of divided moving image data in the moving image data. A data division unit;
A score calculator for calculating a score for each predetermined time for the moving image data;
A representative image data specifying unit that specifies predetermined image unit data as representative image data from each of the plurality of divided moving image data based on the calculated score;
A representative image information generating unit that generates representative image information including the identified representative image data and information indicating a position of the representative image data in the moving image data;
An information transmission unit for transmitting the division position information and the representative image information to an external device;
A selection information receiving unit that receives selection information including information specifying representative image data selected from the plurality of representative image data and information indicating an extraction time, transmitted from the external device;
In response to reception of the selection information, a part of the moving image data for the extraction time including image unit data specified based on information for specifying the selected representative image data is used as extracted moving image data. A moving image data extraction unit to be extracted;
A moving image data transmitting apparatus comprising: a moving image data transmitting unit that transmits the extracted extracted moving image data to the external device.
動画像データが複数に分割された各分割動画像データの分割位置を示す分割位置情報と、前記動画像データについて所定時間毎のスコアが算出されて、そのスコアに基づいて代表画像データとして特定された各画像単位データ及びそれら各画像単位データの前記動画像データにおける位置を示す情報を含む代表画像情報とを受信する情報受信部と、
前記受信された分割位置情報及び代表画像情報に基づいて選択画像データを生成する選択画像データ生成部と、
前記選択画像データに基づいて、前記複数の分割動画像データそれぞれの分割位置を示す情報及び代表画像を含む選択画像を表示する選択画像表示部と、
前記選択画像における複数の前記代表画像の中から任意の代表画像を選択する指示、及び前記抽出動画像データの長さを指定する指示が入力される操作部と、
前記入力された指示に応じて、前記選択された代表画像に係る代表画像データの前記動画像データにおける位置を示す情報と、前記抽出動画像データの長さを示す情報とを有する選択情報を生成する選択情報生成部と、
前記生成された選択情報を送信する選択情報送信部と、
前記送信された選択情報に基づいて前記外部機器が抽出し送信した抽出動画像データを受信する動画像データ受信部とを備える
ことを特徴とする動画像データ受信装置。
Division position information indicating the division position of each divided moving image data obtained by dividing the moving image data, and a score for each predetermined time are calculated for the moving image data, and specified as representative image data based on the score. An information receiving unit for receiving each image unit data and representative image information including information indicating a position of each image unit data in the moving image data;
A selection image data generation unit that generates selection image data based on the received division position information and representative image information;
Based on the selected image data, a selected image display unit for displaying a selected image including information indicating a division position of each of the plurality of divided moving image data and a representative image;
An operation unit to which an instruction to select an arbitrary representative image from the plurality of representative images in the selected image and an instruction to specify the length of the extracted moving image data are input;
In response to the input instruction, generation of selection information including information indicating the position of the representative image data related to the selected representative image in the moving image data and information indicating the length of the extracted moving image data A selection information generation unit to
A selection information transmission unit for transmitting the generated selection information;
A moving image data receiving apparatus comprising: a moving image data receiving unit that receives extracted moving image data extracted and transmitted by the external device based on the transmitted selection information.
JP2012216323A 2012-09-28 2012-09-28 Moving image data processing system, moving image data transmission device, and moving image data reception device Pending JP2014072642A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012216323A JP2014072642A (en) 2012-09-28 2012-09-28 Moving image data processing system, moving image data transmission device, and moving image data reception device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012216323A JP2014072642A (en) 2012-09-28 2012-09-28 Moving image data processing system, moving image data transmission device, and moving image data reception device

Publications (1)

Publication Number Publication Date
JP2014072642A true JP2014072642A (en) 2014-04-21

Family

ID=50747490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012216323A Pending JP2014072642A (en) 2012-09-28 2012-09-28 Moving image data processing system, moving image data transmission device, and moving image data reception device

Country Status (1)

Country Link
JP (1) JP2014072642A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018022465A (en) * 2016-07-22 2018-02-08 東海電子株式会社 Alcohol measurement system and alcohol measurement video storage program
JPWO2019058863A1 (en) * 2017-09-21 2020-09-10 コニカミノルタ株式会社 Image processing device for gas detection, image processing method for gas detection, and image processing program for gas detection

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018022465A (en) * 2016-07-22 2018-02-08 東海電子株式会社 Alcohol measurement system and alcohol measurement video storage program
JPWO2019058863A1 (en) * 2017-09-21 2020-09-10 コニカミノルタ株式会社 Image processing device for gas detection, image processing method for gas detection, and image processing program for gas detection
JP7230813B2 (en) 2017-09-21 2023-03-01 コニカミノルタ株式会社 Image processing device for gas detection, image processing method for gas detection, and image processing program for gas detection

Similar Documents

Publication Publication Date Title
JP5685732B2 (en) Video extraction device, program, and recording medium
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
JP2014168126A (en) Image processor, image processing method and program
JP5880210B2 (en) COMMUNICATION DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND PROGRAM
US10237466B2 (en) Recognition of degree of focus of an image
JP5838852B2 (en) Imaging system, imaging apparatus, imaging method, and program
JP5724592B2 (en) Imaging apparatus, imaging data sharing system, and program
JPWO2015098110A1 (en) Imaging apparatus, imaging system, and imaging method
JP6319491B2 (en) Imaging apparatus and control method
JP2014123908A (en) Image processing system, image clipping method, and program
JP2014072642A (en) Moving image data processing system, moving image data transmission device, and moving image data reception device
JP2011119936A (en) Photographing device and reproducing method
JP6332864B2 (en) Image processing apparatus, image processing method, and program
JP6341814B2 (en) Imaging device, control method thereof, and program
JP2011119934A (en) Image shooting device and image shooting method
JP6119447B2 (en) Imaging system and control method
JP2013145983A (en) Imaging system, imaging apparatus, imaging method, and imaging program
JP2016036081A (en) Image processing device, method and program, and recording medium
JP5375988B2 (en) Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method
KR20130101707A (en) Photographing apparatus, electronic apparatus, method for generation of video, and method for display of thumbnail
JP2018137771A (en) Imaging apparatus and control method
JP2012216936A (en) Imaging apparatus and program
JP2012186538A (en) Electronic camera, image display device, program, and recording medium
WO2015104780A1 (en) Image pickup apparatus
JP2012029119A (en) Display control device, camera and display device