JP2014072642A - Moving image data processing system, moving image data transmission device, and moving image data reception device - Google Patents
Moving image data processing system, moving image data transmission device, and moving image data reception device Download PDFInfo
- Publication number
- JP2014072642A JP2014072642A JP2012216323A JP2012216323A JP2014072642A JP 2014072642 A JP2014072642 A JP 2014072642A JP 2012216323 A JP2012216323 A JP 2012216323A JP 2012216323 A JP2012216323 A JP 2012216323A JP 2014072642 A JP2014072642 A JP 2014072642A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- moving image
- unit
- information
- representative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は動画像データ処理システム及び動画像データ送信装置に関し、より詳細には適切な指標となる代表画像に基づき、動画像データの中から容易に任意の部分を抽出することができる動画像データ処理システム及び動画像データ送信装置に関する。 The present invention relates to a moving image data processing system and a moving image data transmission device, and more specifically, moving image data that can easily extract an arbitrary part from moving image data based on a representative image that is an appropriate index. The present invention relates to a processing system and a moving image data transmission apparatus.
デジタルカメラやカメラ付き携帯端末等で取得された撮像データが、ネットワークを介して様々な場所にある様々な機器間で、送受信され共有されることは既に広く一般化している。さらに近年の無線通信の発達により、撮像データの送受信等も無線のネットワーク通信を介して行われるようになってきており、データ共有が行われる場所や機器がより多様化していっている。 It is already widely generalized that image data acquired by a digital camera, a mobile terminal with a camera, and the like is transmitted and received and shared between various devices at various locations via a network. Further, with the recent development of wireless communication, transmission / reception of imaging data and the like has also been performed via wireless network communication, and places and devices where data sharing is performed are becoming more diverse.
送受信される撮像データが動画像データであった場合は、原則として静止画像データよりもデータ容量が大きい。そのため静止画像データの送受信と比べて、動画像データの送受信には、より多くの時間を要する。また、ユーザが動画像データを再生して内容を確認するのに要する時間は、当然、静止画像データの内容確認よりも多くの時間を要する。 When the image data to be transmitted / received is moving image data, in principle, the data capacity is larger than that of still image data. Therefore, more time is required for transmission / reception of moving image data than for transmission / reception of still image data. In addition, the time required for the user to check the content by reproducing the moving image data naturally requires more time than the content check of the still image data.
一方で、動画像データを受信して取得するユーザが、その動画像データの全体の取得を所望しているとはかぎらない。一つの動画像データに含まれる一部のシーンだけをユーザが鑑賞したい場合等は、動画像データから所望する一部分のみが抽出され取得されればよい。所望のシーンを含む部分のみを見つけ出し、抽出して取得することができれば、前述したような送受信時間や内容確認時間の負担は大きく軽減される。 On the other hand, a user who receives and acquires moving image data does not necessarily want to acquire the entire moving image data. When the user wants to view only a part of the scenes included in one moving image data, only a desired portion is extracted and acquired from the moving image data. If only a portion including a desired scene can be found, extracted, and acquired, the burden of the transmission / reception time and the content confirmation time as described above can be greatly reduced.
そこで、動画像データのなかから所定の部分を抽出しやすくし、抽出された部分だけを送受信するための技術が開発されている。例えば特許文献1には、撮像された動画像データ1つに対し複数の代表静止画像を生成し、ユーザが携帯端末側で代表静止画像を選択することで、選択された代表静止画像に対応した開始点以降の、及び/又は対応した終了点以前の部分動画像データだけを、その動画像データから切り出して携帯端末に送信することができる画像送信機器が記載されている。この画像送信機器によれば、ユーザは、撮像された動画像データのうち不必要な部分を排除して必要な部分だけを、携帯端末で取得し閲覧することができる。
Therefore, a technique has been developed for facilitating extraction of a predetermined part from moving image data and transmitting / receiving only the extracted part. For example, in
しかし前述の特許文献1に記載の画像送信機器が生成する代表静止画像は、撮像内容とは無関係に、所定のフレーム毎、所定時間毎、又はシーンの変わり目毎に生成されている。このため生成された代表静止画は、その動画像データの見どころを示す手がかりとはならないことが多い。したがって特許文献1に記載の画像送信機器が生成する代表静止画像は、ユーザが、動画像データから所望の部分を特定するための適切な指標とはならないという問題を有することが推察される。
However, the representative still image generated by the image transmission device described in
そこで本発明は、適切な指標となる代表画像に基づき、動画像データの中から容易に任意の部分を抽出することができる動画像データ処理システム、動画像データ送信装置、及び動画像データ受信装置を提供することを目的とする。 Therefore, the present invention provides a moving image data processing system, a moving image data transmitting device, and a moving image data receiving device that can easily extract an arbitrary portion from moving image data based on a representative image that is an appropriate index. The purpose is to provide.
前述した課題を解決するために本発明は、動画像データ送信装置(1)と動画像データ受信装置(2)とを備えた動画像データ処理システム(SYS1)であって、前記動画像データ送信装置(1)は、動画像データが入力される動画像データ入力部(211)と、前記入力された動画像データを複数に分割して複数の分割動画像データを生成するとともに、その動画像データにおける、それら複数の分割動画像データそれぞれの位置を示す分割位置情報を生成する動画像データ分割部(302)と、前記動画像データについて所定時間毎のスコアを算出するスコア算出部(301)と、前記算出されたスコアに基づいて、前記複数の分割動画像データのそれぞれから所定の画像単位データを代表画像データとして特定する代表画像データ特定部(303)と、前記特定された代表画像データ、及びその代表画像データの前記動画像データにおける位置を示す情報を含む代表画像情報を生成する代表画像情報生成部(304)と、前記分割位置情報及び前記代表画像情報を送信する情報送信部(210又は214)と、前記動画像データ受信装置(2)が送信した選択情報を受信する選択情報受信部(210又は214)と、前記選択情報の受信に応じて、前記代表画像データとして特定された画像単位データを含む前記動画像データの一部を、抽出動画像データとして抽出する動画像データ抽出部(305)と、前記抽出された抽出動画像データを送信する動画像データ送信部(210又は214)とを備え、前記動画像データ受信装置(2)は、前記送信された分割位置情報及び代表画像情報を受信する情報受信部(509又は513)と、前記受信された分割位置情報及び代表画像情報に基づいて選択画像データを生成する選択画像データ生成部(601)と、前記選択画像データに基づいて、前記複数の分割動画像データそれぞれの分割位置を示す情報及び代表画像を含む選択画像を表示する選択画像表示部(505)と、前記選択画像における複数の前記代表画像の中から任意の代表画像を選択する指示、及び前記抽出動画像データの長さを指定する指示が入力される操作部(507)と、前記入力された指示に応じて、前記選択された代表画像に係る代表画像データの前記動画像データにおける位置を示す情報と、前記抽出動画像データの長さを示す情報とを有する選択情報を生成する選択情報生成部(602)と、前記生成された選択情報を送信する選択情報送信部(509又は513)と、前記送信された抽出動画像データを受信する動画像データ受信部(509又は513)とを備えることを特徴とする動画像データ処理システム(SYS1)を提供する。
また本発明は、動画像データが入力される動画像データ入力部(212)と、前記入力された動画像データを複数に分割して複数の分割動画像データを生成するとともに、その動画像データにおける、それら複数の分割動画像データそれぞれの位置を示す分割位置情報を生成する動画像データ分割部(302)と、前記動画像データについて所定時間毎のスコアを算出するスコア算出部(301)と、前記算出されたスコアに基づいて、前記複数の分割動画像データのそれぞれから所定の画像単位データを代表画像データとして特定する代表画像データ特定部(303)と、前記特定された代表画像データ、及びその代表画像データの前記動画像データにおける位置を示す情報を含む代表画像情報を生成する代表画像情報生成部(304)と、前記分割位置情報及び前記代表画像情報を外部機器(2)に送信する情報送信部(210又は214)と、前記外部機器(2)から送信された、前記複数の前記代表画像データの中から選択された代表画像データを特定する情報と、抽出時間を示す情報とを含む選択情報を受信する選択情報受信部(210又は214)と、前記選択情報の受信に応じて、前記選択された代表画像データを特定する情報に基づき特定された画像単位データを含む、前記抽出時間分の前記動画像データの一部を、抽出動画像データとして抽出する動画像データ抽出部(305)と、抽出された抽出動画像データを前記外部機器に送信する動画像データ送信部(210又は214)とを備えることを特徴とする動画像データ送信装置(2)を提供する。
また本発明は、動画像データが複数に分割された各分割動画像データの分割位置を示す分割位置情報と、前記動画像データについて所定時間毎のスコアが算出されて、そのスコアに基づいて代表画像データとして特定された各画像単位データ及びそれら各画像単位データの前記動画像データにおける位置を示す情報を含む代表画像情報とを受信する情報受信部(509又は513)と、前記受信された分割位置情報及び代表画像情報に基づいて選択画像データを生成する選択画像データ生成部(601)と、前記選択画像データに基づいて、前記複数の分割動画像データそれぞれの分割位置を示す情報及び代表画像を含む選択画像を表示する選択画像表示部(505)と、前記選択画像における複数の前記代表画像の中から任意の代表画像を選択する指示、及び前記抽出動画像データの長さを指定する指示が入力される操作部(507)と、前記入力された指示に応じて、前記選択された代表画像に係る代表画像データの前記動画像データにおける位置を示す情報と、前記抽出動画像データの長さを示す情報とを有する選択情報を生成する選択情報生成部(602)と、前記生成された選択情報を送信する選択情報送信部(509又は513)と、前記送信された選択情報に基づいて前記外部機器が抽出し送信した抽出動画像データを受信する動画像データ受信部(509又は513)とを備えることを特徴とする動画像データ受信装置(2)を提供する。
In order to solve the above-described problems, the present invention provides a moving image data processing system (SYS1) including a moving image data transmitting device (1) and a moving image data receiving device (2), wherein the moving image data transmission is performed. The apparatus (1) generates a plurality of divided moving image data by dividing the input moving image data into a plurality of moving image data input units (211) to which moving image data is input, and the moving image A moving image data dividing unit (302) for generating divided position information indicating the position of each of the plurality of divided moving image data in the data, and a score calculating unit (301) for calculating a score for each predetermined time for the moving image data And based on the calculated score, a representative image data characteristic that specifies predetermined image unit data as representative image data from each of the plurality of divided moving image data. A representative image information generation unit (304) for generating representative image information including information indicating a position of the identified representative image data and the position of the representative image data in the moving image data, and the division position An information transmitting unit (210 or 214) for transmitting information and the representative image information, a selection information receiving unit (210 or 214) for receiving selection information transmitted by the moving image data receiving device (2), and the selection information In response to reception, a moving image data extraction unit (305) that extracts a part of the moving image data including the image unit data specified as the representative image data as extracted moving image data, and the extracted extraction A moving image data transmitting unit (210 or 214) for transmitting moving image data, and the moving image data receiving device (2) includes the transmitted divided position information and An information receiving unit (509 or 513) for receiving representative image information, a selected image data generating unit (601) for generating selected image data based on the received division position information and representative image information, and the selected image data Based on the selection image display unit (505) for displaying a selection image including information indicating the division position of each of the plurality of divided moving image data and the representative image, and arbitrarily selecting from the plurality of the representative images in the selection image An operation unit (507) to which an instruction to select a representative image and an instruction to specify the length of the extracted moving image data are input, and a representative related to the selected representative image according to the input instruction A selection information generation unit (602) that generates selection information having information indicating the position of image data in the moving image data and information indicating the length of the extracted moving image data ), A selection information transmitting unit (509 or 513) for transmitting the generated selection information, and a moving image data receiving unit (509 or 513) for receiving the transmitted extracted moving image data. A moving image data processing system (SYS1) is provided.
According to the present invention, a moving image data input unit (212) to which moving image data is input and a plurality of divided moving image data are generated by dividing the input moving image data into a plurality of moving image data. A moving image data dividing unit (302) for generating divided position information indicating the position of each of the plurality of divided moving image data, and a score calculating unit (301) for calculating a score for each predetermined time for the moving image data, A representative image data specifying unit (303) for specifying predetermined image unit data as representative image data from each of the plurality of divided moving image data based on the calculated score; and the specified representative image data; And a representative image information generation unit (304) that generates representative image information including information indicating the position of the representative image data in the moving image data. An information transmission unit (210 or 214) for transmitting the division position information and the representative image information to the external device (2), and a selection from the plurality of the representative image data transmitted from the external device (2) A selection information receiving unit (210 or 214) that receives selection information including information for specifying the representative image data and information indicating an extraction time; and the selected representative image in response to reception of the selection information A moving image data extraction unit (305) for extracting a part of the moving image data for the extraction time including the image unit data specified based on the information for specifying data as extracted moving image data; Provided is a moving image data transmission device (2) comprising a moving image data transmission unit (210 or 214) for transmitting extracted moving image data to the external device.
The present invention also provides division position information indicating a division position of each divided moving image data obtained by dividing the moving image data, and a score for each predetermined time is calculated for the moving image data, and the representative is based on the score. An information receiving unit (509 or 513) for receiving each image unit data specified as image data and representative image information including information indicating a position of each of the image unit data in the moving image data; and the received division A selection image data generation unit (601) that generates selection image data based on the position information and the representative image information, and information indicating the division position of each of the plurality of divided moving image data and the representative image based on the selection image data A selected image display unit (505) for displaying a selected image including the image, and an arbitrary representative image from among the plurality of representative images in the selected image. An operation unit (507) to which an instruction to select and an instruction to specify the length of the extracted moving image data are input, and the representative image data related to the selected representative image according to the input instruction A selection information generating unit (602) for generating selection information having information indicating a position in the moving image data and information indicating a length of the extracted moving image data; and a selection information transmission for transmitting the generated selection information Unit (509 or 513) and a moving image data receiving unit (509 or 513) for receiving the extracted moving image data extracted and transmitted by the external device based on the transmitted selection information. A moving image data receiving device (2) is provided.
本発明に係る動画像データ処理システム、動画像データ送信装置、及び動画像データ受信装置によれば、適切な指標となる代表画像に基づき、動画像データの中から容易に任意の部分を抽出することができる。 According to the moving image data processing system, the moving image data transmitting apparatus, and the moving image data receiving apparatus according to the present invention, an arbitrary portion is easily extracted from moving image data based on a representative image that is an appropriate index. be able to.
以下に図面を参照しながら、本発明に係る動画像データ処理システム、並びにそれを構成する動画像送信装置及び動画像受信装置の好適な実施形態を説明する。かかる実施形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお本明細書及び図面において、実質的に同一の機能・構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。 DESCRIPTION OF EMBODIMENTS Preferred embodiments of a moving image data processing system according to the present invention, and a moving image transmitting apparatus and a moving image receiving apparatus constituting the moving image data processing system will be described below with reference to the drawings. Specific numerical values and the like shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same functions and configurations are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. .
(動画像データ処理システムSYS1の構成)
本発明に係る動画像データ処理システムの好適な実施形態として、動画像処理システムSYS1について、図1を参照して以下に説明する。図1は、動画像データ処理システムSYS1の構成を説明するための図である。
(Configuration of moving image data processing system SYS1)
As a preferred embodiment of the moving image data processing system according to the present invention, a moving image processing system SYS1 will be described below with reference to FIG. FIG. 1 is a diagram for explaining the configuration of the moving image data processing system SYS1.
動画像データ処理システムSYS1は、本システムにおいて動画像データ送信装置としての役割も果たす撮像装置1と、動画像データ受信装置としての役割も果たす通信端末2又は3とからなる。撮像装置1は、撮像により動画像データを生成することができるデジタルビデオカメラである。通信端末2及び3は、いわゆるスマートフォン等の携帯電話機器である。撮像装置1と、通信端末2又は3とは、通信規格であるIEEE802.11シリーズ等を利用した無線ネットワーク通信によって、各種データを相互に送受信することができる。無線ネットワーク通信には、無線ネットワーク通信N1のように撮像装置1と通信端末2との間で直接形成されるものと、無線ネットワーク通信N2のように、撮像装置1と通信端末3との間でルータ4を介して形成されるものとがある。また撮像装置1は、図示しない他の通信端末との間でインターネットを経由して各種データを相互に送受信すること等もできる。
The moving image data processing system SYS1 includes an
(撮像装置1の構成)
次に、撮像装置1の構成について図2を参照して説明する。図2は撮像装置1の概略的な内部構成を示すブロック図である。
(Configuration of the imaging device 1)
Next, the configuration of the
中央制御部300は、CPU(Central Processing Unit)、各種プログラムが格納されたROM(Read Only Memory)、及びワークエリアとしてのRAM(Random Access Memory)等を含む半導体集積回路により構成される。この中央制御部300は、撮像による撮像データの生成処理、撮像データの再生表示処理、ユーザが各種設定を行うためのメニュー画像等を表示する処理等の各種処理のために各部を統括的に制御する。
The
また中央制御部300は、後述する撮像データ(動画像データ)のスコアの算出、撮像データ(動画像データ)の複数の動画像データへの分割、分割された各動画像データの位置を示す情報の生成、分割された各動画像データにおける代表静止画の特定、及び動画像データの一部分の抽出といった処理も行う。以下では先ず、この中央制御部300により制御される他の各部について述べた後、これらの中央制御部300による制御について説明する。
The
撮像装置1は、ズームレンズ101、絞り102、フォーカスレンズ103、及び撮像素子104で構成される撮像部100を備える。ズームレンズ101は図示しないズームアクチュエータによって光軸LAに沿って移動する。同様に、フォーカスレンズ103は、図示しないフォーカスアクチュエータによって光軸LAに沿って移動する。絞り102は、図示しない絞りアクチュエータに駆動されて露光調整を行う。撮像素子104は、CMOS(Complementary Metal Oxide Semiconductor)又はCCD(Charge Coupled Device)等からなるイメージセンサである。
The
ズームレンズ101、絞り102、及びフォーカスレンズ103を通過した光は、撮像素子104によって光電変換されアナログ画像信号となる。アナログ画像信号処理部105が、このアナログ画像信号を増幅等する。そして画像A/D変換部106が、その増幅された信号をデジタル画像データに変換する。
The light that has passed through the
画像入力コントローラ107は、画像A/D変換部106から出力されたデジタル画像データを撮像データとして取り込んで、バス200を介してメインメモリ201に格納する。撮像装置1では、撮像データとして動画像データ及び静止画像データの両方を生成・取得することができる。
The
このときA/D変換部106から出力されたデジタル画像データは、デジタル信号処理部108によって所定の信号処理を施され輝度信号と色差信号とからなる撮像データに変換される。デジタル信号処理部108はまた、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル処理を行う。
At this time, the digital image data output from the A /
マイク109は、撮像時における撮像装置1の周囲の音声を周音し、アナログ音声信号を生成する。アナログ音声信号処理部110がそのアナログ音声信号を増幅する。そして音声A/D変換部111が、その増幅された信号をデジタル音声データに変換する。音声入力コントローラ112は、音声A/D変換部111から出力されたデジタル音声データを撮像データと併せてメインメモリ201に格納する。
The
圧縮・伸長処理部202は、メインメモリ201に格納された各種データに所定の圧縮処理を施し、圧縮データを生成する。また圧縮・伸長処理部202は、中央制御部300からの指令に従い、記録メディア212等に格納された圧縮データに所定形式の伸張処理を施し、非圧縮データを生成する。なお、本実施の形態の撮像装置1では、静止画像に対してはJPEG規格に準拠した圧縮方式が、動画像に対してはMPEG2規格、AVC/H.264規格、又はMotion JPEG規格等に準拠した圧縮方式が採用される。
The compression /
また圧縮・伸長処理部202は、後述する無線モジュール214等を介して外部の機器(通信端末2等)に動画像データを送信する際に、送信対象なる動画像データにトランスコードを施す。
The compression /
多重化部203は、デジタル画像データ及びデジタル音声データをはじめとした各種データを多重化してストリームデータを生成する。上述のようにして生成された動画像データ及びデジタル音声データが、この多重化部203によって多重化されて一つのデータとなる。以下、説明の簡略化のために、多重化部203が生成したデータも、単に動画像データ、又は撮像データと呼ぶ。
The
画像処理部204は、メインメモリ201から読み出された上述のデジタル画像データに所定の画像処理を施したり、モニタ207に表示される画像に係る画像データを別途生成したりする。例えば画像処理部204は、後述する顔検出部401が検出した顔画像データに基づき、同じく後述するモニタ207が表示する、いわゆるスルー画像中の顔画像周辺に矩形の画像を表示するためのデータ生成等を行う。また、撮像装置1の設定に関する各種メニュー画像に係る画像データを生成する。
The
さらに画像処理部204は、記録メディア212等に記録された撮像データについて、いわゆるサムネイル画像データを生成する。サムネイル画像データとともに、動画像データの数や再生時間等をユーザに提示する画像に係る画像データを生成する。生成されたこれらの画像データは入出力I/F206を介してモニタ207等に出力される。
Further, the
VRAM205は、後述するモニタ207が表示する動画像や静止画像に係る画像データや、上述した画像処理部204が生成した画像データの一時記憶領域として使用される。またメインメモリ201は、画像データをはじめとした各種データの一時記憶領域として使用されるとともに、中央制御部300の演算作業領域としても使用される。
The
モニタ207、スピーカ208、操作部209、及び入出力端子210は入出力I/F206に接続されている。以下に、各部について説明する。
The
モニタ207は、例えば液晶ディスプレイや有機EL(Electroluminescence)ディスプレイから構成されている。モニタ207は、メインメモリ201に一時記憶される撮像データを、いわゆるスルー画像として表示したり、記録メディア212等に記録された動画像データや静止画像データを再生表示したりする。スピーカ208は、記録メディア212等に記録された動画像データに付随する音声等を出力する。
The
操作部209は、図示しない各種ボタン、操作キー、レバー、又はモニタ207上に重畳されたタッチパネル等から構成される。操作部209は、撮像の開始及び終了をはじめとした、ユーザの撮像装置1への各種の操作入力、又は設定に関する入力等を受け付ける。
The
入出力端子210は、図示しない外部機器、例えばテレビをはじめとしたディスプレイ装置やPC(Personal Computer)等との接続に使用される。この入出力端子210を介して、各種のデータが撮像装置1と外部機器との間で入出力される。入出力端子307は、例えばHDMI(High-Definition Multimedia Interface)(登録商標)端子やUSB(Universal Serial Bus)端子等から構成される。
The input /
メインメモリ201に記録された撮像データをはじめとした各種データは、メディアI/F211を介して記録メディア212に出力され、この記録メディア212に記録される。記録メディア212としては、撮像装置1に着脱可能なSD(Secure Digital)メモリカード等が使用される。なお、SDメモリカードの替りに、DVD、BD(Blu-ray Disc)(登録商標)、若しくはフラッシュメモリ等の他の記録媒体を使用してもよい。また記録メディア212は、撮像装置1に内蔵されていても、着脱可能とされていてもよい。
Various data including imaging data recorded in the
無線モジュール214は、無線I/F213を介して外部機器との間で各種データを無線ネットワーク通信により送受信する。この無線ネットワーク通信には、例えばIEEE802.11シリーズを利用した方式が利用される。
The
時計215は、時刻情報を生成する。時計215が生成した時刻情報は、生成された撮像データの開始時刻や終了時刻を示す情報の生成に使用されたり、撮像データの長さ(再生時間)を示す情報の生成に使用されたりする。また、時計215が生成した時刻情報は、後述する中央制御部300の動画像データ分割部302が生成する、各分割動画像データの分割位置情報の生成に用いられる。
The
角速度センサ217は、撮像の際のパン・チルトやユーザの手ぶれ等によって生じる撮像装置1の角速度を検出する。角速度センサ217によって検出された角速度に係る信号はA/D変換部216によってデジタル信号に変換された後、バス200を介して中央制御部300に送られる。
The angular velocity sensor 217 detects the angular velocity of the
顔画像データ検出部401は、メインメモリ201に記憶された撮像データから、既知の手法により、被写体となる人物の顔画像データを検出する。顔画像データ認識部402は、顔画像データ検出部401が検出した顔画像データと、顔画像データ登録部403に予め登録されている人物の顔画像データとを照合し、検出された顔画像データを有する人物が何者であるかを認識する。顔画像データ検出部401による顔検出、及び顔画像データ認識部402による認識の結果は、後述する後述する撮像データ(動画像データ)のスコアの算出において使用される。
The face image
中央制御部300は、上述した他の各部の機能を統括的に制御するとともに、スコア算出部301、動画像データ分割部302、代表画像データ特定部303、代表画像情報生成部304、及び動画像データ抽出部305としても機能する。以下、各部について説明する。
The
<<スコアの算出>>
ここでまず、スコア算出部301による撮像データ(動画像データ)のスコアの算出処理(方法)の詳細について説明する。スコア算出部301は、生成され記録されていく撮像データに対して、所定時間毎にスコアを算出する。図3は、スコア算出部301がスコアを算出する処理を説明するためのフローチャートである。
<< Score calculation >>
First, details of the score calculation processing (method) of imaging data (moving image data) by the
ユーザが、操作部209の図示しない録画ボタンを押下すると、撮像部100を介して風景や被写体の画像が、及びマイク109を介して周囲の音声が、それぞれ取得されはじめ、撮像が開始される(ステップS101)。そしてメインメモリ201は、取得された画像及び音声を、撮像データ及び音声データとして、一時記憶し始める(ステップS102)。
When the user presses a recording button (not shown) on the
ステップS102で撮像データ等の一時記憶が開始されると、スコア算出部301は、所定時間毎に撮像データのスコアを算出する(ステップ103)。スコア算出部301は、ホワイトバランスの調整度合い、ズームの変更度合い、パン及びチルトの度合い、顔検出の結果、撮像画像中の顔画像のサイズ、顔認識の結果、及び手ぶれ補正の結果等から各種パラメータを算出する。そして、それらのパラメータが加算・減算等されることでスコアが算出される。なお、スコアの算出に使用する上記各種のパラメータは例示に過ぎず、その撮像データのうち上手く撮像されている部分や見どころとなる部分を特定できるものであれば、全て採用可能である。また以下に記載した算出に用いる式も一例に過ぎず、他の式を用いても構わない。
When temporary storage of imaging data or the like is started in step S102, the
ホワイトバランスの調整度合いに基づくパラメータをF1、ズームの変更度合いに基づくパラメータをF2、パン及びチルトの度合いに基づくパラメータをF3、顔検出の結果に基づくパラメータをF4、撮像画像中の顔画像のサイズに基づくパラメータをF5、顔認識の結果に基づくパラメータをF6、そして手ぶれ補正に基づくパラメータをF7とし、以下にそれぞれのパラメータの算出方法を説明する。 The parameter based on the white balance adjustment degree is F1, the parameter based on the zoom change degree is F2, the parameter based on the pan and tilt degree is F3, the parameter based on the face detection result is F4, and the size of the face image in the captured image F5 is a parameter based on the face recognition result, F6 is a parameter based on the face recognition result, and F7 is a parameter based on the camera shake correction. The calculation method of each parameter will be described below.
ホワイトバランスの調整度合いに基づくパラメータF1の算出は、例えば以下のようにして行われる。デジタル信号処理部108は、既知の各種方法により、メインメモリ201に一時記憶されたデジタル画像データから、色温度を算出し、算出された色温度に応じてデジタル画像データのホワイトバランスを調整する。スコア算出部301は、デジタル信号処理部108がこの調整を実施している時間Twを導出する。
The calculation of the parameter F1 based on the degree of white balance adjustment is performed as follows, for example. The digital
Twが導出されると、スコア算出部301は、以下の数式1から、ホワイトバランスの調整度合いに基づくパラメータF1を算出する。なお、数式1及び後述する各数式におけるPTは、予め定められた時間(例えば、2秒)であり、中央制御部300のROMに予め記録されている値である。ユーザは、この値を操作部209を使って設定・変更することもできる。
F1=Tw/PT ・・・(数式1)
When Tw is derived, the
F1 = Tw / PT (Formula 1)
以上により、撮像データの所定時間PTあたりのホワイトバランスの自動調整が行われた時間の割合が算出され、この割合が、その所定時間PTにおけるデジタル画像データ、すなわち撮像データのスコアを示すパラメータF1とされる。このF1は最終的に算出されるスコアにおいて、他のパラメータから減算されることになる。これによって調整の行われていない、より自然な色で撮像されている撮像データのスコアを高い値とすることができる。 As described above, the ratio of the time during which the white balance is automatically adjusted per predetermined time PT of the imaging data is calculated, and this ratio is the digital image data at the predetermined time PT, that is, the parameter F1 indicating the score of the imaging data. Is done. This F1 is subtracted from other parameters in the finally calculated score. As a result, the score of the imaging data that has not been adjusted and is captured in a more natural color can be set to a high value.
ズームの変更度合いに基づくパラメータF2の算出は、例えば以下のようにして行われる。ズームレンズ101の図示しないズームアクチュエータが駆動すると、スコア算出部は、その駆動時間Tzを導出する。
The calculation of the parameter F2 based on the zoom change degree is performed as follows, for example. When a zoom actuator (not shown) of the
Tzが導出されると、スコア算出部301は、以下の数式2から、ズームの変更度合いに基づくパラメータF2を算出する。なお、数式2におけるPTは、上記数式1と同じ値が採用される。
F2=Tz/PT ・・・(数式2)
When Tz is derived, the
F2 = Tz / PT (Formula 2)
以上により、撮像データの所定時間PTあたりのズーム倍率の変更が行われた時間の割合が算出され、この割合が、その所定時間PTにおけるスコアを示すパラメータF2とされる。ズーム倍率が変更されている時間帯は、ユーザが被写体を望ましい倍率で捉え切れていない時間帯と考えられる。このF2が、最終的に算出されるスコアにおいて、他のパラメータから減算されることで、ズーム倍率が固定された、ユーザが被写体画像を意図する倍率に捉えた後の撮像データのスコアを高い値とすることができる。 As described above, the ratio of the time when the zoom magnification is changed per predetermined time PT of the imaging data is calculated, and this ratio is set as the parameter F2 indicating the score at the predetermined time PT. The time zone in which the zoom magnification is changed is considered to be a time zone in which the user cannot grasp the subject at a desired magnification. This F2 is subtracted from the other parameters in the finally calculated score, so that the zoom magnification is fixed, and the score of the imaging data after capturing the subject image at the magnification intended by the user is high. It can be.
パン又はチルトの度合いに基づくパラメータF3の算出は、例えば以下のようにして行われる。スコア算出部301は、角速度センサ217の出力等からユーザが撮像装置1をパン又はチルトしている時間Tpを導出する。
The calculation of the parameter F3 based on the degree of panning or tilting is performed as follows, for example. The
Tpが導出されると、スコア算出部301は、以下の数式3から、パン又はチルトの度合いに基づくパラメータF3を算出する。なお、数式3におけるPTは、上記数式1と同じ値が採用される。
F3=Tp/PT ・・・(数式3)
When Tp is derived, the
F3 = Tp / PT (Formula 3)
以上により、撮像データの所定の時間あたりのパン又はチルトが行われた時間の割合が算出され、この割合がスコアを示すパラメータF3とされる。パン又はチルトが行われている時間帯は、ユーザが被写体を完全に捉え切れていない時間帯とも考えられる。このF3が、最終的に算出されるスコアにおいて、他のパラメータから減算されることで、パン又はチルトが行われた後の、すなわちユーザが意図する被写体を捉えた後の撮像データのスコアを高い値とすることができる。 As described above, the ratio of the time when panning or tilting is performed per predetermined time of the imaging data is calculated, and this ratio is set as the parameter F3 indicating the score. The time zone in which panning or tilting is performed can also be considered as a time zone in which the user does not completely capture the subject. This F3 is subtracted from the other parameters in the finally calculated score, thereby increasing the score of the imaging data after panning or tilting, that is, after capturing the subject intended by the user. Can be a value.
顔検出に基づくパラメータF4の算出は、例えば以下のようにして行われる。
顔画像データ検出部401は、図3のステップS102でメインメモリ201に一時記憶された撮像データから、人物の顔画像データを検出する。例えば、顔画像データ検出部401は、顔全体の輪郭または目、口、鼻、耳等の顔の構成要素から特徴量を算出し、その特徴量に基づくテンプレートマッチングによって顔画像データを検出する。または、顔画像データ検出部401は、肌の色に近い領域を検出し、その領域を顔として検出してもよい。
The calculation of the parameter F4 based on the face detection is performed as follows, for example.
The face image
顔画像データが検出されると、スコア算出部301は、顔画像データ検出部401が顔画像データを検出している時間Tfを算出し、以下の数式4から、顔検出に基づくパラメータF4を算出する。なお、PTは数式1と同じ値が採用される。
F4=Tf/PT ・・・(数式4)
When the face image data is detected, the
F4 = Tf / PT (Formula 4)
以上により、撮像データの所定時間PTあたりの顔画像データの検出されている時間の割合が算出され、この割合がスコアを示すパラメータF4とされる。動画像の撮像では、被写体として人物を撮像することが多いと考えられる。このF4が、最終的に算出されるスコアにおいて、他のパラメータに加算されることになり、ユーザが被写体となる人物を捉えている撮像データのスコアを高い値とすることができる。 As described above, the ratio of the detected time of the face image data per predetermined time PT of the imaging data is calculated, and this ratio is set as the parameter F4 indicating the score. In capturing moving images, it is considered that a person is often imaged as a subject. This F4 is added to other parameters in the finally calculated score, and the score of the imaging data in which the user captures the person who is the subject can be set to a high value.
撮像画像中の顔画像のサイズに基づくパラメータF5の算出は、例えば以下のようにして行われる。顔画像データ検出部401が上述のようにして、撮像データから被写体となる人物の顔画像データを検出すると、スコア算出部301は、検出されている顔画像データに係る画像のサイズ(面積)が、撮像画像データに係る画像全体のサイズ(面積)に占める割合を算出し、この算出された割合が所定の範囲内(例えば、30%〜70%)にある時間Tsを算出する。顔画像のサイズは、既知の方法に基づき、顔画像の領域面積を特定することで行われる。
Calculation of the parameter F5 based on the size of the face image in the captured image is performed as follows, for example. When the face image
そして、スコア算出部301は、以下の数式5から、撮像画像中の顔画像のサイズに基づくパラメータF5を算出する。なお、PTは数式1と同じ値が採用される。
F5=Ts/PT ・・・(数式5)
And the
F5 = Ts / PT (Formula 5)
以上により、撮像データの所定時間PTあたりにおける、検出されている顔画像のサイズが、撮像画像全体のサイズに占める割合が所定の範囲となっている時間の割合が算出され、この割合がスコアを示すパラメータF5とされる。動画像データの撮像では人物を撮像することが多いと考えられるが、さらに被写体を小さすぎず、また大きすぎず撮像できている場合は、撮像が上手く行われていると考えられる。このF5が、最終的に算出されるスコアにおいて、他のパラメータに加算されることになり、ユーザが被写体となる人物を上手く捉えている撮像データのスコアを高い値とすることができる。 As described above, the ratio of the time during which the size of the detected face image in the predetermined time PT of the imaging data occupies the size of the entire captured image is within the predetermined range is calculated, and this ratio is the score. Parameter F5 is shown. In capturing moving image data, it is considered that a person is often imaged. However, if the subject is captured without being too small or too large, it is considered that the image is captured well. This F5 is added to other parameters in the finally calculated score, so that the score of the imaging data in which the user well captures the person who is the subject can be set to a high value.
顔認識の結果に基づくパラメータF6の算出は、例えば以下のようにして行われる。顔画像データ検出部401が上述のようにして、撮像データから被写体となる人物の顔画像データを検出すると、顔画像データ認識部402は検出された顔画像データと、顔画像データ登録部403に予め登録された顔画像データと照合する。そして、顔画像データ認識部402は、検出された顔画像データと、顔画像データ登録部403に予め登録された顔画像データとが所定の類似度の範囲におさまる場合は、検出された顔画像データは、予め登録された人物のものであると認識する。スコア算出部301は、顔画像データ認識部403がこの認識を行っている時間Trを算出する。
Calculation of the parameter F6 based on the result of face recognition is performed as follows, for example. When the face image
そして、スコア算出部301は、以下の数式6から、顔認識の結果に基づくパラメータF6を算出する。なお、数式6におけるPTは、上記数式1と同じ値が採用される。
F6=Tr/PT ・・・(数式6)
And the
F6 = Tr / PT (Formula 6)
以上により、撮像データの所定時間PTあたりにおける、予め顔画像データが登録された人物の顔画像データが検出されている時間の割合が算出され、この割合がスコア示すパラメータF6とされる。予め顔画像データが登録されているような人物は、ユーザにとって重要な被写体である可能性が高いと考えられる。このF6が、最終的に算出されるスコアにおいて、他のパラメータに加算されることになり、ユーザが重要な被写体となる人物を捉えている撮像データのスコアを高い値とすることができる。 As described above, the ratio of the time when the face image data of the person whose face image data is registered in advance is detected per predetermined time PT of the imaging data is calculated, and this ratio is set as the parameter F6 indicating the score. It is considered that a person whose face image data is registered in advance is likely to be an important subject for the user. This F6 is added to other parameters in the finally calculated score, and the score of the imaging data in which the user captures a person who is an important subject can be set to a high value.
手ぶれ補正に基づくパラメータF7の算出は、例えば以下のようにして行われる。中央制御部300は、角速度センサ217の出力に応じて、いわゆる手ぶれ補正を、既知の方法により実施する。スコア算出部405は、中央制御部300が所定の度合いよりも大きく手ぶれ補正を実施している時間Tmを算出し、以下の数式7から、手ぶれ補正に基づくパラメータF7を算出する。なお、数式7におけるPTは、上記数式1と同じ値が採用される。
F7=Tm/PT ・・・(数式7)
The calculation of the parameter F7 based on the camera shake correction is performed as follows, for example. The
F7 = Tm / PT (Expression 7)
以上により、撮像データの所定時間PTあたりの手ぶれ補正が行われた時間の割合が算出され、この割合がスコアを示すパラメータF7とされる。手ぶれ補正が所定の度合いよりも大きく行われている時間は、ユーザが大きく手ぶれをおこし、撮像自体は上手く行えていない可能性がある。このF7が、最終的に算出されるスコアにおいて、他のパラメータから減算されることになり、手ぶれが比較的少ない、上手く撮像された撮像データのスコアを高い値とすることができる。 As described above, the ratio of the time when the camera shake correction is performed per predetermined time PT of the imaging data is calculated, and this ratio is set as the parameter F7 indicating the score. During the time when camera shake correction is performed greater than a predetermined degree, there is a possibility that the user shakes greatly and imaging itself is not performed well. This F7 is subtracted from the other parameters in the finally calculated score, and the score of well-captured imaging data with relatively little camera shake can be set to a high value.
スコア算出部301は、上述のようにして、ホワイトバランスの調整度合いに基づくパラメータF1、ズームの変更度合いに基づくパラメータF2、パン及びチルトの度合いに基づくパラメータF3、顔検出の結果に基づくパラメータF4、撮像画像中の顔画像のサイズに基づくパラメータF5、顔認識の結果に基づくパラメータF6、及び手ぶれ補正に基づくパラメータF7を算出し、以下の数式8により、各パラメータを加算し、スコアPを算出する。
P=−n1F1−n2F2−n3F3+n4F4+n5F5+n6F6−n7F7
・・・(数式8)
As described above, the
P = -n1F1-n2F2-n3F3 + n4F4 + n5F5 + n6F6-n7F7
... (Formula 8)
ここで、n1からn7までの各nx(x=1〜7)は、各パラメータの重み付けのための係数であり、各係数は中央制御部300のROMに予め記憶されている。またユーザが、各係数を、操作部209を用いて設定することができる。また、全てのパラメータを使用するのではなく、ユーザが事前に選択した一部のパラメータのみを使用するようにしてもよい。なお、ここではnxは全てゼロ以上の整数である。
Here, each nx from n1 to n7 (x = 1 to 7) is a coefficient for weighting each parameter, and each coefficient is stored in advance in the ROM of the
また、n1からn7までの各nxの値や関係は、中央制御部300のROMが記憶している各種撮像モードに応じて、予め設定されていてもよい。例えば、運動会等を撮像するスポーツモードでは、激しく動く特定の人物を、他の人物の中から判別して撮像を行う必要がある。そこで、顔検出の結果に基づくパラメータF4の重み付け係数n4、及び顔認識の結果に基づくパラメータF6の重み付け係数n6を他のパラメータの重み付け係数より大きくするとともに、被写体を追従した撮像が必要になることから、パンやチルトが激しく行われることを想定し、パン及びチルトの度合いに基づくパラメータF3の重み付け係数n3をゼロにする等のアレンジ設定が考えられる。
In addition, the value and relationship of each nx from n1 to n7 may be set in advance according to various imaging modes stored in the ROM of the
また、暗い環境で撮像が行われる夜景モードでは、撮像素子104のシャッタスピードが落ちることから、手ぶれが起こりやすくなる。そこで、手ぶれ補正に基づくパラメータF7の重み付け係数n7を他のパラメータの重み付け係数よりも大きくする等の様々なアレンジ設定が考えられる。
Further, in the night view mode in which imaging is performed in a dark environment, the shutter speed of the
図3に戻り、ステップS103でスコアが算出されると、取得された撮像データと算出され全所定期間のスコアとが、関連付けられてメインメモリ201や記録メディア212に記録される(ステップS104)。この時、例えば、中央制御部300は、時計215が導出する時刻情報を利用して撮像データと算出された各所定期間のスコアのタイムスタンプを共通にする関連付けを行う。
Returning to FIG. 3, when the score is calculated in step S103, the acquired imaging data and the calculated score for all the predetermined periods are associated and recorded in the
ユーザが操作部209の図示しない録画ボタンを再度押下すると(ステップS105でYES)、撮像の終了とともに、スコアの算出の処理を終了する。ユーザが操作部209の図示しない録画ボタンを再度押下せず、撮像を継続した場合は(ステップS105でNO)、ステップS102に戻り、撮像と当該算出処理が継続される。
When the user presses a recording button (not shown) of the
なお上述した例では、スコア算出部301によるスコアの算出は、撮像データの生成と略同じタイミングで実施された。一方で、スコア算出部301は、既に生成され記録メディア212に記録されてしまっている撮像データのスコアを算出することもできる。例えば、上述したパラメータだけを撮像データの生成時に算出し、後述するリクエスト情報が通信端末2から受信されたタイミングでスコアが算出されてもよい。また、撮像時以外にも導出可能なパラメータのみを使用して、外部機器等から取得された動画像データのスコアを算出することもできる。
In the above-described example, the score calculation by the
以上のようにして、スコア算出部301は、撮像データ(動画像データ)に対し、所定時間毎のスコアを算出する。算出されたスコアは、分割された動画像データから代表画像データが特定され、代表画像情報が生成される際に利用される。次に、図2に戻り、中央制御部300の動画像データ分割部302等について順に説明する。
As described above, the
動画像データ分割部302は、記録メディア212に記録されている一つの動画像データを複数の部分に分割する。以下では、この一つの動画像データが分割されて生じる部分的な動画像データを、「分割動画像データ」とよぶ。そして、動画像データ分割部302は、各分割動画像データの位置を示す情報である「分割位置情報」を生成する。分割位置情報は、時計215の出力する時刻情報が参照されて、分割前の動画像データ全体における各分割動画像データの開始及び終了時点に基づいて生成される。また、分割位置情報は、各分割動画像データの開始点及び終了点のそれぞれに対応する、各ピクチャデータの位置を示す情報等に基づいて生成されてもよい。
The moving image
動画像データ分割部302は、一つの動画像データを、予め設定された個数に分割したり、予め設定ざれた時間毎に分割したりすることができる。これらの設定には、中央制御部300のROMに予め記憶されている情報を使用したり、操作部209を介して行われたユーザ入力の内容を使用したりすることができる。
The moving image
代表画像データ特定部303は、スコア算出部301が算出したスコアに基づき、動画像データ分割部301の分割によって生じた各分割動画像データのそれぞれから、最も高いスコアを有する所定時間に属する所定の画像単位データを代表画像データとして特定する。例えば代表画像データ特定部303は、最も高いスコアを有する所定時間に属する各ピクチャデータの中から、先頭に位置するIピクチャデータを、代表画像データとして特定する。
Based on the score calculated by the
代表画像情報生成部304は、代表画像データ特定部303が特定した代表画像データとなるピクチャデータについて、分割される前の動画像データ中の位置を示す情報、及びピクチャデータに係る画像が描画されるために必要なデータを、代表画像情報として生成する。生成された代表画像情報は、無線モジュール214等を介して、通信端末2等に送信されることになる。
The representative image
動画像データ抽出部305は、通信端末2又は3から送信された選択情報(詳細は後述する。)に基づき、動画像データの一部を抽出する。以下、この抽出される一部の動画像データを「抽出動画像データ」とよぶ。抽出された抽出動画像データは、無線モジュール214等を介して、通信端末2等に送信されることになる。
The moving image
上述した動画像データ分割部302、代表画像データ特定部303、及び代表画像情報生成部304については、後述する<撮像装置1による分割位置情報及び代表静止画情報の生成>処理のなかでも詳細に説明する。また、動画像データ抽出部305については、同じく後述する<抽出動画像データの取得>処理のなかでも詳細に説明する。
The above-described moving image
(通信端末2の構成)
続いて、通信端末2または3の構成について説明する。なお、通信端末2及び3の本発明に関する構成は実質的に同じであるため、以降の説明では通信端末2の構成を説明し、通信端末3の構成についての説明は省略する。図4は通信端末2の概略的な内部構成を示すブロック図である。
(Configuration of communication terminal 2)
Next, the configuration of the communication terminal 2 or 3 will be described. In addition, since the structure regarding this invention of the communication terminals 2 and 3 is substantially the same, in the following description, the structure of the communication terminal 2 is demonstrated and description about the structure of the communication terminal 3 is abbreviate | omitted. FIG. 4 is a block diagram showing a schematic internal configuration of the communication terminal 2.
中央制御部600は、CPU、各種プログラムが格納されたROM、及びワークエリアとしてのRAM等を含む半導体集積回路から構成される。この中央制御部600は、通話、電子メールの送受信、ネットワークを介した各種データの送受信をはじめとして、各種アプリケーション・プログラムの処理を統括的に制御する。
The
また中央制御部600は、後述する選択画像データの生成や選択情報の生成といった処理を行う。以下では先ず、この中央制御部300により制御される他の各部について述べた後、これらの中央制御部600による処理について説明する。
The
メインメモリ501は、入出力端子509や無線モジュール513を介して受信された各種データや、各種のアプリケーション・プログラム等を記憶する。VRAM502は、画像処理部503が生成する各種メニュー画像データや、選択画像データ生成部601が生成した選択画像データをはじめとした、GUI(Graphical User Interface)に係る画像データを一次記憶する。
The
モニタ505、スピーカ506、操作部507、マイク508、及び入出力端子509は入出力I/F504に接続されている。以下に、各部について説明する。
A
モニタ505は、例えば液晶ディスプレイや有機EL(Electroluminescence)ディスプレイから構成されている。モニタ505は、画像処理部503が生成した各種GUIの画像データや、記録メディア511に記録された各種画像データに係る画像を表示する。モニタ505は、後述する選択画像の表示も行う。
The
スピーカ506は、記録メディア511等に記録された画像データに付随する音声や、音楽データに係る音楽を出力する。操作部507は、図示しない各種ボタン、操作キー、又はモニタ505上に重畳されたタッチパネル等から構成される。操作部507は、撮像装置1からのデータの受信指示や、後述する代表画像の選択指示等、ユーザの通信端末2への各種の操作入力、又は設定に関する入力等を受け付ける。
The
マイク509を介して、通話時等のユーザの音声が入力される。入出力端子509は、図示しない外部機器、例えばテレビをはじめとしたディスプレイ装置やPC等との接続に使用される。この入出力端子509を介して、各種のデータが通信端末2と外部機器との間で入出力される。入出力端子509は、例えばHDMI(登録商標)端子やUSB端子等から構成される。
A user's voice during a call or the like is input via the
メインメモリ501に記録された抽出動画像データをはじめとした各種データは、メディアI/F510を介して記録メディア511に出力され、この記録メディア511に記録される。記録メディア511としては、通信端末2に着脱可能なSDメモリカード等が使用される。なお、SDメモリカードの替りに他の記録媒体を使用してもよい。また記録メディア212は、撮像装置1に内蔵されていても、着脱可能とされていてもよい。
Various data including the extracted moving image data recorded in the
無線モジュール513は、無線I/F512を介して外部機器との間で各種データを無線ネットワーク通信により送受信する。この無線ネットワーク通信には、例えばIEEE802.11シリーズを利用した方式が利用される。
The
前述した通り、中央制御部600は、選択画像データの生成処理を行う選択画像データ生成部601、及び選択情報の生成処理を行う選択情報生成部602としても機能する。以下、各部について説明する。
As described above, the
撮像装置1の動画像データ分割部302が生成した分割位置情報、及び代表画像情報生成部304が生成した代表画像情報が、無線モジュール513を介して、通信端末2に受信される。選択画像データ生成部601は、受信された分割位置情報及び代表画像情報に基づいて、選択画像データを生成する。
The division position information generated by the moving image
詳細は後述するが、撮像装置1に記録された動画像データから抽出動画像データをユーザが取得するにあたり、モニタ505は、各分割動画像データの代表画像及び分割位置情報を示す画像、並びに取得される抽出動画像データの時間的長さを示す画像を含む選択画像を表示する。この選択画像は、選択画像データ生成部601が生成した選択画像データに基づいて生成される。
Although details will be described later, when the user obtains the extracted moving image data from the moving image data recorded in the
ユーザが、選択画像に含まれる複数の代表画像の中から任意の代表画像を選択し、抽出動画像データの長さ(再生時間)を指定すると、選択情報生成部602が、それらの選択及び指定に基づき、選択情報を生成する。生成された選択情報は、無線モジュール513を介して撮像装置1に送信される。撮像装置1は、受信した選択情報に基づき、動画像データから抽出動画像データを生成(抽出)する。なお、上述の選択及び指定の入力は、操作部507のタッチパネルのタッチに基づいて行われる。
When the user selects an arbitrary representative image from a plurality of representative images included in the selected image and designates the length (reproduction time) of the extracted moving image data, the selection
<撮像装置1による分割位置情報及び代表静止画情報の生成>
続いて、撮像装置1による分割位置情報及び代表画像情報の生成処理(方法)について説明する。図5は、この処理を説明するためのフローチャートである。
<Generation of Division Position Information and Representative Still Image Information by
Subsequently, a generation process (method) of division position information and representative image information by the
まず動画像データ分割部302が、記録メディア212に記録された一つの動画像データ(撮像データ)を、複数の分割動画像データに分割する(ステップS201)。一つの動画像データを、どのように分割するかは、中央制御部300のROMに予め記録されている設定を使用することができる。なお、この設定はユーザが適宜変更することができる。
First, the moving image
図6は、動画像データ分割部302による動画像データの分割について説明するための模式図である。ユーザが操作部209の図示しない録画ボタンを押下して撮像を開始し、録画ボタンを再度押下して撮像を終了すると、一つの動画像データが生成され、記録メディア212に記録される。図6では、時間T00から撮像を開始し、時間T05に撮像を終了した動画像データMD100が生成され記録された動画像データである。
FIG. 6 is a schematic diagram for explaining the division of moving image data by the moving image
ここでは、再生時間が等しい計5つの分割動画像データを生成するように、動画像データの分割に関する設定が行われていた場合を例示する。動画像データ分割部301は、動画像データMD100を、時間T00〜T01までの分割動画像データMD101、時間T01〜T02までの分割動画像データMD102、時間T02〜T03までの分割動画像データMD103、時間T03〜T04までの分割動画像データMD104、及び時間T04〜T05までの分割動画像データMD105の、合計5つの分割動画像データに分割する。
Here, a case where settings relating to division of moving image data are performed so as to generate a total of five divided moving image data having the same reproduction time will be exemplified. The moving image
図6の例では、分割動画像データMD101、MD102、MD103、MD104、及びMD105は、それぞれ同じ撮像時間(再生時間)となるように、動画像データ分割部301が、動画像データMD100を分割している。
In the example of FIG. 6, the moving image
図5に戻り、ステップS201で動画像データが分割されると、動画像データ分割部301は、各分割動画像データの開始位置及び終了位置を示す分割位置情報を生成する(ステップS202)。この分割位置情報の生成は、時計215の出力する時刻情報が参照され、各分割動画像データの開始時間及び終了時間に基づいて行われる。すなわち例えば、図5の模式図では、分割動画像データMD101の分割位置情報は、開始時間T00及び終了時間T01を示す情報となる。
Returning to FIG. 5, when the moving image data is divided in step S201, the moving image
また、この分割位置情報は、分割される動画像データ中における、各分割動画像データの開始時間及び終了時間に対応する、各ピクチャデータの位置を示す情報に基づいて生成されてもよい。この場合は例えば、図5の模式図では、分割動画像データMD101の分割位置情報は、開始時間T00及び終了時間T01のそれぞれに対応するピクチャデータの位置情報に基づいて生成されることとなる。 Further, the division position information may be generated based on information indicating the position of each picture data corresponding to the start time and end time of each divided moving image data in the divided moving image data. In this case, for example, in the schematic diagram of FIG. 5, the division position information of the divided moving image data MD101 is generated based on the position information of the picture data corresponding to the start time T00 and the end time T01.
ステップS202で動画像データ分割部301が分割位置情報を生成すると、スコア算出部301が、動画像データのスコアを導出する(ステップS203)。上述した通り、スコア算出部301が撮像データの生成時に算出したスコアは、メインメモリ201等に記録されている。スコア算出部301は、この記録されたスコアを呼び出して、スコアを導出する。あるいは上述した各パラメータのみが記録さており、スコア算出部301が、このステップS203の段階で各パラメータの加算等を行い、スコアの導出を行ってもよい。
When the moving image
ステップS203でスコア算出部301がスコアを導出すると、代表画像データ特定部303が、導出されたスコアに基づいて、各分割画像データから代表静止画データを特定する(ステップS204)。例えば代表画像データ特定部303は、最も高いスコアを有する所定時間に属する各ピクチャデータの中から、先頭に位置するIピクチャデータを、代表画像データとして特定する。
When the
図7は、代表画像データ特定部303による代表画像データを特定する処理について説明するための模式図である。上述した通り、スコア算出部301が、動画像データMD100について、所定時間毎にスコアを算出する。図7(a)では、分割動画像データMD101において、時間t11a〜t11bの時間帯が最も高いスコアを有する時間帯であることを例示している。代表画像データ特定部303は、この時間t11a〜t11bの時間帯に属するピクチャデータから、先頭のIピクチャPD11aに係るデータを、代表画像データとして特定している。なお、このIピクチャPD11aに係るデータは、時間t11の時点に位置している。
FIG. 7 is a schematic diagram for explaining processing for specifying representative image data by the representative image
図7(b)に示した通り、代表画像データ特定部303は、分割動画像データMD102からはIピクチャPD12a、分割動画像データMD103からはIピクチャPD13a、分割動画像データMD104からはIピクチャPD14a、及び分割動画像データMD105からはIピクチャPD15aを、代表画像データとして特定する。
As shown in FIG. 7B, the representative image
図5に戻り、ステップS204で代表画像データ特定部303が代表画像データを特定すると、代表画像情報生成部304が代表画像情報を生成する(ステップS205)。代表画像情報生成部304は、代表画像データ特定部303が特定した代表画像データとなるピクチャデータについて、分割される前の動画像データ中の位置を示す情報、及びピクチャデータに係る画像が描画されるために必要なデータを、代表画像情報として生成する。
Returning to FIG. 5, when the representative image
図7(b)の例では、代表画像情報生成部304は、分割動画像データMD101からは、IピクチャPD11aの位置を示す情報として時間t11を示す情報、及びIピクチャPD11aが描画されるために必要なデジタル画像データを、代表画像情報として生成する。同様に、分割動画像データMD102からは、IピクチャPD12aの位置を示す情報として時間t12を示す情報、及びIピクチャPD12aが描画されるために必要なデジタル画像データ、分割動画像データMD103からは、IピクチャPD13aの位置を示す情報として時間t13を示す情報、及びIピクチャPD13aが描画されるために必要なデジタル画像データ、分割動画像データMD104からは、IピクチャPD14aの位置を示す情報として時間t14を示す情報、及びIピクチャPD14aが描画されるために必要なデジタル画像データ、及び分割動画像データMD105からは、IピクチャPD15aの位置を示す情報として時間t15を示す情報、及びIピクチャPD15aが描画されるために必要なデジタル画像データ、がそれぞれ代表画像情報とされる。
In the example of FIG. 7B, the representative image
図5に戻り、ステップS205で代表画像情報が生成されると、ステップS202で生成された分割位置情報、及び生成された代表画像情報が、それぞれメインメモリ201等に記録される(ステップS206)。
Returning to FIG. 5, when the representative image information is generated in step S205, the division position information generated in step S202 and the generated representative image information are recorded in the
以上の<撮像装置1による分割位置情報及び代表静止画情報の生成>処理は、撮像データが生成され記録メディア212に記録される際に実施されてもよいし、記録メディア212に記録された直後等のタイミングで実施されてもよい。また、通信端末2から、動画像データの送信処理を要求する情報を受信したタイミングで実施されてもよい。
The above processing <generation of division position information and representative still image information by the
<抽出動画像データの取得>
続いて、撮像装置1が記録している撮像データ(動画像データ)から所望する部分が抽出され、抽出された部分が通信端末2に取得されるまでの、システムSYS1で実施される一連の処理について説明する。この処理では、ユーザは通信端末2が表示する代表画像等を用いて、所望の部分を通信端末2に取得させることができる。図8は、この一連の処理を説明するためのフローチャートである。
<Acquisition of extracted moving image data>
Subsequently, a series of processes performed by the system SYS1 until a desired portion is extracted from the imaging data (moving image data) recorded by the
先ずユーザは、通信端末2において、撮像装置1から抽出動画像データを取得するための所定のアプリケーション・プログラムを起動させ、通信端末2と撮像装置1との間のネットワーク通信を確立する(ステップS301)。そして通信端末2は、撮像装置1に記録されている動画像データの所望の部分を通信端末2に送信する処理の開始を要求する旨の、開始リクエスト情報を生成し、撮像装置1に送信する(ステップS302)。この開始リクエスト情報は、通信端末2のモニタ505に表示された、アプリケーション・プログラムのGUIの所定のボタンをユーザがタッチ等することで生成され送信される。リクエスト情報は中央制御部600が生成し、無線モジュール513等から送信される。
First, the user activates a predetermined application program for acquiring the extracted moving image data from the
撮像装置1が、開始リクエスト情報を受信すると、中央制御部300が導出した動画像データの生成日時(撮像日時)を示す情報及び動画像データの再生時間を示す情報、並びに画像処理部204が生成した動画像データのサムネイル画像データを含む、リスト情報が生成される(ステップS302)。リスト情報は、記録メディア212に記録された動画像データ毎に生成される。
When the
動画像データの生成日時(撮像日時)を示す情報及び動画像データの再生時間を示す情報は、動画像データの所定の領域に格納されたものが読み出されることで導出されてもよいし、中央制御部300が算出して導出してもよい。そして、代表画像情報生成部304が代表画像情報を生成する際に生成された、各分割動画像データの代表画像データのなかから、最もスコアの高いものが、サムネイル画像データとなる。
The information indicating the generation date and time (imaging date and time) of the moving image data and the information indicating the reproduction time of the moving image data may be derived by reading out data stored in a predetermined area of the moving image data, The
ステップS302で生成された、撮像データ毎の各リスト情報が、無線モジュール214から送信され、通信端末2がそれらを受信すると、通信端末2のモニタ505は、受信した各リスト情報に基づきリスト画像を表示する(ステップS304)。画像処理部503が、受信されたリスト情報を統合し、リスト画像に係る画像データを生成する。そして、その画像データに基づくリスト画像が、モニタ505に表示されることになる。図9は、表示されるリスト画像の模式図である。
Each list information for each imaging data generated in step S302 is transmitted from the
リスト画像は、動画像データ毎に、サムネイル画像、生成日時(撮像日時)を示す画像、及び再生時間を示す画像からなる。図9の例では、撮像装置1の記録メディア212に、動画像データMD100、MD200、MD300、MD400、MD500、及びMD600が記録されており、それぞれに対応するリスト情報から生成された画像が表示されている。リスト画像L90は、動画像データMD100〜MD600のそれぞれに対応する、サムネイル画像PD10b〜PD60b、撮像日時を示す画像TD10b〜TD60b、及び再生時間を示す画像DD10b〜DD60bから構成されている。
The list image is composed of a thumbnail image, an image indicating the generation date / time (imaging date / time), and an image indicating the reproduction time for each moving image data. In the example of FIG. 9, moving image data MD100, MD200, MD300, MD400, MD500, and MD600 are recorded on the
図8に戻り、ユーザが、リスト画像に表示された複数の動画像データのなかから、所望の動画像データを選択すると、その所望の動画像データの情報を要求する旨のリクエスト情報が生成され、撮像装置1に送信される(ステップS305)。このリクエスト情報は、リスト画像において、所望の動画像データに関する各画像が表示されている領域をユーザがタッチ等することで生成される。リクエスト情報は、中央制御部600が生成し、無線モジュール513を介して撮像装置1に送信される。
Returning to FIG. 8, when the user selects desired moving image data from among the plurality of moving image data displayed in the list image, request information for requesting information on the desired moving image data is generated. Are transmitted to the imaging apparatus 1 (step S305). This request information is generated when the user touches an area where each image related to desired moving image data is displayed in the list image. The request information is generated by the
撮像装置1が、リクエスト情報を受信すると、対象となる動画像データについて、動画像データ分割部302が生成した分割位置情報、及び代表画像情報生成部304が生成した代表画像情報が導出される(ステップS306)。中央制御部300が、メインメモリ201等に記録された分割位置情報及び代表画像情報を呼び出すことで、これらの導出が行われる。
When the
一方で、この情報リクエスト情報が受信されたタイミングで、分割位置情報及び代表画像情報が生成されるようにしてもよい。この場合は、ステップS303等で生成等されたサムネイル画像データは、対応する動画像データの先頭のIピクチャデータ等を使用する。 On the other hand, the division position information and the representative image information may be generated at the timing when the information request information is received. In this case, the thumbnail image data generated in step S303 or the like uses the first I picture data of the corresponding moving image data.
ステップS306で生成された分割位置情報及び代表画像情報が無線モジュール214から送信され、通信端末2がそれらを受信すると、選択画像データ生成部601は、受信された各情報に基づき、選択画像データを生成する(ステップS307)。そしてモニタ505は、生成された選択画像データに基づき、選択画像を表示する(ステップS308)。図10は、モニタ505に表示される選択画像の例を示す模式図であり、以下に、この模式図を参照して選択画像について説明する。
When the division position information and the representative image information generated in step S306 are transmitted from the
図10の模式図に示した選択画像SG10は、大別して6つの画像から構成されている。すなわち、対象となる動画像データ(撮像データ)の生成日時(撮像日時)を示す画像TG1、対象となる動画像データの先頭画像PD10c及び代表画像PD11c〜PD15c、各分割画像データの開始時点を示す画像TG10〜TG15、サムネイル画像PD10c又は各代表画像PD11c〜PD15cの位置する時点を示す画像TG16、LG10、及びIG10、抽出される抽出動画像データの長さを示す画像TG17、及び抽出を要求するボタン画像TF10から、選択画像SG10は構成される。 The selection image SG10 shown in the schematic diagram of FIG. 10 is roughly composed of six images. That is, the image TG1 indicating the generation date (imaging date) of the target moving image data (imaging data), the head image PD10c and the representative images PD11c to PD15c of the target moving image data, and the start time of each divided image data are indicated. Images TG10, TG15, thumbnail images PD10c, or images TG16, LG10, and IG10 that indicate the positions of the representative images PD11c to PD15c, an image TG17 that indicates the length of the extracted moving image data to be extracted, and a button that requests extraction The selected image SG10 is composed of the image TF10.
対象となる撮像データ(動画像データ)の生成日時(撮像日時)を示す画像は、ステップS304の際に通信端末4が受信した情報が利用される。または、ステップS307で、撮像装置1が、分割位置情報等と併せて送信したものが使用されるようにしてもよい。
Information received by the communication terminal 4 at the time of step S304 is used for an image indicating the generation date (imaging date) of target imaging data (moving image data). Or what was transmitted together with division position information etc. by
次に、対象となる動画像データの先頭画像PD10b及び代表画像PD11b〜PD15bについて説明する。中央制御部300は、記録メディア212に記録されている動画像データの先頭のIピクチャに基づく画像データを生成する。そして、この生成された画像データが、分割位置情報及び代表画像情報とともに送信され、選択画像内で先頭画像PD10cとして表示される。
Next, the first image PD10b and the representative images PD11b to PD15b of the target moving image data will be described. The
代表画像PD11c〜PD15cは、動画像データ分割部302により動画像データが分割されて生成された、計5つの分割動画像データのそれぞれにおける、代表画像データ特定部303が特定した代表画像データとなるピクチャデータに基づいて表示される。これらのピクチャデータに係る画像を描画するためのデータは、上述した通り代表画像情報に含まれている。
The representative images PD11c to PD15c are representative image data specified by the representative image
各分割画像データの開始時点を示す画像TG10〜TG15は、分割位置情報に含まれる各分割動画像データの開始時点を示す情報に基づいて生成される。なお図10の例では、各分割画像データの終了時点を示す画像を省略しているが、各分割動画像データの終了時点、または動画像データ全体の終了時点のみを示す画像が表示されるようにしてもよい。 Images TG10 to TG15 indicating the start time of each divided image data are generated based on information indicating the start time of each divided moving image data included in the division position information. In the example of FIG. 10, an image indicating the end time of each divided image data is omitted, but an image indicating only the end time of each divided moving image data or the entire moving image data is displayed. It may be.
続いてサムネイル画像PD10c又は各代表画像PD11c〜PD15cの位置する時点を示す画像TG16、LG10、及びIG10について、以下に説明する。ここで図11は、ユーザが代表画像PD11cに対応するタッチパネル領域をタッチした場合の、選択画像を示す模式図である。 Next, the images TG16, LG10, and IG10 that indicate the time points at which the thumbnail images PD10c or the representative images PD11c to PD15c are located will be described below. Here, FIG. 11 is a schematic diagram showing a selected image when the user touches the touch panel area corresponding to the representative image PD11c.
ユーザが代表画像PD11bに対応するタッチパネル領域をタッチすると、この代表画像が選択されている旨を示すカーソル画像CG10が表示される。なお、このカーソル画像CG10は、画像処理部503が生成した画像データに基づいて表示される。
When the user touches the touch panel area corresponding to the representative image PD11b, a cursor image CG10 indicating that the representative image is selected is displayed. The cursor image CG10 is displayed based on the image data generated by the
そして、画像TG16は、選択された代表画像が、動画像データ中で位置する場所を数字で表示する。図11の例では、代表画像PD11b(に相当するピクチャデータ)は、動画像データ再生から3分45秒後に表示される位置に存在することを示している。また、画像LG10及びIG11は、選択された代表画像が、動画像データ中で位置する場所を図形的に表示する。画像LG10は、動画像データの開始から終了までの全体を現すタイムライン画像であり、画像IG11は、このタイムライン画像中で、選択された代表画像がどの当たりに位置するかを示すインジケータ画像である。これらの画像LG10及びIG10により、ユーザは、選択した代表画像が、動画像全体のどの当たりに位置するのかを視覚的に認識しやすくなる。 Then, the image TG16 displays the number where the selected representative image is located in the moving image data. In the example of FIG. 11, the representative image PD11b (corresponding to the picture data) is present at a position where it is displayed 3 minutes and 45 seconds after the reproduction of the moving image data. Further, the images LG10 and IG11 graphically display a location where the selected representative image is located in the moving image data. The image LG10 is a timeline image showing the entire moving image data from the start to the end, and the image IG11 is an indicator image indicating where the selected representative image is located in the timeline image. is there. With these images LG10 and IG10, the user can easily visually recognize where the selected representative image is located in the entire moving image.
抽出される抽出動画像データの長さを示す画像TG17は、設定されている抽出動画像データの長さ(再生時間)を示す画像である。図11の例では、100秒間分の連続した抽出動画像データを、撮像装置1の記録メディア217に記録された動画像データから抽出することを示している。
The image TG17 indicating the length of the extracted moving image data to be extracted is an image indicating the length (reproduction time) of the set extracted moving image data. In the example of FIG. 11, continuous extracted moving image data for 100 seconds is extracted from moving image data recorded on the recording medium 217 of the
ユーザは、この抽出動画像データの長さを都度、設定・変更することができる。ユーザが、画像TG17に対応するタッチパネル領域をタッチすると、モニタ505は抽出動画像データの長さの設定・変更のための画像を表示する。図12は、この画像の一例を示す模式図である。
The user can set / change the length of the extracted moving image data each time. When the user touches the touch panel area corresponding to the image TG17, the
ユーザが画像TG17に対応するタッチパネル領域をタッチすると、画像処理部503が生成した画像データに基づき、モニタ505に設定・変更画像SG12が表示される。設定・変更画像SG12は、レバー画像TL12及びCG12、設定・変更される時間を示す画像TG19、並びに決定を示す画像OG10から構成される。
When the user touches the touch panel area corresponding to the image TG17, the setting / change image SG12 is displayed on the
ユーザは、レバー画像CG12に対応するタッチパネル領域をタッチし、レバー画像TL12上で、このレバー画像CG12を、図12示したX軸方向に移動させることで、抽出動画像データの長さの設定・変更を行うことができる。変更された抽出動画像データの長さは、画像TG19に表示される。 The user touches the touch panel area corresponding to the lever image CG12 and moves the lever image CG12 in the X-axis direction shown in FIG. 12 on the lever image TL12 to set the length of the extracted moving image data. Changes can be made. The changed length of the extracted moving image data is displayed on the image TG19.
図12中の画像TG19は、抽出動画像データの長さが200秒間に変更されたことを示している。また、図12中に黒塗りで示した領域画像TL12aは、設定・変更される抽出動画像データの長さの増減を視覚的に表示する。つまり、レバー画像CG12がX軸の正方向に移動すると、レバー画像TL12に占める、この領域画像TL12aの面積が増加する。これによって、ユーザは、抽出動画像データの長さを増加させたことを視覚的に認識することができる。 An image TG19 in FIG. 12 indicates that the length of the extracted moving image data has been changed to 200 seconds. Further, the region image TL12a shown in black in FIG. 12 visually displays the increase / decrease in the length of the extracted moving image data to be set / changed. That is, when the lever image CG12 moves in the positive direction of the X axis, the area of the region image TL12a that occupies the lever image TL12 increases. Thereby, the user can visually recognize that the length of the extracted moving image data is increased.
反対に、レバー画像CG12がX軸の負方向に移動すると、レバー画像TL12に占める、この領域画像TL12aの面積が減少する。これによって、ユーザは、抽出動画像データの長さを減少させたことを視覚的に認識することができる。 Conversely, when the lever image CG12 moves in the negative direction of the X axis, the area of the region image TL12a occupied in the lever image TL12 decreases. Thus, the user can visually recognize that the length of the extracted moving image data has been reduced.
ユーザが、決定を示す画像OG10に対応するタッチパネル領域をタッチすると、上述のようにして設定・変更された、抽出動画像データの長さが決定される。図13は、ユーザが画像OG10に対応するタッチパネル領域をタッチした後に、モニタ505が表示する選択画像SG10の模式図である。
When the user touches the touch panel area corresponding to the image OG10 indicating the determination, the length of the extracted moving image data set / changed as described above is determined. FIG. 13 is a schematic diagram of the selection image SG10 displayed on the
抽出を要求するボタン画像TF10に対応するタッチパネル領域がタッチ等されると、抽出動画像データの長さ、及び代表画像の選択が決定される。この画像TF10は、画像処理部503が生成した画像データに基づいて表示される。
When the touch panel area corresponding to the button image TF10 requiring extraction is touched, the length of the extracted moving image data and the selection of the representative image are determined. The image TF10 is displayed based on the image data generated by the
図8に戻り、ユーザが、上述のようにして抽出動画像データの長さを決定し、代表画像を選択し、抽出を要求するボタン画像TF10に対応するタッチパネル領域をタッチ等する(ステップS309)と、通信端末2の選択情報生成部602が選択情報を生成する(ステップS310)。選択情報は、代表画像情報に含まれていた代表画像データの位置を示す情報、及び指定された抽出動画像データの長さを示す情報から構成される。生成された選択情報は、無線モジュール513を介して撮像装置1に送信される。
Returning to FIG. 8, the user determines the length of the extracted moving image data as described above, selects a representative image, and touches the touch panel area corresponding to the button image TF10 requesting extraction (step S309). Then, the selection
ステップS310で生成された選択情報が撮像装置1に受信されると、撮像装置1の動画像データ抽出部305は、受信された選択情報に基づいて、動画像データから抽出動画像データを抽出する(ステップS311)。抽出される抽出動画像データは、選択された代表画像データを先頭としてもよいし、選択された代表画像データよりも所定時間または所定ピクチャだけ前の画像データを先頭としてもよい。
When the selection information generated in step S310 is received by the
すなわち例えば、図13の例では、代表画像PD11bに対応する画像データを開始時点として、動画像データから3分45秒から7分5秒までのデータが、抽出動画像データとして抽出されてもよい。また、代表画像PD11bに対応する画像データよりも所定時間又は所定ピクチャだけ前の、例えば3分0秒から5分20秒までのデータが、抽出動画像データとして抽出されてもよい。 That is, for example, in the example of FIG. 13, data from 3 minutes 45 seconds to 7 minutes 5 seconds from the moving image data may be extracted as the extracted moving image data, starting from the image data corresponding to the representative image PD11b. . Further, for example, data from 3 minutes 0 seconds to 5 minutes 20 seconds before the predetermined time or predetermined picture from the image data corresponding to the representative image PD11b may be extracted as the extracted moving image data.
抽出された抽出動画像データは、予め設定された条件に従い、圧縮・伸長処理部202でトランスコードされた後、無線モジュール214から送信される(ステップS312)。そして、通信端末2が無線モジュール513を介して、送信された抽出動画像データを受信する(ステップS313)。
The extracted extracted moving image data is transmitted from the
以上の通り本発明に係る動画像データ処理システムSYS1によれば、ユーザは、撮像装置1に記録された撮像データ(動画像データ)に関し、通信端末2のモニタ505に表示された適切な代表画像を指針として、容易に所望の抽出動画像データを取得することができる。なお、本発明に係る動画像データ送信装置としては、撮像装置1のように撮像部による撮像を介して動画像データを生成する電子機器に限らず、動画像データの入出力が可能な機器であればよい。同様に、本発明に係る動画像データ送信装置としては、通信端末2のようなポータブルな通信機器に限らず、動画像データの入出力が可能な機器であればよい。
As described above, according to the moving image data processing system SYS1 according to the present invention, a user can display an appropriate representative image displayed on the
本発明の実施の形態にかかる動画像データ処理システムSYS1、並びにそれを構成する撮像装置1及び通信端末2は、前述した実施の形態の各機能を実現するプログラムを、CPUが実行する構成とすることも可能である。
The moving image data processing system SYS1 according to the embodiment of the present invention, and the
また、このプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 The program can be stored using various types of non-transitory computer readable media and supplied to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
SYS1 動画像データ処理システム、1 撮像装置、100 撮像部、105 アナログ画像信号処理部、106 画像A/D変換部、107 画像入力コントローラ、108 デジタル信号処理部、200 バス、201 メインメモリ、202 圧縮・伸長処理部、203 多重化部、204 画像処理部、205 VRAM、206 入出力I/F、207 モニタ、209 操作部、210 入出力端子、211 メディアI/F、 212 記録メディア、213 無線I/F、214 無線モジュール、215 時計、216 A/D変換部、217 角速度センサ、300 中央制御部、301 スコア算出部、302 動画像データ分割部、303 代表画像データ特定部、304 代表画像情報生成部、305 動画像データ抽出部、401 顔画像データ検出部、402 顔画像データ認識部、403 顔画像データ登録部、2 通信端末、500 バス、501 メインメモリ、502 VRAM、503 画像処理部、504 入出力I/F、505 モニタ、507 操作部、509 入出力端子、510 メディアI/F、511 記録メディア、512 無線I/F、513 無線モジュール、600 中央制御部、601 選択画像データ、602 選択情報生成部 SYS1 moving image data processing system, 1 imaging device, 100 imaging unit, 105 analog image signal processing unit, 106 image A / D conversion unit, 107 image input controller, 108 digital signal processing unit, 200 bus, 201 main memory, 202 compression Decompression processing unit, 203 multiplexing unit, 204 image processing unit, 205 VRAM, 206 input / output I / F, 207 monitor, 209 operation unit, 210 input / output terminal, 211 media I / F, 212 recording media, 213 wireless I / F, 214 wireless module, 215 clock, 216 A / D conversion unit, 217 angular velocity sensor, 300 central control unit, 301 score calculation unit, 302 moving image data division unit, 303 representative image data specifying unit, 304 representative image information generation 305, moving image data extraction unit 401 Face image data detection unit, 402 Face image data recognition unit, 403 Face image data registration unit, 2 communication terminal, 500 bus, 501 main memory, 502 VRAM, 503 image processing unit, 504 input / output I / F, 505 monitor, 507 Operation unit, 509 input / output terminal, 510 media I / F, 511 recording medium, 512 wireless I / F, 513 wireless module, 600 central control unit, 601 selection image data, 602 selection information generation unit
Claims (3)
前記動画像データ送信装置は、
動画像データが入力される動画像データ入力部と、
前記入力された動画像データを複数に分割して複数の分割動画像データを生成するとともに、その動画像データにおける、それら複数の分割動画像データそれぞれの位置を示す分割位置情報を生成する動画像データ分割部と、
前記動画像データについて所定時間毎のスコアを算出するスコア算出部と、
前記算出されたスコアに基づいて、前記複数の分割動画像データのそれぞれから所定の画像単位データを代表画像データとして特定する代表画像データ特定部と、
前記特定された代表画像データ、及びその代表画像データの前記動画像データにおける位置を示す情報を含む代表画像情報を生成する代表画像情報生成部と、
前記分割位置情報及び前記代表画像情報を送信する情報送信部と、
前記動画像データ受信装置が送信した選択情報を受信する選択情報受信部と、
前記選択情報の受信に応じて、前記代表画像データとして特定された画像単位データを含む前記動画像データの一部を、抽出動画像データとして抽出する動画像データ抽出部と、
前記抽出された抽出動画像データを送信する動画像データ送信部とを備え、
前記動画像データ受信装置は、
前記送信された分割位置情報及び代表画像情報を受信する情報受信部と、
前記受信された分割位置情報及び代表画像情報に基づいて選択画像データを生成する選択画像データ生成部と、
前記選択画像データに基づいて、前記複数の分割動画像データそれぞれの分割位置を示す情報及び代表画像を含む選択画像を表示する選択画像表示部と、
前記選択画像における複数の前記代表画像の中から任意の代表画像を選択する指示、及び前記抽出動画像データの長さを指定する指示が入力される操作部と、
前記入力された指示に応じて、前記選択された代表画像に係る代表画像データの前記動画像データにおける位置を示す情報と、前記抽出動画像データの長さを示す情報とを有する選択情報を生成する選択情報生成部と、
前記生成された前記選択情報を送信する選択情報送信部と、
前記送信された抽出動画像データを受信する動画像データ受信部とを備える
ことを特徴とする動画像データ処理システム。 A moving image data processing system comprising a moving image data transmitting device and a moving image data receiving device,
The moving image data transmission device includes:
A moving image data input unit for inputting moving image data;
A moving image that divides the input moving image data into a plurality of pieces to generate a plurality of divided moving image data, and generates divided position information indicating positions of the plurality of divided moving image data in the moving image data. A data division unit;
A score calculator for calculating a score for each predetermined time for the moving image data;
A representative image data specifying unit that specifies predetermined image unit data as representative image data from each of the plurality of divided moving image data based on the calculated score;
A representative image information generating unit that generates representative image information including the identified representative image data and information indicating a position of the representative image data in the moving image data;
An information transmission unit for transmitting the division position information and the representative image information;
A selection information receiving unit for receiving selection information transmitted by the moving image data receiving device;
A moving image data extraction unit that extracts a part of the moving image data including the image unit data specified as the representative image data as extracted moving image data in response to reception of the selection information;
A moving image data transmitter that transmits the extracted extracted moving image data;
The moving image data receiving device includes:
An information receiving unit for receiving the transmitted divided position information and representative image information;
A selection image data generation unit that generates selection image data based on the received division position information and representative image information;
Based on the selected image data, a selected image display unit for displaying a selected image including information indicating a division position of each of the plurality of divided moving image data and a representative image;
An operation unit to which an instruction to select an arbitrary representative image from the plurality of representative images in the selected image and an instruction to specify the length of the extracted moving image data are input;
In response to the input instruction, generation of selection information including information indicating the position of the representative image data related to the selected representative image in the moving image data and information indicating the length of the extracted moving image data A selection information generation unit to
A selection information transmission unit for transmitting the generated selection information;
A moving image data processing system comprising: a moving image data receiving unit that receives the transmitted extracted moving image data.
前記入力された動画像データを複数に分割して複数の分割動画像データを生成するとともに、その動画像データにおける、それら複数の分割動画像データそれぞれの位置を示す分割位置情報を生成する動画像データ分割部と、
前記動画像データについて所定時間毎のスコアを算出するスコア算出部と、
前記算出されたスコアに基づいて、前記複数の分割動画像データのそれぞれから所定の画像単位データを代表画像データとして特定する代表画像データ特定部と、
前記特定された代表画像データ、及びその代表画像データの前記動画像データにおける位置を示す情報を含む代表画像情報を生成する代表画像情報生成部と、
前記分割位置情報及び前記代表画像情報を外部機器に送信する情報送信部と、
前記外部機器から送信された、前記複数の前記代表画像データの中から選択された代表画像データを特定する情報と、抽出時間を示す情報とを含む選択情報を受信する選択情報受信部と、
前記選択情報の受信に応じて、前記選択された代表画像データを特定する情報に基づき特定された画像単位データを含む、前記抽出時間分の前記動画像データの一部を、抽出動画像データとして抽出する動画像データ抽出部と、
前記抽出された抽出動画像データを前記外部機器に送信する動画像データ送信部と
を備えることを特徴とする動画像データ送信装置。 A moving image data input unit for inputting moving image data;
A moving image that divides the input moving image data into a plurality of pieces to generate a plurality of divided moving image data, and generates divided position information indicating positions of the plurality of divided moving image data in the moving image data. A data division unit;
A score calculator for calculating a score for each predetermined time for the moving image data;
A representative image data specifying unit that specifies predetermined image unit data as representative image data from each of the plurality of divided moving image data based on the calculated score;
A representative image information generating unit that generates representative image information including the identified representative image data and information indicating a position of the representative image data in the moving image data;
An information transmission unit for transmitting the division position information and the representative image information to an external device;
A selection information receiving unit that receives selection information including information specifying representative image data selected from the plurality of representative image data and information indicating an extraction time, transmitted from the external device;
In response to reception of the selection information, a part of the moving image data for the extraction time including image unit data specified based on information for specifying the selected representative image data is used as extracted moving image data. A moving image data extraction unit to be extracted;
A moving image data transmitting apparatus comprising: a moving image data transmitting unit that transmits the extracted extracted moving image data to the external device.
前記受信された分割位置情報及び代表画像情報に基づいて選択画像データを生成する選択画像データ生成部と、
前記選択画像データに基づいて、前記複数の分割動画像データそれぞれの分割位置を示す情報及び代表画像を含む選択画像を表示する選択画像表示部と、
前記選択画像における複数の前記代表画像の中から任意の代表画像を選択する指示、及び前記抽出動画像データの長さを指定する指示が入力される操作部と、
前記入力された指示に応じて、前記選択された代表画像に係る代表画像データの前記動画像データにおける位置を示す情報と、前記抽出動画像データの長さを示す情報とを有する選択情報を生成する選択情報生成部と、
前記生成された選択情報を送信する選択情報送信部と、
前記送信された選択情報に基づいて前記外部機器が抽出し送信した抽出動画像データを受信する動画像データ受信部とを備える
ことを特徴とする動画像データ受信装置。 Division position information indicating the division position of each divided moving image data obtained by dividing the moving image data, and a score for each predetermined time are calculated for the moving image data, and specified as representative image data based on the score. An information receiving unit for receiving each image unit data and representative image information including information indicating a position of each image unit data in the moving image data;
A selection image data generation unit that generates selection image data based on the received division position information and representative image information;
Based on the selected image data, a selected image display unit for displaying a selected image including information indicating a division position of each of the plurality of divided moving image data and a representative image;
An operation unit to which an instruction to select an arbitrary representative image from the plurality of representative images in the selected image and an instruction to specify the length of the extracted moving image data are input;
In response to the input instruction, generation of selection information including information indicating the position of the representative image data related to the selected representative image in the moving image data and information indicating the length of the extracted moving image data A selection information generation unit to
A selection information transmission unit for transmitting the generated selection information;
A moving image data receiving apparatus comprising: a moving image data receiving unit that receives extracted moving image data extracted and transmitted by the external device based on the transmitted selection information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012216323A JP2014072642A (en) | 2012-09-28 | 2012-09-28 | Moving image data processing system, moving image data transmission device, and moving image data reception device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012216323A JP2014072642A (en) | 2012-09-28 | 2012-09-28 | Moving image data processing system, moving image data transmission device, and moving image data reception device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014072642A true JP2014072642A (en) | 2014-04-21 |
Family
ID=50747490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012216323A Pending JP2014072642A (en) | 2012-09-28 | 2012-09-28 | Moving image data processing system, moving image data transmission device, and moving image data reception device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014072642A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018022465A (en) * | 2016-07-22 | 2018-02-08 | 東海電子株式会社 | Alcohol measurement system and alcohol measurement video storage program |
JPWO2019058863A1 (en) * | 2017-09-21 | 2020-09-10 | コニカミノルタ株式会社 | Image processing device for gas detection, image processing method for gas detection, and image processing program for gas detection |
-
2012
- 2012-09-28 JP JP2012216323A patent/JP2014072642A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018022465A (en) * | 2016-07-22 | 2018-02-08 | 東海電子株式会社 | Alcohol measurement system and alcohol measurement video storage program |
JPWO2019058863A1 (en) * | 2017-09-21 | 2020-09-10 | コニカミノルタ株式会社 | Image processing device for gas detection, image processing method for gas detection, and image processing program for gas detection |
JP7230813B2 (en) | 2017-09-21 | 2023-03-01 | コニカミノルタ株式会社 | Image processing device for gas detection, image processing method for gas detection, and image processing program for gas detection |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5685732B2 (en) | Video extraction device, program, and recording medium | |
US9251765B2 (en) | Image processing device, image processing method, and program for generating composite image | |
JP2014168126A (en) | Image processor, image processing method and program | |
JP5880210B2 (en) | COMMUNICATION DEVICE, IMAGING DEVICE, IMAGING SYSTEM, AND PROGRAM | |
US10237466B2 (en) | Recognition of degree of focus of an image | |
JP5838852B2 (en) | Imaging system, imaging apparatus, imaging method, and program | |
JP5724592B2 (en) | Imaging apparatus, imaging data sharing system, and program | |
JPWO2015098110A1 (en) | Imaging apparatus, imaging system, and imaging method | |
JP6319491B2 (en) | Imaging apparatus and control method | |
JP2014123908A (en) | Image processing system, image clipping method, and program | |
JP2014072642A (en) | Moving image data processing system, moving image data transmission device, and moving image data reception device | |
JP2011119936A (en) | Photographing device and reproducing method | |
JP6332864B2 (en) | Image processing apparatus, image processing method, and program | |
JP6341814B2 (en) | Imaging device, control method thereof, and program | |
JP2011119934A (en) | Image shooting device and image shooting method | |
JP6119447B2 (en) | Imaging system and control method | |
JP2013145983A (en) | Imaging system, imaging apparatus, imaging method, and imaging program | |
JP2016036081A (en) | Image processing device, method and program, and recording medium | |
JP5375988B2 (en) | Image signal reproducing apparatus, image signal reproducing method, imaging apparatus, and imaging method | |
KR20130101707A (en) | Photographing apparatus, electronic apparatus, method for generation of video, and method for display of thumbnail | |
JP2018137771A (en) | Imaging apparatus and control method | |
JP2012216936A (en) | Imaging apparatus and program | |
JP2012186538A (en) | Electronic camera, image display device, program, and recording medium | |
WO2015104780A1 (en) | Image pickup apparatus | |
JP2012029119A (en) | Display control device, camera and display device |