JP2009017598A - 撮像装置、および情報処理方法、並びにコンピュータ・プログラム - Google Patents

撮像装置、および情報処理方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP2009017598A
JP2009017598A JP2008257365A JP2008257365A JP2009017598A JP 2009017598 A JP2009017598 A JP 2009017598A JP 2008257365 A JP2008257365 A JP 2008257365A JP 2008257365 A JP2008257365 A JP 2008257365A JP 2009017598 A JP2009017598 A JP 2009017598A
Authority
JP
Japan
Prior art keywords
information
highlight
highlight point
recording
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008257365A
Other languages
English (en)
Inventor
Takashi Nunomaki
崇 布巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008257365A priority Critical patent/JP2009017598A/ja
Publication of JP2009017598A publication Critical patent/JP2009017598A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】動画像の撮影処理に並行して効率的に重要シーンを判定し、重要シーン識別情報を生成して記録することを可能とした装置および方法を提供する。
【解決手段】加速度センサで撮像画像データを生成する画像データ生成部の動きを検出してセンサ検出情報を生成する。このセンサ検出情報に基づいてパンまたはチルト処理の実行の有無を判定し、パンまたはチルト処理が実行された撮影部分を重要シーン撮影部分として識別可能としたハイライトポイント情報を生成して、撮像画像データの対応情報として記録媒体に記録する。
【選択図】 図2

Description

本発明は、撮像装置、および情報処理方法、並びにコンピュータ・プログラムに関する。さらに詳細には、動画像の撮影時に撮影画像データにおけるハイライトポイントを自動検出して記録する処理を行なう撮像装置、および情報処理方法、並びにコンピュータ・プログラムに関する。
ビデオカメラにおいて撮影された動画像の編集や再生処理において、重要な撮影シーンを抽出して編集する処理や、再生処理を行ないたいという要請がある。このような要請に応えるシステムとしての従来構成としては、撮影済みの動画についての画像解析や音声解析を行なうことで重要と思われるシーンの抽出を可能としたシステムが提案されている。例えば、動画データを構成する連続するフレーム画像を比較して、大きな変更が発生するシーンを持つフレームをシーンチェンジ位置であると識別して、これを重要シーンと識別するなどの処理である。このような画像編集処理については、例えば特許文献1に記載されている。
このように、従来のシステムにおける重要シーン選択処理は、撮影済の動画像の解析に基づいて実行する構成であり、画像の撮影後に、撮影画像に対して改めて解析を行うことが必要となり、解析に時間を要するという問題がある。
特開2002−176613号公報
本発明は、上述の問題点に鑑みてなされたものであり、撮影済み画像の解析を行うことなく、撮影処理の実行時に併せて重要シーンを自動選択して、撮影画像データに対応する重要シーンの部分を識別可能としたハイライトポイント情報を記録することを可能とした撮像装置、および情報処理方法、並びにコンピュータ・プログラムを提供することを目的とする。
ビデオカメラのような動画像を撮影する機器においては、撮影中にズームをしたりカメラをパンさせたり静止画を撮影したりという撮影者の行動が、そのシーンが重要かどうかを示唆する重要な情報となりうる。本発明は、例えば撮影中のカメラ操作などから、ハイライトシーンの候補となる点を撮影しながらリアルタイムで抽出することにより、撮影者の意思を反映した効果的なハイライトシーンを抽出して、撮影画像データに対応するハイライトポイント情報として記録することを可能とした撮像装置、および情報処理方法、並びにコンピュータ・プログラムを提供することを目的とする。
本発明の第1の側面は、
撮影画像データを生成する画像データ生成部と、
前記画像データを生成しているときの動きを検知して、パンまたはチルト処理の実行の有無を判定可能とするセンサ検出情報を生成する加速度センサと、
前記センサ検出情報に基づいて前記パンまたはチルト処理の実行の有無を判定し、該パンまたはチルト処理の終了時を重要シーン撮影部分のポイントとして識別可能としたハイライトポイント情報を生成するデータ処理部と、
前記ハイライトポイント情報を前記撮像画像データの対応情報として記録媒体に記録する記録部とを有することを特徴とする撮像装置にある。
さらに、本発明の撮像装置の一実施態様において、前記データ処理部は、前記センサ検出情報に基づいて算出した同一の移動方向の連続移動量が予め定めた閾値距離よりも大きい場合、前記パンまたはチルト処理が実行されたと判定することを特徴とする。
さらに、本発明の第2の側面は、
撮像装置において実行する情報処理方法であり、
画像データ生成部で撮影画像データを生成する画像データ生成ステップと、
前記撮像画像データを生成しているときの動きを加速度センサで検知して、パンまたはチルト処理の実行の有無を判定可能とするセンサ検出情報を生成するセンサ検出情報生成ステップと、
データ処理部で、前記センサ検出情報に基づいて前記パンまたはチルト処理の実行の有無を判定し、該パンまたはチルト処理の終了時を重要シーン撮影部分のポイントとして識別可能としたハイライトポイント情報を生成するハイライトポイント情報生成ステップと、
記録部で、前記ハイライトポイント情報を前記撮像画像データの対応情報として記録媒体に記録する情報記録ステップとを有することを特徴とする情報処理方法にある。
さらに、本発明の第3の側面は、
撮像装置において情報処理を実行させるコンピュータ・プログラムであり、
前記撮像画像データを生成しているときの動きを加速度センサで検知して、該加速度検出センサで生成されたセンサ検出情報に基づいてパンまたはチルト処理の実行の有無を判定し、該パンまたはチルト処理の終了時を重要シーン撮影部分のポイントとして識別可能としたハイライトポイント情報を生成するハイライトポイント情報生成ステップと、
記録部で、前記ハイライトポイント情報を前記撮像画像データの対応情報として記録媒体に記録する情報記録ステップと
を実行させることを特徴とするコンピュータ・プログラムにある。
なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、CDやFD、MOなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づく、より詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本発明の一実施例構成によれば、例えば、デジタルカメラ等の撮像装置において、加速度センサで生成されたセンサ検出情報に基づきパンまたはチルト処理の実行の有無を判定して、パンまたはチルト処理の終了時を重要シーン撮影部分のポイントとして識別可能としたハイライトポイント情報が生成されて撮影画像データに対応付けて記録される。このため、撮影後の画像解析等による重要シーンの抽出といった処理が不要となり、撮影後、即座にハイライトシーンの選択再生が実行可能となり、ユーザの負担を軽減した効率的な処理が可能となる。
以下、図面を参照しながら、本発明の撮像装置、および情報処理方法、並びにコンピュータ・プログラムの詳細について説明する。
まず、本発明の撮像装置(デジタルカメラ)の構成例について、図1を参照して説明する。
図1に示すように、撮像装置は、レンズ101、レンズ101を介して入力する光信号を電気信号に変換する固体撮像素子(CCD)等によって構成されるイメージャ102、アナログ電気信号をデジタル信号に変換するA/D変換部103、撮像画像データに基づいて画像に対する信号処理を実行するカメラ信号処理部104、音声情報を入力するマイク105、マイク105から出力される音声アナログ信号をデジタル信号に変換するA/D変換部106、取得音声データに基づいて音声に対する信号処理を実行する音声信号処理部107を有する。音声信号処理部107は、音声信号レベル情報をマイクロプロセッサ111に入力する。マイクロプロセッサ111は、例えば音声信号処理部107から入力する音声信号レベル情報に基づいて、ハイライトポイント(重要シーンの位置情報)の抽出処理を行う。
マイクロプロセッサ111は、画像の撮影期間に様々な入力情報を取得して、撮影データ中から重要シーン撮影部分の選択処理を実行し、入力情報に基づいて選択した重要シーン撮影部分を識別可能なハイライトポイント情報を生成し、撮影画像データの対応情報として記録媒体112に記録する処理を実行するデータ処理部である。なお、このハイライトポイントの抽出処理の詳細については後段で説明する。
カメラ信号処理部104、音声信号処理部107において生成された画像、音声デジタルデータはメモリ120に格納される。画像エンコード部121、音声エンコード部122は、入力された映像信号、音声信号をそれぞれ記録するためのデータに変換するため、符号化処理を行う。画像デコード部123、音声デコード部124は、例えば撮影データを記録した記録媒体112からのデータ読み出し、再生処理を実行する場合に、記録媒体112から読み出した画像、音声信号をそれぞれデコード(復号)処理を行う。メモリ120は、エンコード、あるいはデコードをするデータを一時的に保持する。
マイクロプロセッサ111は、撮像装置において実行される処理を制御する。また、各種のスイッチ、ボタン類などの入力デバイス108からユーザの入力情報を受け取る。さらに加速度センサ109からのセンサ検出情報を入力し、音声信号処理部107から音声信号のレベル情報を受け取り、GPSモジュール110からGPS衛星から得る情報、すなわち位置情報を受け取り、クロック131から日時、時刻情報を入力する。さらに、記録媒体112を適用したデータ記録、再生制御処理を実行する。
入力デバイス108は、ユーザが機器を操作する際のボタンやスイッチの類である。具体的にはズーム操作のためのスイッチや、動画撮影のためのキー、静止画撮影のためのシャッターキー、タッチパネルなどが含まれる。入力デバイス108を介して入力された情報はマイクロプロセッサ111に伝えられ、マイクロプロセッサ111は、ユーザの操作情報に基づく制御、さらにハイライトポイントの抽出処理を行う。
加速度センサ109は、機器の動き情報を感知し、検出情報をマイクロプロセッサ111に入力する。GPSモジュール110は、GPSの衛星からデータを受信し、マイクロプロセッサ111に入力する。この情報をもとにマイクロプロセッサは、現在位置の緯度および経度を得ることができる。クロック131は、現在日時情報をマイクロプロセッサ111に入力する。マイクロプロセッサ111は、加速度センサ109や、GPSモジュール110、クロック131からの入力情報に基づいて、ハイライトポイントの抽出処理を行う。
記録媒体112は、不揮発性のメモリ、ハードディスクなによって構成され、撮影した動画像データを格納する。表示部125は、撮影画像データのモニタ表示、あるいは撮影済みデータであり記録媒体112に記録されたデータを画像デコード部123においてデコードしたデータの表示制御を行なう。表示部125の生成データは、D/A変換部126においてアナログ信号に変換され、LCDパネル等のディスプレイ127に出力される。
音声信号処理部128は、音声デコード部124によってデコードされた音声信号を入力し、D/A変換部129を介してアナログ信号に変換した後、スピーカ130に出力される。
本発明の撮像装置において、データ処理部として機能するマイクロプロセッサ111は、
(1)入力デバイス108に対するユーザ操作情報、
(2)加速度センサ109からのセンサ検出情報、
(3)音声信号処理部107から音声信号のレベル情報、
(4)GPSモジュール110からの位置情報、
(5)クロック131からの日時情報、
これらの各種情報を入力し、これらの情報に基づいて、ハイライトポイント(重要シーンの位置情報)の抽出処理を行う。マイクロプロセッサ111は、画像撮影処理の実行中に、これらの各情報を入力し、入力情報に基づいてハイライトポイントの抽出処理を行う。以下、このハイライトポイントの抽出処理の詳細について説明する。
まず、ハイライトポイントについて説明する。ハイライトポイントとは、記録された動画の中で、重要である可能性が高いと推測される動画中のシーンを識別する情報である。例えば、動画像の記録開始時間からの経過時間(以下「記録時間」と呼ぶ)が適用される。すなわち、重要シーンが含まれるフレームの撮影開始からの時間位置情報である。
本発明の撮像装置では、ハイライトポイントとして、例えば、
撮影者がズーム操作を行ったポイント(撮影開始からの時間)、
撮影者がカメラを動かした(パン操作やチルト操作を行った)ポイント、
マイクから入力された音声レベルがピークになったポイント、
GPSから得た緯度もしくは経度の情報の変化が発生したポイント、
現在時刻のきりのよい変更点(たとえば日付の変わり目や年の変わり目)になったポイント、
動画記録中に撮影者が静止画を記録したポイント、
これらのポイントをハイライトポイントとして検出する。
本発明の撮像装置は、動画像を記録しながら、これらのハイライトポイントを検出し、撮影画像データに対応するハイライトポイント情報として記録する。このハイライトポイント記録処理によって、撮影データの再生処理時にハイライトポイントの近傍だけを選択再生することが可能となり、撮影済みのデータについての新たな画像解析などの事後処理を行うことなく、撮影処理後に即座にハイライトシーンの選択再生を行なうことができる。
以下、本発明の撮像装置におけるハイライトポイント抽出処理の詳細について、
(1)入力デバイス108に対するユーザ操作によるズーム操作情報、
(2)加速度センサ109からのセンサ検出情報、
(3)音声信号処理部107から音声信号のレベル情報、
(4)GPSモジュール110からの位置情報、
(5)クロック131からの日時情報、
(6)入力デバイス108に対するユーザ操作による静止画撮影情報、
これらの各検出情報に対応するハイライトポイント抽出処理の詳細について、順次説明する。
(1)入力デバイス108に対するユーザ操作によるズーム操作情報
まず、入力デバイス108に対するユーザ操作によるズーム操作情報をマイクロプロセッサ111が入力して実行するハイライトポイント抽出処理の詳細について、図2、図3を参照して説明する。
図2に示すフローチャートは、画像の撮影実行中に行なわれる処理であり、入力デバイス108に対するユーザ操作によるズーム操作情報をマイクロプロセッサ111が入力して実行するハイライトポイント抽出処理の処理シーケンスを示すフローチャートである。
動画像を撮影中に、ユーザは入力デバイス108の一つであるズームキーを操作して、ズーム倍率を変更する操作を行う。ユーザの操作は入力デバイス108からマイクロプロセッサ111に伝えられ、マイクロプロセッサ111はレンズ101を動かしてズーム倍率を変更する。ユーザがズームキーから手を離すなどしてズーム操作を止めると、マイクロプロセッサ111はレンズ101を動かすのを止めてズーム操作を止める。
図2の処理フローの各ステップの処理について説明する。ステップS101において、マイクロプロセッサ111がズーム操作の開始を検出すると、ステップS102に進み、ズーム開始時の倍率情報を取得する。これは、ズーム処理がスタートする時点におけるズーム倍率情報である。
次に、ステップS103において、ズーム操作の終了を検出すると、ステップS104において、ズーム終了時の倍率情報を取得する。これは、ズーム処理が終了した時点におけるズーム倍率情報である。次に、ステップS105において、(現在の記録時間、ズーム変化量)の組データをメモリ120に記録保持する。
ここでズームの変化量とは、例えばズーム倍率の変化量であり、ズーム処理が終了した時点におけるズーム倍率情報と、ズーム処理の開始時点におけるズーム倍率情報との差分によって算出される。
次に、ステップS106において、画像記録が終了したか否かが検出され、画像記録処理が終了していない場合は、ステップS101以降の処理を繰り返す。この繰り返し処理によって、画像記録処理中に実行された各ズーム操作の処理終了時間と、各ズーム操作において実行されたズーム変化量の組データ、すなわち、(現在の記録時間、ズーム変化量)の組データがメモリ120に順次記録保持される。
ステップS106において、画像記録が終了したことが検出されると、ステップS107において、メモリ120に記録保持された(現在の記録時間、ズーム変化量)の組データを撮影データに対応するハイライトポイント情報として、撮影データに対応付けて、例えば記録媒体112に記録する。
ユーザがズーム操作をするときは、撮影対象に注目してズームインした場合や、全体を捉えるためにズームアウトした場合などである。ズーム操作を行った直後の記録時間は重要度が高い可能性があるシーンとみなすことができ、ハイライトポイントと考えることができる。
なお、動画の記録の終了時点で、メモリ120に記録保持された(現在の記録時間、ズーム変化量)の組データを撮影データに対応するハイライトポイント情報として、記録媒体112に記録する際、メモリ保持情報を全てハイライトポイント情報として記録媒体112に記録する構成としてもよいが、メモリ120に保持された情報から、一定数のズーム変化量の大きいデータを選択し、選択データのみを動画像データとともに記録媒体112にハイライトポイント情報として記録する構成としてもよい。
なお、ハイライトポイント情報の記録構成としては様々な構成が適用可能である。例えば動画像ファイルの一部にハイライトポイントを記録するための領域を設けて記録する方法や、動画像ファイルとは別にデータベースファイルを持ち、その中にハイライトポイントを記録する方法などが適用できる。
図3を参照して、具体的なズーム操作情報に基づくハイライトポイント抽出処理例、および、ハイライトポイント情報のデータ例について説明する。(a)は、動画像の撮影開始(Start)から撮影終了(Stop)までの時間経過に伴うズーム操作履歴を示す図である。図3(b)は図3(a)に示すズーム操作が実行された場合に記録媒体112に記録される撮影画像データに対応するハイライトポイント情報のデータ例を示している。
例えば、図3(a)には、撮影開始から終了まで、3回のズーム操作が実行されていることを示している。最初のズーム操作は、ワイド(W)からテレ(T)すなわち、撮影対象に対して近づく方向でのズームイン処理が実行され、この1回目のズーム操作は、撮影開始から0分45秒後に終了している。このズーム処理の終了時間がハイライトポイントとして記録される。図3(b)に示すハイライトポイント情報の第1のエントリデータが、この記録データであり、ズーム処理の終了時間[0:45]と、ズーム変化量[3.0]の組データが、第1のハイライトポイント情報として記録される。
同様に、第2、第3のハイライトポイント情報として、各ズーム操作の終了時間と、ズーム変化量の組データがそれぞれ記録される。なお、図3(b)に示す例は、ズーム変化量は、ワイド(W)からテレ(T)方向へのズーム変化量を(+)、テレ((T)からワイド(W)方向へのズーム変化量を(−)として設定した例である。
(2)加速度センサ109からのセンサ検出情報、
次に、加速度センサ109からの入力情報をマイクロプロセッサ111が入力して実行するハイライトポイント抽出処理の詳細について、図4、図5を参照して説明する。この処理は、撮影中にパン操作やチルト操作が実行されたことを加速度センサ109からの入力情報に基づいて、マイクロプロセッサ111が検出し、この検出に基づいて、ハイライトポイントを記録する処理である。
動画像を撮影中に、ユーザがカメラを動かすと、加速度センサ109がその動きを検知し、マイクロプロセッサ111に伝える。マイクロプロセッサ111は、加速度センサ109からの入力情報に基づいて、撮像装置が、ある連続した時間同じ方向の動きを示していると判定すると、ユーザがある方向にカメラを動かしている(パンやチルト動作をしている)と判断し、このポイントをハイライトポイントとして記録する。
図4の処理フローの各ステップの処理について説明する。ステップS201において、マイクロプロセッサ111は、まず初期設定として、メモリ120に記憶している連続移動量を[0]にリセットする。次に、ステップS202において、加速度センサ109から検出値を取得し、ステップS203において、撮像装置が静止状態にあるか移動字様態にあるかを判定する。
移動状態にあると判定すると、ステップS211に進み、前回の加速度センサ109からの入力情報の示す移動方向と同一の移動方向であるか否かを判定する。なお、加速度センサからの入力は、連続的に繰り返し実行されている。前回の加速度センサ109からの入力情報の示す移動方向と同一の移動方向であると判定された場合は、パンやチルト処理が実行されている可能性が高いと判断し、加速度センサ109から入力される情報に基づいて移動量を算出し、メモリ120に保持されている連続移動量を更新する。移動量は、例えば加速度値から速度を算出し、それを時間的に積分することで得られる。
ステップS211において、前回の加速度センサ109からの入力情報の示す移動方向と同一の移動方向でないと判定された場合は、パンやチルト処理が実行されている可能性が低いと判断し、ステップS205に進み、メモリ120に保持されている連続移動量をリセットする。
ステップS203において、加速度センサ109からの入力情報に基づいて撮像装置が静止した状態にあると判定されると、ステップS204に進み、メモリ120に記録されている連続移動量の値を参照し、この移動量が、予め定めた閾値距離より大きいか否かを判定する。移動量が、予め定めた閾値距離より大きい場合は、パンやチルト処理が実行されたと判断し、ステップS213において、(現在の記録時間、移動量)の組データをメモリ120に記録保持する。
ステップS204において、メモリ120に記録されている連続移動量の値が、予め定めた閾値距離より大きくないと判定された場合は、パンやチルト処理が実行さていないと判断し、ステップS205においてメモリ120に記録された連続移動量を[0]にリセットする。
ステップS206において、画像記録処理が終了したか否かを判定し、画像記録処理が終了していない場合は、ステップS202以降の処理を繰り返す。この繰り返し処理によって、画像記録処理中に実行されたパンまたはチルト処理終了時間と、各パンまたはチルト処理作における移動量の組データ、すなわち、(現在の記録時間、移動量および方向)の組データがメモリ120に順次記録保持される。
ステップS206において、画像記録が終了したことが検出されると、ステップS207において、メモリ120に記録保持された(現在の記録時間、移動量および方向)の組データを撮影データに対応するハイライトポイント情報として、撮影データに対応付けて、例えば記録媒体112に記録する。
ユーザがパン、チルト操作をするときは、注目している撮影対象を変える場合などのため、パン、チルト操作を行った直後は重要度が高い可能性があるシーンとみなすことができ、ハイライトポイントと考えることができる。例えば、パン、チルトが終了して、カメラが静止したときに、その記録時間とパン、チルトの移動量および方向をハイライトポイント情報として、メモリ120に保持しておく。動画の記録が終了すると、保持しておいたハイライトポイント情報を全て、あるいはパン、チルトの移動量が大きいものから一定数だけを動画像データとともに記録媒体112に記録する。なお、ハイライトポイントの記録構成は、前述のズームによるハイライトポイントの記録の方法と同様、様々な手法が適用可能である。
図5を参照して、具体的なパン、チルト情報に基づくハイライトポイント抽出処理例、および、ハイライトポイント情報のデータ例について説明する。(a)は、動画像の撮影開始(Start)から撮影終了(Stop)までの時間経過に伴うパン、チルト操作履歴を示す図である。図5(b)は図5(a)に示すパン、チルト操作が実行された場合に記録媒体112に記録される撮影画像データに対応するハイライトポイント情報のデータ例を示している。
例えば、図5(a)には、撮影開始から終了まで、3回のパンまたはチルト操作が実行されていることを示している。最初のパンまたはチルト操作は、撮影開始から0分52秒後に終了している。この処理の終了時間がハイライトポイントとして記録される。図5(b)に示すハイライトポイント情報の第1のエントリデータが、この記録データであり、パンまたはチルト処理の終了時間[0:52]と、移動量および方向[5.0]の組データが、第1のハイライトポイント情報として記録される。
同様に、第2、第3のハイライトポイント情報として、各パン、チルト操作の終了時間と、移動量および方向の組データがそれぞれ記録される。なお、図5(b)に示す例において、移動方向量は、例えば左から右、および上から下方向の移動を(+)、逆方向への移動を(−)として設定した例である。
なお、上述の例では、パン、チルトの移動量を加速度センサ109から入力する加速度値から速度を算出し、それを時間的に積分することで得る手法を用いているが、加速度センサがない機器においても、撮影画像に含まれる隣り合うフレーム間の画像を比較することにより、カメラの動き情報を取得することができ、この撮影画像データに基づいて、マイクロプロセッサ111がパン、チルト操作の有無を判別する処理を実行する構成としてもよい。
(3)音声信号処理部107から音声信号のレベル情報、
次に、音声信号処理部107から音声信号のレベル情報をマイクロプロセッサ111が入力して実行するハイライトポイント抽出処理の詳細について、図6〜図8を参照して説明する。この処理は、撮影中にマイク105によって取得される音声データに基づく音声レベル情報をマイクロプロセッサ111が入力してこの入力情報に基づいて、マイクロプロセッサ111が音声レベル変動を解析して、この解析結果に基づいて、ハイライトポイントを記録する処理である。
動画像を撮影中に、音声はマイク105を介して入力され、音声のレベル情報が音声信号処理部107において生成されマイクロプロセッサ111に入力される。この音声レベル情報は例えばオーディオレベルメーターの画面表示などにも適用される。
マイクロプロセッサ111は、この音声レベル情報に基づいて、音声レベルがピークを示す時間を取得する。音声レベルがピークになるときは、盛り上がりのシーンである場合が多く、音声レベルがピークになったときは重要度が高い可能性があるシーンとみなすことができ、ハイライトポイントとすることができる。ここで、ピークを検出するアルゴリズムには様々な方法が考えられるが、その手法の一例を述べる。
まず、動画記録中に音声レベルを取得する。ステレオマイクの場合は、左右2チャンネル分の音声レベルを取得できるが、例えばその2つの値の平均値を音声レベルとする。また、ノイズの影響を抑えるために、音声レベルの過去一定時間(例えば3秒)の平均値をとる。このようにしてある一定間隔ごとに平均を取った値をここではサンプルと呼ぶ。すなわち、動画記録が終了したときには、ある一定間隔で音声レベルのサンプルが得られていることになる。次に、サンプルの最大値と最小値を求め、例えば最大値を10と最小値を0として正規化を行う。
この正規化データの例を図6に示す。図6は、横軸に時間、縦軸に音声レベルの正規化値を示すグラフである。図6に示すように、正規化データとすることで、全てのサンプルは0〜10の値をとることになる。次に、サンプルの極大値となる点だけを残して、他のサンプルは全て捨てる。図6には、音声レベル正規化値がピーク点を示す位置に黒丸[●]を示している。
次に、音声レベル(正規化値)がある一定値(例えば8)より小さいサンプルも全て捨てる。すると、残ったサンプルはある一定値よりも大きく、しかも極大値(ピーク値)をとるものだけとなる。その後、選択ポイントに時間的に近接したサンプルがある場合は、より大きな値を持つサンプルを残して、そのほかは消す。以上の操作を経て残ったサンプルをハイライトポイントとみなして、その記録時間と音声レベルの組を記録する。
例えば、図6に示す例では、まず、ハイライトポイント候補として、音声レベル(正規化値)がある一定値(例えば8)以上のポイントが選択される。このポイントはP1〜P4となる。次に、選択ポイント(P1〜P4)に時間的に近接したサンプルがある場合は、より大きな値を持つサンプルを残して、そのほかは消す。この処理において、例えば近接時間=±5秒として設定すると、選択ポイントP4は、より高いレベルを持つ選択ポイントP1の近接時間=±5秒にあり、選択ポイントP4はハイライトポイント候補から排除される。この処理の結果、図6に示すデータからは、P1,P2,P3のみがハイライトポイントとして抽出される。
音声信号処理部107から音声信号のレベル情報をマイクロプロセッサ111が入力して実行するハイライトポイント抽出処理の処理シーケンスについて、図7に示すフローチャートを参照して説明する。
ステップS301において、マイクロプロセッサ111は、音声信号処理部107から音声信号のレベル情報を取得し、ステップS302において、過去一定期間(例えば3秒)の音声レベル平均値を計算し、記録時間とともにメモリ120に保持する。ステップS303において、画像記録が終了したと判定されるまで、これらの処理を継続して実行し、ステップS303において、画像記録が終了したと判定されるとステップS304に進む。
ステップS304では、メモリ120に蓄積された音声レベルの時間対応データに基づいて正規化処理を実行し、例えば図6に示す時間と音声レベル正規化データの対応関係を取得する。次に、ステップS305においてハイライトポイント抽出処理を実行する。すなわち、
(a)音声レベル(正規化値)がある一定値(例えば8)以上のポイントを選択、
(b)選択ポイントに時間的に近接したサンプルがある場合は、より大きな値を持つサンプルを残して、そのほかは消す。
これら(a),(b)の処理によって残ったポイントをハイライトポイントとして選択する。次に、ステップS306において、抽出したハイライトポイント対応の時間情報と、音声レベル正規化値(ピーク値)の組を撮影データに対応するハイライトポイント情報として、撮影データに対応付けて、例えば記録媒体112に記録する。
図8を参照して、具体的な音声レベル情報に基づくハイライトポイント抽出処理例、および、ハイライトポイント情報のデータ例について説明する。(a)は、動画像の撮影開始(Start)から撮影終了(Stop)までの時間経過に伴う音声レベル情報の履歴を示す図である。図8(b)は図8(a)に示す音声レベルが取得された場合に記録媒体112に記録される撮影画像データに対応するハイライトポイント情報のデータ例を示している。
例えば、図8(a)に示す音声レベル遷移データから、前述したハイライトポイント取得処理によって、3つのハイライトポイントが取得される。結果として、図8(b)に示すように、記録時間[2:14]、[3:30]、[4:07]がハイライトポイントとして選択され、図8(b)に示すような3つのエントリを持つハイライトポイント情報、すなわち、ハイライトポイント対応の時間情報と、音声レベル正規化値(ピーク値)の組が、撮影データに対応するハイライトポイント情報として、撮影データに対応付けて記録媒体112に記録される。
(4)GPSモジュール110からの位置情報、
次に、GPSモジュール110からの入力情報をマイクロプロセッサ111が入力して実行するハイライトポイント抽出処理の詳細について、図9、図10を参照して説明する。この処理は、撮影中にGPSモジュール110からの入力情報に基づいて算出される撮像装置の位置情報に基づいて、マイクロプロセッサ111が位置変動に基づいてハイライトポイントを決定して記録する処理である。
動画像を撮影中に、マイクロプロセッサ111はGPS110からGPS衛星の情報を受け取り、現在位置の緯度および経度をリアルタイムで得ることができる。マイクロプロセッサ111は動画の撮影中に、GPSデータに基づいて撮像装置の移動距離などを算出する。
GPSのデータから算出した緯度および経度の情報はある程度の誤差を含むため、最初に観測した位置からある一定の距離以上移動した場合に、機器が移動したとみなす。撮影中に大きな移動が行われたときは、その大きな移動の直後の撮影シーンは重要でありハイライトポイントとみなすことができる。このような推測のもと、マイクロプロセッサ111はGPS110からの入力情報に基づいて、緯度および経度の変化に基づいて移動距離を算出し、予め定めた閾値距離以上の移動が発生した記録時間と移動量をハイライトポイントとして、メモリ120に保持する。動画の記録が終了すると、メモリ120に保持しておいたハイライトポイントを全て、あるいは一定数だけを動画像データとともに記録媒体112に記録する。
図9の処理フローの各ステップの処理について説明する。ステップS401において、マイクロプロセッサ111は、GPSモジュール110からの情報、すなわち撮像装置の位置情報としての緯度、経度情報を入力する。この位置情報入力は、一定間隔で繰り返し実行され、随時、位置情報は、メモリ120に情報入力時刻に対応付けて記憶される。
マイクロプロセッサ111は、ステップS402において、GPSモジュール110からの入力情報と、メモリ120に記録済みの位置情報との差分を算出し、予め定めた時間内に、予め定めた閾値距離以上の移動が発生しているか否かを判定する。閾値以上の移動が発生している場合は、ハイライトポイントと判定し、ステップS411に進み、(現在の記録時間、位置移動量)の組データをメモリ120に記録保持する。
ステップS402において、予め定めた時間内に、予め定めた閾値距離以上の移動が発生していないと判定された場合、または、ステップS411において、(現在の記録時間、位置移動量)の組データをメモリ120に記録保持する処理を実行した後は、ステップと404に進み、画像記録処理が終了したか否かを判定し、画像記録処理が終了していない場合は、ステップS401以降の処理を繰り返す。この繰り返し処理によって、画像記録処理中に、閾値以上の移動が発生した時点の時間と、位置移動量の組データ、すなわち、(現在の記録時間、位置移動量)の組データがメモリ120に順次記録保持される。
ステップS403において、画像記録が終了したことが検出されると、ステップS404において、メモリ120に記録保持された(現在の記録時間、位置移動量)の組データを撮影データに対応するハイライトポイント情報として、撮影データに対応付けて、例えば記録媒体112に記録する。
図10を参照して、具体的なGPS情報に基づくハイライトポイント抽出処理例、および、ハイライトポイント情報のデータ例について説明する。(a)は、動画像の撮影開始(Start)から撮影終了(Stop)までの時間経過に伴って計測された閾値以上の移動が発生した時間、すなわちハイライトポイントを示す図である。図10(b)は図10(a)に示すデータに対応する位置の移動状況を示す図である。
図10(b)に示す撮影開始点P1において撮影が開始され、撮像装置は、撮影者とともに、移動を開始し、地点P2において、閾値以上の距離移動が発生したと判定され、この時点を第1のハイライトポイントと認定する。この地点の時間は、撮影開始から、1分35秒後であり、この時間と、移動量が、図10(c)に示すハイライトポイント情報の第1エントリとして記録される。さらに、地点P2から地点P3まで移動を行なった場合、地点P3において、閾値以上の距離移動が発生したと判定され、この時点を第2のハイライトポイントと認定する。この地点の時間は、撮影開始から、2分11秒後であり、この時間と、移動量が、図10(c)に示すハイライトポイント情報の第2エントリとして記録される。
(5)クロック131からの日時情報、
次に、クロック131からの日時情報をマイクロプロセッサ111が入力して実行するハイライトポイント抽出処理の詳細について、図11、図12を参照して説明する。この処理は、撮影中にクロック131からの日時情報をマイクロプロセッサ111が入力し、現在時刻の情報をもとにハイライトポイントを検出し記録する処理である。
動画像を撮影中に、マイクロプロセッサ111は現在の日時情報をクロック131から入力する。現在時刻は、あらかじめユーザにより指定されているか、もしくはGPS110からGPS衛星の情報を受け取ることにより設定されたものである。マイクロプロセッサ111は動画撮影中に時計を監視することにより、日付の変更が発生した時点や、年の変更が発生した時点などの記録時間情報を得ることができる。
このように、日付をまたいだり年をまたいだりした瞬間は、何か重要なイベントを行っている可能性があり、ハイライトポイントとみなすことができる。この処理例は、撮影中に日付や年が変化した記録時間をハイライトポイントとする処理例である。
図11の処理フローに従って、クロック131からの日時情報に基づいてマイクロプロセッサ111が実行するハイライトポイント検出記録処理シーケンスについて説明する。ステップS501において、マイクロプロセッサ111は、クロック131から日時情報を入力する。ステップS502において、イベント日時に該当するか否かを判定する。イベント日時情報は、例えば、ユーザが予め設定し、メモリに格納しておいたデータに基づいて判定する。その他、日付の変更時や、年の変更時などをデフォルトのイベント日時としてこれを利用してもよい。
ステップS502において、イベント日時であると判定されると、ハイライトポイントであると判定し、ステップS511において、(現在の記録時間、イベント内容)の組データをメモリ120に記録保持する。イベント内容は、例えば日付の変更や、年の変更などである。
ステップS502において、イベント日時でないと判定された場合、あるいは、ステップS511において、(現在の記録時間、イベント内容)の組データをメモリ120に記録保持する処理の実行後は、ステップS503において、画像記録処理が終了したか否かを判定し、画像記録処理が終了していない場合は、ステップS501以降の処理を繰り返す。この繰り返し処理によって、画像記録処理中に発生したイベントの発生時間と、各イベントの内容情報の組データ、すなわち、(現在の記録時間、イベント内容)の組データがメモリ120に順次記録保持される。
ステップS503において、画像記録が終了したことが検出されると、ステップS504において、メモリ120に記録保持された(現在の記録時間、イベント内容)の組データを撮影データに対応するハイライトポイント情報として、撮影データに対応付けて、例えば記録媒体112に記録する。
図12を参照して、具体的なクロック情報に基づくハイライトポイント抽出処理例、および、ハイライトポイント情報のデータ例について説明する。(a)は、動画像の撮影開始(Start)から撮影終了(Stop)までの時間経過と、クロック情報に基づくイベント発生時間の検出ポイントを示す図である。図12(b)は図12(a)に示す撮影データに対応して記録媒体112に記録されるハイライトポイント情報のデータ例を示している。
例えば、図12(a)には、撮影開始から終了までの間に、1回のイベント発生時刻、例えば、年が変更した時刻が含まれ、この点がハイライトポイントとして記録されるものとする。図12(b)に示すハイライトポイント情報のエントリデータが、この記録データであり、年が変更した時刻に対応する撮影開始からの記録時間[1:40]と、イベント内容としての[年が変化]という情報からなる組データが、ハイライトポイント情報として記録される。
(6)入力デバイス108に対するユーザ操作による静止画撮影情報、
次に、入力デバイス108に対するユーザ操作による静止画撮影情報をマイクロプロセッサ111が入力して実行するハイライトポイント抽出処理の詳細について、図13、図14を参照して説明する。
図13に示すフローチャートは、画像の撮影実行中に行なわれる処理であり、入力デバイス108に対するユーザ操作による静止画撮影処理情報をマイクロプロセッサ111が入力して実行するハイライトポイント抽出処理の処理シーケンスを示すフローチャートである。
動画像を撮影中に、ユーザは入力デバイス108の一つである静止画撮影キー(例えばシャッターキー)を押すことにより、静止画を撮影することができる。このとき、ユーザの操作は入力デバイス108からマイクロプロセッサ111に伝えられ、マイクロプロセッサ111がカメラを制御して静止画撮影を行う。ユーザが動画撮影中に静止画を記録したということは、そのシーンを重要と認識した場合と考えられ、ハイライトポイントとみなすことができる。本処理例は、静止画撮影をした記録時間をハイライトポイントとして記録する処理例である。
図13の処理フローの各ステップの処理について説明する。ステップS601において、マイクロプロセッサ111が静止画撮影用のシャッターキー操作を検出すると、ステップS611に進み、静止画を撮影し、ステップS612において、静止画撮影を実行した時間情報をメモリ120に記録保持する。
次に、ステップS602において、画像記録が終了したか否かが検出され、画像記録処理が終了していない場合は、ステップS601以降の処理を繰り返す。この繰り返し処理によって、画像記録処理中に実行された静止画撮影処理の処理時間データがメモリ120に順次記録保持される。
ステップS602において、画像記録が終了したことが検出されると、ステップS603において、メモリ120に記録保持された(静止画撮影時の記録時間)のデータを撮影データに対応するハイライトポイント情報として、撮影データに対応付けて記録媒体112に記録する。
図14を参照して、具体的な静止画撮影情報に基づくハイライトポイント抽出処理例、および、ハイライトポイント情報のデータ例について説明する。(a)は、動画像の撮影開始(Start)から撮影終了(Stop)までの時間経過に伴う静止画撮影履歴を示す図である。図14(b)は図14(a)に示す静止画撮影が実行された場合に記録媒体112に記録される撮影画像データに対応するハイライトポイント情報のデータ例を示している。
例えば、図14(a)には、撮影開始から終了まで、2回の静止画撮影が実行されていることを示している。最初の静止画撮影は、撮影開始から2分22秒後に実行されている。この静止画撮影処理実行時間がハイライトポイントとして記録される。図14(b)に示すハイライトポイント情報の第1のエントリデータが、この記録データであり、静止画撮影時間[2:22]が、第1のハイライトポイント情報として記録される。同様に、第2、第3のハイライトポイント情報が順次記録されることになる。
[総合的な処理シーケンス]
上述したように、本発明の撮像装置におけるハイライトポイント抽出処理は、
(1)入力デバイス108に対するユーザ操作によるズーム操作情報、
(2)加速度センサ109からのセンサ検出情報、
(3)音声信号処理部107から音声信号のレベル情報、
(4)GPSモジュール110からの位置情報、
(5)クロック131からの日時情報、
(6)入力デバイス108に対するユーザ操作による静止画撮影情報、
これらの各検出情報に対応するハイライトポイント抽出処理として実行されることになる。これらの処理は1つの動画撮影に対して同時に実行することが可能である。この場合、各種情報に基づいてハイライトポイント情報が生成され、撮影画像データに対応付けて系記録される。記録されるハイライトポイント情報は例えば図15に示すようなデータとなる。
図15には、
(1)入力デバイス108に対するユーザ操作によるズーム操作情報、
(2)加速度センサ109からのセンサ検出情報、
(3)音声信号処理部107から音声信号のレベル情報、
(4)GPSモジュール110からの位置情報、
(5)クロック131からの日時情報、
(6)入力デバイス108に対するユーザ操作による静止画撮影情報、
これら(1)〜(6)の情報各々に基づいてマイクロプロセッサ111が抽出し、記録したハイライトポイント情報を示している。
なお、本発明の撮像装置では、これらの様々な情報に基づいて生成されるハイライトポイント報を、ハイライトポイント情報の生成に適用した入力情報の種類に応じて、ハイライトポイント情報の優先度を設定して撮影画像データの対応情報として記録媒体に記録する処理を実行する構成を有する。この優先度情報は、ハイライトシーンのみを選択して再生する場合の選択情報に適用される。
撮影画像データに対して記録されたハイライトポイントの情報を用いて撮影データのハイライトシーンだけを再生する手順について述べる。本発明の撮像装置は、ディスプレイ127に撮影動画像の再生を行なうことが可能であり、また、撮影画像に対応付けて記録されたハイライトポイント情報を適用して、ハイライトポイントとされたシーンを選択して再生する処理を実行する。
ハイライトシーンの再生処理としては、例えばユーザがある単一の動画像を選択して、そのハイライトシーンだけを再生する処理や、あるまとまった数の動画像を連続してハイライト再生をすることにより、スライドショー形式で再生を行なう処理が可能である。
ハイライトシーンの再生処理を実行する場合、図15に示す多数のハイライトシーンを全て選択して再生することも可能である。例えば図15に示す(1)〜(6)の各ハイライトポイント情報に記録された記録時間に基づいて、その記録時間対応の画像撮影フレームを中心として、前後に10秒間、あるいは5秒前から20秒後までなどの設定に基づいて、各ハイライトポイント情報に含まれる記録時間をインデックスとしてハイライトシーンの再生を行なうことができる。
さらに、図15に示す多数のハイライトポイントに対応するシーンを全て選択して再生するのではなく、さらに、図15に示す多数のハイライトポイントから、ハイライトポイントの優先度に基づいて、優先度が上位のハイライトポイントを選択して、選択されたハイライトポイントのみに対応するシーンを再生する構成としてもよい。
ハイライトポイントの優先度について説明する。前述のようにハイライトポイントには、ズーム操作、パン、チルト操作、音声レベルのピーク、GPSの位置変化、時刻情報による日付や年の変化、動画撮影中の静止画撮影の情報など、様々な情報に基づいて抽出される。これらを、どの情報に基づいて抽出されたハイライトポイントであるかに基づいて優先度順位をあらかじめ設定する。この優先度順位は、ユーザが任意に設定できるものとする。
例えば、ズーム操作や音声レベルのピークや動画撮影中の静止画撮影のハイライトポイントは、重要なシーンである可能性が比較的高いが、パン、チルト操作やGPSの位置変化や時刻情報による日付や年の変化は、重要なシーンである可能性が低いと判断するユーザは、例えば記録されたハイライトポイントに対し、次のように優先付けを行う。
優先度1:ズーム操作、音声レベルピーク、静止画撮影に基づいて抽出されたハイライトポイント、
優先度2:GPS情報、日付や年の変化などのイベントに基づいて抽出されたハイライトポイント、
優先度3:パン、チルト操作に基づいて抽出されたハイライトポイント。
このような優先度の設定を行い、次に、ハイライトシーンだけを再生するために、選択する再生するハイライトポイントの数を決定する。動画像のハイライトシーンだけを再生するためには、まずハイライト再生をする長さを決める。これは、あらかじめ固定の値(例えば20秒)と決めておいてもよいし、動画の全体の長さに対して一定割合(例えば、動画の長さの5分の1)と決めておいてもよいし、あるいはユーザにあらかじめ設定させておくこともできる。
次に、1つの再生ハイライトシーンの長さを決定する。これは、あらかじめ固定の値(例えば5秒)と決めておいてもよいし、スライドショーで動画像の再生をする場合には、そのときどきの演出効果として長さを決めておいてもよいし、スライドショーでBGMを再生する場合には、その音楽のそれぞれの節にあわせて長さを決めておいてもよいし、あるいはユーザにあらかじめ設定させておくこともできる。このようにして、ハイライト再生の全体の長さと1シーンあたりの長さを決定することができる。この2つの値はどのような再生をしたいかにより、状況に応じて適切な値を選択することができる。ハイライト再生の全体の長さを1シーンあたりの長さで割り算をすると、何箇所のハイライトポイントを選択する必要があるかを求めることができる。BGMにあわせて長さを決めるときのように、1シーンあたりの長さが可変の場合は、シーンの長さを累積した長さがBGMの長さに達するまでの必要なシーンの数が、選択が必要なハイライトポイントの数となる。
次に、ハイライトポイントを選択する手順について、図16に示すフローチャートを参照して説明する。このハイライトポイント選択処理は、ハイライトポイントの再生処理を実行する前の処理として、マイクロプロセッサ111が、撮影画像データに対応するハイライトポイント情報を適用して優先度の高いハイライトポイントを選択する処理である。
まず、ステップS701において、優先度が最も高い設定とされたハイライトポイントの集合を選択する。例えば、上述した優先度設定例では、
優先度1:ズーム操作、音声レベルピーク、静止画撮影に基づいて抽出されたハイライトポイント、
これらのハイライトポイント情報の集合が取得される。
次に、ステップS702において集合が空か否かを判定し、空でない場合にはステップS703に進み、この集合からの中から1つのハイライトポイントを選択する。この選択処理においては、同じ優先度の設定とされたハイライトポイントが複数ある場合は、例えば、ランダムに選択してもよいし、ズームの場合は変化量、パン、チルト操作場合は移動量、音声レベルの場合はレベルの値、GPS情報による緯度経度変化の場合はその変化量など、変化の度合いを示す指標の高いものから順番に選ぶ設定としてもよい。
ステップS704において、取得したハイライトポイントの数が、予め定めた上限数に達したか否かを判定し、達していない場合は、ステップS702に戻り、同様の処理を繰り返す。最高優先度の集合が空になった場合は、ステップS711に進み、さらに下位の優先度のハイライトポイント集合があるか否かを判定し、あると判定される場合は、ステップS712において、次の優先度設定とされたハイライトポイントの集合を選択する。例えば、上述した優先度設定例では、
優先度2:GPS情報、日付や年の変化などのイベントに基づいて抽出されたハイライトポイント、
これらのハイライトポイント情報の集合が取得される。
次に、ステップS703に進み、選択集合からハイライトポイントを選択する。これらの処理を繰り返し実行して、より高い優先度を持つ情報からハイライトポイントが順次、所定数に達するまで、あるいはハイライトポイントが全て選択されるまで実行される。
ステップS711において、選択すべきハイライトポイント集合がないと判定された場合は、ステップS713において、撮影画像の長さを等間隔(例えば10分割)に分割し、それぞれの点をハイライトポイント集合として設定し、ステップS703に進み、その新たな集合に基づくハイライトポイントの選択を実行する。この選択処理は、等間隔に分割した点を前から順番に選択するなど、予め定めたルールに従って実行する。
最終的に、ステップS704において、予め定めたハイライトポイント数に達したと判定された場合は、そこで、ハイライトポイント選択処理は終了する。このようにして、優先度の順に選択を繰り返し、あらかじめ計算しておいた必要個数分だけハイライトポイントを選択する。
次に、選択したハイライトポイントを基に動画像をハイライトとして再生する手順について述べる。まず、選択したハイライトポイントを撮影時間順に並べる。そして、ハイライトポイントの少し前から1シーンあたりの長さだけ動画像の再生を行う。例えば、1シーンあたりの長さが5秒とすると、ハイライトポイントの1秒前から5秒間動画像の再生を行う。これを全てのハイライトポイントに連続的に対し適用し動画像の再生をすることにより、結果としてハイライトシーンだけの再生を行うことができる。図17に、ハイライトシーン選択再生例を示す。
図17は、例えば撮影画像データから3つのハイライトポイントを選択して再生する場合の例を示している。ハイライトシーン301〜303は、上述した処理によって選択されたハイライトポイントを含む動画像データであり、例えばハイライトポイントの1秒前から5秒後までを再生シーンとして設定する。図の例では、3つのハイライトシーンのみが再生されることになる。ここで、例えばハイライトポイントのつなぎ目にクロスフェードのようなシーンチェンジ効果を入れるような設定としてもよい。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
上述したように、本発明の一実施例構成によれば、撮像画像データを生成しているときの動きが加速度センサで検知されて、この加速度検出センサで生成されたセンサ検出情報に基づいてパンまたはチルト処理の実行の有無の判定が行われる。さらに、パンまたはチルト処理の終了時を重要シーン撮影部分のポイントとして識別可能としたハイライトポイント情報が生成されて撮影画像データに対応付けて記録される。このようにハイライトポイント情報を生成して撮影画像データに対応付けて記録する構成としたので、撮影後の画像解析等による重要シーンの抽出といった処理が不要となり、撮影後、即座にハイライトシーンの選択再生が実行可能となり、ユーザの負担を軽減した効率的な処理が可能となる。
本発明の一実施例に係る撮像装置の構成を示すブロック図である。 ズーム操作情報に基づくハイライトポイント抽出処理シーケンスについて説明するフローチャートを示す図である。 ズーム操作情報に基づくハイライトポイント抽出処理例、およびハイライトポイント情報のデータ構成例について説明する図である。 加速度センサ情報に基づくハイライトポイント抽出処理シーケンスについて説明するフローチャートを示す図である。 加速度センサ情報に基づくハイライトポイント抽出処理例、およびハイライトポイント情報のデータ構成例について説明する図である。 音声情報に基づくハイライトポイント抽出処理について説明する図である。 音声情報に基づくハイライトポイント抽出処理シーケンスについて説明するフローチャートを示す図である。 音声情報に基づくハイライトポイント抽出処理例、およびハイライトポイント情報のデータ構成例について説明する図である。 GPS情報に基づくハイライトポイント抽出処理シーケンスについて説明するフローチャートを示す図である。 GPS情報に基づくハイライトポイント抽出処理例、およびハイライトポイント情報のデータ構成例について説明する図である。 クロック情報に基づくハイライトポイント抽出処理シーケンスについて説明するフローチャートを示す図である。 クロック情報に基づくハイライトポイント抽出処理例、およびハイライトポイント情報のデータ構成例について説明する図である。 静止画撮影情報に基づくハイライトポイント抽出処理シーケンスについて説明するフローチャートを示す図である。 静止画撮影情報に基づくハイライトポイント抽出処理例、およびハイライトポイント情報のデータ構成例について説明する図である。 各種情報に基づくハイライトポイント抽出処理によって取得されるハイライトポイント情報を示す図である。 ハイライトシーン再生に適用するハイライトポイント選択処理シーケンスについて説明するフローチャートを示す図である。 ハイライトシーン再生子より例について説明する図である。
符号の説明
101 レンズ
102 イメージャ
103 A/D変換部
104 カメラ信号処理部
105 マイク
106 A/D変換部
107 音声信号処理部
108 入力デバイス
109 加速度センサ
110 GPSモジュール
111 マイクロプロセッサ
112 記録媒体
113 クロック
120 メモリ
121 画像エンコード部
122 音声エンコード部
123 画像デコード部
124 音声デコード部
125 表示部
126 D/A変換部
127 ディスプレイ
128 音声信号処理部
129 D/A変換部
130 スピーカ

Claims (4)

  1. 撮影画像データを生成する画像データ生成部と、
    前記画像データを生成しているときの動きを検知して、パンまたはチルト処理の実行の有無を判定可能とするセンサ検出情報を生成する加速度センサと、
    前記センサ検出情報に基づいて前記パンまたはチルト処理の実行の有無を判定し、該パンまたはチルト処理の終了時を重要シーン撮影部分のポイントとして識別可能としたハイライトポイント情報を生成するデータ処理部と、
    前記ハイライトポイント情報を前記撮像画像データの対応情報として記録媒体に記録する記録部と
    を有することを特徴とする撮像装置。
  2. 前記データ処理部は、前記センサ検出情報に基づいて算出した同一の移動方向の連続移動量が予め定めた閾値距離よりも大きい場合、前記パンまたはチルト処理が実行されたと判定することを特徴とする請求項1記載の撮像装置。
  3. 撮像装置において実行する情報処理方法であり、
    画像データ生成部で撮影画像データを生成する画像データ生成ステップと、
    前記撮像画像データを生成しているときの動きを加速度センサで検知して、パンまたはチルト処理の実行の有無を判定可能とするセンサ検出情報を生成するセンサ検出情報生成ステップと、
    データ処理部で、前記センサ検出情報に基づいて前記パンまたはチルト処理の実行の有無を判定し、該パンまたはチルト処理の終了時を重要シーン撮影部分のポイントとして識別可能としたハイライトポイント情報を生成するハイライトポイント情報生成ステップと、
    記録部で、前記ハイライトポイント情報を前記撮像画像データの対応情報として記録媒体に記録する情報記録ステップと
    を有することを特徴とする情報処理方法。
  4. 撮像装置において情報処理を実行させるコンピュータ・プログラムであり、
    撮像画像データを生成しているときの動きを加速度センサで検知して、該加速度検出センサで生成されたセンサ検出情報に基づいてパンまたはチルト処理の実行の有無を判定し、該パンまたはチルト処理の終了時を重要シーン撮影部分のポイントとして識別可能としたハイライトポイント情報を生成するハイライトポイント情報生成ステップと、
    記録部で、前記ハイライトポイント情報を前記撮像画像データの対応情報として記録媒体に記録する情報記録ステップと
    を実行させることを特徴とするコンピュータ・プログラム。
JP2008257365A 2008-10-02 2008-10-02 撮像装置、および情報処理方法、並びにコンピュータ・プログラム Pending JP2009017598A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008257365A JP2009017598A (ja) 2008-10-02 2008-10-02 撮像装置、および情報処理方法、並びにコンピュータ・プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008257365A JP2009017598A (ja) 2008-10-02 2008-10-02 撮像装置、および情報処理方法、並びにコンピュータ・プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005323363A Division JP4379409B2 (ja) 2005-11-08 2005-11-08 撮像装置、および情報処理方法、並びにコンピュータ・プログラム

Publications (1)

Publication Number Publication Date
JP2009017598A true JP2009017598A (ja) 2009-01-22

Family

ID=40357836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008257365A Pending JP2009017598A (ja) 2008-10-02 2008-10-02 撮像装置、および情報処理方法、並びにコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP2009017598A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010239363A (ja) * 2009-03-31 2010-10-21 Casio Computer Co Ltd 動画処理装置、動画再生方法、動画録画方法、及びプログラム
JP2010288015A (ja) * 2009-06-10 2010-12-24 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP2011061263A (ja) * 2009-09-07 2011-03-24 Nippon Telegr & Teleph Corp <Ntt> ダイジェスト映像作成装置およびダイジェスト映像作成プログラム
JP2013214985A (ja) * 2013-06-05 2013-10-17 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
US8938154B2 (en) 2012-03-21 2015-01-20 Casio Computer Co., Ltd. Moving image capturing apparatus, moving image capturing method and storage medium storing moving image capturing program, and digest playback setting apparatus, digest playback setting method and storage medium storing digest playback setting program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261946A (ja) * 1998-03-11 1999-09-24 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法および装置並びに該映像表示方法を記録した記録媒体
JP2004080599A (ja) * 2002-08-21 2004-03-11 Canon Inc 画像記録再生装置及びその制御方法
JP2005175533A (ja) * 2003-12-05 2005-06-30 Canon Inc 映像処理装置および代表画像設定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11261946A (ja) * 1998-03-11 1999-09-24 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法および装置並びに該映像表示方法を記録した記録媒体
JP2004080599A (ja) * 2002-08-21 2004-03-11 Canon Inc 画像記録再生装置及びその制御方法
JP2005175533A (ja) * 2003-12-05 2005-06-30 Canon Inc 映像処理装置および代表画像設定方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010239363A (ja) * 2009-03-31 2010-10-21 Casio Computer Co Ltd 動画処理装置、動画再生方法、動画録画方法、及びプログラム
JP2010288015A (ja) * 2009-06-10 2010-12-24 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
US8649663B2 (en) 2009-06-10 2014-02-11 Sony Corporation Information processing device, information processing method, and information processing program
US9478257B2 (en) 2009-06-10 2016-10-25 Sony Corporation Information processing device, information processing method, and information processing program
JP2011061263A (ja) * 2009-09-07 2011-03-24 Nippon Telegr & Teleph Corp <Ntt> ダイジェスト映像作成装置およびダイジェスト映像作成プログラム
US8938154B2 (en) 2012-03-21 2015-01-20 Casio Computer Co., Ltd. Moving image capturing apparatus, moving image capturing method and storage medium storing moving image capturing program, and digest playback setting apparatus, digest playback setting method and storage medium storing digest playback setting program
JP2013214985A (ja) * 2013-06-05 2013-10-17 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム

Similar Documents

Publication Publication Date Title
JP4379409B2 (ja) 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
JP4525558B2 (ja) 情報処理装置、撮像装置、および情報処理方法、並びにコンピュータ・プログラム
WO2007032145A1 (ja) 撮像装置、記録方法
JP2012060218A5 (ja)
JP2010045765A (ja) 再生装置
JP2006157893A (ja) 撮像装置
JP2009017598A (ja) 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
JP2010074323A (ja) 記録装置および方法、並びに記録再生装置および方法
JP2008131617A (ja) 映像処理装置
JP2006101076A (ja) 動画編集方法、動画編集装置及びプログラム
JP2007200409A (ja) 撮像装置、記録装置及び記録方法
US20080151060A1 (en) Camera apparatus and chapter data generating method in camera apparatus
JP2006311145A (ja) 撮像装置、再生装置、制御方法、およびプログラム
JP2006092681A (ja) 画像管理方法、画像管理装置及び画像管理システム
JP2013021654A (ja) 再生装置
JP5560744B2 (ja) 撮像装置、動画撮像方法、及び、プログラム
JP7137287B2 (ja) 画像処理装置および方法
JP2023162709A (ja) 撮像装置
JP2015192336A (ja) 画像処理装置およびデジタルカメラ
JP2020120210A (ja) 画像処理装置
JP2009290572A (ja) 撮像装置および画像記録方法
JP2010098636A (ja) 動画再生装置、及び動画編集装置
JP2016015654A (ja) 再生装置
JP2015159387A (ja) 動画記録装置
JP2010004277A (ja) 動画像処理装置、制御プログラム、及び記憶媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101214