JP2006189977A - 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体 - Google Patents

画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体 Download PDF

Info

Publication number
JP2006189977A
JP2006189977A JP2004382185A JP2004382185A JP2006189977A JP 2006189977 A JP2006189977 A JP 2006189977A JP 2004382185 A JP2004382185 A JP 2004382185A JP 2004382185 A JP2004382185 A JP 2004382185A JP 2006189977 A JP2006189977 A JP 2006189977A
Authority
JP
Japan
Prior art keywords
image
data
person
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004382185A
Other languages
English (en)
Inventor
Kentaro Yamamoto
健太郎 山本
Akihiro Denda
明弘 傳田
Yoshiya Nonaka
慶也 野中
Noritaka Arai
紀孝 新居
Hiroki Kato
寛樹 加藤
Eiji Ota
英治 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Tech Experts Inc
Pioneer System Technologies Corp
Original Assignee
Pioneer Electronic Corp
Tech Experts Inc
Pioneer System Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp, Tech Experts Inc, Pioneer System Technologies Corp filed Critical Pioneer Electronic Corp
Priority to JP2004382185A priority Critical patent/JP2006189977A/ja
Publication of JP2006189977A publication Critical patent/JP2006189977A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像データの編集の容易化を図ること。
【解決手段】画像編集装置は、画像イメージを含む画像データの入力を受け付ける入力部101と、入力部101によって受け付けられた画像データの画像イメージ内に含まれる人物に関する画像イメージを抽出する抽出部102と、抽出部102によって抽出された人物に関する画像イメージ内の人物を識別する識別部103と、識別部103によって識別された識別結果に基づいて、抽出部102によって抽出された人物に関する画像イメージを含む画像データを分類する分類部104と、分類部104によって分類された分類結果に基づいて、人物に関する画像イメージを含む画像データを人物ごとのアルバムデータに分配するとともに、人物に関する画像イメージを含まない画像データをすべての人物のアルバムデータに分配する分配部105と、を備える。
【選択図】 図1

Description

この発明は、写真などの画像データを編集する画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体に関する。ただし、この発明の利用は、上述した画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体に限られない。
近年、デジタルスチルカメラ(DSC)などの普及に伴って、撮影した画像データを用いた、いわゆる電子絵日記を作成し、ウェブページ上などで容易に鑑賞することを可能にした電子絵日記作成装置が提供されている。このような電子絵日記作成装置では、つぎのように電子絵日記が作成される。
具体的には、たとえば送信日時、画像データ、メッセージデータなどを含む電子メールデータをカメラ付き携帯電話から電子絵日記作成装置に送信し、電子絵日記作成装置において、送信された電子メールデータが受信される。そして、受信された電子メールデータから画像データ、メッセージデータが抽出され、電子メールデータの送信者に対応して電子絵日記データベースに格納される。電子絵日記の閲覧要求があると、対応する画像データ、メッセージデータなどが見つけられ、電子絵日記を表示するためのウェブページデータが生成される。こうして生成されたウェブページデータが、閲覧要求したクライアントコンピュータに送信され、クライアントコンピュータの表示装置の表示画面上に電子絵日記が表示される(たとえば、下記特許文献1参照。)。
特開2003−173309号公報
しかしながら、上記特許文献1に記載された電子絵日記作成装置では、電子絵日記の作成者を識別することはできるが、たとえば画像データをカテゴリーやグループで分類して、作成者ごとに異なるカテゴリーやグループの画像データを用い、適宜電子絵日記を作成することはできないという問題が一例として挙げられる。
請求項1の発明にかかる画像編集装置は、画像イメージを含む画像データの入力を受け付ける入力手段と、前記入力手段によって受け付けられた画像データの前記画像イメージ内に含まれる人物に関する画像イメージを抽出する抽出手段と、前記抽出手段によって抽出された人物に関する画像イメージ内の人物を識別する識別手段と、前記識別手段によって識別された識別結果に基づいて、前記抽出手段によって抽出された前記人物に関する画像イメージを含む前記画像データを前記人物ごとに分類する分類手段と、前記分類手段によって分類された分類結果に基づいて、前記人物に関する画像イメージを含む前記画像データを該当する前記人物ごとのアルバムデータに分配するとともに、前記人物に関する画像イメージを含まない前記画像データをすべての人物のアルバムデータに分配する分配手段と、を備えることを特徴とする。
また、請求項10の発明にかかる画像編集方法は、画像イメージを含む画像データを入力する入力工程と、前記入力工程によって入力された画像データの前記画像イメージ内に含まれる人物に関する画像イメージを抽出する抽出工程と、前記抽出工程によって抽出さ
れた人物に関する画像イメージ内の人物を識別する識別工程と、前記識別工程によって識別された識別結果に基づいて、前記抽出工程によって抽出された前記人物に関する画像イメージを含む前記画像データを前記人物ごとに分類する分類工程と、前記分類工程によって分類された分類結果に基づいて、前記人物に関する画像イメージを含む前記画像データを該当する前記人物ごとのアルバムデータに分配するとともに、前記人物に関する画像イメージを含まない前記画像データをすべての人物のアルバムデータに分配する分配工程と、を含むことを特徴とする。
また、請求項11の発明にかかる画像編集プログラムは、請求項10に記載の画像編集方法をコンピュータに実行させることを特徴とする。
また、請求項12の発明にかかるコンピュータに読み取り可能な記録媒体は、請求項11に記載の画像編集プログラムを記録したことを特徴とする。
以下に添付の図面を参照して、この発明にかかる画像編集装置、画像編集方法、画像編集プログラムおよびこのプログラムを記録したコンピュータに読み取り可能な記録媒体の好適な実施の形態を詳細に説明する。
(実施の形態)
(画像編集装置の機能的構成)
まず、この発明の実施の形態にかかる画像編集装置の内容について説明する。図1は、この発明の実施の形態にかかる画像編集装置の機能的構成の一例を示すブロック図である。図1において、画像編集装置は、たとえば車両(四輪車、二輪車を含む)などの移動体に搭載され、入力部101と、抽出部102と、識別部103と、分類部104と、分配部105と、表示部106と、音声再生部107とを含む構成となっている。
入力部101は、画像イメージを含む画像データの入力を受け付ける。入力部101は、たとえば1台または複数台の撮影装置や通信装置あるいは一つまたは複数の記録媒体などからの画像データの入力を受け付ける。画像データは、人物や風景に関する画像イメージを含んでいる。抽出部102は、入力部101によって受け付けられた画像データの画像イメージ内に含まれる人物に関する画像イメージを抽出する。抽出部102は、画像データの画像イメージ内に複数の人物に関する画像イメージが含まれている場合は、それぞれの人物に関する画像イメージを抽出するとよい。
識別部103は、抽出部102によって抽出された人物に関する画像イメージ内の人物を識別する。画像イメージ内の人物の識別は、たとえばあらかじめ画像編集装置に登録された人物の顔画像イメージの特徴量に基づく顔認証や、画像データに付された人物を特定する年齢情報や性別情報などの識別情報に基づく人物認証などによりおこなわれるとよい。分類部104は、識別部103によって識別された識別結果に基づいて、抽出部102によって抽出された人物に関する画像イメージを含む画像データを分類する。ここでの分類は、たとえば複数の人物に関する画像イメージを含む画像データを、各人物ごとのカテゴリーに分けて分類することによりおこなわれる。
分配部105は、分類部104によって分類された分類結果に基づいて、入力部101によって受け付けられた画像イメージの中から、人物に関する画像イメージを含む画像データを人物ごとのアルバムデータに分配するとともに、人物に関する画像イメージを含まない画像データ(たとえば、風景に関する画像イメージのみを含む画像データ)をすべての人物のアルバムデータに分配する。
また、分配部105は、人物に関する画像イメージを含む画像データのうち、識別部103によって識別された人物以外の他の人物に関する画像イメージを含む画像データを、識別された人物のアルバムデータにそれぞれ分配する。また、分配部105は、たとえば入力部101が複数台の撮影装置からの画像データの入力を受け付けた場合、これら複数台の撮影装置に対応したアルバムデータに画像データを分配してもよい。なお、分配部105は、アルバムデータに分配される画像データを、たとえば画像データに含まれるタイムスタンプに基づいて時系列に配置してから分配してもよい。
また、表示部106は、分配部105によってアルバムデータに分配された画像データを表示画面に表示する。そして、音声再生部107は、音声データを再生する。この音声再生部107は、分配部105によって分配されたアルバムデータ内の画像データの特徴パラメータに基づいて、再生する音声データを選択する。この特徴パラメータは、たとえば画像データに含まれるタイムスタンプデータ、画像イメージの色調データ、および人物の顔画像イメージの特徴量などから構成される。音声データは、たとえば音楽などの楽曲データや録音された人物の声のデータなどを含むものである。
(画像編集装置の画像編集処理手順)
つぎに、この発明の実施の形態にかかる画像編集装置の画像編集処理手順について説明する。図2は、この発明の実施の形態にかかる画像編集装置の画像編集処理手順の一例を示すフローチャートである。
図2のフローチャートにおいて、まず、入力部101(図1参照、以下同じ)によって、1台または複数台の撮影装置などから、人物や風景の画像イメージを含む画像データを入力する(ステップS201)。つぎに、抽出部102(図1参照、以下同じ)によって、入力部101により入力した画像データの画像イメージ内に人物に関する画像イメージがあるか否かを判断する(ステップS202)。ステップS202において、人物に関する画像イメージがあると判断した場合(ステップS202:Yes)、抽出部102によって、画像データの画像イメージ内に含まれる人物に関する画像イメージを抽出する(ステップS203)。
そして、識別部103(図1参照、以下同じ)によって、抽出部102により抽出された人物に関する画像イメージ内の人物を識別する(ステップS204)。識別部103により画像イメージ内の人物を識別したのち、分類部104(図1参照、以下同じ)によって、その識別結果に基づき、入力部101により入力した画像データに含まれる画像イメージが、抽出部102により抽出した人物に関する画像イメージを含み、かつ識別した人物に関する画像イメージを含む画像データであるか否かを判断する(ステップS205)。
ステップS205において、識別した人物に関する画像イメージを含む画像データであると判断した場合(ステップS205:Yes)、分類部104によって、識別した人物に関する画像イメージを含む画像データを分類する(ステップS206)。そして、分配部105(図1参照、以下同じ)によって、分類部104による分類結果に基づき、識別した人物に関する画像イメージを含む画像データを識別した人物ごとのアルバムデータに分配し(ステップS207)、本フローチャートによる一連の画像編集処理を終了する。
一方、ステップS202において、抽出部102によって人物に関する画像イメージがないと判断した場合(ステップS202:No)、およびステップS205において、分類部104によって識別した人物に関する画像イメージを含む画像データでないと判断した場合(ステップS205:No)、ステップS208に移行する。そして、分配部105によって、分類部104による分類結果に基づき、画像データをすべての人物のアルバ
ムデータに分配し(ステップS208)、本フローチャートによる一連の画像編集処理を終了する。
なお、分配部105は、分類部104によって識別した人物に関する画像イメージを含む画像データでないと判断した場合(ステップS205:No)、のちのステップS208における分配処理で、つぎのように分配をおこなうとよい。すなわち、たとえば人物に関する画像イメージを含む画像データのうち、識別した人物以外の他の人物に関する画像イメージを含む画像データを、識別した人物のアルバムデータに分配するようにしてもよい。
また、図示は省略するが、ステップS207およびステップS208における、分配部105による画像データの分配処理が終了したのち、作成された人物のアルバムデータに基づいて、表示部106(図1参照、以下同じ)によって、表示画面にアルバムデータ内の画像データを表示してもよい。また、作成された人物のアルバムデータに基づいて、音声再生部107(図1参照、以下同じ)によって、アルバムデータ内の画像データの特徴パラメータなどに関連付けられた音声データの再生をおこなってもよい。
以上説明したように、この発明の実施の形態にかかる画像編集装置によれば、識別した人物に関する画像イメージを含む画像データを、識別した人物ごとのアルバムデータに分配し、識別した人物に関する画像イメージを含まない画像データを、すべての人物のアルバムデータに分配することができる。このため、人物ごとのアルバムデータへその人物の画像データおよび他の画像データを自動的に分配することができるようになり、画像編集処理の繁雑な手間を軽減することができる。
つぎに、この発明の実施の形態にかかる実施例について詳細に説明する。ここでは、この実施の形態にかかる画像編集装置を車載のナビゲーション装置に適用した場合を例示して説明する。
(画像編集装置が搭載された車両内部の説明)
まず、この発明の実施例にかかる画像編集装置が搭載された車両内部について説明する。図3は、この発明の実施例にかかる画像編集装置が搭載された車両内部の一例を示す説明図である。図3において、たとえば運転席シート311および助手席シート312の周囲には、図1における表示部106としてのモニタ302aおよび音声再生部107の音声出力装置としてのスピーカ304が設けられている。また、助手席シート312には、後部座席シート313への搭乗者に向けて、表示部106としてのモニタ302bが設けられている。画像編集装置310(310a,310b)は、これらのモニタ302(302a,302b)と、スピーカ304とを備えている。この画像編集装置310(310a,310b)は、車両に着脱可能な構造を備えていてもよい。
(画像編集装置のハードウェア構成)
つぎに、この発明の実施例にかかる画像編集装置のハードウェア構成について説明する。図4は、この発明の実施例にかかる画像編集装置のハードウェア構成の一例を示すブロック図である。
図4において、画像編集装置310は、上述したように着脱自在に車両に搭載されており、制御部400と、ユーザ操作部(リモコン,タッチパネル)401と、表示部(モニタ)402と、位置取得部403と、記録媒体404と、記録媒体デコード部405と、案内音出力部406と、通信部407と、経路探索部408と、経路誘導部409と、案内音生成部410と、スピーカ411と、画像編集部412と、画像入出力I/F413
と、音声再生部414と、音声出力部415とを含む構成となっている。
制御部400は、たとえば画像編集装置310全体の制御を司り、制御プログラムにしたがって各種の演算処理を実行することにより、画像編集装置310が備える各部を統括的に制御する。制御部400は、たとえば所定の演算処理を実行するCPU(Central Processing Unit)や、各種制御プログラムを格納するROM(Read Only Memory)、および、CPUのワークエリアとして機能するRAM(Random Access Memory)などによって構成されるマイクロコンピュータなどによって実現することができる。
また、制御部400は、車両の経路誘導に際し、たとえば位置取得部403によって取得された車両の現在位置に関する情報と、記録媒体404から記録媒体デコード部405を介して得られた地図情報とに基づいて、地図上のどの位置を車両が走行しているかを算出し、算出結果を表示部402へ出力する。この制御部400は、上記経路誘導に際し、経路探索部408、経路誘導部409、および案内音生成部410の間で経路誘導に関する情報の入出力をおこない、その結果得られる情報を表示部402および案内音出力部406へ出力する。
ユーザ操作部401は、文字、数値、各種指示など、ユーザによって入力操作された情報を制御部400に対して出力する。ユーザ操作部401の構成としては、たとえば物理的な押下/非押下を検出する押しボタン式スイッチ、タッチパネル、キーボード、ジョイスティックなどの公知の各種形態を採用することができる。ユーザ操作部401は、外部からの音声を入力するマイクを用いて、音声によって入力操作をおこなう形態としてもよい。
このユーザ操作部401は、画像編集装置310に対して一体的に設けられていてもよいし、リモコンのように画像編集装置310から離間した位置から操作可能な形態であってもよい。ユーザ操作部401は、上述した各種形態のうちのいずれか一つの形態で構成されていても、複数の形態で構成されていてもよい。ユーザは、ユーザ操作部401の形態に応じて、適宜入力操作をおこなうことで情報を入力する。ユーザ操作部401の入力操作によって入力される情報として、たとえばナビゲーションに関しては、目的地の情報が挙げられる。具体的に、たとえば画像編集装置310が車両などに備えられている場合には、この車両の搭乗している人物が到達目標とする地点が設定される。また、ユーザ操作部401に入力される情報として、たとえば画像編集に関しては、後述する画像入出力I/F413から画像編集部412に入力された画像データの電子アルバムにおける表示形式の情報が挙げられる。具体的には、たとえばこの車両の搭乗している人物が所望とする電子アルバムの表示形式が設定される。
ここで、たとえばユーザ操作部401の形態としてタッチパネルを採用する場合、このタッチパネルは、表示部402の表示画面側に積層して使用される。この場合、表示部402における表示タイミングと、タッチパネル(ユーザ操作部401)に対する操作タイミングおよびその位置座標とを管理することによって、入力操作による入力情報を認識する。ユーザ操作部401の形態として表示部402に積層されたタッチパネルを採用することにより、ユーザ操作部401の形態を大型化することなく、多くの情報入力をおこなうことができる。このタッチパネルとしては、抵抗膜式、感圧式など公知の各種タッチパネルを採用することが可能である。
表示部402は、たとえばCRT(Cathode Ray Tube)、TFT液晶ディスプレイ、有機ELディスプレイ、プラズマディスプレイなどを含む。表示部402は、具体的には、たとえば図示しない映像I/Fや映像I/Fに接続された映像表示用の
ディスプレイ装置によって構成することができる。映像I/Fは、具体的には、たとえばディスプレイ装置全体の制御をおこなうグラフィックコントローラと、即時表示可能な画像情報を一時的に記憶するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像情報に基づいて、ディスプレイ装置を表示制御する制御ICやGPU(Graphics Processing Unit)などによって構成される。表示部402には、アイコン、カーソル、メニュー、ウィンドウあるいは文字や画像などの各種情報が表示される。また、表示部402には、後述する画像編集部412の画像記憶部513に記憶されたアルバムデータ内の画像データが表示される(図12参照)。
位置取得部403は、たとえば人工衛星からの電波を受信することによって画像編集装置310が搭載された車両の現在位置情報(緯度経度情報)を取得する。ここで、現在位置情報は、人工衛星からの電波を受信し、人工衛星との幾何学的位置を求める情報であり、地球上どこでも計測可能である。なお、位置取得部403は、図示しないGPSアンテナを備えている。ここで、GPS(Global Positioning System)とは、4つ以上の人工衛星からの電波を受信することによって地上での位置を正確に求めるシステムである。ここでは、公知の技術であるためGPSについての説明は省略する。この位置取得部403は、たとえば人工衛星から受信した電波を復調するチューナや、復調した情報に基づいて現在位置を算出する演算回路などによって構成することができる。
なお、人工衛星からの電波としては、1.57542GHzの搬送波で、C/A(Coarse and Access)コードおよび航法メッセージが乗っているL1電波などを用いておこなわれる。これにより、画像編集装置310が搭載された車両の現在位置(緯度および経度)を検知する。なお、車両の現在位置の検知に際しては、車速センサやジャイロセンサなどの各種センサによって収集された情報を加味してもよい。車速センサは、画像編集装置310を搭載する車両のトランスミッションの出力側シャフトから車速を検出する。
その他、車両の現在位置の検知に際しては、角速度センサ、走行距離センサ、傾斜センサなどの各種センサからによって収集された情報を加味してもよい。角速度センサは、車両の回転時の角速度を検出し、角速度情報と相対方位情報とを出力する。走行距離センサは、車輪の回転に伴って出力される所定周期のパルス信号のパルス数をカウントすることによって車輪1回転あたりのパルス数を算出し、その1回転あたりのパルス数に基づく走行距離情報を出力する。傾斜センサは、路面の傾斜角度を検出し、傾斜角情報を出力する。
記録媒体404は、各種制御プログラムや各種情報をコンピュータに読み取り可能な状態で記録する。記録媒体404は、記録媒体デコード部405による情報の書き込みを受け付けるとともに、書き込まれた情報を不揮発に記録する。記録媒体404は、たとえばHD(Hard Disk)によって実現することができる。記録媒体404は、HDに限るものではなく、HDに代えてあるいはHDに加えて、DVD(Digital Versatile Disk)やCD(Compact Disk)など、記録媒体デコード部405に対して着脱可能であり可搬性を有するメディアを記録媒体404として用いてもよい。そして、記録媒体404は、DVDおよびCDに限るものではなく、CD−ROM(CD−R、CD−RW)、MO(Magneto−Optical disk)、メモリカードなどの記録媒体デコード部405に対して着脱可能であり可搬性を有するメディアを利用することもできる。
なお、記録媒体404には、本発明を実現する画像編集プログラム、ナビゲーションプ
ログラム、画像データ、および地図情報などが記録されている。ここで、画像データは、たとえば人物や風景に関する画像イメージを表わす2次元配列の値をいう。地図情報は、たとえば建物、河川、地表面などの地物(フィーチャ)をあらわす背景情報と、道路の形状をあらわす道路形状情報とを有しており、表示部402の表示画面において2次元または3次元に描画される。
背景情報は、背景の形状をあらわす背景形状情報と、背景の種別をあらわす背景種別情報とを有する。背景形状情報は、たとえば地物の代表点、ポリライン、ポリゴン、地物の座標などを示す情報を含む。背景種別情報は、たとえば地物の名称や住所や電話番号などを示すテキスト情報、建物・河川などの地物の種別を示す種別情報などを含む。
道路形状情報は、複数のノードおよびリンクを有する道路ネットワークに関する情報である。ノードは、三叉路・十字路・五叉路など複数の道路が交差する交差点を示す情報である。リンクは、ノード間を連結する道路を示す情報である。リンクには、曲線道路の表現を可能とする形状補完点を有するものもある。道路形状情報は、交通条件情報を有する。交通条件情報は、交差点の特徴、各リンクの長さ(距離)、車幅、進行方向、通行禁止、道路種別などを示す情報である。
この交差点の特徴としては、たとえば三叉路や五叉路などの複雑な交差点、浅い角度で道路が分岐する交差点、目的地周辺の交差点、高速道路の出入り口やジャンクション、経路逸脱率の高い交差点などが挙げられる。経路逸脱率は、たとえば過去の走行履歴から算出することが可能である。そして、道路種別としては、たとえば高速道路、有料道路、一般道路などが挙げられる。
なお、本実施例では、たとえば画像データや地図情報を記録媒体404に記録するようにしたが、これに限るものではない。画像データや地図情報は、画像編集装置310のハードウェアと一体に設けられているものに限って記録されているものではなく、画像編集装置310の外部に設けられていてもよい。その場合、画像編集装置310は、たとえば通信部407を通じて、ネットワークを介して画像データを取得する。また、画像編集装置310は、たとえば通信部407を通じて、ネットワークを介して地図情報を取得する。このように取得された画像データや地図情報は、たとえば制御部400のRAMなどに記憶されてもよい。
記録媒体デコード部405は、記録媒体404に対する情報の読み取り/書き込みの制御をおこなう。たとえば記録媒体404としてHDを用いた場合には、記録媒体デコード部405は、HDD(Hard Disk Drive)となる。同様に、記録媒体404としてDVDあるいはCD(CD−R,CD−RWを含む)を用いた場合には、記録媒体デコード部405は、DVDドライブあるいはCDドライブとなる。また、書き込み可能かつ着脱可能な記録媒体404として、CD−ROM(CD−R,CD−RW)、MO、メモリカードなどを利用する場合には、各種記憶媒体への情報の書き込みおよび各種記憶媒体に記憶された情報の読み出しが可能な専用のドライブ装置などを、記録媒体デコード部405として適宜用いるとよい。
案内音出力部406は、接続されたスピーカ411への出力を制御することによって、ナビゲーションの案内音を再生する。スピーカ411は、一つであってもよいし、複数であってもよい。具体的に、案内音出力部406は、音声出力用のスピーカ411に接続される図示しない音声I/Fによって実現することができる。より具体的には、音声I/Fは、たとえば音声デジタル情報のD/A変換をおこなうD/Aコンバータと、D/Aコンバータから出力される音声アナログ信号を増幅する増幅器と、音声アナログ情報のA/D変換をおこなうA/Dコンバータと、から構成することができる。
通信部407は、他の画像編集装置との間で通信をおこなう。本実施例の通信部407は、たとえば携帯電話のように、基地局(図示せず)を介して通信サーバ(図示せず)と通信をおこなう通信モジュールであってもよく、他の画像編集装置との間で直接無線通信をおこなう通信モジュールであってもよい。ここで、無線通信とは、通信の媒体となるワイヤ線を使わず、電波や赤外線・超音波を用いておこなわれる通信である。無線通信を可能とする規格には、たとえば無線LAN、IrDA(Infrared Data Association)、HomeRF(Home Radio Frequency)、BlueToothなど各種の技術があるが、本実施例においては公知の各種の無線通信技術を利用することができる。なお、情報の転送速度などの面から、無線LANを好ましい一例として用いることができる。
ここで、通信部407は、たとえば渋滞や交通規制などの道路交通情報を、定期的(不定期でも可)に受信してもよい。通信部407による道路交通情報の受信は、VICS(Vehicle Information and Communication System)センターから道路交通情報が配信されたタイミングでおこなってもよいし、VICSセンターに対し定期的に道路交通情報を要求することでおこなってもよい。また、通信部407は、たとえばAM/FMチューナ、TVチューナ、VICS/ビーコンレシーバおよびその他の通信機器として実現することが可能である。
なお、公知の技術であるため詳細な説明を省略するが、「VICS」とは、VICSセンターで編集、処理された渋滞や交通規制などの道路交通情報をリアルタイムに送信し、カーナビゲーション装置などの車載機器に文字・図形で表示する情報通信システムである。このVICSセンターで編集、処理された道路交通情報(VICS情報)をナビゲーション装置に伝達する方法としては、各道路上に設置された「ビーコン」と「FM多重放送」を利用する方法がある。「ビーコン」には、主に高速道路で使用される「電波ビーコン」と、主要な一般道路で使用される「光ビーコン」がある。「FM多重放送」を利用する場合には、広域エリアの道路交通情報を受信することが可能となる。「ビーコン」を利用する場合には、自車位置を元にした直近の道路の詳細な情報など、自車が位置する場所において必要な道路交通情報を受信することが可能となる。
そして、通信部407は、他の画像編集装置との間での通信方法と、画像データや道路交通情報を受信するための通信方法とが異なる場合には、それぞれに対応した複数の通信手段を備えていてもよい。
経路探索部408は、位置取得部403によって取得される現在位置情報と、ユーザによって入力される目的地の情報とに基づいて、現在位置から目的地までの最適な経路を算出する。以降、経路探索部408によっておこなわれる現在位置から目的地までの最適な経路の算出を誘導経路の探索(または再探索)として説明する。
経路誘導部409は、経路探索部408によって探索された誘導経路に関する情報あるいは、通信部407によって受信した経路情報と、位置取得部403によって取得された現在位置情報と、記録媒体404から記録媒体デコード部405を経由して得られた地図情報とに基づいて、リアルタイムな経路誘導情報の生成をおこなう。経路誘導部409で生成された経路誘導情報は、制御部400を介して表示部402へ出力される。
案内音生成部410は、パターンに対応したトーンと音声の情報を生成する。すなわち、経路誘導部409で生成された経路誘導情報に基づいて、案内ポイントに対応した仮想音源の設定と音声ガイダンス情報の生成をおこない、これらを制御部400を介して案内音出力部406へ出力する。
スピーカ411は、案内音出力部406から出力されるナビゲーションの案内音や、後述する音声出力部415から出力される音声を再生(出力)する。なお、たとえばこのスピーカ411にヘッドホンなどを設け、車両内部全体が出力される案内音や音声の音場とならないように、案内音や音声の出力形態を適宜変更するようにしてもよい。
画像編集部412は、後述する画像入出力I/F413や通信部407を通じて取得した画像データや、記録媒体404に記録されている画像データの画像編集処理をおこなう。具体的には、画像編集部412は、制御部400からの制御命令にしたがって、画像データを用いた電子アルバム(以下、「アルバム」という)データの作成処理をおこなう。ここで、アルバムデータとは、デジタルスチルカメラ(DSC)やデジタルビデオカメラ(DV)などの撮影装置によって撮影された画像データなどを、表示部402の表示画面上で本のアルバムのように鑑賞することや、パソコンなどで閲覧・編集することが可能なデジタルデータのことをいう。
画像入出力I/F413は、外部から画像編集部412に対して入出力される画像データの入出力をおこなう。画像入出力I/F413は、たとえば上記DSCやDVなどが撮影した画像データを格納する記録媒体404からの画像データや、DSCやDVなどに格納された画像データをUSB(Universal Serial Bus)、IEEE1394(Institute of Electrical and Electronic Engineers 1394)および赤外線などの通信によって通信部407から入力される画像データなどを画像編集部412に出力し、画像編集部412から出力される画像データを記録媒体404や通信部407に出力する。なお、画像入出力I/F413は、記録媒体404との間で画像データの入出力をおこなう場合は、記録媒体404のリード/ライトを制御するコントローラの機能を有するとよい。また、画像入出力I/F413は、通信部407との間で画像データの入出力をおこなう場合は、通信部407での通信を制御する通信コントローラの機能を有するとよい。
音声再生部414は、記録媒体デコード部405を通じて記録媒体404から得られる音声データや、制御部400を通じて通信部407から得られる音声データの選択をおこない、選択した音声データの再生処理をおこなう。また、音声再生部414は、後述する音声データベース(以下、「音声DB」とする)611に格納された音声データの再生をおこなう。この音声再生部414は、たとえばラジオやテレビの音声を再生するように構成されていてもよい。
音声出力部415は、音声再生部414で選択され再生処理された音声データに基づいて、スピーカ411から出力される音声の出力を制御する。具体的には、たとえば音声の音量の調整やイコライジング処理などをおこない、音声の出力状態を制御する。この音声出力部415による音声の出力の制御は、たとえばユーザ操作部401からの入力操作や制御部400による制御によっておこなわれる。
なお、図1における入力部101は、具体的には、たとえば画像入出力I/F413によってその機能を実現する。また、図1における抽出部102、識別部103、分類部104および分配部105は、具体的には、たとえば制御部400および画像編集部412によってその機能を実現する。また、図1における表示部106は、具体的には、たとえば表示部402によってその機能を実現する。さらに、図1における音声再生部107は、具体的には、たとえば音声再生部414、音声出力部415およびスピーカ411によってその機能を実現する。
ここで、上記画像編集部412および音声再生部414の内部構成について説明する。
図5は、この発明の実施例にかかる画像編集装置における画像編集部の内部構成の一例を示すブロック図である。また、図6は、この発明の実施例にかかる画像編集装置における音声再生部の内部構成の一例を示すブロック図である。
図5において、画像編集部412は、画像編集処理部510と、表示制御部511と、画像認識部512と、画像記憶部513と、人物認識部514と、人物データベース(以下、「人物DB」とする)515とを備えて構成されている。画像編集処理部510は、画像入出力I/F413を通じて外部から画像編集部412に入力される画像データや、記録媒体デコード部405(図4参照、以下同じ)および制御部400を通じて記録媒体404(図4参照、以下同じ)から画像編集部412に入力される画像データの画像編集処理をおこなう。また、画像編集処理部510は、後述する画像記憶部513に記憶されている画像データを読み出して画像編集処理をおこなう。画像編集処理内容は、たとえば画像データをアルバムデータに編集することなどが挙げられる。この画像編集処理部510は、具体的には、たとえばGPUなどによって構成される。
表示制御部511は、画像編集処理部510から出力される画像データを、表示部402の表示画面上でアルバム形態として表示するための制御をおこなう。画像認識部512は、画像編集処理部510に入力された画像データに基づいて、その画像データにどのような画像イメージが含まれているのかを認識する。画像記憶部513は、画像編集処理部510に入力された画像データを記憶する。
人物認識部514は、画像編集処理部510に入力された画像データ内の画像イメージに、人物に関する画像イメージが含まれている場合に、あらかじめ人物DB515に格納されている人物に関する画像イメージを読み出して、その画像イメージが表わす人物の認識処理をおこなう。認識処理は、具体的には、たとえば人物の顔画像イメージに基づく顔認証によりおこなわれる。顔認証については、公知の技術であるため、ここでは説明を省略する。人物DB515は、車両に搭乗している人物の画像イメージを含む画像データや、これらの人物の年齢、性別などの個人識別データなどを格納している。
一方、図6において、音声再生部414は、音声再生処理部610と、音声データベース(以下、「音声DB」という)611と、選曲履歴データベース(以下、「選曲履歴DB」という)612とを備えて構成されている。音声再生処理部610は、音声再生部414に入力される音声データや、音声DB611に格納されている音声データの選択・再生処理をおこなう。また、音声再生処理部610は、画像編集部412(図4参照、以下同じ)で作成されたアルバムデータ内の画像データに関連付けて音声データの選択・再生処理をおこなう。音声データの関連付けは、アルバムデータ内の画像データに含まれるタイムスタンプデータや、画像イメージの色調データ、人物の顔画像イメージの特徴量などの特徴パラメータに基づきおこなわれる。
音声DB611は、音声再生部414で再生処理される音声データを格納する。音声DB611に格納される音声データは、記録媒体404(図4参照、以下同じ)や通信部407(図4参照、以下同じ)から音声再生部414に入力される音声データであっても、あらかじめ画像編集装置310に装備された音声データであってもよい。選曲履歴DB612は、音声再生部414で再生処理した音声データが楽曲データである場合などに、その楽曲の再生履歴や選曲履歴に関する情報を格納する。この選曲履歴DB612は、たとえば画像編集装置310が車両に搭載されているときに、ドライブ中に再生された楽曲の再生履歴や選曲履歴に関する情報などを格納する。
(画像編集装置の画像編集処理手順)
つぎに、この発明の実施例にかかる画像編集装置の画像編集処理手順について説明する
。図7および図8は、この発明の実施例にかかる画像編集装置の画像編集処理手順の一例を示すフローチャートである。以下においては、3人の人物(ユーザA、ユーザBおよびユーザC)が、それぞれの撮影装置(カメラA、カメラBおよびカメラC)で撮影した画像データを編集する場合について説明する。
図7において、まず、画像編集部412(図4参照、以下同じ)によって、画像入出力I/F413(図4参照、以下同じ)を通じて、カメラA〜Cを用いてそれぞれ撮影したユーザA、ユーザB、ユーザCからの画像データを取得する(ステップS701)。取得した画像データは、画像記憶部513(図5参照、以下同じ)に記憶される。画像編集部412によって取得され画像記憶部513に記憶された画像データは、画像編集処理部510(図5参照、以下同じ)を通じて画像認識部512(図5参照、以下同じ)に提供され、画像認識部512によって、画像データの画像イメージ内に人物に関する画像イメージがあるか否かを判断する(ステップS702)。
ステップS702において、画像認識部512によって、前記取得された画像データの画像イメージ内に人物に関する画像イメージがあると判断した場合(ステップS702:Yes)、画像編集処理部510は、画像データの中から、人物に関する画像イメージをそれぞれ抽出する(ステップS703)。そして、人物認識部514(図5参照、以下同じ)によって、人物DB515(図5参照、以下同じ)に格納されている人物(ユーザ)に関する画像イメージを読み出し、先に抽出した人物に関する画像イメージと、ユーザA、ユーザB、ユーザCに関する画像イメージとを比較し、抽出した人物に関する画像イメージが、ユーザA、ユーザB、ユーザCであるかを識別する(ステップS704)。このステップS704においては、ユーザA、ユーザB、ユーザCの3人の画像イメージが一つの画像データに含まれている場合でも、各ユーザをそれぞれ識別する。ユーザを識別したのち、画像編集処理部510によって、画像データが識別したユーザに関する画像イメージを含む画像データであるか否かを判断する(ステップS705)。このステップS705においては、たとえば取得した一つの画像データ内にユーザA、ユーザB、ユーザCの3人の画像イメージが含まれている場合でも、それぞれのユーザに対して判断がおこなわれる。
ステップS705において、画像編集処理部510によって、識別したユーザに関する画像イメージを含む画像データであると判断した場合(ステップS705:Yes)、つぎに、図8において、画像編集処理部510によって、識別したユーザはユーザAであるか否かを判断する(ステップS706)。すなわち、ユーザAを主体としたアルバムデータ作成処理をおこなうか否かを判断する。このステップS706において、識別したユーザはユーザAでないと判断した場合(ステップS706:No)、識別したユーザはユーザBであるか否かを判断する(ステップS707)。すなわち、ユーザBを主体としたアルバムデータ作成処理をおこなうか否かを判断する。そして、ステップS707において、識別したユーザはユーザBでないと判断した場合(ステップS707:No)、識別したユーザはユーザCであるか否かを判断する(ステップS708)。すなわち、ユーザCを主体としたアルバムデータ作成処理をおこなうか否かを判断する。このステップS708において、識別したユーザはユーザCでないと判断した場合(ステップS708:No)、画像編集処理部510は、取得した画像データをすべてのユーザ(ユーザA、ユーザB、ユーザC)のアルバムデータに分配する(ステップS709)。上記ステップS706〜S708は、並列処理でおこなわれてもよい。ここでは、説明の便宜上ステップS706〜S708を分けて説明したが、必ずしも分ける必要はなく、一つの処理で識別したユーザごとの判断をおこなってもよい。
なお、図7におけるステップS702において、画像認識部512によって、画像イメージ内に人物に関する画像イメージがないと判断した場合(ステップS702:No)お
よびステップS705において、画像編集処理部510によって、識別したユーザに関する画像イメージを含む画像データでないと判断した場合(ステップS705:No)は、図8における上記ステップS709に移行し、画像編集処理部510は、ステップS709の処理をおこなう。
一方、ステップS706において、画像編集処理部510によって、識別したユーザはユーザAであると判断した場合(ステップS706:Yes)、画像編集処理部510は、画像データのうちのユーザAに関する画像イメージを含む画像データを分類する(ステップS710)。このステップS710においては、たとえば取得した一つの画像データ内にユーザA、ユーザB、ユーザCの3人の画像イメージが含まれている場合でも、ユーザAを主体とした分類がおこなわれ、ユーザB、ユーザCがユーザAと一緒に写っている画像データであってもユーザAに関する画像イメージを含む画像データとして分類される。そして、画像編集処理部510は、分類した画像データをユーザAのアルバムデータに分配する(ステップS711)。このステップS711における分配処理は、画像データをユーザAのアルバムデータに関連付けるもので、分配された画像データは排他的に除外や削除されるわけではなく、他のステップでも利用することができる状態で分配がおこなわれる。なお、分配された画像データの除外や削除などは、後から任意におこなうこともできる。
また、ステップS707において、画像編集処理部510によって、識別したユーザはユーザBであると判断した場合(ステップS707:Yes)、画像編集処理部510は、画像データのうちのユーザBに関する画像イメージを含む画像データを分類する(ステップS713)。このステップS713においては、たとえば取得した一つの画像データ内にユーザA、ユーザB、ユーザCの3人の画像イメージが含まれている場合でも、ユーザBを主体とした分類がおこなわれ、ユーザA、ユーザCがユーザBと一緒に写っている画像データであってもユーザBに関する画像イメージを含む画像データとして分類される。そして、画像編集処理部510は、分類した画像データをユーザBのアルバムデータに分配する(ステップS714)。このステップS714における分配処理は、画像データをユーザBのアルバムデータに関連付けるもので、分配された画像データは排他的に除外や削除されるわけではなく、他のステップでも利用することができる状態で分配がおこなわれる。なお、分配された画像データの除外や削除などは、後から任意におこなうこともできる。
また、ステップS708において、画像編集処理部510によって、識別したユーザはユーザCであると判断した場合(ステップS708:Yes)、画像編集処理部510は、画像データのうちのユーザCに関する画像イメージを含む画像データを分類する(ステップS716)。このステップS716においては、たとえば取得した一つの画像データ内にユーザA、ユーザB、ユーザCの3人の画像イメージが含まれている場合でも、ユーザCを主体とした分類がおこなわれ、ユーザA、ユーザBがユーザCと一緒に写っている画像データであってもユーザCに関する画像イメージを含む画像データとして分類される。そして、画像編集処理部510は、分類した画像データをユーザCのアルバムデータに分配する(ステップS717)。このステップS717における分配処理は、画像データをユーザCのアルバムデータに関連付けるもので、分配された画像データは排他的に除外や削除されるわけではなく、他のステップでも利用することができる状態で分配がおこなわれる。なお、分配された画像データの除外や削除などは、後から任意におこなうこともできる。
そして、画像編集処理部510は、ユーザAのアルバムデータ内の画像データの特徴パラメータを検出し(ステップS712)、ユーザBのアルバムデータ内の画像データの特徴パラメータを検出し(ステップS715)、さらにユーザCのアルバムデータ内の画像
データの特徴パラメータを検出する(ステップS718)。これらのステップS712、715、718は、並列処理でおこなわれてもよい。
こうして検出された特徴パラメータは、各アルバムデータとともに音声再生部414(図6参照、以下同じ)に出力され、音声再生処理部610(図6参照、以下同じ)によって、音声DB611(図6参照、以下同じ)からの音声データや、選曲履歴DB612(図6参照、以下同じ)からの選曲履歴に関する情報などを参照して、ユーザA、ユーザB、ユーザCのアルバムデータに音声データをそれぞれ関連付けて付加する(ステップS719)。
そして、画像編集処理部510は、音声データが付加されたアルバムデータに対し、あらかじめ画像データに付されている画像データ取得地点の位置情報に基づき、通信部407などを通じて別途取得した風景などの画像イメージを含む画像データをすべてのユーザのアルバムデータに分配する(ステップS720)。さらに、画像編集処理部510は、ステップS704で識別したすべてのユーザのアルバム(アルバムデータ)を作成したか否かを判断し(ステップS721)、作成したと判断した場合(ステップS721:Yes)、本フローチャートによる一連の画像編集処理を終了する。一方、作成していないと判断した場合(ステップS721:No)、ステップS706に移行し、その後の処理を繰り返す。
なお、たとえばカメラを持たないユーザDがいたとしても、カメラA、カメラB、カメラCによりユーザDの画像イメージを含む画像データが取得された場合、上記ステップS704において、抽出した人物に関する画像イメージの中から、ユーザDに関する画像イメージ内のユーザの識別処理をおこない、同様にユーザDのアルバムデータを作成すればよい。このようにすれば、各ユーザごとのアルバムデータ内にそれぞれのユーザに関連する画像イメージを含む画像データを容易に分配することができる。
ここで、ステップS719における、アルバムデータへの音声データの関連付け処理について説明する。図9および図10は、この発明の実施例にかかる画像編集装置の画像編集処理における音声データの関連付け処理手順の一例を示すフローチャートである。なお、図9は、画像データのタイムスタンプデータに基づく関連付け処理を示し、図10は、画像データの画像イメージの色調データに基づく関連付け処理を示している。
図9において、まず、音声再生部414(図6参照、以下同じ)の音声再生処理部610(図6参照、以下同じ)は、選曲履歴DB612(図6参照、以下同じ)から、画像編集装置310(図4参照、以下同じ)で再生されていた楽曲の再生履歴に関する情報を取得する(ステップS901)。そして、音声再生処理部610は、アルバムデータ内の画像データのタイムスタンプデータを参照する(ステップS902)。タイムスタンプデータを参照したのち、音声再生処理部610は、参照したタイムスタンプデータに最も近い再生履歴に関する情報を持つ楽曲の音声データを選択する(ステップS903)。音声データを選択したのち、音声再生処理部610は、アルバムデータに選択した音声データを関連付ける(ステップS904)。このステップS904においては、たとえば選択した音声データのサビの部分(ハイライト部分)を対応付けてアルバムデータに関連付けをするようにしてもよい。
一方、図10において、音声再生処理部610(図6参照、以下同じ)は、画像編集処理部510(図5参照、以下同じ)から出力されたアルバムデータ内の画像データ全体における画像イメージの色調データを参照する(ステップS1001)。そして、音声再生処理部610は、音声DB611(図6参照、以下同じ)から、参照した画像イメージの色調データに応じた音声データを選択する(ステップS1002)。このステップS10
02における音声データの選択は、たとえば画像データ全体の画像イメージの色調が青である場合、悲しい雰囲気の曲調の音声データを選択し、緑である場合、癒される雰囲気の曲調の音声データを選択し、赤である場合、アップテンポの曲調の音声データを選択するようにおこなわれる。
こうして、音声データを選択したのち、音声再生処理部610は、アルバムデータに選択した音声データを関連付ける(ステップS1003)。このステップS1003においては、たとえば選択した音声データのサビの部分(ハイライト部分)を対応付けてアルバムデータに関連付けをするようにしてもよい。
なお、ステップS1002における音声データの選択は、たとえばユーザの顔画像イメージが表わす感情パラメータに基づいておこなわれてもよい。この場合、たとえば顔画像イメージが喜びを表わしているときは、明るい雰囲気の曲調の音声データを選択し、怒りを表わしているときは、激しい雰囲気の曲調の音声データを選択し、哀しみを表わしているときは、悲しい雰囲気の曲調の音声データを選択し、楽しみを表わしているときは、アップテンポの曲調の音声データを選択するようにおこなわれる。
さらに、ここで、ステップS720における、別途取得した風景などの画像イメージを含む画像データのすべてのユーザのアルバムデータへの分配処理について説明する。図11は、この発明の実施例にかかる画像編集装置の画像編集処理における画像データの分配処理手順の一例を示す説明図である。
図11に示すように、画像編集部412(図5参照、以下同じ)の画像編集処理部510(図5参照、以下同じ)は、位置取得部403(図4参照、以下同じ)によって取得された車両の現在位置情報および記録媒体404(図4参照、以下同じ)からの地図情報に基づいて、車両の出発地Sから終点地Eまでの通過経路上に、観光地などの写真取得ポイントがあるか否かを判断する。たとえば通過経路上に写真取得ポイントAおよび写真取得ポイントBがあった場合は、その地点情報および通過タイムスタンプデータなどに基づいて、画像入出力I/F413(図4参照、以下同じ)を通じて記録媒体404や通信部407(図4参照、以下同じ)などから別途画像データを取得し、取得した画像データをすべてのユーザのアルバムデータに分配する。これにより、写真取得ポイントAおよび写真取得ポイントBで画像データを撮影できなかった場合でも、アルバムデータにこれらの写真取得ポイントAおよび写真取得ポイントBで撮影可能な画像データを付加することができる。
つぎに、この発明の実施例にかかる画像編集装置の画像編集処理の具体例について説明する。図12は、この発明の実施例にかかる画像編集装置の画像編集処理の具体的処理例を示す説明図である。図12において、ユーザA、ユーザB、ユーザCは、それぞれのカメラA、カメラB、カメラCを用いて撮影をおこなったとする。ユーザAがカメラAで撮影した全体画像データ1210は、たとえばユーザCを撮影した画像データ1211と、建物を撮影した画像データ1212とで構成される。ユーザBがカメラBで撮影した全体画像データ1220は、たとえばユーザAを撮影した画像データ1221と、山を撮影した画像データ1222とで構成される。ユーザCがカメラCで撮影した全体画像データ1230は、たとえばユーザBを撮影した画像データ1231と、旗を撮影した画像データ1232とで構成される。
これらの全体画像データ1210、1220、1230は、画像編集装置310(図4参照、以下同じ)において、画像入出力I/F413(図4参照、以下同じ)を通じて画像編集部412(図5参照、以下同じ)に入力され、画像編集部412の画像記憶部513(図5参照、以下同じ)に取得画像データ1240として記憶される。画像認識部51
2(図4参照、以下同じ)は、画像記憶部513の取得画像データ1240に基づいて、画像データ1211、1212、1221、1222、1231、1232にどのような画像イメージが含まれているのかを認識する。この場合、画像認識部512は、画像データ1211、1221、1231にユーザA、ユーザB、ユーザCに関する画像イメージが含まれ、画像データ1212、1222、1232に風景などに関する画像イメージが含まれていると認識する。
画像認識部512での画像データの認識処理が終わると、人物認識部514(図5参照、以下同じ)によって、ユーザA、ユーザB、ユーザCに関する画像イメージを含む画像データ1211、1221、1231から、ユーザA、ユーザB、ユーザCに関する画像イメージを抽出し、抽出した画像イメージと人物DB515(図5参照、以下同じ)からの画像イメージとを参照して、ユーザA、ユーザB、ユーザCの認識処理がおこなわれる。この場合、人物認識部514は、画像データ1211に含まれている画像イメージがユーザCを表わし、画像データ1221に含まれている画像イメージがユーザAを表わし、画像データ1231に含まれている画像イメージがユーザBを表わすことを認識する。
人物認識部514でのユーザの認識処理が終わると、編集処理回路510(図5参照、以下同じ)は、認識されたユーザごとに画像記憶部513内の取得画像データ1240を分類する。この場合、たとえばユーザAがカメラAで撮影した画像データ1211は、ユーザCに分類され、ユーザBがカメラBで撮影した画像データ1221は、ユーザAに分類され、ユーザCがカメラCで撮影した画像データ1231は、ユーザBに分類される。こうして分類した画像データ1211、1221、1231は、画像編集処理部510によって、ユーザAのアルバムデータ1250、ユーザBのアルバムデータ1260、ユーザCのアルバムデータ1270にそれぞれ分配される。すなわち、画像データ1221はアルバムデータ1250に、画像データ1231はアルバムデータ1260に、画像データ1211はアルバムデータ1270にそれぞれ分配される。ただし、分配された各画像データ1211、1221、1231は、画像記憶部513内に記憶されているため、分配されることによって消去されるとは限らない。
そして、画像編集処理部510は、各ユーザのアルバムデータ1250、1260、1270に、他のユーザの画像イメージが含まれている画像データを分配する。この場合、ユーザAのアルバムデータ1250には、画像データ1211、1231が、ユーザBのアルバムデータ1260には、画像データ1211、1221が、ユーザCのアルバムデータ1270には、画像データ1221、1231がそれぞれ分配される。さらに、画像編集処理部510は、各ユーザのアルバムデータ1250、1260、1270に、風景などに関する画像イメージが含まれている画像データ1212、1222、1232をそれぞれ分配する。なお、たとえばユーザAのアルバムデータ1250を例に説明すると、各ユーザを撮影した画像データ1211、1221、1231のうち、ユーザAを撮影した画像データ1221のみをユーザAのアルバムデータ1250に分配することとし、ユーザBを撮影した画像データ1231およびユーザCを撮影した画像データ1211をユーザAのアルバムデータ1250に分配しなくてもよい。また、図示は省略するが、複数のユーザが一つの画像データに含まれている場合、この画像データに含まれているユーザのアルバムデータにその画像データをそれぞれ分配するようにしてもよい。
取得画像データ1240の各ユーザのアルバムデータ1250、1260、1270への分配が終わると、音声再生部414(図6参照、以下同じ)の音声再生処理部610(図6参照、以下同じ)で関連付けられた音声データ1281、1282、1283が、それぞれアルバムデータ1250、1260、1270に付加され、ユーザA、ユーザB、ユーザCのアルバムデータ1250、1260、1270が作成される。
このように作成されたアルバムデータ1250、1260、1270は、表示制御部511(図5参照、以下同じ)によって表示部402(図4参照、以下同じ)の表示画面上で適宜鑑賞することができ、また、記録媒体404などに記録して配布することもできる。なお、各ユーザのアルバムデータ1250、1260、1270には、上述したように、別途取得した画像データを付加することもできる。また、各ユーザの識別によらずに、カメラA、カメラB、カメラCの固有の識別情報などによって、取得画像データ1240を分類し分配するようにしてもよい。
以上説明したように、本実施例にかかる画像編集装置は、識別したユーザに関する画像イメージを含む画像データを、各ユーザごとに分類し、それぞれのアルバムデータに分配するとともに、識別したユーザ以外の他のユーザの画像イメージを含む画像データを、識別したユーザのアルバムデータに分配し、識別したユーザに関する画像イメージを含まない画像データを、すべてのユーザのアルバムデータに分配することができる。このため、ユーザごとのアルバムデータへそのユーザの画像データおよび他のユーザや風景などの画像データを自動的に分配してアルバムデータを作成することができるようになり、画像編集処理の繁雑な手間を軽減することができる。
また、本実施例にかかる画像編集装置は、各ユーザのアルバムデータに、アルバムデータ内の画像データに関連付けられた音声データを付加したり、別途取得した画像データを付加したりすることもできるため、エンターテインメント性を向上させ画像編集処理の手間を軽減することができる。
以上のように、この発明にかかる画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体によれば、取得した画像データや音声データを適宜自動的にユーザごとのアルバムデータに分配してアルバムを作成することができるという効果を奏する。
なお、本実施の形態で説明した画像編集方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、このプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であっても良い。
実施の形態にかかる画像編集装置の機能的構成の一例を示すブロック図である。 実施の形態にかかる画像編集装置の画像編集処理手順の一例を示すフローチャートである。 実施例にかかる画像編集装置が搭載された車両内部の一例を示す説明図である。 実施例にかかる画像編集装置のハードウェア構成の一例を示すブロック図である。 実施例にかかる画像編集装置における画像編集部の内部構成の一例を示すブロック図である。 実施例にかかる画像編集装置における音声再生部の内部構成の一例を示すブロック図である。 実施例にかかる画像編集装置の画像編集処理手順の一例を示すフローチャートである。 実施例にかかる画像編集装置の画像編集処理手順の一例を示すフローチャートである。 実施例にかかる画像編集装置の画像編集処理における音声データの関連付け処理手順の一例を示すフローチャートである。 実施例にかかる画像編集装置の画像編集処理における音声データの関連付け処理手順の一例を示すフローチャートである。 実施例にかかる画像編集装置の画像編集処理における画像データの分配処理手順の一例を示す説明図である。 実施例にかかる画像編集装置の画像編集処理の具体的処理例を示す説明図である。
符号の説明
101 入力部
102 抽出部
103 識別部
104 分類部
105 分配部
106 表示部
107、414 音声再生部
310 画像編集装置
412 画像編集部
510 画像編集処理部
610 音声再生処理部

Claims (12)

  1. 画像イメージを含む画像データの入力を受け付ける入力手段と、
    前記入力手段によって受け付けられた画像データの前記画像イメージ内に含まれる人物に関する画像イメージを抽出する抽出手段と、
    前記抽出手段によって抽出された人物に関する画像イメージ内の人物を識別する識別手段と、
    前記識別手段によって識別された識別結果に基づいて、前記抽出手段によって抽出された前記人物に関する画像イメージを含む前記画像データを前記人物ごとに分類する分類手段と、
    前記分類手段によって分類された分類結果に基づいて、前記人物に関する画像イメージを含む前記画像データを該当する前記人物ごとのアルバムデータに分配するとともに、前記人物に関する画像イメージを含まない前記画像データをすべての人物のアルバムデータに分配する分配手段と、
    を備えることを特徴とする画像編集装置。
  2. 前記識別手段は、前記画像データに複数の人物に関する画像イメージを含む場合、当該複数の人物を識別し、
    前記分配手段は、前記識別手段によって識別された複数の人物に関する画像イメージを含む画像データを、前記識別された複数の人物のアルバムデータにそれぞれ分配することを特徴とする請求項1に記載の画像編集装置。
  3. 前記識別手段は、前記抽出手段によって抽出された前記人物に関する画像イメージから前記人物の顔画像イメージの特徴量を検出し、当該顔画像イメージに対する顔認証をおこない前記画像イメージ内の人物を識別することを特徴とする請求項1または2に記載の画像編集装置。
  4. 前記入力手段は、複数台の撮影装置からそれぞれ前記画像データの入力を受け付け、
    前記分配手段は、前記複数台の撮像装置に対応した複数の前記アルバムデータに前記画像データを分配することを特徴とする請求項1〜3のいずれか一つに記載の画像編集装置。
  5. 前記入力手段は、データ通信によって画像イメージを含む画像データの入力を受け付けることを特徴とする請求項1〜4のいずれか一つに記載の画像編集装置。
  6. 前記分配手段は、前記アルバムデータに分配する前記画像データを、当該画像データに含まれるタイムスタンプに基づいて時系列に配置することを特徴とする請求項1〜5のいずれか一つに記載の画像編集装置。
  7. 前記分配手段によって前記アルバムデータに分配された前記画像データを表示する表示手段をさらに備えることを特徴とする請求項1〜6のいずれか一つに記載の画像編集装置。
  8. 音声データを再生する音声データ再生手段をさらに備え、
    前記音声データ再生手段は、前記表示手段に前記画像データを表示する際に、当該表示している画像データの特徴パラメータに基づいて、再生する音声データを選択することを特徴とする請求項7に記載の画像編集装置。
  9. 前記特徴パラメータは、前記画像データに含まれるタイムスタンプデータ、前記画像イメージの色調データあるいは前記人物の顔画像イメージの特徴量のうち一つあるいは組み
    合わせであることを特徴とする請求項8に記載の画像編集装置。
  10. 画像イメージを含む画像データを入力する入力工程と、
    前記入力工程によって入力された画像データの前記画像イメージ内に含まれる人物に関する画像イメージを抽出する抽出工程と、
    前記抽出工程によって抽出された人物に関する画像イメージ内の人物を識別する識別工程と、
    前記識別工程によって識別された識別結果に基づいて、前記抽出工程によって抽出された前記人物に関する画像イメージを含む前記画像データを前記人物ごとに分類する分類工程と、
    前記分類工程によって分類された分類結果に基づいて、前記人物に関する画像イメージを含む前記画像データを該当する前記人物ごとのアルバムデータに分配するとともに、前記人物に関する画像イメージを含まない前記画像データをすべての人物のアルバムデータに分配する分配工程と、
    を含むことを特徴とする画像編集方法。
  11. 請求項10に記載の画像編集方法をコンピュータに実行させることを特徴とする画像編集プログラム。
  12. 請求項11に記載の画像編集プログラムを記録したことを特徴とするコンピュータに読み取り可能な記録媒体。

JP2004382185A 2004-12-28 2004-12-28 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体 Withdrawn JP2006189977A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004382185A JP2006189977A (ja) 2004-12-28 2004-12-28 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004382185A JP2006189977A (ja) 2004-12-28 2004-12-28 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
JP2006189977A true JP2006189977A (ja) 2006-07-20

Family

ID=36797134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004382185A Withdrawn JP2006189977A (ja) 2004-12-28 2004-12-28 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体

Country Status (1)

Country Link
JP (1) JP2006189977A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008050734A1 (fr) * 2006-10-23 2008-05-02 Sony Corporation Dispositif de reproduction, procédé de reproduction et programme
JP2010224901A (ja) * 2009-03-24 2010-10-07 Nec Casio Mobile Communications Ltd 端末装置およびプログラム
CN101266649B (zh) * 2007-03-16 2012-06-13 富士胶片株式会社 图像选择装置、图像选择方法、摄像仪器和计算机可读介质
US8396351B2 (en) 2008-11-12 2013-03-12 Sony Corporation Information processing apparatus, information processing method, information processing program and imaging apparatus
KR20180008698A (ko) * 2016-01-18 2018-01-24 주식회사 히타치 정보통신 엔지니어링 이동체 계측 시스템, 및 계측 대상의 영역에 있어서의 인물의 수를 특정하는 방법

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008050734A1 (fr) * 2006-10-23 2008-05-02 Sony Corporation Dispositif de reproduction, procédé de reproduction et programme
CN101529516B (zh) * 2006-10-23 2011-04-20 索尼株式会社 再现设备、再现方法
US8049094B2 (en) 2006-10-23 2011-11-01 Sony Corporation Reproduction device, reproduction method, and program
CN101266649B (zh) * 2007-03-16 2012-06-13 富士胶片株式会社 图像选择装置、图像选择方法、摄像仪器和计算机可读介质
US9390316B2 (en) 2007-03-16 2016-07-12 Fujifilm Corporation Image selecting device, image selecting method, image pickup apparatus, and computer-readable medium
US10839199B2 (en) 2007-03-16 2020-11-17 Fujifilm Corporation Image selecting device, image selecting method, image pickup apparatus, and computer-readable medium
US8396351B2 (en) 2008-11-12 2013-03-12 Sony Corporation Information processing apparatus, information processing method, information processing program and imaging apparatus
JP2010224901A (ja) * 2009-03-24 2010-10-07 Nec Casio Mobile Communications Ltd 端末装置およびプログラム
KR20180008698A (ko) * 2016-01-18 2018-01-24 주식회사 히타치 정보통신 엔지니어링 이동체 계측 시스템, 및 계측 대상의 영역에 있어서의 인물의 수를 특정하는 방법
KR102069963B1 (ko) * 2016-01-18 2020-01-23 주식회사 히타치 정보통신 엔지니어링 이동체 계측 시스템, 및 계측 대상의 영역에 있어서의 인물의 수를 특정하는 방법

Similar Documents

Publication Publication Date Title
JP4516111B2 (ja) 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体
JP3876462B2 (ja) 地図情報提供装置及び方法
JPH10149423A (ja) 地図情報提供装置
CN1603750A (zh) 导航装置
RU2425329C2 (ru) Навигационное устройство и способ для приема и воспроизведения звуковых образцов
WO2010131333A1 (ja) コンテンツ検索装置、コンテンツ検索方法、コンテンツ検索プログラムおよび記録媒体
WO2006101012A1 (ja) 地図情報更新装置、地図情報更新方法、地図情報更新プログラムおよびコンピュータに読み取り可能な記録媒体
JP4652099B2 (ja) 画像表示装置、画像表示方法、画像表示プログラム、および記録媒体
WO2006095688A1 (ja) 情報再生装置、情報再生方法、情報再生プログラムおよびコンピュータに読み取り可能な記録媒体
JP4675375B2 (ja) 番組録画装置、番組録画方法、番組録画プログラム、およびコンピュータに読み取り可能な記録媒体
WO2006103955A1 (ja) 広告表示装置、広告表示方法および広告表示プログラム
JPH10116086A (ja) 車載カラオケ
JP2006189977A (ja) 画像編集装置、画像編集方法、画像編集プログラムおよびコンピュータに読み取り可能な記録媒体
TW200912254A (en) Information processing device and additional information providing method
JP2008252589A (ja) 音量制御装置、音量制御方法、音量制御プログラムおよび記録媒体
JP4584176B2 (ja) 情報転送システム、携帯型情報処理装置、情報転送方法、情報転送プログラムおよびコンピュータに読み取り可能な記録媒体
JP2009157065A (ja) 音声出力装置、音声出力方法、音声出力プログラムおよび記録媒体
JP4559210B2 (ja) 電子アルバム作成装置および電子アルバム作成システム
JP5610680B2 (ja) ナビゲーション装置及び表示方法
JP4380675B2 (ja) 地図情報提供装置及び方法
JP2006293382A (ja) 地図情報提供装置及び方法
WO2006082885A1 (ja) コンテンツ再生装置、コンテンツ再生方法、コンテンツ再生プログラム、およびコンピュータに読み取り可能な記録媒体
JP2016121885A (ja) ナビゲーション装置、ナビゲーション方法、およびプログラム
JP2906227B2 (ja) ナビゲーション装置
JP4023259B2 (ja) ナビゲーションシステム及び地図表示方法のプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071101

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20071227