JP2015179377A - 撮影画像編集装置、撮影画像編集方法、プログラム、および撮影画像編集システム - Google Patents
撮影画像編集装置、撮影画像編集方法、プログラム、および撮影画像編集システム Download PDFInfo
- Publication number
- JP2015179377A JP2015179377A JP2014056223A JP2014056223A JP2015179377A JP 2015179377 A JP2015179377 A JP 2015179377A JP 2014056223 A JP2014056223 A JP 2014056223A JP 2014056223 A JP2014056223 A JP 2014056223A JP 2015179377 A JP2015179377 A JP 2015179377A
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- information
- captured
- photographed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Abstract
【課題】画像処理端末で撮影された撮影画像を時系列で管理し、観賞用に編集することが可能な撮影画像編集システム等を提供する。【解決手段】画像管理サーバ4は、画像処理端末2から受信した撮影画像データ、およびデジタルビデオカメラ7−1〜7−3から受信した動画像データを管理する。画像管理サーバ4は、撮影画像データに付随する撮影時刻を、時刻補正情報に基づいて補正する。そして、画像管理サーバ4は、補正された撮影時刻に基づいて、撮影画像データを時系列につなぎ、時系列につなぐことができない時間帯に、動画像データを挿入することで、スライドショーを生成する。【選択図】図1
Description
本発明は、画像処理端末で撮影された撮影画像を観賞用に編集する撮影画像編集システム等に関するものである。
近年、スマートフォンや通信装置を備えたデジタルカメラ等の撮影機能および通信機能の両方を備えた多機能携帯端末(画像処理端末)が普及している。その多機能携帯端末の特徴を利用して、例えば、結婚披露宴など、多くの参加者が密集するイベントにおいて、会場で撮影された画像を、無線通信により印刷機に送信し、その場で印刷することができるサービスも実現化されている。
しかしながら、各多機能携帯端末から印刷機に送信される画像点数が非常に多くなってしまった場合、あるいは、画像サイズにより印刷機への画像転送速度が遅くなってしまった場合、印刷物を受け取るまでの待ち時間が長くなってしまい、参加者のサービス利用満足度が低くなってしまう恐れがある。
そこで、例えば、本出願人は、先に、特許文献1を出願し、効率良く画像を印刷する技術を提案している。
ところで、多機能携帯端末における時計機能は、ユーザによって正確な時刻に調整されていない場合がある。そのように、正確な時刻に調整されていない多機能携帯端末で撮影された撮影画像を、サーバに転送して観賞用(例えば、スライドショー)に編集する場合、時系列でのデータ管理が困難になるという課題があった。
また、不慣れなユーザにとっては、撮影画像を観賞用に編集することが困難であるという課題があった。
本発明は、前述した問題点に鑑みてなされたもので、その目的とすることは、画像処理端末で撮影された撮影画像を時系列で管理し、観賞用に編集することが可能な撮影画像編集システムなどを提供することである。
前述した目的を達成するための第1の発明は、撮影手段を備える複数の画像処理端末で撮影された複数の撮影画像から、時系列画像を生成する撮影画像編集装置であって、撮影画像と撮影した際の時刻情報及び位置情報とを紐付けて記憶する記憶手段と、時刻情報及び位置情報に基づいて、前記記憶手段から前記撮影画像を取得する画像取得手段と、取得した前記撮影画像を、前記時刻情報に基づいて時系列に並べ、時系列画像を生成する生成手段と、を備えることを特徴とする撮影画像編集装置である。
第1の発明によって、複数の画像処理端末で撮影された撮影画像を管理し、多視点での時系列画像(スライドショー)を生成することが可能となる。
第1の発明によって、複数の画像処理端末で撮影された撮影画像を管理し、多視点での時系列画像(スライドショー)を生成することが可能となる。
前記記憶手段は、更に、特定の人物の位置情報及び時刻情報を時系列に記憶し、
前記画像取得手段は、前記特定の人物の時系列の前記位置情報及び前記時刻情報に近い前記位置情報及び前記時刻情報をもつ前記撮影画像を取得することが望ましい。
これによって、主役等の特定の人物を中心とした時系列画像(スライドショー)を生成することが可能となる。
前記画像取得手段は、前記特定の人物の時系列の前記位置情報及び前記時刻情報に近い前記位置情報及び前記時刻情報をもつ前記撮影画像を取得することが望ましい。
これによって、主役等の特定の人物を中心とした時系列画像(スライドショー)を生成することが可能となる。
前記画像取得手段は、時刻情報における所定の時間間隔ごとに、当該時間間隔に前記時刻情報をもつ前記撮影画像のうち、前記位置情報が多く集まっている位置付近に前記位置情報をもつ前記撮影画像を取得することが望ましい。
これによって、撮影画像の多く集まっている時間と位置でつないだ時系列画像(スライドショー)を生成することが可能となる。
これによって、撮影画像の多く集まっている時間と位置でつないだ時系列画像(スライドショー)を生成することが可能となる。
前記画像取得手段は、取得した前記撮影画像について、ほぼ同時刻となる前記撮影画像が多い場合には、所定の抽出条件に基づいて、前記撮影画像を抽出する抽出手段を更に備えることが望ましい。
これによって、撮影画像の枚数が多い場合には、撮影画像の枚数を抑えることができる。
これによって、撮影画像の枚数が多い場合には、撮影画像の枚数を抑えることができる。
前記記憶手段は、更に、動画像と撮影した際の時刻情報及び位置情報とを紐付けて記憶し、前記生成手段は、前記時系列画像において、前記撮影画像がない時間帯がある場合には、当該時間帯に前記時刻情報をもつ前記動画像における当該時間帯の部分を、前記時系列画像に挿入することが望ましい。
これによって、撮影画像のない時間帯には、別途撮影した動画像を挿入することができる。
これによって、撮影画像のない時間帯には、別途撮影した動画像を挿入することができる。
第2の発明は、撮影手段を備える複数の画像処理端末で撮影された複数の撮影画像から、時系列画像を生成する撮影画像編集装置で実行される撮影画像編集方法であって、撮影画像と撮影した際の時刻情報及び位置情報とを紐付けて記憶する記憶手段から、時刻情報及び位置情報に基づいて、前記撮影画像を取得する画像取得ステップと、取得した前記撮影画像を、前記時刻情報に基づいて時系列に並べ、時系列画像を生成する生成ステップと、を含むことを特徴とする撮影画像編集方法である。
第2の発明によって、複数の画像処理端末で撮影された撮影画像を管理し、多視点での時系列画像(スライドショー)を生成することが可能となる。
第2の発明によって、複数の画像処理端末で撮影された撮影画像を管理し、多視点での時系列画像(スライドショー)を生成することが可能となる。
第3の発明は、コンピュータを、撮影手段を備える複数の画像処理端末で撮影された複数の撮影画像から、時系列画像を生成する撮影画像編集装置として機能させるためのプログラムであって、前記コンピュータを、撮影画像と撮影した際の時刻情報及び位置情報とを紐付けて記憶する記憶手段、時刻情報及び位置情報に基づいて、前記記憶手段から前記撮影画像を取得する画像取得手段、取得した前記撮影画像を、前記時刻情報に基づいて時系列に並べ、時系列画像を生成する生成手段、として機能させるためのプログラムである。
第3の発明のプログラムを汎用のコンピュータにインストールすることによって、第1の発明の撮影画像編集装置を得て、第2の発明の撮影画像編集方法を実行することができる。
第3の発明のプログラムを汎用のコンピュータにインストールすることによって、第1の発明の撮影画像編集装置を得て、第2の発明の撮影画像編集方法を実行することができる。
第4の発明は、複数の画像処理端末と、複数の撮影画像から時系列画像を生成する撮影画像編集装置とがネットワークを介して接続される撮影画像編集システムであって、前記画像処理端末は、撮影画像を撮影する撮影手段と、撮影した前記撮影画像を、前記撮影画像編集装置へ送信する送信手段と、を備え、前記撮影画像編集装置は、前記画像処理端末から前記撮影画像を受信する受信手段と、受信した前記撮影画像と撮影した際の時刻情報及び位置情報とを紐付けて記憶する記憶手段と、時刻情報及び位置情報に基づいて、前記記憶手段から前記撮影画像を取得する画像取得手段と、取得した前記撮影画像を、前記時刻情報に基づいて時系列に並べ、時系列画像を生成する生成手段と、を備えることを特徴とする撮影画像編集システムである。
第4の発明によって、複数の画像処理端末で撮影された撮影画像を管理し、多視点での時系列画像(スライドショー)を生成することが可能となる。
第4の発明によって、複数の画像処理端末で撮影された撮影画像を管理し、多視点での時系列画像(スライドショー)を生成することが可能となる。
本発明により、画像処理端末で撮影された撮影画像を時系列で管理するとともに、位置情報も管理し、観賞用に編集することが可能となる。
以下、図面に基づいて、本発明の実施形態を詳細に説明する。
[本発明の実施の形態]
(撮影画像編集システムの構成)
図1は、本発明の実施の形態に係る撮影画像編集システム1の構成例を示す図である。本実施の形態においては、結婚披露宴会場などのイベント会場において、イベントの参加者が画像処理端末を用いて画像を撮影し、その撮影画像データをサーバに転送し、観賞用に編集するシステムについて説明する。
なお、本実施の形態において、画像処理端末とは、例えば、スマートフォン、カメラ付き携帯電話機、タブレット端末(携帯情報端末)、デジタルカメラ等を含んだ携帯端末を指すものである。
(撮影画像編集システムの構成)
図1は、本発明の実施の形態に係る撮影画像編集システム1の構成例を示す図である。本実施の形態においては、結婚披露宴会場などのイベント会場において、イベントの参加者が画像処理端末を用いて画像を撮影し、その撮影画像データをサーバに転送し、観賞用に編集するシステムについて説明する。
なお、本実施の形態において、画像処理端末とは、例えば、スマートフォン、カメラ付き携帯電話機、タブレット端末(携帯情報端末)、デジタルカメラ等を含んだ携帯端末を指すものである。
画像処理端末2−1〜2−3のユーザは、イベント会場に入場する際、イベント主催者等より配布されるICタグ6−1〜6−3をそれぞれ所持する。
図1に示すように、撮影画像管理システム1は、画像処理端末2−1〜2−3、ID発信機3−1〜3−3、画像管理サーバ4、ICタグ6−1〜6−3、およびデジタルビデオカメラ7−1〜7−3がネットワーク5を介して接続されることで構成されている。ネットワーク5は、無線LAN(Local Area Network)等である。なお、ICタグ6−1〜6−3は、それぞれ画像処理端末2−1〜2−3に接続できる場合には、画像処理端末2−1〜2−3を介してネットワーク5に接続されていてもよい。
画像処理端末2−1〜2−3、ID発信機3−1〜3−3、ICタグ6−1〜6−3、デジタルビデオカメラ7−1〜7−3の数は任意である。
以下、画像処理端末2−1〜2−3を個々に区別する必要がない場合、単に、画像処理端末2と記載する。また、ID発信機3−1〜3−3を個々に区別する必要がない場合、単に、ID発信機3と記載する。また、ICタグ6−1〜6−3を個々に区別する必要がない場合、単に、ICタグ6と記載する。また、デジタルビデオカメラ7−1〜7−3を個々に区別する必要がない場合、単に、デジタルビデオカメラ7と記載する。
以下、画像処理端末2−1〜2−3を個々に区別する必要がない場合、単に、画像処理端末2と記載する。また、ID発信機3−1〜3−3を個々に区別する必要がない場合、単に、ID発信機3と記載する。また、ICタグ6−1〜6−3を個々に区別する必要がない場合、単に、ICタグ6と記載する。また、デジタルビデオカメラ7−1〜7−3を個々に区別する必要がない場合、単に、デジタルビデオカメラ7と記載する。
画像処理端末2は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入力部、および表示画面などを実装した携帯型コンピュータである。
画像処理端末2は、ユーザによって所定のアプリケーションが起動され、例えば、Wi-fi接続が指示されると、ネットワーク5を介して画像管理サーバ4に接続する。ユーザは、画像処理端末2の画面に表示される案内(図示せず)に従って、所持しているICタグ6のタグIDを入力し、デジタルカメラのシャッタを押下する。この操作に応じて、画像処理端末2は、タグID、およびExif(Exchangeable image file format)形式の撮影時の条件に関する情報(以下、Exif情報と記載する)を、ネットワーク5を介して画像管理サーバ4に送信する。
また、画像処理端末2は、撮影する毎に、静止画像または動画像をExif情報とともに、ネットワーク5を介して画像管理サーバ4に送信する。
ID発信機3は、図示しないCPU、ROM、送信部等を備えた小型コンピュータであり、イベント会場内の天井等に設置され、例えば、図2に示すように、半径aおよび高さbの照射エリア内で、発信機を一意に識別する発信機IDを常時発信している。この発信機IDに紐付けられた位置情報が画像管理サーバ4に記憶されている。イベント会場内の全ての位置情報を把握することができるように、ID発信機3は、会場内において、照射エリア間隔で設置されることが望ましい。
ICタグ6は、図示しないCPU、RAM、ROM、送受信部等を備えた小型コンピュータであり、ID発信機3の照射エリアに入ると、発信機IDを受信し、自身のタグIDとともに発信機IDを、ネットワーク5を介して、画像管理サーバ4へ送信する。
画像管理サーバ4は、例えば、CPU、ROM、RAM、HDD(Hard Disk Drive)等を有するコンピュータであり、画像処理端末2のカメラ情報、ICタグ6のタグID、発信機3の発信機ID、および発信機IDに紐付く位置情報等を管理している。
画像管理サーバ4は、画像処理端末2から初めて接続された際に送信されてくるExif情報及びタグIDを受信すると、Exif情報に含まれる時刻情報から時刻補正情報を算出し、Exif情報に含まれるカメラ情報と、タグIDと、時刻補正情報とを紐付けて管理する。
また、画像管理サーバ4は、ICタグ6からIDタグ及び発信機IDを受信し、IDタグ及び発信機IDを紐付けて管理する。
また、画像管理サーバ4は、画像処理端末2から撮影画像データ及び付随するExif情報を受信すると、Exif情報に含まれる時刻情報を正しい時刻情報に補正するとともに、Exif情報に含まれるカメラ情報から取得されるタグIDを介して位置情報を取得し、撮影画像データと、正しい時刻情報と、位置情報と、タグIDとを紐付けて管理する。
さらに、画像管理サーバ4は、管理している撮影画像データに基づいて、スライドショー再生のためのデータを生成する。
デジタルビデオカメラ7−1〜7−3は、イベント会場内の所定位置(例えば、セッティングされたテーブル上や来場者の妨げにならない場所)に設置されており、会場内を動画撮影している。撮影された動画像データは、画像管理サーバ4に転送され、動画像データと位置情報(撮影場所)が紐付けられ画像管理サーバ4に記憶される。
なお、デジタルビデオカメラ7−1〜7−3の時刻情報は、予め、画像管理サーバ4が管理している基準時刻情報に同期されている。
なお、デジタルビデオカメラ7−1〜7−3の時刻情報は、予め、画像管理サーバ4が管理している基準時刻情報に同期されている。
(画像処理端末の構成)
図3は、画像処理端末2のハードウェアの構成例を示す図である。尚、図3の構成は、あくまで一例であり、用途、目的に応じて様々な構成を採ることが可能である。
図3は、画像処理端末2のハードウェアの構成例を示す図である。尚、図3の構成は、あくまで一例であり、用途、目的に応じて様々な構成を採ることが可能である。
画像処理端末2は、制御部21、記憶部22、通信制御部23、入力部24、表示部25、および撮影部26などが、バス27を介して接続される。
制御部21は、CPU、ROM、RAM等で構成される。制御部21は、記憶部22に記憶されたプログラムに基づいて所定の処理を行い、通話機能、ブラウザ機能、メール機能、および撮影機能などを実現する。
記憶部22は、フラッシュメモリ(Flash Memory)等で構成され、制御部21が実行するプログラム、プログラム実行に必要なデータ、OS等を格納するとともに、通信制御部23経由で提供されたデータ等を記憶する。
通信制御部23は、通信制御装置、通信ポート等を有し、画像処理端末2とネットワーク5間の通信を媒介する通信インターフェースであり、ネットワーク5を介して、他のコンピュータ又は他の画像処理端末との音声通信やデータ通信の制御を行う。
入力部24は、ボタンやタッチパネルなどで構成され、操作指示、動作指示、データ入力等を行う。
表示部25は、液晶パネル等のディスプレイ装置であり、制御部21から供給される情報を表示する。
入力部24および表示部25は、タッチパネルディスプレイのように、一体となっていても良い。
表示部25は、液晶パネル等のディスプレイ装置であり、制御部21から供給される情報を表示する。
入力部24および表示部25は、タッチパネルディスプレイのように、一体となっていても良い。
撮影部26は、デジタルスチルカメラ等からなり、制御部21の制御の下、被写体を撮影する。
(画像管理サーバの構成)
図4は、画像管理サーバ4の構成例を示す図である。尚、図4の構成はあくまで一例であり、用途、目的に応じて様々な構成を採ることが可能である。
図4は、画像管理サーバ4の構成例を示す図である。尚、図4の構成はあくまで一例であり、用途、目的に応じて様々な構成を採ることが可能である。
画像管理サーバ4を実現するコンピュータは、制御部31、記憶部32、メディア入出力部33、通信制御部34、入力部35、表示部36、周辺機器I/F(インターフェース)部37等が、バス38を介して接続される。
制御部31は、CPU、ROM、RAM等で構成される。
CPUは、記憶部32、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス38を介して接続された各部を駆動制御し、画像管理サーバ4が行う後述する処理を実現する。
ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS(Basic Input/Output System)等のプログラム、データ等を恒久的に保持している。
RAMは、揮発性メモリであり、記憶部32、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部31が各種処理を行う為に使用するワークエリアを備える。
ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS(Basic Input/Output System)等のプログラム、データ等を恒久的に保持している。
RAMは、揮発性メモリであり、記憶部32、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部31が各種処理を行う為に使用するワークエリアを備える。
記憶部32は、HDD(ハードディスクドライブ)であり、制御部31が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等を格納する。プログラムに関しては、OSに相当する制御プログラムや、後述する処理をコンピュータに実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部31により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。
メディア入出力部33(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。
通信制御部34は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク5間の通信を媒介する通信インターフェースであり、ネットワーク5を介して、他のコンピュータ間との通信制御を行う。
通信制御部34は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク5間の通信を媒介する通信インターフェースであり、ネットワーク5を介して、他のコンピュータ間との通信制御を行う。
入力部35は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部35を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。表示部36は、CRTモニタ、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。
周辺機器I/F(インターフェース)部37は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部37を介してコンピュータは周辺機器とのデータの送受信を行う。
周辺機器I/F部37は、USB(Universal Serial Bus)やIEEE(The Institute of
Electrical and Electronics Engineers)1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。
バス38は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
周辺機器I/F部37は、USB(Universal Serial Bus)やIEEE(The Institute of
Electrical and Electronics Engineers)1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。
バス38は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
図5は、画像管理サーバ4の機能構成例を示すブロック図である。図5に示す機能部のうちの少なくとも一部は、図4の制御部31により所定のプログラムが実行されることによって実現される。
受信部41は、画像処理端末2から受信した撮影画像データ、Exif情報及びタグIDを、管理情報算出部42へ出力する。また、受信部41は、ICタグ6から受信したタグID及び発信機IDを、管理情報算出部42へ出力する。さらに、受信部41は、デジタルビデオカメラ7から受信した動画像データ、撮影時刻、及び位置情報を、管理情報算出部42へ出力する。
管理情報算出部42は、カメラ情報登録処理、位置情報取得処理、画像管理処理、動画像登録処理、及び、主役情報登録処理の各処理において異なる動作を行う。
管理情報算出部42は、カメラ情報登録処理においては、Exif情報及びタグIDを入力する。そして、管理情報算出部42は、Exif情報に含まれる時刻情報と、画像管理サーバ4で管理している基準時刻情報との差分である時刻補正情報を算出する。そして、管理情報算出部42は、Exif情報に含まれるカメラ情報と、タグIDと、時刻補正情報とを紐付けて、データベース管理部43を介して、カメラ情報管理データベース52へ記憶させる。
管理情報算出部42は、位置情報取得処理においては、タグID及び発信機IDを入力し、タグIDと発信機IDとを紐付けて、データベース管理部43を介して、ICタグ管理データベース53へ記憶させる。
管理情報算出部42は、画像管理処理においては、撮影画像データ及びExif情報を入力する。そして、管理情報算出部42は、Exif情報に含まれるカメラ情報及び時刻情報を取得する。そして、管理情報算出部42は、データベース管理部43を介して、カメラ情報管理データベース52から、取得したカメラ情報に対応するタグIDと時刻補正情報とを取得する。
そして、管理情報算出部42は、取得した時刻情報に、取得した時刻補正情報を加えて、正しい時刻情報を算出する。
そして、管理情報算出部42は、取得した時刻情報に、取得した時刻補正情報を加えて、正しい時刻情報を算出する。
次に、管理情報算出部42は、データベース管理部43を介して、ICタグ管理データベース53から、取得したタグIDに対応する発信機IDを取得し、発信機管理データベース51から、取得した発信機IDに対応する位置情報を取得する。
そして、管理情報算出部42は、撮影画像データ、正しい時刻情報、タグID、及び、位置情報を紐付けて、データベース管理部43を介して、撮影画像管理データベース54に記憶させる。
そして、管理情報算出部42は、撮影画像データ、正しい時刻情報、タグID、及び、位置情報を紐付けて、データベース管理部43を介して、撮影画像管理データベース54に記憶させる。
管理情報算出部42は、動画像登録処理においては、動画像データ、撮影時刻、及び位置情報を入力し、これらを紐付けて、データベース管理部43を介して、動画像情報管理データベース55へ記憶させる。
管理情報算出部42は、主役情報登録処理においては、タグID及び発信機IDを入力し、タグIDが予め記憶されている、イベント等における主役(例えば、花嫁などの特定の人物)が所持するICタグ6のタグIDと一致するか判定する。一致する場合には、管理情報算出部42は、データベース管理部43を介して、発信機管理データベース51から、発信機IDに対応する位置情報を取得する。そして、管理情報算出部42は、データベース管理部43を介して、取得した位置情報を、画像管理サーバ4で管理している時刻情報に紐付けて、主役情報管理データベース56へ記憶させる。なお、管理情報算出部42は、位置情報及び時刻情報を、時系列に順に、主役情報管理データベース56へ記憶させる。
データベース管理部43は、管理情報算出部42からの要求に基づき、発信機管理データベース51、カメラ情報管理データベース52、ICタグ管理データベース53、撮影画像管理データベース54、動画像管理データベース55、及び、主役情報管理データベース56の各データベースに対して入出力を行う。
操作受付部44は、ユーザによる入力部35を用いた各種操作を受け付ける。
画像処理部45は、操作受付部44で受け付けられた各種操作に応じて、撮影画像管理データベース54で管理されている撮影画像データの画像処理(例えば、画像トリミング処理、スライドショーデータ生成処理等)を行う。
発信機管理データベース51は、図5に示すように、少なくとも、発信機ID51Aおよび位置情報51Bを紐付けて記憶する。これらの情報は、予め記憶されるものである。
発信機ID51Aは、ID発信機3を一意に識別するための情報である。
位置情報51Bは、ID発信機3が設置されている場所を示す情報である。
発信機ID51Aは、ID発信機3を一意に識別するための情報である。
位置情報51Bは、ID発信機3が設置されている場所を示す情報である。
カメラ情報管理データベース52は、図5に示すように、少なくとも、カメラ情報52A、タグID52B、および時刻補正情報52Cを紐付けて記憶する。
カメラ情報52Aは、撮影画像データに付随するExif情報に含まれるデジタルカメラに関するカメラ情報(例えば、メーカ名、機種名等)である。
タグID52Bは、ICタグ6を一意に識別するための情報である。
時刻補正情報52Cは、Exif情報に含まれる時刻情報と、画像管理サーバ4で管理されている基準時刻情報との差分情報(例えば、+30秒)であり、これは、画像処理端末2で管理されている時刻と、画像管理サーバ4で管理されている時刻との差を表すものである。
カメラ情報52Aは、撮影画像データに付随するExif情報に含まれるデジタルカメラに関するカメラ情報(例えば、メーカ名、機種名等)である。
タグID52Bは、ICタグ6を一意に識別するための情報である。
時刻補正情報52Cは、Exif情報に含まれる時刻情報と、画像管理サーバ4で管理されている基準時刻情報との差分情報(例えば、+30秒)であり、これは、画像処理端末2で管理されている時刻と、画像管理サーバ4で管理されている時刻との差を表すものである。
ICタグ管理データベース53は、図5に示すように、少なくとも、タグID53Aおよび発信機ID53Bを紐付けて記憶する。
タグID53Aは、ICタグ6を一意に識別するための情報である。
発信機ID53Bは、ID発信機3を一意に識別するための情報である。
タグID53Aは、ICタグ6を一意に識別するための情報である。
発信機ID53Bは、ID発信機3を一意に識別するための情報である。
撮影画像管理データベース54は、図5に示すように、少なくとも、撮影画像データ54A、撮影時刻54B、タグID54C、および位置情報54Dを紐付けて記憶する。
撮影画像データ54Aは、画像処理端末2で撮影されたJPEG等のフォーマットの画像データである。
撮影時刻54Bは、撮影画像データ54Aの正しい撮影時刻(基準時刻情報に基づいて補正された撮影時刻)である。
タグID54Cは、撮影画像データ54Aを撮影した画像処理端末2に対応するICタグ6のタグID52Bである。
位置情報54Dは、タグID54Cと発信機ID(53B、51A)を介して紐付く位置情報51Bである。
撮影画像データ54Aは、画像処理端末2で撮影されたJPEG等のフォーマットの画像データである。
撮影時刻54Bは、撮影画像データ54Aの正しい撮影時刻(基準時刻情報に基づいて補正された撮影時刻)である。
タグID54Cは、撮影画像データ54Aを撮影した画像処理端末2に対応するICタグ6のタグID52Bである。
位置情報54Dは、タグID54Cと発信機ID(53B、51A)を介して紐付く位置情報51Bである。
動画像管理データベース55は、図5に示すように、少なくとも、動画像データ55A、撮影時刻55B、および位置情報55Cを紐付けて記憶する。
動画像データ55Aは、デジタルビデオカメラ7で撮影された動画像データである。
撮影時刻55Bは、動画像データ55Aの撮影時刻である。
位置情報55Cは、撮影場所(デジタルカメラ7の設置場所)の位置を示す情報である。
動画像データ55Aは、デジタルビデオカメラ7で撮影された動画像データである。
撮影時刻55Bは、動画像データ55Aの撮影時刻である。
位置情報55Cは、撮影場所(デジタルカメラ7の設置場所)の位置を示す情報である。
主役情報管理データベース56は、図5に示すように、すくなくとも、位置情報56A、および時刻情報56Bを、時系列に記憶する。
位置情報56Aは、主役が所持するICタグ6から送信されてきた発信機IDに紐付けられた、発信機管理データベース51の位置情報51Bである。
時刻情報56Bは、画像管理サーバ4がICタグ6からタグID及び発信機IDを受信した時点での、画像管理サーバ4で管理されている時刻情報である。
位置情報56Aは、主役が所持するICタグ6から送信されてきた発信機IDに紐付けられた、発信機管理データベース51の位置情報51Bである。
時刻情報56Bは、画像管理サーバ4がICタグ6からタグID及び発信機IDを受信した時点での、画像管理サーバ4で管理されている時刻情報である。
(カメラ情報登録処理)
図6は、画像処理端末2に内蔵されたデジタルカメラのカメラ情報を画像管理サーバに登録する処理を説明するフローチャートである。
図6は、画像処理端末2に内蔵されたデジタルカメラのカメラ情報を画像管理サーバに登録する処理を説明するフローチャートである。
はじめに、ユーザは、イベント会場に入場した際に、イベント主催者より配布されるICタグ6を所持し、画像処理端末2のカメラ情報登録の案内を受ける。その案内に従って、ユーザは、画像処理端末2へICタグ6のタグIDを入力する。なお、ICタグ6が、例えば、画像処理端末2に装着可能なものである場合には、画像処理端末2が、装着されたICタグ6からタグIDを読み取るようにしてもよい。
次に、ユーザが画像処理端末2に対してWi-fi接続を指示すると、ステップS1において、画像処理端末2の制御部21は、ネットワーク5を介して画像管理サーバ4に接続する。
ステップS2において、画像処理端末2の制御部21は、ユーザにより、内蔵するデジタルカメラのシャッタ(図示せず)が押下されたか否かを判定し、シャッタが押下されるまで待機する。ここでのシャッタ押下は、Exif情報を送信するための操作であり、被写体撮影とは異なる。
ステップS2において、画像処理端末2の制御部21は、シャッタが押下されたと判定すると、ステップS3に進み、入力された(または読み取られた)タグID、および、Exif情報を、ネットワーク5を介して画像管理サーバ4に送信する。
ステップS4において、画像管理サーバ4の制御部31は、ネットワーク5を介して画像処理端末から送信されてきたタグIDおよびExif情報を受信する。
ステップS5において、画像管理サーバ4の制御部31は、ステップS4の処理で受信したExif情報からカメラ情報(例えば、メーカ名、機種名等)および時刻情報を取得する。
ステップS5において、画像管理サーバ4の制御部31は、ステップS4の処理で受信したExif情報からカメラ情報(例えば、メーカ名、機種名等)および時刻情報を取得する。
ステップS6において、画像管理サーバ4の制御部31は、ステップS5の処理で取得した時刻情報と、サーバで管理している基準時刻情報との差分(例えば、+30秒)である時刻補正情報を算出する。
ステップS7において、画像管理サーバ4の制御部31(データベース管理部41)は、ステップS4の処理で受信したタグID、ステップS5の処理で取得したカメラ情報、および、ステップS6の処理で算出した時刻補正情報を、カメラ情報管理データベース52に登録する。
(位置情報取得処理)
図7は、ICタグ6から画像管理サーバ4が位置情報を取得する処理を説明するフローチャートである。
図7は、ICタグ6から画像管理サーバ4が位置情報を取得する処理を説明するフローチャートである。
ID発信機3は、図2に示すように、発信機を一意に識別する発信機IDを、所定の照射エリア内に向け常時発信している。
ステップS11において、ICタグ6のCPUは、ID発信機3で発信された発信機IDを、通信制御部(図示しない)を介して受信する。
ステップS12において、ICタグ6のCPUは、ステップS11の処理で受信した発信機IDを、ICタグ6のタグIDとともにネットワーク5を介して画像管理サーバ4に送信する。その後、ステップS11に戻り、上述した処理を繰り返し実行する。
ステップS11において、ICタグ6のCPUは、ID発信機3で発信された発信機IDを、通信制御部(図示しない)を介して受信する。
ステップS12において、ICタグ6のCPUは、ステップS11の処理で受信した発信機IDを、ICタグ6のタグIDとともにネットワーク5を介して画像管理サーバ4に送信する。その後、ステップS11に戻り、上述した処理を繰り返し実行する。
ステップS13において、画像管理サーバ4の制御部31は、ICタグ6から、タグIDと発信機IDを受信する。
ステップS14において、画像管理サーバ4の制御部31は、受信したICタグと発信機IDとを紐付けて、ICタグ管理データベース53に登録する。
ステップS14において、画像管理サーバ4の制御部31は、受信したICタグと発信機IDとを紐付けて、ICタグ管理データベース53に登録する。
すなわち、ICタグ6は、イベント会場内の所在場所によって異なるID発信機3から、異なる発信機IDを受信し、タグIDとともに、画像管理サーバ4に送信する。画像管理サーバ4は、受信したタグID及び発信機IDを、ICタグ管理データベース53へ登録し、必要に応じて、タグIDに対応する発信機IDに紐付られた位置情報を、発信機管理データベース51から取得することで、そのICタグ6を所持するユーザ(画像処理端末2)の所在を確認することができる。
(画像管理処理)
図8は、イベント会場内において撮影された画像を管理する処理を説明するフローチャートである。
図8は、イベント会場内において撮影された画像を管理する処理を説明するフローチャートである。
ステップS21において、画像処理端末2の制御部21は、ユーザにより撮影が行われたか否かを判定し、撮影が行われるまで待機する。ステップS21において、画像処理端末2の制御部21は、撮影が行われたと判定すると、ステップS22に進み、撮影画像データを、ネットワーク5を介して画像管理サーバ4に送信する。
ステップS23において、画像管理サーバ4の制御部31は、画像処理端末2からネットワーク5を介して送信されてきた撮影画像データを受信する。
ステップS24において、画像管理サーバ4の制御部31は、受信した撮影画像データに付随するExif情報からカメラ情報及び時刻情報を取得する。
ステップS25において、画像管理サーバ4の制御部31は、取得したカメラ情報に対応する時刻補正情報及びタグIDを、カメラ情報管理データベース52から取得する。
ステップS24において、画像管理サーバ4の制御部31は、受信した撮影画像データに付随するExif情報からカメラ情報及び時刻情報を取得する。
ステップS25において、画像管理サーバ4の制御部31は、取得したカメラ情報に対応する時刻補正情報及びタグIDを、カメラ情報管理データベース52から取得する。
ステップS26において、画像管理サーバ4の制御部31は、ステップS24で取得した時刻情報に、ステップS25で取得した時刻補正情報を加えて、正しい時刻情報を算出する。
ステップS27において、画像管理サーバ4の制御部31は、取得したタグIDに対応する発信機IDを、ICタグ管理データベース53から取得して、取得した発信機IDに対応する位置情報を、発信機管理データベースから取得する。
ステップS27において、画像管理サーバ4の制御部31は、取得したタグIDに対応する発信機IDを、ICタグ管理データベース53から取得して、取得した発信機IDに対応する位置情報を、発信機管理データベースから取得する。
ステップS28において、画像管理サーバ4の制御部31は、ステップS23で受信した撮影画像データと、ステップS25で取得したタグIDと、ステップS26で算出した正しい時刻情報と、ステップS27で取得した位置情報とを紐付けて、撮影画像管理データベース54に登録する。
(スライドショー自動再生データ生成処理)
図9は、画像管理サーバ4で管理されている撮影画像からスライドショー自動再生データを生成する処理を説明するフローチャートである。この処理を開始する事前準備として、イベントにおける主役(例えば、花嫁)が存在する場合、その主役にICタグ6を所持させ、所持させたICタグ6から送信されてくる発信機IDに紐付く位置情報を主役情報として主役情報管理データベース56で管理しているものとする。この処理で生成されるスライドショー自動再生データは、図15を用いて後述するスライドショー再生処理に用いられる。
図9は、画像管理サーバ4で管理されている撮影画像からスライドショー自動再生データを生成する処理を説明するフローチャートである。この処理を開始する事前準備として、イベントにおける主役(例えば、花嫁)が存在する場合、その主役にICタグ6を所持させ、所持させたICタグ6から送信されてくる発信機IDに紐付く位置情報を主役情報として主役情報管理データベース56で管理しているものとする。この処理で生成されるスライドショー自動再生データは、図15を用いて後述するスライドショー再生処理に用いられる。
なお、この処理を開始する前に、「動画を使用する」または「動画を使用しない」を選択する管理画面(図示せず)を表示部36に表示させ、予め、ユーザに選択させる。つまり、後述するステップS48、S57の処理において、時系列に撮影画像データをつなぐことができない時間帯があると判定された場合、同時に撮影されていた動画像データを、つなぎ画像として挿入するか否かを予め選択(設定)しておく。
ステップS41において、画像管理サーバ4の制御部31は、主役情報管理データベース56に主役情報があるか否かを判定し、主役情報があると判定した場合、ステップS42に進み、主役情報管理データベース56から位置情報及び時刻情報を読み出す。
ステップS43において、画像管理サーバ4の制御部31は、ステップS42の処理で読み出した位置情報及び時刻情報に紐付けられる撮影画像データ群を、撮影画像管理データベース54から読み出す。読み出された画像データ群は、画像処理部43によって、公知の技術を用いて、空間的な大きさや被写体位置が揃えられたデータに加工される。
ステップS44において、画像管理サーバ4の制御部31は、ステップS43の処理で読み出した撮影画像データ群を、各撮影画像データに紐付けられている時刻情報に基づいて時系列につなぐ。
ステップS44において、画像管理サーバ4の制御部31は、ステップS43の処理で読み出した撮影画像データ群を、各撮影画像データに紐付けられている時刻情報に基づいて時系列につなぐ。
ステップS45において、画像管理サーバ4の制御部31は、ステップS44の処理で時系列につないだ撮影画像データ群のうち、ほぼ同時刻に複数の画像があるか否かを判定し、ほぼ同時刻に複数の画像があると判定した場合、ステップS46に進む。
例えば、図10に示すように、ステップS44の処理によって、時系列に画像P1、画像P2、画像P3・・・とつなげられており、時刻t1において、画像P3を含むK枚の画像が存在する場合には、ステップS46に進む。
例えば、図10に示すように、ステップS44の処理によって、時系列に画像P1、画像P2、画像P3・・・とつなげられており、時刻t1において、画像P3を含むK枚の画像が存在する場合には、ステップS46に進む。
ステップS46において、画像管理サーバ4の制御部31は、抽出条件に基づいて、所定枚数の画像を抽出する。例えば、公知の顔検出技術や笑顔認識技術を用い、ピントの合っている画像や笑顔認識率の高い画像等を抽出条件とする。
ステップS47において、画像管理サーバ4の制御部31は、ステップS46の処理で抽出した撮影画像データをつなぐ。これによって、シャッタの多い瞬間で(ほぼ、同時刻に多く撮影されたタイミングで)、タイムフリーズ感を出した多視点でのスライドショー再生が可能となる。
ステップS45において、画像管理サーバ4の制御部31は、ステップS44の処理で時系列につないだ撮影画像データ群のうち、ほぼ同時刻に複数の画像がないと判定した場合、ステップS46、S47の処理をスキップし、ステップS48に進む。
ステップS48において、画像管理サーバ4の制御部31は、撮影画像データを時系列につなぐことができない時間帯があるか否かを判定し、撮影画像データを時系列につなぐことができない時間帯があると判定した場合、ステップS49に進む。
例えば、図11(A)に示すように、ステップS44、ステップS47の処理によって、時系列に画像P11、画像P12、画像P13とつなげられており、次の画像P14との間につなぐ画像がない場合、つまり、時刻t11と時刻t12の時間帯において、つなぐ画像がない場合には、ステップS49に進む。
例えば、図11(A)に示すように、ステップS44、ステップS47の処理によって、時系列に画像P11、画像P12、画像P13とつなげられており、次の画像P14との間につなぐ画像がない場合、つまり、時刻t11と時刻t12の時間帯において、つなぐ画像がない場合には、ステップS49に進む。
ステップS49において、画像管理サーバ4の制御部31は、動画を使用するか否かを判定し、動画を使用すると判定した場合、ステップS50に進む。つまり、図示せぬ管理画面において、予め、「動画を使用する」が選択されている場合には、ステップS50に進む。
ステップS50において、画像管理サーバ4の制御部31は、画像をつなぐことができない時間帯の動画像データ群を、動画像管理データベース54から読み出す。
ステップS51において、画像管理サーバ4の制御部31は、ステップS50の処理で読み出した動画像データ群のうち、音声レベルが最も大きい動画像データを選択する。
ステップS51において、画像管理サーバ4の制御部31は、ステップS50の処理で読み出した動画像データ群のうち、音声レベルが最も大きい動画像データを選択する。
ステップS52において、画像管理サーバ4の制御部31は、画像をつなぐことができない時間帯に、ステップS51の処理で選択した動画像データを挿入する。
これにより、例えば、図11(B)に示すように、時刻t11と時刻t12の時間帯に、動画像データM1が挿入される。
これにより、例えば、図11(B)に示すように、時刻t11と時刻t12の時間帯に、動画像データM1が挿入される。
画像管理サーバ4の制御部31は、ステップS48において、撮影画像データを時系列につなぐことができない時間帯はないと判定した場合、または、ステップS49において、図示せぬ管理画面で「動画を使用しない」が選択されている場合には、ステップS62に進む。
一方、ステップS41において、画像管理サーバ4の制御部31は、主役情報管理データベース56に主役情報がないと判定した場合、ステップS53に進み、ほぼ同時刻に複数撮影された撮影画像データ群を、撮影画像管理データベース54から読み出す。
例えば、図12に示すように、時刻t21、時刻t22、時刻t23において、それぞれ、画像P21、P22、P23を含む複数の画像群が撮影されており、それらの画像群が読み出される。
例えば、図12に示すように、時刻t21、時刻t22、時刻t23において、それぞれ、画像P21、P22、P23を含む複数の画像群が撮影されており、それらの画像群が読み出される。
ステップS54において、画像管理サーバ4の制御部31は、ステップS53の処理で読み出した撮影画像データ群を、各撮影画像データに付随する撮影位置情報に基づいて並び替える。
例えば、図13(A)に示すように、ステップS53の処理で読み出された撮影画像データ群が画像P31〜P40であり、それらの撮影位置情報から、画像P31、P35、P36、P38の撮影位置が近く、画像P32、P33、P34、P37、P39、P40の撮影位置が近かった場合、図13(B)に示すように並び替えられる。
例えば、図13(A)に示すように、ステップS53の処理で読み出された撮影画像データ群が画像P31〜P40であり、それらの撮影位置情報から、画像P31、P35、P36、P38の撮影位置が近く、画像P32、P33、P34、P37、P39、P40の撮影位置が近かった場合、図13(B)に示すように並び替えられる。
ステップS55において、画像管理サーバ4の制御部31は、抽出条件(例えば、ピントの合っている画像、笑顔認識率の高い画像)に基づいて、所定枚数の画像を抽出する。
ステップS56において、画像管理サーバ4の制御部31は、ステップS55の処理で抽出した撮影画像データをつなぐ。
ステップS56において、画像管理サーバ4の制御部31は、ステップS55の処理で抽出した撮影画像データをつなぐ。
ステップS57において、画像管理サーバ4の制御部31は、撮影画像データを時系列につなぐことができない時間帯があるか否かを判定し、時系列につなぐことができない時間帯(図11(A)参照)があると判定した場合、ステップS58に進む。
ステップS58において、画像管理サーバ4の制御部31は、動画を使用するか否かを判定し、動画を使用すると判定した場合、ステップS59に進む。つまり、図示せぬ管理画面において、「動画を使用する」が選択されている場合には、ステップS59に進む。
ステップS59において、画像管理サーバ4の制御部31は、画像をつなぐことができない時間帯の動画像データ群を、動画像管理データベース55から読み出す。
ステップS60において、画像管理サーバ4の制御部31は、ステップS59の処理で読み出した動画像データ群のうち、音声レベルが最も大きい動画像データを選択する。
ステップS60において、画像管理サーバ4の制御部31は、ステップS59の処理で読み出した動画像データ群のうち、音声レベルが最も大きい動画像データを選択する。
ステップS61において、画像管理サーバ4の制御部31は、画像をつなぐことができない時間帯に、ステップS60の処理で選択した動画像データを挿入する(図11(B)参照)。
画像管理サーバ4の制御部31は、ステップS57において、撮影画像データを時系列につなぐことができない時間帯はないと判定した場合、または、ステップS58において、図示せぬ管理画面で「動画を使用しない」が選択されている場合には、ステップS62に進む。
ステップS62において、画像管理サーバ4の制御部31は、時系列につなげられた撮影画像データおよび動画像データを、スライドショー自動再生データとして記憶部32に記憶させ、処理を終了する。
なお、スライドショー自動再生データを生成する処理は、前述のものに限られず、その趣旨を逸脱しない範囲で変更可能である。
例えば、ステップS53では、画像管理サーバ4の制御部31は、時刻情報における所定の時間間隔ごと(又は、ほぼ同時刻)に、その時間間隔に時刻情報をもつ複数の撮影画像データを、撮影画像管理データベース54から読み出してもよい。
そして、ステップS54では、画像管理サーバ4の制御部31は、ステップS53で読み出した撮影画像データのうち、位置情報が多く集まっている位置付近に位置情報をもつ撮影画像データを選択してもよい。
こうすることにより、撮影画像データが多く集まっている時間と位置に係る撮影画像データをつないでスライドショー自動再生データを生成することができる。
例えば、ステップS53では、画像管理サーバ4の制御部31は、時刻情報における所定の時間間隔ごと(又は、ほぼ同時刻)に、その時間間隔に時刻情報をもつ複数の撮影画像データを、撮影画像管理データベース54から読み出してもよい。
そして、ステップS54では、画像管理サーバ4の制御部31は、ステップS53で読み出した撮影画像データのうち、位置情報が多く集まっている位置付近に位置情報をもつ撮影画像データを選択してもよい。
こうすることにより、撮影画像データが多く集まっている時間と位置に係る撮影画像データをつないでスライドショー自動再生データを生成することができる。
また例えば、ステップS51、及び、ステップS60では、画像管理サーバ4の制御部31は、画像をつなぐことができない時間帯の両端の撮影画像データの位置情報と近い位置情報を持つ動画像を選択してもよい。
こうすることにより、鑑賞時に違和感のないスライドショー自動再生データを生成することができる。
なおこれは、後述する図14のステップS77でも同様である。
こうすることにより、鑑賞時に違和感のないスライドショー自動再生データを生成することができる。
なおこれは、後述する図14のステップS77でも同様である。
(スライドショー手動再生データ生成処理)
図14は、画像管理サーバ4で管理されている撮影画像からスライドショー手動再生データを生成する処理を説明するフローチャートである。この処理で生成されるスライドショー手動再生データは、図15を用いて後述するスライドショー再生処理に用いられる。
図14は、画像管理サーバ4で管理されている撮影画像からスライドショー手動再生データを生成する処理を説明するフローチャートである。この処理で生成されるスライドショー手動再生データは、図15を用いて後述するスライドショー再生処理に用いられる。
ステップS71において、画像管理サーバ4の制御部31は、撮影画像データ群を撮影画像管理データベース54から読み出す。
ステップS72において、画像管理サーバ4の制御部31は、ステップS71の処理で読み出した撮影画像データ群を、所定時間毎、各撮影画像データに付随する撮影位置情報に基づいて並び替える。
ステップS72において、画像管理サーバ4の制御部31は、ステップS71の処理で読み出した撮影画像データ群を、所定時間毎、各撮影画像データに付随する撮影位置情報に基づいて並び替える。
ステップS73において、画像管理サーバ4の制御部31は、ステップS72の処理で所定時間毎に並べ替えられた撮影画像データを時系列につなぐ。
ステップS74において、画像管理サーバ4の制御部31は、撮影画像データを時系列につなぐことができない時間帯があるか否かを判定し、時系列につなぐことができない時間帯(図11(A)参照)があると判定した場合、ステップS75に進む。
ステップS74において、画像管理サーバ4の制御部31は、撮影画像データを時系列につなぐことができない時間帯があるか否かを判定し、時系列につなぐことができない時間帯(図11(A)参照)があると判定した場合、ステップS75に進む。
ステップS75において、画像管理サーバ4の制御部31は、撮影画像データを時系列につなぐことができない時間帯が発生すると、ポップアップ画面(図示せず)を表示部36に表示させ、「動画を使用する」または「動画を使用しない」をユーザに選択させ、「動画を使用する」が選択されたと判定した場合、ステップS76に進む。
ステップS76において、画像管理サーバ4の制御部31は、画像をつなぐことができない時間帯の動画像データ群を、動画像管理データベース55から読み出す。
ステップS77において、画像管理サーバ4の制御部31は、ステップS76の処理で読み出した動画像データ群のうち、音声レベルが最も大きい動画像データを選択する。
ステップS77において、画像管理サーバ4の制御部31は、ステップS76の処理で読み出した動画像データ群のうち、音声レベルが最も大きい動画像データを選択する。
ステップS78において、画像管理サーバ4の制御部31は、画像をつなぐことができない時間帯に、ステップS77の処理で選択した動画像データを挿入する(図11(B)参照)。
画像管理サーバ4の制御部31は、ステップS74において、撮影画像データを時系列につなぐことができない時間帯はないと判定した場合、または、ステップS75において、図示せぬポップアップ画面で「動画を使用しない」が選択された場合には、ステップS79に進む。
ステップS79において、画像管理サーバ4の制御部31は、時系列につなげられた撮影画像データおよび動画像データを、スライドショー手動再生データとして記憶部32に記憶させ、処理を終了する。
ステップS79において、画像管理サーバ4の制御部31は、時系列につなげられた撮影画像データおよび動画像データを、スライドショー手動再生データとして記憶部32に記憶させ、処理を終了する。
(スライドショー再生処理)
図15は、画像管理サーバ4で生成されたスライドショー自動再生データおよびスライドショー手動再生データのスライドショー再生処理を説明するフローチャートである。
図15は、画像管理サーバ4で生成されたスライドショー自動再生データおよびスライドショー手動再生データのスライドショー再生処理を説明するフローチャートである。
ステップS91において、画像管理サーバ4の操作受付部42は、ユーザからの入力部35を用いたスライドショー再生指示を受け付け、スライドショー再生画面を表示部36に表示させる。
これにより、例えば、図16に示すような、スライドショー再生画面101が表示部36に表示される。
スライドショー再生画面101には、会場全体の画像を表示させる会場全体表示エリア102、読み出したスライドショーを再生させるスライド再生エリア103、スライドショーの全体の再生時間を視覚的な長さで示すシークバー104、自動再生操作部105、および手動再生操作部106が表示されている。
スライドショー再生画面101には、会場全体の画像を表示させる会場全体表示エリア102、読み出したスライドショーを再生させるスライド再生エリア103、スライドショーの全体の再生時間を視覚的な長さで示すシークバー104、自動再生操作部105、および手動再生操作部106が表示されている。
会場全体表示エリア102には、予め会場全体を上部から撮影した画像が表示されるとともに、スライド再生エリア103に表示されている画像の撮影位置が、撮影位置Qで示されている。
シークバー104には、現在の再生位置を示すスライダ104Aが表示されている。
自動再生操作部105には、自動再生する場合に選択される自動再生ボタン105A、スライドショー自動再生データを図示しない記録メディアに書き出す(記録する)書出しボタン105B、および写真プリントボタン105C等が表示されている。
手動再生操作部106には、手動再生する場合に選択される手動再生ボタン106A、編集する場合に選択される記録ボタン106B、編集データを再生する場合に選択される再生ボタン106C、編集データを記録メディアに書き出す(記録する)書出しボタン106D、および写真プリントボタン106E等が表示されている。
シークバー104には、現在の再生位置を示すスライダ104Aが表示されている。
自動再生操作部105には、自動再生する場合に選択される自動再生ボタン105A、スライドショー自動再生データを図示しない記録メディアに書き出す(記録する)書出しボタン105B、および写真プリントボタン105C等が表示されている。
手動再生操作部106には、手動再生する場合に選択される手動再生ボタン106A、編集する場合に選択される記録ボタン106B、編集データを再生する場合に選択される再生ボタン106C、編集データを記録メディアに書き出す(記録する)書出しボタン106D、および写真プリントボタン106E等が表示されている。
図15の説明に戻る。
ステップS92において、画像管理サーバ4の制御部31は、ユーザによって、自動再生ボタン105Aが選択された場合には、ステップS93に進み、手動再生ボタン106Aが選択された場合には、ステップS95に進む。
ステップS92において、画像管理サーバ4の制御部31は、ユーザによって、自動再生ボタン105Aが選択された場合には、ステップS93に進み、手動再生ボタン106Aが選択された場合には、ステップS95に進む。
ステップS93において、画像管理サーバ4の制御部31は、図9のフローチャートを用いて生成され、記憶部32に記憶されているスライドショー自動再生データを読み出す。
ステップS94において、画像管理サーバ4の制御部31は、ステップS93の処理で読み出したスライドショー自動再生データを、スライドショー再生画面101のスライド再生エリア103に再生させる。
ステップS94において、画像管理サーバ4の制御部31は、ステップS93の処理で読み出したスライドショー自動再生データを、スライドショー再生画面101のスライド再生エリア103に再生させる。
一方、ステップS95において、画像管理サーバ4の制御部31は、図14のフローチャートを用いて生成され、記憶部32に記憶されているスライドショー手動再生データを読み出す。
ステップS96において、画像管理サーバ4の制御部31は、ステップS95の処理で読み出したスライドショー手動再生データを、スライドショー再生画面101のスライド再生エリア103に再生させる。
ステップS96において、画像管理サーバ4の制御部31は、ステップS95の処理で読み出したスライドショー手動再生データを、スライドショー再生画面101のスライド再生エリア103に再生させる。
ステップS97において、画像管理サーバ4の制御部31は、記録ボタン106Bが選択されたか否かを判定し、記録ボタン106Bが選択されるまで、スライドショーの再生を継続させる。
ステップS97において、画像管理サーバ4の制御部31は、記録ボタン106Bが選択されたと判定した場合、ステップS98に進み、再生中のスライドショーを記憶部32に記録開始する。
ステップS97において、画像管理サーバ4の制御部31は、記録ボタン106Bが選択されたと判定した場合、ステップS98に進み、再生中のスライドショーを記憶部32に記録開始する。
ステップS99において、画像管理サーバ4の制御部31は、記録終了か否かを判定し、記録終了と判定されるまで、再生中のスライドショーの記録を行う。
例えば、ユーザは、再生中のスライドショーにおいて、編集したいシーンで記録ボタン106Bを選択することで、そのシーンを記憶部32に記録することができる。また、ユーザは、再生ボタン106Cを選択することで、記録したシーンを再生し、編集内容を確認することができる。このようにして、ユーザは、手動でスライドショーの編集を行うことができる。
また、編集作業としては、例えば、スライドショーの再生中、スライダバー104Aを左右に動かし、再生時刻を前後させたり、あるいは、会場全体表示エリア102内の所定位置を選択することで、その位置(撮影位置Q)に紐付いた撮影画像のスライドショーを再生させることもできる。
例えば、ユーザは、再生中のスライドショーにおいて、編集したいシーンで記録ボタン106Bを選択することで、そのシーンを記憶部32に記録することができる。また、ユーザは、再生ボタン106Cを選択することで、記録したシーンを再生し、編集内容を確認することができる。このようにして、ユーザは、手動でスライドショーの編集を行うことができる。
また、編集作業としては、例えば、スライドショーの再生中、スライダバー104Aを左右に動かし、再生時刻を前後させたり、あるいは、会場全体表示エリア102内の所定位置を選択することで、その位置(撮影位置Q)に紐付いた撮影画像のスライドショーを再生させることもできる。
ステップS99において、画像管理サーバ4の制御部31は、記録終了と判定した場合、ステップS100に進み、書出しボタン105Bまたは書出しボタン106Dが選択されたか否かを判定する。
ステップS100において、画像管理サーバ4の制御部31は書出しボタン105Bまたは書出しボタン106Dが選択されたと判定した場合、ステップS101に進み、スライドショーデータを記録メディア(図示せず)に記録させる。
例えば、書出しボタン105Bが選択された場合には、スライドショー自動再生データが記録メディアに記録され、書出しボタン106Dが選択された場合には、編集データが記録メディアに記録される。
例えば、書出しボタン105Bが選択された場合には、スライドショー自動再生データが記録メディアに記録され、書出しボタン106Dが選択された場合には、編集データが記録メディアに記録される。
ステップS100において、画像管理サーバ4の制御部31は、写真プリントボタン105Cまたは写真プリントボタン106Eが選択されたか否かを判定し、写真プリントボタン105Cまたは写真プリントボタン106Eが選択されたと判定した場合、ステップS103に進み、スライドショー再生画面101上におすすめプリント画面(図示せず)を表示させる。
例えば、おすすめプリント画面には、所定の判定基準(例えば、ピントが合う画像、笑顔認識率が高い画像、動画像データ中の音声レベルが高い時刻の画像等)に基づいて、所定枚数の画像が、おすすめプリントとして提示される。
例えば、おすすめプリント画面には、所定の判定基準(例えば、ピントが合う画像、笑顔認識率が高い画像、動画像データ中の音声レベルが高い時刻の画像等)に基づいて、所定枚数の画像が、おすすめプリントとして提示される。
ステップ104において、画像管理サーバ4の制御部31は、ユーザにより、おすすめプリント画面に提示された画像の中から、印刷する画像が選択され、印刷指示されたか否かを判定し、印刷指示されるまで待機する。
ステップS104において、画像管理サーバ4の制御部31は、印刷指示されたと判定した場合、ステップS105に進み、図示しないプリンタに選択画像データを転送し、印刷を指示する。
ステップS104において、画像管理サーバ4の制御部31は、印刷指示されたと判定した場合、ステップS105に進み、図示しないプリンタに選択画像データを転送し、印刷を指示する。
ステップS101またはステップS105の処理の後、ステップS106に進み、画像管理サーバ4の制御部31は、スライドショーの再生が終了されたか否かを判定し、スライドショーの再生が終了されていないと判定した場合、ステップS92に戻り、上述した処理を繰り返し実行する。
そして、ステップS106において、画像管理サーバ4の制御部31は、スライドショーの再生が終了されたと判定した場合、処理を終了する。
そして、ステップS106において、画像管理サーバ4の制御部31は、スライドショーの再生が終了されたと判定した場合、処理を終了する。
[本発明の実施の形態における効果]
1.以上のように、イベント会場において、各画像処理端末2で撮影された撮影画像を画像管理サーバ4で時系列につなげて管理することで、スライドショーを自動再生することができるだけでなく、簡単な操作で、編集作業を行うことも可能となる。
2.時系列に撮影画像データをつなげた際、撮影画像データをつなげることができない時間帯には、別で撮影した動画像データを挿入することで、エンターテイメント性のあるスライドショーを提供することができる。
1.以上のように、イベント会場において、各画像処理端末2で撮影された撮影画像を画像管理サーバ4で時系列につなげて管理することで、スライドショーを自動再生することができるだけでなく、簡単な操作で、編集作業を行うことも可能となる。
2.時系列に撮影画像データをつなげた際、撮影画像データをつなげることができない時間帯には、別で撮影した動画像データを挿入することで、エンターテイメント性のあるスライドショーを提供することができる。
以上、添付図面を参照しながら、本発明に係る画像編集システム等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
1………撮影画像編集システム
2−1〜2−3………画像処理端末
3−1〜3−3………ID発信機
4………画像管理サーバ
5………ネットワーク
6−1〜6−3………ICタグ
7−1〜7−3………デジタルビデオカメラ
21………制御部
26………撮影部
31………制御部
41………画像処理部
51………発信機管理データベース
52………カメラ情報データベース
53………撮影画像管理データベース
54………主役情報データベース
55………動画像管理データベース
2−1〜2−3………画像処理端末
3−1〜3−3………ID発信機
4………画像管理サーバ
5………ネットワーク
6−1〜6−3………ICタグ
7−1〜7−3………デジタルビデオカメラ
21………制御部
26………撮影部
31………制御部
41………画像処理部
51………発信機管理データベース
52………カメラ情報データベース
53………撮影画像管理データベース
54………主役情報データベース
55………動画像管理データベース
Claims (8)
- 撮影手段を備える複数の画像処理端末で撮影された複数の撮影画像から、時系列画像を生成する撮影画像編集装置であって、
撮影画像と撮影した際の時刻情報及び位置情報とを紐付けて記憶する記憶手段と、
時刻情報及び位置情報に基づいて、前記記憶手段から前記撮影画像を取得する画像取得手段と、
取得した前記撮影画像を、前記時刻情報に基づいて時系列に並べ、時系列画像を生成する生成手段と、
を備えることを特徴とする撮影画像編集装置。 - 前記記憶手段は、更に、特定の人物の位置情報及び時刻情報を時系列に記憶し、
前記画像取得手段は、前記特定の人物の時系列の前記位置情報及び前記時刻情報に近い前記位置情報及び前記時刻情報をもつ前記撮影画像を取得する
ことを特徴とする請求項1に記載の撮影画像編集装置。 - 前記画像取得手段は、時刻情報における所定の時間間隔ごとに、当該時間間隔に前記時刻情報をもつ前記撮影画像のうち、前記位置情報が多く集まっている位置付近に前記位置情報をもつ前記撮影画像を取得する
ことを特徴とする請求項1に記載の撮影画像編集装置。 - 前記画像取得手段は、取得した前記撮影画像について、ほぼ同時刻となる前記撮影画像が多い場合には、所定の抽出条件に基づいて、前記撮影画像を抽出する抽出手段を更に備える
ことを特徴とする請求項1乃至請求項3のいずれかに記載の撮影画像編集装置。 - 前記記憶手段は、更に、動画像と撮影した際の時刻情報及び位置情報とを紐付けて記憶し、
前記生成手段は、前記時系列画像において、前記撮影画像がない時間帯がある場合には、当該時間帯に前記時刻情報をもつ前記動画像における当該時間帯の部分を、前記時系列画像に挿入する
ことを特徴とする請求項1乃至請求項4のいずれかに記載の撮影画像編集装置。 - 撮影手段を備える複数の画像処理端末で撮影された複数の撮影画像から、時系列画像を生成する撮影画像編集装置で実行される撮影画像編集方法であって、
撮影画像と撮影した際の時刻情報及び位置情報とを紐付けて記憶する記憶手段から、時刻情報及び位置情報に基づいて、前記撮影画像を取得する画像取得ステップと、
取得した前記撮影画像を、前記時刻情報に基づいて時系列に並べ、時系列画像を生成する生成ステップと、
を含むことを特徴とする撮影画像編集方法。 - コンピュータを、撮影手段を備える複数の画像処理端末で撮影された複数の撮影画像から、時系列画像を生成する撮影画像編集装置として機能させるためのプログラムであって、
前記コンピュータを、
撮影画像と撮影した際の時刻情報及び位置情報とを紐付けて記憶する記憶手段、
時刻情報及び位置情報に基づいて、前記記憶手段から前記撮影画像を取得する画像取得手段、
取得した前記撮影画像を、前記時刻情報に基づいて時系列に並べ、時系列画像を生成する生成手段、
として機能させるためのプログラム。 - 複数の画像処理端末と、複数の撮影画像から時系列画像を生成する撮影画像編集装置とがネットワークを介して接続される撮影画像編集システムであって、
前記画像処理端末は、
撮影画像を撮影する撮影手段と、
撮影した前記撮影画像を、前記撮影画像編集装置へ送信する送信手段と、
を備え、
前記撮影画像編集装置は、
前記画像処理端末から前記撮影画像を受信する受信手段と、
受信した前記撮影画像と撮影した際の時刻情報及び位置情報とを紐付けて記憶する記憶手段と、
時刻情報及び位置情報に基づいて、前記記憶手段から前記撮影画像を取得する画像取得手段と、
取得した前記撮影画像を、前記時刻情報に基づいて時系列に並べ、時系列画像を生成する生成手段と、
を備える
ことを特徴とする撮影画像編集システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014056223A JP2015179377A (ja) | 2014-03-19 | 2014-03-19 | 撮影画像編集装置、撮影画像編集方法、プログラム、および撮影画像編集システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014056223A JP2015179377A (ja) | 2014-03-19 | 2014-03-19 | 撮影画像編集装置、撮影画像編集方法、プログラム、および撮影画像編集システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015179377A true JP2015179377A (ja) | 2015-10-08 |
Family
ID=54263384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014056223A Pending JP2015179377A (ja) | 2014-03-19 | 2014-03-19 | 撮影画像編集装置、撮影画像編集方法、プログラム、および撮影画像編集システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015179377A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018020769A1 (ja) * | 2016-07-28 | 2018-02-01 | パナソニックIpマネジメント株式会社 | 映像システム装置 |
US11328383B2 (en) | 2017-10-05 | 2022-05-10 | Mitsubishi Electric Corporation | Image provision apparatus, image provision method, and computer readable medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003199032A (ja) * | 2001-09-28 | 2003-07-11 | Fuji Photo Film Co Ltd | 画像識別装置、注文処理装置及び画像識別方法 |
JP2006140559A (ja) * | 2004-11-10 | 2006-06-01 | Matsushita Electric Ind Co Ltd | 画像再生装置及び画像再生方法 |
JP2010028492A (ja) * | 2008-07-21 | 2010-02-04 | Denso Corp | 撮影情報閲覧システム |
JP2012090188A (ja) * | 2010-10-21 | 2012-05-10 | Sanyo Electric Co Ltd | 画像再生装置、画像再生方法及びプログラム |
JP2015035135A (ja) * | 2013-08-09 | 2015-02-19 | 株式会社バッファロー | 情報処理装置、画像表示システム、情報処理装置における画像表示方法及びプログラム |
-
2014
- 2014-03-19 JP JP2014056223A patent/JP2015179377A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003199032A (ja) * | 2001-09-28 | 2003-07-11 | Fuji Photo Film Co Ltd | 画像識別装置、注文処理装置及び画像識別方法 |
JP2006140559A (ja) * | 2004-11-10 | 2006-06-01 | Matsushita Electric Ind Co Ltd | 画像再生装置及び画像再生方法 |
JP2010028492A (ja) * | 2008-07-21 | 2010-02-04 | Denso Corp | 撮影情報閲覧システム |
JP2012090188A (ja) * | 2010-10-21 | 2012-05-10 | Sanyo Electric Co Ltd | 画像再生装置、画像再生方法及びプログラム |
JP2015035135A (ja) * | 2013-08-09 | 2015-02-19 | 株式会社バッファロー | 情報処理装置、画像表示システム、情報処理装置における画像表示方法及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018020769A1 (ja) * | 2016-07-28 | 2018-02-01 | パナソニックIpマネジメント株式会社 | 映像システム装置 |
US11328383B2 (en) | 2017-10-05 | 2022-05-10 | Mitsubishi Electric Corporation | Image provision apparatus, image provision method, and computer readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3824609B2 (ja) | 情報付加撮像方法、及び該方法に用いられる撮像装置 | |
US10652421B2 (en) | Apparatus and method for capturing image with audio data | |
JP6514139B2 (ja) | 動画像提供システム | |
JP2012004739A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2006166408A (ja) | 撮像装置及びその制御方法 | |
JP5278840B1 (ja) | 写真撮影遊戯システム、サーバ、画像提供方法及び画像提供プログラム。 | |
JP2018504701A (ja) | 画像処理方法及び装置 | |
JP2015179377A (ja) | 撮影画像編集装置、撮影画像編集方法、プログラム、および撮影画像編集システム | |
JP2007228517A (ja) | 写真シール提供システム、携帯型電話機、画像受信方法、およびプログラム | |
JP2023153790A (ja) | プログラム | |
JP2010118787A (ja) | カメラ | |
JP2006166409A (ja) | データ処理装置及びその制御方法 | |
JP6265621B2 (ja) | 表示制御装置およびプログラム | |
JP6610030B2 (ja) | 映像処理装置および映像処理方法 | |
JP6295634B2 (ja) | 情報処理システム及びプログラム | |
JP2020077922A (ja) | 画像編集装置、画像編集方法、及びプログラム | |
JP2008228014A (ja) | 映像会議システム、会議映像処理方法、プログラム及び記録媒体 | |
JP2020071519A (ja) | 案内装置及びガイドシステム | |
JP6291936B2 (ja) | 画像管理サーバ、画像管理方法、プログラム、及び、撮影画像管理システム | |
JP6849851B2 (ja) | 撮影システム、撮影装置及びユーザ撮影方法 | |
JP2004040736A (ja) | 画像情報送受信システム | |
JP6146162B2 (ja) | 画像処理装置、撮像装置、画像処理方法、撮像方法、及び画像処理プログラム | |
CN115699723B (zh) | 影像编辑装置、影像编辑方法以及记录介质 | |
JP2004040140A (ja) | 情報作成方法、情報作成装置、プログラム及び情報配信システム | |
JP2002101368A (ja) | 映像プリント遊戯装置及びこの遊戯装置から画像データを転送したサーバを用いた遊戯方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180116 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180710 |