JP2004207936A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2004207936A
JP2004207936A JP2002373552A JP2002373552A JP2004207936A JP 2004207936 A JP2004207936 A JP 2004207936A JP 2002373552 A JP2002373552 A JP 2002373552A JP 2002373552 A JP2002373552 A JP 2002373552A JP 2004207936 A JP2004207936 A JP 2004207936A
Authority
JP
Japan
Prior art keywords
image
processing apparatus
image processing
file
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002373552A
Other languages
Japanese (ja)
Inventor
Fumihiro Funazaki
文博 舟崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002373552A priority Critical patent/JP2004207936A/en
Publication of JP2004207936A publication Critical patent/JP2004207936A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of creating a composite processing image data print by designating a desired moving picture part from moving picture data and utilizing a network. <P>SOLUTION: In this image processing apparatus, a client personal computer 2 cuts the required frames out of a MOTION JPEG moving picture, converts the frames into an MPEG file, compresses the file into an image file, prepares instruction information of an image composition method and print order information, and uploads the obtained image file, the instruction information and the print order information to a moving picture print server 30 connected to the client personal computer 2 via a network. The moving picture print server 30 applies image composition processing to the image file, the instruction information and the print order information to print out the resulting image. The moving picture print server 30 executes the image composition processing with a high added value to obtain a print subjected to image composition processing with a high added value for a user. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ネットワークを介して動画データを処理したりプリントしたりする画像処理装置に関する。
【0002】
【従来の技術】
近年、ビデオカメラではもちろん、デジタルカメラでも動画を撮影、記録できるようになっている。撮影、記録された動画の中から、自分が気に入った部分やじっくり見てみたい部分を切り出して多重露光化、分解写真化などの画像合成処理を行い、これらの画像合成を行って得られた静止画像をプリントしたい場合がある。
【0003】
これらの画像合成処理を行った静止画像は視覚効果に富むプリントを得ることができるので、高画質の合成プリントを得たいという要請が強い。高画質プリントを得るためには、家庭用プリンタよりも下記特許文献1のような写真プリントサービスを利用するのが有利であるが、動画と合成方法を指定し、写真店やプリントサービス店に記録媒体を持参してプリント注文する方法を採っていた。
【0004】
下記特許文献2では、CCDの撮像素子を利用したデジタルカメラで動画像を撮影する際に、銀塩カメラなどで可能な多重露光と同じ効果を得る画像処理方法を提案しているが、カメラやパソコンなどのローカルな環境で実現する方法を開示している。
【0005】
下記非特許文献1は、本出願人が提供する、ネットワークを利用してプリント注文できるシステム(「FDiネットサービス」と称される)を開示している。このシステムでプリント注文する場合、ユーザは自分のパソコンでプリントしてもらいたい画像を指定し、出来上がったプリントを受け取る写真店を選択して、「FDiネットサービス」のサーバにネットワーク経由で送信する。出来上がったプリントは、ユーザが写真店に受け取りに行く。しかし、このシステムは、ネット注文時にプリントサイズ、枚数は指定できるものの通常の動画原画像をベースにユーザが希望する形態の多重露光、分解写真のような合成処理された静止画像プリントを得ることはできなかった。
【0006】
【特許文献1】
特開2001−319216
【0007】
【特許文献2】
特開2001−28726
【0008】
【非特許文献1】
「FDiネットサービス」のホームページ<URL:http: //www.fdinet.fujifilm.co.jp/>
【0009】
【発明が解決しようとする課題】
本発明は、上記の事情を考慮し、動画データから希望する動画部分を指定してネットワークを利用して合成処理画像データ又は合成処理画像データプリントを作成することができる画像処理装置を提供することを目的とする。
【0010】
本発明は、クライアントサイドの端末からネットワークを介して動画像をアップロードして合成処理画像データ又は合成処理画像データプリントを作成することができる画像処理装置を提供することを目的とする。
【0011】
本発明は、ネット上に置かれたサーバ内の動画像を、クライアントサイドの端末に表示させて合成方法を指定し、合成方法指定データをサーバに送信して所望の合成処理画像データ又は合成処理画像データプリントを作成することできる画像処理装置を提供することを目的とする。
【0012】
【課題を解決するための手段】
請求項1の本発明は、動画データを処理すると共にネットワークを介してサーバに接続された画像処理装置であって、
動画データを読み込む読み込み手段と、
前記読み込み手段によって読み込んだ動画データの動画ファイルから画像合成したい部分及び画像合成方法の情報を指定する指定手段と、
前記指定された画像合成したい部分を前記動画ファイルから切り出し、アップロード用ファイルに変換する変換手段と、
アップロード用ファイルに変換されたファイル及び画像合成方法の指示情報をサーバにアップロードするアップロード手段と、からなる画像処理装置、からなる。
【0013】
請求項1の本発明は、クライアント側の画像処理装置であって、前記読み込み手段によって読み込んだ動画データの動画ファイルから画像合成したい部分及び画像合成方法の情報を前記指定手段によって指定し、前記変換手段によって前記指定された画像合成したい部分を前記動画ファイルから切り出してアップロード用ファイルに変換し、前記アップロード手段によってアップロード用ファイルに変換されたファイル及び画像合成方法の指示情報をサーバにアップロードする。
【0014】
請求項2の本発明は、クライアントサイドの画像処理装置とネットワークを介して接続されたサーバ機能を有する画像処理装置であって、
クライアントサイドの画像処理装置から送信されたアップロード用ファイル及び当該ファイルに対する画像合成方法の指示情報を受ける受け手段と、
前記受けたアップロード用ファイル及び画像合成方法の指示情報から、静止画合成画像を生成する生成手段と、
前記生成された静止画合成画像をクライアントサイドの画像処理装置に送信する送信手段と、からなる画像処理装置、からなる。
【0015】
請求項2の本発明は、サーバ側の画像処理装置であって、前記受け手段でクライアントサイドの画像処理装置から送信されたアップロード用ファイル及び当該ファイルに対する画像合成方法の指示情報を受け、前記生成手段で前記受けたアップロード用ファイル及び画像合成方法の指示情報から静止画合成画像を生成し、前記送信手段で前記生成された静止画合成画像をクライアントサイドの画像処理装置に送信する。その後、クライアントサイドの画像処理装置では、送信された静止画合成画像を表示させて見ることにより静止画合成画像の良否、出来栄えを判断する。
【0016】
なお、請求項1の画像処理装置において、前記変換手段は、アップロード用ファイルに変換する方法として、フレーム差分を基にした画像記録形式のファイルに変換する方法を用いることができる。
【0017】
また、請求項1〜3のいずれか1項に記載の画像処理装置において、前記画像合成方法は、注目被写体を貼り合せ合成する方法からなることができる。
【0018】
また、請求項1〜4のいずれか1項に記載の画像処理装置において、前記画像合成方法は、合成時に注目被写体の位置情報を確保して当該位置情報を基に注目被写体を位置特定する方法を含むことができる。
【0019】
請求項6の本発明は、クライアントサイドの画像処理装置とネットワークを介して接続されたサーバ機能を有する画像処理装置であって、
動画データを格納する格納手段と、
前記格納手段に格納されている動画データの動画ファイルからクライアントサイドの画像処理装置によって指定された指定フレームを切り出す切り出し手段と、
クライアントサイドの画像処理装置によって指定された指定フレームの情報及び当該指定フレームの画像を合成する画像合成方法の指示情報を受ける受け手段と、
前記切り出し手段によって切り出された指定フレームと前記画像合成方法の指示情報とから静止画を合成する合成手段と、
動画データ、静止画データ、合成した静止画のプリント注文データの各データを送受信する送受信手段と、からなる画像処理装置、からなる。
【0020】
請求項6の本発明によれば、前記受け手段がクライアントサイドの画像処理装置によって指定された指定フレームの情報を受け、前記格納手段に格納されている動画データの動画ファイルから前記指定フレームを前記切り出し手段によって切り出し、前記受け手段が前記指定フレームの画像を合成する画像合成方法の指示情報を受け、前記合成手段が前記切り出し手段によって切り出された指定フレームと前記画像合成方法の指示情報とから静止画を合成する。
【0021】
請求項7の本発明は、動画データを処理すると共にネットワークを介してサーバに接続された画像処理装置であって、
サーバからの動画データを受信する受信手段と、
前記受信手段によって受信した動画データを再生する再生手段と、
前記動画データの動画ファイルから切り出すフレームを指定する指定フレーム情報及び当該指定フレームの画像を合成する画像合成方法を指示する指示情報を生成する生成手段と、
前記指定フレーム情報及び指示情報並びに合成された画像のプリント注文データを前記サーバに送信する送信手段と、からなる画像処理装置、からなる。
【0022】
請求項7の本発明によれば、受信手段でサーバからの動画データを受信し、再生手段で当該動画データを再生し、生成手段で前記動画データの動画ファイルから切り出すフレームを指定する指定フレーム情報及び当該指定フレームの画像を合成する画像合成方法を指示する指示情報を生成し、送信手段で前記指定フレーム情報及び指示情報並びにサーバで合成される画像のプリント注文データを前記サーバに送信する。
【0023】
なお、請求項6の画像処理装置において、前記合成手段によって合成された静止画及びプリント注文データを受けるデータ受け部と、前記データ受け部で受けた静止画をプリントするプリント部とを有するプリント手段を有することができる。
【0024】
また、請求項6の画像処理装置において、前記合成手段は、フレーム差分を基にした画像記録形式の合成方法を用いることができる。
【0025】
また、請求項6又は7に記載の画像処理装置において、前記画像合成方法は、注目被写体を貼り合せ合成する方法からなることができる。
【0026】
また、請求項6又は7に記載の画像処理装置において、前記画像合成方法は、合成時に注目被写体の位置情報を確保して当該位置情報を基に注目被写体を位置特定する方法を含むことができる。
【0027】
【発明の実施の形態】
以下、添付図面に従って本発明の実施の形態を詳説する。
【0028】
図1は、第1の実施形態に係る動画プリント注文システム1の概略全体構成を示した図である。
【0029】
ユーザは、デジタルカメラで撮影した動画画像を所望の状態で合成したものをプリントしたいと思っている。そこで、合成したい動画画像を動画・プリントサーバ30にアップロードし、アップロードされた画像を動画・プリントサーバ30で合成し、プリントしてユーザが写真店に受け取りに行く。
【0030】
詳細に述べると、クライアントパソコン2(すなわち、ユーザパソコン)と動画・プリントサーバ30とがインターネット網を通じて接続されている。クライアントパソコン2にはデジタルカメラ4がUSBケーブル6を介して接続している。動画・プリントサーバ30でプリントされたものが搬送ルートを介して写真店に送られる。
【0031】
デジタルカメラ4の撮影済み動画データがUSBケーブル6を介してクライアントパソコン2に送信され、クライアントパソコン2で読み込んだ動画データの動画ファイルから画像合成したい部分及び画像合成方法の情報をキーボード又はマウスによって指定し、クライアントパソコン2によって、指定された画像合成したい部分を動画ファイルから切り出してアップロード用ファイルに変換し、アップロード用ファイル及び画像合成方法の指示情報を動画・プリントサーバ30にアップロードする。
【0032】
動画・プリントサーバ30では、クライアントパソコン2から送信されたアップロード用ファイル及び画像合成方法の指示情報を受け、静止画合成画像を生成し、生成された静止画合成画像をクライアントパソコン2にインターネット網を介して送信する。その後、クライアントパソコン2では、送信された静止画合成画像を表示させて見ることにより静止画合成画像の状態を判断し、OKであれば、正式注文情報を動画・プリントサーバ30に送信し、動画・プリントサーバ30では静止画合成画像をプリントする。
【0033】
図2(a)〜(c)は、動画画像の所定範囲を切り出して、切り出したフレームを、それぞれ、分解写真、多重露光、上乗せ合成の形態で合成した場合の静止画合成画像を示した図である。分解写真とは、例えば、ゴルフのスイングを撮影した動画を経時的な瞬間瞬間の静止画に分けて順に一覧表示させるものである。多重露光とは、同一の被写体を様々な条件で撮影したものを一つのフレームに表示させるものである。上乗せ合成とは、別々に撮影したフレームを重ね合わせて1つのフレームに表示させるものである。ユーザは最終的にこのような静止画合成画像のプリントを得たいと思っている。
【0034】
図3は、クライアントパソコン2のハード構成を示したブロック図である。図3に示すように、クライアントパソコン2は、主として各構成要素の動作を制御する中央処理装置(CPU)10と、装置の制御プログラムが格納されたり、プログラム実行時の作業領域となる主メモリ12と、クライアントパソコン2のオペレーティングシステム(OS)、クライアントパソコン2に接続された周辺機器のデバイスドライバを含む各種のアプリケーションソフト、ユーザの画像等が格納されるハードディスク装置14と、CD−ROMドライブ16と、表示用データを一時記憶する表示メモリ18と、この表示メモリ18からの画像データ、文字データ等により画像や文字等を表示するCRTモニタや液晶モニタ等のモニタ装置20と、キーボード22と、位置入力装置としてのマウス24と、マウス24の状態を検出してモニタ装置20上のマウスポインタの位置やマウス24の状態等の信号をCPU10に出力するマウスコントローラ26と、デジタルカメラ4と接続して画像データ等の入力が可能なUSB(Universal Serial Bus)ケーブル6と接続するインターフェース27と、インターネット網と接続する通信インターフェース8と、上記各構成要素を接続するバス28とから構成されている。
【0035】
なお、上記構成のパソコン2は、各構成要素が周知のものであるため、各構成要素の詳細な説明については省略する。
【0036】
図4は、動画・プリントサーバ30のハード構成を示したブロック図である。図4に示すように、動画・プリントサーバ30は、ハードディスク装置32、CPU34、作業メモリ36、動画処理部38、プリント部40、インターネット網と接続するための通信インターフェース42、静止画保管メモリ44、静止画合成部46、合成静止画送出部48がバス50を介して接続された構成になっている。
【0037】
ハードディスク装置32には、本発明に係る分解写真、多重露光、上乗せ合成などの画像合成プログラムを含む各種のアプリケーションソフトが格納されている。作業メモリ36はデータを一時的に格納して各種作業をするためのメモリである。動画処理部38では、送信されてきたMPEGなどの動画データを伸張したり各種画像処理をしたりする。プリント部40では、合成された静止画をプリントする。静止画保管メモリ44は、動画処理部38で処理されてフレームごとの静止画に分解された静止画のデータを保管する。静止画合成部46は、ハードディスク装置32に格納された画像合成プログラムによって分解写真、多重露光、上乗せ合成などの画像合成を行なう。合成静止画送出部48は、合成されてできた静止画を通信インターフェース42を介してクライアントパソコン2などに送出するための送出用データを生成する。
【0038】
第1の実施形態の作用を説明する。ユーザが実際にクライアントパソコン2を操作するところから説明する。
【0039】
図5は、ユーザがハードディスク装置14に格納されている動画データの動画ファイルから画像合成したい部分及び画像合成方法の情報を指定する流れを示したフローチャートである。
【0040】
まず、対象となる動画ファイルを読み込む(ステップ100)。この時点では、動画ファイルはMOTION JPEG方式からなっている。読み込んだ動画ファイルをモニタ20に表示させる(ステップ101)。モニタ20は、フレーム指定画面92を表示する。フレーム指定画面92は、フイルムロール式表示になっており、左右の矢印ボタンにより注目したい動画コマをスライドさせ(ステップ102)、該当する動画コマが上方の画面に大きく表示される。下方にはその大きく表示されているフレームを含めて前後2コマずつが縮小表示されている。
【0041】
画像合成したい区間のフレームを指定するには、開始フレームをINボタンで指定し(ステップ104)、再び動画コマを矢印ボタンでスライドさせて(ステップ106)、終了フレームをOUTボタンで指定する(ステップ108)。
【0042】
その後、合成方法を指定する(ステップ110)。フレーム指定画面92の右斜め上方には、合成方法のボタンがあり、これをクリックすると分解写真、多重露光、被写体上乗せの3種類の合成方法が表示される。ユーザは、この3種類の合成方法の中から希望する合成方法をクリックして選択する。
【0043】
そして、注文情報を指定する(ステップ112) 。フレーム指定画面92の右方中央には、注文のボタンがあり、これをクリックするとプリント注文データプリント注文データ入力画面94が表示される。プリント注文データ入力画面94では、プリント枚数、注文者の住所、氏名、電話番号、プリントを受け取る店名を入力するようになっている。これに代えて、プリント注文データ入力画面94では、クレジットカードナンバー、プリント枚数、注文者の住所、氏名、電話番号を入力するようにしてもよい。この場合は、注文者は出来上がったプリントを郵送で受け取る。
【0044】
入力後、表示内容を確かめてOKであればOKボタンをクリックし、注文しない場合はCANSELボタンをクリックする。
【0045】
上記ステップ108を経て画像合成したいフレーム区間が確定したら、動画ファイルから上記指定した区間のフレームを切り出し、MOTION JPEGファイルとして一旦保存する(ステップ114)。
【0046】
その後、MOTION JPEGファイルをMPEGファイルに変換し、保存する(ステップ116)。動画・プリントサーバ30に切り出した画像データをアップロードするときは、MPEG形式の方が画像データ量が小さく、通信トラフィックが小さくて済むからである。
【0047】
なお、上記入力された合成方法情報、注文情報は、MPEGファイルとリンクして保存される。
【0048】
図6は、画像ファイル、画像合成方法、及び注文情報を動画・プリントサーバ30にアップロードするときの流れを示したフローチャートである。
【0049】
まず、アップロードするMPEG形式の画像ファイルを指定する(ステップ118)。そして、指定されたMPEGファイル、画像合成方法情報、注文情報を動画・プリントサーバ30にアップロードする(ステップ120)。
【0050】
なお、連写画像を画像合成したい場合は、図7、図8に示す方法で画像合成する。図7は、クライアントパソコン2において連写画像を一覧表示させた図、図8は、連写画像を指定してから動画・プリントサーバ30にアップロードするまでの流れを示したフローチャートである。
【0051】
連写画像は動画ではないので、記録方法もクライアントパソコン2においてJPEG方式で行われている。
【0052】
図7のように、合成したい連写画像をブラウザで指定する(ステップ122)。そして、ブラウザの合成プリントボタンで指定連写画像を確定させる(ステップ124)。この時点で、指定された連写画像はJPEG形式で保存される。その後、別に入力・保存されている合成方法情報、注文情報と共にJPEG連写画像データを動画・プリントサーバ30にアップロードする(ステップ126)。
【0053】
次に、クライアントパソコン2から動画・プリントサーバ30に画像データ、合成方法情報、注文情報がアップロードされたときからの動画・プリントサーバ30の作動を説明する。
【0054】
図9は、画像データ等がアップロードされたときから出来上がったプリントをユーザ又は写真店に送るまでの流れを示したフローチャートである。
【0055】
動画・プリントサーバ30は、インターネット網を介してアップロードされたMPEG形式の画像データ、合成方法情報、注文情報を受信する(ステップ136)。受信後、MPEGファイル形式の画像データの指定されたフレームを動画処理部38で伸張処理し、静止画として静止画保管メモリ44に保存する。受信した合成方法情報から、ハードディスク装置32に格納されている分解写真、多重露光、上乗せ合成のうちの対応する画像合成プログラムが起動し、静止画保管メモリ44に保存されている静止画を、静止画合成部46で合成処理する(ステップ138)。合成された静止画は、合成静止画送出部48において送出用のデータに変換され、通信インターフェース42からインターネット網を介してクライアントパソコン2に送信される。ユーザは、送信されてきた合成静止画がOKであれば、その旨を動画・プリントサーバ30に送信する。
【0056】
動画・プリントサーバ30では、クライアントパソコン2からの「OK」情報を受信したら、先に受信した注文情報に含まれていたプリント枚数分、合成静止画をプリント部40でプリント出力する(ステップ140)。
【0057】
受信していた注文情報に、受取店の情報が含まれていたかどうか判断され(ステップ142)、受取店が指定されていたときにはプリント出力されたプリントが受取店へ配送され(ステップ144)、受取店が指定されていないときは郵送処理をして(ステップ146)、クレジットカードナンバーが入力されているのでクレジット課金を行う(ステップ148)。
【0058】
ステップ144又は148の後、注文者にプリントを発送した旨が電子メールでクライアントパソコン2に通知される(ステップ150)。
【0059】
第2の実施形態を説明する。
【0060】
図10は、第2の実施形態に係る動画プリント注文システム52の全体構成を示した図である。
【0061】
ユーザは、画像サーバ54に格納されている動画画像を自分のパソコンにダウンロードし、所望の状態で合成したものをプリントしたいと思っている。そこで、画像合成方法の指示情報を画像サーバ54に送信し、その画像合成方法で画像を画像サーバ54で合成し、合成された静止画がラボサーバ56に送信されてラボサーバ56においてプリントされてそのプリントが写真店に搬送されてユーザが写真店に出来上がった合成静止画のプリントを受け取りに行く。
【0062】
より詳しく述べると、クライアントパソコン2(すなわち、ユーザパソコン)と画像サーバ54とラボサーバ56とがインターネット網を通じて接続されている。
【0063】
画像サーバ54に格納されている動画データをユーザがクライアントパソコン2にダウンロードし、再生して動画データの動画ファイルから切り出すフレームを指定する指定フレーム情報及びその指定フレームの画像を合成する画像合成方法を指示する合成指示情報を生成してその指定フレーム情報、合成指示情報、及びプリント注文データを画像サーバ54に送信する。画像サーバ54では、受信した指定フレーム情報によって動画ファイルから指定フレームを切り出し、合成指示情報に基づいて切り出した指定フレームを合成し、合成した静止画及びクライアントパソコン2から受信した注文情報をラボサーバ56に送信する。
【0064】
ラボサーバ56では、画像サーバ54から送信された合成静止画を注文情報に従ってプリントする。
【0065】
画像合成の方法としては、第1の実施形態と同様に、分解写真、多重露光、上乗せ合成の形態が考えられる。
【0066】
クライアントパソコン2の構成、作用は第1の実施形態と同様である。
【0067】
図10に示す画像サーバ54、ラボサーバ56の構成を説明する。
【0068】
画像サーバ54は、動画データが保存されている動画保存メモリ58、ハードディスク装置60、指定フレーム情報に基づいて動画ファイルの指定フレームを切り出す動画切り出し部62、切り出した静止画を保管する静止画保管メモリ68、静止画保管メモリ68に保管されている静止画を合成指示情報に基づいて合成する静止画合成部64、合成した静止画をラボサーバ56に送出するための送出用データを生成する合成静止画送出部72、作業メモリ71、クライアントパソコン2から要求のあった動画データをクライアントパソコン2にダウンロードさせる際に動画データをMPEG1の形式などに圧縮する動画圧縮部70、インターネット網と通信を行うための通信インターフェース74、画像サーバ54内の各部署を制御するCPU66からなり、これらの各部署がバス73を介して接続されている。
【0069】
ハードディスク装置60には、本発明に係る分解写真、多重露光、上乗せ合成などの画像合成プログラムを含む各種のアプリケーションソフトが格納されている。作業メモリ71は、データを一時的に格納して各種作業をするためのメモリである。静止画合成部64は、指定された静止画を合成指示情報に基づいて画像合成プログラムによって分解写真、多重露光、上乗せ合成などの画像合成を行なう。
【0070】
ラボサーバ56は、ハードディスク装置82、画像サーバ54から送信されてきた合成静止画を保管する合成静止画保管メモリ80、合成静止画をプリントするためのシステムである写真プリンタサブシステム84、インターネット網と通信を行うための通信インターフェース76、ラボサーバ56内の各部署を制御するCPU78からなり、これらの各部署がバス83を介して接続されている。
【0071】
第2の実施形態の作用を説明する。
【0072】
ユーザが実際にクライアントパソコン2を操作するところから説明する。
【0073】
図11は、ユーザが画像サーバ54に格納されている動画データをクライアントパソコン2にダウンロードして動画ファイルの画像合成したいフレーム、画像合成方法、及び注文情報を指定して送信するまでの流れを示したフローチャートである。
【0074】
まず、ほしい動画データを画像サーバ54からダウンロードし、再生する(ステップ152)。この時点では、動画ファイルはMPEG形式からなっている。再生された動画データの動画ファイルはモニタ20に表示され、ユーザはモニタ20の表示を見ながら合成したい対象の動画フレーム、合成方法、及び注文情報を指定する(ステップ154)。動画フレームの指定の仕方、画像合成方法の指定の仕方、注文情報の指定の仕方は第1の実施形態と同様なので説明を省略する。画像合成方法は、第1の実施形態と同様に、分解写真、多重露光、被写体上乗せの3種類の合成方法が選択できる。
【0075】
なお、注文方法において、プリント注文データ入力画面94で、クレジットカードナンバー、プリント枚数、注文者の住所、氏名、電話番号を入力して、注文者が出来上がったプリントを郵送で受け取る方法も可能である点は第1の実施形態と同じである。
【0076】
動画フレームの指定情報、画像合成方法の指定情報、注文情報を入力した後は、表示内容を確かめてOKであればOKボタンをクリックし、注文しない場合はCANSELボタンをクリックする。
【0077】
入力してOKボタンを押した動画フレームの指定情報、画像合成方法の指定情報、注文情報を画像サーバ54に送信する(ステップ156)。
【0078】
なお、画像合成の対象として連写画像を選択することもできる。この場合、クライアントパソコン2が画像サーバ54に格納されている連写画像をダウンロードして上記と同じようにフレームの指定情報、画像合成方法の指定情報、注文情報を画像サーバ54に送信する。
【0079】
次に、画像サーバ54の作動を説明する。
【0080】
図12は、動画データをクライアントパソコン2にダウンロードする際の画像サーバ54の作動の流れ及びクライアントパソコン2から画像サーバ54に動画フレームの指定情報、画像合成方法の指定情報、注文情報が送信されてからの画像サーバ54の作動の流れを示したフローチャートである。
【0081】
まず、クライアントパソコン2からのユーザのリクエストが動画ダウンロードなのか画像合成指示なのかを判別する(ステップ158)。
【0082】
動画ダウンロードの場合は、ユーザから指定された動画ファイルをMPEG形式に圧縮する(ステップ160)。圧縮された指定動画ファイルはクライアントパソコン2に送信される(ステップ162)。
【0083】
画像合成指示の場合は、クライアントパソコン2から送信されたフレームの指定情報、画像合成方法の指定情報、プリント注文情報を受信する(ステップ164)。フレームの指定情報に基づいて動画切り出し部62において動画ファイルの指定フレームが切り出される(ステップ165)。
【0084】
切り出されたフレームに対して画像合成方法の指定情報が判別され(ステップ166)、分解写真合成(ステップ168)、多重露光合成(ステップ170)、被写体上乗せ合成(ステップ172)のいずれかが行われる。これらの画像合成は、静止画合成部64によって行われ、指定された静止画フレームを合成指示情報に基づいて画像合成プログラムによって分解写真、多重露光、上乗せ合成などの画像合成を行なう。
【0085】
合成された画像データには受信済みのプリント注文情報がリンクされ、合成された画像データ及びそのプリント注文情報がラボサーバ56に送信される(ステップ174)。
【0086】
ラボサーバ56は、画像サーバ54から送信されてきた合成画像データ及びプリント注文情報を受信する。合成画像データの内容である合成静止画は、一旦、合成静止画保管メモリ80に保存される。プリント注文情報にしたがって合成静止画を写真プリンタサブシステム84でプリント出力する。
【0087】
ラボサーバ56においてプリント出力されたプリントが、ユーザが指定した受取写真店に搬送される。ユーザは、受取写真店に出来上がった合成静止画のプリントを受け取りに行く。なお、第1の実施形態と同様に、受取店を指定しないで郵送によりプリント出力したものをユーザに届けることもできる。この場合は、郵送の際にクレジット課金を行う。
【0088】
プリント出力の受取写真店への又は郵送での発送準備が終わったら、注文者にプリントを発送した旨が電子メールでクライアントパソコン2に通知される。
【0089】
上述の画像合成方法のうち、上記第1及び第2の実施形態に共通する被写体上乗せの画像合成方法を詳述する。フレーム指定の方法など、一部上述の被写体上乗せの際の流れと異なる点も存在するが、例として下記の方法を述べる。
【0090】
図13は、被写体上乗せの画像合成方法の流れを示したフローチャートである。
【0091】
被写体上乗せの画像合成処理プログラムを起動すると、クライアントパソコン2のモニタ装置20には、背景画となる静止画ファイルや、画像合成する動画ファイルを選択するための画面が表示され(図示せず)、この画面上で所望の静止画ファイルと動画ファイルとを選択する(ステップ176、178)。
【0092】
続いて、ステップ178で選択した動画ファイルから処理対象となるn枚の静止画を選択し、この選択したn枚の静止画を、動画ファイルから切り出して連続する静止画として再保存する(ステップ180、182)。なお、n枚の静止画は、任意の数値nを入力し、動画ファイルからn枚の静止画を等間隔で自動的に選択するようにしてもよいし、動画の各コマ画像を見ながら手動で1枚ずつ選択するようにしてもよい。あるいは、動画中のある期間を指定し、その期間内のすべてのコマ画像を選択するようにしてもよい。
【0093】
次に、n枚の静止画のうちの処理する静止画の番号iを1(i=1)にする(ステップ184)。なお、n枚の静止画は、時系列順に1〜nの番号が付されているものとする。
【0094】
処理対象のi番目の静止画から主要被写体を抽出する(ステップ186)。主要被写体の抽出は、ステップ176で選択した背景画に基づいて行う。即ち、i番目の静止画と背景画の同位置の画素間の色空間距離(それぞれの画素のR、G、Bデータの差分値の合計)を算出し、算出結果が規定値以上の画素を主要被写体候補画素として抽出する。
【0095】
このようにして抽出した主要被写体候補画素群に対し、連結化等の画像処理を施し、ノイズ画素除去を行って主要被写体のみの画像を得る。この主要被写体のみの画像を、元の静止画と同じ画素サイズにして主メモリ12に保存する。即ち、元の静止画の主要被写体以外の領域は、画素値をもたない画素(例えば、R、G、B=(-1,-1,-1)) で埋めて元の静止画と同じ画素サイズにする。
【0096】
次に、ステップ186で抽出した主要被写体のみ画素値をもつ画像を、主メモリ12の1フレーム分の合成画像用のメモリ領域に上乗せマッピングして主要被写体の上乗せ合成を行う(ステップ188)。即ち、連続するi番目の画像iとi+1番目の画像(i+1)のそれぞれ同じ座標 (x,y) の画素が重なるようにマッピングした後、両画像の画素の画素値が重なる部分に関しては、画像(i+1)の画素値が採用されるように上乗せ後の画素値を決める。なお、1番目の静止画から抽出した主要被写体のみの画像の場合には、そのままメモリ上にマッピングする。
【0097】
上記上乗せ合成のアルゴリズムを以下に示す。
【0098】
画像iと画像(i+1)の各画素をスキャンし、上乗せ後の合成画像compの各画素値(Rcomp,Gcomp,Bcomp) を決める。便宜上、ここでは主要被写体の画素以外の画素値を(R,G,B) =(-1 、-1、-1) と定義する。
【0099】
画像iの画素と画像(i+1)の同位置の画素がともに主要被写体の画素値を持つ場合には、画像(i+1)の画素値を採用する。即ち、
(Ri,Gi,Bi)≠(-1 、-1、-1) かつ(Ri+1,Gi+1,Bi+1)≠(-1 、-1、-1) の画素
→(Rcomp,Gcomp,Bcomp) =(Ri+1,Gi+1,Bi+1)
画像iの画素が主要被写体の画素値を持たず、画像(i+1)の同位置の画素が主要被写体の画素値を持つ場合には、画像(i+1)の画素値を採用する。即ち、
(Ri,Gi,Bi)=(-1 、-1、-1) かつ(Ri+1,Gi+1,Bi+1)≠(-1 、-1、-1)
の画素
→(Rcomp,Gcomp,Bcomp) =(Ri+1,Gi+1,Bi+1)
画像iの画素が主要被写体の画素値を持ち、画像(i+1)の同位置の画素が主要被写体の画素値を持たない場合には、画像iの画素値を採用する。即ち、
(Ri,Gi,Bi)≠(-1 、-1、-1) かつ(Ri+1,Gi+1,Bi+1)=(-1 、-1、-1) の画素
→(Rcomp,Gcomp,Bcomp) =(Ri,Gi,Bi)
画像iの画素と画像(i+1)の同位置の画素がともに主要被写体の画素値を持たない場合には、上乗せ後も画素値を持たない値(-1 、-1、-1) にする。即ち、
(Ri,Gi,Bi)=(-1 、-1、-1) かつ(Ri+1,Gi+1,Bi+1)=(-1 、-1、-1) の画素
→(Rcomp,Gcomp,Bcomp) =(-1 、-1、-1)
上記のようにしてi番目の画像の主要被写体の上乗せ合成が終了すると、n枚分の上乗せ合成が終了したか否かを判別し(ステップ190)、終了していない場合(i<n)には、iを1だけインクリメントし(ステップ192)、ステップ186に戻る。これにより、時系列順の次の静止画に対して上記と同様な主要被写体の抽出処理、及び主要被写体の上乗せ合成が行われる。
【0100】
n枚分の上乗せ合成が終了した場合(i=n)には、上乗せ画像を背景画に上乗せ合成する(ステップ194)。即ち、上乗せ画像中の画素値がない部分を、すべて背景画の画素で埋める。
【0101】
このようにして作成された合成画像は、ハードディスク装置14に保存され、又はモニタ装置20に表示され、動画・プリントサーバ30又は画像サーバ54にアップロードされてプリント出力される。
【0102】
図14は上記のようにして作成された合成画像の作成イメージ図である。
【0103】
次に、主要被写体の画像の上乗せ合成の他の実施形態について説明する。
【0104】
まず、n枚の静止画からそれぞれ主要被写体を抽出するまでの処理は、上記と同様にして行う。このようにして抽出した主要被写体の画像を内側に含む最小矩形を算出し、この最小矩形内の画像(矩形画像)をメモリ上に保存する。
【0105】
図15(A)及び(B)に示す画像は、それぞれi番目の矩形画像iとi+1番目の矩形画像(i+1)である。
【0106】
次に、矩形画像iの座標(xi,i )と、矩形画像(i+1)の座標(xi+1,i+1)が重なるように画素をマッピングする。
【0107】
例えば、各矩形画像の下側で揃え、矩形画像iの右側半分に矩形画像(i+1)が重なるように上乗せ合成する際には、矩形画像iの横幅をMax-xiとすると、矩形画像(i+1)の各画素の座標(xi+1,i+1)のx座標にMax-xi/2を加算して、右側にずれた座標(xi+1 +Max-xi/2, i+1)に変換する。その後、同じ座標の画素が重なるようにマッピングした後、両画像の画素の画素値が重なる部分に関しては、画像(i+1)の画素値が採用されるように上乗せ後の画素値を決める。
【0108】
このようにして図15(A)に示す矩形画像iに対して同図(B)に示す矩形画像(i+1)を右側にずらして上乗せ合成することにより、同図(C)に示す合成画像が得られる。
【0109】
このような上乗せ合成をn枚の矩形画像(1〜n)に対して順次行うことにより、図16に示すような合成画像を作成することができる。
【0110】
なお、この実施の形態では、動画とは別に、主要被写体の入っていない静止画(背景画)を撮影するようにしたが、これに限らず、主要被写体の入っていない動画を撮影し、その動画の1コマを背景画として採用してもよい。また、動画から複数枚の静止画を取得するようにしたが、これに限らず、連続する複数枚の画像は、所定のインターバルで連続的に撮影する連写モードで撮影された複数枚の静止画でもよい。
【0111】
また、画像から主要被写体を抽出する方法としては、例えば、ブルーバックなどの特定色のスクリーンを背景にして主要被写体を撮影し、この撮影した画像から特定色に基づいて主要被写体を抽出するクロマキー処理によって抽出する方法を採用してもよいし、画像中の主要被写体の画素の1つをポイントし、そのポイントされた画素の連続性等から主要被写体の輪郭を求め、その輪郭に基づいて主要被写体を抽出する方法を採用してもよい。これらの主要被写体の抽出方法の場合には、主要被写体を抽出するために主要被写体が入っていない背景画を別途撮影する必要がない。
【0112】
次に、主要被写体の画像の上乗せ合成のさらに他の実施形態について説明する。
【0113】
図17は、動画ファイルの動画データから注目被写体を拡大した静止画を合成するまでの概略工程を示した図である。
【0114】
連続した複数の静止画からなる動画ファイルを読み込み、動画ファイル中の動画フレームを分解して指定フレームを取り出す。指定フレームの取り出し方は、上記と同様にして行う。その後、3つの工程を経る。
【0115】
第1工程は、被写体の特徴色を抽出処理する被写体特徴色抽出工程86である。この被写体特徴色抽出工程86は、被写体の中の部分を数箇所ポイントすることによって被写体を指定し、各ポイントでの特徴色リストを作成する。
【0116】
第2工程は、画像エリア抽出処理をする画像エリア抽出処理工程88である。この工程では、第1工程で作成した特徴色と近似している色を抽出し、抽出した部分を重ね合わせることによって被写体を特定し、全フレームの被写体エリアを重ね合わせて画像の移動エリアを得、被写体の動き範囲を検出する。
【0117】
第3工程は、領域切り出し処理90である。この工程では、第2工程で検出した被写体の動き範囲を基にその領域を切り出し、静止画を合成する。
【0118】
各工程の詳細を説明する。
【0119】
第1工程の詳細を説明する。図18は、第1工程での特徴色の指定法を示した図、図19は、第1工程での特徴色抽出工程の流れを示したフローチャートである。
【0120】
図18において、まず、動画フレーム中の特定の静止画フレームnにおいてユーザが特定したい被写体の特徴色を指定する。ユーザが特定したい被写体を女の子とすると、ユーザは、被写体の一部、例えば、髪であるA点、腕であるB点、胴体であるC点をそれぞれマウス24でポイントする。ポイントすることによって、A点、B点、C点のx、y座標が決定する。そして、A点のR、G、B値を取り込んで特徴色ref(1)とし、B点のR、G、B値を取り込んで特徴色ref(2)とし、C点のR、G、B値を取り込んで特徴色ref(3)とする。
【0121】
図19で説明すると、特定の静止画フレームnがモニタ20に表示され(ステップ196)、特徴色抽出工程が必要回繰り返されたか判断され(ステップ198)、イエスの場合は終了し、ノーの場合は被写体の一部をポイントする(ステップ200)。A点、B点、C点の特徴色が各R、G、B値の取り込みにより抽出される(ステップ202)。その後、特徴色抽出工程が必要回繰り返されたかの判断に戻る(ステップ198)。
【0122】
第2工程を説明する。図20は、画像エリア抽出処理工程を示す概念図であり、図21は、画像エリア抽出処理工程のフローチャートである。
【0123】
図20において、第1工程で抽出されたA点の特徴色ref(1)、B点の特徴色ref(2)、C点の特徴色ref(3)について、それぞれに近似している色を抽出する。
【0124】
A点の特徴色ref(1)については、A点の特徴色ref(1)と色差ΔC以内の部分を抽出する。静止画フレームnはビットプレーンで構成されているので、ref(i)とピクセルiの差分をとって色差ΔC以内の部分かどうかを0か1かで該当するか否か調べる。値0となった場合は該当しないことになり、色一致しなかった部分とみなされる。値1となった場合は該当することになり、色一致した部分とみなされる。その結果、A点の特徴色ref(1)と近似の色の部分が抽出される。
【0125】
B点の特徴色ref(2)、C点の特徴色ref(3)についても、同様に近似の色の部分が抽出される。
【0126】
それらの抽出した特徴色部分(位置情報)を1つの静止画フレームnにおいて重ね合わせる。その静止画フレームnの被写体エリアが画定される(位置特定)。その工程を指定時間範囲のフレームすべてについて行い、画定された被写体エリアを指定範囲の全フレーム分重ね合わせる。すると、指定された複数フレームにわたっての被写体画像の移動エリアが得られる。移動エリアが長方形になるように、その移動エリアの左上x座標、左上y座標(min_x,min_y)、右下x座標、右下y座標(max_x,max_y)が特定されて移動エリアが最終的に画定され、被写体の動き範囲が検出される。
【0127】
図21で説明すると、まず対象となる最初の静止画フレームが選定され(ステップ204)、フレーム終了までくり返されたかどうか判断され(ステップ206)、最終フレームが完了したらステップ218に移行し、そうでなければステップ208で特徴色ref(i)についての画像エリア抽出をくり返すかどうかが判断され、抽出が完了した場合はステップ214に移行する。完了していない場合は、ステップ210でref(i)と色差ΔC以内の色一致エリアを上述の方法で抽出する。その後、次の特徴色とし(ステップ212)、ステップ208に戻る。
【0128】
ステップ214では、上述の例では、A点、B点、C点の各特徴色についての色一致エリアを重ね合わせ、そのフレームnの被写体エリアを抽出する。これが終了すると次のフレームを対象とし(ステップ216)、ステップ206に戻る。
【0129】
ステップ218では、指定された全フレームの被写体エリアを重ね合わせ、被写体画像の移動エリアを得る。そして、ステップ220に移行し、移動エリアが長方形になるように、その移動エリアの外接座標である左上x座標、左上y座標(min_x,min_y)、右下x座標、右下y座標(max_x,max_y)が特定されて移動エリアが最終的に画定され、終了する。
【0130】
第3工程を説明する。図22は、領域切り出し工程を示すフローチャートである。この工程では、第2工程で検出した被写体の動き範囲の画像領域を切り出し、静止画を合成する。
【0131】
まず、移動エリアが画定された対象フレームを特定する(ステップ222)。該当フレームを読み、画定された移動エリア部分が切り出される(ステップ224)。切り出した画像をモニタ出力する(ステップ226)。対象フレームが終了したかどうか判断する(ステップ228)。終了していない場合は、他の移動エリアが画定された対象フレームを特定し(ステップ230)、ステップ224に戻る。ステップ228でイエスの場合は、工程を終了する。
【0132】
画像を切り出した後は、例えば、切り出した静止画画像を分割写真として合成することが考えられる。合成した画像では、動画を構成する静止画の1コマ1コマにおける被写体が通常の分割写真よりも拡大した画像になっているので、注目したい被写体をより大きく見やすくすることができる。また、その分割写真からさらに静止画合成することもできる。
【0133】
また、切り出した静止画画像を重ね合わせることで多重露光的な合成写真を出力することもできるし、インデックス的な画像に合成することもできる。
【0134】
上述のように、本形態によれば、連続撮影された分解写真画像をプリントしたときなどに注目したい被写体を中心とした画像を得ることができる。
【0135】
また、動画像の注目フレーム期間について注目被写体の動きが分かるため、分解写真でプリントするフレーム領域の切り出しが容易になる。
【0136】
さらに、長方形の左上隅と右下隅の座標を定義するrect_min_x,rect_min_y、rect_max_x,rect_max_yなどの演算で、自動的に分解写真抽出領域が効果的に切り出せなかった場合でも、参照画像R[x,y],G[x,y],B[x,y]を見ることで、手動で切り出すべき領域が容易に指定できる。
【0137】
上述の第1の実施形態によれば、MOTION JPEG動画像の必要フレームを切り出し、MPEGファイルに変換して圧縮した画像ファイル及び画像合成方法の指示情報をクライアントパソコン2で作成して動画・プリントサーバ30にアップロードするので、クライアント側で所望の合成方法を設定でき、動画・プリントサーバ30に送信する際に送信トラフィックが少ない状態でアップロードできる。さらに、動画・プリントサーバ30で付加価値の高い画像合成処理を実施することで、ユーザにとってはその付加価値の高い画像合成処理がされたプリントを得ることができる。
【0138】
上述の第2の実施形態によれば、画像サーバ54に格納されている動画データをクライアントパソコン2にダウンロードし、クライアントパソコン2から指定した画像フレームについて及び合成指示情報によって静止画を画像サーバ54で合成できるので、ネットワーク経由で得た動画に対しても好きなフレームについて所望の合成方法で合成された静止画プリントを質が高い状態で得られる。
【0139】
【発明の効果】
請求項1の本発明によれば、アップロード用ファイルに変換されたファイル及び画像合成方法の指示情報をクライアント側で作成してサーバにアップロードするので、クライアント側で所望の合成方法を設定でき、サーバに送信する際に送信速度等を考慮したファイルでアップロードできる。
【0140】
請求項2の本発明によれば、サーバ側の画像処理装置で付加価値の高い画像合成処理を実施することで、ユーザにとってはその付加価値の高い画像合成処理がされたプリントを最終的に得ることができる。
【0141】
請求項6の本発明によれば、サーバに格納されている動画データをクライアント側の画像処理装置から指定したフレームについて及び合成指示情報によって静止画を合成できるので、ユーザが希望する合成静止画を質が高い状態で得られる。
【0142】
請求項7の本発明によれば、サーバから動画データを受信して再生し、希望するフレーム及び合成方法をクライアント側の画像処理装置から指定するので、ネットワーク経由で得た動画に対しても好きなフレームについて所望の合成方法で合成された静止画プリントを得ることができる。
【図面の簡単な説明】
【図1】第1の実施形態に係る動画プリント注文システムの概略全体構成を示した図。
【図2】(a)〜(c)は、動画画像の所定範囲を切り出して、切り出したフレームを、それぞれ、分解写真、多重露光、上乗せ合成の形態で合成した場合の静止画合成画像を示した図。
【図3】クライアントパソコンのハード構成を示したブロック図。
【図4】動画・プリントサーバのハード構成を示したブロック図。
【図5】ユーザがハードディスク装置に格納されている動画データの動画ファイルから画像合成したい部分及び画像合成方法の情報を指定する流れを示したフローチャート。
【図6】画像ファイル、画像合成方法、及び注文情報を動画・プリントサーバにアップロードするときの流れを示したフローチャート。
【図7】クライアントパソコンにおいて連写画像を一覧表示させた図。
【図8】連写画像を指定してから動画・プリントサーバにアップロードするまでの流れを示したフローチャート。
【図9】画像データ等がアップロードされたときから出来上がったプリントをユーザ又は写真店に送るまでの流れを示したフローチャート。
【図10】第2の実施形態に係る動画プリント注文システムの全体構成を示した図。
【図11】ユーザが画像サーバに格納されている動画データをクライアントパソコンにダウンロードして動画ファイルの画像合成したいフレーム、画像合成方法、及び注文情報を指定して送信するまでの流れを示したフローチャート。
【図12】動画データをクライアントパソコンにダウンロードする際の画像サーバの作動の流れ及びクライアントパソコンから画像サーバに動画フレームの指定情報、画像合成方法の指定情報、注文情報が送信されてからの画像サーバの作動の流れを示したフローチャート。
【図13】被写体上乗せの画像合成方法の流れを示したフローチャート。
【図14】複数の主要被写体の画像をそれぞれ同位置で上乗せ合成した合成画像の作成イメージ図。
【図15】主要被写体の画像をずらして上乗せ合成する方法を説明するために用いた図。
【図16】複数の主要被写体の画像をそれぞれずらして上乗せ合成した合成画像の作成イメージ図。
【図17】動画ファイルの動画データから注目被写体を拡大した静止画を合成するまでの概略工程を示した図。
【図18】第1工程での特徴色の指定法を示した図。
【図19】第1工程での特徴色抽出工程の流れを示したフローチャート。
【図20】画像エリア抽出処理工程を示す概念図。
【図21】画像エリア抽出処理工程のフローチャート。
【図22】領域切り出し工程を示すフローチャート。
【符号の説明】
1…動画プリント注文システム、2…クライアントパソコン、8…通信インターフェース、10…CPU、12…主メモリ、14…ハードディスク装置、18…表示メモリ、20…モニタ装置、22…キーボード、24…マウス、26…コントローラ、28…バス、30…動画・プリントサーバ、32…ハードディスク装置、34…CPU、36…作業メモリ、38…動画処理部、40…プリント部、42…通信インターフェース、44…静止画保管メモリ、46…静止画合成部、48…合成静止画送出部、50…バス、52…動画プリント注文システム、54…画像サーバ、56…ラボサーバ、58…動画保存メモリ、60…ハードディスク装置、62…動画切り出し部、64…静止画合成部、66…CPU、68…静止画保管メモリ、70…動画圧縮部、71…作業メモリ、72…合成静止画送出部、73…バス、74…通信インターフェース、76…通信インターフェース、78…CPU、80…合成静止画保管メモリ、82…ハードディスク装置、83…バス、84…写真プリンタサブシステム、86…被写体特徴色抽出処理、88…画像エリア抽出処理、90…領域切り出し処理、92…フレーム指定画面、94…プリント注文データ入力画面
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that processes and prints moving image data via a network.
[0002]
[Prior art]
In recent years, not only video cameras but also digital cameras can shoot and record moving images. From the recorded and recorded video, cut out the part you like or want to watch carefully, and perform image composition processing such as multiple exposure and disassembly photography, and still images obtained by combining these images Sometimes you want to print an image.
[0003]
Since still images subjected to these image synthesis processes can obtain prints rich in visual effects, there is a strong demand for obtaining high-quality synthesized prints. In order to obtain high-quality prints, it is advantageous to use a photo print service as described in Patent Document 1 below, rather than a home printer. However, a moving image and a composition method are designated and recorded in a photo shop or print service shop. A method of ordering prints by bringing media was used.
[0004]
Patent Document 2 below proposes an image processing method that obtains the same effect as multiple exposure possible with a silver halide camera or the like when capturing a moving image with a digital camera using a CCD image sensor. It discloses a method that can be implemented in a local environment such as a personal computer.
[0005]
The following non-patent document 1 discloses a system (referred to as “FDi net service”) provided by the present applicant and capable of ordering prints using a network. When placing a print order with this system, the user designates an image that he / she wants to print on his / her personal computer, selects a photo shop that receives the completed print, and transmits it to the “FDi Net Service” server via the network. The user goes to the photo store to receive the completed print. However, this system can specify the print size and the number of prints when ordering online, but it is possible to obtain a composite still image print such as multiple exposure and disassembled photo in the form desired by the user based on the normal moving image original image. could not.
[0006]
[Patent Document 1]
JP 2001-319216 A
[0007]
[Patent Document 2]
JP 2001-28726 A
[0008]
[Non-Patent Document 1]
"FDinet Service" homepage <URL: http: //www.fdinet.fujifilm.co.jp/>
[0009]
[Problems to be solved by the invention]
In consideration of the above circumstances, the present invention provides an image processing apparatus that can specify a desired moving image portion from moving image data and create a combined image data or a combined image data print using a network. With the goal.
[0010]
An object of the present invention is to provide an image processing apparatus capable of uploading a moving image from a client-side terminal via a network and creating composite processed image data or a composite processed image data print.
[0011]
The present invention displays a moving image in a server placed on the network on a client-side terminal, designates a composition method, transmits composition method designation data to the server, and transmits desired composition processing image data or composition processing. An object of the present invention is to provide an image processing apparatus capable of creating an image data print.
[0012]
[Means for Solving the Problems]
The present invention of claim 1 is an image processing apparatus that processes moving image data and is connected to a server via a network,
Reading means to read video data,
A designation unit for designating information on a portion to be synthesized and an image synthesis method information from the movie file of the movie data read by the reading unit;
A conversion unit that cuts out the portion of the designated image to be combined from the video file and converts it into an upload file;
The image processing apparatus includes an upload unit that uploads the file converted into the upload file and the instruction information on the image composition method to the server.
[0013]
The present invention of claim 1 is an image processing apparatus on the client side, wherein the designation means designates a portion to be synthesized from a moving image file of the moving image data read by the reading means and information on the image composition method, and the conversion The specified portion to be combined with the image is cut out from the moving image file and converted into an upload file, and the file converted into the upload file by the upload unit and the instruction information of the image combining method are uploaded to the server.
[0014]
The present invention of claim 2 is an image processing apparatus having a server function connected to a client side image processing apparatus via a network,
Receiving means for receiving an upload file transmitted from the image processing apparatus on the client side and image synthesis method instruction information for the file;
Generating means for generating a still image composite image from the received upload file and the instruction information of the image composition method;
And an image processing apparatus including transmission means for transmitting the generated still image composite image to a client-side image processing apparatus.
[0015]
The present invention of claim 2 is an image processing apparatus on the server side, wherein the receiving unit receives the upload file transmitted from the client side image processing apparatus and the instruction information of the image composition method for the file, and generates the file A still image synthesized image is generated from the received upload file and image synthesis method instruction information by the means, and the generated still image synthesized image is transmitted to the client-side image processing apparatus by the transmitting means. Thereafter, the client-side image processing apparatus determines whether the still image composite image is good or bad by displaying and displaying the transmitted still image composite image.
[0016]
In the image processing apparatus according to claim 1, the conversion unit may use a method of converting into an image recording format file based on a frame difference as a method of converting into an upload file.
[0017]
Further, in the image processing device according to any one of claims 1 to 3, the image composition method may be a method of combining and synthesizing a subject of interest.
[0018]
The image processing apparatus according to any one of claims 1 to 4, wherein the image composition method secures position information of a subject of interest at the time of composition and locates the subject of interest based on the position information. Can be included.
[0019]
The present invention of claim 6 is an image processing apparatus having a server function connected to a client side image processing apparatus via a network,
Storage means for storing video data;
Clipping means for cutting out a designated frame designated by a client-side image processing device from a moving image file of moving image data stored in the storage means;
Receiving means for receiving information on a designated frame designated by the image processing apparatus on the client side and instruction information on an image synthesis method for synthesizing the image of the designated frame;
Synthesizing means for synthesizing a still image from the designated frame clipped by the clipping means and the instruction information of the image synthesizing method;
The image processing apparatus comprises transmission / reception means for transmitting / receiving data of moving image data, still image data, and print order data of a synthesized still image.
[0020]
According to the present invention of claim 6, the receiving means receives information of a designated frame designated by a client-side image processing apparatus, and the designated frame is extracted from a moving picture file of moving picture data stored in the storing means. Cut out by the cutout means, the receiving means receives the instruction information of the image synthesis method for synthesizing the image of the designated frame, and the synthesis means is stationary from the designated frame cut out by the cutout means and the instruction information of the image synthesis method Synthesize the image.
[0021]
The present invention of claim 7 is an image processing apparatus that processes moving image data and is connected to a server via a network,
Receiving means for receiving video data from the server;
Playback means for playing back the moving image data received by the receiving means;
Generating means for generating designation frame information for designating a frame to be cut out from the movie file of the movie data and instruction information for instructing an image synthesis method for synthesizing an image of the designated frame;
The image processing apparatus comprises: transmission means for transmitting the designated frame information and instruction information and print order data of the synthesized image to the server.
[0022]
According to the seventh aspect of the present invention, the specified frame information for receiving the moving image data from the server by the receiving means, reproducing the moving image data by the reproducing means, and specifying the frame to be cut out from the moving image file of the moving image data by the generating means. Then, instruction information for instructing an image composition method for compositing the image of the designated frame is generated, and the designated frame information and the instruction information and print order data of the image to be synthesized by the server are transmitted to the server by the transmission means.
[0023]
7. The image processing apparatus according to claim 6, further comprising: a data receiving unit that receives the still image combined with the combining unit and print order data; and a printing unit that prints the still image received by the data receiving unit. Can have.
[0024]
The image processing apparatus according to claim 6, wherein the synthesizing unit can use an image recording format synthesizing method based on a frame difference.
[0025]
Further, in the image processing apparatus according to claim 6 or 7, the image composition method may be a method of combining and synthesizing a subject of interest.
[0026]
The image processing apparatus according to claim 6, wherein the image composition method can include a method of securing position information of a subject of interest at the time of composition and specifying the subject of interest based on the position information. .
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0028]
FIG. 1 is a diagram showing a schematic overall configuration of a moving image print ordering system 1 according to the first embodiment.
[0029]
A user wants to print a composite of a moving image captured by a digital camera in a desired state. Therefore, the moving image to be combined is uploaded to the moving image / print server 30, the uploaded image is combined by the moving image / print server 30, printed, and the user goes to the photo store.
[0030]
More specifically, the client personal computer 2 (that is, the user personal computer) and the moving image / print server 30 are connected via the Internet. A digital camera 4 is connected to the client personal computer 2 via a USB cable 6. What is printed by the moving image / print server 30 is sent to the photo shop via the transport route.
[0031]
The captured video data of the digital camera 4 is transmitted to the client personal computer 2 via the USB cable 6, and the part of the video data read from the video data read by the client personal computer 2 and the information of the image composition method are designated by the keyboard or the mouse. Then, the client PC 2 cuts out the designated portion to be combined from the moving image file, converts it into an upload file, and uploads the upload file and the image combining method instruction information to the moving image / print server 30.
[0032]
The video / print server 30 receives the upload file and the image synthesis method instruction information transmitted from the client personal computer 2, generates a still image composite image, and connects the generated still image composite image to the client personal computer 2 via the Internet network. Send through. Thereafter, the client personal computer 2 determines the state of the still image composite image by displaying the transmitted still image composite image and viewing it. If it is OK, the formal order information is transmitted to the video / print server 30, and the video is displayed. The print server 30 prints a still image composite image.
[0033]
FIGS. 2A to 2C are diagrams showing still image composite images when a predetermined range of a moving image is cut out and the cut out frames are combined in the form of a decomposed photo, multiple exposure, and overlay composition, respectively. It is. The disassembled photograph is, for example, a method in which a moving image obtained by shooting a golf swing is divided into still images of instantaneous moments over time and displayed in a list in order. The multiple exposure is to display the same subject photographed under various conditions in one frame. Overlay composition is to superimpose frames shot separately and display them in one frame. The user ultimately wants to obtain such a still image composite image print.
[0034]
FIG. 3 is a block diagram showing a hardware configuration of the client personal computer 2. As shown in FIG. 3, the client personal computer 2 includes a central processing unit (CPU) 10 that mainly controls the operation of each component, and a main memory 12 that stores a control program for the device and serves as a work area when the program is executed. An operating system (OS) of the client personal computer 2, various application software including device drivers of peripheral devices connected to the client personal computer 2, a hard disk device 14 storing user images, and the like, and a CD-ROM drive 16 A display memory 18 for temporarily storing display data, a monitor device 20 such as a CRT monitor or a liquid crystal monitor for displaying images, characters and the like by image data and character data from the display memory 18, a keyboard 22, and a position Mouse 24 as input device and detection of mouse 24 status The mouse controller 26 that outputs signals such as the position of the mouse pointer on the monitor device 20 and the state of the mouse 24 to the CPU 10 and a USB (Universal Serial Bus) cable that can be connected to the digital camera 4 and input image data and the like. 6, an interface 27 that connects to the Internet 6, a communication interface 8 that connects to the Internet, and a bus 28 that connects the above components.
[0035]
In the personal computer 2 having the above-described configuration, each component is well-known, and a detailed description of each component is omitted.
[0036]
FIG. 4 is a block diagram showing a hardware configuration of the moving image / print server 30. As shown in FIG. 4, the moving image / print server 30 includes a hard disk device 32, a CPU 34, a working memory 36, a moving image processing unit 38, a printing unit 40, a communication interface 42 for connecting to the Internet network, a still image storage memory 44, A still image combining unit 46 and a combined still image sending unit 48 are connected via a bus 50.
[0037]
The hard disk device 32 stores various application software including an image composition program such as a decomposed photograph, multiple exposure, and overlay composition according to the present invention. The work memory 36 is a memory for temporarily storing data and performing various work. The moving image processing unit 38 expands the transmitted moving image data such as MPEG and performs various image processing. The print unit 40 prints the synthesized still image. The still image storage memory 44 stores still image data processed by the moving image processing unit 38 and decomposed into still images for each frame. The still image synthesizing unit 46 performs image synthesis such as decomposition photography, multiple exposure, and superposition synthesis by an image synthesis program stored in the hard disk device 32. The synthesized still image sending unit 48 generates sending data for sending the synthesized still image to the client personal computer 2 or the like via the communication interface 42.
[0038]
The operation of the first embodiment will be described. A description will be given from the case where the user actually operates the client personal computer 2.
[0039]
FIG. 5 is a flowchart showing a flow in which the user designates information about a portion to be combined and an image combining method from a moving image file of moving image data stored in the hard disk device 14.
[0040]
First, a target video file is read (step 100). At this point, the moving image file is in the MOTION JPEG format. The read moving image file is displayed on the monitor 20 (step 101). The monitor 20 displays a frame designation screen 92. The frame designation screen 92 is a film roll display, and the moving image frame to be noticed is slid by the left and right arrow buttons (step 102), and the corresponding moving image frame is displayed largely on the upper screen. In the lower part, two frames are displayed in a reduced manner, including the large frame.
[0041]
To specify the frame of the section to be combined, specify the start frame with the IN button (step 104), slide the moving picture frame again with the arrow button (step 106), and specify the end frame with the OUT button (step). 108).
[0042]
Thereafter, a synthesis method is designated (step 110). There is a compositing method button on the upper right side of the frame designation screen 92, and when this button is clicked, three kinds of compositing methods are displayed: disassembled photo, multiple exposure, and subject addition. The user clicks and selects a desired synthesis method from the three types of synthesis methods.
[0043]
Then, order information is designated (step 112). There is an order button in the center on the right side of the frame designation screen 92. When this button is clicked, a print order data print order data input screen 94 is displayed. On the print order data input screen 94, the number of prints, the address of the orderer, the name, the telephone number, and the name of the store that receives the print are entered. Alternatively, on the print order data input screen 94, the credit card number, the number of prints, the orderer's address, name, and telephone number may be input. In this case, the orderer receives the completed print by mail.
[0044]
After input, confirm the displayed contents and click the OK button if OK, or click the CANSEL button if you do not place an order.
[0045]
When the frame section to be combined is determined through step 108, the frame of the specified section is cut out from the moving image file and temporarily saved as a MOTION JPEG file (step 114).
[0046]
Thereafter, the MOTION JPEG file is converted into an MPEG file and stored (step 116). This is because when the image data cut out to the moving image / print server 30 is uploaded, the amount of image data is smaller in the MPEG format, and the communication traffic can be reduced.
[0047]
The inputted synthesis method information and order information are stored linked to the MPEG file.
[0048]
FIG. 6 is a flowchart showing a flow when an image file, an image composition method, and order information are uploaded to the moving image / print server 30.
[0049]
First, an MPEG image file to be uploaded is designated (step 118). Then, the designated MPEG file, image composition method information, and order information are uploaded to the moving image / print server 30 (step 120).
[0050]
If it is desired to synthesize continuous shot images, the images are synthesized by the method shown in FIGS. FIG. 7 is a diagram showing a list of continuously shot images displayed on the client personal computer 2, and FIG. 8 is a flowchart showing a flow from designation of the continuously shot images to uploading to the moving image / print server 30.
[0051]
Since the continuous shot image is not a moving image, the recording method is also performed in the client personal computer 2 by the JPEG method.
[0052]
As shown in FIG. 7, the continuous shot image to be combined is designated by the browser (step 122). Then, the designated continuous shot image is confirmed by the composite print button of the browser (step 124). At this point, the designated continuous shot image is saved in the JPEG format. Thereafter, JPEG continuous shot image data is uploaded to the moving image / print server 30 together with composition method information and order information separately input and stored (step 126).
[0053]
Next, the operation of the moving image / print server 30 when image data, composition method information, and order information are uploaded from the client personal computer 2 to the moving image / print server 30 will be described.
[0054]
FIG. 9 is a flowchart showing a flow from when the image data or the like is uploaded until the completed print is sent to the user or the photo shop.
[0055]
The moving image / print server 30 receives the image data in the MPEG format, the synthesis method information, and the order information uploaded via the Internet network (step 136). After the reception, the designated frame of the image data in the MPEG file format is decompressed by the moving image processing unit 38 and stored in the still image storage memory 44 as a still image. From the received compositing method information, the corresponding image compositing program of the disassembled photo, multiple exposure, and overlay compositing stored in the hard disk device 32 is activated, and the still image stored in the still image storage memory 44 is The image composition unit 46 performs composition processing (step 138). The synthesized still image is converted into data for transmission by the synthesized still image transmission unit 48 and transmitted to the client personal computer 2 from the communication interface 42 via the Internet network. If the transmitted composite still image is OK, the user transmits a message to that effect to the moving image / print server 30.
[0056]
When the moving image / print server 30 receives the “OK” information from the client personal computer 2, the print unit 40 prints out the composite still image for the number of prints included in the previously received order information (step 140). .
[0057]
It is determined whether or not the received order information includes the information of the receiving store (step 142). When the receiving store is designated, the printed output is delivered to the receiving store (step 144). When the store is not designated, the mail processing is performed (step 146), and the credit card number is inputted, so that the credit is charged (step 148).
[0058]
After step 144 or 148, the client personal computer 2 is notified by e-mail that the print has been sent to the orderer (step 150).
[0059]
A second embodiment will be described.
[0060]
FIG. 10 is a diagram showing an overall configuration of a moving image print ordering system 52 according to the second embodiment.
[0061]
The user wants to download the moving image stored in the image server 54 to his or her personal computer and print it in a desired state. Therefore, the instruction information of the image composition method is transmitted to the image server 54, the images are synthesized by the image server 54 by the image composition method, and the synthesized still image is transmitted to the lab server 56 and printed by the lab server 56. Is transported to the photo shop and the user goes to receive the print of the composite still image completed in the photo shop.
[0062]
More specifically, the client personal computer 2 (that is, the user personal computer), the image server 54, and the lab server 56 are connected through the Internet.
[0063]
An image composition method in which a user downloads moving image data stored in the image server 54 to the client personal computer 2, reproduces and designates a frame to be extracted from the moving image file of the moving image data, and an image composition method for composing the image of the designated frame. The instructing combination instruction information is generated, and the designated frame information, the combination instruction information, and the print order data are transmitted to the image server 54. The image server 54 cuts out the specified frame from the moving image file based on the received specified frame information, combines the specified frame cut out based on the combination instruction information, and sends the combined still image and the order information received from the client personal computer 2 to the lab server 56. Send.
[0064]
The lab server 56 prints the composite still image transmitted from the image server 54 in accordance with the order information.
[0065]
As an image composition method, as in the first embodiment, a form of separation photograph, multiple exposure, and overlay composition can be considered.
[0066]
The configuration and operation of the client personal computer 2 are the same as those in the first embodiment.
[0067]
The configuration of the image server 54 and the lab server 56 shown in FIG. 10 will be described.
[0068]
The image server 54 includes a moving image storage memory 58 in which moving image data is stored, a hard disk device 60, a moving image cutout unit 62 that cuts out a specified frame of a moving image file based on specified frame information, and a still image storage memory that stores the cut out still image 68, a still image combining unit 64 that combines the still images stored in the still image storage memory 68 based on the combination instruction information, and a combined still image that generates transmission data for transmitting the combined still image to the lab server 56. Sending unit 72, working memory 71, moving image compression unit 70 for compressing moving image data into MPEG1 format when downloading moving image data requested from client computer 2 to client computer 2, and for communicating with the Internet C for controlling each department in the communication interface 74 and the image server 54 Consists U66, each of these departments are connected via a bus 73.
[0069]
The hard disk device 60 stores various application software including an image composition program such as a decomposed photograph, multiple exposure, and overlay composition according to the present invention. The work memory 71 is a memory for temporarily storing data and performing various works. The still image synthesizing unit 64 performs image synthesis such as a decomposed photograph, multiple exposure, and overlay synthesis on the designated still image based on the synthesis instruction information by an image synthesis program.
[0070]
The lab server 56 communicates with a hard disk device 82, a composite still image storage memory 80 that stores the composite still image transmitted from the image server 54, a photo printer subsystem 84 that is a system for printing the composite still image, and the Internet network. And a CPU 78 for controlling each department in the lab server 56, which are connected via a bus 83.
[0071]
The operation of the second embodiment will be described.
[0072]
A description will be given from the case where the user actually operates the client personal computer 2.
[0073]
FIG. 11 shows a flow from when the user downloads the moving image data stored in the image server 54 to the client personal computer 2 and designates and transmits the frame, image combining method, and order information of the moving image file. It is a flowchart.
[0074]
First, the desired moving image data is downloaded from the image server 54 and reproduced (step 152). At this point, the moving image file is in the MPEG format. The reproduced moving image file of the moving image data is displayed on the monitor 20, and the user designates a moving image frame to be combined, a combining method, and order information while viewing the display on the monitor 20 (step 154). Since the method for specifying the moving image frame, the method for specifying the image composition method, and the method for specifying the order information are the same as those in the first embodiment, description thereof will be omitted. As in the first embodiment, the image composition method can be selected from three types of composition methods: decomposed photograph, multiple exposure, and subject addition.
[0075]
In the ordering method, it is also possible to input the credit card number, the number of prints, the orderer's address, name, and telephone number on the print order data input screen 94 and receive the completed print by mail. The point is the same as in the first embodiment.
[0076]
After inputting the moving picture frame designation information, the image composition method designation information, and the order information, confirm the displayed contents and click the OK button if OK, or click the CANSEL button if not ordering.
[0077]
The moving image frame designation information, the image composition method designation information, and the order information that have been input and pressed the OK button are transmitted to the image server 54 (step 156).
[0078]
Note that a continuous shot image can also be selected as an image synthesis target. In this case, the client personal computer 2 downloads the continuous shot image stored in the image server 54 and transmits the frame designation information, the image synthesis method designation information, and the order information to the image server 54 as described above.
[0079]
Next, the operation of the image server 54 will be described.
[0080]
FIG. 12 shows the flow of the operation of the image server 54 when downloading moving image data to the client personal computer 2, and moving image frame designation information, image composition method designation information, and order information are transmitted from the client personal computer 2 to the image server 54. 5 is a flowchart showing a flow of operation of the image server 54 from
[0081]
First, it is determined whether the user request from the client personal computer 2 is a moving image download or an image composition instruction (step 158).
[0082]
In the case of downloading a moving image, the moving image file designated by the user is compressed into the MPEG format (step 160). The compressed designated moving image file is transmitted to the client personal computer 2 (step 162).
[0083]
In the case of an image synthesis instruction, the frame designation information, the image synthesis method designation information, and the print order information transmitted from the client personal computer 2 are received (step 164). Based on the frame designation information, the moving image cutout unit 62 cuts out the designated frame of the moving image file (step 165).
[0084]
The image synthesis method designation information is discriminated for the cut out frame (step 166), and any one of the decomposed photo composition (step 168), multiple exposure composition (step 170), and subject overlay composition (step 172) is performed. . These image synthesizing is performed by the still image synthesizing unit 64, and an image synthesizing program is used to synthesize the specified still image frame based on the synthesizing instruction information, such as a decomposed photograph, multiple exposure, and superimposing synthesis.
[0085]
The received print order information is linked to the combined image data, and the combined image data and the print order information are transmitted to the lab server 56 (step 174).
[0086]
The lab server 56 receives the composite image data and print order information transmitted from the image server 54. The composite still image that is the content of the composite image data is temporarily stored in the composite still image storage memory 80. The composite still image is printed out by the photo printer subsystem 84 in accordance with the print order information.
[0087]
The print output by the lab server 56 is conveyed to a receiving photo store designated by the user. The user goes to the reception photo store to receive the printed composite still image. As in the first embodiment, it is also possible to deliver to the user what has been printed out by mail without designating a receiving store. In this case, credit is charged at the time of mailing.
[0088]
When preparations for sending the print output to the receiving photo shop or by mail are completed, the client PC 2 is notified by e-mail that the print has been sent to the orderer.
[0089]
Of the above-described image composition methods, an image composition method on a subject common to the first and second embodiments will be described in detail. Although there are some differences from the above-described flow of adding the subject, such as a frame designation method, the following method will be described as an example.
[0090]
FIG. 13 is a flowchart showing a flow of an image composition method for adding a subject.
[0091]
When the image composition processing program for adding a subject is started, the monitor device 20 of the client personal computer 2 displays a screen for selecting a still image file as a background image or a moving image file for image composition (not shown). A desired still image file and moving image file are selected on this screen (steps 176 and 178).
[0092]
Subsequently, n still images to be processed are selected from the moving image file selected in step 178, and the selected n still images are cut out from the moving image file and re-saved as continuous still images (step 180). 182). For n still images, an arbitrary numerical value n may be input, and n still images may be automatically selected from the movie file at equal intervals, or manually while viewing each frame image of the movie. You may make it select one by one. Alternatively, a certain period in the moving image may be designated and all the frame images within the period may be selected.
[0093]
Next, of the n still images, the still image number i to be processed is set to 1 (i = 1) (step 184). Note that n still images are numbered 1 to n in chronological order.
[0094]
A main subject is extracted from the i-th still image to be processed (step 186). The main subject is extracted based on the background image selected in step 176. That is, the color space distance between pixels at the same position of the i-th still image and the background image (the sum of the difference values of R, G, and B data of each pixel) is calculated, and pixels whose calculation results are equal to or greater than a specified value are calculated. Extracted as main subject candidate pixels.
[0095]
The main subject candidate pixel group extracted in this manner is subjected to image processing such as concatenation, and noise pixels are removed to obtain an image of only the main subject. The image of only the main subject is saved in the main memory 12 with the same pixel size as the original still image. That is, the area other than the main subject of the original still image is filled with pixels having no pixel value (for example, R, G, B = (-1, -1, -1)) and is the same as the original still image. Set to pixel size.
[0096]
Next, the image having the pixel value of only the main subject extracted in step 186 is added and mapped on the synthesized image memory area for one frame of the main memory 12 to perform the addition of the main subject (step 188). That is, after mapping so that the pixels of the same coordinates (x, y) overlap each other in the consecutive i-th image i and i + 1-th image (i + 1), the pixel values of the pixels of both images overlap. The added pixel value is determined so that the pixel value of (i + 1) is adopted. In the case of an image of only the main subject extracted from the first still image, it is mapped on the memory as it is.
[0097]
The above overlay synthesis algorithm is shown below.
[0098]
Each pixel of the image i and the image (i + 1) is scanned, and each pixel value (Rcomp, Gcomp, Bcomp) of the composite image comp after addition is determined. For convenience, pixel values other than the main subject pixel are defined as (R, G, B) = (− 1, −1, −1).
[0099]
When both the pixel of the image i and the pixel at the same position of the image (i + 1) have the pixel value of the main subject, the pixel value of the image (i + 1) is adopted. That is,
Pixels with (Ri, Gi, Bi) ≠ (-1, -1, -1) and (Ri + 1, Gi + 1, Bi + 1) ≠ (-1, -1, -1)
→ (Rcomp, Gcomp, Bcomp) = (Ri + 1, Gi + 1, Bi + 1)
When the pixel of the image i does not have the pixel value of the main subject and the pixel at the same position in the image (i + 1) has the pixel value of the main subject, the pixel value of the image (i + 1) is adopted. That is,
(Ri, Gi, Bi) = (-1, -1, -1) and (Ri + 1, Gi + 1, Bi + 1) ≠ (-1, -1, -1)
Pixels
→ (Rcomp, Gcomp, Bcomp) = (Ri + 1, Gi + 1, Bi + 1)
When the pixel of the image i has the pixel value of the main subject and the pixel at the same position in the image (i + 1) does not have the pixel value of the main subject, the pixel value of the image i is adopted. That is,
(Ri, Gi, Bi) ≠ (-1, -1, -1) and (Ri + 1, Gi + 1, Bi + 1) = (-1, -1, -1)
→ (Rcomp, Gcomp, Bcomp) = (Ri, Gi, Bi)
When both the pixel of the image i and the pixel at the same position of the image (i + 1) do not have the pixel value of the main subject, values (−1, −1, −1) having no pixel value after addition are set. That is,
(Ri, Gi, Bi) = (− 1, −1, −1) and (Ri + 1, Gi + 1, Bi + 1) = (− 1, −1, −1) pixels
→ (Rcomp, Gcomp, Bcomp) = (-1, -1, -1)
When the overlay synthesis for the main subject of the i-th image is completed as described above, it is determined whether or not the overlay synthesis for n images has been completed (step 190). Increments i by 1 (step 192) and returns to step 186. As a result, the main subject extraction process and the addition of the main subject are performed on the next still image in time series order.
[0100]
When the addition composition for n sheets is completed (i = n), the addition image is added to the background image and synthesized (step 194). In other words, the portion of the superimposed image that has no pixel value is filled with the background image pixels.
[0101]
The composite image created in this way is stored in the hard disk device 14 or displayed on the monitor device 20, uploaded to the moving image / print server 30 or the image server 54, and printed out.
[0102]
FIG. 14 is a creation image diagram of the composite image created as described above.
[0103]
Next, another embodiment of the overlay synthesis of the main subject image will be described.
[0104]
First, the processing from the extraction of main subjects from n still images is performed in the same manner as described above. A minimum rectangle including the image of the main subject extracted in this way is calculated, and an image (rectangular image) within the minimum rectangle is stored in the memory.
[0105]
Images shown in FIGS. 15A and 15B are an i-th rectangular image i and an i + 1-th rectangular image (i + 1), respectively.
[0106]
Next, the coordinates (x i, y i ) And the coordinates of the rectangular image (i + 1) (x i + 1, y i + 1 ) Map the pixels so that they overlap.
[0107]
For example, when the image is aligned on the lower side of each rectangular image and superimposed so that the rectangular image (i + 1) overlaps the right half of the rectangular image i, the rectangular image (i + 1) is assumed to have a horizontal width of Max-xi. ) Coordinates of each pixel (x i + 1, y i + 1 ) By adding Max-xi / 2 to the x-coordinate, i + 1 + Max-xi / 2 , y i + 1 ). Thereafter, after mapping so that pixels with the same coordinates overlap, the pixel value after addition is determined so that the pixel value of the image (i + 1) is adopted for the portion where the pixel values of the pixels of both images overlap.
[0108]
In this way, by combining the rectangular image i shown in FIG. 15A with the rectangular image (i + 1) shown in FIG. 15B shifted to the right and combining them, the combined image shown in FIG. can get.
[0109]
A composite image as shown in FIG. 16 can be created by sequentially performing such overlay composition on n rectangular images (1 to n).
[0110]
In this embodiment, a still image (background image) that does not contain the main subject is shot separately from the movie. However, the present invention is not limited to this, and a movie that does not contain the main subject is shot. One frame of a moving image may be used as a background image. In addition, a plurality of still images are acquired from a moving image. However, the present invention is not limited to this, and a plurality of continuous images are captured in a continuous shooting mode in which images are continuously captured at a predetermined interval. It may be a picture.
[0111]
Further, as a method for extracting the main subject from the image, for example, a chroma key process is performed in which the main subject is photographed against a screen of a specific color such as a blue background and the main subject is extracted from the photographed image based on the specific color. May be adopted, or one of the pixels of the main subject in the image is pointed, the contour of the main subject is obtained from the continuity of the pointed pixel, and the main subject based on the contour You may employ | adopt the method of extracting. In the case of these main subject extraction methods, it is not necessary to separately shoot a background image that does not contain the main subject in order to extract the main subject.
[0112]
Next, still another embodiment of the overlay synthesis of the main subject image will be described.
[0113]
FIG. 17 is a diagram showing a schematic process until a still image obtained by enlarging a subject of interest from moving image data of a moving image file is synthesized.
[0114]
A moving image file composed of a plurality of continuous still images is read, and a moving image frame in the moving image file is disassembled to extract a designated frame. The designated frame is taken out in the same manner as described above. Then, it goes through three steps.
[0115]
The first step is a subject feature color extraction step 86 for extracting a subject feature color. In the subject feature color extraction step 86, a subject is specified by pointing several points in the subject, and a feature color list at each point is created.
[0116]
The second step is an image area extraction processing step 88 for performing image area extraction processing. In this step, a color approximate to the characteristic color created in the first step is extracted, the subject is specified by superimposing the extracted portions, and the subject area of all frames is overlaid to obtain the moving area of the image. Detect the movement range of the subject.
[0117]
The third step is a region cutout process 90. In this step, the region is cut out based on the movement range of the subject detected in the second step, and a still image is synthesized.
[0118]
Details of each step will be described.
[0119]
Details of the first step will be described. FIG. 18 is a diagram showing a feature color designation method in the first step, and FIG. 19 is a flowchart showing a flow of the feature color extraction step in the first step.
[0120]
In FIG. 18, first, the feature color of the subject that the user wants to specify is specified in a specific still image frame n in the moving image frame. If the subject that the user wants to specify is a girl, the user points with a mouse 24 a part of the subject, for example, point A as hair, point B as an arm, and point C as a torso. By pointing, the x and y coordinates of points A, B and C are determined. Then, the R, G, and B values at the A point are taken as the feature color ref (1), the R, G, and B values at the B point are taken as the feature color ref (2), and the R, G, and B values at the C point. The value is taken in and set as the characteristic color ref (3).
[0121]
Referring to FIG. 19, a specific still image frame n is displayed on the monitor 20 (step 196), and it is determined whether the characteristic color extraction process has been repeated as many times as necessary (step 198). Points to a portion of the subject (step 200). The characteristic colors at points A, B, and C are extracted by taking in the R, G, and B values (step 202). Thereafter, the process returns to the determination of whether the characteristic color extraction process has been repeated a required number of times (step 198).
[0122]
The second step will be described. FIG. 20 is a conceptual diagram showing an image area extraction processing step, and FIG. 21 is a flowchart of the image area extraction processing step.
[0123]
In FIG. 20, for the feature color ref (1), the feature color ref (2) of the point B, and the feature color ref (3) of the point C extracted in the first step, the colors approximated to each of them are shown. Extract.
[0124]
For the feature color ref (1) at point A, a portion within the color difference ΔC from the feature color ref (1) at point A is extracted. Since the still image frame n is composed of a bit plane, the difference between ref (i) and the pixel i is taken to check whether the portion is within the color difference ΔC, whether it is 0 or 1. When the value is 0, it is not applicable, and it is regarded as a portion where the colors do not match. When the value is 1, it corresponds and is regarded as a color-matched part. As a result, the characteristic color ref (1) at point A and the approximate color portion are extracted.
[0125]
For the feature color ref (2) at point B and the feature color ref (3) at point C, similar color portions are similarly extracted.
[0126]
These extracted characteristic color portions (position information) are superimposed on one still image frame n. The subject area of the still image frame n is defined (position specification). The process is performed for all the frames in the specified time range, and the defined subject area is overlapped for all the frames in the specified range. Then, a moving area of the subject image over a plurality of designated frames is obtained. The upper left x coordinate, upper left y coordinate (min_x, min_y), lower right x coordinate, lower right y coordinate (max_x, max_y) of the movement area are specified so that the movement area becomes a rectangle, and the movement area is finally The range of motion of the subject is detected.
[0127]
Referring to FIG. 21, first, the first still image frame to be processed is selected (step 204), it is determined whether or not the frame has been repeated until the end of the frame (step 206), and when the final frame is completed, the process proceeds to step 218. Otherwise, it is determined in step 208 whether or not the image area extraction for the feature color ref (i) is repeated, and if the extraction is completed, the process proceeds to step 214. If not completed, the color matching area within ref (i) and the color difference ΔC is extracted by the above-described method in step 210. Thereafter, the next characteristic color is set (step 212), and the process returns to step 208.
[0128]
In step 214, in the above-described example, the color matching areas for the characteristic colors of point A, point B, and point C are overlaid, and the subject area of the frame n is extracted. When this is completed, the next frame is targeted (step 216), and the process returns to step 206.
[0129]
In step 218, the subject areas of all designated frames are overlapped to obtain a moving area of the subject image. Then, the process proceeds to step 220, and the upper left x coordinate, upper left y coordinate (min_x, min_y), lower right x coordinate, lower right y coordinate (max_x, max_y) is specified and the moving area is finally defined and the process ends.
[0130]
The third step will be described. FIG. 22 is a flowchart showing the region cutout process. In this step, the image area of the movement range of the subject detected in the second step is cut out and a still image is synthesized.
[0131]
First, a target frame in which a moving area is defined is specified (step 222). The corresponding frame is read, and the defined moving area portion is cut out (step 224). The clipped image is output to the monitor (step 226). It is determined whether the target frame has ended (step 228). If not completed, the target frame in which another moving area is defined is specified (step 230), and the process returns to step 224. If yes in step 228, the process ends.
[0132]
After the image is cut out, for example, it is conceivable to combine the cut out still image as a divided photograph. In the synthesized image, the subject in each frame of the still image constituting the moving image is an enlarged image as compared with a normal divided photograph, so that the subject to be noticed can be seen larger and easier to see. Still images can be further synthesized from the divided photographs.
[0133]
Further, by superimposing the cut out still image images, it is possible to output a multi-exposure composite photograph or to combine it with an index image.
[0134]
As described above, according to this embodiment, it is possible to obtain an image centered on a subject to be noticed when, for example, a continuously photographed separated photograph image is printed.
[0135]
In addition, since the movement of the subject of interest is known during the attention frame period of the moving image, it is easy to cut out the frame area to be printed with the decomposed photograph.
[0136]
Furthermore, even when the extracted photograph extraction region cannot be automatically cut out automatically by operations such as rect_min_x, rect_min_y, rect_max_x, rect_max_y that define the coordinates of the upper left corner and the lower right corner of the rectangle, the reference image R [x, y ], G [x, y], and B [x, y], it is possible to easily specify an area to be manually cut out.
[0137]
According to the first embodiment described above, a necessary frame of a MOTION JPEG moving image is cut out, converted into an MPEG file, compressed, and the instruction information of the image composition method is created by the client personal computer 2 to create a moving image / print server. Therefore, a desired composition method can be set on the client side, and uploading can be performed with little transmission traffic when transmitting to the moving image / print server 30. Furthermore, by executing the image synthesis process with high added value on the moving image / print server 30, it is possible for the user to obtain a print that has undergone the image synthesis process with high added value.
[0138]
According to the second embodiment described above, the moving image data stored in the image server 54 is downloaded to the client personal computer 2, and the still image is displayed on the image server 54 with respect to the image frame designated from the client personal computer 2 and by the synthesis instruction information. Since they can be combined, it is possible to obtain a still image print with a desired quality for a desired frame even for a moving image obtained via a network.
[0139]
【The invention's effect】
According to the first aspect of the present invention, since the file converted into the upload file and the instruction information of the image composition method are created on the client side and uploaded to the server, a desired composition method can be set on the client side. When sending to, you can upload a file that considers the transmission speed.
[0140]
According to the second aspect of the present invention, a high-value-added image composition process is performed by the server-side image processing apparatus, so that the user can finally obtain a print that has been subjected to the image-value-added image composition process. be able to.
[0141]
According to the sixth aspect of the present invention, since the still image can be synthesized with the frame specified by the image processing apparatus on the client side and the synthesis instruction information from the moving image data stored in the server, the synthesized still image desired by the user is displayed. Obtained in high quality.
[0142]
According to the present invention of claim 7, since the moving image data is received from the server and reproduced, and the desired frame and composition method are designated from the image processing apparatus on the client side, the moving image data obtained via the network is also liked. It is possible to obtain a still image print that is synthesized by a desired synthesis method for a simple frame.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic overall configuration of a moving image print ordering system according to a first embodiment.
FIGS. 2A to 2C show still image composite images when a predetermined range of a moving image is cut out and the cut out frames are combined in the form of a disassembled photo, multiple exposure, and overlay composition, respectively. Figure.
FIG. 3 is a block diagram showing a hardware configuration of a client personal computer.
FIG. 4 is a block diagram showing a hardware configuration of a moving image / print server.
FIG. 5 is a flowchart showing a flow in which a user designates information about a portion to be combined and an image combining method from a moving image file of moving image data stored in a hard disk device.
FIG. 6 is a flowchart showing a flow of uploading an image file, an image composition method, and order information to a moving image / print server.
FIG. 7 is a diagram showing a list of continuously shot images on a client personal computer.
FIG. 8 is a flowchart showing a flow from designation of a continuous shot image to uploading to a moving image / print server.
FIG. 9 is a flowchart showing a flow from when image data or the like is uploaded to when a completed print is sent to a user or a photo shop.
FIG. 10 is a diagram showing an overall configuration of a moving image print ordering system according to a second embodiment.
FIG. 11 is a flowchart showing a flow from when a user downloads moving image data stored in an image server to a client personal computer and designates and transmits a frame, an image combining method, and order information of a moving image file. .
FIG. 12 is a flowchart of the operation of the image server when downloading moving image data to the client personal computer, and the image server after the moving image frame designation information, the image composition method designation information, and the order information are transmitted from the client personal computer to the image server. The flowchart which showed the flow of operation | movement of.
FIG. 13 is a flowchart showing the flow of a subject overlay image composition method.
FIG. 14 is a creation image diagram of a composite image obtained by adding and combining images of a plurality of main subjects at the same position.
FIG. 15 is a diagram used for explaining a method of adding and synthesizing an image of a main subject by shifting.
FIG. 16 is a creation image diagram of a synthesized image obtained by shifting and overlaying images of a plurality of main subjects.
FIG. 17 is a diagram showing a schematic process until a still image in which a subject of interest is enlarged is synthesized from moving image data of a moving image file.
FIG. 18 is a view showing a feature color designation method in the first step.
FIG. 19 is a flowchart showing a flow of a feature color extraction process in the first process.
FIG. 20 is a conceptual diagram showing an image area extraction processing step.
FIG. 21 is a flowchart of an image area extraction processing step.
FIG. 22 is a flowchart showing an area cutout process.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Movie print order system, 2 ... Client personal computer, 8 ... Communication interface, 10 ... CPU, 12 ... Main memory, 14 ... Hard disk drive, 18 ... Display memory, 20 ... Monitor device, 22 ... Keyboard, 24 ... Mouse, 26 ... Controller, 28 ... Bus, 30 ... Movie / print server, 32 ... Hard disk device, 34 ... CPU, 36 ... Working memory, 38 ... Movie processing unit, 40 ... Print unit, 42 ... Communication interface, 44 ... Still image storage memory , 46 ... still image composition unit, 48 ... composite still image sending unit, 50 ... bus, 52 ... movie print ordering system, 54 ... image server, 56 ... lab server, 58 ... movie storage memory, 60 ... hard disk device, 62 ... movie Cutout unit, 64 ... Still image composition unit, 66 ... CPU, 68 ... Still image storage memory, 7 ... Video compression unit, 71 ... Work memory, 72 ... Synthetic still image sending unit, 73 ... Bus, 74 ... Communication interface, 76 ... Communication interface, 78 ... CPU, 80 ... Synthetic still image storage memory, 82 ... Hard disk device, 83 ... Bus, 84 ... Photo printer subsystem, 86 ... Subject feature color extraction process, 88 ... Image area extraction process, 90 ... Area cutout process, 92 ... Frame designation screen, 94 ... Print order data input screen

Claims (11)

動画データを処理すると共にネットワークを介してサーバに接続された画像処理装置であって、
動画データを読み込む読み込み手段と、
前記読み込み手段によって読み込んだ動画データの動画ファイルから画像合成したい部分及び画像合成方法の情報を指定する指定手段と、
前記指定された画像合成したい部分を前記動画ファイルから切り出し、アップロード用ファイルに変換する変換手段と、
アップロード用ファイルに変換されたファイル及び画像合成方法の指示情報をサーバにアップロードするアップロード手段と、からなる画像処理装置。
An image processing apparatus that processes video data and is connected to a server via a network,
Reading means to read video data,
A designation unit for designating information on a portion to be synthesized and an image synthesis method information from the movie file of the movie data read by the reading unit;
A conversion unit that cuts out the portion of the designated image to be combined from the video file and converts it into an upload file;
An image processing apparatus comprising: an upload unit that uploads a file converted into an upload file and instruction information on an image composition method to a server.
クライアントサイドの画像処理装置とネットワークを介して接続されたサーバ機能を有する画像処理装置であって、
クライアントサイドの画像処理装置から送信されたアップロード用ファイル及び当該ファイルに対する画像合成方法の指示情報を受ける受け手段と、
前記受けたアップロード用ファイル及び画像合成方法の指示情報から、静止画合成画像を生成する生成手段と、
前記生成された静止画合成画像をクライアントサイドの画像処理装置に送信する送信手段と、からなる画像処理装置。
An image processing apparatus having a server function connected to a client-side image processing apparatus via a network,
Receiving means for receiving an upload file transmitted from the image processing apparatus on the client side and image synthesis method instruction information for the file;
Generating means for generating a still image composite image from the received upload file and the instruction information of the image composition method;
An image processing apparatus comprising: transmission means for transmitting the generated still image composite image to a client-side image processing apparatus.
前記変換手段は、アップロード用ファイルに変換する方法として、フレーム差分を基にした画像記録形式のファイルに変換する方法を用いる請求項1の画像処理装置。The image processing apparatus according to claim 1, wherein the conversion unit uses a method of converting into an image recording format file based on a frame difference as a method of converting into an upload file. 前記画像合成方法は、注目被写体を貼り合せ合成する方法からなる請求項1〜3のいずれか1項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image composition method includes a method of combining and synthesizing a subject of interest. 前記画像合成方法は、合成時に注目被写体の位置情報を確保して当該位置情報を基に注目被写体を位置特定する方法を含む請求項1〜4のいずれか1項に記載の画像処理装置。5. The image processing apparatus according to claim 1, wherein the image composition method includes a method of securing position information of a subject of interest at the time of composition and specifying a position of the subject of interest based on the position information. クライアントサイドの画像処理装置とネットワークを介して接続されたサーバ機能を有する画像処理装置であって、
動画データを格納する格納手段と、
前記格納手段に格納されている動画データの動画ファイルからクライアントサイドの画像処理装置によって指定された指定フレームを切り出す切り出し手段と、
クライアントサイドの画像処理装置によって指定された指定フレームの情報及び当該指定フレームの画像を合成する画像合成方法の指示情報を受ける受け手段と、
前記切り出し手段によって切り出された指定フレームと前記画像合成方法の指示情報とから静止画を合成する合成手段と、
動画データ、静止画データ、合成した静止画のプリント注文データの各データを送受信する送受信手段と、からなる画像処理装置。
An image processing apparatus having a server function connected to a client-side image processing apparatus via a network,
Storage means for storing video data;
Clipping means for cutting out a designated frame designated by a client-side image processing device from a moving image file of moving image data stored in the storage means;
Receiving means for receiving information on a designated frame designated by the image processing apparatus on the client side and instruction information on an image synthesis method for synthesizing the image of the designated frame;
Synthesizing means for synthesizing a still image from the designated frame clipped by the clipping means and the instruction information of the image synthesizing method;
An image processing apparatus comprising: transmission / reception means for transmitting / receiving data of moving image data, still image data, and print order data of a synthesized still image.
動画データを処理すると共にネットワークを介してサーバに接続された画像処理装置であって、
サーバからの動画データを受信する受信手段と、
前記受信手段によって受信した動画データを再生する再生手段と、
前記動画データの動画ファイルから切り出すフレームを指定する指定フレーム情報及び当該指定フレームの画像を合成する画像合成方法を指示する指示情報を生成する生成手段と、
前記指定フレーム情報及び指示情報並びに合成された画像のプリント注文データを前記サーバに送信する送信手段と、からなる画像処理装置。
An image processing apparatus that processes video data and is connected to a server via a network,
Receiving means for receiving video data from the server;
Playback means for playing back the moving image data received by the receiving means;
Generating means for generating designation frame information for designating a frame to be cut out from the movie file of the movie data and instruction information for instructing an image synthesis method for synthesizing an image of the designated frame;
An image processing apparatus comprising: transmission means for transmitting the designated frame information and instruction information and print order data of the synthesized image to the server.
前記画像処理装置は、プリント手段を有し、当該プリント手段は、
前記合成手段によって合成された静止画及びプリント注文データを受けるデータ受け部と、
前記データ受け部で受けた静止画をプリントするプリント部と、からなる請求項6の画像処理装置。
The image processing apparatus includes a printing unit, and the printing unit includes:
A data receiving unit for receiving still images and print order data combined by the combining unit;
The image processing apparatus according to claim 6, further comprising: a printing unit that prints a still image received by the data receiving unit.
前記合成手段は、フレーム差分を基にした画像記録形式の合成方法を用いる請求項6の画像処理装置。The image processing apparatus according to claim 6, wherein the synthesizing unit uses an image recording format synthesis method based on a frame difference. 前記画像合成方法は、注目被写体を貼り合せ合成する方法からなる請求項6又は7に記載の画像処理装置。The image processing apparatus according to claim 6, wherein the image composition method includes a method of combining and synthesizing a subject of interest. 前記画像合成方法は、合成時に注目被写体の位置情報を確保して当該位置情報を基に注目被写体を位置特定する方法を含む請求項6又は7に記載の画像処理装置。The image processing apparatus according to claim 6, wherein the image composition method includes a method of securing position information of a subject of interest at the time of composition and specifying a position of the subject of interest based on the position information.
JP2002373552A 2002-12-25 2002-12-25 Image processing apparatus Pending JP2004207936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002373552A JP2004207936A (en) 2002-12-25 2002-12-25 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002373552A JP2004207936A (en) 2002-12-25 2002-12-25 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2004207936A true JP2004207936A (en) 2004-07-22

Family

ID=32811800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002373552A Pending JP2004207936A (en) 2002-12-25 2002-12-25 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2004207936A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028331A (en) * 2005-07-19 2007-02-01 Casio Comput Co Ltd Image generating apparatus and program thereof
JP2008021110A (en) * 2006-07-12 2008-01-31 Sony Corp Image processor, image processing procedure, and program
JP2008167220A (en) * 2006-12-28 2008-07-17 Canon Inc Image processing apparatus and method, and program and recording medium
JP2011072034A (en) * 2008-12-16 2011-04-07 Casio Computer Co Ltd Imaging apparatus, image processing method and program
JP2011172103A (en) * 2010-02-19 2011-09-01 Olympus Imaging Corp Image generating apparatus
JP2014096849A (en) * 2014-02-12 2014-05-22 Olympus Imaging Corp Image generating apparatus, image generating method, image generating program and image generating system
JP2015073325A (en) * 2014-12-26 2015-04-16 オリンパスイメージング株式会社 Image generation device, image generation method, image generation program, and image generation system
CN105335925A (en) * 2014-07-30 2016-02-17 北京畅游天下网络技术有限公司 Picture clipping method and browser device
US10397467B2 (en) 2017-03-01 2019-08-27 Olympus Corporation Imaging apparatus, image processing device, imaging method, and computer-readable recording medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007028331A (en) * 2005-07-19 2007-02-01 Casio Comput Co Ltd Image generating apparatus and program thereof
JP4553134B2 (en) * 2005-07-19 2010-09-29 カシオ計算機株式会社 Image generating apparatus and program thereof
JP2008021110A (en) * 2006-07-12 2008-01-31 Sony Corp Image processor, image processing procedure, and program
JP2008167220A (en) * 2006-12-28 2008-07-17 Canon Inc Image processing apparatus and method, and program and recording medium
JP2011072034A (en) * 2008-12-16 2011-04-07 Casio Computer Co Ltd Imaging apparatus, image processing method and program
JP2012199964A (en) * 2008-12-16 2012-10-18 Casio Comput Co Ltd Imaging apparatus, image processing method, and program
JP2011172103A (en) * 2010-02-19 2011-09-01 Olympus Imaging Corp Image generating apparatus
JP2014096849A (en) * 2014-02-12 2014-05-22 Olympus Imaging Corp Image generating apparatus, image generating method, image generating program and image generating system
CN105335925A (en) * 2014-07-30 2016-02-17 北京畅游天下网络技术有限公司 Picture clipping method and browser device
JP2015073325A (en) * 2014-12-26 2015-04-16 オリンパスイメージング株式会社 Image generation device, image generation method, image generation program, and image generation system
US10397467B2 (en) 2017-03-01 2019-08-27 Olympus Corporation Imaging apparatus, image processing device, imaging method, and computer-readable recording medium

Similar Documents

Publication Publication Date Title
US8934627B2 (en) Video event capture, storage and processing method and apparatus
JP2004128607A (en) Portable telephone
JP2004015288A (en) System and method for creating screen saver
JP2013131878A (en) Image processing device, image processing method, and program
JP4340836B2 (en) Image composition apparatus and image composition program
JP2004207936A (en) Image processing apparatus
JP4115177B2 (en) Image processing method, image processing apparatus, and image processing program
JP5596844B2 (en) Image processing apparatus, image processing system, and image processing method
US10681122B2 (en) Method and apparatus for converting content using cloud
US9779306B2 (en) Content playback system, server, mobile terminal, content playback method, and recording medium
US8395669B2 (en) Image data transmission apparatus and method, remote display control apparatus and control method thereof, program, and storage medium
JP2019071587A (en) CV writing system
JP2023153790A (en) program
JP2004208277A (en) Image processing apparatus, electronic camera, and program
US8090872B2 (en) Visual media viewing system and method
JP2004266343A (en) Image server and image server system, program for the same, and recording medium
JP2006180403A (en) Information processing apparatus
JP2000216985A (en) Digital watermark embedding device and method and recording medium for storing digital watermark embedding program and digital camera and method for controlling the same
JP2001358927A (en) Image processing system and image processing method
JP5229210B2 (en) Movie generation system, movie display method, and web server
JP2007104109A (en) Image photographing apparatus
JP5409852B2 (en) Virtual landscape display device and virtual landscape display method
JP2003348335A (en) Image processing method, image processing apparatus, and image processing program
JP7408923B2 (en) Print production device and mosaic image generation device
US20040151402A1 (en) Image processing program products allowing a read original to be used in a computer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050318

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080627

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080924