JP2004258843A - Image management system - Google Patents

Image management system Download PDF

Info

Publication number
JP2004258843A
JP2004258843A JP2003046911A JP2003046911A JP2004258843A JP 2004258843 A JP2004258843 A JP 2004258843A JP 2003046911 A JP2003046911 A JP 2003046911A JP 2003046911 A JP2003046911 A JP 2003046911A JP 2004258843 A JP2004258843 A JP 2004258843A
Authority
JP
Japan
Prior art keywords
image data
date
unit
image
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003046911A
Other languages
Japanese (ja)
Inventor
Koji Yokouchi
康治 横内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003046911A priority Critical patent/JP2004258843A/en
Publication of JP2004258843A publication Critical patent/JP2004258843A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently manage image data obtained by converting a photographic image photographed on a photographic film. <P>SOLUTION: Only when an addition processing part 26 of a PC1 is directed to generate average image data by a user through an input part 2, the addition processing part 26 adds the image data S (S1, S2, etc.) obtained by converting the photographic image photographed on one roll of photographic film, and takes an average to obtain the average image data Sc. A compression part 28 compresses the image data S (also the average image data Sc when the average image data Sc is generated). In the case that a compression average image data S'c obtained by compressing the average image data Sc of the image data S are present when a communication part 40 transmits compression image data S' obtained by compressing the image data S to a server 100, the communication part 40 also transmits the compression average image data S'c. The server 100 executes date recognition to only the compression image data S' attached with the compression average image data S'. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、写真フィルムに撮影された写真画像を変換して得た画像データを管理する画像管理システムに関するものである。
【0002】
【従来の技術】
近年、大容量記録媒体の低価格化に伴い個人が多量のデータを保存できるようになり、電子アルバムのような多量の画像データの保存、管理を行うシステムを個人が所有することが可能になっている。また、インターネットなどの普及に伴い、ユーザが端末装置を用いてネットワーク上のサーバ装置にアップロードした画像データを例えば電子アルバムのように管理するサービスも提供されている。これらの管理システムに求められる機能として、デジタルカメラで撮像されたデジタル画像だけを管理するのではなく、銀塩写真などの既存の写真をデジタル化して保存、管理することがある。デジタル化することで管理が容易になり、経年劣化もなくなるという利点がある。
【0003】
また、銀塩写真をデジタル化するために必要なスキャナなどの装置を所有していないユーザ、または個人所有のスキャナにより取得したデジタル画像の画質に満足できないユーザのために、ラボなどのサービス店によりユーザの既存の写真をデジタル化して高画質なデジタル画像の画像データを取得してサーバ装置にアップロードし、サーバ装置によりこれらの画像データを管理して後にユーザが端末装置からのアクセスに応じて提供するサービスもある。
【0004】
多量の写真の画像データを管理するには、後に使用する時の検索、閲覧が簡単かつ直感的に分かる分類法が必要となる。この分類法としては、日付を使用する方法が最も実用的であり、例えば、特許文献1に記載されているように、日付順に画像データを記録する電子アルバムの技術が提案されている。しかし、この技術では人手による入力が必要であり、利用者に負担をかけるため、実用的には却って不便になるという問題がある。
【0005】
また、利用者に負担をかけず、撮影日による写真の画像データの自動分類方法として、例えば、銀塩フィルム写真では、撮影日の文字を被写体像に一部重複させて撮影させることが一般的に行われていることを利用し、写真フィルムまたは写真プリントをスキャナによって写真画像データに変換して保管する場合に、写真画像に写し込まれた撮影日を自動認識して日付情報として画像データに付与する方法も提案されている。例えば、特許文献2に記載されているように、写真画像における日付の文字は通常写真の4隅のいずれかに撮影されていることを利用し、写真の4隅の所定の注目領域を日付位置候補領域として順次走査して日付の検出を行って日付位置を判断し、判断された日付位置において日付文字の認識を行う方法が提案されている。
【0006】
【特許文献1】
特開平6−251083号公報
【0007】
【特許文献2】
特開2000−184168号公報
【0008】
【発明が解決しようとする課題】
しかしながら、近年、インフラの整備およびネットワーク技術の発展に伴い、ネットワーク接続形態は、従来の主流だったナローバンドからブロードバンドに移行しつつあり、データの転送速度が速くなると共に、ユーザの端末装置は常時ネットワークに接続されていることも普通となっている。そのため、ユーザは接続時間などを気にすることなく気軽に多量の画像データをアップロードすることが可能となった。このような状況において、ユーザが一時的に保管してもらう目的で画像データをアップロードすることもあるため、全ての画像データを系統的に管理する必要がない場合もある。撮影の日付で画像データを管理するシステムにおいては、デジタルカメラで撮影して得た画像データの場合は、画像データに撮影日などの情報が付属されているので、日付情報を取得するのに時間がかからないが、フィルムに撮影した写真画像を変換して得た画像データには日付情報が付属されておらず、画像データを解析したりなどして取得する必要がある。そのため、日付情報を取得する必要のない画像データに対しても日付情報の取得を行うと、時間もコストもかかり、結果的にユーザに負担をかけるという問題がある。
【0009】
この問題は、ラボ店などのサービス店を介して画像データをアップロードするサービスを提供するシステムにおいても同様に存在する。
【0010】
本発明は、上記事情に鑑みてなされたものであり、アップロードされたユーザの画像データ、より具体的にはフィルムに撮影した写真画像を変換して得た画像データを効率良く管理することができる画像管理システムを提供することを目的とするものである。
【0011】
【課題を解決するための手段】
本発明の画像管理システムは、サーバ装置と、該サーバ装置とネットワークにより接続された送信装置および指示装置とからなる画像管理システムであって、前記送信装置が、1本の写真フィルムに撮影された複数の写真画像を夫々変換して得た複数の画像データを前記サーバ装置に送信するものであり、
前記指示装置が、前記複数の画像データに対して、前記写真画像に写し込まれた日付文字の認識を行うか否かを前記サーバ装置に指示するものであり、
前記サーバ装置が、前記指示装置により前記日付文字の認識を行うように指示されたときにのみ前記複数の画像データに対して日付文字の認識を行う日付認識手段と、
前記日付認識手段により日付認識された前記複数の画像データの日付に基づいて前記複数の画像データを管理する管理手段とを備えたことを特徴とするものである。
【0012】
すなわち、本発明の画像管理システムにおいて、サーバ装置は、送信装置からアップロードした全ての画像データに対して日付文字の認識を行う代わりに、ユーザが指示装置を介して日付文字の認識を行うように指示した前記複数の画像データのみに対して日付文字の認識を行うようにするものである。
【0013】
ここで、サーバ装置に前記複数の画像データを送信する送信装置とこれらの画像データに対して日付認識を行うか否かの指示を行う指示装置は、同じ端末装置(例えばサーバ装置とネットワークにより接続されたコンピュータなど)に備えられた送信手段と指示手段であってもよいし、送信装置はラボなどのサービス店の端末装置に備えられた送信手段であって、指示装置は、送信手段が備えられた端末装置と異なる端末装置に備えられた指示手段であってもよい。すなわち、前記複数の写真画像をサーバ装置に送信する処理と、前記指示を行う処理とを、同じ端末装置を用いて行うように本発明の画像管理システムを構成するようにしてもよいし、写真画像をサーバ装置に送信する処理をサービス店の端末装置を用いて行う一方、送信された写真画像に対して日付認識を行うか否かの指示を行う処理をユーザ自身の端末などの他の端末装置を用いて行うようにしてもよい。
【0014】
ここで、本発明における「写真画像」は、写真フィルムに記録された状態の写真画像であってもよいし、既にプリントされた写真プリントの写真画像であってもよい。
【0015】
また、「ネットワーク」とは、インターネットを代表とする既存の広域ネットワークを含むことは勿論、企業内WAN(ワイド・エリア・ネットワーク)や、LAN(ローカル・ネットワーク)など、いかなる私設のネットワークも含むものである。
【0016】
また、「画像データの日付に基づいて」画像データを管理することとは、例えば、撮影日付別に管理したり、撮影日付を検索のキーワードにしたサービスを提供したりするなど、撮影日付を利用したいかなるサービスであってもよい。
【0017】
日付文字の認識を行うためには、前記複数の写真画像における日付文字の位置情報をまず取得する必要があり、本発明の画像管理システムにおいて、前記指示装置は、前記写真画像に写し込まれた日付文字の位置範囲を指示する日付位置指示手段を備え、前記サーバ装置の前記日付認識手段は、前記日付位置指示手段により指示された位置範囲において日付認識を行うようにするものとすることができる。
【0018】
さらに、本発明のサーバ装置における前記日付認識手段は、1本のフィルムに撮影した写真画像を変換して得た複数の画像データから夫々の写真画像の撮影した日付を検出できるものであればいかなるものでもよく、例えば、前述した特許文献2に記載した方法を用いて日付文字の認識を行うものであってもよいが、前記複数の画像データを加算して得た加算画像データを用いて日付認識、具体的には前記加算画像データを用いて日付文字の位置を検出して日付認識を行うようにするものであることが好ましい。
【0019】
ここで、「加算画像データ」とは、前記複数の画像データの同じ部位の画素のデータ値を加算して得た画像データのことであり、「データ値」とは、R,G,B値とすることができる。
【0020】
また、「加算処理」とは、単純加算であっても良いし、単純加算した後に平均処理を行う演算処理であってもよい。
【0021】
また、加算処理の対象となる前記複数の画像データは、処理対象となる写真フィルムに撮影された全ての写真画像の画像データであってもよいし、一部分の画像データであってもよい。一部分の画像データを用いる場合、目視などにより、日付文字が明瞭に写し込まれた写真画像の画像データを採用することが好ましい。
【0022】
1本の写真フィルムに撮影された写真画像においては、被写体像は様々であるが、日付文字の位置(日付位置)、色、形状はほぼ一定である。この特性を利用して、日付位置の検出を行うことができる。具体的には、例えば、1本の写真フィルムに撮影された複数の写真画像を表す画像データの各画素を構成する色データR、G、Bを画素毎に加算し、加算画像データを構成する各画素の色データを得る。前述のように、1本の写真フィルムに撮影された写真画像における被写体像はコマ毎に異なるが、日付文字部分の色、位置はほぼ不変であるため、加算画像データにおいては、日付文字部分以外の画素の色データはグレーに近い色を示すデータとなるが、日付文字部分の画素の平均色データは日付文字の独自な色合い(例えば赤、黄色)が強いことを示すデータとなる。本発明の画像管理システムのサーバ装置における前記日付認識手段は、加算画像データの各画素の色データを用いて、日付文字の独自な色を呈する画素を検出して、これらの画素の位置を各々の写真画像の日付位置とするようにして日付位置を検出して日付認識を行うものとすることができる。
【0023】
また、日付文字の独自な色を呈する画素を検出することだけによっても、日付文字の位置を検出することができるが、写真撮影に使用されたカメラの機種などに基づいて、日付文字の形状、サイズなどを特定し、日付文字の独自な色以外に、日付文字部分の形状、サイズからさらに日付文字部分の画素を絞ることによって、日付位置の検出をより正確に行って日付認識を行うようにしてもよい。
【0024】
また、本発明の画像管理システムのサーバ装置における前記日付認識手段は、前記加算画像データを用いて日付認識を行うものである場合、前記複数の画像データに対して加算処理を行って加算画像データを取得する加算手段を本発明の画像管理システムの送信装置に備え、前記送信装置により前記複数の画像データと共に前記加算画像データをも前記サーバ装置に送信するようにすることが好ましい。
【0025】
【発明の効果】
本発明の画像管理システムによれば、サーバ装置は、写真フィルムに撮影された複数の写真画像を夫々変換して得た複数の画像データを管理する際に、指示装置により、これらの複数の画像データに対して日付認識を行うように指示された場合にのみ前記複数の画像データに対して日付認識を行うようにしているので、ユーザにとって日付認識を行う必要のない画像データに対して日付認識を行う手間を省き、時間とコストを節約することができるので、効率が良い。
【0026】
また、指示装置に、写真画像に写し込まれた日付文字の位置範囲を指示する日付位置指示手段を備え、サーバ装置の日付認識手段は、指示された位置範囲において日付認識を行うようにすると、日付認識手段において日付位置の検出を行う必要がないので、日付認識にかかる時間を短くすることができる。
【0027】
また、本発明の画像管理システムにおけるサーバ装置の日付認識手段は、1本の写真フィルムに撮影された複数の写真画像において、被写体像がコマ毎に異なるが、日付文字の位置、色、形状などはほぼ一定であることを利用し、これらの複数の写真画像の画像データの加算画像データから日付文字部分の画素を検出することによって日付位置を判断して日付認識を行うようにすれば、確実に日付位置を検出することができ、ひいては日付認識を確実に行うことができる。また、画像データは普通圧縮されて保存、送信されるので、送信装置側において、圧縮前の画像データから加算画像データを作成してから圧縮してサーバ装置側に送信するようにすれば、この場合、サーバ側において、各々の圧縮された画像データを解凍して加算画像データを作成する必要がないので、処理時間を短縮することができ、効率が良い。
【0028】
【発明の実施の形態】
以下、図面を参照して、本発明の実施形態について説明する。
【0029】
図1は、本発明の第1の実施形態となる画像サービスシステムAの構成を示すブロック図である。
【0030】
図1に示すように、本実施形態の画像サービスシステムAは、端末装置となるPC1と、サーバ100とからなり、PC1とサーバ100とは、ネットワーク(ここではインターネット150とする)により接続されている。
【0031】
図2は、図1に示す画像サービスシステムAにおける端末装置PC1の構成を示すブロック図である。図示のように、端末装置PC1は、同じ写真フィルムに撮影された複数の写真画像T(T1,T2,T3,...Tn n:n:写真画像の個数)をスキャンしてRGB画像データである画像データS(S1,S2,S3,...Sn)に変換するフィルムスキャナ10と、フィルムスキャナ10により写真画像Tを変換して得た画像データSを一時記憶するメモリ20と、メモリ20により一時記憶された画像データSの各々の画像データを加算したうえで平均処理を行って平均画像データScを取得する加算処理部26と、画像データS(S1,S2,S3,...Sn)と平均画像データScとに対して夫々圧縮処理を施して圧縮画像データS’(S’1,S’2,S’3,...S’n)と圧縮平均画像データS’cを得る圧縮部28と、圧縮画像データS’と圧縮平均画像データS’cとを保存する保存部30と、サーバ100と通信を行い、保存部30により保存された圧縮画像データS’と圧縮平均画像データS’cをサーバ100に送信可能な通信部40と、ユーザが各種の指示の入力を行うためのキーボードやマウスなどからなる入力部2と、入力部2により入力された指示に従ってPC1の動作を制御する制御部4とを備えたものである。
【0032】
入力部2において、フィルムスキャナ10を起動させる指示などができると共に、加算処理部26に平均画像データScを作成させるか否かの指示も行うことができる。
【0033】
加算処理部26は、入力部2においてユーザが加算画像データを作成するように指示されたときにのみ平均画像データScを作成するものである。加算処理は具体的には、各々の画像データS1、S2、S3、...Snの各画素(その位置を(x,y)とする)のR、G、B値を画素毎に加算したうえで平均値を取り、画素毎の平均色データRci(x,y)、Gci(x,y)、Bci(x,y)(i:1,2,3...m,m:1つの画像データの総画素数)を得ることによってこれらの画素により構成される平均画像データScを得る処理である。また、加算処理部26によって平均画像データScが作成された場合、保存部30は、画像データSの圧縮データと平均画像データScの圧縮データとを対にして保存する。
【0034】
通信部40は、入力部2を介して送信指示が入力されたとき、保存部30から圧縮画像データS’をサーバ100に送信するものであり、圧縮平均画像データS’cがある場合には、圧縮平均画像データS’cをも一緒にサーバ100に送信する。
【0035】
圧縮部28は、入力されてきた画像データ(画像データSの各々の画像データまたは平均画像データSc)に対して圧縮処理を行うものであり、この圧縮処理は例えばJPEG圧縮処理とすることができる。
【0036】
なお、上述したフィルムスキャナ10、加算処理部26、圧縮部28、保存部30、通信部40の動作は、制御部4により制御される。
【0037】
図3は、図1に示す画像サービスシステムAにおけるサーバ100の構成を示すブロック図である。図3(a)に示すように、本実施形態のサーバ100は、PC1から送信されてきた画像データ(圧縮画像データS’または圧縮画像データS’と圧縮平均画像データS’c。以下同じ)を受信するなど、PC1と通信を行うための通信部50と、受信した画像データを一時的に記憶するメモリ55と、画像データに圧縮平均画像データS’cがあるときに日付認識を行って日付情報と後述するサービス提供部80に出力する日付認識部60と、日付認識が行われた圧縮画像データS’(S’1,S’2、S’3,...S’n)と日付情報D(D1,D2,D3,...Dn)とを対応付けて保存すると共に、端末装置PC1に対して日付による画像データの検索などのサービスを通信部50を介して提供する一方、日付認識が行われなかった圧縮画像データS’をそのまま保存するサービス提供部80とを備えてなるものである。
【0038】
図3(b)は、図3(a)に示すサーバ100における日付認識部60の構成を示すブロック図である。図示のように、日付認識部60は、通信部50を介して受信した、メモリ55に一時記憶された圧縮画像データS’に圧縮平均画像データS’cが付属されているか否かを確認し、圧縮平均画像データS’cが付属されていれば、この圧縮平均画像データS’cに対して端末装置PC1により日付認識を行うように指示されたとして、後述する日付位置検出部62、認識順位推定部64、日付抽出部66、日付推定部68に圧縮画像データS’の日付認識を行せる一方、圧縮平均画像データS’cが付属されていない圧縮画像データS’に対して日付認識を行せないように制御する制御部61と、圧縮平均画像データS’cを解凍して得た画像データ(以下平均画像データAという)を用いて写真画像Tに写し込まれた日付の位置を検出する日付位置検出部62と、各々の圧縮画像データS’(S’1、S’2、S’3、...S’n)を解凍して得た画像データ(以下画像データP(P1,P2,P3,...Pn)という)から日付情報を抽出する順位を推定する認識順位推定部64と、この順位が高い画像データPから日付情報を抽出する日付抽出部66と、日付抽出部66により日付情報を抽出されない画像データPの日付情報を推定する日付推定部68とからなるものである。
【0039】
日付位置検出部62は、1つの写真フィルムに撮影された複数の写真画像において、被写体像が様々であるが、日付文字の色、位置、形状がほぼ一定であることを利用して、平均画像データAを用いて日付位置の検出を行う。1つの写真フィルムに撮影された写真画像における被写体像は、ゴマ毎に異なるが、日付文字部分の色、位置がほぼ不変であるため、日付文字部分以外の画素の平均色データは、グレーに近い色を示すデータとなるが、日付文字部分の画素の平均色データは、日付文字の独自な色合い(例えば赤、黄色)が強いことを示すデータとなる。本実施形態におけるサーバ100の日付位置検出部62は、平均画像データAの画素毎の色データを用いて、日付文字の独自な色を強く呈する画素を検出して、これらの画素の位置を各々の写真画像の日付位置とする。
【0040】
認識順位推定部64は、日付位置検出部62により検出した日付位置における背景の平坦さおよび黒さに基づいて日付認識の順位を推定するものである。
【0041】
図4は、写真画像における日付認識の難易さと背景の関係を示す図である。図示の写真画像の日付部分の背景は左からの順番で、平坦かつ黒い、平坦かつ明るい、複雑かつ明るいようになっていて、目視でも分かるように、日付文字の認識も、左の画像から右の画像へ、難しくなっていく。本実施形態において、認識順位推定部64は、この特性、すなわち、日付文字部分の背景は平坦かつ黒いほど、認識はし易くなることを利用し、画像データP1、P2、P3、...Pnに対して認識のし易さで認識順位を付ける。図5は、認識順位推定部64が日付認識の順位を推定する動作を説明するための図であり、図示の斜線部分は、日付位置部分の背景部分(図示では、日付位置部分を含んだ幅W、高さHの長方形の範囲となる)である。認識順位推定部64は、まず、日付文字部分の画素を除いた背景部分の各画素の濃度Qを計算し、下記の式(1)を用いて各々の画像データP(P1、P2、...Pn)の日付文字部分の背景の明るさBi(i=1、2、3、...n)を計算すると共に、画像毎の背景部分の濃度分散値Gi(i=1、2、3、...n)を計算する。
【0042】
【数1】

Figure 2004258843
認識順位推定部64は、算出した各画像の背景の明るさBと濃度分散値Gに基づいて、明るさBと濃度分散値Gが低いほど、認識順位が高いように各々の画像データの認識優先順位を推定する。具体的には、例えば、明るさBが低いかつ濃度分散値Gが低い、明るさBが低いが濃度分散値Gが高い、明るさBが高いが濃度分散値Gが低い、明るさBが高いかつ濃度分散値Gが高いという順に、認識優先順位を付ける。
【0043】
日付抽出部66は、まず、認識優先順位が高い画像データから段階的に日付情報を抽出して、日付推定部68に出力する。日付推定部68は、これらの日付情報に基づいて日付情報未抽出の画像データの日付を推定する。抽出された日付情報および推定された日付情報Dは、制御部61によりメモリ55に一時記憶させられる。
【0044】
画像データPの全ての画像データに対して日付情報の抽出および推定が終了すると、制御部61は、メモリ55に記憶された画像データPの圧縮画像データS’と日付情報Dとを対応付けてサービス提供部80に出力させて、サービス提供部80により提供される検索や、閲覧などのサービスの提供に備える。
【0045】
以下、図6のフローチャートを利用して、図1に示す実施形態の画像サービスシステムAの動作をより詳しく説明する。
【0046】
図6のフローチャートに示すように、本実施形態の画像サービスシステムAにおいて、1本の写真フィルムに撮影された写真画像に対する処理は、PC1の入力部2を介してユーザがフィルムスキャナ10を動作させる指示をしたことに従って、制御部4はフィルムスキャナ10にこのフィルムに対するスキャンを行わせる(S10)ことから始まる。制御部4の制御に従って、フィルムスキャナ10は、1本の写真フィルムに撮影された全ての写真画像Tに対するスキャンを行って、画像データSを取得してメモリ20に一時記憶させる(S15:No、S10)。全ての写真画像Tに対するスキャンが終了すると(S15:Yes)、制御部4は、画像データSを圧縮部28に出力させると共に、ユーザに画像データSの平均画像データを作成するか否かの指示をユーザに行わせる(S20)。入力部2を用いてユーザが平均画像データを作成するように指示すると(S20:Yes)、制御部4は、メモリ20に一時記憶された画像データSを加算処理部26にも出力させ、加算処理部26は画像データSに対して加算平均処理を施して平均画像データScを作成して、圧縮部28に出力する(S25)。一方、ステップS20において、ユーザが入力部2を介して、平均画像データを作成しないように指示する(S20:No)と、制御部4は、加算処理部26に平均画像データの作成を行せずに、処理をステップS30に進める。圧縮部28は、画像データSの各々の画像データに対してJPEG圧縮処理を行って圧縮画像データS’を得、画像データSの平均画像データScがある場合には、平均画像データScに対してもJPEG圧縮を行って圧縮平均画像データS’cを得る(S30)。保存部30は、圧縮部28による取得した圧縮データ(圧縮画像データS’のみまたは、圧縮画像データS’と圧縮平均画像データS’c)を保存する(S35)。なお、保存部30は、圧縮画像データS’と圧縮平均画像データS’cを保存する際には、S’とS’cとを対応付けて対にして保存する。通信部40は、PC1のユーザにより、入力部2を介して送信指示があったとき、圧縮画像データS’(圧縮画像データS’の圧縮平均画像データS’cがあるときには、圧縮画像データS’と圧縮平均画像データS’c)をサーバ100に送信する(S40)。
【0047】
ステップS50からはサーバ100の動作である。図示のように、サーバ100は、通信部50によりPC1から圧縮画像データS’(または圧縮画像データS’と圧縮平均画像データS’c)を受信すると、これらの画像データをメモリ55に一時記憶させる(S50)。日付認識部60の制御部61は、メモリ55に一時記憶された圧縮画像データS’に圧縮平均画像データS’cが付属されているか否かを確認し(S55)、圧縮平均画像データS’cがないと(S55:No)、端末装置PC1から圧縮画像データS’(あるいは圧縮画像データS’の元となる画像データS)に対して日付認識を行わないように指示されたとし、圧縮画像データS’をそのままサーバ100のサービス提供部80に出力して保存させる(S100)。
【0048】
一方、ステップS55において、圧縮画像データS’に圧縮平均画像データS’cが付属されていると(S55:Yes)、日付認識部60の制御部61は、日付位置検出部62、認識順位推定部64、日付抽出部66、日付推定部68に日付認識を行わせ、圧縮画像データS’の各々の画像データの日付情報(すなわち、画像データSの各々の画像データの日付情報)Dを取得してサービス提供部80に出力する(S60)。この場合、サービス提供部80は、圧縮画像データS’と日付情報Dとを対応付けて保存し、後に日付情報をキーワードとする検索や、閲覧などのサービスを提供することに備える(S100)。
【0049】
図7は、日付認識部60の具体的な動作Qを示すフローチャートである。図示のように、日付認識部60において、まず、日付位置検出部62は、日付位置検出部62は、メモリ55に一時記憶された圧縮平均画像データS’cを解凍して平均画像データAを得ると共に、平均画像データを用いて前述した方法で日付の画素位置を検出して、認識順位推定部64およびメモリ55に送信する(S61)。認識順位推定部64は、メモリ55に一時記憶された圧縮画像データS’を解凍して画像データP(P1,P2,P3,...Pn)を得、日付位置検出部62により検出した日付位置における背景の明るさBおよび濃度分散値Gを画像データP毎に計算すると共に、画像データPに対して日付情報の抽出を行う優先順位を推定して、日付抽出部66およびメモリ55に送信する(S62)。日付抽出部66は、まず、優先順位の最も高い(i=1)画像データに対して、日付情報を抽出する(S63、S64)。日付推定部68は、日付抽出部66により抽出した日付情報を比較して、同一な日付情報があるか否かをチェックする(S65、S66)。同一な日付情報があり、かつ同一な日付情報を有する画像データPが、時系列的に離れた写真画像Tに対応するものであれば(S66:Yes、S67:Yes)、該写真画像Tに時系列的に挟まれた全ての写真画像Tに対応する画像データPにこの同一な日付情報を付与する(S68)。なお、抽出された日付情報および付与された日付情報は、画像データPと対応してメモリ55に保存される。優先順位が最も高い画像データPに対する日付情報の抽出および抽出された日付情報に基づいて日付情報の付与が終了すれば、または、ステップS66において、抽出した日付情報が、同一なものが無ければ(S66:No)、またはステップS67において、同一な日付情報を有する画像データPが、時系列的に相隣した写真画像Tに対応するものであれば(S67:No)、この場合、画像データPの各々の画像データP1,P2,P3,...Pnのうち、まだ日付情報が付与されていない画像データがあれば(S69:No)、次に順位の高い画像データに対して、日付抽出部66と日付推定部68によるステップS64からステップS68までの処理が行われる(S70、S64〜S68)。なお、ステップS64からステップS68までの処理は、画像データP1、P2、...Pnの全てが日付を付与される(S69:Yes)まで繰り返される。
【0050】
このように、本実施形態の画像サービスシステムAによれば、サーバ100は、写真フィルムに撮影された複数の写真画像を夫々変換して得た複数の画像データを端末装置PC1から受信して管理する際に、端末装置により、これらの複数の画像データに対して日付認識を行うように指示された場合にのみ前記複数の画像データに対して日付認識を行うようにしているので、ユーザにとって日付認識を行う必要のない画像データに対して日付認識を行う手間を省き、時間とコストを節約することができるので、効率が良い。
【0051】
また、本発明の画像サービスシステムAにおけるサーバ100の日付認識部60は、1本の写真フィルムに撮影された複数の写真画像において、被写体像がコマ毎に異なるが、日付文字の位置、色、形状などはほぼ一定であることを利用し、これらの複数の写真画像の画像データの加算画像データから日付文字部分の画素を検出することによって日付位置を判断して日付認識を行うようにしているので、確実に日付位置を検出することができ、ひいては日付認識を確実に行うことができる。また、画像データは普通圧縮されて保存、送信されるので、端末装置側において、圧縮前の画像データから加算画像データを作成してから圧縮してサーバ装置側に送信するようにすることによって、サーバ側において、各々の圧縮された画像データを解凍して加算画像データを作成する必要がないので、処理時間を短縮することができ、効率が良い。
【0052】
本実施形態の画像サービスシステムAにおいて、サーバ100は、端末装置PC1から送信されてきた圧縮画像データS’に圧縮平均画像データS’cが付属されていることを端末装置PC1から日付認識を行うように指示されたことにして(この場合、端末装置PC1において、平均画像データScを作成するか否かを指示するための入力部2は間接的に請求項記載の指示手段を兼ねることとなる)、圧縮平均画像データS’cが付属された圧縮画像データS’のみに対して日付認識を行うようにしているが、端末装置PC1からより直接的にサーバ100に日付認識を行うか否かを指示するようにしてもよい。例えば、サーバ100に画像データS(圧縮画像データS’)を送信する際にこの画像データSに対して日付認識を行うか否かの指示を示す情報を作成して画像データSと共に送信するようにしてもよいし、サーバ100側において、送信されてきた画像データの日付認識を行うか否かをPC1に問い合わせる手段を設け、PC1はこの問い合わせ手段の問い合わせに返答するようにして日付認識を行うか否かを指示するようにしてもよい。
【0053】
また、図1に示す実施形態の画像サービスシステムAにおいて、日付認識を簡単かつ確実に行うために、サーバ100の日付認識部60は、平均画像データから日付文字の位置を検出して日付認識を行うようにしているが、例えば、特許文献2記載の方法を用いてもよい。
【0054】
図8は、本発明の第2の実施形態となる画像サービスシステムBの構成を示すブロック図である。図示のように、本実施形態の画像サービスシステムBは、端末装置となるPC1bと、サーバ100bとからなり、PC1bとサーバ100bとは、ネットワーク(ここではインターネット150とする)により接続されている。
【0055】
図9は、図8に示す画像サービスシステムBにおける端末装置PC1bの構成を示すブロック図である。図示のように、端末装置PC1bは、同じ写真フィルムに撮影された複数の写真画像T(T1,T2,T3,...Tn n:n:写真画像の個数)をスキャンしてRGB画像データである画像データS(S1,S2,S3,...Sn)に変換するフィルムスキャナ10bと、フィルムスキャナ10bにより写真画像Tを変換して得た画像データSを一時記憶するメモリ20bと、メモリ20bにより一時記憶された画像データSに対して夫々圧縮処理を施して圧縮画像データS’(S’1,S’2,S’3,...S’n)を得る圧縮部28bと、圧縮画像データS’を保存する保存部30bと、サーバ100bと通信を行い、保存部30bにより保存された圧縮画像データS’をサーバ100bに送信可能な通信部40bと、ユーザが各種の指示の入力を行うためのキーボードやマウスなどからなる入力部2bと、入力部2bにより入力された指示に従ってPC1Bの動作を制御する制御部4bと、制御部4bの制御に従って画像を表示するモニタ5とを備えたものである。
【0056】
入力部2bにおいて、フィルムスキャナ10bを起動させる指示などができると共に、サーバ100bに画像データSに対して日付認識を行うか否かの指示をしたり、日付認識を行う場合に、日付文字の位置範囲を指示したりすることができる。
【0057】
通信部40bは、入力部2bを介して送信指示が入力されたとき、保存部30bから圧縮画像データS’をサーバ100bに送信するものであり、入力部2bを介して入力された日付認識を行うか否かの指示、日付文字の位置範囲を指定する指示などをもサーバ100bに送信する。
【0058】
圧縮部28bは、入力されてきた画像データSの各々の画像データに対して圧縮処理を行うものであり、この圧縮処理は例えばJPEG圧縮処理とすることができる。
【0059】
なお、上述したフィルムスキャナ10b、圧縮部28b、保存部30b、通信部40bの動作は、制御部4bにより制御される。
【0060】
図10は、図8に示す画像サービスシステムBにおけるサーバ100bの構成を示すブロック図である。図10(a)に示すように、本実施形態のサーバ100bは、PC1bから送信されてきた圧縮画像データS’や、日付認識を行うか否かの指示や、日付文字の位置範囲を指定する指示を受信するなど、PC1bと通信を行うための通信部50bと、受信した画像データS’を一時的に記憶するメモリ55bと、PC1bにより日付認識を行うように指示されたときにのみ日付認識を行って日付情報Dを後述するサービス提供部80bに出力する日付認識部60bと、日付認識が行われた圧縮画像データS’(S’1,S’2、S‘3,...S’n)と日付情報D(D1,D2,D3,...Dn)とを対応付けて保存すると共に、端末装置PC1bに対して日付による画像データの検索などのサービスを通信部50bを介して提供する一方、日付認識が行われなかった圧縮画像データS’をそのまま保存するサービス提供部80bとを備えてなるものである。
【0061】
図10(b)は、図10(a)に示すサーバ100bにおける日付認識部60bの構成を示すブロック図である。図示のように、日付認識部60bは、通信部50bを介して受信した、メモリ55bに一時記憶された圧縮画像データS’に対して日付認識を行うか否かの判断を行い、日付認識を行うように判断した際にのみ、PC1に日付文字の位置範囲を指定させると共に、後述する認識順位推定部64b、日付抽出部66、日付推定部68bに圧縮画像データS’に対して指示された日付文字の位置範囲において日付認識を行せるように制御する制御部61bと、各々の圧縮画像データS’(S’1、S’2、S’3、...S’n)を解凍して得た画像データ(以下画像データP(P1,P2,P3,...Pn)という)から日付情報を抽出する順位を推定する認識順位推定部64bと、この順位が高い画像データPから日付情報を抽出する日付抽出部66bと、日付抽出部66bにより日付情報を抽出されない画像データPの日付情報を推定する日付推定部68bとからなるものである。
【0062】
日付認識部60bの制御部61bは、通信部50bを介して端末装置PC1から圧縮画像データS’を受信すると、圧縮画像データS’に含まれる代表画像データ(例えば時系列的に一番先に送信されてきた画像データなど)を送信元の端末装置PC1に返送してモニタ5に表示させると共に、圧縮画像データS’(すなわち画像データS)に対して日付認識を行うか否かの選択と、日付認識を行う場合には表示された代表画像において日付文字の位置範囲の指定とをPC1のユーザに行わせる。PC1のユーザが入力部2bを用いて日付認識を行うか否かの選択と、日付認識を行う場合の日付文字の位置範囲の指定とを行うと、PC1の制御部4bはユーザの入力(日付認識を行うか否か、行う場合に指定された日付文字の位置範囲)に応じた情報を通信部40bに送信させる。サーバ100の日付認識部60bにおける制御部61bは、PC1の通信部40から送信された情報に従って、日付認識を行うように指示されていれば、指定された日付文字の日付位置範囲を示す情報を認識順位推定部64b、日付抽出部66b、日付推定部68bに画像データPに対して日付認識を行せる。
【0063】
認識順位推定部64bは、PC1のユーザが入力部2bを用いて指定した日付文字の位置範囲における背景の平坦さおよび黒さに基づいて画像データPの日付認識の順位を推定する。日付抽出部66bは、まず、認識優先順位が高い画像データから段階的に日付情報を抽出して、日付推定部68bに出力する。日付推定部68bは、これらの日付情報に基づいて日付情報未抽出の画像データの日付を推定する。抽出された日付情報および推定された日付情報Dは、制御部61bによりメモリ55bに一時記憶させられる。なお、認識順位推定部64b、日付抽出部66b、日付推定部68bは、夫々図1に示す実施形態の画像サービスシステムAにおけるサーバ100の日付認識部60の認識順位推定部64、日付抽出部66、日付推定部68と同様な動作をするので、ここでその詳細な説明を省略する。
【0064】
画像データPの全ての画像データに対して日付情報の抽出および推定が終了すると、制御部61bは、メモリ55bに記憶された画像データPの圧縮画像データS’と日付情報Dとを対応付けてサービス提供部80bに出力させて、サービス提供部80bにより提供される検索や、閲覧などのサービスの提供に備える。
【0065】
以下、図11のフローチャートを利用して、図8に示す実施形態の画像サービスシステムBの動作をより詳しく説明する。
【0066】
図11のフローチャートに示すように、本実施形態の画像サービスシステムBにおいて、1本の写真フィルムに撮影された写真画像に対する処理は、PC1bの入力部2bを介してユーザがフィルムスキャナ10bを動作させる指示をしたことに従って、制御部4bはフィルムスキャナ10bにこのフィルムに対するスキャンを行わせる(S10)ことから始まる。制御部4bの制御に従って、フィルムスキャナ10bは、1本の写真フィルムに撮影された全ての写真画像Tに対するスキャンを行って、画像データSを取得してメモリ20bに一時記憶させる(S110:No、S105)。全ての写真画像Tに対するスキャンが終了すると(S110:Yes)、制御部4bは、画像データSを圧縮部28bに出力させ、圧縮部28bにより画像データSの各々の画像データに対してJPEG圧縮処理を行って圧縮画像データS’を得る(S115)。保存部30bは、圧縮部28bによる取得した圧縮画像データS’を保存し(S120)、通信部40bは、PC1bのユーザにより、入力部2bを介して送信指示があったとき、圧縮画像データS’をサーバ100bに送信する(S125)。
【0067】
サーバ100bは、通信部50bによりPC1bから圧縮画像データS’を受信すると、これらの画像データをメモリ55bに一時記憶させる(S150)。日付認識部60bの制御部61bは、圧縮画像データS’の代表画像をPC1のモニタ5に表示させ、画像データSに対して日付認識を行うか否かの選択および日付認識を行う場合の日付文字の位置範囲の指定をするようにPC1のユーザに促す(S155)。PC1のユーザが、入力部2bを用いて、モニタ5に表示された代表画像により代表される画像データSに対して日付認識を行うか否かの指示を行うと共に、日付認識を行うように指示した場合、代表画像における日付文字の位置範囲を指定する(S130)。ステップS130に入力された指示を示す情報は、通信部40bによりサーバ100に送信される(S135)をもって、PC1の動作は終了する。
【0068】
サーバ100の日付認識部60bの制御部61bは、通信部50bを介して受信した、ステップS135においてPC1から送信されてきた情報に従って、日付認識を行わないように指示されていれば(S160:No)、メモリ55bに一時記憶された圧縮画像データS’をそのままサーバ100bのサービス提供部80bに出力して保存させる(S170)一方、日付認識を行うように指示されていれば(S160:Yes)、送信されてきた情報に含まれる日付文字の位置範囲を示す情報を認識順位推定部64b、日付抽出部66b、日付推定部68bに提供して日付認識を行わせ(S165)、認識順位推定部64b、日付抽出部66b、日付推定部68bにより圧縮画像データS’の各々の画像データの日付情報(すなわち、画像データSの各々の画像データの日付情報)Dを取得してサービス提供部80bに出力する(S165)。この場合、サービス提供部80bは、圧縮画像データS’と日付情報Dとを対応付けて保存し、後に日付情報をキーワードとする検索や、閲覧などのサービスを提供することに備える(S170)。
【0069】
なお、認識順位推定部64b、日付抽出部66b、日付推定部68bは、夫々図1に示す画像サービスシステムBのサーバ100における認識順位推定部64、日付抽出部66、日付推定部68の夫々と同様の動作をするので、ここで詳細な説明を省略する。
【0070】
このように、本実施形態の画像サービスシステムBにおいても、サーバ100bの日付認識部60bは、写真フィルムに撮影された複数の写真画像を夫々変換して得た複数の画像データを端末装置PC1bから受信して管理する際に、端末装置PC1により、これらの複数の画像データに対して日付認識を行うように指示された場合にのみ前記複数の画像データに対して日付認識を行うようにし、図1に示す実施形態の画像サービスシステムAと同様に、ユーザにとって日付認識を行う必要のない画像データに対して日付認識を行う手間を省き、時間とコストを節約することができるので、効率が良い。
【0071】
また、画像サービスシステムBにおいて、サーバ100bの日付認識部60bは、画像データの日付文字の位置範囲を端末装置PC1bのユーザに指示させることによって日付文字の位置情報を取得するようにし、画像データを解析する必要がなく、サーバ100bの負担を軽減すると共に、日付認識の速度を速くすることができる。
【0072】
図12は、本発明の第3の実施形態となる画像サービスシステムCの構成を示すブロック図である。図示のように、本実施形態の画像サービスシステムCは、ラボ店200に備えられた端末装置PC7と、ユーザの端末装置PC8と、サーバ100cとからなり、PC7およびPC8は、ネットワーク(ここではインターネット150とする)により接続されている。
【0073】
図12に示す実施形態の画像サービスシステムCにおける端末装置PC7は、本発明の送信装置に該当するものであり、図13はその構成を示すものである。図示のように、端末装置PC7は、同じ写真フィルムに撮影された複数の写真画像T(T1,T2,T3,...Tn n:n:写真画像の個数)をスキャンしてRGB画像データである画像データS(S1,S2,S3,...Sn)に変換するフィルムスキャナ10cと、フィルムスキャナ10cにより写真画像Tを変換して得た画像データSを一時記憶するメモリ20cと、メモリ20により一時記憶された画像データSの各々の画像データを加算したうえで平均処理を行って平均画像データScを取得する加算処理部26cと、画像データS(S1,S2,S3,...Sn)と平均画像データScとに対して夫々圧縮処理を施して圧縮画像データS’(S’1,S’2,S’3,...S’n)と圧縮平均画像データS’cを得る圧縮部28cと、圧縮画像データS’と圧縮平均画像データS’cとを保存する保存部30cと、サーバ100cと通信を行い、保存部30cにより保存された圧縮画像データS’と圧縮平均画像データS’cをサーバ100cに送信可能な通信部40cと、ユーザが各種の指示の入力を行うためのキーボードやマウスなどからなる入力部2cと、入力部2cにより入力された指示に従ってPC7の動作を制御する制御部4cとを備えたものである。
【0074】
入力部2cにおいて、フィルムスキャナ10cを起動させる指示や、通信部40cに送信させる送信指示などができる。
【0075】
加算処理部26cは、具体的には、メモリ20cにより一時記憶された画像データS各々の画像データS1、S2、S3、...Snの各画素(その位置を(x,y)とする)のR、G、B値を画素毎に加算したうえで平均値を取り、画素毎の平均色データRci(x,y)、Gci(x,y)、Bci(x,y)(i:1,2,3...m,m:1つの画像データの総画素数)を得ることによってこれらの画素により構成される平均画像データScを作成するように動作する。
【0076】
圧縮部28cは、入力されてきた画像データ(画像データSの各々の画像データおよび平均画像データSc)に対して圧縮処理を行うものであり、この圧縮処理は例えばJPEG圧縮処理とすることができる。
【0077】
保存部30cは、画像データSの圧縮データS’と平均画像データScの圧縮データS’cとを対にして保存する。
【0078】
通信部40cは、入力部2cを介して送信指示が入力されたとき、保存部30cから圧縮画像データS’をサーバ100cに送信すると共に、平均画像データScの圧縮データである圧縮平均画像データS’cをも一緒にサーバ100cに送信する。
【0079】
なお、上述したフィルムスキャナ10c、加算処理部26c、圧縮部28c、保存部30c、通信部40cの動作は、制御部4cにより制御される。
【0080】
図12に示す実施形態の画像サービスシステムCにおけるユーザ端末装置PC8は、本発明の指示装置に該当するものであり、図14はその構成を示すものである。図示のように、ユーザ端末装置PC8は、ユーザが各種の指示の入力を行うためのキーボードやマウスなどからなる入力部2dと、入力部2dにより入力された指示に従ってPC8の動作を制御する制御部4dと、制御部4dの制御に従って画像などを表示するモニタ5cおよびサーバ100cと通信を行う通信部40dとを備えたものである。
【0081】
入力部2dにおいて、サーバ100cにアクセスする指示などができると共に、アクセス指示に従って通信部40dによるアクセスに応じてサーバ100cが表示させた写真画像(サーバ100の動作については後述する)の一覧からユーザ所望のフィルムの写真画像を選択したり、写真画像に対して日付認識を行う指示をしたりすることができる。
【0082】
モニタ5cは、サーバ100cから送信された写真画像の一覧などを表示するものである。
【0083】
なお、通信部40d、モニタ5cの動作は、制御部4dにより制御される。
【0084】
図15は、図12に示す実施形態の画像サービスシステムにおけるサーバ100cの構成を示すブロック図である。なお、サーバ100cは、ラボ店200の認証や、写真画像の所有者の認証や、提供するサービスに関する課金処理なども行うものであるが、本発明の主旨を分かりやすくするために、サーバ100cによるユーザ認証などの構成を省略して説明を行う。図示のように、サーバ100cは、ラボ店200の端末装置PC7から送信されてきた画像データ(圧縮画像データS’および圧縮平均画像データS’c。以下同じ)を受信したり、ユーザ端末装置PC8からのアクセスを受け付けたりするなど、後述する制御部70の制御に従って、端末装置PC7およびPC8と通信を行うための通信部70と、端末装置PC7から送信されてきた画像データをフィルム毎に図示しない第1の保存部に保存し、保存中のフィルム一覧(ここでは、例えば各フィルムの写真画像の代表画像一覧とする)を作成して後に制御部70の制御に従ってユーザ端末装置PC8に提供すると共に、第1の保存部に保存された画像データのうち、後述する日付認識部60cにより日付認識を行われることによって日付情報D(D1,D2,...Dn)が得られたフィルムの画像データS’(S’1,S‘2,S’3,...S’n)を第1の保存部から図示しない第2の保存部に移動させて日付情報Dと対応付けて保存し、後に日付による画像データの検索などのサービスを通信部50cを介して提供するサービス提供部80cと、制御部70の制御に従って、サービス提供部80cの図示しない第1の保存部に保存された画像データS’に対して日付認識を行うことによって日付情報Dを取得してサービス提供部80cに供する日付認識部60cと、通信部50c、日付認識部60cおよびサービス提供部80cの動作を制御する制御部70とを備えたものである。
【0085】
制御部70は、通信部50cを介してラボ店200の端末装置PC7から画像データが送信されてきたとき、この画像データをサービス提供部80cの第1の保存部に保存させる一方、ユーザ端末装置PC8からアクセスがあったとき、サービス提供部80cの第1の保存部から保存中のフィルム一覧をユーザ端末装置PC8に送信し、ユーザ端末装置PC8のユーザにより一覧から日付認識を希望するフィルムが選択されると、選択されたフィルムの画像データをサービス提供部80cの第1の保存部から読み出すと共に、日付認識部60cにこれらの画像データに対する日付認識を行わせて日付情報Dを取得して、サービス提供部80cに供する。
【0086】
日付認識部60cは、同じフィルムの画像データの平均画像データ(圧縮平均画像データS’cを解凍して得た画像データ)を用いて日付認識を行うものであり、日付認識を行う際の具体的な動作は、図1に示す画像サービスシステムAにおけるサーバ100の日付認識部60と同様であるので、ここで詳細な説明を省略する。
【0087】
図16は、図12に示す画像サービスシステムCの動作を示すフローチャートである。なお、ラボ店200の端末装置PC7は、各フィルムをスキャンして得た画像データSから圧縮画像データS’および圧縮平均画像データS’cを得ると共に、圧縮画像データS’と圧縮平均画像データS’cとを対にしてサーバ100cに送信するように動作するものであり、ここでは、ラボ店200の端末装置PC7により圧縮画像データS’と圧縮平均画像データS’cを取得する動作を省略すると共に、サーバ100cの動作を主にして本実施形態の画像サービスシステムCの動作を説明する。
【0088】
図16に示すように、サーバ100cは、ラボ店200の端末装置PC7またはユーザ端末装置PC8からアクセスがある(S200:Yes)と、制御部70により、このアクセスはラボ店200からの画像データのアップロードなのかユーザ端末装置PC8からのアクセスなのかを確認する(S205)。ラボ店200からの画像データのアップロードであれば(S205:Yes)、アップロードされてきた画像データ(圧縮画像データS’および圧縮平均画像データS’c)をサービス提供部80cの図示しない第1の保存部に保存させる。サービス提供部80cは、制御部70の制御に従って、アップロードされてきた画像データを第1の保存部に保存すると共に、第1の保存部に保存された画像データのフィルム一覧(ここでは、各フィルムから1つの代表画像を選出して縮小処理を施して得たものとする)を作成または更新して処理を終了する。「更新」とは、既にフィルム一覧があったときに、新たにアップロードされた画像データから代表画像を選出して縮小処理を施して得た縮小画像データを既存のフィルム一覧に追加することを意味する(S210)。
【0089】
一方、ステップS205において、ユーザ端末装置PC8からのアクセスであれば(S205:No)、サーバ100cの制御部70は、アクセス要求がサービス提供部80cの第1の保存部により保存中の画像データに対する日付認識の要求なのか他のサービスに対する要求なのかを確認する(S215)。日付認識要求であれば(S215:Yes)、サービス提供部80cに、第1の保存部に保存された画像データのフィルム一覧を通信部50cを介して端末装置PC8に送信させる(S230)。フィルム一覧を受信した端末装置PC8において、ユーザは入力部2dを用いて、モニタ5cに表示されたフィルム一覧から日付認識を行うことを希望するフィルム(具体的には該当するフィルムの代表画像)を選択することによって日付認識を行うフィルムの日付認識指示を行うと(S235)、サーバ100cの制御部70は、サービス提供部80cの第1の保存部から該当するフィルの圧縮平均画像データS’cを読み出して日付認識部60cに日付の認識を行わせて日付情報Dを得る(S240)と共に、圧縮平均画像データS’cと対となる圧縮画像データS’を第1の保存部から読み出して、日付認識情報Dと対応付けてサービス提供部80cの図示しない第2の保存部に保存させる。サービス提供部80cは、これに合わせて、第1の保存部から圧縮画像データS’および圧縮平均画像データS’cを削除すると共に、フィルム一覧を更新する(S245)。
【0090】
また、ステップS215において、ユーザ端末装置PC8からのアクセス要求が日付認識以外の他のサービス要求、例えば、画像データのダウンロード要求や、日付情報に基づいた検索要求などである場合(S215:No)、サーバ100の制御部70は、要求されたサービスをサービス提供部80cに提供させて処理を終了する(S220)。
【0091】
このように、本実施形態の画像サービスシステムCは、画像データをアップロードする送信装置と、画像データに対して日付認識を行うか否かの指示を行う指示装置とが異なる端末装置(ラボ店200の端末装置PC7とユーザ端末装置PC8)に夫々備えられた態様において、サーバ100cは、アップロードされた画像データを蓄積しておき、蓄積された画像データのうち、日付認識を行うように指示されたもののみに対して日付認識を行うようにしているので、ユーザにとって日付認識を行う必要のない画像データに対して日付認識を行う手間を省き、時間とコストを節約することができるので、効率が良い。
【0092】
また、画像サービスシステムCにおいて、ラボ店200の端末装置PC7からフィルム毎の画像データをサーバ100cに送信する際に、平均画像データをも作成して送信し、サーバ100cの日付認識部60cによる日付位置検出に供するようにしているが、図8に示す画像サービスシステムBのように、送信装置となる端末装置PC7において平均画像データの作成をせず、指示装置となるユーザ端末装置PC8により日付文字の位置範囲を指定するようにしてもよい。
【0093】
以上、本発明の画像管理システムの望ましい実施形態について説明したが、本発明の画像管理システムは、上述した実施形態に限られるものではなく、本発明の主旨を変えない限り、種々の変更、増減を加えることができる。
【0094】
例えば、図1に示す実施形態の画像サービスシステムAにおいて、日付を付与するための画像データ(平均画像データScを作成用の画像データ)とサーバ100に保存用の画像データとを同じ画像データSを用いるようにしているが、例えば、保存用の画像データを本スキャンにより取得するようにし、日付を付与するための画像データをプレスキャンにより取得するようにしてもよい。この場合、プレスキャンにより取得した画像データが、解像度が低いが、日付の付与には十分である。
【0095】
また、上述した実施形態において、写真フィルムをスキャンして画像データを得ることにしているが、写真フィルムではなく、既に現像して得た写真プリントであってもよい。この場合、これらのプリントを撮影した順番に揃えておき、この順番でスキャンを行えればよい。
【0096】
また、図1に示す実施形態の画像サービスシステムAにおいて、日付位置を推定する際に加算画像データとして平均画像データを用いたが、単純加算処理により得た加算画像データを用いてもよい。
【0097】
また、図2に示す実施形態の画像サービスシステムBにおいて、端末装置PC1の入力部2bを用いて、日付認識を行うように指示した画像データに対して、日付文字の位置範囲を指示する以外に、日付文字の色も指示し、サーバ100bの日付認識部60bによる日付認識をより簡単かつ確実に行うことを図るようにしてもよい。
【0098】
また、写真画像に写し込まれた日付文字の年月日の並び順はカメラの機種によって異なる場合がある。例えば、日付認識を行った結果、ある写真画像の日付文字の内容が03 02 01となったとき、2003年2月1日なのか、2001年2月3日なのかは不明である。日付認識を行った結果に対して、指示装置に日付文字の年月日の並び順を指示させるようにして、日付認識の結果をより確実にしてもよい。この場合、指示装置に年月日の並び順を直接入力させるようにしてもよいし、1本のフィルムのうちの1つの写真画像の日付文字を、その年月日の可能なすべての並び順(前述の例の場合、2003年2月1日、2001年2月3日)で表示して正しい並び順で表示された日付文字をユーザに選択させるようにしてもよい。
【図面の簡単な説明】
【図1】本発明の第1の実施形態の画像サービスシステムAの構成を示すブロック図
【図2】図1に示す画像サービスシステムAにおける端末装置PC1の構成を示すブロック図
【図3】図1に示す画像サービスシステムAにおけるサーバ100の構成を示すブロック図
【図4】日付認識の難易度を説明するための図
【図5】図3に示すサーバ100における認識順位推定部64の動作を説明するための図
【図6】図1に示す画像サービスシステムAの動作を示すフローチャート
【図7】図3に示すサーバ100における日付認識部60の動作を示すフローチャート
【図8】本発明の第2の実施形態の画像サービスシステムBの構成を示すブロック図
【図9】図8に示す画像サービスシステムBにおける端末装置PC1bの構成を示すブロック図
【図10】図8に示す画像サービスシステムBにおけるサーバ100bの構成を示すブロック図
【図11】図8に示す画像サービスシステムBの動作を示すブローチャート
【図12】本発明の第3の実施形態の画像サービスシステムCの構成を示すブロック図
【図13】図12に示す画像サービスシステムCにおける端末装置PC7の構成を示すブロック図
【図14】図12に示す画像サービスシステムCにおける端末装置PC8の構成を示すブロック図
【図15】図12に示す画像サービスシステムCにおけるサーバ100cの構成を示すブロック図
【図16】図12に示す画像サービスシステムCの動作を示すフローチャート
【符号の説明】
1,1b,7,8 PC
2,2b,2c,2d 入力部
4,4b,4c,4d 制御部
5,5c モニタ
10,10b,10c フィルムスキャナ
20,20b,20c メモリ
26,26c 加算処理部
28,28b,28c 圧縮部
30,30b,30c 保存部
40,40b,40c,40d 通信部
50,50b,50c 通信部
55,55b メモリ
60,60b 日付認識部
61,61b 制御部
62 日付位置検出部
64,64b 認識順位推定部
66,66b 日付抽出部
68,68b 日付推定部
70 制御部
80,80b サービス提供部
100,100b サーバ
B 日付背景部の明るさ
D 日付情報
G 日付背景部の濃度分散値
H 日付背景部範囲の高さ
Q 濃度
S 画像データ
T 写真画像
W 日付背景部範囲の幅[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image management system for managing image data obtained by converting a photographic image taken on a photographic film.
[0002]
[Prior art]
In recent years, with the price reduction of large-capacity recording media, individuals can store a large amount of data, and it becomes possible for individuals to own a system for storing and managing a large amount of image data such as an electronic album. ing. With the spread of the Internet and the like, a service is also provided for managing image data uploaded by a user to a server device on a network using a terminal device, such as an electronic album. A function required for these management systems is not to manage only digital images captured by a digital camera but to digitize and store and manage existing photographs such as silver halide photographs. Digitization has the advantage of easy management and no deterioration over time.
[0003]
For users who do not have a scanner or other device necessary for digitizing silver halide photographs, or who are not satisfied with the quality of digital images obtained by a personally owned scanner, a service store such as a lab The user's existing photographs are digitized to acquire image data of high-quality digital images and uploaded to the server device. The server device manages these image data and provides them later according to the access from the terminal device. There is also a service to do.
[0004]
In order to manage a large amount of photo image data, a classification method that allows easy and intuitive search and browsing for later use is required. As this classification method, a method using dates is the most practical. For example, as described in Patent Document 1, an electronic album technique for recording image data in date order has been proposed. However, this technique requires manual input and places a burden on the user, which is inconvenient in practice.
[0005]
In addition, as a method for automatically classifying the image data of a photograph by shooting date without burdening the user, for example, in the case of a silver halide film photo, it is common to have the shooting date partially overlap the subject image. When a photographic film or photographic print is converted into photographic image data and stored by a scanner, the shooting date imprinted on the photographic image is automatically recognized and converted into image data as date information. A method of granting has also been proposed. For example, as described in Patent Document 2, the fact that date characters in a photographic image are usually taken at any one of the four corners of the photograph is used, and a predetermined region of interest at the four corners of the photograph is set to the date position. A method has been proposed in which the date position is determined by sequentially scanning as candidate areas to detect the date, and the date character is recognized at the determined date position.
[0006]
[Patent Document 1]
JP-A-6-251083
[0007]
[Patent Document 2]
JP 2000-184168 A
[0008]
[Problems to be solved by the invention]
However, in recent years, with the development of infrastructure and the development of network technology, the network connection form is shifting from the narrow band, which has been the mainstream, to the broadband, the data transfer speed is increased, and the user terminal device is always connected to the network. It is also normal to be connected to. Therefore, the user can easily upload a large amount of image data without worrying about the connection time. In such a situation, the image data may be uploaded for the purpose of temporarily storing the user, so there is a case where it is not necessary to systematically manage all the image data. In a system that manages image data by shooting date, in the case of image data obtained by shooting with a digital camera, information such as the shooting date is attached to the image data, so it takes time to acquire date information. However, the date data is not attached to the image data obtained by converting the photographic image taken on the film, and it is necessary to obtain it by analyzing the image data. Therefore, if date information is acquired even for image data for which date information does not need to be acquired, there is a problem that it takes time and cost, resulting in a burden on the user.
[0009]
This problem also exists in a system that provides a service for uploading image data via a service store such as a laboratory store.
[0010]
The present invention has been made in view of the above circumstances, and can efficiently manage uploaded image data of a user, more specifically, image data obtained by converting a photographic image taken on a film. The object is to provide an image management system.
[0011]
[Means for Solving the Problems]
The image management system of the present invention is an image management system comprising a server device, a transmission device connected to the server device via a network, and an instruction device, wherein the transmission device is photographed on a single photographic film. A plurality of image data obtained by converting a plurality of photographic images respectively is transmitted to the server device,
The instruction device instructs the server device whether or not to recognize date characters imprinted in the photographic image for the plurality of image data;
Date recognition means for recognizing date characters for the plurality of image data only when the server device is instructed to recognize the date characters by the instruction device;
Management means for managing the plurality of image data based on the dates of the plurality of image data whose dates have been recognized by the date recognition means.
[0012]
That is, in the image management system of the present invention, the server device recognizes date characters via the pointing device instead of recognizing date characters for all image data uploaded from the transmission device. Date characters are recognized only for the plurality of designated image data.
[0013]
Here, the transmitting device that transmits the plurality of image data to the server device and the instruction device that instructs whether to perform date recognition on these image data are connected to the same terminal device (for example, the server device via a network). Transmission means and instruction means provided in a computer etc.), or the transmission device is a transmission means provided in a terminal device of a service store such as a laboratory, and the instruction device is provided in the transmission means. The instruction means may be provided in a terminal device different from the terminal device provided. That is, the image management system of the present invention may be configured such that the process of transmitting the plurality of photographic images to the server apparatus and the process of performing the instruction are performed using the same terminal apparatus. The process of transmitting the image to the server apparatus is performed using the terminal device of the service store, while the process of instructing whether to perform date recognition on the transmitted photographic image is performed on another terminal such as the user's own terminal. You may make it carry out using an apparatus.
[0014]
Here, the “photographic image” in the present invention may be a photographic image recorded on a photographic film, or may be a photographic image of a photographic print that has already been printed.
[0015]
The “network” includes not only an existing wide area network represented by the Internet, but also any private network such as a corporate WAN (wide area network) and a LAN (local network). .
[0016]
Also, managing image data “based on the date of image data” means using the shooting date, for example, managing by shooting date or providing a service using the shooting date as a search keyword. Any service is acceptable.
[0017]
In order to recognize date characters, it is necessary to first acquire position information of date characters in the plurality of photographic images. In the image management system of the present invention, the pointing device is imprinted on the photographic images. Date position indicating means for indicating a position range of date characters may be provided, and the date recognition means of the server device may perform date recognition in the position range specified by the date position indicating means. .
[0018]
Further, the date recognizing means in the server device of the present invention is not limited as long as it can detect the shooting date of each photographic image from a plurality of image data obtained by converting a photographic image shot on one film. For example, date characters may be recognized using the method described in Patent Document 2 described above, but the date is obtained using the added image data obtained by adding the plurality of image data. It is preferable that the date recognition is performed by detecting the position of the date character using the added image data.
[0019]
Here, “addition image data” is image data obtained by adding data values of pixels in the same part of the plurality of image data, and “data values” are R, G, B values. It can be.
[0020]
Further, “addition processing” may be simple addition, or may be arithmetic processing that performs an average process after simple addition.
[0021]
Further, the plurality of image data to be subjected to addition processing may be image data of all photographic images taken on a photographic film to be processed, or may be partial image data. When using a part of the image data, it is preferable to adopt image data of a photographic image in which date characters are clearly copied by visual observation or the like.
[0022]
In a photographic image taken on one photographic film, the subject images vary, but the position (date position), color, and shape of date characters are substantially constant. Using this characteristic, the date position can be detected. Specifically, for example, color data R, G, and B constituting each pixel of image data representing a plurality of photographic images photographed on one photographic film are added for each pixel to constitute added image data. Color data for each pixel is obtained. As described above, the subject image in a photographic image photographed on one photographic film is different for each frame, but the color and position of the date character portion are almost unchanged. The pixel color data is data indicating a color close to gray, but the average color data of pixels of the date character portion is data indicating that the original color (for example, red, yellow) of the date character is strong. The date recognizing means in the server device of the image management system of the present invention uses the color data of each pixel of the added image data to detect pixels exhibiting a unique color of the date character, and sets the positions of these pixels, respectively. The date position can be detected by detecting the date position so as to be the date position of the photo image.
[0023]
In addition, the position of the date character can be detected only by detecting pixels that exhibit the unique color of the date character, but the shape of the date character, based on the camera model used for the photography, By specifying the size, etc., in addition to the original color of the date character, the date character part pixels are further narrowed down from the shape and size of the date character part, so that the date position is detected more accurately and the date is recognized. May be.
[0024]
Further, when the date recognition means in the server device of the image management system of the present invention performs date recognition using the added image data, an addition process is performed on the plurality of image data to add the added image data. It is preferable that the transmission unit of the image management system of the present invention is provided with an adding unit that acquires the image data, and the transmission device transmits the added image data together with the plurality of image data to the server device.
[0025]
【The invention's effect】
According to the image management system of the present invention, when the server device manages a plurality of image data obtained by converting a plurality of photographic images taken on a photographic film, the instruction device uses the plurality of images. Since the date recognition is performed on the plurality of image data only when the date recognition is instructed on the data, the date recognition is performed on the image data that does not need to be recognized by the user. This saves time and costs, and is efficient.
[0026]
Further, the pointing device includes date position indicating means for indicating the position range of the date characters imprinted in the photographic image, and the date recognition means of the server device performs date recognition in the designated position range, Since it is not necessary to detect the date position in the date recognition means, the time required for date recognition can be shortened.
[0027]
Further, the date recognition means of the server device in the image management system of the present invention is such that the subject image is different for each frame in a plurality of photographic images taken on one photographic film, but the position, color, shape, etc. of date characters If the date position is determined and the date is recognized by detecting the pixel of the date character portion from the added image data of the image data of these multiple photographic images, Therefore, the date position can be detected and the date can be surely recognized. In addition, since the image data is normally compressed and stored and transmitted, if the transmission device side creates the added image data from the uncompressed image data and then compresses and transmits it to the server device side, this In this case, since it is not necessary on the server side to decompress each compressed image data to create added image data, the processing time can be shortened and efficiency is high.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0029]
FIG. 1 is a block diagram showing a configuration of an image service system A according to the first embodiment of the present invention.
[0030]
As shown in FIG. 1, the image service system A according to this embodiment includes a PC 1 serving as a terminal device and a server 100. The PC 1 and the server 100 are connected by a network (here, the Internet 150). Yes.
[0031]
FIG. 2 is a block diagram showing a configuration of the terminal device PC1 in the image service system A shown in FIG. As shown in the figure, the terminal device PC1 scans a plurality of photographic images T (T1, T2, T3,... Tn n: n: the number of photographic images) taken on the same photographic film, and uses RGB image data. A film scanner 10 that converts image data S (S1, S2, S3,... Sn), a memory 20 that temporarily stores image data S obtained by converting a photographic image T by the film scanner 10, and a memory 20 And adding the respective image data of the temporarily stored image data S, performing an averaging process to obtain the average image data Sc, and image data S (S1, S2, S3,... Sn ) And the average image data Sc are respectively compressed to obtain the compressed image data S ′ (S′1, S′2, S′3,... S′n) and the compressed average image data S′c. Compression unit 28 to obtain and compression The storage unit 30 that stores the image data S ′ and the compressed average image data S′c communicates with the server 100, and the compressed image data S ′ and the compressed average image data S′c stored by the storage unit 30 are stored in the server. 100, a communication unit 40 that can be transmitted to 100, an input unit 2 including a keyboard and a mouse for the user to input various instructions, and a control unit 4 that controls the operation of the PC 1 according to the instructions input by the input unit 2. It is equipped with.
[0032]
The input unit 2 can issue an instruction to activate the film scanner 10 and the like, and can also instruct whether or not the addition processing unit 26 should create the average image data Sc.
[0033]
The addition processing unit 26 creates the average image data Sc only when the user is instructed by the input unit 2 to create addition image data. Specifically, the addition processing is performed for each image data S1, S2, S3,. . . The R, G, and B values of each pixel of Sn (whose position is (x, y)) are added for each pixel, and an average value is taken to obtain average color data Rci (x, y), Gci for each pixel. By obtaining (x, y), Bci (x, y) (i: 1, 2, 3,... M, m: total number of pixels of one image data), average image data constituted by these pixels This is a process for obtaining Sc. When the average image data Sc is created by the addition processing unit 26, the storage unit 30 stores the compressed data of the image data S and the compressed data of the average image data Sc as a pair.
[0034]
When a transmission instruction is input via the input unit 2, the communication unit 40 transmits the compressed image data S ′ from the storage unit 30 to the server 100, and when there is compressed average image data S′c. The compressed average image data S′c is also transmitted to the server 100 together.
[0035]
The compression unit 28 performs compression processing on the input image data (each image data of the image data S or the average image data Sc), and this compression processing can be, for example, JPEG compression processing. .
[0036]
The operations of the above-described film scanner 10, addition processing unit 26, compression unit 28, storage unit 30, and communication unit 40 are controlled by the control unit 4.
[0037]
FIG. 3 is a block diagram showing a configuration of the server 100 in the image service system A shown in FIG. As shown in FIG. 3A, the server 100 according to the present embodiment uses image data transmitted from the PC 1 (compressed image data S ′ or compressed image data S ′ and compressed average image data S′c; the same applies hereinafter). The communication unit 50 for communicating with the PC 1, the memory 55 for temporarily storing the received image data, and the date recognition when the compressed average image data S′c is included in the image data. Date information, a date recognizing unit 60 to be output to the service providing unit 80, which will be described later, and compressed image data S ′ (S′1, S′2, S′3,. The date information D (D1, D2, D3,... Dn) is stored in association with each other, and services such as image data search by date are provided to the terminal device PC1 via the communication unit 50. Compressed image without date recognition The chromatography data S 'in which it formed by an service providing unit 80 to be saved.
[0038]
FIG. 3B is a block diagram illustrating a configuration of the date recognition unit 60 in the server 100 illustrated in FIG. As shown in the figure, the date recognition unit 60 confirms whether or not the compressed average image data S′c is attached to the compressed image data S ′ temporarily stored in the memory 55 received via the communication unit 50. If the compressed average image data S′c is attached, it is assumed that the terminal device PC1 performs date recognition on the compressed average image data S′c. The rank estimation unit 64, the date extraction unit 66, and the date estimation unit 68 can perform date recognition of the compressed image data S ′, while date recognition is performed on the compressed image data S ′ to which the compressed average image data S′c is not attached. The position of the date imprinted in the photographic image T using the control unit 61 that controls the image so that the compressed average image data S′c is decompressed and the image data obtained by decompressing the compressed average image data S′c (hereinafter referred to as average image data A) Detect date position Unit 62 and image data obtained by decompressing the respective compressed image data S ′ (S′1, S′2, S′3,... S′n) (hereinafter referred to as image data P (P1, P2, P3) ,... Pn)), a recognition rank estimation unit 64 that estimates the rank in which date information is extracted, a date extraction unit 66 that extracts date information from the image data P having a higher rank, and a date extraction unit 66 It comprises a date estimation unit 68 that estimates date information of image data P from which information is not extracted.
[0039]
The date position detection unit 62 uses a fact that the color, position, and shape of date characters are almost constant in a plurality of photographic images taken on one photographic film, but the color, position, and shape of date characters are almost constant. The date position is detected using data A. The subject image in a photographic image photographed on one photographic film is different for each sesame, but the color and position of the date character portion are almost unchanged, so the average color data of the pixels other than the date character portion is close to gray. Although it is data indicating the color, the average color data of the pixels of the date character portion is data indicating that the original color (for example, red, yellow) of the date character is strong. The date position detection unit 62 of the server 100 in the present embodiment uses the color data for each pixel of the average image data A to detect pixels that strongly exhibit the unique color of the date character, and sets the positions of these pixels. The date position of the photographic image.
[0040]
The recognition rank estimation unit 64 estimates the date recognition rank based on the background flatness and blackness at the date position detected by the date position detection unit 62.
[0041]
FIG. 4 is a diagram showing the relationship between the difficulty of date recognition in the photographic image and the background. The background of the date part of the illustrated photographic image is flat and black, flat and bright, complex and bright in order from the left, and as you can see visually, date characters are recognized from the left image to the right. It becomes difficult to the image of. In the present embodiment, the recognition rank estimation unit 64 uses this characteristic, that is, the easier the recognition is as the background of the date character portion is flatter and blacker, the image data P1, P2, P3,. . . A recognition order is given to Pn with ease of recognition. FIG. 5 is a diagram for explaining an operation in which the recognition rank estimation unit 64 estimates the date recognition rank, and the hatched portion in the drawing indicates the background portion of the date position portion (in the drawing, the width including the date position portion). W and a height range of H). First, the recognition rank estimation unit 64 calculates the density Q of each pixel in the background portion excluding the pixels in the date character portion, and uses the following equation (1) to calculate each image data P (P1, P2,. .Pn) calculates the background brightness Bi (i = 1, 2, 3,... N) of the date character portion, and the density dispersion value Gi (i = 1, 2, 3) of the background portion for each image. , ... n).
[0042]
[Expression 1]
Figure 2004258843
Based on the calculated background brightness B and density dispersion value G of each image, the recognition order estimation unit 64 recognizes each image data such that the lower the brightness B and the density dispersion value G, the higher the recognition order. Estimate priority. Specifically, for example, the brightness B is low and the density dispersion value G is low, the brightness B is low but the density dispersion value G is high, the brightness B is high but the density dispersion value G is low, and the brightness B is The recognition priorities are given in the order of high and density dispersion value G.
[0043]
The date extraction unit 66 first extracts date information stepwise from image data having a high recognition priority and outputs the date information to the date estimation unit 68. The date estimation unit 68 estimates the date of the image data from which date information has not been extracted based on these date information. The extracted date information and the estimated date information D are temporarily stored in the memory 55 by the control unit 61.
[0044]
When the extraction and estimation of date information is completed for all image data of the image data P, the control unit 61 associates the compressed image data S ′ of the image data P stored in the memory 55 with the date information D. The service is provided to the service providing unit 80 for providing services such as search and browsing provided by the service providing unit 80.
[0045]
Hereinafter, the operation of the image service system A of the embodiment shown in FIG. 1 will be described in more detail using the flowchart of FIG.
[0046]
As shown in the flowchart of FIG. 6, in the image service system A of the present embodiment, the processing for a photographic image taken on one photographic film is performed by the user operating the film scanner 10 via the input unit 2 of the PC 1. In response to the instruction, the control unit 4 starts by causing the film scanner 10 to scan the film (S10). Under the control of the control unit 4, the film scanner 10 scans all the photographic images T taken on one photographic film, acquires the image data S, and temporarily stores it in the memory 20 (S15: No, S10). When the scanning for all the photographic images T is completed (S15: Yes), the control unit 4 outputs the image data S to the compression unit 28 and instructs the user whether to create the average image data of the image data S or not. (S20). When the user instructs to create the average image data using the input unit 2 (S20: Yes), the control unit 4 also causes the addition processing unit 26 to output the image data S temporarily stored in the memory 20 to perform addition. The processing unit 26 performs addition averaging processing on the image data S to generate average image data Sc, and outputs the average image data Sc to the compression unit 28 (S25). On the other hand, in step S20, when the user instructs not to create average image data via the input unit 2 (S20: No), the control unit 4 causes the addition processing unit 26 to create average image data. Without proceeding, the process proceeds to step S30. The compression unit 28 performs JPEG compression processing on each image data of the image data S to obtain compressed image data S ′. When there is average image data Sc of the image data S, the compression unit 28 applies the average image data Sc to the average image data Sc. Even JPEG compression is performed to obtain compressed average image data S′c (S30). The storage unit 30 stores the compressed data (only the compressed image data S ′ or the compressed image data S ′ and the compressed average image data S′c) acquired by the compression unit 28 (S35). The storage unit 30 stores the compressed image data S ′ and the compressed average image data S′c in association with each other by storing S ′ and S′c in pairs. When there is a transmission instruction via the input unit 2 by the user of the PC 1, the communication unit 40 compresses the compressed image data S ′ (when the compressed average image data S′c of the compressed image data S ′ is present) 'And the compressed average image data S'c) are transmitted to the server 100 (S40).
[0047]
From step S50, the operation of the server 100 is started. As illustrated, when the server 100 receives the compressed image data S ′ (or the compressed image data S ′ and the compressed average image data S′c) from the PC 1 through the communication unit 50, the server 100 temporarily stores these image data in the memory 55. (S50). The control unit 61 of the date recognition unit 60 confirms whether or not the compressed average image data S′c is attached to the compressed image data S ′ temporarily stored in the memory 55 (S55), and the compressed average image data S ′. If c is not present (S55: No), it is assumed that the terminal device PC1 has instructed not to perform date recognition on the compressed image data S ′ (or the image data S that is the basis of the compressed image data S ′). The image data S ′ is output and stored as it is in the service providing unit 80 of the server 100 (S100).
[0048]
On the other hand, when the compressed average image data S′c is attached to the compressed image data S ′ in step S55 (S55: Yes), the control unit 61 of the date recognition unit 60 includes the date position detection unit 62, the recognition rank estimation. The date information of each image data of the compressed image data S ′ (that is, the date information of each image data of the image data S) D is acquired by causing the unit 64, the date extraction unit 66, and the date estimation unit 68 to perform date recognition. Then, it is output to the service providing unit 80 (S60). In this case, the service providing unit 80 stores the compressed image data S ′ and the date information D in association with each other, and prepares to provide a service such as search or browsing using the date information as a keyword later (S100).
[0049]
FIG. 7 is a flowchart showing a specific operation Q of the date recognition unit 60. As shown in the figure, in the date recognition unit 60, first, the date position detection unit 62 decompresses the compressed average image data S′c temporarily stored in the memory 55 and extracts the average image data A. At the same time, the pixel position of the date is detected by the above-described method using the average image data, and transmitted to the recognition rank estimation unit 64 and the memory 55 (S61). The recognition rank estimation unit 64 decompresses the compressed image data S ′ temporarily stored in the memory 55 to obtain image data P (P1, P2, P3,... Pn), and the date detected by the date position detection unit 62 The background brightness B and the density dispersion value G at the position are calculated for each image data P, and the priority for extracting the date information from the image data P is estimated and transmitted to the date extraction unit 66 and the memory 55. (S62). First, the date extraction unit 66 extracts date information for the image data having the highest priority (i = 1) (S63, S64). The date estimation unit 68 compares the date information extracted by the date extraction unit 66 and checks whether there is the same date information (S65, S66). If the image data P having the same date information and having the same date information corresponds to the photographic image T separated in time series (S66: Yes, S67: Yes), the photographic image T This same date information is given to the image data P corresponding to all the photographic images T sandwiched in time series (S68). The extracted date information and the added date information are stored in the memory 55 in association with the image data P. If date information is extracted from the image data P with the highest priority and date information is given based on the extracted date information, or if the extracted date information is not identical in step S66 ( If the image data P having the same date information corresponds to the photographic images T adjacent to each other in time series (S67: No), in this case, the image data P Image data P1, P2, P3,. . . If there is image data to which date information has not yet been assigned among Pn (S69: No), from the step S64 to the step S68 by the date extraction unit 66 and the date estimation unit 68 for the image data with the next highest rank. Is performed (S70, S64 to S68). Note that the processing from step S64 to step S68 is performed by image data P1, P2,. . . It is repeated until all of Pn are given a date (S69: Yes).
[0050]
Thus, according to the image service system A of the present embodiment, the server 100 receives and manages a plurality of image data obtained by converting a plurality of photographic images photographed on a photographic film from the terminal device PC1. The date is recognized for the plurality of image data only when the terminal device is instructed to perform date recognition for the plurality of image data. Since it is possible to save the time and cost by eliminating the trouble of performing date recognition on image data that does not need to be recognized, it is efficient.
[0051]
Further, the date recognition unit 60 of the server 100 in the image service system A of the present invention has different subject images for each frame in a plurality of photographic images taken on one photographic film, but the position, color, By utilizing the fact that the shape and the like are almost constant, date recognition is performed by determining the date position by detecting the pixel of the date character portion from the added image data of the image data of the plurality of photographic images. Therefore, the date position can be detected with certainty, and as a result, date recognition can be performed reliably. In addition, since the image data is normally compressed and stored and transmitted, on the terminal device side, the addition image data is created from the image data before compression, and then compressed and transmitted to the server device side. Since it is not necessary on the server side to decompress each compressed image data to create added image data, the processing time can be shortened and the efficiency is high.
[0052]
In the image service system A of this embodiment, the server 100 recognizes the date from the terminal device PC1 that the compressed average image data S′c is attached to the compressed image data S ′ transmitted from the terminal device PC1. (In this case, in the terminal device PC1, the input unit 2 for instructing whether or not to create the average image data Sc also serves as the instructing means in the claims.) ), Date recognition is performed only on the compressed image data S ′ to which the compressed average image data S′c is attached, but whether or not date recognition is performed on the server 100 more directly from the terminal device PC1. May be instructed. For example, when image data S (compressed image data S ′) is transmitted to the server 100, information indicating an instruction as to whether or not date recognition is to be performed on the image data S is generated and transmitted together with the image data S. Alternatively, on the server 100 side, there is provided means for inquiring the PC 1 whether or not date recognition of the transmitted image data is to be performed, and the PC 1 performs date recognition by replying to the inquiry from the inquiry means. It may be instructed whether or not.
[0053]
In addition, in the image service system A of the embodiment shown in FIG. 1, in order to perform date recognition easily and reliably, the date recognition unit 60 of the server 100 detects the date character position from the average image data and performs date recognition. For example, the method described in Patent Document 2 may be used.
[0054]
FIG. 8 is a block diagram showing a configuration of an image service system B according to the second embodiment of the present invention. As illustrated, the image service system B according to the present embodiment includes a PC 1b serving as a terminal device and a server 100b, and the PC 1b and the server 100b are connected by a network (here, the Internet 150).
[0055]
FIG. 9 is a block diagram showing a configuration of the terminal device PC1b in the image service system B shown in FIG. As shown in the figure, the terminal device PC1b scans a plurality of photographic images T (T1, T2, T3,... Tn n: n: the number of photographic images) taken on the same photographic film as RGB image data. A film scanner 10b for converting to certain image data S (S1, S2, S3,... Sn), a memory 20b for temporarily storing image data S obtained by converting the photographic image T by the film scanner 10b, and a memory 20b A compression unit 28b that obtains compressed image data S ′ (S′1, S′2, S′3,... S′n) by performing compression processing on the image data S temporarily stored by A communication unit 40b that communicates with the storage unit 30b that stores the image data S ′ and the server 100b, and that can transmit the compressed image data S ′ stored by the storage unit 30b to the server 100b. An input unit 2b including a keyboard and a mouse for inputting, a control unit 4b that controls the operation of the PC 1B according to an instruction input by the input unit 2b, and a monitor 5 that displays an image according to the control of the control unit 4b. It is provided.
[0056]
In the input unit 2b, an instruction to activate the film scanner 10b can be given, and the server 100b is instructed whether or not to perform date recognition on the image data S. The range can be indicated.
[0057]
When the transmission instruction is input via the input unit 2b, the communication unit 40b transmits the compressed image data S ′ from the storage unit 30b to the server 100b, and recognizes the date input via the input unit 2b. An instruction whether or not to perform, an instruction to specify a position range of date characters, and the like are also transmitted to the server 100b.
[0058]
The compression unit 28b performs compression processing on each image data of the input image data S, and this compression processing can be, for example, JPEG compression processing.
[0059]
The operations of the above-described film scanner 10b, compression unit 28b, storage unit 30b, and communication unit 40b are controlled by the control unit 4b.
[0060]
FIG. 10 is a block diagram showing the configuration of the server 100b in the image service system B shown in FIG. As shown in FIG. 10A, the server 100b of the present embodiment designates the compressed image data S ′ transmitted from the PC 1b, an instruction as to whether or not to perform date recognition, and the position range of date characters. A communication unit 50b for communicating with the PC 1b, such as receiving an instruction, a memory 55b for temporarily storing the received image data S ′, and date recognition only when the PC 1b instructs to perform date recognition The date recognition unit 60b for outputting the date information D to the service providing unit 80b described later, and the compressed image data S ′ (S′1, S′2, S′3,. 'n) and date information D (D1, D2, D3,... Dn) are stored in association with each other, and a service such as image data search by date is provided to the terminal device PC1b via the communication unit 50b. While providing date recognition A service providing unit 80b that stores the compressed image data S ′ that has not been recognized.
[0061]
FIG. 10B is a block diagram showing the configuration of the date recognition unit 60b in the server 100b shown in FIG. As shown in the figure, the date recognizing unit 60b determines whether or not to perform date recognition on the compressed image data S ′ temporarily stored in the memory 55b received via the communication unit 50b. Only when it is determined to do so, the PC 1 is instructed to specify the position range of the date character, and the recognition rank estimation unit 64b, the date extraction unit 66, and the date estimation unit 68b described later are instructed for the compressed image data S ′. The controller 61b that controls the date to be recognized within the date character position range, and decompresses each compressed image data S ′ (S′1, S′2, S′3,... S′n). Recognition order estimation unit 64b for estimating the order in which date information is extracted from image data (hereinafter referred to as image data P (P1, P2, P3,... Pn)) obtained from Date extraction unit 66 for extracting information b and a date estimation unit 68b that estimates date information of the image data P from which date information is not extracted by the date extraction unit 66b.
[0062]
When receiving the compressed image data S ′ from the terminal device PC1 via the communication unit 50b, the control unit 61b of the date recognizing unit 60b represents representative image data (for example, first in time series) included in the compressed image data S ′. The transmitted image data and the like are returned to the terminal device PC1 that is the transmission source and displayed on the monitor 5, and whether or not date recognition is performed on the compressed image data S ′ (that is, the image data S) is selected. When performing date recognition, the user of the PC 1 is allowed to specify the position range of date characters in the displayed representative image. When the user of the PC 1 selects whether or not to perform date recognition using the input unit 2b and specifies the position range of date characters when performing date recognition, the control unit 4b of the PC 1 inputs the user's input (date The communication unit 40b is made to transmit information according to whether or not the recognition is performed and the date character position range specified when the recognition is performed. If the control unit 61b in the date recognition unit 60b of the server 100 is instructed to perform date recognition in accordance with the information transmitted from the communication unit 40 of the PC 1, information indicating the date position range of the specified date character is displayed. The recognition rank estimation unit 64b, the date extraction unit 66b, and the date estimation unit 68b can perform date recognition on the image data P.
[0063]
The recognition rank estimation unit 64b estimates the date recognition rank of the image data P based on the background flatness and blackness in the date character position range designated by the user of the PC 1 using the input unit 2b. The date extraction unit 66b first extracts date information stepwise from image data having a high recognition priority, and outputs the date information to the date estimation unit 68b. The date estimation unit 68b estimates the date of the image data from which date information has not been extracted based on the date information. The extracted date information and the estimated date information D are temporarily stored in the memory 55b by the control unit 61b. The recognition rank estimation unit 64b, the date extraction unit 66b, and the date estimation unit 68b are respectively a recognition rank estimation unit 64 and a date extraction unit 66 of the date recognition unit 60 of the server 100 in the image service system A of the embodiment shown in FIG. Since the operation is the same as that of the date estimating unit 68, detailed description thereof is omitted here.
[0064]
When the extraction and estimation of date information is completed for all image data of the image data P, the control unit 61b associates the compressed image data S ′ of the image data P stored in the memory 55b with the date information D. The service is provided to the service providing unit 80b to provide services such as search and browsing provided by the service providing unit 80b.
[0065]
Hereinafter, the operation of the image service system B of the embodiment shown in FIG. 8 will be described in more detail using the flowchart of FIG.
[0066]
As shown in the flowchart of FIG. 11, in the image service system B of the present embodiment, the processing for a photographic image taken on one photographic film is performed by the user operating the film scanner 10b via the input unit 2b of the PC 1b. In response to the instruction, the controller 4b starts the film scanner 10b to scan the film (S10). Under the control of the control unit 4b, the film scanner 10b scans all the photographic images T taken on one photographic film, acquires the image data S, and temporarily stores it in the memory 20b (S110: No, S105). When scanning for all the photographic images T is completed (S110: Yes), the control unit 4b outputs the image data S to the compression unit 28b, and the compression unit 28b performs JPEG compression processing on each image data of the image data S. To obtain compressed image data S ′ (S115). The storage unit 30b stores the compressed image data S ′ acquired by the compression unit 28b (S120), and the communication unit 40b receives the compressed image data S when the user of the PC 1b gives a transmission instruction via the input unit 2b. 'Is transmitted to the server 100b (S125).
[0067]
Upon receiving the compressed image data S ′ from the PC 1b through the communication unit 50b, the server 100b temporarily stores these image data in the memory 55b (S150). The control unit 61b of the date recognizing unit 60b displays the representative image of the compressed image data S ′ on the monitor 5 of the PC 1, selects whether to perform date recognition on the image data S, and the date when performing date recognition. The user of the PC 1 is prompted to designate the character position range (S155). The user of the PC 1 uses the input unit 2b to instruct whether to perform date recognition on the image data S represented by the representative image displayed on the monitor 5 and to instruct date recognition. If so, the position range of date characters in the representative image is designated (S130). Information indicating the instruction input in step S130 is transmitted to the server 100 by the communication unit 40b (S135), and the operation of the PC 1 ends.
[0068]
If the control unit 61b of the date recognition unit 60b of the server 100 is instructed not to perform date recognition according to the information transmitted from the PC 1 in step S135 received via the communication unit 50b (S160: No). ), The compressed image data S ′ temporarily stored in the memory 55b is output and stored as it is in the service providing unit 80b of the server 100b (S170). On the other hand, if it is instructed to perform date recognition (S160: Yes) The information indicating the position range of the date character included in the transmitted information is provided to the recognition rank estimation unit 64b, the date extraction unit 66b, and the date estimation unit 68b to perform date recognition (S165), and the recognition rank estimation unit 64b, the date extracting unit 66b, and the date estimating unit 68b perform date information (that is, image data) of each image data of the compressed image data S ′. Acquires date information) D for each image data of the data S is output to the service providing unit 80b by (S165). In this case, the service providing unit 80b stores the compressed image data S ′ and the date information D in association with each other, and prepares to provide a service such as search or browsing using the date information as a keyword later (S170).
[0069]
The recognition rank estimation unit 64b, the date extraction unit 66b, and the date estimation unit 68b are respectively a recognition rank estimation unit 64, a date extraction unit 66, and a date estimation unit 68 in the server 100 of the image service system B shown in FIG. Since the same operation is performed, detailed description is omitted here.
[0070]
As described above, also in the image service system B of the present embodiment, the date recognition unit 60b of the server 100b receives a plurality of image data obtained by converting a plurality of photographic images taken on a photographic film from the terminal device PC1b. When receiving and managing, the terminal device PC1 performs date recognition on the plurality of image data only when the terminal device PC1 is instructed to perform date recognition on the plurality of image data. As in the image service system A according to the embodiment shown in FIG. 1, the user can save time and cost by saving time and cost for image data that does not need to be recognized by the user. .
[0071]
In the image service system B, the date recognizing unit 60b of the server 100b acquires the position information of the date characters by instructing the user of the terminal device PC1b the position range of the date characters of the image data. There is no need for analysis, the burden on the server 100b can be reduced, and the date recognition speed can be increased.
[0072]
FIG. 12 is a block diagram showing a configuration of an image service system C according to the third embodiment of the present invention. As shown in the figure, the image service system C according to the present embodiment includes a terminal device PC7 provided in the lab shop 200, a user terminal device PC8, and a server 100c. The PC7 and PC8 are connected to a network (here, the Internet). 150).
[0073]
The terminal device PC7 in the image service system C of the embodiment shown in FIG. 12 corresponds to the transmission device of the present invention, and FIG. 13 shows its configuration. As shown in the figure, the terminal device PC7 scans a plurality of photographic images T (T1, T2, T3,... Tn n: n: the number of photographic images) photographed on the same photographic film, and uses RGB image data. A film scanner 10c that converts image data S (S1, S2, S3,... Sn), a memory 20c that temporarily stores image data S obtained by converting a photographic image T by the film scanner 10c, and a memory 20 And an addition processing unit 26c that adds the respective image data of the temporarily stored image data S and performs average processing to obtain the average image data Sc, and image data S (S1, S2, S3,... Sn ) And the average image data Sc are respectively compressed to obtain the compressed image data S ′ (S′1, S′2, S′3,... S′n) and the compressed average image data S′c. Obtaining compression unit 28 c, the compressed image data S ′ and the compressed average image data S′c, the storage unit 30c for storing the compressed average image data S′c, and the server 100c, and the compressed image data S ′ and the compressed average image data S stored by the storage unit 30c. 'c' can be transmitted to the server 100c, the input unit 2c including a keyboard and a mouse for the user to input various instructions, and the operation of the PC 7 is controlled according to the instructions input by the input unit 2c. The control part 4c which performs is provided.
[0074]
In the input unit 2c, an instruction to activate the film scanner 10c, a transmission instruction to be transmitted to the communication unit 40c, and the like can be performed.
[0075]
Specifically, the addition processing unit 26c is configured to store the image data S1, S2, S3,. . . The R, G, and B values of each pixel of Sn (whose position is (x, y)) are added for each pixel, and an average value is taken to obtain average color data Rci (x, y), Gci for each pixel. By obtaining (x, y), Bci (x, y) (i: 1, 2, 3,... M, m: total number of pixels of one image data), average image data constituted by these pixels Operates to create Sc.
[0076]
The compression unit 28c performs a compression process on the input image data (the image data S and the average image data Sc of the image data S). This compression process can be, for example, a JPEG compression process. .
[0077]
The storage unit 30c stores the compressed data S ′ of the image data S and the compressed data S′c of the average image data Sc as a pair.
[0078]
When a transmission instruction is input via the input unit 2c, the communication unit 40c transmits the compressed image data S ′ from the storage unit 30c to the server 100c, and the compressed average image data S that is the compressed data of the average image data Sc. 'c is also transmitted to the server 100c together.
[0079]
The operations of the film scanner 10c, the addition processing unit 26c, the compression unit 28c, the storage unit 30c, and the communication unit 40c described above are controlled by the control unit 4c.
[0080]
The user terminal device PC8 in the image service system C of the embodiment shown in FIG. 12 corresponds to the instruction device of the present invention, and FIG. 14 shows the configuration thereof. As illustrated, the user terminal device PC8 includes an input unit 2d including a keyboard and a mouse for the user to input various instructions, and a control unit that controls the operation of the PC 8 according to the instructions input by the input unit 2d. 4d, a monitor 5c that displays an image and the like according to control of the control unit 4d, and a communication unit 40d that communicates with the server 100c.
[0081]
In the input unit 2d, an instruction to access the server 100c can be given, and a user request can be made from a list of photographic images (the operation of the server 100 will be described later) displayed by the server 100c according to the access by the communication unit 40d according to the access instruction. It is possible to select a photographic image of the film and to instruct the photographic image to perform date recognition.
[0082]
The monitor 5c displays a list of photographic images transmitted from the server 100c.
[0083]
The operations of the communication unit 40d and the monitor 5c are controlled by the control unit 4d.
[0084]
FIG. 15 is a block diagram showing the configuration of the server 100c in the image service system of the embodiment shown in FIG. The server 100c also performs authentication of the lab store 200, authentication of the owner of the photographic image, billing processing related to the service to be provided, etc. In order to facilitate understanding of the gist of the present invention, the server 100c A description of the configuration such as user authentication is omitted. As shown in the figure, the server 100c receives image data (compressed image data S ′ and compressed average image data S′c; the same applies hereinafter) transmitted from the terminal device PC7 of the lab shop 200, or the user terminal device PC8. The communication unit 70 for communicating with the terminal devices PC7 and PC8 and the image data transmitted from the terminal device PC7 are not shown for each film according to the control of the control unit 70 to be described later, such as accepting access from In the first storage unit, a list of films being stored (here, for example, a representative image list of photographic images of each film) is created and provided to the user terminal device PC8 according to the control of the control unit 70 later. Among the image data stored in the first storage unit, date information is recognized by date recognition by a date recognition unit 60c described later. The image data S ′ (S′1, S′2, S′3,... S′n) of the film from which (D1, D2,. 2 in accordance with the control of the control unit 70, and a service providing unit 80c that provides a service such as image data search by date via the communication unit 50c. A date recognition unit 60c that acquires date information D by performing date recognition on image data S ′ stored in a first storage unit (not shown) of the service providing unit 80c and supplies the date information D to the service providing unit 80c, and a communication unit 50c, a date recognition unit 60c, and a control unit 70 that controls the operation of the service providing unit 80c.
[0085]
When the image data is transmitted from the terminal device PC7 of the lab shop 200 via the communication unit 50c, the control unit 70 stores the image data in the first storage unit of the service providing unit 80c, while the user terminal device When there is an access from the PC 8, the list of films being stored is transmitted from the first storage unit of the service providing unit 80c to the user terminal device PC8, and the user whose user terminal device PC8 wishes to recognize the date is selected from the list. Then, the image data of the selected film is read from the first storage unit of the service providing unit 80c, and the date recognition unit 60c performs date recognition on these image data to acquire date information D, This is provided to the service providing unit 80c.
[0086]
The date recognition unit 60c performs date recognition using average image data (image data obtained by decompressing the compressed average image data S′c) of image data of the same film. Since the typical operation is the same as that of the date recognition unit 60 of the server 100 in the image service system A shown in FIG. 1, detailed description thereof is omitted here.
[0087]
FIG. 16 is a flowchart showing the operation of the image service system C shown in FIG. The terminal device PC7 of the laboratory store 200 obtains the compressed image data S ′ and the compressed average image data S′c from the image data S obtained by scanning each film, and the compressed image data S ′ and the compressed average image data. The operation is such that S′c is paired and transmitted to the server 100c, and here the operation of acquiring the compressed image data S ′ and the compressed average image data S′c by the terminal device PC7 of the lab store 200 is performed. While omitted, the operation of the image service system C of the present embodiment will be described mainly with respect to the operation of the server 100c.
[0088]
As illustrated in FIG. 16, when the server 100c is accessed from the terminal device PC7 or the user terminal device PC8 of the lab store 200 (S200: Yes), the access is performed by the control unit 70 by the image data from the lab store 200. It is confirmed whether it is upload or access from the user terminal PC8 (S205). If the image data is uploaded from the lab store 200 (S205: Yes), the uploaded image data (compressed image data S ′ and compressed average image data S′c) is used as a first unillustrated service providing unit 80c. Save to the storage unit. Under the control of the control unit 70, the service providing unit 80c stores the uploaded image data in the first storage unit, and a list of image data stored in the first storage unit (here, each film 1) is created or updated, and the process is terminated. “Updating” means adding a reduced image data obtained by selecting a representative image from newly uploaded image data and performing a reduction process to the existing film list when there is already a film list. (S210).
[0089]
On the other hand, in step S205, if the access is from the user terminal device PC8 (S205: No), the control unit 70 of the server 100c applies the access request to the image data being stored by the first storage unit of the service providing unit 80c. It is confirmed whether the request is for date recognition or for another service (S215). If the request is a date recognition request (S215: Yes), the service providing unit 80c causes the terminal device PC8 to transmit a list of image data stored in the first storage unit via the communication unit 50c (S230). In the terminal device PC8 that has received the film list, the user uses the input unit 2d to select a film (specifically, a representative image of the corresponding film) for which date recognition is desired from the film list displayed on the monitor 5c. When a date recognition instruction is given for a film that performs date recognition by selection (S235), the control unit 70 of the server 100c compresses the compressed average image data S′c of the corresponding file from the first storage unit of the service providing unit 80c. And the date recognition unit 60c recognizes the date to obtain date information D (S240), and the compressed image data S ′ paired with the compressed average image data S′c is read from the first storage unit. In association with the date recognition information D, the date is stored in a second storage unit (not shown) of the service providing unit 80c. In accordance with this, the service providing unit 80c deletes the compressed image data S ′ and the compressed average image data S′c from the first storage unit, and updates the film list (S245).
[0090]
In step S215, when the access request from the user terminal device PC8 is a service request other than date recognition, for example, a download request for image data or a search request based on date information (S215: No), The control unit 70 of the server 100 causes the service providing unit 80c to provide the requested service and ends the process (S220).
[0091]
As described above, in the image service system C according to the present embodiment, the terminal device (lab shop 200) is different from the transmission device that uploads image data and the instruction device that instructs whether to perform date recognition on the image data. In the terminal device PC7 and the user terminal device PC8), the server 100c stores the uploaded image data, and is instructed to perform date recognition among the stored image data. Since the date recognition is performed only on the object, it is possible to save the time and cost by eliminating the trouble of performing the date recognition on the image data that the user does not need to perform the date recognition. good.
[0092]
Further, in the image service system C, when the image data for each film is transmitted from the terminal device PC7 of the lab shop 200 to the server 100c, average image data is also generated and transmitted, and the date by the date recognition unit 60c of the server 100c. Although it is used for position detection, it does not create average image data in the terminal device PC7 serving as the transmission device as in the image service system B shown in FIG. 8, and the user terminal device PC8 serving as the instruction device does not create date characters. You may make it designate the position range of.
[0093]
The preferred embodiments of the image management system of the present invention have been described above. However, the image management system of the present invention is not limited to the above-described embodiments, and various changes, increases / decreases can be made without changing the gist of the present invention. Can be added.
[0094]
For example, in the image service system A according to the embodiment shown in FIG. 1, the image data for giving a date (image data for creating the average image data Sc) and the image data for storing in the server 100 are the same image data S. However, for example, image data for storage may be acquired by a main scan, and image data for giving a date may be acquired by a prescan. In this case, the image data acquired by prescan has a low resolution, but is sufficient for date assignment.
[0095]
In the above-described embodiment, the image data is obtained by scanning a photographic film, but it may be a photographic print that has already been developed instead of the photographic film. In this case, it is only necessary to arrange these prints in the order in which they were photographed and perform scanning in this order.
[0096]
In the image service system A of the embodiment shown in FIG. 1, the average image data is used as the addition image data when estimating the date position. However, the addition image data obtained by the simple addition process may be used.
[0097]
In addition, in the image service system B of the embodiment shown in FIG. 2, in addition to instructing the date character position range for the image data instructed to perform date recognition using the input unit 2 b of the terminal device PC 1. The color of the date character may also be instructed so that the date recognition by the date recognition unit 60b of the server 100b can be performed more easily and reliably.
[0098]
In addition, the date / month / date order of date characters imprinted on a photographic image may differ depending on the camera model. For example, as a result of date recognition, when the content of the date character of a certain photographic image is 03 02 01, it is unknown whether it is February 1, 2003 or February 3, 2001. For the result of date recognition, the date recognition result may be made more reliable by causing the pointing device to instruct the order of date / month / day. In this case, the pointing device may be made to directly input the date order of the date, and the date characters of one photographic image of one film are all the possible date order. (In the case of the above-mentioned example, you may make it make a user select the date character displayed by the correct arrangement order displayed on February 1, 2003, February 3, 2001).
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an image service system A according to a first embodiment of the present invention.
2 is a block diagram showing a configuration of a terminal device PC1 in the image service system A shown in FIG.
3 is a block diagram showing a configuration of a server 100 in the image service system A shown in FIG.
FIG. 4 is a diagram for explaining the difficulty level of date recognition
FIG. 5 is a diagram for explaining the operation of the recognition rank estimation unit 64 in the server 100 shown in FIG. 3;
6 is a flowchart showing the operation of the image service system A shown in FIG.
7 is a flowchart showing the operation of the date recognition unit 60 in the server 100 shown in FIG.
FIG. 8 is a block diagram showing a configuration of an image service system B according to the second embodiment of the present invention.
9 is a block diagram showing a configuration of a terminal device PC1b in the image service system B shown in FIG.
10 is a block diagram showing a configuration of a server 100b in the image service system B shown in FIG.
11 is a flowchart showing the operation of the image service system B shown in FIG.
FIG. 12 is a block diagram showing a configuration of an image service system C according to the third embodiment of this invention.
13 is a block diagram showing a configuration of a terminal device PC7 in the image service system C shown in FIG.
14 is a block diagram showing a configuration of a terminal device PC8 in the image service system C shown in FIG.
15 is a block diagram showing a configuration of a server 100c in the image service system C shown in FIG.
FIG. 16 is a flowchart showing the operation of the image service system C shown in FIG.
[Explanation of symbols]
1,1b, 7,8 PC
2, 2b, 2c, 2d input section
4, 4b, 4c, 4d control unit
5,5c monitor
10, 10b, 10c Film scanner
20, 20b, 20c memory
26, 26c addition processing unit
28, 28b, 28c compression unit
30, 30b, 30c storage unit
40, 40b, 40c, 40d Communication unit
50, 50b, 50c Communication part
55, 55b memory
60, 60b Date recognition part
61, 61b Control unit
62 Date position detector
64, 64b Recognition rank estimation unit
66, 66b Date extraction unit
68, 68b Date estimation part
70 Control unit
80,80b Service providing department
100, 100b server
B Brightness of date background
D Date information
G Density variance of date background
H Date background range height
Q concentration
S Image data
T photo image
W Date background range width

Claims (6)

サーバ装置と、該サーバ装置とネットワークにより接続された送信装置および指示装置とからなる画像管理システムであって、
前記送信装置が、1本の写真フィルムに撮影された複数の写真画像を夫々変換して得た複数の画像データを前記サーバ装置に送信するものであり、
前記指示装置が、前記複数の画像データに対して、前記写真画像に写し込まれた日付文字の認識を行うか否かを前記サーバ装置に指示するものであり、
前記サーバ装置が、前記指示装置により前記日付文字の認識を行うように指示されたときにのみ前記複数の画像データに対して日付文字の認識を行う日付認識手段と、
前記日付認識手段により日付認識された前記複数の画像データの日付に基づいて前記複数の画像データを管理する管理手段とを備えたことを特徴とする画像管理システム。
An image management system comprising a server device, and a transmission device and an instruction device connected to the server device via a network,
The transmission device transmits a plurality of image data obtained by converting a plurality of photographic images photographed on one photographic film to the server device,
The instruction device instructs the server device whether or not to recognize date characters imprinted in the photographic image for the plurality of image data;
Date recognition means for recognizing date characters for the plurality of image data only when the server device is instructed to recognize the date characters by the instruction device;
An image management system comprising: management means for managing the plurality of image data based on dates of the plurality of image data whose dates are recognized by the date recognition means.
前記送信装置と前記指示装置が、同じ端末装置に備えられた送信手段と指示手段であることを特徴とする請求項1記載の画像管理システム。2. The image management system according to claim 1, wherein the transmission device and the instruction device are a transmission device and an instruction device provided in the same terminal device. 前記送信装置が、サービス店の端末装置に備えられた送信手段であり、
前記指示装置が、該送信手段が備えられた前記端末装置と異なる端末装置に備えられた指示手段であることを特徴とする請求項1記載の画像管理システム。
The transmission device is a transmission means provided in a terminal device of a service store,
The image management system according to claim 1, wherein the instruction device is an instruction device provided in a terminal device different from the terminal device provided with the transmission device.
前記指示装置が、前記写真画像に写し込まれた日付文字の位置範囲を指示する日付位置指示手段を備え、
前記日付認識手段が、前記日付位置指示手段により指示された位置範囲において日付認識を行うものであることを特徴とする請求項1から3のいずれか1項記載の画像管理システム。
The indicating device includes date position indicating means for indicating a position range of date characters imprinted in the photographic image;
4. The image management system according to claim 1, wherein the date recognizing unit performs date recognition in a position range instructed by the date position instructing unit.
前記日付認識手段が、前記複数の画像データを加算して得た加算画像データを用いて日付文字の位置を検出する日付位置検出手段を備え、
該日付位置検出手段により検出された前記日付文字の位置において日付認識を行うものであることを特徴とする請求項1から3のいずれか1項記載の画像管理システム。
The date recognition means comprises date position detection means for detecting the position of a date character using the added image data obtained by adding the plurality of image data;
4. The image management system according to claim 1, wherein date recognition is performed at the position of the date character detected by the date position detection means.
前記送信装置が、前記複数の画像データに対して加算処理を行って加算画像データを取得する加算手段を備え、
前記複数の画像データと共に前記加算画像データをも送信するものであることを特徴とする請求項5記載の画像管理システム。
The transmission device includes an adding unit that performs addition processing on the plurality of image data to obtain the added image data,
6. The image management system according to claim 5, wherein the added image data is transmitted together with the plurality of image data.
JP2003046911A 2003-02-25 2003-02-25 Image management system Withdrawn JP2004258843A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003046911A JP2004258843A (en) 2003-02-25 2003-02-25 Image management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003046911A JP2004258843A (en) 2003-02-25 2003-02-25 Image management system

Publications (1)

Publication Number Publication Date
JP2004258843A true JP2004258843A (en) 2004-09-16

Family

ID=33113296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003046911A Withdrawn JP2004258843A (en) 2003-02-25 2003-02-25 Image management system

Country Status (1)

Country Link
JP (1) JP2004258843A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472084A (en) * 2018-05-11 2019-11-19 精工爱普生株式会社 The generation method of image processing apparatus, storage medium and picture data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472084A (en) * 2018-05-11 2019-11-19 精工爱普生株式会社 The generation method of image processing apparatus, storage medium and picture data

Similar Documents

Publication Publication Date Title
JP3991196B2 (en) Image processing system and image processing server
US8081227B1 (en) Image quality visual indicator
US7653249B2 (en) Variance-based event clustering for automatically classifying images
JP4673461B2 (en) Digital color correction print made from color film
US8238689B2 (en) Development server, development client, development system, and development method
US8064710B2 (en) Image processing apparatus, method of controlling thereof, and program
JP4753627B2 (en) A method for dynamically controlling the file size of digital images.
US20040169873A1 (en) Automatic determination of custom parameters based on scanned image data
US20060257041A1 (en) Apparatus, method, and program for image processing
KR20080080106A (en) Transferring of digital images
US7760249B2 (en) Image recording and playing system and image recording and playing method
US7224383B2 (en) Manipulating digital images based on a user profile
JP2009027385A (en) Image processor, its method and computer program
US20070070389A1 (en) Print-ordering system and method
JP2007188238A (en) Print order system, order accepting server and image processing method
JP2011138263A (en) Management system and printer utilizing the same
JP4440411B2 (en) Image determination method, apparatus, and computer-readable recording medium
JP2004258843A (en) Image management system
JP6958641B2 (en) Image processing system, image processing method and program
US8856208B2 (en) Method and apparatus for forming image
JP2006180404A (en) Information processing apparatus
JP6675594B2 (en) Image processing system, image processing method and program
JP4115416B2 (en) Image processing method, image processing apparatus, image processing system, and image processing program
EP1351485B1 (en) Dating system and date position judging system for photographs
JP2001007965A (en) Image processor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509