JP2004326193A - Image management system, image management method, and computer program - Google Patents

Image management system, image management method, and computer program Download PDF

Info

Publication number
JP2004326193A
JP2004326193A JP2003116169A JP2003116169A JP2004326193A JP 2004326193 A JP2004326193 A JP 2004326193A JP 2003116169 A JP2003116169 A JP 2003116169A JP 2003116169 A JP2003116169 A JP 2003116169A JP 2004326193 A JP2004326193 A JP 2004326193A
Authority
JP
Japan
Prior art keywords
image
subject
map information
photographing
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003116169A
Other languages
Japanese (ja)
Inventor
Yasunori Oto
康紀 大戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003116169A priority Critical patent/JP2004326193A/en
Publication of JP2004326193A publication Critical patent/JP2004326193A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To facilitate management of photographs by combining a photograph taken with an object imaged on the photograph. <P>SOLUTION: In a system for facilitating photographs retrieving, by combining what is imaged on the photograph with the photograph taken, when a photographer adds a new recognition element to recognized result of the photograph taken by the photographer, the new recognition element is inserted in a recognition element row of the photograph of a region photographed as an object, and at the same time, map information used for recognition is renewed, by making the recognition element act on the photograph newly photographed region. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、多数の写真画像を管理する画像管理システム及び画像管理方法、並びにコンピュータ・プログラムに係り、特に、1以上の移動体が被写体として含まれる写真画像を管理する画像管理システム及び画像管理方法、並びにコンピュータ・プログラムに関する。
【0002】
さらに詳しくは、本発明は、撮影した写真に写っている被写体を認識し、写真と被写体とを結合させることによって写真の管理を容易にする画像管理システム及び画像管理方法、並びにコンピュータ・プログラムに係り、特に、複数のユーザからなるユーザ・グループ内で被写体に関する情報を共有する画像管理システム及び画像管理方法、並びにコンピュータ・プログラムに関する。
【0003】
【従来の技術】
近年、デジタル・カメラなど撮影した画像をデジタル・コンテンツとして出力し再生する機器が普及している。この種の写真は、磁気テープ、磁気ディスク、半導体メモリなどに保存される。機器操作や写真の出力が簡易であることも相俟って、手軽に撮影できることから、写真枚数も膨大になってしまう。このような場合、コンテンツの有効活用の観点からも、写真の好適な管理方法が重要となる。
【0004】
例えば、画像に所定のメタ情報を付加し、メタ情報に基づいて画像を管理し検索するという手法が取り入れられている。この場合、写真画像を撮影したときのイベントやその他の状況、撮影にまつわるエピソードや被写体に関する情報や感想など、あるいはこれらの情報に関するキーワードをメタ情報として画像とともに管理する。しかしながら、メタ情報をユーザの手付け入力に頼ると、作業負担が過大であり、煩わしい。
【0005】
また、撮影時刻や、GPS(Global Positioning System)などを利用して検出された撮影場所などをメタ情報として画像本体に自動的に付加する方法などが幾つか提案されている。
【0006】
ここで、本発明者らは、写真に写っているもの(被写体)が何なのかを、撮影した写真と結合させることによって写真検索を容易にすることができると思料する。
【0007】
例えば、建造物などを被写体として認識する認識単位とし、各認識単位を載せた地図を用意し、写真が撮影対象とする範囲と地図とを照合し、合致する認識単位を写真に含まれる被写体として認識することができる。
【0008】
ところで、地図情報は一般に普遍的で、万人向けに作成される。ここで、認識単位を載せた地図情報を記述する際も、万人向けに設定した場合、個人ユーザ又は限定的なユーザ・グループ内にのみ必要な認識単位は捨象されてしまう。また逆に、すべてのユーザが必要とする認識単位を網羅しようとすると、地図情報はデータ量が膨大となり、保存や検索の上で取扱いが難しくなる。
【0009】
例えば、万人向けの一般的な地図情報を利用する場合、個人やユーザ・グループは、対象となる写真すべてに認識対象を手付け入力などにより追加していく必要がある。
【0010】
また、これ以後に写真を撮る場合においても、認識要素を撮影対象としている写真に対して、適宜インデックスを追加していく必要がある。
【0011】
【発明が解決しようとする課題】
本発明の目的は、1以上の移動体が被写体として含まれる写真画像を好適に管理することができる、優れた画像管理システム及び画像管理方法、並びにコンピュータ・プログラムを提供することにある。
【0012】
本発明のさらなる目的は、撮影した写真に写っている被写体を認識し、写真と被写体とを結合させることによって写真の管理を容易にすることができる、優れた画像管理システム及び画像管理方法、並びにコンピュータ・プログラムを提供することにある。
【0013】
本発明のさらなる目的は、複数のユーザからなるユーザ・グループ内で被写体として認識される認識単位に関する情報を共有することができる、優れた画像管理システム及び画像管理方法、並びにコンピュータ・プログラムを提供することにある。
【0014】
【課題を解決するための手段及び作用】
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、撮影した画像に含まれる被写体と結合して画像を管理する画像管理システムであって、
被写体として認識される建造物などの認識対象を地図上の該当場所に記述した第1の地図情報と、
ユーザによって追加される認識対象を地図上に記述する第2の地図情報と、
ユーザが画像を撮影したときの撮影状態を取得する撮影状態取得手段と、
前記撮影状態に基づいて撮影画像において撮影対象とされる撮影空間を算出する撮影空間推定手段と、
前記撮影空間推定手段により算出された撮影空間と前記第1の地図情報を照合し、前記第1の地図情報上で前記撮影空間内に存在する認識対象を被写体として認識する被写体認識手段と、
ユーザからの認識対象の追加要求に応じて、新規の認識対象を前記第2の地図情報上の前記撮影空間に相当する場所に追加登録する認識対象追加登録手段と、を具備することを特徴とする画像管理システムである。
【0015】
ここで、前記撮影状態取得手段は、撮影状態として撮影時点におけるカメラ位置、レンズ方向、焦点距離、画角、絞り値を取得する。そして、前記撮影空間推定手段は、これらの撮影状態の指示値に基づいてピント面と被写界深度からなる撮影対象領域を撮影空間として算出する。
【0016】
また、本発明に係る画像管理システムは、同一ユーザが持つ他の撮影画像、あるいは他のユーザの撮影画像についての撮影空間と、前記第2の地図情報とを照合し、前記第2の地図情報上で前記撮影空間内に存在する認識対象を撮影画像の被写体として認識する第2の被写体認識手段をさらに備えている。
【0017】
本発明によれば、ユーザが撮影した写真の撮影空間と一般的な地図情報とを照合することにより、撮影画像上の被写体の実体が何あるかを認識する。さらに、ユーザは、撮影した写真の認識結果に新たな認識インデックスを加えることができる。但し、一般の地図情報は普遍的で万人向けに作成されることを尊重し、追加登録される認識対象は、一般の地図情報とは別に用意された第2の地図情報上の撮影空間と重なる領域に記載される。
【0018】
さらに、同一ユーザが撮った他の撮影画像、あるいは他のユーザが持つ撮影画像に関しても、各撮影画像についての撮影空間と第2の地図情報とを照合することにより、一般の地図情報との照合処理により得られた認識対象リストに新規の認識インデックスを挿入することができる。また、第2の地図情報に新たな認識インデックスを追加登録しておくことにより、以後、撮影空間が重なる領域を撮影した写真に対しても、新規に登録された認識インデックスを作用させることができる。
【0019】
地図情報は一般に普遍的で、万人向けに作成されるので、個人ユーザ又は限定的なユーザ・グループ内にのみ必要な認識単位は捨象されてしまう。これに対し、本発明によれば、一般の地図情報とは別に第2の地図情報を用意することにより、一般の地図情報にはない追加した認識インデックスを、特定のユーザ・グループ内において被写体認識に利用することができるようになる。
【0020】
また、本発明に係る画像管理システムは、他のユーザからの前記第2の地図情報の利用の登録申請を受理し、該他のユーザの前記第2の地図情報の利用を登録又は拒否する第2の地図情報利用管理手段をさらに備えていてもよい。このような場合、前記第2の被写体認識手段は、事前に利用登録を受けたユーザの撮影画像についてのみ、前記第2の地図情報に基づく被写体認識処理を行なうようにする。
【0021】
第2の地図情報は、ユーザ毎に作成ポリシーが相違し、ユーザのプライバシにも関わるので、すべてのユーザに公開することはできない。そこで、一般の地図情報にはない追加した認識インデックスを記載した第2の地図情報を利用するためには、ユーザ間で地図利用の登録を行なっていることが前提としている。地図利用登録を拒否した機器に関しては、以後、追加した認識インデックスを含んだ地図追加情報は共有されない。
【0022】
また、本発明の第2の側面は、撮影した画像に含まれる被写体と結合して画像を管理するための処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、
ユーザが画像を撮影したときの撮影状態を取得する撮影状態取得ステップと、前記撮影状態に基づいて撮影画像において撮影対象とされる撮影空間を算出する撮影空間推定ステップと、
前記撮影空間推定ステップにおいて算出された撮影空間を、被写体として認識される認識対象を地図上の該当場所に記述した第1の地図情報と照合し、前記第1の地図情報上で前記撮影空間内に存在する認識対象を被写体として認識する被写体認識ステップと、
ユーザからの認識対象の追加要求に応じて、新規の認識対象を前記第1の地図情報とは別に用意された第2の地図情報上の前記撮影空間に相当する場所に追加登録する認識対象追加登録ステップと、
を具備することを特徴とするコンピュータ・プログラムである。
【0023】
本発明の第2の側面に係るコンピュータ・プログラムは、コンピュータ・システム上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、本発明の第2の側面に係るコンピュータ・プログラムをコンピュータ・システムにインストールすることによって、コンピュータ・システム上では協働的作用が発揮され、本発明の第1の側面に係る画像管理システムと同様の作用効果を得ることができる。
【0024】
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
【0025】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施形態について詳解する。
【0026】
本発明は、撮影した写真に写っている被写体を認識し、写真と被写体とを結合させることによって写真の管理を容易にするものであり、より具体的には、写真を管理する時点において、新たなインデックスが指定された場合、認識単位を地図情報に記載するとともに、既に撮影した写真に付いた認識対象リストの更新を行なう。
【0027】
本発明によれば、ある撮影場所で撮影した写真を用いて新たにインデックスを追加することにより、同じ撮影場所で以前に撮影した写真にもこの新規インデックスが追加される。図1には、本発明の係る写真画像の管理方法の仕組みを図解している。
【0028】
図示の例では、地図3上のあるカメラ位置11にて建造物31に向かって撮影を行ない、参照番号41で示される写真が撮影されている。また、地図3上の別のカメラ位置12にて建造物31に向かって撮影を行ない、参照番号42で示される写真が撮影されている。そして、写真41、42について被写体認識処理を行ない、写真に写っている認識対象リストがそれぞれ作成される。
【0029】
ここで、写真41を撮影したユーザが、認識対象リスト中の被写体31に「竜宮城」という名前を与えて認識インデックスとして登録したとする。画像管理システムは、このユーザによる追加登録に応答して、当該ユーザが属するグループの地図情報に被写体31を「竜宮城」として記述するとともに、既に被写体31を撮影した別の写真52に付いた認識対象リスト上にも被写体31の認識インデックスを併せて更新する。
【0030】
図2には、本発明の実施形態に係る撮影機器の外観構成を示している。図示の機器は、例えばカメラ機能付きの携帯電話機である。
【0031】
図示の機器は、ボタンなどのユーザ操作部を含んだ本体と、この本体の略後縁端にて回動可能に軸支された蓋体とで構成されている。蓋体の先端には携帯電話通信用のアンテナ112とGPS信号受信用のアンテナ121が配設され、また、その表側12には液晶パネルからなる表示装置が組み込まれている。蓋体の裏面11には、カメラ・レンズ111が出現しており、本体上面のシャッター機能に割り当てられたボタン1241を押下操作することにより画像捕捉処理が起動し、レンズ111越しの被写体が撮影される。
【0032】
図3には、図2に示した機器の内部構成を示している。
【0033】
CPU(Central Processing Unit)415がオペレーティング・システムの制御下で、携帯電話機能並びにカメラ機能を実現するための各プログラムを実行することによって、この撮影装置101の動作が統括的にコントロールされる。CPU415は、バス417を介して各部に相互接続されている。
【0034】
RAM(Random Access Memory)413は、読み書き可能な半導体メモリによって構成され、CPU415の実行プログラム・コードをロードしたり、携帯電話機能やカメラ機能の起動時における作業データを一時的に保存したりするために使用される。また、ROM(Read Only Memory)414は、読み出し専用の半導体メモリによって構成され、CPU415の実行プログラム・コードや製造情報など工場出荷時に書き込まれる情報を恒久的に保存している。
【0035】
入力部408は、ユーザ操作可能なボタンなどからなり、電話番号入力その他のデータ入力のために使用される。また、操作ボタンの1つはカメラ機能起動時におけるシャッター409に割り当てられている。
【0036】
通信部401は、携帯電話網上の基地局との通信処理を行ない、さらにサーバ(後述)と通信を行なう。
【0037】
位置測定部403は、アンテナ121によって受信されるGPS信号に基づいて当該機器の現在位置を測定する。また、方向取得部404は、デジタル磁気コンパスなどからなり、当該機器の姿勢、若しくはカメラ・レンズの方向を取得する。位置測定にはGPS信号の信号強度とGPS衛星の空間的な広がりに基づく位置誤差が含まれるが、本実施形態では、位置測定部403は位置誤差を推定し、これを出力する。また、方向測定部404は、固定値である方向誤差を出力する。
【0038】
撮像部405は、カメラ・レンズとその結像面において画像を捕捉する撮像素子と、画像信号を処理する信号処理モジュールなどで構成される。本実施形態では、撮像部405は、カメラ位置、レンズ方向、焦点距離、画角、絞り値などの撮影状態を出力する。
【0039】
表示部406は、CPU415による処理結果を画面出力する。例えば携帯電話機能の起動時には、入力された電話番号や、通話中その他の装置状態の表示などが行なわれ、カメラ機能起動時には、カメラ・レンズを介して得られるファインダ画面や撮影後の画像が画面表示される。
【0040】
出力部407は、画像信号の外部出力やスピーカによる音声出力や振動、その他ユーザにフィードバックを与える装置からなる。
【0041】
時計416は、実時間を計時するとともに、システムに対しタイマ信号を供給する。本実施形態では、時計416は、撮像部405による撮像時刻や、位置測定部403による位置測定時刻を出力するようになっている。
【0042】
写真保存部431は、撮像部405による撮影画像を保存する。また、撮影ログ保存部432は、各撮影画像についての撮影時刻、撮影状態、撮影時の位置測定や方向取得に包含される誤差情報などからなる撮影ログを保存する。
【0043】
また、機器は機器同定のための機器識別情報を格納したID保持部402を備えており、位置測定部403で取得された位置情報とともに通信部401からサーバへ送信される。また、自らの機器位置の公開を許可している他の機器の機器IDをID名簿433に保持している。
【0044】
図3に示した携帯電話機上で写真を撮影する場合、入力部408にあるシャッター409からの入力に連動して撮影部405が動作して写真を撮影し、この撮影画像を画像保存部431に保存する。また、写真の撮影並びに画像保存に伴って、時計416により撮影時間と、撮像部405から出力される撮影状態、位置測定部403より得られるカメラ位置とその誤差範囲、方向取得部404より得られるレンズ方向とその誤差範囲を取得し、撮影ログ保存部432に保存する。また、撮影を行なわない場合においても、一定期間毎に機器の位置を把握し、時計416により計時された時間とともにログとして記録する。
【0045】
図4には、図2〜図3に示した各機器と通信を行ない、被写体認識並びに認識対象リストの提供サービスを行なうサーバの構成を模式的に示している。このサーバは、撮影側の機器から撮影状態と撮影時刻の情報を受信し、所定の地図情報上で撮影位置と各建造物の位置情報と照合し、撮影空間内の建造物や人物を被写体として認識する処理を行なう。
【0046】
CPU515がオペレーティング・システムの制御下で、携帯電話機能並びにカメラ機能を実現するための各プログラムを実行することによって、このサーバ装置全体の動作が統括的にコントロールされる。CPU515は、バス517を介して各部に相互接続されている。
【0047】
RAM513は、読み書き可能な半導体メモリによって構成され、CPU515の実行プログラム・コードをロードしたり、作業データを一時的に保存したりするために使用される。また、ROM513は、読み出し専用の半導体メモリによって構成され、CPU515の実行プログラム・コードや製造情報など工場出荷時に書き込まれる情報を恒久的に保存している。
【0048】
通信部501は、携帯電話網又はその他のネットワークを介してユーザが所持する携帯電話機との通信処理を行なう。
【0049】
地図情報蓄積部524は、所定の地図情報を蓄積している。地図情報には、各場所に存在している建造物やその他の物体に関する配置情報を含んでいる。また、地図追加情報格納部523は、ユーザの撮影機器上で追加登録された認識インデックスを同じユーザ・グループの地図情報上に追加登録して格納する。
【0050】
催し物カレンダ525は、地図情報の各場所に配置されている建造物やその他の物体に関連するイベントなどに関する情報を時間軸上で管理している。
【0051】
撮影対象範囲計算部510は、撮影画像に付随する撮影ログからカメラ位置、レンズ方向、焦点距離、画角、絞り値などの撮影状態を取得し、これらの撮影状態の指示値に基づいてピント面と被写界深度からなる撮影空間を、カメラが撮影対象とする許容範囲として算出する。
【0052】
端末位置情報蓄積部521は、各自が携帯する機器から送信される端末位置情報を格納する。ID公開情報蓄積部522は、自らの機器位置の公開を許可している機器の機器IDを格納している。
【0053】
被写体リスト取得部511は、撮影側の機器から送られてくる撮影ログから算出される撮影空間と被写体側の機器から送られてくる被写体の位置情報とを照合して、カメラの撮影対象範囲にある人の集合を被写体リストとして取得する。
【0054】
ランキング・ポイント計算部512は、推定された被写体の画像内の状況に応じた評価値をランキング・ポイントとして算出する。ここで言う評価値は、被写体が撮影空間内に存在する確からしさに基づいて計算される。但し、撮影画像には、カメラ位置の誤差やレンズ方向の誤差などの不確定な成分が含まれることから、被写体が撮影空間内に存在する確からしさに対して撮影位置誤差、視線方向誤差に基づく重み付けを与えて、情報の確度に基づいたランキング・ポイントを付与する。
【0055】
本実施形態では、図2〜図3に示す機器を携帯するユーザが撮影した写真の撮影空間と地図情報と照合することにより、撮影画像上の被写体が何あるかを認識する。さらに、同じユーザ・グループ内で、あるユーザが認識結果に新たな認識インデックスを加えた際に、撮影空間が重なる他のユーザの写真の認識対象リストにも認識インデックスを挿入する。また、ユーザ・グループの地図追加情報にも新たな認識インデックスを追加登録しておくことにより、以後、撮影空間が重なる領域を撮影する写真に対しても、この認識インデックスを作用させる。
【0056】
このように、一般の地図情報にはない追加した認識インデックスを特定のユーザ・グループ内で被写体認識に利用するためには、撮影画像に対する被写体認識、認識対象リストの提供サービスを行なうサーバに対してユーザ間で地図利用の登録を行なっていることが前提となる。図5には、サーバに対して地図利用の登録申請を行なう処理手続を図解している。
【0057】
まず、あるユーザの機器31が、センター・サーバ33に対して、他のユーザが持つ地図の利用許可を申請する地図利用登録申請を行なう(T511)。次いで、センター・サーバ33が、他のユーザの機器32に対して、地図利用登録確認を行なう(T521)。
【0058】
他のユーザの機器32から地図利用の許可が返ってきたら(T531)、センター・サーバ33は、地図利用情報を更新し、地図利用登録変更通知を撮影側の機器31へ送る(T514)。
【0059】
また、図6には、あるユーザが他のユーザの地図利用の許可申請を行なった際に、申請が拒否される場合の処理手順を示している。
【0060】
まず、あるユーザの機器31が、センター・サーバ33に対して、他のユーザが持つ地図の利用許可を申請する地図利用登録申請を行なう(T511)。次いで、センター・サーバ33が、他のユーザの機器32に対して、地図利用登録確認を行なう(T521)。
【0061】
これに対し、他のユーザの機器32から地図利用に対する拒否が返ってきたら(T532)、センター・サーバ33は、地図利用登録拒否通知を要求元ユーザの機器31へ送る(T513)。
【0062】
地図情報の利用は、ユーザ毎にポリシーが相違し、ユーザのプライバシにも関わるので、地図利用登録を拒否した機器に関しては、以後、追加した認識インデックスを含んだ地図追加情報は共有されない。
【0063】
図7には、画像管理用ユーザ・インターフェースの画面構成例を示している。参照番号2704で示される領域には撮影した写真(画像)が表示される。また、参照番号2751で示される領域には、撮影時間が、参照番号2754で示される領域には、認識種類が優先順位に従って表示され、その右側には各項目の値が表示出力される。
【0064】
参照番号2761〜2763は、コマンド・ボタン群であり、いずれかのボタンをマウスでクリックするなどの選択操作を印加すると、表示中の写真に対して該当するコマンド処理が適用される。
【0065】
参照番号2764で示される領域には、サムネイル化された写真が、画像ポイントが高い順にリストアップされている。このサムネイル・リスト2764上で選択された写真が、表示領域2704に表示出力される。ジョグダイヤルやカーソル・キー、マウス・ポインタなどを使って、サムネイル・リストから所望の写真を選択することができる。
【0066】
図8には、上下ボタンの操作により認識対象インデックスを変更する様子を示している。
【0067】
参照番号5201は、ユーザ指定の認識単位インデックスを書き込むフィールドである。また、参照番号5205は該当する認識単位のリスト順位を1つずつ上げるボタン、参照番号5206は該当する認識単位のリスト順位を1つずつ下げるボタンを、それぞれ示している。
【0068】
図示の例では、現在の認識単位のインデックス・リスト5200は、平安神宮5202、神宮通り5203、京都5204からなる。これに対し、参照番号5207で示すように、認識単位「神宮通り」を削除し、認識単位「竜宮城」を追加し、認識単位「竜宮城」の順位を下げる操作を行なうと、リスト順位が変更されて、平安神宮5212、京都5214、竜宮城5218というリスト順位になる。
【0069】
図9には、既に撮影した写真に対する認識インデックスを更新するための処理手順を図解している。
【0070】
まず、撮影側の機器31において、図8に示したような操作手順で、撮影した写真に対して新しい認識インデックスの追加を行ない(T911)、これを当該写真の撮影状態とともにセンター・サーバ33へ送信して、地図追加情報への登録申請を行なう(T912)。
【0071】
センター・サーバ33側では、認識インデックスの追加が行なわれた写真画像についての撮影空間を計算し(T921)、認識単位として地図追加情報523に追加登録する(T922)。
【0072】
そして、地図追加情報の利用登録を済ませている他のユーザへ、新規に作成された認識インデックスの通知を行なった後(T923)、認識インデックスの追加を行なった機器31にACCを返す(T924)。
【0073】
次いで、機器31側では、他の写真についても、各々の撮影状態をセンター・サーバ33へ送り(T913)、これらの写真の中にも追加された認識インデックスを含むかどうかの判定処理を依頼する。センター・サーバ33では、これらの写真について被写体認識処理を改めて行ない(T925)、各写真毎の認識された被写体についてのランキング・ポイント値を機器31へ返す(T926)。
【0074】
そして、機器31側では、追加された認識インデックスのポイント値が0より大きくなる場合(T914)、その写真の認識インデックスに新規の認識インデックスを追加登録する(T915)。
【0075】
なお、T923において通知を受けた登録ユーザの機器側では、T913〜T915の処理を同様に行ない、既に撮影した写真の認識対象リストへの新規認識インデックスの追加登録処理を行なう。
【0076】
図10には、図9中のT922で行なわれる認識インデックスを追加して地図情報を更新するための処理手順をフローチャートの形式で示している。
【0077】
まず、T912で機器31側から送られてきた撮影時点におけるカメラ位置、レンズ方向、焦点距離、画角、絞り値などで構成される撮影状態に基づいて、ピント面と被写界深度からなる撮影空間を算出する(ステップS1)。
【0078】
次いで、撮影空間に対し、中心角とピント面からの距離に応じた重み付け配分を計算する(ステップS2)。撮影空間に重み付けを行なうのは、計測精度が十分に高くない状況において、情報の確度に応じて認識候補を多く取得し、また、それらを順位付けした形でユーザに提示するためである。
【0079】
次いで、追加された認識対象インデックスが撮影空間に重なり合う場合には、その重ね合わせ分を計算する(ステップS3)。本実施形態では、重なっている数で等分している。
【0080】
そして、地図追加情報データベース423へ認識対象インデックスを追加登録して(ステップS4)、本処理ルーチン全体を終了する。
【0081】
図11には撮影領域を示している。 個々の写真データにおいて、カメラ1の撮影位置、レンズ方向4001、 画角4003、ピント距離4022、焦点距離情報、絞り値があり、これら撮影状態のパラメータ値を用いて撮影領域4002を計算する。ここで、参照番号4012、4022、4032で表される各点を通る弧はピント面を表している。また、参照番号4013、4023、4033で表される各点を通る弧は前方被写界深度を表している。また、参照番号4011、4021、4031で表される各点を通る弧は後方被写界深度を表している。
【0082】
上述したように、撮影空間には、中心角とピント面からの距離に応じた重み付けがなされている。図12には、撮影空間における重み傾斜の様子を示している。 参照番号4101で示されるグラフはカメラ方向における重み傾斜を示し、また、参照番号4102で示されるグラフはピント面の左右方向における重み傾斜を示している。本実施形態では、同図に示すように、点4022を中心として、上下方向(点4023並びに点4021)と左右方向(点4012並びに点4032)へ向けて、重みを減少させている。なお、地図情報をセルへ分割した時点で(後述)、撮影空間の積分が1になるように規格化しておく。
【0083】
図13には、異なるユーザが持つ(あるいは異なる写真が持つ)撮影空間が交差している様子を示している。同図に示す例では、2つの撮影領域1321、1322が参照番号1323で示した領域で交差している。
【0084】
本実施形態では、撮影空間と認識対象との照合や、撮影空間同士の照合などの計算処理の便宜上、メッシュ・セル状に分割して、セル単位で取り扱う。
【0085】
図14には、複数ある撮影空間をセル単位で分割するための処理手順をフローチャートの形式で示している。ここでは、既にセル分割された状態のデータに対して、撮影空間を認識単位として追加する処理を示している。
【0086】
各々のセルにおいて処理を行なう。ここで、追加領域がない場合には(ステップS11)、次のセルを処理する。未処理のセルがなければ、本処理ルーチン全体を終了する。
【0087】
まず、追加領域を1つ取り出す(ステップS12)。追加領域がない場合(ステップS13)、セル内のポイント値を1に規格化し(ステップS14)、セル情報として書き込み、次のセルの処理を行なう。
【0088】
追加情報がある場合(ステップS13)、セルにインデックスを加え(ステップS16)、ステップS12に戻る。
【0089】
図15には、被写体リスト提供サービスの運用に用いられる地図情報フォーマットの構成例を示している。
【0090】
セル情報部7001において、参照番号7111は地図情報を分割した際の領域番号を示している。地図を分割していない場合、この値は0となる。また、同図中の参照番号7112、7113は、地図をセルに分割したときの横と縦位置のセル数を示している。また、参照番号7121〜7123は、セル内の認識単位数を示しており、この値が0だと、これに続く認識単位指示7123−1が省略される。
【0091】
参照番号7123−5で示されるセル(i,j)内の認識単位数は5であり、認識単位指示7123−1が存在している。この中には、認識単位番号7123−3とポイント7123−2が対となって定義されている。また、ポイントは足して1になるように規格化されている。
【0092】
次に、認識単位定義部7002において、参照番号7021は認識単位数を表しており、その1番目から順になるように記述されている。ここで、例えば34番目の情報の場合、認識単位番号34の情報を示しており、この中には認識単位カテゴリ7221と認識単位名7222がある。
【0093】
図16には、セル分割された地図とカメラ位置とレンズ方向の関係を示している。同図に示す例では、地図は縦方向に6分割、横方向に8分割されている。実際には、セル分割を階層化するなどの工夫を行なうが、本明細書中では説明の簡素化のため省略している。参照番号1は、カメラなどの撮影装置の位置とレンズ方向を示している。同図に示す例では、二条通り1432と神宮通り1437の交差する付近に立ち、平安神宮1431を向いて撮影しているところを表している。
【0094】
[追補]
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
【0095】
【発明の効果】
以上詳記したように、本発明によれば、1以上の移動体が被写体として含まれる写真画像を好適に管理することができる、優れた画像管理システム及び画像管理方法、並びにコンピュータ・プログラムを提供することができる。
【0096】
また、本発明によれば、撮影した写真に写っている被写体を認識し、写真と被写体とを結合させることによって写真の管理を容易にすることができる、優れた画像管理システム及び画像管理方法、並びにコンピュータ・プログラムを提供することができる。
【0097】
また、本発明によれば、複数のユーザからなる特定のユーザ・グループ内で被写体として認識される認識単位に関する情報を共有することができる、優れた画像管理システム及び画像管理方法、並びにコンピュータ・プログラムを提供することができる。
【0098】
本発明によれば、写真を管理する時点において、新たなインデックスが指定された場合、認識単位を地図情報に記載するとともに、既に撮影した写真に付いた認識対象リストの更新を行なう。したがって、ユーザが新たに追加した認識インデックスに対して、これが追加された写真の撮影空間を認識単位として地図情報を更新するとともに、これまで撮った写真に対する認識インデックスを更新することができる。
【図面の簡単な説明】
【図1】本発明の係る写真画像の管理方法の仕組みを説明するための図である。
【図2】本発明の実施形態に係る撮影機器の外観構成を示した図である。
【図3】図2に示した機器の内部構成を示した図である。
【図4】被写体認識並びに認識対象リストの提供サービスを行なうサーバの構成を模式的に示した図である。
【図5】サーバに対して地図利用の登録申請を行なう処理手続を示した動作シーケンス図である。
【図6】あるユーザが他のユーザが持つ地図利用の許可申請を行なった際に、申請が拒否される場合の処理手順を示した動作シーケンス図である。
【図7】画像管理用ユーザ・インターフェースの画面構成例を示した図である。
【図8】上下ボタンの操作により認識対象インデックスを変更する様子を示した図である。
【図9】既に撮影した写真に対する認識インデックスを更新するための処理手順を示した動作シーケンス図である。
【図10】認識インデックスを追加して地図情報を更新するための処理手順を示したフローチャートである。
【図11】撮影領域を示した図である。
【図12】撮影空間における重み傾斜の様子を示した図である。
【図13】異なるユーザが持つ(あるいは異なる写真が持つ)撮影空間が交差している様子を示した図である。
【図14】複数ある撮影空間をセル単位で分割するための処理手順を示したフローチャートである。
【図15】被写体リスト提供サービスの運用に用いられる地図情報フォーマットの構成例を示した図である。
【図16】セル分割された地図とカメラ位置とレンズ方向の関係を示した図である。
【符号の説明】
401…通信部
402…ID保持部
403…位置測定部
404…方向取得部
405…撮像部
406…表示部
407…出力部
408…入力部
409…シャッター
413…RAM
414…ROM
415…CPU
416…時計
417…バス
431…写真保存部
432…撮影ログ保存部
433…ID名簿
501…通信部
510…撮影対象範囲計算部
511…被写体リスト取得部
512…ランキング・ポイント計算部
513…RAM
514…ROM
515…CPU
521…端末位置情報蓄積部
522…ID公開情報蓄積部
523…地図追加情報蓄積部
524…地図情報蓄積部
525…催し物カレンダー蓄積部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image management system and an image management method for managing a large number of photographic images, and a computer program, and more particularly to an image management system and an image management method for managing a photographic image including one or more moving objects as subjects. , As well as computer programs.
[0002]
More specifically, the present invention relates to an image management system, an image management method, and a computer program for recognizing a subject in a photographed photograph and for facilitating the management of the photograph by combining the photograph and the subject. More particularly, the present invention relates to an image management system and an image management method for sharing information about a subject within a user group including a plurality of users, and a computer program.
[0003]
[Prior art]
In recent years, devices for outputting and reproducing captured images as digital contents, such as digital cameras, have become widespread. This type of photograph is stored on a magnetic tape, a magnetic disk, a semiconductor memory, or the like. The simple operation of the device and the easy output of the photos, combined with the simplicity of photographing, increase the number of photos. In such a case, from the viewpoint of effective use of the content, a suitable management method of the photograph is important.
[0004]
For example, a technique has been adopted in which predetermined meta information is added to an image, and the image is managed and searched based on the meta information. In this case, events and other situations at the time of photographing the photograph, episodes related to the photographing, information and impressions on the subject, and keywords related to these information are managed as meta information together with the image. However, depending on the user's manual input of the meta information, the work load is excessive and troublesome.
[0005]
In addition, there have been proposed some methods of automatically adding a shooting time, a shooting location detected using a GPS (Global Positioning System) or the like as meta information to an image body, and the like.
[0006]
Here, the present inventors think that it is possible to facilitate a photo search by combining what is in the photograph (object) with the photographed photograph.
[0007]
For example, as a recognition unit for recognizing a building or the like as a subject, a map on which each recognition unit is placed is prepared, a range to be photographed is compared with the map, and a matching recognition unit is determined as a subject included in the photograph. Can be recognized.
[0008]
By the way, map information is generally universal and is created for everyone. Here, when describing the map information on which the recognition unit is described, if it is set for everybody, the recognition unit necessary only for the individual user or the limited user group is omitted. Conversely, if it is attempted to cover the recognition units required by all users, the amount of map information becomes enormous, and it becomes difficult to handle the map information in storage and retrieval.
[0009]
For example, when using general map information for everyone, it is necessary for an individual or a user group to add recognition targets to all target photographs by hand input or the like.
[0010]
Further, even when taking a picture after this, it is necessary to add an index appropriately to the picture whose recognition element is to be photographed.
[0011]
[Problems to be solved by the invention]
An object of the present invention is to provide an excellent image management system, an excellent image management method, and a computer program that can appropriately manage a photographic image including one or more moving objects as subjects.
[0012]
A further object of the present invention is to provide an excellent image management system and image management method that can recognize a subject in a photographed photograph and can easily manage the photograph by combining the photograph and the subject, and an image management method. To provide a computer program.
[0013]
A further object of the present invention is to provide an excellent image management system and image management method, and a computer program, which can share information about a recognition unit recognized as a subject in a user group including a plurality of users. It is in.
[0014]
Means and Action for Solving the Problems
The present invention has been made in consideration of the above problems, and a first aspect of the present invention is an image management system that manages an image in combination with a subject included in a captured image,
First map information that describes a recognition target such as a building that is recognized as a subject at a corresponding location on the map;
Second map information describing a recognition target added by the user on a map,
Shooting state obtaining means for obtaining a shooting state when the user has shot an image,
A photographing space estimating means for calculating a photographing space to be photographed in a photographed image based on the photographing state;
A subject recognition unit that compares the shooting space calculated by the shooting space estimation unit with the first map information, and recognizes a recognition target existing in the shooting space on the first map information as a subject;
And a recognition target additional registration unit for additionally registering a new recognition target in a location corresponding to the shooting space on the second map information in response to a request for adding a recognition target from a user. Image management system.
[0015]
Here, the photographing state acquiring means acquires a camera position, a lens direction, a focal length, an angle of view, and an aperture value at the time of photographing as a photographing state. Then, the photographing space estimating means calculates a photographing target region including the focus plane and the depth of field as a photographing space based on the instruction values of the photographing states.
[0016]
Further, the image management system according to the present invention compares the second map information with another photographed image of the same user, or a photographing space for a photographed image of another user, and compares the second map information with the second map information. The image processing apparatus further includes a second object recognizing means for recognizing a recognition target existing in the imaging space as an object of a captured image.
[0017]
According to the present invention, the photographing space of a photograph photographed by the user is compared with general map information to recognize what the entity of the subject is on the photographed image. Further, the user can add a new recognition index to the recognition result of the photographed photograph. However, we respect that general map information is universal and created for everyone, and the recognition target to be additionally registered is the shooting space on the second map information prepared separately from general map information. It is described in the overlapping area.
[0018]
Further, with respect to another photographed image taken by the same user or a photographed image possessed by another user, the photographing space of each photographed image is collated with the second map information so as to collate with general map information. A new recognition index can be inserted into the recognition target list obtained by the processing. In addition, by newly registering a new recognition index in the second map information, the newly registered recognition index can be applied to a photograph taken of an area where the photographing space overlaps thereafter. .
[0019]
Because map information is generally universal and created for everyone, recognition units that are only needed within individual users or within a limited group of users are discarded. On the other hand, according to the present invention, by providing the second map information separately from the general map information, an additional recognition index not included in the general map information can be recognized in the specific user group. It can be used for
[0020]
In addition, the image management system according to the present invention receives a registration application for use of the second map information from another user, and registers or rejects the other user's use of the second map information. A second map information use management means may be further provided. In such a case, the second subject recognizing means performs the subject recognizing process based on the second map information only for a captured image of a user who has been registered for use in advance.
[0021]
Since the second map information has a different creation policy for each user and relates to the privacy of the user, the second map information cannot be disclosed to all users. Therefore, in order to use the second map information in which the added recognition index which is not included in the general map information is used, it is assumed that the user has registered the use of the map. For the devices that have rejected the map use registration, the map additional information including the added recognition index is not shared thereafter.
[0022]
According to a second aspect of the present invention, there is provided a computer program described in a computer-readable format so as to execute a process for managing an image in combination with a subject included in a captured image on a computer system. So,
A photographing state acquiring step of acquiring a photographing state when a user photographs an image, and a photographing space estimating step of calculating a photographing space to be photographed in a photographed image based on the photographing state;
The photographing space calculated in the photographing space estimation step is compared with first map information describing a recognition target to be recognized as a subject at a corresponding location on a map, and the photographing space in the photographing space is described on the first map information. A subject recognition step of recognizing a recognition target existing in the object as a subject;
In response to a user's request for adding a recognition target, a new recognition target is added and registered at a location corresponding to the shooting space on a second map information prepared separately from the first map information. A registration step;
A computer program characterized by comprising:
[0023]
The computer program according to the second aspect of the present invention defines a computer program described in a computer-readable format so as to realize a predetermined process on a computer system. In other words, by installing the computer program according to the second aspect of the present invention in a computer system, a cooperative action is exerted on the computer system, and the image management according to the first aspect of the present invention is performed. The same operation and effect as those of the system can be obtained.
[0024]
Further objects, features, and advantages of the present invention will become apparent from more detailed descriptions based on embodiments of the present invention described below and the accompanying drawings.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0026]
The present invention recognizes a subject in a photographed photograph and facilitates the management of the photograph by combining the photograph and the subject. More specifically, the present invention provides a new method for managing a photograph. When a special index is specified, the recognition unit is described in the map information, and the recognition target list attached to the already photographed photo is updated.
[0027]
According to the present invention, by adding a new index using a photograph taken at a certain photographing place, the new index is added to a photograph previously taken at the same photographing place. FIG. 1 illustrates a mechanism of a photographic image management method according to the present invention.
[0028]
In the illustrated example, an image is taken toward the building 31 at a certain camera position 11 on the map 3, and a photograph indicated by reference numeral 41 is taken. Further, a photograph is taken toward the building 31 at another camera position 12 on the map 3, and a photograph indicated by reference numeral 42 is taken. Then, subject recognition processing is performed on the photographs 41 and 42, and recognition target lists appearing in the photographs are created.
[0029]
Here, it is assumed that the user who has taken the photograph 41 gives the subject 31 in the recognition target list the name “Ryugujo” and registers it as a recognition index. In response to the additional registration by the user, the image management system describes the subject 31 as “Ryugujo” in the map information of the group to which the user belongs, and recognizes the subject 31 with another photograph 52 already taken. The recognition index of the subject 31 is also updated on the target list.
[0030]
FIG. 2 shows an external configuration of a photographing device according to the embodiment of the present invention. The illustrated device is, for example, a mobile phone with a camera function.
[0031]
The illustrated device includes a main body including a user operation unit such as a button, and a lid rotatably supported at a substantially rear edge of the main body. An antenna 112 for mobile phone communication and an antenna 121 for receiving a GPS signal are arranged at the tip of the lid, and a display device made up of a liquid crystal panel is incorporated on the front side 12 thereof. A camera lens 111 appears on the back surface 11 of the lid, and an image capturing process is activated by pressing a button 1241 assigned to a shutter function on the upper surface of the main body, and an object through the lens 111 is photographed. You.
[0032]
FIG. 3 shows the internal configuration of the device shown in FIG.
[0033]
A CPU (Central Processing Unit) 415 executes each program for realizing the mobile phone function and the camera function under the control of the operating system, so that the operation of the photographing apparatus 101 is controlled overall. The CPU 415 is interconnected to each unit via a bus 417.
[0034]
A RAM (Random Access Memory) 413 is configured by a readable / writable semiconductor memory, and loads an execution program code of the CPU 415 and temporarily stores work data at the time of activation of a mobile phone function or a camera function. Used for A ROM (Read Only Memory) 414 is configured by a read-only semiconductor memory, and permanently stores information written at the time of factory shipment, such as an execution program code of the CPU 415 and manufacturing information.
[0035]
The input unit 408 includes buttons that can be operated by the user, and is used for inputting a telephone number and other data. One of the operation buttons is assigned to the shutter 409 when the camera function is activated.
[0036]
The communication unit 401 performs a communication process with a base station on the mobile phone network, and further communicates with a server (described later).
[0037]
The position measuring unit 403 measures the current position of the device based on the GPS signal received by the antenna 121. The direction obtaining unit 404 includes a digital magnetic compass or the like, and obtains the orientation of the device or the direction of the camera / lens. The position measurement includes a position error based on the signal strength of the GPS signal and the spatial spread of the GPS satellite. In the present embodiment, the position measurement unit 403 estimates the position error and outputs the position error. The direction measuring unit 404 outputs a direction error that is a fixed value.
[0038]
The imaging unit 405 includes a camera / lens, an imaging element that captures an image on an image plane thereof, a signal processing module that processes an image signal, and the like. In the present embodiment, the imaging unit 405 outputs a shooting state such as a camera position, a lens direction, a focal length, an angle of view, and an aperture value.
[0039]
The display unit 406 outputs the processing result of the CPU 415 on the screen. For example, when the mobile phone function is activated, the input telephone number and the status of other devices during a call are displayed, and when the camera function is activated, a finder screen obtained through a camera / lens and an image after shooting are displayed on the screen. Is displayed.
[0040]
The output unit 407 includes an external output of an image signal, audio output from a speaker, vibration, and other devices that provide feedback to a user.
[0041]
The clock 416 measures real time and supplies a timer signal to the system. In the present embodiment, the clock 416 outputs the imaging time by the imaging unit 405 and the position measurement time by the position measurement unit 403.
[0042]
The photo storage unit 431 stores an image captured by the imaging unit 405. The photographing log storage unit 432 stores a photographing log including a photographing time, a photographing state, position measurement at the time of photographing, and error information included in direction acquisition for each photographed image.
[0043]
The device includes an ID holding unit 402 storing device identification information for device identification, and is transmitted from the communication unit 401 to the server together with the position information acquired by the position measuring unit 403. Further, the device IDs of other devices permitted to disclose their device positions are stored in the ID list 433.
[0044]
When a photograph is taken on the mobile phone shown in FIG. 3, the photographing unit 405 operates in synchronization with an input from a shutter 409 in the input unit 408 to take a photograph, and the photographed image is stored in the image storage unit 431. save. Along with taking a picture and storing an image, the time taken by the clock 416, the shooting state output from the imaging unit 405, the camera position obtained by the position measurement unit 403 and its error range, and the direction obtained by the direction acquisition unit 404. The lens direction and its error range are acquired and stored in the photographing log storage unit 432. In addition, even when photographing is not performed, the position of the device is grasped at regular intervals and recorded as a log together with the time measured by the clock 416.
[0045]
FIG. 4 schematically shows a configuration of a server which communicates with each device shown in FIGS. 2 to 3 and performs a subject recognition and a provision service of a recognition target list. This server receives information on the shooting state and the shooting time from the shooting side device, compares the shooting position with the position information of each building on predetermined map information, and sets a building or a person in the shooting space as a subject. Perform recognition processing.
[0046]
The CPU 515 executes each program for realizing the mobile phone function and the camera function under the control of the operating system, so that the overall operation of the server device is controlled in a comprehensive manner. The CPU 515 is interconnected to each unit via a bus 517.
[0047]
The RAM 513 is configured by a readable and writable semiconductor memory, and is used for loading an execution program code of the CPU 515 and temporarily storing work data. The ROM 513 is configured by a read-only semiconductor memory, and permanently stores information written at the time of factory shipment, such as an execution program code of the CPU 515 and manufacturing information.
[0048]
The communication unit 501 performs communication processing with a mobile phone owned by a user via a mobile phone network or another network.
[0049]
The map information storage unit 524 stores predetermined map information. The map information includes arrangement information on buildings and other objects existing at each location. Further, the map additional information storage unit 523 additionally registers and stores the recognition index additionally registered on the user's photographing device on the map information of the same user group.
[0050]
The entertainment calendar 525 manages, on a time axis, information on events and the like related to buildings and other objects arranged at each location in the map information.
[0051]
The shooting target range calculation unit 510 obtains shooting conditions such as a camera position, a lens direction, a focal length, an angle of view, and an aperture value from a shooting log attached to a shot image, and focuses on a focus plane based on the indicated values of the shooting conditions. And the depth of field are calculated as the permissible range to be photographed by the camera.
[0052]
The terminal position information storage unit 521 stores terminal position information transmitted from a device carried by each user. The ID disclosure information storage unit 522 stores the device ID of a device that is permitted to disclose its device position.
[0053]
The subject list acquisition unit 511 compares the shooting space calculated from the shooting log sent from the device on the shooting side with the position information of the subject sent from the device on the subject side, and determines the position in the shooting target range of the camera. Acquire a set of people as a subject list.
[0054]
The ranking point calculation unit 512 calculates an evaluation value according to the estimated situation in the image of the subject as a ranking point. The evaluation value referred to here is calculated based on the probability that the subject exists in the photographing space. However, since the captured image includes uncertain components such as an error in the camera position and an error in the lens direction, the likelihood that the subject exists in the imaging space is determined based on the imaging position error and the gaze direction error. Weighting is provided to give ranking points based on the accuracy of the information.
[0055]
In the present embodiment, a user who carries the device shown in FIGS. 2 and 3 recognizes a subject on a captured image by comparing the image capturing space of the photo captured by the user with the map information. Further, when a certain user adds a new recognition index to the recognition result in the same user group, the recognition index is also inserted into a recognition target list of a photograph of another user whose shooting space overlaps. In addition, by additionally registering a new recognition index in the map additional information of the user group, the recognition index is applied to a photograph of an area where the photographing space overlaps thereafter.
[0056]
As described above, in order to use an added recognition index not included in general map information for subject recognition within a specific user group, a server that provides a service for providing a subject recognition for a captured image and a recognition target list is provided. It is assumed that registration of map use is performed between users. FIG. 5 illustrates a processing procedure for making an application for map use registration to the server.
[0057]
First, a device 31 of a certain user makes a map use registration application to the center server 33 to apply for permission to use a map held by another user (T511). Next, the center server 33 confirms map use registration with respect to the device 32 of another user (T521).
[0058]
When the permission of map use is returned from the device 32 of another user (T531), the center server 33 updates the map use information and sends a map use registration change notification to the device 31 on the photographing side (T514).
[0059]
FIG. 6 shows a processing procedure when an application is rejected when a certain user makes an application for permitting use of a map by another user.
[0060]
First, a device 31 of a certain user makes a map use registration application to the center server 33 to apply for permission to use a map held by another user (T511). Next, the center server 33 confirms map use registration with respect to the device 32 of another user (T521).
[0061]
On the other hand, when a refusal to use the map is returned from the device 32 of another user (T532), the center server 33 sends a map use registration rejection notification to the device 31 of the requesting user (T513).
[0062]
Since the use of the map information has different policies for each user and is related to the privacy of the user, the map addition information including the added recognition index is not shared thereafter for the devices that have refused the map use registration.
[0063]
FIG. 7 illustrates a screen configuration example of the image management user interface. A photographed image (image) is displayed in an area indicated by reference numeral 2704. In the area indicated by reference numeral 2751, the shooting time is displayed, and in the area indicated by reference numeral 2754, the recognition type is displayed according to the priority order, and the value of each item is displayed and output to the right thereof.
[0064]
Reference numerals 2761 to 2763 denote a group of command buttons. When a selection operation such as clicking one of the buttons with a mouse is applied, the corresponding command processing is applied to the currently displayed photograph.
[0065]
In an area indicated by reference numeral 2764, thumbnailed photographs are listed in descending order of image points. The photo selected on the thumbnail list 2764 is displayed and output on the display area 2704. Using a jog dial, cursor keys, a mouse pointer, etc., a desired picture can be selected from the thumbnail list.
[0066]
FIG. 8 shows how the recognition target index is changed by operating the up and down buttons.
[0067]
Reference numeral 5201 denotes a field in which a user-designated recognition unit index is written. Reference numeral 5205 indicates a button for increasing the list order of the corresponding recognition unit by one, and reference numeral 5206 indicates a button for decreasing the list order of the corresponding recognition unit by one.
[0068]
In the illustrated example, the index list 5200 of the current recognition unit includes Heian Jingu Shrine 5202, Jingu Dori 5203, and Kyoto 5204. On the other hand, as shown by reference numeral 5207, when the recognition unit “Jingu-dori” is deleted, the recognition unit “Ryugujo” is added, and the recognition unit “Ryugujo” is ranked lower, the list rank becomes higher. The list order is changed to Heian Shrine 5212, Kyoto 5214, and Ryugu Castle 5218.
[0069]
FIG. 9 illustrates a processing procedure for updating a recognition index for a photograph that has already been taken.
[0070]
First, the photographing-side device 31 adds a new recognition index to the photographed photograph by the operation procedure as shown in FIG. 8 (T911), and transmits this to the center server 33 together with the photographing state of the photograph. By transmitting the request, a registration application for the map additional information is made (T912).
[0071]
The center server 33 calculates the shooting space for the photographic image to which the recognition index has been added (T921), and additionally registers it in the map additional information 523 as a recognition unit (T922).
[0072]
Then, after notifying the newly created recognition index to other users who have registered the use of the map addition information (T923), the ACC is returned to the device 31 that has added the recognition index (T924). .
[0073]
Next, the device 31 sends the photographing state of each of the other photographs to the center server 33 (T913), and requests a determination process to determine whether or not these photographs include the added recognition index. . The center server 33 performs subject recognition processing on these photographs again (T925), and returns the ranking point value of the recognized subject for each photograph to the device 31 (T926).
[0074]
Then, when the point value of the added recognition index becomes larger than 0 (T914), the device 31 additionally registers a new recognition index in the recognition index of the photograph (T915).
[0075]
Note that the device of the registered user who has received the notification in T923 performs the processes of T913 to T915 in the same manner, and performs the process of additionally registering a new recognition index in the recognition target list of already photographed photos.
[0076]
FIG. 10 shows, in the form of a flowchart, a processing procedure for updating map information by adding a recognition index performed at T922 in FIG.
[0077]
First, based on a shooting state including a camera position, a lens direction, a focal length, an angle of view, an aperture value, and the like at the time of shooting transmitted from the device 31 side in T912, shooting including a focus surface and a depth of field is performed. A space is calculated (step S1).
[0078]
Next, weight distribution is calculated for the photographing space according to the center angle and the distance from the focus plane (step S2). The reason why weighting is applied to the imaging space is to acquire a large number of recognition candidates according to the accuracy of the information and to present them to the user in a ranked form in a situation where the measurement accuracy is not sufficiently high.
[0079]
Next, when the added recognition target index overlaps the photographing space, the overlap amount is calculated (step S3). In the present embodiment, the number is equally divided by the number of overlaps.
[0080]
Then, the recognition target index is additionally registered in the map additional information database 423 (step S4), and the entire processing routine ends.
[0081]
FIG. 11 shows a photographing area. Each piece of photograph data includes a photographing position of the camera 1, a lens direction 4001, an angle of view 4003, a focus distance 4022, focal length information, and an aperture value. The photographing area 4002 is calculated using these photographing state parameter values. Here, an arc passing through each point represented by reference numerals 4012, 4022, and 4032 represents a focus plane. An arc passing through each point represented by reference numerals 4013, 4023, and 4033 represents the front depth of field. An arc passing through each point represented by reference numerals 4011, 4021, and 4031 represents a rear depth of field.
[0082]
As described above, the imaging space is weighted according to the central angle and the distance from the focus plane. FIG. 12 shows a state of the weight gradient in the photographing space. A graph indicated by reference numeral 4101 indicates a weight inclination in the camera direction, and a graph indicated by reference numeral 4102 indicates a weight inclination in the horizontal direction of the focus plane. In the present embodiment, as shown in the figure, the weight is reduced in the vertical direction (points 4023 and 4021) and in the horizontal direction (points 4012 and 4032) around the point 4022. It should be noted that when the map information is divided into cells (described later), it is standardized so that the integral of the photographing space becomes 1.
[0083]
FIG. 13 shows a state in which the photographing spaces of different users (or of different photographs) intersect. In the example shown in the figure, two photographing regions 1321 and 1322 intersect at a region indicated by reference numeral 1323.
[0084]
In the present embodiment, for convenience of calculation processing such as collation between the imaging space and the recognition target and collation between the imaging spaces, the image is divided into mesh cells and handled in cell units.
[0085]
FIG. 14 shows, in the form of a flowchart, a processing procedure for dividing a plurality of imaging spaces in units of cells. Here, a process of adding a shooting space as a recognition unit to data that has already been divided into cells is shown.
[0086]
Processing is performed in each cell. If there is no additional area (step S11), the next cell is processed. If there are no unprocessed cells, the entire processing routine ends.
[0087]
First, one additional area is taken out (step S12). If there is no additional area (step S13), the point value in the cell is normalized to 1 (step S14), written as cell information, and the next cell is processed.
[0088]
If there is additional information (step S13), an index is added to the cell (step S16), and the process returns to step S12.
[0089]
FIG. 15 shows a configuration example of a map information format used for operation of the subject list providing service.
[0090]
In the cell information section 7001, reference numeral 7111 indicates an area number when map information is divided. This value is 0 when the map is not divided. Reference numerals 7112 and 7113 in the figure indicate the number of cells in the horizontal and vertical positions when the map is divided into cells. Reference numerals 7121 to 7123 indicate the number of recognition units in the cell. If this value is 0, the subsequent recognition unit instruction 7123-1 is omitted.
[0091]
The number of recognition units in the cell (i, j) indicated by reference numeral 7123-5 is 5, and a recognition unit instruction 7123-1 is present. In this, a recognition unit number 7123-3 and a point 7123-2 are defined as a pair. The points are standardized so that they add to one.
[0092]
Next, in the recognition unit definition unit 7002, reference numeral 7021 represents the number of recognition units, which are described in order from the first. Here, for example, in the case of the 34th information, the information of the recognition unit number 34 is shown, and there are a recognition unit category 7221 and a recognition unit name 7222.
[0093]
FIG. 16 shows the relationship between the cell-divided map, the camera position, and the lens direction. In the example shown in the figure, the map is divided into six in the vertical direction and eight in the horizontal direction. In practice, some measures such as layering the cell division are performed, but are omitted in this specification for simplification of the description. Reference numeral 1 indicates a position of a photographing device such as a camera and a lens direction. In the example shown in the drawing, the image is standing near the intersection of Nijo-dori 1432 and Jingu-dori 1437 and is facing the Heian Jingu 1431 and is photographing.
[0094]
[Supplement]
The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the scope of the present invention. That is, the present invention has been disclosed by way of example, and the contents described in this specification should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims described at the beginning should be considered.
[0095]
【The invention's effect】
As described above in detail, according to the present invention, an excellent image management system, an excellent image management method, and a computer program capable of suitably managing a photographic image including one or more moving objects as subjects are provided. can do.
[0096]
Further, according to the present invention, an excellent image management system and image management method capable of recognizing a subject appearing in a photographed photograph and facilitating the management of the photograph by combining the photograph and the subject, And a computer program.
[0097]
Further, according to the present invention, an excellent image management system, image management method, and computer program capable of sharing information on a recognition unit recognized as a subject within a specific user group including a plurality of users Can be provided.
[0098]
According to the present invention, when a new index is designated at the time of managing a photo, the recognition unit is described in the map information, and the recognition target list attached to the already taken photo is updated. Therefore, for the recognition index newly added by the user, the map information can be updated using the photographing space of the photo to which the user has added the recognition space as a recognition unit, and the recognition index for the photos taken so far can be updated.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining a mechanism of a photographic image management method according to the present invention.
FIG. 2 is a diagram illustrating an external configuration of a photographing device according to the embodiment of the present invention.
FIG. 3 is a diagram showing an internal configuration of the device shown in FIG. 2;
FIG. 4 is a diagram schematically illustrating a configuration of a server that provides a subject recognition and a recognition target list providing service.
FIG. 5 is an operation sequence diagram showing a processing procedure for making an application for map use registration to a server.
FIG. 6 is an operation sequence diagram showing a processing procedure when an application is rejected when a user makes an application for permission to use a map held by another user.
FIG. 7 is a diagram illustrating a screen configuration example of an image management user interface.
FIG. 8 is a diagram illustrating a state in which a recognition target index is changed by operating an up / down button.
FIG. 9 is an operation sequence diagram showing a processing procedure for updating a recognition index for a photograph that has already been taken.
FIG. 10 is a flowchart showing a processing procedure for updating a map information by adding a recognition index.
FIG. 11 is a diagram showing a shooting area.
FIG. 12 is a diagram illustrating a state of a weight gradient in a photographing space.
FIG. 13 is a diagram illustrating a state where shooting spaces owned by different users (or held by different photographs) intersect.
FIG. 14 is a flowchart showing a processing procedure for dividing a plurality of photographing spaces in cell units.
FIG. 15 is a diagram illustrating a configuration example of a map information format used for operation of a subject list providing service.
FIG. 16 is a diagram showing a relationship between a cell-divided map, a camera position, and a lens direction.
[Explanation of symbols]
401 communication unit 402 ID holding unit 403 position measurement unit 404 direction acquisition unit 405 imaging unit 406 display unit 407 output unit 408 input unit 409 shutter 413 RAM
414 ... ROM
415 ... CPU
416, clock 417, bus 431, photograph storage unit 432, photography log storage unit 433, ID list 501, communication unit 510, photography target range calculation unit 511, subject list acquisition unit 512, ranking point calculation unit 513, RAM
514 ... ROM
515 ... CPU
Reference numeral 521: terminal position information storage unit 522, ID public information storage unit 523, map additional information storage unit 524, map information storage unit 525, entertainment calendar storage unit

Claims (11)

撮影した画像に含まれる被写体と結合して画像を管理する画像管理システムであって、
被写体として認識される認識対象を地図上の該当場所に記述した第1の地図情報と、
ユーザによって追加される認識対象を地図上に記述する第2の地図情報と、
ユーザが画像を撮影したときの撮影状態を取得する撮影状態取得手段と、
前記撮影状態に基づいて撮影画像において撮影対象とされる撮影空間を算出する撮影空間推定手段と、
前記撮影空間推定手段により算出された撮影空間と前記第1の地図情報を照合し、前記第1の地図情報上で前記撮影空間内に存在する認識対象を被写体として認識する被写体認識手段と、
ユーザからの認識対象の追加要求に応じて、新規の認識対象を前記第2の地図情報上の前記撮影空間に相当する場所に追加登録する認識対象追加登録手段と、を具備することを特徴とする画像管理システム。
An image management system that manages an image by combining with a subject included in a captured image,
First map information describing a recognition target to be recognized as a subject at a corresponding location on a map;
Second map information describing a recognition target added by the user on a map,
Shooting state obtaining means for obtaining a shooting state when the user has shot an image,
A photographing space estimating means for calculating a photographing space to be photographed in a photographed image based on the photographing state;
A subject recognition unit that compares the shooting space calculated by the shooting space estimation unit with the first map information, and recognizes a recognition target existing in the shooting space on the first map information as a subject;
And a recognition target additional registration unit for additionally registering a new recognition target in a location corresponding to the shooting space on the second map information in response to a request for adding a recognition target from a user. Image management system.
前記撮影状態取得手段は、撮影状態として撮影時点におけるカメラ位置、レンズ方向、焦点距離、画角、絞り値を取得し、
前記撮影空間推定手段は、これらの撮影状態の指示値に基づいてピント面と被写界深度からなる撮影空間を算出する、
ことを特徴とする請求項1に記載の画像管理システム。
The photographing state acquiring means acquires a camera position, a lens direction, a focal length, an angle of view, and an aperture value at the time of photographing as a photographing state,
The photographing space estimating means calculates a photographing space including a focus plane and a depth of field based on the instruction values of these photographing states.
The image management system according to claim 1, wherein:
同一ユーザが持つ他の撮影画像又は他のユーザが持つ撮影画像についての撮影空間と前記第2の地図情報を照合し、前記第2の地図情報上で前記撮影空間内に存在する認識対象を撮影画像の被写体として認識する第2の被写体認識手段をさらに備える、
ことを特徴とする請求項1に記載の画像管理システム。
The second map information is compared with another photographed image of the same user or a photographing space of a photographed image of another user, and a recognition target existing in the photographing space is photographed on the second map information. A second object recognition unit that recognizes the object as an object of the image;
The image management system according to claim 1, wherein:
前記被写体認識手段及び/又は前記第2の被写体認識手段により認識された各被写体についての撮影画像内の状況に応じた評価値を算出する被写体評価値算出手段と、
各画像に含まれる被写体をその評価値に基づいた優先順位に従って管理する被写体管理手段と、
優先順位に従って被写体が含まれる画像を検索する画像検索手段と、
をさらに備えることを特徴とする請求項1又は3のいずれかに記載の画像管理システム。
Subject evaluation value calculation means for calculating an evaluation value according to a situation in a captured image of each subject recognized by the subject recognition means and / or the second subject recognition means;
Subject management means for managing subjects included in each image according to a priority order based on the evaluation value;
Image search means for searching for an image including the subject according to the priority order;
The image management system according to claim 1, further comprising:
他のユーザからの前記第2の地図情報の利用の登録申請を受理し、該他のユーザの前記第2の地図情報の利用を登録又は拒否する第2の地図情報利用管理手段をさらに備え、
前記第2の被写体認識手段は、事前に利用登録を受けたユーザの撮影画像についてのみ前記第2の地図情報に基づく被写体認識処理を行なう、
ことを特徴とする請求項3に記載の画像管理システム。
A second map information use management unit that accepts a registration application for use of the second map information from another user, and registers or rejects use of the second map information by the other user;
The second subject recognition means performs a subject recognition process based on the second map information only for a photographed image of a user whose use has been registered in advance;
The image management system according to claim 3, wherein:
撮影した画像に含まれる被写体と結合して画像を管理する画像管理方法であって、
ユーザが画像を撮影したときの撮影状態を取得する撮影状態取得ステップと、前記撮影状態に基づいて撮影画像において撮影対象とされる撮影空間を算出する撮影空間推定ステップと、
前記撮影空間推定ステップにおいて算出された撮影空間を、被写体として認識される認識対象を地図上の該当場所に記述した第1の地図情報と照合し、前記第1の地図情報上で前記撮影空間内に存在する認識対象を被写体として認識する被写体認識ステップと、
ユーザからの認識対象の追加要求に応じて、新規の認識対象を前記第1の地図情報とは別に用意された第2の地図情報上の前記撮影空間に相当する場所に追加登録する認識対象追加登録ステップと、
を具備することを特徴とする画像管理方法。
An image management method for managing an image in combination with a subject included in a captured image,
A photographing state acquiring step of acquiring a photographing state when a user photographs an image, and a photographing space estimating step of calculating a photographing space to be photographed in a photographed image based on the photographing state;
The photographing space calculated in the photographing space estimating step is compared with first map information describing a recognition target to be recognized as a subject at a corresponding location on a map, and the photographing space in the photographing space on the first map information A subject recognition step of recognizing a recognition target existing in the object as a subject;
In response to a user's request for adding a recognition target, a new recognition target is added and registered at a location corresponding to the shooting space on a second map information prepared separately from the first map information. A registration step;
An image management method, comprising:
前記撮影状態取得ステップでは、撮影状態として撮影時点におけるカメラ位置、レンズ方向、焦点距離、画角、絞り値を取得し、
前記撮影空間推定ステップでは、これらの撮影状態の指示値に基づいてピント面と被写界深度からなる撮影空間を算出する、
ことを特徴とする請求項6に記載の画像管理方法。
In the shooting state obtaining step, a camera position, a lens direction, a focal length, an angle of view, and an aperture value at the time of shooting are obtained as a shooting state,
In the photographing space estimation step, a photographing space including a focus plane and a depth of field is calculated based on the instruction values of the photographing states.
7. The image management method according to claim 6, wherein:
同一ユーザが持つ他の撮影画像又は他のユーザが持つ撮影画像についての撮影空間と前記第2の地図情報を照合し、前記第2の地図情報上で前記撮影空間内に存在する認識対象を撮影画像の被写体として認識する第2の被写体認識ステップをさらに備える、
ことを特徴とする請求項6に記載の画像管理方法。
The second map information is compared with another photographed image of the same user or a photographing space of a photographed image of another user, and a recognition target existing in the photographing space is photographed on the second map information. Further comprising a second subject recognition step of recognizing the subject as an image.
7. The image management method according to claim 6, wherein:
前記被写体認識ステップ及び/又は前記第2の被写体認識ステップにおいて認識された各被写体についての撮影画像内の状況に応じた評価値を算出する被写体評価値算出ステップと、
各画像に含まれる被写体をその評価値に基づいた優先順位に従って管理する被写体管理ステップと、
優先順位に従って被写体が含まれる画像を検索する画像検索ステップと、
をさらに備えることを特徴とする請求項6又は8のいずれかに記載の画像管理方法。
A subject evaluation value calculating step of calculating an evaluation value according to a situation in a captured image of each subject recognized in the subject recognition step and / or the second subject recognition step;
A subject management step of managing subjects included in each image according to a priority order based on the evaluation value;
An image search step of searching for an image including the subject according to the priority order;
The image management method according to claim 6, further comprising:
他のユーザからの前記第2の地図情報の利用の登録申請を受理し、該他のユーザの前記第2の地図情報の利用を登録又は拒否する第2の地図情報利用管理ステップをさらに備え、
前記第2の被写体認識ステップでは、事前に利用登録を受けたユーザの撮影画像についてのみ前記第2の地図情報に基づく被写体認識処理を行なう、
ことを特徴とする請求項8に記載の画像管理方法。
A second map information use management step of receiving a registration request for use of the second map information from another user and registering or rejecting the use of the second map information of the other user;
In the second subject recognition step, subject recognition processing based on the second map information is performed only for a captured image of a user who has been registered for use in advance.
The image management method according to claim 8, wherein:
11撮影した画像に含まれる被写体と結合して画像を管理するための処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、
ユーザが画像を撮影したときの撮影状態を取得する撮影状態取得ステップと、前記撮影状態に基づいて撮影画像において撮影対象とされる撮影空間を算出する撮影空間推定ステップと、
前記撮影空間推定ステップにおいて算出された撮影空間を、被写体として認識される認識対象を地図上の該当場所に記述した第1の地図情報と照合し、前記第1の地図情報上で前記撮影空間内に存在する認識対象を被写体として認識する被写体認識ステップと、
ユーザからの認識対象の追加要求に応じて、新規の認識対象を前記第1の地図情報とは別に用意された第2の地図情報上の前記撮影空間に相当する場所に追加登録する認識対象追加登録ステップと、
を具備することを特徴とするコンピュータ・プログラム。
11. A computer program written in a computer-readable format to execute a process for managing an image in combination with a subject included in a captured image on a computer system,
A photographing state acquiring step of acquiring a photographing state when a user photographs an image, and a photographing space estimating step of calculating a photographing space to be photographed in a photographed image based on the photographing state;
The photographing space calculated in the photographing space estimating step is compared with first map information describing a recognition target to be recognized as a subject at a corresponding location on a map, and the photographing space in the photographing space on the first map information A subject recognition step of recognizing a recognition target existing in the object as a subject;
In response to a user's request for adding a recognition target, a new recognition target is added and registered at a location corresponding to the shooting space on a second map information prepared separately from the first map information. A registration step;
A computer program comprising:
JP2003116169A 2003-04-21 2003-04-21 Image management system, image management method, and computer program Pending JP2004326193A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003116169A JP2004326193A (en) 2003-04-21 2003-04-21 Image management system, image management method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003116169A JP2004326193A (en) 2003-04-21 2003-04-21 Image management system, image management method, and computer program

Publications (1)

Publication Number Publication Date
JP2004326193A true JP2004326193A (en) 2004-11-18

Family

ID=33496505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003116169A Pending JP2004326193A (en) 2003-04-21 2003-04-21 Image management system, image management method, and computer program

Country Status (1)

Country Link
JP (1) JP2004326193A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006103744A1 (en) * 2005-03-29 2008-09-04 富士通株式会社 Video search device
JP2010256940A (en) * 2009-04-21 2010-11-11 Sony Corp Electronic apparatus, display control method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006103744A1 (en) * 2005-03-29 2008-09-04 富士通株式会社 Video search device
JP4601666B2 (en) * 2005-03-29 2010-12-22 富士通株式会社 Video search device
JP2010256940A (en) * 2009-04-21 2010-11-11 Sony Corp Electronic apparatus, display control method and program

Similar Documents

Publication Publication Date Title
US7730036B2 (en) Event-based digital content record organization
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
US9679057B1 (en) Apparatus for sharing image content based on matching
US8447769B1 (en) System and method for real-time image collection and sharing
JP2004260304A (en) Image management system
JP3908171B2 (en) Image storage method, apparatus, and program
US20100322483A1 (en) System and method for automatic identification of wildlife
JP5223034B2 (en) Information providing apparatus, information providing method, information providing processing program, and recording medium on which information providing processing program is recorded
JP4281402B2 (en) Image management system, image management method, and computer program
KR101038940B1 (en) System and method for managing image information using object extracted from image
JP4542013B2 (en) Print order system, program, program storage medium, and print order server
JP6504896B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND IMAGE TRANSFER SYSTEM
JP5739239B2 (en) Imaging support system and imaging apparatus
JP4557658B2 (en) Event image disclosure method and system
JP2013069024A (en) Image retrieval program and image retrieval device
JP5262308B2 (en) Evaluation apparatus, evaluation method, evaluation program, and evaluation system
JP2004326193A (en) Image management system, image management method, and computer program
JP2004326192A (en) Image management system, image management method, and computer program
JP4281478B2 (en) Image photographing apparatus and program
US20140108405A1 (en) User-specified image grouping systems and methods
JP5743017B2 (en) Image management apparatus and program
JP7028732B2 (en) Information collection server, information collection system, and information collection method
JP6591594B2 (en) Information providing system, server device, and information providing method
JP7359074B2 (en) Information processing device, information processing method, and system
JP2018005611A (en) Information processing equipment