JP2004246454A - Image forming program, and image forming device - Google Patents

Image forming program, and image forming device Download PDF

Info

Publication number
JP2004246454A
JP2004246454A JP2003033398A JP2003033398A JP2004246454A JP 2004246454 A JP2004246454 A JP 2004246454A JP 2003033398 A JP2003033398 A JP 2003033398A JP 2003033398 A JP2003033398 A JP 2003033398A JP 2004246454 A JP2004246454 A JP 2004246454A
Authority
JP
Japan
Prior art keywords
image
comment
annotation
information
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003033398A
Other languages
Japanese (ja)
Other versions
JP2004246454A5 (en
Inventor
Shinichi Ban
慎一 伴
Rieko Izume
理恵子 井爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2003033398A priority Critical patent/JP2004246454A/en
Publication of JP2004246454A publication Critical patent/JP2004246454A/en
Publication of JP2004246454A5 publication Critical patent/JP2004246454A5/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To display information of a footnote appended to an area of one portion within an image to easily understand correspondence to an assigned area within the image. <P>SOLUTION: When preparing an output screen 60 including an image column 61 for displaying the whole image 61 of which the one portion is assigned as an assigned area 611, and including an annotation column 62 for displaying annotation information 62b related to the assigned area, in one screen, a display format such as a line color for a frame of the assigned area 611 displayed in the image column 61 is made to differ in response to attribute of the annotation information 62b. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータにより画像を形成する画像形成プログラム及び画像形成装置に関し、特に、インターネットなどにおいて画像の閲覧者から付されたコメントを含む画像を作成する画像作成プログラム及び画像作成装置に関する。
【0002】
【従来の技術】
近年、デジタルカメラの普及により、撮影した画像を整理するための画像データベースの利用が拡大してきている。これらの画像データベースは、コンピュータにインストールされたプログラムにより検索や閲覧が行えるようになっている。また、画像を整理する際には、それぞれの画像に対応するコメントを入力し、それぞれの画像とそれに対応するコメントとを同時に表示画面に表して閲覧することができるようになっている。
【0003】
また、インターネットにアクセス可能なサーバ上に画像データを登録して、利用者がインターネットを通じて画像を閲覧できるサイト(フォトサイト)が多く開設されている。この場合において、上記画像の検索や閲覧を行うためのプログラムは、上記サーバ上に配され、各利用者は、当該フォトサイトにアクセスすることにより、上記画像データベースを操作することができる。
【0004】
これらのフォトサイトでは、不特定の者が、登録されている画像を閲覧して、各画像に対するコメントを送信することができる。そして、不特定の者からコメントと画像とを対応付けて同時に表示して閲覧できるようになっている。
【0005】
例えば、特許文献1(特開2002−55748号公報)には、画像に対する注釈を付す場合に、画像の特定の領域を決定し、アイコンと対応付けられたメタデータを当該領域と対応付けすることにより、画像全体の中の一部に注釈を付す技術が開示されている。
【0006】
また、例えば、当該フォトサイトに画像の登録者自体がコメントを付したいような場合、デジタルカメラで撮影した画像にコメントを付すには、音声データなどを用いるほうが便利である。すなわち、大抵のデジタルカメラは、入力装置として、十字キーと若干のボタンしかなく、テキスト形式でコメントを付すことが極めて面倒である。そこで、一部のデジタルカメラには、撮影した画像に音声でコメント入力をすることができるアフレコ機能を有するものがある。
【0007】
このようにアフレコ機能を有するデジタルカメラで撮影された画像を、前記フォトサイトに登録する場合、上記フォトサイトにおいて、アフレコにより入力されたコメントを音声データとして用いることができるようにすることにより、テキストデータと同様に取り扱うことができる。
【0008】
画像にテキストデータのほか音声データやビデオデータなどのマルチメディアデータを用いてコメントが付された場合、音声データやビデオデータなどのマルチメディアデータは、テキストデータと異なり、画面上において同時に表示、再生することができないため、取扱を異ならせる必要がある。しかし、画像のどの領域に付されたコメントがマルチメディアデータであるかなどについては、実際に関連付けられているコメントを再生してみなければ区別がつかず、閲覧者にとっては不便であった。
【0009】
【特許文献1】
特開2002−55748号公報
【0010】
【発明が解決しようとする課題】
したがって、本発明が解決しようとする技術的課題は、画像の一部の領域に付された注釈の情報を画像中の指定領域との対応をわかりやすく表示することができる画像形成プログラム及び画像形成装置を提供することである。
【0011】
【課題を解決するための手段】
上記課題を解決するために、本発明は、一部の領域を指定領域として指定された全体画像を表示する画像欄と、当該指定領域に関連付けられた注釈情報を表示する注釈欄とを1画面に含む出力画面情報を形成するためにコンピュータを、種々の属性を有する注釈情報を前記指定された指定領域に関連付けを行う注釈付加手段、前記注釈付加手段によって関連付けされた注釈情報の属性に応じて、前記画像欄に表示される前記指定領域の表示形式を異ならせて前記出力画面情報を形成する画像形成手段、として機能させるための画像形成プログラムを提供する。
【0012】
上記構成において、画像形成プログラムは、コンピュータを、一部の領域を指定領域として指定された全体画像を表示する画像欄と、当該指定領域に関連付けられた注釈情報を表示する注釈欄とを1画面に含む出力画面情報を形成させるためのプログラムである。注釈付加手段は、注釈情報として属性が異なるものを用いることができ、それぞれ画像上に指定された指定領域に対応付けすることができる。注釈情報の属性としては、具体的には、テキストデータやマルチメディアデータなどのファイルタイプや、コメント階層などの注釈を付す位置又はこれらの組み合わせなどが挙げられる。
【0013】
画像形成手段は、注釈情報の属性に応じて、指定領域の表示形式を異ならせて、出力画面情報を形成する。指定領域の表示形式としては、領域を囲む枠線の色、選手、模様、太さ、指定領域内画像の変色、指定領域内を塗りつぶし、変色、模様を付すなどが例示される。
【0014】
上記構成によれば、関連付けされている注釈情報の属性に応じて、指定領域の出力形式が異なるため、出力画面を見た閲覧者がどのような属性を有する注射腔情報が付されているかを判断しやすくすることができる。この場合、注釈情報の表示特性と指定領域の表示特性とを共通にすることにより、出力画面を見た閲覧者にとって、その対応をさらに理解しやすくすることができる。
【0015】
なお、上記構成において、画像に付されているすべての注釈情報に関連付けられている指定領域を表示する必要はなく、例えば、注釈欄に表示されている注釈情報に関連付けられている指定領域のみを画像上に表示するようにしてもよい。
【0016】
本発明の画像作成プログラムは、具体的には以下のように種々の態様で構成することができる。
【0017】
さらにコンピュータを、前記出力画面情報上において、前記注釈情報又は指定領域のいずれか一方を特定する特定手段として機能させ、前記画像形成手段は、前記特定手段により特定がなされると、前記特定された情報と当該特定された情報に対応付けられた情報の双方の表示形式を変化させて前記出力画面情報を形成することが好ましい。
【0018】
上記構成において、特定手段により、注釈情報又は画像上の指定領域が特定されることにより、特定された情報とこれに対応付けられた情報との双方の表示形式を変化させる。表示形式の変更としては、指定領域については上記のように枠線の色や線種などの変更などが例示され、注釈情報としては、表示色の変更、マルチメディアデータの場合は再生するなどが例示できる。
【0019】
上記構成によれば、特定している指定領域と注釈情報との対応付けを明確にすることができ、特定手段によって特定された情報(指定領域又は注釈情報)と対応付けられている情報(注釈情報又は指定領域)をわかりやすく表示することができる。
【0020】
また、上記構成において、例えば、複数の注釈情報が関連付けられている1つの領域を特定した場合は、例えば、閲覧者などの操作によって表示形式を異ならせる注釈情報を切り替えたり、1つずつ所定の順番に再生するようにすることができる。
【0021】
好ましくは、さらにコンピュータを、前記個々の注釈情報ごとに重要度情報を判定する重要度判定手段として機能させ、前記画像形成手段は、前記重要度判定手段により判定された重要度情報に基づいて、前記注釈情報の表示形式を異ならせた前記出力画面情報を形成する。
【0022】
上記構成において、重要度判定手段は、例えば、閲覧回数、再生した時間の長さ、などの情報に基づいて、個々の注釈情報ごとに重要度情報を判定する。そして、判定された重要度情報に基づいて、前記注釈情報の表示形式を異ならせて出力画面情報を形成する。表示形式は、例えば、注釈情報の変色、大きさを異ならせて表示する、デザインを異らせる、注釈情報の近傍に重要度を示す図や文字情報などを表示することなどにより異ならせることができる。
【0023】
また、本発明は、一部の領域を指定領域として指定された全体画像を表示する画像欄と、当該指定領域に関連付けられた注釈情報を表示する注釈欄とを1画面に含む出力画面情報を形成する画像形成装置であって、前記指定された指定領域と関連付けられる注釈情報を、その属性に応じて異ならせて関連付けを行う注釈付加手段と、前記注釈付加手段によって関連付けされた注釈情報の属性に応じて、前記画像欄に表示される前記指定領域の表示形式を異ならせて前記出力画面情報を形成する画像形成手段とを備えたことを特徴とする画像形成装置を提供する。
【0024】
【発明の実施の形態】
以下、本発明の一実施形態にかかるコンピュータシステムについて、図面を参照しながら説明する。図1は、本実施形態にかかるコンピュータシステムの構成図である。本実施形態にかかるコンピュータシステムは、インターネット4に接続されたネットワークシステムである。コンピュータシステムは、本発明の画像作成装置として機能するwebサーバ1と、当該サーバ1にインターネット4を通じて接続可能な複数の利用者端末2,3から構成されている。それぞれの利用者端末2、3からは、webサーバ1上に開設されたサイトにインターネットを通じてアクセスして、当該サーバ1を操作することができるようになっている。
【0025】
図2は、図1にかかるコンピュータシステムのwebサーバの構成を示すブロック図である。webサーバ1は、外部機器としてマウス5及びディスプレイやプリンタなどの出力機器6と接続して用いることができる。当該外部機器と接続される場合は、外部機器インターフェース11が司る。また、インターネット4との接続を司るI/Oインターフェース9、webサーバ1の処理全体を司るプロセッサ7、プロセッサの演算領域などとして機能するメモリ10及び、画像作成プログラム及びデータベースなどを格納する記憶装置8とを備え、それぞれは、バス12で互いに接続されている。
【0026】
記憶装置8は、以下の複数のプログラム及びデータベースを備えており、これらが適宜起動することによりwebサーバのプロセッサ7に以下に示す種々の機能を実行させる。システムプログラム8aは、webサーバ1が画像作成装置として機能する場合の主な処理、演算を実行させるための画像作成プログラムである。ユーザーデータベースは、当該システムプログラム8aを操作することができるユーザーを管理するためのデータベースである。画像データベース8cは、webサイト上に配する画像及び当該画像に付された注釈であるメタデータの管理を行うためのデータベースである。webデータ8dは、webサーバ1に配されるサイトに用いられるwebデータである。
【0027】
次に本実施形態にかかるコンピュータシステムの処理の流れについて説明する。図3は、コンピュータシステムにおける動作処理のフローチャートである。まず、ユーザーは、自己の利用者端末2,3を操作して、任意のwebブラウザにより、当該webサーバに開設されたサイトにインターネット4を通じてアクセスする(#10)。これにより、サーバ1に格納されているプログラムが起動され、図4に示すようなログイン画面20が利用者端末の表示画面に表示される。
【0028】
ユーザーがすでにユーザーIDを取得している場合は、ユーザーは、ユーザーID及びパスワードをそれぞれテキストボックス21、22に入力した後、GOボタン23を選択することによりログインすることができる(#12)。これにより、ステップ#14に移行して、図6に示すフォルダ選択処理が呼び出される。なお、ログイン画面20において、終了ボタン25を選択すると、当該プログラムが終了する。
【0029】
一方、ユーザーがユーザーIDをまだ取得していない場合は、ユーザー登録ボタン24を選択することにより、ステップ#13に移行し、図5に示すユーザー登録画面30が表示画面に表示される。ユーザーは、ユーザー登録画面30において、姓、名、メールアドレスをテキストボックス31、32、33にそれぞれ入力する。
【0030】
また、ユーザーが所望するユーザーID及びパスワードをそれぞれテキストボックス34、35に入力する。その後、確認のためテキストボックス36に再度パスワードを入力する。これらの入力が終了したのち、ユーザー登録ボタン37を選択すると、これらの情報がwebサーバ1に送信され、webサーバ1は、ユーザーデータベースに当該入力されたユーザーIDが取得されているかについて照会する。入力されたユーザーIDがユーザーデータベースにおいて、未使用のものである場合は、ログインすることができ、ステップ#14に移行して図6に示すフォルダ選択処理が呼び出される。
【0031】
一方、同一のユーザーIDがすでに取得されている場合は、その旨を警告後、ユーザーIDのテキストボックス34を空白にして再びユーザー登録画面を表示して、新しいユーザーIDの入力を促す。
【0032】
なお、ユーザー登録画面30において、任意のタイミングで終了ボタン38を選択すると、プログラムが終了する。
【0033】
フォルダ選択処理では、図7に示すようなフォルダ選択画面40が表示される。フォルダ選択画面40内には、リストボックス42が設けられる。リストボックス42には、画像ファイルが保存されたフォルダの名称の一覧が表示され、ユーザーは、必要に応じてスクロールバー41を操作してスクロールしてフォルダの閲覧を行う。
【0034】
図6はフォルダ選択画面での処理の流れを示すフロー図である。フォルダ選択画面では、ステップ#16において、ユーザーの操作によりイベントが発生したか否かが監視される。イベントが発生すると、各イベントに応じた処理が行われる。ユーザーは、当該画面において、上述のように必要に応じてスクロールバー41を操作し、リストボックス42の表示をスクロールして、任意のフォルダを選択する。その後、選択ボタン43を選択すると、ステップ#17に移行し、画像一覧処理に移行し、画像一覧画面が表示される。
【0035】
フォルダ選択画面40において、戻るボタンを選択すると、ステップ#18によりログイン画面20に戻る。また、終了ボタン45を選択すると、当該プログラムが終了する。
【0036】
図8は、画像一覧画面の画面表示例である。画像一覧画面50には、先のステップで選択されたフォルダに格納されている画像ファイルが一覧表示される。画像一覧画面50内には、リストボックス51が設けられる。リストボックス51には、webサーバ1内の画像データベース8cに保存された画像ファイルの画像が、サムネイル表示される。ユーザーは、必要に応じてスクロールバー58を操作することにより、リストボックス51に表示される画像をスクロールして、画像を閲覧することができる。
【0037】
図9は、画像一覧画面での処理の流れを示すフロー図である。画像一覧画面では、ステップ#171において、ユーザーの操作によりイベントが発生したか否かが監視される。イベントが発生すると、各イベントに応じた処理が行われる。
【0038】
アップロードボタン53を選択すると、ステップ#172に移行して、図10に示すファイル指定画面531が表示される。ファイル指定画面531は、webサーバ1の画像データベース8cに登録される画像ファイルの指定ができるようになっている。
【0039】
ファイル指定画面531には、webサーバ1にアップロードする画像ファイルのファイル名を入力する複数のテキストボックス532が設けられている。ユーザーは、自己が操作するユーザー端末2、3のローカルフォルダに保存された画像ファイルのファイル名をテキストボックス532に入力する(#172)。この際、参照ボタン533を操作することにより、自己のユーザー端末のローカルフォルダ内から画像ファイルを検索して、テキストボックス532にファイル名を入力することができる。
【0040】
テキストボックス532にファイル名を入力したのち、実行ボタン535を選択すると、ステップ#173で指定ファイルがアップロードされ、フォルダ選択画面40で選択したフォルダ内に画像ファイルが追加され、ステップ#181により画像ファイルが追加された変更後の状態で図8に示す画像一覧画面50が表示される。一方、ステップ#172、#173において、戻るボタン534を選択すると、アップロードが行われずに、ステップ#181を経て画像一覧画面50が表示される。また、終了ボタン536を選択すると、当該プログラムが終了する。
【0041】
画像一覧画面50のイベント監視状態(#171)から削除ボタン54が選択されると、ステップ#175により画像ファイルの削除が行われる。具体的には、リストボックス51に表示された画像58には、チェックボックス59a及びファイル名59bが付記されており、チェックボックス59aに予めチェックされた画像ファイルが削除ボタン54の選択により、画像データベースから削除される。そして、画像一覧画面50は、当該画像ファイルが削除された変更後の状態で表示される(#181)。
【0042】
画像一覧画面50のイベント監視状態(#171)から表示枚数変更のコンボボックス52を操作すると、ステップ#176へ移行する。コンボボックスは、1画面のリストボックス51に一度に表示可能な画像ファイルの枚数を指定するものであり、ステップ#176において、コンボボックス52により選択された枚数の画像ファイルが、リストボックス51に表示される。そして、画像一覧画面50は、当該画像ファイルの表示枚数が変更された変更後の状態で表示される(#181)。なお、画像ファイルの表示枚数が多く、1枚のリストボックス51内にすべてを表示することができない場合は、スクロールバー58を操作することにより、リストボックス51内の画像をスクロールして表示させることができる。
【0043】
画像一覧画面50のイベント監視状態(#171)から前ページリンク56a又は次ページリンク56bを選択すると、それぞれ、ステップ#177、ステップ#178へ移行して前ページ又は次ページの画面に切り換わり、画像一覧画面50は、当該画像ファイルが前ページ又は次ページに表示される画像データに切り換わった変更後の状態で表示される(#181)。
【0044】
画像一覧画面50のイベント監視状態(#171)からリストボックス51内の画像をクリック又はダブルクリックなどの操作を行うと、ステップ#179に移行して、コメント掲示板処理が呼び出され、図11に示すコメント掲示板画面が表示される。
【0045】
画像一覧画面50のイベント監視状態(#171)から戻るボタン55を選択すると、ステップ#14のフォルダ選択処理が呼び出され、図7に示すフォルダ選択画面が表示される。
【0046】
また、画像一覧画面50において、任意のタイミングで終了ボタン57を選択すると、プログラムが終了する。
【0047】
図11にコメント掲示板画面の画面表示例を示す。コメント掲示板画面60には、画像一覧画面50において指定された画像ファイルの画像61、コメントを入力するテキストボックス64、掲示板に公開されたコメントの一覧を表示するリストボックス62、ビデオ画像によりコメントが付された場合に当該ビデオを再生する再生画面71、ビデオデータによるコメントの再生、録画などの処理を行うためのビデオツールバー72、音声データによるコメントの再生、録音などの処理を行うための音声ツールバー68、当該画像に付されたコメントに基づいて集計される関心度の表示を行うための関心度表示ボタン75、関心度表示を行う場合の集計方法を選択するコンボボックス76などが表示されている。
【0048】
コメント掲示板画面60では、図12に示すように、大きく分けてステップ#21のコメント作成処理(既登録のコメントを削除する処理も含む。)及びステップ#22のコメント閲覧処理(画像の関心度表示の処理も含む。)の2つの処理が行われる。まず、コメント作成処理(#21)について説明する。
【0049】
図13は、コメント作成処理の初期処理の流れを示すフロー図である。コメント作成処理においては、コメント掲示板画面において、ユーザーの操作によりイベントが発生したか否かが監視される(#23)。イベントが発生すると、以下に示す処理が行われる。
【0050】
図14(a)は、コメント掲示板画面60に表示される画像を示す図である。画像61は、1枚の画像データから構成されると共に、図14(b)に示すように、当該画像の全域が、小さいセル615に分割された状態で管理されている。すなわち、画像上の任意の点がいずれのセルに属するかが一律に決定される。なお、セルは、画像61の領域管理を行うための概念的なものであるため、図14(b)に示されたセルに分割された画像は、コメント掲示板画面60には表示されていない。また、セルの大きさは、例えば、画像の大きさ(ピクセル数)に応じて適宜設定することができ、例えば、最小単位として画像を構成するピクセル自体をセルとしてもよいし、数ピクセルごとに1つのセルとして領域管理してもよい。
【0051】
ユーザーがマウスなどのポインティングデバイスを操作し、コメント掲示板画面60においてポインタ610を移動させて画像61上をでドラッグ(#24)すると、ドラッグの始点および終点を対角点(図14においては、左上点P1及び右下点P2)とする入力候補の矩形マーク610を作成し、画像上に表示する。このときに表示される矩形マークは、点滅表示される。なお、すでに画像61に未確定の矩形マーク(図示なし)が表示されている場合は、新たに画像上においてドラッグが開始されることにより、先に表示されている矩形マークは消去され、現在ドラッグされている矩形マークが作成、表示される。
【0052】
矩形マークは、図14(b)に示すように、その対角点P1、P2の画像上の座標(x1、y1)及び(x2、y2)により画一的に決定される。そして、この矩形マーク611xと共通する領域に存在するセル615xが抽出され、当該矩形マーク611に対応するセルが決定する。
【0053】
このようにして、選択領域が指定されると(#25)、所望の選択領域ごとにコメントを関連付けることができるようになっている。このコメントを入力するための処理として、メタデータ入力処理(#26)が行われる。なお、本実施形態におけるメタデータとして、テキストデータ、音声データ、ビデオデータの3種類を用いることができ、それぞれ以下のようにして入力される。
【0054】
図15は、メタデータ入力処理の流れを示すフロー図である。メタデータ入力処理(#26)は、入力されるメタデータの種類に応じて、その処理及び画面上において操作するボタンが異なる。
【0055】
まず、入力するメタデータとして、テキストデータを用いる場合について説明する。テキストデータの入力(#126)において、ユーザーは、入力したいテキストデータをテキストボックス64に入力する(#127)。このとき入力ミスや、再入力をした場合などは、クリアボタン67を選択(#128)することにより、テキストボックス64内のテキストデータが消去される(#130)ので、テキストボックス64にテキストデータを再入力する。
【0056】
テキストボックス64内へのテキストデータの入力が終了し、当該テキストデータをコメントとして登録したい場合、ユーザーは、追加ボタン65を選択する(#129)。追加ボタン65の選択により、後述する登録のための処理が開始される。
【0057】
次に、入力するメタデータとして、音声データを用いる場合について説明する。音声データの入力(#226)において、ユーザーが音声ツールバー68の録音ボタン68aを選択すると、利用者端末に対して、ローカルのサウンド入力デバイスを駆動させて録音が開始される。音声データは、最大録音時間が予め決定されており、残りの録音可能時間については、音声ツールバー68のインジケータ68dによって確認することができる。インジケータ68dが図11において右端に移動した場合、最大録音可能時間が経過したことにより、自動的に録音が終了するが、ユーザーが任意のタイミングで停止ボタン68cを選択することにより、録音を途中で停止することができる。録音された音声データは、利用者端末のテンポラリフォルダに保存され、音声ツールバー68の近傍に録音済み音声データが存在していることを示すアイコン68eが表示される。
【0058】
録音済の音声データが、利用者端末のテンポラリーフォルダに格納されている場合において、当該音声データを消去する場合には、クリアボタン70を選択(#228)することにより、当該音声データが消去され、同時にアイコン68eを画面上から消去する(#230)。
【0059】
録音された音声データを確認したい場合は、音声ツールバー68の再生ボタン68bを選択する。音声データの再生は、インジケータ68dのスライドを任意の場所に移動した後で再生ボタン68bを選択することにより、任意の位置から再生を行うことができる。音声データの再生中に、停止ボタン68cを選択することにより再生を停止することができる。
【0060】
録音された音声データを登録したい場合には、ユーザーは、追加ボタン69を選択する(#229)追加ボタン69の選択により、後述する登録のための処理が開始される。
【0061】
次にメタデータとして、ビデオデータを用いる場合について説明する。ビデオデータの入力(#326)において、ユーザーがビデオツールバー72の録画ボタン72aを選択すると、利用者端末に対して、ローカルのビデオ入力デバイスを駆動させて録画が開始される。ビデオデータは、最大録画時間が予め決定されており、残りの録画可能時間については、ビデオツールバー72のインジケータ72dによって確認することができる。インジケータ72dが図11において右端に移動した場合、最大録画可能時間が経過したことにより、自動的に録画が終了するが、ユーザーが任意のタイミングで停止ボタン72cを選択することにより、録画を途中で停止することができる。録画されたビデオデータは、利用者端末のテンポラリフォルダに保存され、再生画面71に先頭画像が表示される。
【0062】
録画済のビデオデータが、利用者端末のテンポラリーフォルダに格納されている場合において、当該ビデオデータを消去する場合には、クリアボタン74を選択(#328)することにより、当該ビデオデータが消去され、同時に再生画面71に表示されている先頭画像が消去される(#330)。
【0063】
録画されたビデオデータを確認したい場合は、ビデオツールバー72の再生ボタン72bを選択する。ビデオデータの再生は、インジケータ72dのスライドを任意の場所に移動した後で再生ボタン72bを選択することにより、任意の位置から再生を行うことができる。ビデオデータの再生中に、停止ボタン72cを選択することにより再生を停止することができる。
【0064】
録画されたビデオデータを登録したい場合には、ユーザーは、追加ボタン73を選択する(#329)追加ボタン73の選択により、後述する登録のための処理が開始される。
【0065】
上記のように、登録したいメタデータの入力が種類に応じて終了し、それぞれのメタデータの種類に対応した登録のための追加ボタン65、69、73が選択されると(#129、#229、#329)、上記のステップ#25において決定した指定領域を取得し(#31)、webサーバ1の画像データベースに登録され、コメント掲示板画面においては、画像61中の指定領域に関連するコメントとして掲示板に追加される。
【0066】
リストボックス62内におけるコメントの表示位置については、リストボックス62中のチェックボックス63にチェックがされているか否かによって決定される。具体的には、いずれかの既登録のコメントに対するチェックボックス63にチェックがされている場合は、チェックが入っている当該コメントの下層に追加する(#33)。チェックボックス63は、1つのみチェックすることができる。一方。チェックボックス63にチェックがされていない場合は、当該登録されるコメントは、最上位のコメントとして追加される(#34)。このとき、画像データベース8cには、当該コメントが示す領域及び入力されたメタデータが対応付けて記憶される。指定領域の情報としては、上述のように、2つの対角点の画像上の座標値を用いる。
【0067】
リストボックス62にコメントとして登録されたメタデータは、その種類によってリストボックス62内での表示形態が異なる。コメントがテキストデータの場合は、その文字情報62bが直接表示される。コメントが音声データの場合は、上記のステップ#33,#34により決定した位置に音声アイコン62cを表示する。コメントがビデオデータの場合は、上記のステップ#33,#34により決定した位置に、ビデオアイコン62dを表示する。
【0068】
次に、登録されたコメントを削除する処理について説明する。図16は、コメント削除の処理フロー図である。コメント削除は、自己が登録したコメントのみを削除できるように限定してもよいし、任意の者があらゆるコメントを削除できるようにしてもよい。
【0069】
画面にコメント掲示板画面が表示されている場合は、上述のようにイベント監視状態となっている。この状態において、既登録のコメントを削除する場合は、まず、削除するコメントを選択する(#40)。具体的には、マウスなどを操作して、削除したいコメントのチェックボックス63をチェックする。削除したいコメントが決定すると、削除ボタン77を選択する(#41)ことにより、当該選択されたコメントが削除される。コメントの削除においては、選択されたコメントがどの層に設けられているかにより処理が異なる。すなわち、削除されるコメントが最下層のコメントである場合は、削除ボタン77の選択によりそのまま当該コメントを削除する(#43)。一方、最下層のコメントではない場合は、選択されたコメントよりも下層に存在するコメントと共に削除するかどうかの確認を行い(#44)、ユーザーの確認が取れたことを条件として、下位のコメントと共に削除する。
【0070】
次にコメント掲示板画面60におけるステップ#22のコメント閲覧処理(画像の関心度表示の処理も含む。)について説明する。図18及び図19は、コメント閲覧処理の流れを示すフロー図である。
【0071】
リストボックス62はその大きさに応じて、一画面に表示することができるコメントの数が限られている。リストボックス62に表示しきれないコメントは、リストボックス62のスクロールバー62aの操作によりスクロールすることにより切り替える表示することができる。画像61中には、リストボックス62に表示されているコメントに関連付けられている指定領域枠611のみが表示されており、スクロールバー62aの操作に伴い、リストボックス62に表示されるコメントが切り換わることによって、指定領域枠611の表示も切り換わって表示される。指定領域枠611は、対応付けられているメタデータの種類に応じてその色が異なっている。例えば、テキストデータの場合は黒、音声データの場合は黄色、ビデオデータの場合は青などで表示される。
【0072】
登録されたコメントを閲覧する操作としては、リストボックス62に表示されているコメント又はアイコンを操作して閲覧する方法と、画像61の領域を選択して表示する方法がある。いずれの場合においても、リストボックス62中のコメントと画像61の指定領域は連働しており、いずれかが選択された場合は、対応する他方が強調表示される。
【0073】
まず、リストボックス62内のコメントが選択された場合についての閲覧処理について説明する。
【0074】
マウスポインタ610(図14参照)が画像61及びリストボックス62のいずれにも存在しない場合、イベント発生待ちの状態となっており、コメント62b、アイコン62c、62d及び関連する指定領域の枠線の色はデフォルトの状態となっており(#51)、コメント文字は黒色表示、アイコンは標準時の表示色(黒色)、指定領域の枠線は上述のようにメタデータの種類に応じた色で表示されている。
【0075】
テキストコメントの閲覧においては、マウスポインタがリストボックスのテキストコメント上に移動すると、そのコメントに関連するオブジェクト(当該テキストコメント及び当該コメントの指定領域枠)が赤色に変色する(#153)。マウスポインタをテキストコメントの外へ移動することなく(#154のNo)、マウスをクリックすると(#155)、関連領域を抽出して、再生画面71に拡大表示する(#156)。マウスを再度クリック(#157)すると、再生画面71が全体画像に戻り(#158)、テキストコメントの閲覧が終了する。
【0076】
一方、これらの処理のいずれかのタイミングで、マウスポインタが、テキストコメントから外れると、テキストコメントと指定領域枠の色が元の黒色に戻り、閲覧処理が終了してイベント待ちの状態となる。
【0077】
音声コメントの閲覧においては、マウスポインタを音声アイコン上に移動させることにより行うことができる。
【0078】
リストボックス62内の音声コメントのアイコン62cは、音声コメントが再生された時間の割合の平均によって当該コメントの重要度が判定され、当該重要度に応じてリストボックス62内のアイコンのデザインを変えて表示する。具体的には、(ユーザー画実際に再生した時間)/(コメントの録音時間)の平均で重要度を判定し、重要度が、0〜33%未満、33〜66%未満、66〜100%の3段階に分けて、図17に示すように3種類のアイコンを表示する。ユーザーは、アイコンデザインから、当該音声データを実際に再生することなく、事前にその重要度を判断でき、どの音声コメントから再生すればよいかの指標とすることができる。
【0079】
マウスポインタが音声アイコン上に移動すると、関連オブジェクトである音声アイコン及び当該コメントの指定領域枠が赤色に変色する(#253)。その後、当該音声データの再生が開始される(#254)。マウスポインタを音声アイコン62cの外へ移動することなく(#255のNo)、マウスをクリックすると(#256)、関連領域を抽出して、再生画面71に拡大表示する(#257)。マウスを再度クリック(#258)すると、再生画面71が全体画像に戻り(#259)、音声コメントの閲覧が終了する。
【0080】
一方、これらの処理のいずれかのタイミングで、マウスポインタが、音声アイコンから外れると、音声データの再生が終了すると共に、音声アイコンと指定領域枠の色が元の色に戻り、閲覧処理が終了してイベント待ちの状態となる。
【0081】
ビデオコメントの閲覧においては、マウスポインタをビデオアイコン上に移動させることにより行うことができる。
【0082】
リストボックス62内のビデオコメントのアイコンは、音声アイコンと同様に、ビデオコメントが再生された時間の割合の平均によって当該コメントの重要度が判定され、当該重要度に応じてリストボックス62内のアイコンのデザインを変えて表示される。よって、ユーザーは、アイコンデザインから、当該ビデオデータを実際に再生することなく、事前にその重要度を判断でき、どのビデオコメントから再生すればよいかの指標とすることができる。
【0083】
マウスポインタがビデオアイコン上に移動すると、関連オブジェクトであるビデオアイコン及び当該コメントの指定領域枠が赤色に変色する(#353)。その後、当該ビデオデータの再生が開始される(#354)。マウスポインタをビデオアイコン62cの外へ移動することなく(#355のNo)、マウスをクリックすると(#356)、関連領域を抽出して、再生画面71に拡大表示する(#357)。マウスを再度クリック(#358)すると、再生画面71が全体画像に戻り(#359)、テキストコメントの閲覧が終了する。
【0084】
一方、これらの処理のいずれかのタイミングで、マウスポインタが、ビデオアイコンから外れると、ビデオデータの再生が終了すると共に、ビデオアイコンと指定領域枠の色が元の色に戻り、閲覧処理が終了してイベント待ちの状態となる。
【0085】
次に、画像61の指定領域が選択された場合についての閲覧処理について説明する。画像の指定領域が選択された場合のコメントの閲覧は、1つの指定領域に複数のコメント(階層的に付されたコメントを含む)が付されている場合や、画像上のある点が複数の指定領域に重なっている場合などがあることから、上記のリストボックス62のコメントが選択される場合と処理手順が以下のように異なっている。
【0086】
上述のように、コメント掲示板画面において、イベント発生待ちの状態となっている場合は、コメント62b、アイコン62c、62d及び関連する指定領域の枠線の色はデフォルトの状態となっている(#51)。この状態で、マウスポインタが、画像61に上に移動すると、その位置がコメントが付された指定領域であるか否かについて判断される(#70)。指定領域ではない場合は、閲覧に関する処理は行われることなく、イベント待機状態が継続する。
【0087】
マウスポインタが移動された点が指定領域である場合は、当該点に複数の指定領域が存在するか否かについて判断される(#71)。複数の指定領域ではない場合は(#71のNo)、当該指定領域に対応付けられたコメントが1つであるか複数であるかについて判断される(#72)。当該指定領域に対応付けられたコメントが単数である場合(#72のYes)は、コメントの種類に応じて、それぞれ以下のように処理がなされる。
【0088】
指定領域に対応付けられたコメントがテキストコメントである場合は、上述のテキストコメントの閲覧と同様の処理Aがなされる(図18ステップ#153〜#158参照)。すなわち、指定領域に関連づけられたテキストコメント及び指定領域枠が赤色に変色し、マウスで当該領域をクリックすることによって、当該領域が拡大表示される。マウスポインタが当該領域から外れると、指定領域枠及びリストボックス62内のテキストコメントが元の黒色に変化する。
【0089】
指定領域に対応付けられたコメントが音声コメントである場合は、上述の音声コメントの閲覧と同様の処理Bがなされる(図18ステップ#253〜#259参照)。すなわち、指定領域に関連づけられた音声アイコン及び指定領域枠が赤色に変色し、音声データが再生されると共に、マウスで当該領域をクリックすることによって、当該領域が拡大表示される。マウスポインタが当該領域から外れると、音声データの再生が終了すると共に、指定領域枠及びリストボックス62内の音声アイコンが元の色に変化する。
【0090】
指定領域に対応付けられたコメントがビデオコメントである場合は、上述のビデオコメントの閲覧と同様の処理Cがなされる(図18ステップ#353〜#359参照)。すなわち、指定領域に関連づけられたビデオアイコン及び指定領域枠が赤色に変色し、マウスポインタが当該領域に存在する間ビデオデータが再生されると共に、マウスで当該領域をクリックすることによって、当該領域が拡大表示される。マウスポインタが当該領域から外れると、ビデオデータの再生が終了すると共に、指定領域枠及びリストボックス62内のビデオアイコンが元の色に変化する。
【0091】
指定領域に対応付けられたコメントが複数である場合(#72のNo)は、当該複数のコメントがすべてテキストコメントであるか否が判断され(#74)、それぞれ以下のように処理がなされる。
【0092】
指定領域に対応付けられた複数のコメントがすべてテキストコメントである場合(#74のYes)、上述のテキストコメントの閲覧と同様の処理Aがなされる(図18ステップ#153〜#158参照)。すなわち、指定領域に関連づけられたすべてのテキストコメント及び指定領域枠が赤色に変色し、マウスで当該領域をクリックすることによって、当該領域が拡大表示される。マウスポインタが当該領域から外れると、指定領域枠及びリストボックス62内のすべてのテキストコメントが元の黒色に変化する。
【0093】
指定領域に対応付けられた複数のコメントがすべてテキストコメントでない場合(#74のNo)、すなわち、テキストコメントと音声コメント又はビデオコメントが存在する場合、又は音声コメント又はビデオコメントのみの場合は、関連オブジェクトである当該指定領域に関連付けられたすべてのコメント(テキストコメント、音声アイコン及びビデオアイコン)と指定領域枠が赤色に変色する(#75)。そして、当該対応付けられたコメントのうち、音声データ及びビデオデータについては、コメントが付された日時が古い順に順次再生を開始する(#76)。
【0094】
音声データ及びビデオデータの再生途中において、当該コメントの再生を中止したい場合は、そのままマウスをダブルクリックする(#78)と、次のコメントについて再生が開始される(#79)。また、音声データ及びビデオデータの再生途中において、そのままマウスをクリックすると、関連領域の画像を抽出して、再生画面71に拡大表示する(#81)。マウスを再度クリック(#82)すると、再生画面71が全体画像に戻り(#83)、コメントの閲覧が終了する。
【0095】
一方、これらの処理のいずれかのタイミングで、マウスポインタが、指定領域から外れると、音声データ及びビデオデータの再生が終了すると共に、指定領域枠及びリストボックス62内のコメントが元の色に戻り、閲覧処理が終了してイベント待ちの状態となる。
【0096】
次に、マウスポインタが移動された点に複数の指定領域が存在する場合(#71のYes)について説明する。この場合は、マウスポインタが存在する点に含まれるすべての指定領域枠に関連付けられたコメントがすべてテキストコメントであるか否かについて判断され(#85)、それぞれ以下のように処理がなされる。
【0097】
マウスポインタが移動された点に存在する複数の指定領域に対応付けられたすべてのコメントがすべてテキストコメントである場合(#85のYes)、上述のテキストコメントの閲覧と同様の処理Aがなされる(図18ステップ#153〜#158参照)。すなわち、指定領域に関連づけられたすべてのテキストコメント及びマウスポインタが移動された点に存在するすべての指定領域枠が赤色に変色する。
【0098】
この位置でマウスをクリックすることによって、当該領域が拡大表示される。このとき拡大表示される画像の範囲は、図20に示すようにバウンディングボックス612内の画像である。バウンディングボックス612は、複数の指定領域に外接する矩形領域である。すなわち、マウスポインタ610が存在する位置において、3つの指定領域611a〜611cが存在する場合は、その3つの指定領域に外接する矩形領域612がバウンディングボックスとなる。マウスポインタが移動していずれかの指定領域から外れると、当該指定領域枠及びリストボックス62内のすべてのテキストコメントが元の色に変化する。すなわち、すべての指定領域の重複位置からマウスポインタが外れると、すべての指定領域枠及びコメントが元の色に戻る。
【0099】
指定領域に対応付けられた複数のコメントがすべてテキストコメントでない場合(#85のNo)、すなわち、テキストコメントと音声コメント又はビデオコメントが存在する場合、又は音声コメント又はビデオコメントのみの場合は、上述の処理Dと同様の処理(図19ステップ#75〜#84参照)がなされる。すなわち、関連オブジェクトである当該指定領域に関連付けられたすべてのコメント(テキストコメント、音声アイコン及びビデオアイコン)と指定領域枠が赤色に変色する。そして、当該対応付けられたコメントのうち、音声データ及びビデオデータについては、コメントが付された日時が古い順に順次再生を開始する。
【0100】
音声データ及びビデオデータの再生途中において、当該コメントの再生を中止したい場合は、そのままマウスをダブルクリックすると、次のコメントについて再生が開始される。また、音声データ及びビデオデータの再生途中において、そのままマウスをクリックすると、関連領域の画像を抽出して、再生画面71に拡大表示する。拡大表示される画像の範囲は、上述の通りバウンディングボックス612の範囲である。マウスを再度クリックすると、再生画面71が全体画像に戻り、コメントの閲覧が終了する。
【0101】
一方、これらの処理のいずれかのタイミングで、マウスポインタが、指定領域から外れると、音声データ及びビデオデータの再生が終了すると共に、指定領域枠及びリストボックス62内のコメントが元の色に戻り、閲覧処理が終了してイベント待ちの状態となる。
【0102】
次にコメント掲示板画面60において関心度表示ボタン75を選択した場合について説明する。関心度表示ボタン75を選択した場合は、サーバは所定の評価基準によりセル615(図14参照)ごとの関心度(ポイント)を集計し、その結果をグラフの形にして表示する関心度分布画面(図21参照)を利用者端末2、3に表示させる。具体的には以下のような処理が行われる。
【0103】
まず、利用者は、関心度分布画面70を表示させる場合、関心度評価基準をコンボボックス76から選択する。関心度評価基準としては、登録されたコメントの数、閲覧回数、閲覧時間の累計などが例示される。1つのセルが、複数の指定領域に属したり、同じ指定領域に複数のコメントが付されているような場合は、当該指定領域に付されたコメントによって与えられる関心度(ポイント)が累積的に合計して集計することもできる。
【0104】
また、コメントデータの種類ごとに分類して集計することができるように構成されている。例えば、音声コメント及びビデオコメントについての関心度は、音声データ及びビデオデータの総再生時間に対するユーザーが実際に再生した時間の割合などを用いて評価してもよい。また、複数の項目を組み合わせて評価してもよく、例えば、「閲覧回数+閲覧時間の順位×3」などのように何らかの演算を行って関心度を算出してもよい。
【0105】
コンボボックス76の操作により関心度評価基準が決定すると、webサーバ1は、この情報を取得する。(#61)。次いで、当該基準にしたがって、各セルごとにデータ集計を行い、集計したセルごとのポイントデータを用いて、分布図を作成する(#62)。分布図の作成が終了すると、これらの情報を利用者端末へ出力し、これを受けた利用者端末が、別ウインドウを開いて関心度分布画面70を表示する(#63)。
【0106】
表示画面は、図21に示すように各メッシュごとに関心度のポイントに応じた面グラフ61Gなどが好適に用いられる。すなわち、各セルごとのポイントに応じて、各セル615の高さが異なるようにグラフ化する。なお、グラフの例としては、図21に示すもののほか、例えば、画像61自体をエンボス的に変形させてもよい。また、文字情報だけもしくは音声だけなどコメントの種類ごとの情報から分布を表示できるようにしてもよい。
【0107】
関心度分布画面70において、閉じるボタン74又は終了ボタン73を選択することにより、関心度分布画面が閉じ、コメント掲示板画面60に戻り、イベント待機の状態となる。
【0108】
以上説明したように、上記構成のコンピュータシステムによれば、サイトに掲載された画像について、不特定多数の者が当該写真の一部領域について、テキストデータ及びマルチメディアデータを用いてコメントを付すことができる。また、データの種類に応じて、領域を示す枠線の色が異なって表示されるため、どの部分にどのようなコメントが付されているかをすぐに判断することができる。
【0109】
また、閲覧時において、指定領域枠あるいはコメントの一方をマウスで選択することにより、対応付けられている他方が変色することにより、どのコメントがどの領域についてのものであるかを簡単に見分けることができる。また、リストボックスに表示されているコメントを示すアイコンは、重要度に応じてその表示を変更する。よって、その表示を見ることによって、当該音声データを実際に再生することなく、事前にその重要度を判断でき、どの音声コメントから再生すればよいかの指標とすることができる。
【0110】
なお、本発明は上記実施形態に限定されるものではなく、その他種々の態様で実施可能である。
【0111】
例えば、本コンピュータシステムはインターネットを用いたネットワークシステムで構成されているが、例えば、ネットワークを用いずに本実施形態のwebサーバと同様の機能を備えた装置を単独で使用してもよい。例えば、この場合、店頭などにユーザーが写真画像を登録することができると共に、第三者が同じ装置を用いてコメントを付すことができるようにすることもできる。
【0112】
また、メタデータの種類に応じて指定領域の表示を変更する場合、指定領域枠の色だけではなく、線種、枠線の太さを異ならせることにより、表示を異ならせてもよい。
【図面の簡単な説明】
【図1】本実施形態にかかるコンピュータシステムの構成図である。
【図2】図1にかかるコンピュータシステムのwebサーバの構成を示すブロック図である。
【図3】実施形態にかかるコンピュータシステムにおける動作処理のフローチャートである。
【図4】ログイン画面の画面表示例である。
【図5】ユーザー登録画面の画面表示例である。
【図6】フォルダ選択画面での処理の流れを示すフロー図である。
【図7】フォルダ選択画面の画面表示例である。
【図8】画像一覧画面の画面表示例である。
【図9】画像一覧画面での処理の流れを示すフロー図である。
【図10】ファイル指定画面の画面表示例である。
【図11】コメント掲示板画面の画面表示例である。
【図12】コメント掲示板画面での処理の流れを示すフロー図である。
【図13】コメント作成処理の初期処理の流れを示すフロー図である。
【図14】コメント掲示板画面に用いられる画像を示す図であり、(a)は、コメント掲示板画面に表示される画像を示す図であり、(b)は(a)の画像をセルに分割した状態を示す図である。
【図15】メタデータ入力処理の流れを示すフロー図である。
【図16】コメント削除の処理フロー図である。
【図17】コメント掲示板画面のリストボックスに表示される音声コメントのアイコンを示す図である。
【図18】コメント閲覧処理の流れを示すフロー図である。
【図19】コメント閲覧処理の流れを示すフロー図である。
【図20】バウンディングボックスの説明図である。
【図21】関心度分布画面の画面表示例である。
【符号の説明】
1 webサーバ
2、3 利用者端末
4 インターネット
5 マウス
6 出力装置
7 プロセッサ
8 記憶装置
20 ログイン画面
30 ユーザー登録画面
40 フォルダ選択画面
50 画像一覧画面
60 コメント掲示板画面
61 画像
61G 関心度分布グラフ
61x セル分割画像
611 指定領域枠
611x 指定領域
615 セル
70 関心度分布画面
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image forming program and an image forming apparatus for forming an image by a computer, and more particularly to an image forming program and an image forming apparatus for creating an image including a comment given by a viewer of an image on the Internet or the like.
[0002]
[Prior art]
In recent years, with the spread of digital cameras, the use of image databases for organizing captured images has been expanding. These image databases can be searched and browsed by a program installed in a computer. When arranging images, a comment corresponding to each image is input, and each image and its corresponding comment can be displayed on a display screen at the same time and browsed.
[0003]
In addition, there are many sites (photo sites) in which image data is registered on a server accessible to the Internet so that users can browse images through the Internet. In this case, a program for searching for and browsing the images is provided on the server, and each user can operate the image database by accessing the photo site.
[0004]
In these photo sites, an unspecified person can browse registered images and transmit a comment on each image. Then, comments and images can be displayed and browsed simultaneously by unspecified persons in association with each other.
[0005]
For example, in Japanese Patent Application Laid-Open No. 2002-55748, when annotating an image, a specific area of the image is determined, and metadata associated with the icon is associated with the area. Discloses a technique for annotating a part of the entire image.
[0006]
Also, for example, when the registrant of an image wants to add a comment to the photo site, it is more convenient to use audio data or the like to add a comment to an image taken by a digital camera. That is, most digital cameras have only a cross key and a few buttons as input devices, and it is extremely troublesome to add a comment in a text format. Therefore, some digital cameras have an after-recording function that allows a comment to be input by voice to a captured image.
[0007]
When an image photographed by a digital camera having the post-recording function is registered in the photo site, a comment input by the post-recording can be used as audio data in the photo site, thereby enabling text data to be registered. Can be handled in the same way as data.
[0008]
When a comment is added to an image using multimedia data such as audio data and video data in addition to text data, multimedia data such as audio data and video data are displayed and played on the screen simultaneously, unlike text data. It is necessary to handle them differently. However, it is inconvenient for viewers as to which region of the image the comment added is multimedia data, unless it is necessary to actually reproduce the associated comment.
[0009]
[Patent Document 1]
JP, 2002-55748, A
[Problems to be solved by the invention]
Therefore, a technical problem to be solved by the present invention is to provide an image forming program and an image forming method capable of displaying information of an annotation added to a partial area of an image in an easy-to-understand manner in correspondence with a designated area in the image. It is to provide a device.
[0011]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention provides a single-screen image field for displaying an entire image in which a partial area is designated as a designated area, and an annotation field for displaying annotation information associated with the designated area. A computer for forming the output screen information included in the annotation information by associating the annotation information having various attributes with the designated area according to the attribute of the annotation information associated by the annotation adding means. And an image forming program for functioning as an image forming means for forming the output screen information by changing a display format of the designated area displayed in the image column.
[0012]
In the above configuration, the image forming program causes the computer to display, on a single screen, an image column for displaying an entire image specified with a partial area as a specified area, and an annotation field for displaying annotation information associated with the specified area. Is a program for forming output screen information included in the program. The annotation adding means can use annotation information having different attributes, and can associate the annotation information with the specified area specified on the image. As the attribute of the annotation information, specifically, a file type such as text data or multimedia data, a position where an annotation is added such as a comment hierarchy, or a combination thereof is given.
[0013]
The image forming means forms the output screen information by changing the display format of the designated area according to the attribute of the annotation information. Examples of the display format of the designated area include a color of a frame line surrounding the area, a player, a pattern, a thickness, a discoloration of an image in the designated area, a fill in the designated area, a discoloration, and a pattern.
[0014]
According to the above configuration, since the output format of the designated area is different depending on the attribute of the associated annotation information, the viewer who looks at the output screen determines what attribute the injection cavity information is attached to. It can be easier to judge. In this case, by making the display characteristics of the annotation information and the display characteristics of the designated area common, it is possible for the viewer who has viewed the output screen to more easily understand the correspondence.
[0015]
In the above configuration, it is not necessary to display the designated area associated with all the annotation information added to the image. For example, only the designated area associated with the annotation information displayed in the annotation column is displayed. You may make it display on an image.
[0016]
The image creation program of the present invention can be specifically configured in various modes as described below.
[0017]
Further, on the output screen information, the computer is caused to function as specifying means for specifying either the annotation information or the specified area, and when the image forming means is specified by the specifying means, the specified It is preferable to form the output screen information by changing the display format of both the information and the information associated with the specified information.
[0018]
In the above configuration, the display format of both the specified information and the information associated therewith is changed by specifying the annotation information or the specified area on the image by the specifying unit. Examples of the display format change include, for example, a change in the color and line type of the frame line for the designated area as described above, and examples of the annotation information include a change in the display color and reproduction in the case of multimedia data. Can be illustrated.
[0019]
According to the above configuration, it is possible to clarify the correspondence between the specified designated area and the annotation information, and it is possible to clarify the information (the commentary) associated with the information (the designated area or the annotation information) specified by the specifying unit. (Information or designated area) can be displayed in an easy-to-understand manner.
[0020]
Further, in the above configuration, for example, when one area associated with a plurality of pieces of annotation information is specified, for example, annotation information for changing the display format is changed by an operation of a viewer or the like, They can be played in order.
[0021]
Preferably, the computer further functions as importance determination means for determining importance information for each of the annotation information, the image forming means, based on the importance information determined by the importance determination means, The output screen information in which the display format of the annotation information is changed is formed.
[0022]
In the above configuration, the importance determining unit determines the importance information for each piece of annotation information based on information such as the number of times of browsing, the length of the reproduction time, and the like. Then, based on the determined importance information, output screen information is formed by changing the display format of the annotation information. The display format can be changed, for example, by discoloring the annotation information, displaying the annotation information in a different size, changing the design, displaying a diagram indicating the importance or text information near the annotation information, and the like. it can.
[0023]
Further, the present invention provides an output screen information including, on one screen, an image field for displaying an entire image specified with a partial area as a specified area, and an annotation field for displaying annotation information associated with the specified area. An image forming apparatus for forming an image, comprising: an annotation adding unit that associates the annotation information associated with the designated area with the attribute according to the attribute; and an attribute of the annotation information associated by the annotation adding unit. And an image forming unit that forms the output screen information by changing a display format of the designated area displayed in the image field according to the image forming apparatus.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a computer system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram of a computer system according to the present embodiment. The computer system according to the present embodiment is a network system connected to the Internet 4. The computer system includes a web server 1 functioning as an image creation device of the present invention, and a plurality of user terminals 2 and 3 connectable to the server 1 via the Internet 4. The user terminals 2 and 3 can operate the server 1 by accessing a site established on the web server 1 through the Internet.
[0025]
FIG. 2 is a block diagram showing a configuration of a web server of the computer system according to FIG. The web server 1 can be used by connecting to a mouse 5 and output devices 6 such as a display and a printer as external devices. When connected to the external device, the external device interface 11 controls. Also, an I / O interface 9 for controlling the connection with the Internet 4, a processor 7 for controlling the entire processing of the web server 1, a memory 10 functioning as a calculation area of the processor, and a storage device 8 for storing an image creation program and a database. And are connected to each other by a bus 12.
[0026]
The storage device 8 includes a plurality of programs and databases described below, and when these are activated as appropriate, causes the processor 7 of the web server to execute various functions described below. The system program 8a is an image creation program for executing main processing and calculations when the web server 1 functions as an image creation device. The user database is a database for managing users who can operate the system program 8a. The image database 8c is a database for managing images to be arranged on a web site and metadata as annotations added to the images. The web data 8d is web data used for a site allocated to the web server 1.
[0027]
Next, a processing flow of the computer system according to the present embodiment will be described. FIG. 3 is a flowchart of an operation process in the computer system. First, the user operates his / her user terminals 2 and 3 to access a site established on the web server via the Internet 4 using an arbitrary web browser (# 10). Thereby, the program stored in the server 1 is started, and the login screen 20 as shown in FIG. 4 is displayed on the display screen of the user terminal.
[0028]
If the user has already acquired the user ID, the user can log in by selecting the GO button 23 after inputting the user ID and password in the text boxes 21 and 22, respectively (# 12). Thereby, the process proceeds to step # 14, and the folder selection process shown in FIG. 6 is called. When the end button 25 is selected on the login screen 20, the program ends.
[0029]
On the other hand, if the user has not yet acquired the user ID, the user proceeds to step # 13 by selecting the user registration button 24, and the user registration screen 30 shown in FIG. 5 is displayed on the display screen. The user inputs the first name, last name, and e-mail address in the text boxes 31, 32, and 33 on the user registration screen 30.
[0030]
Also, the user inputs the desired user ID and password into the text boxes 34 and 35, respectively. Thereafter, the password is again entered in the text box 36 for confirmation. When the user registration button 37 is selected after these inputs are completed, the information is transmitted to the web server 1, and the web server 1 inquires the user database as to whether the input user ID has been acquired. If the input user ID is not used in the user database, the user can log in, and the process proceeds to step # 14 to call the folder selection process shown in FIG.
[0031]
On the other hand, if the same user ID has already been acquired, a warning to that effect is made, the user ID text box 34 is blanked, and the user registration screen is displayed again to prompt the user to input a new user ID.
[0032]
Note that if the end button 38 is selected at an arbitrary timing on the user registration screen 30, the program ends.
[0033]
In the folder selection process, a folder selection screen 40 as shown in FIG. 7 is displayed. A list box 42 is provided in the folder selection screen 40. In the list box 42, a list of names of folders in which the image files are stored is displayed, and the user operates the scroll bar 41 to scroll and browse the folders as necessary.
[0034]
FIG. 6 is a flowchart showing the flow of processing on the folder selection screen. On the folder selection screen, in step # 16, it is monitored whether an event has occurred due to a user operation. When an event occurs, a process corresponding to each event is performed. The user operates the scroll bar 41 as necessary on the screen as described above, scrolls the display of the list box 42, and selects an arbitrary folder. Thereafter, when the selection button 43 is selected, the process proceeds to step # 17, and the process proceeds to the image list process, and the image list screen is displayed.
[0035]
When the return button is selected on the folder selection screen 40, the screen returns to the login screen 20 in step # 18. When the end button 45 is selected, the program ends.
[0036]
FIG. 8 is a screen display example of the image list screen. The image list screen 50 displays a list of image files stored in the folder selected in the previous step. A list box 51 is provided in the image list screen 50. In the list box 51, the images of the image files stored in the image database 8c in the web server 1 are displayed as thumbnails. By operating the scroll bar 58 as needed, the user can scroll the image displayed in the list box 51 and browse the image.
[0037]
FIG. 9 is a flowchart showing the flow of processing on the image list screen. On the image list screen, in step # 171, it is monitored whether or not an event has occurred due to a user operation. When an event occurs, a process corresponding to each event is performed.
[0038]
When the upload button 53 is selected, the process proceeds to step # 172, where a file designation screen 531 shown in FIG. 10 is displayed. The file designation screen 531 can designate an image file registered in the image database 8c of the web server 1.
[0039]
The file designation screen 531 is provided with a plurality of text boxes 532 for inputting file names of image files to be uploaded to the web server 1. The user inputs the file names of the image files stored in the local folders of the user terminals 2 and 3 operated by the user into the text box 532 (# 172). At this time, by operating the reference button 533, an image file can be searched from the local folder of the user terminal, and the file name can be input to the text box 532.
[0040]
When the enter button 535 is selected after inputting the file name in the text box 532, the designated file is uploaded in step # 173, the image file is added in the folder selected on the folder selection screen 40, and the image file is added in step # 181. The image list screen 50 shown in FIG. 8 is displayed in a state after the change in which is added. On the other hand, if the return button 534 is selected in steps # 172 and # 173, the upload is not performed and the image list screen 50 is displayed via step # 181. When the end button 536 is selected, the program ends.
[0041]
When the delete button 54 is selected from the event monitoring state (# 171) on the image list screen 50, the image file is deleted in step # 175. Specifically, a check box 59 a and a file name 59 b are added to the image 58 displayed in the list box 51, and the image file whose check box 59 a has been checked in advance is selected by selecting the delete button 54. Removed from. Then, the image list screen 50 is displayed in a state after the change in which the image file has been deleted (# 181).
[0042]
When the combo box 52 for changing the number of displayed images is operated from the event monitoring state (# 171) on the image list screen 50, the process proceeds to step # 176. The combo box specifies the number of image files that can be displayed at one time in the list box 51 of one screen. In step # 176, the number of image files selected by the combo box 52 is displayed in the list box 51. Is done. Then, the image list screen 50 is displayed in a state after the number of displayed image files has been changed (# 181). If the number of image files to be displayed is large and not all of them can be displayed in one list box 51, the scroll bar 58 is operated to scroll and display the images in the list box 51. Can be.
[0043]
When the previous page link 56a or the next page link 56b is selected from the event monitoring state (# 171) on the image list screen 50, the process proceeds to step # 177 and step # 178, respectively, and switches to the previous page or next page screen. The image list screen 50 is displayed in a state after the image file has been changed to the image data displayed on the previous page or the next page (# 181).
[0044]
When an operation such as clicking or double-clicking on an image in the list box 51 is performed from the event monitoring state (# 171) on the image list screen 50, the process proceeds to step # 179, where the comment bulletin board process is called and shown in FIG. The comment bulletin board screen is displayed.
[0045]
When the return button 55 is selected from the event monitoring state (# 171) on the image list screen 50, the folder selection process of step # 14 is called, and the folder selection screen shown in FIG. 7 is displayed.
[0046]
When the end button 57 is selected at an arbitrary timing on the image list screen 50, the program ends.
[0047]
FIG. 11 shows a display example of the comment bulletin board screen. The comment bulletin board screen 60 has an image 61 of the image file specified on the image list screen 50, a text box 64 for inputting a comment, a list box 62 for displaying a list of comments published on the bulletin board, and a comment attached by a video image. A playback screen 71 for playing back the video when the video is played, a video toolbar 72 for performing processing such as playback and recording of comments using video data, and an audio toolbar 68 for performing processing such as playback and recording of comments using audio data. In addition, an interest level display button 75 for displaying the interest level totalized based on the comment attached to the image, a combo box 76 for selecting a totaling method when the interest level display is performed, and the like are displayed.
[0048]
12, on the comment bulletin board screen 60, as shown in FIG. 12, a comment creation process (including a process of deleting a registered comment) in step # 21 and a comment browsing process (display of interest level of image) in step # 21. 2) is performed. First, the comment creation process (# 21) will be described.
[0049]
FIG. 13 is a flowchart showing the flow of the initial processing of the comment creation processing. In the comment creation processing, whether or not an event has occurred by a user operation is monitored on the comment bulletin board screen (# 23). When an event occurs, the following processing is performed.
[0050]
FIG. 14A is a diagram showing an image displayed on the comment bulletin board screen 60. The image 61 is composed of one piece of image data, and is managed in a state where the entire area of the image is divided into small cells 615 as shown in FIG. That is, it is uniformly determined to which cell an arbitrary point on the image belongs. Since the cell is a conceptual one for managing the area of the image 61, the image divided into the cells shown in FIG. 14B is not displayed on the comment bulletin board screen 60. In addition, the size of the cell can be appropriately set according to, for example, the size (the number of pixels) of the image. For example, the pixel itself constituting the image as the minimum unit may be a cell, or every several pixels The area may be managed as one cell.
[0051]
When the user operates a pointing device such as a mouse and moves the pointer 610 on the comment bulletin board screen 60 and drags it on the image 61 (# 24), the start point and the end point of the drag are set to diagonal points (in FIG. A rectangular mark 610 of an input candidate as a point P1 and a lower right point P2) is created and displayed on the image. The rectangular mark displayed at this time blinks. If an unconfirmed rectangular mark (not shown) is already displayed on the image 61, the dragging is newly started on the image, so that the previously displayed rectangular mark is deleted and the current drag is performed. The created rectangular mark is created and displayed.
[0052]
As shown in FIG. 14B, the rectangular mark is uniformly determined by the coordinates (x1, y1) and (x2, y2) of the diagonal points P1 and P2 on the image. Then, a cell 615x existing in an area common to the rectangular mark 611x is extracted, and a cell corresponding to the rectangular mark 611 is determined.
[0053]
In this way, when a selection area is designated (# 25), a comment can be associated with each desired selection area. As a process for inputting the comment, a metadata input process (# 26) is performed. Note that, as metadata in the present embodiment, three types of text data, audio data, and video data can be used, and each is input as follows.
[0054]
FIG. 15 is a flowchart showing the flow of the metadata input process. In the metadata input processing (# 26), the processing and buttons to be operated on the screen differ depending on the type of input metadata.
[0055]
First, a case where text data is used as input metadata will be described. In inputting text data (# 126), the user inputs text data to be input into the text box 64 (# 127). At this time, if an input error or re-input is made, the text data in the text box 64 is deleted by selecting the clear button 67 (# 128) (# 130). Enter again.
[0056]
When the input of the text data in the text box 64 is completed and the text data is to be registered as a comment, the user selects the add button 65 (# 129). By selecting the add button 65, a process for registration described later is started.
[0057]
Next, a case where audio data is used as input metadata will be described. When the user selects the recording button 68a of the voice toolbar 68 in the input of the voice data (# 226), the user terminal drives a local sound input device to start recording. The maximum recording time of the audio data is determined in advance, and the remaining recordable time can be confirmed by the indicator 68d of the audio toolbar 68. When the indicator 68d moves to the right end in FIG. 11, the recording is automatically terminated due to the lapse of the maximum recordable time, but the recording is stopped halfway by the user selecting the stop button 68c at an arbitrary timing. Can be stopped. The recorded audio data is stored in a temporary folder of the user terminal, and an icon 68e indicating that recorded audio data exists is displayed near the audio toolbar 68.
[0058]
When the recorded audio data is stored in the temporary folder of the user terminal and the audio data is to be deleted, the clear button 70 is selected (# 228) to delete the audio data. At the same time, the icon 68e is deleted from the screen (# 230).
[0059]
When the user wants to check the recorded voice data, he or she selects the play button 68b of the voice toolbar 68. Reproduction of audio data can be performed from an arbitrary position by moving the slide of the indicator 68d to an arbitrary position and then selecting the reproduction button 68b. During the reproduction of the audio data, the reproduction can be stopped by selecting the stop button 68c.
[0060]
When registering the recorded audio data, the user selects the add button 69 (# 229). When the add button 69 is selected, a registration process described later is started.
[0061]
Next, a case where video data is used as metadata will be described. In the input of video data (# 326), when the user selects the recording button 72a of the video toolbar 72, the user terminal drives a local video input device to start recording. The maximum recording time of the video data is determined in advance, and the remaining recordable time can be confirmed by the indicator 72d of the video toolbar 72. When the indicator 72d moves to the right end in FIG. 11, the recording is automatically terminated due to the elapse of the maximum recordable time, but the user selects the stop button 72c at an arbitrary timing to stop the recording in the middle. Can be stopped. The recorded video data is stored in a temporary folder of the user terminal, and the first image is displayed on the playback screen 71.
[0062]
When the recorded video data is stored in the temporary folder of the user terminal and the video data is to be deleted, the user selects the clear button 74 (# 328) to delete the video data. At the same time, the first image displayed on the reproduction screen 71 is deleted (# 330).
[0063]
If the user wants to check the recorded video data, the user selects the play button 72b on the video toolbar 72. The video data can be reproduced from an arbitrary position by moving the slide of the indicator 72d to an arbitrary position and then selecting the reproduction button 72b. During the reproduction of the video data, the reproduction can be stopped by selecting the stop button 72c.
[0064]
When the user wants to register the recorded video data, the user selects the add button 73 (# 329). By selecting the add button 73, a process for registration described later is started.
[0065]
As described above, when the input of the metadata to be registered ends according to the type, and the additional buttons 65, 69, 73 for registration corresponding to the respective types of metadata are selected (# 129, # 229). , # 329), the designated area determined in step # 25 above is acquired (# 31), registered in the image database of the web server 1, and displayed as a comment related to the designated area in the image 61 on the comment bulletin board screen. Added to the bulletin board.
[0066]
The display position of the comment in the list box 62 is determined by whether or not the check box 63 in the list box 62 is checked. Specifically, when the check box 63 for any registered comment is checked, the comment is added below the checked comment (# 33). Only one check box 63 can be checked. on the other hand. If the check box 63 is not checked, the registered comment is added as the top comment (# 34). At this time, the area indicated by the comment and the input metadata are stored in the image database 8c in association with each other. As described above, the coordinate values of the two diagonal points on the image are used as the information of the designated area.
[0067]
The metadata registered as a comment in the list box 62 has a different display form in the list box 62 depending on its type. When the comment is text data, the character information 62b is directly displayed. If the comment is audio data, the audio icon 62c is displayed at the position determined in steps # 33 and # 34. If the comment is video data, a video icon 62d is displayed at the position determined in steps # 33 and # 34.
[0068]
Next, a process of deleting a registered comment will be described. FIG. 16 is a processing flowchart of comment deletion. The comment may be deleted so that only the comment registered by the user can be deleted, or an arbitrary person may be able to delete any comment.
[0069]
When the comment bulletin board screen is displayed on the screen, it is in the event monitoring state as described above. In this state, when deleting a registered comment, first, a comment to be deleted is selected (# 40). Specifically, the user operates the mouse or the like to check the check box 63 of the comment to be deleted. When the comment to be deleted is determined, the selected comment is deleted by selecting a delete button 77 (# 41). The process for deleting a comment depends on the layer in which the selected comment is provided. That is, when the comment to be deleted is the comment of the lowest layer, the comment is deleted as it is by selecting the delete button 77 (# 43). On the other hand, if the comment is not the lowest comment, it is confirmed whether to delete the comment together with the comment existing in the lower layer than the selected comment (# 44). Delete with
[0070]
Next, the comment browsing process (including the process of displaying the degree of interest of an image) in step # 22 on the comment bulletin board screen 60 will be described. 18 and 19 are flowcharts showing the flow of the comment browsing process.
[0071]
According to the size of the list box 62, the number of comments that can be displayed on one screen is limited. Comments that cannot be displayed in the list box 62 can be switched and displayed by scrolling by operating the scroll bar 62a of the list box 62. In the image 61, only the designated area frame 611 associated with the comment displayed in the list box 62 is displayed, and the comment displayed in the list box 62 is switched according to the operation of the scroll bar 62a. As a result, the display of the designated area frame 611 is also switched and displayed. The designated area frame 611 has a different color depending on the type of the associated metadata. For example, text data is displayed in black, audio data is displayed in yellow, and video data is displayed in blue.
[0072]
The operation of browsing the registered comments includes a method of browsing by operating a comment or an icon displayed in the list box 62, and a method of selecting and displaying an area of the image 61. In any case, the comment in the list box 62 and the designated area of the image 61 are linked, and when any one is selected, the other corresponding one is highlighted.
[0073]
First, the browsing process when a comment in the list box 62 is selected will be described.
[0074]
When the mouse pointer 610 (refer to FIG. 14) does not exist in either the image 61 or the list box 62, it is in a state of waiting for an event to occur, and the color of the comment 62b, the icons 62c, 62d, and the border line of the related designated area Is in the default state (# 51), comment characters are displayed in black, icons are displayed in standard display color (black), and the frame of the designated area is displayed in a color corresponding to the type of metadata as described above. ing.
[0075]
In browsing the text comment, when the mouse pointer moves over the text comment in the list box, the object related to the comment (the text comment and the designated area frame of the comment) turns red (# 153). When the mouse is clicked without moving the mouse pointer out of the text comment (No in # 154) (# 155), the related area is extracted and enlarged and displayed on the reproduction screen 71 (# 156). When the mouse is clicked again (# 157), the reproduction screen 71 returns to the whole image (# 158), and the browsing of the text comment ends.
[0076]
On the other hand, if the mouse pointer deviates from the text comment at any timing of these processes, the color of the text comment and the designated area frame returns to the original black, the browsing process ends, and a state of waiting for an event is set.
[0077]
The reading of the voice comment can be performed by moving the mouse pointer over the voice icon.
[0078]
The voice comment icon 62c in the list box 62 is determined by determining the importance of the comment based on the average of the percentage of time the voice comment was played, and changing the design of the icon in the list box 62 according to the importance. indicate. Specifically, the importance is determined based on the average of (time actually reproduced by the user image) / (recording time of the comment), and the importance is determined to be 0 to less than 33%, 33 to less than 66%, 66 to 100%. 17 and three types of icons are displayed as shown in FIG. From the icon design, the user can determine the importance of the audio data in advance without actually reproducing the audio data, and can use the icon as an index from which audio comment should be reproduced.
[0079]
When the mouse pointer moves over the voice icon, the voice icon as a related object and the designated area frame of the comment turn red (# 253). Thereafter, reproduction of the audio data is started (# 254). When the mouse is clicked without moving the mouse pointer out of the voice icon 62c (No in # 255) (# 256), the related area is extracted and enlarged and displayed on the reproduction screen 71 (# 257). When the mouse is clicked again (# 258), the reproduction screen 71 returns to the whole image (# 259), and the browsing of the voice comment ends.
[0080]
On the other hand, if the mouse pointer deviates from the audio icon at any timing of these processes, the reproduction of the audio data ends, and the color of the audio icon and the designated area frame returns to the original color, and the browsing process ends. And enters the event waiting state.
[0081]
Viewing a video comment can be done by moving the mouse pointer over the video icon.
[0082]
Similar to the audio icon, the video comment icon in the list box 62 determines the importance of the comment by the average of the percentage of time the video comment was played, and the icon in the list box 62 according to the importance. Is displayed with a different design. Therefore, the user can determine the importance of the video data in advance from the icon design without actually reproducing the video data, and can use the video data as an index from which video comment should be reproduced.
[0083]
When the mouse pointer moves over the video icon, the video icon as a related object and the designated area frame of the comment turn red (# 353). Thereafter, the reproduction of the video data is started (# 354). When the mouse pointer is clicked without moving the mouse pointer out of the video icon 62c (No in # 355) (# 356), the related area is extracted and enlarged and displayed on the reproduction screen 71 (# 357). When the mouse is clicked again (# 358), the reproduction screen 71 returns to the whole image (# 359), and the browsing of the text comment ends.
[0084]
On the other hand, if the mouse pointer deviates from the video icon at any timing of these processes, the reproduction of the video data ends, the color of the video icon and the designated area frame returns to the original color, and the browsing process ends. And enters the event waiting state.
[0085]
Next, the browsing process when the designated area of the image 61 is selected will be described. When the designated area of the image is selected, comments are browsed when a plurality of comments (including hierarchically attached comments) are attached to one designated area, or when a point on the image is assigned to a plurality of points. The processing procedure differs from the case where the comment in the list box 62 is selected, as described below, because it may overlap the designated area.
[0086]
As described above, in the comment bulletin board screen, when an event occurrence is waiting, the color of the comment 62b, the icons 62c, 62d, and the frame color of the related designated area is in a default state (# 51). ). In this state, when the mouse pointer moves up to the image 61, it is determined whether or not the position is a designated area with a comment (# 70). If it is not the designated area, the process for browsing is not performed, and the event standby state is continued.
[0087]
If the point where the mouse pointer is moved is the designated area, it is determined whether or not a plurality of designated areas exist at the point (# 71). If it is not a plurality of designated areas (No in # 71), it is determined whether the number of comments associated with the designated area is one or more (# 72). When the number of comments associated with the designated area is singular (Yes in # 72), the following processing is performed according to the type of comment.
[0088]
If the comment associated with the designated area is a text comment, the same processing A as that for reading the text comment is performed (see steps # 153 to # 158 in FIG. 18). That is, the text comment and the designated area frame associated with the designated area turn red, and the area is enlarged and displayed by clicking the area with the mouse. When the mouse pointer leaves the area, the text comment in the designated area frame and the list box 62 changes to the original black.
[0089]
If the comment associated with the designated area is a voice comment, the same processing B as that for browsing the voice comment is performed (see steps # 253 to # 259 in FIG. 18). That is, the audio icon and the specified area frame associated with the specified area turn red, the audio data is reproduced, and the area is enlarged and displayed by clicking the area with the mouse. When the mouse pointer moves out of the area, the reproduction of the audio data ends, and the audio icon in the designated area frame and the list box 62 changes to the original color.
[0090]
If the comment associated with the designated area is a video comment, the same processing C as that for browsing the video comment is performed (see steps # 353 to # 359 in FIG. 18). That is, the video icon associated with the designated area and the designated area frame turn red, the video data is played while the mouse pointer is in the area, and the area is clicked with the mouse to change the area. Enlarged display. When the mouse pointer moves out of the area, the reproduction of the video data ends, and the video icon in the designated area frame and the list box 62 changes to the original color.
[0091]
When there are a plurality of comments associated with the designated area (No in # 72), it is determined whether all of the plurality of comments are text comments (# 74), and the respective processes are performed as follows. .
[0092]
When all of the plurality of comments associated with the designated area are text comments (Yes in # 74), the same processing A as that for browsing the text comments is performed (see steps # 153 to # 158 in FIG. 18). That is, all the text comments and the specified area frame associated with the specified area turn red, and the area is enlarged and displayed by clicking the area with the mouse. When the mouse pointer moves out of the area, all the text comments in the designated area frame and the list box 62 are changed to the original black.
[0093]
If all of the plurality of comments associated with the designated area are not text comments (No in # 74), that is, if there is a text comment and an audio comment or a video comment, or if there is only an audio comment or a video comment, the related All comments (text comments, audio icons, and video icons) associated with the specified area as the object and the specified area frame turn red (# 75). Then, among the associated comments, the audio data and the video data are sequentially played back in ascending order of the date and time when the comment was added (# 76).
[0094]
If it is desired to stop the reproduction of the comment during the reproduction of the audio data and the video data, the mouse is double-clicked (# 78), and the reproduction of the next comment is started (# 79). When the mouse is clicked during the reproduction of the audio data and the video data, the image of the related area is extracted and enlarged and displayed on the reproduction screen 71 (# 81). When the mouse is clicked again (# 82), the reproduction screen 71 returns to the whole image (# 83), and the browsing of the comment ends.
[0095]
On the other hand, if the mouse pointer goes out of the designated area at any timing of these processes, the reproduction of the audio data and the video data ends, and the comment in the designated area frame and the list box 62 returns to the original color. After that, the browsing process is completed, and an event waiting state is set.
[0096]
Next, a case where a plurality of designated areas exist at the point where the mouse pointer is moved (Yes in # 71) will be described. In this case, it is determined whether or not all the comments associated with all the specified area frames included in the point where the mouse pointer is present are text comments (# 85), and the respective processes are performed as follows.
[0097]
When all the comments associated with the plurality of designated areas existing at the point where the mouse pointer is moved are all text comments (Yes in # 85), the same processing A as the above-described browsing of the text comments is performed. (See steps # 153 to # 158 in FIG. 18). That is, all the text comments associated with the specified area and all the specified area frames existing at the point where the mouse pointer is moved are changed to red.
[0098]
By clicking the mouse at this position, the area is enlarged and displayed. At this time, the range of the image enlarged and displayed is the image in the bounding box 612 as shown in FIG. The bounding box 612 is a rectangular area circumscribing a plurality of designated areas. That is, when three designated areas 611a to 611c exist at the position where the mouse pointer 610 exists, a rectangular area 612 circumscribing the three designated areas becomes a bounding box. When the mouse pointer moves and deviates from any of the designated areas, all the text comments in the designated area frame and the list box 62 change to the original color. That is, when the mouse pointer departs from the overlapping position of all the specified areas, all the specified area frames and comments return to the original colors.
[0099]
If all of the plurality of comments associated with the designated area are not text comments (No in # 85), that is, if there is a text comment and an audio comment or a video comment, or if there is only an audio comment or a video comment, (See steps # 75 to # 84 in FIG. 19). In other words, all the comments (text comments, audio icons, and video icons) associated with the specified area, which is a related object, and the specified area frame turn red. Then, among the associated comments, the audio data and the video data are sequentially reproduced in ascending order of the date and time when the comment was added.
[0100]
If it is desired to stop the reproduction of the comment during the reproduction of the audio data and the video data, the mouse is double-clicked as it is, and the reproduction of the next comment is started. When the mouse is clicked during the reproduction of the audio data and the video data, the image of the related area is extracted and enlarged and displayed on the reproduction screen 71. The range of the image to be enlarged and displayed is the range of the bounding box 612 as described above. When the mouse is clicked again, the reproduction screen 71 returns to the whole image, and the browsing of the comment ends.
[0101]
On the other hand, if the mouse pointer goes out of the designated area at any timing of these processes, the reproduction of the audio data and the video data ends, and the comment in the designated area frame and the list box 62 returns to the original color. After that, the browsing process is completed, and an event waiting state is set.
[0102]
Next, a case where the interest level display button 75 is selected on the comment bulletin board screen 60 will be described. When the interest level display button 75 is selected, the server counts the interest levels (points) for each cell 615 (see FIG. 14) according to a predetermined evaluation criterion, and displays the result in the form of a graph in an interest level distribution screen. (See FIG. 21) is displayed on the user terminals 2 and 3. Specifically, the following processing is performed.
[0103]
First, when displaying the interest level distribution screen 70, the user selects an interest level evaluation criterion from the combo box 76. Examples of the degree of interest evaluation criterion include the number of registered comments, the number of times of browsing, the total of browsing time, and the like. When one cell belongs to a plurality of designated areas or a plurality of comments are attached to the same designated area, the degree of interest (point) given by the comment attached to the designated area is accumulated. It can also be summed and counted.
[0104]
In addition, the comment data is configured to be classified and totaled for each type. For example, the degree of interest in the audio comment and the video comment may be evaluated using a ratio of the time actually reproduced by the user to the total reproduction time of the audio data and the video data. Further, a plurality of items may be combined and evaluated, and for example, the degree of interest may be calculated by performing some kind of calculation such as “number of browsing times + rank of browsing time × 3”.
[0105]
When the interest level evaluation criterion is determined by operating the combo box 76, the web server 1 acquires this information. (# 61). Next, data is tabulated for each cell in accordance with the criterion, and a distribution chart is created using the point data of each tabulated cell (# 62). When the creation of the distribution chart is completed, the information is output to the user terminal, and the user terminal receiving the information opens another window to display the interest distribution screen 70 (# 63).
[0106]
As the display screen, as shown in FIG. 21, an area graph 61G or the like corresponding to the point of the degree of interest for each mesh is preferably used. That is, graphing is performed so that the height of each cell 615 differs according to the point of each cell. In addition, as an example of the graph, in addition to the graph illustrated in FIG. 21, for example, the image 61 itself may be embossed. Alternatively, the distribution may be displayed based on information for each type of comment, such as only text information or only audio.
[0107]
When the close button 74 or the end button 73 is selected on the interest distribution screen 70, the interest distribution screen is closed, the screen returns to the comment bulletin board screen 60, and an event standby state is set.
[0108]
As described above, according to the computer system having the above configuration, an unspecified number of persons can comment on an image posted on a site using text data and multimedia data for a partial area of the photograph. Can be. In addition, since the color of the frame indicating the area is displayed differently depending on the type of data, it is possible to immediately determine which part has what kind of comment.
[0109]
Also, when browsing, by selecting one of the designated area frame or the comment with the mouse, the other associated color is changed, so that it is possible to easily identify which comment is for which area. it can. The icon indicating the comment displayed in the list box changes its display according to the importance. Therefore, by looking at the display, the importance of the audio data can be determined in advance without actually reproducing the audio data, and the index can be used as an index of the audio comment to be reproduced.
[0110]
The present invention is not limited to the above embodiment, but can be implemented in various other modes.
[0111]
For example, the present computer system is configured by a network system using the Internet. However, for example, a device having the same function as the web server of the present embodiment may be used alone without using a network. For example, in this case, a user can register a photographic image at a store or the like, and a third party can use the same device to add a comment.
[0112]
When the display of the designated area is changed according to the type of the metadata, the display may be made different by changing not only the color of the designated area frame but also the line type and the thickness of the frame line.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a computer system according to an embodiment.
FIG. 2 is a block diagram showing a configuration of a web server of the computer system according to FIG. 1;
FIG. 3 is a flowchart of an operation process in the computer system according to the embodiment.
FIG. 4 is a screen display example of a login screen.
FIG. 5 is a screen display example of a user registration screen.
FIG. 6 is a flowchart showing the flow of processing on a folder selection screen.
FIG. 7 is a screen display example of a folder selection screen.
FIG. 8 is a screen display example of an image list screen.
FIG. 9 is a flowchart showing the flow of processing on an image list screen.
FIG. 10 is a screen display example of a file designation screen.
FIG. 11 is a screen display example of a comment bulletin board screen.
FIG. 12 is a flowchart showing a flow of processing on a comment bulletin board screen.
FIG. 13 is a flowchart showing the flow of initial processing of comment creation processing.
14A and 14B are diagrams illustrating images used on a comment bulletin board screen, in which FIG. 14A is a view illustrating an image displayed on a comment bulletin board screen, and FIG. 14B is a view obtained by dividing the image in FIG. It is a figure showing a state.
FIG. 15 is a flowchart showing the flow of metadata input processing.
FIG. 16 is a processing flowchart of comment deletion.
FIG. 17 is a diagram showing audio comment icons displayed in a list box of the comment bulletin board screen.
FIG. 18 is a flowchart showing the flow of a comment browsing process.
FIG. 19 is a flowchart showing the flow of a comment browsing process.
FIG. 20 is an explanatory diagram of a bounding box.
FIG. 21 is a screen display example of a degree of interest distribution screen.
[Explanation of symbols]
1 Web server 2, 3 User terminal 4 Internet 5 Mouse 6 Output device 7 Processor 8 Storage device 20 Login screen 30 User registration screen 40 Folder selection screen 50 Image list screen 60 Comment bulletin board screen 61 Image 61G Interest distribution graph 61x Cell division Image 611 Designated area frame 611x Designated area 615 Cell 70 Interest level distribution screen

Claims (5)

一部の領域を指定領域として指定された全体画像を表示する画像欄と、当該指定領域に関連付けられた注釈情報を表示する注釈欄とを1画面に含む出力画面情報を形成するためにコンピュータを、
種々の属性を有する注釈情報を前記指定された指定領域に関連付けを行う注釈付加手段、
前記注釈付加手段によって関連付けされた注釈情報の属性に応じて、前記画像欄に表示される前記指定領域の表示形式を異ならせて前記出力画面情報を形成する画像形成手段、として機能させるための画像形成プログラム。
A computer is used to form output screen information including, on a single screen, an image field for displaying an entire image specified as a specified area, and an annotation field for displaying annotation information associated with the specified area. ,
Annotation adding means for associating annotation information having various attributes with the specified designated area,
An image for functioning as image forming means for forming the output screen information by changing the display format of the designated area displayed in the image field according to the attribute of the annotation information associated by the annotation adding means. Shaping program.
前記注釈付加手段が異なる対応付けを行うことができる注釈情報の属性は、前記注釈情報のファイルタイプの種類を含むことを特徴とする、請求項1に記載の画像形成プログラム。2. The image forming program according to claim 1, wherein the attribute of the annotation information to which the annotation adding unit can perform different association includes a type of a file type of the annotation information. さらにコンピュータを、前記出力画面情報上において、前記注釈情報又は指定領域のいずれか一方を特定する特定手段として機能させ、
前記画像形成手段は、前記特定手段により特定がなされると、前記特定された情報と当該特定された情報に対応付けられた情報の双方の表示形式を変化させて前記出力画面情報を形成することを特徴とする、請求項1又は2に記載の画像形成プログラム。
Further, the computer, on the output screen information, the function as a specifying means for specifying any one of the annotation information or the specified area,
The image forming unit, when specified by the specifying unit, forms the output screen information by changing a display format of both the specified information and the information associated with the specified information. The image forming program according to claim 1, wherein:
さらにコンピュータを、前記個々の注釈情報ごとに重要度情報を判定する重要度判定手段として機能させ、
前記画像形成手段は、前記重要度判定手段により判定された重要度情報に基づいて、前記注釈情報の表示形式を異ならせた前記出力画面情報を形成することを特徴とする、請求項1乃至3のいずれか1つに記載の画像形成プログラム。
Further, causing the computer to function as importance determination means for determining importance information for each of the individual annotation information,
The image forming unit forms the output screen information in which the display format of the annotation information is changed based on the importance information determined by the importance determining unit. The image forming program according to any one of the above.
一部の領域を指定領域として指定された全体画像を表示する画像欄と、当該指定領域に関連付けられた注釈情報を表示する注釈欄とを1画面に含む出力画面情報を形成する画像形成装置であって、
前記指定された指定領域と関連付けられる注釈情報を、その属性に応じて異ならせて関連付けを行う注釈付加手段と、
前記注釈付加手段によって関連付けされた注釈情報の属性に応じて、前記画像欄に表示される前記指定領域の表示形式を異ならせて前記出力画面情報を形成する画像形成手段とを備えたことを特徴とする画像形成装置。
An image forming apparatus for forming output screen information including an image field for displaying an entire image specified with a partial area as a specified area and an annotation field for displaying annotation information associated with the specified area on one screen. So,
Annotation means for associating the annotation information associated with the designated area with a different attribute according to the attribute,
Image forming means for forming the output screen information by changing the display format of the designated area displayed in the image field according to the attribute of the annotation information associated by the annotation adding means. Image forming apparatus.
JP2003033398A 2003-02-12 2003-02-12 Image forming program, and image forming device Withdrawn JP2004246454A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003033398A JP2004246454A (en) 2003-02-12 2003-02-12 Image forming program, and image forming device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003033398A JP2004246454A (en) 2003-02-12 2003-02-12 Image forming program, and image forming device

Publications (2)

Publication Number Publication Date
JP2004246454A true JP2004246454A (en) 2004-09-02
JP2004246454A5 JP2004246454A5 (en) 2005-06-16

Family

ID=33019381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003033398A Withdrawn JP2004246454A (en) 2003-02-12 2003-02-12 Image forming program, and image forming device

Country Status (1)

Country Link
JP (1) JP2004246454A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133915A (en) * 2005-11-07 2007-05-31 Kenwood Corp Path display apparatus, file reproducing apparatus, path display method, and path display program
WO2007105364A1 (en) * 2006-03-06 2007-09-20 Justsystems Corporation Document processing device and document processing method
JP2008065484A (en) * 2006-09-05 2008-03-21 Sharp Corp Content reproduction device, content data transmission device, its control program, computer-readable recording medium recorded with control program, content reproduction system and control method
JP2009060337A (en) * 2007-08-31 2009-03-19 Nikon Corp Electronic camera and display device
JP2009134715A (en) * 2007-11-09 2009-06-18 Yasuyuki Shimizu Information presentation system, server, information presentation device, information presentation program, and information presentation method
JP2012510128A (en) * 2008-11-26 2012-04-26 アリババ グループ ホールディング リミテッド Image search apparatus and method
JP2012182841A (en) * 2012-06-11 2012-09-20 Canon Inc Image processing apparatus, control method for the same, and program
US8294727B2 (en) 2006-04-28 2012-10-23 Fujifilm Corporation Metainformation add-on apparatus, image reproducing apparatus, methods of controlling same and programs for controlling same
JP2013020629A (en) * 2012-08-23 2013-01-31 Casio Comput Co Ltd Terminal device and program
US8711265B2 (en) 2008-04-24 2014-04-29 Canon Kabushiki Kaisha Image processing apparatus, control method for the same, and storage medium
JP2015060323A (en) * 2013-09-17 2015-03-30 コニカミノルタ株式会社 Display device, display method, and display program
US10043199B2 (en) 2013-01-30 2018-08-07 Alibaba Group Holding Limited Method, device and system for publishing merchandise information
CN111078085A (en) * 2018-10-22 2020-04-28 佳能株式会社 Information processing apparatus, control method of information processing apparatus, and storage medium

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4588615B2 (en) * 2005-11-07 2010-12-01 株式会社ケンウッド Path display device, file playback device, path display method, and path display program
JP2007133915A (en) * 2005-11-07 2007-05-31 Kenwood Corp Path display apparatus, file reproducing apparatus, path display method, and path display program
WO2007105364A1 (en) * 2006-03-06 2007-09-20 Justsystems Corporation Document processing device and document processing method
US8294727B2 (en) 2006-04-28 2012-10-23 Fujifilm Corporation Metainformation add-on apparatus, image reproducing apparatus, methods of controlling same and programs for controlling same
JP2008065484A (en) * 2006-09-05 2008-03-21 Sharp Corp Content reproduction device, content data transmission device, its control program, computer-readable recording medium recorded with control program, content reproduction system and control method
JP2009060337A (en) * 2007-08-31 2009-03-19 Nikon Corp Electronic camera and display device
JP2009134715A (en) * 2007-11-09 2009-06-18 Yasuyuki Shimizu Information presentation system, server, information presentation device, information presentation program, and information presentation method
US8711265B2 (en) 2008-04-24 2014-04-29 Canon Kabushiki Kaisha Image processing apparatus, control method for the same, and storage medium
JP2012510128A (en) * 2008-11-26 2012-04-26 アリババ グループ ホールディング リミテッド Image search apparatus and method
US8738630B2 (en) 2008-11-26 2014-05-27 Alibaba Group Holding Limited Image search apparatus and methods thereof
US9563706B2 (en) 2008-11-26 2017-02-07 Alibaba Group Holding Limited Image search apparatus and methods thereof
JP2012182841A (en) * 2012-06-11 2012-09-20 Canon Inc Image processing apparatus, control method for the same, and program
JP2013020629A (en) * 2012-08-23 2013-01-31 Casio Comput Co Ltd Terminal device and program
US10043199B2 (en) 2013-01-30 2018-08-07 Alibaba Group Holding Limited Method, device and system for publishing merchandise information
JP2015060323A (en) * 2013-09-17 2015-03-30 コニカミノルタ株式会社 Display device, display method, and display program
CN111078085A (en) * 2018-10-22 2020-04-28 佳能株式会社 Information processing apparatus, control method of information processing apparatus, and storage medium
JP2020067715A (en) * 2018-10-22 2020-04-30 キヤノン株式会社 Information processing apparatus, control method of information processing apparatus, and computer program
US11665434B2 (en) 2018-10-22 2023-05-30 Canon Kabushiki Kaisha Information processing apparatus having capability of appropriately setting regions displayed within an image capturing region using different image categories
JP7292024B2 (en) 2018-10-22 2023-06-16 キヤノン株式会社 Information processing device, control method for information processing device, computer program
CN111078085B (en) * 2018-10-22 2024-03-29 佳能株式会社 Information processing apparatus, control method of information processing apparatus, and storage medium

Similar Documents

Publication Publication Date Title
US7725837B2 (en) Digital image browser
JP4380494B2 (en) Content management system, content management method, and computer program
JP7111632B2 (en) Image candidate determination device, image candidate determination method, program for controlling image candidate determination device, and recording medium storing the program
JP4669912B2 (en) Content browsing system, program, and content browsing method
CN101523387B (en) Data processing system, image display device and program thereof
JP2000276484A (en) Device and method for image retrieval and image display device
JP2009500884A (en) Method and device for managing digital media files
JP2007527065A (en) Method for generating an icon representing an image group, a computer system configured to perform the method, a computer program product and a data carrier
JP2004246454A (en) Image forming program, and image forming device
JP2007042092A (en) Electronic document processing apparatus, method, and program
US20060050166A1 (en) Digital still camera
JP2001134578A (en) Method and device for data retrieval and recording medium where processing program thereof is recorded
EP1517328B1 (en) Information editing device, information editing method, and computer program product
JP5049880B2 (en) Information processing device
JP4144228B2 (en) Album creation program
JP2009282606A (en) Image browsing device and program
JP4378942B2 (en) Information management method, information management apparatus, program for causing computer to execute information management method, and recording medium recording this program
JP2018092254A (en) Display, display program, and display method
JP2004246453A (en) Image system forming program, and image evaluation device
WO2010084602A1 (en) Image display system, method, and program
JP4288896B2 (en) Image recording apparatus, image recording method, program, and storage medium
JP2004363831A (en) Apparatus and method for moving picture processing
JP4736081B2 (en) Content browsing system, content server, program, and storage medium
JP5888382B2 (en) Content recommendation method for user, content recommendation system for user, and computer-readable recording medium
KR101499052B1 (en) A method for building cardbook using knowledge card based on digital information

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040917

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20041119

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20041119

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20060228