JP2005197883A - Writing analysis apparatus - Google Patents

Writing analysis apparatus Download PDF

Info

Publication number
JP2005197883A
JP2005197883A JP2004000501A JP2004000501A JP2005197883A JP 2005197883 A JP2005197883 A JP 2005197883A JP 2004000501 A JP2004000501 A JP 2004000501A JP 2004000501 A JP2004000501 A JP 2004000501A JP 2005197883 A JP2005197883 A JP 2005197883A
Authority
JP
Japan
Prior art keywords
writing
person
image data
analysis
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004000501A
Other languages
Japanese (ja)
Other versions
JP4492124B2 (en
Inventor
Akio Yamashita
明男 山下
Kei Tanaka
圭 田中
Katsunori Yoshiji
克典 芳地
Atsushi Miyazaki
宮崎  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004000501A priority Critical patent/JP4492124B2/en
Publication of JP2005197883A publication Critical patent/JP2005197883A/en
Application granted granted Critical
Publication of JP4492124B2 publication Critical patent/JP4492124B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a writing analysis apparatus for analyzing items written on a whiteboard. <P>SOLUTION: A flowchart indicating setting processes for annotation includes: a step S10 of receiving animation data resulting from photographing writing processes to the white board; a step S14 of acquiring information about staying time of a person; a step S18 of recognizing written items on the basis of a temporal change in data not displaying people; a step S20 of acquiring the written time; a step S22 of comparing the information of the staying time with the information of the write time to determine a person who writes the items; a step S24 of identifying the determined person from other people through pattern recognition applied to the animation data; and a step S26 of thereby setting the annotation to the animation data, the annotation relating to the items, the person for writing the items, and the writing time. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、ホワイトボードや黒板等の書込ボードに書き込まれた内容を記録する技術に関する。   The present invention relates to a technique for recording contents written on a writing board such as a white board or a blackboard.

ホワイトボードに書き込まれた内容を、ホワイトボードに付属したスキャナ装置で撮像するシステムが広く普及している。このシステムにおいては、書込が複数の人物によって行われる場合に、書き込んだ内容と書き込んだ人物とを対応づけることができない欠点がある。   A system in which content written on a whiteboard is imaged by a scanner device attached to the whiteboard is widely used. In this system, when writing is performed by a plurality of persons, there is a drawback that the written contents cannot be associated with the written person.

これに対し、特許文献1には、特殊なペンとそのペンによる書込を認識する機能を備えた電子掲示板の技術が記載されている。この技術では、例えば、各人物が異なるペンをもつことで、書込を行う人物の識別と、その書込内容とを対応づけて記録することが可能である。   On the other hand, Patent Document 1 describes a technology of an electronic bulletin board having a special pen and a function of recognizing writing by the pen. In this technique, for example, each person having a different pen can record the identification of the person performing the writing and the written content in association with each other.

特開平09−171448号公報JP 09-171448 A

なお、画像データに対して付箋やメモなどのアノテーションを設定し、その画像と重ねて表示する技術が知られている。   A technique is known in which annotations such as sticky notes and memos are set on image data and displayed in an overlapping manner with the images.

上記特許文献1の技術においては、書込を行う人物の特定が容易となる利点がある一方で、書込を行う人物を識別するために用いる特殊な設備によって設置コストが高くなってしまう問題がある。   The technique of Patent Document 1 has an advantage that it is easy to specify a person who performs writing, but there is a problem that the installation cost increases due to special equipment used to identify the person who performs writing. is there.

本発明の目的は、汎用性の高い設備を用いて、書込内容と書込を行った人物とを対応づけることにある。   An object of the present invention is to associate written contents with a person who has written using highly versatile equipment.

本発明の別の目的は、対応づけた結果を認識容易な形態で表示することにある。   Another object of the present invention is to display the associated results in an easily recognizable form.

本発明の書込解析装置は、複数の人物によって複数の事項の書込が行われる書込ボードをその書込期間中撮影して作成された時系列画像データを入力する入力手段と、前記時系列画像データにおける前記書込ボードの時間変化に基づいて、書き込まれた各事項を識別し、識別した各事項の書込タイミングについての情報を取得する事項解析手段と、前記書込ボード付近に停留する人物の識別と、その停留タイミングについての情報の取得を行う人物解析手段と、前記書込タイミングと前記停留タイミングの対応関係に基づいて、各事項を書き込んだ人物を特定する特定手段と、を備える。   The writing analysis apparatus according to the present invention includes input means for inputting time-series image data created by photographing a writing board on which a plurality of items are written by a plurality of persons during the writing period; Based on the time change of the writing board in the sequence image data, each written item is identified, and item analysis means for acquiring information about the writing timing of each identified item, Identification means for identifying the person to perform, acquisition of information about the stop timing, and specifying means for specifying the person who wrote each item based on the correspondence between the write timing and the stop timing, Prepare.

書込ボードとは、ホワイトボード、黒板、貼り出された模造紙など、筆記具を用いて書込可能であり、かつ、書込内容を複数の人物が同時に閲覧可能に設けられた面状物を指す。書込ボードは、会議などのような複数の人物が会する場において、書込事項を共有するために用いられる。書込ボードに書込を行う人物は、書込ボードの前に移動して停留し、文字、記号、図などの事項を書き込み、その場を離れる。停留とは書込ボード付近に留まることを指しており、一所に留まることは勿論、書込ボードの前を行ったり来たりするような動作をも含んでいる。したがって、短期間だけ書込ボードの前を離れた場合にも、連続した停留とみなすことも可能である。他の人物は書込中あるいは書込後にその書込事項を閲覧する。事項の書込は、一般に、複数の人物によって行われ、書込ボードには累積的に複数の事項が書き込まれていく。なお、事項とは、書き込まれた内容のひとまとまりを指している。ここで、ひとまとまりとは、例えば、ある人物が連続して書き込んだ記載や、複数箇所に連続して書き込んだ場合の各箇所の記載、一定期間の間に書き込んだ記載など、適当な定義の元でくくられる記載の単位を指す。   A writing board is a white board, a blackboard, a pasted imitation paper, etc. that can be written using a writing instrument, and that the written contents are provided so that multiple people can view the written contents simultaneously. Point to. The writing board is used to share writing items when a plurality of persons meet such as a meeting. A person who writes on the writing board moves in front of the writing board and stops, writes items such as characters, symbols, and drawings, and leaves the place. Stopping means staying in the vicinity of the writing board and includes not only staying in one place but also moving back and forth in front of the writing board. Therefore, even when the user leaves the writing board for a short period, it can be regarded as a continuous stop. Other persons view the written items during or after writing. The writing of items is generally performed by a plurality of persons, and a plurality of items are cumulatively written on the writing board. The item refers to a group of written contents. Here, the term “group” refers to, for example, a description written by a person continuously, a description of each part when writing continuously in multiple places, a description written during a certain period, and the like. Refers to the unit of description written in the original.

入力手段は、この一連の書込過程において書込ボードを撮影して得られた時系列画像データを入力する。時系列画像データは、時間的に連続な動画データ、期間中に多数回撮影された静止画像データのセット、あるいはこれらの組み合わせであってもよい。事項解析手段は、書込ボードの前に現れる人物についての画像情報を取り除き、書込ボードについてのみの時間変化を解析することで、書き込まれた事項、あるいは、消去された事項を識別する。また、その書込がいつ行われたかについての書込タイミングの情報も取得する。人物解析手段は、前記時系列画像データまたは他の情報を利用して、前記書込ボード付近に停留する人物の識別を行う。すなわち、書込を行った複数の人物のうちの誰であるかを求める。また、前記時系列画像データまたは他の情報を利用して、その人物がいつ停留したかについての停留タイミングの情報も取得する。特定手段は、前記書込タイミングと前記停留タイミングとからどの人物がどの書込を行ったかの対応づけを行う。   The input means inputs time-series image data obtained by photographing the writing board in this series of writing processes. The time-series image data may be temporally continuous moving image data, a set of still image data captured many times during the period, or a combination thereof. The item analysis means removes the image information about the person who appears in front of the writing board and analyzes the time change only for the writing board to identify the written item or the deleted item. In addition, information on the writing timing about when the writing was performed is also acquired. The person analyzing means identifies the person staying near the writing board using the time-series image data or other information. That is, it is determined who of the plurality of persons who performed the writing. In addition, using the time-series image data or other information, information on the stop timing about when the person stopped is also acquired. The specifying means associates which person performed which writing from the writing timing and the stop timing.

各手段の実行順序は、特に限定されない。すなわち、事項解析手段、人物解析手段、特定手段の順に行われてもよいし、人物解析手段、事項解析手段、特定手段の順に行われてもよい。また、人物解析手段における人物の識別と停留タイミング情報の取得は別々に行ってもよく、例えば、停留タイミング情報の取得を前に行って特定手段を実施したあとで、人物の識別を行ってもよい。   The execution order of each means is not particularly limited. That is, it may be performed in the order of the item analysis unit, the person analysis unit, and the identification unit, or may be performed in the order of the person analysis unit, the item analysis unit, and the identification unit. Further, the person identification and the acquisition of the stop timing information in the person analysis means may be performed separately. For example, the person may be identified after the stop timing information is acquired and the specifying means is performed. Good.

この構成によれば、カメラやビデオカメラ等によって作成された時系列画像データを解析することで、書込事項と書込を行った人物とを対応づけることができる。カメラやビデオカメラは一般に広く普及しており、導入コストを抑制することが可能である。また、書込ボードの利用者は、特殊なペンを持つなどのように書込にあたって特別なことをする必要がないため、書込ボードを円滑に利用することが可能となる。なお、時系列画像データだけでなく、対応する音声データを取得してもよい。また、ホワイトボードに付属のスキャナ等によって別途取られた画像を取り込める場合には、例えば最終画像としてそうした画像を用いてもよい。なお、解析対象を書込操作だけでなく、例えば、ボード上に用紙をマグネットで固定するなどの掲示操作に拡張してもよい。   According to this configuration, by analyzing time-series image data created by a camera, a video camera, or the like, it is possible to associate the written item with the person who has written. Cameras and video cameras are generally widely used, and the introduction cost can be suppressed. In addition, since the user of the writing board does not need to do anything special in writing such as having a special pen, the writing board can be used smoothly. Note that not only time-series image data but also corresponding audio data may be acquired. Further, when an image taken separately by a scanner attached to the whiteboard or the like can be taken in, such an image may be used as the final image, for example. Note that the analysis target may be extended not only to a writing operation but also to a posting operation such as fixing a sheet on a board with a magnet.

望ましくは、本発明の書込解析装置において、前記事項解析手段は、識別した事項の位置についての情報を取得する手段を含み、前記人物解析手段は、前記書込ボード付近に停留する人物が停留した位置についての情報を取得する手段を含み、前記特定手段は、書き込まれた少なくとも一つの事項に対しては、その事項の位置と人物が停留した位置との対応関係にも基づいて、書き込んだ人物を特定する。この構成によれば、特に、複数の人物が同時に書込ボード付近に停留した場合にも、どの人物によってどの書込が行われたかを容易に判定できる。   Preferably, in the writing analysis apparatus according to the present invention, the item analysis means includes means for acquiring information on the position of the identified item, and the person analysis means is configured to stop a person who stops near the writing board. Means for acquiring information about the position, and the specifying means writes at least one item written based on the correspondence between the position of the item and the position where the person stopped Identify people. According to this configuration, it is possible to easily determine which writing is performed by which person, particularly when a plurality of persons are simultaneously stopped near the writing board.

望ましくは、本発明の書込解析装置において、前記人物解析手段は、前記時系列画像データを用いてパターン認識解析を行うことで、前記書込ボード付近に停留する人物を識別する。パターン認識の手法については様々なアルゴリズムが知られており、それらを用いることで人物を識別できる。なお、パターン認識による識別を確実に行うために、事前にまたは事後に、書込を行う人物を別途撮影することで、認識パターンを学習させるようにしてもよい。また、書込を行う人物は、例えば、互いに異なる色のタスキやビブス(簡易服)などを着用するようにしてもよい。   Preferably, in the writing analysis apparatus according to the present invention, the person analysis means identifies a person staying near the writing board by performing pattern recognition analysis using the time-series image data. Various algorithms are known for pattern recognition, and a person can be identified by using them. In order to surely identify by pattern recognition, a recognition pattern may be learned by separately photographing a person who performs writing in advance or afterwards. In addition, the person who performs writing may wear, for example, different colors of tusk or bibs (simple clothes).

望ましくは、本発明の書込解析装置において、前記人物解析手段は、各人物がもつRFIDタグの位置情報を取得することにより、前記書込ボード付近に停留する人物を識別する。RFIDタグとは非接触で通信可能なICチップである。チップの中に識別情報を入力しておくことで、どの人物がいつ前記書込ボード付近に停留したかの情報を算出することができる。   Desirably, in the writing analysis apparatus of the present invention, the person analyzing means identifies a person who stops near the writing board by acquiring position information of an RFID tag possessed by each person. An RFID tag is an IC chip that can communicate without contact. By inputting the identification information in the chip, it is possible to calculate information about which person has stopped near the writing board.

望ましくは、本発明の書込解析装置は、前記書込ボード付近に停留する各人物を赤外撮影して作成された赤外画像データを入力する手段を備え、前記人物解析手段は、前記赤外画像データを用いてパターン認識解析を行うことで、前記書込ボード付近に停留する人物を識別する。赤外画像データは、時系列データであっても良いし、例えば、人物の停留を感知した時にのみ撮影が行われた画像データであってもよい。赤外画像データは、撮影対象人物の温度を輝度情報として保持する。このため、書込を行う人物間に体温差があったり、衣服の違いによる温度差があったりする場合には、容易に各人物をパターン認識することができる。   Preferably, the writing analysis apparatus of the present invention includes means for inputting infrared image data created by infrared imaging each person staying in the vicinity of the writing board, and the person analyzing means includes the red A person who stops near the writing board is identified by performing pattern recognition analysis using the outside image data. The infrared image data may be time-series data, or may be image data taken only when a person's stop is detected, for example. The infrared image data holds the temperature of the person to be photographed as luminance information. For this reason, when there is a body temperature difference between the persons who perform writing or a temperature difference due to a difference in clothes, each person can be easily recognized as a pattern.

望ましくは、本発明の書込解析装置は、前記時系列画像データの時間変化に基づいて、前記書込期間の終了、または、次の書込期間の開始を検知する手段を備える。一連の書込は、書込ボードに新たなスペースが無くなった場合や話題を変更する場合に、書込ボードの使用者によって消去されたり、ボードを裏返されたりすることで、時系列画像データ上から消失する。そこで、こうした事象を検知することで、一連の書込が複数回繰り返される場合に、各回の書込期間を切り分ける。   Preferably, the writing analysis apparatus of the present invention includes means for detecting the end of the writing period or the start of the next writing period based on the time change of the time-series image data. A series of writing is performed on the time-series image data by erasing or turning the board over by the writing board user when there is no new space on the writing board or when the topic is changed. Disappears from. Therefore, by detecting such an event, when a series of writing is repeated a plurality of times, each writing period is separated.

望ましくは、本発明の書込解析装置は、前記時系列画像データまたはそれを加工した加工画像データに対し、前記特定手段が特定した結果に基づいて、各事項の書込人物及びその書込タイミングの情報を付与したアノテーションを設定するアノテーション設定手段を備える、アノテーションとは、主たる情報である前記時系列画像データまたはそれを加工した加工画像データに対して付与された付加的な情報である。付加的な情報としては、具体的には、主たる情報の特定の箇所や領域に対し、強調したり、メモを残したり、他の箇所との関連づけを行ったりすることが挙げられる。アノテーションは、表示の際には、例えば、付箋、メモ、囲み枠、下線、色付け、濃淡付けなどの形態で表示することができる。アノテーション設定手段は、各事項に対してその事項の書込人物が認識可能となるようにアノテーションを設定する。なお、時系列画像データの加工画像データとしては、例えば、単に表示範囲を調整した時系列画像データ、書込ボードの前に停留する人物や書込ボードの前を横切る人物を消去して書込ボードだけを表示するようにした時系列画像データ、特定の時刻の画像を切り出した静止画像データなどを挙げることができる。   Preferably, the writing analysis apparatus of the present invention is configured to write a person who writes each item and its writing timing based on a result specified by the specifying unit with respect to the time-series image data or processed image data obtained by processing the time-series image data. The annotation is provided with annotation setting means for setting the annotation to which the information is added. The annotation is additional information given to the time-series image data which is main information or processed image data obtained by processing the time-series image data. Specific examples of the additional information include emphasizing, leaving a note, and associating with other parts of a specific part or region of the main information. An annotation can be displayed in the form of, for example, a tag, a memo, a frame, an underline, coloring, or shading. The annotation setting means sets the annotation for each item so that the writing person of the item can recognize. As the processed image data of the time-series image data, for example, the time-series image data in which the display range is simply adjusted, the person who stops before the writing board or the person who crosses the front of the writing board is erased and written. Examples include time-series image data in which only the board is displayed, still image data obtained by cutting out an image at a specific time, and the like.

望ましくは、本発明の書込解析装置において、前記アノテーション設定手段は、ユーザ入力に基づいてアノテーションの付加編集を行う手段を含む。つまり、ユーザは、新たなアノテーションを追加したり、既に設定されたアノテーションにメモを書き込んだりすることができる。   Preferably, in the writing analysis apparatus of the present invention, the annotation setting means includes means for performing additional editing of annotation based on a user input. That is, the user can add a new annotation or write a memo in an already set annotation.

望ましくは、本発明の書込解析装置は、前記時系列画像データまたは前記加工画像データに基づいて、動画像または静止画像を表示させる表示手段を備え、前記表示手段は、静止画とともに、この静止画中の各事項の書込人物及びその書込タイミングの情報を示すアノテーションを表示させる、書込タイミングの表示は、時刻情報であってもよいし、書込順番情報であってもよい。   Preferably, the writing analysis apparatus of the present invention includes display means for displaying a moving image or a still image based on the time-series image data or the processed image data, and the display means includes the still image and the still image. The writing timing display for displaying the writing person of each item in the drawing and the annotation indicating the writing timing information may be time information or writing order information.

望ましくは、本発明の書込解析装置において、前記表示手段は、表示されたアノテーションがユーザ選択された場合に、そのアノテーションに対応する事項が書き込まれた時間段階の画像データを表示させる。すなわち、アノテーションを頼りに、対応する事項が書き込まれた時間、またはその若干前の時間の画像データを表示させる。これにより、関心のある事項が書き込まれた経緯を容易に把握できるようになる。なお、アノテーションのユーザ選択とともに、時系列表示(アニメーション表示)が指定された場合には、そのアノテーションに対応する事項が書き込まれた時間段階の画像データを始点として時系列表示することができる。   Preferably, in the writing analysis apparatus of the present invention, when the displayed annotation is selected by the user, the display means displays time-stage image data in which items corresponding to the annotation are written. That is, relying on the annotation, the image data of the time when the corresponding item is written or slightly before is displayed. As a result, it is possible to easily grasp the circumstances in which the matter of interest is written. When time-series display (animation display) is specified along with user selection of an annotation, time-series image data in which items corresponding to the annotation are written can be displayed in time-series.

本発明の書込解析方法は、コンピュータが実行する方法であって、複数の人物によって複数の事項の書込が行われる書込ボードをその書込期間中撮影して作成された時系列画像データに基づいて前記書込ボードの時間変化を検知することで、書き込まれた各事項を識別し、識別した各事項の書込タイミングについての情報を取得する事項解析ステップと、前記書込ボード付近に停留する人物の識別と、その停留タイミングについての情報の取得を行う人物解析ステップと、前記書込タイミングと前記停留タイミングの対応関係に基づいて、各事項を書き込んだ人物を特定する特定ステップと、を含む。   The writing analysis method of the present invention is a method executed by a computer, and is time-series image data created by photographing a writing board on which a plurality of items are written by a plurality of persons during the writing period. Detecting the time change of the writing board based on the item analysis step for identifying each written item, obtaining information about the writing timing of each identified item, and in the vicinity of the writing board Identifying a person to be stopped, a person analyzing step for obtaining information about the stop timing, and a specifying step for specifying a person who wrote each item based on the correspondence between the write timing and the stop timing; including.

本発明の書込解析プログラムは、コンピュータに対し、複数の人物によって複数の事項の書込が行われる書込ボードをその書込期間中撮影して作成された時系列画像データを入力する入力手順と、前記時系列画像データにおける前記書込ボードの時間変化に基づいて、書き込まれた各事項を識別し、識別した各事項の書込タイミングについての情報を取得する事項解析手順と、前記書込ボード付近に停留する人物の識別と、その停留タイミングについての情報の取得を行う人物解析手順と、前記書込タイミングと前記停留タイミングの対応関係に基づいて、各事項を書き込んだ人物を特定する特定手順と、を実行させる。   The writing analysis program of the present invention is an input procedure for inputting time-series image data created by photographing a writing board in which a plurality of items are written by a plurality of persons to the computer during the writing period. And a matter analysis procedure for identifying each written matter based on a time change of the writing board in the time-series image data, and obtaining information on a writing timing of each identified matter, and the writing Identification of the person who has written each item based on the identification of the person who stops near the board, the person analysis procedure for acquiring information about the stop timing, and the correspondence between the writing timing and the stopping timing And execute the procedure.

以下に、本発明の代表的な実施の形態を説明する。   Hereinafter, typical embodiments of the present invention will be described.

図1は、本実施の形態において利用する時系列画像データを作成する様子を模式的に示した斜視図である。書込ボードとしてのホワイトボード10が、脚部12に支えられて固定されている。そして、ホワイトボード10には、既に事項14、16が書き込まれている。そして、図示した時点においては、ホワイトボード10の前に立つ書込人18が、ペン20をもって、事項22の書込を行っている。図示しない範囲には会議に参加する複数人がいて、このホワイトボード10を見ながら議論を行っている。   FIG. 1 is a perspective view schematically showing how time-series image data used in the present embodiment is created. A white board 10 as a writing board is supported and fixed by a leg 12. Items 14 and 16 are already written on the whiteboard 10. At the time shown in the figure, the writer 18 standing in front of the whiteboard 10 writes the matter 22 with the pen 20. There are a plurality of people who participate in the conference in a range not shown in the figure, and the discussion is performed while looking at the whiteboard 10.

ホワイトボード10に各事項14,16,22,...が書き込まれていく過程は、ホワイトボード10の正面側に設置されたビデオカメラ24によって撮影される。ビデオカメラ24は、書込解析システムの一翼をなす撮影部としての役割を担っており、書込期間におけるホワイトボード10及びその周辺部の様子を時系列画像データとしての動画データに記録する。ビデオカメラ24が撮影する範囲26は、ホワイトボード10の外枠よりも若干広く、これにより、ホワイトボード10の周辺部に書込が行われる場合にも、その書込人の少なくとも一部を撮影することができる。もちろん、ホワイトボード10の撮影解像度を高めることを優先して、撮影領域をホワイトボードの枠に合わせてもよい。こうして生成された動画データは、書込解析装置としてのPC(パーソナルコンピュータ)28に入力される。PC28は、次に示すように、入力された動画データをもとに、各事項の書込人を特定する他、特定した情報を利用しやすい形態でユーザに提示するための処理を行う。なお、PC28は、動画データとともに生成される音声データも入力することができる。   Each item 14, 16, 22,. . . Is recorded by the video camera 24 installed on the front side of the whiteboard 10. The video camera 24 plays a role as a photographing unit that forms a part of the writing analysis system, and records the state of the whiteboard 10 and its peripheral part in the writing period in moving image data as time-series image data. The range 26 captured by the video camera 24 is slightly wider than the outer frame of the whiteboard 10, so that even when writing is performed on the periphery of the whiteboard 10, at least a part of the writer is captured. can do. Of course, priority may be given to increasing the shooting resolution of the whiteboard 10, and the shooting area may be matched to the frame of the whiteboard. The moving image data generated in this way is input to a PC (personal computer) 28 as a writing analysis device. As shown below, the PC 28 specifies the writer of each item based on the input moving image data, and performs processing for presenting the specified information to the user in a form that is easy to use. Note that the PC 28 can also input audio data generated together with the moving image data.

次に、図2を用いて、書込解析装置の構成例を説明する。図2は、書込解析装置30の概略的な機能ブロック図である。書込解析装置30は、図1のPC28のように、演算機能を備えたハードウエアをソフトウエア(プログラム)によって動作規定することで処理を行う装置によって構成される。書込解析装置30は、主たる構成として、入出力部32、ユーザ入力部34、表示部36、表示処理部40、記憶部50、制御部60、画像解析部70、対応付け処理部110、アノテーション設定部120を備えている。   Next, a configuration example of the writing analysis apparatus will be described with reference to FIG. FIG. 2 is a schematic functional block diagram of the writing analysis apparatus 30. The writing analysis device 30 is configured by a device that performs processing by defining the operation of hardware having a calculation function by software (program), such as the PC 28 in FIG. The writing analysis apparatus 30 includes an input / output unit 32, a user input unit 34, a display unit 36, a display processing unit 40, a storage unit 50, a control unit 60, an image analysis unit 70, an association processing unit 110, an annotation, as main components. A setting unit 120 is provided.

入出力部32は、外部装置との間でデータや指令信号の入出力を行う。具体的には、動画データを生成するビデオカメラ24等の撮影装置150から動画データを入力する。また、ネットワーク160に接続されており、ネットワーク160上の外部装置との間で各種データの通信を行ったり、外部装置からの書込解析装置30を制御する指令信号を受け付けたりする。ユーザ入力部34は、キーボードやマウス等の入力装置を備えており、ここからユーザの指令を受け付ける。また、表示部36は、ディスプレイ等の表示装置を備えており、制御のための一般的な表示等を行う他、入力した動画データに基づく動画や静止画を表示する。   The input / output unit 32 inputs / outputs data and command signals to / from an external device. Specifically, moving image data is input from a photographing device 150 such as a video camera 24 that generates moving image data. In addition, it is connected to the network 160 and communicates various data with an external device on the network 160, or receives a command signal for controlling the writing analysis device 30 from the external device. The user input unit 34 includes an input device such as a keyboard and a mouse, and accepts user commands from here. The display unit 36 includes a display device such as a display, and displays a moving image and a still image based on the input moving image data, in addition to general display for control.

表示処理部40は、表示部36に表示するためのデータ処理を行っており、特徴的な構成として、動画データに関連した処理を行うアノテーション処理部42とジャンプ処理部44とを含んでいる。アノテーション処理部42は、後述するアノテーション設定部120において動画データに設定されるアノテーションを表示部36に表示するための処理を行う。具体的には、表示される動画や画像に重ねてメモや囲み枠などを表示するための前処理を行う。また、ジャンプ処理部44は、動画あるいは静止画とともに表示されたアノテーションがユーザによって選択された場合に、そのアノテーションに対応した事項が書き込まれた時間付近の動画や静止画を表示させる処理を行う。   The display processing unit 40 performs data processing for display on the display unit 36, and includes an annotation processing unit 42 and a jump processing unit 44 that perform processing related to moving image data as a characteristic configuration. The annotation processing unit 42 performs processing for displaying the annotation set in the moving image data on the display unit 36 in the annotation setting unit 120 described later. Specifically, preprocessing for displaying a memo, a frame, or the like on the displayed moving image or image is performed. Further, when an annotation displayed together with a moving image or a still image is selected by the user, the jump processing unit 44 performs a process of displaying a moving image or a still image near the time when items corresponding to the annotation are written.

記憶部50は、半導体メモリやハードディスク等の記憶装置を備えており、各種データやプログラム等を記憶する。記憶部50には、動画データベース52が設けられている。動画データベース52には、入出力部32を通じて入力される動画データの他、この動画データを加工して得られる動画データや静止画データ、アノテーション設定部120によって設定されるアノテーションデータ等も格納される。制御部60は、MPU(超小型処理装置)の演算処理機能を利用して構成されており、書込解析装置30の各構成部の動作を制御する。   The storage unit 50 includes a storage device such as a semiconductor memory or a hard disk, and stores various data, programs, and the like. The storage unit 50 is provided with a moving image database 52. In addition to the moving image data input through the input / output unit 32, the moving image database 52 stores moving image data and still image data obtained by processing the moving image data, annotation data set by the annotation setting unit 120, and the like. . The control unit 60 is configured using an arithmetic processing function of an MPU (ultra-small processing device), and controls the operation of each component of the writing analysis device 30.

画像解析部70は、動画データベース52に記憶された動画データに対して画像処理を行う。画像解析部70には、事項解析部80、人物解析部90、書込期間設定部100が含まれている。事項解析部80は、動画データに基づいて書き込まれた各事項を識別を行う構成部であり、主たる構成要素としてタイミング解析部82、位置解析部84を備えている。事項解析部80は、ホワイトボード10の記載事項をそれ以前の時間と比較して、変化があった場合には対応する書込(あるいは消去)が行われたことを検出する。タイミング解析部82は、各事項の書込がどの時刻に行われたかという書込タイミング情報の取得を変化検出前の時刻と変化検出後の時刻の検出によって行う。また、位置解析部84は、各事項がホワイトボード10のどの位置に書き込まれたかの情報を取得する。   The image analysis unit 70 performs image processing on the moving image data stored in the moving image database 52. The image analysis unit 70 includes an item analysis unit 80, a person analysis unit 90, and a writing period setting unit 100. The item analysis unit 80 is a component that identifies each item written based on the moving image data, and includes a timing analysis unit 82 and a position analysis unit 84 as main components. The item analysis unit 80 compares the items described on the whiteboard 10 with the previous time, and detects that the corresponding writing (or erasing) has been performed when there is a change. The timing analysis unit 82 obtains write timing information indicating at which time each item was written by detecting the time before change detection and the time after change detection. Further, the position analysis unit 84 acquires information on which position on the whiteboard 10 each item has been written.

人物解析部90は、動画データに基づいて書込を行った人物の識別を行う構成部であり、主たる構成要素としてタイミング解析部92、位置解析部94、パターン認識部96を備えている。人物解析部90は、動画データ内に出現する人物イメージを検出する。そして、タイミング解析部92は、その人物の登場時刻と退場時刻を検出することで、その人物がホワイトボード10の前に停留する停留タイミング情報を取得する。また、位置解析部94は、その人物がどの位置にいたのかという停留位置の情報を取得する。パターン認識部96は、動画データ中に出現する人物をパターン認識により識別する。パターン認識のアルゴリズムは特に限定されない。また、予めパターン認識すべき人物の特徴を登録するなどして、パターン認識を容易にしてもよい。さらに、予めあるいは識別後に、それらの人物の固有名詞の情報等を与えることで、書き込んだ人物を具体的に特定することが可能になる。   The person analysis unit 90 is a component that identifies a person who has written based on moving image data, and includes a timing analysis unit 92, a position analysis unit 94, and a pattern recognition unit 96 as main components. The person analysis unit 90 detects a person image that appears in the moving image data. And the timing analysis part 92 acquires the stop timing information which the person stops in front of the whiteboard 10 by detecting the appearance time and exit time of the person. In addition, the position analysis unit 94 acquires information on the stop position indicating which position the person was at. The pattern recognition unit 96 identifies a person who appears in the moving image data by pattern recognition. The pattern recognition algorithm is not particularly limited. Further, pattern recognition may be facilitated by registering the characteristics of a person to be recognized in advance. Furthermore, by providing information on proper nouns of those persons in advance or after identification, it becomes possible to specifically specify the person who wrote them.

書込期間設定部100は、動画データ中のホワイトボード10の時間変化を監視して、一連の書込が行われる書込期間を検出する。一般にホワイトボード10においては、ページの更新は、ホワイトボード10に記載された事項を消去することで行われる。そこで、この消去を監視して、新たな書込期間に入ったことを検出する。事項解析部80や人物解析部90の処理は、この書込期間毎に行われる。   The writing period setting unit 100 monitors a time change of the whiteboard 10 in the moving image data and detects a writing period in which a series of writing is performed. In general, in the whiteboard 10, the page is updated by deleting items described in the whiteboard 10. Therefore, this erasure is monitored to detect that a new writing period has been entered. The processing of the item analysis unit 80 and the person analysis unit 90 is performed for each writing period.

対応付け処理部110は、事項解析部80と人物解析部90の解析結果に基づいて、事項と人物を対応づけることで、その事項を書き込んだ人物を特定する。対応付け処理部110には、タイミング対応部112と位置対応部114が含まれている。タイミング対応部112は、事項解析部80において得られた書込タイミングと、人物解析部90において得られた停留タイミングとを比較することで、どの人物がどの書込を行ったかを検出する。すなわち、人物が停留している期間内に書き込まれた事項を、その人物が書き込んだ事項として扱う。また、位置対応部114は、事項解析部80において得られた事項の位置の情報と、人物解析部90において得られた停留の位置の情報とを比較する。これにより、同時に二人の人物がホワイトボード10の前にいる場合には、書き込まれた事項に近い位置にいた人物がその事項を書き込んだとみなすことで、書込事項に対応する人物を特定することができる。なお、タイミング対応部112と位置対応部114を用いても依然としてある事項を書き込んだ人物の候補が複数いる場合には、対応付け処理部110はその事項を停留時間が最も長い人物と対応づけたり、書込人物を不明として扱ったりするなどの例外措置をとることができる。   The association processing unit 110 identifies the person who wrote the item by associating the item with the person based on the analysis results of the item analysis unit 80 and the person analysis unit 90. The association processing unit 110 includes a timing correspondence unit 112 and a position correspondence unit 114. The timing correspondence unit 112 detects which person has performed which writing by comparing the writing timing obtained in the item analyzing unit 80 with the stationary timing obtained in the person analyzing unit 90. That is, items written during a period when the person is stopped are treated as items written by the person. Further, the position correspondence unit 114 compares the item position information obtained by the item analysis unit 80 with the stop position information obtained by the person analysis unit 90. As a result, when two persons are in front of the whiteboard 10 at the same time, the person who is in a position close to the written item is considered to have written the item, and the person corresponding to the written item is specified. can do. If there are a plurality of candidates for a person who has written an item using the timing correspondence unit 112 and the position correspondence unit 114, the association processing unit 110 associates the item with the person with the longest residence time. Exceptional measures such as treating the writing person as unknown can be taken.

アノテーション設定部120は、対応付け処理部110によって対応づけられた書込事項に対し、書込人物の情報や書込タイミングの情報をアノテーションとして設定する。アノテーションは、主たるデータとしての動画データあるいはそれを加工した加工動画データに対して付加的に与えられる。アノテーションは、主たるデータの特定箇所あるいは特定領域に対して設定することができ、表示の際には、例えば、付箋、メモ、囲み枠、下線、色付け、濃淡付けなどの形態で表現することができる。アノテーション設定部120には、付加編集部122が含まれている。付加編集部122は、設定されたアノテーションに対してメモを追加したり、新たなアノテーションを付与したりするなど、ユーザ指令に基づいてアノテーションの付加や編集を行うための構成である。   The annotation setting unit 120 sets writing person information and writing timing information as annotations for the writing items associated by the association processing unit 110. An annotation is additionally given to moving image data as main data or processed moving image data obtained by processing the moving image data. Annotations can be set for specific locations or specific areas of the main data, and can be expressed in the form of sticky notes, notes, box, underline, coloring, shading, etc. . The annotation setting unit 120 includes an additional editing unit 122. The additional editing unit 122 is configured to add and edit annotations based on a user command, such as adding a memo to a set annotation or adding a new annotation.

続いて、この書込解析装置30が用いられる様子を、図3と図4のフローチャートを用いて説明する。   Next, how the writing analysis apparatus 30 is used will be described with reference to the flowcharts of FIGS.

図3は、動画データが入力されてから、アノテーションが設定されるまでの過程を説明するフローチャートである。まず、撮影装置150としてのビデオカメラ24によって動画データが生成され、入出力部32を介して動画データが入力される(S10)。入力された動画データは、記憶部50の動画データベース52に格納される。人物解析部90は、この動画データに人物が含まれるか否かを解析する。解析は全ての画像に対して行わずに一定間隔毎(例えば1秒や5秒)毎に行ってもよい。そして、人物が含まれない画像データを集めた時系列データである人物非表示データを作成して動画データベース52に格納する(S12)。人物が含まれない期間においては、一般に、ホワイトボード10に変化が見られないため、この人物非表示データの容量は非常に小さくて済む。人物解析部90のタイミング解析部92は、人物がホワイトボード10の前にいた停留タイミング、すなわち、登場した時刻と退場した時刻の情報を取得する(S14)。さらに、画像解析部70が、書込期間設定部100によって設定された一連の書込期間の終了時のホワイトボード10を示す静止画を作成し(S16)、作成された静止画は動画データベース52に格納される。   FIG. 3 is a flowchart for explaining the process from the input of moving image data until the annotation is set. First, moving image data is generated by the video camera 24 as the photographing apparatus 150, and the moving image data is input via the input / output unit 32 (S10). The input moving image data is stored in the moving image database 52 of the storage unit 50. The person analysis unit 90 analyzes whether or not a person is included in the moving image data. The analysis may be performed at regular intervals (for example, 1 second or 5 seconds) without being performed on all images. Then, person non-display data, which is time-series data obtained by collecting image data not including a person, is created and stored in the moving image database 52 (S12). In general, no change is seen in the whiteboard 10 during a period in which no person is included, so that the capacity of the person non-display data can be very small. The timing analysis unit 92 of the person analysis unit 90 acquires information on the stop timing at which the person was in front of the whiteboard 10, that is, the time of appearance and the time of departure (S14). Further, the image analysis unit 70 creates a still image showing the whiteboard 10 at the end of a series of writing periods set by the writing period setting unit 100 (S16), and the created still image is the moving image database 52. Stored in

次に事項解析部80は、動画データベース52に格納された人物非表示データの時間差分があるかを判断して、書き込まれた事項を認識する(S18)。同時に、事項解析部80のタイミング解析部82は、この事項の書込タイミングとして、書込開始時刻と書込終了時刻を取得する(S20)。   Next, the item analysis unit 80 determines whether there is a time difference between the non-display data of the person stored in the moving image database 52, and recognizes the written item (S18). At the same time, the timing analysis unit 82 of the item analysis unit 80 acquires the writing start time and the writing end time as the writing timing of this item (S20).

続いて、対応付け処理部110が、ステップS14で得られた停留タイミングの情報と、ステップS20で得られた書込タイミングの情報とを対比して、各書込を行った人物を決定する(S22)。決定された人物は、人物解析部90のパターン認識部96によって認識される(S24)。識別された各人物は、予め与えられた情報に基づいて、固有名詞によって区別される。アノテーション設定部120は、当初の動画データ、あるいは、人物非表示データにおける各項目に対し、それを書き込んだ人物の固有名詞の情報と、その書込タイミングの情報をアノテーションとして与える(S26)。設定されたアノテーションのデータは、動画データベース52に保存される。これにより、ネットワーク160を経由して各ユーザは、アノテーションが設定された動画データ(その加工データ)にアクセスすることができる。   Subsequently, the association processing unit 110 compares the stationary timing information obtained in step S14 with the writing timing information obtained in step S20 to determine the person who performed each writing ( S22). The determined person is recognized by the pattern recognition unit 96 of the person analysis unit 90 (S24). Each identified person is distinguished by a proper noun based on information given in advance. The annotation setting unit 120 gives, as an annotation, information on the proper noun of the person who wrote it and information on the writing timing for each item in the original moving image data or person non-display data (S26). The set annotation data is stored in the moving image database 52. Thereby, each user can access the moving image data (the processed data) on which the annotation is set via the network 160.

図4は、アノテーションの表示過程を説明するフローチャートである。会議の内容を概要を把握したいユーザは、通常、ホワイトボード10の最終状態の画像の表示を指示し、対応する静止画が表示部36に表示される(S30)。しかし、その内容がうまく理解できない場合には、ユーザは、ユーザ入力部34を通じて制御部60にアノテーション表示を行うよう指示を出す。制御部60は、表示処理部40のアノテーション処理部42に対し、対応するアノテーションを表示するように指令し、これにより表示部36には最終状態の静止画に重ねられてアノテーションが表示される(S32)。アノテーションの表示は、例えば、書込の時間順に段階的に行われてもよい。すなわち、マウス等をクリックする毎に、一番最初の書込に対するアノテーションを表示し、次のクリックで2番目の書込に対するアノテーションを表示し、というように行うこともできる。各事項に対応するアノテーションには、それを書き込んだ人物の固有名詞が記されている。ユーザは、この書込人物の情報を頼りに、書込事項の理解を深めることができる。   FIG. 4 is a flowchart for explaining an annotation display process. The user who wants to grasp the outline of the content of the meeting normally instructs the display of the final image of the whiteboard 10 and the corresponding still image is displayed on the display unit 36 (S30). However, if the contents cannot be understood well, the user instructs the control unit 60 to perform annotation display through the user input unit 34. The control unit 60 instructs the annotation processing unit 42 of the display processing unit 40 to display the corresponding annotation, and thereby the annotation is displayed on the display unit 36 so as to be superimposed on the final still image ( S32). For example, the annotation may be displayed stepwise in order of writing time. That is, each time the mouse or the like is clicked, the annotation for the first writing is displayed, and the annotation for the second writing is displayed by the next click. In the annotation corresponding to each item, the proper noun of the person who wrote it is written. The user can deepen the understanding of the writing items by relying on the information of the writing person.

さらに、詳細な状況を把握したいユーザは、動画表示を指示するとともに、関心のある事項のアノテーションを選択する(S34)。これにより、この事項が書き込まれた時刻にジャンプして、対応する画像データの表示が行われる。そして、その時点から動画表示が行われる(S38)。動画表示は、実時間で音声記録の再生とともに行われてもよいし、コマ送り状態(いわゆるパラパラ漫画状態)等で行われてもよい。   Furthermore, the user who wants to grasp the detailed situation instructs to display a moving image and selects an annotation of a matter of interest (S34). As a result, the image data jumps to the time when this item is written, and the corresponding image data is displayed. Then, the moving image is displayed from that time (S38). The moving image display may be performed along with the reproduction of the audio recording in real time, or may be performed in a frame advance state (so-called flip-flop cartoon state) or the like.

以上の説明においては、人物解析部90は、動画データに基づいて人物の解析を行うこととして説明を行った。しかし、これ以外にも、人物の解析を行う方法を挙げることができる。例えば、各人物にRFIDタグを所持させ、このRFIDタグと通信を行って、RFIDタグの所在位置を把握することができる。そして、このRFIDタグの識別情報と人物とを対応づけることにより、パターン認識部96による解析を行うことなく事項を書き込んだ人物を特定することができる。また、例えば書込を行う人物を別途赤外線カメラで撮影することにより、各人物の温度差を利用した識別が可能になる。なお、このように、RFIDタグや赤外線カメラの撮影画像を利用する場合には、これらの情報を利用して書込タイミングや書込位置を取得しても良いし、タイミング解析部92や位置解析部94に基づいて書込タイミングや書込位置を取得しても良い。   In the above description, the person analysis unit 90 has been described as performing person analysis based on moving image data. However, other than this, a method for analyzing a person can be cited. For example, each person can have an RFID tag and communicate with the RFID tag to grasp the location of the RFID tag. Then, by associating the identification information of the RFID tag with the person, it is possible to identify the person who wrote the item without performing analysis by the pattern recognition unit 96. Further, for example, when a person who performs writing is separately photographed with an infrared camera, identification using the temperature difference of each person becomes possible. As described above, when using the captured image of the RFID tag or the infrared camera, the writing timing and the writing position may be acquired using such information, or the timing analysis unit 92 and the position analysis may be performed. The writing timing and the writing position may be acquired based on the unit 94.

次に図5〜図8を用いて、アノテーション表示を行う例を説明する。   Next, an example in which annotation display is performed will be described with reference to FIGS.

図5は、ある会議において書込がなされたホワイトボード10の最終状態の静止画像170の例を示す図である。この静止画像には、文字、図、表などの様々な事項が書き込まれている。しかし、このままでは、書き込まれた順番や、書込を行った人物がわからず、内容を十分に把握できない場合がある。   FIG. 5 is a diagram illustrating an example of the still image 170 in the final state of the whiteboard 10 that has been written in a certain meeting. Various items such as characters, diagrams, and tables are written in the still image. However, in this state, the order of writing and the person who performed writing may not be known, and the contents may not be fully understood.

図6〜図8は、図5と同じ静止画像170に重ねて、ユーザ指示に基づいて次々にアノテーション表示を行った例を示す図である。まず、図6においては、一番最初に書込が行われた部分が囲い枠172のアノテーションによって明示されている。そして、囲い枠172の近傍には、その事項を書き込んだ人物の固有名詞「宮崎さん」を示す注釈172aのアノテーションが表示されている。また、この注釈172aには、(1)の番号が付されており、一番最初に書き込んだものであることを示している。   6 to 8 are diagrams illustrating an example in which annotations are displayed one after another on the same still image 170 as in FIG. 5 based on a user instruction. First, in FIG. 6, the portion where writing is performed first is clearly indicated by the annotation in the surrounding frame 172. In the vicinity of the surrounding frame 172, an annotation 172a indicating the proper noun “Mr. Miyazaki” of the person who wrote the matter is displayed. The annotation 172a is numbered (1), indicating that it was written first.

図7は、図6の次の段階を示す図である。図7の表示は、図6の段階においてユーザがマウスをクリックすることにより行われる。ここでは、図6で示された囲い枠172及び注釈172aに加えて、囲い枠174及び注釈174aが表示されている。これによりユーザは、第2段階において、「寺尾さん」が囲い枠174で囲われた事項を記載したことがわかる。   FIG. 7 is a diagram showing the next stage of FIG. The display of FIG. 7 is performed when the user clicks the mouse in the stage of FIG. Here, in addition to the enclosure frame 172 and the annotation 172a shown in FIG. 6, an enclosure frame 174 and an annotation 174a are displayed. As a result, the user can understand that “Mr. Terao” described the items enclosed by the enclosure frame 174 in the second stage.

図8は、最終段階における表示を示す図である。ここまでに、ユーザの指示に基づいて次々とアノテーションが累積的に表示され、各事項を領域分けした囲い枠172,174,176,178,180と、それぞれの事項を書き込んだ人物の固有名詞及び順番番号を表示する注釈172a,174a,176a,178a,180aが順次表示される。そして、一番最後の段階において、さらに、事後的にユーザによって貼付されたアノテーションであるメモ182が表示される。このメモ182は、6ページからなる文字記載欄184と、ページ表示欄186、進行方向指示欄188が含まれている。ユーザは、マウス等によりポインタ190を操作して進行方向指示欄188の矢印をクリックすることで、他のページの記載内容をみることができる。このように、ユーザが事後的に編集した内容もアノテーションとして取り込み、領域等を示すアノテーションと共に表示することは、会議の内容の整理や閲覧をする上で効果的である。   FIG. 8 is a diagram showing a display in the final stage. Up to this point, annotations are displayed one after another based on the user's instructions, and the frame 172, 174, 176, 178, 180 in which each item is divided, and the proper noun of the person who wrote each item and Annotations 172a, 174a, 176a, 178a, 180a displaying the sequence numbers are sequentially displayed. In the last stage, a memo 182 that is an annotation pasted by the user is displayed. This memo 182 includes a character description column 184 comprising six pages, a page display column 186, and a traveling direction instruction column 188. The user can view the contents described in other pages by operating the pointer 190 with a mouse or the like and clicking the arrow in the traveling direction instruction column 188. In this way, it is effective to take contents edited later by the user as annotations and display them together with annotations indicating areas and the like in organizing and browsing the contents of the conference.

この最終段階の図8において、さらに個々の事項について詳細に知りたい場合があり得る。そこで、例えば、囲い枠178で囲われた事項について詳細に知りたい場合には、囲い枠178をユーザ選択することで、この事項が記載された時刻にジャンプすることができる。すなわち、元の動画データやそれから人物を除去した時系列データなどにおける当該時刻の画像が表示される。さらに、同時に動画表示を行わせれば、この時刻付近の書込の詳細を把握することが可能となる。この場合には、音声データの再生を同時に行ったりすることも有効である。   In this final stage of FIG. 8, there may be cases where it is desired to know further details about each item. Therefore, for example, when it is desired to know in detail the item enclosed by the enclosure frame 178, the user can select the enclosure frame 178 to jump to the time at which this item is described. That is, the image at the time in the original moving image data or time-series data obtained by removing a person from the original moving image data is displayed. Furthermore, if the moving image display is performed at the same time, it becomes possible to grasp the details of writing near this time. In this case, it is also effective to simultaneously reproduce audio data.

なお、ここに示した表示例の他にも、アノテーションを様々な形で表示することができる。例えば、囲い枠を用いて領域を表示する代わりに、色や濃淡によって領域を表示することも有効である。この場合には、同一人物による記載は同一の色で表示したり、書込順序に応じて漸次色を変化させていくような表示をしたりしてもよい。また、動画表示においては、必ずしも書き込まれた事項を順次表示する必要はなく、一定時間分ごとにまとめて表示することで、表示時間の短縮を図ることができる。このような表示の指示は、その指示を行うための小ウインドウを設けて、そこから実施できるようにしてもよい。   In addition to the display examples shown here, annotations can be displayed in various forms. For example, instead of displaying an area using a surrounding frame, it is also effective to display the area by color or shading. In this case, descriptions by the same person may be displayed in the same color, or may be displayed so that the color is gradually changed according to the writing order. Further, in the moving image display, it is not always necessary to sequentially display the written items, and the display time can be shortened by displaying them collectively for every predetermined time. Such a display instruction may be implemented by providing a small window for performing the instruction.

ホワイトボードへの書込過程を撮影する例を示す図である。It is a figure which shows the example which image | photographs the writing process to a white board. 書込解析装置の概略構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of schematic structure of a writing analysis apparatus. アノテーションの設定過程を示すフローチャートである。It is a flowchart which shows the setting process of annotation. アノテーションの表示過程を示すフローチャートである。It is a flowchart which shows the display process of an annotation. 最終状態のホワイトボードを示す静止画像の図である。It is a figure of the still picture which shows the white board of the final state. 図5の静止画像にアノテーション表示を一部行った状態を示す図である。It is a figure which shows the state which performed a part of annotation display to the still image of FIG. 図6の続きの図である。FIG. 7 is a continuation of FIG. 6. 図5の静止画像にアノテーション表示を全て行った状態を示す図である。It is a figure which shows the state which performed all the annotation display to the still image of FIG.

符号の説明Explanation of symbols

10 ホワイトボード、12 脚部、14,16,22 事項、18 書込人、20 ペン、24 ビデオカメラ、26 範囲、28 PC、30 書込解析装置、32 入出力部、34 ユーザ入力部、36 表示部、40 表示処理部、42 アノテーション処理部、44 ジャンプ処理部、50 記憶部、52 動画データベース、60 制御部、70 画像解析部、80 事項解析部、82 タイミング解析部、84 位置解析部、90 人物解析部、92 タイミング解析部、94 位置解析部、96 パターン認識部、100 書込期間設定部、110 対応付け処理部、112 タイミング対応部、114 位置対応部、120 アノテーション設定部、122 付加編集部、150 撮影装置、160 ネットワーク。   10 Whiteboard, 12 Legs, 14, 16, 22 Items, 18 Writers, 20 Pen, 24 Video Camera, 26 Range, 28 PC, 30 Writing Analyzer, 32 Input / Output Unit, 34 User Input Unit, 36 Display unit, 40 display processing unit, 42 annotation processing unit, 44 jump processing unit, 50 storage unit, 52 moving image database, 60 control unit, 70 image analysis unit, 80 item analysis unit, 82 timing analysis unit, 84 position analysis unit, 90 person analysis unit, 92 timing analysis unit, 94 position analysis unit, 96 pattern recognition unit, 100 writing period setting unit, 110 association processing unit, 112 timing correspondence unit, 114 position correspondence unit, 120 annotation setting unit, 122 addition Editing unit, 150 photographing device, 160 network.

Claims (12)

複数の人物によって複数の事項の書込が行われる書込ボードをその書込期間中撮影して作成された時系列画像データを入力する入力手段と、
前記時系列画像データにおける前記書込ボードの時間変化に基づいて、書き込まれた各事項を識別し、識別した各事項の書込タイミングについての情報を取得する事項解析手段と、
前記書込ボード付近に停留する人物の識別と、その停留タイミングについての情報の取得を行う人物解析手段と、
前記書込タイミングと前記停留タイミングの対応関係に基づいて、各事項を書き込んだ人物を特定する特定手段と、
を備える、ことを特徴とする書込解析装置。
Input means for inputting time-series image data created by photographing a writing board in which a plurality of items are written by a plurality of persons during the writing period;
Item analysis means for identifying each written item based on a time change of the writing board in the time-series image data, and acquiring information about a writing timing of each identified item;
Identification of a person who stops near the writing board, and person analysis means for acquiring information about the stop timing;
Based on the correspondence between the writing timing and the stop timing, a specifying means for specifying the person who wrote each item;
A writing analysis apparatus comprising:
請求項1に記載の書込解析装置において、
前記事項解析手段は、識別した事項の位置についての情報を取得する手段を含み、
前記人物解析手段は、前記書込ボード付近に停留する人物が停留した位置についての情報を取得する手段を含み、
前記特定手段は、書き込まれた少なくとも一つの事項に対しては、その事項の位置と人物が停留した位置との対応関係にも基づいて書き込んだ人物を特定する、ことを特徴とする書込解析装置。
The writing analysis apparatus according to claim 1,
The matter analysis means includes means for obtaining information about the position of the identified matter,
The person analysis means includes means for acquiring information about a position where a person who stops near the writing board has stopped,
For the at least one item written, the specifying means specifies the person who wrote based on the correspondence between the position of the item and the position where the person stopped. apparatus.
請求項1に記載の書込解析装置において、
前記人物解析手段は、前記時系列画像データを用いてパターン認識解析を行うことで、前記書込ボード付近に停留する人物を識別する、ことを特徴とする書込解析装置。
The writing analysis apparatus according to claim 1,
The writing analysis apparatus characterized in that the person analysis means identifies a person staying near the writing board by performing pattern recognition analysis using the time-series image data.
請求項1に記載の書込解析装置において、
前記人物解析手段は、各人物がもつRFIDタグの位置情報を取得することにより、前記書込ボード付近に停留する人物を識別する、ことを特徴とする書込解析装置。
The writing analysis apparatus according to claim 1,
The writing analysis apparatus characterized in that the person analysis means identifies a person staying in the vicinity of the writing board by acquiring position information of an RFID tag possessed by each person.
請求項1に記載の書込解析装置において、
前記書込ボード付近に停留する各人物を赤外撮影して作成された赤外画像データを入力する手段を備え、
前記人物解析手段は、前記赤外画像データを用いてパターン認識解析を行うことで、前記書込ボード付近に停留する人物を識別する、ことを特徴とする書込解析装置。
The writing analysis apparatus according to claim 1,
Means for inputting infrared image data created by infrared imaging each person staying near the writing board;
The writing analysis apparatus characterized in that the person analysis means identifies a person staying near the writing board by performing pattern recognition analysis using the infrared image data.
請求項1に記載の書込解析装置において、
前記時系列画像データの時間変化に基づいて、前記書込期間の終了、または、次の書込期間の開始を検知する手段を備える、ことを特徴とする書込解析装置。
The writing analysis apparatus according to claim 1,
A writing analysis apparatus comprising: means for detecting the end of the writing period or the start of the next writing period based on a time change of the time-series image data.
請求項1に記載の書込解析装置において、
前記時系列画像データまたはそれを加工した加工画像データに対し、前記特定手段が特定した結果に基づいて、各事項の書込人物及びその書込タイミングの情報を付与したアノテーションを設定するアノテーション設定手段を備える、ことを特徴とする書込解析装置。
The writing analysis apparatus according to claim 1,
Annotation setting means for setting an annotation to which information on the writing person of each item and the writing timing is set based on the result specified by the specifying means for the time-series image data or processed image data obtained by processing the time-series image data A writing analysis apparatus comprising:
請求項7に記載の書込解析装置において、
前記アノテーション設定手段は、ユーザ入力に基づいてアノテーションの付加または編集を行う手段を含む、ことを特徴とする書込解析装置。
The writing analysis apparatus according to claim 7,
The writing analysis apparatus, wherein the annotation setting means includes means for adding or editing an annotation based on a user input.
請求項7に記載の書込解析装置において、
前記時系列画像データまたは前記加工画像データに基づいて、動画像または静止画像を表示させる表示手段を備え、
前記表示手段は、静止画とともに、この静止画中の各事項の書込人物及びその書込タイミングの情報を示すアノテーションを表示させる、ことを特徴とする書込解析装置。
The writing analysis apparatus according to claim 7,
Based on the time-series image data or the processed image data, comprising a display means for displaying a moving image or a still image,
The writing analysis apparatus characterized in that the display means displays, together with a still image, an annotation indicating information on a writing person of each item in the still image and writing timing thereof.
請求項9に記載の書込解析装置において、
前記表示手段は、表示されたアノテーションがユーザ選択された場合に、そのアノテーションに対応する事項が書き込まれた時間段階の画像データを表示させる、ことを特徴とする書込解析装置。
The writing analysis apparatus according to claim 9,
The writing analysis apparatus, wherein when the displayed annotation is selected by a user, the display means displays time-stage image data in which a matter corresponding to the annotation is written.
コンピュータが実行する方法であって、
複数の人物によって複数の事項の書込が行われる書込ボードをその書込期間中撮影して作成された時系列画像データに基づいて前記書込ボードの時間変化を検知することで、書き込まれた各事項を識別し、識別した各事項の書込タイミングについての情報を取得する事項解析ステップと、
前記書込ボード付近に停留する人物の識別と、その停留タイミングについての情報の取得を行う人物解析ステップと、
前記書込タイミングと前記停留タイミングの対応関係に基づいて、各事項を書き込んだ人物を特定する特定ステップと、
を含む、ことを特徴とする書込解析方法。
A method performed by a computer,
Writing is performed by detecting time changes of the writing board based on time-series image data created by photographing a writing board on which a plurality of items are written by a plurality of persons during the writing period. An item analysis step for identifying each item and obtaining information about the writing timing of each identified item;
A person analysis step for identifying a person who stops near the writing board and acquiring information about the stop timing;
Based on the correspondence between the writing timing and the stop timing, a specific step of specifying the person who wrote each item;
A writing analysis method comprising:
コンピュータに対し、
複数の人物によって複数の事項の書込が行われる書込ボードをその書込期間中撮影して作成された時系列画像データを入力する入力手順と、
前記時系列画像データにおける前記書込ボードの時間変化に基づいて、書き込まれた各事項を識別し、識別した各事項の書込タイミングについての情報を取得する事項解析手順と、
前記書込ボード付近に停留する人物の識別と、その停留タイミングについての情報の取得を行う人物解析手順と、
前記書込タイミングと前記停留タイミングの対応関係に基づいて、各事項を書き込んだ人物を特定する特定手順と、
を実行させる、ことを特徴とする書込解析プログラム。
Against the computer
An input procedure for inputting time-series image data created by photographing a writing board on which a plurality of items are written by a plurality of persons during the writing period;
An item analysis procedure for identifying each written item based on the time change of the writing board in the time-series image data, and acquiring information about the writing timing of each identified item;
A person analysis procedure for identifying a person who stops near the writing board and obtaining information about the stop timing;
Based on the correspondence between the writing timing and the stop timing, a specific procedure for identifying the person who wrote each item,
A writing analysis program characterized in that
JP2004000501A 2004-01-05 2004-01-05 Writing analysis apparatus, method, and program Expired - Fee Related JP4492124B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004000501A JP4492124B2 (en) 2004-01-05 2004-01-05 Writing analysis apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004000501A JP4492124B2 (en) 2004-01-05 2004-01-05 Writing analysis apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2005197883A true JP2005197883A (en) 2005-07-21
JP4492124B2 JP4492124B2 (en) 2010-06-30

Family

ID=34816310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004000501A Expired - Fee Related JP4492124B2 (en) 2004-01-05 2004-01-05 Writing analysis apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP4492124B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007166245A (en) * 2005-12-14 2007-06-28 Tokyo Institute Of Technology Image processor, image processing program, and image processing method
JP2010239605A (en) * 2009-03-13 2010-10-21 Ricoh Co Ltd Video editing device
JP2011227800A (en) * 2010-04-22 2011-11-10 Sharp Corp Electronic equipment, displaying method and displaying program
JP2011229101A (en) * 2010-04-23 2011-11-10 Ricoh Co Ltd Image processing apparatus, image processing system, data processing method, program, and recording medium
JP2013162341A (en) * 2012-02-06 2013-08-19 Nippon Telegr & Teleph Corp <Ntt> Chapter representative image generating apparatus and method of operating the same
JP2014165912A (en) * 2013-02-22 2014-09-08 Fuji Xerox Co Ltd Video reproduction method, program and system
JP2015002533A (en) * 2013-06-18 2015-01-05 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP7316987B2 (en) 2020-09-28 2023-07-28 Kddi株式会社 VIDEO PLAYER OF BOARD IN WORKSHOP, ONLINE/ONSITE BOARD SYSTEM, PROGRAM AND METHOD

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107809563B (en) * 2017-11-30 2019-12-24 浙江大华技术股份有限公司 Blackboard writing detection system, method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06343146A (en) * 1993-03-15 1994-12-13 Toshiba Corp Reproducing device and reproducing method
JPH0798734A (en) * 1993-02-04 1995-04-11 Matsushita Electric Ind Co Ltd Working state controller
JPH1049515A (en) * 1996-08-02 1998-02-20 Fuji Xerox Co Ltd Information display device and information storing/ reproducing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0798734A (en) * 1993-02-04 1995-04-11 Matsushita Electric Ind Co Ltd Working state controller
JPH06343146A (en) * 1993-03-15 1994-12-13 Toshiba Corp Reproducing device and reproducing method
JPH1049515A (en) * 1996-08-02 1998-02-20 Fuji Xerox Co Ltd Information display device and information storing/ reproducing device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007166245A (en) * 2005-12-14 2007-06-28 Tokyo Institute Of Technology Image processor, image processing program, and image processing method
JP2010239605A (en) * 2009-03-13 2010-10-21 Ricoh Co Ltd Video editing device
JP2011227800A (en) * 2010-04-22 2011-11-10 Sharp Corp Electronic equipment, displaying method and displaying program
JP2011229101A (en) * 2010-04-23 2011-11-10 Ricoh Co Ltd Image processing apparatus, image processing system, data processing method, program, and recording medium
JP2013162341A (en) * 2012-02-06 2013-08-19 Nippon Telegr & Teleph Corp <Ntt> Chapter representative image generating apparatus and method of operating the same
JP2014165912A (en) * 2013-02-22 2014-09-08 Fuji Xerox Co Ltd Video reproduction method, program and system
JP2017022733A (en) * 2013-02-22 2017-01-26 富士ゼロックス株式会社 Video reproduction method and system
JP2015002533A (en) * 2013-06-18 2015-01-05 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP7316987B2 (en) 2020-09-28 2023-07-28 Kddi株式会社 VIDEO PLAYER OF BOARD IN WORKSHOP, ONLINE/ONSITE BOARD SYSTEM, PROGRAM AND METHOD

Also Published As

Publication number Publication date
JP4492124B2 (en) 2010-06-30

Similar Documents

Publication Publication Date Title
US11849196B2 (en) Automatic data extraction and conversion of video/images/sound information from a slide presentation into an editable notetaking resource with optional overlay of the presenter
US20210056251A1 (en) Automatic Data Extraction and Conversion of Video/Images/Sound Information from a Board-Presented Lecture into an Editable Notetaking Resource
US11380365B2 (en) Methods and systems for annotation and truncation of media assets
US6560281B1 (en) Method and apparatus for generating a condensed version of a video sequence including desired affordances
Petersen et al. Learning task structure from video examples for workflow tracking and authoring
KR101346539B1 (en) Organizing digital images by correlating faces
US5592607A (en) Interactive method and system for producing address-correlated information using user-specified address zones
US8154644B2 (en) System and method for manipulation of a digital image
US5687333A (en) Information service system responsive to user&#39;s pointing manipulation
JP2007281858A (en) Animation editing device
JP5163008B2 (en) Image processing apparatus, image processing method, and image processing program
JP2005210573A (en) Video image display system
JP2017162434A (en) Method, program and device for generating web-based copy of document
JP2009075802A (en) Personal activity retrieving apparatus
JP4492124B2 (en) Writing analysis apparatus, method, and program
Nebeling et al. Kinect analysis: a system for recording, analysing and sharing multimodal interaction elicitation studies
CN101292262A (en) Fictitious structural content filtering in cognitive control framework
US9552345B2 (en) Gestural annotations
Beugher et al. A semi-automatic annotation tool for unobtrusive gesture analysis
EP0636994B1 (en) Method of and apparatus for retrieving dynamic images and method of and apparatus for managing images
CN109271027B (en) Page control method and device and electronic equipment
JPH099202A (en) Index generation method, index generator, indexing device, indexing method, video minute generation method, frame editing method and frame editing device
CN110475139B (en) Video subtitle shielding method and device, storage medium and electronic equipment
JP2006163527A (en) Image retrieval device and method
JP5950633B2 (en) Information processing apparatus, computer program, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100329

R150 Certificate of patent or registration of utility model

Ref document number: 4492124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees