JP2010154085A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2010154085A
JP2010154085A JP2008328308A JP2008328308A JP2010154085A JP 2010154085 A JP2010154085 A JP 2010154085A JP 2008328308 A JP2008328308 A JP 2008328308A JP 2008328308 A JP2008328308 A JP 2008328308A JP 2010154085 A JP2010154085 A JP 2010154085A
Authority
JP
Japan
Prior art keywords
observation
observer
image
specifying
observed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008328308A
Other languages
Japanese (ja)
Other versions
JP4737284B2 (en
Inventor
Eriko Tamaru
恵理子 田丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2008328308A priority Critical patent/JP4737284B2/en
Publication of JP2010154085A publication Critical patent/JP2010154085A/en
Application granted granted Critical
Publication of JP4737284B2 publication Critical patent/JP4737284B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To associate an image or video closer to a scene an observer has observed from among the moving images photographed by a plurality of image taking means with an observation record. <P>SOLUTION: An observation memorandum acquiring portion 30 acquires an observation memorandum, inputted by an observer in an observation space where a plurality of video cameras having different imaging ranges respectively are set. An observation range specifying portion 32 specifies an observation range within the observation space designated by the observer. A position-specifying portion 38 specifies a position of the observer at a timing when the observer has inputted the observation record. A video-camera selecting portion 34 selects, from among a plurality of video cameras, a video camera whose imaging range includes at least a part of the observation range and whose direction of viewing the position within the observation range is similar to the direction of viewing the position within the observation range, from the position specified by the position specifying portion 38. An observation note generation portion 36 associates a moving image taken by the video camera selected by the video camera selecting portion 34 with the observation memorandum. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、情報処理装置及びプログラムに関する。   The present invention relates to an information processing apparatus and a program.

筆記情報と、画像情報又は映像情報と、を併用して、観察者が観察の記録を残すことが行われている。なお、下記特許文献1には、動きが検出されたとき画像を取得する監視カメラシステムが開示されている。
特開2008−42695号公報
It is performed that an observer leaves a record of observation by using both writing information and image information or video information. Patent Document 1 below discloses a surveillance camera system that acquires an image when a motion is detected.
JP 2008-42695 A

本発明の目的は、複数の撮像手段により撮像された動画像のうち、観察者が観察した光景により近い、画像または映像を、観察記録に関連付けることができる情報処理装置、及びプログラムを提供することである。   An object of the present invention is to provide an information processing apparatus and a program capable of associating an image or video that is closer to a scene observed by an observer, among moving images captured by a plurality of imaging units, with an observation record. It is.

上記課題を解決するために、請求項1の情報処理装置は、それぞれが異なる撮像範囲を有する複数の撮像手段が設置された観察空間で観察者が入力した観察記録を取得する観察記録取得手段と、前記観察者が前記観察記録を入力したタイミングに対応するタイミングにおける、前記観察者の位置を特定する位置特定手段と、前記観察者が指定した前記観察空間内の観察領域を特定する領域特定手段と、前記撮像範囲が前記領域特定手段により特定された観察領域の少なくとも一部を含み、かつ、前記観察領域内の位置を望む方向が、前記位置特定手段により特定された位置から前記観察領域内の位置を望む方向と類似する前記撮像手段を、前記複数の撮像手段のうちから少なくとも1つ選択する選択手段と、前記選択手段により選択された撮像手段が撮像した動画像のうち前記観察者が前記観察記録を入力したタイミングに対応するタイミングの、画像または該画像を含む動画像を、前記観察記録取得手段が取得した観察記録に関連づける手段とを含むことを特徴とする。   In order to solve the above problems, an information processing apparatus according to claim 1 includes an observation record acquisition unit that acquires an observation record input by an observer in an observation space in which a plurality of imaging units each having a different imaging range are installed. , Position specifying means for specifying the position of the observer at a timing corresponding to the timing when the observer inputs the observation record, and area specifying means for specifying the observation area in the observation space specified by the observer And the imaging range includes at least a part of the observation area specified by the area specifying means, and the direction in which the position in the observation area is desired is within the observation area from the position specified by the position specifying means. A selection unit that selects at least one of the plurality of imaging units as the imaging unit that is similar to the direction in which the position is desired, and the imaging unit selected by the selection unit. Means for associating an image or a moving image including the image at a timing corresponding to a timing at which the observer inputs the observation record with the observation record acquired by the observation record acquisition unit, among the moving images captured by the unit. It is characterized by including.

また、請求項2の情報処理装置は、請求項1の情報処理装置において、前記観察者が観察した被観察者の識別情報が入力された場合に、該識別情報を、前記観察記録取得手段が取得した観察記録に関連づける手段と、前記観察者が観察した被観察者の特徴が入力された場合に、該特徴を有する人物を含む画像を、前記選択手段により選択された撮像手段が撮像した動画像から抽出する画像抽出手段と、前記画像抽出手段が抽出した画像に含まれる人物の識別情報を取得する識別情報取得手段と、前記識別情報取得手段により取得された識別情報を、前記観察記録取得手段が取得した観察記録に関連づける手段と、をさらに含むことを特徴とする。   The information processing apparatus according to claim 2 is the information processing apparatus according to claim 1, wherein when the identification information of the person observed by the observer is input, the observation record acquisition means stores the identification information. When the means for associating with the acquired observation record and the characteristics of the person observed by the observer are input, a moving image obtained by imaging the image including the person having the characteristics by the imaging means selected by the selection means An image extraction unit that extracts from an image, an identification information acquisition unit that acquires identification information of a person included in the image extracted by the image extraction unit, and an identification record acquired by the identification information acquisition unit And means for associating with the observation record acquired by the means.

また、請求項3に記載のプログラムは、それぞれが異なる撮像範囲を有する複数の撮像手段が設置された観察空間で観察者が入力した観察記録を取得する観察記録取得手段、前記観察者が前記観察記録を入力したタイミングに対応するタイミングにおける、前記観察者の位置を特定する位置特定手段、前記観察者が指定した前記観察空間内の観察領域を特定する領域特定手段、前記撮像範囲が前記領域特定手段により特定された観察領域の少なくとも一部を含み、かつ、前記観察領域内の位置を望む方向が、前記位置特定手段により特定された位置から前記観察領域内の位置を望む方向と類似する前記撮像手段を、前記複数の撮像手段のうちから少なくとも1つ選択する選択手段、前記選択手段により選択された撮像手段が撮像した動画像のうち前記観察者が前記観察記録を入力したタイミングに対応するタイミングの、画像または該画像を含む動画像を、前記観察記録取得手段が取得した観察記録に関連づける手段、としてコンピュータを機能させることを特徴とする。   The program according to claim 3 is an observation record acquisition unit that acquires an observation record input by an observer in an observation space in which a plurality of imaging units each having a different imaging range are installed. Position specifying means for specifying the position of the observer at a timing corresponding to the timing at which recording is input, area specifying means for specifying an observation area in the observation space specified by the observer, and the imaging range is the area specifying The direction including at least a part of the observation area specified by the means, and the direction in which the position in the observation area is desired is similar to the direction in which the position in the observation area is desired from the position specified by the position specifying means. A selection unit that selects at least one of the plurality of imaging units as the imaging unit, and a moving image captured by the imaging unit selected by the selection unit The computer is caused to function as a means for associating an image or a moving image including the image at a timing corresponding to the timing at which the observer inputs the observation record with the observation record obtained by the observation record obtaining means. And

なお、上記プログラムは、インターネットなどの通信ネットワークを介して提供されてもよいし、フレキシブルディスク、CD−ROM、DVD−ROMなどのコンピュータ読み取り可能な各種情報記録媒体に格納されて提供されてもよい。   The program may be provided via a communication network such as the Internet, or may be provided by being stored in various computer-readable information recording media such as a flexible disk, a CD-ROM, and a DVD-ROM. .

また、上記プログラムは、コンピュータ読み取り可能な情報記録媒体に記憶されてもよい。情報記録媒体としては、例えば、磁気テープ、フレキシブルディスク、ハードディスク、CD−ROM、MO、MD、DVD−ROM、ICカードなどを用いることができる。   The program may be stored in a computer-readable information recording medium. As the information recording medium, for example, magnetic tape, flexible disk, hard disk, CD-ROM, MO, MD, DVD-ROM, IC card, etc. can be used.

請求項1及び請求項3の発明によれば、複数の撮像手段により撮像された動画像のうち、観察者が観察した光景により近い、画像または映像を、観察記録に関連付けることができる。   According to the first and third aspects of the present invention, it is possible to associate an image or video closer to the scene observed by the observer among the moving images picked up by the plurality of image pickup means with the observation record.

請求項2の発明によれば、観察者の知らない対象が観察空間に存在していても、観察の精度の低下が抑止されるようになる。   According to the second aspect of the present invention, even if an object that the observer does not know exists in the observation space, a decrease in observation accuracy is suppressed.

[1.観察空間について]
本発明の実施形態について図面を参照しながら説明する。図1は、観察者2がフィールドワークを行う観察空間4の見取り図の一例である。観察空間4は、例えば、企業のオフィスである。図1では、観察空間に配置されている机や椅子等を省略している。
[1. About observation space]
Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is an example of a sketch of an observation space 4 in which an observer 2 performs fieldwork. The observation space 4 is, for example, a corporate office. In FIG. 1, desks and chairs arranged in the observation space are omitted.

図1に示すように、観察空間4は、観察者2と、ビデオカメラ6a、ビデオカメラ6b、及びビデオカメラ6cの計3台のビデオカメラと、複数の被観察者8と、を含む。観察者2は、観察対象期間中、観察空間4内を動き回り、被観察者8を観察する。各ビデオカメラは、観察対象期間中の観察空間4内の様子を撮像し、観察対象期間中に撮像した映像を示す情報(以下、映像情報)を記憶する。なお、各ビデオカメラは、観察空間4の所定位置に設置され、図1の矢印で示されるように、それぞれ異なる撮像範囲を有している。被観察者8は、例えば、観察空間4で働いている従業員である。以下、ビデオカメラ6a、ビデオカメラ6b、及びビデオカメラ6cを区別しない場合、これらをビデオカメラ6と記載する。   As shown in FIG. 1, the observation space 4 includes an observer 2, a total of three video cameras, a video camera 6a, a video camera 6b, and a video camera 6c, and a plurality of persons to be observed 8. The observer 2 moves around in the observation space 4 and observes the person 8 to be observed during the observation target period. Each video camera images the state in the observation space 4 during the observation target period, and stores information (hereinafter referred to as video information) indicating the video captured during the observation target period. Each video camera is installed at a predetermined position in the observation space 4, and has different imaging ranges as indicated by arrows in FIG. The person to be observed 8 is, for example, an employee working in the observation space 4. Hereinafter, when the video camera 6a, the video camera 6b, and the video camera 6c are not distinguished, they are referred to as the video camera 6.

また、観察空間4には仮想的なブロックが複数設定されている。点線で区画された領域が、各ブロックを表している。各ブロックは、その行列番号により特定される。例えば、観察者2を含むブロックは、(3,6)と表される。   A plurality of virtual blocks are set in the observation space 4. A region partitioned by a dotted line represents each block. Each block is specified by its matrix number. For example, a block including the observer 2 is represented as (3, 6).

[2.観察方法について]
観察者2は、発光機器を保持したまま、観察空間4内を移動する。また、観察者2は、携帯型コンピュータを保持したまま、観察空間4内を移動する。携帯型コンピュータのタッチパネルには、図2に示す観察シートが表示される。観察者2は、観察対象期間中、タッチパネルに表示された観察シートに情報を入力する。図2(a)は、観察者2により情報が入力される前の観察シートの一例を示し、図2(b)は、観察者2により情報が入力された後の観察シートの一例を示す。
[2. About observation method]
The observer 2 moves in the observation space 4 while holding the light emitting device. The observer 2 moves in the observation space 4 while holding the portable computer. An observation sheet shown in FIG. 2 is displayed on the touch panel of the portable computer. The observer 2 inputs information to the observation sheet displayed on the touch panel during the observation target period. 2A shows an example of an observation sheet before information is input by the observer 2, and FIG. 2B shows an example of an observation sheet after information is input by the observer 2.

図2に示すように、観察シートは、被観察者フィールドと、メモフィールドと、場所フィールドと、を含む。観察者2は、観察者2の観察対象となっている被観察者8の名前(例えば、田中)を入力する場合、図2(b)に示すように、その被観察者8の名前の左に位置するチェックボックスにチェックマークを記載する。なお、観察者2は、観察対象となっている被観察者8の名前を知らない場合がある。この場合、観察者2は、観察対象となっている被観察者8の特徴を入力することができる。観察対象となっている被観察者8の特徴を入力する場合、観察者2は、チェックボックスにチェックマークを記載した上で、そのチェックボックスの右の余白に、観察対象となっている被観察者8の特徴を示す文言を記載する。図2(b)では、被観察者8の特徴として「帽子」と記載されている。   As shown in FIG. 2, the observation sheet includes an observer field, a memo field, and a location field. When the observer 2 inputs the name (for example, Tanaka) of the person 8 to be observed, the left of the name of the person 8 to be observed as shown in FIG. Put a check mark in the check box located at. Note that the observer 2 may not know the name of the person to be observed 8 who is the observation target. In this case, the observer 2 can input the characteristics of the person to be observed 8 that is the observation target. When inputting the characteristics of the person 8 to be observed, the observer 2 writes a check mark in the check box, and in the right margin of the check box, the person to be observed is the observation object. A word indicating the characteristics of the person 8 is written. In FIG. 2B, “cap” is described as a feature of the person 8 to be observed.

また、観察者2は、観察内容に関するメモ(以下、観察メモ)を入力する場合、メモフィールドに、観察メモを記載する。例えば、観察者2は、図2(b)に示すように、メモフィールドに観察メモである文章を記載する。   Moreover, when the observer 2 inputs a memo (hereinafter referred to as an observation memo) regarding the observation contents, the observer 2 writes the observation memo in the memo field. For example, as shown in FIG. 2B, the observer 2 writes a sentence that is an observation memo in the memo field.

また、観察者2は、観察対象となっている領域(以下、観察領域)を指定する場合、観察者2は、図2(b)に示すように、場所フィールドに表示された観察空間4の見取図の縮小図(以下、縮小見取図)上に観察領域を囲む軌跡を記載することにより、観察領域を指定する。   In addition, when the observer 2 designates an area to be observed (hereinafter referred to as an observation area), the observer 2 selects the observation space 4 displayed in the place field as shown in FIG. An observation region is designated by describing a trajectory surrounding the observation region on a reduced view of the sketch (hereinafter referred to as a reduced sketch).

なお、携帯型コンピュータでは、各フィールドに記載された情報と、各フィールドに情報が記載された時刻と、を含む情報(以下、観察情報)が記憶される。   In the portable computer, information including information described in each field and the time when the information is described in each field (hereinafter referred to as observation information) is stored.

観察対象期間が終了すると、後述の情報処理装置10の情報処理により、図3に示す観察ノートが生成される。   When the observation target period ends, an observation note shown in FIG. 3 is generated by information processing of the information processing apparatus 10 described later.

図3は、観察ノートの一例を示す図である。同図に示すように、観察ノートは、時刻フィールドと、被観察者フィールドと、メモフィールドと、場所フィールドと、スナップショットフィールドと、を含む。   FIG. 3 is a diagram illustrating an example of an observation note. As shown in the figure, the observation note includes a time field, an observer field, a memo field, a location field, and a snapshot field.

[3.情報処理装置について]
以下、情報処理装置10よって行われる、観察ノートを生成するための処理について説明する。
[3. About Information Processing Device]
Hereinafter, processing for generating an observation note performed by the information processing apparatus 10 will be described.

[ハードウェア構成]
図4は、情報処理装置10のハードウェア構成の一例を示す図である。同図に示すように、情報処理装置10は、制御部12と、主記憶部14と、補助記憶部16と、操作部18と、表示部20と、を含む公知のコンピュータシステムである。各部は、バス22によりデータ授受可能に接続される。なお、情報処理装置10は、図示しない通信インタフェースやスピーカ等も含む。
[Hardware configuration]
FIG. 4 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 10. As shown in FIG. 1, the information processing apparatus 10 is a known computer system including a control unit 12, a main storage unit 14, an auxiliary storage unit 16, an operation unit 18, and a display unit 20. Each unit is connected by a bus 22 so as to be able to exchange data. The information processing apparatus 10 includes a communication interface, a speaker, and the like (not shown).

制御部12は例えばマイクロプロセッサである。制御部12は、主記憶部14に記憶されるプログラムに従って情報処理を実行する。   The control unit 12 is a microprocessor, for example. The control unit 12 executes information processing according to a program stored in the main storage unit 14.

主記憶部14は、例えばRAMである。主記憶部14には上記プログラムが格納される。また主記憶部14には情報処理の過程で必要となる各種データが格納される。   The main storage unit 14 is, for example, a RAM. The main memory 14 stores the above program. The main memory 14 stores various data necessary for information processing.

操作部18は、ユーザが操作入力を行うためのユーザインタフェースである。操作部18は、例えばキーボードやマウスである。表示部20は、例えばディスプレイである。表示部20は、制御部12から出力される情報を表示する。   The operation unit 18 is a user interface for a user to perform operation input. The operation unit 18 is, for example, a keyboard or a mouse. The display unit 20 is a display, for example. The display unit 20 displays information output from the control unit 12.

補助記憶部16は例えばハードディスクである。補助記憶部18には各種データが格納される。本実施形態の場合、例えば、以下に示すデータが格納される。
1.各ビデオカメラ6に記憶されている映像情報
2.携帯型コンピュータに記憶されている観察情報
3.人物データベース
4.撮像範囲テーブル
The auxiliary storage unit 16 is a hard disk, for example. Various data are stored in the auxiliary storage unit 18. In the case of this embodiment, for example, the following data is stored.
1. 1. Video information stored in each video camera 2 2. Observation information stored in the portable computer Person database4. Imaging range table

本実施形態の場合、映像情報は、観察対象期間終了後、各ビデオカメラ6から転送されて、補助記憶部16に格納される。また、観察情報も、観察対象期間終了後、携帯型コンピュータから転送されて、補助記憶部16に格納される。人物データベース、及び撮像範囲テーブルは、補助記憶部18に予め格納される。   In the case of the present embodiment, the video information is transferred from each video camera 6 and stored in the auxiliary storage unit 16 after the observation target period ends. The observation information is also transferred from the portable computer after the observation target period ends and stored in the auxiliary storage unit 16. The person database and the imaging range table are stored in advance in the auxiliary storage unit 18.

図5は、人物データベースの一例を示す図である。人物データベースは、観察空間4で働いている従業員の名前の各々と、その従業員の画像と、を対応付けてなるテーブルである。本実施形態の場合、このテーブルは、名前フィールドと、画像フィールドと、を含む。名前フィールドには、従業員の名前が格納される。また、画像フィールドには、従業員の画像が格納される。   FIG. 5 is a diagram illustrating an example of a person database. The person database is a table in which each name of an employee working in the observation space 4 is associated with an image of the employee. In the present embodiment, this table includes a name field and an image field. The name field stores the name of the employee. The image field stores employee images.

図6は、撮像範囲テーブルを示す図である。撮像範囲テーブルは、各ビデオカメラ6と、その撮像範囲と、を関連づけてなるテーブルである。本実施形態の場合、撮像範囲テーブルは、ビデオカメラフィールドと、撮像範囲フィールドと、を含む。ビデオカメラフィールドには、各ビデオカメラ6のIDが格納される。また、撮像範囲フィールドには、各ビデオカメラ6の撮像範囲を示す情報が格納される。ここでは、各ビデオカメラ6の撮像範囲に含まれるブロックの特定情報が格納される。   FIG. 6 is a diagram illustrating an imaging range table. The imaging range table is a table in which each video camera 6 is associated with its imaging range. In the present embodiment, the imaging range table includes a video camera field and an imaging range field. In the video camera field, the ID of each video camera 6 is stored. In the imaging range field, information indicating the imaging range of each video camera 6 is stored. Here, specific information of blocks included in the imaging range of each video camera 6 is stored.

[情報処理装置で実行される処理]
図7は、情報処理装置10で実行される処理の一例を示すフローチャート図である。この処理は、制御部12が主記憶部14に記憶されるプログラムに従って動作することにより実行される。本実施形態の場合、この処理は、情報処理装置10のユーザが所定操作を行った場合に実行される。
[Processes executed by the information processing device]
FIG. 7 is a flowchart illustrating an example of processing executed by the information processing apparatus 10. This process is executed by the control unit 12 operating according to a program stored in the main storage unit 14. In the case of the present embodiment, this process is executed when a user of the information processing apparatus 10 performs a predetermined operation.

制御部12は、観察者2により観察メモが入力された時刻Tを特定する(S101)。本実施形態の場合、制御部12は、上記観察情報を参照して、観察メモが観察シートのメモフィールドに記載された時刻を、時刻Tとして特定する。   The control unit 12 specifies the time T when the observation memo is input by the observer 2 (S101). In the case of this embodiment, the control part 12 specifies the time when the observation memo was described in the memo field of the observation sheet as the time T with reference to the observation information.

そして、制御部12は、図3に示すように、観察ノートの時刻フィールドに時刻Tを挿入する(S102)。   And the control part 12 inserts time T in the time field of an observation note, as shown in FIG. 3 (S102).

また、制御部12は、観察者2により指定された観察領域を特定する(S103)。本実施形態の場合、制御部12は、上記観察情報を参照して、上記縮小見取図上に記載された軌跡により囲まれるブロックを、観察領域として特定する。   In addition, the control unit 12 specifies an observation area designated by the observer 2 (S103). In the case of the present embodiment, the control unit 12 refers to the observation information and identifies a block surrounded by the locus described on the reduced sketch as an observation region.

そして、制御部12は、図3に示すように、S103のステップで特定した観察領域を、観察ノートの場所フィールドに挿入する(S104)。本実施形態の場合、上記縮小見取図上に記載された軌跡により囲まれるブロックの特定情報を、観察ノートの場所フィールドに挿入する。   Then, as shown in FIG. 3, the control unit 12 inserts the observation region specified in step S103 into the observation note location field (S104). In the case of this embodiment, the specific information of the block surrounded by the locus described on the reduced sketch is inserted into the location field of the observation note.

また、制御部12は、観察者2により入力された観察メモを取得する(S105)。本実施形態の場合、制御部12は、上記観察情報を参照し、観察シートのメモフィールドに記載された観察メモを取得する。   Moreover, the control part 12 acquires the observation memo input by the observer 2 (S105). In the case of the present embodiment, the control unit 12 refers to the observation information and acquires the observation memo described in the memo field of the observation sheet.

そして、制御部12は、S105のステップで取得した観察メモを、観察ノートのメモフィールドに挿入する(S106)。   Then, the control unit 12 inserts the observation memo acquired in step S105 into the memo field of the observation note (S106).

また、制御部12は、ビデオカメラ6の映像情報から、観察者2が観察メモを入力したときの観察空間4の様子を示す画像(以下、スナップショット画像)を取得する(S107)。   Further, the control unit 12 acquires an image (hereinafter referred to as a snapshot image) indicating the appearance of the observation space 4 when the observer 2 inputs an observation memo from the video information of the video camera 6 (S107).

本実施形態の場合、制御部12は、図8に示すように、S103のステップで特定された観察領域に基づいて、ビデオカメラ6ごとに評価点Evを算出する(S201)。   In the case of the present embodiment, as shown in FIG. 8, the control unit 12 calculates an evaluation score Ev for each video camera 6 based on the observation region specified in step S103 (S201).

具体的には、制御部12は、ビデオカメラ6の評価点Evを、以下の式(1)に従って算出する。
Ev=α1*Co+α2*Si+α3*Di・・・(1)
Specifically, the control unit 12 calculates the evaluation score Ev of the video camera 6 according to the following equation (1).
Ev = α1 * Co + α2 * Si + α3 * Di (1)

ここで、α1、α2、及びα3は、予め定められた数値である。また、カバー率Coは、ビデオカメラ6の撮像範囲に含まれるブロックの数に対する、観察領域に含まれるブロックの数の割合である。また、距離Diは、例えば、観察領域内の位置(例えば、観察領域の重心位置)からのビデオカメラ6の距離である。   Here, α1, α2, and α3 are predetermined numerical values. The coverage ratio Co is a ratio of the number of blocks included in the observation area to the number of blocks included in the imaging range of the video camera 6. The distance Di is, for example, the distance of the video camera 6 from a position in the observation area (for example, the center of gravity position of the observation area).

また、視野類似度Siは、時刻Tにおける観察者2の視線方向Qと、ビデオカメラ6の視線方向Sと、の類似度である。ここでは、視野類似度Siは、時刻Tにおける観察者2の視線方向Qと、ビデオカメラ6の視線方向Sと、がなす角度の余弦である。ここでは、図9に示すように、時刻Tにおける観察者2の位置から観察領域内の位置P(例えば、観察領域の重心位置)を見たときの方向が、時刻Tにおける観察者2の視線方向Qとして用いられ、ビデオカメラ6から位置Pを見たときの方向が、ビデオカメラ6の視線方向Sとして用いられる。従って、時刻Tにおける観察者2の位置と、観察領域と、の位置関係によって、視野類似度Siの値は変化することとなる。なお、制御部12は、時刻Tにおける観察者2の位置を、各ビデオカメラ6が時刻Tで撮像した画像における上記発光機器の位置に基づいて特定する。   The visual field similarity Si is the similarity between the line-of-sight direction Q of the observer 2 at the time T and the line-of-sight direction S of the video camera 6. Here, the visual field similarity Si is a cosine of an angle formed by the visual line direction Q of the observer 2 at time T and the visual line direction S of the video camera 6. Here, as shown in FIG. 9, the direction when viewing the position P in the observation region (for example, the center of gravity of the observation region) from the position of the observer 2 at the time T is the line of sight of the observer 2 at the time T. The direction when the position P is viewed from the video camera 6 is used as the direction Q of the video camera 6. Therefore, the value of the visual field similarity Si changes depending on the positional relationship between the position of the observer 2 and the observation area at the time T. The control unit 12 specifies the position of the observer 2 at time T based on the position of the light emitting device in the image captured by each video camera 6 at time T.

そして、制御部12は、評価点Evが1〜N(Nは2以下の正の整数)番目に大きいビデオカメラ6を選択する。本実施形態の場合、制御部12は、評価点Evが最も大きいビデオカメラ6を選択する(S202)。S201及びS202に示す処理により、その撮像範囲が観察領域の少なくとも一部を含み、かつ、観察領域内の位置Pを望む方向が、時刻Tにおける観察者2の位置から位置Pを望む方向と類似するビデオカメラ6が選択される。   Then, the control unit 12 selects the video camera 6 whose evaluation score Ev is 1 to N (N is a positive integer equal to or smaller than 2). In the present embodiment, the control unit 12 selects the video camera 6 having the largest evaluation score Ev (S202). By the processing shown in S201 and S202, the imaging range includes at least a part of the observation area, and the direction in which the position P in the observation area is desired is similar to the direction in which the position P is desired from the position of the observer 2 at time T. The video camera 6 to be selected is selected.

そして、制御部12は、S202のステップで選択したビデオカメラ6の映像情報を参照し、時刻Tで該ビデオカメラ6が撮像した画像をスナップショット画像として取得する(S203)。   Then, the control unit 12 refers to the video information of the video camera 6 selected in step S202, and acquires an image captured by the video camera 6 at time T as a snapshot image (S203).

スナップショット画像を取得すると、制御部12は、図3に示すように、該スナップショット画像を、観察ノートのスナップショットフィールドに挿入する(S108)。その結果、スナップショットが観察メモと関連づけられる。   When the snapshot image is acquired, the control unit 12 inserts the snapshot image into the snapshot field of the observation note as shown in FIG. 3 (S108). As a result, the snapshot is associated with the observation memo.

また、制御部12は、観察者2の観察対象となった被観察者8の名前を取得する(S109)。   Moreover, the control part 12 acquires the name of the person 8 to be observed who became the observation object of the observer 2 (S109).

本実施形態の場合、制御部12は、S109のステップにおいて、上記観察情報を参照し、チェックマークが記載されたチェックボックスを特定する。そして、制御部12は、チェックマークが記載されたチェックボックスの各々について図10に示す処理を実行することにより、観察者2の観察対象となった被観察者8の名前を特定する。   In the case of the present embodiment, in step S109, the control unit 12 refers to the observation information and specifies a check box in which a check mark is described. And the control part 12 specifies the name of the person 8 to be observed who became the observation object of the observer 2 by performing the process shown in FIG. 10 about each of the check boxes in which the check marks are described.

すなわち、制御部12は、観察情報を参照し、処理対象となっているチェックボックスの右に記載された文言が、人物データベースの名前フィールドに格納されるいずれかの名前と一致するか否かを判定する(S301)。   That is, the control unit 12 refers to the observation information and determines whether or not the wording on the right side of the check box to be processed matches any name stored in the name field of the person database. Determine (S301).

処理対象となっているチェックボックスの右に記載された文言が、人物データベースの名前フィールドに格納されるいずれかの名前と一致する場合(S301のY)、処理対象となっているチェックボックスの右に記載された名前を、観察者2の観察対象となった被観察者8の名前として取得する(S302)。   If the wording to the right of the check box to be processed matches one of the names stored in the name field of the person database (Y in S301), the right of the check box to be processed Is acquired as the name of the person to be observed 8 who became the observation object of the observer 2 (S302).

一方、処理対象となっているチェックボックスの右に記載された文言が、人物データベースの名前フィールドに格納されるいずれの名前にも一致しない場合(S301のN)、すなわち、処理対象となっているチェックボックスの右に被観察者8の特徴が記載された場合、制御部12は、S107のステップで取得したスナップショット画像から、公知の画像処理技術を用いて、該特徴を有する人物の画像を抽出する(S303)。例えば、制御部12は、処理対象となっているチェックボックスの右に「帽子」と記載されている場合、スナップショットから帽子をかぶっている人物の画像を抽出する。   On the other hand, if the wording to the right of the check box that is the processing target does not match any name stored in the name field of the person database (N in S301), that is, the processing target. When the characteristics of the person 8 to be observed are described on the right side of the check box, the control unit 12 uses the well-known image processing technique to extract an image of the person having the characteristics from the snapshot image acquired in step S107. Extract (S303). For example, when “hat” is written to the right of the check box to be processed, the control unit 12 extracts an image of a person wearing a hat from the snapshot.

そして、制御部12は、S303のステップで抽出した画像を表示部20に表示させる(S304)。S304のステップで表示部20に表示された画像を参照したユーザが該画像に含まれる人物の名前を入力すると、制御部12は、ユーザが入力した名前を、観察者2の観察対象となった被観察者8の名前として取得する(S305)。なお、制御部12は、S303のステップで抽出した画像を人物データベースの画像フィールドに追加記憶したり、ユーザが入力した名前を人物データベースの名前フィールドに追加記憶したりすることも行う。   And the control part 12 displays the image extracted by the step of S303 on the display part 20 (S304). When the user who refers to the image displayed on the display unit 20 in step S304 inputs the name of the person included in the image, the control unit 12 sets the name input by the user as the observation target of the observer 2. Obtained as the name of the person to be observed 8 (S305). Note that the control unit 12 additionally stores the image extracted in step S303 in the image field of the person database, and additionally stores the name input by the user in the name field of the person database.

観察者2の観察対象となった被観察者8の名前を取得すると、制御部12は、図3に示すように、S109のステップで取得した名前を、観察ノートの被観察者フィールドに挿入する(S110)。その結果、観察者2が被観察者8の名前を入力していた場合は、その名前が観察メモに関連づけられる。また、観察者2が被観察者8の特徴を入力していた場合は、その特徴を有する人物の名前が観察メモに関連づけられる。例えば、図3によれば、帽子をかぶっている人物の名前「福田」が観察ノートの被観察者フィールドに挿入されている。   When the name of the person to be observed 8 who is the observation target of the observer 2 is acquired, the control unit 12 inserts the name acquired in step S109 into the person to be observed field of the observation note as illustrated in FIG. (S110). As a result, when the observer 2 has input the name of the person 8 to be observed, the name is associated with the observation memo. Further, when the observer 2 has input the characteristics of the person 8 to be observed, the name of the person having the characteristics is associated with the observation memo. For example, according to FIG. 3, the name “Fukuda” of a person wearing a hat is inserted in the observed person field of the observation note.

[機能ブロック]
図11は、情報処理装置10が有する機能のうち、本発明に関連するものを主として示す機能ブロック図である。同図に示すように情報処理装置10は、観察メモ取得部30と、観察領域特定部32と、ビデオカメラ選択部34と、観察ノート生成部36と、を含む。これらの機能は、制御部12が上記プログラムに従って動作することにより実現される。
[Function block]
FIG. 11 is a functional block diagram mainly showing functions related to the present invention among the functions of the information processing apparatus 10. As illustrated in FIG. 1, the information processing apparatus 10 includes an observation memo acquisition unit 30, an observation region specification unit 32, a video camera selection unit 34, and an observation note generation unit 36. These functions are realized by the control unit 12 operating according to the program.

観察メモ取得部30(観察記憶取得手段)は、制御部12を主として実現される。観察メモ取得部30は、観察者2が入力した観察メモを取得する。   The observation memo acquisition unit 30 (observation memory acquisition means) is realized mainly by the control unit 12. The observation memo acquisition unit 30 acquires the observation memo input by the observer 2.

本実施形態の場合、観察メモ取得部30は、上記観察情報を参照し、観察シートのメモフィールドに記載された観察メモを取得する(図7のS105)。なお、観察メモ取得部30は、観察者2により観察メモが入力された時刻Tを特定することも行う(図7のS101)。   In the present embodiment, the observation memo acquisition unit 30 refers to the observation information and acquires the observation memo described in the memo field of the observation sheet (S105 in FIG. 7). The observation memo acquisition unit 30 also specifies the time T when the observation memo is input by the observer 2 (S101 in FIG. 7).

観察領域特定部32(領域特定手段)は、制御部12を主として実現される。観察領域特定部32は、観察者2が指定した観察領域を特定する。   The observation area specifying unit 32 (area specifying means) is realized mainly by the control unit 12. The observation area specifying unit 32 specifies the observation area specified by the observer 2.

本実施形態の場合、観察領域特定部32は、上記観察情報を参照して、上記縮小見取り図上に記載された軌跡により囲まれるブロックを、観察領域として特定する(図7のS103)。   In the case of the present embodiment, the observation region specifying unit 32 refers to the observation information and specifies a block surrounded by the locus described on the reduced sketch as an observation region (S103 in FIG. 7).

ビデオカメラ選択部34(選択手段)は、制御部12を主として実現される。ビデオカメラ選択部34は、位置特定部38を含み、ビデオカメラ選択部34は、観察領域特定部32により特定された観察領域に基づいて、3台のビデオカメラ6のうちから少なくとも1台のビデオカメラ6を選択する。   The video camera selection unit 34 (selection means) is realized mainly by the control unit 12. The video camera selecting unit 34 includes a position specifying unit 38, and the video camera selecting unit 34 is based on the observation region specified by the observation region specifying unit 32 and at least one video from the three video cameras 6. The camera 6 is selected.

本実施形態の場合、ビデオカメラ選択部34は、時刻Tにおける観察者2の位置と、観察領域特定部32により特定された観察領域と、の位置関係に基づいてビデオカメラ6を選択する。具体的には、ビデオカメラ選択部34は、各ビデオカメラ6の評価点Evを上記式(1)に従って算出する(図8のS201)。例えば、カバー率Coを算出する場合、ビデオカメラ選択部34は、ビデオカメラ6の撮像範囲に含まれるブロックの数に対する、観察領域特定部32が特定した観察領域に含まれるブロックの数の割合を算出する。また、例えば、距離Diを算出する場合、ビデオカメラ選択部34は、観察領域内の位置(例えば、観察領域の重心位置)からのビデオカメラ6の距離を算出する。   In the case of this embodiment, the video camera selection unit 34 selects the video camera 6 based on the positional relationship between the position of the observer 2 at time T and the observation region specified by the observation region specification unit 32. Specifically, the video camera selection unit 34 calculates the evaluation point Ev of each video camera 6 according to the above equation (1) (S201 in FIG. 8). For example, when calculating the coverage ratio Co, the video camera selection unit 34 calculates the ratio of the number of blocks included in the observation region specified by the observation region specification unit 32 to the number of blocks included in the imaging range of the video camera 6. calculate. For example, when calculating the distance Di, the video camera selection unit 34 calculates the distance of the video camera 6 from the position in the observation region (for example, the center of gravity position of the observation region).

また、例えば、視野類似度Siを算出する場合、ビデオカメラ選択部34は、時刻Tにおける観察者2の位置から観察領域内の位置P(例えば、観察領域の重心位置)を見たときの方向Qと、ビデオカメラ6から位置Pを見たときの方向Sと、の角度の余弦を算出する。その結果、その撮像範囲が観察領域の少なくとも一部を含み、かつ、観察領域内の位置Pを望む方向が、時刻Tにおける観察者2の位置から位置Pを望む方向と類似するビデオカメラ6が選択される。なお、時刻Tにおける観察者2の位置は、例えば各ビデオカメラ6が時刻Tで撮像した画像における上記発光体の位置に基づいて、位置特定部38が特定する。   For example, when calculating the visual field similarity Si, the video camera selection unit 34 looks at the position P in the observation area (for example, the center of gravity position of the observation area) from the position of the observer 2 at time T. The cosine of the angle between Q and the direction S when the position P is viewed from the video camera 6 is calculated. As a result, the video camera 6 in which the imaging range includes at least a part of the observation area and the direction in which the position P in the observation area is desired is similar to the direction in which the position P is desired from the position of the observer 2 at time T. Selected. Note that the position of the observer 2 at time T is specified by the position specifying unit 38 based on, for example, the position of the light emitter in the image captured by each video camera 6 at time T.

観察ノート生成部36は、制御部12を主として実現される。観察ノート生成部36は、スナップショット取得部40と、画像抽出部42と、名前取得部44と、を含む。観察ノート生成部36は、観察ノートを生成する。   The observation note generator 36 is realized mainly by the controller 12. The observation note generation unit 36 includes a snapshot acquisition unit 40, an image extraction unit 42, and a name acquisition unit 44. The observation note generation unit 36 generates an observation note.

本実施形態の場合、観察ノート生成部36は、観察メモ取得部30により特定された時刻Tを、観察ノートの時刻フィールドに挿入する(図7のS102)。   In this embodiment, the observation note generation unit 36 inserts the time T specified by the observation note acquisition unit 30 into the time field of the observation note (S102 in FIG. 7).

また、観察ノート生成部36は、観察領域特定部32が特定した観察領域を、観察ノートの場所フィールドに挿入する(図7のS104)。   Further, the observation note generation unit 36 inserts the observation region specified by the observation region specification unit 32 in the observation note location field (S104 in FIG. 7).

また、観察ノート生成部36は、観察メモ取得部30が取得した観察メモを、観察ノートのメモフィールドに挿入する(図7のS106)。   Further, the observation note generation unit 36 inserts the observation memo acquired by the observation memo acquisition unit 30 into the memo field of the observation note (S106 in FIG. 7).

また、観察ノート生成部36は、ビデオカメラ選択部34が選択したビデオカメラ6が観察対象期間中に撮像した映像又は画像を、観察ノートのスナップショットフィールドに挿入することにより、該ビデオカメラ6が観察対象期間中に撮像した映像又は画像を、観察メモ取得部30が取得した観察メモに関連づける。   In addition, the observation note generation unit 36 inserts the video or image captured by the video camera 6 selected by the video camera selection unit 34 during the observation target period into the snapshot field of the observation note, so that the video camera 6 The video or image captured during the observation target period is associated with the observation memo acquired by the observation memo acquisition unit 30.

本実施形態の場合、スナップショット取得部40が、ビデオカメラ選択部34が選択したビデオカメラ6の映像情報を参照し、時刻Tで該ビデオカメラ6が撮像した画像をスナップショット画像として取得する(図7のS107及び図8のS203)。そして、観察ノート生成部36は、スナップショット取得部40が取得したスナップショット画像を観察ノートのスナップショットフィールドに挿入する(図7のS108)。   In the case of this embodiment, the snapshot acquisition unit 40 refers to the video information of the video camera 6 selected by the video camera selection unit 34, and acquires an image captured by the video camera 6 at time T as a snapshot image ( S107 in FIG. 7 and S203 in FIG. 8). Then, the observation note generation unit 36 inserts the snapshot image acquired by the snapshot acquisition unit 40 into the snapshot field of the observation note (S108 in FIG. 7).

また、観察ノート生成部36は、観察者2の観察対象となった被観察者8の名前を観察ノートの被観察者フィールドに挿入することにより、観察者2の観察対象となった被観察者8の名前を、観察メモ取得部30が取得した観察メモに関連づける。   In addition, the observation note generation unit 36 inserts the name of the person 8 to be observed of the observer 2 into the person to be observed field of the observation notebook, thereby observing the person 2 to be observed by the observer 2. The name 8 is associated with the observation memo acquired by the observation memo acquisition unit 30.

本実施形態の場合、観察ノート生成部36は、上記観察情報を参照し、チェックボックスの右に記載された文言が、人物データベースの名前フィールドに格納されるいずれかの名前と一致する場合、処理対象となっているチェックボックスの右に記載された名前を、観察者2の観察対象となった被観察者8の名前として、観察ノートの被観察者フィールドに挿入する(図10のS301、図10のS302、及び図7のS110)。その結果、観察者2が観察対象期間において観察した被観察者8の名前を入力していた場合、該名前が、観察メモ取得部30が取得した観察メモに関連づけられることとなる。   In the case of the present embodiment, the observation note generation unit 36 refers to the observation information, and if the wording on the right side of the check box matches any name stored in the name field of the person database, The name described on the right side of the target check box is inserted as the name of the person 8 to be observed by the observer 2 in the observer field of the observation note (S301 in FIG. 10, FIG. 10 S302 and FIG. 7 S110). As a result, when the observer 2 has input the name of the observed person 8 observed during the observation target period, the name is associated with the observation memo acquired by the observation memo acquisition unit 30.

一方、チェックボックスの右に記載された文言が、人物データベースの名前フィールドに格納されるいずれの名前にも一致しない場合、すなわち、処理対象となっているチェックボックスの右に被観察者8の特徴が記載された場合、画像抽出部42が、ビデオカメラ選択部34が選択したビデオカメラ6の映像情報を参照し、該ビデオカメラ6が観察対象期間中に撮像した映像又は画像(例えば、スナップショット取得部40が取得したスナップショット画像)から、特徴を有する人物の画像を抽出する(図10のS303)。その後、名前取得部44が、画像抽出部42により抽出された画像に含まれる人物の名前を取得すると(図10のS305)、観察ノート生成部36は、名前取得部44に取得された名前を、観察者2の観察対象となった被観察者8の名前として、観察ノートの被観察者フィールドに挿入する(図7のS110)。その結果、観察者2が観察対象期間において観察した被観察者8の特徴を入力していた場合、その特徴を有する人物の名前が、観察メモ取得部30が取得した観察メモに関連づけられることとなる。   On the other hand, if the wording on the right side of the check box does not match any name stored in the name field of the person database, that is, the feature of the observer 8 on the right side of the check box to be processed. Is described, the image extraction unit 42 refers to the video information of the video camera 6 selected by the video camera selection unit 34, and the video or image (for example, snapshot) captured by the video camera 6 during the observation target period. An image of a person having a feature is extracted from the snapshot image acquired by the acquisition unit 40 (S303 in FIG. 10). After that, when the name acquisition unit 44 acquires the name of the person included in the image extracted by the image extraction unit 42 (S305 in FIG. 10), the observation note generation unit 36 uses the name acquired by the name acquisition unit 44. The name of the person 8 to be observed by the observer 2 is inserted into the person to be observed field of the observation notebook (S110 in FIG. 7). As a result, when the observer 2 has input the characteristics of the observed person 8 observed during the observation period, the name of the person having the characteristics is associated with the observation memo acquired by the observation memo acquisition unit 30. Become.

なお、本発明は、以上に説明した実施形態に限定されるものではない。   Note that the present invention is not limited to the embodiment described above.

例えば、評価点Evは、式(1)で表されるものだけに限らない。例えば、Evは、以下、式(2)〜式(4)のいずれかに従って算出されてもよい。
Ev=α1*Co・・・式(2)
Ev=α1*Co+α2*Si・・・式(3)
Ev=α1*Co+α2*Si+α3*Di+α4*P・・・式(4)
ここで、α4は予め定められた数値であり、Pは、ビデオカメラ6が時刻Tで撮像した画像に含まれる、観察者2により指定された被観察者8(チェックボックスにチェックマークが記載された被観察者8)の数である。
For example, the evaluation point Ev is not limited to that represented by the formula (1). For example, Ev may be calculated according to any one of formulas (2) to (4) below.
Ev = α1 * Co Expression (2)
Ev = α1 * Co + α2 * Si Formula (3)
Ev = α1 * Co + α2 * Si + α3 * Di + α4 * P Formula (4)
Here, α4 is a predetermined numerical value, and P is an observed person 8 specified by the observer 2 included in the image captured by the video camera 6 at time T (a check mark is written in the check box). The number of persons to be observed 8).

また、例えば、制御部12は、S203のステップにおいて、ビデオカメラ6が時刻Tで撮像した画像をスナップショット画像として取得する代わりに、ビデオカメラ6が時刻T−ΔTから時刻T+ΔTまでの間に撮像した映像のうちから観察者2により指定された被観察者8の画像を最も多く含む画像を抽出し、抽出した画像をスナップショット画像として取得するようにしてもよい。   Further, for example, in step S203, the control unit 12 captures an image between time T−ΔT and time T + ΔT instead of acquiring an image captured by the video camera 6 at time T as a snapshot image. An image including the largest number of images of the person to be observed 8 designated by the observer 2 may be extracted from the obtained images, and the extracted image may be acquired as a snapshot image.

また、例えば、上記実施形態では、観察者2は、携帯型コンピュータのタッチパネルに表示された観察シートにチェックマーク等を記載することで、被観察者8の入力、観察領域の指定等を行ったが、被観察者8の入力方法や観察領域の指定方法はどのような方法であってもよい。例えば、特殊な配列を有するドットパターンが印刷された特別な用紙に観察シートを印刷しておき、この用紙にデジタルペンでチェックマーク等を記載することにより、被観察者8の入力や観察領域の指定を行うようにしてもよい。この場合、デジタルペンに記憶される筆跡情報を観察情報として用いればよい。   Further, for example, in the above-described embodiment, the observer 2 inputs a check mark or the like on the observation sheet displayed on the touch panel of the portable computer, thereby performing input of the observer 8, designation of the observation area, and the like. However, any method may be used for the input method of the person to be observed 8 and the method for specifying the observation region. For example, an observation sheet is printed on a special paper on which a dot pattern having a special arrangement is printed, and a check mark or the like is written on the paper with a digital pen, so that the input of the person to be observed 8 and the observation area You may make it specify. In this case, handwriting information stored in the digital pen may be used as observation information.

観察空間の見取図の一例を示す図である。It is a figure which shows an example of the sketch of observation space. 観察シートの一例を示す図である。It is a figure which shows an example of an observation sheet. 観察ノートの一例を示す図である。It is a figure which shows an example of an observation note. 本発明の実施形態に係る情報処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the information processing apparatus which concerns on embodiment of this invention. 人物データベースの記憶内容の一例を示す図である。It is a figure which shows an example of the memory content of a person database. 撮像範囲テーブルの記憶内容の一例を示す図である。It is a figure which shows an example of the memory content of an imaging range table. 本発明の実施形態に係る情報処理装置にて実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed with the information processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置にて実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed with the information processing apparatus which concerns on embodiment of this invention. 視野類似度の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of a visual field similarity. 本発明の実施形態に係る情報処理装置にて実行される処理の一例を示すフロー図である。It is a flowchart which shows an example of the process performed with the information processing apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る情報処理装置が有する機能を示す機能ブロック図である。It is a functional block diagram which shows the function which the information processing apparatus which concerns on embodiment of this invention has.

符号の説明Explanation of symbols

2 観察者、4 観察空間、6a,6b,6c ビデオカメラ、8 被観察者、10 情報処理装置、12 制御部、14 主記憶部、16 補助記憶部、18 操作部、20 表示部、22 バス、30 観察メモ取得部、32 観察領域特定部、34 ビデオカメラ選択部、36 観察ノート生成部、38 位置特定部、40 スナップショット取得部、42 画像抽出部、44 名前取得部。   2 observers, 4 observation spaces, 6a, 6b, 6c video camera, 8 person to be observed, 10 information processing device, 12 control unit, 14 main storage unit, 16 auxiliary storage unit, 18 operation unit, 20 display unit, 22 bus 30 observation memo acquisition unit, 32 observation region specification unit, 34 video camera selection unit, 36 observation note generation unit, 38 position specification unit, 40 snapshot acquisition unit, 42 image extraction unit, 44 name acquisition unit.

Claims (3)

それぞれが異なる撮像範囲を有する複数の撮像手段が設置された観察空間で観察者が入力した観察記録を取得する観察記録取得手段と、
前記観察者が前記観察記録を入力したタイミングに対応するタイミングにおける、前記観察者の位置を特定する位置特定手段と、
前記観察者が指定した前記観察空間内の観察領域を特定する領域特定手段と、
前記撮像範囲が前記領域特定手段により特定された観察領域の少なくとも一部を含み、かつ、前記観察領域内の位置を望む方向が、前記位置特定手段により特定された位置から前記観察領域内の位置を望む方向と類似する前記撮像手段を、前記複数の撮像手段のうちから少なくとも1つ選択する選択手段と、
前記選択手段により選択された撮像手段が撮像した動画像のうち前記観察者が前記観察記録を入力したタイミングに対応するタイミングの、画像または該画像を含む動画像を、前記観察記録取得手段が取得した観察記録に関連づける手段と、
を含むことを特徴とする情報処理装置。
An observation record acquisition means for acquiring an observation record input by an observer in an observation space where a plurality of imaging means each having a different imaging range are installed;
Position specifying means for specifying the position of the observer at a timing corresponding to a timing at which the observer inputs the observation record;
Area specifying means for specifying an observation area in the observation space designated by the observer;
The imaging range includes at least a part of the observation area specified by the area specifying means, and the direction in which the position in the observation area is desired is a position in the observation area from the position specified by the position specifying means. Selecting means for selecting at least one of the plurality of imaging means as the imaging means similar to a desired direction;
The observation record acquisition unit acquires an image or a moving image including the image at a timing corresponding to the timing at which the observer inputs the observation record among the moving images captured by the imaging unit selected by the selection unit. Means associated with the observed records,
An information processing apparatus comprising:
前記観察者が観察した被観察者の識別情報が入力された場合に、該識別情報を、前記観察記録取得手段が取得した観察記録に関連づける手段と、
前記観察者が観察した被観察者の特徴が入力された場合に、該特徴を有する人物を含む画像を、前記選択手段により選択された撮像手段が撮像した動画像から抽出する画像抽出手段と、
前記画像抽出手段が抽出した画像に含まれる人物の識別情報を取得する識別情報取得手段と、
前記識別情報取得手段により取得された識別情報を、前記観察記録取得手段が取得した観察記録に関連づける手段と、
をさらに含むことを特徴とする請求項1に記載の情報処理装置。
Means for associating the identification information with the observation record acquired by the observation record acquisition means when the identification information of the observed person observed by the observer is input;
An image extracting means for extracting an image including a person having the feature from the moving image captured by the imaging means selected by the selection means when the characteristics of the observed person observed by the observer are input;
Identification information acquisition means for acquiring identification information of a person included in the image extracted by the image extraction means;
Means for associating the identification information acquired by the identification information acquisition means with the observation record acquired by the observation record acquisition means;
The information processing apparatus according to claim 1, further comprising:
それぞれが異なる撮像範囲を有する複数の撮像手段が設置された観察空間で観察者が入力した観察記録を取得する観察記録取得手段、
前記観察者が前記観察記録を入力したタイミングに対応するタイミングにおける、前記観察者の位置を特定する位置特定手段、
前記観察者が指定した前記観察空間内の観察領域を特定する領域特定手段、
前記撮像範囲が前記領域特定手段により特定された観察領域の少なくとも一部を含み、かつ、前記観察領域内の位置を望む方向が、前記位置特定手段により特定された位置から前記観察領域内の位置を望む方向と類似する前記撮像手段を、前記複数の撮像手段のうちから少なくとも1つ選択する選択手段、
前記選択手段により選択された撮像手段が撮像した動画像のうち前記観察者が前記観察記録を入力したタイミングに対応するタイミングの、画像または該画像を含む動画像を、前記観察記録取得手段が取得した観察記録に関連づける手段、
としてコンピュータを機能させるプログラム。
Observation record acquisition means for acquiring an observation record input by an observer in an observation space in which a plurality of imaging means each having a different imaging range are installed
Position specifying means for specifying the position of the observer at a timing corresponding to a timing at which the observer inputs the observation record;
Area specifying means for specifying an observation area in the observation space designated by the observer;
The imaging range includes at least a part of the observation area specified by the area specifying means, and the direction in which the position in the observation area is desired is a position in the observation area from the position specified by the position specifying means. Selecting means for selecting at least one of the plurality of imaging means as the imaging means similar to the direction in which the user desires
The observation record acquisition unit acquires an image or a moving image including the image at a timing corresponding to the timing at which the observer inputs the observation record among the moving images captured by the imaging unit selected by the selection unit. Means associated with the observed records,
As a program that allows the computer to function.
JP2008328308A 2008-12-24 2008-12-24 Information processing apparatus and program Expired - Fee Related JP4737284B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008328308A JP4737284B2 (en) 2008-12-24 2008-12-24 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008328308A JP4737284B2 (en) 2008-12-24 2008-12-24 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2010154085A true JP2010154085A (en) 2010-07-08
JP4737284B2 JP4737284B2 (en) 2011-07-27

Family

ID=42572679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008328308A Expired - Fee Related JP4737284B2 (en) 2008-12-24 2008-12-24 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP4737284B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120022A (en) * 2009-12-03 2011-06-16 Nec Corp Sensing information sharing system, sensing information sharing method, and program
KR20200073669A (en) * 2018-12-14 2020-06-24 이정무 Method for managing image information, Apparatus for managing image information and Computer program for the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276397A (en) * 1997-03-31 1998-10-13 Sanyo Electric Co Ltd Digital still camera
JP2000333161A (en) * 1999-05-21 2000-11-30 Hitachi Denshi Ltd Monitoring cctv system
JP2007213224A (en) * 2006-02-08 2007-08-23 Sogo Keibi Hosho Co Ltd Monitoring system and monitoring method
JP2007293818A (en) * 2006-03-28 2007-11-08 Fujifilm Corp Image-recording device, image-recording method, and image-recording program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10276397A (en) * 1997-03-31 1998-10-13 Sanyo Electric Co Ltd Digital still camera
JP2000333161A (en) * 1999-05-21 2000-11-30 Hitachi Denshi Ltd Monitoring cctv system
JP2007213224A (en) * 2006-02-08 2007-08-23 Sogo Keibi Hosho Co Ltd Monitoring system and monitoring method
JP2007293818A (en) * 2006-03-28 2007-11-08 Fujifilm Corp Image-recording device, image-recording method, and image-recording program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120022A (en) * 2009-12-03 2011-06-16 Nec Corp Sensing information sharing system, sensing information sharing method, and program
KR20200073669A (en) * 2018-12-14 2020-06-24 이정무 Method for managing image information, Apparatus for managing image information and Computer program for the same
KR102172943B1 (en) * 2018-12-14 2020-11-02 이정무 Method for managing image information, Apparatus for managing image information and Computer program for the same

Also Published As

Publication number Publication date
JP4737284B2 (en) 2011-07-27

Similar Documents

Publication Publication Date Title
US10339383B2 (en) Method and system for providing augmented reality contents by using user editing image
CN103189827B (en) Object display apparatus and object displaying method
US20180276896A1 (en) System and method for augmented reality annotations
US10074216B2 (en) Information processing to display information based on position of the real object in the image
JP5294818B2 (en) Information processing apparatus and information processing method
TW201322178A (en) System and method for augmented reality
JP5612929B2 (en) GUIDANCE INFORMATION PROVIDING SYSTEM, CONTROL DEVICE, GUIDANCE INFORMATION PROVIDING METHOD, AND PROGRAM
JP2012063890A (en) Annotation device
JP2010067062A (en) Input system and method
JP6739847B2 (en) Image display control device and image display control program
JP4737284B2 (en) Information processing apparatus and program
JP6915611B2 (en) Information processing equipment, information processing methods and programs
JP2013041357A5 (en)
JP2013041357A (en) Information processing device and information processing method
JP5621464B2 (en) Motion detection device, recording system, and program
JP7015130B2 (en) Data processing equipment
JP2013195524A (en) Image display device
JP2022171739A (en) Generation device, generation method and program
JP3164748U (en) Information processing device
JP2015194954A (en) Display controller and control program for display controller
JP2006338368A5 (en)
JP2021015527A (en) Makeup evaluation apparatus, makeup evaluation system, and makeup evaluation method
CN104915124B (en) A kind of information processing method and electronic equipment
TW202008209A (en) Position determination methods and systems for vehicle, and related computer program prodcuts
JP4380376B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110418

R150 Certificate of patent or registration of utility model

Ref document number: 4737284

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees