JP2010154085A - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP2010154085A JP2010154085A JP2008328308A JP2008328308A JP2010154085A JP 2010154085 A JP2010154085 A JP 2010154085A JP 2008328308 A JP2008328308 A JP 2008328308A JP 2008328308 A JP2008328308 A JP 2008328308A JP 2010154085 A JP2010154085 A JP 2010154085A
- Authority
- JP
- Japan
- Prior art keywords
- observation
- observer
- image
- specifying
- observed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
筆記情報と、画像情報又は映像情報と、を併用して、観察者が観察の記録を残すことが行われている。なお、下記特許文献1には、動きが検出されたとき画像を取得する監視カメラシステムが開示されている。
本発明の目的は、複数の撮像手段により撮像された動画像のうち、観察者が観察した光景により近い、画像または映像を、観察記録に関連付けることができる情報処理装置、及びプログラムを提供することである。 An object of the present invention is to provide an information processing apparatus and a program capable of associating an image or video that is closer to a scene observed by an observer, among moving images captured by a plurality of imaging units, with an observation record. It is.
上記課題を解決するために、請求項1の情報処理装置は、それぞれが異なる撮像範囲を有する複数の撮像手段が設置された観察空間で観察者が入力した観察記録を取得する観察記録取得手段と、前記観察者が前記観察記録を入力したタイミングに対応するタイミングにおける、前記観察者の位置を特定する位置特定手段と、前記観察者が指定した前記観察空間内の観察領域を特定する領域特定手段と、前記撮像範囲が前記領域特定手段により特定された観察領域の少なくとも一部を含み、かつ、前記観察領域内の位置を望む方向が、前記位置特定手段により特定された位置から前記観察領域内の位置を望む方向と類似する前記撮像手段を、前記複数の撮像手段のうちから少なくとも1つ選択する選択手段と、前記選択手段により選択された撮像手段が撮像した動画像のうち前記観察者が前記観察記録を入力したタイミングに対応するタイミングの、画像または該画像を含む動画像を、前記観察記録取得手段が取得した観察記録に関連づける手段とを含むことを特徴とする。
In order to solve the above problems, an information processing apparatus according to
また、請求項2の情報処理装置は、請求項1の情報処理装置において、前記観察者が観察した被観察者の識別情報が入力された場合に、該識別情報を、前記観察記録取得手段が取得した観察記録に関連づける手段と、前記観察者が観察した被観察者の特徴が入力された場合に、該特徴を有する人物を含む画像を、前記選択手段により選択された撮像手段が撮像した動画像から抽出する画像抽出手段と、前記画像抽出手段が抽出した画像に含まれる人物の識別情報を取得する識別情報取得手段と、前記識別情報取得手段により取得された識別情報を、前記観察記録取得手段が取得した観察記録に関連づける手段と、をさらに含むことを特徴とする。
The information processing apparatus according to
また、請求項3に記載のプログラムは、それぞれが異なる撮像範囲を有する複数の撮像手段が設置された観察空間で観察者が入力した観察記録を取得する観察記録取得手段、前記観察者が前記観察記録を入力したタイミングに対応するタイミングにおける、前記観察者の位置を特定する位置特定手段、前記観察者が指定した前記観察空間内の観察領域を特定する領域特定手段、前記撮像範囲が前記領域特定手段により特定された観察領域の少なくとも一部を含み、かつ、前記観察領域内の位置を望む方向が、前記位置特定手段により特定された位置から前記観察領域内の位置を望む方向と類似する前記撮像手段を、前記複数の撮像手段のうちから少なくとも1つ選択する選択手段、前記選択手段により選択された撮像手段が撮像した動画像のうち前記観察者が前記観察記録を入力したタイミングに対応するタイミングの、画像または該画像を含む動画像を、前記観察記録取得手段が取得した観察記録に関連づける手段、としてコンピュータを機能させることを特徴とする。
The program according to
なお、上記プログラムは、インターネットなどの通信ネットワークを介して提供されてもよいし、フレキシブルディスク、CD−ROM、DVD−ROMなどのコンピュータ読み取り可能な各種情報記録媒体に格納されて提供されてもよい。 The program may be provided via a communication network such as the Internet, or may be provided by being stored in various computer-readable information recording media such as a flexible disk, a CD-ROM, and a DVD-ROM. .
また、上記プログラムは、コンピュータ読み取り可能な情報記録媒体に記憶されてもよい。情報記録媒体としては、例えば、磁気テープ、フレキシブルディスク、ハードディスク、CD−ROM、MO、MD、DVD−ROM、ICカードなどを用いることができる。 The program may be stored in a computer-readable information recording medium. As the information recording medium, for example, magnetic tape, flexible disk, hard disk, CD-ROM, MO, MD, DVD-ROM, IC card, etc. can be used.
請求項1及び請求項3の発明によれば、複数の撮像手段により撮像された動画像のうち、観察者が観察した光景により近い、画像または映像を、観察記録に関連付けることができる。 According to the first and third aspects of the present invention, it is possible to associate an image or video closer to the scene observed by the observer among the moving images picked up by the plurality of image pickup means with the observation record.
請求項2の発明によれば、観察者の知らない対象が観察空間に存在していても、観察の精度の低下が抑止されるようになる。 According to the second aspect of the present invention, even if an object that the observer does not know exists in the observation space, a decrease in observation accuracy is suppressed.
[1.観察空間について]
本発明の実施形態について図面を参照しながら説明する。図1は、観察者2がフィールドワークを行う観察空間4の見取り図の一例である。観察空間4は、例えば、企業のオフィスである。図1では、観察空間に配置されている机や椅子等を省略している。
[1. About observation space]
Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is an example of a sketch of an
図1に示すように、観察空間4は、観察者2と、ビデオカメラ6a、ビデオカメラ6b、及びビデオカメラ6cの計3台のビデオカメラと、複数の被観察者8と、を含む。観察者2は、観察対象期間中、観察空間4内を動き回り、被観察者8を観察する。各ビデオカメラは、観察対象期間中の観察空間4内の様子を撮像し、観察対象期間中に撮像した映像を示す情報(以下、映像情報)を記憶する。なお、各ビデオカメラは、観察空間4の所定位置に設置され、図1の矢印で示されるように、それぞれ異なる撮像範囲を有している。被観察者8は、例えば、観察空間4で働いている従業員である。以下、ビデオカメラ6a、ビデオカメラ6b、及びビデオカメラ6cを区別しない場合、これらをビデオカメラ6と記載する。
As shown in FIG. 1, the
また、観察空間4には仮想的なブロックが複数設定されている。点線で区画された領域が、各ブロックを表している。各ブロックは、その行列番号により特定される。例えば、観察者2を含むブロックは、(3,6)と表される。
A plurality of virtual blocks are set in the
[2.観察方法について]
観察者2は、発光機器を保持したまま、観察空間4内を移動する。また、観察者2は、携帯型コンピュータを保持したまま、観察空間4内を移動する。携帯型コンピュータのタッチパネルには、図2に示す観察シートが表示される。観察者2は、観察対象期間中、タッチパネルに表示された観察シートに情報を入力する。図2(a)は、観察者2により情報が入力される前の観察シートの一例を示し、図2(b)は、観察者2により情報が入力された後の観察シートの一例を示す。
[2. About observation method]
The
図2に示すように、観察シートは、被観察者フィールドと、メモフィールドと、場所フィールドと、を含む。観察者2は、観察者2の観察対象となっている被観察者8の名前(例えば、田中)を入力する場合、図2(b)に示すように、その被観察者8の名前の左に位置するチェックボックスにチェックマークを記載する。なお、観察者2は、観察対象となっている被観察者8の名前を知らない場合がある。この場合、観察者2は、観察対象となっている被観察者8の特徴を入力することができる。観察対象となっている被観察者8の特徴を入力する場合、観察者2は、チェックボックスにチェックマークを記載した上で、そのチェックボックスの右の余白に、観察対象となっている被観察者8の特徴を示す文言を記載する。図2(b)では、被観察者8の特徴として「帽子」と記載されている。
As shown in FIG. 2, the observation sheet includes an observer field, a memo field, and a location field. When the
また、観察者2は、観察内容に関するメモ(以下、観察メモ)を入力する場合、メモフィールドに、観察メモを記載する。例えば、観察者2は、図2(b)に示すように、メモフィールドに観察メモである文章を記載する。
Moreover, when the
また、観察者2は、観察対象となっている領域(以下、観察領域)を指定する場合、観察者2は、図2(b)に示すように、場所フィールドに表示された観察空間4の見取図の縮小図(以下、縮小見取図)上に観察領域を囲む軌跡を記載することにより、観察領域を指定する。
In addition, when the
なお、携帯型コンピュータでは、各フィールドに記載された情報と、各フィールドに情報が記載された時刻と、を含む情報(以下、観察情報)が記憶される。 In the portable computer, information including information described in each field and the time when the information is described in each field (hereinafter referred to as observation information) is stored.
観察対象期間が終了すると、後述の情報処理装置10の情報処理により、図3に示す観察ノートが生成される。
When the observation target period ends, an observation note shown in FIG. 3 is generated by information processing of the
図3は、観察ノートの一例を示す図である。同図に示すように、観察ノートは、時刻フィールドと、被観察者フィールドと、メモフィールドと、場所フィールドと、スナップショットフィールドと、を含む。 FIG. 3 is a diagram illustrating an example of an observation note. As shown in the figure, the observation note includes a time field, an observer field, a memo field, a location field, and a snapshot field.
[3.情報処理装置について]
以下、情報処理装置10よって行われる、観察ノートを生成するための処理について説明する。
[3. About Information Processing Device]
Hereinafter, processing for generating an observation note performed by the
[ハードウェア構成]
図4は、情報処理装置10のハードウェア構成の一例を示す図である。同図に示すように、情報処理装置10は、制御部12と、主記憶部14と、補助記憶部16と、操作部18と、表示部20と、を含む公知のコンピュータシステムである。各部は、バス22によりデータ授受可能に接続される。なお、情報処理装置10は、図示しない通信インタフェースやスピーカ等も含む。
[Hardware configuration]
FIG. 4 is a diagram illustrating an example of a hardware configuration of the
制御部12は例えばマイクロプロセッサである。制御部12は、主記憶部14に記憶されるプログラムに従って情報処理を実行する。
The
主記憶部14は、例えばRAMである。主記憶部14には上記プログラムが格納される。また主記憶部14には情報処理の過程で必要となる各種データが格納される。
The
操作部18は、ユーザが操作入力を行うためのユーザインタフェースである。操作部18は、例えばキーボードやマウスである。表示部20は、例えばディスプレイである。表示部20は、制御部12から出力される情報を表示する。
The
補助記憶部16は例えばハードディスクである。補助記憶部18には各種データが格納される。本実施形態の場合、例えば、以下に示すデータが格納される。
1.各ビデオカメラ6に記憶されている映像情報
2.携帯型コンピュータに記憶されている観察情報
3.人物データベース
4.撮像範囲テーブル
The
1. 1. Video information stored in each
本実施形態の場合、映像情報は、観察対象期間終了後、各ビデオカメラ6から転送されて、補助記憶部16に格納される。また、観察情報も、観察対象期間終了後、携帯型コンピュータから転送されて、補助記憶部16に格納される。人物データベース、及び撮像範囲テーブルは、補助記憶部18に予め格納される。
In the case of the present embodiment, the video information is transferred from each
図5は、人物データベースの一例を示す図である。人物データベースは、観察空間4で働いている従業員の名前の各々と、その従業員の画像と、を対応付けてなるテーブルである。本実施形態の場合、このテーブルは、名前フィールドと、画像フィールドと、を含む。名前フィールドには、従業員の名前が格納される。また、画像フィールドには、従業員の画像が格納される。
FIG. 5 is a diagram illustrating an example of a person database. The person database is a table in which each name of an employee working in the
図6は、撮像範囲テーブルを示す図である。撮像範囲テーブルは、各ビデオカメラ6と、その撮像範囲と、を関連づけてなるテーブルである。本実施形態の場合、撮像範囲テーブルは、ビデオカメラフィールドと、撮像範囲フィールドと、を含む。ビデオカメラフィールドには、各ビデオカメラ6のIDが格納される。また、撮像範囲フィールドには、各ビデオカメラ6の撮像範囲を示す情報が格納される。ここでは、各ビデオカメラ6の撮像範囲に含まれるブロックの特定情報が格納される。
FIG. 6 is a diagram illustrating an imaging range table. The imaging range table is a table in which each
[情報処理装置で実行される処理]
図7は、情報処理装置10で実行される処理の一例を示すフローチャート図である。この処理は、制御部12が主記憶部14に記憶されるプログラムに従って動作することにより実行される。本実施形態の場合、この処理は、情報処理装置10のユーザが所定操作を行った場合に実行される。
[Processes executed by the information processing device]
FIG. 7 is a flowchart illustrating an example of processing executed by the
制御部12は、観察者2により観察メモが入力された時刻Tを特定する(S101)。本実施形態の場合、制御部12は、上記観察情報を参照して、観察メモが観察シートのメモフィールドに記載された時刻を、時刻Tとして特定する。
The
そして、制御部12は、図3に示すように、観察ノートの時刻フィールドに時刻Tを挿入する(S102)。
And the
また、制御部12は、観察者2により指定された観察領域を特定する(S103)。本実施形態の場合、制御部12は、上記観察情報を参照して、上記縮小見取図上に記載された軌跡により囲まれるブロックを、観察領域として特定する。
In addition, the
そして、制御部12は、図3に示すように、S103のステップで特定した観察領域を、観察ノートの場所フィールドに挿入する(S104)。本実施形態の場合、上記縮小見取図上に記載された軌跡により囲まれるブロックの特定情報を、観察ノートの場所フィールドに挿入する。
Then, as shown in FIG. 3, the
また、制御部12は、観察者2により入力された観察メモを取得する(S105)。本実施形態の場合、制御部12は、上記観察情報を参照し、観察シートのメモフィールドに記載された観察メモを取得する。
Moreover, the
そして、制御部12は、S105のステップで取得した観察メモを、観察ノートのメモフィールドに挿入する(S106)。
Then, the
また、制御部12は、ビデオカメラ6の映像情報から、観察者2が観察メモを入力したときの観察空間4の様子を示す画像(以下、スナップショット画像)を取得する(S107)。
Further, the
本実施形態の場合、制御部12は、図8に示すように、S103のステップで特定された観察領域に基づいて、ビデオカメラ6ごとに評価点Evを算出する(S201)。
In the case of the present embodiment, as shown in FIG. 8, the
具体的には、制御部12は、ビデオカメラ6の評価点Evを、以下の式(1)に従って算出する。
Ev=α1*Co+α2*Si+α3*Di・・・(1)
Specifically, the
Ev = α1 * Co + α2 * Si + α3 * Di (1)
ここで、α1、α2、及びα3は、予め定められた数値である。また、カバー率Coは、ビデオカメラ6の撮像範囲に含まれるブロックの数に対する、観察領域に含まれるブロックの数の割合である。また、距離Diは、例えば、観察領域内の位置(例えば、観察領域の重心位置)からのビデオカメラ6の距離である。
Here, α1, α2, and α3 are predetermined numerical values. The coverage ratio Co is a ratio of the number of blocks included in the observation area to the number of blocks included in the imaging range of the
また、視野類似度Siは、時刻Tにおける観察者2の視線方向Qと、ビデオカメラ6の視線方向Sと、の類似度である。ここでは、視野類似度Siは、時刻Tにおける観察者2の視線方向Qと、ビデオカメラ6の視線方向Sと、がなす角度の余弦である。ここでは、図9に示すように、時刻Tにおける観察者2の位置から観察領域内の位置P(例えば、観察領域の重心位置)を見たときの方向が、時刻Tにおける観察者2の視線方向Qとして用いられ、ビデオカメラ6から位置Pを見たときの方向が、ビデオカメラ6の視線方向Sとして用いられる。従って、時刻Tにおける観察者2の位置と、観察領域と、の位置関係によって、視野類似度Siの値は変化することとなる。なお、制御部12は、時刻Tにおける観察者2の位置を、各ビデオカメラ6が時刻Tで撮像した画像における上記発光機器の位置に基づいて特定する。
The visual field similarity Si is the similarity between the line-of-sight direction Q of the
そして、制御部12は、評価点Evが1〜N(Nは2以下の正の整数)番目に大きいビデオカメラ6を選択する。本実施形態の場合、制御部12は、評価点Evが最も大きいビデオカメラ6を選択する(S202)。S201及びS202に示す処理により、その撮像範囲が観察領域の少なくとも一部を含み、かつ、観察領域内の位置Pを望む方向が、時刻Tにおける観察者2の位置から位置Pを望む方向と類似するビデオカメラ6が選択される。
Then, the
そして、制御部12は、S202のステップで選択したビデオカメラ6の映像情報を参照し、時刻Tで該ビデオカメラ6が撮像した画像をスナップショット画像として取得する(S203)。
Then, the
スナップショット画像を取得すると、制御部12は、図3に示すように、該スナップショット画像を、観察ノートのスナップショットフィールドに挿入する(S108)。その結果、スナップショットが観察メモと関連づけられる。
When the snapshot image is acquired, the
また、制御部12は、観察者2の観察対象となった被観察者8の名前を取得する(S109)。
Moreover, the
本実施形態の場合、制御部12は、S109のステップにおいて、上記観察情報を参照し、チェックマークが記載されたチェックボックスを特定する。そして、制御部12は、チェックマークが記載されたチェックボックスの各々について図10に示す処理を実行することにより、観察者2の観察対象となった被観察者8の名前を特定する。
In the case of the present embodiment, in step S109, the
すなわち、制御部12は、観察情報を参照し、処理対象となっているチェックボックスの右に記載された文言が、人物データベースの名前フィールドに格納されるいずれかの名前と一致するか否かを判定する(S301)。
That is, the
処理対象となっているチェックボックスの右に記載された文言が、人物データベースの名前フィールドに格納されるいずれかの名前と一致する場合(S301のY)、処理対象となっているチェックボックスの右に記載された名前を、観察者2の観察対象となった被観察者8の名前として取得する(S302)。 If the wording to the right of the check box to be processed matches one of the names stored in the name field of the person database (Y in S301), the right of the check box to be processed Is acquired as the name of the person to be observed 8 who became the observation object of the observer 2 (S302).
一方、処理対象となっているチェックボックスの右に記載された文言が、人物データベースの名前フィールドに格納されるいずれの名前にも一致しない場合(S301のN)、すなわち、処理対象となっているチェックボックスの右に被観察者8の特徴が記載された場合、制御部12は、S107のステップで取得したスナップショット画像から、公知の画像処理技術を用いて、該特徴を有する人物の画像を抽出する(S303)。例えば、制御部12は、処理対象となっているチェックボックスの右に「帽子」と記載されている場合、スナップショットから帽子をかぶっている人物の画像を抽出する。
On the other hand, if the wording to the right of the check box that is the processing target does not match any name stored in the name field of the person database (N in S301), that is, the processing target. When the characteristics of the
そして、制御部12は、S303のステップで抽出した画像を表示部20に表示させる(S304)。S304のステップで表示部20に表示された画像を参照したユーザが該画像に含まれる人物の名前を入力すると、制御部12は、ユーザが入力した名前を、観察者2の観察対象となった被観察者8の名前として取得する(S305)。なお、制御部12は、S303のステップで抽出した画像を人物データベースの画像フィールドに追加記憶したり、ユーザが入力した名前を人物データベースの名前フィールドに追加記憶したりすることも行う。
And the
観察者2の観察対象となった被観察者8の名前を取得すると、制御部12は、図3に示すように、S109のステップで取得した名前を、観察ノートの被観察者フィールドに挿入する(S110)。その結果、観察者2が被観察者8の名前を入力していた場合は、その名前が観察メモに関連づけられる。また、観察者2が被観察者8の特徴を入力していた場合は、その特徴を有する人物の名前が観察メモに関連づけられる。例えば、図3によれば、帽子をかぶっている人物の名前「福田」が観察ノートの被観察者フィールドに挿入されている。
When the name of the person to be observed 8 who is the observation target of the
[機能ブロック]
図11は、情報処理装置10が有する機能のうち、本発明に関連するものを主として示す機能ブロック図である。同図に示すように情報処理装置10は、観察メモ取得部30と、観察領域特定部32と、ビデオカメラ選択部34と、観察ノート生成部36と、を含む。これらの機能は、制御部12が上記プログラムに従って動作することにより実現される。
[Function block]
FIG. 11 is a functional block diagram mainly showing functions related to the present invention among the functions of the
観察メモ取得部30(観察記憶取得手段)は、制御部12を主として実現される。観察メモ取得部30は、観察者2が入力した観察メモを取得する。
The observation memo acquisition unit 30 (observation memory acquisition means) is realized mainly by the
本実施形態の場合、観察メモ取得部30は、上記観察情報を参照し、観察シートのメモフィールドに記載された観察メモを取得する(図7のS105)。なお、観察メモ取得部30は、観察者2により観察メモが入力された時刻Tを特定することも行う(図7のS101)。
In the present embodiment, the observation
観察領域特定部32(領域特定手段)は、制御部12を主として実現される。観察領域特定部32は、観察者2が指定した観察領域を特定する。
The observation area specifying unit 32 (area specifying means) is realized mainly by the
本実施形態の場合、観察領域特定部32は、上記観察情報を参照して、上記縮小見取り図上に記載された軌跡により囲まれるブロックを、観察領域として特定する(図7のS103)。
In the case of the present embodiment, the observation
ビデオカメラ選択部34(選択手段)は、制御部12を主として実現される。ビデオカメラ選択部34は、位置特定部38を含み、ビデオカメラ選択部34は、観察領域特定部32により特定された観察領域に基づいて、3台のビデオカメラ6のうちから少なくとも1台のビデオカメラ6を選択する。
The video camera selection unit 34 (selection means) is realized mainly by the
本実施形態の場合、ビデオカメラ選択部34は、時刻Tにおける観察者2の位置と、観察領域特定部32により特定された観察領域と、の位置関係に基づいてビデオカメラ6を選択する。具体的には、ビデオカメラ選択部34は、各ビデオカメラ6の評価点Evを上記式(1)に従って算出する(図8のS201)。例えば、カバー率Coを算出する場合、ビデオカメラ選択部34は、ビデオカメラ6の撮像範囲に含まれるブロックの数に対する、観察領域特定部32が特定した観察領域に含まれるブロックの数の割合を算出する。また、例えば、距離Diを算出する場合、ビデオカメラ選択部34は、観察領域内の位置(例えば、観察領域の重心位置)からのビデオカメラ6の距離を算出する。
In the case of this embodiment, the video
また、例えば、視野類似度Siを算出する場合、ビデオカメラ選択部34は、時刻Tにおける観察者2の位置から観察領域内の位置P(例えば、観察領域の重心位置)を見たときの方向Qと、ビデオカメラ6から位置Pを見たときの方向Sと、の角度の余弦を算出する。その結果、その撮像範囲が観察領域の少なくとも一部を含み、かつ、観察領域内の位置Pを望む方向が、時刻Tにおける観察者2の位置から位置Pを望む方向と類似するビデオカメラ6が選択される。なお、時刻Tにおける観察者2の位置は、例えば各ビデオカメラ6が時刻Tで撮像した画像における上記発光体の位置に基づいて、位置特定部38が特定する。
For example, when calculating the visual field similarity Si, the video
観察ノート生成部36は、制御部12を主として実現される。観察ノート生成部36は、スナップショット取得部40と、画像抽出部42と、名前取得部44と、を含む。観察ノート生成部36は、観察ノートを生成する。
The
本実施形態の場合、観察ノート生成部36は、観察メモ取得部30により特定された時刻Tを、観察ノートの時刻フィールドに挿入する(図7のS102)。
In this embodiment, the observation
また、観察ノート生成部36は、観察領域特定部32が特定した観察領域を、観察ノートの場所フィールドに挿入する(図7のS104)。
Further, the observation
また、観察ノート生成部36は、観察メモ取得部30が取得した観察メモを、観察ノートのメモフィールドに挿入する(図7のS106)。
Further, the observation
また、観察ノート生成部36は、ビデオカメラ選択部34が選択したビデオカメラ6が観察対象期間中に撮像した映像又は画像を、観察ノートのスナップショットフィールドに挿入することにより、該ビデオカメラ6が観察対象期間中に撮像した映像又は画像を、観察メモ取得部30が取得した観察メモに関連づける。
In addition, the observation
本実施形態の場合、スナップショット取得部40が、ビデオカメラ選択部34が選択したビデオカメラ6の映像情報を参照し、時刻Tで該ビデオカメラ6が撮像した画像をスナップショット画像として取得する(図7のS107及び図8のS203)。そして、観察ノート生成部36は、スナップショット取得部40が取得したスナップショット画像を観察ノートのスナップショットフィールドに挿入する(図7のS108)。
In the case of this embodiment, the
また、観察ノート生成部36は、観察者2の観察対象となった被観察者8の名前を観察ノートの被観察者フィールドに挿入することにより、観察者2の観察対象となった被観察者8の名前を、観察メモ取得部30が取得した観察メモに関連づける。
In addition, the observation
本実施形態の場合、観察ノート生成部36は、上記観察情報を参照し、チェックボックスの右に記載された文言が、人物データベースの名前フィールドに格納されるいずれかの名前と一致する場合、処理対象となっているチェックボックスの右に記載された名前を、観察者2の観察対象となった被観察者8の名前として、観察ノートの被観察者フィールドに挿入する(図10のS301、図10のS302、及び図7のS110)。その結果、観察者2が観察対象期間において観察した被観察者8の名前を入力していた場合、該名前が、観察メモ取得部30が取得した観察メモに関連づけられることとなる。
In the case of the present embodiment, the observation
一方、チェックボックスの右に記載された文言が、人物データベースの名前フィールドに格納されるいずれの名前にも一致しない場合、すなわち、処理対象となっているチェックボックスの右に被観察者8の特徴が記載された場合、画像抽出部42が、ビデオカメラ選択部34が選択したビデオカメラ6の映像情報を参照し、該ビデオカメラ6が観察対象期間中に撮像した映像又は画像(例えば、スナップショット取得部40が取得したスナップショット画像)から、特徴を有する人物の画像を抽出する(図10のS303)。その後、名前取得部44が、画像抽出部42により抽出された画像に含まれる人物の名前を取得すると(図10のS305)、観察ノート生成部36は、名前取得部44に取得された名前を、観察者2の観察対象となった被観察者8の名前として、観察ノートの被観察者フィールドに挿入する(図7のS110)。その結果、観察者2が観察対象期間において観察した被観察者8の特徴を入力していた場合、その特徴を有する人物の名前が、観察メモ取得部30が取得した観察メモに関連づけられることとなる。
On the other hand, if the wording on the right side of the check box does not match any name stored in the name field of the person database, that is, the feature of the
なお、本発明は、以上に説明した実施形態に限定されるものではない。 Note that the present invention is not limited to the embodiment described above.
例えば、評価点Evは、式(1)で表されるものだけに限らない。例えば、Evは、以下、式(2)〜式(4)のいずれかに従って算出されてもよい。
Ev=α1*Co・・・式(2)
Ev=α1*Co+α2*Si・・・式(3)
Ev=α1*Co+α2*Si+α3*Di+α4*P・・・式(4)
ここで、α4は予め定められた数値であり、Pは、ビデオカメラ6が時刻Tで撮像した画像に含まれる、観察者2により指定された被観察者8(チェックボックスにチェックマークが記載された被観察者8)の数である。
For example, the evaluation point Ev is not limited to that represented by the formula (1). For example, Ev may be calculated according to any one of formulas (2) to (4) below.
Ev = α1 * Co Expression (2)
Ev = α1 * Co + α2 * Si Formula (3)
Ev = α1 * Co + α2 * Si + α3 * Di + α4 * P Formula (4)
Here, α4 is a predetermined numerical value, and P is an observed
また、例えば、制御部12は、S203のステップにおいて、ビデオカメラ6が時刻Tで撮像した画像をスナップショット画像として取得する代わりに、ビデオカメラ6が時刻T−ΔTから時刻T+ΔTまでの間に撮像した映像のうちから観察者2により指定された被観察者8の画像を最も多く含む画像を抽出し、抽出した画像をスナップショット画像として取得するようにしてもよい。
Further, for example, in step S203, the
また、例えば、上記実施形態では、観察者2は、携帯型コンピュータのタッチパネルに表示された観察シートにチェックマーク等を記載することで、被観察者8の入力、観察領域の指定等を行ったが、被観察者8の入力方法や観察領域の指定方法はどのような方法であってもよい。例えば、特殊な配列を有するドットパターンが印刷された特別な用紙に観察シートを印刷しておき、この用紙にデジタルペンでチェックマーク等を記載することにより、被観察者8の入力や観察領域の指定を行うようにしてもよい。この場合、デジタルペンに記憶される筆跡情報を観察情報として用いればよい。
Further, for example, in the above-described embodiment, the
2 観察者、4 観察空間、6a,6b,6c ビデオカメラ、8 被観察者、10 情報処理装置、12 制御部、14 主記憶部、16 補助記憶部、18 操作部、20 表示部、22 バス、30 観察メモ取得部、32 観察領域特定部、34 ビデオカメラ選択部、36 観察ノート生成部、38 位置特定部、40 スナップショット取得部、42 画像抽出部、44 名前取得部。
2 observers, 4 observation spaces, 6a, 6b, 6c video camera, 8 person to be observed, 10 information processing device, 12 control unit, 14 main storage unit, 16 auxiliary storage unit, 18 operation unit, 20 display unit, 22
Claims (3)
前記観察者が前記観察記録を入力したタイミングに対応するタイミングにおける、前記観察者の位置を特定する位置特定手段と、
前記観察者が指定した前記観察空間内の観察領域を特定する領域特定手段と、
前記撮像範囲が前記領域特定手段により特定された観察領域の少なくとも一部を含み、かつ、前記観察領域内の位置を望む方向が、前記位置特定手段により特定された位置から前記観察領域内の位置を望む方向と類似する前記撮像手段を、前記複数の撮像手段のうちから少なくとも1つ選択する選択手段と、
前記選択手段により選択された撮像手段が撮像した動画像のうち前記観察者が前記観察記録を入力したタイミングに対応するタイミングの、画像または該画像を含む動画像を、前記観察記録取得手段が取得した観察記録に関連づける手段と、
を含むことを特徴とする情報処理装置。 An observation record acquisition means for acquiring an observation record input by an observer in an observation space where a plurality of imaging means each having a different imaging range are installed;
Position specifying means for specifying the position of the observer at a timing corresponding to a timing at which the observer inputs the observation record;
Area specifying means for specifying an observation area in the observation space designated by the observer;
The imaging range includes at least a part of the observation area specified by the area specifying means, and the direction in which the position in the observation area is desired is a position in the observation area from the position specified by the position specifying means. Selecting means for selecting at least one of the plurality of imaging means as the imaging means similar to a desired direction;
The observation record acquisition unit acquires an image or a moving image including the image at a timing corresponding to the timing at which the observer inputs the observation record among the moving images captured by the imaging unit selected by the selection unit. Means associated with the observed records,
An information processing apparatus comprising:
前記観察者が観察した被観察者の特徴が入力された場合に、該特徴を有する人物を含む画像を、前記選択手段により選択された撮像手段が撮像した動画像から抽出する画像抽出手段と、
前記画像抽出手段が抽出した画像に含まれる人物の識別情報を取得する識別情報取得手段と、
前記識別情報取得手段により取得された識別情報を、前記観察記録取得手段が取得した観察記録に関連づける手段と、
をさらに含むことを特徴とする請求項1に記載の情報処理装置。 Means for associating the identification information with the observation record acquired by the observation record acquisition means when the identification information of the observed person observed by the observer is input;
An image extracting means for extracting an image including a person having the feature from the moving image captured by the imaging means selected by the selection means when the characteristics of the observed person observed by the observer are input;
Identification information acquisition means for acquiring identification information of a person included in the image extracted by the image extraction means;
Means for associating the identification information acquired by the identification information acquisition means with the observation record acquired by the observation record acquisition means;
The information processing apparatus according to claim 1, further comprising:
前記観察者が前記観察記録を入力したタイミングに対応するタイミングにおける、前記観察者の位置を特定する位置特定手段、
前記観察者が指定した前記観察空間内の観察領域を特定する領域特定手段、
前記撮像範囲が前記領域特定手段により特定された観察領域の少なくとも一部を含み、かつ、前記観察領域内の位置を望む方向が、前記位置特定手段により特定された位置から前記観察領域内の位置を望む方向と類似する前記撮像手段を、前記複数の撮像手段のうちから少なくとも1つ選択する選択手段、
前記選択手段により選択された撮像手段が撮像した動画像のうち前記観察者が前記観察記録を入力したタイミングに対応するタイミングの、画像または該画像を含む動画像を、前記観察記録取得手段が取得した観察記録に関連づける手段、
としてコンピュータを機能させるプログラム。
Observation record acquisition means for acquiring an observation record input by an observer in an observation space in which a plurality of imaging means each having a different imaging range are installed
Position specifying means for specifying the position of the observer at a timing corresponding to a timing at which the observer inputs the observation record;
Area specifying means for specifying an observation area in the observation space designated by the observer;
The imaging range includes at least a part of the observation area specified by the area specifying means, and the direction in which the position in the observation area is desired is a position in the observation area from the position specified by the position specifying means. Selecting means for selecting at least one of the plurality of imaging means as the imaging means similar to the direction in which the user desires
The observation record acquisition unit acquires an image or a moving image including the image at a timing corresponding to the timing at which the observer inputs the observation record among the moving images captured by the imaging unit selected by the selection unit. Means associated with the observed records,
As a program that allows the computer to function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008328308A JP4737284B2 (en) | 2008-12-24 | 2008-12-24 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008328308A JP4737284B2 (en) | 2008-12-24 | 2008-12-24 | Information processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010154085A true JP2010154085A (en) | 2010-07-08 |
JP4737284B2 JP4737284B2 (en) | 2011-07-27 |
Family
ID=42572679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008328308A Expired - Fee Related JP4737284B2 (en) | 2008-12-24 | 2008-12-24 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4737284B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011120022A (en) * | 2009-12-03 | 2011-06-16 | Nec Corp | Sensing information sharing system, sensing information sharing method, and program |
KR20200073669A (en) * | 2018-12-14 | 2020-06-24 | 이정무 | Method for managing image information, Apparatus for managing image information and Computer program for the same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10276397A (en) * | 1997-03-31 | 1998-10-13 | Sanyo Electric Co Ltd | Digital still camera |
JP2000333161A (en) * | 1999-05-21 | 2000-11-30 | Hitachi Denshi Ltd | Monitoring cctv system |
JP2007213224A (en) * | 2006-02-08 | 2007-08-23 | Sogo Keibi Hosho Co Ltd | Monitoring system and monitoring method |
JP2007293818A (en) * | 2006-03-28 | 2007-11-08 | Fujifilm Corp | Image-recording device, image-recording method, and image-recording program |
-
2008
- 2008-12-24 JP JP2008328308A patent/JP4737284B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10276397A (en) * | 1997-03-31 | 1998-10-13 | Sanyo Electric Co Ltd | Digital still camera |
JP2000333161A (en) * | 1999-05-21 | 2000-11-30 | Hitachi Denshi Ltd | Monitoring cctv system |
JP2007213224A (en) * | 2006-02-08 | 2007-08-23 | Sogo Keibi Hosho Co Ltd | Monitoring system and monitoring method |
JP2007293818A (en) * | 2006-03-28 | 2007-11-08 | Fujifilm Corp | Image-recording device, image-recording method, and image-recording program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011120022A (en) * | 2009-12-03 | 2011-06-16 | Nec Corp | Sensing information sharing system, sensing information sharing method, and program |
KR20200073669A (en) * | 2018-12-14 | 2020-06-24 | 이정무 | Method for managing image information, Apparatus for managing image information and Computer program for the same |
KR102172943B1 (en) * | 2018-12-14 | 2020-11-02 | 이정무 | Method for managing image information, Apparatus for managing image information and Computer program for the same |
Also Published As
Publication number | Publication date |
---|---|
JP4737284B2 (en) | 2011-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10339383B2 (en) | Method and system for providing augmented reality contents by using user editing image | |
CN103189827B (en) | Object display apparatus and object displaying method | |
US20180276896A1 (en) | System and method for augmented reality annotations | |
US10074216B2 (en) | Information processing to display information based on position of the real object in the image | |
JP5294818B2 (en) | Information processing apparatus and information processing method | |
TW201322178A (en) | System and method for augmented reality | |
JP5612929B2 (en) | GUIDANCE INFORMATION PROVIDING SYSTEM, CONTROL DEVICE, GUIDANCE INFORMATION PROVIDING METHOD, AND PROGRAM | |
JP2012063890A (en) | Annotation device | |
JP2010067062A (en) | Input system and method | |
JP6739847B2 (en) | Image display control device and image display control program | |
JP4737284B2 (en) | Information processing apparatus and program | |
JP6915611B2 (en) | Information processing equipment, information processing methods and programs | |
JP2013041357A5 (en) | ||
JP2013041357A (en) | Information processing device and information processing method | |
JP5621464B2 (en) | Motion detection device, recording system, and program | |
JP7015130B2 (en) | Data processing equipment | |
JP2013195524A (en) | Image display device | |
JP2022171739A (en) | Generation device, generation method and program | |
JP3164748U (en) | Information processing device | |
JP2015194954A (en) | Display controller and control program for display controller | |
JP2006338368A5 (en) | ||
JP2021015527A (en) | Makeup evaluation apparatus, makeup evaluation system, and makeup evaluation method | |
CN104915124B (en) | A kind of information processing method and electronic equipment | |
TW202008209A (en) | Position determination methods and systems for vehicle, and related computer program prodcuts | |
JP4380376B2 (en) | Image processing apparatus, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4737284 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140513 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |