JP6669064B2 - 情報提示装置、情報提示システム、情報提示方法、および、プログラム - Google Patents

情報提示装置、情報提示システム、情報提示方法、および、プログラム Download PDF

Info

Publication number
JP6669064B2
JP6669064B2 JP2016529030A JP2016529030A JP6669064B2 JP 6669064 B2 JP6669064 B2 JP 6669064B2 JP 2016529030 A JP2016529030 A JP 2016529030A JP 2016529030 A JP2016529030 A JP 2016529030A JP 6669064 B2 JP6669064 B2 JP 6669064B2
Authority
JP
Japan
Prior art keywords
sensor
camera
situation
signal
situation expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016529030A
Other languages
English (en)
Other versions
JPWO2015194141A1 (ja
Inventor
真澄 石川
真澄 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2015194141A1 publication Critical patent/JPWO2015194141A1/ja
Priority to JP2020030708A priority Critical patent/JP6915712B2/ja
Application granted granted Critical
Publication of JP6669064B2 publication Critical patent/JP6669064B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/185Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
    • G08B29/188Data fusion; cooperative systems, e.g. voting among different detectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Description

本発明は、撮影画像と共に関連情報を提示する技術に関する。
離れて暮らす家族や異なる支社にいる同僚など、離れた場所にいる人に、自分のいる場所の雰囲気を伝えたいことがある。このような場合、自分の周囲を撮影して相手に見せることで、自分の居る空間の雰囲気の一部を伝えることができる。しかし、撮影画像だけでは、空間の雰囲気を完全に伝えることができない。
例えば、撮影画像では、環境音を伝えることができない。この問題を解決する技術の一例として、特許文献1に記載された文字挿入装置がある。この文字挿入装置は、音声付画像から得られる音声データを文字情報に変換し、変換した文字情報を撮影画像の背景領域等に挿入することで、文字付画像を生成する。このようにして、この文字挿入装置は、撮影画像に付随していた発話内容や環境音などを、撮影画像と共に伝えることを可能としている。
また、撮影画像だけでは、被写体の状態や時間変化を一目で理解できない場合がある。例えば、人間は、雑踏の映像を見ると「ゴチャゴチャ」していると感じ、人が大勢いても誰も動いていないオフィス映像を見ると「シーン」としていると感じる。しかし、1枚の撮影画像だけでは、このような状態や時間変化を理解するのは難しい。
この問題を解決する技術の一例として、特許文献2に記載された感性表現語処理装置がある。この感性表現語処理装置は、あらかじめ、感性表現語データベースに、感性情報と感性表現語との対応関係を記憶しておく。感性情報は、撮影画像に表されている場の状況や物体の状態、場の時間的変化や物体の動きを示す情報である。また、感性表現語は、撮影画像を見た人がイメージする場の雰囲気や物体に対する印象を表現する語である。そして、この感性表現語処理装置は、撮影画像を分析して感性情報を算出し、算出した感性情報に対応付けられた感性表現語を選択し、選択した感性表現語を撮影画像に重畳する。このようにして、この感性表現語処理装置は、撮影画像に映されている場や物体の雰囲気および印象を、撮影画像と共に伝えることを可能としている。
特開2003−18462号公報 国際公開第2012/070430号
しかしながら、上述した関連技術には、以下の課題がある。
特許文献1に記載された文字挿入装置は、撮影された映像信号(音声付画像)に含まれる聴覚的情報を文字情報に変換して挿入するため、撮影範囲を含む場における撮影範囲外の状況を十分に伝えることができない。
また、特許文献2に記載された感性表現語処理装置は、撮影された映像信号に含まれる視覚的情報に基づく感性表現語を、映像信号中の画像に重畳するため、撮影範囲を含む場における撮影範囲外の状況を十分に伝えることができない。
本発明は、上述の課題を解決するためになされたもので、撮影画像を提示する際に、撮影範囲外の状況をより十分に伝えることができる技術を提供することを目的とする。
上記目的を達成するため、本発明の情報提示装置は、カメラの画像信号およびセンサからの信号を入力する信号入力手段と、前記センサからの信号に基づいて、信号源の位置を推定する信号源位置推定手段と、
前記センサからの信号に基づいて、前記カメラの撮影範囲外の状況を表現する情報(状況表現)を抽出する状況表現抽出手段と、前記信号源の位置と前記カメラの撮影範囲との位置関係に基づいて、前記画像信号の表す撮影画像上における前記状況表現の表示方法を決定する表示方法決定手段と、前記表示方法に基づき前記状況表現を前記撮影画像に重畳して出力する提示手段と、を備える。
また、本発明の情報提示システムは、カメラと、センサと、上述の情報提示装置と、を備える。
また、本発明の情報提示方法は、カメラの画像信号およびセンサからの信号を入力し、前記センサからの信号に基づいて、信号源の位置を推定し、前記センサからの信号に基づいて、前記カメラの撮影範囲外の状況を表現する情報(状況表現)を抽出し、前記信号源の位置と前記カメラの撮影範囲との位置関係に基づいて、前記画像信号の表す撮影画像上での前記状況表現の表示方法を決定し、前記表示方法に基づき前記状況表現を前記撮影画像に重畳して出力する。
また、本発明の記憶媒体は、カメラの画像信号およびセンサからの信号を入力する信号入力ステップと、前記センサからの信号に基づいて、信号源の位置を推定する信号源位置推定ステップと、前記センサからの信号に基づいて、前記カメラの撮影範囲外の状況を表現する情報(状況表現)を抽出する状況表現抽出ステップと、前記信号源の位置と前記カメラの撮影範囲との位置関係に基づいて、前記画像信号の表す撮影画像上での前記状況表現の表示方法を決定する表示方法決定ステップと、前記表示方法に基づき前記状況表現を前記撮影画像に重畳して出力する提示ステップと、をコンピュータ装置に実行させる情報提示プログラムを記憶している。
本発明は、撮影画像を提示する際に、撮影範囲外の状況をより十分に伝えることができる技術を提供することができる。
本発明の第1の実施の形態としての情報提示システムの構成を示すブロック図である。 本発明の第1の実施の形態としての情報提示システムのハードウェア構成図である。 本発明の第1の実施の形態としての情報提示システムの動作を説明するフローチャートである。 本発明の第2の実施の形態としての情報提示システムの構成を示すブロック図である。 本発明の第2の実施の形態におけるカメラおよびセンサの配置の一例を示す図である。 本発明の第2の実施の形態における撮影範囲外センサDBに格納される情報の一例を示す図である。 本発明の第2の実施の形態におけるカメラとセンサとの位置関係を説明する模式図である。 本発明の第2の実施の形態におけるセンサ位置関係DBに格納される情報の一例を示す図である。 本発明の第2の実施の形態における表示方法の決定手法の一例を説明する模式図である。 本発明の第2の実施の形態における表示方法の決定手法の他の一例を説明する模式図である。 本発明の第2の実施の形態における表示方法の決定手法の他の一例を説明する模式図である。 本発明の第2の実施の形態における表示方法の決定手法の他の一例を説明する模式図である。 本発明の第2の実施の形態における表示方法の決定手法の他の一例を説明する模式図である。 本発明の第2の実施の形態における表示方法の決定手法の他の一例を説明する模式図である。 本発明の第2の実施の形態における状況表現の重畳手法の一例を説明する模式図である。 本発明の第2の実施の形態における状況表現の重畳手法の他の一例を説明する模式図である。 本発明の第2の実施の形態としての情報提示システムの動作を示すフローチャートである。 本発明の第2の実施の形態における状況表現DBに格納される情報の一例を示す図である。 本発明の第2の実施の形態においてセンサにより検出される人物領域の一例を説明する模式図である。 本発明の第2の実施の形態において決定される表示方法の一例を説明する模式図である。 本発明の第2の実施の形態において状況表現が重畳されて提示される撮影画像の一例を模式的に示す図である。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(第1の実施の形態)
本発明の第1の実施の形態としての情報提示システム1の構成を図1に示す。
図1において、情報提示システム1は、情報提示装置10と、カメラ80と、センサ90とを備える。情報提示装置10は、カメラ80およびセンサ90とそれぞれ通信可能に接続される。
カメラ80は、空間を撮影して動画像または静止画像等の画像信号を生成する装置である。カメラ80は、情報提示システム1が観測対象とする空間の少なくとも一部を撮影可能な場所に設置される。
なお、図1には、1つのカメラ80を示しているが、本発明の情報提示システムが備えるカメラの数を限定するものではない。
センサ90は、空間の状況を観測する装置である。空間の状況とは、具体的には、空間自体の状況(例えば、明るさ、温度、湿度等)であってもよい。また、空間の状況とは、空間に存在する対象物(例えば、人、動物、物など)の状態であってもよい。このような空間の状況を観測するセンサ90の具体例としては、例えば、カメラ(カメラ80とは異なるカメラ)、マイク、デプスセンサ、振動センサ、照度計、湿度計、温度計などが挙げられる。また、センサ90は、パンチルトカメラのように、その観測方向が変化するよう構成されていてもよい。また、センサ90は、車、航空機またはロボットに搭載されるセンサのように、その位置が変化するよう構成されていてもよい。
また、センサ90は、観測した信号を、情報提示装置10に対して出力する。例えば、センサ90は、カメラであれば画像信号を出力する。また、例えば、センサ90は、マイク、デプスセンサ、振動センサ、照度計、湿度計、または、温度計であれば、音声信号、深度信号、振動信号、照度信号、湿度信号、または、温度信号を出力する。
また、センサ90は、情報提示システム1が観測対象とする空間の状況を観測可能な場所に設置される。ここで、少なくとも1つのセンサ90は、情報提示システム1が観測対象とする空間のうち、カメラ80の撮影範囲外の状況を観測可能に設置されることが望ましい。以下、カメラ80の撮影範囲外の状況を観測可能に設置されたセンサ90を、撮影範囲外のセンサ90とも記載する。
なお、図1には、1つのセンサ90を示しているが、本発明の情報提示システムが備えるセンサの数や種類数を限定するものではない。
情報提示装置10は、信号入力部11と、信号源位置推定部12と、状況表現抽出部13と、表示方法決定部14と、提示部15とを備える。ここで、情報提示装置10のハードウェア構成の一例を図2に示す。情報提示装置10は、CPU(Central Processing Unit)1001と、RAM(Random Access Memory)1002と、ROM(Read Only Memory)1003と、記憶装置1004と、周辺機器接続インタフェース1005と、表示装置1006とによって構成される。
この場合、信号入力部11は、周辺機器接続インタフェース1005と、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001とによって構成される。また、信号源位置推定部12、状況表現抽出部13、および、表示方法決定部14は、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001によって構成される。また、提示部15は、表示装置1006と、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001とによって構成される。なお、情報提示装置10およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。
信号入力部11は、カメラ80の画像信号およびセンサ90からの信号を入力情報として取得する。例えば、センサ90が全てカメラである場合、信号入力部11は、カメラ80からの画像信号と、各センサ90からの画像信号とを取得する。また、センサ90が、カメラ、マイク、デプスセンサ、振動センサ、照度計、湿度計、および、温度計の組み合わせであるとする。この場合、信号入力部11は、カメラ80からの画像信号と、各センサ90からの画像信号、音声信号、深度信号、振動信号、照度信号、湿度信号、温度信号とを取得する。そして、信号入力部11は、センサ90から取得した信号を、信号源位置推定部12および状況表現抽出部13に供給する。また、信号入力部11は、カメラ80から取得した画像信号を、表示方法決定部14および提示部15に供給してもよい。あるいは、信号入力部11は、カメラ80から取得した画像信号を、一旦、記憶装置1004に格納し、記憶装置1004を経由して表示方法決定部14および提示部15に供給してもよい。
信号源位置推定部12は、センサ90からの信号に基づいて、信号源の位置を推定する。ここで、信号源とは、空間の状況や雰囲気についてその源(要因)となる信号の発生元あるいはセンサ90の観測対象であり、例えば、空間内の音、振動、光、熱、湿気の発生元や、空間の中に存在する静止物体や移動物体である。例えば、信号源位置推定部12は、信号源の位置を、センサ90からの信号の解析によって推定してもよい。また、例えば、信号源位置推定部12は、信号源の位置として、その信号を出力したセンサ90の位置を適用してもよい。
状況表現抽出部13は、センサ90からの信号に基づいて、カメラ80の撮影範囲外の状況を表現する情報(状況表現)を抽出する。例えば、状況表現抽出部13は、カメラ80の撮影範囲外のセンサ90から得られる信号に基づいて、撮影範囲外の状況表現を抽出すればよい。以降、センサ90から得られる信号に基づいて抽出された状況表現を、センサ90の状況表現、(センサ90の)信号源に関する状況表現、または、信号源の状況表現等とも記載する。
ここで、「抽出」とは、センサ90から得られる信号に適合する状況表現を決定し、出力することを言う。また、状況表現は、空間の雰囲気や状況を視覚的に表す情報である。状況表現は、空間の雰囲気や状況が観測者にとって瞬時に理解できるような視覚的情報であることが望ましい。このような状況表現としては、例えば、文字が表現された画像である文字画像、記号が表現された画像である記号画像、アイコン画像、スタンプ画像等を適用してもよい。
例えば、状況表現抽出部13は、センサ90からの信号が照明の点灯を示す場合、状況表現として、照明が点灯したことを示す感性語「ぴかっ」という文字画像を抽出してもよい。その他、状況表現は、空調による温度上昇を示す「ほかほか」、水をこぼしたときの湿度上昇を示す「びしゃ」、人が歩いている様子を示す「スタスタ」、人が話している様子を示す「ペラペラ」等の感性語の文字画像であっても良い。また、状況表現は、悲鳴を表す「キャー」、挨拶を表わす「こんにちは」等の代表的な発言や、「消灯」、「火災」、「悲鳴」、「異常事態」等のように、状況や雰囲気に関する呼称を表す文字画像であってもよい。また、状況表現は、異常事態の発生を示す「!」等の記号画像や、異常事態を表す赤いランプ等の誘目度の高いアイコンであってもよい。その他、状況表現としては、空間の雰囲気や状況を視覚的に表す任意の情報を適用可能である。
表示方法決定部14は、信号源の位置とカメラ80の撮影範囲との位置関係に基づいて、カメラ80の撮影画像上での状況表現の表示方法を決定する。ここで、カメラ80の撮影画像とは、信号入力部11に入力されたカメラ80からの画像信号の表す画像である。例えば、カメラ80から入力される画像信号が静止画像であれば、入力された静止画像が撮影画像として適用される。また、例えば、カメラ80から入力される画像信号が動画像であれば、入力された動画像を構成する1つ以上のフレーム画像が、撮影画像として適用される。
例えば、表示方法決定部14は、状況表現の表示方法として、撮影画像上での表示位置を決定してもよい。具体的には、表示方法決定部14は、カメラ80の撮影範囲に対する信号源の位置の相対的な方向に応じて、その信号源に関する状況表現の表示位置を決定してもよい。その他、表示方法決定部14は、撮影範囲から信号源の位置までの距離に応じて、その信号源に関する状況表現の表示位置を決定してもよい。
提示部15は、表示方法決定部14によって決定された表示方法に基づいて、状況表現を撮影画像に重畳して出力する。例えば、提示部15は、表示方法決定部14によって決定された表示位置に、状況表現を重畳する。そして、提示部15は、状況表現を重畳した撮影画像を、表示装置1006に出力してもよい。また、例えば、提示部15は、状況表現を重畳した撮影画像を、記憶装置1004に出力してもよい。また、例えば、提示部15は、状況表現を重畳した撮影画像を、ネットワークインタフェース(図示せず)等を介して接続された他の装置に対して出力してもよい。
以上のように構成された情報提示システム1の動作について、図3を参照して説明する。
まず、信号入力部11は、カメラ80からの画像信号およびセンサ90からの信号を入力として取得する(ステップA1)。
次に、信号源位置推定部12は、センサ90からの信号に基づいて、信号源の位置を推定する(ステップA2)。例えば、前述のように、信号源位置推定部12は、センサ90の位置を信号源の位置として適用してもよいし、信号を解析することにより信号源の位置を推定してもよい。
次に、状況表現抽出部13は、センサ90からの信号に基づいて、カメラ80の撮影範囲外の状況表現を抽出する(ステップA3)。例えば、前述のように、状況表現抽出部13は、カメラ80の撮影範囲外のセンサ90から得られる信号に基づいて、撮影範囲外の状況表現を抽出すればよい。
次に、表示方法決定部14は、ステップA3で抽出された状況表現について、カメラ80の撮影画像上での表示方法を決定する(ステップA4)。例えば、前述のように、表示方法決定部14は、カメラ80の撮影範囲に対する信号源の位置の相対的な方向や距離に応じて、撮影画像上での状況表現の表示位置を決定してもよい。
次に、提示部15は、ステップA1で入力されたカメラ80の画像信号が示す撮影画像上に、ステップA3で抽出された各状況表現を、ステップA4で決定された表示方法に基づいて重畳し出力する(ステップA5)。
以上で、情報提示システム1は、動作を終了する。
次に、本発明の第1の実施の形態の効果について述べる。
本発明の第1の実施の形態としての情報提示システムは、撮影画像を提示する際に、撮影範囲外の状況をより十分に伝えることができる。
その理由は、信号入力部が、カメラの画像信号およびセンサからの信号を入力として取得し、信号源位置推定部が、センサからの信号に基づいて信号源の位置を推定し、状況表現抽出部が、センサからの信号に基づいて撮影範囲外の状況表現を抽出するからである。そして、表示方法決定部が、信号源の位置と撮影範囲との位置関係に基づいて、撮影画像上での表示方法を決定し、提示部が、決定された表示方法にしたがって、状況表現を撮影画像に重畳して出力するからである。
このように、本実施の形態は、撮影画像上に、撮影範囲と信号源の位置との位置関係に基づく表示方法で、撮影範囲外の状況表現を重畳するので、撮影範囲外で発生した状況およびその概略の発生位置を、撮影画像とともに伝えることができる。
(第2の実施の形態)
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第1の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
本発明の第2の実施の形態としての情報提示システム2の構成を図4に示す。
図4において、情報提示システム2は、本発明の第1の実施の形態としての情報提示システム1に対して、情報提示装置10に替えて情報提示装置20を備える点が異なる。情報提示装置20は、カメラ80およびセンサ90とそれぞれ通信可能に接続される。なお、図4には、カメラ80およびセンサ90を1つずつ示しているが、本発明の情報提示システムが備えるカメラの数、センサの数およびセンサの種類数を限定するものではない。
情報提示装置20は、本発明の第1の実施の形態としての情報提示装置10に対して、信号源位置推定部12に替えて信号源位置推定部22と、状況表現抽出部13に替えて状況表現抽出部23とを備える点が異なる。また、情報提示装置20は、さらに、情報提示装置10に対して、表示方法決定部14に替えて表示方法決定部24と、提示部15に替えて提示部25とを備える点が異なる。
信号源位置推定部22は、本発明の第1の実施の形態における信号源位置推定部12と略同様に、センサ90からの信号に基づいて信号源の位置を推定する。特に、本実施の形態では、信号源位置推定部22は、信号源が音、移動物体、人物である場合についてそれぞれ次のようにして信号源の位置を推定する。
信号源が音である場合、信号源位置推定部22は、次のようにして信号源の位置を推定可能である。ここでは、センサ90として、複数のマイクが設置されているとする。この場合、信号源位置推定部22は、複数のマイクからそれぞれ取得された音信号について、その周波数成分およびエネルギーを比較する。そして、信号源位置推定部22は、同種の周波数成分から成る音について最もエネルギーが大きい音信号を捉えたマイク(センサ90)の位置を、音の信号源の位置としてもよい。
また、信号源が移動物体である場合、信号源位置推定部22は、次のようにして信号源の位置を推定可能である。ここでは、センサ90として、カメラおよびデプスセンサが、略同一の位置に略同一の観測方向で設置されているとする。この場合、信号源位置推定部22は、カメラおよびデプスセンサから得られる画像信号および深度信号に基づいて、3次元空間における点群データを一定時間観測する。そして、信号源位置推定部22は、色やエッジ等の画像特徴をもとに区切られた画像領域上の点群(点群グループ)について位置移動を検知する。そして、信号源位置推定部22は、カメラおよびデプスセンサを基準にした座標系において、位置移動を検知した点群グループの中心座標を、移動物体の位置として推定してもよい。
また、信号源が人物である場合、信号源位置推定部22は、次のようにして信号源の位置を推定可能である。ここでは、センサ90として、カメラが設置されているとする。この場合、信号源位置推定部22は、センサ90としてのカメラからの画像信号に基づいて人物領域の検出を行う。そして、信号源位置推定部22は、センサ90としてのカメラから得られる画像上での位置と空間上での位置とを予め対応づけたテーブルもしくは変換関数を用いて、信号源である人物の位置を推定してもよい。また、この場合、信号源位置推定部22は、人物領域の検出手法として、予め作成しておいた空間画像と異なる領域を人物領域として検出する背景差分法を用いてもよい。あるいは、信号源位置推定部22は、人物領域の検出手法として、予め作成した人物領域のテンプレート画像で入力画像を走査して、類似する画像特性を持った領域を人物領域として検出するテンプレートマッチングを用いてもよい。なお、人物領域の検出処理には、これらに限らず、その他の公知の技術を採用してもよい。
このように、信号源が音、移動物体、人物である場合についてそれぞれ信号源の位置の推定手法の一例を挙げたが、信号源位置推定部22は、これらの各種類の信号源について、他の技術を用いて信号源の位置を推定してもよい。また、信号源位置推定部22は、上述した種類以外の信号源についても、各種公知の技術を用いて信号源の位置を推定すればよい。
また、信号源位置推定部22は、センサ90の観測方向または位置が変化する場合、観測方向や位置の変化を考慮して、信号源の位置を推定する。この場合、センサ90には、予め位置検出センサまたは方向検出センサが搭載されていてもよい。位置検出センサは、GPS(Global Positioning System)であってもよいし、位置を検出可能な他のセンサであってもよい。また、方向検出センサは、ジャイロセンサであってもよいし、方向を検出可能な他のセンサであってもよい。そして、信号源位置推定部22は、位置検出センサまたは方向検出センサから得られる情報に基づいて、世界座標系におけるセンサの位置や観測方向を特定し、特定した位置や観測方向の情報を用いて、信号源の位置を推定してもよい。
状況表現抽出部23は、センサ90からの信号について、状況表現DB(database)と撮影範囲外センサDBとを用いて、カメラ80の撮影範囲外の状況表現を抽出する。さらに、状況表現抽出部23は、カメラ80の撮影範囲内の状況表現を抽出してもよい。
ここで、状況表現DBは、センサ90から得られうる信号に関する情報に、状況表現を対応付けた情報を格納している。状況表現DBは、あらかじめ用意され、記憶装置1004等に記憶されている。センサ90から得られうる信号に関する情報とは、センサ90から得られうる信号の特徴量に関する条件であってもよい。また、センサ90から得られうる信号に関する情報とは、センサ90から得られうる信号またはその特徴量の時間変化に関する条件であってもよい。
また、状況表現DBは、複数のセンサ90からの信号を組み合わせた条件に対応させて、状況表現を格納していてもよい。この場合、状況表現抽出部23は、複数のセンサ90からそれぞれ入力される信号の組み合わせが満たす条件について対応付けられた状況表現を抽出すればよい。例えば、状況表現抽出部23は、温度計からの温度信号および照度計からの照度信号の組み合わせが、温度および照度が共に上昇したことを示す条件に合致する場合に、火災を示す状況表現を抽出可能となる。また、状況表現抽出部23は、マイクからの音声信号およびセンサ90としてのカメラからの画像信号の組み合わせが、一定の音量以上の声かつ一定数以上の人物の移動を示す条件に合致する場合に、事件発生を示す状況表現を抽出可能となる。
撮影範囲外センサDBは、カメラ80にとって、センサ90がその撮影範囲外のセンサ90であるか否かを表す情報を格納する。なお、撮影範囲外のセンサ90としては、その観測領域内にカメラ80の撮影範囲に含まれない領域があるセンサ90を定義してもよい。この場合、センサ90の設置位置がカメラ80の撮影範囲内であるか撮影範囲外であるかに関わらず、撮影範囲外のセンサ90が定義される。
例えば、情報提示システム2が複数のカメラ80および複数のセンサ90を備える場合、撮影範囲外センサDBは、各カメラ80について、各センサ90が撮影範囲外のセンサ90であるか否かを表す情報を格納してもよい。また、情報提示システム2が複数のカメラ80を備える場合、各カメラ80を本実施の形態のカメラ80として適用し、各カメラ80について他のカメラ80を、本実施の形態のセンサ90として適用可能である。そして、この場合、撮影範囲外センサDBは、各カメラ80について他のカメラ80が撮影範囲外のセンサ90であるか否かを表す情報を格納しておけばよい。
例えば、情報提示システム2が、図5に示すように、その観測空間に、3台のカメラ1〜3、3個のマイク1〜3、および、2個の温度計1〜2を備えているとする。なお、図5は、オフィス内の机の配置図を表している。図5において、各矩形は机を表し、矩形の間の空間は人が通ることのできる通路を表している。
この場合、撮影範囲外センサDBは、図6のような情報を格納してもよい。図6において、例えば、1行目は、カメラ2〜3、マイク1〜3、温度計2は、カメラ1の撮影範囲外のセンサ90であり、温度計1は、カメラ1の撮影範囲外のセンサ90ではない(撮影範囲内のセンサ90である)ことを示している。このように、撮影範囲外センサDBは、各カメラ80について、撮影範囲外のセンサ90に「○」を表す情報を格納し、撮影範囲内のセンサ90に「×」を表す情報を格納する形式であってもよい。このような撮影範囲外センサDBを参照することにより、状況表現抽出部23は、あるカメラ80にとっての撮影範囲外のセンサ90を特定し、特定したセンサ90からの信号を用いて、そのカメラ80にとっての撮影範囲外の状況表現を抽出すればよい。なお、撮影範囲外センサDBは、図6のような形式に限らず、他の形式で情報を格納してもよい。
また、センサ90の位置または観測方向が変化する場合、状況表現抽出部23は、撮影範囲外センサDBを適宜更新すればよい。例えば、センサ90に上述のように位置検出センサや方向検出センサが搭載される場合、状況表現抽出部23は、センサ90からの信号とともに位置検出センサや方向検出センサの情報を取得する。そして、状況表現抽出部23は、位置検出センサや方向検出センサの情報に基づき算出されるセンサ90の観測領域に、カメラ80の撮影範囲内に含まれない領域があるか否かに基づいて、撮影範囲外センサDBを更新すればよい。
また、状況表現抽出部23は、前述のように、カメラ80の撮影範囲外の状況表現を抽出することに加えて、さらに、カメラ80の撮影範囲内の状況表現を抽出してもよい。この場合、状況表現抽出部23は、カメラ80にとって撮影範囲内としてあらかじめ定められたセンサ90から信号入力部11に入力された信号について、状況表現DBから対応する状況表現を抽出し、カメラ80の撮影範囲内の状況表現としてもよい。なお、状況表現抽出部23は、カメラ80にとって撮影範囲内のセンサ90を、撮影範囲外センサDBを参照することにより特定可能である。
表示方法決定部24は、信号源の位置とカメラ80の撮影範囲との位置関係に基づいて、カメラ80の撮影画像上での状況表現の表示方法を決定する。このとき、表示方法決定部24は、本発明の第1の実施の形態における表示方法決定部14と同様に、撮影画像上での状況表現の表示位置を決定することに加えて、以下のように詳細な表示方法を決定する。
例えば、表示方法決定部24は、撮影画像上での状況表現の形状またはサイズを決定してもよい。ここで、形状とは、例えば、状況表現としての文字画像の囲み枠の形状や、文字画像そのものを変形させる形状等であってもよい。また、表示方法決定部24は、表示方法として、撮影画像上に状況表現を重畳する際の透過率を決定してもよい。また、表示方法決定部24は、表示方法として、撮影画像上での状況表現の動きを決定してもよい。ここで、状況表現の動きとは、状況表現の表示方法の時間的な変化(点滅、移動、その変化の速度等)をいうものとする。なお、状況表現の動きは、点滅、移動、その変化の速度に限らず、撮影画像上で表現可能なその他の動きであってもよい。また、表示方法決定部24は、表示方法として、カメラ80の位置を起点とした信号源の方向を示すための吹き出しや効果線を、状況表現に付随させて重畳するか否かを決定してもよい。
また、表示方法決定部24は、信号源の移動速度や移動方向、または、信号源の重要度(観測者にとっての興味度や緊急度)を考慮して、状況表現の表示方法を決定してもよい。また、表示方法決定部24は、ある状況表現の表示領域の少なくとも一部が他の状況表現の表示領域に重なる場合には、それらの状況表現の撮影画像上での重なり順(前景/背景の順序)を決定してもよい。例えば、表示方法決定部24は、各状況表現が抽出される元となったセンサ90とカメラ80との距離に応じて、重なり順を決定してもよい。あるいは、表示方法決定部24は、各状況表現にあらかじめ設定された重要度、または、各状況表現の抽出の元となったセンサ90にあらかじめ設定された重要度に基づいて、それらの状況表現の重なり順を決定してもよい。
このように、表示方法決定部24は、撮影範囲外での信号源の位置およびその信号源に起因する空間の状況や雰囲気を、観測者に伝えることが可能な表示方法を決定すればよい。
また、表示方法決定部24は、センサ位置関係DBを用いて、上述のような表示方法を決定してもよい。センサ位置関係DBは、カメラ80の撮影範囲およびセンサ90の位置との位置関係を表す情報を格納する。このようなセンサ位置関係DBは、あらかじめ用意され、記憶装置1004等に記憶される。なお、センサ位置関係DBに格納される位置関係は、予め算出もしくは計測されているものとする。
例えば、センサ位置関係DBは、カメラ80を基準とする座標系におけるセンサ90の位置座標を格納していてもよい。あるいは、センサ位置関係DBは、カメラ80を基準とする座標系における、センサ90の観測領域に含まれる任意の点の位置座標を格納していてもよい。例えば、センサ90がカメラである場合、センサ位置関係DBは、カメラ80を基準とする座標系における、センサ90であるカメラの光軸上の任意の点の位置座標を格納していてもよい。なお、カメラ80を基準とする座標系は、カメラ80の撮影画像上での位置を表す二次元座標であってもよい。以下では、カメラの撮影画像上での位置を表す二次元座標を、カメラ画像座標とも記載する。
例えば、図5に示したカメラ2について、そのカメラ画像座標系において他のセンサ90の位置座標が、図7のように表されるとする。この場合、センサ位置関係DBは、図8のような情報を格納する。
もし、信号源の位置としてセンサ90の位置が適用されている場合、表示方法決定部24は、センサ位置関係DBを参照し、カメラ80を基準とする座標系におけるそのセンサ90の位置座標を用いて、表示方法を決定すればよい。また、もし、信号源の位置として、センサ90の位置を基準とする信号源の位置が推定されている場合、表示方法決定部24は、次のようにして信号源の位置と撮影範囲との位置関係を求める。具体的には、表示方法決定部24は、センサ位置関係DBを参照し、カメラ80を基準とする座標系におけるセンサ90の位置座標を求める。そして、表示方法決定部24は、カメラ80を基準とする座標系におけるセンサ90の位置座標と、そのセンサ90の位置を基準とする信号源の位置とに基づいて、カメラ80を基準とする座標系における信号源の位置座標を求めればよい。
このように、表示方法決定部24は、信号源位置推定部22によって推定された信号源の位置に基づいて、カメラ80のカメラ画像座標系における信号源の位置座標を求め、求めた位置座標に応じて、撮影画像上での状況表現の表示方法を決定すればよい。
その他、センサ位置関係DBは、3次元空間(例えば、世界座標系)において、カメラ80に対するセンサ90の相対的な3次元位置座標を格納していてもよい。また、センサ位置関係DBは、カメラ80に対するセンサ90の相対方向を表す情報を格納してもよい。相対方向を表す情報とは、例えば、左、右、上、下等であってもよい。
また、カメラ80またはセンサ90の位置や観測方向が変化する場合に、表示方法決定部24は、位置や観測方向の変化に応じて、カメラ80およびセンサ90の位置関係を算出し、センサ位置関係DBを更新してもよい。例えば、カメラ80やセンサ90に位置検出センサや方向検出センサが搭載される場合、表示方法決定部24は、位置検出センサや方向検出センサからの信号に基づいて、センサ位置関係DBを更新可能である。
また、表示方法決定部24については、表示方法の決定処理の具体例として、例えば以下に挙げる手法を採用可能である。
(103−A)センサ90の位置座標に基づく表示方法決定手法
ここでは、信号源位置推定部22によって、信号源の位置としてセンサ90の位置そのものが適用される場合を想定する。また、センサ位置関係DBは、カメラ80のカメラ画像座標系におけるセンサ90の位置座標を格納しているものとする。この場合、表示方法決定部24は、表示方法を以下のように決定してもよい。
まず、表示方法決定部24は、図9に示すように、カメラ80のカメラ画像座標系において、カメラ80の撮影画像の中心(Cx,Cy)およびセンサ90の座標(−Sx,Sy)を結んだ直線と、カメラ80の撮影画像の境界との交点を、状況表現の表示基準点とする。そして、表示方法決定部24は、撮影画像においてあらかじめ設定された表示可能領域において、表示基準点を基準とする所定範囲の領域を、仮の表示位置として決定する。ここで、表示可能領域とは、状況表現を重畳することが可能な領域としてあらかじめ定められる。例えば、表示可能領域としては、カメラ80の画角内で予め定められた角度の範囲に対応する撮影画像上での領域が定められてもよい。例えば、このような表示可能領域としては、図9に示すように、撮影画像の境界から内側に向かってx方向に長さAxまで、y方向に長さAyまでの領域(図9の網掛け領域)が定められていてもよい。そして、表示方法決定部24は、他の信号源について決定された表示位置と重複しない場合には、この信号源に関する状況表現について、仮の表示位置を採用して決定する。また、表示方法決定部24は、カメラ80の画像中心と信号源の座標との距離に応じて、各信号源の状況表現について、サイズ、透過率、表示基準点からの距離等を調整してもよい。例えば、図10に示すように、カメラ80の画像中心(Cx,Cy)からセンサ1の座標(−Sx,Sy)までの距離が、センサ2の座標(−S’x,S’y)までの距離より短いとする。この場合、表示方法決定部24は、センサ1の状況表現の表示基準点からの距離を、センサ2の状況表現の表示基準点からの距離より短くなるよう、それぞれの表示位置を決定している。また、この場合、表示方法決定部24は、センサ1の状況表現がセンサ2の状況表現より大きくなるよう、それぞれのサイズを決定している。なお、状況表現が文字を表す場合、表示方法決定部24は、状況表現のサイズとして、観測者にとって文字を判読可能な最小のサイズを予め設定しておき、そのサイズ以上を決定するようにしてもよい。
(103−B)信号源の位置座標に基づく表示方法決定手法
ここでは、信号源位置推定部22によって、信号源の位置として、センサ90の位置を基準とする信号源の位置が推定される場合を想定する。また、センサ位置関係DBは、カメラ80のカメラ画像座標系におけるセンサ90の位置座標を格納しているものとする。また、例として、図5におけるカメラ2をカメラ80とし、カメラ1をセンサ90とする場合を考える。この場合、表示方法決定部24は、表示方法を以下のように決定してもよい。
ここでは、図11に示すように、センサ90としてのカメラ1の撮影画像において人物領域が検出され、カメラ1の撮影画像の中心(C1x,C1y)に対して、人物領域の中心座標(P1x,P1y)が推定されている。そこで、表示方法決定部24は、カメラ80としてのカメラ2のカメラ画像座標系における、センサ90としてのカメラ1の位置座標(−c21x,c21y)を、図8のセンサ位置関係DBから求める。そして、表示方法決定部24は、図12に示すように、カメラ2のカメラ画像座標系における人物領域の中心座標(−p21x,p21y)を求める。カメラ2のカメラ画像座標系における人物領域の中心座標(−p21x,p21y)は、カメラ2のカメラ画像座標系におけるカメラ1の位置座標(−c21x,c21y)と、カメラ1の画像中心に対する人物領域の中心座標(P1x,P1y)とから算出できる。そして、表示方法決定部24は、カメラ2の撮影画像中心(C2x,C2y)、および、人物領域の中心座標(−p21x,p21y)を結んだ直線と、カメラ2の撮影画像の枠との交点を表示基準点とする。そして、表示方法決定部24は、表示基準点から所定範囲の領域を、人物に関する状況表現の表示位置として決定する。
なお、センサ90であるカメラ1からの画像信号において人物領域の動きが検出される場合、表示方法決定部24は、人物領域の動きに応じて状況表現の動きを決定してもよい。例えば、人物領域に映されている人物がカメラ80であるカメラ2の方向に向かって移動していることが検出された場合、表示方法決定部24は、カメラ2に人物が近づくにつれて、状況表現の透過率を下げるよう、透過率の時間変化を決定してもよい。また、この場合、表示方法決定部24は、状況表現の透過率を、1フレーム前の撮影画像に重畳する際の透過率よりも下げることを表すフラグを設定してもよい。
(103−C)相対方向(「上」「下」「左」「右」等)に基づく表示方法決定手法
ここでは、センサ位置関係DBは、カメラ80に対するセンサ90の相対的方向を表す情報として、「上」、「下」、「右」、「左」を格納しているものとする。なお、信号源の位置としては、センサ90の位置そのもの、あるいは、センサ90の位置に対する信号源の相対的な位置を利用する場合のいずれが適用されていてもよい。この場合、表示方法決定部24は、表示方法を以下のように決定してもよい。
ここでは、表示方法決定部24は、カメラ80に対する相対位置が「左」と記憶されたセンサ90の状況表現について、図13に示すように、点aを表示基準点とするようあらかじめ定めておく。そして、表示方法決定部24は、この状況表現の表示位置として、表示基準点から所定範囲の領域(例えば矩形領域A)を決定する。同様に、カメラ80に対する相対位置がそれぞれ「上」、「右」、「下」と記憶されたセンサ90の状況表現については、それぞれ点b,c,dを表示基準点とするようあらかじめ定めておく。そして、表示方法決定部24は、これらの状況表現の表示位置として、それぞれ表示基準点から所定範囲の領域(例えば、矩形領域B,C,D)を決定する。
(103−D)3次元位置座標に基づく表示方法決定手法
ここでは、センサ位置関係DBは、3次元座標系におけるカメラ80の位置に対するセンサ90の相対的な位置座標を格納しているものとする。なお、信号源の位置としては、センサ90の位置そのもの、あるいは、センサ90の位置に対する信号源の相対的な位置を利用する場合のいずれが適用されていてもよい。ただし、信号源の位置は、3次元位置座標として推定されているものとする。この場合、表示方法決定部24は、以下のように表示方法を決定してもよい。
この場合、表示方法決定部24は、図14に示すように、世界座標系におけるカメラ80の画像中心(Cx,Cy,Cz)と、信号源の位置座標(−Sx,−Sy,Sz)とを結ぶ直線をカメラ80の投影面(撮影画像)に投影する。そして、表示方法決定部24は、投影線とカメラ80の投影面の枠との交点を、表示基準点に設定する。そして、表示方法決定部24は、この表示基準点から所定範囲の領域を、この信号源に関する状況表現の表示位置として決定する。
また、上述した(103−A)から(103−D)の表示方法決定手法のいずれかを採用する際に、さらに、表示方法決定部24は、センサ90について定められた重要度に基づいて、そのサイズを決定してもよい。具体的には、表示方法決定部24は、センサ90の重要度が高いものほど状況表現が大きくなるようにそのサイズを決定してもよい。例えば、温度計や湿度計等のセンサ90に他のセンサ90より高い重要度が設定される場合を想定する。この場合、表示方法決定部24は、これらのセンサ90(温度計や湿度計)に関する状況表現(例えば、火災の発生、水をこぼしたなど、空間の異常な状況を表す表現)について、より大きいサイズで状況表現を重畳するよう決定することができる。これにより、観測者は、重要度のより高い状況に容易に気づくことが可能となる。
あるいは、表示方法決定部24は、抽出された状況表現そのものについて定められた重要度に基づいて、重要度の高いものほど表示領域が大きくなるようにそのサイズを決定してもよい。例えば、特定の状況表現(例えば、「火災」、「悲鳴」などの非常事態を表す状況表現)について、他の状況表現より高い重要度が設定される場合を想定する。この場合、表示方法決定部24は、このような非常事態に関する状況表現についてより大きいサイズで重畳するよう決定することができる。これにより、観測者は、非常事態の発生に容易に気づくことが可能となる。
また、表示方法決定部24は、信号源の方向を明示する吹き出しや効果線を表示するか否かを示すフラグを表示方法として保持してもよい。
提示部25は、本発明の第1の実施の形態における表示方法決定部14と略同様に、表示方法決定部24によって決定された表示方法に基づいて、状況表現を撮影画像に重畳して出力する。また、本実施の形態では、提示部25は、状況表現の提示処理として、例えば以下に挙げる手法を採用可能である。
(104−A)状況表現を一定時間だけ重畳する手法
この場合、提示部25は、状況表現を、カメラ80の撮影画像上の同一位置に所定時間重畳する。例えば、カメラ80の画像信号が30フレーム/秒で入力され、状況表現が10秒に1回抽出されることを想定する。この場合、提示部25は、時刻tで抽出された状況表現を、時刻tから10秒間で入力された300フレームの画像上に、同一の表示方法で重畳提示する。
(104−B)吹き出しや効果線とともに重畳する手法
表示方法決定部24によって決定された表示方法において、効果線や吹き出しを表示するフラグがオンであることを想定する。この場合、提示部25は、状況表現を吹き出しや効果線とともに撮影画像に重畳する。例えば、図15に示すように、提示部25は、表示基準点を始点とした吹き出しや効果線を表示してもよい。これにより、観測者は、観測空間の雰囲気や状況の発生源の位置を表す表示基準点を、直観的に理解可能となる。
また、提示部25は、複数の状況表現についてその重なり順が表示方法決定部24によって決定されている場合、その重なり順にしたがって、それらの状況表現を表示してもよい。例えば、図16に示すように、提示部25は、センサ90およびカメラ80の距離に応じて決定された重なり順で、状況表現を表示してもよい。具体的には、提示部25は、カメラ80により近いセンサ90の状況表現が、より遠いセンサ90の状況表現より前景となるよう重畳してもよい。これにより、撮影範囲外における複数の信号源の位置関係を、観測者が直観的に理解できる。
(104−C)所定範囲のセンサ90から抽出した状況表現のみ重畳する手法
この場合、提示部25は、情報提示システム2が備えるセンサ90のうち、所定の観測範囲を観測するセンサ90から抽出された状況表現を重畳してもよい。例えば、所定の観測範囲を観測するセンサ90は、カメラ80からの距離が所定範囲にあるものであってもよい。これにより、観測者は、撮影範囲外のうち特に確認したい特定箇所の雰囲気や状況を効率的に確認できる。
(104−D)雰囲気や状況の変化に基づいて重畳する手法
この場合、提示部25は、状況表現のサイズ、透過率、位置等を変化させながら一定時間重畳してもよい。例えば、センサ90からの信号の解析により信号源としての人物が移動していることが検出されている場合、提示部25は、表示方法決定部24によって決定された表示位置に収まる範囲で、状況表現のサイズや位置を変化させながら一定時間重畳してもよい。また、センサ90からの信号の解析により信号源としての人物がカメラ80に向かって移動していることが検出されている場合、提示部25は、状況表現の透過率を下げながら一定時間重畳してもよい。また、センサ90からの信号の解析により温度や湿度が急激に上昇している等の緊急事態が検出されている場合、提示部25は、状況表現を重畳する/しないを一定間隔で切り替え、点滅させてもよい。また、提示部25は、状況表現のサイズや位置の変化速度、透過率の変化速度、重畳する/しないの切り替え速度等を、人物の移動速度、温度や湿度の上昇速度等センサ90からの信号の時間変化に応じて変化させて(例えば比例させて)もよい。これにより、提示部25は、発生源の位置だけでなくその変化の度合いを、観測者に伝えることができる。また、これにより、提示部25は、撮影範囲外(または範囲内)の事象が撮影範囲内(または範囲外)の状況にどのように伝搬したかを、観測者に容易に伝えることができる。事象や状況の伝播とは、例えば、人物がカメラ80の撮影範囲に入ってくる様子、出ていく様子、撮影範囲外のざわめきに呼応して撮影画像内でもざわめきが発生する様子などをいう。
(104−E)撮影範囲外の状況表現と共に撮影範囲内の状況表現を重畳する手法
この場合、提示部25は、カメラ80の撮影範囲外の状況表現に加えて、撮影範囲内の状況表現を、表示方法決定部24によって決定された表示方法を用いて撮影画像に重畳してもよい。これにより、提示部25は、撮影範囲内および撮影範囲外の雰囲気や状況が似ているか否かを、観測者に伝えることができる。
(104−F)撮影範囲内の状況とは異なる撮影範囲外の状況を重畳する手法
この場合、提示部25は、カメラ80の撮影範囲外の状況表現のうち、撮影範囲内の状況表現とは異なる状況表現を重畳してもよい。これにより、提示部25は、カメラ80を介して視聴可能な状況とは異なる状況が撮影範囲外のどの辺りで生じたかを、観測者に伝えることができる。
(104−G)カメラ80の位置や向きの変化に基づいて重畳する手法
この場合、提示部25は、カメラ80の位置や観測方向の変化に応じて逐次抽出される状況表現および決定される表示方法に基づいて、状況表現を重畳表示してもよい。例えば、カメラ80の画像信号が30フレーム/秒で入力され、カメラ80の位置・観測方向の変化に応じた状況表現およびその表示方法が3秒に1回抽出・決定される場合を想定する。この場合、提示部25は、時刻tに抽出された状況表現を、時刻tに決定した表示方法に従って、時刻tから3秒間に入力された90フレームの画像上に重畳提示する。これにより、提示部25は、カメラ80の位置や観測方向が変化した場合でも、その位置や観測方向に応じた撮影範囲外の状況を、観測者に伝えることができる。
以上のように構成された情報提示システム2の動作について、図17を参照して説明する。
まず、信号入力部11は、本発明の第1の実施の形態と同様にステップA1を実行し、カメラ80からの画像信号およびセンサ90からの信号を入力として取得する。
次に、信号源位置推定部22は、センサ90からの信号に基づいて、信号源の位置として、センサ90そのものの位置またはセンサ90からの信号を解析して得られる位置を推定する(ステップB2)。
例えば、信号源位置推定部22は、音声信号、照度信号、温度信号については、その信号を出力したセンサ90の位置を信号源の位置として推定する。また、信号源位置推定部22は、画像信号については、その信号から検出される人物領域の位置を解析して推定する。
次に、状況表現抽出部23は、撮影範囲外センサDBおよび状況表現DBを参照することにより、カメラ80の撮影範囲外の状況表現を抽出する。さらに、状況表現抽出部23は、カメラ80の撮影範囲内の状況表現を抽出してもよい(ステップB3)。
具体的には、状況表現抽出部23は、撮影範囲外DBで定義されたカメラ80の撮影範囲外のセンサ90からの信号を解析し、その特徴量を算出する。そして、状況表現抽出部23は、状況表現DBにおいて、算出した特徴量が合致する条件に対応付けられた状況表現を、カメラ80の撮影範囲外の状況表現として抽出すればよい。さらに、撮影範囲内の状況表現も抽出する場合、状況表現抽出部23は、撮影範囲外DBで定義されたカメラ80の撮影範囲内のセンサ90からの信号を解析し、その特徴量を算出する。そして、状況表現抽出部23は、状況表現DBにおいて、算出した特徴量が合致する条件に対応付けられた状況表現を、カメラ80の撮影範囲内の状況表現として抽出すればよい。
次に、表示方法決定部24は、ステップB3で抽出された状況表現について、センサ位置関係DBを参照することにより、カメラ80の撮影画像上での表示方法(位置、形状、サイズ、透過率、動き、重なり順等)を決定する(ステップB4)。
次に、提示部25は、ステップA1で入力されたカメラ80の画像信号が示す撮影画像上に、ステップB3で抽出された各状況表現を、ステップB4で決定された表示方法に基づいて重畳して出力する(ステップB5)。
なお、ステップB3において、撮影範囲内のセンサ90に基づく状況表現がさらに抽出されている場合、ステップB5において、提示部25は、撮影範囲外の状況表現に加えて、さらに撮影範囲内の状況表現を重畳してもよい。あるいは、提示部25は、撮影範囲外の状況表現のうち、撮影範囲内の状況表現と異なるものを重畳してもよい。
以上で、情報提示システム2は動作を終了する。
次に、情報提示システム2の動作を具体例で示す。
ここでは、情報提示システム2は、図5に示したように、オフィス空間を観測空間とし、カメラ80およびセンサ90として、3台のカメラ1〜3、3個のマイク1〜3、および、2個の温度計1〜2を有するものとする。また、カメラ2を本実施の形態におけるカメラ80に適用し、カメラ1、3、マイク1〜3、および、温度計1〜2を、センサ90として適用することを想定する。また、情報提示システム2は、図6の撮影範囲外センサDB、図8のセンサ位置関係DB、および、図18の状況表現DBを保持しているものとする。また、カメラ1、3による撮影画像上の各点について、カメラ2のカメラ画像座標系における位置座標が予め変換テーブルとして記憶されているものとする。また、情報提示システム2は、温度計1〜2について、他のセンサ90より高い重要度を予め設定しているものとする。
この場合、まず、信号入力部11は、カメラ1〜3からの3種の画像信号、マイク1〜3からの3種の音声信号、および、温度計1〜2からの2種の温度信号を取得する。そして、カメラ2からの画像信号を本実施の形態におけるカメラ80からの画像信号として適用し、他の2種の画像信号、3種の音声信号、および、2種の温度信号を、本実施の形態におけるセンサ90からの信号として適用する(ステップB1)。
次に、信号源位置推定部22は、カメラ1、3、マイク1〜3、および、温度計1〜2からの各信号に基づいて、信号源の位置を推定する(ステップB2)。
ここでは、信号源位置推定部22は、マイク1〜3からの音声信号、および、温度計1〜2からの温度信号の各信号源については、それぞれセンサ90(マイク1〜3、温度計1〜2)の位置そのものを適用する。
また、信号源位置推定部22は、センサ90としてのカメラ1およびカメラ3の画像信号において、人物領域の検出処理を行う。ここでは、カメラ3の画像信号では人物領域が検出されず、カメラ1の画像信号において人物領域が検出されたとする。具体的には、信号源位置推定部22は、カメラ1からの画像信号について、図19に示すように、時刻t1に座標(P1x,P1y)を中心とする人物領域を検出し、Δt後にこの人物領域の中心が座標(P1x’,P1y’)に移動したことを検出する。なお、これらの人物領域の中心座標は、カメラ1の撮影画像の中心(C1x,C1y)に対する相対的な位置を示している。
次に、状況表現抽出部23は、図6の撮影範囲外センサDBを参照し、カメラ80(カメラ2)の撮影範囲外のセンサ90として、カメラ1、3、マイク1、3、温度計1,2を特定する。また、状況表現抽出部23は、カメラ80(カメラ2)の撮影範囲内のセンサ90として、マイク2を特定する。そして、状況表現抽出部23は、特定した各センサ90からの信号を解析して特徴量を算出する。そして、状況表現抽出部23は、図18の状況表現DBを参照し、特徴量が合致する条件に対応付けられた状況表現を抽出する(ステップB3)。
詳細には、状況表現抽出部23は、撮影範囲外のセンサ90としてのカメラ1からの画像信号において図19のように検出された人物領域について、その移動速度|P1x―P1x’,P1y―P1y’|/Δtを算出する。ここで、|P1x―P1x’,P1y―P1y’|は、座標(P1x,P1y)および(P1x’,P1y’)間の距離を表す。また、“/”は、除算を表す。そして、算出された移動速度がTHw2よりも大きいとする。そこで、状況表現抽出部23は、図18の状況表現DBをもとに、カメラ1からの信号が合致する条件「THw2≦人物領域の移動量」に対応付けられた状況表現として、歩行を表す「スタスタ」の文字画像を選択する。なお、撮影範囲外のセンサ90としてのカメラ3の信号からは、人物領域が検出されていないので、図18の状況表現DBに定められた特徴量の条件に合致する特徴量は検出されない。
また、状況表現抽出部23は、撮影範囲外のセンサ90としての温度計1からの温度信号について時間変化を算出する。その結果、Δt内にTHh以上の温度変化が観測されたとする。そこで、状況表現抽出部23は、図18の状況表現DBをもとに、温度計1からの温度信号が合致する条件「THh<温度変化量」に対応付けられた状況表現として、「火災発生」の文字画像を選択する。なお、撮影範囲外のセンサ90としての温度計2の信号からは、図18の状況表現DBに定められた特徴量の条件に合致する特徴量は検出されなかったものとする。
また、状況表現抽出部23は、撮影範囲外のセンサ90としてのマイク1、3および撮影範囲内のセンサ90としてのマイク2からの各音声信号について、周波数分析および音量計測を行う。その結果、マイク1からの音声信号において、音量がTHs1より大きい人声がΔt内で観測されたとする。また、マイク3からの音声信号において、音量がTHs1より小さい人声がΔt内で観測されたとする。そこで、状況表現抽出部23は、図18の状況表現DBをもとに、マイク1からの音声信号が合致する条件「声 かつ THs1≦音量」に対応付けられた状況表現として、「ザワザワ」の文字画像を選択する。また、状況表現抽出部23は、マイク3からの音声信号が合致する条件「声 かつ 0<音量<THs1」に対応付けられた状況表現として、「ヒソヒソ」の文字画像を選択する。なお、撮影範囲内のセンサ90であるマイク2の信号からは、図18の状況表現DBに定められた特徴量の条件に合致する特徴量は検出されなかったものとする。
次に、表示方法決定部24は、状況表現が選択された各センサ90(カメラ1、温度センサ1、マイク1、3)について、図8のセンサ位置関係DBを参照して、信号源の位置とカメラ80との位置関係を取得する。そして、表示方法決定部24は、この位置関係をもとに、各状況表現の表示方法を決定する(ステップB4)。
詳細には、まず、表示方法決定部24は、図19に示したカメラ1の人物領域の中心座標について、上述の変換テーブルを参照することにより、カメラ2のカメラ画像座標系における位置座標を求める。その結果、図20に示すように、カメラ2のカメラ画像座標系において、人物領域は、Δtの間に、位置座標p(−p21x,p21y)から点p’(−p21x’,p21y’)に遷移している。そこで、表示方法決定部24は、カメラ2の撮影画像の中心座標(C2x,C2y)および点pを結ぶ直線と、カメラ2の撮影画像の境界との交点を、1つ目の表示基準点e1とする。また、表示方法決定部24は、カメラ2の撮影画像の中心座標(C2x,C2y)および点p’を結ぶ直線と、カメラ2の撮影画像の境界との交点を、2つ目の表示基準点e2とする。そして、表示方法決定部24は、各表示基準点e1、e2からそれぞれ所定範囲の領域(たとえば、矩形領域E1およびE2)を、仮の表示位置に設定する。さらに、表示方法決定部24は、仮の表示位置E1、E2を包含する領域を、カメラ1の状況表現の表示位置として決定する。そして、表示方法決定部24は、カメラ1の状況表現の動きとして、矩形領域E1およびE2に交互に表示することを決定する。
また、図20において、温度計1の信号源の位置(ここでは温度計1の位置)は、カメラ2のカメラ画像座標系における座標(−h21x,h21y)である。そこで、表示方法決定部24は、カメラ2の撮影画像の中心座標および温度計1の位置座標を結ぶ直線と、カメラ2の撮影画像の境界との交点を、温度計1に関する状況表現の表示基準点fとする。そして、表示方法決定部24は、表示基準点fから所定範囲の領域(たとえば、矩形領域F)を、温度計1の状況表現の表示位置として決定する。
また、図20において、マイク1、3の信号源の位置(ここではマイク1、3の位置)は、カメラ2のカメラ画像座標系における座標(−m21x,m21y)および座標(m23x,m23y)である。そこで、表示方法決定部24は、カメラ2の撮影画像の中心座標およびマイク1の位置座標を結ぶ直線と、カメラ2の撮影画像の境界との交点を、マイク1に関する状況表現の表示基準点gとする。また、表示方法決定部24は、カメラ2の撮影画像の中心座標およびマイク3の位置座標を結ぶ直線と、カメラ2の撮影画像の境界との交点を、マイク3に関する状況表現の表示基準点hとする。そして、表示方法決定部24は、表示基準点g、hから所定範囲の領域(たとえば、矩形領域G、H)を、マイク1およびマイク3の状況表現の各表示位置として決定する。
また、図20において、表示方法決定部24は、センサ90(カメラ1、温度計1、マイク1、3)に関する各状況表現について、予め設定された重要度に基づいて、そのサイズを決定する。ここでは、より高い重要度が定められた温度計1の状況表現のサイズが、カメラ1、マイク1、3の各状況表現のサイズより大きくなるよう決定される。
また、図20において、表示方法決定部24は、センサ90(カメラ1、温度計1、マイク1、3)に関する状況表現についてそれぞれ決定した表示位置について、カメラ2の撮影画像中心から各信号源の位置までの距離に基づいて、その位置を調整する。具体的には、カメラ2の撮影画像中心との距離がより近いセンサ90の状況表現ほど、カメラ2の撮影画像の枠により近い位置となるように調整する。
また、ここでは、表示方法決定部24は、信号源の方向を明示するために、吹き出し画像を表示するフラグをオンにしたものとする。
次に、提示部25は、カメラ80としてのカメラ2の画像信号が示す撮影画像上に、カメラ1、温度計1、マイク1、3の各状況表現を、図20のように決定された表示方法に基づいて、重畳して出力する(ステップB5)。なお、ここでは、撮影範囲内のセンサ90としてのマイク2からは状況表現が抽出されていないため、提示部25は、撮影範囲外の状況表現を重畳し、撮影範囲内の状況表現を重畳していない。出力された撮影画像の一例を図21に示す。なお、図21では、カメラ2による撮影画像を模式的に示している。
例えば、図21において、提示部25は、カメラ1の状況表現「スタスタ」の文字画像を、決定された矩形領域E1およびE2に、交互に一定時間重畳する。また、提示部25は、温度計1の状況表現「火災発生」の文字画像を、決定された矩形領域Fに、他の状況表現より大きいサイズで重畳する。また、提示部25は、マイク1およびマイク3の各状況表現である「ザワザワ」および「ヒソヒソ」の文字画像を、決定された矩形領域GおよびHに、それぞれ重畳する。また、ステップB4において、表示方法として吹き出し画像を表示するフラグがオンに設定されているため、提示部25は、各状況表現を吹き出し画像と共に表示し、吹き出しの始点を表示基準点に設定している。
以上で、具体例の説明を終了する。
次に、本発明の第2の実施の形態の効果について述べる。
本発明の第2の実施の形態としての情報提示システムは、カメラによる撮影画像を提示する際に、撮影範囲を含む空間における撮影範囲外の状況をさらに十分に伝えることができる。
その理由について述べる。本実施の形態では、信号入力部が、カメラからの画像信号およびセンサからの信号を入力として取得し、信号源位置推定部が、センサからの信号に基づき信号源の位置を推定する。そして、状況表現抽出部が、撮影範囲外センサDBおよび状況表現DBを用いて、撮影範囲外のセンサからの信号の特徴量が合致する条件に対応する撮影範囲外の状況表現を抽出する。そして、表示方法決定部が、センサ位置関係DBを参照することにより、撮影範囲と信号源の位置との位置関係を求め、求めた位置関係に基づいて、撮影画像上における状況表現の表示方法として、位置、形状、サイズ、透過率、動き、重なり順等を決定する。そして、提示部が、決定された表示方法にしたがって、撮影画像上に状況表現を重畳して出力するからである。
また、本実施の形態は、状況表現DBに、複数の信号に関する情報の組み合わせに対応付けて状況表現を記憶しておき、状況表現抽出部によって、複数の信号に関する情報の組み合わせに応じて状況表現を抽出する場合もある。これにより、本実施の形態は、観測者に対して、撮影範囲外に関する状況をより精度よく表した状況表現を伝えることができる。
また、本実施の形態は、表示方法決定部によって、センサまたは状況表現の重要度に応じて、状況表現のサイズ等の表示方法を決定する場合もある。これにより、本実施の形態は、観測者に対して、撮影範囲外における重要度の高い状況をよりわかりやすく伝えることができる。
また、本実施の形態は、表示方法決定部によって、撮影範囲からの信号源までの距離関係に応じて、各状況表現の位置や重なり順等の表示方法を決定する場合もある。これにより、本実施の形態は、観測者に対して、複数の信号源の位置関係をさらに直感的に伝えることができる。
また、本実施の形態は、表示方法決定部によって、所定範囲のセンサから抽出した状況表現のみ重畳するよう決定した場合、観測者にとって確認したい特定箇所の雰囲気や状況を効率的に伝えることができる。
また、本実施の形態は、表示方法決定部によって、信号源の位置や特徴量の時間的変化に応じて、各状況表現の表示方法を決定する場合もある。これにより、本実施の形態は、観測者に対して、撮影範囲外の状況の変化の度合いや、撮影範囲外(または範囲内)の事象が撮影範囲内(または範囲外)の状況にどのように伝搬したかを、観測者に容易に伝えることができる。
また、本実施の形態は、提示部によって、撮影範囲外の状況表現に加えて撮影範囲内の状況表現を撮影画像に重畳する場合もある。これにより、本実施の形態は、撮影範囲内および撮影範囲外の雰囲気や状況が似ているか否かを、観測者に伝えることができる。
また、本実施の形態は、提示部によって、撮影範囲外の状況表現のうち、撮影範囲内の状況表現と異なる状況表現を重畳する場合もある。これにより、本実施の形態は、観測者に対して、視聴可能な状況とは異なる状況が撮影範囲外のどの辺りで生じたかを、観測者に伝えることができる。
また、本実施の形態は、カメラまたはセンサの位置や観測方向が変化する場合でも、その変化に応じて状況表現の表示方法を決定するので、観測者に対して、撮影範囲外の状況をより正確に伝えることができる。
なお、上述した本発明の第2の実施の形態において、例えば図5に示したような屋内のオフィス空間を観測する例を中心に説明した。この場合、本実施の形態の情報提示システムは、観測対象のオフィス空間の雰囲気や状況を(例えば物理的に離れた拠点にいる)観測者に伝えて共有する用途に適用できる。その他、本実施の形態において、情報提示システムの観測対象とする空間は、屋内に限らず、例えば、屋外であってもよい。
また、本発明の第2の実施の形態としての情報提示システムは、空間における異常事態を監視する監視システムとしても適用可能である。この場合、情報提示システムは、警報ベル、「ドロボー」等の叫び声、「銃声」、特定の時間帯での人物領域検知等といった、空間の異常事態を示すセンサからの信号を検出してもよい。そして、この場合、情報提示システムは、検出した情報に基づいて、「警報ベル」「ドロボー」「バーン」等の異常事態を示す状況表現を抽出し、撮影画像に重畳表示してもよい。この場合、本実施の形態は、監視対象となる野外または屋内の監視映像を提示する際に、監視したい空間における撮影範囲外における異常事態の発生状況を、監視者に伝えることを可能とする。
また、本発明の第2の実施の形態において、状況表現DB、センサ位置関係DB、および、撮影範囲外センサDBは、記憶装置にあらかじめ記憶される例を中心に説明した。この他、本実施の形態の情報提示システムは、このような各種データベースと同等の情報を記憶した外部の装置に問い合わせるよう構成されてもよい。
また、上述した本発明の各実施の形態において、情報提示装置の各機能ブロックが、記憶装置またはROMに記憶されたコンピュータ・プログラムを実行するCPUによって実現される例を中心に説明した。これに限らず、各機能ブロックの一部、全部、または、それらの組み合わせが専用のハードウェアにより実現されていてもよい。
また、上述した本発明の各実施の形態において、情報提示装置の機能ブロックは、複数の装置に分散されて実現されてもよい。
また、上述した本発明の各実施の形態において、各フローチャートを参照して説明した情報提示装置の動作を、本発明のコンピュータ・プログラムとしてコンピュータの記憶装置(記憶媒体)に格納しておく。そして、係るコンピュータ・プログラムを当該CPUが読み出して実行するようにしてもよい。そして、このような場合において、本発明は、係るコンピュータ・プログラムのコードあるいは記憶媒体によって構成される。
また、上述した各実施の形態は、適宜組み合わせて実施されることが可能である。
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
この出願は、2014年6月19日に出願された日本出願特願2014−125866を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1、2 情報提示システム
10、20 情報提示装置
11 信号入力部
12、22 信号源位置推定部
13、23 状況表現抽出部
14、24 表示方法決定部
15、25 提示部
80 カメラ
90 センサ
1001 CPU
1002 RAM
1003 ROM
1004 記憶装置
1005 周辺機器接続インタフェース
1006 表示装置

Claims (9)

  1. カメラの画像信号およびセンサからの信号を入力する信号入力手段と、
    前記センサからの信号に基づいて、信号源の位置を推定する信号源位置推定手段と、
    前記センサからの信号に基づいて、前記カメラの撮影範囲外の状況を表現する情報を示す状況表現を抽出する状況表現抽出手段と、
    前記信号源の位置と前記カメラの撮影範囲との位置関係に基づいて、前記画像信号の表す撮影画像上における前記状況表現の表示位置を決定し、また、互いに異なる複数のセンサからの信号のそれぞれに基づいた複数の前記状況表現を表示する場合であって当該複数の前記状況表現の表示位置が重なる場合には、前記カメラと前記センサとの距離に応じて複数の状況表現の重なり順を決定する表示方法決定手段と、
    決定された前記表示位置や重なり順に基づき前記状況表現を前記撮影画像に重畳して出力する提示手段と
    を備えた情報提示装置。
  2. 前記状況表現抽出手段は、前記センサから得られうる信号に関する情報にあらかじめ対応づけられた状況表現を参照することにより、前記信号入力手段に入力された信号に対応する状況表現を抽出することを特徴とする請求項1に記載の情報提示装置。
  3. 前記状況表現抽出手段は、前記センサから得られうる信号の特徴量に関する条件にあらかじめ対応付けられた状況表現を参照することにより、前記信号入力手段に入力された信号を解析して得られる特徴量が合致する条件に対応する状況表現を抽出することを特徴とする請求項2に記載の情報提示装置。
  4. 前記状況表現抽出手段は、前記カメラの撮影範囲外のセンサとしてあらかじめ定められたセンサから前記信号入力手段に入力された信号に基づいて、前記カメラの撮影範囲外の状況表現を抽出することを特徴とする請求項1から請求項3のいずれか1項に記載の情報提示装置。
  5. 前記状況表現抽出手段は、前記カメラの撮影範囲外の状況表現に加えて、前記カメラの撮影範囲内のセンサとしてあらかじめ定められたセンサから前記信号入力手段に入力された信号に基づいて、前記カメラの撮影範囲内の状況表現を抽出することを特徴とする請求項1から請求項4のいずれか1項に記載の情報提示装置。
  6. 前記表示方法決定手段は、前記カメラの撮影画像の座標系における前記撮影画像の中心座標および前記信号源の位置座標に基づいて、前記撮影画像上での前記状況表現の表示位置を決定することを特徴とする請求項1から請求項5のいずれか1項に記載の情報提示装置
  7. 前記表示方法決定手段は、さらに、前記撮影画像上での前記状況表現の形状を決定することを特徴とする請求項1から請求項のいずれか1項に記載の情報提示装置。
  8. カメラの画像信号およびセンサからの信号を入力し、
    前記センサからの信号に基づいて、信号源の位置を推定し、
    前記センサからの信号に基づいて、前記カメラの撮影範囲外の状況を表現する情報を示す状況表現を抽出し、
    前記信号源の位置と前記カメラの撮影範囲との位置関係に基づいて、前記画像信号の表す撮影画像上での前記状況表現の表示位置を決定し、また、互いに異なる複数のセンサからの信号のそれぞれに基づいた複数の前記状況表現を表示する場合であって当該複数の前記状況表現の表示位置が重なる場合には、前記カメラと前記センサとの距離に応じて複数の状況表現の重なり順を決定し、
    決定された前記表示位置や重なり順に基づき前記状況表現を前記撮影画像に重畳して出力する、情報提示方法。
  9. カメラの画像信号およびセンサからの信号を入力する信号入力ステップと、
    前記センサからの信号に基づいて、信号源の位置を推定する信号源位置推定ステップと、
    前記センサからの信号に基づいて、前記カメラの撮影範囲外の状況を表現する情報を示す状況表現を抽出する状況表現抽出ステップと、
    前記信号源の位置と前記カメラの撮影範囲との位置関係に基づいて、前記画像信号の表す撮影画像上での前記状況表現の表示位置を決定し、また、互いに異なる複数のセンサからの信号のそれぞれに基づいた複数の前記状況表現を表示する場合であって当該複数の前記状況表現の表示位置が重なる場合には、前記カメラと前記センサとの距離に応じて複数の状況表現の重なり順を決定する表示位置決定ステップと、
    決定された前記表示位置や重なり順に基づき前記状況表現を前記撮影画像に重畳して出力する提示ステップと、
    をコンピュータ装置に実行させる情報提示プログラム。
JP2016529030A 2014-06-19 2015-06-11 情報提示装置、情報提示システム、情報提示方法、および、プログラム Active JP6669064B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020030708A JP6915712B2 (ja) 2014-06-19 2020-02-26 情報提示方法、情報提示システム、および情報提示プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014125866 2014-06-19
JP2014125866 2014-06-19
PCT/JP2015/002939 WO2015194141A1 (ja) 2014-06-19 2015-06-11 情報提示装置、情報提示システム、情報提示方法、および、記憶媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020030708A Division JP6915712B2 (ja) 2014-06-19 2020-02-26 情報提示方法、情報提示システム、および情報提示プログラム

Publications (2)

Publication Number Publication Date
JPWO2015194141A1 JPWO2015194141A1 (ja) 2017-04-20
JP6669064B2 true JP6669064B2 (ja) 2020-03-18

Family

ID=54935150

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016529030A Active JP6669064B2 (ja) 2014-06-19 2015-06-11 情報提示装置、情報提示システム、情報提示方法、および、プログラム
JP2020030708A Active JP6915712B2 (ja) 2014-06-19 2020-02-26 情報提示方法、情報提示システム、および情報提示プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020030708A Active JP6915712B2 (ja) 2014-06-19 2020-02-26 情報提示方法、情報提示システム、および情報提示プログラム

Country Status (3)

Country Link
US (4) US10475220B2 (ja)
JP (2) JP6669064B2 (ja)
WO (1) WO2015194141A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015194141A1 (ja) 2014-06-19 2015-12-23 日本電気株式会社 情報提示装置、情報提示システム、情報提示方法、および、記憶媒体
US10373358B2 (en) * 2016-11-09 2019-08-06 Sony Corporation Edge user interface for augmenting camera viewfinder with information
GB2557597B (en) * 2016-12-09 2020-08-26 Canon Kk A surveillance apparatus and a surveillance method for indicating the detection of motion
US10509534B2 (en) 2017-09-05 2019-12-17 At&T Intellectual Property I, L.P. System and method of providing automated customer service with augmented reality and social media integration
JP2021114713A (ja) * 2020-01-20 2021-08-05 パナソニックIpマネジメント株式会社 表示装置と撮像装置のための位置サイズ調整の支援方法および支援装置
CN111476971A (zh) * 2020-04-09 2020-07-31 英大智能电气有限公司 一种输电线路近距离山火监测装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0715453B1 (en) * 1994-11-28 2014-03-26 Canon Kabushiki Kaisha Camera controller
US6529234B2 (en) * 1996-10-15 2003-03-04 Canon Kabushiki Kaisha Camera control system, camera server, camera client, control method, and storage medium
US20020005894A1 (en) * 2000-04-10 2002-01-17 Foodman Bruce A. Internet based emergency communication system
JP2003018462A (ja) 2001-06-28 2003-01-17 Canon Inc 文字挿入装置および文字挿入方法
JP2005099418A (ja) 2003-09-25 2005-04-14 Casio Comput Co Ltd オブジェクト表示装置およびプログラム
US20050259149A1 (en) * 2004-05-24 2005-11-24 Paris Smaragdis Surveillance system with acoustically augmented video monitoring
US20060004579A1 (en) * 2004-07-01 2006-01-05 Claudatos Christopher H Flexible video surveillance
JP2006121580A (ja) * 2004-10-25 2006-05-11 Matsushita Electric Ind Co Ltd 画像処理装置
JP2006197115A (ja) * 2005-01-12 2006-07-27 Fuji Photo Film Co Ltd 撮像装置及び画像出力装置
JP4794903B2 (ja) 2005-05-11 2011-10-19 キヤノン株式会社 端末装置、端末装置が行う制御方法及びプログラム
US7945938B2 (en) 2005-05-11 2011-05-17 Canon Kabushiki Kaisha Network camera system and control method therefore
JP5005079B2 (ja) * 2006-07-25 2012-08-22 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム
JP4928275B2 (ja) * 2007-01-10 2012-05-09 キヤノン株式会社 カメラ制御装置及びその制御方法
US20090169060A1 (en) * 2007-12-26 2009-07-02 Robert Bosch Gmbh Method and apparatus for spatial display and selection
JP2009181457A (ja) 2008-01-31 2009-08-13 G Mode:Kk チャット・ソフトウェア
JP5192414B2 (ja) 2009-02-06 2013-05-08 株式会社日立製作所 音声情報表示システム
US8754925B2 (en) * 2010-09-30 2014-06-17 Alcatel Lucent Audio source locator and tracker, a method of directing a camera to view an audio source and a video conferencing terminal
WO2012070430A1 (ja) 2010-11-24 2012-05-31 日本電気株式会社 感性表現語処理装置、感性表現語処理方法および感性表現語処理プログラム
JP6411373B2 (ja) * 2013-12-17 2018-10-24 シャープ株式会社 認識データ伝送装置、認識データ記録装置及び認識データ記録方法
WO2015194141A1 (ja) 2014-06-19 2015-12-23 日本電気株式会社 情報提示装置、情報提示システム、情報提示方法、および、記憶媒体

Also Published As

Publication number Publication date
US10475220B2 (en) 2019-11-12
US10559108B2 (en) 2020-02-11
WO2015194141A1 (ja) 2015-12-23
US20200175738A1 (en) 2020-06-04
US20190251725A1 (en) 2019-08-15
JP6915712B2 (ja) 2021-08-04
US11164354B2 (en) 2021-11-02
US10593089B2 (en) 2020-03-17
US20190251726A1 (en) 2019-08-15
JP2020113989A (ja) 2020-07-27
JPWO2015194141A1 (ja) 2017-04-20
US20170140566A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
JP6915712B2 (ja) 情報提示方法、情報提示システム、および情報提示プログラム
CN110413105B (zh) 虚拟环境内的虚拟对象的有形可视化
US20190377538A1 (en) Information Presentation Through Ambient Sounds
JP6428268B2 (ja) 画像表示装置及び画像表示方法、並びに画像表示システム
JP5961249B2 (ja) カラー・チャネルおよび光マーカー
KR20160113666A (ko) 오디오 탐색 지원
JP6712778B2 (ja) 物体検知装置、物体検知システムおよび物体検知方法
US11393177B2 (en) Information processing apparatus, information processing method, and program
US20210364809A1 (en) Augmented visual capabilities
US11064176B2 (en) Information processing apparatus, information processing method, and program for display control to arrange virtual display based on user viewpoint
JP2016213677A (ja) 遠隔コミュニケーションシステム、その制御方法、及びプログラム
KR20190096976A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
EP3465631B1 (en) Capturing and rendering information involving a virtual environment
JP2018500690A (ja) 拡大3d画像を生成するための方法およびシステム
KR100891463B1 (ko) 유비쿼터스 환경 기반의 엠비언트 서비스 장치 및 그방법과 그를 이용한 시스템
GB2557594A (en) Image processing system and method
US11589001B2 (en) Information processing apparatus, information processing method, and program
US11460994B2 (en) Information processing apparatus and information processing method
US11212485B2 (en) Transparency system for commonplace camera
KR20110072108A (ko) 태그를 구비하는 모바일 단말기를 이용한 비전기반 증강현실 구현 시스템
JP2016134765A (ja) 監視システム
JP2017011598A (ja) 監視システム
CN111355883B (zh) 为超宽和360相机提供凝视和感知的系统和方法
JP6620846B2 (ja) 3次元侵入検知システムおよび3次元侵入検知方法
JP2008245168A (ja) 情報処理システム、情報処理装置及び情報処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200210

R150 Certificate of patent or registration of utility model

Ref document number: 6669064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150