JP7174389B1 - 物体位置推定表示装置、方法及びプログラム - Google Patents

物体位置推定表示装置、方法及びプログラム Download PDF

Info

Publication number
JP7174389B1
JP7174389B1 JP2022023790A JP2022023790A JP7174389B1 JP 7174389 B1 JP7174389 B1 JP 7174389B1 JP 2022023790 A JP2022023790 A JP 2022023790A JP 2022023790 A JP2022023790 A JP 2022023790A JP 7174389 B1 JP7174389 B1 JP 7174389B1
Authority
JP
Japan
Prior art keywords
camera
marker
image
coordinate system
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022023790A
Other languages
English (en)
Other versions
JP2023120758A (ja
Inventor
浩二 小野
毅 平間
八雲 藤掛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HUMAN SUPPORT TECHNOLOGY CO., LTD.
IBARAKI PREFECTURAL GOVERNMENT
Original Assignee
HUMAN SUPPORT TECHNOLOGY CO., LTD.
IBARAKI PREFECTURAL GOVERNMENT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HUMAN SUPPORT TECHNOLOGY CO., LTD., IBARAKI PREFECTURAL GOVERNMENT filed Critical HUMAN SUPPORT TECHNOLOGY CO., LTD.
Priority to JP2022023790A priority Critical patent/JP7174389B1/ja
Application granted granted Critical
Publication of JP7174389B1 publication Critical patent/JP7174389B1/ja
Publication of JP2023120758A publication Critical patent/JP2023120758A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体の位置を容易にかつ正確に推定できるとともに、推定した物体の位置を分かりやすく表示することができる物体位置推定表示装置を提供すること。【解決手段】本発明の物体位置推定表示装置は、対象点設定手段、対象点位置推定手段及び表示手段12を備える。対象点設定手段は、撮像した画像21に映る物体A1,A2の所定の点を対象点26a,26bとして設定する。対象点位置推定手段は、カメラと平面31との位置関係を示す位置関係情報と、カメラの内部パラメータ情報とに基づいて、カメラを基準とした俯瞰座標系上における対象点26a,26bの位置を推定する。なお、表示手段12は、俯瞰平面の画像22を表示するとともにその画像22上に対象点26a,26bを示すアイコン27a,27bを表示する。【選択図】図2

Description

本発明は、物体の位置を推定して表示する物体位置推定表示装置、方法及びプログラムに関するものである。
従来、人間などの物体を撮像して得た画像に基づいて、物体の位置を推定する装置が用いられている(例えば、特許文献1参照)。
特開2020-136700号公報(請求項1,4、図2等)
ところが、引用文献1に記載の従来技術では、人間の位置を推定するにあたり、人間を歩かせて画像位置情報を予め取得する必要があるため、推定作業が大変である。しかも、位置の推定に、人ごとに異なる身長のデータを用いているため、人間の位置を正確に推定することは困難である。また、引用文献1に記載の従来技術には、画像を表示手段に表示する旨が何ら開示されていないため、装置の使用者は、物体の正確な位置を知ることができない。ゆえに、画像を表示して物体の位置を分かりやすく表示することが求められている。
本発明は上記の課題に鑑みてなされたものであり、その目的は、物体の位置を容易にかつ正確に推定できるとともに、推定した物体の位置を分かりやすく表示することができる物体位置推定表示装置、物体位置推定表示方法及び物体位置推定表示プログラムを提供することにある。
上記課題を解決するために、請求項1に記載の発明は、物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備え、前記物体の位置を推定して表示する装置であって、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像する前記カメラと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記並進ベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握手段と、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定手段と、前記位置関係把握手段が把握した位置関係情報としての前記鉛直ベクトルと、前記カメラの内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定手段とを備え、前記表示手段は、俯瞰平面の画像を表示するとともにその画像上に前記対象点を示すアイコンを表示することを特徴とする物体位置推定表示装置をその要旨とする。
請求項1に記載の発明では、平面上にマーカーを設置し、設置されたマーカーをカメラで撮像するだけで、位置関係把握手段は、撮像したマーカーに基づいて、カメラと平面との位置関係を自動的に把握する。さらに、対象点位置推定手段は、位置関係把握手段が把握した位置関係情報に基づいて、カメラを基準とした俯瞰座標系上における対象点の位置を自動的に推定する。つまり、マーカーを設置するだけで、対象点の位置が推定可能な状態となるため、推定した対象点の位置に基づいて、物体の位置を容易に推定することができる。また、位置関係把握手段は、平面からカメラまでの高さ、及び、平面からカメラに延びる垂線とカメラからマーカーに延びる線分とがなす角度を算出することにより、カメラと平面との位置関係を把握するため、物体の位置を正確に推定することができる。しかも、表示手段は、俯瞰平面の画像を表示するとともにその画像上に対象点を示すアイコンを表示する。これにより、推定した物体の位置を分かりやすく表示することができる。
なお、物体は、撮像対象空間内において平面上を移動する物体のことを指し、例えば、二足歩行の人間(請求項2)や四足歩行の動物等の生物、自動車等の無生物などを挙げることができる。さらに、四足歩行の動物としては、ウシ、ウマ、ブタ、ヒツジ、ヤギ等の家畜などを挙げることができる。また、対象点設定手段は、対象点を自動的に設定するものであってもよいし、対象点を手動で設定するものであってもよい。なお、対象点設定手段が対象点を自動的に設定するものであれば、使用者が対象点を設定しなくても済むため、使用者の作業負担を軽減することができる。
請求項2に記載の発明は、請求項1において、前記物体は人間または動物であり、前記対象点は前記人間または前記動物の足元に設定されることをその要旨とする。
請求項2に記載の発明では、対象点設定手段によって設定される対象点が人間または動物の足元に設定されるため、例えば、撮像した画像に映る複数の人間または複数の動物の高さ(身長)が互いに異なる場合であっても、対象点を平面に接地している箇所に設定することができる。これにより、カメラを基準とした俯瞰座標系上における対象点の位置を、正確に推定することができる。
請求項3に記載の発明は、請求項1または2において、前記俯瞰平面の画像上に、前記対象点を示すアイコンに加えて前記カメラを示すアイコンが表示されることをその要旨とする。
請求項3に記載の発明では、対象点を示すアイコンに加えてカメラを示すアイコンが表示されるため、使用者は、物体の正確な位置だけではなく、物体がどのカメラにより撮像されたものであるか(言い換えると、どの方向から撮像されたものであるか)を知ることができる。また、カメラの正確な位置も知ることができる。
請求項4に記載の発明は、請求項3において、前記表示手段は、前記俯瞰平面の画像と、前記カメラによって撮像された実際の画像とを並べて表示することをその要旨とする。
請求項4に記載の発明では、表示手段に俯瞰平面の画像と実際の画像とが表示されるため、両方の画像を見比べることにより、実際の画像に映る物体の全てが認識されているか否かを確認することができる。
請求項5に記載の発明は、請求項1乃至4のいずれか1項において、前記対象点を示すアイコンには、前記物体の種類を特定するための識別子が付与されていることをその要旨とする。
請求項5に記載の発明では、複数の物体が複雑に移動したとしても、それぞれの物体に付与された識別子を確認することにより、物体の種類を特定することができる。ここで、識別子としては、文字、数字、記号、絵等を用いることができる。
請求項6に記載の発明は、請求項1乃至5のいずれか1項において、前記カメラは複数台設けられ、前記対象点位置推定手段は、隣接する前記カメラの前記俯瞰座標系同士を前記マーカーを介して接続する演算処理を行うことにより、それぞれの前記カメラで撮像された画像同士を繋げる処理を行うことをその要旨とする。
請求項6に記載の発明では、隣接するカメラの俯瞰座標系同士を、これらのカメラに共通して映っているマーカーを介して接続する。具体的に言うと、例えば、一方のカメラの俯瞰座標系の点を、もう一方のカメラの俯瞰座標系の点に変換し、俯瞰座標系を共通化する。これにより、物体の位置を把握可能な範囲が拡張される。その結果、例えば撮像対象空間が広くて1台のカメラだけでは空間全体をカバーできない場合であっても、他のカメラと併せて撮像することで、死角がなくなり、空間全体において物体の位置を確実に把握することができる。また、物体の位置の推定精度も向上する。しかも、俯瞰座標系が、基準となる1つのカメラに合わせて統一されるため、把握した物体の位置は、使用者にとっても分かりやすいものとなる。
なお、本発明の場合、マーカーが特定の幾何学的特徴を有する二次元的なマーカーであるため、マーカーが例えば三次元的なものである場合よりも形状情報が単純なものとなる。その結果、マーカーの形状情報に基づいた、カメラと平面との位置関係を把握する制御が容易になるため、位置関係把握手段にかかる負担を低減することができる。
請求項7に記載の発明は、物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を用いて、前記物体の位置を推定して表示する方法であって、前記カメラを用いて、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像するマーカー撮像ステップと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記並進ベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、前記位置関係把握ステップにおいて把握した位置関係情報としての前記鉛直ベクトルと、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップとを含むことを特徴とする物体位置推定表示方法をその要旨とする。なお、請求項7に記載の発明では、上記請求項1と同様の作用を奏することができる。
請求項8に記載の発明は、物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を制御するプロセッサに、前記カメラを用いて、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像するマーカー撮像ステップと、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記並進ベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、前記位置関係把握ステップにおいて把握した位置関係情報としての前記鉛直ベクトルと、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップとを実行させるための物体位置推定表示プログラムをその要旨とする。なお、請求項8に記載の発明では、上記請求項1と同様の作用を奏することができる。
以上詳述したように、請求項1~に記載の発明によると、物体の位置を容易にかつ正確に推定できるとともに、推定した物体の位置を分かりやすく表示することができる。
第1実施形態における物体位置推定表示装置を示す概略構成図。 ディスプレイの表示を示す概略図。 (a)は、第1実施形態のマーカーを示す説明図、(b),(c)は、他の実施形態のマーカーを示す説明図。 人間の位置を推定して表示する処理を示すフローチャート。 外部パラメータによる座標変換を示す説明図。 床面ベクトルの推定の様子を示す説明図。 カメラを基準とした俯瞰座標系を示す説明図。 位置推定の様子を示す説明図。 方向ベクトルの導出の様子を示す説明図。 第2実施形態において、異なるカメラ同士から同じマーカーを撮像する様子を示す説明図。 マーカーを撮像する様子を示す俯瞰図。 第3の実施形態において、5台のカメラと2つのマーカーとを示す概略構成図。 カメラ同士の接続状態(即ち、カメラの俯瞰座標系同士が共通化された状態)を示す有向グラフ。 他の実施形態におけるマーカーの設置態様を示す説明図。
[第1実施形態]
以下、本発明を具体化した第1実施形態を図面に基づき詳細に説明する。
図1,図2に示されるように、本実施形態の物体位置推定表示装置1は、人間A1,A2(物体)の位置を推定して表示する装置である。また、物体位置推定表示装置1は、カメラ11及びディスプレイ12(表示手段)を備えている。本実施形態のカメラ11は、固定式の単眼カメラであり、室内にいる人間A1,A2を撮像して画像21(図2参照)を取得する。そして、カメラ11は、取得した画像21の画像データを出力する。
また、室内の床面31(平面)上には、マーカー32(図3(a)参照)が設置されている。マーカー32は、特定の幾何学的特徴を有する二次元的な正方形状のマーカー(本実施形態ではArUcoマーカー )であり、床面31に貼付されている。なお、マーカー32は、床面31上に置くだけでよく、移動させなくてもよい。また、マーカー32は、実際の位置推定を行うときには取り除いてもよい。
図2に示されるように、ディスプレイ12の左側には、カメラ11によって撮像された実際の画像21が表示されている。本実施形態では、画像21の中央部付近に人間A1が映っており、画像21の左側に別の人間A2が映っている。また、画像21上において、人間A2は、人間A1よりもやや手前に位置している。さらに、画像21上には、人間A1を認識する矩形状の枠26cが人間A1を囲むように表示され、人間A2を認識する矩形状の枠26dが人間A2を囲むように表示されている。また、画像21に映る人間A1,A2の足元には、対象点26a,26bが表示されている。対象点26a,26bは、人間A1,A2の所定の点、具体的には、人間A1,A2と床面31との境界線上に設定され、かつ人間A1,A2の左足と右足との間に設定される点である。なお、本実施形態では、人間A1の足元であって、枠26cを構成する下辺の中央部分に、緑色の対象点26aが設定されており、人間A2の足元であって、枠26dを構成する下辺の中央部分に、赤色の対象点26bが設定されている。
一方、ディスプレイ12の右側には、俯瞰平面の画像22が表示されている。俯瞰平面の画像22は、床面31を直上から見たときのイメージを示す画像である。また、俯瞰平面の画像22には、複数の横線23と複数の縦線24とによって構成された格子線25が表示されている。各横線23は、横方向に沿ってそれぞれ直線的に延びており、縦方向において一定間隔を空けて設けられている。また、各縦線24は、縦方向に沿ってそれぞれ直線状に延びており、横方向において一定間隔を空けて設けられている。そして、隣接する2本の横線23と隣接する2本の縦線24とによって構成されたマスは、縦1m×横1mの正方形状の格子を示している。
さらに、俯瞰平面の画像22上には、実際の画像21に表示された対象点26a,26bを示す円形状のアイコン27a,27bが表示されている。本実施形態では、画像22の中央部のやや上側に、緑色の対象点26aに対応する緑色のアイコン27aが表示され、画像22の中央部のやや左側に、赤色の対象点26bに対応する赤色のアイコン27bが表示されている。さらに、アイコン27a,27bには、人間A1,A2の種類(つまり、どの人か)を特定するための識別子28a,28bが付与されている。本実施形態では、緑色のアイコン27aに、識別子28aである緑色の数字「1」が付与され、赤色のアイコン27bに、識別子28bである緑色の数字「0」が付与されている。また、俯瞰平面の画像22上には、対象点26a,26bを示すアイコン27a,27bに加えて、カメラ11を示すアイコン29が表示されている。本実施形態のアイコン29は、三角形状をなす青色のアイコンであり、画像22の下側中央に表示されている。
次に、物体位置推定表示装置1の電気的構成について説明する。
図1に示されるように、物体位置推定表示装置1はパソコン(図示略)を備えており、パソコンは、装置全体を統括的に制御する制御装置40(プロセッサ)を備えている。制御装置40は、CPU41、ROM42、RAM43等からなる周知のコンピュータにより構成されている。CPU41には、パソコンのディスプレイ12及びパソコンのキーボード13が電気的に接続されている。また、本実施形態では、制御装置40にカメラ11をUSB(Universal Serial Bus)ケーブルを介して接続することにより、CPU41にカメラ11が電気的に接続される。そして、RAM43には、カメラ11が取得した画像21が記憶されるようになっている。また、ROM42には、物体位置推定表示装置1を制御するためのプログラム(物体位置推定表示プログラム)が記憶されている。
次に、物体位置推定表示装置1を用いて、人間A1,A2の位置を推定して表示する方法(物体位置推定表示方法)を説明する。
次に、カメラ11と室内の床面31との位置関係を把握する方法について説明する。まず、制御装置40のCPU41は、図4に示すステップS10(マーカー撮像ステップ)において、カメラ11を用いて、床面31上に設置されたマーカー32(図3(a)参照)を撮像する。
ところで、図5に示されるように、マーカー32とカメラ11との位置関係は、回転行列Rと並進ベクトルtとからなる外部パラメータで表されている。また、マーカー32は、自身を中心とした座標系(マーカー座標系)を有している。一方、カメラ11も、自身を中心とした座標系(カメラ座標系)を有している。
そこで、CPU41は、図4に示すステップS20(位置関係把握ステップ)において、撮像したマーカー32を基準としたマーカー座標系上の点(X,Y,Z)を、カメラ11を基準としたカメラ座標系上の点(x,y,z)に変換する(図5参照)。なお、カメラ座標系上の点(x,y,z)は、次式(1)にて算出することができる。
Figure 0007174389000002
次に、CPU41は、床面31からカメラ11までの高さhを算出するとともに、床面31からカメラ11に延びる垂線とカメラ11からマーカー32に延びる線分とがなす角度θを算出することにより、カメラ11と床面31との位置関係を把握する(図6参照)。即ち、CPU41は、『位置関係把握手段』としての機能を有している。なお、カメラ11と床面31との位置関係は、カメラ座標系上の床面ベクトルFとして表される。床面ベクトルFの長さは、カメラ11から床面31までの距離と等しくなっている。また、床面ベクトルFの向きは、マーカー座標系のZ軸の向きとは逆向き(つまり、床面31に対して垂直)になっている。
なお、床面ベクトルFは、ベクトル同士の幾何学的性質を利用して以下のように求められる。まず、カメラ座標系において、Z軸とは逆向きのベクトルfを算出する。なお、emzをマーカー座標系におけるZ軸方向の単位ベクトルとすると、ベクトルfは、回転行列Rに基づき、次式(2)にて算出することができる。
Figure 0007174389000003
次に、並進ベクトルtが床面31からカメラ11に延びる垂線となす角度θtと、床面31からカメラ11までの高さhとを算出する。まず、並進ベクトルtとベクトルfとの内積により、角度θtは、次式(3)にて算出することができる。
Figure 0007174389000004
また、高さhは、次式(4)にて算出することができる。
Figure 0007174389000005
次に、ベクトルfをスケーリングして、床面ベクトルFを算出する。なお、床面ベクトルFは、次式(5)にて算出することができる。
Figure 0007174389000006
次に、カメラ11を基準とした人間A1,A2の位置を推定して表示する方法を以下に説明する。なお、本実施形態では、撮像した画像21の中央部付近に映る人間A1の位置を推定して表示する方法について説明する。具体的には、算出した床面ベクトルFに基づいて、カメラ11を基準とした俯瞰座標系上における対象点26aの位置を求める(図7参照)。俯瞰座標系は、カメラ11や床面31を垂直に俯瞰した座標系であり、カメラ11と同じ方向にy軸、y軸と直交する向きをx軸としたxy座標系として表される。3次元的には、床面ベクトルFをz軸とした左手座標系に相当する。
なお、位置推定を行うためには、カメラ11の内部パラメータが必要である。内部パラメータとは、カメラ11の焦点距離f,fや光学中心c,cからなる行列である。次式(6)により、カメラ座標系上の点(x,y,z)を画像平面上の点(a,b)へと変換することができる。
Figure 0007174389000007
また、内部パラメータは、OpenCV(Open Source Computer Vision Library )で用意されているCalibrateCamera関数 や、カメラ11のデータシートからの計算等により算出することができる。そして、CPU41は、図4に示すステップS30(内部パラメータ入力ステップ)において、カメラ11の内部パラメータの情報(内部パラメータ情報)をRAM43に記憶する。即ち、RAM43は、カメラ11の内部パラメータ情報を記憶する『記憶手段』としての機能を有している。
続くステップS40(対象点設定ステップ)において、CPU41は、撮像した画像21に映る人間A1の足元に設定される所定の点を、対象点26aとして設定する。即ち、CPU41は、『対象点設定手段』としての機能を有している。詳述すると、本実施形態のCPU41は、学習部としての機能を有している。学習部は、カメラ11が取得した画像21の画像データに基づいて、対象点26aの設定箇所(人間A1の足元)をどのようにして認識するかを予め学習し、学習結果を得る。そして、学習部は、得られた学習結果を示すデータをRAM43に記憶する。さらに、CPU41は、RAM43に記憶されている学習結果に基づいて、対象点26aの設定方法を決定し、その決定した内容に沿ってCPU41による対象点26aの設定を行わせる。このようにすれば、学習部による学習結果に基づいて、対象点26aの設定方法が最適化されるため、最適化した内容に沿って対象点26aを設定することにより、対象点26aを正確に設定することができる。しかも、学習部による学習機会を多くすれば、対象点26aの設定方法がより最適化されるため、対象点26aをより正確に設定することが可能となる。
続くステップS50(対象点位置推定ステップ)において、CPU41は、位置関係把握ステップにおいて把握した位置関係の情報(位置関係情報)と、RAM43に記憶されている内部パラメータ情報とに基づいて、カメラ11を基準とした俯瞰座標系上における対象点26aの位置を推定する。即ち、CPU41は、『対象点位置推定手段』としての機能を有している。具体的に言うと、図8,図9に示されるように、カメラ11を基準とした座標系上における対象点26aの位置(x,y)を、以下のように算出する。まず、人間A1を撮像するなどして、図9に示す対象点(u,v)を決定する。この対象点(u,v)は、俯瞰平面上に存在するものと仮定される。
そして、次式(7)により、対象点(u,v)に対する3次元的な方向ベクトルdを算出する。
Figure 0007174389000008

なお、図9では、画像平面に映った人間A1の足元を対象点(u,v)としたうえで、対象点(u,v)に対する方向ベクトルdを求めている。次に、次式(8)により、床面ベクトルFと方向ベクトルdとのなす角度θを算出する。
Figure 0007174389000009
さらに、次式(9)により、人間A1までの直線距離dを算出した後、次式(10)により、床面31上における距離lを算出する。
Figure 0007174389000010

Figure 0007174389000011
そして、次式(11)により、方向ベクトルdをスケーリングしてDを算出した後、次式(12)により、ベクトルgを算出する。
Figure 0007174389000012

Figure 0007174389000013

なお、ベクトルgは、カメラ座標系における、俯瞰平面上での原点から対象点26aまでの位置を示している。
その後、式(8)~式(12)と同様の式を用いて、カメラ座標系上のz軸方向の単位ベクトルeczに対して、ベクトルgを求める(具体的には、式(8)~式(12)の方向ベクトルdを単位ベクトルe、ベクトルgをベクトルgに読み替える)。なお、図8に示されるように、ベクトルgは、カメラ座標系において、俯瞰座標系のy軸と平行になっている。
次に、次式(13)を用いて、ベクトルgを床面ベクトルFの周りで90°回転させたベクトルgを求める。
Figure 0007174389000014

ここで、Rは回転行列であり、床面ベクトルFを(F,F,F)で示したとき、回転行列Rは次式(14)にて算出することができる。
Figure 0007174389000015

また、ベクトルgは、カメラ座標系において、俯瞰座標系のx軸と平行になっている。
次に、内積により、ベクトルgとベクトルgとがなす角度θを、次式(15),(16)を用いて算出する。
Figure 0007174389000016

Figure 0007174389000017
その結果、距離l及び角度θから、対象点26aの位置(x,y)が極座標表示として得られたので、(x,y)は、x=lsinθ,y=lcosθとなる。これにより、カメラ11を基準とした人間A1の位置が推定される。
その後、CPU41は、図4に示すステップS60(表示ステップ)において、ディスプレイ12に俯瞰平面の画像22を表示させるとともに、その画像22上に対象点26aを示すアイコン27aを表示させる処理を行う。これにより、推定された人間A1の位置が表示される。
従って、本実施形態によれば以下の効果を得ることができる。
(1)本実施形態の物体位置推定表示装置1では、床面31上にマーカー32を設置し、設置されたマーカー32をカメラ11で撮像するだけで、CPU41は、撮像したマーカー32とカメラ11との位置関係を外部パラメータを用いて自動的に把握し、カメラ11と床面31との位置関係を自動的に把握する。さらに、CPU41は、把握した位置関係情報に基づいて、カメラ11を基準とした俯瞰座標系上における対象点26a,26bの位置を自動的に推定する。つまり、マーカー32を設置するだけで、対象点26a,26bの位置が推定可能な状態となる。このため、推定した対象点26a,26bの位置に基づいて、人間A1,A2の位置を容易に推定することができる。しかも、CPU41は、外部パラメータである位置関係情報に加えて、カメラ11の内部パラメータに基づいて対象点26a,26bの位置を推定するため、人間A1,A2の位置を正確に推定することができる。さらに、CPU41は、床面31からカメラ11までの高さh(図6参照)、及び、床面31からカメラ11に延びる垂線とカメラ11からマーカー32に延びる線分とがなす角度θ(図6参照)を算出することにより、カメラ11と床面31との位置関係を把握する。このため、人間A1,A2の位置をより正確に推定することができる。また、ディスプレイ12は、俯瞰平面の画像22を表示するとともにその画像22上に対象点26a,26bを示すアイコン27a,27bを表示する。これにより、推定した人間A1,A2の位置を分かりやすく表示することができる。
(2)引用文献1には、カメラによって撮像された画像データ内の被写体(人間)の高さ等に基づいて、被写体の位置を推定する技術が開示されている(引用文献1の請求項4、図5等を参照)。しかしながら、被写体の高さ(身長)はバラバラである。また、被写体が近くにあれば画像データ内の被写体が高くなり、被写体が遠くにあれば画像データ内の被写体が低くなってしまう。よって、被写体の高さに基づいて被写体の位置を正確に推定することは困難である。
一方、本実施形態では、CPU41によって設定される対象点26a,26bが人間A1,A2の足元に設定されるため、例えば、撮像した画像21に映る人間A1,A2の高さ(身長)が互いに異なる場合であっても、対象点26a,26bを床面31に設置している箇所に設定することができる。これにより、カメラ11を基準とした俯瞰座標系上における対象点26a,26bの位置を、正確に推定することができる。
(3)本実施形態のディスプレイ12には、俯瞰平面の画像22が表示され、その画像22上には、縦1m×横1mの格子を示すマスを構成する格子線25が表示されている。このため、格子線25に対象点26a,26bを示すアイコン27a,27bを表示することにより、人間A1,A2の位置を正確に知ることができる。
(4)本実施形態では、CPU41が、床面31からカメラ11までの高さh(図6参照)、及び、床面31からカメラ11に延びる垂線とカメラ11からマーカー32に延びる線分とがなす角度θ(図6参照)を算出することにより、カメラ11と床面31との位置関係を把握している。このため、専用の特殊なカメラを用いなくても、人間A1,A2の位置を簡単に精度良く推定することができる。なお、本実施形態では、人間A1,A2を撮像するカメラ11として、比較的安価な単眼カメラを用いている。よって、人間A1,A2の撮像に高価なデプスカメラ等を用いる場合と比較して、装置のコストを低減することができる。
[第2実施形態]
以下、本発明を具体化した第2実施形態を図10,図11に基づいて説明する。ここでは、前記第1実施形態と相違する部分を中心に説明する。本実施形態では、物体位置推定表示装置1が2台のカメラ51,52(第1のカメラ51、第2のカメラ52)を有している点が、前記第1実施形態とは異なっている。
まず、2台のカメラ51,52を接続する方法を説明する。なお、前提として、使用するカメラ51,52は、床面31との位置関係が床面ベクトルF,Fの形で分かっている必要がある。また、マーカー61は、床面31上に設置されており、識別子(本実施形態ではID)によって、マーカー61の種類(形状)を識別できる必要がある。
まず、それぞれのカメラ51,52によってマーカー61を撮像し、マーカー61と第1のカメラ51との位置関係(R,t)と、マーカー61と第2のカメラ52との位置関係(R,t)とを推定する。その際、両カメラ51,52が同じマーカー61を撮像しているか否かを、マーカー61のIDによって確認する。
このようにしてマーカー61を撮像した場合、カメラ51,52同士の直接的な位置関係は分からないが、世界座標系(マーカー座標系)は共有されている。このため、それぞれのカメラ51,52から見た点を、マーカー61から見た点に変換して比較したり、さらに他方のカメラから見た点に変換したりすることが可能である。
そこで、CPU41は、隣接するカメラ51,52の俯瞰座標系同士をマーカー61を介して接続する演算処理を行うことにより、それぞれのカメラ51,52で撮像された画像21同士を繋げる処理を行う。ここで、「カメラ51,52で撮像された画像21同士を繋げる処理」とは、カメラ51,52同士の位置関係を把握し、一方のカメラ(本実施形態では第2のカメラ52)の俯瞰座標系の点(x,y)を、もう一方のカメラ(本実施形態では第1のカメラ51)の俯瞰座標系の点(x,y)に変換する処理をいう。なお、第1のカメラ51の俯瞰座標系の点(x,y)を、第2のカメラ52の俯瞰座標系の点(x,y)に変換する処理を行ってもよいし、第1のカメラ51の俯瞰座標系の点(x,y)及び第2のカメラ52の俯瞰座標系の点(x,y)の両方を、他の俯瞰座標系の点に変換する処理を行ってもよい。
図11に示されるように、各カメラ51,52の俯瞰座標系は同じ床面31上に属しているため、俯瞰座標系同士の変換は、アフィン変換による回転行列R及び並進行列Tによって行うことができる。具体的には、上記したマーカー座標系の性質を利用して、以下の手順によって、アフィン変換行列Aを求める。
まず、それぞれのカメラ51,52の床面ベクトルF,Fを、次式(17)によって逆変換し、マーカー座標系から見た床面ベクトルFM1,FM2に変換する。
Figure 0007174389000018
次に、それぞれのカメラ51,52の単位ベクトルez1,ez2を、次式(18)を用いて、マーカー座標系から見た俯瞰座標系におけるカメラ51,52の方向ベクトルdM1,dM2に変換する。
Figure 0007174389000019

ここで、squeeze(A) は、次式(19)によって算出される。
Figure 0007174389000020
さらに、以下のようにして、並進行列Tを算出する。まず、マーカー座標系上の単位ベクトルをeMyとし、方向ベクトルdM1と単位ベクトルeMyとがなす角度をθとすると、角度θは、次式(20)によって算出される。
Figure 0007174389000021

ここで、sign(a,b)は、次式(21)によって算出される。
Figure 0007174389000022
さらに、原点がマーカー座標系と共通で、第1のカメラ51に対する俯瞰座標系と平行な座標軸を持つ座標系にマーカー座標系を変換する際のアフィン変換行列Aは、次式(22)によって算出される。
Figure 0007174389000023
また、上記の座標系上において、第2のカメラ52から第1のカメラ51への並進ベクトルt=(t,t,t)は、次式(23)によって算出される。
Figure 0007174389000024
そして、並進行列Tは、次式(24)によって算出される。
Figure 0007174389000025
さらに、以下のようにして、回転行列Rを算出する。まず、方向ベクトルdM1と方向ベクトルdM2とがなす角度をθとすると、角度θは、次式(25)によって算出される。
Figure 0007174389000026
そして、回転行列Rは、次式(26)によって算出される。
Figure 0007174389000027
次に、次式(27)により、回転行列Rと並進行列Tとが合成されたアフィン変換行列Aを得る。
Figure 0007174389000028

なお、第2のカメラ52の俯瞰座標系上の点(x,y)から第1のカメラ51の俯瞰座標系上の点(x,y)への変換は、次式(28)によって算出される。
Figure 0007174389000029
従って、本実施形態によれば、隣接するカメラ51,52の俯瞰座標系同士を、両カメラ51,52に共通して映っているマーカー61を介して接続する。具体的に言うと、例えば、一方のカメラ(第2のカメラ52)の俯瞰座標系の点を、もう一方のカメラ(第1のカメラ51)の俯瞰座標系の点に変換し、俯瞰座標系を共通化する。これにより、人間の位置を把握可能な範囲が拡張される。その結果、例えば撮像対象空間が広くて1台のカメラだけでは空間全体をカバーできない場合(例えば、画像21の隅等の領域をカバーできない場合)であっても、他のカメラと併せて撮像することで、死角がなくなり、空間全体において人間の位置を確実に把握することができる。また、人間の位置の推定精度も向上する。しかも、俯瞰座標系が、基準となる1つのカメラに合わせて統一されるため、把握した人間の位置は、使用者にとっても分かりやすいものとなる。
[第3実施形態]
以下、本発明を具体化した第3実施形態を図12,図13に基づいて説明する。ここでは、前記第2実施形態と相違する部分を中心に説明する。本実施形態では、物体位置推定装置1が3台以上(ここでは5台)のカメラ71~75(第1のカメラ71、第2のカメラ72、第3のカメラ73、第4のカメラ74、第5のカメラ75)を有している点が、前記第2実施形態とは異なっている。
例えば、3台以上のカメラを接続する場合、即ち、カメラの俯瞰座標系を共通化する場合、全てのカメラから同じマーカーが見えていれば、上記第2実施形態の手法を適用できるため、接続が可能である。しかし、そのようなケースは珍しく、カメラの位置や画角の制限等によって、接続は不可能なことが多い。従って、この問題を解決するためには、複数のマーカーを利用してカメラの俯瞰座標系同士を共通化する必要がある。
例えば、図12に示される物体位置推定表示装置70では、5台のカメラ71~75に対して2つのマーカー81A,81Bが設けられている。第1のカメラ71~第3のカメラ73にはマーカー81Aが見えていて、第3のカメラ73~第5のカメラ75にはマーカー81Bが見えている。
この場合、マーカー81A,81Bのそれぞれについて、同じマーカーが見えているカメラ同士の接続状態を調べた後、接続が判明している組み合わせに対して接続を繰り返す。例えば、図12において、第3のカメラ73-第1のカメラ71間の接続と、第5のカメラ75-第3のカメラ73間の接続とが既に判明している場合に、第5のカメラ75と第1のカメラ71とを接続する方法について説明する。まず、CPU41は、第5のカメラ75の俯瞰座標系と第3のカメラ73の俯瞰座標系とをマーカー81Bを介して接続することにより、第5のカメラ75の俯瞰座標系の点を、第3のカメラ73の俯瞰座標系の点に変換する。次に、CPU41は、第3のカメラ73の俯瞰座標系と第1のカメラ71の俯瞰座標系とをマーカー81Aを介して接続することにより、変換した第3のカメラ73の俯瞰座標系の点を、第1のカメラ71の俯瞰座標系の点に変換する。その結果、第5のカメラ75の俯瞰座標系と第1のカメラ71の俯瞰座標系とが、マーカー81A,81Bを介して接続され、人間の位置を把握可能な範囲が段階的に拡張される。
なお、このようなカメラ71~75同士の接続状態(即ち、カメラ71~75の俯瞰座標系同士が共通化された状態)は、図13に示される有向グラフを用いて簡単に示すことができる。各ノードは、カメラ71~75ごとに振り分けられた番号であり、各ノードを繋ぐ経路(図13では矢印)は、カメラ同士の接続が判明していることを意味している。また、それぞれの経路には、接続に対応する変換行列Aが重みとして加えられている。図13では、第1のカメラ71~第3のカメラ73が共通のマーカー81Aを介して接続され、第3のカメラ73~第5のカメラ75が共通のマーカー81Bを介して接続されている。なお、図13では、各ノードを繋ぐ経路の幾つかが省略されている。
また、有向グラフを用いた場合、特定のカメラSから対象のカメラTへの接続は、カメラSからカメラTまでの経路を調べた後、経路上の重みを順番にかけていくことによって求められる。このような有向グラフをコンピュータ上で表現したり探索したりする方法は周知であり、実装も容易である。
また、マーカー81A,81B及びカメラ71~75の設置方法によっては、特定のカメラ同士の接続が存在しない場合(有向グラフが分断されている場合)があるが、このような場合の検出も容易に行うことができる。
なお、上記各実施形態を以下のように変更してもよい。
・上記各実施形態のカメラ11,51,52,71~75は、動画を撮像するビデオカメラであったが、静止画を撮像するカメラであってもよい。また、上記各実施形態のカメラ11,51,52,71~75は、単眼カメラであったが、複眼カメラ等の他のカメラであってもよい。さらに、映像の奥行きを測定できるデプスカメラやステレオカメラを用いてもよい。さらには、元々そこに設置されている既存のカメラを利用して、物体位置推定を行ってもよい。
・上記各実施形態では、人間A1,A2に設定される対象点26a,26bが、人間A1,A2の足元に設定されていたが、人間A1,A2の胸や頭等の他の箇所に設定されていてもよい。なお、人間A1,A2の高さ(身長)や姿勢が既知であれば、対象点26a,26bが人間A1,A2の足元に設定されていなくても、人間A1,A2の位置推定が可能となる。
・上記各実施形態の物体位置推定表示装置1,70は、人間A1,A2の位置を推定するものであったが、ウシなどの家畜(物体)の位置を推定するものであってもよい。この場合、対象点設定手段であるCPU41は、画像21に映るウシの足元に対象点を設定する。例えば、画像21に映るウシの脚が3本である場合、CPU41は、最も左に映るウシの脚と最も右に映るウシの脚との中間位置等に対象点を設定する。そして、CPU41は、カメラを基準とした俯瞰座標系上における対象点の位置を推定する。また、物体位置推定表示装置1,70を利用して、家畜の健康状態等を推定するシステムを構成してもよい。具体的には、画像21に映るウシの速度等に基づいて、ウシが病気であるか否かを判定してもよい。また、画像21の画像データに基づいて、ウシが他のウシに接触しているか否か等を判定し、ウシが発情しているか否かを判定してもよい。なお、ウシ以外の家畜に応用してもよい。
・上記各実施形態のマーカー32,61,81A,81Bは、床面31に対して平行に設置されていた。しかしながら、家畜がいる床面に凹凸がある場合や、床面が家畜の糞尿で汚れている場合には、マーカーを床面31に平行に設置することが困難である。そこで、例えば図14に示されるように、マーカー91を、床面31に対して所定角度(ここでは90°)だけ傾斜させた状態で、床面31上に設置してもよい。なお、所定角度のデータは、物体位置推定表示装置1,70側(ROM42)に予め設定される必要がある。
・図3(b),(c)に示されるように、上記第1実施形態のマーカー32とは異なる幾何学的特徴(パターン)を有するマーカー33,34を用いてもよい。また、上記第1実施形態のマーカー32は、二次元的なArUcoマーカー であったが、QRコード(株式会社デンソーウェーブの登録商標)やAprilTag等の他の二次元的なマーカーであってもよい。さらに、絵、文字、記号等の他の二次元的なものをマーカーとして用いてもよい。また、床面31上に存在する突起等の三次元的なものを、マーカーとして用いてもよい。
次に、特許請求の範囲に記載された技術的思想のほかに、前述した実施形態によって把握される技術的思想を以下に列挙する。
(1)請求項1乃至7のいずれか1項において、前記位置関係把握手段は、回転行列と並進ベクトルとからなる外部パラメータを用いて、撮像した前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換することを特徴とする物体位置推定表示装置。
(2)請求項1乃至7のいずれか1項において、前記内部パラメータ情報を記憶する記憶手段を備え、前記対象点位置推定手段は、前記位置関係把握手段が把握した位置関係情報と、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記対象点の位置を推定することを特徴とする物体位置推定表示装置。
(3)技術的思想(2)において、前記対象点位置推定手段は、前記内部パラメータ情報を算出して前記記憶手段に記憶させることを特徴とする物体位置推定表示装置。
1,70…物体位置推定表示装置
11,51,52,71,72,73,74,75…カメラ
12…表示手段としてのディスプレイ
21…実際の画像
22…俯瞰平面の画像
26a,26b…対象点
27a,27b…対象点を示すアイコン
28a,28b…識別子
29…カメラを示すアイコン
31…平面としての床面
32,33,34,61,81A,81B,91…マーカー
40…プロセッサとしての制御装置
41…位置関係把握手段、対象点設定手段及び対象点位置推定手段としてのCPU
43…記憶手段としてのRAM
A1,A2…物体としての人間
h…平面からカメラまでの高さ
θt…平面からカメラに延びる垂線とカメラからマーカーに延びる線分とがなす角度

Claims (8)

  1. 物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備え、前記物体の位置を推定して表示する装置であって、
    平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像する前記カメラと、
    撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記並進ベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握手段と、
    撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定手段と、
    前記位置関係把握手段が把握した位置関係情報としての前記鉛直ベクトルと、前記カメラの内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定手段と
    を備え、
    前記表示手段は、俯瞰平面の画像を表示するとともにその画像上に前記対象点を示すアイコンを表示する
    ことを特徴とする物体位置推定表示装置。
  2. 前記物体は人間または動物であり、前記対象点は前記人間または前記動物の足元に設定されることを特徴とする請求項1に記載の物体位置推定表示装置。
  3. 前記俯瞰平面の画像上に、前記対象点を示すアイコンに加えて前記カメラを示すアイコンが表示されることを特徴とする請求項1または2に記載の物体位置推定表示装置。
  4. 前記表示手段は、前記俯瞰平面の画像と、前記カメラによって撮像された実際の画像とを並べて表示することを特徴とする請求項3に記載の物体位置推定表示装置。
  5. 前記対象点を示すアイコンには、前記物体の種類を特定するための識別子が付与されていることを特徴とする請求項1乃至4のいずれか1項に記載の物体位置推定表示装置。
  6. 前記カメラは複数台設けられ、
    前記対象点位置推定手段は、隣接する前記カメラの前記俯瞰座標系同士を前記マーカーを介して接続する演算処理を行うことにより、それぞれの前記カメラで撮像された画像同士を繋げる処理を行う
    ことを特徴とする請求項1乃至5のいずれか1項に記載の物体位置推定表示装置。
  7. 物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を用いて、前記物体の位置を推定して表示する方法であって、
    前記カメラを用いて、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像するマーカー撮像ステップと、
    撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記並進ベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、
    前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、
    撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、
    前記位置関係把握ステップにおいて把握した位置関係情報としての前記鉛直ベクトルと、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、
    前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップと
    を含むことを特徴とする物体位置推定表示方法。
  8. 物体を撮像して画像を取得する固定式カメラと、前記画像を表示する表示手段とを備えた物体位置推定表示装置を制御するプロセッサに、
    前記カメラを用いて、平面上に設置され、特定の幾何学的特徴を有する二次元的なマーカーであるARマーカーを撮像するマーカー撮像ステップと、
    撮像した前記マーカーを基準としたマーカー座標系上の点を、前記マーカー座標の原点周りに回転させる三次元回転行列と、前記カメラを基準としたカメラ座標系の原点まで前記マーカー座標の原点を並行移動させる並進ベクトルとからなる外部パラメータを用いて、前記マーカーを基準としたマーカー座標系上の点を、前記カメラを基準としたカメラ座標系上の点に変換する行列式を利用し、まず前記カメラ座標系において前記平面に対して垂直上向きのZ軸とは逆向きのベクトルを前記三次元回転行列に基づいて算出し、次に前記逆向きのベクトルと前記並進ベクトルとにより前記平面から前記カメラに延びる垂線と前記カメラから前記マーカーに延びる線分とがなす角度を算出し、さらに前記並進ベクトルと前記角度とにより前記平面から前記カメラまでの高さを算出した後、前記逆向きのベクトルと前記高さとに基づいて前記カメラから前記平面まで垂直に延びる鉛直ベクトルを算出することにより、前記カメラと前記平面との位置関係を把握する位置関係把握ステップと、
    前記カメラの内部パラメータ情報を記憶手段に入力する内部パラメータ入力ステップと、
    撮像した画像に映る前記物体の所定の点を対象点として設定する対象点設定ステップと、
    前記位置関係把握ステップにおいて把握した位置関係情報としての前記鉛直ベクトルと、前記記憶手段に記憶されている前記内部パラメータ情報とに基づいて、前記カメラを基準とした俯瞰座標系上における前記対象点の位置を推定する対象点位置推定ステップと、
    前記表示手段に俯瞰平面の画像を表示するとともに、その画像上に前記対象点を示すアイコンを表示する表示ステップと
    を実行させるための物体位置推定表示プログラム。
JP2022023790A 2022-02-18 2022-02-18 物体位置推定表示装置、方法及びプログラム Active JP7174389B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022023790A JP7174389B1 (ja) 2022-02-18 2022-02-18 物体位置推定表示装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022023790A JP7174389B1 (ja) 2022-02-18 2022-02-18 物体位置推定表示装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP7174389B1 true JP7174389B1 (ja) 2022-11-17
JP2023120758A JP2023120758A (ja) 2023-08-30

Family

ID=84100536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022023790A Active JP7174389B1 (ja) 2022-02-18 2022-02-18 物体位置推定表示装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7174389B1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115006A (ja) 2004-10-12 2006-04-27 Nippon Telegr & Teleph Corp <Ntt> 個別映像撮影・配信装置、個別映像撮影・配信方法およびプログラム
JP2010258897A (ja) 2009-04-27 2010-11-11 Fujitsu Ltd 判定プログラムおよびキャリブレーション装置
WO2015087730A1 (ja) 2013-12-10 2015-06-18 株式会社日立国際電気 監視システム
JP2016013793A (ja) 2014-07-03 2016-01-28 株式会社デンソー 画像表示装置、画像表示方法
JP2017074870A (ja) 2015-10-15 2017-04-20 日立建機株式会社 車両周囲障害物検出装置
JP2018074286A (ja) 2016-10-26 2018-05-10 三菱自動車工業株式会社 運転支援装置
JP2020043400A (ja) 2018-09-06 2020-03-19 アイシン精機株式会社 周辺監視装置
JP2020045687A (ja) 2018-09-19 2020-03-26 日立建機株式会社 作業機械
JP2021019253A (ja) 2019-07-18 2021-02-15 株式会社小松製作所 作業車両の表示システムおよび作業車両の表示方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115006A (ja) 2004-10-12 2006-04-27 Nippon Telegr & Teleph Corp <Ntt> 個別映像撮影・配信装置、個別映像撮影・配信方法およびプログラム
JP2010258897A (ja) 2009-04-27 2010-11-11 Fujitsu Ltd 判定プログラムおよびキャリブレーション装置
WO2015087730A1 (ja) 2013-12-10 2015-06-18 株式会社日立国際電気 監視システム
JP2016013793A (ja) 2014-07-03 2016-01-28 株式会社デンソー 画像表示装置、画像表示方法
JP2017074870A (ja) 2015-10-15 2017-04-20 日立建機株式会社 車両周囲障害物検出装置
JP2018074286A (ja) 2016-10-26 2018-05-10 三菱自動車工業株式会社 運転支援装置
JP2020043400A (ja) 2018-09-06 2020-03-19 アイシン精機株式会社 周辺監視装置
JP2020045687A (ja) 2018-09-19 2020-03-26 日立建機株式会社 作業機械
JP2021019253A (ja) 2019-07-18 2021-02-15 株式会社小松製作所 作業車両の表示システムおよび作業車両の表示方法

Also Published As

Publication number Publication date
JP2023120758A (ja) 2023-08-30

Similar Documents

Publication Publication Date Title
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
JP5812599B2 (ja) 情報処理方法及びその装置
JP6573419B1 (ja) 位置決め方法、ロボット及びコンピューター記憶媒体
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
WO2015037178A1 (ja) 姿勢推定方法及びロボット
US20130187919A1 (en) 3D Body Modeling, from a Single or Multiple 3D Cameras, in the Presence of Motion
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP2017103602A (ja) 位置検出装置、位置検出方法及びプログラム
WO2020063987A1 (zh) 三维扫描方法、装置、存储介质和处理器
KR101239532B1 (ko) 로봇의 위치 인식 장치 및 방법
JP4132068B2 (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
JP4938748B2 (ja) 画像認識装置及びプログラム
JP2009121824A (ja) カメラパラメータ推定装置およびカメラパラメータ推定プログラム
JP2008309595A (ja) オブジェクト認識装置及びそれに用いられるプログラム
JP4227037B2 (ja) 撮像システム及び校正方法
JP7174389B1 (ja) 物体位置推定表示装置、方法及びプログラム
JP2010184300A (ja) 姿勢変更システムおよび姿勢変更方法
CN108234932B (zh) 视频监控图像中的人员形态提取方法及装置
JP2002259984A (ja) 動作解析装置及び動作解析方法
JP4886661B2 (ja) カメラパラメータ推定装置およびカメラパラメータ推定プログラム
JP2002008043A (ja) 動作解析装置及び動作解析方法
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
JP2021093151A (ja) オブジェクト認識システム、装置、方法及びプログラム
JP2021047516A (ja) 情報処理装置、座標変換システム、座標変換方法、及び座標変換プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221027

R150 Certificate of patent or registration of utility model

Ref document number: 7174389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150