JP5471919B2 - Image processing apparatus, image processing program, image processing method, and moving body - Google Patents

Image processing apparatus, image processing program, image processing method, and moving body Download PDF

Info

Publication number
JP5471919B2
JP5471919B2 JP2010160103A JP2010160103A JP5471919B2 JP 5471919 B2 JP5471919 B2 JP 5471919B2 JP 2010160103 A JP2010160103 A JP 2010160103A JP 2010160103 A JP2010160103 A JP 2010160103A JP 5471919 B2 JP5471919 B2 JP 5471919B2
Authority
JP
Japan
Prior art keywords
browsing
image
prohibited
depth
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010160103A
Other languages
Japanese (ja)
Other versions
JP2012023573A (en
Inventor
学 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010160103A priority Critical patent/JP5471919B2/en
Publication of JP2012023573A publication Critical patent/JP2012023573A/en
Application granted granted Critical
Publication of JP5471919B2 publication Critical patent/JP5471919B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本件は、画像処理装置、画像処理プログラム及び画像処理方法、並びに移動体に関する。   The present invention relates to an image processing apparatus, an image processing program, an image processing method, and a moving object.

近年、自律的に移動し、様々なサービスを提供するロボットの実用化が進められている。ロボットが提供するサービスには、ロボットが撮影したロボット周辺の画像を遠隔地に配信するというサービスがある。最近では、通信のインフラ整備に伴って、カメラで撮影した動画を無線で配信することも可能となってきている。これにより、今後は、ロボットが街中を移動して撮影した画像(静止画及び動画)を、インターネットを介して世界中からリアルタイムで確認することができるサービスなども提供できる可能性がある。   In recent years, robots that move autonomously and provide various services have been put into practical use. Among the services provided by robots, there is a service that distributes images around a robot taken by a robot to a remote location. Recently, with the development of communication infrastructure, it has become possible to distribute video shot by a camera wirelessly. Accordingly, in the future, there is a possibility that a service or the like that allows the robot to check images (still images and moving images) taken while moving around the city in real time from the world via the Internet.

一方、プライバシー保護に関する社会的な要求は非常に高い。したがって、上記のようなサービスを普及させるためには、撮影した画像の中で閲覧できる部分を制限することが必要である。例えば、ロボットが街中を移動して撮影する場合には、撮影された画像に写っている個人の家を閲覧不可能にする等の制限が必要となる。   On the other hand, social demands for privacy protection are very high. Therefore, in order to spread the service as described above, it is necessary to limit the portion that can be browsed in the captured image. For example, when a robot moves around a city and shoots, there is a need for a restriction such as making it impossible to browse a personal house shown in the captured image.

これに対し、カメラで撮影した画像の閲覧を制限する技術には、特許文献1、2のような技術がある。特許文献1の技術は、監視カメラ等の配置位置が固定されたパンチルトカメラで撮影した画像に対し、プライバシー部分として閲覧を制限したい部分をパン・チルトのエンコーダ情報を用いてマスキング設定するというものである。また、特許文献2の技術は、移動するカメラに関する技術として、基地局データを用いてカメラを内蔵する携帯電話の存在する位置を特定し、携帯電話がある空間に存在している場合に、カメラによる撮影を禁止するというものである。   On the other hand, there are techniques as disclosed in Patent Documents 1 and 2 for limiting the browsing of images taken by a camera. The technique of Patent Document 1 is to set a masking setting for a portion of the image captured by a pan / tilt camera having a fixed arrangement position of a surveillance camera or the like using pan / tilt encoder information as a privacy portion. is there. The technique of Patent Document 2 is a technique related to a moving camera. When the position of a mobile phone with a built-in camera is specified using base station data and the mobile phone exists in a certain space, This is to prohibit photography by

特開2001−69494号公報JP 2001-69494 A 特開2006−50285号公報JP 2006-50285 A

しかしながら、上記特許文献1では、カメラの位置が固定されていることを前提とし、パン・チルトのエンコーダ情報のみを用いて画像の閲覧の制限を実現している。すなわち、本技術は、移動するロボットにおいて撮影された画像の閲覧を制限することには、適用することができない。   However, in the above-mentioned Patent Document 1, it is assumed that the position of the camera is fixed, and image browsing is limited using only pan / tilt encoder information. That is, the present technology cannot be applied to restrict browsing of images taken by a moving robot.

また、上記特許文献2では、カメラによる撮影の許可又は禁止の設定しかできず、画面に映っている一部の領域のみを閲覧禁止にすることはできない。   Further, in the above-mentioned Patent Document 2, only the setting of permission or prohibition of photographing by the camera can be performed, and it is not possible to prohibit browsing only a part of the area shown on the screen.

なお、閲覧を制限する技術においては、上述したように個人の家などは閲覧禁止にする一方で、その家の手前に存在している閲覧を制限する必要のない物体(車など)については、閲覧できるようにすることが望ましい。また、ロボットに搭載されたカメラの位置姿勢は、パーティクルフィルタを用いて推定されることが多いが、当該推定において、尤度の高いサンプル(仮説)が複数存在するような場合にも、高精度に閲覧の制限を行う必要がある。   In the technology that restricts browsing, as described above, personal homes are prohibited from browsing, but for objects that do not need to be restricted in front of the house (such as cars) It is desirable to be able to browse. In addition, the position and orientation of the camera mounted on the robot is often estimated using a particle filter. However, even when there are multiple samples (hypotheses) with high likelihood in the estimation, high accuracy is achieved. It is necessary to restrict browsing.

そこで本件は上記の課題に鑑みてなされたものであり、撮影した画像の閲覧制限を高精度に行うことが可能な画像処理装置、画像処理プログラム及び画像処理方法、並びに移動体を提供することを目的とする。   Accordingly, the present invention has been made in view of the above problems, and provides an image processing apparatus, an image processing program, an image processing method, and a moving body that can perform browsing restriction of captured images with high accuracy. Objective.

本明細書に記載の画像処理装置は、移動体に搭載されたカメラから、画像を取得する画像取得部と、前記移動体に搭載された、前記画像を構成するの奥行き情報を検出する奥行き情報検出部から、前記奥行き情報を取得する奥行き情報取得部と、パーティクルフィルタを用いて推定される前記カメラの位置姿勢を取得する取得部と、閲覧を禁止する必要のある閲覧禁止多面体の2次元面内位置情報と高さ情報とを含む地図情報を管理する地図情報管理部と、前記パーティクルフィルタの各サンプルの位置姿勢において、前記地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、前記閲覧禁止多面体が投影された画素における奥行き値を前記地図情報に基づいて算出し、各サンプルの位置姿勢において算出された各画素における奥行き値の最小値を、各画素の閲覧禁止奥行き判定値とする閲覧禁止奥行き判定値算出部と、前記各サンプルの位置姿勢において、前記地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、当該投影したときのサンプルの尤度に基づく値を、前記閲覧禁止多面体が投影された画素に対して累積して、その累積値を各画素のマスク判定値とするマスク判定値算出部と、前記画像取得部が取得した前記画像のうち、前記閲覧禁止奥行き判定値が前記奥行き情報よりも小さい画素で、かつ前記マスク判定値が所定の閾値よりも大きい画素の閲覧を禁止した閲覧画像を生成する閲覧画像生成部と、備える画像処理装置である。   An image processing apparatus described in this specification includes an image acquisition unit that acquires an image from a camera mounted on a moving body, and depth information that detects depth information of the image that is mounted on the moving body. A depth information acquisition unit that acquires the depth information from a detection unit, an acquisition unit that acquires the position and orientation of the camera estimated using a particle filter, and a two-dimensional surface of a viewing-prohibited polyhedron that must be prohibited from browsing A map information management unit that manages map information including internal position information and height information, and in the position and orientation of each sample of the particle filter, the browsing prohibited polyhedron is projected on the image based on the map information, and Depth values at the pixels on which the viewing-prohibited polyhedron is projected are calculated based on the map information, and each pixel calculated at the position and orientation of each sample is calculated. A browsing prohibition depth determination value calculation unit that sets a minimum depth value to be a browsing prohibition depth determination value of each pixel, and the browsing prohibition polyhedron is projected onto the image based on the map information at the position and orientation of each sample. In addition, a mask determination value calculation unit that accumulates a value based on the likelihood of the sample at the time of projection for the pixels onto which the viewing-prohibited polyhedron is projected, and uses the accumulated value as a mask determination value for each pixel. And a browsing image in which browsing of pixels whose browsing prohibition depth determination value is smaller than the depth information and whose mask determination value is larger than a predetermined threshold among the images acquired by the image acquisition unit is prohibited. And a browsing image generation unit that generates the image processing apparatus.

本明細書に記載の画像処理プログラムは、コンピュータを、移動体に搭載されたカメラから、画像を取得する画像取得部、前記移動体に搭載された、前記画像を構成するの奥行き情報を検出する奥行き情報検出部から、前記奥行き情報を取得する奥行き情報取得部、パーティクルフィルタを用いて推定される前記カメラの位置姿勢を取得する取得部と、前記パーティクルフィルタの各サンプルの位置姿勢において、閲覧を禁止する必要のある閲覧禁止多面体の2次元面内位置情報と高さ情報とを含む地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、前記閲覧禁止多面体が投影された画素における奥行き値を前記地図情報に基づいて算出し、各サンプルの位置姿勢において算出された各画素における奥行き値の最小値を、各画素の閲覧禁止奥行き判定値とする閲覧禁止奥行き判定値算出部、前記各サンプルの位置姿勢において、前記地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、当該投影したときのサンプルの尤度に基づく値を、前記閲覧禁止多面体が投影された画素に対して累積して、その累積値を各画素のマスク判定値とするマスク判定値算出部、前記画像取得部が取得した前記画像のうち、前記閲覧禁止奥行き判定値が前記奥行き情報よりも小さい画素で、かつ前記マスク判定値が所定の閾値よりも大きい画素の閲覧を禁止した閲覧画像を生成する閲覧画像生成部、として機能させる画像処理プログラムである。   The image processing program described in this specification detects a depth information of an image acquisition unit that acquires an image from a camera mounted on a moving body, and that constitutes the image mounted on the moving body. A depth information acquisition unit that acquires the depth information from a depth information detection unit, an acquisition unit that acquires a position and orientation of the camera estimated using a particle filter, and a position and orientation of each sample of the particle filter The viewing prohibited polyhedron is projected onto the image based on map information including two-dimensional in-plane position information and height information of the viewing prohibited polyhedron that needs to be prohibited, and the depth at the pixel on which the browsing prohibited polyhedron is projected The value is calculated based on the map information, and the minimum value of the depth value at each pixel calculated at the position and orientation of each sample is calculated. The browsing prohibition depth determination value calculation unit that sets the browsing prohibition depth determination value of each pixel, and the position and orientation of each sample project the browsing prohibition polyhedron onto the image based on the map information, and a sample when the projection is performed A value based on the likelihood is accumulated for the pixels on which the viewing-prohibited polyhedron is projected, and a mask determination value calculation unit that uses the accumulated value as a mask determination value for each pixel, the image acquisition unit acquired Function as a browse image generation unit that generates a browse image that prohibits browsing of pixels in which the browse prohibition depth determination value is smaller than the depth information and the mask determination value is greater than a predetermined threshold. An image processing program to be executed.

本明細書に記載の画像処理方法は、コンピュータが、移動体に搭載されたカメラから、画像を取得する画像取得工程と、前記移動体に搭載された、前記画像を構成するの奥行き情報を検出する奥行き情報検出部から、前記奥行き情報を取得する奥行き情報取得工程と、パーティクルフィルタを用いて推定される前記カメラの位置姿勢を取得する取得工程、前記パーティクルフィルタの各サンプルの位置姿勢において、閲覧を禁止する必要のある閲覧禁止多面体の2次元面内位置情報と高さ情報とを含む地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、前記閲覧禁止多面体が投影された画素における奥行き値を前記地図情報に基づいて算出し、各サンプルの位置姿勢において算出された各画素における奥行き値の最小値を、各画素の閲覧禁止奥行き判定値とする閲覧禁止奥行き判定値算出工程と、前記各サンプルの位置姿勢において、前記地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、当該投影したときのサンプルの尤度に基づく値を、前記閲覧禁止多面体が投影された画素に対して累積して、その累積値を各画素のマスク判定値とするマスク判定値算出工程と、前記画像取得工程で取得された前記画像のうち、前記閲覧禁止奥行き判定値が前記奥行き情報よりも小さい画素で、かつ前記マスク判定値が所定の閾値よりも大きい画素の閲覧を禁止した閲覧画像を生成する閲覧画像生成工程と、を実行する画像処理方法である。   In the image processing method described in this specification, a computer detects an image acquisition step of acquiring an image from a camera mounted on a moving body, and depth information of the image included in the moving body. In the depth information acquisition step of acquiring the depth information from the depth information detection unit, the acquisition step of acquiring the position and orientation of the camera estimated using a particle filter, and the position and orientation of each sample of the particle filter The viewing-prohibited polyhedron is projected onto the image based on map information including two-dimensional in-plane position information and height information of the viewing-prohibited polyhedron that needs to be prohibited. The depth value is calculated based on the map information, and the minimum value of the depth value at each pixel calculated at the position and orientation of each sample The browsing prohibited depth determination value calculating step for setting the browsing prohibited depth determination value of each pixel, and the browsing prohibited polyhedron is projected onto the image based on the map information and projected at the position and orientation of each sample. A value based on the likelihood of the sample is accumulated with respect to the pixels on which the viewing-prohibited polyhedron is projected, and a mask determination value calculation step using the accumulated value as a mask determination value for each pixel; and the image acquisition step Browsing image generation for generating a browsing image in which browsing of pixels whose browsing prohibition depth determination value is smaller than the depth information and whose mask determination value is larger than a predetermined threshold among the acquired images is prohibited And an image processing method for executing the process.

本明細書に記載の移動体は、画像を撮影するカメラと、前記画像を構成するの奥行き情報を検出する奥行き情報検出部と、本明細書に記載の画像処理装置と、を備える移動体である。   The moving body described in the present specification is a moving body including a camera that captures an image, a depth information detection unit that detects depth information of the image, and an image processing device described in the present specification. is there.

本明細書に記載の画像処理装置、画像処理プログラム及び画像処理方法、並びに移動体は、撮影した画像の閲覧制限を高精度に行うことができるという効果を奏する。   The image processing apparatus, the image processing program, the image processing method, and the moving body described in the present specification have an effect that viewing of captured images can be restricted with high accuracy.

一実施形態に係る画像閲覧システムの概略構成図である。1 is a schematic configuration diagram of an image browsing system according to an embodiment. 移動ロボットの機能ブロック図である。It is a functional block diagram of a mobile robot. 図3(a)は、2次元レイアウト地図の一例を示す図であり、図3(b)は、閲覧禁止多面体のデータ構造を示す図である。FIG. 3A is a diagram illustrating an example of a two-dimensional layout map, and FIG. 3B is a diagram illustrating a data structure of a viewing-prohibited polyhedron. 画像処理装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of an image processing apparatus. 移動ロボット(画像処理装置)の処理を示すフローチャートである。It is a flowchart which shows the process of a mobile robot (image processing apparatus). パーティクルフィルタを用いたカメラ位置姿勢推定について説明するための図である。It is a figure for demonstrating the camera position and orientation estimation using a particle filter. パーティクルフィルタを用いたカメラ位置姿勢推定における尤度計算工程を説明するための図である。It is a figure for demonstrating the likelihood calculation process in the camera position and orientation estimation using a particle filter. 図5のステップS30の具体的処理を示す図である。It is a figure which shows the specific process of step S30 of FIG. 図8のステップS70の具体的処理を示す図である。It is a figure which shows the specific process of step S70 of FIG. 図10(a)〜図10(g)は、図9の処理の概要を模式的に示す図である。FIG. 10A to FIG. 10G are diagrams schematically showing the outline of the processing of FIG. 図8のステップS80の具体的処理を示す図である。It is a figure which shows the specific process of step S80 of FIG. 図5のステップS40の処理を説明するための図(その1)である。It is FIG. (1) for demonstrating the process of step S40 of FIG. 図5のステップS40の処理を説明するための図(その2)である。FIG. 6 is a (second) diagram for explaining the process of step S40 of FIG. 5; パーティクルフィルタを用いたカメラ位置姿勢推定を行った場合の不確かさについて説明するための図である。It is a figure for demonstrating the uncertainty at the time of performing camera position and orientation estimation using a particle filter.

以下、画像処理装置、画像処理プログラム及び画像処理方法、並びに移動体の一実施形態について、図1〜図14に基づいて詳細に説明する。   Hereinafter, an embodiment of an image processing apparatus, an image processing program, an image processing method, and a moving body will be described in detail with reference to FIGS.

図1には、画像閲覧システム100の概略構成が示されている。この図1に示すように、画像閲覧システム100は、移動体としての移動ロボット10と、情報処理装置としての1つ以上のPC70とを備えている。移動ロボット10とPC70とはインターネットなどの通信回線(以下、「インターネット」と総称する)を介して接続されている。   FIG. 1 shows a schematic configuration of the image browsing system 100. As shown in FIG. 1, the image browsing system 100 includes a mobile robot 10 as a moving body and one or more PCs 70 as information processing apparatuses. Mobile robot 10 and PC 70 are connected via a communication line such as the Internet (hereinafter collectively referred to as “Internet”).

図2は、移動ロボット10の機能ブロック図である。移動ロボット10は、図2に示すように、ステレオカメラ12、駆動部14、エンコーダ16、及び画像処理装置18を備える。ステレオカメラ12は、2台のカメラを有し、当該2台のカメラで同時に異なる視点から2つの画像を撮影する。また、ステレオカメラ12は、2つのカメラで撮影された画像における対象物の位置の対応付けを行うことで、各画素の奥行き情報を検出する、奥行き情報検出部としても機能する。ステレオカメラ12において撮影された画像及び検出された奥行き情報は、画像処理装置18に向けて出力される。駆動部14は、車輪及び当該車輪を駆動するモータ、及びモータを駆動制御する駆動制御部等を含んでいる。エンコーダ16は、車輪の回転量を検出するロータリエンコーダ等であり、検出した車輪の回転量を画像処理装置18に対して出力する。   FIG. 2 is a functional block diagram of the mobile robot 10. As shown in FIG. 2, the mobile robot 10 includes a stereo camera 12, a drive unit 14, an encoder 16, and an image processing device 18. The stereo camera 12 has two cameras, and the two cameras capture two images from different viewpoints at the same time. The stereo camera 12 also functions as a depth information detection unit that detects the depth information of each pixel by associating the positions of the objects in the images captured by the two cameras. The image captured by the stereo camera 12 and the detected depth information are output to the image processing device 18. The drive unit 14 includes a wheel, a motor that drives the wheel, a drive control unit that drives and controls the motor, and the like. The encoder 16 is a rotary encoder or the like that detects the amount of rotation of the wheel, and outputs the detected amount of rotation of the wheel to the image processing device 18.

画像処理装置18は、画像取得部20と、奥行き情報取得部22と、取得部としてのカメラ位置姿勢推定部24と、地図情報管理部26と、判定値算出部28と、閲覧画像生成部30と、送信部32と、を有する。   The image processing apparatus 18 includes an image acquisition unit 20, a depth information acquisition unit 22, a camera position / orientation estimation unit 24 as an acquisition unit, a map information management unit 26, a determination value calculation unit 28, and a browsing image generation unit 30. And a transmission unit 32.

画像取得部20は、ステレオカメラ12が有する一方のカメラにおいて撮影された画像を取得する。奥行き情報取得部22は、ステレオカメラ12において検出された各画素の奥行き情報を取得する。なお、奥行き情報取得部22は、ステレオカメラ12において撮影される2つの画像を取得し、当該画像から各画素の奥行き情報を自ら算出して、取得することとしてもよい。この場合、奥行き情報取得部22は、奥行き情報検出部としての機能も有することになる。   The image acquisition unit 20 acquires an image captured by one camera of the stereo camera 12. The depth information acquisition unit 22 acquires depth information of each pixel detected by the stereo camera 12. The depth information acquisition unit 22 may acquire two images captured by the stereo camera 12, calculate the depth information of each pixel from the images, and acquire the information. In this case, the depth information acquisition unit 22 also has a function as a depth information detection unit.

カメラ位置姿勢推定部24は、奥行き情報取得部22による奥行き情報の取得結果、エンコーダ16による検出結果、及び地図情報管理部26が管理する地図情報に基づいて、ステレオカメラ12の位置姿勢の推定を行う。なお、ステレオカメラ12の位置姿勢の推定には、パーティクルフィルタを用いるが、この方法の詳細については後述する。   The camera position / orientation estimation unit 24 estimates the position / orientation of the stereo camera 12 based on the depth information acquisition result obtained by the depth information acquisition unit 22, the detection result obtained by the encoder 16, and the map information managed by the map information management unit 26. Do. Note that a particle filter is used to estimate the position and orientation of the stereo camera 12, and details of this method will be described later.

地図情報管理部26は、移動ロボット10が移動可能な範囲の地図情報を管理する。地図情報は、2次元レイアウト地図と、閲覧を禁止する必要のある物体(例えば、民家など、プライバシーを保護する必要のある建物など)を包含する閲覧禁止多面体の2次元面内位置情報と高さ情報とを含んでいる。具体的には、図3(a)に示すように、2次元レイアウト地図は、ロボット走行領域(道路)や壁、閲覧禁止多面体の2次元配置のデータを含んでいる。また、閲覧禁止多面体については、図3(b)に示すようなデータ構造にて、地図情報管理部26に管理されている。図3(b)のデータには、閲覧禁止多面体の頂点の数、各頂点のレイアウト地図上におけるX、Y座標、及び閲覧禁止多面体の高さ下限値、上限値が含まれている。なお、このようなデータ構造を採用する利点は、カメラ位置推定に用いる2次元レイアウト地図上に多角形を入力し、その多角形に高さ情報の属性を付けるのみでよいため、閲覧禁止多面体の設定が容易である点にある。   The map information management unit 26 manages map information in a range in which the mobile robot 10 can move. The map information includes a two-dimensional layout map and two-dimensional in-plane position information and height of a viewing-prohibited polyhedron that includes an object (for example, a private house or the like that needs privacy protection) that needs to be prohibited. Contains information. Specifically, as shown in FIG. 3A, the two-dimensional layout map includes data of a two-dimensional arrangement of a robot travel region (road), a wall, and a browsing prohibited polyhedron. Further, the browsing prohibited polyhedron is managed by the map information management unit 26 in a data structure as shown in FIG. The data in FIG. 3B includes the number of vertices of the viewing-prohibited polyhedron, the X and Y coordinates of each vertex on the layout map, and the height lower limit value and upper limit value of the viewing-prohibited polyhedron. The advantage of adopting such a data structure is that it is only necessary to input a polygon on the two-dimensional layout map used for camera position estimation and attach an attribute of height information to the polygon. The setting is easy.

図2に戻り、判定値算出部28は、奥行き情報取得部22で取得された各画素の奥行き情報と、カメラ位置姿勢推定部24で取得されたパーティクルフィルタのサンプルの位置姿勢と、を用いて、2つの判定値を算出する。2つの判定値は、閲覧禁止奥行き判定値とマスク判定値である。すなわち、判定値算出部28は、閲覧禁止奥行き判定値算出部及びマスク判定値算出部として機能する。なお、これらの判定値の詳細については、後述する。   Returning to FIG. 2, the determination value calculation unit 28 uses the depth information of each pixel acquired by the depth information acquisition unit 22 and the position and orientation of the sample of the particle filter acquired by the camera position and orientation estimation unit 24. Two determination values are calculated. The two determination values are a browsing prohibition depth determination value and a mask determination value. That is, the determination value calculation unit 28 functions as a browsing prohibition depth determination value calculation unit and a mask determination value calculation unit. Details of these determination values will be described later.

閲覧画像生成部30は、画像取得部20で取得された画像と、判定値算出部28で算出された2つの判定値とを用いて閲覧画像を生成する。具体的には、閲覧画像生成部30は、各画素に関して2つの判定値に基づいて、閲覧禁止にするか否かを定める閲覧禁止マスク値を生成し、当該閲覧禁止マスク値を用いて、画像の一部を閲覧禁止にした画像(閲覧画像)を生成する。送信部32は、閲覧画像生成部30により生成された閲覧画像を、インターネットを介してPC70に送信する。   The browsing image generation unit 30 generates a browsing image using the image acquired by the image acquisition unit 20 and the two determination values calculated by the determination value calculation unit 28. Specifically, the browsing image generation unit 30 generates a browsing prohibition mask value that determines whether browsing is prohibited based on two determination values for each pixel, and uses the browsing prohibition mask value to generate an image. An image (browsing image) in which browsing is prohibited is generated. The transmission unit 32 transmits the browsing image generated by the browsing image generation unit 30 to the PC 70 via the Internet.

なお、画像処理装置18は、図4に示すようなハードウェア構成により実現されている。すなわち、画像処理装置18は、CPU90、ROM92、RAM94、記憶部(ここではHDD(Hard Disk Drive))96、入出力部97等を備えており、画像処理装置18の構成各部は、バス98に接続されている。画像処理装置18は、ROM92あるいはHDD96に格納されているプログラム(画像処理プログラム)をCPU90が実行することにより、図2の各部の機能を実現する。また、入出力部97には、図2のステレオカメラ12やエンコーダ16等が接続されている。   The image processing device 18 is realized by a hardware configuration as shown in FIG. That is, the image processing apparatus 18 includes a CPU 90, a ROM 92, a RAM 94, a storage unit (here, an HDD (Hard Disk Drive)) 96, an input / output unit 97, and the like. It is connected. The image processing device 18 realizes the functions of the respective units shown in FIG. 2 when the CPU 90 executes a program (image processing program) stored in the ROM 92 or the HDD 96. Further, the stereo camera 12 and the encoder 16 shown in FIG. 2 are connected to the input / output unit 97.

次に、本実施形態における移動ロボット10の動作・処理について、図5〜図12に基づいて、詳細に説明する。図5は、移動ロボット10(画像処理装置18)の処理を示すフローチャートである。この図5に示すように、まず、ステップS10では、画像取得部20が、ステレオカメラ12から画像(各画素の輝度値I(h,v))を取得する。また、奥行き情報取得部22が、ステレオカメラ12から取得した画像から各画素の奥行き情報Z(h,v)を取得する。なお、座標(h,v)は、各画素の画像面内(画像内)水平方向及び垂直方向に関する座標値である。なお、ステレオカメラ12の2つのカメラ間の対応付けができず、奥行き情報が得られない画素については、奥行き情報Z(h,v)は+∞となる。   Next, the operation and processing of the mobile robot 10 in the present embodiment will be described in detail based on FIGS. FIG. 5 is a flowchart showing processing of the mobile robot 10 (image processing device 18). As shown in FIG. 5, first, in step S <b> 10, the image acquisition unit 20 acquires an image (brightness value I (h, v) of each pixel) from the stereo camera 12. Further, the depth information acquisition unit 22 acquires depth information Z (h, v) of each pixel from the image acquired from the stereo camera 12. The coordinates (h, v) are coordinate values in the horizontal and vertical directions within the image plane (in the image) of each pixel. It should be noted that the depth information Z (h, v) is + ∞ for pixels for which the stereo camera 12 cannot be associated with the two cameras and depth information cannot be obtained.

次いで、ステップS20では、カメラ位置姿勢推定部24が、各画素の奥行き情報Z(h,v)と2次元レイアウト地図を用いてカメラ位置姿勢を推定する。具体的には、カメラ位置姿勢推定部24は、図6のような処理を行う。ここで、カメラ位置姿勢推定部24は、カメラ位置姿勢の推定に時系列フィルタであるパーティクルフィルタを用いることとしている。この方法は、推定対象(カメラ)の状態を統計的に推定する方法であり、システムモデルと観測モデルに対する制約が少なくロバストに状態を推定することができるという利点がある。   Next, in step S20, the camera position / orientation estimation unit 24 estimates the camera position / orientation using the depth information Z (h, v) of each pixel and the two-dimensional layout map. Specifically, the camera position / orientation estimation unit 24 performs processing as shown in FIG. Here, the camera position / orientation estimation unit 24 uses a particle filter that is a time-series filter for estimating the camera position / orientation. This method is a method for statistically estimating the state of the estimation target (camera), and has an advantage that the state can be estimated robustly with few restrictions on the system model and the observation model.

パーティクルフィルタでは、図6に示すように、まず推定したい状態をある確率分布に従って離散化し、一定数のサンプルを生成する(初期化工程)。次に、状態遷移モデル(エンコーダ16の検出結果)に基づき、各サンプルの状態を遷移させる(遷移工程)。ここでは、ノイズをw、システムモデルをfとすると、サンプル状態パラメータsは、次式(1)から算出することができる。   In the particle filter, as shown in FIG. 6, first, a state to be estimated is discretized according to a certain probability distribution to generate a certain number of samples (initialization step). Next, the state of each sample is transitioned based on the state transition model (detection result of the encoder 16) (transition process). Here, when the noise is w and the system model is f, the sample state parameter s can be calculated from the following equation (1).

Figure 0005471919
Figure 0005471919

次に、奥行き情報取得部22で取得された各画素の奥行き情報を用いて観測を行う(観測工程)。ここで、時刻tにおける観測量をytとする。次いで、観測量ytを用いて各サンプルの尤度Lを次式(2)を用いて評価する(尤度計算工程)。 Next, observation is performed using the depth information of each pixel acquired by the depth information acquisition unit 22 (observation step). Here, the observation amount at time t and y t. Then evaluated using the following equation (2) the likelihood L of each sample using the observed quantity y t (likelihood calculation step).

Figure 0005471919
Figure 0005471919

そして、各サンプルの尤度から重みを計算し、各サンプルの状態の重み付き平均をとって対象(カメラ)の状態の推定を行う(推定工程)。具体的には、次式(3)に基づいて重みπを計算し、次式(4)に基づいて、推定量εを算出する。   Then, the weight is calculated from the likelihood of each sample, and the weighted average of the state of each sample is taken to estimate the state of the target (camera) (estimation step). Specifically, the weight π is calculated based on the following equation (3), and the estimated amount ε is calculated based on the following equation (4).

Figure 0005471919
Figure 0005471919

Figure 0005471919
Figure 0005471919

その後、尤度の高い順にサンプルを生成してリサンプリングを行う(リサンプリング工程)。このような処理を各時刻で繰り返し行うことで対象の状態推定を行うことができる。   Thereafter, samples are generated in descending order of likelihood and resampling is performed (resampling step). It is possible to estimate the target state by repeatedly performing such processing at each time.

なお、本実施形態では、カメラの位置姿勢推定において、奥行き情報取得部22で取得された各画素の奥行き情報Z(h,v)を床面に投影した計測地図(図7参照)と、2次元レイアウト地図との照合を行う。そして、両地図の一致度を尤度として用いてパーティクルフィルタによりカメラの位置と姿勢の推定を行う。なお、計測地図と2次元レイアウト地図の照合が一致せずにすべてのサンプルの尤度が所定の閾値よりも低くなる場合には、位置を見失った状態(ロスト状態)として取り扱われる。   In this embodiment, in the camera position / orientation estimation, a measurement map (see FIG. 7) obtained by projecting the depth information Z (h, v) of each pixel acquired by the depth information acquisition unit 22 onto the floor surface, 2 Check against the 3D layout map. Then, the position and orientation of the camera are estimated by a particle filter using the degree of coincidence of both maps as the likelihood. Note that if the matching of the measurement map and the two-dimensional layout map does not match and the likelihood of all the samples is lower than a predetermined threshold value, it is handled as a state in which the position is lost (lost state).

図5に戻り、次のステップS30では、各画素の閲覧禁止マスク値M(h,v)を生成するサブルーチンを実行する。ステップS30では、具体的には、図8の処理を実行する。   Returning to FIG. 5, in the next step S30, a subroutine for generating a browsing prohibition mask value M (h, v) for each pixel is executed. In step S30, specifically, the process of FIG. 8 is executed.

図8の処理では、まず、ステップS60において、判定値算出部28が、位置をロストしたか否かを判断する。ここでの判断が否定された場合には、ステップS70に移行し、判定値算出部28が、閲覧禁止奥行き判定値Z_Inh(h,v)とマスク判定値E(h,v)を決定するサブルーチン(図9)を実行する。なお、閲覧禁止奥行き判定値Z_Inh(h,v)は、画像面上(画像上)の座標(h,v)の画素に投影される閲覧禁止多面体の奥行きを示す値である。また、マスク判定値は、その画素で閲覧禁止多面体が投影される尤もらしさを示す判定値である。   In the process of FIG. 8, first, in step S60, the determination value calculation unit 28 determines whether or not the position has been lost. If the determination here is negative, the process proceeds to step S70, where the determination value calculation unit 28 determines a browsing prohibition depth determination value Z_Inh (h, v) and a mask determination value E (h, v). (FIG. 9) is executed. The viewing prohibition depth determination value Z_Inh (h, v) is a value indicating the depth of the viewing prohibition polyhedron projected onto the pixel at the coordinates (h, v) on the image plane (on the image). The mask determination value is a determination value indicating the likelihood that the browsing prohibited polyhedron is projected on the pixel.

図9の処理では、まず、ステップS702において、判定値算出部28が、マスク判定値E(h,v)及び閲覧禁止奥行き判定値Z_Inh(h,v)を初期化する。ここでは、判定値算出部28は、マスク判定値E(h,v)を0に設定することで初期化し、閲覧禁止奥行き判定値Z_Inh(h,v)を+∞に設定することで初期化する。   In the process of FIG. 9, first, in step S702, the determination value calculation unit 28 initializes the mask determination value E (h, v) and the browsing prohibition depth determination value Z_Inh (h, v). Here, the determination value calculation unit 28 is initialized by setting the mask determination value E (h, v) to 0, and is initialized by setting the browsing prohibition depth determination value Z_Inh (h, v) to + ∞. To do.

次いで、ステップS704では、判定値算出部28が、未選択のパーティクルフィルタのサンプルSを選択する。   Next, in step S704, the determination value calculation unit 28 selects an unselected particle filter sample S.

次いで、ステップS706では、判定値算出部28が、サンプルSの尤度L(S)(上式(2)参照)が所定の閾値Lthよりも大きいか否かを判断する。ここでの判断が否定された場合には、ステップS724に移行する。なお、ここでの判断が否定される場合とは、尤度が小さすぎるため、閲覧禁止にするか否かの判断において考慮する必要がないサンプルであることを意味する。 Next, in step S706, the determination value calculation unit 28 determines whether the likelihood L (S) of the sample S (see the above equation (2)) is larger than a predetermined threshold Lth. When judgment here is denied, it transfers to step S724. In addition, the case where the determination here is denied means that the sample is a sample that does not need to be considered in the determination as to whether or not to prohibit browsing because the likelihood is too small.

一方、ステップS706の判断が肯定されると、ステップS708に移行する。ステップS708では、判定値算出部28が、未選択の閲覧禁止多面体Hを選択する。この場合、判定値算出部28は、画像取得部20において取得された画像内に含まれる閲覧禁止多面体のうちのいずれかを、地図情報管理部26にて管理されている地図情報から抽出して選択する。   On the other hand, if the determination in step S706 is positive, the process proceeds to step S708. In step S708, the determination value calculation unit 28 selects an unselected browsing-prohibited polyhedron H. In this case, the determination value calculation unit 28 extracts one of the browsing prohibited polyhedrons included in the image acquired by the image acquisition unit 20 from the map information managed by the map information management unit 26. select.

次いで、ステップS710では、判定値算出部28が、ステップS708において選択した閲覧禁止多面体Hの未選択の面Pを選択する。   Next, in step S710, the determination value calculation unit 28 selects an unselected surface P of the viewing prohibited polyhedron H selected in step S708.

次いで、ステップS712では、判定値算出部28が、ステップS710において選択された面Pが投影される画像の画素のうち、未選択の画素を選択する。   Next, in step S712, the determination value calculation unit 28 selects an unselected pixel among the pixels of the image onto which the surface P selected in step S710 is projected.

次いで、ステップS714では、判定値算出部28が、選択した画素の奥行き値Zp(h,v)を計算する。すなわち、閲覧禁止多面体Hの面Pが投影される画素のうちの選択した画素の奥行きを、面Pのデータ(図3(b)参照)に基づいて計算する。   Next, in step S714, the determination value calculation unit 28 calculates the depth value Zp (h, v) of the selected pixel. That is, the depth of the selected pixel among the pixels onto which the surface P of the viewing prohibited polyhedron H is projected is calculated based on the data on the surface P (see FIG. 3B).

次いで、ステップS716では、判定値算出部28が、マスク判定値E(h,v)、閲覧禁止奥行き判定値Z_Inh(h,v)を更新する。具体的には、次式(5)に基づいてマスク判定値E(h,v)を更新し、次式(6)に基づいて閲覧禁止奥行き判定値Z_Inh(h,v)を更新する。
E(h,v)=E(h,v)+L(S) …(5)
Z_Inh(h,v)=min(Zp(h,v),Z_Inh(h,v)) …(6)
Next, in step S716, the determination value calculation unit 28 updates the mask determination value E (h, v) and the browsing prohibition depth determination value Z_Inh (h, v). Specifically, the mask determination value E (h, v) is updated based on the following equation (5), and the browsing prohibition depth determination value Z_Inh (h, v) is updated based on the following equation (6).
E (h, v) = E (h, v) + L (S) (5)
Z_Inh (h, v) = min (Zp (h, v), Z_Inh (h, v)) (6)

上式(5)では、直前までのマスク判定値E(h,v)(ここでは、初期値0)に尤度L(S)を加算することで、マスク判定値E(h,v)を更新する。また、上式(6)では、直前までの閲覧禁止奥行き判定値Z_Inh(h,v)(ここでは初期値+∞)と、ステップS714で計算された奥行き値Zp(h,v)を比べる。そして、各値のうちのいずれか小さい方の値で、閲覧禁止奥行き判定値Z_Inh(h,v)を更新する。 In the above equation (5), the mask judgment value E (h, v) is obtained by adding the likelihood L (S) to the mask judgment value E (h, v) (here, the initial value 0) until immediately before. Update. Further, in the above equation (6), the browsing prohibition depth determination value Z_Inh (h, v) (here, the initial value + ∞) up to immediately before is compared with the depth value Zp (h, v) calculated in step S714. Then, the viewing prohibition depth determination value Z_Inh (h, v) is updated with the smaller one of the values.

次いで、ステップS718では、判定値算出部28が、面Pが投影される画像の全画素を選択したか否かを判断する。ここでの判断が否定された場合には、ステップS712に戻り、次の画素に対する処理を上記と同様に行う。一方、ここでの判断が肯定された場合には、ステップS720に移行する。   Next, in step S718, the determination value calculation unit 28 determines whether all the pixels of the image on which the surface P is projected have been selected. If the determination is negative, the process returns to step S712, and the process for the next pixel is performed in the same manner as described above. On the other hand, when judgment here is affirmed, it transfers to step S720.

ステップS720に移行した場合、判定値算出部28が、閲覧禁止多面体Hの全面を選択したか否かを判断する。ここでの判断が否定された場合には、ステップS710に戻り、次の面に対する処理を上記と同様に行う。一方、ここでの判断が肯定された場合には、ステップS722に移行する。   When the process proceeds to step S720, the determination value calculation unit 28 determines whether or not the entire surface of the viewing prohibited polyhedron H has been selected. If the determination is negative, the process returns to step S710, and the process for the next surface is performed in the same manner as described above. On the other hand, when judgment here is affirmed, it transfers to step S722.

ステップS722に移行した場合、判定値算出部28が、全ての閲覧禁止多面体Hを選択したか否かを判断する。ここでの判断が否定された場合には、ステップS708に戻り、次の閲覧禁止多面体に対する処理を上記と同様に行う。一方、ここでの判断が肯定された場合には、ステップS724に移行する。   When the process proceeds to step S722, the determination value calculation unit 28 determines whether all the browsing-prohibited polyhedra H are selected. If the determination here is negative, the process returns to step S708, and the process for the next viewing-prohibited polyhedron is performed in the same manner as described above. On the other hand, when judgment here is affirmed, it transfers to step S724.

ステップS724に移行した場合(ステップS722の判断が肯定された場合、又はステップS706の判断が否定された場合)、判定値算出部28が、全てのサンプルSを選択したか否かを判断する。ここでの判断が否定された場合には、ステップS704に戻り、未だ選択がされていないサンプルSを用いた処理を上記と同様にして行う。一方、ここでの判断が肯定された場合には、図9の全処理(ステップS70のサブルーチン)を終了する。以上のようにして、ステップS70の処理が完了すると、図8のステップS80に移行する。   When the process proceeds to step S724 (when the determination at step S722 is affirmed or when the determination at step S706 is negative), the determination value calculation unit 28 determines whether all the samples S have been selected. If the determination here is negative, the process returns to step S704, and processing using the sample S that has not been selected is performed in the same manner as described above. On the other hand, if the determination here is affirmed, the entire processing of FIG. 9 (subroutine of step S70) is terminated. When the process of step S70 is completed as described above, the process proceeds to step S80 of FIG.

ここで、図9の処理について、具体的な例を用いて説明する。図10(a)〜図10(g)には、図9の処理の概要が模式的に示されている。図10(a)に示すように、パーティクルフィルタを用いたカメラ位置姿勢推定を行った結果、サンプルS1、S2が尤度が高いサンプルとして取得されたとする。この場合に、まず、サンプルS1にて、閲覧禁止多面体の面P1を評価する。図10(b)には、面P1を画像面に投影した状態(画像に投影した状態)が示されている。ここで、面P1の奥行き値Zp(h,v)が2であり、サンプルS1の尤度L(S1)が0.2であったとする。このような状況下では、マスク判定値E(h,v)は、図10(c)に示すように、図10(b)の黒画素部分が0.2に更新され、その他の画素は0のまま維持される。 Here, the processing of FIG. 9 will be described using a specific example. 10A to 10G schematically show the outline of the processing of FIG. As shown in FIG. 10A, it is assumed that samples S1 and S2 are acquired as samples with high likelihood as a result of camera position and orientation estimation using a particle filter. In this case, first, the surface P1 of the viewing prohibited polyhedron is evaluated in the sample S1. FIG. 10B shows a state in which the surface P1 is projected onto the image surface (a state in which the surface P1 is projected onto the image). Here, it is assumed that the depth value Zp (h, v) of the plane P1 is 2, and the likelihood L (S1) of the sample S1 is 0.2. Under such circumstances, as shown in FIG. 10C, the mask determination value E (h, v) is updated to 0.2 for the black pixel portion of FIG. 10B and 0 for the other pixels. Is maintained.

一方、閲覧禁止奥行き判定値Z_Inh(h,v)は、図10(d)に示すように、図10(b)の黒画素部分が2に更新され、その他の画素は+∞のまま維持される。   On the other hand, as shown in FIG. 10 (d), the black pixel portion in FIG. 10 (b) is updated to 2 and the other pixels are maintained at + ∞, as the browsing prohibited depth determination value Z_Inh (h, v). The

次に、サンプルS2にて、閲覧禁止多面体の面P1を評価する。図10(e)には、面P1を画像面に投影した状態(画像に投影した状態)が示されている。ここで、面P1の奥行き値Zp(h,v)が1であり、サンプルS2の尤度L(S2)が0.3であったとする。このような状況下では、マスク判定値E(h,v)は、図10(f)に示すように、図10(e)の黒画素部分に0.3が加算されて更新され、その他の画素は0のまま維持される。すなわち、図10(e)に示す黒画素のうち、図10(b)に示す黒画素以外の画素のマスク判定値E(h,v)が0.3となり、図10(b)に示す黒画素のマスク判定値E(h,v)が0.5となる。 Next, the surface P1 of the browsing prohibited polyhedron is evaluated in the sample S2. FIG. 10E shows a state where the surface P1 is projected onto the image surface (a state where the surface P1 is projected onto the image). Here, it is assumed that the depth value Zp (h, v) of the plane P1 is 1, and the likelihood L (S2) of the sample S2 is 0.3. Under such circumstances, the mask judgment value E (h, v) is updated by adding 0.3 to the black pixel portion of FIG. 10E as shown in FIG. The pixel remains 0. That is, among the black pixels shown in FIG. 10 (e), the mask judgment value E (h, v) of the pixels other than the black pixels shown in FIG. 10 (b) becomes 0.3, and the black pixels shown in FIG. 10 (b). The pixel mask determination value E (h, v) is 0.5.

一方、閲覧禁止奥行き判定値Z_Inh(h,v)は、図10(g)に示すように、図10(e)の黒画素のすべてが1に更新され、その他の画素は+∞のまま維持される。   On the other hand, as shown in FIG. 10 (g), all of the black pixels in FIG. 10 (e) are updated to 1, and the other pixels are maintained at + ∞, as the browsing prohibited depth determination value Z_Inh (h, v). Is done.

本実施形態の図9の処理では、上記のような処理が、面P2に対しても行われるようになっている。   In the process of FIG. 9 of the present embodiment, the process as described above is also performed on the surface P2.

図9の処理が終了すると、図8のステップS80に移行する。ステップS80では、判定値算出部28が、閲覧禁止マスク値M(h,v)を決定するサブルーチン(図11)を実行する。   When the process of FIG. 9 is completed, the process proceeds to step S80 of FIG. In step S80, the determination value calculation unit 28 executes a subroutine (FIG. 11) for determining the browsing prohibition mask value M (h, v).

図11の処理では、まず、ステップS802において、判定値算出部28が、未選択の画素を選択する。次いで、ステップS804では、判定値算出部28が、マスク判定値E(h,v)が閾値Ethよりも大きいか否かを判断する。ここでの判断が肯定された場合には、ステップS806に移行する。なお、ここでの判断が肯定される場合とは、ステップS802で選択された画素が、尤度の高い1以上のサンプルにおいて閲覧禁止多面体の同一の面が投影された画素であることを意味する。一方、ここでの判断が否定される場合とは、ステップS802で選択された画素が、尤度の高い1以上のサンプルにおいて閲覧禁止多面体の同一の面が投影されていない画素であることを意味する。   In the process of FIG. 11, first, in step S802, the determination value calculation unit 28 selects an unselected pixel. Next, in step S804, the determination value calculation unit 28 determines whether or not the mask determination value E (h, v) is larger than the threshold value Eth. When judgment here is affirmed, it transfers to step S806. Note that the case where the determination here is affirmed means that the pixel selected in step S802 is a pixel on which the same surface of the viewing prohibited polyhedron is projected in one or more samples having a high likelihood. . On the other hand, the case where the determination here is negative means that the pixel selected in step S802 is a pixel in which the same surface of the viewing prohibited polyhedron is not projected in one or more samples having a high likelihood. To do.

ステップS806では、判定値算出部28が、Z_Inh(h,v)がZ(h,v)よりも小さいか否かを判断する。ここでの判断が肯定された場合には、ステップS808に移行する。なお、ここでの判断が肯定される場合とは、ステップS802で選択された画素に、閲覧禁止多面体の面が撮像されていることを意味する。一方、ここでの判断が否定される場合とは、ステップS802で選択された画素に、閲覧禁止多面体の面よりも前側(カメラ側)に存在する別の物体が撮像されていることを意味する。   In step S806, the determination value calculation unit 28 determines whether Z_Inh (h, v) is smaller than Z (h, v). When judgment here is affirmed, it transfers to step S808. Note that the case where the determination here is affirmed means that the surface of the viewing-prohibited polyhedron is captured at the pixel selected in step S802. On the other hand, the case where the determination here is negative means that another object existing in front of the viewing-prohibited polyhedron (camera side) is captured at the pixel selected in step S802. .

ステップS808に移行すると、判定値算出部28は、閲覧禁止マスク値M(h,v)を1に設定する。   In step S808, the determination value calculation unit 28 sets the viewing prohibition mask value M (h, v) to 1.

一方、ステップS804、およびステップS806の判断が否定された場合にはステップS812に移行する。ステップS812では、判定値算出部28が、閲覧禁止マスク値M(h,v)を0に設定する。   On the other hand, if the determinations in steps S804 and S806 are negative, the process proceeds to step S812. In step S812, the determination value calculation unit 28 sets the browsing prohibition mask value M (h, v) to 0.

その後、ステップS808又はステップS812の処理を経て、ステップS810に移行すると、判定値算出部28は、全ての画素が選択されたか否かを判断する。ここでの判断が否定されると、ステップS802に戻り、上記と同様の処理を、残りの画素についても実行する。そして、ステップS810の判断が肯定された段階で、図11の全処理及び図8の全処理を終了して、図5のステップS40に移行する。   Thereafter, after the processing of step S808 or step S812 and the process proceeds to step S810, the determination value calculation unit 28 determines whether or not all the pixels have been selected. If the determination here is negative, the process returns to step S802, and the same processing as described above is executed for the remaining pixels. Then, when the determination in step S810 is affirmed, the entire process in FIG. 11 and the entire process in FIG. 8 are terminated, and the process proceeds to step S40 in FIG.

上記のようにして図11の処理を行うことにより、閲覧禁止多面体の面に対応する画素の閲覧禁止マスク値M(h,v)が1に設定され、それ以外の画素の閲覧禁止マスク値M(h,v)が0に設定される。すなわち、例えば、閲覧禁止多面体の前に別の物体が存在している場合には、当該別の物体に対応する画素の閲覧禁止マスク値M(h,v)は0に設定されることになる。   By performing the processing of FIG. 11 as described above, the viewing prohibition mask value M (h, v) of the pixel corresponding to the surface of the viewing prohibited polyhedron is set to 1, and the browsing prohibition mask value M of other pixels is set. (H, v) is set to zero. That is, for example, when another object exists in front of the viewing prohibited polyhedron, the viewing prohibition mask value M (h, v) of the pixel corresponding to the other object is set to 0. .

なお、図8のステップS60の判断が肯定された場合、すなわち、位置をロストした場合には、ステップS90に移行する。そして、ステップS90では、判定値算出部28が、全画素の閲覧禁止マスク値M(h,v)を1に設定し、図5のステップS40に移行する。   If the determination in step S60 of FIG. 8 is affirmed, that is, if the position is lost, the process proceeds to step S90. In step S90, the determination value calculation unit 28 sets the viewing prohibition mask value M (h, v) for all pixels to 1, and the process proceeds to step S40 in FIG.

図5に戻り、ステップS40では、閲覧画像生成部30が、画像(各画素の輝度値)I(h,v)と閲覧禁止マスク値M(h,v)を用いて、閲覧禁止部分を除去した画像Im(h,v)を生成する。具体的には、図12に示すように、閲覧画像生成部30は、撮影禁止マスクの画像として、閲覧禁止マスク値M(h,v)が1の画素を黒画素とした画像(閲覧禁止マスク画像)を生成する。そして、閲覧画像生成部30は、当該閲覧禁止マスク画像と画像I(h、v)とを合成して、閲覧禁止部分を閲覧不可能にした画像Im(h,v)を生成する。すなわち、ここでは、閲覧画像生成部30は、M(h、v)=0の場合に、Im(h,v)=I(h,v)とし、M(h、v)=1の場合に、Im(h,v)=0とする。   Returning to FIG. 5, in step S <b> 40, the browsing image generation unit 30 removes the browsing prohibition portion using the image (the luminance value of each pixel) I (h, v) and the browsing prohibition mask value M (h, v). The generated image Im (h, v) is generated. Specifically, as illustrated in FIG. 12, the browsing image generation unit 30 uses an image (viewing prohibition mask) in which a pixel whose browsing prohibition mask value M (h, v) is 1 is a black pixel as an image of the shooting prohibition mask. Image). Then, the browse image generation unit 30 combines the browse prohibition mask image and the image I (h, v) to generate an image Im (h, v) in which the browse prohibition portion is not browseable. That is, here, the browsing image generation unit 30 sets Im (h, v) = I (h, v) when M (h, v) = 0 and M (h, v) = 1. , Im (h, v) = 0.

ここで、例えば、図13に示すように、閲覧禁止多面体の前に物体(図13では人物)が存在していた場合には、当該人物に対応する画素の閲覧禁止マスク値M(h,v)は0に設定される。したがって、本実施形態では、閲覧画像Im(h,v)において、閲覧禁止多面体の前に位置する人物を閲覧することが可能となる。   Here, for example, as shown in FIG. 13, when an object (a person in FIG. 13) is present in front of the viewing-prohibited polyhedron, the viewing-prohibited mask value M (h, v) of the pixel corresponding to the person is shown. ) Is set to zero. Therefore, in the present embodiment, it is possible to browse a person located in front of the browsing prohibited polyhedron in the browsing image Im (h, v).

図5に戻り、次のステップS50では、送信部32が、ステップS40で生成された画像Im(h,v)を、インターネットを介して、PC70に配信する。PC70では、配信された画像(動画を含む)をほぼリアルタイムにて閲覧することが可能である。   Returning to FIG. 5, in the next step S50, the transmitting unit 32 distributes the image Im (h, v) generated in step S40 to the PC 70 via the Internet. The PC 70 can browse the distributed images (including moving images) almost in real time.

以上、詳細に説明したように、本実施形態によると、画像取得部20が、移動ロボット10に搭載されたステレオカメラ12から、画像I(h、v)を取得し、奥行き情報取得部22が、ステレオカメラ12にて得られた画像を構成するの奥行き情報Z(h,v)を取得し、カメラ位置姿勢推定部24が、パーティクルフィルタを用いて推定される前記カメラの位置姿勢を取得する。そして、判定値算出部28は、パーティクルフィルタの各サンプルSの位置姿勢において、地図情報管理部26が管理する地図情報に基づいて閲覧禁止多面体を画像に投影するとともに、閲覧禁止多面体が投影された画素における奥行き値Zp(h,v)を地図情報に基づいて算出し、各サンプルの位置姿勢において算出された各画素における奥行き値Zp(h,v)の最小値を、各画素の閲覧禁止奥行き判定値Z_Inh(h,v)とする。また、判定値算出部28は、各サンプルの位置姿勢において、閲覧禁止多面体を画像に投影したときのサンプルの尤度に基づく値(本実施形態では尤度L(S)そのものの値)を、閲覧禁止多面体が投影された画素に対して累積して、その累積値を各画素のマスク判定値E(h,v)とする。そして、閲覧画像生成部30は、画像I(h,v)のうち、閲覧禁止奥行き判定値Z_Inh(h,v)が奥行き情報Z(h,v)よりも小さい画素で、かつマスク判定値E(h,v)が所定の閾値Ethよりも大きい画素の閲覧を禁止した閲覧画像Im(h,v)を生成する。これにより、本実施形態では、サンプルの尤度を考慮して算出されるマスク判定値E(h,v)が比較的大きい画素のうちで、閲覧禁止多面体を撮像している可能性の高い画素(奥行き情報が、閲覧禁止奥行き判定値以上である画素)を閲覧禁止とすることができる。これにより、プライバシー等が保護された閲覧画像を生成することが可能である。 As described above in detail, according to the present embodiment, the image acquisition unit 20 acquires the image I (h, v) from the stereo camera 12 mounted on the mobile robot 10, and the depth information acquisition unit 22 The depth information Z (h, v) constituting the image obtained by the stereo camera 12 is acquired, and the camera position and orientation estimation unit 24 acquires the position and orientation of the camera estimated using the particle filter. . Then, the determination value calculation unit 28 projects the viewing prohibited polyhedron onto the image based on the map information managed by the map information management unit 26 at the position and orientation of each sample S of the particle filter, and the viewing prohibited polyhedron is projected. The depth value Zp (h, v) in the pixel is calculated based on the map information, and the minimum value of the depth value Zp (h, v) in each pixel calculated in the position and orientation of each sample is set as the viewing prohibited depth of each pixel. The determination value is Z_Inh (h, v). In addition, the determination value calculation unit 28 obtains a value based on the likelihood of the sample (in this embodiment, the value of the likelihood L (S) itself ) when the browsing-prohibited polyhedron is projected on the image in the position and orientation of each sample. The viewing-prohibited polyhedron is accumulated for the projected pixels, and the accumulated value is set as a mask determination value E (h, v) for each pixel. Then, the browsing image generation unit 30 is a pixel in which the browsing prohibition depth determination value Z_Inh (h, v) is smaller than the depth information Z (h, v) in the image I (h, v) and the mask determination value E. A browsing image Im (h, v) in which browsing of pixels in which (h, v) is larger than a predetermined threshold Eth is prohibited is generated. Thereby, in this embodiment, a pixel having a high possibility of imaging a viewing-prohibited polyhedron among pixels having a relatively large mask determination value E (h, v) calculated in consideration of the likelihood of the sample. (Pixels whose depth information is greater than or equal to the browsing prohibition depth determination value) can be prohibited from browsing. Thereby, it is possible to generate a browsing image in which privacy or the like is protected.

この場合、図14に示すように、カメラの位置姿勢の尤もらしいサンプル(仮説)が複数あり、重み付き平均をとると、カメラの推定位置が2つのサンプルの中間位置になってしまい、不確かさが発生することがある。このような場合でも、マスク判定値E(h,v)を用いることで、それらの複数の尤もらしい位置姿勢のどの位置から撮影したとしても閲覧禁止としたい物体を確実に閲覧できないようにすることが可能である。また、本実施形態では、奥行き情報が閲覧禁止奥行き判定値以上である画素を閲覧禁止とし、奥行き情報が閲覧禁止奥行き判定値よりも小さい画素を閲覧可能とする。これにより、閲覧禁止としたい物体(多面体)を閲覧できなくする一方で、閲覧禁止としたい物体(多面体)の手前にある、閲覧を制限する必要のない物体を閲覧できるようにすることが可能となる(図13参照)。   In this case, as shown in FIG. 14, there are a plurality of samples (hypotheses) that are likely to be the position and orientation of the camera, and if the weighted average is taken, the estimated position of the camera is an intermediate position between the two samples, and the uncertainty May occur. Even in such a case, by using the mask determination value E (h, v), it is possible to reliably prevent browsing of an object that should be prohibited from being viewed from any position of the plurality of likely positions and orientations. Is possible. Further, in this embodiment, pixels whose depth information is greater than or equal to the browsing prohibition depth determination value are prohibited from browsing, and pixels whose depth information is smaller than the browsing prohibition depth determination value can be browsed. This makes it possible to browse the object (polyhedron) that you want to prohibit browsing, while you can browse the object that is in front of the object (polyhedron) you do not want to prohibit browsing (See FIG. 13).

また、本実施形態では、画像処理装置18は、閲覧画像生成部30により生成された閲覧画像Im(h,v)を、PC70に送信する送信部32を備えている。これにより、閲覧制限をする必要のある部分(例えば、プライバシーを保護する必要のある部分)を閲覧禁止にした画像を、PC70にて閲覧できるようにすることができる。   In the present embodiment, the image processing apparatus 18 includes a transmission unit 32 that transmits the browsing image Im (h, v) generated by the browsing image generation unit 30 to the PC 70. Thereby, it is possible to make it possible to browse on the PC 70 an image in which a portion that needs to be restricted (for example, a portion that needs to protect privacy) is prohibited.

また、本実施形態では、ステレオカメラに12より撮影された2つの異なる画像から、画像を構成するの奥行き情報を取得する。これにより、画像取得部20が取得する画像、及び各画素の奥行き情報を取得するための画像として、共通の画像を用いることができる。したがって、簡易な構成で、高精度な各画素の奥行き情報を取得することができる。   In the present embodiment, depth information of an image is acquired from two different images captured by the stereo camera 12. Thereby, a common image can be used as an image acquired by the image acquisition unit 20 and an image for acquiring depth information of each pixel. Therefore, highly accurate depth information of each pixel can be acquired with a simple configuration.

また、本実施形態では、カメラ位置姿勢推定部24が、カメラの位置姿勢を推定できなかった場合(ロスト状態となった場合)に、閲覧画像生成部30は、全ての画素の閲覧を禁止した画像を生成する。これにより、カメラの位置姿勢がわからなくなっても、画像のうちの少なくとも閲覧制限をする必要のある部分(例えば、プライバシー保護部分)の閲覧を不可能にすることができる。   In the present embodiment, when the camera position / orientation estimation unit 24 cannot estimate the position / orientation of the camera (when the camera is in a lost state), the browsing image generation unit 30 prohibits browsing of all pixels. Generate an image. Thereby, even if the position and orientation of the camera become unknown, it is possible to make it impossible to view at least a part of the image that needs to be restricted (for example, a privacy protection part).

なお、上記実施形態では、カメラとしてステレオカメラ12を用い、ステレオカメラ12において撮影された画像から、画像I(h,v)と、各画素の奥行き情報Z(h,v)を取得する場合について説明した。しかしながら、これに限られるものではなく、例えば、1つの画像を撮影可能なカメラを用いるとともに、各画素の奥行き情報Z(h,v)を検出することが可能な奥行き情報検出部(Depth Imagerなど)を併せて用いることとしてもよい。   In the above embodiment, the stereo camera 12 is used as the camera, and the image I (h, v) and the depth information Z (h, v) of each pixel are acquired from the image captured by the stereo camera 12. explained. However, the present invention is not limited to this. For example, a depth information detection unit (Depth Imager or the like) that can detect a depth information Z (h, v) of each pixel while using a camera that can capture one image. ) May be used in combination.

なお、上記実施形態では、マスク判定値E(h,v)を更新する際に、上式(5)のように、尤度L(S)そのものを累積する場合について説明したが、これに限られるものではない。例えば、次式(7)に示すように、L(S)の2乗を累積することとしてもよい。
E(h,v)=E(h,v)+L(S) 2 …(7)
In the above embodiment, the case where the likelihood L (S) itself is accumulated as shown in the above equation (5) when the mask determination value E (h, v) is updated has been described. It is not something that can be done. For example, as shown in the following equation (7), the square of L (S) may be accumulated.
E (h, v) = E (h, v) + L (S) 2 (7)

あるいは、次式(8)のように、L(S)を変数とする関数f(L(S))を累積することとしてもよい。
E(h,v)=E(h,v)+f(L(S)) …(8)
Or it is good also as accumulating the function f (L (S) ) which makes L (S) a variable like following Formula (8).
E (h, v) = E (h, v) + f (L (S) ) (8)

なお、上記実施形態では、閲覧禁止マスク値M(h,v)が1のときにIm(h,v)を0にする場合について説明したが、これに限られるものではない。例えば、閲覧禁止マスク値M(h,v)が1の画素に対し、モザイクやぼかし等の処理を行うこととしてもよい。   In the above embodiment, the case where Im (h, v) is set to 0 when the viewing prohibition mask value M (h, v) is 1 has been described, but the present invention is not limited to this. For example, a process such as mosaic or blurring may be performed on a pixel having a browsing prohibition mask value M (h, v) of 1.

なお、上記実施形態では、カメラ位置姿勢推定部24が、画像処理装置18内に設けられている場合について説明したが、これに限られるものではない。例えば、カメラ位置姿勢推定部を画像処理装置18外に設けることとし、画像処理装置18内には、カメラ位置姿勢推定部において推定されたステレオカメラの位置姿勢を取得する機能(取得部としての機能)のみを設けることとしても良い。このようにしても、上記実施形態と同様の効果を得ることができる。   In the above embodiment, the case where the camera position / orientation estimation unit 24 is provided in the image processing apparatus 18 has been described. However, the present invention is not limited to this. For example, a camera position / orientation estimation unit is provided outside the image processing apparatus 18, and a function for acquiring the position and orientation of a stereo camera estimated by the camera position / orientation estimation unit (function as an acquisition unit) is provided in the image processing apparatus 18. ) Only. Even if it does in this way, the effect similar to the said embodiment can be acquired.

なお、上記実施形態では、移動ロボット10にカメラを搭載する場合について説明したが、これに限られるものではない。カメラは、例えば、自動車などの移動体に搭載することとしてもよい。   In the above embodiment, the case where the camera is mounted on the mobile robot 10 has been described, but the present invention is not limited to this. The camera may be mounted on a moving body such as an automobile.

なお、上記実施形態では、閲覧禁止多面体が、民家などのプライバシーを保護する必要のある建物である場合について説明した。しかしながら、これに限らず、プライバシー以外の何らかの理由(防衛上、機密上、法律上、教育上あるいは倫理上の理由など)で閲覧可能にすべきでない物体を、閲覧禁止多面体に設定することとしてもよい。   In the above embodiment, the case where the browsing prohibited polyhedron is a building that needs to protect privacy such as a private house has been described. However, the present invention is not limited to this, and an object that should not be made viewable for any reason other than privacy (for defense, confidentiality, legal, educational or ethical reasons) may be set as a viewing-prohibited polyhedron. Good.

なお、上記実施形態では、移動ロボット10に、画像処理装置18が搭載された場合について説明したが、これに限られるものではない。例えば、画像処理装置18は、移動ロボット10と通信可能とし、移動ロボット10に搭載しないようにしてもよい。この場合、画像処理装置18は、図1のインターネットに接続されてもよい。また、画像処理装置18が、インターネットに接続されている少なくとも1台のPC70に組み込まれてもよい。すなわち、インターネット等の通信網に接続されたサーバコンピュータを本件の画像処理装置とし、これに接続されたパーソナルコンピュータ等の情報処理装置に、画像表示を行うサービスをサーバコンピュータから提供するようにしても良い(ASP(Application Service Provider))。   In the above embodiment, the case where the image processing apparatus 18 is mounted on the mobile robot 10 has been described. However, the present invention is not limited to this. For example, the image processing device 18 may communicate with the mobile robot 10 and may not be mounted on the mobile robot 10. In this case, the image processing apparatus 18 may be connected to the Internet of FIG. Further, the image processing device 18 may be incorporated in at least one PC 70 connected to the Internet. That is, a server computer connected to a communication network such as the Internet is used as the image processing apparatus of the present invention, and a service for displaying an image is provided from the server computer to an information processing apparatus such as a personal computer connected thereto. Good (ASP (Application Service Provider)).

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium.

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

10 移動ロボット(移動体)
12 ステレオカメラ(カメラ、奥行き情報検出部)
18 画像処理装置
20 画像取得部
22 奥行き情報取得部
24 カメラ位置姿勢推定部(取得部)
26 地図情報管理部
28 判定値算出部(閲覧禁止奥行き判定値算出部、マスク判定値算出部)
30 閲覧画像生成部
32 送信部
70 PC(情報処理装置)

10 Mobile robot (moving body)
12 Stereo camera (camera, depth information detector)
DESCRIPTION OF SYMBOLS 18 Image processing apparatus 20 Image acquisition part 22 Depth information acquisition part 24 Camera position and orientation estimation part (acquisition part)
26 Map information management unit 28 Determination value calculation unit (browsing prohibited depth determination value calculation unit, mask determination value calculation unit)
30 browsing image generation unit 32 transmission unit 70 PC (information processing apparatus)

Claims (7)

移動体に搭載されたカメラから、画像を取得する画像取得部と、
前記移動体に搭載された、前記画像を構成する各画素の奥行き情報を検出する奥行き情報検出部から、前記奥行き情報を取得する奥行き情報取得部と、
パーティクルフィルタを用いて推定される前記カメラの位置姿勢を取得する取得部と、
閲覧を禁止する必要のある閲覧禁止多面体の2次元面内位置情報と高さ情報とを含む地図情報を管理する地図情報管理部と、
前記パーティクルフィルタの各サンプルの位置姿勢において、前記地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、前記閲覧禁止多面体が投影された画素における奥行き値を前記地図情報に基づいて算出し、各サンプルの位置姿勢において算出された各画素における奥行き値の最小値を、各画素の閲覧禁止奥行き判定値とする閲覧禁止奥行き判定値算出部と、
前記各サンプルの位置姿勢において、前記地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、当該投影したときのサンプルの尤度に基づく値を、前記閲覧禁止多面体が投影された画素に対して累積して、その累積値を各画素のマスク判定値とするマスク判定値算出部と、
前記画像取得部が取得した前記画像のうち、前記閲覧禁止奥行き判定値が前記奥行き情報よりも小さい画素で、かつ前記マスク判定値が所定の閾値よりも大きい画素の閲覧を禁止した閲覧画像を生成する閲覧画像生成部と、
備える画像処理装置。
An image acquisition unit for acquiring an image from a camera mounted on a moving object;
A depth information acquisition unit that acquires the depth information from a depth information detection unit that is mounted on the moving body and detects depth information of each pixel constituting the image;
An acquisition unit that acquires the position and orientation of the camera estimated using a particle filter;
A map information management unit for managing map information including two-dimensional in-plane position information and height information of a browsing prohibited polyhedron that needs to be prohibited from browsing;
At the position and orientation of each sample of the particle filter, the viewing prohibited polyhedron is projected onto the image based on the map information, and a depth value at a pixel on which the viewing prohibited polyhedron is projected is calculated based on the map information. A browsing prohibition depth determination value calculation unit that sets a minimum depth value of each pixel calculated in the position and orientation of each sample as a browsing prohibition depth determination value of each pixel;
At the position and orientation of each sample, the viewing-prohibited polyhedron is projected onto the image based on the map information, and a value based on the likelihood of the sample at the time of projection is projected to the pixel on which the viewing-prohibited polyhedron is projected. A mask determination value calculation unit that accumulates the accumulated value for each pixel and uses the accumulated value as a mask determination value for each pixel;
Of the images acquired by the image acquisition unit, generates a browsing image in which browsing of pixels whose browsing prohibition depth determination value is smaller than the depth information and whose mask determination value is larger than a predetermined threshold is prohibited. A browsing image generation unit to perform,
An image processing apparatus.
前記閲覧画像生成部により生成された閲覧画像を、情報処理装置に送信する送信部を更に備える請求項1に記載の画像処理装置。   The image processing device according to claim 1, further comprising: a transmission unit that transmits the browse image generated by the browse image generation unit to an information processing device. 前記移動体に搭載された前記カメラは、ステレオカメラであり、
前記移動体に搭載された前記奥行き情報検出部は、前記ステレオカメラにより撮影された2つの異なる画像から、当該画像を構成する各画素の奥行き情報を検出することを特徴とする請求項1又は2に記載の画像処理装置。
The camera mounted on the moving body is a stereo camera,
The depth information detection unit mounted on the moving body detects depth information of each pixel constituting the image from two different images captured by the stereo camera. An image processing apparatus according to 1.
前記取得部が、前記カメラの位置姿勢を取得できなかった場合には、
前記閲覧画像生成部は、全ての画素の閲覧を禁止した画像を生成することを特徴とする請求項1〜3のいずれか一項に記載の画像処理装置。
When the acquisition unit cannot acquire the position and orientation of the camera,
The image processing apparatus according to claim 1, wherein the browsing image generation unit generates an image in which browsing of all pixels is prohibited.
コンピュータを、
移動体に搭載されたカメラから、画像を取得する画像取得部、
前記移動体に搭載された、前記画像を構成する各画素の奥行き情報を検出する奥行き情報検出部から、前記奥行き情報を取得する奥行き情報取得部、
パーティクルフィルタを用いて推定される前記カメラの位置姿勢を取得する取得部、
前記パーティクルフィルタの各サンプルの位置姿勢において、閲覧を禁止する必要のある閲覧禁止多面体の2次元面内位置情報と高さ情報とを含む地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、前記閲覧禁止多面体が投影された画素における奥行き値を前記地図情報に基づいて算出し、各サンプルの位置姿勢において算出された各画素における奥行き値の最小値を、各画素の閲覧禁止奥行き判定値とする閲覧禁止奥行き判定値算出部、
前記各サンプルの位置姿勢において、前記地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、当該投影したときのサンプルの尤度に基づく値を、前記閲覧禁止多面体が投影された画素に対して累積して、その累積値を各画素のマスク判定値とするマスク判定値算出部、
前記画像取得部が取得した前記画像のうち、前記閲覧禁止奥行き判定値が前記奥行き情報よりも小さい画素で、かつ前記マスク判定値が所定の閾値よりも大きい画素の閲覧を禁止した閲覧画像を生成する閲覧画像生成部、
として機能させることを特徴とする画像処理プログラム。
Computer
An image acquisition unit that acquires images from a camera mounted on a moving object,
A depth information acquisition unit that acquires the depth information from a depth information detection unit that detects depth information of each pixel that constitutes the image, mounted on the moving body,
An acquisition unit for acquiring the position and orientation of the camera estimated using a particle filter;
The browsing prohibited polyhedron is projected onto the image based on map information including two-dimensional in-plane position information and height information of a browsing prohibited polyhedron that needs to be prohibited browsing in the position and orientation of each sample of the particle filter. In addition, the depth value in the pixel on which the browsing prohibited polyhedron is projected is calculated based on the map information, and the minimum depth value in each pixel calculated in the position and orientation of each sample is determined as the browsing prohibited depth determination for each pixel. A browsing prohibition depth judgment value calculation unit,
At the position and orientation of each sample, the viewing-prohibited polyhedron is projected onto the image based on the map information, and a value based on the likelihood of the sample at the time of projection is projected to the pixel on which the viewing-prohibited polyhedron is projected. A mask determination value calculating unit that accumulates the accumulated value and uses the accumulated value as a mask determination value for each pixel;
Of the images acquired by the image acquisition unit, generates a browsing image in which browsing of pixels whose browsing prohibition depth determination value is smaller than the depth information and whose mask determination value is larger than a predetermined threshold is prohibited. Browsing image generation unit,
An image processing program that functions as an image processing program.
コンピュータが、
移動体に搭載されたカメラから、画像を取得する画像取得工程と、
前記移動体に搭載された、前記画像を構成する各画素の奥行き情報を検出する奥行き情報検出部から、前記奥行き情報を取得する奥行き情報取得工程と、
パーティクルフィルタを用いて推定される前記カメラの位置姿勢を取得する取得工程と、
前記パーティクルフィルタの各サンプルの位置姿勢において、閲覧を禁止する必要のある閲覧禁止多面体の2次元面内位置情報と高さ情報とを含む地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、前記閲覧禁止多面体が投影された画素における奥行き値を前記地図情報に基づいて算出し、各サンプルの位置姿勢において算出された各画素における奥行き値の最小値を、各画素の閲覧禁止奥行き判定値とする閲覧禁止奥行き判定値算出工程と、
前記各サンプルの位置姿勢において、前記地図情報に基づいて前記閲覧禁止多面体を前記画像に投影するとともに、当該投影したときのサンプルの尤度に基づく値を、前記閲覧禁止多面体が投影された画素に対して累積して、その累積値を各画素のマスク判定値とするマスク判定値算出工程と、
前記画像取得工程で取得された前記画像のうち、前記閲覧禁止奥行き判定値が前記奥行き情報よりも小さい画素で、かつ前記マスク判定値が所定の閾値よりも大きい画素の閲覧を禁止した閲覧画像を生成する閲覧画像生成工程と、
を実行する画像処理方法。
Computer
An image acquisition step of acquiring an image from a camera mounted on the moving body;
A depth information acquisition step of acquiring the depth information from a depth information detection unit that detects depth information of each pixel constituting the image mounted on the moving body;
An acquisition step of acquiring the position and orientation of the camera estimated using a particle filter;
The browsing prohibited polyhedron is projected onto the image based on map information including two-dimensional in-plane position information and height information of a browsing prohibited polyhedron that needs to be prohibited browsing in the position and orientation of each sample of the particle filter. In addition, the depth value in the pixel on which the browsing prohibited polyhedron is projected is calculated based on the map information, and the minimum depth value in each pixel calculated in the position and orientation of each sample is determined as the browsing prohibited depth determination for each pixel. A browsing prohibition depth determination value calculation step as a value;
At the position and orientation of each sample, the viewing-prohibited polyhedron is projected onto the image based on the map information, and a value based on the likelihood of the sample at the time of projection is projected to the pixel on which the viewing-prohibited polyhedron is projected. A mask determination value calculation step of accumulating and using the accumulated value as a mask determination value for each pixel;
Among the images acquired in the image acquisition step, a browsing image in which browsing of pixels whose browsing prohibition depth determination value is smaller than the depth information and whose mask determination value is larger than a predetermined threshold is prohibited. A browsing image generation process to generate;
An image processing method for executing.
画像を撮影するカメラと、
前記画像を構成する各画素の奥行き情報を検出する奥行き情報検出部と、
請求項1〜4のいずれか一項に記載の画像処理装置と、を備える移動体。

A camera for taking images,
A depth information detection unit for detecting depth information of each pixel constituting the image;
A moving body comprising: the image processing apparatus according to claim 1.

JP2010160103A 2010-07-14 2010-07-14 Image processing apparatus, image processing program, image processing method, and moving body Expired - Fee Related JP5471919B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010160103A JP5471919B2 (en) 2010-07-14 2010-07-14 Image processing apparatus, image processing program, image processing method, and moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010160103A JP5471919B2 (en) 2010-07-14 2010-07-14 Image processing apparatus, image processing program, image processing method, and moving body

Publications (2)

Publication Number Publication Date
JP2012023573A JP2012023573A (en) 2012-02-02
JP5471919B2 true JP5471919B2 (en) 2014-04-16

Family

ID=45777460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010160103A Expired - Fee Related JP5471919B2 (en) 2010-07-14 2010-07-14 Image processing apparatus, image processing program, image processing method, and moving body

Country Status (1)

Country Link
JP (1) JP5471919B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014192784A (en) * 2013-03-28 2014-10-06 Secom Co Ltd Monitoring system
JP2019114821A (en) 2016-03-23 2019-07-11 日本電気株式会社 Monitoring system, device, method, and program
JP6552448B2 (en) * 2016-03-31 2019-07-31 株式会社デンソーアイティーラボラトリ Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP7310940B2 (en) 2020-01-30 2023-07-19 日本電気株式会社 Processing equipment and processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3722653B2 (en) * 1999-08-31 2005-11-30 松下電器産業株式会社 Surveillance camera device and display method of surveillance camera
JP4514185B2 (en) * 2003-10-03 2010-07-28 キヤノン株式会社 Camera server device, control method therefor, and computer program
WO2008038333A1 (en) * 2006-09-25 2008-04-03 Pioneer Corporation Data recording device, data recording method, data recording program, and computer readable recording medium
JP5120716B2 (en) * 2008-09-24 2013-01-16 カシオ計算機株式会社 Imaging apparatus, imaging control method, and program

Also Published As

Publication number Publication date
JP2012023573A (en) 2012-02-02

Similar Documents

Publication Publication Date Title
US11195049B2 (en) Electronic device localization based on imagery
JP6687204B2 (en) Projection image generation method and apparatus, and mapping method between image pixels and depth values
JP6996009B2 (en) Self-supervised training for depth estimation models using depth hints
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US10937214B2 (en) System and method for merging maps
JP2021526680A (en) Self-supervised training for depth estimation system
JP7236565B2 (en) POSITION AND ATTITUDE DETERMINATION METHOD, APPARATUS, ELECTRONIC DEVICE, STORAGE MEDIUM AND COMPUTER PROGRAM
JP2009008655A (en) Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicle
US20220051372A1 (en) Feature matching using features extracted from perspective corrected image
KR20180039013A (en) Feature data management for environment mapping on electronic devices
JP5471919B2 (en) Image processing apparatus, image processing program, image processing method, and moving body
Ma et al. 3d reconstruction from full-view fisheye camera
CN108444452B (en) Method and device for detecting longitude and latitude of target and three-dimensional space attitude of shooting device
Yeh et al. 3D reconstruction and visual SLAM of indoor scenes for augmented reality application
BR112020014077A2 (en) head mounted display, method performed by a head mounted display, computer program, and computer-readable storage medium.
WO2020019130A1 (en) Motion estimation method and mobile device
KR101474521B1 (en) Method and apparatus for building image database
US20200412949A1 (en) Device, system, and method for capturing and processing data from a space
JP4446114B2 (en) Image shooting device
JP6625654B2 (en) Projection device, projection method, and program
KR102473804B1 (en) method of mapping monitoring point in CCTV video for video surveillance system
WO2020045092A1 (en) Information processing device, information processing method, and program
Etzold et al. MIPos: towards mobile image positioning in mixed reality web applications based on mobile sensors
CN110913126B (en) Shooting range calculation method and device and related equipment
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees