JP2021152543A - Vehicular processing system - Google Patents

Vehicular processing system Download PDF

Info

Publication number
JP2021152543A
JP2021152543A JP2021092912A JP2021092912A JP2021152543A JP 2021152543 A JP2021152543 A JP 2021152543A JP 2021092912 A JP2021092912 A JP 2021092912A JP 2021092912 A JP2021092912 A JP 2021092912A JP 2021152543 A JP2021152543 A JP 2021152543A
Authority
JP
Japan
Prior art keywords
image
vehicle
distance
subject
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021092912A
Other languages
Japanese (ja)
Inventor
あい 坂下
Ai Sakashita
あい 坂下
直 三島
Sunao Mishima
直 三島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2021152543A publication Critical patent/JP2021152543A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a vehicular processing system that is able to acquire the size of a subject with a monocular camera.SOLUTION: According to an embodiment, a processor includes a size calculation unit and a determination unit. Using a distance indicated by each of pixel values, the size calculation unit projects onto a three-dimensional space each of pixels of a distance map, the distance map being acquired together with an image captured at one time by a single imaging optical system, in which the pixel value of each of pixels is formed as an image indicating a distance and information indicating the distance of a subject included in the image is mapped in correspondence with the image. The size calculation unit calculates the size of the subject from a distance between the pixels projected on the three-dimensional space. Based on the size of the subject, the determination unit determines a driving method for a vehicle.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、車両用処理システムに関する。 Embodiments of the present invention relate to vehicle processing systems.

ステレオカメラ(複眼カメラ)で撮像された被写体のサイズ、たとえば被写体上の指定された2点間の長さを取得する技術が知られている。 A technique for acquiring the size of a subject captured by a stereo camera (compound eye camera), for example, the length between two specified points on the subject is known.

特開2011−232330号公報Japanese Unexamined Patent Publication No. 2011-232330

本発明が解決しようとする課題は、単眼カメラで被写体のサイズを取得することができる車両用処理システムを提供することである。 An object to be solved by the present invention is to provide a vehicle processing system capable of acquiring the size of a subject with a monocular camera.

実施形態によれば、車両用処理システムは、サイズ算出部と、判断部と、を具備する。前記サイズ算出部は、単一の結像光学系による1度の撮像で画像とともに取得される距離マップであって、各画素の画素値が距離を示す画像として生成され、前記画像に含まれる被写体までの距離を示す情報が前記画像と対応させてマッッピングされる距離マップの各画素を、各々の画素値で示される距離を使って3次元空間上に投影し、前記3次元空間上に投影された画素間の距離から前記被写体のサイズを算出する。前記判断部は、前記被写体のサイズに基づき、車両の駆動方法を判断する。 According to the embodiment, the vehicle processing system includes a size calculation unit and a determination unit. The size calculation unit is a distance map acquired together with an image by one imaging by a single imaging optical system, and a subject whose pixel value of each pixel is generated as an image indicating a distance and included in the image. Each pixel of the distance map, in which the information indicating the distance to is mapped in correspondence with the image, is projected onto the three-dimensional space using the distance indicated by each pixel value, and is projected onto the three-dimensional space. The size of the subject is calculated from the distance between the pixels. The determination unit determines the driving method of the vehicle based on the size of the subject.

第1実施形態の処理装置の機能ブロックの一例を示す図。The figure which shows an example of the functional block of the processing apparatus of 1st Embodiment. 第1実施形態の処理装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware composition of the processing apparatus of 1st Embodiment. 第1実施形態の撮像装置の一構成例を示すブロック図。The block diagram which shows one configuration example of the image pickup apparatus of 1st Embodiment. 第1実施形態のフィルタの一構成例を示す図。The figure which shows one configuration example of the filter of 1st Embodiment. 第1実施形態のフィルタ領域の透過率特性の一例を示す図。The figure which shows an example of the transmittance characteristic of the filter region of 1st Embodiment. 第1実施形態のカラー開口による光線変化およびぼけの形状を説明するための図。The figure for demonstrating the light ray change and the shape of a blur by a color aperture of 1st Embodiment. 第1実施形態の基準画像のぼけ関数の一例を示す図。The figure which shows an example of the blurring function of the reference image of 1st Embodiment. 第1実施形態の対象画像のぼけ関数の一例を示す図。The figure which shows an example of the blurring function of the target image of 1st Embodiment. 第1実施形態のぼけ補正フィルタの一例を示す図。The figure which shows an example of the blur correction filter of 1st Embodiment. 第1実施形態の画像および距離マップの一例を示す図。The figure which shows an example of the image and the distance map of 1st Embodiment. 第1実施形態の処理システムの処理の流れの一例を示すフローチャート。The flowchart which shows an example of the processing flow of the processing system of 1st Embodiment. 第1実施形態の処理システムによる被写体のサイズの一出力例を示す図。The figure which shows one output example of the size of a subject by the processing system of 1st Embodiment. 第1実施形態の処理システムによる被写体の移動距離の一出力例を示す図。The figure which shows one output example of the moving distance of a subject by the processing system of 1st Embodiment. 一般的なモーションキャプチャシステムについて説明するための図。The figure for demonstrating a general motion capture system. 第1実施形態の処理システムによる被写体のサイズのさらなる一出力例を示す図。The figure which shows one further output example of the size of the subject by the processing system of 1st Embodiment. 第1実施形態の処理システムによる被写体のサイズのさらなる一出力例を示す図。The figure which shows one further output example of the size of the subject by the processing system of 1st Embodiment. 第1実施形態の処理装置の移動体への一適用例を説明するための図。The figure for demonstrating one application example to the moving body of the processing apparatus of 1st Embodiment. 第1実施形態の処理装置の移動体へのさらなる一適用例を説明するための図。The figure for demonstrating one further application example to the moving body of the processing apparatus of 1st Embodiment. 第1実施形態の処理装置の自動ドアシステムへの一適用例を説明するための図。The figure for demonstrating one application example to the automatic door system of the processing apparatus of 1st Embodiment. 第1実施形態の処理装置の機能ブロックの一変形例を示す図。The figure which shows one modification of the functional block of the processing apparatus of 1st Embodiment. 第2実施形態の処理装置の機能ブロックの一例を示す図。The figure which shows an example of the functional block of the processing apparatus of 2nd Embodiment. 第2実施形態の処理装置のロボットへの一適用例を説明するための図。The figure for demonstrating one application example to the robot of the processing apparatus of 2nd Embodiment. 第3実施形態の処理装置の機能ブロックの一例を示す図。The figure which shows an example of the functional block of the processing apparatus of 3rd Embodiment. 第3実施形態の処理装置の移動体への一適用例を説明するための図。The figure for demonstrating one application example to the moving body of the processing apparatus of 3rd Embodiment.

以下、実施形態について図面を参照して説明する。
(第1実施形態)
まず、第1実施形態について説明する。
図1は、第1実施形態の処理装置の機能ブロックの一例を示す図である。
この処理装置1は、撮像により得た距離マップ(距離画像)2Bから被写体のサイズを算出し、算出した被写体のサイズを出力する。処理装置1は、さらに画像2Aも用いて被写体のサイズを算出してもよい。被写体のサイズは、たとえば画像2Aと同時に表示部3へ表示されてもよい。画像2Aおよび距離マップ2Bの詳細については後述するが、画像2Aおよび距離マップ2Bは、たとえば、画像2Aおよび距離マップ2Bを生成する撮像装置から直接的に取得してもよいし、画像2Aおよび距離マップ2Bを格納する、ネットワークを介して接続されるサーバから取得してもよい。表示部3は、たとえば、液晶ディスプレイや、液晶ディスプレイ上にタッチパネルが配置されるタッチスクリーンディスプレイなどである。
Hereinafter, embodiments will be described with reference to the drawings.
(First Embodiment)
First, the first embodiment will be described.
FIG. 1 is a diagram showing an example of a functional block of the processing device of the first embodiment.
The processing device 1 calculates the size of the subject from the distance map (distance image) 2B obtained by imaging, and outputs the calculated size of the subject. The processing device 1 may further calculate the size of the subject by using the image 2A as well. The size of the subject may be displayed on the display unit 3 at the same time as the image 2A, for example. The details of the image 2A and the distance map 2B will be described later, but the image 2A and the distance map 2B may be acquired directly from, for example, an image pickup device that generates the image 2A and the distance map 2B, or the image 2A and the distance map 2B. It may be obtained from a server connected via a network that stores the map 2B. The display unit 3 is, for example, a liquid crystal display, a touch screen display in which a touch panel is arranged on the liquid crystal display, or the like.

処理装置1は、(画像2Aおよび距離マップ2Bを生成する)撮像装置および表示部3とともに処理システムを構成し得る。処理システムは、たとえば、カメラ、ドライブレコーダなどの録画機器、カメラ機能を有するスマートフォン、カメラ機能を有するパーソナルコンピュータ、監視システム、カメラ機能を有する、車両、飛翔体、ロボットなどの移動体などとして実現され得る。 The processing device 1 may form a processing system together with an imaging device (which generates an image 2A and a distance map 2B) and a display unit 3. The processing system is realized as, for example, a recording device such as a camera or a drive recorder, a smartphone having a camera function, a personal computer having a camera function, a surveillance system, a moving body such as a vehicle, a flying object, or a robot having a camera function. obtain.

図1に示すように、処理装置1は、サイズ算出部11と、出力情報生成部12とを有する。
サイズ算出部11は、距離マップ2Bから画像2A上の被写体のサイズを算出する機能を担う処理部である。サイズ算出部11は、さらに画像2Aを用いて被写体のサイズを算出してもよい。出力情報生成部12は、被写体のサイズに基づく出力情報を生成して出力する機能を担う処理部である。出力情報は、たとえば画像2Aと同時に表示部3へ表示するための情報である。
As shown in FIG. 1, the processing device 1 has a size calculation unit 11 and an output information generation unit 12.
The size calculation unit 11 is a processing unit that has a function of calculating the size of the subject on the image 2A from the distance map 2B. The size calculation unit 11 may further calculate the size of the subject using the image 2A. The output information generation unit 12 is a processing unit that has a function of generating and outputting output information based on the size of the subject. The output information is, for example, information for displaying on the display unit 3 at the same time as the image 2A.

図2は、処理装置1のハードウェア構成の一例を示す図である。
図2に示すように、処理装置1は、CPU101、RAM102、不揮発性メモリ103、入出力部104および通信部105を有し、また、CPU101、RAM102、不揮発性メモリ103、入出力部104および通信部105を相互に接続するバス106を有する。
FIG. 2 is a diagram showing an example of the hardware configuration of the processing device 1.
As shown in FIG. 2, the processing device 1 has a CPU 101, a RAM 102, a non-volatile memory 103, an input / output unit 104, and a communication unit 105, and also has a CPU 101, a RAM 102, a non-volatile memory 103, an input / output unit 104, and communication. It has a bus 106 that connects the parts 105 to each other.

CPU101は、不揮発性メモリ103に格納されているコンピュータプログラムをRAM102へロードして実行することにより、図1に示したサイズ算出部11および出力情報生成部12を含む処理装置1の各処理部を実現するプロセッサである。ここでは、処理装置1の各処理部が、1つのCPU101、すなわち単一のプロセッサで実現される例を示したが、処理装置1の各処理部は、複数のプロセッサで実現されてもよい。処理装置1の各処理部は、専用の電子回路で実現されてもよい。RAM102は、主記憶装置として用いられる記憶メディアであり、不揮発性メモリ103は、補助記憶装置として用いられる記憶メディアである。 The CPU 101 loads the computer program stored in the non-volatile memory 103 into the RAM 102 and executes it to drive each processing unit of the processing device 1 including the size calculation unit 11 and the output information generation unit 12 shown in FIG. It is a processor that realizes it. Here, an example is shown in which each processing unit of the processing device 1 is realized by one CPU 101, that is, a single processor, but each processing unit of the processing device 1 may be realized by a plurality of processors. Each processing unit of the processing device 1 may be realized by a dedicated electronic circuit. The RAM 102 is a storage medium used as a main storage device, and the non-volatile memory 103 is a storage medium used as an auxiliary storage device.

入出力部104は、たとえば、撮像装置から画像2Aおよび距離マップ2Bを入力したり、ユーザからの指示を入力したり、表示画面を表示部3へ出力したり、といった入出力を実行するモジュールである。ユーザからの指示は、キーボード、ポインティングデバイス、操作ボタンなどの操作に伴って入力されてもよいし、表示部3がタッチスクリーンディスプレイである場合、タッチスクリーンディスプレイ上でのタッチ操作に伴って入力されてもよい。通信部105は、たとえば、ネットワークを介した外部機器との通信、周辺に存在する外部機器との無線通信などを実行するモジュールである。画像2Aおよび距離マップ2Bは、通信部105により取得されてもよい。 The input / output unit 104 is a module that executes input / output such as inputting an image 2A and a distance map 2B from an imaging device, inputting an instruction from a user, and outputting a display screen to the display unit 3. be. The instruction from the user may be input according to the operation of the keyboard, the pointing device, the operation button, or the like, and when the display unit 3 is a touch screen display, the instruction is input according to the touch operation on the touch screen display. You may. The communication unit 105 is a module that executes communication with an external device via a network, wireless communication with an external device existing in the vicinity, and the like. The image 2A and the distance map 2B may be acquired by the communication unit 105.

ここで、画像2Aおよび距離マップ2Bの詳細について説明する。
図3は、画像2Aおよび距離マップ2Bを生成する撮像装置の一構成例を示すブロック図である。
図3に示すように、撮像装置100は、フィルタ110、レンズ120、イメージセンサ130および画像処理部(処理装置)140を有する。図3中、フィルタ110からイメージセンサ130までの矢印は、光の経路を示す。また、イメージセンサ130から画像処理部140までの矢印は、電気信号の経路を示す。画像処理部140は、前述したサイズ算出部11および出力情報生成部12のほか、画像取得部141、距離算出部142および第2出力情報生成部143を有する。
Here, the details of the image 2A and the distance map 2B will be described.
FIG. 3 is a block diagram showing a configuration example of an imaging device that generates an image 2A and a distance map 2B.
As shown in FIG. 3, the image pickup apparatus 100 includes a filter 110, a lens 120, an image sensor 130, and an image processing unit (processing apparatus) 140. In FIG. 3, the arrows from the filter 110 to the image sensor 130 indicate the light path. Further, the arrow from the image sensor 130 to the image processing unit 140 indicates the path of the electric signal. The image processing unit 140 includes the image acquisition unit 141, the distance calculation unit 142, and the second output information generation unit 143, in addition to the size calculation unit 11 and the output information generation unit 12 described above.

イメージセンサ130は、フィルタ110およびレンズ120を透過した光を受光し、受光した光を電気信号に変換(光電変換)することにより、画像を生成する。イメージセンサ130には、たとえば、CCD(Charge Coupled Device)や、CMOS(Complementary Metal Oxide Semiconductor)が用いられる。イメージセンサ130は、たとえば、赤色(R)の光を受光する撮像素子(第1のセンサ131)と、緑色(G)の光を受光する撮像素子(第2のセンサ132)と、青色(B)の光を受光する撮像素子(第3のセンサ33)とを有する。各撮像素子は、対応する波長帯域の光を受光し、受光した光を電気信号に変換する。この電気信号をA/D変換することにより、カラー画像(画像2A)を生成することができる。なお、赤、緑、青の撮像素子毎の電気信号を用いて、R画像、G画像、B画像をそれぞれ生成することもできる。つまり、カラー画像、R画像、G画像、B画像を同時に生成することができる。換言すると、撮像装置100は、1度の撮像で、カラー画像、R画像、G画像、B画像を得ることができる。フィルタ110、レンズ120、およびイメージセンサ130は、単一の光学系を形成する。 The image sensor 130 receives light transmitted through the filter 110 and the lens 120, and converts the received light into an electric signal (photoelectric conversion) to generate an image. For the image sensor 130, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) is used. The image sensor 130 includes, for example, an image sensor (first sensor 131) that receives red (R) light, an image sensor (second sensor 132) that receives green (G) light, and blue (B). ), It has an image sensor (third sensor 33) that receives the light. Each image sensor receives light in the corresponding wavelength band and converts the received light into an electric signal. A color image (image 2A) can be generated by A / D converting this electric signal. It is also possible to generate an R image, a G image, and a B image by using the electric signals of each of the red, green, and blue image pickup elements. That is, a color image, an R image, a G image, and a B image can be generated at the same time. In other words, the image pickup apparatus 100 can obtain a color image, an R image, a G image, and a B image by one imaging. The filter 110, the lens 120, and the image sensor 130 form a single optical system.

フィルタ110は、2以上のカラーフィルタ領域を有する。カラーフィルタ領域それぞれは、撮像装置の光学中心に対して非対称な形状である。1つのカラーフィルタ領域が透過する光の波長領域の一部と他の1つのカラーフィルタ領域が透過する光の波長領域の一部は、例えば重複する。1つのカラーフィルタ領域が透過する光の波長領域は、例えば他の1つのカラーフィルタ領域が透過する光の波長領域を含んでもよい。 The filter 110 has two or more color filter regions. Each color filter region has a shape that is asymmetric with respect to the optical center of the image pickup apparatus. A part of the wavelength region of the light transmitted through one color filter region and a part of the wavelength region of the light transmitted through the other color filter region overlap, for example. The wavelength region of light transmitted through one color filter region may include, for example, the wavelength region of light transmitted through another color filter region.

図4に、フィルタ110の一構成例を示す。フィルタ110は、たとえば、2色のカラーフィルタ領域である、第1のフィルタ領域111と第2のフィルタ領域112とで構成される。フィルタ110の中心は、撮像装置100の光学中心113と一致している。第1のフィルタ領域111および第2のフィルタ領域112は、それぞれ、光学中心113に対して非点対称である形状を有している。また、たとえば各フィルタ領域111,112は重複せず、かつ、2つのフィルタ領域111,112によってフィルタ領域の全領域を構成している。図4に示す例では、第1のフィルタ領域111および第2のフィルタ領域112は、それぞれ、円形のフィルタ110が光学中心113を通る線分で分割された半円の形状を有している。また、第1のフィルタ領域111は、たとえばイエロー(Y)のフィルタ領域であり、第2のフィルタ領域112は、たとえばシアン(C)のフィルタ領域である。以下、図4に示したフィルタ110が用いられることを想定して説明する。 FIG. 4 shows a configuration example of the filter 110. The filter 110 is composed of, for example, a first filter region 111 and a second filter region 112, which are color filter regions of two colors. The center of the filter 110 coincides with the optical center 113 of the image pickup apparatus 100. The first filter region 111 and the second filter region 112 each have a shape that is astigmatic with respect to the optical center 113. Further, for example, the filter areas 111 and 112 do not overlap, and the two filter areas 111 and 112 constitute the entire area of the filter area. In the example shown in FIG. 4, the first filter region 111 and the second filter region 112 each have a semicircular shape in which the circular filter 110 is divided by a line segment passing through the optical center 113. The first filter region 111 is, for example, a yellow (Y) filter region, and the second filter region 112 is, for example, a cyan (C) filter region. Hereinafter, it will be described assuming that the filter 110 shown in FIG. 4 is used.

たとえば図4に示したフィルタ110がカメラの開口部に配置されることにより、開口部が2色で2分割された構造開口であるカラー開口が構成される。このカラー開口を透過する光線に基づいて、イメージセンサ130は画像を生成する。イメージセンサ130に入射する光の光路上において、フィルタ110とイメージセンサ130との間にレンズ120が配置されてもよい。イメージセンサ130に入射する光の光路上において、レンズ120とイメージセンサ130との間にフィルタ110が配置されてもよい。レンズ120が複数設けられる場合、フィルタ110は、2つのレンズ120の間に配置されてもよい。 For example, by arranging the filter 110 shown in FIG. 4 in the opening of the camera, a color opening which is a structural opening in which the opening is divided into two colors is formed. The image sensor 130 produces an image based on the light rays that pass through this color aperture. A lens 120 may be arranged between the filter 110 and the image sensor 130 on the optical path of the light incident on the image sensor 130. A filter 110 may be arranged between the lens 120 and the image sensor 130 on the optical path of the light incident on the image sensor 130. When a plurality of lenses 120 are provided, the filter 110 may be arranged between the two lenses 120.

第2のセンサ132に対応する波長帯域の光は、イエローの第1のフィルタ領域111とシアンの第2のフィルタ領域112の両方を透過する。第1のセンサ131に対応する波長帯域の光は、イエローの第1のフィルタ領域111を透過し、シアンの第2のフィルタ領域112を透過しない。第3のセンサ133に対応する波長帯域の光は、シアンの第2のフィルタ領域112を透過し、イエローの第2のフィルタ領域112を透過しない。 Light in the wavelength band corresponding to the second sensor 132 passes through both the yellow first filter region 111 and the cyan second filter region 112. Light in the wavelength band corresponding to the first sensor 131 passes through the yellow first filter region 111 and does not pass through the cyan second filter region 112. Light in the wavelength band corresponding to the third sensor 133 passes through the cyan second filter region 112 and does not pass through the yellow second filter region 112.

なお、ある波長帯域の光がフィルタまたはフィルタ領域を透過するとは、フィルタまたはフィルタ領域が高い透過率でその波長帯域の光を透過し、そのフィルタまたはフィルタ領域による当該波長帯域の光の減衰(すなわち、光量の低下)が極めて小さいことを意味する。また、ある波長帯域の光がフィルタまたはフィルタ領域を透過しないとは、光がフィルタまたはフィルタ領域に遮蔽されることであり、たとえば、フィルタまたはフィルタ領域が低い透過率でその波長帯域の光を透過し、そのフィルタまたはフィルタ領域による当該波長帯域の光の減衰が極めて大きいことを意味する。たとえばフィルタまたはフィルタ領域は、ある波長帯の光を吸収することにより光を減衰させる。 When light in a certain wavelength band passes through a filter or a filter region, the filter or the filter region transmits light in the wavelength band with a high transmittance, and the filter or the filter region attenuates the light in the wavelength band (that is, , The decrease in the amount of light) is extremely small. Also, the fact that light in a certain wavelength band does not pass through the filter or filter area means that the light is blocked by the filter or filter area, for example, the filter or filter area transmits light in that wavelength band with low transmittance. However, it means that the attenuation of light in the wavelength band by the filter or the filter region is extremely large. For example, a filter or filter region attenuates light by absorbing light in a certain wavelength band.

図5は、第1のフィルタ領域111および第2のフィルタ領域112の透過率特性の例を示す図である。図5に示すように、イエローの第1のフィルタ領域111の透過率特性151では、R画像およびG画像に対応する波長帯域の光が高い透過率で透過され、B画像に対応する波長帯域の光がほとんど透過されていない。また、シアンの第2のフィルタ領域112の透過率特性152では、B画像およびG画像に対応する波長帯域の光が高い透過率で透過され、R画像に対応する波長帯域の光がほとんど透過されていない。 FIG. 5 is a diagram showing an example of the transmittance characteristics of the first filter region 111 and the second filter region 112. As shown in FIG. 5, in the transmittance characteristic 151 of the first filter region 111 of yellow, light in the wavelength band corresponding to the R image and the G image is transmitted with high transmittance, and the light in the wavelength band corresponding to the B image is transmitted. Almost no light is transmitted. Further, in the transmittance characteristic 152 of the second filter region 112 of cyan, the light in the wavelength band corresponding to the B image and the G image is transmitted with a high transmittance, and the light in the wavelength band corresponding to the R image is almost transmitted. Not.

したがって、R画像に対応する波長帯域の光は、イエローの第1のフィルタ領域111のみを透過し、B画像に対応する波長帯域の光は、シアンの第2のフィルタ領域112のみを透過するので、R画像上およびB画像上のぼけの形状は、被写体までの距離dに応じて、より詳細には、距離dと合焦距離dfとの差分に応じて変化する。また、各フィルタ領域111,112は、光学中心に対して非対称な形状なので、R画像上およびB画像上のぼけの形状は、被写体が合焦距離dfよりも手前にあるか、それとも奥にあるかによって異なる。すなわち、R画像上およびB画像上のぼけの形状は偏っている。 Therefore, the light in the wavelength band corresponding to the R image is transmitted only through the first filter region 111 of yellow, and the light in the wavelength band corresponding to the B image is transmitted only through the second filter region 112 of cyan. The shape of the blur on the R image and the B image changes according to the distance d to the subject, and more specifically, according to the difference between the distance d and the focusing distance df. Further, since the filter regions 111 and 112 have shapes that are asymmetric with respect to the optical center, the shape of the blur on the R image and the B image is such that the subject is in front of or behind the focusing distance df. It depends on whether or not. That is, the shape of the blur on the R image and the B image is biased.

図6を参照して、フィルタ110が配置されたカラー開口による光線変化と、ぼけの形状とについて説明する。
被写体200が合焦距離dfよりも奥にある場合(d>df)、イメージセンサ130によって撮像された画像にはぼけが発生する。この画像のぼけの形状を示すぼけ関数(PSF:Point Spread Function)は、R画像、G画像およびB画像でそれぞれ異なっている。すなわち、R画像のぼけ関数161Rは左側に偏ったぼけの形状を示し、G画像のぼけ関数161Gは偏りのないぼけの形状を示し、B画像のぼけ関数161Bは右側に偏ったぼけの形状を示している。
With reference to FIG. 6, the light ray change due to the color aperture in which the filter 110 is arranged and the shape of the blur will be described.
When the subject 200 is deeper than the focusing distance df (d> df), the image captured by the image sensor 130 is blurred. The blur function (PSF: Point Spread Function) indicating the shape of the blur of this image is different for the R image, the G image, and the B image, respectively. That is, the blur function 161R of the R image shows the shape of the blur biased to the left side, the blur function 161G of the G image shows the shape of the blur without bias, and the blur function 161B of the B image shows the shape of the blur biased to the right. Shown.

また、被写体200が合焦距離dfにある場合(d=df)、イメージセンサ130によって撮像された画像にはほとんどぼけが発生しない。この画像のぼけの形状を示すぼけ関数は、R画像、G画像およびB画像でほぼ同じである。すなわち、R画像のぼけ関数162R、G画像のぼけ関数162G、およびB画像のぼけ関数162Bは、偏りのないぼけの形状を示している。 Further, when the subject 200 is at the focusing distance df (d = df), almost no blur occurs in the image captured by the image sensor 130. The blur function indicating the shape of the blur in this image is almost the same in the R image, the G image, and the B image. That is, the blur function 162R of the R image, the blur function 162G of the G image, and the blur function 162B of the B image show an unbiased shape of the blur.

また、被写体200が合焦距離dfよりも手前にある場合(d<df)、イメージセンサ130によって撮像された画像にはぼけが発生する。この画像のぼけの形状を示すぼけ関数は、R画像、G画像およびB画像でそれぞれ異なっている。すなわち、R画像のぼけ関数103Rは右側に偏ったぼけの形状を示し、G画像のぼけ関数163Gは偏りのないぼけの形状を示し、B画像のぼけ関数163Bは左側に偏ったぼけの形状を示している。 Further, when the subject 200 is in front of the focusing distance df (d <df), the image captured by the image sensor 130 is blurred. The blur function indicating the shape of the blur in this image is different for the R image, the G image, and the B image, respectively. That is, the blur function 103R of the R image shows the shape of the blur biased to the right side, the blur function 163G of the G image shows the shape of the blur without bias, and the blur function 163B of the B image shows the shape of the blur biased to the left. Shown.

撮像装置100の画像処理部140は、このような特性を利用して、被写体までの距離を算出する。
画像取得部141は、ぼけ関数が偏りのないぼけの形状を示すG画像を基準画像として取得する。また、画像取得部141は、ぼけ関数が偏ったぼけの形状を示すR画像およびB画像の一方または両方を対象画像として取得する。対象画像と基準画像とは、1つの撮像装置により同時刻に撮像された画像である。
The image processing unit 140 of the image pickup apparatus 100 uses such characteristics to calculate the distance to the subject.
The image acquisition unit 141 acquires a G image whose blur function shows an unbiased shape as a reference image. Further, the image acquisition unit 141 acquires one or both of the R image and the B image showing the shape of the blur in which the blur function is biased as the target image. The target image and the reference image are images captured at the same time by one imaging device.

距離算出部142は、複数のぼけ補正フィルタのうち、対象画像に付加すると、基準画像との相関がより高くなるぼけ補正フィルタを求めることで、被写体までの距離を算出する。また、距離算出部142は、算出した距離から、距離マップを生成する。複数のぼけ補正フィルタは、対象画像に対して、相互に異なるぼけを付加する関数である。ここで、距離算出部142による距離算出処理の詳細について説明する。 The distance calculation unit 142 calculates the distance to the subject by obtaining a blur correction filter that, when added to the target image, has a higher correlation with the reference image among the plurality of blur correction filters. Further, the distance calculation unit 142 generates a distance map from the calculated distance. The plurality of blur correction filters are functions that add different blurs to the target image. Here, the details of the distance calculation process by the distance calculation unit 142 will be described.

距離算出部142は、取得された対象画像と基準画像とをもとに、対象画像に異なるぼけを付加することで、対象画像のぼけ形状を補正した補正画像を生成する。ここでは、距離算出部142は、被写体までの距離が任意の距離であると仮定して作成した複数のぼけ補正フィルタを用いて、対象画像のぼけ形状を補正した補正画像を生成し、補正画像と基準画像との相関がより高くなる距離を求めることで、被写体までの距離を算出するものとする。 The distance calculation unit 142 generates a corrected image in which the blur shape of the target image is corrected by adding different blurs to the target image based on the acquired target image and the reference image. Here, the distance calculation unit 142 generates a correction image in which the blur shape of the target image is corrected by using a plurality of blur correction filters created on the assumption that the distance to the subject is an arbitrary distance, and the correction image. The distance to the subject is calculated by finding the distance at which the correlation between the image and the reference image becomes higher.

撮像画像のぼけ関数は、撮像装置100の開口形状と、被写体の位置とピント位置との距離とにより決定する。図7は、基準画像のぼけ関数の一例を示す図である。図7に示すように、第2のセンサ132に対応する波長領域が透過する開口形状は点対称形である円形状であるため、ぼけ関数で示されるぼけの形状は、ピント位置の前後で変化はなく、被写体とピント位置との間の距離の大きさによってぼけの幅が変化する。このようなぼけの形状を示すぼけ関数は、被写体の位置とピント位置との間の距離の大きさによってぼけの幅が変化するガウス関数として表現できる。なお、ぼけ関数は、被写体の位置とピント位置との距離によってぼけの幅が変化するピルボックス関数として表現してもよい。 The blurring function of the captured image is determined by the aperture shape of the imaging device 100 and the distance between the position of the subject and the focus position. FIG. 7 is a diagram showing an example of a blur function of the reference image. As shown in FIG. 7, since the aperture shape through which the wavelength region corresponding to the second sensor 132 is transmitted is a circular shape that is point-symmetrical, the shape of the blur indicated by the blur function changes before and after the focus position. However, the width of the blur changes depending on the size of the distance between the subject and the focus position. The blur function showing the shape of such a blur can be expressed as a Gaussian function in which the width of the blur changes depending on the size of the distance between the position of the subject and the focus position. The blur function may be expressed as a pillbox function in which the width of the blur changes depending on the distance between the position of the subject and the focus position.

図8は、対象画像のぼけ関数の一例を示す図である。なお、各図の中心(x0,y0)=(0,0)である。図8に示すように、対象画像(たとえばR画像)のぼけ関数は、被写体がピント位置よりも遠方にあるd>dfの場合、x>0において第1のフィルタ領域111での光減衰によってぼけの幅が減衰するガウス関数として表現できる。また、被写体がピント位置よりも近方にあるd<dfの場合、x<0において第1のフィルタ領域111での光減衰によってぼけの幅が減衰するガウス関数として表現できる。 FIG. 8 is a diagram showing an example of a blur function of the target image. The center of each figure (x 0 , y 0 ) = (0, 0). As shown in FIG. 8, the blurring function of the target image (for example, R image) is blurred by the light attenuation in the first filter region 111 at x> 0 when the subject is d> df farther from the focus position. It can be expressed as a Gaussian function that attenuates the width of. Further, when the subject is d <df closer than the focus position, it can be expressed as a Gaussian function in which the width of the blur is attenuated by the light attenuation in the first filter region 111 at x <0.

また、基準画像のぼけ関数と対象画像のぼけ関数とを解析することにより、対象画像のぼけ形状を基準画像のぼけ形状へ補正するための複数のぼけ補正フィルタを求めることができる。
図9は、ぼけ補正フィルタの一例を示す図である。なお、図9に示すぼけ補正フィルタは、図4に示したフィルタ110を用いた場合のぼけ補正フィルタである。図9に示すように、ぼけ補正フィルタは、第1のフィルタ領域111と第2のフィルタ領域112の境界の線分の中心点を通り、この線分に直交する直線上(直線付近)に分布する。その分布は、想定する距離毎にピーク点(直線上の位置,高さ)とピーク点からの広がり方とが異なる図9に示すような山状の分布となる。対象画像のぼけ形状は、ぼけ補正フィルタを用いて、任意の距離を想定した様々なぼけ形状に補正することができる。つまり、任意の距離を想定した補正画像を生成することができる。
Further, by analyzing the blur function of the reference image and the blur function of the target image, it is possible to obtain a plurality of blur correction filters for correcting the blur shape of the target image to the blur shape of the reference image.
FIG. 9 is a diagram showing an example of a blur correction filter. The blur correction filter shown in FIG. 9 is a blur correction filter when the filter 110 shown in FIG. 4 is used. As shown in FIG. 9, the blur correction filter passes through the center point of the line segment at the boundary between the first filter region 111 and the second filter region 112, and is distributed on a straight line (near the straight line) orthogonal to this line segment. do. The distribution is a mountain-like distribution as shown in FIG. 9, in which the peak point (position on a straight line, height) and the way of spreading from the peak point are different for each assumed distance. The blur shape of the target image can be corrected to various blur shapes assuming an arbitrary distance by using a blur correction filter. That is, it is possible to generate a corrected image assuming an arbitrary distance.

距離算出部142は、生成した補正画像と基準画像とのぼけ形状が最も近似または一致する距離を撮像画像の各画素から求める。ぼけ形状の一致度は、各画素を中心とする任意サイズの矩形領域における補正画像と基準画像との相関を計算すれば良い。ぼけ形状の一致度の計算は、既存の類似度評価手法を用いれば良い。距離算出部142は、補正画像と基準画像とで相関が最も高くなる距離を求めることで、各画素について被写体までの距離を算出する。 The distance calculation unit 142 obtains the distance at which the blurred shape of the generated corrected image and the reference image most closely approximates or matches from each pixel of the captured image. The degree of coincidence of the blurred shapes may be determined by calculating the correlation between the corrected image and the reference image in a rectangular region of an arbitrary size centered on each pixel. The existing similarity evaluation method may be used to calculate the degree of coincidence of the blurred shapes. The distance calculation unit 142 calculates the distance to the subject for each pixel by obtaining the distance at which the correlation between the corrected image and the reference image is highest.

たとえば、既存の類似度評価手法は、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、NCC(Normalized Cross-Correlation)、ZNCC(Zero-mean Normalized Cross-Correlation)、Color Alignment Measure等を利用すれば良い。本実施形態では、自然画像の色成分が局所的には線形な関係を持つ特性を有することを利用したColor Alignment Measureを利用する。Color Alignment Measureでは、撮像画像の対象画素を中心とする局所境域の色分布の分散から、相関関係を表す指標が算出される。 For example, existing similarity evaluation methods include SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), NCC (Normalized Cross-Correlation), ZNCC (Zero-mean Normalized Cross-Correlation), Color Alignment Measure, etc. You can use it. In the present embodiment, the Color Alignment Measure is used, which utilizes the fact that the color components of the natural image have a characteristic of having a locally linear relationship. In the Color Alignment Measure, an index showing the correlation is calculated from the variance of the color distribution in the local boundary region centered on the target pixel of the captured image.

このように、距離算出部142は、フィルタ領域に応じた対象画像のぼけ形状を、距離を仮定したぼけ補正フィルタにより補正した補正画像を生成し、生成した補正画像と基準画像との相関がより高くなる距離を求めることで、被写体までの距離を算出する。 In this way, the distance calculation unit 142 generates a corrected image in which the blur shape of the target image corresponding to the filter area is corrected by the blur correction filter assuming the distance, and the correlation between the generated corrected image and the reference image is improved. The distance to the subject is calculated by finding the higher distance.

また、距離算出部142は、算出した距離から距離マップを生成する。距離マップは、たとえば、各画素の画素値が距離を示す画像として生成される。たとえば、合焦位置の手前から奥に向かって、波長の長い色を示す値(赤)から波長の短い色を示す値(紫)が割り当てられる。このように、距離マップは、被写体までの距離を示す情報が画像の領域に対応させてマッピングされたものであり、被写体までの距離を示す情報として画素値が用いられるものである。画像として生成される距離マップは、表示できるので、色で、たとえば複数の被写体間の奥行き方向の位置関係を確認することができる。第2出力情報生成部12は、距離算出部142により生成される距離マップを含む出力情報を生成して出力する。 Further, the distance calculation unit 142 generates a distance map from the calculated distance. The distance map is generated, for example, as an image in which the pixel value of each pixel indicates a distance. For example, a value indicating a color having a long wavelength (red) to a value indicating a color having a short wavelength (purple) are assigned from the front to the back of the focusing position. As described above, in the distance map, the information indicating the distance to the subject is mapped corresponding to the area of the image, and the pixel value is used as the information indicating the distance to the subject. Since the distance map generated as an image can be displayed, it is possible to confirm the positional relationship in the depth direction between a plurality of subjects, for example, by color. The second output information generation unit 12 generates and outputs output information including the distance map generated by the distance calculation unit 142.

図10は、撮像装置100により生成される画像2Aおよび距離マップ2Bの一例を示す図である。
図10中、(A)が画像2Aの表示例であり、また、(B)が距離マップ2Bの表示例である。各画素の画素値が、合焦位置より手前に位置する程、波長の長い色を示す値となり、合焦位置より奥に位置する程、波長の短い色を示す値となる距離マップは、図10の(B)に示すように、手前に位置する被写体には赤みがかった色が配され、奥に位置する被写体には紫がかった色が配された画像として表示される。
FIG. 10 is a diagram showing an example of the image 2A and the distance map 2B generated by the image pickup apparatus 100.
In FIG. 10, (A) is a display example of the image 2A, and (B) is a display example of the distance map 2B. The distance map in which the pixel value of each pixel indicates a color with a longer wavelength as it is located closer to the in-focus position and a value indicating a color with a shorter wavelength as it is located deeper than the in-focus position is shown in the figure. As shown in (B) of 10, the subject located in the foreground is displayed as an image in which a reddish color is arranged, and the subject located in the back is displayed as an image in which a purplish color is arranged.

次に、この画像2Aおよび距離マップ2Bを取得して各種処理を実行する処理装置1の処理の詳細について説明する。
画像2Aを撮影した際の合焦距離が既知であれば、光学中心から画像中心までの距離と光学中心から物体までの距離の比から、撮影画像上での被写体の長さと実際の被写体の長さの比を得ることができる。また、前述したように、距離マップ2Bは、画素値が距離を示すので、各画素を実空間(3次元空間)上に投影(マッピング)することができる。処理装置1、より詳細には、サイズ算出部11は、各画素を実空間(3次元空間)上に投影(マッピング)することで、たとえば画像2A上において指定される2点間に対応する被写体のサイズを取得する。また、出力情報生成部12は、たとえば、取得された被写体のサイズを画像2A上に重ねて表示するための出力情報、つまり被写体のサイズと画像とを同時に表示するための出力情報を生成して、表示部3へ出力する。なお、画像2Aは、被写体のサイズを取得するにあたり、被写体の認識や、被写体上の測定すべき箇所の指定に用いられる。換言すれば、画像2A上の測定すべき2点が与えられたサイズ算出部11は、距離マップ2Bのみで被写体のサイズを取得でき、画像2Aを必要としない。以下では、画像2Aと距離マップ2Bを用いて被写体のサイズを取得する場合を説明する。
Next, the details of the processing of the processing apparatus 1 that acquires the image 2A and the distance map 2B and executes various processing will be described.
If the focusing distance when the image 2A is taken is known, the length of the subject on the captured image and the actual length of the subject are obtained from the ratio of the distance from the optical center to the image center and the distance from the optical center to the object. You can get the ratio of the optics. Further, as described above, in the distance map 2B, since the pixel value indicates the distance, each pixel can be projected (mapped) on the real space (three-dimensional space). The processing device 1, more specifically, the size calculation unit 11 projects (maps) each pixel onto a real space (three-dimensional space), so that, for example, a subject corresponding to two points designated on the image 2A. Get the size of. Further, the output information generation unit 12 generates, for example, output information for displaying the acquired size of the subject on the image 2A, that is, output information for displaying the size of the subject and the image at the same time. , Output to display unit 3. The image 2A is used for recognizing the subject and designating a portion to be measured on the subject when acquiring the size of the subject. In other words, the size calculation unit 11 given the two points to be measured on the image 2A can acquire the size of the subject only by the distance map 2B, and does not require the image 2A. In the following, a case where the size of the subject is acquired by using the image 2A and the distance map 2B will be described.

図11は、処理装置1を含む処理システムの処理の流れの一例を示すフローチャートである。
まず、撮像装置100による画像の撮像が行われる(ステップA1)。撮像装置100は、画像2Aを生成するとともに(ステップA2)、距離マップ2Bを生成する(ステップA3)。撮像装置100により生成された画像2Aおよび距離マップ2Bは、処理装置1により取得される。
FIG. 11 is a flowchart showing an example of the processing flow of the processing system including the processing device 1.
First, an image is captured by the imaging device 100 (step A1). The image pickup apparatus 100 generates the image 2A (step A2) and the distance map 2B (step A3). The image 2A and the distance map 2B generated by the image pickup apparatus 100 are acquired by the processing apparatus 1.

処理装置1は、たとえば、表示部3により画像2Aを表示し、画像2Aに写る複数の被写体の中からいずれか1つを指定する指示や、画像2A上の2点を指定する指示などを受け付ける。この指示は、同時に、被写体のサイズの取得を要求するものである。被写体のサイズの取得が要求されると、処理装置1は、距離マップ2Bの各画素を、各々の画素値で示される距離を使って3次元空間上に投影する(ステップA4)。たとえば、ある被写体を指定する指示を受けた場合、処理装置1は、被写体の幅や長さなどを、3次元空間上に投影された画素間の距離(実距離)から取得する(ステップA5)。処理装置1は、実際の被写体のサイズを、たとえば画像2A上に重ねる等により、画像2Aと同時に表示するために、表示部3へ出力する(ステップA6)。 The processing device 1 displays, for example, the image 2A on the display unit 3, and receives an instruction to specify any one of a plurality of subjects reflected in the image 2A, an instruction to specify two points on the image 2A, and the like. .. At the same time, this instruction requests the acquisition of the size of the subject. When the acquisition of the size of the subject is requested, the processing device 1 projects each pixel of the distance map 2B onto the three-dimensional space using the distance indicated by each pixel value (step A4). For example, when receiving an instruction to specify a certain subject, the processing device 1 acquires the width and length of the subject from the distance (actual distance) between the pixels projected on the three-dimensional space (step A5). .. The processing device 1 outputs the actual size of the subject to the display unit 3 in order to display it at the same time as the image 2A by, for example, superimposing it on the image 2A (step A6).

図12は、処理装置1を含む処理システムによる被写体のサイズの一出力例を示す図である。この処理システムは、たとえば、30fpsのフレームレートで動画(1秒あたり30枚の画像)を撮像する撮像装置として実現されているものとする。
処理装置1は、撮像された画像2Aを表示部3へ順次表示し、たとえば、画像2A上のある位置が指定されたら、その画像2Aを解析して指定された位置を含む被写体を認識するとともに、その画像2Aに対応する距離マップ2Bを用いて、その画像2Aの各画素のうち少なくとも被写体が写る画素を3次元空間上に投影する。指定された位置を含む被写体を認識するための画像2Aの解析については、特定の手法に限られず、既知の様々な手法を適用できる。処理装置1は、たとえば、被写体のあらかじめ定められた方向あるいは指定された二点間のサイズを3次元空間上に投影された画素間の距離から取得してもよい。被写体毎に、定められた方向や指定される二点が異なってもよい。処理装置1は、被写体の最大長または最小長を取得してもよい。サイズは、例えば、画像2Aに重ね合わせて表示部3へ表示してもよい。例えば、サイズは、画像2Aのうち被写体近傍に、表示してもよい。または、被写体の指定時に被写体内の1点が指定される場合、その1点を通過する被写体の一端から他端に至る線分の距離の中で最大の距離を取得するようにしてもよい。さらには、たとえば、被写体が何であるのかを認識し、その種類に応じた二点間の距離をサイズとして決定してもよい。サイズを取得すべき部分を種類ごとに設定できるようにするためのインタフェースが処理装置1に設けられてもよい。被写体のサイズを表示後、たとえば所定の操作が行われた場合、処理装置1は、表示部3による表示を、最新の画像2Aを順次表示する形態に戻す。
FIG. 12 is a diagram showing an example of one output of the size of a subject by a processing system including the processing device 1. It is assumed that this processing system is realized as, for example, an imaging device that captures moving images (30 images per second) at a frame rate of 30 fps.
The processing device 1 sequentially displays the captured images 2A on the display unit 3, and for example, when a certain position on the image 2A is specified, the processing device 1 analyzes the image 2A and recognizes a subject including the specified position. Using the distance map 2B corresponding to the image 2A, at least the pixel in which the subject is captured is projected onto the three-dimensional space among the pixels of the image 2A. The analysis of the image 2A for recognizing the subject including the specified position is not limited to a specific method, and various known methods can be applied. The processing device 1 may acquire, for example, a predetermined direction of the subject or a size between two designated points from the distance between pixels projected on the three-dimensional space. The defined direction and the specified two points may be different for each subject. The processing device 1 may acquire the maximum length or the minimum length of the subject. The size may be displayed on the display unit 3 by superimposing it on the image 2A, for example. For example, the size may be displayed in the vicinity of the subject in the image 2A. Alternatively, when one point in the subject is specified when the subject is specified, the maximum distance among the distances of the line segments from one end to the other end of the subject passing through the one point may be acquired. Further, for example, the size may be determined by recognizing what the subject is and determining the distance between two points according to the type. The processing device 1 may be provided with an interface for setting the portion for which the size should be acquired for each type. After displaying the size of the subject, for example, when a predetermined operation is performed, the processing device 1 returns the display by the display unit 3 to a form in which the latest image 2A is sequentially displayed.

図12は、サッカーの試合を撮影中、画像2Aに写る複数の選手(被写体)の中から1人の選手a1を指定する指示が行われたことに伴い、その選手の身長a2が画像2A上の選手a1の近傍に表示される例を示している。
このように、この処理装置1によれば、単眼カメラにより取得される画像2Aおよび距離マップ2Bから、たとえば試合中の選手などといった、動く物体のサイズを取得することが可能である。
In FIG. 12, during the shooting of a soccer game, the height a2 of the player is on the image 2A as the instruction is given to specify one player a1 from the plurality of players (subjects) shown in the image 2A. An example of being displayed in the vicinity of player a1 is shown.
As described above, according to the processing device 1, it is possible to acquire the size of a moving object such as a player in a match from the image 2A and the distance map 2B acquired by the monocular camera.

なお、図12には、指定された被写体のサイズを取得して提示する例を示したが、画像2Aに写る被写体すべてについてサイズを取得して提示するようにしてもよい。この場合、画像2Aのうちの指定された一部の被写体のサイズを、画像2A上にポップアップでサイズを表示してもよい。また、画像2A上に重ね合わせて表示するのみならず、たとえば、画像2Aを縮小表示し、縮小表示した画像2Aの隣に別ウィンドウを開き、この別ウィンドウ内において取得したサイズをリスト形式で載せることで、画像2Aと同時に提示するようにしてもよい。 Although FIG. 12 shows an example of acquiring and presenting the size of the designated subject, the size of all the subjects reflected in the image 2A may be acquired and presented. In this case, the size of a specified part of the subject in the image 2A may be displayed in a pop-up on the image 2A. In addition to displaying the image 2A on top of each other, for example, the image 2A is reduced and displayed, a separate window is opened next to the reduced image 2A, and the size acquired in this separate window is placed in a list format. Therefore, it may be presented at the same time as the image 2A.

また、この処理装置1によれば、被写体のサイズのみならず、被写体の移動距離を取得することができる。図13は、処理装置1を含む処理システムによる被写体の移動距離の一出力例を示す図である。この処理システムも、動画を撮像する撮像装置として実現されているものとする。 Further, according to the processing device 1, not only the size of the subject but also the moving distance of the subject can be acquired. FIG. 13 is a diagram showing an output example of the moving distance of the subject by the processing system including the processing device 1. It is assumed that this processing system is also realized as an imaging device for capturing moving images.

図13は、ゴルフの試合中のティーショットの飛距離、より詳細には、ゴルフボールb1のティー位置b2からの移動距離b3が画像2A上にリアルタイムに表示される例を示している。
移動距離を取得すべき被写体(ここでは、ゴルフボールb1)と、その初期位置とが明らかであれば、処理装置1は、たとえば1/30秒ごとに撮像される画像の1フレームごとに画像2Aの各画素、少なくとも被写体が写る画素を距離マップ2Bに基づき3次元空間に投影していくことにより、初期位置と現在の位置との間の距離、つまり被写体の移動距離をリアルタイムに取得することができる。撮像対象とする領域は、被写体を追跡するように移動させて構わない。また、図13においては、ゴルフボールb1が移動する方向とほぼ一致する方向を撮像する画像2Aを例示しているが、これに限らず、被写体を捕捉し続けられる位置から撮像された画像2Aであればよい。
FIG. 13 shows an example in which the flight distance of a tee shot during a golf game, and more specifically, the movement distance b3 of the golf ball b1 from the tee position b2, is displayed on the image 2A in real time.
If the subject (here, the golf ball b1) for which the moving distance should be acquired and its initial position are clear, the processing device 1 may use the image 2A for each frame of the image captured every 1/30 second, for example. By projecting each pixel, at least the pixel in which the subject appears, into the three-dimensional space based on the distance map 2B, the distance between the initial position and the current position, that is, the moving distance of the subject can be acquired in real time. can. The area to be imaged may be moved so as to track the subject. Further, FIG. 13 illustrates an image 2A that captures a direction that substantially coincides with the direction in which the golf ball b1 moves, but the image 2A is not limited to this and is captured from a position where the subject can be continuously captured. All you need is.

このように、この処理装置1によれば、動く物体の移動距離を取得することが可能である。
また、被写体の移動距離を取得することができるので、この処理装置1は、モーションキャプチャシステムに適用することができる。
In this way, according to the processing device 1, it is possible to acquire the moving distance of a moving object.
Further, since the moving distance of the subject can be acquired, this processing device 1 can be applied to a motion capture system.

一般的に、モーションキャプチャシステムは、図14に示すように、動きを測定するためのセンサc1などを被験者の様々な部位に装着する。一方、この処理装置1を含む処理システムでは、このような準備を必要とせず、被写体の動きを計測することができる。処理装置1は、たとえば1/30秒ごとに撮像される画像の1フレームごとに画像2Aの各画素を距離マップ2Bに基づき3次元空間に投影していくことにより、1/30秒刻みで被写体の動きを測定することができる。 Generally, in a motion capture system, as shown in FIG. 14, sensors c1 and the like for measuring motion are attached to various parts of a subject. On the other hand, the processing system including the processing device 1 does not require such preparation and can measure the movement of the subject. The processing device 1 projects each pixel of the image 2A into a three-dimensional space based on the distance map 2B for each frame of the image captured every 1/30 second, so that the subject is in 1/30 second increments. Can measure the movement of.

このように、この処理装置1によれば、モーションキャプチャを実現することが可能である。
また、この処理装置1の機能は、たとえば(距離マップを生成可能な)カメラ機能を有するスマートフォンにインストールされるアプリケーションの1つである採寸ツールなどとして実現することもできる。たとえば、販売店に陳列されている商品のサイズを知りたい場合、その商品を撮影することで、メジャーを携帯していなくとも、その商品のサイズを取得することができる。なお、スマートフォンのタッチスクリーンディスプレイが、表示部3に相当するものとする。
As described above, according to this processing device 1, it is possible to realize motion capture.
Further, the function of the processing device 1 can be realized as, for example, a measuring tool which is one of the applications installed on a smartphone having a camera function (which can generate a distance map). For example, if you want to know the size of a product displayed at a store, you can get the size of the product by taking a picture of the product even if you do not carry a tape measure. It is assumed that the touch screen display of the smartphone corresponds to the display unit 3.

たとえば、家具店に展示されているイスの様々なサイズを測りたいと考えている場合を想定する。この場合、まず、採寸ツールを起動した上で、図15に示すような、そのイスの画像2Aをスマートフォンのカメラ機能により撮像する。採寸ツールは、画像2Aをスマートフォンのタッチスクリーンディスプレイ上に表示する。また、採寸ツールは、画像2Aの各画素を距離マップ2Bに基づき3次元空間上に投影する。 For example, suppose you want to measure different sizes of chairs on display at a furniture store. In this case, first, after activating the measuring tool, the image 2A of the chair as shown in FIG. 15 is captured by the camera function of the smartphone. The measuring tool displays the image 2A on the touch screen display of the smartphone. Further, the measuring tool projects each pixel of the image 2A onto the three-dimensional space based on the distance map 2B.

ユーザは、一端と他端を指定することに依り、2点間の距離を知ることができる。そのイスの背もたれの幅を図りたい場合、ユーザは、たとえば、背もたれの横方向の一端(d1)に触れた後、他端(d2)に触れるように、タッチスクリーンディスプレイ上でタッチ操作を行う。画像2A上の2点を指定する方法は、様々な方法を採用し得る。たとえば、タッチスクリーンディスプレイ上にバーを表示させ、バーの先端と終端とを背もたれの横方向の両端(d1,d2)に対応させるように、バーを伸縮させるといった方法でもよい。画像2A上の2点が指定されると、採寸ツールは、3次元空間上に投影された2つの画素の3次元空間上の座標を用いて、指定された2点間の実際のサイズを取得し、たとえば、画像2Aに重ね合わせるようにスマートフォンのタッチスクリーンディスプレイ上にそのサイズを表示する(d3)。 The user can know the distance between two points by designating one end and the other end. When it is desired to measure the width of the backrest of the chair, the user performs a touch operation on the touch screen display, for example, by touching one end (d1) of the backrest in the lateral direction and then touching the other end (d2). As a method of designating two points on the image 2A, various methods can be adopted. For example, a bar may be displayed on a touch screen display, and the bar may be expanded or contracted so that the tip and end of the bar correspond to both ends (d1, d2) in the lateral direction of the backrest. When two points on image 2A are specified, the measuring tool obtains the actual size between the specified two points using the coordinates of the two pixels projected on the three-dimensional space in the three-dimensional space. Then, for example, the size is displayed on the touch screen display of the smartphone so as to be superimposed on the image 2A (d3).

また、画像2A上で2点が指定された場合に測定する距離は、その2点間の直線距離のみに限られない。たとえば、被写体の湾曲している外面上の2点が指定された場合、湾曲した外面に沿った外周距離を取得することもできる。外周距離は、例えば、湾曲した外面に沿った二点間を結ぶ線のうち最も短い線の長さである。外周距離は、2点間結ぶ線上にある隣り合う画素間の距離を合計することにより取得することができる。採寸ツールは、2点間の直線距離を測定する第1モードと、2点間の外周距離を測定する第2モードとを備えてもよい。入力部を通したユーザのモード設定に基づき、直線距離または外周距離のいずれか一方を取得して表示することができる。また、採寸ツールは、直線距離および外周距離の両方を取得して表示してもよい。2点間の直線距離および外周距離を測定する第3モードをさらに備え、第3モードが設定された場合、直線距離および外周距離の両方を取得して表示してもよい。 Further, the distance measured when two points are specified on the image 2A is not limited to the linear distance between the two points. For example, when two points on the curved outer surface of the subject are specified, the outer peripheral distance along the curved outer surface can be acquired. The outer peripheral distance is, for example, the length of the shortest line connecting two points along a curved outer surface. The outer peripheral distance can be obtained by summing the distances between adjacent pixels on the line connecting the two points. The measuring tool may include a first mode for measuring the linear distance between two points and a second mode for measuring the outer peripheral distance between the two points. Based on the user's mode setting through the input unit, either the linear distance or the outer peripheral distance can be acquired and displayed. In addition, the measuring tool may acquire and display both the linear distance and the outer peripheral distance. A third mode for measuring the linear distance and the outer peripheral distance between two points is further provided, and when the third mode is set, both the linear distance and the outer peripheral distance may be acquired and displayed.

また、たとえば、リファレンスを採寸ツールとともに提供し、または、サイズが規格化された日用品をリファレンスとして、サイズを測定したい物品とともに撮像するようにしてもよい(d4)。リファレンスのサイズを画像2Aから取得することで、スマートフォンのカメラ機能の個体差を吸収するキャリブレーションを実行することができる。キャリブレーションのための補正値は、たとえば、スマートフォンの出荷時、パラメータなどとして採寸ツールにあらかじめ与えるようにしてもよい。 Further, for example, a reference may be provided together with a measuring tool, or a size-standardized daily necessities may be used as a reference for imaging together with an article whose size is desired to be measured (d4). By acquiring the reference size from the image 2A, it is possible to perform calibration that absorbs individual differences in the camera functions of the smartphone. The correction value for calibration may be given to the measuring tool in advance as a parameter at the time of shipment of the smartphone, for example.

このように、この処理装置1の機能によれば、単眼カメラにより取得される画像2Aおよび距離マップ2Bから、たとえば販売店に陳列されている商品などといった、様々な物品のサイズを取得可能な採寸ツールを実現することができる。
また、この処理装置1は、監視システムに適用することができる。
As described above, according to the function of the processing device 1, the size of various articles such as the products displayed at the store can be acquired from the image 2A and the distance map 2B acquired by the monocular camera. The tool can be realized.
Further, this processing device 1 can be applied to a monitoring system.

図16は、たとえば商業施設内の通路上の歩行者を監視するために設置される(距離マップ2Bを生成可能な)監視カメラで撮像された画像2Aであって、処理装置1により歩行者(e1,e2,e3)が認識され、また、処理装置1により取得された歩行者それぞれの身長(e11,e21,e31)が重ね合わせられて表示される画像2Aの一例を示している。たとえば、警備員が、不審者と思われる人物を画像2A上で発見した場合、その人物の特徴を示す有力情報の1つである身長を即時に得ることができる。 FIG. 16 is an image 2A captured by a surveillance camera (which can generate a distance map 2B) installed to monitor a pedestrian on a passage in a commercial facility, and is an image 2A captured by a processing device 1 for a pedestrian (a distance map 2B can be generated). An example of image 2A in which e1, e2, e3) are recognized and the heights (e11, e21, e31) of each pedestrian acquired by the processing device 1 are superimposed and displayed is shown. For example, when a security guard finds a person who seems to be a suspicious person on the image 2A, he / she can immediately obtain the height, which is one of the influential information indicating the characteristics of the person.

また、たとえば、刃物と思われる物品が認識された際、単に、その認識をもって何らかの処理を行うのではなく、その刃渡りがあらかじめ定められた長さを超える場合、表示部3による警告表示や、音声出力部が接続されているならば、音声出力部による警告音出力を行うようにしてもよい。あるいは、刃物を含む所定の物品が認識された場合、その物品についてあらかじめ定められた部位の長さを取得して表示するようにしてもよい。歩行者や歩行者が携行する物品に不審な点が発見されない場合には、表示部3がその旨の表示を行ったり、音声出力部がその旨の音声を出力したりしてもよい。 Further, for example, when an article that seems to be a knife is recognized, if the blade length exceeds a predetermined length instead of simply performing some processing based on the recognition, a warning display by the display unit 3 or a voice is displayed. If the output unit is connected, the warning sound may be output by the voice output unit. Alternatively, when a predetermined article including a knife is recognized, the length of a predetermined portion of the article may be acquired and displayed. When no suspicious point is found in the pedestrian or the article carried by the pedestrian, the display unit 3 may display to that effect, or the audio output unit may output a voice to that effect.

また、処理装置1は、たとえば、歩行者や歩行者が携行する物品(前述の刃物など)の認識やサイズの取得を常時行うのではなく、ユーザが画像2A上の位置を指定した際、特殊モードに切り換り、特殊モードである期間において、指定された位置を含む被写体の認識、追跡、サイズの取得および表示などを行うようにしてもよい。特殊モードから通常モードへの切り換えは、たとえば、対象の被写体が画像2A上から消失した場合や、あらかじめ定められた操作が行われた場合に実施するようにすればよい。 Further, the processing device 1 does not always recognize a pedestrian or an article carried by a pedestrian (such as the above-mentioned knife) and acquire the size, but is special when the user specifies a position on the image 2A. The mode may be switched to, and during the period of the special mode, the subject including the specified position may be recognized, tracked, and the size may be acquired and displayed. The switching from the special mode to the normal mode may be performed, for example, when the target subject disappears from the image 2A or when a predetermined operation is performed.

このように、この処理装置1によれば、単眼カメラにより取得される画像2Aおよび距離マップ2Bから、歩行者や歩行者が携行する物品のサイズを取得でき、また、取得したサイズに応じて警告処理などを実行する監視システムを実現できる。
また、この処理装置1は、たとえば自動車などの移動体の運転、操縦を支援するサポートシステムに適用することができる。
As described above, according to the processing device 1, the size of the pedestrian or the article carried by the pedestrian can be acquired from the image 2A and the distance map 2B acquired by the monocular camera, and a warning is given according to the acquired size. It is possible to realize a monitoring system that executes processing.
Further, the processing device 1 can be applied to a support system that supports the driving and maneuvering of a moving body such as an automobile.

たとえば、図17に示すように、移動体が自動車であり、その進行方向を撮像するように撮像装置100が搭載されているものとする。また、いま、自動車の進行方向に段差f1が存在する状況を想定する。
このような場合、処理装置1は、撮像装置100により生成される画像2Aおよび距離マップ2Bから、その段差f1を測定し、自動車が乗り越えられるか否かを判定し、その判定結果を表示部3により運転者に提示する。乗り越えられない場合、さらに、自動車が備える音声出力部から警告音声を出力してもよい。
For example, as shown in FIG. 17, it is assumed that the moving body is an automobile and the image pickup device 100 is mounted so as to image the traveling direction thereof. Further, it is assumed that a step f1 exists in the traveling direction of the automobile.
In such a case, the processing device 1 measures the step f1 from the image 2A and the distance map 2B generated by the image pickup device 100, determines whether or not the automobile can be overcome, and displays the determination result on the display unit 3. Present to the driver. If the vehicle cannot be overcome, a warning sound may be output from the sound output unit of the automobile.

また、いま、たとえば図18に示すように、自動車の進行方向にゲートg1が存在する状況を想定する。このような場合、処理装置1は、撮像装置100により生成される画像2Aおよび距離マップ2Bから、被写体g1−1と被写体g1−2との間の幅g2を測定し、自動車が通過できるか否かを判定し、その判定結果を表示部3により運転者に提示する。通過できない場合、さらに、自動車が備える音声出力部から警告音声を出力してもよい。 Further, it is assumed that the gate g1 exists in the traveling direction of the automobile, for example, as shown in FIG. In such a case, the processing device 1 measures the width g2 between the subject g1-1 and the subject g1-2 from the image 2A and the distance map 2B generated by the image pickup device 100, and whether or not the automobile can pass through. Is determined, and the determination result is presented to the driver by the display unit 3. If the vehicle cannot pass through, a warning sound may be output from a sound output unit provided in the automobile.

このように、この処理装置1によれば、単眼カメラにより取得される画像2Aおよび距離マップ2Bから、移動体の運転、操縦を支援する処理を行うことが可能である。自動車に搭載する点を考慮すれば、この処理装置1を、たとえばドライブレコーダなどの録画機器として実現してもよい。 As described above, according to the processing device 1, it is possible to perform processing for supporting the driving and maneuvering of the moving body from the image 2A and the distance map 2B acquired by the monocular camera. Considering that the processing device 1 is mounted on an automobile, the processing device 1 may be realized as a recording device such as a drive recorder.

また、この処理装置1は、自動ドアシステムに適用することができる。
たとえば、図19に示すように、回転ドアが定速で回転し続ける自動ドアを想定する。回転ドアの場合、どの程度のサイズまで通過可能かを通行者は把握しづらい。そこで、撮像装置100により生成される画像2Aおよび距離マップ2Bから、たとえば通行者の荷物(被写体)のサイズを取得し、回転ドアを通過できるサイズを超える場合、回転ドアに設けられる音声出力部から警告音声を出力する。この自動ドアシステムに適用される場合などにおいては、この処理装置1は、図20に示すように、図1の表示部3の代わりに音声出力部3−2を備えてもよい。表示部3と音声出力部3−2の両方を備えてもよい。前述した監視システムやサポートシステムにおいても同様である。処理装置1は、被写体の移動を追跡することができるので、被写体が回転ドアに向かって移動している場合に限り、適応的に、サイズの取得および通過可否判定を行うことができる。したがって、通過できるサイズを超える被写体が回転ドアの前を横切っても、誤って警告音声を出力するようなことを防止できる。
Further, the processing device 1 can be applied to an automatic door system.
For example, as shown in FIG. 19, an automatic door in which a revolving door continues to rotate at a constant speed is assumed. In the case of revolving doors, it is difficult for passers-by to know how large the door can pass. Therefore, for example, the size of the luggage (subject) of a passerby is acquired from the image 2A and the distance map 2B generated by the image pickup device 100, and when the size exceeds the size that can pass through the revolving door, the sound output unit provided on the revolving door is used. Output a warning voice. When applied to the automatic door system, the processing device 1 may include an audio output unit 3-2 instead of the display unit 3 of FIG. 1, as shown in FIG. Both the display unit 3 and the audio output unit 3-2 may be provided. The same applies to the monitoring system and support system described above. Since the processing device 1 can track the movement of the subject, it is possible to adaptively acquire the size and determine whether or not the passage is possible only when the subject is moving toward the revolving door. Therefore, even if a subject exceeding the size that can be passed crosses in front of the revolving door, it is possible to prevent an erroneous output of a warning sound.

図17の段差f1や図18のゲートg1などの移動体の進行方向にある障害物が動く場合には、処理装置1は、障害物の情報を随時取得してもよい。障害物の情報は、例えば、障害物の形状や障害物と移動体が通過する経路とが重なる部分の幅などである。判断部13は、障害物の時間変化に応じた通行可否の判断を行うことができる。判断部13は、例えば、通過可能と判断した後に障害物の形状が変化した場合には、通過不可能と判断してもよい。あるいは、判断部13は、通過不可能と判断した後に障害物の形状が変化した場合には、通過可能と判断してもよい。 When an obstacle in the traveling direction of the moving body such as the step f1 in FIG. 17 or the gate g1 in FIG. 18 moves, the processing device 1 may acquire information on the obstacle at any time. The information on the obstacle is, for example, the shape of the obstacle and the width of the portion where the obstacle and the path through which the moving body passes overlap. The determination unit 13 can determine whether or not the vehicle can pass according to the time change of the obstacle. For example, when the shape of the obstacle changes after determining that the obstacle can be passed, the determination unit 13 may determine that the obstacle cannot be passed. Alternatively, if the shape of the obstacle changes after determining that the obstacle cannot be passed, the determination unit 13 may determine that the obstacle can be passed.

このように、この処理装置1によれば、単眼カメラにより取得される画像2Aおよび距離マップ2Bから、自動ドアの事故を防止する処理を行うことが可能である。
また、この処理装置1は、単眼カメラにより取得される画像2Aおよび距離マップ2Bから被写体のサイズを取得することができるので、たとえば複眼カメラと比較して、撮像装置100の軽量化が図られる。また、低コスト化も図られる。軽量化は、最大積載量の小さいたとえばドローンなどの飛翔体に搭載する場合において重要な事項であり、この点において、単眼カメラである撮像装置100は複眼カメラよりも好適である。ドローンなどの飛翔体に撮像装置100を搭載することで、この処理装置1は、たとえば構造物の点検作業などを支援するサポートシステムに適用することができる。なお、複眼カメラとの比較でさらにいえば、単眼カメラである撮像装置100は、複眼カメラでは問題となる視差を生じさせることがないので、サイズの取得精度を高めることができる。なお、複眼カメラにより取得される画像および距離マップを使って、サイズ算出を行うことも可能である。複眼カメラにより取得される画像を基に、被写体の三次元形状を取得することができるので、被写体表面の任意の2点間の距離を求めることが可能である。
As described above, according to the processing device 1, it is possible to perform processing for preventing an accident at the automatic door from the image 2A and the distance map 2B acquired by the monocular camera.
Further, since the processing device 1 can acquire the size of the subject from the image 2A and the distance map 2B acquired by the monocular camera, the weight of the imaging device 100 can be reduced as compared with, for example, a compound eye camera. In addition, cost reduction can be achieved. Weight reduction is an important matter when mounted on a flying object such as a drone having a small maximum load capacity, and in this respect, the image pickup device 100, which is a monocular camera, is more suitable than a compound eye camera. By mounting the image pickup device 100 on a flying object such as a drone, the processing device 1 can be applied to a support system that supports, for example, inspection work of a structure. Further, in comparison with the compound eye camera, the image pickup device 100, which is a monocular camera, does not cause parallax, which is a problem in the compound eye camera, so that the size acquisition accuracy can be improved. It is also possible to calculate the size using the image acquired by the compound eye camera and the distance map. Since the three-dimensional shape of the subject can be acquired based on the image acquired by the compound eye camera, it is possible to obtain the distance between any two points on the surface of the subject.

たとえば、GPS[global positioning system]受信機や高度センサなどの位置情報を取得する機能を撮像装置100とともにドローンへ搭載し、このドローンを点検対象の構造物周辺に飛翔させて構造物の外面の画像2Aおよび距離マップ2Bを取得し、位置情報と対応づけて記録する。たとえば、構造物の外面の欠損部分を画像2A上で発見した場合、その位置を特定することができるし、その規模・形状を確認することができる。 For example, a function for acquiring position information such as a GPS [global positioning system] receiver and an altitude sensor is mounted on a drone together with an image pickup device 100, and the drone is flown around a structure to be inspected to image an image of the outer surface of the structure. 2A and distance map 2B are acquired and recorded in association with the position information. For example, when a defective portion on the outer surface of a structure is found on image 2A, its position can be specified, and its scale and shape can be confirmed.

または、点検対象の構造物に関する立体情報に基づき、ドローンを飛翔させて構造物の外面の画像2Aおよび距離マップ2Bを取得し、その立体情報と対応づけて記録する。この場合も、たとえば、構造物の外面の欠損部分を画像2A上で発見した場合、その位置を特定することができるし、その規模・形状を確認することができる。 Alternatively, based on the three-dimensional information about the structure to be inspected, the drone is flown to acquire the image 2A and the distance map 2B of the outer surface of the structure, and record the image 2A and the distance map 2B in association with the three-dimensional information. Also in this case, for example, when a defective portion on the outer surface of the structure is found on the image 2A, the position can be specified and the scale and shape can be confirmed.

また、前回の点検時に撮像した画像2Aの距離マップ2Bと、今回の点検時に撮像した画像2Aの距離マップ2Bとを対比し、あらかじめ定められた値以上の差が検出された場合、その位置を識別可能な形態で、対応する画像2Aを表示することで、たとえば、ボルトの欠落などを見落としなく発見することができる。あるいは、震災発生後、震災前に撮像した画像2Aの距離マップ2Bと、震災後に撮像した画像2Aの距離マップ2Bとを対比することで、構造物が受けた損傷の状況を正確に把握することができる。 In addition, the distance map 2B of the image 2A captured during the previous inspection is compared with the distance map 2B of the image 2A captured during the current inspection, and if a difference of more than a predetermined value is detected, the position is determined. By displaying the corresponding image 2A in an identifiable form, for example, a missing bolt can be found without overlooking. Alternatively, by comparing the distance map 2B of the image 2A captured after the earthquake and before the earthquake with the distance map 2B of the image 2A captured after the earthquake, the damage to the structure can be accurately described. Can be grasped.

その他、ドローンを飛翔させて画像2Aおよび距離マップ2Bを取得することで、この処理装置1を、様々な用途に適用することができる。たとえば、ドローンを電線に沿って飛翔させ、電線の画像2Aおよび距離マップ2Bを取得し、何メートルの電線がどのような状態で張り巡らされているのかを調べるといった用途に適用することができる。 In addition, the processing device 1 can be applied to various uses by flying the drone and acquiring the image 2A and the distance map 2B. For example, it can be applied to an application such as flying a drone along an electric wire, acquiring an image 2A of the electric wire and a distance map 2B, and investigating how many meters of the electric wire are stretched in what state.

(第2実施形態)
次に、第2実施形態について説明する。なお、以下、第1実施形態と同一の構成については同一の符号を使用し、また、同一の構成についての重複した説明は省略する。
図21は、第2実施形態の処理装置の機能ブロックの一例を示す図である。
(Second Embodiment)
Next, the second embodiment will be described. Hereinafter, the same reference numerals will be used for the same configurations as those in the first embodiment, and duplicate description of the same configurations will be omitted.
FIG. 21 is a diagram showing an example of a functional block of the processing device of the second embodiment.

この処理装置1は、取得した画像2Aと距離マップ(距離画像)2Bとから画像2A上の被写体のサイズを算出し、算出した被写体のサイズに基づき、移動体の駆動部4の駆動を制御する。本実施形態において、出力情報は、処理システムの一部または全部の動きを制御する制御信号である。
図21に示すように、処理装置1−2は、サイズ算出部11と、判断部13と、移動体制御部14とを有する。
The processing device 1 calculates the size of the subject on the image 2A from the acquired image 2A and the distance map (distance image) 2B, and controls the driving of the driving unit 4 of the moving body based on the calculated size of the subject. .. In the present embodiment, the output information is a control signal that controls the movement of a part or all of the processing system.
As shown in FIG. 21, the processing device 1-2 includes a size calculation unit 11, a determination unit 13, and a moving body control unit 14.

サイズ算出部11は、画像2Aと距離マップ2Bとから画像2A上の被写体のサイズを算出する機能を担う処理部である。判断部13は、被写体のサイズに基づき、駆動部4をどのように駆動すべきかを判断する機能を担う処理部である。移動体制御部14は、判断部13の判断に基づき、駆動部4の駆動を制御する機能を担う処理部である。処理装置1−2のハードウェア構成は、第1実施形態の処理装置1と同様であり、処理装置1−2の各処理部も、たとえば単一または複数のプロセッサで実現される。処理装置1−2には、表示部および/または音声出力部が接続されていてもよい。表示部および/または音声出力部は、例えば判断部13に接続される。 The size calculation unit 11 is a processing unit that has a function of calculating the size of the subject on the image 2A from the image 2A and the distance map 2B. The determination unit 13 is a processing unit that has a function of determining how to drive the drive unit 4 based on the size of the subject. The mobile body control unit 14 is a processing unit that has a function of controlling the drive of the drive unit 4 based on the determination of the determination unit 13. The hardware configuration of the processing device 1-2 is the same as that of the processing device 1 of the first embodiment, and each processing unit of the processing device 1-2 is also realized by, for example, a single processor or a plurality of processors. A display unit and / or an audio output unit may be connected to the processing device 1-2. The display unit and / or the audio output unit is connected to, for example, the determination unit 13.

この処理装置1−2は、(画像2Aおよび距離マップ2Bを生成する)撮像装置および駆動部4とともに処理システムを構成し得る。処理システムは、たとえば、カメラ機能を有する、車両、飛翔体、ロボットなどの移動体などとして実現され得る。
まず、この処理装置1−2が、たとえば自動車などの移動体の運転、操縦を支援するサポートシステムに適用される場合の処理の一例について説明する。
The processing device 1-2 may form a processing system together with the imaging device (which generates the image 2A and the distance map 2B) and the driving unit 4. The processing system can be realized, for example, as a moving body such as a vehicle, a flying object, or a robot having a camera function.
First, an example of processing when the processing device 1-2 is applied to a support system that supports driving and maneuvering of a moving body such as an automobile will be described.

たとえば、移動体が自動車であり、その進行方向を撮像するように撮像装置100が搭載されているものとする。また、いま、第1実施形態で説明した場合と同様、図17に示すように、自動車の進行方向に段差f1が存在する状況を想定する。
このような場合、処理装置1−2のサイズ算出部11は、撮像装置100により生成される画像2Aおよび距離マップ2Bから、その段差f1を測定する。判断部13は、その段差f1を自動車が乗り越えられるか否かを判断し、乗り越えられない場合、たとえば自動車を停止させ、または、自動車の進行方向を変更させるための信号を移動体制御部14に送信する。この信号を受信した移動体制御部14は、たとえば自動車を停止させ、または、自動車の進行方向を変更させるように駆動部4の駆動を制御する。
For example, it is assumed that the moving body is an automobile and the image pickup device 100 is mounted so as to image the traveling direction thereof. Further, as in the case described in the first embodiment, it is assumed that a step f1 exists in the traveling direction of the automobile as shown in FIG.
In such a case, the size calculation unit 11 of the processing device 1-2 measures the step f1 from the image 2A and the distance map 2B generated by the image pickup device 100. The determination unit 13 determines whether or not the vehicle can overcome the step f1, and if it cannot overcome the step f1, for example, sends a signal to the moving body control unit 14 for stopping the vehicle or changing the traveling direction of the vehicle. Send. Upon receiving this signal, the mobile control unit 14 controls the drive of the drive unit 4 so as to stop the vehicle or change the traveling direction of the vehicle, for example.

また、いま、第1実施形態で説明した場合と同様、図18に示すように、自動車の進行方向にゲートg1が存在する状況を想定する。サイズ算出部11は、撮像装置100により生成される画像2Aおよび距離マップ2Bから、ゲートg1の幅g2を測定する。判断部13は、その幅g2を自動車が通過できるか否かを判断し、通過できない場合、たとえば自動車を停止させ、または、自動車の進行方向を変更させるための信号を移動体制御部14に送信する。この信号を受信した移動体制御部14は、たとえば自動車を停止させ、または、自動車の進行方向を変更させるように駆動部4の駆動を制御する。 Further, as in the case described in the first embodiment, it is assumed that the gate g1 exists in the traveling direction of the automobile as shown in FIG. The size calculation unit 11 measures the width g2 of the gate g1 from the image 2A and the distance map 2B generated by the image pickup apparatus 100. The determination unit 13 determines whether or not the vehicle can pass through the width g2, and if it cannot pass, for example, transmits a signal for stopping the vehicle or changing the traveling direction of the vehicle to the moving body control unit 14. do. Upon receiving this signal, the mobile control unit 14 controls the drive of the drive unit 4 so as to stop the vehicle or change the traveling direction of the vehicle, for example.

あるいは、判断部13は、ゲートg1の幅g2が、自動車のサイドミラーを畳めば自動車が通過できるサイズであると判断した場合、サイドミラーを畳ませるための信号を移動体制御部14に送信するようにしてもよい。この信号を受信した移動体制御部14は、サイドミラーを畳むように駆動部4の駆動を制御する。 Alternatively, when the determination unit 13 determines that the width g2 of the gate g1 is a size that the automobile can pass through by folding the side mirror of the automobile, the determination unit 13 transmits a signal for folding the side mirror to the moving body control unit 14. You may try to do it. The mobile control unit 14 that has received this signal controls the drive of the drive unit 4 so as to fold the side mirrors.

次に、この処理装置1−2が、自動ドアシステムに適用される場合の処理の一例について説明する。
たとえば、第1実施形態で説明した場合と同様、図19に示すように、回転ドアが定速で回転し続ける自動ドアを想定する。サイズ算出部11は、撮像装置100により生成される画像2Aおよび距離マップ2Bから、たとえば通行者の荷物(被写体)のサイズを取得する。判断部13は、そのサイズが回転ドアを通過できるサイズか否かを判断し、回転ドアを通過できるサイズを超える場合、たとえば自動ドアの回転を停止させるための信号を移動体制御部14に送信する。この信号を受信した移動体制御部14は、たとえば自動ドアの回転を停止させるように駆動部4の駆動を制御する。
Next, an example of processing when this processing device 1-2 is applied to an automatic door system will be described.
For example, as in the case described in the first embodiment, as shown in FIG. 19, an automatic door in which the revolving door continues to rotate at a constant speed is assumed. The size calculation unit 11 acquires, for example, the size of a passerby's luggage (subject) from the image 2A and the distance map 2B generated by the image pickup apparatus 100. The determination unit 13 determines whether or not the size can pass through the revolving door, and if it exceeds the size that can pass through the revolving door, for example, transmits a signal for stopping the rotation of the automatic door to the moving body control unit 14. do. The mobile control unit 14 that has received this signal controls the drive of the drive unit 4 so as to stop the rotation of the automatic door, for example.

次に、この処理装置1−2が、ロボットに適用される場合の処理の一例について説明する。ここでは、ロボットが、たとえば図21に示すように、搬送ライン上を搬送されてくる対象物h1を摘み上げて大きさ別に仕分けるロボットアームを駆動部4として有するロボッタを想定する。 Next, an example of processing when this processing device 1-2 is applied to a robot will be described. Here, as shown in FIG. 21, for example, it is assumed that the robot has a robot arm as a drive unit 4 that picks up an object h1 transported on a transport line and sorts it according to its size.

サイズ算出部11は、撮像装置100により生成される画像2Aおよび距離マップ2Bから、対象物h1のサイズを取得する。判断部13は、第1に、その対象物h1が摘み上げることのできるサイズを判断し、摘み上げられることのできるサイズである場合、第2に、その仕分け先を判断する。摘み上げられることのできるサイズでない場合(許容範囲よりも小さい場合と大きい場合との両方を含む)、移動体制御部14が対象物h1を摘み上げる以外の動作をするために駆動部4の駆動を制御したり、表示部に警告を表示したり、音声出力部から警告音声を出力したりしてもよい。また、判断部13は、摘み上げられることのできるサイズであって、その仕分け先を判断した場合、その仕分け先まで対象物h1を運ぶための信号を移動体制御部14に送信する。この信号を受信した移動体制御部14は、対象物h1を指示された場所に移動させるように駆動部4の駆動を制御する。 The size calculation unit 11 acquires the size of the object h1 from the image 2A and the distance map 2B generated by the image pickup apparatus 100. The determination unit 13 first determines the size of the object h1 that can be picked up, and if it is the size that can be picked up, secondly determines the sorting destination. If the size is not pickable (including both smaller and larger than the permissible range), the mobile control unit 14 drives the drive unit 4 to perform an operation other than picking up the object h1. May be controlled, a warning may be displayed on the display unit, or a warning voice may be output from the voice output unit. Further, the determination unit 13 has a size that can be picked up, and when determining the sorting destination, the determination unit 13 transmits a signal for carrying the object h1 to the sorting destination to the mobile control unit 14. The mobile body control unit 14 that has received this signal controls the drive of the drive unit 4 so as to move the object h1 to the instructed place.

あるいは、搬送ラインに沿って複数のロボットを配置し、各々が、あらかじめ定められた範囲のサイズの対象物h1のみを摘み上げるように、対象物h1のサイズを取得するといったことも可能である。
なお、ロボットは、産業用に限らず、たとえば自律的に移動して床を掃除する掃除ロボットなどの家庭用としても実現され得る。掃除ロボットの場合、この処理装置1−2を適用することで、たとえば、ゴミのサイズが吸い込み口を通過できるか否かを判断し、吸い込むとゴミが吸い込み口に詰まるおそれのあるサイズの場合、吸引を一時停止してその場を通り過ぎたり、移動経路を変更したり、といった制御が可能となる。また、掃除ロボットのように自律的に移動する機器においては、近時、SLAM(Simultaneous localization and mapping)と称される自己位置推定技術が注目されているが、画像2Aおよび距離マップ2Bから被写体までの距離を取得できる処理装置1−2は、このSLAMによる自己位置推定に適用することができる。
Alternatively, it is also possible to arrange a plurality of robots along the transport line and acquire the size of the object h1 so that each of them picks up only the object h1 having a predetermined range of sizes.
The robot can be realized not only for industrial use but also for home use such as a cleaning robot that moves autonomously to clean the floor. In the case of a cleaning robot, by applying this processing device 1-2, for example, it is determined whether or not the size of the dust can pass through the suction port, and if the size is such that the dust may clog the suction port when sucked. It is possible to control such as pausing the suction and passing the place or changing the movement route. In addition, in devices that move autonomously such as cleaning robots, a self-position estimation technology called SLAM (Simultaneous localization and mapping) has recently attracted attention, but from image 2A and distance map 2B to the subject. The processing device 1-2 capable of acquiring the distance of can be applied to the self-position estimation by this SLAM.

(第3実施形態)
次に、第3実施形態について説明する。なお、以下、第1実施形態または第2実施形態と同一の構成については同一の符号を使用し、また、同一の構成についての重複した説明は省略する。
図23は、第3実施形態の処理装置の機能ブロックの一例を示す図である。
(Third Embodiment)
Next, the third embodiment will be described. Hereinafter, the same reference numerals will be used for the same configurations as those of the first embodiment or the second embodiment, and duplicate description of the same configurations will be omitted.
FIG. 23 is a diagram showing an example of a functional block of the processing device of the third embodiment.

この処理装置1は、取得した画像2Aと距離マップ(距離画像)2Bとから画像2A上の被写体のサイズを算出し、算出した被写体のサイズに基づき、障害物5との間の通信を実行する。
図23に示すように、処理装置1−3は、サイズ算出部11と、判断部13と、信号送信部15とを有する。
The processing device 1 calculates the size of the subject on the image 2A from the acquired image 2A and the distance map (distance image) 2B, and executes communication with the obstacle 5 based on the calculated size of the subject. ..
As shown in FIG. 23, the processing device 1-3 includes a size calculation unit 11, a determination unit 13, and a signal transmission unit 15.

サイズ算出部11は、画像2Aと距離マップ2Bとから画像2A上の被写体のサイズを算出する機能を担う処理部である。判断部13は、被写体のサイズに基づき、駆動部4をどのように駆動すべきかを判断する機能を担う処理部である。移動体制御部14は、判断部13の判断に基づき、障害物5との間の通信を実行する機能を担う処理部である。処理装置1−3のハードウェア構成は、第1実施形態の処理装置1や第2実施形態の処理装置1−2と同様であり、処理装置1−3の各処理部も、たとえば単一または複数のプロセッサで実現される。 The size calculation unit 11 is a processing unit that has a function of calculating the size of the subject on the image 2A from the image 2A and the distance map 2B. The determination unit 13 is a processing unit that has a function of determining how to drive the drive unit 4 based on the size of the subject. The mobile control unit 14 is a processing unit that has a function of executing communication with the obstacle 5 based on the judgment of the determination unit 13. The hardware configuration of the processing devices 1-3 is the same as that of the processing device 1 of the first embodiment and the processing device 1-2 of the second embodiment, and each processing unit of the processing device 1-3 is also, for example, single or single. It is realized by multiple processors.

また、この処理装置1−3は、(画像2Aおよび距離マップ2Bを生成する)撮像装置とともに処理システムを構成し得る。処理システムは、たとえば、カメラ機能を有する、車両、飛翔体、ロボットなどの移動体などとして実現され得る。
いま、この処理装置1−2が、たとえば自動車などの移動体の運転、操縦を支援するサポートシステムに適用されており、その進行方向を撮像するように撮像装置100が搭載されているものとする。また、図24に示すように、ある道路を走行中、その道路上に他の自動車(障害物j1)が停車している状況を想定する。
In addition, the processing devices 1-3 may form a processing system together with an imaging device (which generates an image 2A and a distance map 2B). The processing system can be realized, for example, as a moving body such as a vehicle, a flying object, or a robot having a camera function.
Now, it is assumed that this processing device 1-2 is applied to a support system that supports the driving and maneuvering of a moving body such as an automobile, and that the image pickup device 100 is mounted so as to image the traveling direction thereof. .. Further, as shown in FIG. 24, it is assumed that while traveling on a certain road, another automobile (obstacle j1) is stopped on the road.

このような場合、処理装置1−3のサイズ算出部11は、撮像装置100により生成される画像2Aおよび距離マップ2Bから、他の自動車(障害物j1)の脇のスペースの幅j2を測定する。判断部13は、その幅j2を自動車が通過できるか否かを判断し、通過できない場合、他の自動車(障害物j1)に移動を促すための信号を信号送信部15に送信する。この信号を受信した信号送信部15は、他の自動車(障害物j1)に対して移動を促す信号を出力する。 In such a case, the size calculation unit 11 of the processing device 1-3 measures the width j2 of the space beside the other automobile (obstacle j1) from the image 2A and the distance map 2B generated by the image pickup device 100. .. The determination unit 13 determines whether or not the vehicle can pass through the width j2, and if it cannot pass, transmits a signal to the signal transmission unit 15 for urging another vehicle (obstacle j1) to move. Upon receiving this signal, the signal transmission unit 15 outputs a signal prompting the other automobile (obstacle j1) to move.

または、対向車として他の自動車(障害物j1)が道路上を走行してきた場合、他の自動車(障害物j1)のサイズまたは他の自動車(障害物j1)の脇のスペースのサイズを取得し、道路上ですれ違うことができないと判断した場合、可及的すみやかに、その旨を他の自動車(障害物j1)に対して通知することで、接触事故などを未然に防ぐことができる。判断部13は、他の自動車(障害物j1)のサイズまたは他の自動車(障害物j1)の脇のスペースのサイズ等を随時取得してもよい。例えば、判断部13は、他の自動車(障害物j1)の扉が開いて横幅が増えた場合に、降車しようとしている可能性のある他の自動車(障害物j1)の搭乗者(運転者のみならず、同乗者を含み得る。)の注意を喚起するための信号を、他の自動車(障害物j1)に対して信号送信部15から出力するようにしてもよい。他の自動車(障害物j1)のサイズまたは他の自動車(障害物j1)の脇のスペースのサイズ等を随時取得することで、他の自動車(障害物j1)の扉が閉じていて、すれ違うことができる状態から、他の自動車(障害物j1)の扉が開いて、すれ違うことができない状態へと移行した場合などにも、適応的に対応することが可能となる。 Alternatively, when another vehicle (obstacle j1) is traveling on the road as an oncoming vehicle, the size of the other vehicle (obstacle j1) or the size of the space beside the other vehicle (obstacle j1) is acquired. If it is determined that they cannot pass each other on the road, it is possible to prevent contact accidents by notifying other automobiles (obstacle j1) as soon as possible. The determination unit 13 may acquire the size of another automobile (obstacle j1) or the size of the space beside the other automobile (obstacle j1) at any time. For example, the determination unit 13 may be trying to get off the passenger (driver only) of another vehicle (obstacle j1) when the door of the other vehicle (obstacle j1) is opened and the width is increased. However, a signal for calling attention of a passenger may be included) may be output from the signal transmission unit 15 to another automobile (obstacle j1). By acquiring the size of another car (obstacle j1) or the size of the space beside the other car (obstacle j1) at any time, the door of the other car (obstacle j1) is closed and they pass each other. It is possible to adapt to the case where the door of another automobile (obstacle j1) is opened and the person cannot pass each other.

以上説明したように、第1乃至第3の実施形態によれば、単眼カメラで被写体のサイズを取得することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
As described above, according to the first to third embodiments, the size of the subject can be acquired by the monocular camera.
Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

1,1−2,1−3…処理装置、2A…画像、2B…距離マップ(距離画像)、3…表示部、4…駆動部、5…障害物、11…サイズ算出部、12…出力情報生成部、13…判断部、14…移動体制御部、15…信号送信部、100…撮像装置、110…フィルタ、111…第1のフィルタ領域、112…第2のフィルタ領域、113…光学中心、120…レンズ、130…イメージセンサ、131…第1のセンサ、132…第2のセンサ、133…第3のセンサ、140…画像処理部、141…画像取得部、142…距離算出部、143…出力部。 1,1-2,1-3 ... Processing device, 2A ... Image, 2B ... Distance map (distance image), 3 ... Display unit, 4 ... Drive unit, 5 ... Obstacle, 11 ... Size calculation unit, 12 ... Output Information generation unit, 13 ... Judgment unit, 14 ... Moving object control unit, 15 ... Signal transmission unit, 100 ... Imaging device, 110 ... Filter, 111 ... First filter area, 112 ... Second filter area, 113 ... Optical Center, 120 ... lens, 130 ... image sensor, 131 ... first sensor, 132 ... second sensor, 133 ... third sensor, 140 ... image processing unit, 141 ... image acquisition unit, 142 ... distance calculation unit, 143 ... Output unit.

Claims (8)

単一の結像光学系による1度の撮像で画像とともに取得される距離マップであって、各画素の画素値が距離を示す画像として生成され、前記画像に含まれる被写体までの距離を示す情報が前記画像と対応させてマッピングされる距離マップの各画素を、各々の画素値で示される距離を使って3次元空間上に投影し、前記3次元空間上に投影された画素間の距離から前記被写体のサイズを算出するサイズ算出部と、
前記被写体のサイズに基づき、車両の駆動方法を判断する判断部と、
を具備する車両用処理システム。
A distance map acquired together with an image by a single imaging with a single imaging optical system, in which the pixel value of each pixel is generated as an image indicating the distance, and information indicating the distance to the subject included in the image. Projects each pixel of the distance map mapped in correspondence with the image onto the three-dimensional space using the distance indicated by each pixel value, and from the distance between the pixels projected on the three-dimensional space. A size calculation unit that calculates the size of the subject,
A judgment unit that determines the driving method of the vehicle based on the size of the subject,
A processing system for vehicles equipped with.
前記距離マップは、前記画像に含まれるぼけのぼけ関数を使って求められる請求項1に記載の車両用処理システム。 The vehicle processing system according to claim 1, wherein the distance map is obtained by using the blur function included in the image. 前記画像および前記距離マップは、ぼけ関数が対称な第1波長成分とぼけ関数が非対称な第2波長成分とを含む画像を生成可能な前記単一の光学系により取得される請求項1または2に記載の車両用処理システム。 The image and the distance map according to claim 1 or 2 obtained by the single optical system capable of producing an image including a first wavelength component having a symmetric blur function and a second wavelength component having an asymmetric blur function. The vehicle processing system described. 前記判断部は、他の車両に対して移動を促すための信号を送信することを判断可能である請求項1乃至3のいずれか1項に記載の車両用処理システム。 The vehicle processing system according to any one of claims 1 to 3, wherein the determination unit can determine to transmit a signal for urging another vehicle to move. 前記判断部は、他の車両のサイズまたは道路上の前記他の車両の脇のスペースのサイズを取得し、前記車両が前記他の車両と前記道路上ですれ違うことができるか否かを判断する請求項1乃至4のいずれか1項に記載の車両用処理システム。 The determination unit acquires the size of another vehicle or the size of the space beside the other vehicle on the road, and determines whether or not the vehicle can pass the other vehicle on the road. The vehicle processing system according to any one of claims 1 to 4. 前記判断部は、前記車両が前記他の車両と前記道路上ですれ違うことができないと判断した場合、前記車両と前記他の車両とが前記道路上ですれ違うことができない旨を前記他の車両に対して通知することを前記車両の駆動方法として判断する請求項5に記載の車両用処理システム。 When the determination unit determines that the vehicle cannot pass the other vehicle on the road, the determination unit informs the other vehicle that the vehicle and the other vehicle cannot pass each other on the road. The vehicle processing system according to claim 5, wherein it is determined as the driving method of the vehicle to notify the vehicle. 前記判断部は、段差のサイズを取得し、前記車両が前記段差を乗り越えられるか否かを判断する請求項1乃至6のいずれか1項に記載の車両用処理システム。 The vehicle processing system according to any one of claims 1 to 6, wherein the determination unit acquires the size of the step and determines whether or not the vehicle can overcome the step. 前記判断部は、第1の被写体と第2の被写体との間のサイズを取得し、前記車両が前記第1の被写体と前記第2の被写体との間を通過できるか否かを判断する請求項1乃至7のいずれか1項に記載の車両用処理システム。 The determination unit obtains the size between the first subject and the second subject, and determines whether or not the vehicle can pass between the first subject and the second subject. Item 6. The vehicle processing system according to any one of Items 1 to 7.
JP2021092912A 2017-03-15 2021-06-02 Vehicular processing system Pending JP2021152543A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017049918 2017-03-15
JP2017049918 2017-03-15
JP2017152660A JP2018155726A (en) 2017-03-15 2017-08-07 On-vehicle processing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017152660A Division JP2018155726A (en) 2017-03-15 2017-08-07 On-vehicle processing system

Publications (1)

Publication Number Publication Date
JP2021152543A true JP2021152543A (en) 2021-09-30

Family

ID=63716392

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2017136061A Pending JP2018156617A (en) 2017-03-15 2017-07-12 Processor and processing system
JP2017152660A Pending JP2018155726A (en) 2017-03-15 2017-08-07 On-vehicle processing system
JP2021092912A Pending JP2021152543A (en) 2017-03-15 2021-06-02 Vehicular processing system
JP2021119562A Pending JP2021170385A (en) 2017-03-15 2021-07-20 Processing device and processing system

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2017136061A Pending JP2018156617A (en) 2017-03-15 2017-07-12 Processor and processing system
JP2017152660A Pending JP2018155726A (en) 2017-03-15 2017-08-07 On-vehicle processing system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021119562A Pending JP2021170385A (en) 2017-03-15 2021-07-20 Processing device and processing system

Country Status (1)

Country Link
JP (4) JP2018156617A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7370045B2 (en) 2019-09-11 2023-10-27 株式会社Liberaware Dimension display system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114610A (en) * 2011-11-30 2013-06-10 Sharp Corp Image processing device, driving support device, image processing method, and image processing program
WO2014064990A1 (en) * 2012-10-25 2014-05-01 シャープ株式会社 Plane detection device, autonomous locomotion device provided with plane detection device, method for detecting road level difference, device for detecting road level difference, and vehicle provided with device for detecting road level difference
JP2016212086A (en) * 2015-04-28 2016-12-15 三菱電機株式会社 Method of calculating dimensions within a scene
JP2017040642A (en) * 2015-08-20 2017-02-23 株式会社東芝 Image processing apparatus and imaging apparatus

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010146357A (en) * 2008-12-19 2010-07-01 Panasonic Electric Works Co Ltd Method and apparatus for three-dimensional image processing
JP4778076B2 (en) * 2009-01-08 2011-09-21 ヤマハ発動機株式会社 Component recognition device and component transfer device
JP2012100246A (en) * 2010-10-29 2012-05-24 Fujifilm Corp Stereoscopic image display device and stereoscopic image display method
JP2012202694A (en) * 2011-03-23 2012-10-22 Canon Inc Camera calibration method
JP6016226B2 (en) * 2012-04-04 2016-10-26 シャープ株式会社 Length measuring device, length measuring method, program
GB2505926A (en) * 2012-09-14 2014-03-19 Sony Corp Display of Depth Information Within a Scene
JP6164679B2 (en) * 2012-10-30 2017-07-19 株式会社Halデザイン研究所 Camera calibration method and camera calibration apparatus
JP6214233B2 (en) * 2013-06-21 2017-10-18 キヤノン株式会社 Information processing apparatus, information processing system, information processing method, and program.
JP6346445B2 (en) * 2014-01-10 2018-06-20 キヤノン株式会社 PROCESSING DEVICE, PROCESSING DEVICE CONTROL METHOD, AND PROGRAM
EP3113666A4 (en) * 2014-03-02 2017-12-27 V.T.M. (Virtual Tape Measure) Technologies Ltd. Endoscopic measurement system and method
JP6592277B2 (en) * 2015-06-04 2019-10-16 シャープ株式会社 Measuring device, calibration method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114610A (en) * 2011-11-30 2013-06-10 Sharp Corp Image processing device, driving support device, image processing method, and image processing program
WO2014064990A1 (en) * 2012-10-25 2014-05-01 シャープ株式会社 Plane detection device, autonomous locomotion device provided with plane detection device, method for detecting road level difference, device for detecting road level difference, and vehicle provided with device for detecting road level difference
JP2016212086A (en) * 2015-04-28 2016-12-15 三菱電機株式会社 Method of calculating dimensions within a scene
JP2017040642A (en) * 2015-08-20 2017-02-23 株式会社東芝 Image processing apparatus and imaging apparatus

Also Published As

Publication number Publication date
JP2021170385A (en) 2021-10-28
JP2018155726A (en) 2018-10-04
JP2018156617A (en) 2018-10-04

Similar Documents

Publication Publication Date Title
US11794647B2 (en) Vehicular vision system having a plurality of cameras
EP3362982B1 (en) Systems and methods for producing an image visualization
US20180268225A1 (en) Processing apparatus and processing system
US20180137607A1 (en) Processing apparatus, imaging apparatus and automatic control system
JP6699897B2 (en) Imaging device, automatic control system and system
KR20160062880A (en) road traffic information management system for g using camera and radar
JP4796676B2 (en) Vehicle upper viewpoint image display device
WO2005088970A1 (en) Image generation device, image generation method, and image generation program
KR102118066B1 (en) Vehicle control method for safety driving
KR20170139548A (en) Camera extrinsic parameters estimation from image lines
JP2018084571A (en) Processing device, imaging device, and automatic control system
EP2293588A1 (en) Method for using a stereovision camera arrangement
US20180137638A1 (en) Processing device, image capture device, and automatic control system
CN106447730A (en) Parameter estimation method, parameter estimation apparatus and electronic equipment
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP2021152543A (en) Vehicular processing system
JP2012022646A (en) Visual line direction detector, visual line direction detection method and safe driving evaluation system
TWI499999B (en) The 3D ring car image system based on probability calculation and its obtaining method
JP7021036B2 (en) Electronic devices and notification methods
KR101566963B1 (en) Method of monitoring around view recognizing object considering state of operation vehicle, attaratus performing the same and storage media storing the same
Megalingam et al. Adding intelligence to the robotic coconut tree climber
KR101668649B1 (en) Surrounding environment modeling method and apparatus performing the same
US20170351104A1 (en) Apparatus and method for optical imaging
TWM486116U (en) 3D vehicle surrounding image system based on probability calculation
JPH09259282A (en) Device and method for detecting moving obstacle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131