JP2018106313A - Image converter for mobile body - Google Patents
Image converter for mobile body Download PDFInfo
- Publication number
- JP2018106313A JP2018106313A JP2016250273A JP2016250273A JP2018106313A JP 2018106313 A JP2018106313 A JP 2018106313A JP 2016250273 A JP2016250273 A JP 2016250273A JP 2016250273 A JP2016250273 A JP 2016250273A JP 2018106313 A JP2018106313 A JP 2018106313A
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving body
- resolution
- data
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、自動車などの移動体に搭載される画像変換装置に関する。 The present invention relates to an image conversion apparatus mounted on a moving body such as an automobile.
自動車は、自動運転制御、ドライブレコーダーまたはセキュリティの目的で画像のデータを取り扱う。これらの自動車は、画像データの通信および記録のために画像変換装置を備える(例えば、特許文献1参照)。画像変換装置は、画像のデータを圧縮または伸長する。従来、JPEG(Joint Photographic Experts Group)またはMPEG(Moving Pictures Experts Group)を含む多数の画像圧縮・伸長技術が知られている。 Automobiles handle image data for autonomous driving control, drive recorder or security purposes. These automobiles include an image conversion device for communication and recording of image data (see, for example, Patent Document 1). The image conversion apparatus compresses or decompresses image data. Conventionally, many image compression / decompression techniques including JPEG (Joint Photographic Experts Group) or MPEG (Moving Pictures Experts Group) are known.
従来とは異なる画像のデータの圧縮・伸長技術を提供する。 A technique for compressing / decompressing image data different from conventional ones is provided.
本発明の一態様の移動体用画像変換装置は、移動体に搭載され第1画像を超解像処理により第2画像に変換する。 The moving body image conversion device of one embodiment of the present invention is mounted on a moving body and converts a first image into a second image by super-resolution processing.
本発明の別の態様の移動体用画像変換装置は、移動体に搭載され第5画像を解像度劣化処理により第6画像に変換する。 Another aspect of the present invention is an image conversion apparatus for a moving body that is mounted on a moving body and converts a fifth image into a sixth image by resolution degradation processing.
本発明の一態様の方法は、移動体の外部のデータサーバにおいて第4解像度および第4データサイズを有する第4画像のデータに解像度劣化処理を施して前記第4解像度よりも低い第1解像度および前記第4データサイズよりも小さい第1データサイズを有する第1画像のデータを生成し、前記移動体において前記第1画像のデータに超解像処理を施して前記第1解像度よりも高い第2解像度を有する第2画像を生成する。 The method according to one embodiment of the present invention includes a first resolution lower than the fourth resolution by performing resolution degradation processing on the data of the fourth image having the fourth resolution and the fourth data size in a data server outside the mobile body. A first image data having a first data size smaller than the fourth data size is generated, and a second resolution higher than the first resolution is obtained by performing super-resolution processing on the first image data in the moving body. A second image having a resolution is generated.
また、前記解像度劣化処理は、第4のフィルタを前記第4画像のデータにかけることを含むこととしてもよい。前記超解像処理は、前記第4のフィルタに対応する第1のフィルタを前記第1画像のデータにかけることを含むこととしてもよい。 The resolution degradation process may include applying a fourth filter to the data of the fourth image. The super-resolution processing may include applying a first filter corresponding to the fourth filter to the data of the first image.
また、前記データサーバにおいて前記移動体の現在の地理的位置を示す情報を取得してもよい。前記データサーバにおいて前記地理的位置を示す情報に基づいてデータベースに保存された複数の画像のデータから前記第4画像のデータを抽出してもよい。前記移動体において前記移動体に設置されたカメラから第3画像のデータを取得してもよい。前記移動体において少なくとも前記第2画像のデータと前記第3画像のデータに基づいて前記移動体の周辺の障害物を認識することをさらに含むこととしてもよい。 Further, the data server may acquire information indicating the current geographical position of the mobile object. The data of the fourth image may be extracted from data of a plurality of images stored in a database based on information indicating the geographical position in the data server. In the moving body, third image data may be acquired from a camera installed on the moving body. The moving body may further include recognizing an obstacle around the moving body based on at least the data of the second image and the data of the third image.
また、前記移動体において前記移動体の周辺の気象環境を示す情報を取得してもよい。前記移動体において前記気象環境を示す情報に基づいて前記超解像処理の実施を決定することをさらに含むこととしてもよい。 Moreover, you may acquire the information which shows the weather environment around the said mobile body in the said mobile body. The mobile unit may further include determining to perform the super-resolution processing based on information indicating the weather environment.
本発明の別の態様の方法は、移動体において第5解像度および第5データサイズを有する第5画像のデータに解像度劣化処理を施して前記第5解像度よりも低い第6解像度および前記第5データサイズよりも小さい第6データサイズを有する第6画像のデータを生成し、前記データサーバにおいて前記第6画像のデータに超解像処理を施して前記第6解像度よりも高い第7解像度を有する第7画像を生成することを含む。 The method according to another aspect of the present invention provides a sixth resolution and the fifth data lower than the fifth resolution by performing resolution degradation processing on the data of the fifth image having the fifth resolution and the fifth data size in the moving body. Generating data of a sixth image having a sixth data size smaller than the size, and subjecting the data of the sixth image to super-resolution processing in the data server to have a seventh resolution higher than the sixth resolution. 7 generating images.
また、前記解像度劣化処理は、第5のフィルタを前記第5画像のデータにかけることを含むこととしてもよい。前記超解像処理は、前記第5のフィルタに対応する第6のフィルタを前記第6画像のデータにかけることを含むこととしてもよい。 The resolution degradation process may include applying a fifth filter to the data of the fifth image. The super-resolution processing may include applying a sixth filter corresponding to the fifth filter to the data of the sixth image.
また、前記第5画像のデータは、前記移動体に設置されたカメラから取得されてもよい。前記データサーバにおいて前記移動体の現在の地理的位置を示す情報を取得してもよい。前記データサーバにおいて前記地理的位置を示す情報に基づいてデータベースに保存された複数の画像のデータから第4画像のデータを抽出してもよい。前記データサーバにおいて少なくとも前記第7画像のデータと前記第4画像のデータに基づいて前記移動体の周辺の障害物を認識することをさらに含むこととしてもよい。 The data of the fifth image may be acquired from a camera installed on the moving body. Information indicating the current geographical position of the mobile unit may be acquired in the data server. The data server may extract fourth image data from a plurality of image data stored in a database based on the information indicating the geographical position. The data server may further include recognizing an obstacle around the moving body based on at least the data of the seventh image and the data of the fourth image.
また、前記移動体において前記移動体の周辺の気象環境を示す情報を取得してもよい。前記移動体において前記気象環境を示す情報に基づいて前記解像度劣化処理の実施を決定することをさらに含むこととしてもよい。 Moreover, you may acquire the information which shows the weather environment around the said mobile body in the said mobile body. The mobile unit may further include determining the execution of the resolution deterioration process based on information indicating the weather environment.
移動体は、地上、地中、海上、海中および空中で移動可能な有人または無人の人工物をいう。例えば、移動体は、自動車、電車、機関車、特殊車両、船舶、潜水艇、航空機、ロケット、人工衛星を含む。 A moving body refers to a manned or unmanned artifact that can move on the ground, in the ground, on the sea, in the sea, and in the air. For example, the mobile body includes an automobile, a train, a locomotive, a special vehicle, a ship, a submersible, an aircraft, a rocket, and an artificial satellite.
画像は、静止画および動画を含む。 The image includes a still image and a moving image.
データサイズは、ビットまたはバイトで表される物理量である。 The data size is a physical quantity expressed in bits or bytes.
本発明によれば、従来とは異なる画像のデータの圧縮・伸長技術を提供できる。 ADVANTAGE OF THE INVENTION According to this invention, the compression / decompression technique of the data of the image different from the past can be provided.
(画像変換処理の概要)
図1を参照して、画像変換処理の概要を説明する。画像変換処理は、超解像処理、解像度劣化処理および障害物認識処理を含む。
(Overview of image conversion process)
The outline of the image conversion process will be described with reference to FIG. The image conversion process includes a super-resolution process, a resolution deterioration process, and an obstacle recognition process.
原画像11、劣化画像17および復元画像23は、それぞれ同じアスペクト比で同じ画素数を有する。解像度劣化フィルタ15と超解像フィルタ21は、それぞれ同じアスペクト比で同じ画素数を有する。フィルタ15の各画素値は、例えば、256階調のグレイスケールで表される。同様にフィルタ21の各画素値は、例えば、256階調のグレイスケールで表される。フィルタ15の各画素値の分布は、画像の解像度を劣化させるように定められている。逆にフィルタ21の各画素値の分布は、画像の解像度を高めるように定められている。すなわち、フィルタ15の各画素値の分布は、フィルタ21の各画素値の分布と対応関係を有している。例えば、フィルタ15の各画素値の分布は、フィルタ21の各画素値の分布と逆の関係を有する。また、フィルタ21は、特開2015−115747号公報に記載された点像分布関数に基づくフィルタであることとしてもよい。フィルタ15は、フィルタ21と逆の関係を有するので、フィルタ15も点像分布関数に基づくフィルタとなる。 The original image 11, the degraded image 17 and the restored image 23 have the same aspect ratio and the same number of pixels. The resolution degradation filter 15 and the super-resolution filter 21 have the same aspect ratio and the same number of pixels. Each pixel value of the filter 15 is expressed by a gray scale of 256 gradations, for example. Similarly, each pixel value of the filter 21 is represented by a gray scale of 256 gradations, for example. The distribution of the pixel values of the filter 15 is determined so as to degrade the resolution of the image. Conversely, the distribution of the pixel values of the filter 21 is determined so as to increase the resolution of the image. That is, the distribution of the pixel values of the filter 15 has a corresponding relationship with the distribution of the pixel values of the filter 21. For example, the distribution of the pixel values of the filter 15 has an inverse relationship with the distribution of the pixel values of the filter 21. The filter 21 may be a filter based on a point spread function described in JP-A-2015-115747. Since the filter 15 has an inverse relationship with the filter 21, the filter 15 is also a filter based on a point spread function.
解像度劣化処理は、複数のフィルタリング処理を繰り返す反復演算処理を含む。各フィルタリング処理は、画像のデータにフィルタを畳み込み演算して新たな画像のデータを生成する処理を含む。例えば、1回目のフィルタリング処理は、原画像11のデータにフィルタ15を畳み込み演算して中間画像のデータを生成する。2回目のフィルタリング処理は、中間画像のデータにフィルタ15を畳み込み演算して劣化画像17のデータを生成する。フィルタリング処理の繰り返しの回数は2回に限らず、これよりも多くてもよい。また、各回でフィルタを変更してもよい。畳み込み演算は、画素ブロック13の各画素値とフィルタ15の各画素値を積和演算して、画素ブロック13の中央の画素の新たな画素値を生成する処理を含む。劣化画像17の解像度は原画像11の解像度よりも低い。また、劣化画像17のデータサイズは原画像11のデータサイズよりも低い。フィルタ15の特性およびフィルタリング処理の繰り返しの回数を適切に設計することにより、劣化画像17のデータサイズを原画像11のデータサイズの1/10から1/20にすることができる。 The resolution degradation process includes an iterative calculation process that repeats a plurality of filtering processes. Each filtering process includes a process of generating a new image data by convolving a filter with the image data. For example, in the first filtering process, the filter 15 is convolved with the data of the original image 11 to generate intermediate image data. In the second filtering process, the filter 15 is convolved with the intermediate image data to generate data of the degraded image 17. The number of times the filtering process is repeated is not limited to two, and may be more than this. Further, the filter may be changed each time. The convolution calculation includes a process of multiplying and calculating each pixel value of the pixel block 13 and each pixel value of the filter 15 to generate a new pixel value of the center pixel of the pixel block 13. The resolution of the degraded image 17 is lower than the resolution of the original image 11. In addition, the data size of the degraded image 17 is lower than the data size of the original image 11. By appropriately designing the characteristics of the filter 15 and the number of times the filtering process is repeated, the data size of the degraded image 17 can be reduced from 1/10 to 1/20 of the data size of the original image 11.
超解像処理は、フィルタの特性を除き、解像度劣化処理と同様の処理である。例えば、1回目のフィルタリング処理は、劣化画像17のデータにフィルタ21を畳み込み演算して中間画像のデータを生成する。2回目のフィルタリング処理は、中間画像のデータにフィルタ21を畳み込み演算して復元画像23のデータを生成する。畳み込み演算は、画素ブロック19の各画素値とフィルタ21の各画素値を積和演算して画素ブロック19の中央の画素の新たな画素値を生成する処理を含む。復元画像23の解像度は劣化画像17の解像度よりも高い。なお、反復演算処理の繰り返しの回数によっては、復元画像23の解像度は、原画像11の解像度よりも高くなり得る。 The super-resolution processing is the same processing as the resolution deterioration processing except for the filter characteristics. For example, in the first filtering process, the filter 21 is convolved with the data of the degraded image 17 to generate intermediate image data. In the second filtering process, the filter 21 is convolved with the intermediate image data to generate the restored image 23 data. The convolution calculation includes a process of generating a new pixel value of the center pixel of the pixel block 19 by multiplying and calculating each pixel value of the pixel block 19 and each pixel value of the filter 21. The resolution of the restored image 23 is higher than the resolution of the degraded image 17. Note that the resolution of the restored image 23 may be higher than the resolution of the original image 11 depending on the number of repetitions of the iterative calculation process.
超解像処理は、例えば、特開2015−115747号公報に詳細に説明されている。本実施形態の超解像処理もこれと同様の仕組みを利用している。ただし、特開2015−115747号公報では、画像の劣化プロセスが未知であるのに対し、本実施形態では、画像の劣化プロセスが既知である。そのため、本実施形態の超解像処理は、より少ない反復回数でもっともらしい復元画像を生成することができる。 The super-resolution processing is described in detail in, for example, JP-A-2015-115747. The super-resolution processing of this embodiment also uses a similar mechanism. However, in Japanese Patent Laid-Open No. 2015-115747, the image degradation process is unknown, whereas in this embodiment, the image degradation process is known. Therefore, the super-resolution processing of the present embodiment can generate a plausible restored image with a smaller number of iterations.
なお、本実施形態では、フィルタ15およびフィルタ21は、縦横3画素ずつであるが、これに限らず、縦横5画素ずつ、縦横7画素ずつ、あるいはそれよりも多くしてもよい。 In the present embodiment, the filter 15 and the filter 21 are each 3 pixels in the vertical and horizontal directions. However, the present invention is not limited to this, and may be 5 pixels in the vertical and horizontal directions, 7 pixels in the vertical and horizontal directions, or more.
解像度劣化処理は、上記フィルタリング処理の代わりに、または、それに加えて、画素の間引きによる画像サイズの縮小を含んでいてもよい。超解像処理は、上記フィルタリング処理の代わりに、または、それに加えて、画素の補完による画像サイズの拡大を含んでいてもよい。 The resolution degradation process may include a reduction in image size by thinning out pixels instead of or in addition to the filtering process. The super-resolution processing may include enlargement of the image size by pixel interpolation instead of or in addition to the filtering processing.
障害物認識処理は、復元画像23と撮影画像25の差分画像27を生成することを含む。原画像11および復元画像23も障害物を含まない背景画像である。撮影画像25は障害物を含む背景画像である。差分画像27は、障害物を含み背景を含まない。差分画像27は、障害物の認識に利用可能である。原画像11は、過去の撮影画像またはそれに基づく加工画像であり、経度および緯度のような地理的位置を示す情報(以降、「地理的位置情報」)に対応付けられてデータベースに保存されている。自動車の自動運転の分野では、これは3次元地図情報として知られている。撮影画像25は、現在の撮影画像である。撮影画像25は、例えば、移動体に搭載されたカメラから得られる。地理的位置情報は、経度および緯度に加えて、深度または高度を含んでもよい。これにより海中、地中または空中を移動する移動体の位置を正確に示すことができる。 The obstacle recognition process includes generating a difference image 27 between the restored image 23 and the captured image 25. The original image 11 and the restored image 23 are also background images that do not include an obstacle. The captured image 25 is a background image including an obstacle. The difference image 27 includes an obstacle and does not include a background. The difference image 27 can be used for obstacle recognition. The original image 11 is a past photographed image or a processed image based thereon, and is stored in a database in association with information indicating a geographical position such as longitude and latitude (hereinafter “geographical position information”). . In the field of auto driving, this is known as 3D map information. The captured image 25 is the current captured image. The captured image 25 is obtained from a camera mounted on a moving body, for example. Geographic location information may include depth or altitude in addition to longitude and latitude. Thereby, the position of the moving body that moves in the sea, the ground, or the air can be accurately indicated.
(第1の実施形態)
図2に示されるシステムは、移動体101および移動体101と通信可能なデータサーバ131を備える。
(First embodiment)
The system shown in FIG. 2 includes a moving body 101 and a data server 131 that can communicate with the moving body 101.
移動体101は、カメラ103、地理的位置センサ105、気象環境センサ107、送受信部109、駆動系111およびコントローラ113を備える。データサーバ131は、送受信部133、データベース135およびコントローラ137を備える。 The moving body 101 includes a camera 103, a geographical position sensor 105, a weather environment sensor 107, a transmission / reception unit 109, a drive system 111, and a controller 113. The data server 131 includes a transmission / reception unit 133, a database 135, and a controller 137.
カメラ103は、移動体101の前方、後方、右側方、左側方、上方または下方の少なくとも一つを撮影して第3画像(撮影画像)のデータを生成する。カメラ103は、可視光、赤外線および紫外線の少なくとも一つの波長域に感度を有する。 The camera 103 captures at least one of the front, rear, right side, left side, upper side or lower side of the moving body 101 to generate data of a third image (captured image). The camera 103 has sensitivity in at least one wavelength region of visible light, infrared light, and ultraviolet light.
地理的位置センサ105は、これに限られないが、GPS(Global Positioning System)センサであり、移動体の経度および緯度を含む地理的位置を検出する。地理的位置センサ105は、経度および緯度に加え、さらに深度または高度を検出することとしてもよい。 Although not limited to this, the geographical position sensor 105 is a GPS (Global Positioning System) sensor, and detects the geographical position including the longitude and latitude of the moving object. The geographical position sensor 105 may detect depth or altitude in addition to longitude and latitude.
気象環境センサ107は、カメラ103により撮影された第3画像の画質に悪影響を与え得る気象環境、例えば、雨、霧、雪、砂嵐またはスモッグを直接的または間接的に検出して気象環境を示す情報(以降、「気象環境情報」)を生成する。水センサは、雨、霧および雪を直接的に検出できる。自動車のフロントガラスのワイパーの動作を監視することで、雨、霧および雪を間接的に検出できる。 The weather environment sensor 107 indicates a weather environment by directly or indirectly detecting a weather environment that may adversely affect the image quality of the third image captured by the camera 103, for example, rain, fog, snow, sandstorm, or smog. Information (hereinafter “meteorological environment information”) is generated. The water sensor can directly detect rain, fog and snow. By monitoring the operation of the windshield wiper of an automobile, rain, fog and snow can be detected indirectly.
送受信部109は、無線通信または有線通信が可能な送信部および受信部を含む。 The transmission / reception unit 109 includes a transmission unit and a reception unit capable of wireless communication or wired communication.
駆動系111は、移動体101の位置および速度を制御するための機構である。例えば、自動車の場合、駆動系111は、ハンドル、アクセルおよびブレーキを含む。 The drive system 111 is a mechanism for controlling the position and speed of the moving body 101. For example, in the case of an automobile, the drive system 111 includes a steering wheel, an accelerator, and a brake.
コントローラ113は、プロセッサ115およびメモリ117を含む。プロセッサ115は、メモリ117に保存されたプログラムを実行することにより、超解像処理(第1画像処理)、障害物認識および気象環境認識を実現する。メモリ117は、揮発性メモリおよび不揮発性メモリを含み、第1のフィルタ119および所定気象条件121を保存している。第1のフィルタ119は、第1の点像分布関数に基づく超解像処理用のフィルタであり、例えば、上述のフィルタ21である。所定気象条件は、障害物認識処理を複数の選択肢から選択するための判断基準を提供する。ある実施態様では、障害物認識処理は、カメラ103の画像の画質に悪影響を与え得る気象環境である場合に、カメラ103の画像とデータサーバ131の画像の両方を利用し、そうでない場合に、カメラ103の画像だけを利用する。この態様では、所定気象条件として、カメラ103の画像の画質に悪影響を与え得る気象環境の情報がメモリ117に保存される。このような気象条件は、上述の通り、例えば、雨、霧、雪、砂嵐またはスモッグである。 The controller 113 includes a processor 115 and a memory 117. The processor 115 implements super-resolution processing (first image processing), obstacle recognition, and weather environment recognition by executing a program stored in the memory 117. The memory 117 includes a volatile memory and a nonvolatile memory, and stores the first filter 119 and the predetermined weather condition 121. The first filter 119 is a filter for super-resolution processing based on the first point spread function, and is, for example, the above-described filter 21. The predetermined weather condition provides a criterion for selecting the obstacle recognition process from a plurality of options. In one embodiment, the obstacle recognition process utilizes both the image of the camera 103 and the image of the data server 131 when the weather environment may adversely affect the image quality of the image of the camera 103; Only the image of the camera 103 is used. In this aspect, weather environment information that may adversely affect the image quality of the image of the camera 103 is stored in the memory 117 as the predetermined weather condition. Such weather conditions are, for example, rain, fog, snow, sandstorm or smog as described above.
コントローラ113は、プログラムとそれを実行するプロセッサに限らず、SoC(System on Chip)、FPGA(Field Programmable Gate Array)のようなハードウェアにより実現されてもよい。 The controller 113 is not limited to a program and a processor that executes the program, and may be realized by hardware such as an SoC (System on Chip) or an FPGA (Field Programmable Gate Array).
送受信部133は、無線通信または有線通信が可能な送信部および受信部を含む。 The transmission / reception unit 133 includes a transmission unit and a reception unit capable of wireless communication or wired communication.
データベース135は、複数の異なる地理的位置で撮影された撮影画像またはそれに基づく加工画像を保存している。これらの撮影画像または加工画像は、地理的位置情報に対応付けられている。すなわち、データベース135は、地理的位置情報に基づいて複数の画像のデータから特定の画像のデータを抽出することができるように構成されている。 The database 135 stores photographed images photographed at a plurality of different geographical positions or processed images based thereon. These captured images or processed images are associated with geographical position information. That is, the database 135 is configured to be able to extract specific image data from a plurality of image data based on the geographical position information.
コントローラ137は、プロセッサ139およびメモリ141を含む。プロセッサ139は、メモリ141に保存されたプログラムを実行することにより、解像度劣化処理を実現する。メモリ141は、揮発性メモリおよび不揮発性メモリを含み、第1のフィルタに対応する第4のフィルタ143を保存している。第4のフィルタ143は、第4の点像分布関数に基づく解像度劣化処理用のフィルタであり、例えば、上述のフィルタ15である。第4の点像分布関数は、第1の点像分布関数に対応している。 The controller 137 includes a processor 139 and a memory 141. The processor 139 implements resolution degradation processing by executing a program stored in the memory 141. The memory 141 includes a volatile memory and a nonvolatile memory, and stores a fourth filter 143 corresponding to the first filter. The fourth filter 143 is a resolution degradation filter based on the fourth point spread function, and is, for example, the above-described filter 15. The fourth point spread function corresponds to the first point spread function.
コントローラ137は、プログラムとそれを実行するプロセッサに限らず、SoC(System on Chip)、FPGA(Field Programmable Gate Array)のようなハードウェアにより実現されてもよい。 The controller 137 is not limited to a program and a processor that executes the program, and may be realized by hardware such as an SoC (System on Chip) or an FPGA (Field Programmable Gate Array).
図3は、移動体101の障害物認識処理を示すフローチャートである。 FIG. 3 is a flowchart showing the obstacle recognition process of the moving object 101.
コントローラ113は、カメラ103から第3画像のデータを取得し(S11)、地理的位置センサ105から地理的位置情報を取得する(S13)。第3画像のデータと地理的位置情報は互いに関連付けられる。 The controller 113 acquires the third image data from the camera 103 (S11), and acquires geographical position information from the geographical position sensor 105 (S13). The data of the third image and the geographical position information are associated with each other.
コントローラ113は、気象環境センサ107から気象環境情報を取得し(S15)、気象環境情報により示される気象環境がメモリ117に保存されている所定気象条件121を満たすか否かを判断する(S17)。所定気象条件121は、例えば、雨、霧、雪、砂嵐およびスモッグである。この場合、気象環境情報により示される気象環境が晴であれば、所定気象条件121は満たされない。気象環境情報により示される気象環境が雨であれば、所定気象条件121は満たされる。 The controller 113 acquires the weather environment information from the weather environment sensor 107 (S15), and determines whether or not the weather environment indicated by the weather environment information satisfies the predetermined weather condition 121 stored in the memory 117 (S17). . The predetermined weather condition 121 is, for example, rain, fog, snow, sandstorm, and smog. In this case, if the weather environment indicated by the weather environment information is clear, the predetermined weather condition 121 is not satisfied. If the weather environment indicated by the weather environment information is rain, the predetermined weather condition 121 is satisfied.
コントローラ113は、気象環境が所定気象条件を満たさない場合(S17, No)、第1障害物認識処理を実施する(S19)。第1障害物認識処理は、カメラ103により撮影された第3画像のみを利用して障害物認識を実施する処理である。このような処理はよく知られているため、説明を省略する。 When the weather environment does not satisfy the predetermined weather condition (S17, No), the controller 113 performs the first obstacle recognition process (S19). The first obstacle recognition process is a process for performing obstacle recognition using only the third image taken by the camera 103. Since such processing is well known, description thereof is omitted.
コントローラ113は、気象環境が所定気象条件を満たす場合(S17, Yes)、地理的位置情報をデータサーバ131に送信する(S25)。データサーバ131は、これに対応して、その地理的位置情報に対応する第1画像のデータを送信する(詳細は図4を用いて後述する)。第1画像は、例えば、上述の劣化画像17である。コントローラ113は、第1画像のデータを受信するまで待機する(S27, No)。コントローラ113は、第1画像のデータを受信すれば(S27, Yes)、第1画像のデータに超解像処理を施して第2画像のデータを生成する(S29)。第1画像は、第1解像度を有する。第2画像は、第1解像度よりも高い第2解像度を有する。超解像処理の具体例は、図1を利用して説明した通りである。第2画像は、例えば、上述の復元画像23である。これにより、画像認識の精度を高めるための第2画像が得られる。 When the weather environment satisfies the predetermined weather condition (S17, Yes), the controller 113 transmits the geographical position information to the data server 131 (S25). Corresponding to this, the data server 131 transmits the data of the first image corresponding to the geographical position information (details will be described later with reference to FIG. 4). The first image is, for example, the above-described degraded image 17. The controller 113 waits until the first image data is received (S27, No). If the controller 113 receives the first image data (S27, Yes), the controller 113 performs super-resolution processing on the first image data to generate the second image data (S29). The first image has a first resolution. The second image has a second resolution that is higher than the first resolution. A specific example of the super-resolution processing is as described with reference to FIG. The second image is, for example, the restored image 23 described above. Thereby, the 2nd image for raising the accuracy of image recognition is obtained.
コントローラ113は、第2障害物認識処理を実施する(S31)。第2障害物認識処理は、カメラ103の第3画像とデータサーバ131の第2画像の両方を利用して障害物を認識する処理である。第2障害物認識処理の具体例は、図1を利用して説明した通りである。 The controller 113 performs a second obstacle recognition process (S31). The second obstacle recognition process is a process for recognizing an obstacle using both the third image of the camera 103 and the second image of the data server 131. A specific example of the second obstacle recognition process is as described with reference to FIG.
コントローラ113は、障害物を発見すれば(S21, Yes)、障害物回避のために駆動系111の制御を実施する。駆動系111の制御は、例えば、減速、加速および進路変更を含む。コントローラ113の処理は、駆動系111の制御の後で、カメラ103からの第3画像の取得(S11)に戻る。また、障害物が発見されない場合も(S21, No)、コントローラ113の処理は、カメラ103からの第3画像の取得(S11)に戻る。 If the controller 113 finds an obstacle (S21, Yes), the controller 113 controls the drive system 111 to avoid the obstacle. The control of the drive system 111 includes, for example, deceleration, acceleration, and course change. The process of the controller 113 returns to the acquisition of the third image from the camera 103 (S11) after the control of the drive system 111. Also, when no obstacle is found (S21, No), the process of the controller 113 returns to the acquisition of the third image from the camera 103 (S11).
図4は、データサーバ131の画像処理を示すフローチャートである。 FIG. 4 is a flowchart showing image processing of the data server 131.
コントローラ137は、移動体101から地理的位置情報を受信するまで待機している(S33, No)。コントローラ137は、移動体101から地理的位置情報を取得すれば(S33, Yes)、データベース135に保存された複数の画像から第4画像を抽出する(S35)。第4画像は、移動体101から受信した地理的位置情報に対応付けられた画像である。 The controller 137 is on standby until it receives geographical position information from the moving body 101 (S33, No). If the controller 137 acquires the geographical position information from the moving body 101 (S33, Yes), the controller 137 extracts the fourth image from the plurality of images stored in the database 135 (S35). The fourth image is an image associated with the geographical position information received from the mobile object 101.
コントローラ137は、第4画像のデータに解像度劣化処理を施して第1画像のデータを生成し(S37)、その第1画像のデータを移動体101に送信する(S39)。第4画像は、第4解像度および第4データサイズを有する。第1画像は、第4解像度よりも低い第1解像度および第4データサイズよりも小さい第1データサイズを有する。解像度劣化処理の具体例は、図1を利用して説明した通りである。 The controller 137 performs resolution degradation processing on the data of the fourth image to generate data of the first image (S37), and transmits the data of the first image to the moving body 101 (S39). The fourth image has a fourth resolution and a fourth data size. The first image has a first resolution lower than the fourth resolution and a first data size smaller than the fourth data size. A specific example of the resolution deterioration process is as described with reference to FIG.
上述の通り、データサーバ131は、第4画像(原画像)のデータに解像度劣化処理を施すことで第1画像(劣化画像)のデータを生成することができる。第4画像は、第4解像度および第4データサイズを有する。第1画像は、第4解像度よりも低い第1解像度および第4データサイズよりも小さい第1データサイズを有する。移動体101は、第1画像のデータに超解像処理を施すことで第2画像(復元画像)のデータを生成することができる。第2画像は、第1解像度よりも高い第2解像度を有する。第1画像がデータサーバ131から移動体101に送信されるので、データ通信量を低減することができる。 As described above, the data server 131 can generate data of the first image (degraded image) by performing resolution degradation processing on the data of the fourth image (original image). The fourth image has a fourth resolution and a fourth data size. The first image has a first resolution lower than the fourth resolution and a first data size smaller than the fourth data size. The moving body 101 can generate data of the second image (restored image) by performing super-resolution processing on the data of the first image. The second image has a second resolution that is higher than the first resolution. Since the first image is transmitted from the data server 131 to the mobile unit 101, the amount of data communication can be reduced.
解像度劣化処理は、第4のフィルタ143を第4画像のデータにかけることを含む。超解像処理は、第4のフィルタ143に対応する第1のフィルタ119を第1画像のデータにかけることを含む。第1のフィルタ119は、第4のフィルタ143の逆の特性を有することとしてもよい。第1のフィルタ119は、第4のフィルタ143に対応しているので、より少ない反復回数でもっともらしい復元画像を生成することができる。 The resolution degradation process includes applying the fourth filter 143 to the data of the fourth image. The super-resolution processing includes applying the first filter 119 corresponding to the fourth filter 143 to the data of the first image. The first filter 119 may have a characteristic opposite to that of the fourth filter 143. Since the first filter 119 corresponds to the fourth filter 143, a plausible restored image can be generated with a smaller number of iterations.
移動体101は、複数の選択肢から画像認識処理を選択する。第1画像認識処理は、移動体101とデータサーバ131の間の通信を要しない。第2画像認識処理は、移動体101とデータサーバ131の間の通信を要する。このように、画像認識処理を使い分けることで、全体のデータ通信量を低減できる。 The moving body 101 selects an image recognition process from a plurality of options. The first image recognition process does not require communication between the moving object 101 and the data server 131. The second image recognition process requires communication between the moving object 101 and the data server 131. In this way, by properly using the image recognition processing, the entire data communication amount can be reduced.
(第2実施形態)
第1実施形態では、移動体が障害物認識処理を実施しているが、第2実施形態では、データサーバが障害物認識処理を実施する。第1実施形態と同様の構成は同じ符号を付して説明を省略する。
(Second Embodiment)
In the first embodiment, the mobile object performs the obstacle recognition process, but in the second embodiment, the data server performs the obstacle recognition process. The same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
図5に示されるシステムは、移動体201および移動体201と通信可能なデータサーバ231を備える。 The system shown in FIG. 5 includes a moving body 201 and a data server 231 that can communicate with the moving body 201.
移動体201は、第5のフィルタ219を保存しているコントローラ213を備える。第5のフィルタ219は、第5の点像分布関数に基づく解像度劣化処理用のフィルタであり、例えば、上述のフィルタ15である。データサーバ231は、第6のフィルタ243を保存しているコントローラ237を備える。第6のフィルタは、第6の点像分布関数に基づく超解像処理用のフィルタであり、例えば、上述のフィルタ21である。第6の点像分布関数は、第5の点像分布関数に対応している。プロセッサ115は、メモリ117に保存されたプログラムを実行することにより、解像度劣化処理(第2画像処理)を実現する。 The moving body 201 includes a controller 213 that stores a fifth filter 219. The fifth filter 219 is a filter for resolution deterioration processing based on the fifth point spread function, for example, the above-described filter 15. The data server 231 includes a controller 237 that stores a sixth filter 243. The sixth filter is a filter for super-resolution processing based on the sixth point spread function, for example, the filter 21 described above. The sixth point spread function corresponds to the fifth point spread function. The processor 115 implements resolution degradation processing (second image processing) by executing a program stored in the memory 117.
図6は、移動体201の障害物認識処理を示すフローチャートである。 FIG. 6 is a flowchart showing the obstacle recognition process of the moving object 201.
コントローラ213は、カメラ103から第5画像のデータを取得し(S51)、地理的位置センサ105から地理的位置情報を取得する(S53)。第5画像は、カメラ103で撮影された画像である。第5画像のデータと地理的位置情報は互いに関連付けられる。 The controller 213 acquires the data of the fifth image from the camera 103 (S51), and acquires geographical position information from the geographical position sensor 105 (S53). The fifth image is an image photographed by the camera 103. The data of the fifth image and the geographical position information are associated with each other.
コントローラ213は、気象環境センサ107から気象環境情報を取得し(S55)、気象環境情報により示される気象環境がメモリ117に保存されている所定気象条件121を満たすか否かを判断する(S57)。 The controller 213 acquires weather environment information from the weather environment sensor 107 (S55), and determines whether or not the weather environment indicated by the weather environment information satisfies the predetermined weather condition 121 stored in the memory 117 (S57). .
コントローラ213は、気象環境が所定気象条件を満たさない場合(S57, No)、第1障害物認識処理を実施する(S59)。 When the weather environment does not satisfy the predetermined weather condition (S57, No), the controller 213 performs a first obstacle recognition process (S59).
コントローラ213は、気象環境が所定気象条件を満たす場合(S57, Yes)、第5画像のデータに解像度劣化処理を施して第6画像のデータを生成する。解像度劣化処理の具体例は、図1を利用して説明した通りである。第5画像は、第5解像度および第5データサイズを有する。第6画像は、第5解像度よりも低い第6解像度および第5データサイズよりも小さい第6データサイズを有する。 When the weather environment satisfies the predetermined weather condition (S57, Yes), the controller 213 performs resolution degradation processing on the fifth image data to generate sixth image data. A specific example of the resolution deterioration process is as described with reference to FIG. The fifth image has a fifth resolution and a fifth data size. The sixth image has a sixth resolution lower than the fifth resolution and a sixth data size smaller than the fifth data size.
コントローラ213は、第6画像のデータおよび地理的位置情報をデータサーバ231に送信する(S67, S69)。データサーバ231は、これに対応して、第2障害物認識処理を実施して、その結果を送信する(詳細は図7を用いて後述する)。コントローラ213は、第2障害物認識処理の結果を受信するまで待機する(S71, No)。 The controller 213 transmits the data of the sixth image and the geographical position information to the data server 231 (S67, S69). In response to this, the data server 231 performs the second obstacle recognition process and transmits the result (details will be described later with reference to FIG. 7). The controller 213 waits until it receives the result of the second obstacle recognition process (S71, No).
コントローラ213は、第1障害物認識処理(S59)の結果または第2障害物認識処理の結果(S71, Yes)を受け、障害物を発見すれば(S61, Yes)、障害物回避のために駆動系111の制御を実施する。コントローラ213の処理は、駆動系111の制御の後で、カメラ103からの第5画像の取得(S51)に戻る。また、障害物が発見されない場合も(S61, No)、コントローラ213の処理は、カメラ103からの第5画像の取得(S51)に戻る。 If the controller 213 receives the result of the first obstacle recognition process (S59) or the result of the second obstacle recognition process (S71, Yes) and finds an obstacle (S61, Yes), the controller 213 avoids the obstacle. The drive system 111 is controlled. The process of the controller 213 returns to the acquisition of the fifth image from the camera 103 (S51) after the control of the drive system 111. Also, when no obstacle is found (S61, No), the process of the controller 213 returns to the acquisition of the fifth image from the camera 103 (S51).
図7は、データサーバ231の障害物認識処理を示すフローチャートである。 FIG. 7 is a flowchart showing the obstacle recognition process of the data server 231.
コントローラ237は、移動体201から地理的位置情報および第6画像のデータを受信するまで待機している(S73, No)。コントローラ237は、移動体201から地理的位置情報を取得すれば(S75, Yes)、データベース135に保存された複数の画像から第4画像を抽出する(S75)。第4画像は、移動体201から受信した地理的位置情報に示される地理的位置に対応付けられた画像である。 The controller 237 is on standby until it receives the geographical position information and the sixth image data from the moving body 201 (S73, No). If the controller 237 acquires the geographical position information from the moving body 201 (S75, Yes), the controller 237 extracts the fourth image from the plurality of images stored in the database 135 (S75). The fourth image is an image associated with the geographical position indicated in the geographical position information received from the moving body 201.
コントローラ237は、第6画像のデータに超解像処理を施して第7画像のデータを生成する(S77)。超解像処理の具体例は、図1を利用して説明した通りである。第6画像は、第6解像度を有する。第7画像は、第6画像よりも高い第7画像を有する。 The controller 237 performs super-resolution processing on the sixth image data to generate seventh image data (S77). A specific example of the super-resolution processing is as described with reference to FIG. The sixth image has a sixth resolution. The seventh image has a seventh image that is higher than the sixth image.
コントローラ237は、第2障害物認識処理を実施し(S79)、その結果を移動体201に送信する(S81)。第2障害物認識処理は、カメラ103の第5画像とデータサーバ231の第4画像の両方を利用して障害物を認識する処理である。第2障害物認識処理の具体例は、図1を利用して説明した通りである。 The controller 237 performs the second obstacle recognition process (S79), and transmits the result to the moving body 201 (S81). The second obstacle recognition process is a process for recognizing an obstacle using both the fifth image of the camera 103 and the fourth image of the data server 231. A specific example of the second obstacle recognition process is as described with reference to FIG.
上述の通り、移動体201は、第5画像(原画像)のデータに解像度劣化処理を施すことで第6画像(劣化画像)のデータを生成することができる。第5画像は、第5解像度および第5データサイズを有する。第6画像は、第5解像度よりも低い第6解像度および第5データサイズよりも小さい第6データサイズを有する。移動体201は、第5画像のデータを送信し、データサーバ231は、その第5画像のデータを受信する。データサーバ231は、第5画像のデータに超解像処理を施すことで第7画像(復元画像)のデータを生成することができる。第7画像は、第6解像度よりも高い第7解像度を有する。第6画像が移動体201からデータサーバ231に送信されるので、データ通信量を低減することができる。 As described above, the moving body 201 can generate data of the sixth image (degraded image) by performing resolution degradation processing on the data of the fifth image (original image). The fifth image has a fifth resolution and a fifth data size. The sixth image has a sixth resolution lower than the fifth resolution and a sixth data size smaller than the fifth data size. The moving body 201 transmits the data of the fifth image, and the data server 231 receives the data of the fifth image. The data server 231 can generate data of the seventh image (restored image) by performing super-resolution processing on the data of the fifth image. The seventh image has a seventh resolution higher than the sixth resolution. Since the sixth image is transmitted from the moving body 201 to the data server 231, the amount of data communication can be reduced.
また、解像度劣化処理は、第5のフィルタ219を第5画像のデータにかけることを含む。超解像処理は、第5のフィルタ219に対応する第6のフィルタ243を第5画像にかけることを含む。第6のフィルタ243は、第5のフィルタ219の逆の特性を有することとしてもよい。第6のフィルタ243は第5のフィルタ219に対応しているので、より少ない反復回数でもっともらしい復元画像を生成することができる。 The resolution deterioration process includes applying a fifth filter 219 to the data of the fifth image. The super-resolution processing includes applying a sixth filter 243 corresponding to the fifth filter 219 to the fifth image. The sixth filter 243 may have a characteristic opposite to that of the fifth filter 219. Since the sixth filter 243 corresponds to the fifth filter 219, a plausible restored image can be generated with a smaller number of iterations.
本発明は、上記第1および第2実施形態に開示された構成および処理に限られない。本発明の趣旨の範囲内で適宜変更してもよい。 The present invention is not limited to the configuration and processing disclosed in the first and second embodiments. You may change suitably in the range of the meaning of this invention.
解像度劣化処理は、JPEGまたはMPEGを含む既存の圧縮・伸長技術の前処理として利用されてもよい。ある例では、移動体が原画像に解像度劣化処理を施して劣化画像を生成し、劣化画像に既存の圧縮技術を適用して圧縮画像を生成し、その圧縮画像を送信する。データサーバは、その圧縮画像を受信し、圧縮画像に既存の伸長技術を適用して劣化画像を再生し、その劣化画像に超解像処理を施して復元画像を生成する。 The resolution degradation process may be used as a pre-process for existing compression / decompression techniques including JPEG or MPEG. In an example, a moving body performs resolution degradation processing on an original image to generate a degraded image, applies a compression technique to the degraded image to generate a compressed image, and transmits the compressed image. The data server receives the compressed image, applies the existing decompression technique to the compressed image, reproduces the deteriorated image, performs super-resolution processing on the deteriorated image, and generates a restored image.
本発明は、画像のデータの圧縮・伸長技術に利用可能である。 The present invention is applicable to image data compression / decompression techniques.
101、201 移動体
103 カメラ
105 地理的位置センサ
107 気象環境センサ
109 送受信部
111 駆動系
113、213 コントローラ
131、231 データサーバ
133 送受信部
135 データベース
137、237 コントローラ
DESCRIPTION OF SYMBOLS 101,201 Mobile body 103 Camera 105 Geographical position sensor 107 Weather environment sensor 109 Transmission / reception part 111 Drive system 113, 213 Controller 131,231 Data server 133 Transmission / reception part 135 Database 137,237 Controller
Claims (11)
前記移動体用画像変換装置は前記第1画像を受信する受信部を有する請求項1に記載の移動体用画像変換装置。 The first image is transmitted from a data server outside the mobile body,
The mobile image conversion device according to claim 1, wherein the mobile image conversion device includes a receiving unit that receives the first image.
前記移動体用画像変換装置は、少なくとも前記カメラで撮影された第3画像と前記第2画像に基づいて前記移動体の周辺の障害物を認識する障害物認識部を有する請求項1から3のいずれか1項に記載の移動体用画像変換装置。 The moving body includes a camera,
The said moving body image conversion apparatus has an obstruction recognition part which recognizes the obstruction around the said moving body based on the 3rd image and said 2nd image which were image | photographed with the said camera at least. The image conversion apparatus for moving bodies according to any one of the above.
前記移動体用画像変換装置は、前記第6画像を外部のデータサーバに送信する送信部を有する請求項7に記載の移動体用画像変換装置。 The moving body includes a camera that images the outside and generates the fifth image;
The said moving body image converter is a moving body image converter of Claim 7 which has a transmission part which transmits the said 6th image to an external data server.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016250273A JP2018106313A (en) | 2016-12-24 | 2016-12-24 | Image converter for mobile body |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016250273A JP2018106313A (en) | 2016-12-24 | 2016-12-24 | Image converter for mobile body |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018106313A true JP2018106313A (en) | 2018-07-05 |
Family
ID=62787288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016250273A Pending JP2018106313A (en) | 2016-12-24 | 2016-12-24 | Image converter for mobile body |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018106313A (en) |
-
2016
- 2016-12-24 JP JP2016250273A patent/JP2018106313A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108574929B (en) | Method and apparatus for networked scene rendering and enhancement in an onboard environment in an autonomous driving system | |
US11734918B2 (en) | Object identification apparatus, moving body system, object identification method, object identification model learning method, and object identification model learning apparatus | |
CN112912920B (en) | Point cloud data conversion method and system for 2D convolutional neural network | |
CN108073170B (en) | Automated collaborative driving control for autonomous vehicles | |
WO2020097796A1 (en) | Methods and systems for color point cloud generation | |
CN111656144B (en) | Sensor device, electronic device, sensor system, and control method | |
KR20170115544A (en) | Environmental scene condition detection | |
CN110115024B (en) | Image processing apparatus, image processing method, and program | |
US11436839B2 (en) | Systems and methods of detecting moving obstacles | |
WO2019167672A1 (en) | On-chip compensation of rolling shutter effect in imaging sensor for vehicles | |
US11210802B2 (en) | Systems and methods for conditioning training data to avoid learned aberrations | |
US20240135551A1 (en) | Systems, Apparatus, and Methods for Retrieving Image Data of Image Frames | |
US11257193B2 (en) | Image processing apparatus | |
JP2024515761A (en) | Data-driven dynamically reconstructed disparity maps | |
Dawdi et al. | Locating victims in hot environments using combined thermal and optical imaging | |
EP4293622A1 (en) | Method for training neural network model and method for generating image | |
US10929704B2 (en) | Landscape video stream compression using computer vision techniques | |
EP4160531A1 (en) | Systems, methods, and apparatus for aligning image frames | |
JP2018106313A (en) | Image converter for mobile body | |
JP2018106299A (en) | Image converter for mobile body | |
US11776163B1 (en) | Systems, methods, and apparatus for correcting desaturation of images with transformed color values by appling a matrix | |
KR101611789B1 (en) | Road surface visualization by motion parameter analysis | |
US20240291993A1 (en) | Rule-based digitized image compression | |
US11827216B2 (en) | Optimal sensor reading for low latency object detection | |
US20240257368A1 (en) | Monocular depth estimation parameter assistance and augmentation |