JP2019020139A - Information processor, program, and information processing system - Google Patents

Information processor, program, and information processing system Download PDF

Info

Publication number
JP2019020139A
JP2019020139A JP2017135634A JP2017135634A JP2019020139A JP 2019020139 A JP2019020139 A JP 2019020139A JP 2017135634 A JP2017135634 A JP 2017135634A JP 2017135634 A JP2017135634 A JP 2017135634A JP 2019020139 A JP2019020139 A JP 2019020139A
Authority
JP
Japan
Prior art keywords
information
processing apparatus
information processing
distance
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017135634A
Other languages
Japanese (ja)
Inventor
光夫 小野
Mitsuo Ono
光夫 小野
喜央 ▲高▼山
喜央 ▲高▼山
Yoshiteru TAKAYAMA
河合 克敏
Katsutoshi Kawai
克敏 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017135634A priority Critical patent/JP2019020139A/en
Publication of JP2019020139A publication Critical patent/JP2019020139A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

To increase the convenience of a technique for using imaging information.SOLUTION: An information processor 30 includes a communication unit 31 and a control unit 33. The communication unit 31 acquires imaging information for a predetermined field of vision and distance information for the field of vision. The control unit specifies ones of the pixels in the imaging information on the basis of the distance information, and executes predetermined processing, using the imaging information other than the specified ones.SELECTED DRAWING: Figure 4

Description

本開示は、情報処理装置、プログラム、および情報処理システムに関する。   The present disclosure relates to an information processing device, a program, and an information processing system.

従来、カメラ等によって生成される撮像情報を利用する技術が知られている。例えば特許文献1には、2台のカメラによって撮像された一対の画像を利用して、対象物までの距離を算出するステレオカメラ装置が開示されている。   Conventionally, a technique using imaging information generated by a camera or the like is known. For example, Patent Literature 1 discloses a stereo camera device that calculates a distance to an object using a pair of images captured by two cameras.

特開2011−191905号公報JP 2011-191905 A

従来、撮像情報を利用する技術の利便性の向上が望まれている。   Conventionally, it is desired to improve the convenience of a technique using imaging information.

本開示の目的は、撮像情報を利用する技術の利便性を向上させることにある。   The objective of this indication is to improve the convenience of the technique using imaging information.

本開示の一実施形態に係る情報処理装置は、通信部と、制御部と、を備える。前記通信部は、所定の視野の撮像情報および前記視野の距離情報を取得する。前記制御部は、前記撮像情報に含まれる複数の画素のうち一部の画素を前記距離情報に基づいて特定し、特定された前記一部の画素を除く前記撮像情報を用いて所定の処理を実行する。   An information processing apparatus according to an embodiment of the present disclosure includes a communication unit and a control unit. The communication unit acquires imaging information of a predetermined visual field and distance information of the visual field. The control unit identifies a part of the plurality of pixels included in the imaging information based on the distance information, and performs a predetermined process using the imaging information excluding the identified part of the pixel. Run.

本開示の一実施形態に係るプログラムは、情報処理装置に、所定の視野の撮像情報および前記視野の距離情報を取得するステップと、前記撮像情報に含まれる複数の画素のうち一部の画素を前記距離情報に基づいて特定するステップと、特定された前記一部の画素を除く前記撮像情報を用いて所定の処理を実行するステップと、を実行させる。   A program according to an embodiment of the present disclosure includes a step of acquiring imaging information of a predetermined visual field and distance information of the visual field in an information processing device, and a part of pixels among the plurality of pixels included in the imaging information. A step of specifying based on the distance information and a step of executing a predetermined process using the imaging information excluding the specified part of the pixels are executed.

本開示の一実施形態に係る情報処理システムは、情報生成装置と、情報処理装置と、を備える。前記情報生成装置は、所定の視野の撮像情報および前記視野の距離情報を生成する。前記情報処理装置は、前記撮像情報に含まれる複数の画素のうち一部の画素を前記距離情報に基づいて特定し、特定された前記一部の画素を除く前記撮像情報を用いて所定の処理を実行する。   An information processing system according to an embodiment of the present disclosure includes an information generation device and an information processing device. The information generation device generates imaging information of a predetermined visual field and distance information of the visual field. The information processing apparatus identifies a part of a plurality of pixels included in the imaging information based on the distance information, and performs predetermined processing using the imaging information excluding the identified part of the pixels. Execute.

本開示の一実施形態によれば、撮像情報を利用する技術の利便性が向上する。   According to an embodiment of the present disclosure, the convenience of a technique using imaging information is improved.

本開示の一実施形態に係る情報処理システムの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an information processing system according to an embodiment of the present disclosure. 情報生成装置の視野を説明する図である。It is a figure explaining the visual field of an information generation device. 情報生成装置の視野を説明する図である。It is a figure explaining the visual field of an information generation device. 情報処理システムの動作を示すシーケンス図である。It is a sequence diagram which shows operation | movement of an information processing system. 異物検出処理および異物分類処理を実行する情報処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the information processing apparatus which performs a foreign material detection process and a foreign material classification process.

以下、本開示の実施形態について、図面を参照して説明する。   Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.

図1を参照して、本開示の一実施形態に係る情報処理システム10について説明する。情報処理システム10は、情報生成装置20と、情報処理装置30と、を備える。情報生成装置20および情報処理装置30は、互いに通信可能に接続される。情報処理システム10は、例えば車両等の移動体に搭載されてもよい。   With reference to FIG. 1, an information processing system 10 according to an embodiment of the present disclosure will be described. The information processing system 10 includes an information generation device 20 and an information processing device 30. The information generation device 20 and the information processing device 30 are connected to be communicable with each other. The information processing system 10 may be mounted on a moving body such as a vehicle, for example.

情報生成装置20は、光学部材21と、第1情報生成部22と、第2情報生成部23と、通信部24と、記憶部25と、制御部26と、を備える。   The information generation device 20 includes an optical member 21, a first information generation unit 22, a second information generation unit 23, a communication unit 24, a storage unit 25, and a control unit 26.

光学部材21は、例えば、電磁波を透過する筐体窓、レンズ、フィルタ、カバー、およびガラス、ならびに、電磁波を反射するミラーのうち、少なくとも1つを含んでもよい。光学部材21は、第1情報生成部22と第2情報生成部23とで共有される。具体的には、光学部材21を介して情報生成装置20の内部に取り込まれる電磁波が、第1情報生成部22および第2情報生成部23それぞれによって利用される。   The optical member 21 may include, for example, at least one of a housing window that transmits electromagnetic waves, a lens, a filter, a cover, and glass, and a mirror that reflects electromagnetic waves. The optical member 21 is shared by the first information generation unit 22 and the second information generation unit 23. Specifically, electromagnetic waves taken into the information generating device 20 through the optical member 21 are used by the first information generating unit 22 and the second information generating unit 23, respectively.

第1情報生成部22は、例えばカメラを含んでもよい。具体的には、第1情報生成部22は、撮像素子と、プロセッサと、を含んでもよい。   The first information generation unit 22 may include a camera, for example. Specifically, the first information generation unit 22 may include an image sensor and a processor.

本開示において、「撮像素子」は、例えばCCD(Charge Coupled Device)撮像素子およびCMOS(Complementary Metal Oxide Semiconductor)撮像素子を含んでもよい。「プロセッサ」は、汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでもよい。専用のプロセッサは、DSP(Digital Signal Processor)および特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでもよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでもよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでもよい。   In the present disclosure, the “imaging device” may include, for example, a CCD (Charge Coupled Device) imaging device and a CMOS (Complementary Metal Oxide Semiconductor) imaging device. The “processor” may include a general-purpose processor and a dedicated processor specialized for specific processing. The dedicated processor may include a DSP (Digital Signal Processor) and an application specific integrated circuit (ASIC). The processor may include a programmable logic device (PLD). The PLD may include a field-programmable gate array (FPGA).

第1情報生成部22は、光学部材21を介して情報生成装置20の内部に取り込まれた光を用いて、第1視野の撮像情報を生成する。   The first information generation unit 22 generates imaging information of the first visual field using light taken into the information generation device 20 via the optical member 21.

本開示において、「視野」は、例えば視点から視方向に離れた任意の仮想平面上の、当該視点から見える領域を含んでもよい。例えば図2において、第1情報生成部22の光軸220に略垂直または垂直な仮想平面P上の、第1情報生成部22の画角に含まれる領域が、第1視野221である。   In the present disclosure, the “field of view” may include, for example, a region visible from the viewpoint on an arbitrary virtual plane separated from the viewpoint in the viewing direction. For example, in FIG. 2, a region included in the angle of view of the first information generation unit 22 on the virtual plane P substantially perpendicular or perpendicular to the optical axis 220 of the first information generation unit 22 is the first visual field 221.

第1視野221の撮像情報は、第1視野221が分割された複数の領域にそれぞれ相当する複数の第1画素を有してもよい。第1画素は、例えばRGBの色を示してもよい。具体的には、第1画素の画素値は、例えばRGBの色信号強度を示してもよい。撮像情報は、例えば撮像画像を含んでもよい。第1情報生成部22は、第1視野221の撮像情報を周期的に生成してもよい。   The imaging information of the first visual field 221 may include a plurality of first pixels that respectively correspond to a plurality of regions into which the first visual field 221 is divided. The first pixel may indicate RGB color, for example. Specifically, the pixel value of the first pixel may indicate, for example, RGB color signal intensity. The imaging information may include a captured image, for example. The first information generation unit 22 may periodically generate imaging information of the first visual field 221.

図1に示す第2情報生成部23は、例えばレーザレーダを含んでもよい。レーザレーダは、ビーム状の電磁波を2次元的に走査する走査型レーザレーダ、および広範囲に照射された電磁波の反射波または拡散波を距離画像センサで受光するフラッシュ型レーザレーダを含んでもよい。具体的には、第2情報生成部23は、光源と、受光素子と、プロセッサと、を含んでもよい。   The second information generation unit 23 illustrated in FIG. 1 may include a laser radar, for example. The laser radar may include a scanning laser radar that two-dimensionally scans a beam-shaped electromagnetic wave, and a flash laser radar that receives a reflected wave or diffused wave of an electromagnetic wave irradiated over a wide range with a distance image sensor. Specifically, the second information generation unit 23 may include a light source, a light receiving element, and a processor.

本開示において、「光源」は、電磁波を出力可能な任意の装置を含んでもよい。例えば、光源は、LED(Light Emitting Diode)光源およびレーザ光源を含んでもよい。電磁波は、例えば赤外光および紫外光を含んでもよい。赤外光は、近赤外光および遠赤外光を含んでもよい。「受光素子」は、電磁波を検出可能な任意の装置を含んでもよい。例えば、受光素子は、フォトダイオードおよび距離画像センサを含んでもよい。   In the present disclosure, the “light source” may include any device capable of outputting electromagnetic waves. For example, the light source may include an LED (Light Emitting Diode) light source and a laser light source. The electromagnetic wave may include, for example, infrared light and ultraviolet light. The infrared light may include near infrared light and far infrared light. The “light receiving element” may include any device that can detect electromagnetic waves. For example, the light receiving element may include a photodiode and a distance image sensor.

第2情報生成部23は、光源によって出力された電磁波を、光学部材21を介して情報生成装置20の外部に射出する。第2情報生成部23は、光学部材21を介して情報生成装置20の内部に取り込まれた、電磁波の反射波または散乱波を用いて、第2視野の距離情報を生成する。   The second information generation unit 23 emits the electromagnetic wave output by the light source to the outside of the information generation device 20 via the optical member 21. The second information generation unit 23 generates distance information of the second visual field using the reflected wave or scattered wave of the electromagnetic wave taken into the information generation device 20 via the optical member 21.

第2視野の少なくとも一部が、第1視野221と重複してもよい。例えば図2において、仮想平面P上の、第2情報生成部23の画角に含まれる領域が、第2視野231である。第1視野221および第2視野231が重複する仮想平面P上の領域が、重複領域40である。光学部材21の表面領域210は、第1情報生成部22の画角および第2情報生成部23の画角の両方に含まれる。第2情報生成部23は、情報生成装置20の内部において第1情報生成部22の近傍に配置されてもよい。第2情報生成部23の光軸230および第1情報生成部22の光軸220が、略平行または平行であってもよい。   At least a part of the second visual field may overlap with the first visual field 221. For example, in FIG. 2, the region included in the angle of view of the second information generation unit 23 on the virtual plane P is the second visual field 231. A region on the virtual plane P where the first visual field 221 and the second visual field 231 overlap is an overlapping region 40. The surface region 210 of the optical member 21 is included in both the angle of view of the first information generation unit 22 and the angle of view of the second information generation unit 23. The second information generation unit 23 may be disposed in the vicinity of the first information generation unit 22 inside the information generation device 20. The optical axis 230 of the second information generation unit 23 and the optical axis 220 of the first information generation unit 22 may be substantially parallel or parallel.

第2視野231の距離情報は、第2視野231が分割された複数の領域にそれぞれ相当する複数の第2画素を有してもよい。第2画素は、例えば視方向における視点からの距離を示してもよい。具体的には、第2画素の画素値は、例えば電磁波の射出から反射波もしくは散乱波の検出までの時間差、または電磁波と反射波もしくは散乱波との位相差を示してもよい。距離情報は、例えば複数の第2画素それぞれを距離に応じて色分けした距離画像を含んでもよい。情報生成装置20は、第2視野231の距離情報を周期的に生成してもよい。   The distance information of the second visual field 231 may include a plurality of second pixels respectively corresponding to a plurality of regions into which the second visual field 231 is divided. For example, the second pixel may indicate a distance from the viewpoint in the viewing direction. Specifically, the pixel value of the second pixel may indicate, for example, a time difference from emission of electromagnetic waves to detection of reflected waves or scattered waves, or a phase difference between electromagnetic waves and reflected waves or scattered waves. The distance information may include, for example, a distance image in which each of the plurality of second pixels is color-coded according to the distance. The information generation device 20 may periodically generate distance information of the second visual field 231.

第2情報生成部23は、第2視野231の輝度情報を生成してもよい。第2視野231の輝度情報は、第2視野231が分割された複数の領域にそれぞれ相当する複数の第3画素を有してもよい。第3画素は、電磁波の反射波または散乱波の輝度を示してもよい。具体的には、第3画素の画素値は、反射波または散乱波の強度を示してもよい。輝度情報は、例えば複数の第3画素それぞれを輝度に応じて色分けした輝度画像を含んでもよい。情報生成装置20は、第2視野231の輝度情報を周期的に生成してもよい。   The second information generation unit 23 may generate luminance information of the second visual field 231. The luminance information of the second visual field 231 may include a plurality of third pixels that respectively correspond to a plurality of regions into which the second visual field 231 is divided. The third pixel may indicate the luminance of the reflected wave or scattered wave of electromagnetic waves. Specifically, the pixel value of the third pixel may indicate the intensity of the reflected wave or the scattered wave. For example, the luminance information may include a luminance image in which each of the plurality of third pixels is color-coded according to luminance. The information generation device 20 may periodically generate luminance information of the second visual field 231.

通信部24は、外部装置と通信可能な任意の通信インタフェースを含む。外部装置は、例えば情報処理装置30を含む。通信部24は、有線または無線を介する任意の通信方式に対応してもよい。   The communication unit 24 includes an arbitrary communication interface capable of communicating with an external device. The external device includes an information processing device 30, for example. The communication unit 24 may correspond to an arbitrary communication method via wired or wireless.

記憶部25は、1つ以上のメモリを含んでもよい。本開示において、「メモリ」は、例えば半導体メモリ、磁気メモリ、および光メモリ等を含んでもよい。記憶部25は、一次記憶装置または二次記憶装置として機能してもよい。記憶部25は、情報生成装置20の動作に用いられる任意の情報およびプログラムを記憶する。   The storage unit 25 may include one or more memories. In the present disclosure, the “memory” may include, for example, a semiconductor memory, a magnetic memory, an optical memory, and the like. The storage unit 25 may function as a primary storage device or a secondary storage device. The storage unit 25 stores arbitrary information and programs used for the operation of the information generation device 20.

制御部26は、1つ以上のプロセッサを含む。制御部26は、情報生成装置20全体の動作を制御する。   The control unit 26 includes one or more processors. The control unit 26 controls the overall operation of the information generation apparatus 20.

例えば、制御部26は、撮像情報を用いる任意の処理を実行してもよい。当該処理は、例えば撮像情報に対する視点変換処理を含んでもよい。視点変換処理によって、第1情報生成部22の視点位置および光軸220が、それぞれ第2情報生成部23の視点位置および光軸230に仮想的に略一致しまたは完全一致し得る。視点変換処理には、任意のアルゴリズムが採用可能である。撮像情報を用いる処理は、視点変換処理に限られず、任意の処理を含んでもよい。例えば、当該処理は、ホワイトバランス処理、色調整処理、ゲイン調整処理、および輝度調整処理等を含んでもよい。   For example, the control unit 26 may execute an arbitrary process using the imaging information. The process may include, for example, a viewpoint conversion process for imaging information. By the viewpoint conversion process, the viewpoint position and the optical axis 220 of the first information generation unit 22 can virtually coincide or completely coincide with the viewpoint position and the optical axis 230 of the second information generation unit 23, respectively. Any algorithm can be adopted for the viewpoint conversion process. The process using the imaging information is not limited to the viewpoint conversion process, and may include an arbitrary process. For example, the processing may include white balance processing, color adjustment processing, gain adjustment processing, luminance adjustment processing, and the like.

制御部26は、撮像情報、距離情報、および輝度情報を、例えば周期的に、通信部24を介して情報処理装置30へ出力してもよい。   The control unit 26 may output the imaging information, the distance information, and the luminance information to the information processing apparatus 30 via the communication unit 24, for example, periodically.

図4を参照して、情報処理装置30について説明する。情報処理装置30は、通信部31と、記憶部32と、制御部33と、を備える。   The information processing apparatus 30 will be described with reference to FIG. The information processing apparatus 30 includes a communication unit 31, a storage unit 32, and a control unit 33.

通信部31は、外部装置と通信可能な任意の通信インタフェースを含む。外部装置は、例えば情報生成装置20を含む。通信部31は、有線または無線を介する任意の通信方式に対応してもよい。   The communication unit 31 includes an arbitrary communication interface that can communicate with an external device. The external device includes, for example, the information generation device 20. The communication unit 31 may correspond to an arbitrary communication method via wired or wireless.

記憶部32は、1つ以上のメモリを含んでもよい。記憶部32は、一次記憶装置または二次記憶装置として機能してもよい。記憶部32は、情報処理装置30の動作に用いられる任意の情報およびプログラムを記憶する。   The storage unit 32 may include one or more memories. The storage unit 32 may function as a primary storage device or a secondary storage device. The storage unit 32 stores arbitrary information and programs used for the operation of the information processing apparatus 30.

制御部33は、1つ以上のプロセッサを含む。制御部33は、情報処理装置30全体の動作を制御する。   The control unit 33 includes one or more processors. The control unit 33 controls the overall operation of the information processing apparatus 30.

例えば、制御部33は、情報生成装置20によって出力された撮像情報、距離情報、および輝度情報を、通信部31を介して取得する。制御部33は、撮像情報を用いる任意の処理を実行してもよい。例えば、制御部33は、情報生成装置20の制御部26に替わって、上述した視点変換処理等を実行してもよい。   For example, the control unit 33 acquires imaging information, distance information, and luminance information output by the information generation device 20 via the communication unit 31. The control unit 33 may execute an arbitrary process using the imaging information. For example, the control unit 33 may execute the above-described viewpoint conversion process or the like instead of the control unit 26 of the information generation device 20.

制御部33は、距離情報に基づいて異物検出処理を実行する。異物検出処理によって、例えば図2に示す光学部材21の表面領域210上に付着した異物が検出され得る。   The controller 33 executes a foreign object detection process based on the distance information. By the foreign object detection processing, for example, foreign objects attached on the surface region 210 of the optical member 21 shown in FIG. 2 can be detected.

具体的には、光学部材21に異物が付着している場合、情報生成装置20の第2情報生成部23から射出された電磁波は、当該異物で反射または散乱され得る。したがって、距離情報において、当該異物に相当する第2視野231上の領域の距離は、例えばゼロとなり得る。   Specifically, when a foreign object adheres to the optical member 21, the electromagnetic wave emitted from the second information generation unit 23 of the information generation device 20 can be reflected or scattered by the foreign object. Therefore, in the distance information, the distance of the region on the second visual field 231 corresponding to the foreign object can be, for example, zero.

制御部33は、距離情報において、距離が所定値以下である視野内の特定領域が検出されたか否かを判定する。所定値は、例えばゼロであってもよい。距離が所定値以下である視野内の特定領域が検出されたと判定された場合、制御部33は、光学部材21の表面領域210上に異物が検出されたと判定する。例えば図3において、検出された特定領域41の例が図示されている。一方、距離が所定値以下である視野内の特定領域41が検出されないと判定された場合、制御部33は、光学部材21の表面領域210上に異物が検出されないと判定する。   The control unit 33 determines whether or not a specific region in the field of view whose distance is equal to or less than a predetermined value is detected in the distance information. The predetermined value may be zero, for example. When it is determined that a specific area within the field of view whose distance is equal to or less than the predetermined value is detected, the control unit 33 determines that a foreign object has been detected on the surface area 210 of the optical member 21. For example, FIG. 3 shows an example of the detected specific area 41. On the other hand, when it is determined that the specific area 41 within the visual field whose distance is equal to or smaller than the predetermined value is not detected, the control unit 33 determines that no foreign matter is detected on the surface area 210 of the optical member 21.

上述した異物検出処理によって異物が検出されたと判定されると、制御部33は、距離情報および輝度情報に基づいて、異物分類処理を実行してもよい。異物分類処理によって、検出された異物が、例えば水、泥水、および泥の何れかに分類され得る。   If it is determined that a foreign object has been detected by the foreign object detection process described above, the control unit 33 may execute the foreign object classification process based on the distance information and the luminance information. By the foreign matter classification process, the detected foreign matter can be classified into, for example, water, muddy water, and mud.

具体的には、水による反射波または散乱波の強度は、射出された電磁波の強度から比較的大きく減衰し得る。泥水による反射波または散乱波の強度は、射出された電磁波の強度から減衰し得る。泥による反射波または散乱波の強度は、射出された電磁波の強度から殆ど減衰しない。このように、異物に含まれる水の割合に応じて、異物による反射波または散乱波の強度を減衰度合いが異なる。   Specifically, the intensity of the reflected wave or scattered wave by water can be attenuated relatively greatly from the intensity of the emitted electromagnetic wave. The intensity of the reflected or scattered wave by the muddy water can be attenuated from the intensity of the emitted electromagnetic wave. The intensity of the reflected or scattered wave by the mud is hardly attenuated from the intensity of the emitted electromagnetic wave. As described above, the degree of attenuation of the intensity of the reflected wave or the scattered wave by the foreign matter varies depending on the ratio of the water contained in the foreign matter.

制御部33は、上述の異物検出処理によって検出された、距離が所定値以下である視野内の特定領域41の輝度が、第1基準値未満であるか否かを判定する。特定領域41の輝度が第1基準値未満である場合、制御部33は、異物を水に分類する。一方、特定領域41の輝度が第1基準値以上である場合、制御部33は、特定領域41の輝度が第1基準値よりも大きい第2基準値未満であるか否かを判定する。特定領域41の輝度が第2基準値未満である場合、制御部33は、異物を泥水に分類する。一方、特定領域41の輝度が第2基準値以上である場合、制御部33は、異物を泥に分類する。第1基準値および第2基準値は、実験またはシミュレーションに基づいて予め定められてもよい。制御部33は、異物検出処理および異物分類処理の実行結果を、通信部31を介して出力してもよい。   The control unit 33 determines whether or not the luminance of the specific area 41 in the visual field whose distance is equal to or smaller than a predetermined value detected by the above-described foreign object detection processing is less than the first reference value. When the luminance of the specific area 41 is less than the first reference value, the control unit 33 classifies the foreign matter as water. On the other hand, when the luminance of the specific area 41 is equal to or higher than the first reference value, the control unit 33 determines whether the luminance of the specific area 41 is less than the second reference value that is larger than the first reference value. When the luminance of the specific area 41 is less than the second reference value, the control unit 33 classifies the foreign matter as muddy water. On the other hand, when the brightness | luminance of the specific area | region 41 is more than a 2nd reference value, the control part 33 classifies a foreign material into mud. The first reference value and the second reference value may be determined in advance based on experiments or simulations. The control unit 33 may output the execution result of the foreign object detection process and the foreign object classification process via the communication unit 31.

制御部33は、撮像情報に含まれる一部の第1画素を、距離情報に基づいて特定する。具体的には、制御部33は、撮像情報に含まれる複数の第1画素のうち、上述の異物検出処理によって検出された、距離が所定値以下である視野内の特定領域41に相当する第1画素を特定する。   The control unit 33 specifies a part of the first pixels included in the imaging information based on the distance information. Specifically, the control unit 33 corresponds to the specific region 41 in the field of view whose distance is equal to or smaller than a predetermined value, which is detected by the above-described foreign object detection process, among the plurality of first pixels included in the imaging information. One pixel is specified.

制御部33は、特定された第1画素を除く撮像情報を用いて、所定の処理を実行する。当該処理は、例えば画像認識処理を含んでもよい。画像認識処理によって、例えば人および車両等の対象が認識され得る。画像認識処理御には、任意のアルゴリズムが採用可能である。制御部33は、当該処理の実行結果を、通信部31を介して出力してもよい。   The control unit 33 executes a predetermined process using the imaging information excluding the identified first pixel. The process may include an image recognition process, for example. Objects such as people and vehicles can be recognized by the image recognition processing. Any algorithm can be used for the image recognition processing. The control unit 33 may output the execution result of the process via the communication unit 31.

図4を参照して、情報処理システム10の動作について説明する。本動作は、例えば周期的に繰り返し実行されてもよい。   The operation of the information processing system 10 will be described with reference to FIG. This operation may be repeatedly executed, for example, periodically.

ステップS100:情報生成装置20は、第1視野221の撮像情報、第2視野231の距離情報、および第2視野231の輝度情報を生成する。   Step S100: The information generation device 20 generates imaging information of the first visual field 221, distance information of the second visual field 231, and luminance information of the second visual field 231.

ステップS101:情報生成装置20は、生成された撮像情報、距離情報、および輝度情報を情報処理装置30へ出力する。   Step S101: The information generation device 20 outputs the generated imaging information, distance information, and luminance information to the information processing device 30.

ステップS102:情報処理装置30は、撮像情報、距離情報、および輝度情報を取得する。   Step S102: The information processing apparatus 30 acquires imaging information, distance information, and luminance information.

ステップS103:情報処理装置30は、距離情報に基づいて異物検出処理を実行する。異物検出処理によって、異物が検出されたか否かが判定される。異物検出処理を実行する情報処理装置30の動作については後述する。   Step S103: The information processing apparatus 30 performs a foreign object detection process based on the distance information. It is determined whether or not a foreign object has been detected by the foreign object detection process. The operation of the information processing apparatus 30 that executes the foreign object detection process will be described later.

ステップS104:情報処理装置30は、距離情報および輝度情報に基づいて異物分類処理を実行する。異物分類処理によって、検出された異物が分類される。異物分類処理を実行する情報処理装置30の動作については後述する。   Step S104: The information processing apparatus 30 executes the foreign substance classification process based on the distance information and the luminance information. The detected foreign matter is classified by the foreign matter classification process. The operation of the information processing apparatus 30 that executes the foreign substance classification process will be described later.

ステップS105:情報処理装置30は、撮像情報に含まれる一部の第1画素を、距離情報に基づいて特定する。   Step S105: The information processing apparatus 30 specifies some first pixels included in the imaging information based on the distance information.

ステップS106:情報処理装置30は、特定された第1画素を除く撮像情報を用いて、所定の処理を実行する。   Step S106: The information processing apparatus 30 executes a predetermined process using the imaging information excluding the identified first pixel.

図5を参照して、上述した異物検出処理および異物分類処理を実行する情報処理装置30の動作について説明する。   With reference to FIG. 5, the operation of the information processing apparatus 30 that executes the foreign object detection process and the foreign object classification process described above will be described.

ステップS200:制御部33は、距離情報において、距離が所定値以下である視野内の特定領域41が検出されたか否かを判定する。特定領域41が検出されたと判定された場合(ステップS200−Yes)、プロセスはステップS202に進む。一方、特定領域41が検出されないと判定された場合(ステップS200−No)、プロセスはステップS201に進む。   Step S200: The control unit 33 determines whether or not the specific area 41 in the visual field whose distance is equal to or smaller than a predetermined value is detected in the distance information. If it is determined that the specific area 41 is detected (step S200—Yes), the process proceeds to step S202. On the other hand, when it is determined that the specific area 41 is not detected (step S200-No), the process proceeds to step S201.

ステップS201:制御部33は、光学部材21の表面領域210上に異物が検出されないと判定する。   Step S201: The controller 33 determines that no foreign matter is detected on the surface area 210 of the optical member 21.

ステップS202:制御部33は、光学部材21の表面領域210上に異物が検出されたと判定する。   Step S202: The controller 33 determines that a foreign object has been detected on the surface region 210 of the optical member 21.

ステップS203:制御部33は、ステップS200で検出された特定領域41の輝度が、第1基準値未満であるか否かを判定する。輝度が第1基準値未満であると判定された場合(ステップS203−Yes)、プロセスはステップS204に進む。一方、輝度が第1基準値以上であると判定された場合(ステップS203−No)、プロセスはステップS205に進む。   Step S203: The control unit 33 determines whether or not the luminance of the specific area 41 detected in step S200 is less than the first reference value. When it is determined that the luminance is less than the first reference value (step S203—Yes), the process proceeds to step S204. On the other hand, when it is determined that the luminance is equal to or higher than the first reference value (step S203—No), the process proceeds to step S205.

ステップS204:制御部33は、ステップS202で検出された異物を水に分類する。   Step S204: The control unit 33 classifies the foreign matter detected in step S202 as water.

ステップS205:制御部33は、ステップS200で検出された特定領域41の輝度が、第1基準値よりも大きい第2基準値未満であるか否かを判定する。輝度が第2基準値未満であると判定された場合(ステップS205−Yes)、プロセスはステップS206に進む。一方、輝度が第2基準値以上であると判定された場合(ステップS205−No)、プロセスはステップS207に進む。   Step S205: The control unit 33 determines whether or not the luminance of the specific area 41 detected in step S200 is less than a second reference value that is greater than the first reference value. If it is determined that the luminance is less than the second reference value (step S205—Yes), the process proceeds to step S206. On the other hand, when it is determined that the luminance is greater than or equal to the second reference value (step S205—No), the process proceeds to step S207.

ステップS206:制御部33は、ステップS202で検出された異物を泥水に分類する。   Step S206: The control unit 33 classifies the foreign matter detected in step S202 as muddy water.

ステップS207:制御部33は、ステップS202で検出された異物を泥に分類する。   Step S207: The control unit 33 classifies the foreign matter detected in step S202 as mud.

上記のステップS200〜S202は、異物検出処理に相当する。ステップS203〜S207が、異物分類処理に相当する。   Said step S200-S202 is corresponded to a foreign material detection process. Steps S203 to S207 correspond to foreign object classification processing.

以上述べたように、一実施形態に係る情報処理装置30は、所定の視野の撮像情報および距離情報を取得する。情報処理装置30は、撮像情報に含まれる複数の第1画素のうち一部の第1画素を、距離情報に基づいて特定する。情報処理装置30は、特定された第1画素を除く撮像情報を用いて所定の処理を実行する。かかる構成によれば、距離情報に基づいて、例えば当該処理にとって適切でない第1画素が排除され得る。このため、撮像情報を用いる当該処理の実行結果の精度が向上し得る。したがって、撮像情報を利用する技術の利便性が向上する。   As described above, the information processing apparatus 30 according to an embodiment acquires imaging information and distance information of a predetermined visual field. The information processing apparatus 30 specifies some first pixels among the plurality of first pixels included in the imaging information based on the distance information. The information processing apparatus 30 performs a predetermined process using the imaging information excluding the identified first pixel. According to this configuration, for example, the first pixel that is not appropriate for the processing can be excluded based on the distance information. For this reason, the precision of the execution result of the said process using imaging information can improve. Therefore, the convenience of the technique using the imaging information is improved.

例えば、光学部材21の表面領域210上に異物が付着している場合、撮像情報において当該異物に相当する第1画素は、上述した処理において必ずしも適切ではない。一方、距離情報において当該異物に相当する第2画素は、極端に短い距離を示す蓋然性が高い。情報処理装置30は、距離情報に基づいて距離が所定値以下である視野内の特定領域41が検出されると、撮像情報において特定領域41に相当する第1画素を上述した一部の第1画素として特定してもよい。かかる構成によれば、当該異物に相当する第1画素が、上述の処理において排除され得る。このため、撮像情報を用いる当該処理の実行結果の精度が向上し得る。したがって、撮像情報を利用する技術の利便性が向上する。   For example, when a foreign substance adheres on the surface region 210 of the optical member 21, the first pixel corresponding to the foreign substance in the imaging information is not necessarily appropriate in the above-described processing. On the other hand, the second pixel corresponding to the foreign object in the distance information has a high probability of indicating an extremely short distance. When the specific area 41 in the field of view whose distance is equal to or smaller than a predetermined value is detected based on the distance information, the information processing apparatus 30 sets the first pixel corresponding to the specific area 41 in the imaging information to the first portion described above. You may specify as a pixel. According to such a configuration, the first pixel corresponding to the foreign object can be excluded in the above-described processing. For this reason, the precision of the execution result of the said process using imaging information can improve. Therefore, the convenience of the technique using the imaging information is improved.

本開示の実施形態について諸図面を参照して説明してきたが、当業者であれば本開示に基づき種々の変形または修正を行うことが容易であることに注意されたい。したがって、これらの変形または修正は本開示の範囲に含まれることに留意されたい。例えば、各手段、または各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能である。例えば、複数の手段またはステップ等を1つに組み合わせたり、あるいは分割したりすることが可能である。   Although the embodiments of the present disclosure have been described with reference to the drawings, it should be noted that those skilled in the art can easily make various variations or modifications based on the present disclosure. Accordingly, it should be noted that these variations or modifications are included in the scope of the present disclosure. For example, the functions included in each means or each step can be rearranged so that there is no logical contradiction. For example, a plurality of means or steps can be combined into one or divided.

例えば、上述した一実施形態に係る情報生成装置20および情報処理装置30それぞれが、2つ以上の装置に分割されてもよい。情報生成装置20および情報処理装置30が、1つの装置に統合されてもよい。   For example, each of the information generation device 20 and the information processing device 30 according to the embodiment described above may be divided into two or more devices. The information generation device 20 and the information processing device 30 may be integrated into one device.

上述した実施形態において、異物分類処理によって、異物が水、泥水、または泥の3つの項目に分類される例について説明した。しかしながら、分類される項目の内容および項目数は、上述した例に限られない。例えば、任意の第1物質と、第1物質と比較して電磁波の強度を減衰させる任意の第2物質と、の組み合わせに基づいて、分類される項目の内容および項目数が任意に定められてもよい。   In the embodiment described above, the example in which the foreign matter is classified into three items of water, muddy water, and mud by the foreign matter classification process has been described. However, the contents of items to be classified and the number of items are not limited to the example described above. For example, the content and the number of items to be classified are arbitrarily determined based on a combination of an arbitrary first substance and an arbitrary second substance that attenuates the intensity of electromagnetic waves compared to the first substance. Also good.

上述した一実施形態に係る情報処理装置30として、例えば汎用のコンピュータ等、情報処理機能を有する任意の装置が採用可能である。例えば、実施形態に係る情報処理装置30の各機能を実現する処理内容を記述したプログラムを、当該装置のメモリに格納し、当該装置のプロセッサに実行させる。したがって、本開示の実施形態はプログラムとしても実現可能である。   As the information processing apparatus 30 according to the above-described embodiment, any apparatus having an information processing function such as a general-purpose computer can be employed. For example, a program describing processing contents for realizing each function of the information processing apparatus 30 according to the embodiment is stored in the memory of the apparatus and is executed by the processor of the apparatus. Therefore, the embodiment of the present disclosure can also be realized as a program.

10 情報処理システム
20 情報生成装置
21 光学部材
210 表面領域
22 第1情報生成部
220 光軸
221 第1視野
23 第2情報生成部
230 光軸
231 第2視野
24 通信部
25 記憶部
26 制御部
30 情報処理装置
31 通信部
32 記憶部
33 制御部
40 重複領域
41 特定領域
DESCRIPTION OF SYMBOLS 10 Information processing system 20 Information generation apparatus 21 Optical member 210 Surface area 22 1st information generation part 220 Optical axis 221 1st visual field 23 2nd information generation part 230 Optical axis 231 2nd visual field 24 Communication part 25 Storage part 26 Control part 30 Information processing apparatus 31 Communication unit 32 Storage unit 33 Control unit 40 Overlapping area 41 Specific area

Claims (11)

所定の視野の撮像情報および前記視野の距離情報を取得する通信部と、
前記撮像情報に含まれる複数の画素のうち一部の画素を前記距離情報に基づいて特定し、特定された前記一部の画素を除く前記撮像情報を用いて所定の処理を実行する制御部と、
を備える、情報処理装置。
A communication unit for acquiring imaging information of a predetermined visual field and distance information of the visual field;
A control unit that identifies a part of the plurality of pixels included in the imaging information based on the distance information, and executes a predetermined process using the imaging information excluding the identified part of the pixel; ,
An information processing apparatus comprising:
請求項1に記載の情報処理装置であって、
前記制御部は、前記距離情報に基づいて距離が所定値以下である前記視野内の領域が検出されると、前記撮像情報において前記視野内の前記領域に相当する画素を前記一部の画素として特定する、情報処理装置。
The information processing apparatus according to claim 1,
When the area within the field of view whose distance is equal to or less than a predetermined value is detected based on the distance information, the control unit sets pixels corresponding to the area within the field of view as the partial pixels in the imaging information. An information processing apparatus to be identified.
請求項1または2に記載の情報処理装置であって、
前記制御部は、前記距離情報に基づいて距離が所定値以下である前記視野内の領域が検出されると、異物が検出されたと判定する、情報処理装置。
The information processing apparatus according to claim 1, wherein:
The control unit determines that a foreign object has been detected when a region within the field of view whose distance is equal to or less than a predetermined value is detected based on the distance information.
請求項3に記載の情報処理装置であって、
前記制御部は、前記異物が、前記撮像情報を生成する第1情報生成部と前記距離情報を生成する第2情報生成部とで共有される光学部材に付着した異物であると判定する、情報処理装置。
The information processing apparatus according to claim 3,
The control unit determines that the foreign matter is a foreign matter attached to an optical member shared by a first information generation unit that generates the imaging information and a second information generation unit that generates the distance information. Processing equipment.
請求項4に記載の情報処理装置であって、
前記光学部材は、筐体窓、レンズ、ミラー、フィルタ、カバー、およびガラスの少なくとも1つを含む、情報処理装置。
The information processing apparatus according to claim 4,
The information processing apparatus, wherein the optical member includes at least one of a housing window, a lens, a mirror, a filter, a cover, and glass.
請求項3から5のいずれか一項に記載の情報処理装置であって、
前記通信部は、前記視野の輝度情報を更に取得し、
前記制御部は、前記距離情報および前記輝度情報に基づいて前記異物を分類する、情報処理装置。
An information processing apparatus according to any one of claims 3 to 5,
The communication unit further acquires luminance information of the visual field,
The control unit is an information processing apparatus that classifies the foreign matter based on the distance information and the luminance information.
請求項6に記載の情報処理装置であって、
前記距離情報に示される距離は、光源から電磁波が射出されてから前記電磁波の反射波または散乱波が検出されるまでの時間差に基づいて決定され、
前記輝度情報に示される輝度は、前記電磁波の前記反射波または前記散乱波の強度に基づいて決定される、情報処理装置。
The information processing apparatus according to claim 6,
The distance indicated in the distance information is determined based on a time difference from when an electromagnetic wave is emitted from a light source to when a reflected wave or scattered wave of the electromagnetic wave is detected,
The luminance indicated by the luminance information is an information processing apparatus that is determined based on the intensity of the reflected wave or the scattered wave of the electromagnetic wave.
請求項7に記載の情報処理装置であって、
前記電磁波は、赤外光を含む、情報処理装置。
The information processing apparatus according to claim 7,
The information processing apparatus, wherein the electromagnetic wave includes infrared light.
請求項8に記載の情報処理装置であって、
前記電磁波は、近赤外光または遠赤外光を含む、情報処理装置。
The information processing apparatus according to claim 8,
The electromagnetic wave includes information processing apparatus including near infrared light or far infrared light.
情報処理装置に、
所定の視野の撮像情報および前記視野の距離情報を取得するステップと、
前記撮像情報に含まれる複数の画素のうち一部の画素を前記距離情報に基づいて特定するステップと、
特定された前記一部の画素を除く前記撮像情報を用いて所定の処理を実行するステップと、
を実行させる、プログラム。
In the information processing device,
Obtaining imaging information of a predetermined visual field and distance information of the visual field;
Identifying some of the plurality of pixels included in the imaging information based on the distance information;
Executing a predetermined process using the imaging information excluding the identified some pixels;
A program that executes
所定の視野の撮像情報および前記視野の距離情報を生成する情報生成装置と、
前記撮像情報に含まれる複数の画素のうち一部の画素を前記距離情報に基づいて特定し、特定された前記一部の画素を除く前記撮像情報を用いて所定の処理を実行する情報処理装置と、
を備える、情報処理システム。
An information generating device for generating imaging information of a predetermined visual field and distance information of the visual field;
An information processing apparatus that identifies a part of a plurality of pixels included in the imaging information based on the distance information and executes a predetermined process using the imaging information excluding the identified part of the pixel When,
An information processing system comprising:
JP2017135634A 2017-07-11 2017-07-11 Information processor, program, and information processing system Pending JP2019020139A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017135634A JP2019020139A (en) 2017-07-11 2017-07-11 Information processor, program, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017135634A JP2019020139A (en) 2017-07-11 2017-07-11 Information processor, program, and information processing system

Publications (1)

Publication Number Publication Date
JP2019020139A true JP2019020139A (en) 2019-02-07

Family

ID=65353933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017135634A Pending JP2019020139A (en) 2017-07-11 2017-07-11 Information processor, program, and information processing system

Country Status (1)

Country Link
JP (1) JP2019020139A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022186225A1 (en) * 2021-03-02 2022-09-09 京セラ株式会社 Electromagnetic-wave detection device and moving body

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022186225A1 (en) * 2021-03-02 2022-09-09 京セラ株式会社 Electromagnetic-wave detection device and moving body

Similar Documents

Publication Publication Date Title
TWI565323B (en) Imaging device for distinguishing foreground and operating method thereof, and image sensor
CN111982023B (en) Image capturing device assembly, three-dimensional shape measuring device, and motion detecting device
TW201540066A (en) Image sensor modules including primary high-resolution imagers and secondary imagers
CN106210698B (en) The control method of depth camera
JP2019200773A (en) Object detection system, autonomous running vehicle using the same, and method for detecting object by the same
US20140028861A1 (en) Object detection and tracking
JP6363804B2 (en) Infrared imaging device, control method therefor, and vehicle
WO2018040483A1 (en) Illumination processing method and apparatus
JP6459194B2 (en) Projector and projected image control method
KR102114969B1 (en) Optical device and method for generating depth information
JP2015069369A (en) Operation input device, operation input method, and program
TWI577971B (en) Dual-aperture ranging system
JP2019020139A (en) Information processor, program, and information processing system
JP2016070774A (en) Parallax value derivation device, moving body, robot, parallax value production method and program
WO2017017896A1 (en) Image processing device, image capture device, driver monitoring system, mobile body, and image processing method
CN111856866A (en) Projection device and operation method thereof
JP6322723B2 (en) Imaging apparatus and vehicle
JP7262064B2 (en) Ranging Imaging System, Ranging Imaging Method, and Program
JP2019008609A (en) Information processing apparatus, program, and information processing system
JP2020515100A (en) Vignetting compensation
JP2018191049A (en) Imaging apparatus and adjustment method thereof
US20210160476A1 (en) Stereo Camera, Onboard Lighting Unit, and Stereo Camera System
JP2004325202A (en) Laser radar system
JP2012198337A (en) Imaging apparatus
JP2019020142A (en) Information processor, program, and information processing system