JP2013195185A - Object detector, object detection method, and program - Google Patents

Object detector, object detection method, and program Download PDF

Info

Publication number
JP2013195185A
JP2013195185A JP2012061596A JP2012061596A JP2013195185A JP 2013195185 A JP2013195185 A JP 2013195185A JP 2012061596 A JP2012061596 A JP 2012061596A JP 2012061596 A JP2012061596 A JP 2012061596A JP 2013195185 A JP2013195185 A JP 2013195185A
Authority
JP
Japan
Prior art keywords
data
correction
object detection
determination
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012061596A
Other languages
Japanese (ja)
Other versions
JP5561795B2 (en
Inventor
Sumito Akiba
澄人 秋葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC System Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC System Technologies Ltd filed Critical NEC System Technologies Ltd
Priority to JP2012061596A priority Critical patent/JP5561795B2/en
Publication of JP2013195185A publication Critical patent/JP2013195185A/en
Application granted granted Critical
Publication of JP5561795B2 publication Critical patent/JP5561795B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an object detector, an object detection method, and a program which can accurately detect the existence or nonexistence of a detection object without being affected by a color of the object.SOLUTION: An object detector 102 comprises: a sensor data acquisition section 103; an image data acquisition section 104; and a correction determination section 105. The sensor data acquisition section 103 acquires sensor data from an infrared sensor 106 detecting infrared which is applied to a determination area a1 and which is reflected. The image data acquisition section 104 acquires image data of the determination area a1. The correction determination section 105 corrects the sensor data on the basis of the image data, and determines whether or not an object exists in the determination area a1 by using the corrected sensor data.

Description

本発明は、所定の判定領域に物体が存在しているか否かを検出する、物体検出装置、物体検出方法、およびプログラムに関する。   The present invention relates to an object detection apparatus, an object detection method, and a program for detecting whether or not an object exists in a predetermined determination area.

近年の、パソコンなどの電子機器の多くは、省電力機能を有する。この省電力機能の一例として、ユーザが電子機器を使用していないときの消費電力を下げる機能が挙げられる。例えばパソコンの場合、一定時間入力がないと、まず、画面の電源がオフとなる。   In recent years, many electronic devices such as personal computers have a power saving function. As an example of this power saving function, there is a function of reducing power consumption when the user is not using an electronic device. For example, in the case of a personal computer, if there is no input for a certain period of time, the screen is first turned off.

また、最近では、ユーザの存在を検出するための赤外線センサ等のセンサを搭載した電子機器が登場してきている(たとえば、特許文献1〜4参照)。特許文献1,2に記載の電子機器は、センサの検出結果に応じて、ユーザが機器の前にいるか否かを判定する。即ち、在席しているか、離席しているかが、センサによって検出される。ユーザが電子機器の前の座席から離席しているときは、電子機器は、省電力モードに移行する。一方、ユーザが電子機器の前の座席に座っている場合には、電子機器は、省電力モードを解除する。   Recently, electronic devices equipped with a sensor such as an infrared sensor for detecting the presence of a user have appeared (for example, see Patent Documents 1 to 4). The electronic devices described in Patent Literatures 1 and 2 determine whether the user is in front of the device according to the detection result of the sensor. That is, whether the user is present or away is detected by the sensor. When the user is away from the seat in front of the electronic device, the electronic device shifts to the power saving mode. On the other hand, when the user is sitting on the seat in front of the electronic device, the electronic device cancels the power saving mode.

特開2011−257996号公報JP2011-257996A 特開2011−202987号公報JP 2011-202987 A 特開2010−160114号公報JP 2010-160114 A 特開平5−164555号公報JP-A-5-164555

赤外線センサは、たとえば、赤外線を発射する発光素子と、物体で反射された赤外線を受光する受光素子と、を有している。この赤外線センサは、センサと、赤外線を反射した物体との距離を、距離データ(受光量データ)として取得する。そして、電子機器では、この距離データを用いて、ユーザが在席しているか、離席しているかを判断する。しかしながら、この赤外線センサは、対象物の色に起因して、距離データにばらつきがある。例えば、ユーザと電子機器との距離が一定である場合でも、ユーザが白い服を着ている場合と、ユーザが黒い服を着ている場合とで、赤外線センサの距離データは、異なる。   The infrared sensor has, for example, a light emitting element that emits infrared rays and a light receiving element that receives infrared rays reflected by an object. This infrared sensor acquires the distance between the sensor and an object that reflects infrared rays as distance data (received light amount data). Then, the electronic device uses this distance data to determine whether the user is present or away. However, this infrared sensor has variations in distance data due to the color of the object. For example, even when the distance between the user and the electronic device is constant, the distance data of the infrared sensor is different when the user is wearing white clothes and when the user is wearing black clothes.

具体的には、光の反射率の高い色としての白色の服をユーザが着ている場合には、受光素子に入射される光の強さは、大きい。このため、赤外線センサで検出される、ユーザと電子機器との距離は、実際の値に近くなる。   Specifically, when the user wears white clothes as a color having a high light reflectance, the intensity of light incident on the light receiving element is large. For this reason, the distance between the user and the electronic device detected by the infrared sensor is close to the actual value.

一方、光の反射率の低い色としての黒色の服をユーザが着ている場合には、受光素子に入射される光の強さは、小さい。このため、赤外線センサで検出される、ユーザと電子機器との距離は、実際より大きくなる場合がある。このため、実際には、ユーザが電子機器の前方に在席しているにもかかわらず、黒い服を着ているため離席と判断される場合がある。すなわち、在席/離席判定が正しく行えない場合がある。   On the other hand, when the user wears black clothes having a low light reflectance, the intensity of light incident on the light receiving element is small. For this reason, the distance between the user and the electronic device detected by the infrared sensor may be larger than the actual distance. For this reason, although the user is actually present in front of the electronic device, the user may be judged to be away from the seat because he is wearing black clothes. That is, the presence / absence determination may not be performed correctly.

特許文献1〜4に記載の構成では、いずれも、センサは、色を識別する構成となっていない。このため、上述した、物体の色に起因する、センサの検出結果のずれを正確に補正することに限界があり、在席判定の正確さに限界がある。   In any of the configurations described in Patent Documents 1 to 4, the sensor is not configured to identify a color. For this reason, there is a limit to correct the deviation of the detection result of the sensor due to the color of the object, and there is a limit to the accuracy of the presence determination.

本発明の目的の一例は、上記問題を解消し、物体の色の影響を受けること無く、物体の存在または不存在を正確に検出し得る、物体検出装置、物体検出方法、およびプログラムを提供することにある。   An example of an object of the present invention provides an object detection device, an object detection method, and a program that can accurately detect the presence or absence of an object without the influence of the color of the object, eliminating the above problem. There is.

上記目的を達成するため、本発明の一側面における物体検出装置は、
所定の判定領域に照射され、反射された前記赤外線を検出する赤外線センサから、前記赤外線の検出結果を特定するセンサデータを取得する、センサデータ取得部と、
前記判定領域の画像データを取得する、画像データ取得部と、
前記画像データに基づいて、前記センサデータを補正し、補正した前記センサデータを用いて、前記判定領域に物体が存在しているか否かを判定する、補正判定部と、
を備えていることを特徴とする。
In order to achieve the above object, an object detection apparatus according to one aspect of the present invention includes:
A sensor data acquisition unit that acquires sensor data that identifies the detection result of the infrared ray from an infrared sensor that detects the infrared ray that is irradiated and reflected on a predetermined determination region;
An image data acquisition unit for acquiring image data of the determination region;
A correction determination unit that corrects the sensor data based on the image data, and determines whether or not an object exists in the determination region using the corrected sensor data;
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における物体検出方法は、
(a)所定の判定領域に照射され、反射された前記赤外線を検出する赤外線センサから、前記赤外線の検出結果を特定するセンサデータを取得するステップと、
(b)前記判定領域の画像データを取得するステップと、
(c)前記画像データに基づいて、前記センサデータを補正し、補正した前記センサデータを用いて、前記判定領域に物体が存在しているか否かを判定するステップと、
を含むことを特徴とする。
In order to achieve the above object, an object detection method according to one aspect of the present invention includes:
(A) acquiring sensor data for specifying the detection result of the infrared ray from an infrared sensor that detects the reflected infrared ray that has been irradiated and reflected on a predetermined determination region;
(B) obtaining image data of the determination area;
(C) correcting the sensor data based on the image data, and determining whether an object exists in the determination region using the corrected sensor data;
It is characterized by including.

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、コンピュータに、
(a)所定の判定領域に照射され、反射された前記赤外線を検出する赤外線センサから、前記赤外線の検出結果を特定するセンサデータを取得するステップと、
(b)前記判定領域の画像データを取得するステップと、
(c)前記画像データに基づいて、前記センサデータを補正し、補正した前記センサデータを用いて、前記判定領域に物体が存在しているか否かを判定するステップと、
を実行させることを特徴とする。
In order to achieve the above object, a program according to one aspect of the present invention is stored in a computer.
(A) acquiring sensor data for specifying the detection result of the infrared ray from an infrared sensor that detects the reflected infrared ray that has been irradiated and reflected on a predetermined determination region;
(B) obtaining image data of the determination area;
(C) correcting the sensor data based on the image data, and determining whether an object exists in the determination region using the corrected sensor data;
Is executed.

以上のように、本発明によれば、検出対象物の色の影響を受けること無く、検出対象物の存在または不存在を正確に検出し得る。   As described above, according to the present invention, the presence or absence of a detection target can be accurately detected without being affected by the color of the detection target.

本発明の実施の形態における物体検出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the object detection system in embodiment of this invention. 物体検出システムの模式的な側面図であり、物体検出システムの前方の判定領域に人が在席している状態を示している。It is a typical side view of an object detection system, and has shown the state where a person is present in the judgment field ahead of an object detection system. 撮影部が撮影した画像の一例を示す図である。It is a figure which shows an example of the image which the imaging | photography part image | photographed. 各明度と画素数との関係を示すヒストグラムである。It is a histogram which shows the relationship between each brightness and the number of pixels. 補正値テーブルについて説明するための図である。It is a figure for demonstrating a correction value table. 本発明の実施の形態における物体検出システムの動作を示すフロー図である。It is a flowchart which shows operation | movement of the object detection system in embodiment of this invention. 基準明度の算出の流れを説明するためのフロー図である。It is a flowchart for demonstrating the flow of calculation of reference | standard lightness. 本発明の実施の形態における物体検出装置を実現するコンピュータの一例を示すブロック図である。It is a block diagram which shows an example of the computer which implement | achieves the object detection apparatus in embodiment of this invention.

以下、本発明の実施の形態における物体検出装置、物体検出方法、およびプログラムについて、図面を参照しながら説明する。   Hereinafter, an object detection device, an object detection method, and a program according to an embodiment of the present invention will be described with reference to the drawings.

[全体構成]
最初に、本発明の実施の形態における物体検出装置を含む物体検出システムの構成について図1を用いて説明する。図1は、本発明の実施の形態における物体検出システム101の構成を示すブロック図である。
[overall structure]
First, the configuration of an object detection system including an object detection device according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of an object detection system 101 according to an embodiment of the present invention.

図1に示すように、物体検出システム101は、物体検出装置102を備えている。物体検出装置102は、物体検出システム101の周囲に、人が存在しているか否か、すなわち、人が在席しているか否かを判定する。物体検出装置102は、センサデータ取得部103と、画像データ取得部104と、補正判定部105と、を備えている。   As shown in FIG. 1, the object detection system 101 includes an object detection device 102. The object detection device 102 determines whether or not a person is present around the object detection system 101, that is, whether or not a person is present. The object detection apparatus 102 includes a sensor data acquisition unit 103, an image data acquisition unit 104, and a correction determination unit 105.

センサデータ取得部103は、物体検出システム101に備えられている赤外線センサ106からセンサデータを取得する。赤外線センサ106は、所定の判定領域a1(後述する図2参照)に赤外線を照射し、反射された上記赤外線を検出することにより、赤外線の検出結果を特定するセンサデータを生成する。センサデータは、距離データを含んでいる。距離データは、赤外線センサ106からの赤外線が反射した位置と、赤外線センサ106との距離を特定するデータである。   The sensor data acquisition unit 103 acquires sensor data from the infrared sensor 106 provided in the object detection system 101. The infrared sensor 106 irradiates a predetermined determination area a1 (see FIG. 2 described later) with infrared rays, and detects the reflected infrared rays, thereby generating sensor data specifying the detection result of the infrared rays. The sensor data includes distance data. The distance data is data for specifying the distance between the infrared sensor 106 and the position where the infrared ray from the infrared sensor 106 is reflected.

赤外線センサ106の距離データが示す値d1(以下、距離データの値d1ともいう)が大きいほど、赤外線センサ106からの赤外線が反射した位置と、赤外線センサ106との距離は、近い。なお、距離データは、赤外線センサ106による受光量を示すデータである。   The greater the value d1 (hereinafter also referred to as the distance data value d1) indicated by the distance data of the infrared sensor 106, the closer the distance from the infrared sensor 106 to the position where the infrared light is reflected from the infrared sensor 106. The distance data is data indicating the amount of light received by the infrared sensor 106.

画像データ取得部104は、上記判定領域a1を撮影した画像データを、撮影部107から取得する。画像データは、カラー画像データである。   The image data acquisition unit 104 acquires image data obtained by shooting the determination area a1 from the shooting unit 107. The image data is color image data.

補正判定部105は、画像データに基づいて、センサデータを補正する。補正判定部105は、補正したセンサデータを用いて、上記判定領域a1に人が存在しているか否かを判定する。   The correction determination unit 105 corrects the sensor data based on the image data. The correction determination unit 105 determines whether or not there is a person in the determination area a1 using the corrected sensor data.

以上説明したように、本実施の形態では、判定領域a1に人が存在しているか否かを判定するためのセンサデータは、画像データに基づいて補正される。このように、画像データを用いることで、上記判定領域a1の明度情報を得ることができる。このため、人が着ている服の色など、色の違いに起因して異なるセンサデータを生成する、赤外線センサ106からのセンサデータ(距離データ)を、画像データの明度データに基づいて、補正することができる。このため、赤外線センサ106を用いた、人の存在の有無の判定を、より正確に行うことができる。その結果、色の影響を受けること無く、人の存在または不存在を正確に検出し得る。   As described above, in the present embodiment, sensor data for determining whether or not a person is present in the determination area a1 is corrected based on the image data. As described above, by using the image data, the brightness information of the determination area a1 can be obtained. Therefore, the sensor data (distance data) from the infrared sensor 106 that generates different sensor data due to the difference in color such as the color of clothes worn by a person is corrected based on the brightness data of the image data. can do. For this reason, it is possible to more accurately determine the presence or absence of a person using the infrared sensor 106. As a result, the presence or absence of a person can be accurately detected without being affected by the color.

以上が、物体検出装置102の概略説明である。次に、物体検出システム101の、より具体的な構成を、図1に加え、図2〜図7を用いて説明する。図2は、物体検出システム101の模式的な側面図であり、物体検出システム101の前方の判定領域a1に人Hが在席している状態を示している。   The above is a schematic description of the object detection apparatus 102. Next, a more specific configuration of the object detection system 101 will be described with reference to FIGS. 2 to 7 in addition to FIG. FIG. 2 is a schematic side view of the object detection system 101, and shows a state where a person H is present in the determination area a1 in front of the object detection system 101. FIG.

図1および図2に示すように、本実施の形態では、物体検出システム101として、パーソナルコンピュータ等を例示することができる。本実施の形態では、物体検出システム101がノート型のパーソナルコンピュータ(ノートパソコン)である場合に即して説明する。   As shown in FIGS. 1 and 2, in the present embodiment, a personal computer or the like can be exemplified as the object detection system 101. In the present embodiment, a case will be described in which the object detection system 101 is a notebook personal computer (notebook personal computer).

本実施の形態では、物体検出システム101は、物体検出装置102と、赤外線センサ106と、撮影部107と、表示部108と、を備えている。   In the present embodiment, the object detection system 101 includes an object detection device 102, an infrared sensor 106, an imaging unit 107, and a display unit 108.

本実施の形態では、表示部108は、電力制御対象であり、液晶ディスプレイなどである。   In the present embodiment, display unit 108 is a power control target and is a liquid crystal display or the like.

本実施の形態では、赤外線センサ106は、物体検出システム101の筐体110に固定されており、表示部108の上方に配置されている。本実施の形態では、赤外線センサ106は、いわゆるアクティブ型の赤外線センサであり、発光素子と、受光素子とを含んでいる。発光素子は、赤外線を、物体検出システム101の前方の判定領域a1に発射する。受光素子は、赤外線を受ける。   In the present embodiment, the infrared sensor 106 is fixed to the housing 110 of the object detection system 101 and is disposed above the display unit 108. In the present embodiment, the infrared sensor 106 is a so-called active infrared sensor, and includes a light emitting element and a light receiving element. The light emitting element emits infrared rays to the determination area a1 in front of the object detection system 101. The light receiving element receives infrared rays.

本実施の形態では、判定領域a1に人Hが在席している場合、赤外線センサ106の発光素子からの赤外線は、人Hで反射され、赤外線センサ106の受光素子に入射される。一方、判定領域a1に人Hが在席していない場合、赤外線センサ106の発光素子からの赤外線は、椅子または壁などで反射され、赤外線センサ106の受光素子に入射される。なお、判定領域a1は、物体検出システム101の前方に設定されており、たとえば、赤外線センサ106から1m程度の範囲内に設定される。本実施の形態では、赤外線センサ106に隣接するようにして、撮影部107が配置されている。   In the present embodiment, when the person H is present in the determination area a <b> 1, the infrared light from the light emitting element of the infrared sensor 106 is reflected by the person H and is incident on the light receiving element of the infrared sensor 106. On the other hand, when the person H is not present in the determination area a1, the infrared light from the light emitting element of the infrared sensor 106 is reflected by a chair or a wall and is incident on the light receiving element of the infrared sensor 106. The determination area a1 is set in front of the object detection system 101, and is set within a range of about 1 m from the infrared sensor 106, for example. In the present embodiment, an imaging unit 107 is arranged so as to be adjacent to the infrared sensor 106.

なお、赤外線センサ106および撮影部107は、それぞれ、物体検出装置102を構成するコンピュータに組み込まれていてもよいし、ディスクリート部品として構成され、物体検出装置102を構成するコンピュータに対して後付けされてもよい。   Note that the infrared sensor 106 and the imaging unit 107 may each be incorporated in a computer that constitutes the object detection device 102, or may be configured as a discrete component that is retrofitted to the computer that constitutes the object detection device 102. Also good.

本実施の形態では、撮影部107には、CMOS(Complementary Metal Oxide Semiconductor)、およびCCD(Charge Coupled Device)などの半導体素子が含まれる。本実施の形態では、撮影部107は、物体検出システム101の筐体110に固定されており、表示部108の上方に配置されている。撮影部107は、図3に示すように、物体検出システム101の前方を撮影し、少なくとも判定領域a1を含む領域の、画像データを生成する。   In the present embodiment, the photographing unit 107 includes a semiconductor element such as a CMOS (Complementary Metal Oxide Semiconductor) and a CCD (Charge Coupled Device). In the present embodiment, the imaging unit 107 is fixed to the housing 110 of the object detection system 101 and is disposed above the display unit 108. As shown in FIG. 3, the imaging unit 107 captures the front of the object detection system 101 and generates image data of an area including at least the determination area a1.

図3は、撮影部107が撮影した画像の一例を示す図である。図1〜図3に示すように、本実施の形態では、撮影部107は、判定領域a1の少なくとも一部を撮影する。本実施の形態では、撮影部107が撮影する領域は、判定領域a1の全域を含んでいる。本実施の形態では、撮影部107で生成された画像データによって特定される画像の画素は、数十万〜数百万程度である。   FIG. 3 is a diagram illustrating an example of an image photographed by the photographing unit 107. As shown in FIGS. 1 to 3, in the present embodiment, the photographing unit 107 photographs at least a part of the determination area a <b> 1. In the present embodiment, the area captured by the imaging unit 107 includes the entire determination area a1. In the present embodiment, the number of pixels of the image specified by the image data generated by the photographing unit 107 is about several hundred thousand to several million.

図3では、判定領域a1に、人Hが在席している状態の画像が示されており、当該人Hは、物体検出システム101の前方の椅子に座っている。本実施の形態では、撮影部107が撮影する領域の中心に向けて、赤外線センサ106から赤外線が照射される。撮影部107で生成された画像データは、物体検出装置102へ出力される。   In FIG. 3, an image in a state where the person H is present is shown in the determination area a <b> 1, and the person H is sitting on a chair in front of the object detection system 101. In the present embodiment, infrared rays are emitted from the infrared sensor 106 toward the center of the region where the photographing unit 107 photographs. Image data generated by the imaging unit 107 is output to the object detection device 102.

本実施の形態では、物体検出装置102は、前述したように、センサデータ取得部103と、画像データ取得部104と、補正判定部105と、を含み、さらに、補正値テーブル格納部111と、電力制御部112と、を含んでいる。   In the present embodiment, as described above, the object detection device 102 includes the sensor data acquisition unit 103, the image data acquisition unit 104, and the correction determination unit 105, and further includes a correction value table storage unit 111, And a power control unit 112.

本実施の形態では、物体検出装置102は、前述したように、判定領域a1に人Hが在席しているか否かを検出する。撮影部107で生成された画像データは、物体検出装置102の画像データ取得部104へ出力され、さらに、補正判定部105へ出力される。   In the present embodiment, the object detection device 102 detects whether or not the person H is present in the determination area a1, as described above. The image data generated by the imaging unit 107 is output to the image data acquisition unit 104 of the object detection device 102 and further output to the correction determination unit 105.

本実施の形態では、補正判定部105は、補正データ生成部113と、判定部114と、を含んでいる。   In the present embodiment, the correction determination unit 105 includes a correction data generation unit 113 and a determination unit 114.

本実施の形態では、補正データ生成部113は、距離データを補正するための補正データを生成する。補正データ生成部113は、画像データ取得部104に接続されており、画像データ取得部104で取得された画像データは、補正データ生成部113に与えられる。補正データ生成部113は、判定領域a1の画像の明度を解析する。   In the present embodiment, the correction data generation unit 113 generates correction data for correcting the distance data. The correction data generation unit 113 is connected to the image data acquisition unit 104, and the image data acquired by the image data acquisition unit 104 is given to the correction data generation unit 113. The correction data generation unit 113 analyzes the brightness of the image in the determination area a1.

具体的には、図1および図3に示すように、補正データ生成部113は、明度解析をするための矩形領域b1を設定する。本実施の形態では、矩形領域b1は、判定領域a1の撮影画像と一致するように設定される。より具体的には、撮影部107の撮影画像において、判定領域a1の左上座標が、矩形領域b1の左上座標P1(x1,y1)として設定され、判定領域a1の右下座標が、矩形領域b1の右下座標P2(x2,y2)として設定される。なお、上記の座標は、撮影部107の撮影画像の左上隅を原点Oとし、横方向をx軸、縦方向をy軸とする座標である。また、撮影部107の撮影画像において、原点Oの右側が、x軸の正の領域であり、原点Oの下側が、y軸の正の領域である。なお、P1(x1,y1)、P2(x2,y2)は、撮影画像内に設定される。判定領域a1は、撮影部107によって撮影される画像内に収まっている。   Specifically, as shown in FIGS. 1 and 3, the correction data generation unit 113 sets a rectangular area b1 for lightness analysis. In the present embodiment, the rectangular area b1 is set to match the captured image of the determination area a1. More specifically, in the photographed image of the photographing unit 107, the upper left coordinate of the determination area a1 is set as the upper left coordinate P1 (x1, y1) of the rectangular area b1, and the lower right coordinate of the determination area a1 is the rectangular area b1. Is set as the lower right coordinate P2 (x2, y2). The coordinates described above are coordinates with the upper left corner of the captured image of the imaging unit 107 as the origin O, the horizontal direction as the x axis, and the vertical direction as the y axis. In the photographed image of the photographing unit 107, the right side of the origin O is a positive region of the x axis, and the lower side of the origin O is a positive region of the y axis. Note that P1 (x1, y1) and P2 (x2, y2) are set in the captured image. The determination area a <b> 1 is within the image photographed by the photographing unit 107.

補正データ生成部113は、座標P1(x1,y1)、P2(x2,y2)で矩形状に特定された、矩形領域b1の画像(判定領域a1の画像)の各画素の明度Vを算出する。より具体的には、判定領域a1の画像の各画素は、R(赤)、G(緑)、B(青)の3原色によって構成されている。補正データ生成部113は、各上記画素のR、G、Bのそれぞれの原色について、明度を、0〜255の範囲で特定する。そして、補正データ生成部113は、任意の画素について、Rの明度、Gの明度、およびBの明度のうち、値が最も大きいものを、当該任意の画素の明度Vとして特定する。すなわち、各画素について、明度V=(Rの明度、Gの明度、およびBの明度のうちの最大値)である。   The correction data generation unit 113 calculates the brightness V of each pixel of the image of the rectangular area b1 (the image of the determination area a1) specified in a rectangular shape by the coordinates P1 (x1, y1) and P2 (x2, y2). . More specifically, each pixel of the image in the determination area a1 is configured by three primary colors of R (red), G (green), and B (blue). The correction data generation unit 113 specifies the lightness in the range of 0 to 255 for the primary colors of R, G, and B of each of the pixels. Then, the correction data generation unit 113 identifies the lightness V of the arbitrary pixel as the lightness V of the arbitrary pixel among the lightness of R, the lightness of G, and the lightness of B for an arbitrary pixel. That is, for each pixel, the lightness V = (the maximum value among the lightness of R, the lightness of G, and the lightness of B).

たとえば、ある1つの画素について、Rの明度が10、Gの明度が50、Bの明度が100である場合、Bの明度=100を、当該1つの画素の明度Vとして特定する。補正データ生成部113は、各画素について、上記と同様にして、明度Vを特定する。   For example, for a certain pixel, when the brightness of R is 10, the brightness of G is 50, and the brightness of B is 100, the brightness of B = 100 is specified as the brightness V of the one pixel. The correction data generation unit 113 specifies the lightness V for each pixel in the same manner as described above.

本実施の形態では、補正データ生成部113は、0〜255の各明度Vのそれぞれについて、図4に示すように、明度が同じ画素の数を集計する。図4は、各明度Vと画素数hist[c]との関係を示すヒストグラムである。図4のヒストグラムの横軸は、明度Vを示しており、原点の明度が0、横軸の最大値が255に設定されている。図4のグラフの縦軸は、画素数hist[c]を示している。たとえば、明度V=100の画素が500個である場合、hist[100]=500となる。   In the present embodiment, the correction data generation unit 113 totals the number of pixels having the same brightness as shown in FIG. 4 for each brightness V of 0 to 255. FIG. 4 is a histogram showing the relationship between each brightness V and the number of pixels hist [c]. The horizontal axis of the histogram in FIG. 4 indicates the lightness V. The lightness at the origin is set to 0, and the maximum value on the horizontal axis is set to 255. The vertical axis of the graph in FIG. 4 indicates the number of pixels hist [c]. For example, when there are 500 pixels with lightness V = 100, hist [100] = 500.

本実施の形態では、補正データ生成部113は、各明度Vについて、明度Vが同じ画素数hist[c]を集計する。そして、各明度Vのうち、画素数hist[c]が最も多い明度Vを、基準明度Vbとして設定する。補正データ生成部113は、基準明度Vbに応じて、距離データを補正するための補正データを生成する。   In the present embodiment, for each lightness V, the correction data generation unit 113 totals the number of pixels hist [c] with the same lightness V. Then, among each lightness V, the lightness V having the largest number of pixels hist [c] is set as the reference lightness Vb. The correction data generation unit 113 generates correction data for correcting the distance data according to the reference lightness Vb.

より具体的には、本実施の形態では、補正データ生成部113は、図5に示されている補正値テーブル格納部111に予め格納されている補正値テーブル121を参照し、補正データを生成する。図5は、補正値テーブル121について説明するための図である。図5に示すように、本実施の形態では、補正値テーブル121は、マンセル明度Vmと、基準明度Vbと、補正値rとの関係を示すテーブルである。   More specifically, in the present embodiment, the correction data generation unit 113 generates correction data with reference to the correction value table 121 stored in advance in the correction value table storage unit 111 shown in FIG. To do. FIG. 5 is a diagram for explaining the correction value table 121. As shown in FIG. 5, in the present embodiment, the correction value table 121 is a table showing the relationship among Munsell lightness Vm, reference lightness Vb, and correction value r.

本実施の形態では、補正値テーブル121は、JIS(日本工業規格)、Z 8721−1993「色の表示方法 - 三属性による表示」における、マンセル明度Vmと反射率との関係を基に規定されている。マンセル明度Vmは、0〜10の範囲で特定される明度であり、最も明るい色としての白の明度を10、最も暗い色としての黒の明度を0としている。上記のJIS規格では、マンセル明度Vmに対する光の反射率が定義されており、マンセル明度Vmの値が低くなるにつれて、光の反射率が小さくなる。図5において、マンセル明度Vm、および、反射率が、上記JIS規格に規定されている値であり、補正値rは、反射率に相当する。   In the present embodiment, the correction value table 121 is defined based on the relationship between Munsell brightness Vm and reflectance in JIS (Japanese Industrial Standards), Z 8721-1993 “Color Display Method-Display with Three Attributes”. ing. Munsell lightness Vm is lightness specified in the range of 0 to 10, with 10 being the lightness of white as the brightest color and 0 being the lightness of black as the darkest color. In the above JIS standard, the reflectance of light with respect to Munsell brightness Vm is defined, and the reflectance of light decreases as the value of Munsell brightness Vm decreases. In FIG. 5, Munsell brightness Vm and the reflectance are values defined in the JIS standard, and the correction value r corresponds to the reflectance.

本実施の形態では、図5に示すように、補正値テーブル121では、マンセル明度Vmとして、10〜1が設定されている。本実施の形態では、マンセル明度Vmが1〜4の範囲では、マンセル明度Vmは、1毎に設定されている。また、マンセル明度Vmが4〜10の範囲では、マンセル明度Vmは、0.5毎に設定されている。また、補正値テーブル121では、各マンセル明度Vmに対応する基準明度Vbが設定されている。また、補正値テーブル121では、各マンセル明度Vm(基準明度Vb)に対応する補正値rが設定されている。   In the present embodiment, as shown in FIG. 5, in the correction value table 121, 10 to 1 is set as the Munsell brightness Vm. In the present embodiment, the Munsell lightness Vm is set for every 1 in the range of 1 to 4 Munsell lightness Vm. In the range where the Munsell lightness Vm is 4 to 10, the Munsell lightness Vm is set every 0.5. In the correction value table 121, a reference lightness Vb corresponding to each Munsell lightness Vm is set. In the correction value table 121, a correction value r corresponding to each Munsell lightness Vm (reference lightness Vb) is set.

本実施の形態では、基準明度Vbの範囲は、0〜255である。そこで、上記のJIS規格の値を本実施の形態で用いるために、補正値テーブル121では、マンセル明度Vmと明度Vとの関係が示されている。各マンセル明度Vmに対応する基準明度Vbの上限値は、たとえば、以下の式(1)で示される。
Vb=Vm×255÷10・・・・・(1)
In the present embodiment, the range of the reference brightness Vb is 0 to 255. Therefore, in order to use the value of the above JIS standard in the present embodiment, the correction value table 121 shows the relationship between Munsell brightness Vm and brightness V. The upper limit value of the reference lightness Vb corresponding to each Munsell lightness Vm is represented by the following formula (1), for example.
Vb = Vm × 255 ÷ 10 (1)

なお、上記式(1)の結果の小数点第1位は、四捨五入される。例えば、マンセル明度Vmが8.5の場合、基準明度Vb=8.5×255÷10≒217となる。各マンセル明度Vmに対応する基準明度Vbは、図5に示すように、所定の幅を有している。より具体的には、あるマンセル明度Vmに対応する基準明度Vbの上限値と、当該マンセル明度Vmの1段階下のマンセル明度Vmに対応する基準明度Vbの上限値との間の基準明度Vbは、上記あるマンセル明度Vmに対応する基準明度Vbとして設定されている。たとえば、あるマンセル明度Vm=10に対応する基準明度Vbの上限値255と、マンセル明度Vm9.5に対応する基準明度Vbの上限値242との間の基準明度Vb243〜254は、マンセル明度Vm=10に対応する基準明度Vbである。   The first decimal place of the result of the above formula (1) is rounded off. For example, when the Munsell lightness Vm is 8.5, the reference lightness Vb = 8.5 × 255 ÷ 10≈217. The reference lightness Vb corresponding to each Munsell lightness Vm has a predetermined width as shown in FIG. More specifically, the reference brightness Vb between the upper limit value of the reference brightness Vb corresponding to a certain Munsell brightness Vm and the upper limit value of the reference brightness Vb corresponding to the Munsell brightness Vm one step below the Munsell brightness Vm is The reference brightness Vb corresponding to the certain Munsell brightness Vm is set. For example, the reference brightness Vb 243 to 254 between the upper limit value 255 of the reference brightness Vb corresponding to a certain Munsell brightness Vm = 10 and the upper limit value 242 of the reference brightness Vb corresponding to the Munsell brightness Vm9.5 is Munsell brightness Vm = Reference brightness Vb corresponding to 10.

補正データ生成部113は、図5に示す補正値テーブル121を参照し、基準明度Vbに対応する補正値rを設定する。そして、補正データ生成部113は、補正値rを特定する補正データを生成する。たとえば、基準明度Vbが160の場合、補正値テーブル121においては、基準明度Vbは、166〜154の範囲に含まれる。よって、補正データ生成部113は、補正値r=35に設定する。補正データ生成部113は、補正データを、判定部114へ出力する。   The correction data generation unit 113 refers to the correction value table 121 shown in FIG. 5 and sets a correction value r corresponding to the reference brightness Vb. Then, the correction data generation unit 113 generates correction data for specifying the correction value r. For example, when the reference lightness Vb is 160, the reference lightness Vb is included in the range of 166 to 154 in the correction value table 121. Therefore, the correction data generation unit 113 sets the correction value r = 35. The correction data generation unit 113 outputs the correction data to the determination unit 114.

図1に示すように、判定部114は、補正データ生成部113を用いて、補正前の距離データの値d1を補正することで、補正後の距離データd2を生成する。また、判定部114は、補正後の距離データの値d2を基に、判定領域a1に人Hが在席しているか否かを判定する。具体的には、距離データのd2は、下記式(2)を用いて算出される。
d2=d1×100/r・・・・・(2)
As illustrated in FIG. 1, the determination unit 114 uses the correction data generation unit 113 to correct the uncorrected distance data value d1 to generate corrected distance data d2. Further, the determination unit 114 determines whether or not the person H is present in the determination area a1 based on the corrected distance data value d2. Specifically, the distance data d2 is calculated using the following equation (2).
d2 = d1 × 100 / r (2)

ここで、(2)式の導出について説明する。距離データの補正に際しては、物体に赤外線が反射率100%で反射した場合の距離データを基準にして補正が行われる。物体に、補正値rに相当する反射率で反射した後に赤外線センサ106で検出された赤外線の距離データの値が、補正後の距離データの値d2であると考えると、補正前の距離データの値d1は、以下の(2)から導き出せる。
d1=d2×r/100・・・・・(3)
Here, the derivation of equation (2) will be described. When correcting the distance data, the correction is performed based on the distance data when infrared rays are reflected by the object with a reflectance of 100%. If it is considered that the distance data value of the infrared ray detected by the infrared sensor 106 after being reflected by the reflectance corresponding to the correction value r on the object is the corrected distance data value d2, The value d1 can be derived from the following (2).
d1 = d2 × r / 100 (3)

(3)式を変形することにより、(2)式が得られる。(2)式、および補正値テーブル121から明らかなように、基準明度Vbが小さいほど、補正値rが小さくなり、距離データの値d1を補正する度合いが大きくなる。たとえば、補正前の距離データの値d1が10、基準明度Vbが90である場合、補正値テーブル121から明らかなように、補正値r=12となる。よって、補正後の距離データd2=10×100/12≒83となり、補正前の距離データの値d1よりも大きくなる。すなわち、基準明度Vbが低くなるに従い、距離データの値d2で特定される距離が小さくなるように、距離データが補正される。一方、距離データの値d1が10、基準明度が250である場合、補正値テーブル121から明らかなように、補正値r=100となる。よって、補正後の距離データの値d2=10×100/100=10となり、補正前の距離データの値d1と変わらない。すなわち、基準明度Vbが十分に大きい場合、距離データの値d2で特定される距離は、補正前の距離データの値d1で特定される距離と、同じである。   By transforming equation (3), equation (2) is obtained. As is apparent from the equation (2) and the correction value table 121, the smaller the reference brightness Vb, the smaller the correction value r and the greater the degree of correction of the distance data value d1. For example, when the distance data value d1 before correction is 10 and the reference brightness Vb is 90, as is apparent from the correction value table 121, the correction value r = 12. Therefore, the corrected distance data d2 = 10 × 100 / 12≈83, which is larger than the distance data value d1 before correction. That is, the distance data is corrected so that the distance specified by the value d2 of the distance data becomes smaller as the reference brightness Vb becomes lower. On the other hand, when the distance data value d1 is 10 and the reference brightness is 250, as is apparent from the correction value table 121, the correction value r = 100. Therefore, the corrected distance data value d2 = 10 × 100/100 = 10, which is the same as the distance data value d1 before correction. That is, when the reference lightness Vb is sufficiently large, the distance specified by the distance data value d2 is the same as the distance specified by the distance data value d1 before correction.

図1および図2に示すように、判定部114は、補正後の距離データの値d2が、所定のしきい値dt以上か否かを判定することにより、判定領域a1に人Hが在席しているか否かを判定する。前述したように、値d2が大きいほど、赤外線センサ106と人Hとの距離は、近い。したがって、補正後の距離データの値d2が、しきい値dt以上の場合、判定部114は、人Hが判定領域a1に在席していると判定する。一方、補正後の距離データの値d2が、しきい値dt未満である場合、判定部114は、判定領域a1には人Hが在席していないと判定する。たとえば、判定領域a1には人Hが在席しておらず、物体検出システム101の前方の壁が、赤外線センサ106からの赤外線を反射している場合、補正後の距離データの値d2は、しきい値dt未満である。判定部114の判定結果を示すデータは、電力制御部112へ出力される。   As shown in FIGS. 1 and 2, the determination unit 114 determines whether the corrected distance data value d2 is equal to or greater than a predetermined threshold value dt, so that the person H is present in the determination area a1. It is determined whether or not. As described above, the greater the value d2, the shorter the distance between the infrared sensor 106 and the person H. Therefore, when the corrected distance data value d2 is equal to or greater than the threshold value dt, the determination unit 114 determines that the person H is present in the determination area a1. On the other hand, when the corrected distance data value d2 is less than the threshold value dt, the determination unit 114 determines that the person H is not present in the determination area a1. For example, when the person H is not present in the determination area a1, and the front wall of the object detection system 101 reflects infrared rays from the infrared sensor 106, the corrected distance data value d2 is: It is less than the threshold value dt. Data indicating the determination result of the determination unit 114 is output to the power control unit 112.

本実施の形態では、電力制御部112は、表示部108への電力供給を制御する。電力制御部112は、判定領域a1に人が在席していると判定されている場合、表示部108の電源をオンにする。一方、電力制御部112は、判定領域a1に人Hが在席していないと判定されている場合、表示部108の電源をオフにする。   In the present embodiment, the power control unit 112 controls power supply to the display unit 108. The power control unit 112 turns on the power of the display unit 108 when it is determined that a person is present in the determination area a1. On the other hand, when it is determined that the person H is not present in the determination area a1, the power control unit 112 turns off the power of the display unit 108.

[物体検出システムの動作説明]
次に、本発明の実施の形態における物体検出システム101の動作について、図6を用いて説明する。図6は、本発明の実施の形態における物体検出システム101の動作を示すフロー図である。また、以下の説明においては、適宜、図1〜図7を参酌する。また、本実施の形態では、実施の形態では、物体検出システム101を動作させることによって、物体検出方法が、実施される。よって、本発明の実施の形態における物体検出方法の説明は、以下の物体検出システム101の動作説明に代える。
[Description of operation of object detection system]
Next, the operation of the object detection system 101 in the embodiment of the present invention will be described with reference to FIG. FIG. 6 is a flowchart showing the operation of the object detection system 101 in the embodiment of the present invention. Moreover, in the following description, FIGS. 1-7 is referred suitably. In this embodiment, in the embodiment, the object detection method is implemented by operating the object detection system 101. Therefore, the description of the object detection method in the embodiment of the present invention is replaced with the following description of the operation of the object detection system 101.

[全体処理]
物体検出システム101は、図6に示す動作フローを、一定時間毎に実行する。図6に示すフローにおいては、まず、補正判定部105が、距離データを取得する(ステップA1)。具体的には、ステップA1が実行されている間、赤外線センサ106の発光素子は、赤外線を判定領域a1に向けて照射している。これにより、赤外線は、人Hまたは壁などで反射し、赤外線センサ106の受光素子に入射される。赤外線センサ106は、受けた光の量(強さ)に応じたデータを距離データとして生成する。この距離データは、赤外線センサ106から、センサデータ取得部103へ出力される。センサデータ取得部103は、距離データを、補正判定部105の判定部114へ出力する。
[Overall processing]
The object detection system 101 executes the operation flow shown in FIG. 6 at regular intervals. In the flow shown in FIG. 6, first, the correction determination unit 105 acquires distance data (step A1). Specifically, while step A1 is being executed, the light emitting element of the infrared sensor 106 irradiates infrared rays toward the determination area a1. As a result, the infrared light is reflected by a person H or a wall and is incident on the light receiving element of the infrared sensor 106. The infrared sensor 106 generates data corresponding to the amount (intensity) of received light as distance data. This distance data is output from the infrared sensor 106 to the sensor data acquisition unit 103. The sensor data acquisition unit 103 outputs the distance data to the determination unit 114 of the correction determination unit 105.

次に、補正判定部105は、画像データを取得する(ステップA2)。具体的には、撮影部107で生成された画像データが、撮影部107から画像データ取得部104へ出力される。画像データ取得部104は、画像データを、補正判定部105の補正データ生成部113へ出力する。   Next, the correction determination unit 105 acquires image data (step A2). Specifically, the image data generated by the imaging unit 107 is output from the imaging unit 107 to the image data acquisition unit 104. The image data acquisition unit 104 outputs the image data to the correction data generation unit 113 of the correction determination unit 105.

次に、補正データ生成部113は、撮影した画像中の矩形領域b1の各画素の明度Vを解析することにより、矩形領域b1の基準明度Vbを算出する(ステップA3)。ステップA3の具体的な処理については、図7を用いて後述する。   Next, the correction data generation unit 113 calculates the reference brightness Vb of the rectangular area b1 by analyzing the brightness V of each pixel of the rectangular area b1 in the captured image (step A3). Specific processing in step A3 will be described later with reference to FIG.

補正データ生成部113は、補正値テーブル121を参照し、ステップA3で算出した基準明度Vbに対応する補正値rを設定する(ステップA4)。具体的には、補正データ生成部113は、ステップA3で算出した基準明度Vbが、補正値テーブル121の基準明度Vbにおいてどの範囲に当てはまるかを判断し、基準明度Vbに対応する補正値rを取得する。補正データ生成部113は、補正値rを特定する補正データを生成し、判定部114へ出力する。たとえば、前述したように、基準明度Vbが160の場合、補正データ生成部113は、補正値テーブル121を参照し、補正値rを35に設定する。   The correction data generation unit 113 refers to the correction value table 121 and sets a correction value r corresponding to the reference brightness Vb calculated in step A3 (step A4). Specifically, the correction data generation unit 113 determines which range the reference brightness Vb calculated in step A3 applies to in the reference brightness Vb of the correction value table 121, and sets the correction value r corresponding to the reference brightness Vb. get. The correction data generation unit 113 generates correction data for specifying the correction value r and outputs the correction data to the determination unit 114. For example, as described above, when the reference brightness Vb is 160, the correction data generation unit 113 refers to the correction value table 121 and sets the correction value r to 35.

判定部114は、距離データの値d1を補正することにより、補正後の距離データの値d2を算出する(ステップA5)。具体的には、判定部114は、ステップA1で取得された距離データの値d1と、ステップA4で取得された補正値rと、を用いて、前述の式(2)を演算する。これにより、判定部114は、補正後の距離データの値d2を算出する。   The determination unit 114 corrects the distance data value d1 to calculate the corrected distance data value d2 (step A5). Specifically, the determination unit 114 calculates the above-described formula (2) using the distance data value d1 acquired in step A1 and the correction value r acquired in step A4. Accordingly, the determination unit 114 calculates the corrected distance data value d2.

次に、判定部114は、補正後の距離データの値d2が、所定のしきい値dt未満であるか否かを判定する(ステップA6)。補正後の距離データの値d2が、所定のしきい値dt未満である場合、赤外線が反射した位置と、赤外線センサ106との距離は、十分に大きい。この場合(ステップA6でYES)、判定部114は、判定領域a1に人Hが在席していないと判定する。   Next, the determination unit 114 determines whether or not the corrected distance data value d2 is less than a predetermined threshold value dt (step A6). When the corrected distance data value d2 is less than the predetermined threshold value dt, the distance between the position where the infrared light is reflected and the infrared sensor 106 is sufficiently large. In this case (YES in step A6), the determination unit 114 determines that the person H is not present in the determination area a1.

このように、判定領域a1に人Hが在席していないと判定された場合、電力制御部112は、表示部108の電源をオフにする(ステップA7)。なお、表示部108の電源が既にオフである場合には、当該表示部108の電源がオフである状態が継続される。   As described above, when it is determined that the person H is not present in the determination area a1, the power control unit 112 turns off the power of the display unit 108 (step A7). Note that when the power of the display unit 108 is already off, the state where the power of the display unit 108 is off is continued.

一方、補正後の距離データの値d2が、所定のしきい値dt以上である場合、赤外線が反射した位置と、赤外線センサ106との距離が小さく、判定領域a1に人Hが在席している。この場合(ステップA6でNO)、判定部114は、判定領域a1人Hが在席していると判定する。   On the other hand, when the corrected distance data value d2 is equal to or greater than the predetermined threshold value dt, the distance between the infrared reflected position and the infrared sensor 106 is small, and the person H is present in the determination area a1. Yes. In this case (NO in step A6), the determination unit 114 determines that the determination area a1 person H is present.

このように、判定領域a1に人Hが在席している場合、電力制御部112は、表示部108の電源をオンにする(ステップA8)。なお、表示部108の電源が既にオンにされている場合には、当該表示部108の電源がオンである状態が継続される。   As described above, when the person H is present in the determination area a1, the power control unit 112 turns on the power of the display unit 108 (step A8). Note that, when the power of the display unit 108 is already turned on, the state where the power of the display unit 108 is turned on is continued.

[基準明度算出(ステップA3)の詳細]
次に、補正判定部105の補正データ生成部113における、基準明度Vbの算出の処理の流れを、図7を用いて具体的に説明する。図7は、基準明度Vbの算出の流れを説明するためのフロー図である。また、以下の説明においては、適宜、図1〜図5を参酌する。
[Details of Standard Lightness Calculation (Step A3)]
Next, the flow of processing for calculating the reference lightness Vb in the correction data generation unit 113 of the correction determination unit 105 will be specifically described with reference to FIG. FIG. 7 is a flowchart for explaining the flow of calculating the reference brightness Vb. Moreover, in the following description, FIGS. 1-5 is referred suitably.

まず、補正データ生成部113は、撮影部107が撮影した画像において、矩形領域b1を設定する(ステップA11)。具体的には、補正データ生成部113は、撮影部107が撮影した画像のうち、判定領域a1の左上端の座標をP1(x1,y1)、判定領域a1の右下端の座標をP2(x2,y2)とする。本実施の形態では、補正データ生成部113は、撮影部107が撮影した画像の中央に矩形領域b1を設定する。   First, the correction data generation unit 113 sets a rectangular area b1 in the image photographed by the photographing unit 107 (step A11). Specifically, the correction data generation unit 113 sets P1 (x1, y1) as the coordinates of the upper left corner of the determination area a1 and P2 (x2) as the coordinates of the lower right edge of the determination area a1 in the image captured by the imaging unit 107. , Y2). In the present embodiment, the correction data generation unit 113 sets a rectangular area b1 at the center of the image captured by the imaging unit 107.

次に、補正データ生成部113は、明度のヒストグラムを作成するための、画素数hist[c]を初期化する(ステップA12)。画素数hist[c]は、明度毎に設定されている。すなわち、画素数hist[c]は、0〜255の256個設定されている。補正データ生成部113は、各画素数hist[c]の全てについて、値をゼロにする初期化を行う。   Next, the correction data generation unit 113 initializes the number of pixels hist [c] for creating a brightness histogram (step A12). The number of pixels hist [c] is set for each brightness. That is, the number of pixels hist [c] is set to 256 from 0 to 255. The correction data generation unit 113 performs initialization to set the values to zero for all the number of pixels hist [c].

次に、補正データ生成部113は、矩形領域b1の縦方向における画素数をカウントするカウンタyに、ステップA11で設定したy1を代入する。これにより、補正データ生成部113は、カウンタyを初期化する(ステップA13)。さらに、補正データ生成部113は、矩形領域b1の横方向における画素数をカウントするカウンタxに、ステップA11で設定したx1を代入する。これにより、補正データ生成部113は、カウンタxを初期化する(ステップA14)。   Next, the correction data generation unit 113 substitutes y1 set in step A11 for a counter y that counts the number of pixels in the vertical direction of the rectangular region b1. As a result, the correction data generation unit 113 initializes the counter y (step A13). Furthermore, the correction data generation unit 113 substitutes x1 set in step A11 for a counter x that counts the number of pixels in the horizontal direction of the rectangular region b1. As a result, the correction data generation unit 113 initializes the counter x (step A14).

次に、補正データ生成部113は、画素P(x,y)の明度Vを算出する(ステップA15)。補正データ生成部113は、画素P(x,y)におけるRの明度、Gの明度、およびBの明度のうちの最大値を、明度Vとして算出する。   Next, the correction data generation unit 113 calculates the brightness V of the pixel P (x, y) (step A15). The correction data generation unit 113 calculates the maximum value among the brightness of R, the brightness of G, and the brightness of B in the pixel P (x, y) as the brightness V.

次に、補正データ生成部113は、ステップA15で算出された明度Vと同じ明度についての画素数hist[c]の値を1つ加算する(ステップA16)。たとえば、ステップA15で算出された明度V=100の場合、カウンタhist[100]の値を1つ加算する。また、補正データ生成部113は、上記画素数hist[c]を用いて、ヒストグラムを作成する(ステップA16)。   Next, the correction data generation unit 113 adds one value of the number of pixels hist [c] for the same brightness as the brightness V calculated in step A15 (step A16). For example, when the brightness V calculated in step A15 is 100, the value of the counter hist [100] is incremented by one. Further, the correction data generation unit 113 creates a histogram using the number of pixels hist [c] (step A16).

次に、補正データ生成部113は、ステップA15で明度Vを算出した画素とX方向に並ぶ1ラインの全画素について、明度Vの算出が完了したか否かを判定する(ステップA17)。具体的には、補正データ生成部113は、カウンタxの値と、矩形領域b1の右端のx座標x2とを比較する。   Next, the correction data generation unit 113 determines whether or not the calculation of the lightness V has been completed for all the pixels in one line aligned in the X direction with the pixels for which the lightness V has been calculated in Step A15 (Step A17). Specifically, the correction data generation unit 113 compares the value of the counter x with the x coordinate x2 of the right end of the rectangular area b1.

カウンタx<x2の場合、ステップA15で明度Vの算出を行った画素と同じラインの全画素の明度解析は完了していない(ステップA17でNO)。この場合、補正データ生成部113は、上記1ライン分の画素について、明度Vの算出が完了していないと判定する。   When the counter x <x2, the lightness analysis of all the pixels on the same line as the pixel for which the lightness V is calculated in step A15 has not been completed (NO in step A17). In this case, the correction data generation unit 113 determines that the calculation of the brightness V has not been completed for the pixels for one line.

この場合、補正データ生成部113は、カウンタxの値を1つ加算する(ステップA18)。その後、補正データ生成部113は、ステップA15〜A17のステップを、再度実行する。   In this case, the correction data generation unit 113 adds one value of the counter x (step A18). Thereafter, the correction data generation unit 113 executes steps A15 to A17 again.

一方、ステップA17において、カウンタx=x2の場合、ステップA15で明度Vを算出した画素と同じラインの全画素の明度Vの算出は完了している(ステップA17でYES)。この場合、補正データ生成部113は、矩形領域b1の画像の全画素について、明度Vの算出、およびヒストグラムの作成が完了したか否かを判定する(ステップA19)。具体的には、補正データ生成部113は、カウンタyの値と、矩形領域b1の下端のy座標y2とを比較する。   On the other hand, if the counter x = x2 in step A17, the calculation of the brightness V of all the pixels on the same line as the pixel for which the brightness V was calculated in step A15 has been completed (YES in step A17). In this case, the correction data generation unit 113 determines whether or not the calculation of the brightness V and the creation of the histogram have been completed for all the pixels of the image in the rectangular area b1 (step A19). Specifically, the correction data generation unit 113 compares the value of the counter y with the y coordinate y2 of the lower end of the rectangular area b1.

カウンタy<y2の場合、矩形領域b1の画像の全ての画素について、明度Vの算出、およびヒストグラムの作成は完了していない(ステップA19でNO)。この場合、補正データ生成部113は、カウンタyの値を1つ加算する(ステップA20)。その後、補正データ生成部113は、ステップA14〜A19のステップを、再度実行する。すなわち、ステップA19の判定が行われる直前において明度Vが行われていたラインの1つ下のラインの各画素について、明度Vの算出などが行われる。   When the counter y <y2, the calculation of the brightness V and the creation of the histogram are not completed for all the pixels of the image in the rectangular area b1 (NO in step A19). In this case, the correction data generation unit 113 adds one value to the counter y (step A20). Thereafter, the correction data generation unit 113 executes steps A14 to A19 again. That is, the brightness V is calculated for each pixel in the line immediately below the line where the brightness V was performed immediately before the determination in step A19.

一方、ステップA19において、カウンタy=y2の場合、矩形領域b1の画像の全画素について、明度Vの算出、およびヒストグラムの作成が完了していることとなる(ステップA19でYES)。この場合、補正データ生成部113は、各明度Vのうち、画素数hist[c]が最も多い明度Vを、基準明度Vbとして設定する(ステップA21)。   On the other hand, if the counter y = y2 in step A19, the calculation of the lightness V and the creation of the histogram have been completed for all the pixels of the image in the rectangular area b1 (YES in step A19). In this case, the correction data generation unit 113 sets the lightness V having the largest number of pixels hist [c] among the lightness V as the reference lightness Vb (step A21).

[プログラム]
また、本実施の形態におけるプログラムは、コンピュータに、図6および図7に示すステップA1〜A8、およびA11〜21を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における物体検出システム101および物体検出方法を実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、センサデータ取得部103、画像データ取得部104、補正判定部105、および電力制御部112として機能し、処理を行なう。また、本実施の形態では、補正値テーブル格納部111は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって実現できる。また、補正値テーブル格納部111は、別のコンピュータによって構築されてもよい。
[program]
Moreover, the program in this Embodiment should just be a program which makes a computer perform step A1-A8 and A11-21 shown in FIG. 6 and FIG. By installing and executing this program on a computer, the object detection system 101 and the object detection method in the present embodiment can be realized. In this case, a CPU (Central Processing Unit) of the computer functions as a sensor data acquisition unit 103, an image data acquisition unit 104, a correction determination unit 105, and a power control unit 112 to perform processing. Further, in the present embodiment, the correction value table storage unit 111 can be realized by storing data files constituting these in a storage device such as a hard disk provided in the computer. Further, the correction value table storage unit 111 may be constructed by another computer.

以上のように本実施の形態では、反射される物体の色の違いに起因して異なる距離データを出力する赤外線センサ106からの距離データを、撮影部107で撮影した画像の色データに基づいて、補正することができる。このため、赤外線センサ106を用いた、人Hの存在の有無の判定を、より正確に行うことができる。たとえば、ユーザが黒い服を着て判定領域a1に在席しているにもかかわらず、人Hが離席していると判断され、省電力状態に移行されるといった、誤判定を減少できる。また、距離データの補正を行うために、人Hが、補正用の情報を入力するといった手間が不要である。よって、常時、補正後の距離データの値d2を用いて、判定領域a1にユーザが在席しているか否かを、正確に判定することができる。   As described above, in this embodiment, the distance data from the infrared sensor 106 that outputs different distance data due to the difference in the color of the reflected object is based on the color data of the image captured by the imaging unit 107. Can be corrected. For this reason, the presence or absence of the person H using the infrared sensor 106 can be determined more accurately. For example, it is possible to reduce misjudgments such that it is determined that the person H is away from the user even though he / she is wearing black clothes and is present in the determination area a <b> 1 and shifts to a power saving state. Further, in order to correct the distance data, it is not necessary for the person H to input correction information. Therefore, it is always possible to accurately determine whether or not the user is present in the determination area a1 using the corrected distance data value d2.

また、本実施の形態では、補正判定部105の補正データ生成部113は、基準明度Vbに応じて、距離データを補正する。このように、基準明度Vbに応じて、距離データを補正することにより、距離データの値d1を、より正確に補正することができる。   In the present embodiment, the correction data generation unit 113 of the correction determination unit 105 corrects the distance data according to the reference brightness Vb. Thus, by correcting the distance data according to the reference brightness Vb, the value d1 of the distance data can be corrected more accurately.

また、本実施の形態では、補正判定部105の補正データ生成部113は、画素数hist[c]が最も多い明度Vを、基準明度Vbとして設定する。これにより、矩形領域b1のうち、距離データの値d1に大きな影響を与える明度Vとしての基準明度Vbを基に、距離データの値d1を補正することとなる。したがって、距離データの値d1を、より正確に補正することができる。   In the present embodiment, the correction data generation unit 113 of the correction determination unit 105 sets the lightness V having the largest number of pixels hist [c] as the reference lightness Vb. Thus, the distance data value d1 is corrected based on the reference lightness Vb as the lightness V that greatly affects the distance data value d1 in the rectangular region b1. Therefore, the value d1 of the distance data can be corrected more accurately.

また、本実施の形態では、補正判定部105の補正データ生成部113は、基準明度Vbに応じて予め設定された補正値rを用いて、距離データを補正する。このように、予め設定されている補正値rを用いる簡易な構成によって、補正データ生成部113は、距離データを容易に補正できる。   In the present embodiment, the correction data generation unit 113 of the correction determination unit 105 corrects the distance data using a correction value r set in advance according to the reference lightness Vb. In this way, the correction data generation unit 113 can easily correct the distance data with a simple configuration using the preset correction value r.

また、本実施の形態では、補正判定部105の補正データ生成部113は、基準明度Vbが低くなるに従い、距離データで特定される距離が小さくなるように、距離データの値d1を補正する。これにより、黒など、明度Vの小さい服を着ている人Hと、赤外線センサ106との距離が、実際の距離よりも大きく算出されることを抑制できる。これにより、補正判定部105は、判定領域a1に人Hが存在しているか否かを、より正確に判定することができる。   In the present embodiment, the correction data generation unit 113 of the correction determination unit 105 corrects the value d1 of the distance data so that the distance specified by the distance data becomes smaller as the reference brightness Vb becomes lower. Thereby, it can suppress that the distance of the person H who wears clothes with small brightness V, such as black, and the infrared sensor 106 is calculated larger than an actual distance. Thereby, the correction determination part 105 can determine more accurately whether the person H exists in the determination area | region a1.

また、本実施の形態では、電力制御部112は、補正判定部105の判定部114の判定結果に基づいて、表示部108への電力供給を制御する。これにより、判定領域a1に人Hが在席している場合には、当該人Hによる物体検出システム101の操作を阻害することを抑制でき、かつ、判定領域a1に人Hが在席していない場合には、物体検出システム101の無駄な消費電力を抑制できる。   In the present embodiment, power control unit 112 controls power supply to display unit 108 based on the determination result of determination unit 114 of correction determination unit 105. Thereby, when the person H is present in the determination area a1, it is possible to suppress the operation of the object detection system 101 by the person H, and the person H is present in the determination area a1. When there is not, wasteful power consumption of the object detection system 101 can be suppressed.

また、本実施の形態では、赤外線センサ106は、撮影部107が撮影する領域の中心に向けて赤外線を照射するように構成されている。これにより、判定領域a1の全域を、撮影部107によって、より確実に撮影することができる。   In the present embodiment, the infrared sensor 106 is configured to irradiate infrared rays toward the center of the area captured by the imaging unit 107. Thereby, the whole area of the determination area a1 can be more reliably imaged by the imaging unit 107.

ここで、本実施の形態におけるプログラムを実行することによって、物体検出装置102を実現するコンピュータについて、図8を用いて説明する。図8は、本発明の実施の形態における物体検出装置を実現するコンピュータ210の一例を示すブロック図である。   Here, a computer that realizes the object detection apparatus 102 by executing the program according to the present embodiment will be described with reference to FIG. FIG. 8 is a block diagram showing an example of a computer 210 that implements the object detection apparatus according to the embodiment of the present invention.

図8に示すように、コンピュータ210は、CPU211と、メインメモリ212と、記憶装置213と、入力インターフェイス214と、表示コントローラ215と、データリーダ/ライタ216と、通信インターフェイス217とを備える。これらの各部は、バス221を介して、互いにデータ通信可能に接続される。   As illustrated in FIG. 8, the computer 210 includes a CPU 211, a main memory 212, a storage device 213, an input interface 214, a display controller 215, a data reader / writer 216, and a communication interface 217. These units are connected to each other via a bus 221 so that data communication is possible.

CPU211は、記憶装置213に格納された、本実施の形態におけるプログラム(コード)をメインメモリ212に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ212は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。   The CPU 211 performs various operations by expanding the program (code) in the present embodiment stored in the storage device 213 in the main memory 212 and executing them in a predetermined order. The main memory 212 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).

また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体220に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス217を介して接続されたインターネット上で流通するものであってもよい。   In addition, the program in the present embodiment is provided in a state stored in a computer-readable recording medium 220. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 217.

また、記憶装置213の具体例としては、ハードディスクの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス214は、CPU211と、キーボード及びマウスといった入力機器218との間のデータ伝送を仲介する。表示コントローラ215は、ディスプレイ装置219と接続され、ディスプレイ装置219での表示を制御する。   Specific examples of the storage device 213 include a semiconductor storage device such as a flash memory in addition to a hard disk. The input interface 214 mediates data transmission between the CPU 211 and the input device 218 such as a keyboard and a mouse. The display controller 215 is connected to the display device 219 and controls display on the display device 219.

データリーダ/ライタ216は、CPU211と記録媒体220との間のデータ伝送を仲介し、記録媒体220からのプログラムの読み出し、及びコンピュータ210における処理結果の記録媒体220への書き込みを実行する。通信インターフェイス217は、CPU211と、他のコンピュータとの間のデータ伝送を仲介する。   The data reader / writer 216 mediates data transmission between the CPU 211 and the recording medium 220, and reads a program from the recording medium 220 and writes a processing result in the computer 210 to the recording medium 220. The communication interface 217 mediates data transmission between the CPU 211 and another computer.

また、記録媒体220の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。   Specific examples of the recording medium 220 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic storage media such as a flexible disk, or CD- An optical storage medium such as ROM (Compact Disk Read Only Memory) can be used.

[変形例]
(1)前述の実施の形態では、物体検出システム101が、ノート型のパーソナルコンピュータである構成が説明されているが、この通りでなくてもよい。たとえば、物体検出システムは、デスクトップ型のパーソナルコンピュータ、モニタ、テレビなど、他の物体検出システムであってもよい。物体検出システムがテレビである場合、たとえば、人Hがテレビの前に在席している場合には、テレビの音量を大きくし、人Hがテレビの前に在席していない場合には、テレビの音量を小さくしてもよい。また、人Hとテレビとの距離を測定し、測定した距離が離れている場合は音量を大きくし、測定した距離が近い場合は音量を小さくするといった音量制御を実現することも可能である。また、本発明の物体検出装置は、人以外の物体の検出に用いることができる。
[Modification]
(1) In the above-described embodiment, the configuration in which the object detection system 101 is a notebook personal computer is described, but this need not be the case. For example, the object detection system may be another object detection system such as a desktop personal computer, a monitor, or a television. When the object detection system is a television, for example, when the person H is present in front of the television, the volume of the television is increased, and when the person H is not present in front of the television, The volume of the TV may be reduced. It is also possible to realize volume control such as measuring the distance between the person H and the television, increasing the volume when the measured distance is far, and decreasing the volume when the measured distance is short. Moreover, the object detection apparatus of the present invention can be used for detection of an object other than a person.

(2)また、上記実施の形態では、補正値テーブル121において、複数の基準明度Vbに1つの補正値rを設定している構成が説明されているが、この通りでなくてもよい。たとえば、1つの基準明度Vb毎に、補正値rを設定してもよい。 (2) In the above-described embodiment, the correction value table 121 describes a configuration in which one correction value r is set for a plurality of reference brightness values Vb. However, this need not be the case. For example, the correction value r may be set for each reference lightness Vb.

(3)また、上記実施の形態では、判定領域a1に人Hが在席していない場合、表示部108の電源をオフにする構成が説明されているが、この通りでなくてもよい。たとえば、判定領域a1に人Hが在席していない場合、表示部108を、スリープ状態にする制御を行ってもよい。この場合、判定領域a1に人Hが在席していると判定された場合、表示部108は、スリープ状態から復帰するように制御される。 (3) In the above-described embodiment, the configuration is described in which the power of the display unit 108 is turned off when the person H is not present in the determination area a1, but this need not be the case. For example, when the person H is not present in the determination area a1, the display unit 108 may be controlled to enter a sleep state. In this case, when it is determined that the person H is present in the determination area a1, the display unit 108 is controlled to return from the sleep state.

(4)また、上記実施の形態では、補正値テーブル121には、マンセル明度Vmが含まれているけれども、このマンセル明度Vmは、補正データ生成部113によって参照されるわけではない。したがって、補正値テーブル121において、マンセル明度Vmは、省略されていてもよい。 (4) In the above embodiment, the Munsell brightness Vm is included in the correction value table 121, but the Munsell brightness Vm is not referred to by the correction data generation unit 113. Therefore, in the correction value table 121, the Munsell brightness Vm may be omitted.

(5)また、上記実施の形態では、撮影部107で撮影した画像において、判定領域a1の全部が、矩形領域b1として設定されている構成であるが、この通りでなくてもよい。たとえば、上記画像において、判定領域a1の一部のみを、矩形領域b1として設定してもよい。また、赤外線センサ106と撮影部107の配置を変更することなどにより、矩形領域b1を、上記画像の上部寄り、下部寄り、左寄り、または右寄りに設定してもよい。 (5) In the above embodiment, the entire determination area a1 is set as the rectangular area b1 in the image captured by the imaging unit 107. However, this need not be the case. For example, in the image, only a part of the determination area a1 may be set as the rectangular area b1. Further, by changing the arrangement of the infrared sensor 106 and the photographing unit 107, the rectangular area b1 may be set closer to the upper part, lower part, left side, or right side of the image.

上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記18)によって表現することができるが、以下の記載に限定されるものではない。   Part or all of the above-described embodiments can be expressed by (Appendix 1) to (Appendix 18) described below, but is not limited to the following description.

(付記1)
所定の判定領域に照射され、反射された赤外線を検出する赤外線センサから、前記赤外線の検出結果を特定するセンサデータを取得する、センサデータ取得部と、
前記判定領域の画像データを取得する、画像データ取得部と、
前記画像データに基づいて、前記センサデータを補正し、補正した前記センサデータを用いて、前記判定領域に物体が存在しているか否かを判定する、補正判定部と、
を備えていることを特徴とする、物体検出装置。
(Appendix 1)
A sensor data acquisition unit that acquires sensor data that identifies the detection result of the infrared ray from an infrared sensor that detects the reflected infrared ray that is irradiated to the predetermined determination region; and
An image data acquisition unit for acquiring image data of the determination region;
A correction determination unit that corrects the sensor data based on the image data, and determines whether or not an object exists in the determination region using the corrected sensor data;
An object detection apparatus comprising:

(付記2)
前記センサデータは、前記赤外線センサと、前記赤外線が反射した位置との距離を特定する距離データを含み、
前記補正判定部は、前記画像データで特定される画像の基準明度を特定し、前記基準明度に応じて、前記距離データを補正する、付記1に記載の物体検出装置。
(Appendix 2)
The sensor data includes distance data for specifying a distance between the infrared sensor and a position where the infrared light is reflected,
The object detection apparatus according to appendix 1, wherein the correction determination unit specifies a reference lightness of an image specified by the image data, and corrects the distance data according to the reference lightness.

(付記3)
前記補正判定部は、前記画像の明度を、画素毎に算出し、複数の前記明度のそれぞれについて、前記明度が同じ画素の数を集計し、複数の前記明度のうち、画素の数が最も多い前記明度を、前記基準明度として設定する、付記2に記載の物体検出装置。
(Appendix 3)
The correction determination unit calculates the brightness of the image for each pixel, counts the number of pixels having the same brightness for each of the plurality of brightnesses, and among the plurality of brightnesses, the number of pixels is the largest. The object detection device according to attachment 2, wherein the lightness is set as the reference lightness.

(付記4)
前記補正判定部は、前記基準明度に応じて、予め設定された補正値を用いて、前記距離データを補正する、付記2または付記3に記載の物体検出装置。
(Appendix 4)
4. The object detection apparatus according to appendix 2 or appendix 3, wherein the correction determination unit corrects the distance data using a preset correction value according to the reference brightness.

(付記5)
前記補正判定部は、前記基準明度が低くなるに従い、前記距離データで特定される距離が小さくなるように、前記距離データを補正する、付記2〜付記4のいずれか1項に記載の物体検出装置。
(Appendix 5)
The object detection according to any one of appendix 2 to appendix 4, wherein the correction determination unit corrects the distance data so that a distance specified by the distance data decreases as the reference lightness decreases. apparatus.

(付記6)
前記補正判定部の判定結果に基づいて、電力制御対象への電力供給を制御する電力制御部、
をさらに備えている、付記1〜付記5のいずれか1項に記載の物体検出装置。
(Appendix 6)
A power control unit that controls power supply to a power control target based on the determination result of the correction determination unit;
The object detection device according to any one of appendix 1 to appendix 5, further comprising:

(付記7)
(a)所定の判定領域に照射され、反射された赤外線を検出する赤外線センサから、前記赤外線の検出結果を特定するセンサデータを取得するステップと、
(b)前記判定領域の画像データを取得するステップと、
(c)前記画像データに基づいて、前記センサデータを補正し、補正した前記センサデータを用いて、前記判定領域に物体が存在しているか否かを判定するステップと、
を含むことを特徴とする、物体検出方法。
(Appendix 7)
(A) obtaining sensor data specifying the detection result of the infrared rays from an infrared sensor that detects the reflected infrared rays that are irradiated and reflected on the predetermined determination region;
(B) obtaining image data of the determination area;
(C) correcting the sensor data based on the image data, and determining whether an object exists in the determination region using the corrected sensor data;
An object detection method comprising:

(付記8)
前記センサデータは、前記赤外線センサと、前記赤外線が反射した位置との距離を特定する距離データを含み、
前記判定するステップでは、前記画像データで特定される画像の基準明度を特定し、前記基準明度に応じて、前記距離データを補正する、付記7に記載の物体検出方法。
(Appendix 8)
The sensor data includes distance data for specifying a distance between the infrared sensor and a position where the infrared light is reflected,
The object detection method according to appendix 7, wherein, in the determining step, a reference brightness of an image specified by the image data is specified, and the distance data is corrected according to the reference brightness.

(付記9)
前記判定するステップでは、前記画像の明度を、画素毎に算出し、複数の前記明度のそれぞれについて、前記明度が同じ画素の数を集計し、複数の前記明度のうち、画素の数が最も多い前記明度を、前記基準明度として設定する、付記8に記載の物体検出方法。
(Appendix 9)
In the determining step, the brightness of the image is calculated for each pixel, and for each of the plurality of brightnesses, the number of pixels having the same brightness is totaled, and among the plurality of brightnesses, the number of pixels is the largest. The object detection method according to appendix 8, wherein the lightness is set as the reference lightness.

(付記10)
前記判定するステップでは、前記基準明度に応じて、予め設定された補正値を用いて、前記距離データを補正する、付記8または付記9に記載の物体検出方法。
(Appendix 10)
The object detection method according to appendix 8 or appendix 9, wherein, in the determining step, the distance data is corrected using a correction value set in advance according to the reference brightness.

(付記11)
前記判定するステップでは、前記基準明度が低くなるに従い、前記距離データで特定される距離が小さくなるように、前記距離データを補正する、付記8〜付記10のいずれか1項に記載の物体検出方法。
(Appendix 11)
The object detection according to any one of appendix 8 to appendix 10, wherein in the determining step, the distance data is corrected so that the distance specified by the distance data decreases as the reference brightness decreases. Method.

(付記12)
(d)前記判定するステップの判定結果に基づいて、電力制御対象への電力供給を制御するステップ、
をさらに備えている、付記7〜付記11のいずれか1項に記載の物体検出方法。
(Appendix 12)
(D) controlling power supply to the power control target based on the determination result of the determining step;
The object detection method according to any one of appendix 7 to appendix 11, further comprising:

(付記13)
コンピュータに、
(a)所定の判定領域に照射され、反射された赤外線を検出する赤外線センサから、前記赤外線の検出結果を特定するセンサデータを取得するステップと、
(b)前記判定領域の画像データを取得するステップと、
(c)前記画像データに基づいて、前記センサデータを補正し、補正した前記センサデータを用いて、前記判定領域に物体が存在しているか否かを判定するステップと、
を実行させる、プログラム。
(Appendix 13)
On the computer,
(A) obtaining sensor data specifying the detection result of the infrared rays from an infrared sensor that detects the reflected infrared rays that are irradiated and reflected on the predetermined determination region;
(B) obtaining image data of the determination area;
(C) correcting the sensor data based on the image data, and determining whether an object exists in the determination region using the corrected sensor data;
A program that executes

(付記14)
前記センサデータは、前記赤外線センサと、前記赤外線が反射した位置との距離を特定する距離データを含み、
前記判定するステップでは、前記画像データで特定される画像の基準明度を特定し、前記基準明度に応じて、前記距離データを補正する、付記13に記載のプログラム。
(Appendix 14)
The sensor data includes distance data for specifying a distance between the infrared sensor and a position where the infrared light is reflected,
14. The program according to appendix 13, wherein, in the determining step, a reference brightness of an image specified by the image data is specified, and the distance data is corrected according to the reference brightness.

(付記15)
前記判定するステップでは、前記画像の明度を、画素毎に算出し、複数の前記明度のそれぞれについて、前記明度が同じ画素の数を集計し、複数の前記明度のうち、画素の数が最も多い前記明度を、前記基準明度として設定する、付記14に記載のプログラム。
(Appendix 15)
In the determining step, the brightness of the image is calculated for each pixel, and for each of the plurality of brightnesses, the number of pixels having the same brightness is totaled, and among the plurality of brightnesses, the number of pixels is the largest. The program according to appendix 14, wherein the lightness is set as the reference lightness.

(付記16)
前記判定するステップでは、前記基準明度に応じて、予め設定された補正値を用いて、前記距離データを補正する、付記14または付記15に記載のプログラム。
(Appendix 16)
The program according to appendix 14 or appendix 15, wherein in the determining step, the distance data is corrected using a preset correction value according to the reference brightness.

(付記17)
前記判定するステップでは、前記基準明度が低くなるに従い、前記距離データで特定される距離が小さくなるように、前記距離データを補正する、付記14〜付記16のいずれか1項に記載のプログラム。
(Appendix 17)
The program according to any one of Supplementary Note 14 to Supplementary Note 16, wherein in the determining step, the distance data is corrected so that the distance specified by the distance data decreases as the reference lightness decreases.

(付記18)
(d)前記判定するステップの判定結果に基づいて、電力制御対象への電力供給を制御するステップ、
をさらに備えている、付記13〜付記17のいずれか1項に記載のプログラム。
(Appendix 18)
(D) controlling power supply to the power control target based on the determination result of the determining step;
The program according to any one of appendix 13 to appendix 17, further comprising:

本発明は、所定の判定領域に物体が存在しているか否かを検出する、物体検出装置、物体検出方法、およびプログラムに適用することができる。   The present invention can be applied to an object detection device, an object detection method, and a program for detecting whether or not an object exists in a predetermined determination region.

102 物体検出装置
103 センサデータ取得部
104 画像データ取得部
105 補正判定部
106 赤外線センサ
108 表示部(電力制御対象)
112 電力制御部
210 コンピュータ
a1 判定領域
hist[c] 画素数
r 補正値
Vb 基準明度
V 明度
DESCRIPTION OF SYMBOLS 102 Object detection apparatus 103 Sensor data acquisition part 104 Image data acquisition part 105 Correction determination part 106 Infrared sensor 108 Display part (power control object)
112 power control unit 210 computer a1 determination area hist [c] number of pixels r correction value Vb reference brightness V brightness

Claims (8)

所定の判定領域に照射され、反射された赤外線を検出する赤外線センサから、前記赤外線の検出結果を特定するセンサデータを取得する、センサデータ取得部と、
前記判定領域の画像データを取得する、画像データ取得部と、
前記画像データに基づいて、前記センサデータを補正し、補正した前記センサデータを用いて、前記判定領域に物体が存在しているか否かを判定する、補正判定部と、
を備えていることを特徴とする、物体検出装置。
A sensor data acquisition unit that acquires sensor data that identifies the detection result of the infrared ray from an infrared sensor that detects the reflected infrared ray that is irradiated to the predetermined determination region; and
An image data acquisition unit for acquiring image data of the determination region;
A correction determination unit that corrects the sensor data based on the image data, and determines whether or not an object exists in the determination region using the corrected sensor data;
An object detection apparatus comprising:
前記センサデータは、前記赤外線センサと、前記赤外線が反射した位置との距離を特定する距離データを含み、
前記補正判定部は、前記画像データで特定される画像の基準明度を特定し、前記基準明度に応じて、前記距離データを補正する、請求項1に記載の物体検出装置。
The sensor data includes distance data for specifying a distance between the infrared sensor and a position where the infrared light is reflected,
The object detection apparatus according to claim 1, wherein the correction determination unit specifies a reference lightness of an image specified by the image data, and corrects the distance data according to the reference lightness.
前記補正判定部は、前記画像の明度を、画素毎に算出し、複数の前記明度のそれぞれについて、前記明度が同じ画素の数を集計し、複数の前記明度のうち、画素の数が最も多い前記明度を、前記基準明度として設定する、請求項2に記載の物体検出装置。   The correction determination unit calculates the brightness of the image for each pixel, counts the number of pixels having the same brightness for each of the plurality of brightnesses, and among the plurality of brightnesses, the number of pixels is the largest. The object detection apparatus according to claim 2, wherein the lightness is set as the reference lightness. 前記補正判定部は、前記基準明度に応じて、予め設定された補正値を用いて、前記距離データを補正する、請求項2または請求項3に記載の物体検出装置。   The object detection device according to claim 2, wherein the correction determination unit corrects the distance data using a correction value set in advance according to the reference brightness. 前記補正判定部は、前記基準明度が低くなるに従い、前記距離データで特定される距離が小さくなるように、前記距離データを補正する、請求項2〜請求項4のいずれか1項に記載の物体検出装置。   5. The correction determination unit according to claim 2, wherein the correction determination unit corrects the distance data so that a distance specified by the distance data decreases as the reference brightness decreases. 6. Object detection device. 前記補正判定部の判定結果に基づいて、電力制御対象への電力供給を制御する電力制御部、
をさらに備えている、請求項1〜請求項5のいずれか1項に記載の物体検出装置。
A power control unit that controls power supply to a power control target based on the determination result of the correction determination unit;
The object detection device according to any one of claims 1 to 5, further comprising:
(a)所定の判定領域に照射され、反射された赤外線を検出する赤外線センサから、前記赤外線の検出結果を特定するセンサデータを取得するステップと、
(b)前記判定領域の画像データを取得するステップと、
(c)前記画像データに基づいて、前記センサデータを補正し、補正した前記センサデータを用いて、前記判定領域に物体が存在しているか否かを判定するステップと、
を含むことを特徴とする、物体検出方法。
(A) obtaining sensor data specifying the detection result of the infrared rays from an infrared sensor that detects the reflected infrared rays that are irradiated and reflected on the predetermined determination region;
(B) obtaining image data of the determination area;
(C) correcting the sensor data based on the image data, and determining whether an object exists in the determination region using the corrected sensor data;
An object detection method comprising:
コンピュータに、
(a)所定の判定領域に照射され、反射された赤外線を検出する赤外線センサから、前記赤外線の検出結果を特定するセンサデータを取得するステップと、
(b)前記判定領域の画像データを取得するステップと、
(c)前記画像データに基づいて、前記センサデータを補正し、補正した前記センサデータを用いて、前記判定領域に物体が存在しているか否かを判定するステップと、
を実行させる、プログラム。
On the computer,
(A) obtaining sensor data specifying the detection result of the infrared rays from an infrared sensor that detects the reflected infrared rays that are irradiated and reflected on the predetermined determination region;
(B) obtaining image data of the determination area;
(C) correcting the sensor data based on the image data, and determining whether an object exists in the determination region using the corrected sensor data;
A program that executes
JP2012061596A 2012-03-19 2012-03-19 Object detection apparatus, object detection method, and program Active JP5561795B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012061596A JP5561795B2 (en) 2012-03-19 2012-03-19 Object detection apparatus, object detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012061596A JP5561795B2 (en) 2012-03-19 2012-03-19 Object detection apparatus, object detection method, and program

Publications (2)

Publication Number Publication Date
JP2013195185A true JP2013195185A (en) 2013-09-30
JP5561795B2 JP5561795B2 (en) 2014-07-30

Family

ID=49394323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012061596A Active JP5561795B2 (en) 2012-03-19 2012-03-19 Object detection apparatus, object detection method, and program

Country Status (1)

Country Link
JP (1) JP5561795B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014190747A (en) * 2013-03-26 2014-10-06 Nec Personal Computers Ltd Information processing device
WO2016121799A1 (en) * 2015-01-28 2016-08-04 シャープ株式会社 Color filter substrate and display device
JP2016201629A (en) * 2015-04-08 2016-12-01 富士通株式会社 Electronic apparatus and program
JP7345604B1 (en) 2022-06-17 2023-09-15 三菱電機Itソリューションズ株式会社 Presence management device, presence management method, and presence management program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006067503A (en) * 2004-08-30 2006-03-09 Matsushita Electric Works Ltd Camera and video interphone handset employing the same
JP2008116308A (en) * 2006-11-02 2008-05-22 Fujifilm Corp Method and apparatus for generating range image
JP2008128792A (en) * 2006-11-20 2008-06-05 Fujifilm Corp Distance image producing device and method
JP2008249431A (en) * 2007-03-29 2008-10-16 Nippon Hoso Kyokai <Nhk> Three-dimensional image correction method and its device
WO2010021090A1 (en) * 2008-08-20 2010-02-25 パナソニック株式会社 Distance estimating device, distance estimating method, program, integrated circuit, and camera
JP2010071976A (en) * 2008-08-19 2010-04-02 Panasonic Corp Distance estimation device, distance estimation method, program, integrated circuit, and camera
WO2010119482A1 (en) * 2009-04-16 2010-10-21 トヨタ自動車株式会社 Distance detecting apparatus and method employed therein

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006067503A (en) * 2004-08-30 2006-03-09 Matsushita Electric Works Ltd Camera and video interphone handset employing the same
JP2008116308A (en) * 2006-11-02 2008-05-22 Fujifilm Corp Method and apparatus for generating range image
JP2008128792A (en) * 2006-11-20 2008-06-05 Fujifilm Corp Distance image producing device and method
JP2008249431A (en) * 2007-03-29 2008-10-16 Nippon Hoso Kyokai <Nhk> Three-dimensional image correction method and its device
JP2010071976A (en) * 2008-08-19 2010-04-02 Panasonic Corp Distance estimation device, distance estimation method, program, integrated circuit, and camera
WO2010021090A1 (en) * 2008-08-20 2010-02-25 パナソニック株式会社 Distance estimating device, distance estimating method, program, integrated circuit, and camera
WO2010119482A1 (en) * 2009-04-16 2010-10-21 トヨタ自動車株式会社 Distance detecting apparatus and method employed therein

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014190747A (en) * 2013-03-26 2014-10-06 Nec Personal Computers Ltd Information processing device
WO2016121799A1 (en) * 2015-01-28 2016-08-04 シャープ株式会社 Color filter substrate and display device
JP2016201629A (en) * 2015-04-08 2016-12-01 富士通株式会社 Electronic apparatus and program
JP7345604B1 (en) 2022-06-17 2023-09-15 三菱電機Itソリューションズ株式会社 Presence management device, presence management method, and presence management program
JP2023183890A (en) * 2022-06-17 2023-12-28 三菱電機Itソリューションズ株式会社 Attendance management apparatus, attendance management method, and attendance management program

Also Published As

Publication number Publication date
JP5561795B2 (en) 2014-07-30

Similar Documents

Publication Publication Date Title
US8644554B2 (en) Method, device, and computer-readable medium for detecting object in display area
CN105023552B (en) Display and brightness adjusting method thereof
US10070047B2 (en) Image processing apparatus, image processing method, and image processing system
US20170061894A1 (en) Image display apparatus
US9357190B2 (en) Projection device and automatic projection calibration method thereof
US10517523B2 (en) Skin aging state assessment method and electronic device
US9146627B2 (en) Lift detection method for optical mouse and optical mouse with lift detection function
US10789716B2 (en) Image processing apparatus and method of controlling the same and recording medium
JP5561795B2 (en) Object detection apparatus, object detection method, and program
US11036974B2 (en) Image processing apparatus, image processing method, and storage medium
US10628951B2 (en) Distance measurement system applicable to different reflecting surfaces and computer system
US20190166299A1 (en) Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium
US10348983B2 (en) Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image
CN112351271A (en) Camera shielding detection method and device, storage medium and electronic equipment
US20120098745A1 (en) System and method for highlighting multimedia presentation
KR20170111460A (en) Method and apparatus for processing image acquired through a camera
KR102487590B1 (en) Method for measuring of object based on face-recognition
JP2011029710A (en) Image processor, image processing program, and imaging apparatus
US10116809B2 (en) Image processing apparatus, control method, and computer-readable storage medium, which obtains calibration image information with which to correct image data
US9377896B2 (en) Optical touch system and hovering identification method thereof
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
JP2014045396A (en) Image processing unit, image processing method, and stand-type scanner
KR102468729B1 (en) Electronic device and object sensing method therof
JP2010244537A (en) Method for correcting image distortion
KR20130003313A (en) A touchscreen device using shot images of border of monitor and a method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140605

R150 Certificate of patent or registration of utility model

Ref document number: 5561795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350