WO2022014251A1 - 情報処理装置、補正方法、プログラム - Google Patents

情報処理装置、補正方法、プログラム Download PDF

Info

Publication number
WO2022014251A1
WO2022014251A1 PCT/JP2021/023103 JP2021023103W WO2022014251A1 WO 2022014251 A1 WO2022014251 A1 WO 2022014251A1 JP 2021023103 W JP2021023103 W JP 2021023103W WO 2022014251 A1 WO2022014251 A1 WO 2022014251A1
Authority
WO
WIPO (PCT)
Prior art keywords
range
image
information processing
value
frame
Prior art date
Application number
PCT/JP2021/023103
Other languages
English (en)
French (fr)
Inventor
真也 阪田
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to US18/003,414 priority Critical patent/US20230245318A1/en
Priority to DE112021003723.4T priority patent/DE112021003723T5/de
Priority to CN202180047031.0A priority patent/CN115769257A/zh
Publication of WO2022014251A1 publication Critical patent/WO2022014251A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to an information processing device, a correction method, and a program for correcting an object detection result.
  • an information processing device that detects an object in an image and displays a detection frame so as to surround the object in the image as a detection result.
  • the information processing device is an image pickup device, the information processing device executes, for example, autofocus on the subject indicated by the detection frame.
  • Patent Document 1 As a technique for detecting a subject, in Patent Document 1, spatial frequency filtering is performed on an input image, candidates for a face region are extracted, and face detection is determined based on a feature amount to determine whether or not the face region includes a face.
  • the device is disclosed.
  • an object of the present invention is to provide a technique for appropriately correcting a detection result indicating a range of an object in an image.
  • the present invention adopts the following configuration.
  • the first aspect of the present invention is an acquisition means for acquiring an image and a detection result of the object indicating the range of the object in the image, and a tendency value of the first range surrounded by a frame corresponding to the detection result in the image.
  • the information processing apparatus is characterized by having a correction means for correcting the frame as shown by the frame in a third range excluding the above.
  • the tendency value is a representative value indicating the tendency of the range.
  • the correction means may correct the frame so that the third range is not located outside the frame and the frame is in contact with the third range. Since the third range is the range in which the object is displayed, the frame can be corrected so as to follow the object according to such a configuration. Therefore, the frame can be arranged at an appropriate position and size.
  • the tendency value may be any of the mode value, the average value, and the median value of the pixel values in the first range.
  • the tendency of the first range can be appropriately acquired, so that the third range can be appropriately determined, and the frame can be appropriately corrected.
  • the object may be a human face.
  • the information processing device according to the present invention is an image pickup device, the result of detecting a human face can be used to appropriately arrange a frame on the human face and perform an operation such as autofocus.
  • the shape of the frame is a rectangle
  • the correction means may correct the frame so that each side touches the third range. If the frame is corrected so that each side of the rectangular frame touches, the frame can be appropriately corrected so that the position and size of the frame match the range of the object.
  • the threshold value may be a value based on the difference between the maximum value and the minimum value of the pixel values in the first range or the second range.
  • the threshold value can be determined based on the spread of the pixel value in the first range or the second range (for example, the difference between the background pixel and the object pixel). Therefore, the frame is corrected so as to indicate an appropriate third range in consideration of the spread of the pixel value in the first range or the second range (for example, the difference between the background pixel and the object pixel). be able to.
  • the image may be a gray image or an RGB image.
  • the image may be a distance image in which each pixel indicates the distance between the subject and the image pickup device as a pixel value.
  • the image may be a temperature image in which each pixel indicates the temperature of the subject as a pixel value. According to the use of a distance image or a temperature image, in a gray image or an RGB image, the color and the brightness are so close that the third range cannot be appropriately determined, so that the frame cannot be corrected appropriately. However, the frame can be corrected appropriately.
  • the determination means determines a plurality of different tendency values in the first range, and the third range is from the second range to at least one of the plurality of tendency values.
  • the difference from the value may be a range excluding the range above the threshold value.
  • the present invention may be regarded as a control device having at least a part of the above means, or may be regarded as a processing device or a processing system. Further, the present invention may be regarded as a method for correcting a frame including at least a part of the above processing and a method for controlling an information processing apparatus. Further, the present invention can also be regarded as a program for realizing such a method and a recording medium in which the program is recorded non-temporarily. It should be noted that each of the above means and treatments can be combined with each other as much as possible to form the present invention.
  • FIGS. 1A to 1C are diagrams showing images in which a detection frame is set.
  • FIG. 2 is a configuration diagram of an information processing device.
  • FIG. 3 is a flowchart showing a correction process of the detection frame.
  • 4A is a diagram for explaining the setting of the detection frame
  • FIG. 4B is a diagram for explaining the object region
  • FIG. 4C is a diagram for explaining the correction of the detection frame.
  • the information processing apparatus 100 determines the position and size of the detection frame (frame indicating an object in the image) which is the result of object detection based on the tendency value (representative value) in the range surrounded by the detection frame. To correct. Specifically, the information processing apparatus 100 acquires the tendency value (the average value or the median value of the pixel values in the range) in the range surrounded by the detection frame, and the difference from the tendency value is within a predetermined threshold value. The detection frame (detection result) is corrected so as to surround the range (area).
  • the tendency value is a value indicating a tendency in the range surrounded by the detection frame, and is also a value indicating a tendency of the detected object in the image. Therefore, it becomes possible to more appropriately correct the detection frame so as to surround the object.
  • FIGS. 1A to 1C and FIG. 1A and 1B are images processed by the information processing apparatus 100, and show images in which a frame (detection frame; object frame) showing an object is set (superimposed), respectively.
  • 1A and 1B show a face 20 of a person who is a subject and a detection frame 10 surrounding the face 20 so as to show the face 20.
  • the detection frame 10 is displayed larger than the range in which the face 20 is displayed.
  • FIG. 1B the detection frame 10 is displayed smaller than the range in which the face 20 is displayed. Therefore, as shown in FIG. 1C, the information processing apparatus 100 according to the present embodiment has these detection frames so that the face 20 is arranged along the displayed range (so as to be arranged at an appropriate size and position). Correct 10
  • FIG. 2 is a configuration diagram of the information processing apparatus 100.
  • the information processing device 100 is, for example, a PC (personal computer), a smartphone, a tablet terminal, or a digital camera (imaging device). Further, the information processing apparatus 100 may be an embedded computer such as an on-board computer.
  • the information processing device 100 includes a control unit 101, a storage unit 102, an image acquisition unit 103, an object detection unit 104, a tendency determination unit 105, an area determination unit 106, a correction unit 107, and a display unit 108.
  • the control unit 101 controls each functional unit in the information processing apparatus 100.
  • the control unit 101 is, for example, a CPU (Central Processing Unit).
  • the control unit 101 can realize the control of each functional unit by executing the program stored in the storage unit 102.
  • the storage unit 102 stores a threshold value for determining whether or not to correct the detection frame, a program for the control unit 101 to execute, and the like.
  • the storage unit 102 stores a ROM (Read-only Memory) that stores important programs as a system, a RAM (Random Access Memory) that enables high-speed access to the data to be stored (recorded), and a large amount of data.
  • a plurality of storage members (recording members) such as an HDD (Hard Disc Drive) for storing can be included.
  • the image acquisition unit 103 acquires an image for detecting an object.
  • the image acquisition unit 103 may acquire an image from the outside of the information processing device 100 via an interface, or may acquire an image from an image pickup unit (not shown) or a storage unit 102 of the information processing device 100. ..
  • the images acquired by the image acquisition unit 103 are an RGB image, a gray image, a brightness image, a distance image (an image in which each pixel indicates the distance between the subject (object) and the image pickup unit as a pixel value), and a temperature image (of the subject). It may be an arbitrary image such as an image in which each pixel shows the temperature as a pixel value).
  • the object detection unit 104 detects an object included in the image acquired by the image acquisition unit 103, and sets a detection frame indicating the object as the detection result.
  • the detected object is, for example, a human face, an animal, a moving object such as a train or an airplane.
  • the object to be detected may be set by the user in advance, and if the user's viewpoint position (position viewed by the display unit 108) can be detected by the line-of-sight detection unit or the like, the object corresponding to the viewpoint position is detected. It may be.
  • the detection frame is described as being rectangular in the present embodiment, it may have any shape such as a polygon such as a circle, an ellipse, or a hexagon.
  • setting the detection frame is to set the information indicating the range of the object as the detection result of the object. That is, the object detection unit 104 only needs to be able to set information that uniquely indicates the detection frame (position, size, range of the detection frame). For example, as a detection frame setting, information on the coordinate positions of four points of the detection frame. Or, information on the coordinate position of one point and the vertical and horizontal lengths of the frame may be set.
  • a method of detecting an object from an image for example, a method of matching an information indicating an object stored in advance with a part of an image and detecting the object from the degree of similarity according to the matching, or Patent Document 1
  • the method of detecting an object from an image and the method of setting a detection frame may be realized by any known method, detailed description thereof will be omitted. Further, it is not necessary for the object detection unit 104 to set the detection frame for the image, and the image acquisition unit 103 may acquire the image in which the detection frame is set.
  • the tendency determination unit 105 determines the tendency value in the range (detection range) surrounded by the detection frame in the image.
  • the tendency value is a representative value (feature amount) of the pixel value in the detection range.
  • the tendency determination unit 105 determines, for example, the average value, the mode value, or the median value of the pixel values in the detection range as the tendency value.
  • the area determination unit 106 searches for pixels whose difference from the tendency value is smaller than the threshold value in a range (target range) that includes the detection range and is larger than the detection range.
  • the target range may be, for example, a range in which the detection range is doubled in the vertical direction and doubled in the horizontal direction with the center position of the detection range as the center. Then, the area determination unit 106 determines the area (range) consisting of all the pixels whose difference from the tendency value is smaller than the threshold value in the target range as the area (object area; object range) in which the object exists.
  • the object area is a range (area) excluding the pixels (range) whose difference from the tendency value is equal to or greater than the threshold value from the target range.
  • the threshold value for determining the object area may be a value input in advance by the user, or may be determined by the area determination unit 106 based on the image.
  • the region determination unit 106 can determine the threshold value based on the maximum and minimum pixel values in the detection range, the target range, or the entire image.
  • the area determination unit 106 determines a number obtained by dividing the difference between the maximum value and the minimum value of the pixel value in the detection range or the target range by a predetermined numerical value (for example, 5 or 10) as a threshold value. Can be done.
  • the threshold value By determining the threshold value in this way, when the background and the object are represented by pixel values close to each other, the threshold value can be reduced, and the background and the object are represented by the pixel values that are significantly different. If so, the threshold can be increased. Therefore, when the background and the object are represented by pixel values close to each other, the possibility that the pixels indicating the background are included in the object area can be reduced. When the background and the object are represented by pixel values that are significantly different, it is possible to reduce the possibility that the pixel indicating the object is not included in the object area.
  • the correction unit 107 corrects the detection frame so as to surround (show) the object area. That is, the correction unit 107 corrects the detection frame so that the pixel whose difference from the tendency value is smaller than the threshold value is not located outside (outside) the detection frame in the target range.
  • the correction unit 107 corrects the detection frame so as to be in contact with the object area, the user can substantially match the range of the detection frame with the range in which the object is displayed.
  • the display unit 108 displays an image on which the detection frame corrected by the correction unit 107 is superimposed.
  • the display unit 108 may be an organic EL display or a projector.
  • FIG. 2 may be configured by ASIC, FPGA, or the like. Alternatively, all or part of the configuration shown in FIG. 2 may be realized by cloud computing or distributed computing.
  • FIG. 3 shows a flowchart of the correction process of the detection frame. Further, each process of the flowchart of FIG. 3 is realized by the control unit 101 executing the program stored in the storage unit 102 and the control unit 101 controlling each functional unit.
  • step S1001 the image acquisition unit 103 acquires an image.
  • the image acquired by the image acquisition unit 103 may be a live view image in which the subject is captured in real time, or may be a moving image or a still image previously stored in the storage unit 102.
  • the display unit 108 may display the image acquired by the image acquisition unit 103.
  • the object detection unit 104 detects an object from the image acquired by the image acquisition unit 103, and sets a detection frame for the image so as to indicate the object.
  • the detected object is a human face.
  • the object detection unit 104 sets the detection frame 41 in the image so as to show the human face 40 as shown in FIG. 4A.
  • setting the detection frame means, as described above, setting information that uniquely indicates the detection frame (position, size, range of the detection frame) as the detection result.
  • the tendency determination unit 105 determines the tendency value in the range (detection range) surrounded by the detection frame in the image.
  • the tendency value can be a representative value such as an average value, a mode value, or a median value of the pixel values of all the pixels in the detection range. Therefore, when the image is a distance image or a temperature image, it may be an average value, a mode value, or a median value of the distance value or the temperature value indicated by all the pixels in the detection range.
  • an appropriate tendency value can be determined if the distance and temperature between the object and the background are different. Therefore, for example, when the colors of the face and the background are similar, the detection frame can be appropriately corrected by using a distance image or a temperature image rather than using an RGB image or a gray image.
  • step S1004 the area determination unit 106 determines an area (object area; object range) consisting of all pixels whose difference from the tendency value is smaller than the threshold value in the target range which is larger than the detection range.
  • the object area is a range (area) excluding the pixels (range) whose difference from the tendency value is equal to or greater than the threshold value from the target range.
  • the area determination unit 106 may determine an area consisting of blocks (a set of a plurality of pixels) whose difference from the tendency value is smaller than the threshold value as an object area. In this case, the area determination unit 106 can determine the object area according to the difference between the tendency value and the average pixel value of each block.
  • the target range is smaller than the entire image and is not more than twice or less than 1.5 times the size of the detection range (vertical length, horizontal length). It is preferable to limit the size to a predetermined size (magnification larger than 1) or less. Further, the target range may be a size obtained by adding a predetermined size to the size of the detection range. The size of the target range may be the average size of the size of the detection range and the size of the entire image. As described above, the region determination unit 106 may determine the target range based on the size of the detection range or the size of the detection range and the size of the entire image in a range smaller than the entire image.
  • control unit 101 may perform noise processing (labeling processing, reduction / expansion processing) for removing noise from the image acquired in S1001 after determining the object area.
  • noise processing labeling processing, reduction / expansion processing
  • the correction unit 107 corrects the detection frame (object detection result) so as to surround the object area. That is, the correction unit 107 corrects the detection frame so that the object region is located inside the detection frame. Therefore, the pixel (range) whose difference from the tendency value is smaller than the threshold value is not located outside the corrected detection frame in the target range.
  • the correction unit 107 corrects the detection frame so that each side of the detection frame is in contact with the object region. For example, when the region not shown by the diagonal line shown in FIG. 4B is an object region, the detection frame 41 may be corrected as shown in FIG. 4C.
  • the correction unit 107 may change the shape of the detection frame in step S1005. For example, the correction unit 107 may change the shape of the detection frame from a rectangle to a circle. Further, if the shape of the detection frame is other than a rectangle, the correction unit 107 may change the shape of the detection frame to be a rectangle.
  • the display unit 108 may display an image in which the corrected detection frame is set (superimposed). Further, the control unit 101 may control to execute autofocus on the range surrounded by the corrected detection frame, or cut out the range as an image showing a face, for example, in the storage unit 102. You may try to memorize it.
  • the detection frame can be corrected so as to enclose a set of pixels close to the tendency value. Therefore, it is possible to correct the detection frame to indicate a more suitable range.
  • the range target range
  • the range for determining whether or not it is close to the tendency value larger than the range surrounded by the detection frame (detection range)
  • the information processing device is an image pickup device, it is possible to perform appropriate autofocus or the like on an object displayed in the range surrounded by the detection frame. ..
  • the information processing apparatus 100 determines the object region by one tendency value, but the object region may be determined by using a plurality of tendency values.
  • the processing of step S1003 and step S1004 is different, so only the processing of these steps will be described below.
  • the tendency determination unit 105 determines (acquires) a plurality of tendency values in the range (detection range) of the detection frame in the image. For example, the tendency determination unit 105 acquires the average value of the R value, the average value of the G value, and the average value of the B value from the RGB image. Alternatively, when the tendency determination unit 105 has acquired an image including an RGB image and a distance image, the tendency determination unit 105 acquires the average pixel value of the RGB image and the average value of the distance indicated by each pixel of the distance image. do.
  • the area determination unit 106 determines an area (object area) composed of pixels whose difference from each tendency value is smaller than the threshold value in the target range.
  • the object region is a range (region) excluding the pixels (range) in which the difference from at least one of the plurality of tendency values is equal to or greater than the threshold value from the target range.
  • the area determination unit 106 uses an area of the target range consisting of pixels having an R value of 191 to 209, a G value of 91 to 109, and a B value of 41 to 59 as an object area. decide.
  • the correction means (107) for correcting the frame and (100) an information processing apparatus characterized by having.
  • 100 Information processing device
  • 101 Control unit
  • 102 Storage unit
  • 103 Image acquisition unit
  • 104 Object detection unit
  • 105 Tendency determination unit
  • 106 Area determination unit
  • 107 Correction unit
  • 108 Display unit

Abstract

情報処理装置は、画像、および当該画像における物体の範囲を示す当該物体の検出結果を取得する取得手段と、前記画像において前記検出結果に対応する枠が囲う第1の範囲の傾向値を決定する決定手段と、前記画像における前記第1の範囲よりも大きな第2の範囲であって、前記第1の範囲を含む前記第2の範囲から前記傾向値との差分が閾値以上の範囲を除いた第3の範囲を前記枠が示すように前記枠を補正する補正手段と、を有する。

Description

情報処理装置、補正方法、プログラム
 本発明は、物体の検出結果を補正する情報処理装置、補正方法、プログラムに関する。
 従来、画像に写った物体を検出して、検出結果として、当該画像において当該物体を囲うように検出枠を表示するような情報処理装置がある。ここで、情報処理装置が撮像装置であれば、情報処理装置は、検出枠が囲うことによって示す被写体に対して、例えば、オートフォーカスを実行する。
 被写体を検出する技術として、特許文献1では、入力画像に空間周波数フィルタリングを行って、顔領域の候補を抽出し、当該顔領域に顔が含まれるか否かを特徴量に基づき判断する顔検出装置が開示されている。
特開2006-293720号公報
 しかしながら、特許文献1の技術を用いて顔(物体)を検出し、検出した顔を囲うように検出枠を設定しようとしても、顔の表示された領域よりも検出枠が大きくなったり、または、小さくなったりする。つまり、物体の検出結果として、適切に検出枠を配置できないことがある。
 そこで、本発明は、画像において物体の範囲を示す検出結果を適切に補正する技術を提供することを目的とする。
 上記目的を達成するために本発明は、以下の構成を採用する。
 本発明の第一側面は、画像、および当該画像における物体の範囲を示す当該物体の検出結果を取得する取得手段と、前記画像において前記検出結果に対応する枠が囲う第1の範囲の傾向値を決定する決定手段と、前記画像における前記第1の範囲よりも大きな第2の範囲であって、前記第1の範囲を含む前記第2の範囲から前記傾向値との差分が閾値以上の範囲を除いた第3の範囲を前記枠が示すように前記枠を補正する補正手段と、を有することを特徴とする情報処理装置である。
 このような構成によれば、検出結果に対応する枠が囲う範囲より大きい範囲から、当該枠が囲う範囲の傾向値と離れた範囲を除くことができるため、当該枠を適切な位置および大きさに補正することができる。また、傾向値とは、範囲の傾向を示す代表値である。
 ここで、前記補正手段は、前記第3の範囲が前記枠の外側に位置しないように、かつ、前記第3の範囲に前記枠が接するように前記枠を補正してもよい。第3の範囲は物体が表示された範囲であるから、このような構成によれば、物体に沿うように枠を補正することができる。従って、適切な位置および大きさで枠を配置することができる。
 ここで、前記傾向値は、前記第1の範囲における画素値の最頻値、平均値、中央値のいずれかであってよい。このような値を用いれば、第1の範囲の傾向を適切に取得することができるため、第3の範囲を適切に決定でき、さらに、枠を適切に補正できることになる。
 ここで、前記物体は、人の顔であってよい。例えば、本発明に係る情報処理装置が撮像装置であれば、人の顔を検出した結果を用いて、人の顔に枠を適切に配置して、オートフォーカスなどの動作をすることができる。
 ここで、前記枠の形状は、矩形であり、前記補正手段は、前記第3の範囲に各辺が接するように前記枠を補正してもよい。矩形の枠の各辺が接するように枠を補正すれば、枠の位置および大きさが物体の範囲に合致するように適切に枠を補正することができる。
 ここで、前記閾値は、前記第1の範囲または前記第2の範囲における、画素値の最大値および最小値の差分に基づく値であってもよい。このような構成によれば、第1の範囲または第2の範囲における画素値の広がり(例えば、背景の画素と物体の画素との違い)に基づき、閾値を決定することができる。このため、第1の範囲または第2の範囲における画素値の広がり(例えば、背景の画素と物体の画素との違い)を考慮して、適切な第3の範囲を示すように枠を補正することができる。
 ここで、前記画像は、グレー画像、または、RGB画像であってもよい。前記画像は、各画素が被写体と撮像装置との距離を画素値として示す距離画像であってもよい。前記画像は、各画素が被写体の温度を画素値として示す温度画像であってもよい。距離画像や温度画像を用いることによれば、グレー画像やRGB画像において色や輝度が近くて第3の範囲を適切に決定できないことに起因して適切に枠を補正することができないような場合でも、適切に枠を補正することができる。
 ここで、前記決定手段は、前記第1の範囲における互いに異なる複数の傾向値を決定し、前記第3の範囲は、前記第2の範囲から、前記複数の傾向値のうち少なくともいずれかの傾向値との差分が閾値以上の範囲を除いた範囲であってもよい。複数の傾向値を用いることによれば、第3の範囲をさらに適切に決定できるため、さらに適切に枠を補正することができる。
 本発明は、上記手段の少なくとも一部を有する制御装置として捉えてもよいし、処理装置や処理システムとして捉えてもよい。また、本発明は、上記処理の少なくとも一部を含む枠の補正方法、情報処理装置の制御方法、として捉えてもよい。また、本発明は、かかる方法を実現するためのプログラムやそのプログラムを非一時的に記録した記録媒体として捉えることもできる。なお、上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
 本発明によれば、画像において物体の範囲を示す検出結果を適切に補正する技術を提供することができる。
図1A~図1Cは、検出枠が設定された画像を示す図である。 図2は、情報処理装置の構成図である。 図3は、検出枠の補正処理を示すフローチャートである。 図4Aは検出枠の設定を説明する図であり、図4Bは物体領域を説明する図であり、図4Cは検出枠の補正を説明する図である。
<適用例>
 本実施形態に係る情報処理装置100は、物体検出の結果である検出枠(画像における物体を示す枠)の位置および大きさを、検出枠に囲まれた範囲の傾向値(代表値)に基づいて補正する。具体的には、情報処理装置100は、検出枠に囲まれた範囲の傾向値(当該範囲における画素値の平均値や中央値)を取得して、当該傾向値との差分が所定の閾値以内である範囲(領域)を囲うように、検出枠(検出結果)を補正する。ここで、傾向値は、検出枠に囲まれた範囲における傾向を示す値であり、画像における検出した物体の傾向を示す値でもある。このため、物体を囲うように検出枠をより適切に補正することが可能になる。
<実施形態>
[情報処理装置の構成]
 図1A~図1C、および図2を用いて本実施形態に係る情報処理装置100の構成について説明する。図1Aおよび図1Bは、情報処理装置100が処理を行う画像であって、物体を示す枠(検出枠;物体枠)が設定(重畳)された画像をそれぞれ示している。図1Aおよび図1Bでは、被写体である人の顔20と、顔20を示すように囲う検出枠10を示している。図1Aでは、顔20が表示された範囲よりも大きく検出枠10が表示されている。図1Bでは、顔20が表示された範囲よりも小さく検出枠10が表示されている。そこで、本実施形態に係る情報処理装置100は、図1Cに示すように、顔20が表示された範囲に沿うように(適切な大きさおよび位置に配置されるように)、これらの検出枠10を補正する。
 図2は、情報処理装置100の構成図である。情報処理装置100は、例えば、PC(パーソナルコンピュータ)、スマートフォン、タブレット端末、デジタルカメラ(撮像装置)である。また、情報処理装置100は、オンボードコンピュータのように組み込み型のコンピュータでもよい。情報処理装置100は、制御部101、記憶部102、画像取得部103、物体検出部104、傾向決定部105、領域決定部106、補正部107、表示部108を有する。
 制御部101は、情報処理装置100における各機能部を制御する。制御部101は、例えば、CPU(Central Processing Unit)である。制御部101は、記憶部102に記憶されたプログラムを実行することによって、各機能部の制御を実現することができる。
 記憶部102は、検出枠を補正するか否かを判定するための閾値や、制御部101が実行するためのプログラムなどを記憶する。なお、記憶部102は、システムとして重要なプログラムを記憶するROM(Read-only Memory)、記憶する(記録する)データへの高速アクセスを可能とするRAM(Random Access Memory)、大きな容量のデータを記憶するHDD(Hard Disk Drive)などの複数の記憶部材(記録部材)を含むことができる。
 画像取得部103は、物体を検出するための画像を取得する。画像取得部103は、インターフェースを介して情報処理装置100の外部から画像を取得してもよいし、情報処理装置100が有する撮像部(不図示)や記憶部102から画像を取得してもよい。なお、画像取得部103が取得する画像は、RGB画像やグレー画像、輝度画像、距離画像(被写体(物体)と撮像部との距離を各画素が画素値として示す画像)、温度画像(被写体の温度を各画素が画素値として示す画像)など任意の画像であってもよい。
 物体検出部104は、画像取得部103が取得した画像に含まれる物体を検出して、検出結果として、当該物体を示すような検出枠を設定する。ここで、検出される物体は、例えば、人の顔や動物、電車や飛行機などの動体である。検出される物体は、予めユーザが設定しておいてもよいし、視線検出部などによってユーザの視点位置(表示部108において見ている位置)が検出可能であれば当該視点位置に対応する物体であってもよい。なお、検出枠は、本実施形態では、矩形であるとして説明するが、円形、楕円形、六角形などの多角形など任意の形状であってもよい。なお、「検出枠を設定する」とは、物体の検出結果として、当該物体の範囲を示す情報を設定することである。つまり、物体検出部104は、検出枠(検出枠の位置、大きさ、範囲)を一義的に示す情報を設定できればよく、例えば、検出枠の設定として、検出枠の4点の座標位置の情報や、1点の座標位置と枠の縦横の長さとの情報を設定してもよい。
 また、画像から物体を検出する方法には、例えば、予め記憶した物体を示す情報と画像の一部とをマッチングして、マッチングに応じた類似度から物体を検出する方法や、特許文献1に記載された方法などがある。なお、画像から物体を検出する方法や、検出枠を設定する方法については、既知の任意の方法によって実現されてよいため、詳細な説明を省略する。また、物体検出部104が検出枠を画像に対して設定する必要はなく、画像取得部103が、検出枠が設定された画像を取得してもよい。
 傾向決定部105は、画像において検出枠が囲う範囲(検出範囲)の傾向値を決定する。本実施形態では、傾向値は、検出範囲における画素値の代表値(特徴量)である。傾向決定部105は、例えば、検出範囲における画素値の平均値、最頻値、または中央値を傾向値として決定する。
 領域決定部106は、検出範囲を含み、かつ、検出範囲よりも大きい範囲(対象範囲)において、傾向値との差分が閾値よりも小さい画素を探索する。対象範囲は、例えば、検出範囲の中心位置を中心として、検出範囲を縦方向に2倍し、横方向に2倍した範囲であり得る。そして、領域決定部106は、対象範囲のうち、傾向値との差分が閾値よりも小さい全ての画素からなる領域(範囲)を、物体が存在する領域(物体領域;物体範囲)として決定する。言い換えると、物体領域は、対象範囲から、傾向値との差分が閾値以上の画素(範囲)を除いた範囲(領域)である。
 ここで、物体領域を決定するための閾値は、ユーザが事前に入力した値であってもよいし、領域決定部106が画像に基づき決定してもよい。例えば、領域決定部106は、検出範囲または対象範囲または画像全体における画素値の最大値と最小値に基づき、閾値を決定することができる。具体的には、領域決定部106は、検出範囲または対象範囲における画素値の最大値と最小値との差分を所定の数値(例えば、5や10)で除算した数を、閾値として決定することができる。このように、閾値を決定することによれば、背景と物体とが近い画素値によって表現されている場合には閾値を小さくすることができ、背景と物体とが大きく異なる画素値によって表現されている場合には閾値を大きくすることができる。従って、背景と物体とが近い画素値によって表現されている場合には、背景を示す画素が物体領域に含まれてしまう可能性を低減できる。背景と物体とが大きく異なる画素値によって表現されている場合には、物体を示す画素が物体領域に含まれない可能性を低減することができる。
 補正部107は、物体領域を囲う(示す)ように検出枠を補正する。つまり、補正部107は、対象範囲における検出枠の外側(外部)に、傾向値との差分が閾値よりも小さい画素が位置しないように検出枠を補正する。ここで、補正部107は、物体領域に接するように検出枠を補正すると、ユーザが検出枠の範囲と物体が表示された範囲とをほぼ一致させることができる。
 表示部108は、補正部107が補正をした検出枠が重畳された画像を表示する。表示部108は、有機ELディスプレイやプロジェクタであり得る。
 なお、図2に示す構成の全部または一部を、ASICやFPGAなどで構成してもよい。あるいは、図2に示す構成の全部または一部を、クラウドコンピューティングや分散コンピューティングにより実現してもよい。
[検出枠の補正処理]
 図3、図4A~図4Cを参照して、本実施形態に係る検出枠の補正処理(検出枠の補正方法)を説明する。図3は、検出枠の補正処理のフローチャートを示す。また、図3のフローチャートの各処理は、記憶部102に記憶されたプログラムを制御部101が実行して、制御部101が各機能部を制御することによって実現する。
 ステップS1001において、画像取得部103は、画像を取得する。ここで、画像取得部103が取得する画像は、リアルタイムに被写体を撮像したライブビュー画像であってもよいし、予め記憶部102に記憶された動画や静止画であってもよい。また、表示部108は、画像取得部103が取得した画像を表示してもよい。
 ステップS1002において、物体検出部104は、画像取得部103が取得した画像から物体を検出して、物体を示すように、画像に対して検出枠を設定する。本実施形態では、検出される物体は、人の顔であるとする。例えば、物体検出部104は、図4Aに示すように、人の顔40を示すように、検出枠41を画像に設定する。なお、検出枠を設定するとは、上述したように、検出結果として、検出枠(検出枠の位置、大きさ、範囲)を一義的に示す情報を設定することである。
 ステップS1003において、傾向決定部105は、画像における検出枠に囲まれた範囲(検出範囲)の傾向値を決定する。上述のように、傾向値は、検出範囲の全ての画素の画素値の平均値、最頻値、中央値などの代表値であり得る。このため、画像が距離画像や温度画像である場合には、検出範囲の全ての画素が示す距離値や温度値の平均値、最頻値、中央値であり得る。ここで、距離画像や温度画像を用いることによれば、物体と背景との画素値が近い場合においても、物体と背景との距離や温度が異なれば、適切な傾向値が決定できる。このため、例えば、顔と背景との色が似ている場合には、RGB画像やグレー画像を用いるよりも、距離画像や温度画像を用いることによって適切に検出枠を補正できる。
 ステップS1004において、領域決定部106は、検出範囲よりも大きい範囲である対象範囲において、傾向値との差分が閾値よりも小さい全ての画素からなる領域(物体領域;物体範囲)を決定する。言い換えると、物体領域は、対象範囲から、傾向値との差分が閾値以上の画素(範囲)を除いた範囲(領域)である。例えば、図4Aに示す画像に示す検出枠41が囲う範囲において、ステップS1004の処理が実行されると、図4Bに示す白い領域(斜線によって示されていない領域)が物体領域であると決定される。なお、ステップS1004において、領域決定部106は、傾向値との差分が閾値よりも小さいブロック(複数の画素の集合)からなる領域を物体領域として決定してもよい。この場合には、領域決定部106は、傾向値と各ブロックの平均画素値との差分に応じて、物体領域を決定することができる。
 ここで、対象範囲を検出範囲よりも大きな範囲にすることによって、ステップS1002において設定した検出枠が顔の範囲よりも小さい場合に、検出枠を大きくする補正をすることが可能になる。ただし、対象範囲をあまりにも広げ過ぎると、誤った領域が物体領域として決定されてしまう可能性である。そこで、対象範囲は、画像全体よりも小さい大きさであって、検出範囲の大きさ(縦の長さ、横の長さ)の2倍以下または1.5倍以下のように、検出範囲の大きさの所定倍(1より大きい倍率)以下の大きさに制限することが好ましい。また、対象範囲は、検出範囲の大きさに所定の大きさを加えた大きさであってもよい。なお、対象範囲の大きさは、検出範囲の大きさと画像全体の大きさとの平均の大きさであってもよい。このように、領域決定部106は、画像全体よりも小さな範囲において、検出範囲の大きさに基づき、または、検出範囲の大きさと画像全体の大きさに基づき、対象範囲を決定してもよい。
 また、情報処理装置100(制御部101)は、物体領域を決定した後に、S1001にて取得した画像からノイズを除去するノイズ処理(ラベリング処理や縮小・膨張処理)を行ってもよい。
 ステップS1005において、補正部107は、物体領域を囲うように検出枠(物体の検出結果)を補正する。つまり、補正部107は、検出枠の内側に物体領域が位置するように、検出枠を補正する。従って、対象範囲における補正後の検出枠の外側には、傾向値との差分が閾値よりも小さい画素(範囲)が位置しない。ここで、望ましくは、補正部107は、検出枠の各辺が物体領域に接するように、検出枠を補正するとよい。例えば、図4Bに示す斜線によって示されていない領域が物体領域である場合には、検出枠41が図4Cに示すように補正されるとよい。なお、補正部107は、ステップS1005において、検出枠の形状を変更してもよい。例えば、補正部107は、検出枠の形状を、矩形から円形に変更してもよい。また、検出枠の形状が矩形以外であれば、補正部107は、検出枠の形状を矩形にするように変更してもよい。
 なお、ステップS1005の処理の終了後、表示部108は、補正された検出枠が設定(重畳)された画像を表示してもよい。また、制御部101は、補正された検出枠に囲まれた範囲に対してオートフォーカスを実行するような制御をしてもよいし、当該範囲を例えば顔を示す画像として切り出して記憶部102に記憶させるようにしてもよい。
 このように、検出枠が囲う範囲の傾向値に基づいて、検出枠(検出結果)を補正することによって、傾向値に近い画素の集合を囲うように検出枠を補正できる。このため、より好適な範囲を示す検出枠に補正することができる。また、傾向値に近いか否かを判定する範囲(対象範囲)を、検出枠が囲う範囲(検出範囲)より大きい範囲にすることによって、検出枠を小さくする補正のみならず、検出枠を大きくする補正を実行することができる。さらに、検出枠が適切に補正されることによって、情報処理装置が撮像装置であれば、検出枠に囲われた範囲に表示された物体に対して、適切なオートフォーカスなどを実行することができる。
[変形例]
 上述の実施形態では、情報処理装置100は、1つの傾向値によって、物体領域を決定していたが、複数の傾向値を用いて物体領域を決定してもよい。本変形例では、図3の示す検出枠の補正処理のうち、ステップS1003およびステップS1004の処理のみが異なるため、これらのステップの処理のみ以下では説明する。
 ステップS1003において、傾向決定部105は、画像における検出枠の範囲(検出範囲)の複数の傾向値を決定(取得)する。例えば、傾向決定部105は、RGB画像から、R値の平均値とG値の平均値とB値の平均値とを取得する。または、傾向決定部105は、RGB画像と距離画像とを含むような画像を取得している場合には、RGB画像の平均画素値と、距離画像の各画素が示す距離の平均値とを取得する。
 ステップS1004において、領域決定部106は、対象範囲において、それぞれの傾向値との差分が閾値よりも小さい画素からなる領域(物体領域)を決定する。言い換えると、物体領域は、対象範囲から、複数の傾向値のうち少なくともいずれかの傾向値との差分が閾値以上の画素(範囲)を除いた範囲(領域)である。例えば、ステップS1003において、傾向決定部105が、R値の平均値とG値の平均値とB値の平均値との3つの値を傾向値として取得しており、R値の平均値=200、G値の平均値=100、B値の平均値=50であり、閾値=10である場合を想定する。この場合には、領域決定部106は、対象範囲のうち、R値が191~209であり、G値が91~109であり、B値が41~59である画素からなる領域を物体領域として決定する。
 このように、複数の傾向値を用いることによれば、より正確に物体の存在する領域(物体領域)を決定することができるため、より正確に検出枠を補正することができる。
 なお、実施形態に記載された事項のみによって特許請求の範囲の記載の解釈が限定されるものではない。特許請求の範囲の記載の解釈には、出願時の技術常識を考慮した、発明の課題が解決できることを当業者が認識できるように記載された範囲も含む。
 (付記1)
 画像、および当該画像における物体の範囲を示す当該物体の検出結果を取得する取得手段(103)と、
 前記画像において前記検出結果に対応する枠が囲う第1の範囲の傾向値を決定する決定手段(105)と、
 前記画像における前記第1の範囲よりも大きな第2の範囲であって、前記第1の範囲を含む前記第2の範囲から前記傾向値との差分が閾値以上の範囲を除いた第3の範囲を前記枠が示すように前記枠を補正する補正手段(107)と、
を有することを特徴とする情報処理装置(100)。
 (付記2)
 画像、および当該画像における物体の範囲を示す当該物体の検出結果を取得する取得ステップ(S1001)と、
 前記画像において前記検出結果に対応する枠が囲う第1の範囲の傾向値を決定する決定ステップ(S1003)と、
 前記画像における前記第1の範囲よりも大きな第2の範囲であって、前記第1の範囲を含む前記第2の範囲から前記傾向値との差分が閾値以上の範囲を除いた第3の範囲を示すように前記枠を補正する補正ステップ(S1005)と、
を有することを特徴とする補正方法。
100:情報処理装置、101:制御部、102:記憶部、103:画像取得部、
104:物体検出部、105:傾向決定部、106:領域決定部、107:補正部、
108:表示部

Claims (12)

  1.  画像、および当該画像における物体の範囲を示す当該物体の検出結果を取得する取得手段と、
     前記画像において前記検出結果に対応する枠が囲う第1の範囲の傾向値を決定する決定手段と、
     前記画像における前記第1の範囲よりも大きな第2の範囲であって、前記第1の範囲を含む前記第2の範囲から前記傾向値との差分が閾値以上の範囲を除いた第3の範囲を前記枠が示すように前記枠を補正する補正手段と、
    を有することを特徴とする情報処理装置。
  2.  前記補正手段は、前記第3の範囲が前記枠の外側に位置しないように、かつ、前記第3の範囲に前記枠が接するように前記枠を補正する、
     ことを特徴とする請求項1に記載の情報処理装置。
  3.  前記傾向値は、前記第1の範囲における画素値の最頻値、平均値、中央値のいずれかである、
     ことを特徴とする請求項1または2に記載の情報処理装置。
  4.  前記物体は、人の顔である、
     ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。
  5.  前記枠の形状は、矩形であり、
     前記補正手段は、前記第3の範囲に各辺が接するように前記枠を補正する、
     ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
  6.  前記閾値は、前記第1の範囲または前記第2の範囲における、画素値の最大値および最小値の差分に基づく値である、
     ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  7.  前記画像は、グレー画像、または、RGB画像である、
     ことを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
  8.  前記画像は、各画素が被写体と撮像装置との距離を画素値として示す距離画像である、
     ことを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
  9.  前記画像は、各画素が被写体の温度を画素値として示す温度画像である、
     ことを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
  10.  前記決定手段は、前記第1の範囲における互いに異なる複数の傾向値を決定し、
     前記第3の範囲は、前記第2の範囲から、前記複数の傾向値のうち少なくともいずれかの傾向値との差分が閾値以上の範囲を除いた範囲である、
     ことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
  11.  画像、および当該画像における物体の範囲を示す当該物体の検出結果を取得する取得ステップと、
     前記画像において前記検出結果に対応する枠が囲う第1の範囲の傾向値を決定する決定ステップと、
     前記画像における前記第1の範囲よりも大きな第2の範囲であって、前記第1の範囲を含む前記第2の範囲から前記傾向値との差分が閾値以上の範囲を除いた第3の範囲を示すように前記枠を補正する補正ステップと、
    を有することを特徴とする補正方法。
  12.  請求項11に記載の補正方法の各ステップをコンピュータに実行させるためのプログラム。
PCT/JP2021/023103 2020-07-13 2021-06-17 情報処理装置、補正方法、プログラム WO2022014251A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/003,414 US20230245318A1 (en) 2020-07-13 2021-06-17 Information processing device, correction method, and program
DE112021003723.4T DE112021003723T5 (de) 2020-07-13 2021-06-17 Informationsverarbeitungsverfahren, korrekturverfahren und programm
CN202180047031.0A CN115769257A (zh) 2020-07-13 2021-06-17 信息处理装置、校正方法、程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-119850 2020-07-13
JP2020119850A JP7443965B2 (ja) 2020-07-13 2020-07-13 情報処理装置、補正方法、プログラム

Publications (1)

Publication Number Publication Date
WO2022014251A1 true WO2022014251A1 (ja) 2022-01-20

Family

ID=79555480

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/023103 WO2022014251A1 (ja) 2020-07-13 2021-06-17 情報処理装置、補正方法、プログラム

Country Status (5)

Country Link
US (1) US20230245318A1 (ja)
JP (1) JP7443965B2 (ja)
CN (1) CN115769257A (ja)
DE (1) DE112021003723T5 (ja)
WO (1) WO2022014251A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205052A (ja) * 1992-01-23 1993-08-13 Matsushita Electric Ind Co Ltd 自動追尾装置
JP2004220555A (ja) * 2002-12-27 2004-08-05 Fuji Photo Film Co Ltd 画像から被写体領域を抽出する装置、方法、プログラムおよびプログラムを記録した記録媒体
JP2009223581A (ja) * 2008-03-14 2009-10-01 Omron Corp 対象画像検出デバイス、その制御方法、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4708835B2 (ja) 2005-04-12 2011-06-22 日本電信電話株式会社 顔検出装置、顔検出方法、及び顔検出プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205052A (ja) * 1992-01-23 1993-08-13 Matsushita Electric Ind Co Ltd 自動追尾装置
JP2004220555A (ja) * 2002-12-27 2004-08-05 Fuji Photo Film Co Ltd 画像から被写体領域を抽出する装置、方法、プログラムおよびプログラムを記録した記録媒体
JP2009223581A (ja) * 2008-03-14 2009-10-01 Omron Corp 対象画像検出デバイス、その制御方法、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器

Also Published As

Publication number Publication date
JP7443965B2 (ja) 2024-03-06
CN115769257A (zh) 2023-03-07
JP2022016882A (ja) 2022-01-25
US20230245318A1 (en) 2023-08-03
DE112021003723T5 (de) 2023-06-22

Similar Documents

Publication Publication Date Title
KR20200023651A (ko) 미리보기 사진 블러링 방법 및 장치 및 저장 매체
JP6274931B2 (ja) マルチエリアホワイトバランス制御装置、マルチエリアホワイトバランス制御方法、マルチエリアホワイトバランス制御プログラム、マルチエリアホワイトバランス制御プログラムを記録したコンピュータ、マルチエリアホワイトバランス画像処理装置、マルチエリアホワイトバランス画像処理方法、マルチエリアホワイトバランス画像処理プログラム、マルチエリアホワイトバランス画像処理プログラムを記録したコンピュータ及びマルチエリアホワイトバランス画像処理装置を備えた撮像装置
US10007846B2 (en) Image processing method
US10058237B2 (en) Image processing device, image processing method, and program
US20160267320A1 (en) Image processing apparatus and image processing method
CN107018407B (zh) 信息处理装置、评价用图、评价系统、以及性能评价方法
US20160269704A1 (en) Image processing apparatus and image processing method
KR102311367B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 프로그램
JP6122988B1 (ja) 画像処理装置、画像処理方法、および、プログラム
JP6365355B2 (ja) 画像生成装置および画像生成方法
KR20150107580A (ko) 화상 처리 장치 및 화상 처리 방법
JP2011191860A (ja) 撮像装置、撮像処理方法及びプログラム
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
JP2009038737A (ja) 画像処理装置
WO2022014251A1 (ja) 情報処理装置、補正方法、プログラム
JPH09261580A (ja) 画像処理方法
EP2541469B1 (en) Image recognition device, image recognition method and image recognition program
WO2018155269A1 (ja) 画像処理装置および方法、並びにプログラム
JP6320130B2 (ja) 画像処理装置、その制御方法、および制御プログラム
WO2021261141A1 (ja) 物体検出装置および物体検出方法
CN111385559B (zh) 辅助调整相机倾斜角度的方法和装置、存储介质、相机
WO2021075314A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
KR102497593B1 (ko) 정보 처리장치, 정보 처리방법 및 기억매체
JP6006698B2 (ja) マーカ埋め込み装置、マーカ検出装置、マーカ埋め込み方法、マーカ検出方法、及びプログラム
JP5099164B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置、及び撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21842277

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 21842277

Country of ref document: EP

Kind code of ref document: A1