RU2018108042A - Вычитание фона изображений для сценариев динамического освещения - Google Patents

Вычитание фона изображений для сценариев динамического освещения Download PDF

Info

Publication number
RU2018108042A
RU2018108042A RU2018108042A RU2018108042A RU2018108042A RU 2018108042 A RU2018108042 A RU 2018108042A RU 2018108042 A RU2018108042 A RU 2018108042A RU 2018108042 A RU2018108042 A RU 2018108042A RU 2018108042 A RU2018108042 A RU 2018108042A
Authority
RU
Russia
Prior art keywords
image
background
pixels
normality
pixel
Prior art date
Application number
RU2018108042A
Other languages
English (en)
Inventor
Бруно Сиелли ЖАЛИС КОСТА
Мадлен Дж. ГОХ
Original Assignee
ФОРД ГЛОУБАЛ ТЕКНОЛОДЖИЗ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ФОРД ГЛОУБАЛ ТЕКНОЛОДЖИЗ, ЭлЭлСи filed Critical ФОРД ГЛОУБАЛ ТЕКНОЛОДЖИЗ, ЭлЭлСи
Publication of RU2018108042A publication Critical patent/RU2018108042A/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Claims (46)

1. Способ, содержащий этапы, на которых:
- принимают изображение окружения, содержащее фон и один или более интересующих объектов переднего плана;
- проецируют фоновое изображение нормальности из модели нормальности, при этом фоновое изображение нормальности содержит фон без одного или более объектов переднего плана;
- формируют вычитаемое изображение посредством попиксельного вычитания фонового изображения нормальности из изображения окружения; и
- выделяют множество пикселов на вычитаемом изображении на основе предварительно определенного порогового значения среднеквадратического отклонения.
2. Способ по п. 1, в котором фоновое изображение нормальности содержит множество фоновых пикселов, при этом модель нормальности содержит соответствующие средние значения и среднеквадратические отклонения данных пиксельной интенсивности, ассоциированных с каждым фоновым пикселом из фоновых пикселов на фоновом изображении нормальности.
3. Способ по п. 1, дополнительно содержащий этап, на котором:
- составляют модель нормальности на основе множества базовых изображений, снимаемых при множестве условий освещения, соответственно, при этом каждое из базовых изображений содержит фон за исключением одного или более объектов переднего плана.
4. Способ по п. 3, в котором составление модели нормальности содержит этапы, на которых:
- определяют данные пиксельной интенсивности множества наборов фоновых пикселов, причем каждый набор фоновых пикселов составляет соответствующее базовое изображение из базовых изображений;
- получают среднее значение данных пиксельной интенсивности для каждого фонового пиксела из фоновых пикселов; и
- получают среднеквадратическое отклонение данных пиксельной интенсивности для каждого фонового пиксела из фоновых пикселов.
5. Способ по п. 1, в котором выделение пикселов на вычитаемом изображении на основе предварительно определенного порогового значения среднеквадратического отклонения содержит этап, на котором выделяют пикселы на вычитаемом изображении, имеющем соответствующие данные пиксельной интенсивности пикселов, большие предварительно определенного порогового значения среднеквадратического отклонения.
6. Способ по п. 1, в котором прием изображения окружения содержит этап, на котором оценивают условие освещения изображения окружения для проецирования фонового изображения нормальности и для определения предварительно определенного порогового значения среднеквадратического отклонения.
7. Способ, содержащий этапы, на которых:
- принимают изображение окружения, содержащее фон и один или более интересующих объектов переднего плана;
- проецируют фоновое изображение нормальности из модели нормальности, при этом фоновое изображение нормальности содержит фон без одного или более объектов переднего плана;
- преобразуют изображение окружения в первое изображение с неизменяющимся освещением с использованием алгоритма преобразования цветового пространства с неизменяющимся освещением;
- преобразуют фоновое изображение нормальности во второе изображение с неизменяющимся освещением с использованием алгоритма преобразования цветового пространства с неизменяющимся освещением;
- формируют первое вычитаемое изображение посредством попиксельного вычитания фонового изображения нормальности из изображения окружения;
- формируют второе вычитаемое изображение посредством попиксельного вычитания второго изображения с неизменяющимся освещением из первого изображения с неизменяющимся освещением;
- выделяют множество пикселов на первом вычитаемом изображении на основе предварительно определенного порогового значения среднеквадратического отклонения, чтобы получать остаточное изображение; и
- применяют матричную операцию умножения между остаточным изображением и вторым вычитаемым изображением, чтобы формировать выходное изображение.
8. Способ по п. 7, в котором фоновое изображение нормальности содержит множество фоновых пикселов, при этом модель нормальности содержит соответствующие средние значения и среднеквадратические отклонения данных пиксельной интенсивности, ассоциированных с каждым фоновым пикселом из фоновых пикселов на фоновом изображении нормальности, при этом выделение пикселов на первом вычитаемом изображении на основе предварительно определенного порогового значения среднеквадратического отклонения содержит этап, на котором выделяют пикселы на первом вычитаемом изображении, имеющем соответствующие данные пиксельной интенсивности пикселов, большие предварительно определенного порогового значения среднеквадратического отклонения, при этом прием изображения окружения содержит этап, на котором оценивают условие освещения изображения окружения для проецирования фонового изображения нормальности и для определения предварительно определенного порогового значения среднеквадратического отклонения, при этом матричная операция умножения принимает остаточное изображение и второе вычитаемое изображение идентичной размерности в качестве ввода, чтобы формировать выходное изображение с идентичной размерностью, при этом матричная операция умножения умножает данные пиксельной интенсивности идентичного пиксельного местоположения на остаточном изображении и втором вычитаемом изображении, соответственно.
9. Способ по п. 7, дополнительно содержащий этап, на котором:
- составляют модель нормальности на основе множества базовых изображений, снимаемых при множестве условий освещения, соответственно, при этом каждое из базовых изображений содержит фон за исключением одного или более объектов переднего плана.
10. Способ по п. 9, в котором составление модели нормальности содержит этапы, на которых:
- определяют данные пиксельной интенсивности множества наборов фоновых пикселов, причем каждый набор фоновых пикселов составляет соответствующее базовое изображение из базовых изображений;
- получают среднее значение данных пиксельной интенсивности для каждого фонового пиксела из фоновых пикселов; и
- получают среднеквадратическое отклонение данных пиксельной интенсивности для каждого фонового пиксела из фоновых пикселов.
11. Устройство, содержащее:
- камеру, выполненную с возможностью отслеживать интересующее окружение, содержащую фон; и
- процессор, функционально соединенный с камерой, причем процессор выполнен с возможностью осуществлять действия, содержащие:
- управление камерой, чтобы снимать множество базовых изображений окружения при множестве условий освещения, при этом базовые изображения отсутствуют в одном или более объектах переднего плана;
- управление камерой, чтобы записывать множество изображений окружения;
- создание фонового изображения нормальности на основе базовых изображений;
- сравнение одного изображения окружения из множества изображений окружения с фоновым изображением нормальности, чтобы определять, существуют или нет один или более объектов переднего плана на одном изображении окружения;
- формирование сигнала в ответ на наличие одного или более объектов переднего плана на одном изображении окружения; и
- маркировку одного или более объектов переднего плана на одном изображении окружения в качестве выходного изображения в ответ на наличие одного или более объектов переднего плана на одном изображении окружения.
12. Устройство по п. 11, в котором при создании фонового изображения нормальности процессор выполнен с возможностью составлять модель нормальности из множества базовых изображений при множестве условий освещения.
13. Устройство по п. 12, в котором при составлении модели нормальности процессор выполнен с возможностью осуществлять действия, содержащие:
- определение данных пиксельной интенсивности множества наборов фоновых пикселов, причем каждый набор фоновых пикселов составляет соответствующее базовое изображение из базовых изображений;
- получение среднего значения данных пиксельной интенсивности для каждого фонового пиксела из фоновых пикселов; и
- получение среднеквадратического отклонения данных пиксельной интенсивности для каждого фонового пиксела из фоновых пикселов.
14. Устройство по п. 11, в котором при сравнении одного изображения окружения из множества изображений окружения с фоновым изображением нормальности процессор выполнен с возможностью осуществлять попиксельное вычитание фонового изображения нормальности из одного изображения окружения, чтобы получать вычитаемое изображение.
15. Устройство по п. 14, в котором процессор дополнительно выполнен с возможностью осуществлять маркировку множества пикселов на вычитаемом изображении на основе предварительно определенного порогового значения среднеквадратического отклонения, при этом маркировка пикселов на вычитаемом изображении содержит выделение пикселов, имеющих данные пиксельной интенсивности, большие предварительно определенного порогового значения среднеквадратического отклонения, при этом при выделении пикселов процессор выделяет пикселы на вычитаемом изображении, имеющем соответствующие данные пиксельной интенсивности пикселов, большие предварительно определенного порогового значения среднеквадратического отклонения.
RU2018108042A 2017-04-20 2018-03-06 Вычитание фона изображений для сценариев динамического освещения RU2018108042A (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/492,961 US10373316B2 (en) 2017-04-20 2017-04-20 Images background subtraction for dynamic lighting scenarios
US15/492,961 2017-04-20

Publications (1)

Publication Number Publication Date
RU2018108042A true RU2018108042A (ru) 2019-09-09

Family

ID=62203435

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2018108042A RU2018108042A (ru) 2017-04-20 2018-03-06 Вычитание фона изображений для сценариев динамического освещения

Country Status (5)

Country Link
US (1) US10373316B2 (ru)
CN (1) CN108734684B (ru)
DE (1) DE102018109276A1 (ru)
GB (1) GB2563142A (ru)
RU (1) RU2018108042A (ru)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10438072B2 (en) * 2017-02-27 2019-10-08 Echelon Corporation Video data background tracking and subtraction with multiple layers of stationary foreground and background regions
WO2019027433A1 (en) * 2017-07-31 2019-02-07 Ford Global Technologies, Llc SYSTEMS AND METHODS FOR MANAGING VEHICLE OCCUPANCY
US20190202372A1 (en) * 2018-01-03 2019-07-04 Getac Technology Corporation Vehicular image pickup device and image capturing method
DE102018203405A1 (de) * 2018-03-07 2019-09-12 Zf Friedrichshafen Ag Visuelles Surround-View-System zur Überwachung des Fahrzeuginneren
CA3159585A1 (en) * 2019-10-28 2021-05-06 Lg Electronics Inc. Image encoding/decoding method and device using adaptive color transform, and method for transmitting bitstream
US11776163B1 (en) 2020-12-30 2023-10-03 Waymo Llc Systems, methods, and apparatus for correcting desaturation of images with transformed color values by appling a matrix

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5546475A (en) * 1994-04-29 1996-08-13 International Business Machines Corporation Produce recognition system
US5805742A (en) * 1995-08-16 1998-09-08 Trw Inc. Object detection system with minimum-spanning gradient filter for scene clutter suppression
JPH1196361A (ja) * 1996-08-29 1999-04-09 Sanyo Electric Co Ltd 物体抽出装置、物体抽出方法、物体抽出プログラムを記録した媒体および物体検出プログラムを記録した媒体
FR2779549B1 (fr) * 1998-06-08 2000-09-01 Thomson Csf Procede de separation des composantes dynamique et statique d'une suite d'images
US6658136B1 (en) * 1999-12-06 2003-12-02 Microsoft Corporation System and process for locating and tracking a person or object in a scene using a series of range images
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US6625310B2 (en) * 2001-03-23 2003-09-23 Diamondback Vision, Inc. Video segmentation using statistical pixel modeling
US6912313B2 (en) * 2001-05-31 2005-06-28 Sharp Laboratories Of America, Inc. Image background replacement method
EP1387315B1 (en) * 2002-06-07 2007-09-12 Honda Research Institute Europe GmbH Preparation of a digital image with subsequent edge detection
US7190809B2 (en) * 2002-06-28 2007-03-13 Koninklijke Philips Electronics N.V. Enhanced background model employing object classification for improved background-foreground segmentation
US6999600B2 (en) * 2003-01-30 2006-02-14 Objectvideo, Inc. Video scene background maintenance using change detection and classification
US7127127B2 (en) * 2003-03-04 2006-10-24 Microsoft Corporation System and method for adaptive video fast forward using scene generative models
US7418134B2 (en) * 2003-05-12 2008-08-26 Princeton University Method and apparatus for foreground segmentation of video sequences
TWI255429B (en) 2003-12-29 2006-05-21 Ind Tech Res Inst Method for adjusting image acquisition parameters to optimize objection extraction
GB0502371D0 (en) * 2005-02-04 2005-03-16 British Telecomm Identifying spurious regions in a video frame
US20060245618A1 (en) * 2005-04-29 2006-11-02 Honeywell International Inc. Motion detection in a video stream
CN101371274B (zh) 2005-12-30 2012-09-19 意大利电信股份公司 视频序列的分割中的边缘比较
AU2006252252B2 (en) * 2006-12-22 2009-10-01 Canon Kabushiki Kaisha Image processing method and apparatus
US7916944B2 (en) * 2007-01-31 2011-03-29 Fuji Xerox Co., Ltd. System and method for feature level foreground segmentation
TW200834459A (en) * 2007-02-05 2008-08-16 Huper Lab Co Ltd Video object segmentation method applied for rainy situations
US7808532B2 (en) 2007-05-29 2010-10-05 Microsoft Corporation Strategies for extracting foreground information using flash and no-flash image pairs
JP2012513407A (ja) * 2008-12-23 2012-06-14 パンミラ ファーマシューティカルズ,エルエルシー. 眼への投与のためのflapインヒビタの局所製剤
US8571261B2 (en) * 2009-04-22 2013-10-29 Checkvideo Llc System and method for motion detection in a surveillance video
US8754960B2 (en) 2009-05-01 2014-06-17 Koninklijke Philips N.V. Systems and apparatus for image-based lighting control and security control
US8358834B2 (en) * 2009-08-18 2013-01-22 Behavioral Recognition Systems Background model for complex and dynamic scenes
US8941726B2 (en) * 2009-12-10 2015-01-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting moving objects from images using foreground extraction
CN101950352B (zh) 2010-05-31 2012-08-22 北京智安邦科技有限公司 一种去除光照影响的目标检测方法及装置
ES2395102B1 (es) * 2010-10-01 2013-10-18 Telefónica, S.A. Metodo y sistema para segmentacion de primer plano de imagenes en tiempo real
US8897571B1 (en) * 2011-03-31 2014-11-25 Raytheon Company Detection of targets from hyperspectral imagery
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US8774504B1 (en) 2011-10-26 2014-07-08 Hrl Laboratories, Llc System for three-dimensional object recognition and foreground extraction
US9270899B1 (en) * 2012-06-27 2016-02-23 Amazon Technologies, Inc. Segmentation approaches for object recognition
GB2505966A (en) * 2012-09-18 2014-03-19 Seebyte Ltd Target recognition in sonar imaging using test objects
CN103793921B (zh) 2012-10-29 2017-02-22 浙江大华技术股份有限公司 一种运动目标提取方法及装置
US9489581B2 (en) * 2014-08-11 2016-11-08 Nokia Technologies Oy Vehicle counting and emission estimation
US10140548B2 (en) * 2014-08-15 2018-11-27 Lenovo (Singapore) Pte. Ltd. Statistical noise analysis for motion detection
CN104200473B (zh) * 2014-09-02 2017-06-06 中航高科技发展有限公司 一种基于图像背景剪除的动态视觉测量方法
CN104835142B (zh) 2015-03-10 2017-11-07 杭州电子科技大学 一种基于纹理特征的车辆排队长度检测方法

Also Published As

Publication number Publication date
US20180308236A1 (en) 2018-10-25
US10373316B2 (en) 2019-08-06
GB201806315D0 (en) 2018-05-30
DE102018109276A1 (de) 2018-10-25
GB2563142A (en) 2018-12-05
CN108734684A (zh) 2018-11-02
CN108734684B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
RU2018108042A (ru) Вычитание фона изображений для сценариев динамического освещения
TWI752084B (zh) 顯示裝置
TWI722283B (zh) 多工高動態範圍影像
CN103945145A (zh) 处理图像的设备和方法
US20170318238A1 (en) Image pickup apparatus, image pickup method, program, and image processing apparatus
US20170061594A1 (en) Image processing apparatus
CN108833812B (zh) 一种图像传感器及图像动态信息处理方法
JP2017046045A5 (ja) 表示装置、表示装置の制御方法、画像処理装置、プログラム、及び、記録媒体
KR101023944B1 (ko) 영상 처리 장치 및 그 방법
JP2014518030A5 (ru)
US10721415B2 (en) Image processing system with LED flicker mitigation
JP2014060711A5 (ru)
JP2021168048A5 (ru)
JP2017005401A (ja) 画像処理装置、画像処理方法、およびプログラム、並びに撮像装置
JP2019159053A5 (ru)
JP2017045030A5 (ru)
CN103020924A (zh) 基于相似场景的低照度监控图像增强方法
US11539896B2 (en) Method and apparatus for dynamic image capturing based on motion information in image
Katz et al. Live demonstration: Behavioural emulation of event-based vision sensors
JP4917959B2 (ja) 知覚的な鏡面・拡散反射画像推定方法とその装置、及びプログラムと記憶媒体
US11640654B2 (en) Image processing method and apparatus
JP2023504928A (ja) 周囲光画像補正を実行するためのシステム
JP2016081149A5 (ru)
JP2019032654A5 (ru)
TW201518852A (zh) 影像處理裝置及曝光控制方法

Legal Events

Date Code Title Description
FA93 Acknowledgement of application withdrawn (no request for examination)

Effective date: 20210309