JP2023510477A - Image detection method and device, electronic device, and storage medium - Google Patents

Image detection method and device, electronic device, and storage medium Download PDF

Info

Publication number
JP2023510477A
JP2023510477A JP2022532078A JP2022532078A JP2023510477A JP 2023510477 A JP2023510477 A JP 2023510477A JP 2022532078 A JP2022532078 A JP 2022532078A JP 2022532078 A JP2022532078 A JP 2022532078A JP 2023510477 A JP2023510477 A JP 2023510477A
Authority
JP
Japan
Prior art keywords
escalator
area
image
state identification
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2022532078A
Other languages
Japanese (ja)
Inventor
林少波
▲曾▼星宇
▲趙▼瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Intelligent Technology Co Ltd
Publication of JP2023510477A publication Critical patent/JP2023510477A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B25/00Control of escalators or moving walkways
    • B66B25/003Methods or algorithms therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Analysis (AREA)
  • Escalators And Moving Walkways (AREA)

Abstract

本願は、画像検出方法及び装置、電子機器並びに記憶媒体に関する。前記方法は、エスカレーターの第1画像を取得することと、前記第1画像に対して領域検出を行い、前記第1画像における前記エスカレーターの第1領域を決定することと、前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することであって、前記状態識別結果は、前記エスカレーターが空き状態にあること又は非空き状態にあることを含む、ことと、前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定することと、を含む。TECHNICAL FIELD The present application relates to an image detection method and apparatus, an electronic device, and a storage medium. The method includes obtaining a first image of an escalator, performing region detection on the first image to determine a first region of the escalator in the first image, and corresponding to the first region. and determining at least one state identification result of the escalator, wherein the state identification result indicates that the escalator is in an empty state or a non-empty state. and determining a state of the escalator based on the at least one state identification result.

Description

(関連出願の相互参照)
本願は、2020年12月25日に提出された、出願番号が202011559951.4である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
(Cross reference to related applications)
This application claims priority from a Chinese patent application with application number 202011559951.4 filed on Dec. 25, 2020, the entire content of which is incorporated herein by reference.

本願は、画像検出技術分野、コンピュータビジョン技術分野に関し、特に画像検出方法及び装置、電子機器並びに記憶媒体に関する。 TECHNICAL FIELD The present application relates to the technical field of image detection and computer vision, and more particularly to an image detection method and apparatus, an electronic device, and a storage medium.

経済の成長及びインフラ整備の継続的な改良に伴い、エスカレーターは、売場、オフィスビル、公共交通などの場面への応用もますます広くなっている。エスカレーターの日常運転期間において、人々は、エスカレーターの運転を保障し、意外事故の発生を避けるために、エスカレーターの所在領域に対して厳格な管理を行う必要がある。関連技術において、エスカレーター領域に対する自動検出方案は、一般的には、赤外線感知又は重力感知によってエスカレーターの起動停止を実現させるため、誤識別が発生しやすく、検出効果が低い。 With the continuous improvement of economic growth and infrastructure development, escalators are also becoming more and more widely applied in shopping malls, office buildings, public transportation and other occasions. During the daily operation of the escalator, people need to strictly manage the area where the escalator is located in order to ensure the operation of the escalator and avoid accidents. In the related art, the automatic detection method for the escalator area generally uses infrared sensing or gravity sensing to realize the start and stop of the escalator.

本願の実施例は、画像検出の技術的解決手段を提供する。 Embodiments of the present application provide a technical solution for image detection.

本願の実施例の一態様によれば、画像検出方法を提供する。前記方法は、エスカレーターの第1画像を取得することと、前記第1画像に対して領域検出を行い、前記第1画像における前記エスカレーターの第1領域を決定することと、前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することであって、前記状態識別結果は、前記エスカレーターが空き状態にあること又は非空き状態にあることを含む、ことと、前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定することと、を含む。 According to one aspect of embodiments of the present application, an image detection method is provided. The method includes obtaining a first image of an escalator, performing region detection on the first image to determine a first region of the escalator in the first image, and corresponding to the first region. and determining at least one state identification result of the escalator, wherein the state identification result indicates that the escalator is in an empty state or a non-empty state. and determining a state of the escalator based on the at least one state identification result.

可能な実現形態において、前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定することは、前記状態識別結果が複数である場合、複数の状態識別結果及び前記複数の状態識別結果の重みに基づいて、前記エスカレーターの状態判別値を決定することと、前記状態判別値が第1閾値以上である場合、前記エスカレーターが空き状態にあると決定することと、を含む。 In a possible implementation, determining the state of the escalator based on the at least one state identification result comprises, if the state identification result is a plurality, a plurality of state identification results and a combination of the plurality of state identification results. determining a state discrimination value of the escalator based on the weight; and determining that the escalator is in an empty state when the state discrimination value is greater than or equal to a first threshold.

可能な実現形態において、前記状態識別結果は、第1状態識別結果を含み、前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、前記第1領域画像に対して分類処理を行い、前記エスカレーターの第1状態識別結果を得ることを含む。 In a possible implementation, the state identification results comprise a first state identification result, performing state identification of an escalator on a first region image corresponding to the first region, and at least one state identification result of the escalator. includes performing a classification process on the first area image to obtain a first state identification result of the escalator.

可能な実現形態において、前記状態識別結果は、第2状態識別結果を含み、前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、前記第1領域画像に対して分割を行い、前記第1領域画像を背景領域と前記エスカレーターの所在する前景領域に分割することと、前記背景領域の画素値に対して調整を行い、調整後の第2領域画像を得ることと、前記第2領域画像に対して分類処理を行い、前記エスカレーターの第2状態識別結果を得ることと、を含む。 In a possible implementation, the state identification results comprise a second state identification result, performing state identification of an escalator on a first region image corresponding to the first region, and at least one state identification result of the escalator. dividing the first area image into a background area and a foreground area where the escalator is located; and adjusting pixel values of the background area. to obtain an adjusted second area image; and performing a classification process on the second area image to obtain a second state identification result of the escalator.

可能な実現形態において、前記状態識別結果は、第3状態識別結果を含み、前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、前記第1領域画像と所定の参照画像に対して画素マッチングを行い、前記第1領域画像と前記参照画像とのマッチング領域の割合を決定することであって、前記参照画像は、空き状態にあるエスカレーターに対応する領域画像を含む、ことと、前記マッチング領域の割合が第2閾値以上である場合、前記第3状態識別結果が前記エスカレーターが空き状態にあることであると決定することと、を含む。可能な実現形態において、前記状態識別結果は、第4状態識別結果を含み、前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、前記第1領域画像に対して第1目標検出を行い、前記第1領域画像に第1目標が存在するかどうかを決定することと、前記第1領域画像に第1目標が存在しない場合、前記第4状態識別結果が前記エスカレーターが空き状態にあることであると決定することと、を含む。 In a possible implementation, the state identification results comprise a third state identification result, performing state identification of an escalator on a first region image corresponding to the first region, and at least one state identification result of the escalator. Determining is performing pixel matching on the first area image and a predetermined reference image, and determining a ratio of matching areas between the first area image and the reference image, wherein the reference image includes an area image corresponding to an escalator in an empty state; and if the proportion of the matching area is greater than or equal to a second threshold, the third state identification result is that the escalator is in an empty state. determining. In a possible implementation, the state identification results comprise a fourth state identification result, performing state identification of an escalator on a first region image corresponding to the first region, and at least one state identification result of the escalator. includes performing first target detection on the first area image to determine whether a first target is present in the first area image; is not present, determining that the fourth state identification result is that the escalator is in an empty state.

可能な実現形態において、前記方法は、前記エスカレーターが空き状態にある場合、エスカレーター停止信号を送信することであって、前記エスカレーター停止信号は、運転を停止するよう前記エスカレーターに指示するためのものである、ことを更に含む。 In a possible implementation, the method is to send an escalator stop signal when the escalator is in an empty state, the escalator stop signal for instructing the escalator to stop running. It further includes that there is.

可能な実現形態において、前記方法は、前記エスカレーターが非空き状態にあり、且つ前記エスカレーターの運転が既に停止された場合、エスカレーター起動信号を送信することであって、前記エスカレーター起動信号は、運転するよう前記エスカレーターに指示するためのものである、ことを更に含む。 In a possible implementation, the method is to send an escalator start signal when the escalator is in a non-empty state and the escalator has already stopped running, wherein the escalator start signal is for instructing the escalator to do so.

可能な実現形態において、前記方法は、前記第1画像に対して第2目標検出を行い、前記第1画像における第2目標の第3領域を決定することと、前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定することであって、前記検出結果は、前記第2目標が前記エスカレーター上に位置すること又は前記エスカレーター上に位置しないことを含む、ことと、を更に含む。可能な実現形態において、前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定することは、第4領域と前記第3領域との面積比が第3閾値以上である場合、前記検出結果が前記第2目標が前記エスカレーター上に位置することであると決定することであって、前記第4領域は、前記第1領域と前記第3領域との共通領域を含む、ことを含む。 In a possible implementation, the method comprises performing a second target detection on the first image to determine a third region of the second target in the first image; Determining a detection result of the second target based on the positional relationship with the area, wherein the detection result indicates that the second target is located on the escalator or not located on the escalator. further comprising comprising; In a possible implementation mode, determining the detection result of the second target based on the positional relationship between the first area and the third area includes: 3 threshold or more, the detection result is determining that the second target is located on the escalator, and the fourth area is between the first area and the third area. including common areas.

可能な実現形態において、前記第2目標は、エスカレーターへの持ち込み禁止物品を含み、前記方法は、前記第2目標が前記エスカレーター上に位置する場合、警告情報を送信することを更に含む。本願の実施例の一態様によれば、画像検出装置を提供する。前記装置は、エスカレーターの第1画像を取得するように構成される画像取得モジュールと、前記第1画像に対して領域検出を行い、前記第1画像における前記エスカレーターの第1領域を決定するように構成される領域検出モジュールと、前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定するように構成される状態識別モジュールであって、前記状態識別結果は、前記エスカレーターが空き状態にあること又は非空き状態にあることを含む、状態識別モジュールと、前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定するように構成される状態決定モジュールと、を備える。 In a possible implementation, the second target comprises prohibited items on an escalator, and the method further comprises sending warning information if the second target is located on the escalator. According to one aspect of an embodiment of the present application, an image detection apparatus is provided. The apparatus comprises an image acquisition module configured to acquire a first image of an escalator, and performing region detection on the first image to determine a first region of the escalator in the first image. and a state identification module configured to perform state identification of an escalator on a first region image corresponding to said first region to determine at least one state identification result of said escalator. a state identification module, wherein the state identification results include that the escalator is in an empty state or a non-idle state; and determining a state of the escalator based on the at least one state identification result. a state determination module configured to:

本願の実施例の一態様によれば、電子機器を提供する。前記電子機器は、プロセッサと、プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、前記プロセッサは、前記メモリに記憶されている命令を呼び出し、上記方法を実行するように構成される。 According to one aspect of an embodiment of the present application, an electronic device is provided. The electronic device comprises a processor and a memory configured to store instructions executable by the processor, the processor calling the instructions stored in the memory to perform the method. Configured.

本願の実施例の一態様によれば、コンピュータ可読記憶媒体を提供する。該コンピュータ可読記憶媒体にはコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、上記方法を実現する。 According to one aspect of an embodiment of the present application, a computer-readable storage medium is provided. The computer readable storage medium stores computer program instructions which, when executed by a processor, implement the above method.

本願の実施例の一態様によれば、コンピュータプログラム製品を提供する。前記コンピュータプログラムは、コンピュータ可読コードを含み、前記コンピュータ可読コードが機器において実行される時、前記電子機器におけるプロセッサは、上記方法を実行する。 According to one aspect of embodiments of the present application, a computer program product is provided. The computer program includes computer readable code, and when the computer readable code is executed in the device, the processor in the electronic device performs the method.

本願の実施例によれば、画像におけるエスカレーターの所在領域を検出し、エスカレーターの領域画像に基づいて、少なくとも1つの状態識別結果を識別し、少なくとも1つの状態識別結果に基づいて、エスカレーターの空き状態又は非空き状態を決定することができ、エスカレーターの領域の位置決めの正確性を向上させ、エスカレーターの運転状態の識別の正確率を向上させることができる。 According to embodiments of the present application, detecting a location area of an escalator in an image, identifying at least one status identification result based on the area image of the escalator, and determining an empty status of the escalator based on the at least one status identification result. Or the non-empty status can be determined, the accuracy of locating the area of the escalator can be improved, and the accuracy rate of identifying the running status of the escalator can be improved.

上記の一般的な説明及び後述する細部に関する説明は、例示及び説明のためのものに過ぎず、本願を限定するものではないことが理解されるべきである。本願の他の特徴及び態様は、下記の図面に基づく例示的な実施例の詳細な説明を参照すれば明らかになる。 It is to be understood that the general descriptions above and the detailed descriptions that follow are exemplary and explanatory only and are not restrictive. Other features and aspects of the present application will become apparent with reference to the following detailed description of exemplary embodiments based on the drawings.

本願の実施例による画像検出方法のフローチャートを示す。4 shows a flow chart of an image detection method according to an embodiment of the present application; 本願の実施例による画像検出方法の領域検出の概略図を示す。Fig. 2 shows a schematic diagram of region detection of an image detection method according to an embodiment of the present application; 本願の実施例による画像検出方法の領域検出の概略図を示す。Fig. 2 shows a schematic diagram of region detection of an image detection method according to an embodiment of the present application; 本願の実施例による第1領域の概略図を示す。1 shows a schematic diagram of a first region according to an embodiment of the present application; FIG. 本願の実施例による第2目標の概略図を示す。Fig. 2 shows a schematic diagram of a second target according to an embodiment of the present application; 本願の実施例による第2目標の概略図を示す。Fig. 2 shows a schematic diagram of a second target according to an embodiment of the present application; 本願の実施例による画像検出方法の処理プロセスの概略図を示す。Fig. 3 shows a schematic diagram of a processing process of an image detection method according to an embodiment of the present application; 本願の実施例による画像検出装置のブロック図を示す。1 shows a block diagram of an image sensing device according to an embodiment of the present application; FIG. 本願の実施例による電子機器のブロック図を示す。1 shows a block diagram of an electronic device according to an embodiment of the present application; FIG. 本願の実施例による電子機器のブロック図を示す。1 shows a block diagram of an electronic device according to an embodiment of the present application; FIG.

ここで添付した図面は、明細書に引き入れて本明細書の一部を構成し、これらの図面は、本願に適合する実施例を示し、かつ、明細書とともに本願の技術的解決手段を解釈することに用いられる。 The drawings attached hereto are incorporated into the specification and constitute a part of the specification, and the drawings show the embodiments compatible with the present application, and together with the description, interpret the technical solution of the present application. used for

以下、図面を参照しながら本出願の実施例の種々の例示的な実施例、特徴及び態様を詳しく説明する。図面における同一の符号は、同一または類似する機能を有する要素を示す。図面は、実施例の種々の態様を示しているが、特別な説明がない限り、必ずしも比率どおりの図面ではない。 Various exemplary embodiments, features and aspects of embodiments of the present application are described in detail below with reference to the drawings. The same reference numerals in the drawings indicate elements having the same or similar functions. The drawings, which illustrate various aspects of the embodiments, are not necessarily drawn to scale unless specifically stated otherwise.

ここで使用した「例示的」という用語は「例、実施例として用いられるか、または説明のためのものである」ことを意味する。ここで、「例示的なもの」として説明される如何なる実施例は、他の実施例より好適または有利であると必ずしも解釈されるべきではない。 As used herein, the term "exemplary" means "serving as an example, example, or for the purpose of explanation." Any embodiment described herein as "exemplary" is not necessarily to be construed as preferred or advantageous over other embodiments.

本明細書において、用語「及び/又は」は、関連対象の関連関係を説明するためのものであり、3通りの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、Bのみが存在するという3つの場合を表す。また、本明細書において、用語「少なくとも1つ」は、複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを表す。例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選ばれるいずれか1つ又は複数の要素を含むことを表す。 As used herein, the term “and/or” is used to describe a related relationship between related objects, and indicates that there are three types of relationships. For example, A and/or B represents three cases: only A is present, A and B are present at the same time, and only B is present. Also, as used herein, the term "at least one" represents any one of the plurality or any combination of at least two of the plurality. For example, including at least one of A, B, and C means including any one or more elements selected from the set consisting of A, B, and C.

なお、本出願をより良く説明するために、以下の具体的な実施形態において具体的な細部を多く記載した。当業者は、これら具体的な詳細に関わらず、本開示は同様に実施可能であると理解すべきである。本発明の主旨を明確にするために、一部の実例において、当業者に熟知されている方法、手段、素子及び回路については詳しく説明しないことにする。 It is noted that many specific details are set forth in the specific embodiments below in order to better explain the present application. It should be understood by those skilled in the art that the present disclosure may be similarly practiced regardless of these specific details. In order to keep the subject matter of the present invention clear, in some instances methods, means, elements and circuits that are well known to those skilled in the art have not been described in detail.

近年では、深層学習に基づく人工智能の潮流に伴い、産業+人工智能(AI:Artificial Intelligence)は、新時代における産業発展の目標の1つとなる。スマート工場、スマートストア、スマート農業などの新たな分野は、絶えず現れている。そのうち、AIを防犯に用いるという産業上の応用は、スマート防犯と呼ばれ、このような応用は、特に盛んに行われている。公衆安全分野において、エスカレーターは、現代生活における一般的な歩行に代える工具であり、厳格な規制によって管理される必要がある公衆場所である。スマートエスカレーターの目的は、管理部門の作業効率を向上させると共に、エスカレーターの日常運転に対するモニタリングと管理を補強することである。関連技術において、一般的には、エスカレーターに対する一部の検出機能のみを実現させることができ、完全なスマートエスカレーターの解決手段がない。 In recent years, with the trend of artificial intelligence based on deep learning, industry + artificial intelligence (AI) has become one of the goals of industrial development in the new era. New areas such as smart factories, smart stores, and smart agriculture are constantly emerging. Among them, the industrial application of using AI for crime prevention is called smart crime prevention, and such applications are being actively carried out. In the field of public safety, escalators are common alternatives to walking in modern life, and are public places that need to be governed by strict regulations. The purpose of the smart escalator is to improve the work efficiency of the management department and reinforce the monitoring and management of the daily operation of the escalator. In the related art, generally only partial detection functions for escalators can be realized, and there is no complete smart escalator solution.

本願の実施例による画像検出方法は、売場、オフィスビル、公共交通などの場面に用いられてもよい。該方法は、深層学習の方式に基づいて、場面におけるエスカレーターの所在領域の画像又はビデオストリームに対して処理と分析を行うことによって、エスカレーター領域の位置決め、エスカレーターの空きエスカレーターと非空き状態の判別、及びキー目標(例えば、ベビーカー、車椅子、手荷物ケースなどの物体)の検出と識別などの機能を実現させることができ、それによって完全なスマートエスカレーターの解決手段を構築し、検出効果を向上させ、エスカレーターの運転コストを低減させ、安全上の事故の発生リスクを低減させる。 Image detection methods according to embodiments of the present application may be used in scenes such as sales floors, office buildings, and public transportation. Based on the method of deep learning, the method processes and analyzes the image or video stream of the location area of the escalator in the scene to locate the escalator area, determine the escalator's vacant escalator and non-vacant state, And it can realize functions such as detection and identification of key targets (such as strollers, wheelchairs, luggage cases and other objects), thereby building a complete smart escalator solution, improving the detection effect and improving the escalator operating costs and reduce the risk of safety incidents.

図1は、本願の実施例による画像検出方法のフローチャートを示す。図1に示すように、前記画像検出方法は、以下を含む。 FIG. 1 shows a flowchart of an image detection method according to an embodiment of the present application. As shown in FIG. 1, the image detection method includes: a.

ステップS11において、エスカレーターの第1画像を取得する。 In step S11, a first image of the escalator is acquired.

ステップS12において、前記第1画像に対して領域検出を行い、前記第1画像における前記エスカレーターの第1領域を決定する。 In step S12, region detection is performed on the first image to determine a first region of the escalator in the first image.

ステップS13において、前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定し、前記状態識別結果は、前記エスカレーターが空き状態にあること又は非空き状態にあることを含む。 In step S13, state identification of the escalator is performed on the first region image corresponding to the first region, and at least one state identification result of the escalator is determined, and the state identification result indicates that the escalator is in an empty state. including being present or being in a non-idle state.

ステップS14において、前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定する。 In step S14, a state of the escalator is determined based on the at least one state identification result.

可能な実現形態において、前記画像検出方法は、端末機器又はサーバなどの電子機器により実行されてもよい。端末機器は、ユーザ機器(User Equipment:UE)、携帯機器、ユーザ端末、端末、ハンドヘルド機器、コンピューティング機器、車載機器、ウェアラブル機器などであってもよく、前記方法は、プロセッサによりメモリに記憶されたコンピュータ可読命令を呼び出すことで実現してもよい。又は、サーバによって前記方法を実行してもよい。 In a possible implementation, the image detection method may be performed by an electronic device such as a terminal device or a server. The terminal equipment may be User Equipment (UE), a mobile equipment, a user terminal, a terminal, a handheld equipment, a computing equipment, an in-vehicle equipment, a wearable equipment, etc., and the method is stored in a memory by a processor. may be implemented by invoking computer readable instructions. Alternatively, the method may be performed by a server.

例えば、検出対象エスカレーターの所在位置に少なくとも1つの画像収集機器を設けてもよく、例えば、エスカレーターに向かう少なくとも1つのカメラを設け、それによってエスカレーターのビデオストリームを収集し、ビデオストリーム画面におけるエスカレーター、エスカレーターに乗る目標(例えば、通行者、通行者が持っている物品など)に対して検出を行う。本願の実施例は、画像収集機器の取り付け位置、ビデオストリームの収集方式及びビデオストリームに対応する領域をいずれも限定しない。 For example, at least one image acquisition device may be provided at the location of the escalator to be detected, for example, at least one camera facing the escalator, thereby collecting a video stream of the escalator, escalator, escalator in the video stream screen Detection is performed on targets (eg, passers-by, objects held by passers-by, etc.). Embodiments of the present application do not limit the mounting position of the image acquisition device, the acquisition method of the video stream, or the area corresponding to the video stream.

可能な実現携帯において、ステップS11では、エスカレーターの第1画像を取得してもよい。ビデオストリームの各画像フレームを第1画像としてもよく、一定の時間間隔でビデオストリームに対してサンプリングを行い、サンプリングされた画像フレームを第1画像としてもよく、ビデオストリームにおけるキーフレームを第1画像として取得してもよい。本願の実施例は、第1画像の取得方式を限定しない。 In a possible implementation, step S11 may obtain a first image of the escalator. Each image frame of the video stream may be the first image, the video stream may be sampled at regular time intervals, the sampled image frame may be the first image, and the key frame in the video stream may be the first image. can be obtained as Embodiments of the present application do not limit the acquisition method of the first image.

可能な実現携帯において、ステップS12では、訓練された領域検出ネットワークによって、第1画像に対して領域検出を行い、第1画像におけるエスカレーターの第1領域を決定してもよい。該領域検出ネットワークは、例えば、畳み込みニューラルネットワークであってもよく、本願の実施例は、領域検出ネットワークのネットワーク構造及び訓練方式をいずれも限定しない。 In a possible implementation, step S12 may perform region detection on the first image by a trained region detection network to determine the first region of the escalator in the first image. The region detection network may be, for example, a convolutional neural network, and the embodiments herein do not limit either the network structure or the training scheme of the region detection network.

図2aと図2bは、本願の実施例による画像検出方法の領域検出の概略図を示す。図2aは、エスカレーターの第1画像を示し、図2bは、第1画像における領域検出結果を示す。 2a and 2b show schematic diagrams of region detection of an image detection method according to an embodiment of the present application. FIG. 2a shows the first image of the escalator and FIG. 2b shows the region detection result in the first image.

可能な実現形態において、領域検出ネットワークは、目標検出モデル又は領域分割モデルを用いてもよい。目標検出モデルを用いる場合、検出された第1領域は、エスカレーターの所在領域の矩形検出枠、例えば、図2bにおける検出枠21であってもよい。領域分割モデルを用いる時、検出された第1領域は、エスカレーターの所在する不規則な領域、例えば、図2bにおける領域22であってもよい。本願の実施例は、領域検出ネットワークに用いられるネットワークモデルを限定しない。 In possible implementations, the region detection network may use a target detection model or a region segmentation model. When using the target detection model, the first detected area may be a rectangular detection window of the escalator location area, eg detection window 21 in FIG. 2b. When using a segmentation model, the first region detected may be the irregular region where the escalator is located, eg region 22 in FIG. 2b. Embodiments of the present application do not limit the network model used for the area detection network.

目標検出モデルを用いて処理を行う時、検出枠に完全なエスカレーター領域を含まれると共に、背景面積を最大限減少させることによって、背景雑音による後続の処理プロセスへの影響を減少させることができる。図2bに示すように、エスカレーターの向きが左側にずれる場合、濃色のエスカレーター領域の左下隅を基準として、検出枠21の左下頂点座標とし、濃色のエスカレーター領域の右上隅を基準として、検出枠21の右上頂点座標とする。領域分割モデルを用いて処理を行う時、検出枠内の濃色のエスカレーター領域を分割によって取得し、エスカレーターのハンドレールを境界として多辺形を描画してもよく、例えば、図2bにおける領域22に示すとおりである。 When processing using the target detection model, the full escalator area is included in the detection frame, and the background area is reduced to the maximum, thereby reducing the effect of background noise on subsequent processing processes. As shown in FIG. 2b, when the direction of the escalator deviates to the left, the lower left corner of the dark-colored escalator area is used as the reference for the lower left corner of the detection frame 21, and the upper right corner of the dark-colored escalator area is used as the reference for detection. The upper right vertex coordinates of the frame 21 are set. When processing using the region segmentation model, the dark escalator region in the detection frame may be obtained by segmentation, and a polygon may be drawn with the escalator handrail as the boundary, such as region 22 in FIG. 2b. as shown in

可能な実現形態において、第1領域を得た後、ステップS13において、第1画像から、前記第1領域に対応する第1領域画像を切り出し、第1領域画像に基づいて、エスカレーターの状態を識別し、即ち、エスカレーターが空き状態にあるかそれとも非空き状態にあるかを識別してもよい。エスカレーターに通行者及び/又は物品が存在しない場合、空き状態にあり、エスカレーターに通行者及び/又は物品が存在する場合、非空き状態にある。 In a possible implementation, after obtaining the first area, in step S13, from the first image, cut out a first area image corresponding to said first area, and identify the state of the escalator based on the first area image. i.e., identify whether the escalator is empty or non-empty. When there are no pedestrians and/or articles on the escalator, it is in an empty state, and when there are pedestrians and/or articles on the escalator, it is in a non-empty state.

可能な実現形態において、少なくとも1つの識別方式によって、それぞれ、第1領域画像に対して識別を行い、対応する状態識別結果を得ることができる。識別方式は、例えば、第1領域画像に対して直接的に分類を行うことと、第1領域画像における背景領域の画素値を調整し、調整された画像に対して分類を行うことと、第1領域画像を空きエスカレーターの参照画像と比較することと、エスカレーター上に通行者などの目標があるかどうかを検出することと、のうちの少なくとも1つを含んでもよい。本願の実施例は、用いられる識別方式をいずれも限定しない。 In a possible implementation, each of the at least one identification scheme can perform identification on the first area image to obtain a corresponding state identification result. The identification method includes, for example, performing classification directly on the first area image, adjusting the pixel values of the background area in the first area image, and performing classification on the adjusted image, and performing classification on the adjusted image. It may include at least one of comparing the one-region image to a reference image of an empty escalator and detecting whether there is a target, such as a passerby, on the escalator. Embodiments of the present application do not limit any of the identification schemes used.

可能な実現形態において、ステップS14において、少なくとも1つの状態識別結果に基づいて、エスカレーターの状態を決定してもよい。例えば、投票メカニズムを参照しながら、各状態識別結果の値及び重みに基づいて、エスカレーターの状態を総合的に判定する。状態識別結果が空き状態である全体的重みがより高い時、エスカレーターが空き状態にあると判定し、逆に、エスカレーターが非空き状態にあると判定する。 In a possible implementation, in step S14, the state of the escalator may be determined based on the at least one state identification result. For example, based on the value and weight of each state identification result with reference to a voting mechanism, determine the state of the escalator collectively. When the overall weight of the state identification result being empty is higher, it is determined that the escalator is in an empty state, and conversely, it is determined that the escalator is in a non-empty state.

可能な実現形態において、エスカレーターが空き状態にある場合、エスカレーター停止信号を送信し、運転を停止するようエスカレーターに指示してもよい。エスカレーターが非空き状態にあり、且つ運転が既に停止された場合、エスカレーター起動信号を送信し、運転を開始するよう前記エスカレーターに指示してもよい。本願の実施例は、異なるエスカレーターの状態で実行される操作を限定しない。 In a possible implementation, if the escalator is empty, an escalator stop signal may be sent, instructing the escalator to stop running. If the escalator is in a non-empty state and has already stopped running, an escalator activation signal may be sent to instruct the escalator to start running. Embodiments of the present application do not limit the operations performed in different escalator states.

本願の実施例の画像検出方法によれば、画像におけるエスカレーターの所在領域を検出し、エスカレーターの領域画像に基づいて、少なくとも1つの状態識別結果を識別し、少なくとも1つの状態識別結果に基づいて、エスカレーターの空き状態又は非空き状態を決定することができ、エスカレーターの領域の位置決めの正確性を向上させ、エスカレーターの運転状態の識別の正確率を向上させることができる。 According to the image detection method of the embodiment of the present application, the location area of the escalator in the image is detected, at least one state identification result is identified based on the area image of the escalator, and based on the at least one state identification result, The empty or non-empty status of the escalator can be determined, the accuracy of locating the area of the escalator can be improved, and the accuracy rate of identifying the running status of the escalator can be improved.

以下、本願の実施例による画像検出方法を詳しく説明する。 The image detection method according to the embodiments of the present application will be described in detail below.

前述したように、カメラによって、エスカレーターの所在領域のビデオストリームを収集し、収集されたビデオストリームをローカルフロントサーバ又はクラウドサーバなどの電子機器に伝送してもよい。電子機器は、ビデオストリームに対して復号を行い、復号されたビデオストリームを得ることができる。 As mentioned above, the camera may collect a video stream of the area where the escalator is located and transmit the collected video stream to an electronic device such as a local front server or a cloud server. The electronic device can perform decoding on the video stream to obtain a decoded video stream.

ステップS11において、エスカレーターの第1画像を取得してもよい。該第1画像は、復号されたビデオストリームの画像フレームであってもよい。ステップS12において、訓練された領域検出ネットワークによって、第1画像に対して領域検出を行い、第1画像におけるエスカレーターの第1領域、例えば、エスカレーターの所在領域の検出枠を決定する。 In step S11, a first image of the escalator may be obtained. The first image may be an image frame of a decoded video stream. In step S12, region detection is performed on the first image by a trained region detection network to determine a detection frame of a first region of the escalator in the first image, for example, the location region of the escalator.

ステップS13において、第1画像から、前記第1領域に対応する第1領域画像を切り出し、少なくとも1つの識別方式で、それぞれ、第1領域画像に対して識別を行い、少なくとも1つの状態識別結果を得てもよい。 In step S13, a first area image corresponding to the first area is cut out from the first image, each of the first area images is identified by at least one identification method, and at least one state identification result is obtained. You may get

図3は、本願の実施例による第1領域の概略図を示す。図3に示すように、第1画像に、2つのエスカレーターの第1領域31と32が含まれる。第1領域31と32に対応する第1領域画像をそれぞれ切り出し、2つの第1領域画像に対して識別を行うことによって、処理効率を向上させることができる。 FIG. 3 shows a schematic diagram of a first region according to an embodiment of the present application. As shown in FIG. 3, the first image includes first regions 31 and 32 of two escalators. The processing efficiency can be improved by cutting out the first area images corresponding to the first areas 31 and 32 and performing identification on the two first area images.

可能な実現形態において、該状態識別結果は、第1状態識別結果を含む。ステップS13は、
前記第1領域画像に対して分類処理を行い、前記エスカレーターの第1状態識別結果を得ることを含んでもよい。
In a possible implementation, the state identification result includes a first state identification result. Step S13 is
The method may include performing a classification process on the first area image to obtain a first state identification result of the escalator.

つまり、訓練された分類ネットワーク(ここで、第1分類ネットワークと呼ばれる)によって、第1領域に対して直接的に分類を行ってもよい。該第1分類ネットワークは、例えば、畳み込み層、全結合層、活性化層などを含む畳み込みニューラルネットワークであってもよく、本願の実施例は、第1分類ネットワークのネットワーク構造及び訓練方式をいずれも限定しない。 That is, the classification may be performed directly on the first region by the trained classification network (herein referred to as the first classification network). The first classification network may be, for example, a convolutional neural network including a convolutional layer, a fully connected layer, an activation layer, etc., and the embodiments of the present application both the network structure and the training scheme of the first classification network Not limited.

可能な実現形態において、第1領域画像を第1分類ネットワークに入力し、第1状態識別結果を出力し、エスカレーターが空き状態にあるか又は非空き状態にあるかを指示してもよく、例えば、エスカレーターが空き状態にある場合、1を出力し、非空き状態にある場合、0を出力する。このような方式で、エスカレーターの状態を簡単かつ効果的に識別することができる。 In a possible implementation, a first area image may be input to a first classification network and output a first state identification result, indicating whether the escalator is in an empty or non-empty state, e.g. , outputs 1 if the escalator is in an empty state, and outputs a 0 if it is in a non-empty state. In this manner, the status of the escalator can be easily and effectively identified.

可能な実現形態において、該状態識別結果は、第2状態識別結果を含む。ステップS13は、
前記第1領域画像に対して分割を行い、前記第1領域画像を背景領域と前記エスカレーターの所在する前景領域に分割することと、
前記背景領域の画素値に対して調整を行い、調整後の第2領域画像を得ることと、
前記第2領域画像に対して分類処理を行い、前記エスカレーターの第2状態識別結果を得ることと、を含んでもよい。
In a possible implementation, the state identification result includes a second state identification result. Step S13 is
dividing the first area image into a background area and a foreground area where the escalator is located;
adjusting the pixel values of the background area to obtain an adjusted second area image;
performing a classification process on the second area image to obtain a second state identification result of the escalator.

例えば、第1領域が矩形検出枠である場合、訓練された分割ネットワークによって、第1領域に対応する第1領域画像に対して分割を行い、第1領域画像を背景領域と前記エスカレーターの所在する前景領域に分割することができる。該分割ネットワークは、例えば、畳み込み層、全結合層、活性化層などを含む畳み込みニューラルネットワークであってもよく、本願の実施例は、該分類ネットワークのネットワーク構造及び訓練方式をいずれも限定しない。 For example, if the first region is a rectangular detection frame, the trained segmentation network performs segmentation on the first region image corresponding to the first region, and divides the first region image into the background region and the location of the escalator. It can be divided into foreground regions. The partitioned network may be, for example, a convolutional neural network including convolutional layers, fully connected layers, activation layers, etc., and the embodiments of the present application do not limit either the network structure or the training scheme of the classification network.

可能な実現形態において、第1領域がエスカレーターの所在する不規則な領域である場合、第1領域の外接矩形枠に対応する領域画像を第1領域画像としてもよい。直接的に第1領域を前景領域とし、第1領域画像における第1領域以外の領域を背景領域とすることで、第1領域画像の分割を実現させることができる。 In a possible implementation, if the first area is an irregular area in which an escalator is located, the area image corresponding to the circumscribed rectangular frame of the first area may be the first area image. By directly setting the first area as the foreground area and setting the area other than the first area in the first area image as the background area, the division of the first area image can be realized.

可能な実現形態において、背景領域における画素の画素値に対して調整を行い、例えば、背景領域の画素値をいずれもゼロ(黒色)に調整し、調整後の第2領域画像を得てもよい。背景領域の画素値を他の値に調整してもよい。本願の実施例は、これを限定しない。 In a possible implementation, an adjustment may be made to the pixel values of the pixels in the background region, for example, all pixel values in the background region may be adjusted to zero (black) to obtain an adjusted second region image. . The pixel values of the background area may be adjusted to other values. Embodiments of the present application do not limit this.

可能な実現形態において、訓練された分類ネットワーク(ここで、第2分類ネットワークと呼ばれる)によって、第2領域画像に対して分類を行ってもよい。該第2分類ネットワークは、例えば、畳み込み層、全結合層、活性化層などを含む畳み込みニューラルネットワークであってもよく、該第2分類ネットワークと第1分類ネットワークとは、ネットワーク構造が同じであるが、ネットワークパラメータが異なってもよい。本願の実施例は、第2分類ネットワークのネットワーク構造及び訓練方式をいずれも限定しない。 In a possible implementation, classification may be performed on the second area image by a trained classification network (herein referred to as the second classification network). The second classification network may be, for example, a convolutional neural network comprising a convolutional layer, a fully connected layer, an activation layer, etc., wherein the second classification network and the first classification network have the same network structure. but the network parameters may be different. Embodiments of the present application do not limit either the network structure or the training scheme of the second classification network.

可能な実現形態において、第2領域画像を第2分類ネットワークに入力し、第2状態識別結果を出力し、エスカレーターが空き状態にあるか又は非空き状態にあるかを指示してもよく、例えば、エスカレーターが空き状態にある場合、1を出力し、非空き状態にある場合、0を出力する。このように、画像分割を組み合わせ、画素調整後の第2領域画像に対して分類処理を行うことによって、エスカレーターの状態識別の正確率を向上させることができる。 In a possible implementation, the second area image may be input to a second classification network and output a second state identification result indicating whether the escalator is in an empty or non-empty state, e.g. , outputs 1 if the escalator is in an empty state, and outputs a 0 if it is in a non-empty state. In this way, by combining image division and performing classification processing on the second area image after pixel adjustment, the accuracy rate of escalator state identification can be improved.

可能な実現形態において、該状態識別結果は、第3状態識別結果を含む。ステップS13は、
前記第1領域画像と所定の参照画像に対して画素マッチングを行い、前記第1領域画像と前記参照画像とのマッチング領域の割合を決定することであって、前記参照画像は、空き状態にあるエスカレーターに対応する領域画像を含む、ことと、
前記マッチング領域の割合が第2閾値以上である場合、前記第3状態識別結果が前記エスカレーターが空き状態にあることであると決定することと、を含んでもよい。
In a possible implementation, the state identification result includes a third state identification result. Step S13 is
performing pixel matching on the first area image and a predetermined reference image to determine a proportion of a matching area between the first area image and the reference image, wherein the reference image is in an empty state; including an area image corresponding to the escalator;
determining that the third state identification result is that the escalator is in an empty state if the percentage of matching areas is greater than or equal to a second threshold.

例えば、エスカレーターが空き状態にある場合、エスカレーターに対応する単一又は複数の領域画像を取得してもよい。例えば、カメラによってエスカレーターの画像を収集し、画像に対して領域検出を行い、領域画像を得る。 For example, if the escalator is in an empty state, single or multiple area images corresponding to the escalator may be acquired. For example, an image of an escalator is collected by a camera, area detection is performed on the image, and an area image is obtained.

可能な実現形態において、単一の領域画像を取得すれば、該領域画像を参照画像としてもよい。複数の領域画像を取得すれば、複数の領域画像を融合し、参照画像(空きエスカレーターテンプレート)を得てもよい。例えば、1~2日間の長時間画像収集によって、分割モデルを用いて、エスカレーター領域における全ての画素のラベルを得て、更に、ガウス混合モデルによって、空きエスカレーターテンプレートを得る。本願の実施例は、参照画像の生成方式を限定しない。 In a possible implementation, if a single regional image is obtained, that regional image may be used as the reference image. If multiple area images are acquired, the multiple area images may be fused to obtain a reference image (empty escalator template). Long-term image acquisition, eg, 1-2 days, obtains labels for all pixels in the escalator region using a segmentation model, and obtains an empty escalator template using a Gaussian mixture model. Embodiments of the present application do not limit the method of generating the reference image.

可能な実現形態において、参照画像をデータベースに記憶してもよい。エスカレーターの状態識別を行う場合、第1領域画像と参照画像に対して画素マッチングを行い、マッチングした画素の数を決定し、マッチングした画素の数と画素の総数との比に基づいて、第1領域画像と参照画像とのマッチング領域の割合を決定してもよい。 In a possible implementation, the reference images may be stored in a database. When identifying the state of the escalator, pixel matching is performed on the first region image and the reference image, the number of matched pixels is determined, and the first A percentage of matching areas between the area image and the reference image may be determined.

可能な実現形態において、該マッチング領域の割合が第2閾値以上であれば、第3状態識別結果がエスカレーターが空き状態にあることであると決定してもよい。逆に、該マッチング領域の割合が第2閾値よりも小さければ、第3状態識別結果がエスカレーターが非空き状態にあることであると決定してもよい。当業者は、実際の状況に応じて第2閾値を設定してもよく、例えば、0.8に設定する。本願の実施例は、第2閾値の実際の値を限定しない。 In a possible implementation, it may be determined that the third state identification result is that the escalator is in an empty state if the percentage of matching areas is greater than or equal to a second threshold. Conversely, if the percentage of matching areas is less than the second threshold, it may be determined that the third status identification result is that the escalator is in a non-empty status. A person skilled in the art may set the second threshold according to the actual situation, for example, set it to 0.8. Embodiments of the present application do not limit the actual value of the second threshold.

画素マッチングの方式によって、エスカレーターの状態識別の効率を向上させることができる。 The method of pixel matching can improve the efficiency of escalator status identification.

可能な実現形態において、該状態識別結果は、第4状態識別結果を含む。ステップS13は、
前記第1領域画像に対して第1目標検出を行い、前記第1領域画像に第1目標が存在するかどうかを決定することと、
前記第1領域画像に第1目標が存在しない場合、前記第4状態識別結果が前記エスカレーターが空き状態にあることであると決定することと、を含んでもよい。
In a possible implementation, the state identification result includes a fourth state identification result. Step S13 is
performing a first target detection on the first area image to determine if a first target is present in the first area image;
and determining that the fourth state identification result is that the escalator is in an empty state if a first target is not present in the first area image.

例えば、訓練された目標検出ネットワーク(第1検出ネットワークと呼ばれてもよい)によって、第1領域画像に対して第1目標検出を行い、第1領域画像に第1目標が存在するかどうかを決定してもよい。該第1目標は、例えば、通行者、物品などを含んでもよく、本願の実施例は、これを限定しない。 For example, a trained target detection network (which may be referred to as a first detection network) performs first target detection on a first area image and determines whether the first target is present in the first area image. may decide. The first target may include, for example, passers-by, items, etc., and embodiments herein are not so limited.

可能な実現形態において、第1検出ネットワークは、例えば、畳み込みニューラルネットワークであってもよく、本願の実施例は、第1検出ネットワークのネットワーク構造及び訓練方式をいずれも限定しない。 In possible implementations, the first detection network may be, for example, a convolutional neural network, and the embodiments herein do not limit either the network structure or the training scheme of the first detection network.

可能な実現形態において、第1領域画像に第1目標が存在すれば、第4状態識別結果が前記エスカレーターが非空き状態にあることであると決定してもよい。逆に、第1領域画像に第1目標が存在しなければ、第4状態識別結果が前記エスカレーターが空き状態にあることであると決定してもよい。第1目標を設定し、第1領域画像に対して目標検出を行うことによって、エスカレーターの状態識別方式の多様性を向上させることができる。 In a possible implementation, if there is a first target in the first area image, it may be determined that the fourth state identification result is that the escalator is in a non-empty state. Conversely, if there is no first target in the first area image, it may be determined that the fourth state identification result is that the escalator is in an empty state. By setting the first target and performing target detection on the first area image, the versatility of the escalator state identification method can be improved.

各状態識別結果を決定した後、ステップS14において、各状態識別結果に基づいて、エスカレーターの状態を決定してもよい。ステップS14は、前記状態識別結果が複数である場合、複数の状態識別結果及び前記複数の状態識別結果の重みに基づいて、前記エスカレーターの状態判別値を決定することと、
前記状態判別値が第1閾値以上である場合、前記エスカレーターが空き状態にあると決定することと、を含んでもよい。
After determining each state identification result, in step S14, the state of the escalator may be determined based on each state identification result. Step S14 determines a state discrimination value of the escalator based on a plurality of state identification results and weights of the plurality of state identification results when there are a plurality of state identification results;
determining that the escalator is in an empty state when the state discrimination value is greater than or equal to a first threshold.

例えば、状態識別結果が1つであれば、該状態識別結果に基づいて、エスカレーターの状態を直接的に決定してもよい。状態識別結果が複数であれば、複数の状態識別結果に基づいて、エスカレーターの状態を総合的に判定してもよい。 For example, if there is one state identification result, the state of the escalator may be determined directly based on the state identification result. If there are a plurality of state identification results, the state of the escalator may be comprehensively determined based on the plurality of state identification results.

可能な実現形態において、各状態識別結果の重みを予め設定し、正確率が高い状態識別結果の重みを高く設定し、正確率が低い状態識別結果を低く設定し、各状態識別結果の重みの和は1である。 In a possible implementation, the weight of each state identification result is preset, the weight of the state identification result with a high accuracy rate is set high, the state identification result with a low accuracy rate is set low, and the weight of each state identification result is set to The sum is 1.

可能な実現形態において、投票メカニズムを参照しながら、複数の状態識別結果及び前記複数の状態識別結果の重みに基づいて、前記エスカレーターの状態判別値を決定してもよい。状態識別結果は、上記第1、第2、第3及び第4状態識別結果のうちの少なくとも2つを含んでもよい。 In a possible implementation, the state discrimination value of the escalator may be determined based on a plurality of state identification results and weights of the plurality of state identification results with reference to a voting mechanism. The state identification results may include at least two of said first, second, third and fourth state identification results.

例えば、状態識別結果が上記第1状態識別結果a、第2状態識別結果a、第3状態識別結果a及び第4状態識別結果aを含む場合、第1、第2、第3及び第4状態識別結果の重みをそれぞれw、w、w及びwとすれば、状態判別値=w*a+w*a+w*a+w*aである。ここで、w+w+w+w=1であり、a、a、a、aは、エスカレーターが空き状態にある場合、1を出力し、非空き状態にある場合、0を出力する。 For example, if the state identification results include the first state identification result a 1 , the second state identification result a 2 , the third state identification result a 3 and the fourth state identification result a 4 , the first, second, and third and the weights of the fourth state identification results are w 1 , w 2 , w 3 and w 4 respectively . be. where w 1 +w 2 +w 3 +w 4 =1 and a 1 , a 2 , a 3 , a 4 output 1 if the escalator is vacant and 0 if it is non-empty. to output

可能な実現形態において、状態判別値が所定の第1閾値以上であれば、エスカレーターが空き状態にあると見なし、逆に、状態判別値が所定の第1閾値よりも小さければ、エスカレーターが非空き状態にあると見なしてもよい。図3に示すように、領域31のエスカレーターは空き状態にあり、領域32のエスカレーターは非空き状態にある。 In a possible implementation, if the state discrimination value is greater than or equal to a predetermined first threshold, the escalator is considered to be in an empty state; conversely, if the state discrimination value is less than a predetermined first threshold, the escalator is considered non-empty. can be considered to be in a state As shown in FIG. 3, the escalator in area 31 is in an empty state and the escalator in area 32 is in a non-empty state.

当業者は、実際の状況に応じて第1閾値を設定してもよく、例えば、0.5に設定する。本願の実施例は、第1閾値の値を限定しない。 A person skilled in the art may set the first threshold according to the actual situation, for example, set it to 0.5. Embodiments of the present application do not limit the value of the first threshold.

上述した、投票メカニズムによる判定の方式で、エスカレーターの運転状態を正確に識別し、エスカレーターの状態の判断の誤り率を著しく低減させることができる。 With the above-described method of judging by voting mechanism, the running status of the escalator can be accurately identified, and the error rate of judging the escalator status can be significantly reduced.

可能な実現形態において、本願の実施例による画像検出方法は、
前記エスカレーターが空き状態にある場合、エスカレーター停止信号を送信し、前記エスカレーター停止信号は、運転を停止するよう前記エスカレーターに指示するためのものである、ことを更に含んでもよい。
In a possible implementation, an image detection method according to embodiments of the present application comprises:
The method may further include transmitting an escalator stop signal when the escalator is in an empty state, the escalator stop signal being for instructing the escalator to stop running.

つまり、ステップS14において、エスカレーターが空き状態にあると判定すれば、エスカレーター停止信号を生成して送信し、運転を停止するようエスカレーターに指示してもよい。例えば、エスカレーター停止信号をエスカレーター制御機器に送信する。それによってエスカレーター制御機器は、運転を停止するようにエスカレーターを制御する。更に、エスカレーター停止信号を作業者に送信してもよい。それによって作業者は、運転を停止するようにエスカレーターを制御する。本願の実施例は、エスカレーター停止信号のタイプ及び送信方式を限定しない。 That is, if it is determined in step S14 that the escalator is in an empty state, an escalator stop signal may be generated and transmitted to instruct the escalator to stop operating. For example, sending an escalator stop signal to an escalator control device. The escalator control device thereby controls the escalator to stop running. Additionally, an escalator stop signal may be sent to the operator. The operator thereby controls the escalator to stop running. Embodiments of the present application do not limit the type and transmission scheme of the escalator stop signal.

このような方式によって、エスカレーターが空き状態にある場合に運転を停止することができ、それによってエスカレーターの運転コストを低減させる。 Such a scheme allows the escalator to be shut down when it is idle, thereby reducing the operating cost of the escalator.

可能な実現形態において、本願の実施例による画像検出方法は、
前記エスカレーターが非空き状態にあり、且つ前記エスカレーターの運転が既に停止された場合、エスカレーター起動信号を送信し、前記エスカレーター起動信号は、運転するよう前記エスカレーターに指示するためのものである、ことを更に含んでもよい。
In a possible implementation, an image detection method according to embodiments of the present application comprises:
transmitting an escalator start signal when the escalator is in a non-empty state and the escalator has already stopped running, wherein the escalator start signal is for instructing the escalator to run may further include:

つまり、ステップS14において、エスカレーターが非空き状態にあり、且つエスカレーターの運転が既に停止されたと判定し、即ち停止期間ではエスカレーターに乗る人がいると判定すれば、エスカレーター起動信号を生成して送信し、運転するようエスカレーターに指示してもよい。上記方式と同様に、エスカレーター起動信号をエスカレーター制御機器に送信してもよい。それによってエスカレーター制御機器は、運転するようにエスカレーターを制御する。更に、エスカレーター起動信号を作業者に送信してもよい。それによって作業者は、運転するようにエスカレーターを制御する。本願の実施例は、エスカレーター起動信号のタイプ及び送信方式を限定しない。 That is, if it is determined in step S14 that the escalator is in a non-empty state and that the escalator has already stopped operating, that is, if it is determined that there is a person riding the escalator during the stop period, an escalator start signal is generated and transmitted. , may instruct the escalator to drive. Similar to the above scheme, an escalator activation signal may be sent to the escalator control device. The escalator control device thereby controls the escalator to run. Additionally, an escalator activation signal may be sent to the operator. The operator thereby controls the escalator as it drives. Embodiments of the present application do not limit the type and transmission scheme of the escalator activation signal.

このような方式で、エスカレーターに乗る人がいるが、エスカレーターの運転が停止された場合に、エスカレーターを起動することによって、エスカレーターの正常な使用を確保することができる。 In this manner, when there are people on the escalator and the operation of the escalator is stopped, the escalator can be used normally by starting the escalator.

可能な実現形態において、本願の実施例による画像検出方法は、
前記第1画像に対して第2目標検出を行い、前記第1画像における第2目標の第3領域を決定することと、
前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定することであって、前記検出結果は、前記第2目標が前記エスカレーター上に位置すること又は前記エスカレーター上に位置しないことを含む、ことと、を更に含んでもよい。
In a possible implementation, an image detection method according to embodiments of the present application comprises:
performing second target detection on the first image to determine a third region of the second target in the first image;
determining a detection result of the second target based on the positional relationship between the first area and the third area, wherein the detection result is that the second target is positioned on the escalator; or comprising not being located on the escalator.

例えば、ステップS11において、エスカレーターの第1画像を取得した後、更に、訓練された目標検出ネットワーク(第2検出ネットワークと呼ばれてもよい)によって、第1画像に対して第2目標検出を行い、第1画像に第2目標が存在するかどうかを決定してもよい。該第2目標は、エスカレーターへの持ち込み禁止物品、例えば、ベビーカー、車椅子、大きな手荷物ケースなどを含んでよく、本願の実施例は、第2目標のタイプを限定しない。 For example, in step S11, after obtaining a first image of an escalator, a second target detection is further performed on the first image by a trained target detection network (which may be referred to as a second detection network). , may determine whether a second target is present in the first image. The secondary targets may include prohibited items on escalators, such as strollers, wheelchairs, large luggage cases, etc., and the embodiments herein do not limit the type of secondary targets.

可能な実現形態において、第2検出ネットワークは、例えば、畳み込みニューラルネットワークであってもよく、本願の実施例は、第2検出ネットワークのネットワーク構造及び訓練方式をいずれも限定しない。 In possible implementations, the second detection network may be, for example, a convolutional neural network, and the embodiments herein do not limit either the network structure or the training scheme of the second detection network.

可能な実現形態において、第1画像に第2目標が存在すれば、第2検出ネットワークは、第1画像における第2目標の領域(第3領域と呼ばれてもよい)を決定することができる。図4aと図4bは、本願の実施例による第2目標の概略図を示す。図4aにおける第2目標は、ベビーカー41であり、図4bにおける第2目標は、手荷物ケース42である。図4aと図4bに示すように、第2目標の所在する検出枠、即ち第3領域を決定することができる。 In a possible implementation, if a second target is present in the first image, the second detection network can determine the region of the second target in the first image (which may be referred to as the third region). . Figures 4a and 4b show schematic diagrams of a second target according to embodiments of the present application. The second target in FIG. 4 a is the stroller 41 and the second target in FIG. 4 b is the luggage case 42 . As shown in Figures 4a and 4b, a detection window or third region in which the second target is located can be determined.

可能な実現形態において、第1画像におけるエスカレーターの第1領域に基づいて、第1領域と第3領域との位置関係によって、第2目標の検出結果を決定してもよい。即ち、位置関係に基づいて、第2目標がエスカレーター上に位置するかどうかを判断する。 In a possible implementation, based on the first area of the escalator in the first image, the positional relationship between the first area and the third area may determine the detection result of the second target. That is, based on the positional relationship, it is determined whether the second target is positioned on the escalator.

可能な実現形態において、前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定するステップは、
第4領域と前記第3領域との面積比が第3閾値以上である場合、前記検出結果が前記第2目標が前記エスカレーター上に位置することであると決定することであって、前記第4領域は、前記第1領域と前記第3領域との共通領域を含む、ことを含んでもよい。
In a possible implementation, the step of determining the detection result of the second target based on the positional relationship between the first area and the third area comprises:
determining that the detection result is that the second target is positioned on the escalator if an area ratio between the fourth area and the third area is greater than or equal to a third threshold; The region may include a common region of the first region and the third region.

つまり、重なりの割合(Intersection-over-Union:IOU)を求めるという考え方によって判断を行ってもよい。第4領域が第1領域と第3領域との共通領域を含むとすれば、第4領域と第3領域との面積比、即ち、第2目標の所在領域とエスカレーター領域との共通領域の面積と第2目標の所在領域の面積との比を求めてもよい。 In other words, the determination may be made based on the concept of finding the intersection-over-union (IOU). If the fourth area includes the common area of the first area and the third area, the area ratio of the fourth area and the third area, that is, the area of the common area of the second target location area and the escalator area and the area of the area where the second target is located may be calculated.

可能な実現形態において、該面積比が所定の第3閾値以上であれば、検出結果が第2目標がエスカレーター上に位置することであると決定してもよい。逆に、該面積比が所定の第3閾値よりも小さければ、検出結果が第2目標がエスカレーター上に位置しないことであると決定してもよい。当業者は、実際の状況に応じて第3閾値を設定してもよく、例えば、0.6に設定する。本願の実施例は、第3閾値の値を限定しない。 In a possible implementation, if the area ratio is greater than or equal to a predetermined third threshold, it may be determined that the detection result is that the second target is located on the escalator. Conversely, if the area ratio is less than a predetermined third threshold, it may be determined that the detection result is that the second target is not located on the escalator. A person skilled in the art may set the third threshold according to the actual situation, for example, set it to 0.6. Embodiments of the present application do not limit the value of the third threshold.

このような方式によって、第2目標の所在領域の判断を実現させることができる。 With such a method, it is possible to determine the location area of the second target.

可能な実現形態において、第2検出ネットワークは、エスカレーター領域の第1領域画像に対して第2目標検出を直接的に行い、第1領域画像に第2目標が存在するかどうかを決定してもよい。第1領域画像に第2目標が存在すれば、第2目標がエスカレーター上に位置すると決定してもよい。本願の実施例は、用いられる処理方式を限定しない。 In a possible implementation, the second detection network may perform the second target detection directly on the first area image of the escalator area to determine if the second target is present in the first area image. good. If the second target is present in the first area image, it may be determined that the second target is located on the escalator. Embodiments of the present application do not limit the processing schemes used.

可能な実現形態において、前記第2目標は、エスカレーターへの持ち込み禁止物品を含み、本願の実施例による画像検出方法は、前記第2目標が前記エスカレーター上に位置する場合、警告情報を送信することを更に含んでもよい。 In a possible implementation, the second target includes prohibited items on an escalator, and the image detection method according to the embodiments of the present application sends warning information if the second target is located on the escalator. may further include

つまり、エスカレーターへの持ち込み禁止物品について、前記ステップにおいて該第2目標がエスカレーター上に位置すると決定すれば、警告情報を送信し、リマインドを行うか、又は、直接的に運転を停止するようにエスカレーターを制御してもよい。 In other words, for prohibited items on the escalator, if it is determined in the above step that the second target is located on the escalator, it will send warning information, remind the escalator, or directly stop the escalator. may be controlled.

例えば、警告情報をモニタ室におけるエスカレーターモニタリング機器及び/又は作業者に送信してもよい。それによって作業者は、運転を停止するようにエスカレーターを制御し、及び/又は、エスカレーターに行って処理を行う。警告情報をエスカレーター制御機器に送信してもよい。それによってエスカレーター制御機器は、運転を停止するようにエスカレーターを制御する。本願の実施例は、警告情報のタイプ及び送信方式を限定しない。 For example, alert information may be sent to escalator monitoring equipment and/or workers in the monitoring room. The operator thereby controls the escalator to stop running and/or goes to the escalator for treatment. Alert information may be sent to the escalator control device. The escalator control device thereby controls the escalator to stop running. Embodiments of the present application do not limit the type and transmission method of alert information.

可能な実現形態において、第2目標が初めてエスカレーター上に出現することに応答して警告を行い、後続で、連続して出現する第2目標に対して、所定の時間間隔で警告を繰り返して行い、警告情報の送信が頻繁になりすぎることを回避することができる。 In a possible implementation, an alert is provided in response to the first appearance of a second target on the escalator, and subsequent successive appearances of the second target are repeatedly alerted at predetermined time intervals. , it is possible to avoid sending the warning information too frequently.

このような方式で、エスカレーターへの持ち込み禁止物品がエスカレーターに入る時、警告をタイムリーに行うことができ、それによって安全上の事故の発生リスクを低減させる。 In this manner, a timely warning can be given when prohibited items enter the escalator, thereby reducing the risk of safety accidents.

図5は、本願の実施例による画像検出方法の処理プロセスの概略図を示す。図5に示すように、処理プロセスにおいて、画像入力ステップ51で、エスカレーターの画像を入力し、画像に対して、エスカレーター位置決めステップ52とキー目標検出ステップ53をそれぞれ行い、事象の処理効率を向上させる。エスカレーター位置決めステップ52によって、画像におけるエスカレーター領域54を決定する。更に、空きエスカレーター判別ステップ55によって、エスカレーターが空き/非空き57であると決定し、更に、対応する処理を実行する。 FIG. 5 shows a schematic diagram of a processing process of an image detection method according to an embodiment of the present application. As shown in FIG. 5, in the processing process, in the image input step 51, the image of the escalator is input, and the image is subjected to the escalator positioning step 52 and the key target detection step 53, respectively, to improve the processing efficiency of the event. . An escalator location step 52 determines an escalator region 54 in the image. In addition, the escalator determination step 55 determines that the escalator is vacant/not vacant 57, and performs corresponding processing.

例において、キー目標検出ステップ53によって、画像におけるキー目標位置56を決定し、キー目標は、エスカレーターへの持ち込み禁止物品(不正物品)である。エスカレーター領域54とキー目標位置56に基づいて、キー目標がエスカレーター上に位置するかどうかを決定する。キー目標がエスカレーター上に位置すれば、不正物品警告58を行う。このように、本願の実施例による画像検出方法の処理プロセス全体を実現させることができる。 In the example, the key target detection step 53 determines a key target location 56 in the image, where the key target is a prohibited item (unauthorized item) on the escalator. Based on escalator area 54 and key target location 56, determine whether the key target is located on the escalator. If the key target is located on an escalator, a fraudulent item alert 58 is provided. In this way, the entire processing process of the image detection method according to the embodiments of the present application can be realized.

エスカレーター位置決めステップ52において、図2aに示すようなエスカレーター、即ちエレベーターの第1画像を入力し、深層学習アルゴリズムに基づいて、目標検出又は領域分割モデルを構築し、図2bに示すエスカレーターの検出枠21を出力し、又は、図2bに示す領域22の分割結果を出力する。 In the escalator positioning step 52, input the first image of the escalator as shown in FIG. 2a, i.e. the elevator, build a target detection or segmentation model based on the deep learning algorithm, and detect the escalator detection frame 21 as shown in FIG. 2b. or the segmentation result of the region 22 shown in FIG. 2b.

目標検出方法は、検出枠がエスカレーター領域を含むと共に背景面積を最大限減少させることを確保し、背景雑音による後続のエスカレーターの作動への干渉を防止する必要がある。従って、図2bにおけるエスカレーターの境界枠を検出枠21と定義する。それと同時に、エスカレーターが向かう位置に注意を払う。図2bにおいて、左側にずれており、エスカレーター領域の左下隅を基準とし(境界枠の左下座標はこれによって決定される)、右側境界は、エスカレーター領域の右上隅を基準とする。分割モデルを用いてより精確なエスカレーター領域位置決めモジュールを構築すれば、エスカレーター領域は、検出枠21内のエスカレーター領域と定義され、エスカレーターのハンドレールを境界として多辺形を描画し、例えば、図2bにおける領域22に示すとおりである。 The target detection method should ensure that the detection window includes the escalator area and reduces the background area as much as possible to prevent background noise from interfering with subsequent escalator operation. Therefore, the bounding frame of the escalator in FIG. 2b is defined as detection frame 21 . At the same time, pay attention to where the escalator is heading. In FIG. 2b it is offset to the left and is referenced to the lower left corner of the escalator area (the lower left coordinate of the bounding box is determined by this) and the right boundary is referenced to the upper right corner of the escalator area. Using the segmentation model to build a more accurate escalator area positioning module, the escalator area is defined as the escalator area within the detection frame 21, and a polygon is drawn with the escalator handrail as the boundary, for example, Fig. 2b as shown in region 22 in .

空きエスカレーター判別ステップ55において、深層学習に基づいて、多重並行型エスカレーターの状態分類モデルを構築し、エスカレーター位置決めモジュールの処理結果(検出結果を例とする)を受信し、複数の技術的解決手段によって同時にデータ処理を行い、最後に、結果の融合を行い、エスカレーターの空き状態を決定し、即ち、空きエスカレーターであること又は非空きエスカレーターであることを決定する。図3に示すように、左側のエスカレーター31は空き状態にあり、右側のエスカレーター32は非空き状態にある。該プロセスは、以下の複数の方式によって実現してもよい。 In the vacant escalator determination step 55, based on deep learning, build a multi-parallel escalator state classification model, receive the processing result (detection result as an example) of the escalator positioning module, and use a plurality of technical solutions to Simultaneous data processing and finally fusion of the results to determine the empty status of the escalator, ie, an empty escalator or a non-empty escalator. As shown in FIG. 3, the left escalator 31 is in an empty state and the right escalator 32 is in a non-empty state. The process may be implemented in several ways as follows.

方式1において、検出枠領域を抽出し、分類ネットワークモデルによって、エスカレーターの状態を出力する。 In method 1, the detection frame area is extracted, and the escalator status is output by the classification network model.

方式2において、検出枠領域を抽出し、分割領域を参照しながら、検出枠内の背景領域の画素値を0(黒色)に設定し、分類ネットワークモデルによって、エスカレーターの状態を出力する。 In method 2, the detection frame area is extracted, the pixel value of the background area within the detection frame is set to 0 (black) while referring to the divided areas, and the state of the escalator is output by the classification network model.

方式3において、テンプレートマッチングの方法に基づいて、入力とデータベースにおける空きエスカレーターテンプレートに対してマッチングを行い、マッチング領域の割合を出力し、マッチング割合がT(第2閾値に相当し、T≧0.8である)を超えると、入力されたエスカレーターが空きエスカレーターであると決定し、そうでなければ、非空きエスカレーターであると決定する。1~2日間の長時間データ収集を行った後、分割モデルを用いて、全てのエスカレーター領域における全ての画素のラベルを得て、最後に、ガウス混合モデルによって、空きエスカレーターテンプレート(参照画像に相当する)を得る。マッチング領域の割合は、同画素数/画素総数の比によって得られる。 In method 3, according to the template matching method, the input and the empty escalator template in the database are matched, and the ratio of the matching area is output, and the matching ratio is T (corresponding to the second threshold, T≧0. 8), determine that the input escalator is an empty escalator, otherwise, determine that it is a non-empty escalator. After 1-2 days of long-term data acquisition, a segmentation model is used to obtain the labels of all pixels in all escalator regions, and finally, a Gaussian mixture model is used to generate the empty escalator template (corresponding to the reference image). to do). The percentage of matching area is given by the ratio of the same number of pixels/total number of pixels.

方式4において、通行者及びキー目標検出モデルに基づいて、エスカレーター領域を入力とする。エスカレーター領域内に関心目標が存在しなければ、出力は、空きエスカレーターであり、そうでなければ、非空きエスカレーターである。 In method 4, the escalator area is taken as input based on the pedestrian and key target detection model. If there is no target of interest within the escalator area, the output is an empty escalator, otherwise a non-empty escalator.

最終的な結果は、投票メカニズムに応じて決定される。方式1から方式4の重みは、それぞれw、w、w及びwであり、ここで、w+w+w+w=1である。上記投票メカニズムによれば、エスカレーターの種別の判断の誤り率を大幅に低減させることができる。空き状態がより高い重みを得ると、情報通告メカニズムをトリガーする。 The final result is determined according to a voting mechanism. The weights for schemes 1 through 4 are w 1 , w 2 , w 3 and w 4 respectively, where w 1 +w 2 +w 3 +w 4 =1. With the above voting mechanism, the error rate of escalator type determination can be greatly reduced. When the idle state gets a higher weight, it triggers an informational notification mechanism.

キー目標位置決定ステップS56において、ベビーカー、車椅子、手荷物ケースなどのキー目標の検出をサポートし、複数の事象に対する警告をサポートする。モデルの出力結果は、図4aに示すベビーカー41の検出目標(第2目標に相当する)及び図4bに示す手荷物ケース42の検出目標(第2目標に相当する)である。最後に、エスカレーター位置決めステップ52の処理結果を組み合わせ、検出目標がエスカレーター領域に存在するかどうか判断することによって、警告を行う。検出目標がエスカレーター領域に存在するかどうかに関わる演算方法は、重なりの割合=検出目標とエスカレーター領域の共通面積/検出目標の面積である。重なりの割合がT(0<T<1であり、一般的には、0.5~1とする)よりも大きければ、警告メカニズムをトリガーする。目標追跡によって、単一の目標が出現する場合にのみ警告を行うことを実現させ、後続で連続して出現した同一の目標について、指定の時間間隔で繰り返して警告を行う。 The key target location determination step S56 supports detection of key targets such as strollers, wheelchairs, luggage cases, etc., and supports warning for multiple events. The output results of the model are the detection target (corresponding to the second target) of the stroller 41 shown in FIG. 4a and the detection target (corresponding to the second target) of the luggage case 42 shown in FIG. 4b. Finally, a warning is provided by combining the processing results of the escalator positioning step 52 and determining whether the detected target is in the escalator area. The calculation method regarding whether the detection target exists in the escalator area is: overlap ratio=common area of detection target and escalator area/area of detection target. If the percentage of overlap is greater than T (0<T<1, typically between 0.5 and 1), it triggers a warning mechanism. Target tracking provides for alerting only when a single target appears, and repeatedly alerting subsequent consecutive appearances of the same target at specified time intervals.

本願の実施例による画像検出方法は、エスカレーター領域位置決めに基づいて、スマートエスカレーターの解決手段の入口を構築し、エスカレーター領域内に、複数の並行した空きエスカレーター判別方法及び結果投票メカニズムを利用して、エスカレーターが空きエスカレーターであるかどうかを判断し、空きエスカレーターの予測の正確度を向上させ、エスカレーターに対する警告によって、エスカレーターの運転速度を低減さて、ひいては運転を停止するように管理部門を導き、エネルギー消費を低減させると共に、外出の安全性と利便性を確保し、目標検出アルゴリズムに基づいて、エスカレーター領域内のキー目標を位置決めし、不正物件に対して警告を行い、管理部門のモニタリングと管理を補強することができる。 The image detection method according to the embodiments of the present application builds the entrance of the smart escalator solution based on the escalator area positioning, and in the escalator area, using multiple parallel empty escalator determination methods and result voting mechanism, Judge whether an escalator is an empty escalator, improve the accuracy of escalator prediction for empty escalators, and guide the management department to reduce the escalator's running speed and even stop running by warning the escalator, thereby reducing energy consumption. while ensuring the safety and convenience of going out, based on the target detection algorithm, locate the key target in the escalator area, warn against unauthorized objects, and reinforce the monitoring and management of the administrative department. can do.

本願の実施例による画像検出方法は、深層学習の目標検出/分割モデルの方式に基づいて、エスカレーター領域の位置決めを行い、マルチ目標検出によって複数のエスカレーター領域を同時に位置決めすることをサポートすることができる。そして、該方法で提出された2つの領域定義方法は、エスカレーター領域を完全にカバーすることを確保すると共に、背景雑音による干渉を減少させることができる。関連技術のスマートエスカレーターの解決手段において、エスカレーターの位置決めに係る方案が全くない。 The image detection method according to the embodiments of the present application can locate the escalator area based on the method of deep learning target detection/dividing model, and can support multiple escalator areas to be located at the same time by multi-target detection. . And the two area definition methods proposed in the method can ensure the complete coverage of the escalator area and reduce the interference caused by background noise. In related art smart escalator solutions, there is no solution for escalator positioning.

本願の実施例による画像検出方法は、複数の並行した空き状態判別方法に基づいて、結果投票メカニズムを組み合わせ、エスカレーターが空きであるかどうかを判断することができ、出力結果の誤り率を大幅に低減させると共に、複数の領域に対する並行分類をサポートすることもできる。関連技術の方案において、一般的には、単一の方法でエスカレーターの空き状態を判断し、正確率が低い。 The image detection method according to the embodiments of the present application is based on multiple parallel vacancy determination methods, combined with a result voting mechanism, can determine whether the escalator is vacant or not, and greatly reduces the error rate of the output result. It can also reduce and support parallel classification for multiple regions. The related art solutions generally use a single method to determine the escalator empty status, and the accuracy rate is low.

本願の実施例による画像検出方法は、深層ニューラルネットワークを訓練することによって、特定の不正物品を検出し、視野範囲内の全てのキー目標を識別する。関連技術において、ベビーカー、車椅子、大きな手荷物ケースなどの不正物品を検出できないという問題を解決し、且つ、エスカレーター領域及びキー目標領域に基づいて、特定のIOU演算方法を用いて、不正物品がエスカレーターに乗っているかどうかを判断することによって、判断の正確率を向上させる。 An image detection method according to embodiments of the present application detects specific fraudulent items and identifies all key targets within the field of view by training a deep neural network. In the related art, to solve the problem that illegal items such as strollers, wheelchairs, large luggage cases, etc. can not be detected, and based on the escalator area and the key target area, use a specific IOU calculation method to detect illegal items on the escalator Improve the accuracy rate of judgment by judging whether or not you are riding.

本願の実施例による画像検出方法は、自動位置決め及びキー目標検出に基づくスマートエスカレーターシステムを提供する。完全且つ安定する1セットのスマートエスカレーターの解決手段を形成することができ、現在の全ての公衆エスカレーター場面に適用することができる。 An image detection method according to embodiments of the present application provides a smart escalator system based on automatic positioning and key target detection. It can form a complete and stable set of smart escalator solutions and can be applied to all current public escalator scenes.

該方法は、スマートカメラに適用し、エスカレーター場面に対してエスカレーター領域位置決め及び空きエスカレーター判別を行い、エスカレーターが空き状態にある場合、エネルギー消費を低減し、エスカレーターの運転が停止される前にエスカレーターが空き状態にあることを確保し、管理部門の作業効率を向上させることができる。エスカレーター場面に対して、エスカレーター領域位置決め及びキー目標検出を行い、エスカレーター上の不正物品に対して警告を行い、管理部門のモニタリングと管理を補強する。 The method is applied to a smart camera to perform escalator area positioning and empty escalator discrimination for the escalator scene, reduce energy consumption when the escalator is in an empty state, and the escalator is closed before the escalator stops running. It can ensure that it is in a free state and improve the work efficiency of the management department. For the escalator scene, carry out escalator area positioning and key target detection, warn against illegal items on the escalator, and strengthen the monitoring and management of the management department.

本出願に言及した上記各方法の実施例は、原理や論理から逸脱しない限り、互いに組み合わせることで組み合わせた実施例を構成することができ、紙数に限りがあるため、本出願において逐一説明しないことが理解されるべきである。具体的な実施形態の上記方法において、各ステップの具体的な実行順番はその機能及び考えられる内在的論理により決まることは、同業者であれば理解すべきである。 The embodiments of the above methods referred to in the present application can be combined with each other to form combined embodiments without departing from the principle and logic, and due to the limited number of pages, they will not be described one by one in the present application. should be understood. It should be understood by those skilled in the art that in the above methods of specific embodiments, the specific execution order of each step depends on its function and possible underlying logic.

なお、本願の実施例は、画像検出装置、電子機器、コンピュータ可読記憶媒体、プログラムを更に提供する。上記はいずれも本願の実施例によるいずれか1つの画像検出方法の実現に用いられてもよく、関連する技術的解決手段及び記述は、方法に関する記載を参照し、ここで説明を省略する。 The embodiments of the present application further provide an image detection device, an electronic device, a computer-readable storage medium, and a program. Any of the above may be used to implement any one image detection method according to the embodiments of the present application, and the related technical solutions and descriptions refer to the description of the method and are omitted here.

図6は、本願の実施例による画像検出装置のブロック図を示す。図6に示すように、前記装置は、
エスカレーターの第1画像を取得するように構成される画像取得モジュール61と、
前記第1画像に対して領域検出を行い、前記第1画像における前記エスカレーターの第1領域を決定するように構成される領域検出モジュール62と、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定するように構成される状態識別モジュール63であって、前記状態識別結果は、前記エスカレーターが空き状態にあること又は非空き状態にあることを含む、状態識別モジュール63と、
前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定するように構成される状態決定モジュール64と、を備える。
FIG. 6 shows a block diagram of an image sensing device according to an embodiment of the present application. As shown in FIG. 6, the device comprises:
an image acquisition module 61 configured to acquire a first image of the escalator;
a region detection module 62 configured to perform region detection on the first image to determine a first region of the escalator in the first image;
a state identification module 63 configured to perform state identification of an escalator on a first region image corresponding to the first region and determine at least one state identification result of the escalator, wherein the state identification result includes that the escalator is in an empty or non-empty state; a status identification module 63;
a status determination module 64 configured to determine a status of the escalator based on the at least one status identification result.

可能な実現形態において、前記状態決定モジュールは、前記状態識別結果が複数である場合、複数の状態識別結果及び前記複数の状態識別結果の重みに基づいて、前記エスカレーターの状態判別値を決定するように構成される判別値決定サブモジュールと、前記状態判別値が第1閾値以上である場合、前記エスカレーターが空き状態にあると決定するように構成される状態決定サブモジュールと、を備える。 In a possible implementation, the state determination module is configured to determine a state discrimination value of the escalator based on a plurality of state identification results and a weight of the plurality of state identification results when there are a plurality of the state identification results. and a state determination sub-module configured to determine that the escalator is in an empty state when the state discriminant value is greater than or equal to a first threshold.

可能な実現形態において、前記状態識別結果は、第1状態識別結果を含み、前記状態識別モジュールは、前記第1領域画像に対して分類処理を行い、前記エスカレーターの第1状態識別結果を得るように構成される第1結果決定サブモジュールを備える。 In a possible implementation, the state identification result comprises a first state identification result, and the state identification module performs a classification operation on the first area image to obtain a first state identification result of the escalator. a first result determination sub-module configured as:

可能な実現形態において、前記状態識別結果は、第2状態識別結果を含み、前記状態識別モジュールは、前記第1領域画像に対して分割を行い、前記第1領域画像を背景領域と前記エスカレーターの所在する前景領域に分割するように構成される分割サブモジュールと、前記背景領域の画素値に対して調整を行い、調整後の第2領域画像を得るように構成される画素調整サブモジュールと、前記第2領域画像に対して分類処理を行い、前記エスカレーターの第2状態識別結果を得るように構成される第2結果決定サブモジュールと、を備える。 In a possible implementation, the state identification result comprises a second state identification result, and the state identification module performs a segmentation on the first area image, dividing the first area image into a background area and an area of the escalator. a segmentation sub-module configured to segment into a foreground region located therein; and a pixel adjustment sub-module configured to adjust pixel values of the background region to obtain an adjusted second region image; a second result determination sub-module configured to perform a classification process on the second area image to obtain a second state identification result of the escalator.

可能な実現形態において、前記状態識別結果は、第3状態識別結果を含み、前記状態識別モジュールは、前記第1領域画像と所定の参照画像に対して画素マッチングを行い、前記第1領域画像と前記参照画像とのマッチング領域の割合を決定するように構成される画素マッチングサブモジュールであって、前記参照画像は、空き状態にあるエスカレーターに対応する領域画像を含む、画素マッチングサブモジュールと、前記マッチング領域の割合が第2閾値以上である場合、前記第3状態識別結果が前記エスカレーターが空き状態にあることであると決定するように構成される第3結果決定サブモジュールと、を備える。 In a possible implementation, the state identification result comprises a third state identification result, and the state identification module performs pixel matching on the first area image and a predetermined reference image to obtain the first area image and a pixel matching sub-module configured to determine a proportion of a matching area with the reference image, wherein the reference image includes an area image corresponding to an escalator in an empty state; a third result determination sub-module configured to determine that the third state identification result is that the escalator is in an empty state if the percentage of matching areas is greater than or equal to a second threshold.

可能な実現形態において、前記状態識別結果は、第4状態識別結果を含み、前記状態識別モジュールは、前記第1領域画像に対して第1目標検出を行い、前記第1領域画像に第1目標が存在するかどうかを決定するように構成される検出サブモジュールと、前記第1領域画像に第1目標が存在しない場合、前記第4状態識別結果が前記エスカレーターが空き状態にあることであると決定するように構成される第4結果決定サブモジュールと、を備える。 In a possible implementation, the state identification result comprises a fourth state identification result, the state identification module performing first target detection on the first area image, and detecting a first target on the first area image. and if the first target is not present in the first area image, the fourth state identification result is that the escalator is in an empty state. a fourth outcome determination sub-module configured to determine.

可能な実現形態において、前記装置は、前記エスカレーターが空き状態にある場合、エスカレーター停止信号を送信するように構成される停止信号送信モジュールであって、前記エスカレーター停止信号は、運転を停止するよう前記エスカレーターに指示するためのものである、停止信号送信モジュールを更に備える。 In a possible implementation, the device is a stop signal transmission module configured to transmit an escalator stop signal when the escalator is in an empty state, wherein the escalator stop signal causes the escalator to stop running. It further comprises a stop signal transmission module for instructing the escalator.

可能な実現形態において、前記装置は、前記エスカレーターが非空き状態にあり、且つ前記エスカレーターの運転が既に停止された場合、エスカレーター起動信号を送信するように構成される起動信号送信モジュールであって、前記エスカレーター起動信号は、運転するよう前記エスカレーターに指示するためのものである、起動信号送信モジュールを更に備える。 In a possible implementation, the device is an activation signal transmission module configured to transmit an escalator activation signal when the escalator is in a non-empty state and the escalator has already stopped running, The escalator activation signal further comprises an activation signal transmission module for instructing the escalator to run.

可能な実現形態において、前記装置は、前記第1画像に対して第2目標検出を行い、前記第1画像における第2目標の第3領域を決定するように構成される目標検出モジュールと、前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定するように構成される検出結果決定モジュールであって、前記検出結果は、前記第2目標が前記エスカレーター上に位置すること又は前記エスカレーター上に位置しないことを含む、検出結果決定モジュールと、を更に備える。 In a possible implementation, the apparatus is a target detection module configured to perform a second target detection on the first image to determine a third region of the second target in the first image; A detection result determination module configured to determine a detection result of the second target based on the positional relationship between the first area and the third area, wherein the detection result determines whether the second target is the a detection result determination module including being located on an escalator or not located on said escalator.

可能な実現形態において、前記検出結果決定モジュールは、第4領域と前記第3領域との面積比が第3閾値以上である場合、前記検出結果が前記第2目標が前記エスカレーター上に位置することであると決定するように構成される決定サブモジュールであって、前記第4領域は、前記第1領域と前記第3領域との共通領域を含む、決定サブモジュールを備える。 In a possible implementation, the detection result determination module determines that the detection result indicates that the second target is located on the escalator when the area ratio between the fourth area and the third area is greater than or equal to a third threshold. A determining sub-module configured to determine that the fourth area comprises an intersection area of the first area and the third area.

可能な実現形態において、前記第2目標は、エスカレーターへの持ち込み禁止物品を含み、前記装置は、前記第2目標が前記エスカレーター上に位置する場合、警告情報を送信するように構成される警告情報送信モジュールを更に備える。 In a possible implementation, said second target comprises prohibited items on an escalator, and said device is configured to send warning information when said second target is located on said escalator. It further comprises a transmission module.

幾つかの実施例において、本出願の実施例で提供される装置における機能及びモジュールは、上記方法実施例に記載の方法を実行するために用いられ、具体的な実現形態は上記方法実施例の説明を参照されたい。 In some embodiments, the functions and modules in the apparatus provided in the examples of the present application are used to perform the methods described in the above method examples, and specific implementations are described in the above method examples. See description.

本願の実施例はコンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にはコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、上記方法を実現する。コンピュータ可読記憶媒体は不揮発性コンピュータ可読記憶媒体であってもよい。 Embodiments of the present application further provide a computer-readable storage medium. The computer readable storage medium stores computer program instructions which, when executed by a processor, implement the above method. The computer-readable storage medium may be a non-volatile computer-readable storage medium.

本願の実施例は電子機器を更に提供する。該電子機器は、プロセッサと、プロセッサによる実行可能な命令を記憶するように構成されるメモリとを備え、そのうち、前記プロセッサは、前記メモリに記憶された命令を呼び出し、上記方法を実行するように構成される。 Embodiments of the present application further provide an electronic device. The electronic device comprises a processor and a memory configured to store instructions executable by the processor, wherein the processor invokes the instructions stored in the memory to perform the method. Configured.

本願の実施例は、コンピュータプログラム製品を更に提供する。前記コンピュータプログラム製品は、コンピュータ可読コードを含み、コンピュータ可読コードが機器において実行される時、機器におけるプロセッサは、上記いずれか1つの実施例による画像検出方法を実現するための命令を実行する。 Embodiments of the present application further provide a computer program product. The computer program product comprises computer readable code, and when the computer readable code is executed in a device, a processor in the device executes instructions for implementing the image detection method according to any one of the embodiments above.

本願の実施例は、別のコンピュータプログラム製品を更に提供する。前記コンピュータプログラム製品は、コンピュータ可読命令を記憶するように構成され、命令が実行される時、コンピュータに上記いずれか1つの実施例による画像検出方法の操作を実行させる。 Embodiments of the present application further provide another computer program product. The computer program product is configured to store computer readable instructions which, when executed, cause a computer to perform the operations of the image detection method according to any one of the embodiments above.

電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。 An electronic device may be provided as a terminal, server, or other form of device.

図7は本願の実施例による電子機器800のブロック図を示す。例えば、電子機器800は、携帯電話、コンピュータ、デジタル放送端末、メッセージング装置、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、パーソナルデジタルアシスタントなどの端末であってもよい。 FIG. 7 shows a block diagram of an electronic device 800 according to an embodiment of the present application. For example, electronic device 800 may be a terminal such as a mobile phone, computer, digital broadcast terminal, messaging device, game console, tablet device, medical equipment, fitness equipment, personal digital assistant, and the like.

図7を参照すると、電子機器800は、処理ユニット802、メモリ804、電源ユニット806、マルチメディアユニット808、オーディオユニット810、入力/出力(Input/Output:I/O)インタフェース812、センサユニット814及び通信ユニット816のうちの1つ又は複数を備えてもよい。 Referring to FIG. 7, the electronic device 800 includes a processing unit 802, a memory 804, a power supply unit 806, a multimedia unit 808, an audio unit 810, an Input/Output (I/O) interface 812, a sensor unit 814 and One or more of the communication units 816 may be provided.

処理ユニット802は一般的には、電子機器800の全体操作を制御する。例えば、表示、通話呼、データ通信、カメラ操作及び記録操作に関連する操作を制御する。処理ユニット802は、指令を実行するための1つ又は複数のプロセッサ820を備えてもよい。それにより上記方法の全て又は一部のステップを実行する。なお、処理ユニット802は、他のユニットとのインタラクションのために、1つ又は複数のモジュールを備えてもよい。例えば、処理ユニット802はマルチメディアモジュールを備えることで、マルチメディアユニット808と処理ユニット802とのインタラクションに寄与する。 Processing unit 802 generally controls the overall operation of electronic device 800 . For example, it controls operations related to display, phone calls, data communication, camera operation and recording operation. Processing unit 802 may include one or more processors 820 for executing instructions. All or part of the steps of the above method are thereby performed. Note that the processing unit 802 may comprise one or more modules for interaction with other units. For example, processing unit 802 may include a multimedia module to facilitate interaction between multimedia unit 808 and processing unit 802 .

メモリ804は、各種のデータを記憶することで電子機器800における操作をサポートするように構成される。これらのデータの例として、電子機器800上で操作れる如何なるアプリケーション又は方法の命令、連絡先データ、電話帳データ、メッセージ、イメージ、ビデオ等を含む。メモリ804は任意のタイプの揮発性または不揮発性記憶装置、あるいはこれらの組み合わせにより実現される。例えば、スタティックランダムアクセスメモリ(SRAM:Static Random-Access Memory)、電気的消去可能なプログラマブル読み出し専用メモリ(EEPROM:Static Random-Access Memory)、電気的に消去可能なプログラマブル読出し専用メモリ(EPROM:Electrically Erasable Programmable Read-Only Memory)、プログラマブル読出し専用メモリ(PROM:Programmable Read-Only Memory)、読出し専用メモリ(ROM:Read Only Memory)、磁気メモリ、フラッシュメモリ、磁気もしくは光ディスクを含む。 Memory 804 is configured to support operations in electronic device 800 by storing various data. Examples of such data include instructions for any application or method operable on electronic device 800, contact data, phonebook data, messages, images, videos, and the like. Memory 804 may be implemented by any type of volatile or non-volatile storage, or a combination thereof. For example, static random-access memory (SRAM), electrically erasable programmable read-only memory (EEPROM), electrically erasable programmable read-only memory (EPROM) Programmable Read-Only Memory), Programmable Read-Only Memory (PROM), Read Only Memory (ROM), Magnetic Memory, Flash Memory, Magnetic or Optical Disk.

電源ユニット806は電子機器800の様々なユニットに電力を提供する。電源ユニット806は、電源管理システム、1つ又は複数の電源、及び電子機器800のための電力生成、管理、分配に関連する他のユニットを備えてもよい。 Power supply unit 806 provides power to the various units of electronic device 800 . Power supply unit 806 may comprise a power management system, one or more power supplies, and other units related to power generation, management and distribution for electronic device 800 .

マルチメディアユニット808は、上記電子機器800とユーザとの間に出力インタフェースを提供するためのスクリーンを備える。幾つかの実施例において、スクリーンは、液晶ディスプレイ(LCD:Liquid Crystal Display)及びタッチパネル(TP:Touch Panel)を含む。スクリーンは、タッチパネルを含むと、タッチパネルとして実現され、ユーザからの入力信号を受信する。タッチパネルは、タッチ、スライド及びパネル上のジェスチャを感知する1つ又は複数のタッチセンサを備える。上記タッチセンサは、タッチ又はスライド動作の境界を感知するだけでなく、上記タッチ又はスライド操作に関連する持続時間及び圧力を検出することもできる。幾つかの実施例において、マルチメディアユニット808は、フロントカメラ及び/又はリアカメラを備える。電子機器800が、撮影モード又はビデオモードのような操作モードであれば、フロントカメラ及び/又はリアカメラは外部からのマルチメディアデータを受信することができる。各フロントカメラ及びリアカメラは固定した光学レンズシステム又は焦点及び光学ズーム能力を持つものであってもよい。 A multimedia unit 808 includes a screen for providing an output interface between the electronic device 800 and a user. In some embodiments, the screen includes a Liquid Crystal Display (LCD) and a Touch Panel (TP). When the screen includes a touch panel, it is implemented as a touch panel and receives input signals from the user. A touch panel comprises one or more touch sensors that sense touches, slides and gestures on the panel. The touch sensor can not only sense the boundaries of a touch or slide action, but also detect the duration and pressure associated with the touch or slide action. In some embodiments, multimedia unit 808 includes a front camera and/or a rear camera. When the electronic device 800 is in an operating mode such as a shooting mode or a video mode, the front camera and/or the rear camera can receive multimedia data from the outside. Each front and rear camera may have a fixed optical lens system or focus and optical zoom capabilities.

オーディオユニット810は、オーディオ信号を出力/入力するように構成される。例えば、オーディオユニット810は、マイクロホン(MIC:Microphone)を備える。電子機器800が、通話モード、記録モード及び音声識別モードのような操作モードであれば、マイクロホンは、外部からのオーディオ信号を受信するように構成される。受信したオーディオ信号を更にメモリ804に記憶するか、又は通信ユニット816を経由して送信することができる。幾つかの実施例において、オーディオユニット810は、オーディオ信号を出力するように構成されるスピーカーを更に備える。 Audio unit 810 is configured to output/input audio signals. For example, the audio unit 810 includes a microphone (MIC). When the electronic device 800 is in operating modes such as call mode, recording mode and voice recognition mode, the microphone is configured to receive audio signals from the outside. The received audio signals can be further stored in memory 804 or transmitted via communication unit 816 . In some embodiments, audio unit 810 further comprises a speaker configured to output audio signals.

I/Oインタフェース812は、処理ユニット802と周辺インタフェースモジュールとの間のインタフェースを提供する。上記周辺インタフェースモジュールは、キーボード、クリックホイール、ボタン等であってもよい。これらのボタンは、ホームボダン、ボリュームボタン、スタートボタン及びロックボタンを含むが、これらに限定されない。 I/O interface 812 provides an interface between processing unit 802 and peripheral interface modules. The peripheral interface modules may be keyboards, click wheels, buttons, and the like. These buttons include, but are not limited to, home button, volume button, start button and lock button.

センサユニット814は、1つ又は複数のセンサを備え、電子機器800のために様々な状態の評価を行うように構成される。例えば、センサユニット814は、電子機器800のオン/オフ状態、ユニットの相対的な位置決めを検出することができる。例えば、上記ユニットが電子機器800のディスプレイ及びキーパッドである。センサユニット814は電子機器800又は電子機器800における1つのユニットの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位又は加速/減速及び電子機器800の温度の変動を検出することもできる。センサユニット814は近接センサを備えてもよく、いかなる物理的接触もない場合に周囲の物体の存在を検出するように構成される。センサユニット814は、相補型金属酸化膜半導体(CMOS:Complementary Metal-Oxide-Semiconductor)又は荷電結合素子(CCD:Charge Coupled Device)画像センサのような光センサを備えてもよく、結像に適用されるように構成される。幾つかの実施例において、該センサユニット814は、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ又は温度センサを備えてもよい。 Sensor unit 814 comprises one or more sensors and is configured to perform various condition assessments for electronic device 800 . For example, the sensor unit 814 can detect the on/off state of the electronic device 800 and the relative positioning of the units. For example, the unit is the display and keypad of electronic device 800 . The sensor unit 814 detects changes in the position of the electronic device 800 or one unit in the electronic device 800, whether there is contact between the user and the electronic device 800, the orientation or acceleration/deceleration of the electronic device 800, and changes in the temperature of the electronic device 800. You can also Sensor unit 814 may comprise a proximity sensor and is configured to detect the presence of surrounding objects in the absence of any physical contact. The sensor unit 814 may comprise an optical sensor, such as a Complementary Metal-Oxide-Semiconductor (CMOS) or Charge Coupled Device (CCD) image sensor, and may be applied to imaging. configured to In some embodiments, the sensor unit 814 may comprise an acceleration sensor, gyro sensor, magnetic sensor, pressure sensor or temperature sensor.

通信ユニット816は、電子機器800と他の機器との有線又は無線方式の通信に寄与するように構成される。電子機器800は、無線ネットワーク(WiFiWireless Fidelity)、第2世代移動通信技術(2G:The 2nd Generation)又は第3世代移動通信技術(3G:The 3nd Generation)、又はそれらの組み合わせのような通信規格に基づいた無線ネットワークにアクセスできる。一例示的な実施例において、通信ユニット816は放送チャネルを経由して外部放送チャネル管理システムからの放送信号又は放送関連する情報を受信する。一例示的な実施例において、上記通信ユニット816は、近接場通信(NFC:Near Field Communication)モジュールを更に備えることで近距離通信を促進する。例えば、NFCモジュールは、無線周波数識別(RFID:Radio Frequency Identification)技術、赤外線データ協会(IrDA:Infrared Data Association)技術、超広帯域(UWB:Ultra Wide Band)技術、ブルートゥース(登録商標)(BT:Blue Tooth)技術及び他の技術に基づいて実現される。 Communication unit 816 is configured to facilitate wired or wireless communication between electronic device 800 and other devices. The electronic device 800 complies with a communication standard such as a wireless network (WiFi Wireless Fidelity), a second generation mobile communication technology (2G: The 2nd Generation), a third generation mobile communication technology (3G: The 3rd Generation), or a combination thereof. based wireless network. In one exemplary embodiment, communication unit 816 receives broadcast signals or broadcast-related information from an external broadcast channel management system via a broadcast channel. In one exemplary embodiment, the communication unit 816 further comprises a Near Field Communication (NFC) module to facilitate near field communication. For example, the NFC module uses Radio Frequency Identification (RFID) technology, Infrared Data Association (IrDA) technology, Ultra Wide Band (UWB) technology, Bluetooth (BT) Tooth) technology and other technologies.

例示的な実施例において、電子機器800は、1つ又は複数の特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、デジタル信号プロセッサ(DSP:Digital Signal Processor)、デジタル信号処理機器(DSPD:Digital Signal Processing Device)、プログラマブルロジックデバイス(PLD:Programmable Logic Device)、フィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子素子により実現され、上記方法を実行するように構成されてもよい。 In an exemplary embodiment, electronic device 800 includes one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processors (DSPDs). Signal Processing Device), Programmable Logic Device (PLD), Field Programmable Gate Array (FPGA), controller, microcontroller, microprocessor or other electronic device to perform the above method. It may be configured as

例示的な実施例において、コンピュータプログラム命令を記憶したメモリ804のような非一時的コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器800のプロセッサ820により実行され上記方法を遂行する。 Exemplary embodiments further provide a non-transitory computer-readable storage medium, such as memory 804, having computer program instructions stored thereon. The computer program instructions are executed by processor 820 of electronic device 800 to perform the method described above.

図8は、本出願の実施例による別の電子機器1900を示すブロック図である。例えば、電子機器1900は、サーバとして提供されてもよい。図8を参照すると、電子機器1900は、処理ユニット1922を備える。それは1つ又は複数のプロセッサと、メモリ1932で表されるメモリリソースを更に備える。該メモリリースは、アプリケーションプログラムのような、処理ユニット1922により実行される命令を記憶するためのものである。メモリ1932に記憶されているアプリケーションプログラムは、それぞれ一組の命令に対応する1つ又は1つ以上のモジュールを含んでもよい。なお、処理ユニット1922は、命令を実行して、上記方法を実行するように構成される。 FIG. 8 is a block diagram illustrating another electronic device 1900 according to an embodiment of the application. For example, electronic device 1900 may be provided as a server. Referring to FIG. 8, electronic device 1900 comprises a processing unit 1922 . It further comprises one or more processors and memory resources represented by memory 1932 . The memory lease is for storing instructions to be executed by processing unit 1922, such as an application program. An application program stored in memory 1932 may include one or more modules each corresponding to a set of instructions. It should be noted that the processing unit 1922 is configured to execute instructions to perform the methods described above.

電子機器1900は、電子機器1900の電源管理を実行するように構成される電源ユニット1926と、電子機器1900をネットワークに接続するように構成される有線又は無線ネットワークインタフェース1950と、入力出力(I/O)インタフェース1958を更に備えてもよい。電子機器1900は、マイクロソフトサーバオペレーティングシステム(Windows(登録商標) ServerTM)、アップル社により提供されたグラフィクスに基づくユーザインタフェースオペレーティングシステム(Mac OS XTM)、マルチユーザマルチプロセスのコンピュータオペレーティングシステム(Unix(登録商標))、フリーオープンソースコード型Unix(登録商標)と類似したオペレーティングシステム(Uinux)、オープンソースコード型Unix(登録商標)と類似したオペレーティングシステム(FreeBSDTM)又は類似したもののような、メモリ1932に記憶されているオペレーティングシステムを実行することができる。 The electronic device 1900 includes a power supply unit 1926 configured to perform power management of the electronic device 1900; a wired or wireless network interface 1950 configured to connect the electronic device 1900 to a network; O) An interface 1958 may also be provided. The electronic device 1900 may run a Microsoft server operating system (Windows Server™), a graphics-based user interface operating system (Mac OS X™) provided by Apple Inc., a multi-user, multi-process computer operating system (Unix™). )), a free open source code-type Unix-like operating system (Uinux), an open source code-type Unix-like operating system (FreeBSD™), or the like, stored in memory 1932 can run any operating system.

例示的な実施例において、例えば、コンピュータプログラム命令を含むメモリ1932のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器1900の処理ユニット1922により実行されて上記方法を遂行する。 Exemplary embodiments further provide a non-volatile computer-readable storage medium, such as memory 1932, which contains computer program instructions. The computer program instructions are executed by processing unit 1922 of electronic device 1900 to perform the method described above.

本願は、システム、方法及び/又はコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、コンピュータ可読記憶媒体を備えてもよく、プロセッサに本出願の各態様を実現させるためのコンピュータ可読プログラム命令がそれに記憶されている。 The present application may be a system, method and/or computer program product. The computer program product may comprise a computer readable storage medium having computer readable program instructions stored thereon for causing a processor to implement aspects of the present application.

コンピュータ可読記憶媒体は、命令実行装置に用いられる命令を保持又は記憶することができる有形装置であってもよい。コンピュータ可読記憶媒体は、例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置又は上記の任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体は、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM:Random Access Memory)、読み出し専用メモリ、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM:Compact Disc Read-Only Memory)、デジタル多目的ディスク(DVD:Digital Video Disc)、メモリスティック、フレキシブルディスク、命令が記憶されているパンチカード又は凹溝内における突起構造のような機械的符号化装置、及び上記任意の適切な組み合わせを含む。ここで用いられるコンピュータ可読記憶媒体は、電波もしくは他の自由に伝搬する電磁波、導波路もしくは他の伝送媒体を通って伝搬する電磁波(例えば、光ファイバケーブルを通過する光パルス)、または、電線を通して伝送される電気信号などの、一時的な信号それ自体であると解釈されるべきではない。 A computer-readable storage medium may be a tangible device capable of holding or storing instructions for use in an instruction-executing device. A computer-readable storage medium may be, for example, but not limited to, an electrical storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any combination of the above. Computer-readable storage media include portable computer disks, hard disks, random access memory (RAM), read-only memory, erasable programmable read-only memory (EPROM or flash), static random access memory (SRAM), portable compact Disc read-only memory (CD-ROM: Compact Disc Read-Only Memory), digital multi-purpose disc (DVD: Digital Video Disc), memory stick, flexible disc, punch card in which instructions are stored, or protrusion structure in recessed groove and any suitable combination of the above. Computer-readable storage media, as used herein, include radio waves or other freely propagating electromagnetic waves, electromagnetic waves propagating through waveguides or other transmission media (e.g., light pulses passing through fiber optic cables), or through electrical wires. It should not be construed as being a transitory signal per se, such as a transmitted electrical signal.

ここで説明されるコンピュータ可読プログラム命令を、コンピュータ可読記憶媒体から各コンピューティング/処理機器にダウンロードすることができるか、又は、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又は無線ネットワークのようなネットワークを経由して外部コンピュータ又は外部記憶装置にダウンロードすることができる。ネットワークは、伝送用銅線ケーブル、光ファイバー伝送、無線伝送、ルータ、ファイアウォール、交換機、ゲートウェイコンピュータ及び/又はエッジサーバを含んでもよい。各コンピューティング/処理機器におけるネットワークインターフェースカード又はネットワークインタフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各コンピューティング/処理機器におけるコンピュータ可読記憶媒体に記憶する。 The computer readable program instructions described herein may be downloaded from a computer readable storage medium to each computing/processing device or network such as the Internet, local area networks, wide area networks and/or wireless networks. can be downloaded to an external computer or external storage device via A network may include copper transmission cables, fiber optic transmissions, wireless transmissions, routers, firewalls, switches, gateway computers and/or edge servers. A network interface card or network interface at each computing/processing device receives computer-readable program instructions from the network, transfers the computer-readable program instructions for storage on a computer-readable storage medium at each computing/processing device.

本願の操作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA:Industry Standard Architecture)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は1つ又は複数のプログラミング言語で記述されたソースコード又は目標コードであってもよい。前記プログラミング言語は、Smalltalk、C++などのようなオブジェクト指向プログラミング言語と、「C」プログラミング言語又は類似したプログラミング言語などの従来の手続型プログラミング言語とを含む。コンピュータ可読プログラム命令は、ユーザコンピュータ上で完全に実行してもよいし、ユーザコンピュータ上で部分的に実行してもよいし、独立したソフトウェアパッケージとして実行してもよいし、ユーザコンピュータ上で部分的に実行してリモートコンピュータ上で部分的に実行してもよいし、又はリモートコンピュータ又はサーバ上で完全に実行してもよい。リモートコンピュータの場合に、リモートコンピュータは、ローカルエリアネットワーク(LAN:Local Area Network)やワイドエリアネットワーク(WAN:Wide Area Network)を含む任意の種類のネットワークを通じてユーザのコンピュータに接続するか、または、外部のコンピュータに接続することができる(例えばインターネットサービスプロバイダを用いてインターネットを通じて接続する)。幾つかの実施例において、コンピュータ可読プログラム命令の状態情報を利用して、プログラマブル論理回路、フィールドプログラマブルゲートアレイ又はプログラマブル論理アレイのような電子回路をカスタマイズする。該電子回路は、コンピュータ可読プログラム命令を実行することで、本出願の各態様を実現させることができる。 Computer readable program instructions for performing the operations herein may be assembler instructions, Industry Standard Architecture (ISA) instructions, machine instructions, machine dependent instructions, microcode, firmware instructions, state setting data, or one or more It may be source code or target code written in multiple programming languages. The programming languages include object-oriented programming languages such as Smalltalk, C++, etc., and traditional procedural programming languages such as the "C" programming language or similar programming languages. The computer-readable program instructions may be executed entirely on the user computer, partially executed on the user computer, executed as a separate software package, or partially executed on the user computer. It may be executed locally and partially executed on a remote computer, or completely executed on a remote computer or server. In the case of a remote computer, the remote computer may be connected to the user's computer through any type of network, including a local area network (LAN) or a wide area network (WAN), or may be connected externally. computer (eg, through the Internet using an Internet service provider). In some embodiments, state information in computer readable program instructions is used to customize electronic circuits such as programmable logic circuits, field programmable gate arrays or programmable logic arrays. The electronic circuitry may implement aspects of the present application by executing computer readable program instructions.

ここで、本出願の実施例の方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照しながら、本出願の各態様を説明する。フローチャート及び/又はブロック図の各ブロック及びフローチャート及び/又はブロック図における各ブロックの組み合わせは、いずれもコンピュータ可読プログラム命令により実現できる。 Aspects of the present application are now described with reference to flowchart illustrations and/or block diagrams of example methods, apparatus (systems) and computer program products of the present application. Each block of the flowchart illustrations and/or block diagrams, and combinations of blocks in the flowchart illustrations and/or block diagrams, can be implemented by computer readable program instructions.

これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータまたはその他プログラマブルデータ処理機器のプロセッサに提供でき、それによって機器を生み出し、これら命令はコンピュータまたはその他プログラマブルデータ処理機器のプロセッサにより実行される時、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現する装置を生み出した。これらのコンピュータ可読プログラム命令をコンピュータ可読記憶媒体に記憶してもよい。これらの命令によれば、コンピュータ、プログラマブルデータ処理機器及び/又は他の装置は特定の方式で動作する。従って、命令が記憶されているコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図おける1つ又は複数のブロック中で規定している機能/操作を実現する各態様の命令を含む製品を備える。 These computer readable program instructions can be provided to a processor of a general purpose computer, special purpose computer or other programmable data processing device, thereby producing a device which, when executed by the processor of the computer or other programmable data processing device, can be used as a flowchart. and/or produce an apparatus that performs the functions/operations specified in one or more of the blocks in the block diagrams. These computer readable program instructions may be stored on a computer readable storage medium. These instructions cause computers, programmable data processing devices, and/or other devices to operate in specific manners. Accordingly, a computer-readable storage medium having instructions stored thereon comprises an article of manufacture containing instructions for each aspect of implementing the functions/operations specified in one or more blocks in the flowcharts and/or block diagrams.

コンピュータ可読プログラム命令をコンピュータ、他のプログラマブルデータ処理機器又は他の装置にロードしてもよい。これにより、コンピュータ、他のプログラマブルデータ処理機器又は他の装置で一連の操作の工程を実行して、コンピュータで実施されるプロセスを生成する。従って、コンピュータ、他のプログラマブルデータ処理機器又は他の装置で実行される命令により、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現させる。 The computer readable program instructions may be loaded into a computer, other programmable data processing device, or other device. It causes a computer, other programmable data processing device, or other device to perform a series of operational steps to produce a computer-implemented process. Accordingly, instructions executed by a computer, other programmable data processing device, or other device, implement the functions/operations specified in one or more blocks in the flowchart illustrations and/or block diagrams.

図面におけるフローチャート及びブック図は、本出願の複数の実施例によるシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャ、機能および操作を例示するものである。この点で、フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント又は命令の一部を表すことができる。前記モジュール、プログラムセグメント又は命令の一部は、1つまたは複数の所定の論理機能を実現するための実行可能な命令を含む。いくつかの取り替えとしての実現中に、ブロックに表記される機能は図面中に表記される順序と異なる順序で発生することができる。例えば、二つの連続するブロックは実際には基本的に並行して実行でき、場合によっては反対の順序で実行することもでき、これは関係する機能から確定する。ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行するための専用ハードウェアベースシステムにより実現するか、又は専用ハードウェアとコンピュータ命令の組み合わせにより実現することができる。 The flowcharts and workbook diagrams in the drawings illustrate possible architectures, functionality, and operation of systems, methods and computer program products according to embodiments of the present application. In this regard, each block in a flowchart or block diagram can represent part of a module, program segment or instruction. Some of the modules, program segments or instructions contain executable instructions for implementing one or more predetermined logical functions. In some alternative implementations, the functions noted in the blocks may occur out of the order noted in the figures. For example, two consecutive blocks may in fact be executed essentially in parallel, or possibly in the opposite order, as determined from the functionality involved. Each block in the block diagrams and/or flowchart illustrations, and combinations of blocks in the block diagrams and/or flowchart illustrations, may be implemented by means of dedicated hardware-based systems, or dedicated hardware and computer instructions, to perform the specified functions or operations. It can be realized by a combination of

該コンピュータプログラム製品は、ハードウェア、ソフトウェア又はその組み合わせにより実現してもよい。1つの選択的な実施例において、前記コンピュータプログラム製品は、コンピュータ記憶媒体として具現化されてもよく、別の選択的な実施例において、コンピュータプログラム製品は、例えば、ソフトウェア開発キット(Software Development Kit:SDK)等のようなソフトウェア製品として具現化されてもよい。 The computer program product may be implemented in hardware, software or a combination thereof. In one alternative embodiment, said computer program product may be embodied as a computer storage medium, and in another alternative embodiment, the computer program product is, for example, a Software Development Kit: SDK) or the like may be embodied as a software product.

以上は本発明の各実施例を説明したが、前記説明は例示的なものであり、網羅するものではなく、且つ開示した各実施例に限定されない。説明した各実施例の範囲と趣旨から脱逸しない場合、当業者にとって、多くの修正及び変更は容易に想到しえるものである。本明細書に用いられる用語の選択は、各実施例の原理、実際の応用、或いは市場における技術への改善を最もよく解釈すること、或いは他の当業者が本明細書に開示された各実施例を理解できることを目的とする。 While embodiments of the present invention have been described above, the foregoing description is intended to be illustrative, not exhaustive, and not limited to the disclosed embodiments. Many modifications and variations will readily occur to those skilled in the art without departing from the scope and spirit of each described embodiment. The choice of terminology used herein is such that it best interprets the principles, practical applications, or improvements to the technology in the marketplace of each embodiment, or that others of ordinary skill in the art may recognize each implementation disclosed herein. The purpose is to help you understand the examples.

本願の実施例において、エスカレーターの第1画像を取得し、前記第1画像に対して領域検出を行い、前記第1画像における前記エスカレーターの第1領域を決定し、前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定し、前記状態識別結果は、前記エスカレーターが空き状態にあること又は非空き状態にあることを含み、前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定する。このように、エスカレーターの運転状態識別の正確率を向上させることができ、完全且つ安定する1セットのスマートエスカレーターの解決手段を形成することができ、現在の全ての公衆エスカレーター場面に適用することができる。 In an embodiment of the present application, a first image of an escalator is obtained, region detection is performed on the first image, a first region of the escalator in the first image is determined, and a second region corresponding to the first region is determined. performing state identification of an escalator on a region image to determine at least one state identification result of the escalator, wherein the state identification result includes whether the escalator is in an empty state or in a non-empty state; A state of the escalator is determined based on the at least one state identification result. In this way, the accuracy rate of escalator operation status identification can be improved, and a complete and stable set of smart escalator solutions can be formed, which can be applied to all current public escalator scenes. can.

本願の実施例によれば、画像におけるエスカレーターの所在領域を検出し、エスカレーターの領域画像に基づいて、少なくとも1つの状態識別結果を識別し、少なくとも1つの状態識別結果に基づいて、エスカレーターの空き状態又は非空き状態を決定することができ、エスカレーターの領域の位置決めの正確性を向上させ、エスカレーターの運転状態の識別の正確率を向上させることができる。
例えば、本願は以下の項目を提供する。
(項目1)
画像検出方法であって、
エスカレーターの第1画像を取得することと、
前記第1画像に対して領域検出を行い、前記第1画像における前記エスカレーターの第1領域を決定することと、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することであって、前記状態識別結果は、前記エスカレーターが空き状態にあること又は非空き状態にあることを含む、ことと、
前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定することと、を含む、画像検出方法。
(項目2)
前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定することは、
前記状態識別結果が複数である場合、複数の状態識別結果及び前記複数の状態識別結果の重みに基づいて、前記エスカレーターの状態判別値を決定することと、
前記状態判別値が第1閾値以上である場合、前記エスカレーターが空き状態にあると決定することと、を含むことを特徴とする
項目1に記載の方法。
(項目3)
前記状態識別結果は、第1状態識別結果を含み、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、
前記第1領域画像に対して分類処理を行い、前記エスカレーターの第1状態識別結果を得ることを含むことを特徴とする
項目1又は2に記載の方法。
(項目4)
前記状態識別結果は、第2状態識別結果を含み、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、
前記第1領域画像に対して分割を行い、前記第1領域画像を背景領域と前記エスカレーターの所在する前景領域に分割することと、
前記背景領域の画素値に対して調整を行い、調整後の第2領域画像を得ることと、
前記第2領域画像に対して分類処理を行い、前記エスカレーターの第2状態識別結果を得ることと、を含むことを特徴とする
項目1~3のうちいずれか一項に記載の方法。
(項目5)
前記状態識別結果は、第3状態識別結果を含み、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、
前記第1領域画像と所定の参照画像に対して画素マッチングを行い、前記第1領域画像と前記参照画像とのマッチング領域の割合を決定することであって、前記参照画像は、空き状態にあるエスカレーターに対応する領域画像を含む、ことと、
前記マッチング領域の割合が第2閾値以上である場合、前記第3状態識別結果が前記エスカレーターが空き状態にあることであると決定することと、を含むことを特徴とする
項目1~4のうちいずれか一項に記載の方法。
(項目6)
前記状態識別結果は、第4状態識別結果を含み、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、
前記第1領域画像に対して第1目標検出を行い、前記第1領域画像に第1目標が存在するかどうかを決定することと、
前記第1領域画像に第1目標が存在しない場合、前記第4状態識別結果が前記エスカレーターが空き状態にあることであると決定することと、を含むことを特徴とする
項目1~5のうちいずれか一項に記載の方法。
(項目7)
前記方法は、
前記エスカレーターが空き状態にある場合、エスカレーター停止信号を送信することであって、前記エスカレーター停止信号は、運転を停止するよう前記エスカレーターに指示するためのものである、ことを更に含むことを特徴とする
項目1~6のうちいずれか一項に記載の方法。
(項目8)
前記方法は、
前記エスカレーターが非空き状態にあり、且つ前記エスカレーターの運転が既に停止された場合、エスカレーター起動信号を送信することであって、前記エスカレーター起動信号は、運転するよう前記エスカレーターに指示するためのものである、ことを更に含むことを特徴とする
項目1~7のうちいずれか一項に記載の方法。
(項目9)
前記方法は、
前記第1画像に対して第2目標検出を行い、前記第1画像における第2目標の第3領域を決定することと、
前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定することであって、前記検出結果は、前記第2目標が前記エスカレーター上に位置すること又は前記エスカレーター上に位置しないことを含む、ことと、を更に含むことを特徴とする
項目1~8のうちいずれか一項に記載の方法。
(項目10)
前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定することは、
第4領域と前記第3領域との面積比が第3閾値以上である場合、前記検出結果が前記第2目標が前記エスカレーター上に位置することであると決定することであって、前記第4領域は、前記第1領域と前記第3領域との共通領域を含む、ことを含むことを特徴とする
項目9に記載の方法。
(項目11)
前記第2目標は、エスカレーターへの持ち込み禁止物品を含み、前記方法は、
前記第2目標が前記エスカレーター上に位置する場合、警告情報を送信することを更に含むことを特徴とする
項目9又は10に記載の方法。
(項目12)
画像検出装置であって、
エスカレーターの第1画像を取得するように構成される画像取得モジュールと、
前記第1画像に対して領域検出を行い、前記第1画像における前記エスカレーターの第1領域を決定するように構成される領域検出モジュールと、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定するように構成される状態識別モジュールであって、前記状態識別結果は、前記エスカレーターが空き状態にあること又は非空き状態にあることを含む、状態識別モジュールと、
前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定するように構成される状態決定モジュールと、を備える、画像検出装置。
(項目13)
前記状態決定モジュールは、
前記状態識別結果が複数である場合、複数の状態識別結果及び前記複数の状態識別結果の重みに基づいて、前記エスカレーターの状態判別値を決定するように構成される判別値決定サブモジュールと、
前記状態判別値が第1閾値以上である場合、前記エスカレーターが空き状態にあると決定するように構成される状態決定サブモジュールと、を備えることを特徴とする
項目12に記載の装置。
(項目14)
前記状態識別結果は、第1状態識別結果を含み、前記状態識別モジュールは、
前記第1領域画像に対して分類処理を行い、前記エスカレーターの第1状態識別結果を得るように構成される第1結果決定サブモジュールを備えることを特徴とする
項目12又は13に記載の装置。
(項目15)
前記状態識別結果は、第2状態識別結果を含み、前記状態識別モジュールは、
前記第1領域画像に対して分割を行い、前記第1領域画像を背景領域と前記エスカレーターの所在する前景領域に分割するように構成される分割サブモジュールと、
前記背景領域の画素値に対して調整を行い、調整後の第2領域画像を得るように構成される画素調整サブモジュールと、
前記第2領域画像に対して分類処理を行い、前記エスカレーターの第2状態識別結果を得るように構成される第2結果決定サブモジュールと、を備えることを特徴とする
項目12~14のうちいずれか一項に記載の装置。
(項目16)
前記状態識別結果は、第3状態識別結果を含み、前記状態識別モジュールは、
前記第1領域画像と所定の参照画像に対して画素マッチングを行い、前記第1領域画像と前記参照画像とのマッチング領域の割合を決定するように構成される画素マッチングサブモジュールであって、前記参照画像は、空き状態にあるエスカレーターに対応する領域画像を含む、画素マッチングサブモジュールと、
前記マッチング領域の割合が第2閾値以上である場合、前記第3状態識別結果が前記エスカレーターが空き状態にあることであると決定するように構成される第3結果決定サブモジュールと、を備えることを特徴とする
項目12~15のうちいずれか一項に記載の装置。
(項目17)
前記状態識別結果は、第4状態識別結果を含み、前記状態識別モジュールは、
前記第1領域画像に対して第1目標検出を行い、前記第1領域画像に第1目標が存在するかどうかを決定するように構成される検出サブモジュールと、
前記第1領域画像に第1目標が存在しない場合、前記第4状態識別結果が前記エスカレーターが空き状態にあることであると決定するように構成される第4結果決定サブモジュールと、を備えることを特徴とする
項目12~16のうちいずれか一項に記載の装置。
(項目18)
前記装置は、
前記エスカレーターが空き状態にある場合、エスカレーター停止信号を送信するように構成される停止信号送信モジュールであって、前記エスカレーター停止信号は、運転を停止するよう前記エスカレーターに指示するためのものである、停止信号送信モジュールを更に備えることを特徴とする
項目12~17のうちいずれか一項に記載の装置。
(項目19)
前記装置は、前記エスカレーターが非空き状態にあり、且つ前記エスカレーターの運転が既に停止された場合、エスカレーター起動信号を送信するように構成される起動信号送信モジュールであって、前記エスカレーター起動信号は、運転するよう前記エスカレーターに指示するためのものである、起動信号送信モジュールを更に備えることを特徴とする
項目12~18のうちいずれか一項に記載の装置。
(項目20)
前記装置は、
前記第1画像に対して第2目標検出を行い、前記第1画像における第2目標の第3領域を決定するように構成される目標検出モジュールと、
前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定するように構成される検出結果決定モジュールであって、前記検出結果は、前記第2目標が前記エスカレーター上に位置すること又は前記エスカレーター上に位置しないことを含む、検出結果決定モジュールと、を更に備えることを特徴とする
項目12~19のうちいずれか一項に記載の装置。
(項目21)
前記検出結果決定モジュールは、
第4領域と前記第3領域との面積比が第3閾値以上である場合、前記検出結果が前記第2目標が前記エスカレーター上に位置することであると決定するように構成される決定サブモジュールであって、前記第4領域は、前記第1領域と前記第3領域との共通領域を含む、決定サブモジュールを備えることを特徴とする
項目20に記載の装置。
(項目22)
前記第2目標は、エスカレーターへの持ち込み禁止物品を含み、前記装置は、
前記第2目標が前記エスカレーター上に位置する場合、警告情報を送信するように構成される警告情報送信モジュールを更に備えることを特徴とする
項目20又は21に記載の装置。
(項目23)
電子機器であって、
プロセッサと、
プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、
前記プロセッサは、前記メモリに記憶されている命令を呼び出し、項目1~11のうちいずれか一項に記載の方法を実行するように構成される、電子機器。
(項目24)
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にはコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、項目1~11のうちいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。
(項目25)
コンピュータプログラムであって、前記コンピュータプログラムは、コンピュータ可読コードを含み、コンピュータ可読コードが電子機器において実行される時、前記電子機器におけるプロセッサは、項目1~11のうちいずれか一項に記載の方法を実行するコンピュータプログラム。
According to embodiments of the present application, detecting a location area of an escalator in an image, identifying at least one status identification result based on the area image of the escalator, and determining an empty status of the escalator based on the at least one status identification result. Or the non-empty status can be determined, the accuracy of locating the area of the escalator can be improved, and the accuracy rate of identifying the running status of the escalator can be improved.
For example, the present application provides the following items.
(Item 1)
An image detection method comprising:
obtaining a first image of the escalator;
performing region detection on the first image to determine a first region of the escalator in the first image;
performing state identification of an escalator on a first region image corresponding to the first region and determining at least one state identification result of the escalator, wherein the state identification result indicates that the escalator is in an empty state; including being or being in a non-idle state;
determining a state of the escalator based on the at least one state identification result.
(Item 2)
Determining the state of the escalator based on the at least one state identification result comprises:
determining a state discrimination value of the escalator based on a plurality of state identification results and weights of the plurality of state identification results when there are a plurality of state identification results;
determining that the escalator is in an empty state when the state discrimination value is greater than or equal to a first threshold.
The method of item 1.
(Item 3)
The state identification result includes a first state identification result,
performing state identification of an escalator on a first region image corresponding to the first region and determining at least one state identification result of the escalator;
performing a classification process on the first area image to obtain a first state identification result of the escalator.
3. The method of item 1 or 2.
(Item 4)
the state identification result includes a second state identification result;
performing state identification of an escalator on a first region image corresponding to the first region and determining at least one state identification result of the escalator;
dividing the first area image into a background area and a foreground area where the escalator is located;
adjusting the pixel values of the background area to obtain an adjusted second area image;
performing a classification process on the second area image to obtain a second state identification result of the escalator.
The method according to any one of items 1-3.
(Item 5)
The state identification result includes a third state identification result,
performing state identification of an escalator on a first region image corresponding to the first region and determining at least one state identification result of the escalator;
performing pixel matching on the first area image and a predetermined reference image to determine a proportion of a matching area between the first area image and the reference image, wherein the reference image is in an empty state; including an area image corresponding to the escalator;
determining that the third state identification result is that the escalator is in an empty state if the ratio of the matching area is greater than or equal to a second threshold.
The method according to any one of items 1-4.
(Item 6)
The state identification result includes a fourth state identification result,
performing state identification of an escalator on a first region image corresponding to the first region and determining at least one state identification result of the escalator;
performing a first target detection on the first area image to determine if a first target is present in the first area image;
determining that the fourth state identification result is that the escalator is in an empty state if the first target does not exist in the first area image.
The method according to any one of items 1-5.
(Item 7)
The method includes:
and transmitting an escalator stop signal when the escalator is in an empty state, wherein the escalator stop signal is for instructing the escalator to stop running. do
The method according to any one of items 1-6.
(Item 8)
The method includes:
sending an escalator start signal when the escalator is in a non-empty state and the escalator has been stopped running, the escalator start signal is for instructing the escalator to run; characterized by further comprising
The method of any one of items 1-7.
(Item 9)
The method includes:
performing second target detection on the first image to determine a third region of the second target in the first image;
determining a detection result of the second target based on the positional relationship between the first area and the third area, wherein the detection result is that the second target is positioned on the escalator; or and not on the escalator.
The method of any one of items 1-8.
(Item 10)
Determining the detection result of the second target based on the positional relationship between the first area and the third area includes:
determining that the detection result is that the second target is positioned on the escalator if an area ratio between the fourth area and the third area is greater than or equal to a third threshold; The area includes a common area of the first area and the third area.
The method of item 9.
(Item 11)
The second goal includes prohibited items on escalators, and the method includes:
Further comprising transmitting warning information when the second target is located on the escalator.
A method according to item 9 or 10.
(Item 12)
An image detection device,
an image acquisition module configured to acquire a first image of an escalator;
a region detection module configured to perform region detection on the first image to determine a first region of the escalator in the first image;
a state identification module configured to perform state identification of an escalator on a first region image corresponding to the first region and determine at least one state identification result of the escalator, wherein the state identification result is , the escalator being in an empty state or in a non-empty state; and
a state determination module configured to determine a state of the escalator based on the at least one state identification result.
(Item 13)
The state determination module includes:
a discriminant value determination sub-module configured to determine a state discriminant value of the escalator based on a plurality of state identification results and weights of the plurality of state identification results when there are a plurality of state identification results;
a state determination sub-module configured to determine that the escalator is in an empty state when the state discrimination value is greater than or equal to a first threshold.
13. Apparatus according to item 12.
(Item 14)
The state identification results include a first state identification result, and the state identification module comprises:
A first result determination sub-module configured to perform a classification process on the first region image to obtain a first state identification result of the escalator.
14. Apparatus according to item 12 or 13.
(Item 15)
The state identification results include a second state identification result, and the state identification module comprises:
a segmentation sub-module configured to segment the first area image to divide the first area image into a background area and a foreground area where the escalator is located;
a pixel adjustment sub-module configured to adjust pixel values of the background area to obtain an adjusted second area image;
a second result determination sub-module configured to perform a classification process on the second area image to obtain a second state identification result of the escalator.
Apparatus according to any one of items 12-14.
(Item 16)
The state identification results include a third state identification result, and the state identification module comprises:
a pixel matching sub-module configured to perform pixel matching on the first area image and a predetermined reference image to determine a ratio of matching areas between the first area image and the reference image; a pixel matching sub-module, wherein the reference image includes an area image corresponding to the escalator in an empty state;
a third result determination sub-module configured to determine that the third state identification result is that the escalator is in an empty state if the proportion of the matching area is greater than or equal to a second threshold. characterized by
Apparatus according to any one of items 12-15.
(Item 17)
The state identification results include a fourth state identification result, and the state identification module comprises:
a detection sub-module configured to perform a first target detection on the first area image and determine whether a first target is present in the first area image;
a fourth result determination sub-module configured to determine that the fourth state identification result is that the escalator is in an empty state if no first target is present in the first area image. characterized by
Apparatus according to any one of items 12-16.
(Item 18)
The device comprises:
a stop signal transmission module configured to transmit an escalator stop signal when the escalator is in an empty state, wherein the escalator stop signal is for instructing the escalator to stop running; characterized by further comprising a stop signal transmission module
Apparatus according to any one of items 12-17.
(Item 19)
The apparatus has an activation signal transmission module configured to transmit an escalator activation signal when the escalator is in a non-empty state and the escalator has already stopped running, the escalator activation signal comprising: further comprising an activation signal transmission module for instructing the escalator to run
Apparatus according to any one of items 12-18.
(Item 20)
The device comprises:
a target detection module configured to perform a second target detection on said first image to determine a third region of a second target in said first image;
A detection result determination module configured to determine a detection result of the second target based on the positional relationship between the first area and the third area, wherein the detection result is obtained by determining whether the second target is a detection result determination module including located on the escalator or not located on the escalator.
20. Apparatus according to any one of items 12-19.
(Item 21)
The detection result determination module is
A determination sub-module configured to determine that the detection result is that the second target is located on the escalator if the area ratio of the fourth area and the third area is greater than or equal to a third threshold. wherein the fourth area comprises a decision sub-module including a common area of the first area and the third area.
21. Apparatus according to item 20.
(Item 22)
The second goal includes prohibited items on an escalator, and the device:
further comprising a warning information transmission module configured to transmit warning information when the second target is located on the escalator;
22. Apparatus according to item 20 or 21.
(Item 23)
an electronic device,
a processor;
a memory configured to store instructions executable by the processor;
An electronic device, wherein the processor is configured to invoke instructions stored in the memory to perform the method of any one of items 1-11.
(Item 24)
A method according to any one of items 1 to 11, wherein computer program instructions are stored on said computer readable storage medium, and when said computer program instructions are executed by a processor. A computer-readable storage medium for realizing
(Item 25)
12. A computer program, said computer program comprising computer readable code, and when said computer readable code is executed in said electronic device, a processor in said electronic device performs the method according to any one of items 1-11. A computer program that runs a

Claims (25)

画像検出方法であって、
エスカレーターの第1画像を取得することと、
前記第1画像に対して領域検出を行い、前記第1画像における前記エスカレーターの第1領域を決定することと、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することであって、前記状態識別結果は、前記エスカレーターが空き状態にあること又は非空き状態にあることを含む、ことと、
前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定することと、を含む、画像検出方法。
An image detection method comprising:
obtaining a first image of the escalator;
performing region detection on the first image to determine a first region of the escalator in the first image;
performing state identification of an escalator on a first region image corresponding to the first region and determining at least one state identification result of the escalator, wherein the state identification result indicates that the escalator is in an empty state; including being or being in a non-idle state;
determining a state of the escalator based on the at least one state identification result.
前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定することは、
前記状態識別結果が複数である場合、複数の状態識別結果及び前記複数の状態識別結果の重みに基づいて、前記エスカレーターの状態判別値を決定することと、
前記状態判別値が第1閾値以上である場合、前記エスカレーターが空き状態にあると決定することと、を含むことを特徴とする
請求項1に記載の方法。
Determining the state of the escalator based on the at least one state identification result comprises:
determining a state discrimination value of the escalator based on a plurality of state identification results and weights of the plurality of state identification results when there are a plurality of state identification results;
2. The method of claim 1, comprising determining that the escalator is in an empty state if the state discrimination value is greater than or equal to a first threshold.
前記状態識別結果は、第1状態識別結果を含み、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、
前記第1領域画像に対して分類処理を行い、前記エスカレーターの第1状態識別結果を得ることを含むことを特徴とする
請求項1又は2に記載の方法。
The state identification result includes a first state identification result,
performing state identification of an escalator on a first region image corresponding to the first region and determining at least one state identification result of the escalator;
3. The method of claim 1 or 2, comprising performing a classification process on the first area image to obtain a first state identification result of the escalator.
前記状態識別結果は、第2状態識別結果を含み、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、
前記第1領域画像に対して分割を行い、前記第1領域画像を背景領域と前記エスカレーターの所在する前景領域に分割することと、
前記背景領域の画素値に対して調整を行い、調整後の第2領域画像を得ることと、
前記第2領域画像に対して分類処理を行い、前記エスカレーターの第2状態識別結果を得ることと、を含むことを特徴とする
請求項1~3のうちいずれか一項に記載の方法。
the state identification result includes a second state identification result;
performing state identification of an escalator on a first region image corresponding to the first region and determining at least one state identification result of the escalator;
dividing the first area image into a background area and a foreground area where the escalator is located;
adjusting the pixel values of the background area to obtain an adjusted second area image;
performing a classification process on the second area image to obtain a second state identification result of the escalator.
前記状態識別結果は、第3状態識別結果を含み、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、
前記第1領域画像と所定の参照画像に対して画素マッチングを行い、前記第1領域画像と前記参照画像とのマッチング領域の割合を決定することであって、前記参照画像は、空き状態にあるエスカレーターに対応する領域画像を含む、ことと、
前記マッチング領域の割合が第2閾値以上である場合、前記第3状態識別結果が前記エスカレーターが空き状態にあることであると決定することと、を含むことを特徴とする
請求項1~4のうちいずれか一項に記載の方法。
The state identification result includes a third state identification result,
performing state identification of an escalator on a first region image corresponding to the first region and determining at least one state identification result of the escalator;
performing pixel matching on the first area image and a predetermined reference image to determine a proportion of a matching area between the first area image and the reference image, wherein the reference image is in an empty state; including an area image corresponding to the escalator;
determining that the third state identification result is that the escalator is in an empty state if the proportion of the matching area is greater than or equal to a second threshold. The method according to any one of the above.
前記状態識別結果は、第4状態識別結果を含み、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定することは、
前記第1領域画像に対して第1目標検出を行い、前記第1領域画像に第1目標が存在するかどうかを決定することと、
前記第1領域画像に第1目標が存在しない場合、前記第4状態識別結果が前記エスカレーターが空き状態にあることであると決定することと、を含むことを特徴とする
請求項1~5のうちいずれか一項に記載の方法。
The state identification result includes a fourth state identification result,
performing state identification of an escalator on a first region image corresponding to the first region and determining at least one state identification result of the escalator;
performing a first target detection on the first area image to determine if a first target is present in the first area image;
and determining that the fourth state identification result is that the escalator is in an empty state if no first target is present in the first area image. The method according to any one of the above.
前記方法は、
前記エスカレーターが空き状態にある場合、エスカレーター停止信号を送信することであって、前記エスカレーター停止信号は、運転を停止するよう前記エスカレーターに指示するためのものである、ことを更に含むことを特徴とする
請求項1~6のうちいずれか一項に記載の方法。
The method includes:
and transmitting an escalator stop signal when the escalator is in an empty state, wherein the escalator stop signal is for instructing the escalator to stop running. A method according to any one of claims 1-6.
前記方法は、
前記エスカレーターが非空き状態にあり、且つ前記エスカレーターの運転が既に停止された場合、エスカレーター起動信号を送信することであって、前記エスカレーター起動信号は、運転するよう前記エスカレーターに指示するためのものである、ことを更に含むことを特徴とする
請求項1~7のうちいずれか一項に記載の方法。
The method includes:
sending an escalator start signal when the escalator is in a non-empty state and the escalator has been stopped running, the escalator start signal is for instructing the escalator to run; A method according to any one of claims 1 to 7, further comprising:
前記方法は、
前記第1画像に対して第2目標検出を行い、前記第1画像における第2目標の第3領域を決定することと、
前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定することであって、前記検出結果は、前記第2目標が前記エスカレーター上に位置すること又は前記エスカレーター上に位置しないことを含む、ことと、を更に含むことを特徴とする
請求項1~8のうちいずれか一項に記載の方法。
The method includes:
performing second target detection on the first image to determine a third region of the second target in the first image;
determining a detection result of the second target based on the positional relationship between the first area and the third area, wherein the detection result is that the second target is positioned on the escalator; or The method of any one of claims 1-8, further comprising: not located on the escalator.
前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定することは、
第4領域と前記第3領域との面積比が第3閾値以上である場合、前記検出結果が前記第2目標が前記エスカレーター上に位置することであると決定することであって、前記第4領域は、前記第1領域と前記第3領域との共通領域を含む、ことを含むことを特徴とする
請求項9に記載の方法。
Determining the detection result of the second target based on the positional relationship between the first area and the third area includes:
determining that the detection result is that the second target is positioned on the escalator if an area ratio between the fourth area and the third area is greater than or equal to a third threshold; 10. The method of claim 9, wherein the area comprises a common area of the first area and the third area.
前記第2目標は、エスカレーターへの持ち込み禁止物品を含み、前記方法は、
前記第2目標が前記エスカレーター上に位置する場合、警告情報を送信することを更に含むことを特徴とする
請求項9又は10に記載の方法。
The second goal includes prohibited items on escalators, and the method includes:
11. A method according to claim 9 or 10, further comprising transmitting warning information if the second target is located on the escalator.
画像検出装置であって、
エスカレーターの第1画像を取得するように構成される画像取得モジュールと、
前記第1画像に対して領域検出を行い、前記第1画像における前記エスカレーターの第1領域を決定するように構成される領域検出モジュールと、
前記第1領域に対応する第1領域画像に対してエスカレーターの状態識別を行い、前記エスカレーターの少なくとも1つの状態識別結果を決定するように構成される状態識別モジュールであって、前記状態識別結果は、前記エスカレーターが空き状態にあること又は非空き状態にあることを含む、状態識別モジュールと、
前記少なくとも1つの状態識別結果に基づいて、前記エスカレーターの状態を決定するように構成される状態決定モジュールと、を備える、画像検出装置。
An image detection device,
an image acquisition module configured to acquire a first image of an escalator;
a region detection module configured to perform region detection on the first image to determine a first region of the escalator in the first image;
a state identification module configured to perform state identification of an escalator on a first region image corresponding to the first region and determine at least one state identification result of the escalator, wherein the state identification result is , the escalator being in an empty state or in a non-empty state; and
a state determination module configured to determine a state of the escalator based on the at least one state identification result.
前記状態決定モジュールは、
前記状態識別結果が複数である場合、複数の状態識別結果及び前記複数の状態識別結果の重みに基づいて、前記エスカレーターの状態判別値を決定するように構成される判別値決定サブモジュールと、
前記状態判別値が第1閾値以上である場合、前記エスカレーターが空き状態にあると決定するように構成される状態決定サブモジュールと、を備えることを特徴とする
請求項12に記載の装置。
The state determination module includes:
a discriminant value determination sub-module configured to determine a state discriminant value of the escalator based on a plurality of state identification results and weights of the plurality of state identification results when there are a plurality of state identification results;
13. The apparatus of claim 12, comprising a state determination sub-module configured to determine that the escalator is in an empty state if the state discrimination value is greater than or equal to a first threshold.
前記状態識別結果は、第1状態識別結果を含み、前記状態識別モジュールは、
前記第1領域画像に対して分類処理を行い、前記エスカレーターの第1状態識別結果を得るように構成される第1結果決定サブモジュールを備えることを特徴とする
請求項12又は13に記載の装置。
The state identification results include a first state identification result, and the state identification module comprises:
14. Apparatus according to claim 12 or 13, comprising a first result determination sub-module configured to perform a classification process on the first area image to obtain a first state identification result of the escalator. .
前記状態識別結果は、第2状態識別結果を含み、前記状態識別モジュールは、
前記第1領域画像に対して分割を行い、前記第1領域画像を背景領域と前記エスカレーターの所在する前景領域に分割するように構成される分割サブモジュールと、
前記背景領域の画素値に対して調整を行い、調整後の第2領域画像を得るように構成される画素調整サブモジュールと、
前記第2領域画像に対して分類処理を行い、前記エスカレーターの第2状態識別結果を得るように構成される第2結果決定サブモジュールと、を備えることを特徴とする
請求項12~14のうちいずれか一項に記載の装置。
The state identification results include a second state identification result, and the state identification module comprises:
a segmentation sub-module configured to segment the first area image to divide the first area image into a background area and a foreground area where the escalator is located;
a pixel adjustment sub-module configured to adjust pixel values of the background area to obtain an adjusted second area image;
a second result determination sub-module configured to perform a classification process on the second area image to obtain a second state identification result of the escalator. A device according to any one of the preceding clauses.
前記状態識別結果は、第3状態識別結果を含み、前記状態識別モジュールは、
前記第1領域画像と所定の参照画像に対して画素マッチングを行い、前記第1領域画像と前記参照画像とのマッチング領域の割合を決定するように構成される画素マッチングサブモジュールであって、前記参照画像は、空き状態にあるエスカレーターに対応する領域画像を含む、画素マッチングサブモジュールと、
前記マッチング領域の割合が第2閾値以上である場合、前記第3状態識別結果が前記エスカレーターが空き状態にあることであると決定するように構成される第3結果決定サブモジュールと、を備えることを特徴とする
請求項12~15のうちいずれか一項に記載の装置。
The state identification results include a third state identification result, and the state identification module comprises:
a pixel matching sub-module configured to perform pixel matching on the first area image and a predetermined reference image to determine a ratio of matching areas between the first area image and the reference image; a pixel matching sub-module, wherein the reference image includes an area image corresponding to the escalator in an empty state;
a third result determination sub-module configured to determine that the third state identification result is that the escalator is in an empty state if the proportion of the matching area is greater than or equal to a second threshold. A device according to any one of claims 12 to 15, characterized in that:
前記状態識別結果は、第4状態識別結果を含み、前記状態識別モジュールは、
前記第1領域画像に対して第1目標検出を行い、前記第1領域画像に第1目標が存在するかどうかを決定するように構成される検出サブモジュールと、
前記第1領域画像に第1目標が存在しない場合、前記第4状態識別結果が前記エスカレーターが空き状態にあることであると決定するように構成される第4結果決定サブモジュールと、を備えることを特徴とする
請求項12~16のうちいずれか一項に記載の装置。
The state identification results include a fourth state identification result, and the state identification module comprises:
a detection sub-module configured to perform a first target detection on the first area image and determine whether a first target is present in the first area image;
a fourth result determination sub-module configured to determine that the fourth state identification result is that the escalator is in an empty state if no first target is present in the first area image. A device according to any one of claims 12 to 16, characterized in that:
前記装置は、
前記エスカレーターが空き状態にある場合、エスカレーター停止信号を送信するように構成される停止信号送信モジュールであって、前記エスカレーター停止信号は、運転を停止するよう前記エスカレーターに指示するためのものである、停止信号送信モジュールを更に備えることを特徴とする
請求項12~17のうちいずれか一項に記載の装置。
The device comprises:
a stop signal transmission module configured to transmit an escalator stop signal when the escalator is in an empty state, wherein the escalator stop signal is for instructing the escalator to stop running; Device according to any one of claims 12 to 17, characterized in that it further comprises a stop signal transmission module.
前記装置は、前記エスカレーターが非空き状態にあり、且つ前記エスカレーターの運転が既に停止された場合、エスカレーター起動信号を送信するように構成される起動信号送信モジュールであって、前記エスカレーター起動信号は、運転するよう前記エスカレーターに指示するためのものである、起動信号送信モジュールを更に備えることを特徴とする
請求項12~18のうちいずれか一項に記載の装置。
The apparatus has an activation signal transmission module configured to transmit an escalator activation signal when the escalator is in a non-empty state and the escalator has already stopped running, the escalator activation signal comprising: Apparatus according to any one of claims 12 to 18, further comprising an activation signal transmission module for instructing the escalator to run.
前記装置は、
前記第1画像に対して第2目標検出を行い、前記第1画像における第2目標の第3領域を決定するように構成される目標検出モジュールと、
前記第1領域と前記第3領域との位置関係に基づいて、前記第2目標の検出結果を決定するように構成される検出結果決定モジュールであって、前記検出結果は、前記第2目標が前記エスカレーター上に位置すること又は前記エスカレーター上に位置しないことを含む、検出結果決定モジュールと、を更に備えることを特徴とする
請求項12~19のうちいずれか一項に記載の装置。
The device comprises:
a target detection module configured to perform a second target detection on said first image to determine a third region of a second target in said first image;
A detection result determination module configured to determine a detection result of the second target based on the positional relationship between the first area and the third area, wherein the detection result is obtained by determining whether the second target is 20. The apparatus according to any one of claims 12 to 19, further comprising a detection result determination module, including located on the escalator or not located on the escalator.
前記検出結果決定モジュールは、
第4領域と前記第3領域との面積比が第3閾値以上である場合、前記検出結果が前記第2目標が前記エスカレーター上に位置することであると決定するように構成される決定サブモジュールであって、前記第4領域は、前記第1領域と前記第3領域との共通領域を含む、決定サブモジュールを備えることを特徴とする
請求項20に記載の装置。
The detection result determination module is
A determination sub-module configured to determine that the detection result is that the second target is located on the escalator if the area ratio of the fourth area and the third area is greater than or equal to a third threshold. 21. The apparatus of claim 20, wherein said fourth area comprises a determining sub-module including an intersection area of said first area and said third area.
前記第2目標は、エスカレーターへの持ち込み禁止物品を含み、前記装置は、
前記第2目標が前記エスカレーター上に位置する場合、警告情報を送信するように構成される警告情報送信モジュールを更に備えることを特徴とする
請求項20又は21に記載の装置。
The second goal includes prohibited items on escalators, and the device:
22. Apparatus according to claim 20 or 21, further comprising a warning information sending module configured to send warning information when said second target is located on said escalator.
電子機器であって、
プロセッサと、
プロセッサによる実行可能な命令を記憶するように構成されるメモリと、を備え、
前記プロセッサは、前記メモリに記憶されている命令を呼び出し、請求項1~11のうちいずれか一項に記載の方法を実行するように構成される、電子機器。
an electronic device,
a processor;
a memory configured to store instructions executable by the processor;
An electronic device, wherein the processor is configured to invoke instructions stored in the memory to perform the method of any one of claims 1-11.
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にはコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、請求項1~11のうちいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。 A computer readable storage medium having computer program instructions stored thereon, when the computer program instructions are executed by a processor, according to any one of claims 1 to 11. A computer-readable storage medium that implements a method. コンピュータプログラムであって、前記コンピュータプログラムは、コンピュータ可読コードを含み、コンピュータ可読コードが電子機器において実行される時、前記電子機器におけるプロセッサは、請求項1~11のうちいずれか一項に記載の方法を実行するコンピュータプログラム。 A computer program product, said computer program product comprising computer readable code, and when said computer readable code is executed in said electronic device, a processor in said electronic device executes the program according to any one of claims 1 to 11. A computer program that implements a method.
JP2022532078A 2020-12-25 2021-06-22 Image detection method and device, electronic device, and storage medium Withdrawn JP2023510477A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011559951.4 2020-12-25
CN202011559951.4A CN112560986B (en) 2020-12-25 2020-12-25 Image detection method and device, electronic equipment and storage medium
PCT/CN2021/101619 WO2022134504A1 (en) 2020-12-25 2021-06-22 Image detection method and apparatus, electronic device, and storage medium

Publications (1)

Publication Number Publication Date
JP2023510477A true JP2023510477A (en) 2023-03-14

Family

ID=75034245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022532078A Withdrawn JP2023510477A (en) 2020-12-25 2021-06-22 Image detection method and device, electronic device, and storage medium

Country Status (4)

Country Link
JP (1) JP2023510477A (en)
KR (1) KR20220095218A (en)
CN (2) CN112560986B (en)
WO (1) WO2022134504A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560986B (en) * 2020-12-25 2022-01-04 上海商汤智能科技有限公司 Image detection method and device, electronic equipment and storage medium
CN114155483A (en) * 2021-11-11 2022-03-08 鸿富锦精密电子(郑州)有限公司 Monitoring alarm method, device, storage medium and computer equipment
CN114036987B (en) * 2021-11-12 2024-05-31 上海擎朗智能科技有限公司 Staircase detection method and device, mobile equipment and storage medium
CN116363575B (en) * 2023-02-15 2023-11-03 南京诚勤教育科技有限公司 Classroom monitoring management system based on wisdom campus

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103699878B (en) * 2013-12-09 2017-05-03 安维思电子科技(广州)有限公司 Method and system for recognizing abnormal operation state of escalator
JP6134641B2 (en) * 2013-12-24 2017-05-24 株式会社日立製作所 Elevator with image recognition function
EP4134626A1 (en) * 2017-06-02 2023-02-15 Apple Inc. Venues map application and system
CN107273852A (en) * 2017-06-16 2017-10-20 华南理工大学 Escalator floor plates object and passenger behavior detection algorithm based on machine vision
CN107416630B (en) * 2017-09-05 2020-04-28 日立楼宇技术(广州)有限公司 Method and system for detecting abnormal closing of elevator
CN109353907B (en) * 2017-09-05 2020-09-15 日立楼宇技术(广州)有限公司 Safety prompting method and system for elevator operation
CN107832730A (en) * 2017-11-23 2018-03-23 高域(北京)智能科技研究院有限公司 Improve the method and face identification system of face recognition accuracy rate
US11029810B2 (en) * 2018-05-07 2021-06-08 Otis Elevator Company Equipment service graphical interface
CN108639921A (en) * 2018-07-05 2018-10-12 江苏瑞奇海力科技有限公司 A kind of staircase passenger safety prior-warning device and method
CN110342357A (en) * 2019-05-24 2019-10-18 深圳壹账通智能科技有限公司 A kind of elevator scheduling method, device, computer equipment and storage medium
CN110427741B (en) * 2019-07-31 2021-07-27 Oppo广东移动通信有限公司 Fingerprint identification method and related product
CN110852253A (en) * 2019-11-08 2020-02-28 杭州宇泛智能科技有限公司 Ladder control scene detection method and device and electronic equipment
CN111339846B (en) * 2020-02-12 2022-08-12 深圳市商汤科技有限公司 Image recognition method and device, electronic equipment and storage medium
CN111325188A (en) * 2020-03-24 2020-06-23 通力电梯有限公司 Method for monitoring escalator and device for monitoring escalator
CN111913857A (en) * 2020-07-08 2020-11-10 浙江大华技术股份有限公司 Method and device for detecting operation behavior of intelligent equipment
CN111924695A (en) * 2020-07-09 2020-11-13 上海市隧道工程轨道交通设计研究院 Intelligent safety protection system for subway escalator and working method of intelligent safety protection system
CN111807204A (en) * 2020-07-27 2020-10-23 苏州雷格特智能设备股份有限公司 Intelligent elevator safety monitoring system
CN112102407A (en) * 2020-09-09 2020-12-18 北京市商汤科技开发有限公司 Display equipment positioning method and device, display equipment and computer storage medium
CN111931701B (en) * 2020-09-11 2021-01-15 平安国际智慧城市科技股份有限公司 Gesture recognition method and device based on artificial intelligence, terminal and storage medium
CN112560986B (en) * 2020-12-25 2022-01-04 上海商汤智能科技有限公司 Image detection method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
CN114283305A (en) 2022-04-05
CN112560986A (en) 2021-03-26
KR20220095218A (en) 2022-07-06
CN112560986B (en) 2022-01-04
WO2022134504A1 (en) 2022-06-30
WO2022134504A9 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
JP2023510477A (en) Image detection method and device, electronic device, and storage medium
WO2022183661A1 (en) Event detection method and apparatus, electronic device, storage medium, and program product
US20200317190A1 (en) Collision Control Method, Electronic Device and Storage Medium
EP3163498B1 (en) Alarming method and device
CN109829501B (en) Image processing method and device, electronic equipment and storage medium
US11308809B2 (en) Collision control method and apparatus, and storage medium
US8953841B1 (en) User transportable device with hazard monitoring
WO2022183663A1 (en) Event detection method and apparatus, and electronic device, storage medium and program product
EP3051810B1 (en) Surveillance
CN111104920B (en) Video processing method and device, electronic equipment and storage medium
CN108600656B (en) Method and device for adding face label in video
WO2022160569A1 (en) Method and apparatus for detecting security check anomaly event, electronic device, and storage medium
CN110969115B (en) Pedestrian event detection method and device, electronic equipment and storage medium
CN111435422B (en) Action recognition method, control method and device, electronic equipment and storage medium
US11574415B2 (en) Method and apparatus for determining an icon position
JP2023514762A (en) TRAFFIC DETECTION METHOD AND APPARATUS THEREOF, ELECTRONIC DEVICE, AND COMPUTER-READABLE STORAGE MEDIUM
US20220383517A1 (en) Method and device for target tracking, and storage medium
Liu et al. Infrasee: An unobtrusive alertness system for pedestrian mobile phone users
CN115063751A (en) Pet leash detection method, equipment and storage medium
CN111680646A (en) Motion detection method and device, electronic device and storage medium
CN112464898A (en) Event detection method and device, electronic equipment and storage medium
CN111832338A (en) Object detection method and device, electronic equipment and storage medium
CN111008606A (en) Image prediction method and device, electronic equipment and storage medium
CN113344899B (en) Mining working condition detection method and device, storage medium and electronic equipment
KR102673435B1 (en) Notification method to prevent portable electronic device user from walking accidents using artificial intelligence and portable electronic devices to which such method is applied

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220530

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230113