KR101796401B1 - 이미지 장면 판정 방법, 장치 및 서버 - Google Patents

이미지 장면 판정 방법, 장치 및 서버 Download PDF

Info

Publication number
KR101796401B1
KR101796401B1 KR1020167005266A KR20167005266A KR101796401B1 KR 101796401 B1 KR101796401 B1 KR 101796401B1 KR 1020167005266 A KR1020167005266 A KR 1020167005266A KR 20167005266 A KR20167005266 A KR 20167005266A KR 101796401 B1 KR101796401 B1 KR 101796401B1
Authority
KR
South Korea
Prior art keywords
image
scene
processed
identification model
training
Prior art date
Application number
KR1020167005266A
Other languages
English (en)
Other versions
KR20170023761A (ko
Inventor
타오 장
지준 첸
페이 롱
Original Assignee
시아오미 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 시아오미 아이엔씨. filed Critical 시아오미 아이엔씨.
Publication of KR20170023761A publication Critical patent/KR20170023761A/ko
Application granted granted Critical
Publication of KR101796401B1 publication Critical patent/KR101796401B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • G06K9/627
    • G06F17/30244
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06K9/6201
    • G06K9/64
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1916Validation; Performance evaluation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

이미지 장면을 판정하는 방법, 장치 및 서버를 개시한다. 본 발명에 따른 이미지 장면을 획득하는 방법은 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자의 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 상기 처리하고자 하는 이미지를 각각 식별하여, 상기 처리하고자 하는 이미지와 대응되는 장면을 확정하며, 처리하고자 하는 이미지에 대응되는 장면을 사용하여, 처리하고자 하는 이미지에 대한 표기를 행하는 것을 통하여, 사용자가 이미지를 조회할 경우, 이미지 갤러리 중의 처리하고자 하는 이미지를, 처리하고자 하는 이미지에 대응되는 장면에 따라 분류하여 사용자에게 제공하므로, 사용자의 이미지 갤러리에 대한 사용 체험감을 향상시킨다.

Description

이미지 장면 판정 방법, 장치 및 서버{METHOD, APPARATUS AND SERVER FOR IMAGE SCENE DETERMINATION}
본 발명은 통신기술분야에 관한 것이고, 구체적으로는 이미지 장면 판정 방법, 장치 및 서버에 관한 것이다.
본 출원은 출원번호가 201510463271.5이고, 출원일이 2015년 07월 31일인 중국 특허 출원에 기초하여 제출한 것이며, 상기 중국 특허 출원의 우선권을 주장하고, 상기 중국 특허 출원의 모든 내용은 참고로 본 출원에 인용된다.
현재, 스마트폰의 보급 정도가 날마다 향상됨에 따라, 시간 및 지점의 구애를 받지 않고 핸드폰을 이용하여 촬영하는 것이 점차 유행하고 있다. 관련 기술에 의하면, 휴대전화 이미지 갤러리 중의 대량의 이미지에 관해, 사용자가 지정된 시간대 또는 지정된 지점에서 촬영된 이미지를 쉽게 조회할 수 있도록, 촬영 시의 시간 또는 위치를 이용하여 이미지에 대한 표기를 행한다.
(선행기술문헌)
Bolei Zhou et al, “Learning Deep Features for Scene Recognition using Places Database”, NIPS 2014 Proceedings of 27th International Conference on Neural Information Processing Systems, pp. 1-9, 8 December 2014.
본 발명은 이미지 장면 판정 방법, 장치 및 서버를 제공한다.
그 기술적 해결방안은 아래와 같다.
본 발명의 실시예의 제1측면에 의하면,
적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자의 단말기의 이미지 갤러리를 획득하는 단계와;
이미지 장면 식별 모델을 이용하여 상기 처리하고자 하는 이미지를 각각 식별하여, 상기 처리하고자 하는 이미지와 대응되는 장면을 확정하는 단계와;
상기 처리하고자 하는 이미지와 대응되는 장면을 사용하여, 상기 처리하고자 하는 이미지에 대한 표기를 행하는 단계를 포함하는 이미지 장면 판정 방법을 제공한다.
본 발명의 실시예가 제공하는 기술적 해결방안은, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 각 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 확정하며, 처리하고자 하는 이미지에 대응되는 장면을 사용하여, 상기 처리하고자 하는 이미지에 대한 표기를 행하는 것을 통하여, 사용자가 이미지를 조회할 때, 처리하고자 하는 이미지에 대응되는 장면에 따라, 이미지 갤러리 중의 처리하고자 하는 이미지를 분류하여 사용자에게 제공하므로, 이미지 갤러리에 대한 사용자의 사용 체험감을 향상시키는 유익한 효과를 포함할 수 있다.
또한, 상기 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지와 대응되는 장면을 확정하는 단계 전에, 각 장면에 대응되는 트레이닝 이미지를 포함하는 트레이닝 이미지 샘플 집합을 획득하는 단계와; 상기 각 장면에 대응하는 트레이닝 이미지를 무작위로 상기 초기 이미지 장면 식별 모델에 입력하고, 초기 이미지 식별 모델의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하여, 상기 이미지 장면 식별 모델을 획득하는 단계를 더 포함한다.
본 발명의 실시예가 제공하는 기술적 해결방안은, 각 장면에 대응되는 트레이닝 이미지를 포함하는 트레이닝 샘플 집합을 획득하고 무작위로 각 장면에 대응되는 트레이닝 이미지를 초기 이미지 장면 식별 모델에 입력하고, 초기 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하는 방법으로 이미지 장면 식별 모델을 획득함으로써 이미지 장면 식별 모델이 처리하고자 하는 이미지를 정확하게 식별하는 가능성을 향상시키는 유익한 효과를 포함할 수 있다.
또한, 상기 방법은, 각 장면에 대응하는 테스트 이미지를 포함하는 테스트 샘플 집합을 획득하는 단계와; 상기 이미지 장면 식별 모델을 이용하여 상기 테스트 샘플 집합 중의 각 장면에 대응되는 테스트 이미지를 식별하여 각 테스트 이미지에 대응되는 장면 분류 결과를 획득하는 단계와; 상기 각 테스트 이미지에 대응되는 장면 분류 결과에 따라, 상기 이미지 장면 식별 모델에 대응되는 분류 정확도를 확정하는 단계를 더 포함하며 만약 상기 분류 정확도가 미리 설정된 임계치보다 작으면, 트레이닝 샘플 집합을 업데이트하고, 업데이트된 트레이닝 샘플 집합에 의해, 전 회 반복에 대응되는 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하고, 금 회 반복에 대응되는 업데이트된 이미지 장면 식별 모델의 반복을 수행하며, 업데이트된 테스트 샘플 집합에 의해, 금 회 반복에 대응하는 업데이트된 이미지 장면 식별 모델에 대하여 분류 정확도 테스트를 수행하여 대응되는 분류 정확도를 확정하는 처리를, 최대 반복 횟수에 도달할 때까지, 또는 분류 정확도가 미리 설정된 임계치보다 크게 될 때까지 반복하여 실행하는 단계를 더 포함한다.
또한, 각 회의 반복에 대응되는 분류 정확도 중의 최대 분류 정확도를 확정하는 단계와 최대 분류 정확도에 대응되는 업데이트된 이미지 장면 식별 모델을 목표 이미지 장면 식별 모델로 확정하는 단계를 더 포함한다.
본 발명의 실시예가 제공하는 기술적 해결방안은, 각 장면에 대응하는 테스트 이미지를 포함하는 상기 테스트 샘플 집합을 획득하고 상기 이미지 장면 식별 모델을 이용하여 상기 테스트 샘플 집합 중 각 장면에 대응하는 테스트 이미지를 식별하여, 상기 이미지 장면 식별 모델에 대응하는 분류 정확도를 획득하며; 상기 분류 정확도가 미리 설정된 임계치보다 작을 경우, 업데이트된 트레이닝 샘플 집합을 이용하여 전 회 반복에 대응하는 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 최대 반복 횟수에 도달하거나 또는 정확도가 미리 설정된 임계치보다 크게 될 때까지 트레이닝을 수행하여, 각 회의 반복에 대응하는 분류 정확도 중의 최대 분류 정확도를 확정하고; 최대 분류 정확도에 대응하는 업데이트된 이미지 장면 식별 모델을 목표 이미지 장면 식별 모델로 확정함으로써 이미지 장면 식별 모델의 분류 정확도를 향상시키고 이미지 장면 식별 모델이 처리하고자 하는 이미지를 정확하게 식별할 수 있는 가능성을 향상시키는 유익한 효과를 포함할 수 있다.
또한. 상기 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지와 대응되는 장면을 확정하는 단계 전에, 미리 설정된 사이즈에 따라, 상기 처리하고자 하는 이미지에 대해 정규화 처리를 수행하여, 상기 처리하고자 하는 이미지에 대응되는 미리 설정된 사이즈의 이미지를 획득하는 단계를 더 포함하고, 이에 대응하여, 이미지 장면 식별 모델을 이용하여 상기 처리하고자 하는 이미지를 각각 식별하여, 상기 처리하고자 하는 이미지와 대응되는 장면을 확정하는 단계는, 이미지 장면 식별 모델을 이용하여 상기 미리 설정된 사이즈의 이미지를 식별하여, 상기 처리하고자 하는 이미지에 대응되는 장면을 획득하는 단계를 포함한다.
본 발명의 실시예가 제공하는 기술적 해결방안은, 미리 설정된 사이즈에 따라, 처리하고자 하는 이미지에 대해 정규화 처리를 수행하여 처리하고자 하는 이미지에 대응되는 미리 설정된 사이즈의 이미지를 획득하고, 이미지 장면 식별 모델을 이용하여 미리 설정된 사이즈의 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 획득하고, 처리하고자 하는 이미지의 사이즈에 대해 정규화 처리를 수행함으로써 이미지 장면 식별 모델이 처리하고자 하는 이미지에 대한 식별 속도를 향상시켜 처리하고자 하는 이미지의 식별 효율을 향상시키는 효과를 포함할 수 있다.
또한, 상기 방법은 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하는 단계와; 각 분류 앨범에 대응되는 장면을 사용하여, 상기 분류 앨범에 표기하는 단계를 더 포함한다.
본 발명의 실시예에서 제공되는 기술적 해결방안은, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지에 대응되는 장면을 확정하고, 처리하고자 하는 이미지에 대응되는 장면을 사용하여 처리하고자 하는 이미지에 대한 표기를 행하며, 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하고, 각 분류 앨범에 대응되는 장면을 사용하여 분류 앨범에 표기하므로 사용자가 각 분류 앨범을 조회하는데 편리를 도모하며, 이미지 갤러리에 대한 사용자의 사용 체험감을 향상시키기는 효과를 포함할 수 있다.
또한, 상기 방법은 각 분류 앨범에 대하여 상기 처리하고자 하는 각 이미지에 대응되는 시간 및/또는 지리적 위치에 따라, 상기 분류 앨범에 있는 처리하고자 하는 각 이미지를 분류하여 기억함으로써 상기 분류 앨범에 대응되는 적어도 하나의 서브 분류 앨범을 획득하는 단계와; 각 서브 분류 앨범에 대응되는 시간 및/또는 지리적 위치를 이용하여 상기 서브 분류 앨범에 대하여 표기하는 단계를 더 포함한다.
본 발명의 실시예가 제공하는 기술적 해결방안은, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지에 대응되는 장면을 확정하고, 처리하고자 하는 이미지에 대응되는 장면을 사용하여 처리하고자 하는 이미지에 대한 표기를 행하며, 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하고, 각 분류 앨범에 대해 분류 앨범에 있는 처리하고자 하는 각 이미지에 대응되는 시간 및/또는 지리적 위치에 따라, 분류 앨범에 있는 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 서브 분류 앨범을 획득하며, 각 서브 분류 앨범에 대응되는 시간 및/또는 지리적 위치를 이용하여 서브 분류 앨범에 표기하여 사용자가 분류 앨범 또는 서브 분류 앨범을 조회하는데 편리를 도모하며 이미지 갤러리에 대한 사용자의 사용 체험감을 향상시키는 효과를 포함할 수 있다.
본 발명의 실시예의 제2측면에 따르면 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하도록 구성된 제1 획득 모듈과; 이미지 장면 식별 모델을 이용하여 상기 처리하고자 하는 이미지를 각각 식별하여, 상기 처리하고자 하는 이미지에 대응되는 장면을 확정하도록 구성된 제1 식별 모듈과; 상기 처리하고자 하는 이미지에 대응되는 장면을 사용하여, 상기 처리하고자 하는 이미지에 대한 표기를 행하도록 구성된 제1 표기 모듈을 포함하는 이미지 장면 판정 방법을 제공한다.
본 발명의 실시예가 제공하는 기술적 해결방안은, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 각 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 확정하며, 처리하고자 하는 이미지에 대응되는 장면을 사용하여, 상기 처리하고자 하는 이미지에 대한 표기를 행하는 것을 통하여, 사용자가 이미지를 조회할 때, 처리하고자 하는 이미지에 대응되는 장면에 따라, 이미지 갤러리 중의 처리하고자 하는 이미지를 분류하여 사용자에게 제공하므로, 이미지 갤러리에 대한 사용자의 사용 체험감을 향상시키는 유익한 효과를 포함할 수 있다.
또한, 상기 장치는 각 장면에 대응하는 트레이닝 이미지를 포함하는 상기 트레이닝 샘플 집합을 획득하도록 구성된 제2 획득 모듈과; 상기 각 장면에 대응하는 트레이닝 이미지를 상기 초기 이미지 장면 식별 모델에 무작위로 입력하고, 초기 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대하여 트레이닝을 수행하여, 이미지 장면 식별 모델을 획득하도록 구성된 입력 모듈을 더 포함한다.
본 발명의 실시예가 제공하는 기술적 해결방안은, 각 장면에 대응되는 트레이닝 이미지를 포함하는 트레이닝 샘플 집합을 획득하고 무작위로 각 장면에 대응되는 트레이닝 이미지를 초기 이미지 장면 식별 모델에 입력하고, 초기 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하는 방법으로 이미지 장면 식별 모델을 획득함으로써 이미지 장면 식별 모델이 처리하고자 하는 이미지를 정확하게 식별하는 가능성을 향상시키는 유익한 효과를 포함할 수 있다.
또한, 상기 장치는 각 장면에 대응되는 테스트 이미지를 포함하는 상기 테스트 샘플 집합을 획득하도록 구성된 제3 획득 모듈과; 상기 이미지 장면 식별 모델을 이용하여 상기 테스트 샘플 집합의 각 장면에 대응되는 테스트 이미지를 식별하여 테스트 샘플 집합 중 각 장면에 대응하는 분류 결과를 획득하도록 구성된 제2 식별 모듈과; 상기 각 테스트 이미지에 대응되는 장면 분류 결과에 따라, 상기 이미지 장면 식별 모델에 대응되는 분류 정확도를 확정하도록 구성된 제1 확정 모듈을 더 포함한다.
또한, 상기 장치는 상기 분류 정확도가 미리 설정된 임계치보다 작을 경우, 최대 반복 횟수에 도달할 때까지, 또는 분류 정확도가 미리 설정된 임계치보다 크게 될 때까지, 상기 트레이닝 샘플 집합을 업데이트하고, 업데이트된 트레이닝 샘플 집합에 의해, 상기 전 회 반복에 대응되는 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하고, 금 회 반복에 대응되는 업데이트된 이미지 장면 식별 모델의 반복을 수행하며, 업데이트된 테스트 샘플 집합에 의해, 금 회 반복에 대응하는 업데이트된 이미지 장면 식별 모델에 대하여 분류 정확도 테스트를 수행하여 대응되는 분류 정확도를 확정하는 처리를 반복하여 수행하도록 구성된 반복 처리 모듈을 더 포함한다.
또한, 상기 장치는 각 회의 반복에 대응되는 분류 정확도 중의 최대 분류 정확도를 확정하도록 구성된 제2 확정 모듈과; 상기 최대 분류 정확도에 대응되는 업데이트된 이미지 장면 식별 모델을 목표 이미지 장면 식별 모델로 확정하도록 구성된 제3 확정 모듈을 더 포함한다.
본 발명의 실시예에서 각 장면에 대응하는 테스트 이미지를 포함하는 상기 테스트 샘플 집합을 획득하고 상기 이미지 장면 식별 모델을 이용하여 상기 테스트 샘플 집합 중 각 장면에 대응하는 테스트 이미지를 식별하여, 상기 이미지 장면 식별 모델에 대응하는 분류 정확도를 확정할 수 있다. 여기서 상기 분류 정확도가 미리 설정된 임계치보다 작을 경우, 업데이트된 트레이닝 샘플 집합을 이용하여 전 회 반복에 대응하는 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 최대 반복 횟수에 도달하거나 또는 정확도가 미리 설정된 임계치보다 크게 될때까지 트레이닝을 수행하여 각 회의 반복에 대응하는 분류 정확도 중의 최대 분류 정확도를 확정하고 최대 분류 정확도에 대응하는 업데이트된 이미지 장면 식별 모델을 목표 이미지 장면 식별 모델로 확정함으로써 이미지 장면 식별 모델의 분류 정확도를 향상시키고 이미지 장면 식별 모델이 처리하고자 하는 이미지를 정확하게 식별할 수 있는 가능성을 향상시키는 유익한 효과를 포함할 수 있다.
또한, 상기 장치는 미리 설정된 사이즈에 따라 상기 처리하고자 하는 이미지에 대해 정규화 처리를 수행하여, 상기 처리하고자 하는 이미지에 대응되는 미리 설정된 사이즈의 이미지를 획득하도록 구성된 처리 모듈을 포함하고, 이에 대응되게 제1식별 모듈은 이미지 장면 식별 모델을 이용하여 상기 미리 설정된 이미지를 식별하여, 상기 처리하고자 하는 이미지에 대응되는 장면을 획득하도록 구성된 식별 유닛을 더 포함한다.
본 발명의 실시예가 제공하는 기술적 해결방안은, 미리 설정된 사이즈에 따라, 처리하고자 하는 이미지에 대해 정규화 처리를 수행하여 처리하고자 하는 이미지에 대응되는 미리 설정된 사이즈의 이미지를 획득하고, 이미지 장면 식별 모델을 이용하여 미리 설정된 사이즈의 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 획득하고, 처리하고자 하는 이미지의 사이즈에 대해 정규화 처리를 수행함으로써 이미지 장면 식별 모델이 처리하고자 하는 이미지에 대한 식별 속도를 향상시켜 처리하고자 하는 이미지의 식별 효율을 향상시키는 효과를 포함할 수 있다.
또한 상기 장치는 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하도록 구성된 제1 기억 모듈과; 각 분류 앨범에 대응되는 장면을 사용하여 분류 앨범에 대해 표기하도록 구성된 제2 표기 모듈을 더 포함한다.
본 발명의 실시예에서 제공되는 기술적 해결방안은 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지에 대응되는 장면을 확정하고, 처리하고자 하는 이미지에 대응되는 장면을 사용하여 처리하고자 하는 이미지에 대한 표기를 행하며, 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하고, 각 분류 앨범에 대응되는 장면을 사용하여 분류 앨범에 표기하므로, 사용자가 각 분류 앨범을 조회하는데 편리를 도모하며, 이미지 갤러리에 대한 사용자의 사용 체험감을 향상시키는 효과를 포함할 수 있다.
또한 상기 장치는 각 분류 앨범에 대하여, 상기 분류 앨범에 있는 처리하고자 하는 각 이미지에 대응되는 시간 및/또는 지리적 위치에 따라, 상기 분류 앨범에 있는 처리하고자 하는 각 이미지를 분류하여 기억함으로써 상기 분류 앨범에 대응되는 적어도 하나의 서브 분류 앨범을 획득하도록 구성된 제2 기억 모듈과; 각 서브 분류 앨범에 대응하는 시간 및/또는 지리적 위치를 이용하여 상기 서브 분류 앨범에 대하여 표기하도록 구성된 제3 표기 모듈을 더 포함한다.
본 발명의 실시예가 제공하는 기술적 해결방안은, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지에 대응되는 장면을 확정하고, 처리하고자 하는 이미지에 대응되는 장면을 사용하여 처리하고자 하는 이미지에 대한 표기를 행하며, 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하고, 각 분류 앨범에 대해 분류 앨범에 있는 처리하고자 하는 각 이미지에 대응되는 시간 및/또는 지리적 위치에 따라, 분류 앨범에 있는 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 서브 분류 앨범을 획득하며, 각 서브 분류 앨범에 대응되는 시간 및/또는 지리적 위치를 이용하여 서브 분류 앨범에 표기하여 사용자가 분류 앨범 또는 서브 분류 앨범을 조회하는데 편리를 도모하며 이미지 갤러리에 대한 사용자의 사용 체험감을 향상시키는 효과를 포함할 수 있다.
본 발명의 실시예의 제 3측면에 의하면, 프로세서와; 상기 프로세서에서 실행 가능한 명령을 기억하는 메모리를 포함하고, 상기 프로세서는, 적어도 하나 이상의 처리하고자 하는 이미지가 포함된, 상기 사용자 단말기의 이미지 갤러리를 획득하고; 이미지 장면 식별 모델을 이용하여 상기 처리하고자 하는 이미지에 대해 식별을 수행하여, 상기 처리하고자 하는 이미지에 대응되는 장면을 획득하고; 상기 처리하고자 하는 이미지에 대응되는 장면을 사용하여, 상기 처리하고자 하는 이미지에 대한 표기를 행하도록 구성된 서버를 제공한다.
본 발명의 실시예가 제공하는 기술적 해결방안은, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 각 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 확정하며, 처리하고자 하는 이미지에 대응되는 장면을 사용하여, 상기 처리하고자 하는 이미지에 대한 표기를 행하는 것을 통하여, 사용자가 이미지를 조회할 때, 처리하고자 하는 이미지에 대응되는 장면에 따라, 이미지 갤러리 중의 처리하고자 하는 이미지를 분류하여 사용자에게 제공하므로, 이미지 갤러리에 대한 사용자의 사용 체험감을 향상시키는 유익한 효과를 포함할 수 있다.
상기 일반적인 설명과 아래의 상세한 설명은 예시적인 것에 불과하고, 본 발명을 한정할 수 없음을 이해하여야 할 것이다.
여기서 도면은 명세서에 편입되어 본 명세서의 일부를 구성하고, 본 발명에 적합한 실시예를 나타내고 있으며, 명세서와 함께 본 발명의 원리를 설명하는데 사용된다.
도1은 예시적인 실시예에 따른 이미지 장면 판정 방법의 흐름도이다.
도2는 회선 신경망의 네트워크 구조이다.
도3은 다른 예시적인 실시예에 따른 이미지 장면 판정 방법의 흐름도이다.
도4는 다른 예시적인 실시예에 따른 이미지 장면 판정 방법의 흐름도이다.
도5는 다른 예시적인 실시예에 따른 이미지 장면 판정 방법의 흐름도이다.
도6은 다른 예시적인 실시예에 따른 이미지 장면 판정 방법의 흐름도이다.
도7은 다른 예시적인 실시예에 따른 이미지 장면 판정 방법의 흐름도이다.
도8은 예시적인 실시예에 따른 이미지 장면 판정 장치의 블록도를 나타낸다.
도9는 다른 예시적인 실시예에 따른 이미지 장면 판정 장치의 블록도를 나타낸다.
도10은 다른 예시적인 실시예에 따른 이미지 장면 판정 장치의 블록도를 나타낸다.
도11은 다른 예시적인 실시예에 따른 이미지 장면 판정 장치의 블록도를 나타낸다.
도12은 다른 예시적인 실시예에 따른 이미지 장면 판정 장치의 블록도를 나타낸다.
도13은 다른 예시적인 실시예에 따른 이미지 장면 판정 장치의 블록도를 나타낸다.
도 14는 예시적인 실시예에 따른 서버를 나타내는 블록도이다.
상기 도면들을 통하여 본 발명의 명확한 실시예를 공개하였는 바, 후술 부분에 보다 상세한 내용들이 기재되어 있다. 이러한 도면과 문자기재는 임의적 방식으로 본 발명의 구상범위를 제한하고자 하는 것이 아니라, 특정된 실시예를 통하여 해당 분야의 당업자로 하여금 본 발명의 개념을 이해하도록 하기 위한 것이다.
이하, 도면을 참조하여 예시적 실시예를 상세히 설명한다. 아래의 설명과정에 도면이 언급될 경우, 다른 특별한 설명이 없는 한, 상이한 도면 중의 동일한 부호는 동일하거나 유사한 구성요소를 가리킨다. 하기 예시적 실시예에서 기술한 실시형태는 본 발명을 대표할 수 있는 모든 실시형태를 포괄하는 의미가 아니다. 오히려, 이는 단지 첨부된 특허청구범위에 기재된 바와 같은, 본 발명의 일 측면에 해당되는 장치 및 방법의 예시일 뿐이다.
도 1은 예시적인 일 실시예에 따른 이미지 장면 판정 방법의 흐름도이며, 그 이미지 장면 판정 방법은 이미지 장면 판정 장치에 의해 실행될 수 있다. 여기서 이미지 장면 판정 장치는 구체적으로 핸드폰 단말, PAD 등 스마트 단말에 대응되는 서버 또는 서버 상에 설치된 소프트웨어일 수 있다. 민감 이미지 식별 장치는 또한 핸드폰 단말, PAD 등 스마트 단말 또는 스마트 단말 상에 설치된 응용프로그램(app)일 수 있다. 본 예시적 실시예에 따른 민감 이미지 식별 방법에는 하기 단계들이 포함될 수 있다.
단계101에서, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득한다.
본 예시에서 서버가 사용자 단말기의 이미지 갤러리를 획득하기 전에 사용자 단말기는 수동 또는 자동의 방식으로 이미지 갤러리를 업데이트 하거나 또는 클라우드 서버에 업로드할 수 있다.
단계102에서, 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지와 대응되는 장면을 확정한다.
본 예시에서 회선 신경망(CNN, convolutional neural network)을 적용하여 이미지 장면 식별 모델을 구축한다. 회선 신경망은 인공 신경망의 한가지로서, 이미 현재 음성 분석 및 이미지 식별 분야의 연구의 핫 이슈로 부상하였다. 특히 그 가중치 공유 네트워크 구조에 의해 생물 신경망과 보다 흡사하게 되며, 네트워크 모델의 복잡성을 낮추고 가중치 수량을 감소하게 된다. 상술한 이점은 네트워크의 입력이 다차원 이미지일 경우에 보다 뚜렷히 구현되는바, 이미지를 직접 네트워크 입력으로 취급할 수 있으며, 전통 식별 알고리즘 중의 복잡한 특징 추출 및 데이터 재구축 과정을 피면하게 된다.
회선 신경망의 네트워크 구조는 도2에 도시되었다. 회선 신경망은 다층 신경망으로서, 층마다 복수의 2차원 평면으로 구성되며, 각 평면은 복수의 독립적인 신경원으로 구성된다. 본 실시예에서, 회선 신경망에 기반하여 획득한 이미지 장면 식별 모델이 N 층 구조를 가진다고 가정하면, 인접한 두 층의 은닉층 노드 사이의 각 연결의 가중 계수는 트레이닝 샘플 집합을 통한 트레이닝에 의해 확정된다. 기재의 편리성을 위해, 본 실시예에서는 은닉층 노드 사이의 연결의 가중 계수를 "특징 계수"라고 한다. 따라서, 이미지 장면 식별 모델은 N 층 특징 계수를 가진다.
본 실시예에서, 이미지 장면 식별 모델의 입력은 처리하고자 하는 이미지가 될 수 있으며 출력은 처리하고자 하는 이미지의 장면 분류 결과가 될 수 있다. 여기서, 처리하고자 하는 이미지의 장면은 파티 장면, 풍경 장면, 해변 장면, 기타 장면 등을 포함할 수 있다. 처리하고자 하는 이미지를 이미지 장면 식별 모델에 입력하면, 출력되는 이미지 장면 분류 결과에 따라 처리하고자 하는 이미지에 대응되는 장면이 상술한 장면 중 어느 장면인지 확정할 수 있다.
단계103에서, 처리하고자 하는 이미지에 대응되는 장면을 사용하여 처리하고자 하는 이미지에 대한 표기를 행한다.
본 실시예에서, 처리하고자 하는 이미지는 사용자 단말기의 이미지 갤러리 중의 이미지에 한정되지 않으며 기타 방식 또는 다른 출처(source)에서 획득한 이미지가 될 수도 있는바, 처리하고자 하는 이미지를 획득하는 방법에 대하여 한정하지 않으므로, 수요에 따라 설정될 수 있다.
본 실시예에서는 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 각 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 확정한다. 또한 본 실시예에서는 처리하고자 하는 이미지에 대응되는 장면을 사용하여 표기하여 사용자가 이미지를 조회할 경우, 이미지 갤러리 중의 처리하고자 하는 이미지를, 처리하고자 하는 이미지에 대응되는 장면에 따라 분류하여 사용자에게 제공함으로, 사용자의 이미지 갤러리 사용 체험감을 향상시킨다.
도 3은 예시적인 일 실시예에 따른 이미지 장면 판정 방법을 도시한 예시도이다. 도 3에 도시된 바와 같이, 도1에 도시된 일 실시예에 기초하여, 단계102 전에, 아래와 같은 단계를 더 포함할 수 있다.
단계104에서, 각 장면에 대응되는 트레이닝 이미지를 포함하는 트레이닝 이미지 샘플 집합을 획득한다.
본 실시예에서, 트레이닝 효과를 보장하도록 트레이닝 샘플 집합 중의 각 장면에 대응되는 이미지의 수량은 제1 소정 수량보다 많을 수 있다. 예를 들어, 파티 장면에 대응되는 트레이닝 이미지의 수량은 10만장, 풍경 장면에 대응되는 트레이닝 이미지의 수량은 10만장, 해변 장면에 대응되는 트레이닝 이미지의 수량은 10만장, 기타 장면에 대응되는 트레이닝 이미지의 수량은 20만장일 수 있으며 또는 이보다 많을 수도 있다.
단계105에서, 각 장면에 대응되는 트레이닝 이미지를 무작위로 초기 이미지 장면 식별 모델에 입력하고 초기 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하여, 이미지 장면 식별 모델을 획득한다.
본 예시에서 서버는 트레이닝 이미지를 무작위로 초기 이미지 장면 식별 모델에 각각 입력하고, 초기 이미지 장면 식별 모델에서 출력된 장면 분류 결과를 입력된 트레이닝 이미지에 대응되는 장면과 비교함으로써 현재의 이미지 장면 식별 모델의 각 층의 은닉층 노드 사이의 특징계수를 조정할 필요가 있는지 확정한다. 그러나 이러한 트레이닝 방식은 아래와 같은 문제를 야기할 있다. 앞의 한장의 트레이닝 이미지에 따라 이미지 장면 식별 모델의 각 층의 은닉층 노드 사이의 특징계수를 정방향으로 조정한 후, 뒤의 한장의 트레이닝 이미지에 따라 이미지 장면 식별 모델의 각 층의 은닉층 노드 사이의 특징계수를 역방향으로 조정할 가능성이 존재하는데, 이는 이미지 장면 식별 모델의 각 층의 은닉층 노드 사이의 특징계수를 빈번하게 조정할 것을 요구한다.
이를 해결하기 위하여, 본 예시에서는 서버가 원 로트의 트레이닝 이미지를 순차적으로 초기 이미지 장면 식별 모델에 입력하고, 초기 이미지 장면 식별 모델에서 출력되는 상기 로트의 트레이닝 이미지의 장면 분류 결과를 통하여 현재의 이미지 장면 식별 모델 중의 각 층의 은닉층 사이의 특징계수를 조정할 필요가 있는지를 확정한다. 그 후에, 다음 로트의 이미지를 순차적으로 초기 이미지 장면 식별 모델에 입력한다.
본 예시적인 실시예에 있어서, 각 장면에 대응되는 트레이닝 이미지를 포함하는 트레이닝 샘플 집합을 획득하고, 각 장면에 대응되는 트레이닝 이미지를 초기 이미지 장면 식별 모델에 무작위로 입력하고, 초기 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하여 이미지 장면 식별 모델을 획득하는 것을 통하여, 이미지 장면 식별 모델이 처리하고자 하는 이미지를 정확하게 식별하는 가능성을 향상시킨다.
상술한 예시적인 실시예에 따라, 트레이닝을 수행하여 이미지 장면 식별 모델을 획득한 후, 이미지 장면 식별 모델 분류의 정확도는 미리 설정된 임계치를 만족하지 않을 수 있다. 따라서, 이미지 장면 식별 모델 분류의 정확도가 미리 설정된 임계치를 만족시키기 위하여, 도4에 도시된 바와 같이 단계105가 수행된 후, 서버는 아래와 같은 단계들을 더 수행할 수 있다.
단계106에서, 각 장면에 대응되는 테스트 이미지를 포함하는 테스트 샘플 집합을 획득한다.
본 실시예에서, 테스트 효과를 향상시키기 위하여 테스트 샘플 집합중에 포함된, 각 장면에 대응되는 테스트 이미지의 수량은 제2 소정 수량보다 많을 수 있다. 예를 들어, 파티 장면에 대응되는 테스트 이미지의 수량은 1만장, 풍경 장면에 대응되는 테스트 이미지의 수량은 1만장, 해변 장면에 대응되는 테스트 이미지의 수량은 1만장, 기타 장면에 대응되는 테스트 이미지의 수량은 2만장이 될수 있으며 또는 이보다 많을 수도 있다.
단계107에서, 이미지 장면 식별 모델을 이용하여 테스트 샘플 집합 중의 각 장면에 대응되는 테스트 이미지를 식별하여 각 테스트 이미지에 대응되는 장면 분류 결과를 획득한다.
단계108에서, 각 테스트 이미지에 대응되는 장면 분류 결과에 따라, 이미지 장면 식별 모델에 대응되는 분류 정확도를 확정한다.
본 실시예에서 테스트 이미지에 대응되는 장면 분류 결과가 테스트 이미지에 대응되는 장면과 동일하면 분류가 정확한 것으로 판단하고, 테스트 이미지에 대응되는 장면 분류 결과가 테스트 이미지에 대응되는 장면과 상이하면 분류가 정확하지 않은 것으로 판단하며, 분류가 정확한 테스트 이미지의 수량과 테스트 이미지의 총 수량의 비율을 이미지 장면 식별 분류 정확도로 확정한다.
단계109에서, 만약 분류 정확도가 미리 설정된 임계치보다 작으면, 최대 반복 횟수에 도달할 때까지, 또는 분류 정확도가 미리 설정된 임계치보다 크게 될 때까지 아래와 같은 처리를 반복하여 실행한다.
트레이닝 샘플 집합을 업데이트한다.
업데이트된 트레이닝 샘플 집합에 의해, 전 회 반복에 대응되는 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하고, 금 회 반복에 대응되는 업데이트된 이미지 장면 식별 모델의 반복을 수행한다.
업데이트된 테스트 샘플 집합에 의해, 금 회 반복에 대응하는 업데이트된 이미지 장면 식별 모델에 대하여 분류 정확도 테스트를 수행하여 대응하는 분류 정확도를 확정한다.
단계110에서, 각 회의 반복에 대응되는 분류 정확도 중의 최대 분류 정확도를 확정한다.
단계111에서, 최대 분류 정확도에 대응되는 업데이트된 이미지 장면 식별 모델을 목표 이미지 장면 식별 모델로 확정한다.
본 실시예적인 실시예에 있어서 장면에 대응하는 테스트 이미지를 포함하는 테스트 샘플 집합을 획득하고 이미지 장면 식별 모델을 이용하여 테스트 샘플 집합 중 각 장면에 대응하는 테스트 이미지를 식별하여 이미지 장면 식별 모델에 대응하는 분류 정확도를 확정하며, 분류 정확도가 미리 설정된 임계치보다 작을 경우, 업데이트된 트레이닝 샘플 집합을 이용하여 전 회 반복에 대응하는 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해, 최대 반복 횟수에 도달하거나 또는 정확도가 미리 설정된 임계치보다 크게 될 때까지, 트레이닝을 수행하여, 각 회의 반복에 대응하는 분류 정확도 중의 최대 분류 정확도를 확정하고; 최대 분류 정확도에 대응하는 업데이트된 이미지 장면 식별 모델을 목표 이미지 장면 식별 모델로 확정하는 것을 통하여, 이미지 장면 식별 모델의 분류 정확도를 향상시키고 이미지 장면 식별 모델이 처리하고자 하는 이미지를 정확하게 식별할 수 있는 가능성을 향상시킨다.
도 5는 다른 예시적인 실시예에 따른 이미지 장면 판정 방법의 흐름도이다. 도 5에 도시된 바와 같이, 도 3에 도시된 예시적인 실시예에 기초하여, 이미지 장면 식별 모델이 입력된 이미지에 대한 처리 속도를 향상시키기 위하여, 처리하고자 하는 이미지의 사이즈를 미리 설정된 사이즈로 설정할 수 있다. 따라서 상기 방법은 단계102 전에, 아래와 같은 단계를 더 포함할 수 있다.
단계112에서, 미리 설정된 사이즈에 따라, 처리하고자 하는 이미지에 대해 정규화 처리를 수행하여, 처리하고자 하는 이미지에 대응되는 미리 설정된 사이즈의 이미지를 획득한다.
본 실시예에서, 서버는 수요에 따라 미리 설정된 사이즈를 설정한다. 예를 들면 224픽셀 곱하기 224 픽셀 등이 될수 있다.
여기서, 이에 대응하여 단계105전과 단계107전에, 각 장면에 대응하는 트레이닝 이미지와 테스트 이미지에 대해 상술한 처리 방식으로 유사한 처리를 수행할 수 있다.
이에 대응하여, 단계102는, 이미지 장면 식별 모델을 이용하여 미리 설정된 사이즈의 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 획득하는 단계1021을 포함할 수 있다.
본 예시적인 실시예에 있어서, 미리 설정된 사이즈에 따라, 처리하고자 하는 이미지에 대해 정규화 처리를 수행하여 처리하고자 하는 이미지에 대응되는 미리 설정된 사이즈의 이미지를 획득하고, 이미지 장면 식별 모델을 이용하여 미리 설정된 사이즈의 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 획득하고, 처리하고자 하는 이미지의 사이즈에 대해 정규화 처리를 수행함으로써 이미지 장면 식별 모델이 처리하고자 하는 이미지에 대한 식별 속도를 향상시켜 처리하고자 하는 이미지의 식별 효율을 향상시킨다.
도 6은 예시적인 일 실시예에 따라 도시된 이미지 장면 판정 방법의 흐름도이다. 도 6에 도시된 바와 같이, 도 1에 도시된 예시적인 실시예의 기초상에서, 상기 방법은 아래와 같은 단계들을 더 포함할 수 있다.
단계113에서, 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득한다.
단계114에서, 각 분류 앨범에 대응되는 장면을 사용하여 분류 앨범에 대하여 표기한다.
본 예시적인 실시예에 있어서, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지에 대응되는 장면을 확정하고, 처리하고자 하는 이미지에 대응되는 장면을 사용하여 처리하고자 하는 이미지에 대한 표기를 행하며, 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하고, 각 분류 앨범에 대응되는 장면을 사용하여 분류 앨범에 표기하므로, 사용자가 각 분류 앨범을 조회하는데 편리를 도모하며, 사용자의 사용 체험감을 향상시키킨다.
도 7은 다른 예시적인 실시예에 따라 도시된 이미지 장면 판정 방법의 흐름도이다.
단계115에서, 각 분류 앨범에 대하여, 처리하고자 하는 각 이미지에 대응되는 시간 및/또는 지리적 위치에 따라, 분류 앨범에 있는 처리하고자 하는 각 이미지를 분류하여 기억함으로써 분류 앨범에 대응되는 적어도 하나의 서브 분류 앨범을 획득한다.
단계116에서, 각 서브 분류 앨범에 대응하는 시간 및/또는 지리적 위치를 이용하여 서브 분류 앨범에 대하여 표기한다.
본 실시예에서 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지에 대응되는 장면을 확정하고, 처리하고자 하는 이미지에 대응되는 장면을 사용하여 처리하고자 하는 이미지에 대한 표기를 행하며, 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하고, 각 분류 앨범에 대해 분류 앨범에 있는 처리하고자 하는 각 이미지에 대응되는 시간 및/또는 지리적 위치에 따라, 분류 앨범에 있는 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 서브 분류 앨범을 획득하며, 각 서브 분류 앨범에 대응되는 시간 및/또는 지리적 위치를 이용하여 서브 분류 앨범에 표기하는 것을 통하여, 사용자가 분류 앨범 또는 서브 분류 앨범을 조회하는데 편리를 도모하며, 이미지 갤러리에 대한 사용자의 사용 체험감을 향상시킨다.
하기 본 발명에 따른 장치 관련 실시예는 본 발명에 따른 방법 실시예를 수행하기 위해 이용될 수 있다. 본 발명의 장치 실시예에서 공개하지 않은 세부사항들은 본 발명의 방법 실시예들을 참고할 수 있다.
도 8은 예시적인 일 실시예에 따라 도시된 이미지 장면 판정 장치의 블록도이다. 이미지 장면 판정 장치는 소프트웨어, 하드웨어 또는 양자의 결합을 통해 상기 방법을 구현할 수 있다. 상기 이미지 장면 판정 장치는, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하도록 구성된 제1 획득 모듈(81), 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지에 대응되는 장면을 확정하도록 구성된 제1 식별 모듈(82), 및 처리하고자 하는 이미지에 대응되는 장면을 사용하여 처리하고자 하는 이미지에 대한 표기를 행하도록 구성된 제1 표기 모듈(83)을 포함할 수 있다.
본 실시예에서, 회선 신경망을 이용하여 민감 이미지 식별 모델을 구축한다. 회선 신경망은 인공 신경망의 한가지로서, 현재 음성 분석 및 이미지 식별 분야의 핫이슈로 부상하였다. 특히 그 가중치 공유 네트워크 구조에 의해 생물 신경망과 보다 흡사하게 되며, 네트워크 모델의 복잡성이 낮아지고 가중치의 수량이 감소된다. 상술한 이점은 네트워크의 입력이 다차원 이미지일 경우에 보다 뚜렷히 구현되는 바, 이미지를 직접 네트워크 입력으로 취급할 수 있으며, 전통 식별 알고리즘 중의 복잡한 특징 추출 및 데이터 재구축 과정을 피면하게 된다.
회선 신경망의 네트워크 구조는 도2에 도시되었다. 회선 신경망은 다층의 신경망으로서, 층마다 복수의 2차원 평면으로 구성되고, 평면마다 복수의 독립 신경원으로 구성된다. 본 실시예에서, 회선 신경망에 기반하여 획득한 이미지 장면 식별 모델이 N 층 구조를 가진다고 가정하면, 인접한 두 층의 은닉층 노드 사이의 각 연결의 가중 계수는 트레이닝 샘플 집합을 통한 트라이닝에 의해 확정된다. 기재의 편리성을 위해, 본 실시예에서는 은닉층 노드 사이의 연결의 가중 계수를 "특징 계수"라고 한다. 따라서, 이미지 장면 식별 모델은 N 층 특징 계수를 가진다.
본 실시예에서 이미지 장면 식별 모델의 입력은 처리하고자 하는 이미지가 될 수 있으며 출력은 처리하고자 하는 이미지의 장면 분류 결과가 될 수 있다. 여기서 처리하고자 하는 이미지의 장면은 파티 장면, 풍경 장면, 해변 장면, 기타 장면 등을 포함할 수 있다. 처리하고자 하는 이미지를 식별 모델에 입력하면, 출력되는 이미지 장면 분류 결과에 따라 처리하고자 하는 이미지에 대응되는 장면이 상술한 장면 중 어느 장면인지 확정할 수 있다.
본 실시예에서 처리하고자 하는 이미지는 사용자 단말기의 이미지 갤러리 중의 이미지에 한정되지 않으며 기타 방식 또는 기타 출처(source)에서 획득한 이미지가 될 수도 있다. 여기서는 처리하고자 하는 이미지를 획득하는 방법에 대하여 한정하지 않으므로, 수요에 따라 설정할 수 있다.
본 실시예에서는 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 각 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 확정한다. 또한 본 실시예에서는 처리하고자 하는 이미지에 대응되는 장면을 사용하여 표기하여 사용자가 이미지를 조회할 경우, 이미지 갤러리 중의 처리하고자 하는 이미지를, 처리하고자 하는 이미지에 대응되는 장면에 따라 분류하여 사용자에게 제공함으로, 사용자의 이미지 갤러리 사용 체험감을 향상시킨다.
도9를 참조하면, 도 8에 도시된 예시적인 실시예의 기초상에서, 상기 장치는 각 장면에 대응하는 트레이닝 이미지를 포함하는 트레이닝 샘플 집합을 획득하도록 구성된 제2 획득 모듈(84), 각 장면에 대응하는 트레이닝 이미지를 초기 이미지 장면 식별 모델에 무작위로 입력하고, 초기 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대하여 트레이닝을 수행하여, 이미지 장면 식별 모델을 획득하도록 구성된 입력 모듈(85)을 더 포함한다.
본 실시예에서, 트레이닝 효과를 보장하기 위하여, 트레이닝 샘플 집합 중에 포함된, 각 장면에 대응되는 트레이닝 이미지의 수량은 제1 소정 수량보다 많을 수 있다. 예를 들어, 파티 장면에 대응되는 트레이닝 이미지의 수량은 10만장, 풍경 장면에 대응되는 트레이닝 이미지의 수량은 10만장, 해변 장면에 대응되는 트레이닝 이미지의 수량은 10만장, 기타 장면에 대응되는 트레이닝 이미지의 수량은 20만장이 될수 있으며 또는 이보다 많을 수도 있다.
본 실시예에서 서버는 트레이닝 이미지를 무작위로 초기 이미지 장면 식별 모델에 각각 입력하고, 초기 이미지 장면 식별 모델에서 출력된 장면 분류 결과를 입력된 트레이닝 이미지에 대응되는 장면과 비교함으로써 현재의 이미지 장면 식별 모델의 각 층의 은닉층 노드 사이의 특징계수를 조정할 필요가 있는지를 확정한다. 그러나 이러한 트레이닝 방식은 아래와 같은 문제를 야기할 있다. 앞의 한장의 트레이닝 이미지에 따라 이미지 장면 식별 모델의 각 층의 은닉층 노드 사이의 특징계수를 정방향으로 조정한 후, 뒤의 한장의 트레이닝 이미지에 따라 이미지 장면 식별 모델의 각 층의 은닉층 노드 사이의 특징계수를 역방향으로 조정할 가능성이 존재하는데, 이는 이미지 장면 식별 모델의 각 층의 은닉층 노드 사이의 특징계수를 빈번하게 조정할 것을 요구한다.
이를 해결하기 위하여, 본 예시에서는 서버가 원 로트의 트레이닝 이미지를 순차적으로 초기 이미지 장면 식별 모델에 입력하고, 초기 이미지 장면 식별 모델에서 출력되는 상기 로트의 트레이닝 이미지의 장면 분류 결과를 통하여 현재의 이미지 장면 식별 모델 중의 각 층의 은닉층 사이의 특징계수를 조정할 필요가 있는지를 확정한다. 그 후에, 다음 로트의 이미지를 순차적으로 초기 이미지 장면 식별 모델에 입력한다.
본 예시적인 실시예에 있어서, 각 장면에 대응되는 트레이닝 이미지를 포함하는 트레이닝 샘플 집합을 획득하고, 각 장면에 대응되는 트레이닝 이미지를 초기 이미지 장면 식별 모델에 무작위로 입력하고, 초기 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하여 이미지 장면 식별 모델을 획득하는 것을 통하여, 이미지 장면 식별 모델이 처리하고자 하는 이미지를 정확하게 식별하는 가능성을 향상시킨다.
도 10을 참조하면, 도 9에 도시된 예시적인 실시예의 기초 상에서, 상기 장치는 각 장면에 대응되는 테스트 이미지를 포함하는 테스트 샘플 집합을 획득하도록 구성된 제3 획득 모듈(86), 이미지 장면 식별 모델을 이용하여 테스트 샘플 집합의 각 장면에 대응되는 테스트 이미지를 식별하여 테스트 샘플 집합 중의 각 장면에 대응하는 분류 결과를 획득하도록 구성된 제2 식별 모듈(87), 각 테스트 이미지에 대응되는 장면 분류 결과에 따라, 이미지 장면 식별 모델에 대응되는 분류 정확도를 확정하도록 구성된 제1 확정 모듈(88), 분류 정확도가 미리 설정된 임계치보다 작을 경우, 최대 반복 횟수에 도달할 때까지, 또는 분류 정확도가 미리 설정된 임계치보다 크게 될 때까지, 트레이닝 샘플 집합을 업데이트하고, 업데이트된 트레이닝 샘플 집합에 의해, 전 회 반복에 대응되는 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하고, 금 회 반복에 대응되는 업데이트된 이미지 장면 식별 모델의 반복을 수행하며, 업데이트된 테스트 샘플 집합에 의해, 금 회 반복에 대응하는 업데이트된 이미지 장면 식별 모델에 대하여 분류 정확도 테스트를 수행하여 대응되는 분류 정확도를 확정하는 처리를 반복하여 수행하도록 구성된 반복 처리 모듈(89), 각 회의 반복에 대응되는 분류 정확도 중의 최대 분류 정확도를 확정하도록 구성된 제2 확정 모듈(90), 최대 분류 정확도에 대응되는 업데이트된 이미지 장면 식별 모델을 목표 이미지 장면 식별 모델로 확정하도록 구성된 제3 확정 모듈(91)을 더 포함한다.
본 실시예에서, 테스트 효과를 향상시키기 위하여 테스트 샘플 집합이 포함하는 각 장면에 대응되는 테스트 이미지의 수량은 제2 소정 수량보다 많을수 있다. 예를 들어, 파티 장면에 대응되는 테스트 이미지의 수량은 1만장, 풍경 장면에 대응되는 테스트 이미지의 수량은 1만장, 해변 장면에 대응되는 테스트 이미지의 수량은 1만장, 기타 장면에 대응되는 테스트 이미지의 수량은 2만장이 될수 있으며 또는 이보다 많을수도 있다.
본 실시예에서 테스트 이미지에 대응되는 장면 분류 결과가 테스트 이미지에 대응되는 장면과 동일하면 분류가 정확한 것으로 판단하고, 테스트 이미지에 대응되는 장면 분류 결과가 테스트 이미지에 대응되는 장면과 상이하면 분류가 정확하지 않은 것으로 판단하며, 분류가 정확한 테스트 이미지의 수량과 테스트 이미지의 총 수량의 비율을 이미지 장면 식별 분류 정확도로 확정한다.
본 실시예적인 실시예에 있어서, 장면에 대응하는 테스트 이미지를 포함하는 테스트 샘플 집합을 획득하고 이미지 장면 식별 모델을 이용하여 테스트 샘플 집합 중 각 장면에 대응하는 테스트 이미지를 식별하여 이미지 장면 식별 모델에 대응하는 분류 정확도를 확정하며, 분류 정확도가 미리 설정된 임계치보다 작을 경우, 업데이트된 트레이닝 샘플 집합을 이용하여 전 회 반복에 대응하는 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해, 최대 반복 횟수에 도달하거나 또는 정확도가 미리 설정된 임계치보다 크게 될 때까지, 트레이닝을 수행하여, 각 회의 반복에 대응하는 분류 정확도 중의 최대 분류 정확도를 확정하고; 최대 분류 정확도에 대응하는 업데이트된 이미지 장면 식별 모델을 목표 이미지 장면 식별 모델로 확정하는 것을 통하여, 이미지 장면 식별 모델의 분류 정확도를 향상시키고 이미지 장면 식별 모델이 처리하고자 하는 이미지를 정확하게 식별할 수 있는 가능성을 향상시킨다.
도 11을 참조하면, 도 8에 도시된 예시적인 실시예의 기초상에서, 상기 장치는 미리 설정된 사이즈에 따라 처리하고자 하는 이미지에 대해 정규화 처리를 수행하여 처리하고자 하는 이미지에 대응되는 미리 설정된 사이즈의 이미지를 획득하도록 구성된 처리 모듈(92)을 포함하고, 이에 대응되게, 제1식별 모듈(82)은 이미지 장면 식별 모델을 이용하여 미리 설정된 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 획득하도록 구성된 식별 유닛(821)을 포함한다.
본 실시예에서, 각 장면에 대응하는 트레이닝 이미지와 테스트 이미지에 대해 상술한 처리 방식으로 유사한 처리를 수행할 수 있다.
본 예시적인 실시예에 있어서, 미리 설정된 사이즈에 따라, 처리하고자 하는 이미지에 대해 정규화 처리를 수행하여 처리하고자 하는 이미지에 대응되는 미리 설정된 사이즈의 이미지를 획득하고, 이미지 장면 식별 모델을 이용하여 미리 설정된 사이즈의 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 획득하고, 처리하고자 하는 이미지의 사이즈를 정규화 처리를 수행하므로, 이미지 장면 식별 모델이 처리하고자 하는 이미지에 대한 식별 속도를 향상시켜 처리하고자 하는 이미지의 식별 효율을 향상시킨다.
도 12를 참조하면, 도 8에 도시된 실시예의 기초 상에서, 상기 장치는 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하도록 구성된 제1 기억 모듈(93)과 각 분류 앨범에 대응되는 장면을 사용하여 분류 앨범에 대해 표기하도록 구성된 제2 표기 모듈(94)을 포함한다.
본 예시적인 실시예에 있어서, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지에 대응되는 장면을 확정하고, 처리하고자 하는 이미지에 대응되는 장면을 사용하여 처리하고자 하는 이미지에 대한 표기를 행하며, 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하고, 각 분류 앨범에 대응되는 장면을 사용하여 분류 앨범에 표기하므로, 사용자가 각 분류 앨범을 조회하는데 편리를 도모하며, 이미지 갤러리에 대한 사용자의 사용 체험감을 향상시킨다.
도 13을 결합 참조하여, 도 12에 도시된 예시적인 실시예의 기초상에서, 상기 장치는 각 분류 앨범에 대하여, 각 분류 앨범에 있는 처리하고자 하는 각 이미지에 대응되는 시간 및/또는 지리적 위치에 따라, 분류 앨범에 있는 처리하고자 하는 각 이미지를 분류하여 기억함으로써 분류 앨범에 대응되는 적어도 하나의 서브 분류 앨범을 획득하도록 구성된 제2 기억 모듈(95)과 각 서브 분류 앨범에 대응하는 시간 및/또는 지리적 위치를 이용하여 서브 분류 앨범에 대하여 표기하도록 구성된 제3 표기 모듈(96)을 포함한다.
본 실시예에 있어서, 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 이미지를 각각 식별하여, 처리하고자 하는 이미지에 대응되는 장면을 확정하고, 처리하고자 하는 이미지에 대응되는 장면을 사용하여 처리하고자 하는 이미지에 대한 표기를 행하며, 처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하고, 각 분류 앨범에 대해 분류 앨범에 있는 처리하고자 하는 각 이미지에 대응되는 시간 및/또는 지리적 위치에 따라, 분류 앨범에 있는 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 서브 분류 앨범을 획득하며, 각 서브 분류 앨범에 대응되는 시간 및/또는 지리적 위치를 이용하여 서브 분류 앨범에 대하여 표기하는 것을 통하여, 사용자가 분류 앨범 또는 서브 분류 앨범을 조회하는데 편리를 도모하며, 이미지 갤러리에 대한 사용자의 사용 체험감을 향상시킨다.
상기 실시예 중의 장치에 관해, 이미 방법에 관련한 실시예에서 각 모듈이 수행하는 동작의 구체적 형태를 상세하게 설명하였으므로, 여기서는 상세한 설명을 생략한다.
도 14는 예시적인 일 실시예에 따라 도시된 서버(140)의 블록도이다. 도 14를 참조하면, 서버(140)는 처리 컴포넌트(142), 메모리(144), 전원 컴포넌트(146), 입력/출력(I/O) 인터페이스(148) 및 통신 컴포넌트(1410) 중의 한 개 또는 복수 개의 컴포넌트를 포함할 수 있다.
처리 컴포넌트(142)는 일반적으로 서버(140) 전체의 동작을 제어한다. 처리 컴포넌트(142)는 적어도 하나의 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고, 이미지 장면 식별 모델을 이용하여 처리하고자 하는 각 이미지를 식별할 수 있며, 처리하고자 하는 이미지에 대응되는 장면을 사용하여, 처리하고자 하는 이미지에 대한 표기를 행하도록 구성될 수 있다.
처리 컴포넌트(142)는 한 개 또는 복수 개의 프로세서(1420)를 포함하여 명령을 수행함으로써 상기 방법의 전부 또는 일부분 단계를 완성할 수 있다. 또한, 처리 컴포넌트(142)는 한 개 또는 복수 개의 모듈을 포함하여 처리 컴포넌트(142)와 기타 컴포넌트 사이의 인터랙티브를 편리하게 할 수 있다. 처리 컴포넌트(142)는 통신 모듈을 포함하여 통신 컴포넌트(1410)와 처리 컴포넌트(142) 사이의 인터랙티브에 편리를 도모할 수 있다.
메모리(144)는 각 유형의 데이터 및 처리 컴포넌트(142)에서 실행 가능한 명령을 기억하여 서버의 동작을 지원한다. 이러한 데이터의 예로는 응용 관련 프로그램, 명령 또는 운행 데이터 등이 포함된다. 메모리(144)는 임의의 유형의 휘발성 또는 비휘발성 기억 장치 또는 그 조합일 수 있다. 예를 들면, 임의 유형의 휘발성 또는 비휘발성 기억 장치는, SRAM(static random access memory, 정적 램), EEPROM(Electrically Erasable Programmable Read - Only Memory, 전기적 소거 및 프로그램 가능 읽기 전용 기억 장치), EPROM(Electrically Programmable Read-Only-Memory, 소거 및 프로그램 가능 읽기 전용 기억 장치), PROM(Programmable Read-Only Memory, 프로그램 가능 읽기 전용 메모리), ROM(read only memory, 읽기 전용 기억 장치), 자성 메모리, 플래시 메모리, 디스크, 또는 광 디스크이다.
전원 컴포넌트(146)는 서버(140)의 각 컴포넌트에 전력을 공급한다. 전원 컴포넌트(146)는 전원 관리 시스템, 한 개 또는 복수 개의 전원 및 다른 서버(140) 관련 모듈을 포함한다.
I/O 인터페이스(148)는 처리 컴포넌트(142)와 외부 인터페이스 모듈 사이의 인터페이스를 제공한다. 여기서 상기 주변 장치 인터페이스는 키보드, 클릭 휠(click wheel), 버튼 등이 될수 있다. 통신 에셈블리(1410)는 서버(140)와 다른 기기 사이의 유선 또는 무선 방식의 통신의 편리를 위해 구성된다. 서버(140)는 WiFi, 2G 또는 3G, 또는 이들의 조합 등 통신표준에 기반한 무선 네트워크에 접속할 수 있다. 예시적인 일 실시예에서, 통신 컴포넌트(1410)는 방송 채널을 통해 외부 방송 관리 시스템으로부터 전파되어 오는 방송 신호 또는 방송 관련 정보를 수신할 수 있다. 일 예시적 실시예에서, 통신 컴포넌트(1410)는 근거리 통신을 촉진하기 위한 근거리 통신(NFC) 모듈을 포함할 수 있다. 일 예로, NFC 모듈은 RF 식별(RFID) 기술, 적외선 데이터 협의(IrDA) 기술, 초광대역(UWB) 기술, 블루투스(BT) 기술 및 기타 기술에 의해 실현될 수 있다.
예시적인 실시예에서, 서버(140)는 한 개 또는 복수 개의 주문형 반도체(ASIC, application specific integrated circuit), 디지털신호처리기(DSP, digital signal processor), 디지털신호처리장치(DSPD), 프로그래머블 논리 소자(PLD, Programmable Logic Device), 필드 프로그래머블 게이트 어레이(FPGA, field-programmable gate array), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서, 또는 기타 전자소자에 의하여 구현되어, 상기 이미지 장면 판정 방법을 실행할 수 있다.
예시적인 실시예에서, 명령을 포함하는 비일시적인(non-transitory) 컴퓨터 판독 가능한 기억매체를 제공한다. 예를 들면, 명령을 포함하는 메모리(144)를 포함하며, 상기 명령은 서버(140)의 프로세서(1420)에 의해 실행되어 상기 방법을 완성할 수 있다. 예를 들어, 상기 비일시적 컴퓨터 판독 가능한 기억매체는 ROM(Read Only Memory), 랜덤 액세스 메모리(RAM: Random-Access Memory), CD-ROM, 자기 디스크, 플로피 디스크 또는 광 데이터 기억장치 등일 수 있다.
비일시적 컴퓨터 판독 가능한 기억매체에 있어서, 상기 기억매체 중의 명령이 서버(140)의 프로세서에 의해 실행되는 경우, 서버(140)는 상기 이미지 장면 판정 방법을 실행한다.
본 예시적인 실시예에서는 적어도 하나의 처리하고자 하는 이미지가 포함된, 사용자 단말기의 이미지 갤러리를 획득하고 이미지 장면 식별 모델을 이용하여 처리하고자 하는 각 이미지를 식별하여 처리하고자 하는 이미지에 대응되는 장면을 확정하며, 처리하고자 하는 이미지에 대응되는 장면을 사용하여, 처리하고자 하는 이미지에 대한 표기를 행하는 것을 통하여, 사용자가 이미지를 조회할 경우, 이미지 갤러리 중의 처리하고자 하는 이미지를, 처리하고자 하는 이미지에 대응되는 장면에 따라 분류하여 사용자에게 제공하므로, 사용자의 이미지 갤러리 사용 체험감을 향상시킨다.
당업자라면, 명세서를 고려하고 여기에 게시된 발명을 실시한 후, 본 발명의 기타 실시형태를 쉽게 생각하게 될 것이다. 본 출원은 본 발명의 모든 변형, 용도 또는 적응성 변화를 포괄하는 것을 목적으로 하고, 이러한 변형, 용도 또는 적응성 변화는 본 발명의 일반적 원리에 따르고, 본 발명에 개시되지 않은 당해 기술분야의 일반지식 또는 관용적 기술수단을 포함한다. 명세서와 실시예는 예시적인 것에 불과하고, 본 발명의 실질적 범위와 주지는 아래의 청구항에 의해 결정된다.
본 발명은 위와 같이 설명되고 도면에 도시된 정밀한 구조에 한정되지 않으며, 그 범위를 벗어나지 않는다면 다양한 수정 및 변경을 실시할 수 있다는 것을 이해하여야 할 것이다. 본 발명의 범위는 첨부된 청구항에 의해 한정된다.

Claims (17)

  1. 사용자 단말기의, 적어도 하나의 처리하고자 하는 이미지가 포함된 이미지 갤러리를 획득하는 단계;
    각 장면에 대응되는 트레이닝 이미지를 포함하는 원 로트의 트레이닝 이미지 샘플 집합을 획득하는 단계;
    상기 각 장면에 대응하는 원 로트의 트레이닝 이미지를 순차적으로 초기 이미지 장면 식별 모델에 입력하고, 상기 초기 이미지 장면 식별 모델의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하여, 이미지 장면 식별 모델을 획득하는 단계;
    상기 이미지 장면 식별 모델을 이용하여 상기 처리하고자 하는 이미지를 각각 식별하여, 상기 처리하고자 하는 이미지와 대응되는 장면을 확정하는 단계; 및
    상기 처리하고자 하는 이미지와 대응되는 장면을 사용하여, 상기 처리하고자 하는 이미지에 대한 표기를 행하는 단계
    를 포함하는 것을 특징으로 하는
    이미지 장면 판정 방법.
  2. 삭제
  3. 제1항에 있어서,
    각 장면에 대응하는 테스트 이미지를 포함하는 테스트 샘플 집합을 획득하는 단계와;
    상기 이미지 장면 식별 모델을 이용하여 상기 테스트 샘플 집합 중의 각 장면에 대응되는 테스트 이미지를 식별하여, 각 테스트 이미지에 대응되는 장면 분류 결과를 획득하는 단계와;
    상기 각 테스트 이미지에 대응되는 장면 분류 결과에 따라, 상기 이미지 장면 식별 모델에 대응되는 분류 정확도를 확정하는 단계
    를 더 포함하는 것을 특징으로 하는
    이미지 장면 판정 방법.
  4. 제3항에 있어서,
    상기 각 테스트 이미지에 대응되는 장면 분류 결과에 따라, 상기 이미지 장면 식별 모델에 대응되는 분류 정확도를 확정하는 단계 후에,
    만약 상기 분류 정확도가 미리 설정된 임계치보다 작으면,
    트레이닝 이미지 샘플 집합을 업데이트하고,
    업데이트된 트레이닝 이미지 샘플 집합에 의해, 전 회 반복에 대응되는 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하고, 금 회 반복에 대응되는 업데이트된 이미지 장면 식별 모델의 반복을 수행하며,
    업데이트된 테스트 샘플 집합에 의해, 금 회 반복에 대응하는 업데이트된 이미지 장면 식별 모델에 대하여 분류 정확도 테스트를 수행하여 대응되는 분류 정확도를 확정하는 처리
    를 최대 반복 횟수에 도달할 때까지, 또는 분류 정확도가 미리 설정된 임계치보다 크게 될 때까지 반복하여 실행하는 단계
    를 더 포함하는 것을 특징으로 하는
    이미지 장면 판정 방법.
  5. 제4항에 있어서,
    각 회의 반복에 대응되는 분류 정확도 중의 최대 분류 정확도를 확정하는 단계와;
    최대 분류 정확도에 대응되는 업데이트된 이미지 장면 식별 모델을 목표 이미지 장면 식별 모델로 확정하는 단계
    를 더 포함하는 것을 특징으로 하는
    이미지 장면 판정 방법.
  6. 제1항에 있어서,
    상기 이미지 장면 식별 모델을 이용하여 상기 처리하고자 하는 이미지를 각각 식별하여, 상기 처리하고자 하는 이미지와 대응되는 장면을 확정하는 단계 전에,
    미리 설정된 사이즈에 따라, 상기 처리하고자 하는 이미지에 대해 정규화 처리를 수행하여, 상기 처리하고자 하는 이미지에 대응되는 미리 설정된 사이즈의 이미지를 획득하는 단계
    를 더 포함하고,
    상기 이미지 장면 식별 모델을 이용하여 상기 처리하고자 하는 이미지를 각각 식별하여, 상기 처리하고자 하는 이미지와 대응되는 장면을 확정하는 단계는,
    상기 이미지 장면 식별 모델을 이용하여 상기 미리 설정된 사이즈의 이미지를 식별하여, 상기 처리하고자 하는 이미지에 대응되는 장면을 획득하는 단계
    를 포함하는 것을 특징으로 하는
    이미지 장면 판정 방법.
  7. 제1항에 있어서,
    처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하는 단계와;
    각 분류 앨범에 대응되는 장면을 사용하여, 상기 분류 앨범에 표기하는 단계
    를 더 포함하는 것을 특징으로 하는
    이미지 장면 판정 방법.
  8. 제7항에 있어서,
    각 분류 앨범에 대하여, 상기 분류 앨범에 있는 처리하고자 하는 각 이미지에 대응되는 시간 및/또는 지리적 위치에 따라, 상기 분류 앨범에 있는 처리하고자 하는 각 이미지를 분류하여 기억함으로써 상기 분류 앨범에 대응되는 적어도 하나의 서브 분류 앨범을 획득하는 단계와;
    각 서브 분류 앨범에 대응되는 시간 및/또는 지리적 위치를 이용하여 상기 서브 분류 앨범에 대하여 표기하는 단계
    를 더 포함하는 것을 특징으로 하는
    이미지 장면 판정 방법.
  9. 사용자 단말기의, 적어도 하나의 처리하고자 하는 이미지가 포함된 이미지 갤러리를 획득하도록 구성된 제1 획득 모듈;
    이미지 장면 식별 모델을 이용하여 상기 처리하고자 하는 이미지를 각각 식별하여, 상기 처리하고자 하는 이미지에 대응되는 장면을 확정하도록 구성된 제1 식별 모듈;
    상기 처리하고자 하는 이미지에 대응되는 장면을 사용하여, 상기 처리하고자 하는 이미지에 대한 표기를 행하도록 구성된 제1 표기 모듈;
    각 장면에 대응하는 트레이닝 이미지를 포함하는 원 로트의 트레이닝 이미지 샘플 집합을 획득하도록 구성된 제2 획득 모듈; 및
    상기 각 장면에 대응하는 원 로트의 트레이닝 이미지를 초기 이미지 장면 식별 모델에 순차적으로 입력하고, 상기 초기 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대하여 트레이닝을 수행하여, 이미지 장면 식별 모델을 획득하도록 구성된 입력 모듈
    을 포함하는 것을 특징으로 하는
    이미지 장면 판정 장치.
  10. 삭제
  11. 제9항에 있어서,
    각 장면에 대응되는 테스트 이미지를 포함하는 테스트 샘플 집합을 획득하도록 구성된 제3 획득 모듈과;
    상기 이미지 장면 식별 모델을 이용하여 상기 테스트 샘플 집합 중의 각 장면에 대응되는 테스트 이미지를 식별하여, 각 테스트 이미지에 대응되는 장면 분류 결과를 획득하도록 구성된 제2 식별 모듈과;
    상기 각 테스트 이미지에 대응되는 장면 분류 결과에 따라, 상기 이미지 장면 식별 모델에 대응되는 분류 정확도를 확정하도록 구성된 제1 확정 모듈
    을 더 포함하는 것을 특징으로 하는
    이미지 장면 판정 장치.
  12. 제11항에 있어서,
    상기 분류 정확도가 미리 설정된 임계치보다 작을 경우, 최대 반복 횟수에 도달할 때까지, 또는 분류 정확도가 미리 설정된 임계치보다 크게 될 때까지,
    상기 트레이닝 이미지 샘플 집합을 업데이트하고,
    업데이트된 트레이닝 이미지 샘플 집합에 의해, 전 회 반복에 대응되는 이미지 장면 식별 모델 중의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하고, 금 회 반복에 대응되는 업데이트된 이미지 장면 식별 모델의 반복을 수행하며,
    업데이트된 테스트 샘플 집합에 의해, 금 회 반복에 대응하는 업데이트된 이미지 장면 식별 모델에 대하여 분류 정확도 테스트를 수행하여 대응되는 분류 정확도를 확정하는 처리 과정을 반복하여 수행하도록 구성된 반복 처리 모듈
    을 더 포함하는 것을 특징으로 하는
    이미지 장면 판정 장치.
  13. 제12항에 있어서,
    각 회의 반복에 대응되는 분류 정확도 중의 최대 분류 정확도를 확정하도록 구성된 제2 확정 모듈과;
    상기 최대 분류 정확도에 대응되는 업데이트된 이미지 장면 식별 모델을 목표 이미지 장면 식별 모델로 확정하도록 구성된 제3 확정 모듈
    을 더 포함하는 것을 특징으로 하는
    이미지 장면 판정 장치.
  14. 제9항에 있어서,
    미리 설정된 사이즈에 따라, 상기 처리하고자 하는 이미지에 대해 정규화 처리를 수행하여, 상기 처리하고자 하는 이미지에 대응되는 미리 설정된 사이즈의 이미지를 획득하도록 구성된 처리 모듈을 포함하고,
    제1식별 모듈은,
    이미지 장면 식별 모델을 이용하여 상기 미리 설정된 사이즈의 이미지를 식별하여, 상기 처리하고자 하는 이미지에 대응되는 장면을 획득하도록 구성된 식별 유닛
    을 더 포함하는 것을 특징으로 하는
    이미지 장면 판정 장치.
  15. 제9항에 있어서,
    처리하고자 하는 각 이미지에 대응되는 장면에 따라, 사용자 단말기의 이미지 갤러리 중의 처리하고자 하는 각 이미지를 분류하여 기억함으로써 적어도 하나의 분류 앨범을 획득하도록 구성된 제1 기억 모듈과;
    각 분류 앨범에 대응되는 장면을 사용하여 분류 앨범에 대해 표기하도록 구성된
    제2 표기 모듈을 더 포함하는 것을 특징으로 하는
    이미지 장면 판정 장치.
  16. 제15항에 있어서,
    각 분류 앨범에 대하여, 상기 분류 앨범에 있는 처리하고자 하는 각 이미지에 대응되는 시간 및/또는 지리적 위치에 따라, 상기 분류 앨범에 있는 처리하고자 하는 각 이미지를 분류하여 기억함으로써 상기 분류 앨범에 대응되는 적어도 하나의 서브 분류 앨범을 획득하도록 구성된 제2 기억 모듈과;
    각 서브 분류 앨범에 대응하는 시간 및/또는 지리적 위치를 이용하여 상기 서브 분류 앨범에 대하여 표기하도록 구성된 제3 표기 모듈을
    더 포함하는 것을 특징으로 하는 이미지 장면 판정 장치.
  17. 프로세서와;
    상기 프로세서에서 실행 가능한 명령을 기억하는 메모리를 포함하고,
    상기 프로세서는,
    사용자 단말기의, 적어도 하나의 처리하고자 하는 이미지가 포함된 이미지 갤러리를 획득하고;
    각 장면에 대응되는 트레이닝 이미지를 포함하는 원 로트의 트레이닝 이미지 샘플 집합을 획득하고;
    상기 각 장면에 대응하는 원 로트의 트레이닝 이미지를 순차적으로 초기 이미지 장면 식별 모델에 입력하고, 상기 초기 이미지 장면 식별 모델의 각 층의 은닉층 노드 사이의 특징계수에 대해 트레이닝을 수행하여, 이미지 장면 식별 모델을 획득하며;
    상기 이미지 장면 식별 모델을 이용하여 상기 처리하고자 하는 이미지에 대해 식별을 수행하여, 상기 처리하고자 하는 이미지에 대응되는 장면을 확정하며;
    상기 처리하고자 하는 이미지에 대응되는 장면을 사용하여, 상기 처리하고자 하는 이미지에 대한 표기를 행하도록 구성된 것
    을 특징으로 하는
    이미지 장면을 판정하기 위한 서버.
KR1020167005266A 2015-07-31 2015-12-28 이미지 장면 판정 방법, 장치 및 서버 KR101796401B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510463271.5A CN105138963A (zh) 2015-07-31 2015-07-31 图片场景判定方法、装置以及服务器
CN201510463271.5 2015-07-31
PCT/CN2015/099291 WO2017020514A1 (zh) 2015-07-31 2015-12-28 图片场景判定方法、装置以及服务器

Publications (2)

Publication Number Publication Date
KR20170023761A KR20170023761A (ko) 2017-03-06
KR101796401B1 true KR101796401B1 (ko) 2017-11-10

Family

ID=54724307

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167005266A KR101796401B1 (ko) 2015-07-31 2015-12-28 이미지 장면 판정 방법, 장치 및 서버

Country Status (8)

Country Link
US (1) US20170032189A1 (ko)
EP (1) EP3125156A1 (ko)
JP (1) JP2017536635A (ko)
KR (1) KR101796401B1 (ko)
CN (1) CN105138963A (ko)
MX (1) MX2016003724A (ko)
RU (1) RU2631994C1 (ko)
WO (1) WO2017020514A1 (ko)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL236598A0 (en) * 2015-01-05 2015-05-31 Superfish Ltd Image similarity as a function of image weighted image descriptors generated from neural networks
CN105138963A (zh) * 2015-07-31 2015-12-09 小米科技有限责任公司 图片场景判定方法、装置以及服务器
CN105678622A (zh) * 2016-01-07 2016-06-15 平安科技(深圳)有限公司 车险理赔照片的分析方法及系统
CN107527091B (zh) * 2016-10-14 2021-05-25 腾讯科技(北京)有限公司 数据处理方法和装置
US10970605B2 (en) * 2017-01-03 2021-04-06 Samsung Electronics Co., Ltd. Electronic apparatus and method of operating the same
CN107609602A (zh) * 2017-09-28 2018-01-19 吉林大学 一种基于卷积神经网络的驾驶场景分类方法
CN107864333B (zh) * 2017-11-08 2020-04-21 Oppo广东移动通信有限公司 图像处理方法、装置、终端及存储介质
CN108229680B (zh) * 2017-12-15 2021-11-23 北京市商汤科技开发有限公司 神经网络系统、遥感图像识别方法、装置、设备及介质
CN108009280B (zh) * 2017-12-21 2021-01-01 Oppo广东移动通信有限公司 图片处理方法、装置、终端及存储介质
CN108236784B (zh) * 2018-01-22 2021-09-24 腾讯科技(深圳)有限公司 模型的训练方法和装置、存储介质、电子装置
CN110276364B (zh) * 2018-03-15 2023-08-08 阿里巴巴集团控股有限公司 分类模型的训练方法、数据分类方法、装置及电子设备
CN108615071B (zh) * 2018-05-10 2020-11-24 创新先进技术有限公司 模型测试的方法及装置
CN109101547B (zh) * 2018-07-05 2021-11-12 北京泛化智能科技有限公司 用于野生动物的管理方法及装置
CN109284687B (zh) * 2018-08-24 2020-08-07 武汉大学 一种基于室内机会信号增强的场景识别方法及装置
CN109242984B (zh) * 2018-08-27 2020-06-16 百度在线网络技术(北京)有限公司 虚拟三维场景构建方法、装置及设备
CN109452914A (zh) * 2018-11-01 2019-03-12 北京石头世纪科技有限公司 智能清洁设备,清洁模式选择方法,计算机存储介质
CN111209904A (zh) * 2018-11-21 2020-05-29 华为技术有限公司 一种业务处理的方法以及相关装置
CN110060122A (zh) * 2019-03-16 2019-07-26 平安城市建设科技(深圳)有限公司 图片展示方法、装置、设备及计算机可读存储介质
CN110059707B (zh) * 2019-04-25 2021-05-14 北京小米移动软件有限公司 图像特征点的优化方法、装置和设备
CN110399803B (zh) * 2019-07-01 2022-04-22 北京邮电大学 一种车辆检测方法及装置
CN110489592B (zh) * 2019-07-18 2024-05-03 平安科技(深圳)有限公司 视频分类方法、装置、计算机设备和存储介质
US11023783B2 (en) * 2019-09-11 2021-06-01 International Business Machines Corporation Network architecture search with global optimization
US10943353B1 (en) 2019-09-11 2021-03-09 International Business Machines Corporation Handling untrainable conditions in a network architecture search
CN110929663B (zh) * 2019-11-28 2023-12-29 Oppo广东移动通信有限公司 一种场景预测方法及终端、存储介质
CN111860403B (zh) * 2020-07-28 2024-06-14 商汤国际私人有限公司 场景信息的检测方法和装置、电子设备
CN112580481B (zh) * 2020-12-14 2024-05-28 康佳集团股份有限公司 基于边缘节点和云端协同视频处理方法、装置、服务器
CN113705362B (zh) * 2021-08-03 2023-10-20 北京百度网讯科技有限公司 图像检测模型的训练方法、装置、电子设备及存储介质
CN114677691B (zh) * 2022-04-06 2023-10-03 北京百度网讯科技有限公司 文本识别方法、装置、电子设备及存储介质
CN116524302B (zh) * 2023-05-05 2024-01-26 广州市智慧城市投资运营有限公司 一种场景识别模型的训练方法、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663448A (zh) 2012-03-07 2012-09-12 北京理工大学 一种基于网络的增强现实物体识别分析方法
US8385632B2 (en) 2010-06-01 2013-02-26 Mitsubishi Electric Research Laboratories, Inc. System and method for adapting generic classifiers for object detection in particular scenes using incremental training
US20150254532A1 (en) 2014-03-07 2015-09-10 Qualcomm Incorporated Photo management

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6482133A (en) * 1987-09-24 1989-03-28 Nec Corp Network learning system
JP4220595B2 (ja) * 1998-08-10 2009-02-04 株式会社日立製作所 欠陥の分類方法並びに教示用データ作成方法
JP3965983B2 (ja) * 2001-11-30 2007-08-29 松下電工株式会社 画像処理方法およびその装置
US7295700B2 (en) * 2003-10-24 2007-11-13 Adobe Systems Incorporated Object extraction based on color and visual texture
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US8934717B2 (en) * 2007-06-05 2015-01-13 Intellectual Ventures Fund 83 Llc Automatic story creation using semantic classifiers for digital assets and associated metadata
WO2009149126A2 (en) * 2008-06-02 2009-12-10 New York University Method, system, and computer-accessible medium for classification of at least one ictal state
US8611677B2 (en) * 2008-11-19 2013-12-17 Intellectual Ventures Fund 83 Llc Method for event-based semantic classification
JP2011049740A (ja) * 2009-08-26 2011-03-10 Sony Corp 画像処理装置および方法
US8238671B1 (en) * 2009-12-07 2012-08-07 Google Inc. Scene classification for place recognition
US20130229262A1 (en) * 2012-03-05 2013-09-05 Symbol Technologies, Inc. Radio frequency identification reader antenna arrangement with multiple linearly-polarized elements
AU2014239852A1 (en) * 2013-03-15 2015-11-05 The Cleveland Clinic Foundation Self-evolving predictive model
US20140280561A1 (en) * 2013-03-15 2014-09-18 Fujifilm North America Corporation System and method of distributed event based digital image collection, organization and sharing
CN103440318B (zh) * 2013-08-29 2016-08-17 王靖洲 移动终端的景观识别系统
US9524450B2 (en) * 2015-03-04 2016-12-20 Accenture Global Services Limited Digital image processing using convolutional neural networks
CN104751175B (zh) * 2015-03-12 2018-12-14 西安电子科技大学 基于增量支持向量机的sar图像多类标场景分类方法
CN104809469A (zh) * 2015-04-21 2015-07-29 重庆大学 一种面向服务机器人的室内场景图像分类方法
US10062010B2 (en) * 2015-06-26 2018-08-28 Intel Corporation System for building a map and subsequent localization
CN105138963A (zh) * 2015-07-31 2015-12-09 小米科技有限责任公司 图片场景判定方法、装置以及服务器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8385632B2 (en) 2010-06-01 2013-02-26 Mitsubishi Electric Research Laboratories, Inc. System and method for adapting generic classifiers for object detection in particular scenes using incremental training
CN102663448A (zh) 2012-03-07 2012-09-12 北京理工大学 一种基于网络的增强现实物体识别分析方法
US20150254532A1 (en) 2014-03-07 2015-09-10 Qualcomm Incorporated Photo management

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Bing Shuai et al, "Integrating parametric and non-parametric models for scene labeling", 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4249-4258, 7 June 2015
Bolei Zhou et al, "Learning Deep Features for Scene Recognition using Places Database", NIPS 2014 Proceedings, pp. 1-9, 8 December 2014.
Holger Schwenk et al, "Boosting neural networks", Neural Computation, Massachusetts Institute of Technology, US, vol. 12, no. 8, pp. 1-19, August 2000.

Also Published As

Publication number Publication date
CN105138963A (zh) 2015-12-09
JP2017536635A (ja) 2017-12-07
MX2016003724A (es) 2018-06-22
WO2017020514A1 (zh) 2017-02-09
US20170032189A1 (en) 2017-02-02
RU2631994C1 (ru) 2017-09-29
EP3125156A1 (en) 2017-02-01
KR20170023761A (ko) 2017-03-06

Similar Documents

Publication Publication Date Title
KR101796401B1 (ko) 이미지 장면 판정 방법, 장치 및 서버
KR101795325B1 (ko) 민감 이미지 식별 방법, 장치 및 서버
CN108256555B (zh) 图像内容识别方法、装置及终端
US11663802B2 (en) Insect identification method and system
TWI766201B (zh) 活體檢測方法、裝置以及儲存介質
CN110663045B (zh) 用于数字图像的自动曝光调整的方法、电子系统和介质
CN107977390B (zh) 绘本识别方法、装置、系统及电子设备
CN109492128B (zh) 用于生成模型的方法和装置
WO2019141042A1 (zh) 图像分类方法、装置及终端
CN108197618B (zh) 用于生成人脸检测模型的方法和装置
KR101725884B1 (ko) 이미지들에 대한 자동 프로세싱
CN109040605A (zh) 拍摄引导方法、装置及移动终端和存储介质
CN108256549A (zh) 图像分类方法、装置及终端
CN109657539B (zh) 人脸颜值评价方法、装置、可读存储介质及电子设备
KR20170049380A (ko) 태그처리방법 및 태그처리장치
WO2016115032A1 (en) Techniques for providing user image capture feedback for improved machine language translation
CN105338237A (zh) 图像处理方法及装置
CN112259122B (zh) 音频类型识别方法、装置及存储介质
CN112417918B (zh) 二维码识别方法、装置、存储介质及电子设备
CN117809084A (zh) 图像识别模型训练方法、基于图像识别的交互方法及装置
CN113114929B (zh) 引导拍照方法、终端设备、电子设备以及存储介质
CN114177621A (zh) 数据处理方法及装置
CN114463689B (zh) 目标识别网络的训练方法、装置、电子设备及存储介质
CN112866505B (zh) 图像处理方法、装置及存储介质
WO2022100665A1 (zh) 一种图像分享的方法、装置及终端设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant