KR102209316B1 - Method for storing photo recording using metadata and terminals device for performing the method - Google Patents

Method for storing photo recording using metadata and terminals device for performing the method Download PDF

Info

Publication number
KR102209316B1
KR102209316B1 KR1020180169835A KR20180169835A KR102209316B1 KR 102209316 B1 KR102209316 B1 KR 102209316B1 KR 1020180169835 A KR1020180169835 A KR 1020180169835A KR 20180169835 A KR20180169835 A KR 20180169835A KR 102209316 B1 KR102209316 B1 KR 102209316B1
Authority
KR
South Korea
Prior art keywords
photographic
record
photographic record
metadata
photo
Prior art date
Application number
KR1020180169835A
Other languages
Korean (ko)
Other versions
KR20200084445A (en
Inventor
이규철
김인아
강영선
Original Assignee
충남대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교산학협력단 filed Critical 충남대학교산학협력단
Priority to KR1020180169835A priority Critical patent/KR102209316B1/en
Publication of KR20200084445A publication Critical patent/KR20200084445A/en
Application granted granted Critical
Publication of KR102209316B1 publication Critical patent/KR102209316B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5846Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

메타 데이터를 이용한 사진 기록물의 저장 방법 및 이를 수행하는 단말 장치가 개시된다. 개시된 방법은 복수의 사진 기록물 각각에 대한 메타 데이터를 생성하는 단계; 및 상기 복수의 사진 기록물을 대응되는 상기 메타 데이터와 매칭시켜 저장하는 단계;를 포함하되, 상기 메타 데이터는, 상기 사진 기록물에 대한 키워드 및 상기 사진 기록물 상에 존재하는 객체 정보 및 상기 사진 기록물 상에 존재하는 인물 정보 중 적어도 하나를 포함한다. 본 발명에 따르면, 표준화된 메타 데이터를 이용하여 사진 기록물을 보다 효율적으로 저장 및 관리하고, 검색할 수 있는 장점이 있다. Disclosed are a method of storing photographic records using metadata and a terminal device performing the same. The disclosed method includes generating metadata for each of a plurality of photographic records; And matching and storing the plurality of photo records with corresponding meta data; wherein the meta data includes a keyword for the photo record, object information present on the photo record, and on the photo record It includes at least one of existing person information. According to the present invention, there is an advantage in that photographic records can be more efficiently stored, managed, and searched using standardized metadata.

Description

메타 데이터를 이용한 사진 기록물의 저장 방법 및 이를 수행하는 단말 장치{METHOD FOR STORING PHOTO RECORDING USING METADATA AND TERMINALS DEVICE FOR PERFORMING THE METHOD}A method of storing photographic records using metadata, and a terminal device performing the same.

본 발명의 실시예들은 메타 데이터를 이용하여 사진 기록물을 보다 효율적으로 저장 및 관리하고 검색할 수 있는 사진 기록물의 저장 방법 및 이를 수행하는 단말 장치에 관한 것이다. Embodiments of the present invention relate to a method for storing, managing, and retrieving photographic records more efficiently using metadata, and a terminal device performing the same.

최근 공공 기록물이 역사적 가치가 높은 중요한 사료로 인식되고 있으며, 각 지방자치단체에서는 기록물의 중요성을 인식하고 보존하기 위한 노력을 수행하고 있다. Recently, public records have been recognized as important sources of high historical value, and each local government is making efforts to recognize and preserve the importance of the records.

일반 기록물, 즉 텍스트 기록물의 경우에는 메타데이터의 표준이 있어 통일성이 있게 관리되고 있지만, 사진 기록물의 경우에는 메타데이터를 표준이 없어 통일성 없이 관리하고 있다. 즉, 사진 기록물의 경우, 메타데이터의 표준이 존재하지 않아 서로 다른 방식으로 메타데이터를 저장하므로 다른 지방자치단체끼리의 사진 기록물의 호환을 어렵게 한다. In the case of general records, that is, text records, there is a standard of metadata, so it is managed with uniformity, but in the case of photographic records, there is no standard for metadata, so it is managed without uniformity. That is, in the case of photographic recordings, metadata is stored in different ways because there is no standard of metadata, making it difficult to interchange photographic recordings between different local governments.

그리고, 새로운 사진을 등록할 때마다 메타데이터를 한 건씩 수동으로 입력하기 때문에 시간적 소모 및 인적 소모가 크다. In addition, since metadata is manually input one by one each time a new photo is registered, time and human consumption are large.

또한, 지방자치단체의 공무원들의 업무 특성상 특정 인물이나 행사와 관련된 사진을 검색해야 하는 경우가 많은데, 정교한 메타데이터의 부재로 인해 정확한 키워드를 모를 경우 검색에 어려움을 겪는다. 이는 공무원들이 사진을 관리할 때 일정한 메타데이터 설계 없이 파일명을 기준으로 사진을 관리하기 때문에, 담당자가 바뀔 때마다 사진을 기록하는 표기 방법 및 파일명 규칙 등이 달라지는 문제점이 있다. In addition, due to the nature of work of local government officials, it is often necessary to search for photos related to a specific person or event. However, due to the absence of sophisticated metadata, it is difficult to search for exact keywords. This is because public officials manage photos based on the file name without a certain metadata design when managing photos, so there is a problem in that the notation method of recording photos and the file name rules are different whenever the person in charge changes.

상기한 바와 같은 종래기술의 문제점을 해결하기 위해, 본 발명에서는 표준화된 메타 데이터를 이용하여 사진 기록물을 보다 효율적으로 저장 및 관리하고 검색할 수 있는 사진 기록물의 저장 방법 및 이를 수행하는 단말 장치를 제안하고자 한다. In order to solve the problems of the prior art as described above, the present invention proposes a method for storing, managing, and retrieving photo records more efficiently using standardized metadata, and a terminal device for performing the same. I want to.

본 발명의 다른 목적들은 하기의 실시예를 통해 당업자에 의해 도출될 수 있을 것이다.Other objects of the present invention may be derived by those skilled in the art through the following examples.

상기한 목적을 달성하기 위해 본 발명의 바람직한 일 실시예에 따르면, 프로세서가 포함된 장치에서 수행되는 사진 기록물의 저장 방법에 있어서, 복수의 사진 기록물 각각에 대한 메타 데이터를 생성하는 단계; 및 상기 복수의 사진 기록물을 대응되는 상기 메타 데이터와 매칭시켜 저장하는 단계;를 포함하되, 상기 메타 데이터는, 상기 사진 기록물에 대한 키워드 및 상기 사진 기록물 상에 존재하는 객체 정보 및 상기 사진 기록물 상에 존재하는 인물 정보를 포함하는 것을 특징으로 하는 사진 기록물의 저장 방법이 제공된다. In order to achieve the above object, according to a preferred embodiment of the present invention, there is provided a method for storing photographic records performed in an apparatus including a processor, the method comprising: generating metadata for each of a plurality of photographic records; And matching and storing the plurality of photo records with corresponding meta data; wherein the meta data includes a keyword for the photo record, object information present on the photo record, and on the photo record There is provided a method for storing photographic records, comprising information about a person present.

상기 생성하는 단계는, 상기 사진 기록물에 대해 문자 인식을 수행하여 상기 사진 기록물 상에 존재하는 텍스트를 추출하고, 상기 추출된 텍스트에 대해 형태소 분석을 수행하여 상기 키워드를 추출할 수 있다. In the generating step, character recognition is performed on the photographic record to extract text present on the photographic record, and the keyword may be extracted by performing a morpheme analysis on the extracted text.

상기 생성하는 단계는, 상기 사진 기록물에 대해 문자 인식을 수행하여 상기 사진 기록물 상에 존재하는 텍스트를 추출하고, 상기 추출된 텍스트를 모두 포함하고 띄어쓰기가 없는 하나의 문자열을 생성하며, 상기 추출된 텍스트 및 상기 하나의 문자열에 대해 형태소 분석을 수행하여 상기 키워드를 추출할 수 있다. In the generating step, character recognition is performed on the photographic record to extract text present on the photographic record, and a single character string including all the extracted texts and no spaces is generated, and the extracted text And morpheme analysis on the one character string to extract the keyword.

상기 생성하는 단계는, 상기 사진 기록물을 미리 학습된 딥 러닝 기반의 알고리즘 모델에 입력하여 상기 사진 기록물 상에 존재하는 객체 정보 및 상기 사진 기록물 상에 존재하는 인물 정보를 추출할 수 있다. The generating may include inputting the photographic recording into a pre-learned deep learning-based algorithm model to extract object information existing on the photographic recording and information on a person existing on the photographic recording.

상기 딥 러닝 기반의 알고리즘 모델 중 객체 인식 알고리즘 모델은 R-CNN(Regions-CNN), R-CNN에서 파생된 신경망, YOLO(You only Look Once), SSD Single Shot MultiBox Detector)을 포함할 수 있다. Among the deep learning-based algorithm models, the object recognition algorithm model may include Regions-CNN (R-CNN), a neural network derived from R-CNN, You Only Look Once (YOLO), SSD Single Shot MultiBox Detector).

미리 학습되지 않은 새로운 객체가 상기 사진 기록물에 존재하는 경우, 상기 새로운 객체의 이름 정보가 포함되고 새로운 객체를 둘러싸는 경계 박스가 표시된 복수 개의 이미지를 트레이닝 데이터를 이용하여 상기 객체 인식 알고리즘 모델이 추가적으로 학습될 수 있다. When a new object that has not been learned in advance exists in the photographic record, the object recognition algorithm model additionally learns a plurality of images including the name information of the new object and displaying a bounding box surrounding the new object using training data. Can be.

상기 딥 러닝 기반의 알고리즘 모델 중 얼굴 인식 알고리즘 모델은 VGGFace, FaceNet, NAN(Neural Aggregation Network)을 포함할 수 있다.Among the deep learning-based algorithm models, a face recognition algorithm model may include VGGFace, FaceNet, and NAN (Neural Aggregation Network).

상기 메타 데이터는, 상기 사진 기록물의 제목, 상기 사진 기록물의 촬영자, 상기 사진 기록물의 촬영일, 상기 사진 기록물의 촬영 장소, 상기 사진 기록물의 설명, 상기 사진 기록물에서 수행된 이벤트의 이름, 상기 사진 기록물의 원본 사진 파일의 이름인 원화 번호, 상기 사진 기록물을 등록하는 생성자, 상기 사진 기록물의 가로 및 세로 사이즈, 상기 사진 기록물이 상기 장치 내에서 저장된 위치, 상기 사진 기록물의 파일 사이즈, 상기 사진 기록물의 이미지 압축 포멧, 상기 사진 기록물의 카테고리, 상기 사진 기록물의 조회수를 더 포함할 수 있다. The metadata may include a title of the photographic record, a photographer of the photographic record, a photographing date of the photographic record, a photographing location of the photographic record, a description of the photographic record, a name of an event performed on the photographic record, and the photographic record. The original picture number, which is the name of the original photo file of, the creator registering the photo record, the horizontal and vertical size of the photo record, the location where the photo record is stored in the device, the file size of the photo record, and the image of the photo record. It may further include a compression format, the category of the photo record, and the number of views of the photo record.

상기 메타 데이터는, 상기 사진 기록물의 검색 시 사용될 수 있다. The metadata may be used when searching for the photographic record.

또한, 본 발명의 다른 실시예에 따르면, 컴퓨터에서 판독 가능한 명령을 저장하는 메모리; 및 상기 명령을 실행하도록 구현되는 프로세서:를 포함하되, 상기 프로세서는, 복수의 사진 기록물 각각에 대한 메타 데이터를 생성하고, 상기 복수의 사진 기록물을 대응되는 상기 메타 데이터와 매칭시켜 저장하도록 제어하되, 상기 메타 데이터는, 상기 사진 기록물에 대한 키워드 및 상기 사진 기록물 상에 존재하는 객체 정보 및 상기 사진 기록물 상에 존재하는 인물 정보를 포함하는 것을 특징으로 하는 단말 장치가 제공된다. In addition, according to another embodiment of the present invention, there is provided a memory for storing instructions readable by a computer; And a processor embodied to execute the command, wherein the processor generates metadata for each of a plurality of photographic records, and controls to match and store the plurality of photographic recordings with the corresponding metadata, The meta data includes a keyword for the photographic record, object information present on the photographic record, and information on a person present on the photographic record.

본 발명에 따르면, 표준화된 메타 데이터를 이용하여 사진 기록물을 보다 효율적으로 저장 및 관리하고, 검색할 수 있는 장점이 있다. According to the present invention, there is an advantage in that photographic records can be more efficiently stored, managed, and searched using standardized metadata.

또한, 본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.In addition, the effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be deduced from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 본 발명의 일 실시예에 따른 단말 장치의 개략적인 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 사진 기록물의 저장 방법의 흐름도를 도시한 도면이다.
도 3 내지 도 7는 본 발명의 일 실시예에 따른 메타 데이터를 생성하는 개념을 설명하기 위한 도면이다.
1 is a diagram showing a schematic configuration of a terminal device according to an embodiment of the present invention.
2 is a diagram illustrating a flowchart of a method of storing photographic records according to an embodiment of the present invention.
3 to 7 are diagrams for explaining the concept of generating meta data according to an embodiment of the present invention.

본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Singular expressions used in the present specification include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various elements or various steps described in the specification, and some of the elements or some steps It may not be included, or it should be interpreted that it may further include additional elements or steps. In addition, terms such as "... unit" and "module" described in the specification mean units that process at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .

이하, 본 발명의 다양한 실시예들을 첨부된 도면을 참조하여 상술한다. Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 단말 장치의 개략적인 구성을 도시한 도면이다. 1 is a diagram showing a schematic configuration of a terminal device according to an embodiment of the present invention.

도 1을 참조하면, 단말 장치(100)는 사진 기록물의 저장 및 검색을 수행하는 장치로서, 입력부(110), 메모리부(120), 프로세서부(130) 및 디스플레이부(140)를 포함한다. 이하, 각 구성 요소 별로 수행되는 기능을 설명하면 다음과 같다.Referring to FIG. 1, a terminal device 100 is a device that stores and searches a photographic record, and includes an input unit 110, a memory unit 120, a processor unit 130, and a display unit 140. Hereinafter, a function performed by each component will be described.

입력부(110)는 사용자로부터 사진 기록물을 입력 받고, 사용자로부터 텍스트 정보를 입력 받는 구성요소이다. 일례로, 입력부(110)는 유선 통신 또는 무선 통신으로 통해 전송된 사진 기록물을 입력 받을 수도 있다. 또한, 입력부(110)는 마우스 및 키보드를 포함할 수 있다. The input unit 110 is a component that receives a photographic record from a user and text information from the user. For example, the input unit 110 may receive a photographic record transmitted through wired communication or wireless communication. In addition, the input unit 110 may include a mouse and a keyboard.

메모리부(120)는 휘발성 및/또는 비휘발성 메모리일 수 있고, 단말 장치(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장한다. 특히, 메모리부(120)는 하기에서 설명하는 메타 데이터를 생성하기 위한 컴퓨터 프로그램 내지 기록 매체에 관계된 명령어 또는 데이터를 저장할 수 있다. The memory unit 120 may be a volatile and/or nonvolatile memory, and stores commands or data related to at least one other component of the terminal device 100. In particular, the memory unit 120 may store instructions or data related to a computer program or a recording medium for generating meta data described below.

프로세서부(130)는 중앙처리장치, 애플리케이션 프로세서, 또는 커뮤니케이션 프로세서 중 하나 또는 그 이상을 포함할 수 있다. 예를 들면, 프로세서부(130)는 단말 장치(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 특히, 프로세서부(130)는 상기 컴퓨터 프로그램의 실행에 관계된 명령을 실행할 수 있다. The processor unit 130 may include one or more of a central processing unit, an application processor, and a communication processor. For example, the processor unit 130 may control at least one other component of the terminal device 100 and/or perform an operation or data processing related to communication. In particular, the processor unit 130 may execute a command related to execution of the computer program.

디스플레이부(140)는 액정 디스플레이(LCD), 발광 다이오드 디스플레이(LED), 유기 발광 다이오드 디스플레이(OLED) 등으로 구성될 수 있으며, 프로세서부(130)에서 실행되는 컴퓨터 프로그램의 실행 화면 및 출력값을 표시할 수 있다. The display unit 140 may be composed of a liquid crystal display (LCD), a light emitting diode display (LED), an organic light emitting diode display (OLED), etc., and displays an execution screen and output values of a computer program executed in the processor unit 130 can do.

본 발명의 일 실시예에 따르면, 단말 장치(100)는 복수의 사진 기록물 각각에 대한 메타 데이터를 생성하고, 복수의 사진 기록물을 대응되는 메타 데이터와 매칭시켜 저장하도록 제어한다. 이 때, 사용자는 메타 데이터를 이용하여 사진 기록물을 검색할 수 있다. According to an embodiment of the present invention, the terminal device 100 generates metadata for each of a plurality of photographic records, and controls the plurality of photographic recordings to match and store the corresponding metadata. In this case, the user can search for the photographic record using the metadata.

이하, 도 2를 참조하여 단말 장치(100) 내의 프로세서부(130)에서 수행되는 사진 기록물의 저장 동작에 대해 상세하게 설명하기로 한다. Hereinafter, a storage operation of a photographic record performed by the processor unit 130 in the terminal device 100 will be described in detail with reference to FIG. 2.

도 2는 본 발명의 일 실시예에 따른 사진 기록물의 저장 방법의 흐름도를 도시한 도면이다. 이하, 각 단계 별로 수행되는 과정을 설명하기로 한다. 2 is a diagram illustrating a flowchart of a method of storing photographic records according to an embodiment of the present invention. Hereinafter, a process performed for each step will be described.

먼저, 단계(210)에서는 복수의 사진 기록물 각각에 대한 메타 데이터를 생성한다. First, in step 210, metadata for each of a plurality of photographic records is generated.

메타 데이터는 사진 기록물에 대한 정보를 포함하는 것으로서, 복수의 텍스트 정보로 구성되어 있다. Meta data includes information on photographic records, and consists of a plurality of text information.

그리고, 단계(220)에서는 복수의 사진 기록물을 대응되는 메타 데이터와 매칭시켜 저장하도록 제어한다. 따라서, 사용자는 메타 데이터를 이용하여 사진 기록물을 검색할 수 있다. In step 220, a plurality of photographic records are matched with corresponding metadata and stored. Thus, the user can search for photographic records using metadata.

본 발명의 일 실시예에 따르면, 메타 데이터는 사진 기록물의 특성을 반영한 것으로서, 제목, 촬영자, 촬영일, 촬영 장소, 설명, 그룹명, 키워드, 원화 번호, 생성자, 가로 및 세로 사이즈, 이미지 파일의 위치, 이미지 파일 사이즈, 이미지 압축 포멧, 카테고리, 조회수, 사진에 존재하는 사람, 사진 속 객체 정보를 포함할 수 있다. According to an embodiment of the present invention, metadata reflects the characteristics of a photographic record, and includes a title, a photographer, a photographing date, a photographing location, a description, a group name, a keyword, an original picture number, a creator, a horizontal and vertical size, and an image file. It may include location, image file size, image compression format, category, number of views, people present in the photo, and object information in the photo.

메타 데이터에 포함된 정보에 대해 보다 상세하게 설명하면 다음과 같다. The information included in the meta data will be described in more detail as follows.

1) 제목(Name): 사진 기록물(즉, 사진 파일)의 이름 1) Title: The name of the photographic record (ie, photo file)

2) 촬영자(Creator): 사진 기록물을 촬영하는 촬영자의 이름, 촬영자가 식별되지 않는 경우 단체의 이름 2) Creator: The name of the photographer who takes the photographic record, or the name of the group if the photographer is not identified.

3) 촬영일(Date Created): 사진 기록물을 촬영한 날짜3) Date Created: The date the photo record was taken

4) 촬영장소(Location Created): 사진 기록물을 촬영한 장소4) Location Created: The location where the photographic record was taken

5) 그룹명(Group Name): 사진 기록물에서 수행된 이벤트의 이름(즉, 특정 장소이나 인물과 관련된 이벤트의 이름)5) Group Name: The name of the event performed on the photo record (i.e., the name of the event related to a specific place or person)

6) 원화 번호(Original Name): 카메라로 사진 기록물을 촬영하는 경우의 원본 사진 파일의 이름6) Original Name: The name of the original photo file when photographing recordings with the camera

7) 생성자(Registrant): 사진 기록물을 등록하는 사람7) Registrant: The person who registers the photographic record.

8) 키워드(Keywords): 사진 기록물의 주제, 내용 등을 나타내는 정보8) Keywords: Information indicating the subject, content, etc. of the photographic record

9) 가로 및 세로 사이즈(Width & Height Size): 사진 기록물인 이미지의 해상도 단위인 PPI(Pixels Per Inch)의 가로 및 세로 길이9) Width & Height Size: The horizontal and vertical length of PPI (Pixels Per Inch), which is the resolution unit of an image that is a photographic record.

10) 이미지 파일 위치(Image File Location): 사진 기록물이 단말 장치 내에서 저장된 위치(경로)10) Image File Location: Location (path) where photo records are stored in the terminal device

11) 이미지 파일 사이즈(Image File Size): 사진 기록물인 사진 파일의 사이즈11) Image File Size: The size of a photo file that is a photo record

12) 이미지 압축 포맷(Image Compressed Format): 사진 기록물의 사진 파일의 압축 형식, 12) Image Compressed Format: Compressed format of photo files in photo records,

13) 설명(Description): 사진 기록물에서 발생하는 상황에 대한 설명13) Description: A description of the situation occurring in the photographic record.

14) 분류(Category): 사진 기록물의 종류에 따른 카테고리14) Category: Category according to the type of photo record

15) 조회 수(Views): 사진 기록물을 열어본 횟수(업데이트 됨)15) Views: The number of times the photo record was opened (updated)

16) 사진에 표시된 사람(Person Shown in the Image): 사진 기록물 상에 존재하는 인물에 관한 정보 16) Person Shown in the Image: Information on the person present in the photographic record

17) 사진 속 객체(Object in the Image): 사진 기록물 상에 존재하는 객체에 관한 정보17) Object in the Image: Information on objects present on photographic records

여기서, 메타 데이터 중 1) 내지 12)는 필수 항목이고, 13) 내지 17)은 옵션 항목일 수 있다. Here, 1) to 12) of the meta data may be mandatory items, and 13) to 17) may be optional items.

이하, 메타 데이터에 포함된 정보 중에서 "키워드", "사진에 표시된 사람" 및 "사진 속 객체"을 추출하는 동작을 보다 상세하게 설명하기로 한다. Hereinafter, an operation of extracting "keyword", "person displayed in photo", and "object in photo" from information included in metadata will be described in more detail.

먼저, "키워드"과 관련하여, 프로세서부(130)는 사진 기록물에 대해 문자 인식을 수행하여 사진 기록물 상에 존재하는 텍스트를 추출한다. First, with respect to "keyword", the processor unit 130 extracts text existing on the photographic recording by performing character recognition on the photographic recording.

일례로서, 프로세서부(130)는 OCR(Optical Character Recognition) 라이브러리 알고리즘 내지 OCR 소프트웨어를 사용하여 사진 기록물에서 텍스트를 추출할 수 있다. 이 때, OCR 소프트웨어는 Google OCR, MS OCR, Abbyy OCR, Tesseract 일 수 있다. 도 3에서는 사진 기록물에서 텍스트를 추출하는 일례를 도시하고 있다. As an example, the processor unit 130 may extract text from a photographic record using an OCR (Optical Character Recognition) library algorithm or OCR software. In this case, the OCR software may be Google OCR, MS OCR, Abbyy OCR, or Tesseract. 3 shows an example of extracting text from a photographic record.

그리고, 프로세서부(130)는 상기 추출된 텍스트에 대해 형태소 분석을 수행하여 키워드를 추출할 수 있다. 여기서, 형태소 분석을 통해 숫자, 조사, 한 음절, 특수문자를 제외한 명사를 기준으로 키워드를 추출할 수 있다. 추출된 키워드가 메타 데이터 내의 "키워드"로 매핑된다. 도 4에서는 형태소 분석기를 이용하여 키워드를 추출하는 일례를 도시하고 있다. In addition, the processor unit 130 may extract keywords by performing morpheme analysis on the extracted text. Here, through morpheme analysis, keywords may be extracted based on nouns excluding numbers, surveys, one syllable, and special characters. The extracted keywords are mapped to "keywords" in the meta data. 4 shows an example of extracting a keyword using a morpheme analyzer.

한편, 상기에서 설명한 키워드 추출 과정에는 오류가 발생할 수 있다. Meanwhile, an error may occur in the keyword extraction process described above.

즉, 도 5의 (a)를 참조하면, 추출된 키워드들 중에서 "소장품"이 한 음절씩 토큰화되는 경우가 발생할 수 있다. 이러한 오류를 방지하기 위해, 프로세서부(130)는 추출된 텍스트를 모두 포함하고 띄어쓰기가 없는 하나의 문자열을 생성하고 생성된 하나의 문자열에 대해 형태소 분석을 수행하여 키워드를 추출할 수 있다. 도 5의 (b)에서는 추출된 텍스트(즉, 전처리 전의 텍스트)에서 하나의 문자열(즉, 전처리 후의 텍스트)를 생성하는 개념을 도시하고 있다. That is, referring to FIG. 5A, among the extracted keywords, a case in which "collection" is tokenized one syllable may occur. In order to prevent such an error, the processor unit 130 may extract a keyword by generating a single string including all the extracted text and without spaces, and performing a morpheme analysis on the generated single string. FIG. 5B illustrates the concept of generating one character string (ie, text after pre-processing) from the extracted text (ie, text before pre-processing).

그러나, 하나의 문자열에서 키워드를 추출하는 경우, 전처리하지 않은 텍스트에서 정상적으로 출력되었던 키워드가 전처리 후 한 음절씩 토큰화되는 오류가 발생할 수 있다. 도 6의 (a)에서는 추출된 텍스트(즉, 전처리 전의 텍스트)에 대해 형태소 분석을 수행하여 키워드를 추출한 결과를 도시하고 있고, 도 6의 (b)에서는 하나의 문자열(즉, 전처리 후의 텍스트)에 대해 형태소 분석을 수행하여 키워드를 추출한 결과를 도시하고 있다. However, when a keyword is extracted from one character string, an error may occur in which the keyword that was normally output from the text that has not been preprocessed is tokenized by one syllable after the preprocessing. Figure 6 (a) shows the result of extracting keywords by performing morpheme analysis on the extracted text (i.e., text before pre-processing), and in Figure 6 (b), one character string (i.e., text after pre-processing) The result of extracting keywords by performing morpheme analysis on is shown.

따라서, 본 발명의 일 실시예에 따르면, 프로세서부(130)는 사진 기록물에 대해 문자 인식을 수행하여 사진 기록물 상에 존재하는 텍스트를 추출하고, 추출된 텍스트를 모두 포함하고 띄어쓰기가 없는 하나의 문자열을 생성하며, 추출된 텍스트 및 하나의 문자열 모두에 대해 형태소 분석을 수행하여 키워드를 추출할 수 있다. 도 7에서는 추출된 텍스트 및 하나의 문자열 모두에 대해 형태소 분석을 수행하여 키워드를 추출하는 일례를 도시하고 있다. Therefore, according to an embodiment of the present invention, the processor unit 130 extracts text existing on the photographic recording by performing character recognition on the photographic recording, and includes all the extracted texts, and includes a single character string without spaces. Is generated, and a keyword can be extracted by performing a morpheme analysis on both the extracted text and one string. 7 shows an example of extracting keywords by performing morpheme analysis on both the extracted text and one character string.

다음으로, "사진 속 객체"과 관련하여, 프로세서부(130)는 사진 기록물을 미리 학습된 딥 러닝 기반의 알고리즘 모델에 입력하여 사진 기록물 상에 존재하는 객체의 정보를 추출할 수 있다. 이 때, 딥 러닝 기반의 알고리즘 모델 중에서 객체를 인식하는 알고리즘 모델은 R-CNN(Regions-CNN), R-CNN에서 파생된 신경망(Fast R-CNN, FASTER R-CNN 등), YOLO(You only Look Once), SSD(Single Shot MultiBox Detector)를 포함할 수 있다. Next, with respect to the "object in a picture", the processor unit 130 may extract information on an object existing on the photographic recording by inputting the photographic recording into a pre-learned deep learning-based algorithm model. At this time, among the algorithm models based on deep learning, the algorithm model that recognizes the object is R-CNN (Regions-CNN), a neural network derived from R-CNN (Fast R-CNN, FASTER R-CNN, etc.), and YOLO (You only). Look Once), SSD (Single Shot MultiBox Detector) may be included.

보다 상세하게, CNN(Convolutional Neural Network)은 이미지의 특징 추출을 목적으로 만들어진 딥 러닝 알고리즘이고, R-CNN 내지 R-CNN에서 파생된 신경망은 영역을 제안하여 보다 빠른 연산이 가능한 CNN이다. 그리고, YOLO은 하나의 회귀 문제를 경계 박스와 클래스 확률에서 제외하고, 이미지를 하나의 객체로 선택하며, 하나의 길쌈 회선망에 여러 개의 경계 박스를 두어 경계 확률을 산출하는 알고리즘이고, SSD는 화면의 대상들을 다중의 박스로 인식해 통일된 프레임워크에서 인식을 수행하는 알고리즘이다. 상기한 알고리즘들은 당업자에게 널리 알려진 것이므로, 상세한 설명은 생략하기로 한다. In more detail, CNN (Convolutional Neural Network) is a deep learning algorithm created for the purpose of extracting features of an image, and neural networks derived from R-CNN to R-CNN are CNNs that can perform faster computation by proposing regions. YOLO is an algorithm that excludes one regression problem from the bounding box and class probability, selects an image as one object, and calculates the boundary probability by placing several bounding boxes on one convolutional network. It is an algorithm that recognizes objects as multiple boxes and performs recognition in a unified framework. Since the above algorithms are widely known to those skilled in the art, detailed descriptions will be omitted.

한편, 상기에서 설명한 객체 정보 추출 과정에는 사전에 정의되지 않아 인식이 되지 않는 새로운 객체가 사진 기록물에 존재할 수 있다. 따라서, 본 발명에서는 새로운 객체를 인식하기 위해 추가적인 학습이 수행된다. 이 때, 새로운 객체가 포함된 복수 개의 이미지 각각에 대해, 새로운 객체를 둘러싸는 경계 박스를 표시하고, 새로운 객체의 이름 정보가 포함되고 경계 박스가 표시된 복수 개의 이미지를 트레이닝 데이터로 이용한다. Meanwhile, in the process of extracting object information described above, a new object that is not previously defined and thus cannot be recognized may exist in the photographic record. Therefore, in the present invention, additional learning is performed to recognize a new object. In this case, for each of the plurality of images including the new object, a bounding box surrounding the new object is displayed, and a plurality of images including name information of the new object and displaying the bounding box are used as training data.

다음으로, "사진에 표시된 사람"과 관련하여, 프로세서부(130)는 사진 기록물을 미리 학습된 딥 러닝 기반의 알고리즘 모델 중 얼굴 인식 알고리즘 모델에 입력하여 사진 기록물 상에 존재하는 특정 인물의 정보를 추출할 수 있다. 이 때, 얼굴 인식 알고리즘 모델은 VGGFace, FaceNet, NAN(Neural Aggregation Network)를 포함할 수 있다. Next, with respect to the "person displayed in the picture", the processor unit 130 inputs the photographic recording into a face recognition algorithm model among the pre-learned deep learning-based algorithm models to provide information on a specific person present on the photographic recording. Can be extracted. In this case, the face recognition algorithm model may include VGGFace, FaceNet, and NAN (Neural Aggregation Network).

보다 상세하게, VGGFace는 5개의 컨볼루션 층으로 구성된 신경망 구조를 사용하여 얼굴을 인식하는 딥러닝 알고리즘이며, FaceNet은 동일한 인물 사진에서 추출한 특징들 사이의 유클리디언(Euclidean) 거리는 다른 인물 사진의 거리보다 작다는 특징에 기반하여 얼굴을 인식하는 딥러닝 알고리즘이다. 또한, NAN(Neural Aggregation Network)은 비디오의 여러 개 프레임에서 단일 특징을 추출하여 얼굴을 인식하는 딥러닝 알고리즘이다. 상기한 알고리즘들은 당업자에게 널리 알려진 것이므로, 상세한 설명은 생략하기로 한다. In more detail, VGGFace is a deep learning algorithm that recognizes faces using a neural network structure composed of five convolutional layers, and FaceNet is a Euclidean distance between features extracted from the same portrait picture. It is a deep learning algorithm that recognizes faces based on the feature of being smaller. In addition, NAN (Neural Aggregation Network) is a deep learning algorithm that recognizes a face by extracting a single feature from several frames of a video. Since the above algorithms are widely known to those skilled in the art, detailed descriptions will be omitted.

요컨대, 본 발명은 사진 기록물에 대한 메타 데이터를 상기에서 설명한 정보들과 표준화함으로써 각 단체들 간의 사진 기록물의 호환을 가능하게 하고, 메타데이터의 정보 중 일부가 자동으로 입력되며, 사진 기록물을 보다 효율적으로 저장 및 관리하고, 검색할 수 있는 장점이 있다. In short, in the present invention, by standardizing the meta data of the photographic record with the information described above, it enables compatibility of the photographic record between each group, and some of the information of the meta-data is automatically input, and the photographic record is more efficient. It has the advantage of being able to store, manage, and search by.

또한, 본 발명의 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 일 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Further, the embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Examples of program instructions such as magneto-optical, ROM, RAM, flash memory, etc., can be executed by a computer using an interpreter as well as machine code such as those made by a compiler. Contains high-level language code. The above-described hardware device may be configured to operate as one or more software modules to perform the operation of the embodiments of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다. As described above, in the present invention, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but these are provided only to help the general understanding of the present invention, and the present invention is not limited to the above embodiments, Anyone of ordinary skill in the field to which the present invention pertains can make various modifications and variations from this description. Therefore, the spirit of the present invention is limited to the described embodiments and should not be defined, and all things that are equivalent or equivalent to the claims as well as the claims to be described later fall within the scope of the spirit of the present invention. .

Claims (12)

프로세서가 포함된 장치에서 수행되는 사진 기록물의 저장 방법에 있어서,
복수의 사진 기록물 각각에 대한 메타 데이터를 생성하는 단계; 및
상기 복수의 사진 기록물을 대응되는 상기 메타 데이터와 매칭시켜 저장하는 단계;를 포함하되,
상기 메타 데이터를 생성하는 단계는,
상기 사진 기록물에 대해 사진 기록물에서 문자 인식을 통해 키워드를 추출하는 단계; 및
상기 사진 기록물에 미리 학습된 딥 러닝 기반의 알고리즘 모델을 적용하여 상기 사진 기록물 상에 존재하는 객체 정보 및 인물 정보를 추출하는 단계
를 포함하고,
상기 키워드를 추출하는 단계는,
상기 사진 기록물에 대해 문자 인식을 수행하여 상기 사진 기록물 상에 존재하는 텍스트를 추출하고, 상기 추출된 텍스트를 모두 포함하고 띄어쓰기가 없는 하나의 문자열을 생성하며, 상기 추출된 텍스트 및 상기 하나의 문자열에 대해 형태소 분석을 수행하여 상기 키워드를 추출하는 것을 특징으로 하는 사진 기록물의 저장 방법.
A method of storing photographic records performed in a device including a processor,
Generating metadata for each of the plurality of photographic records; And
Matching the plurality of photographic records with the corresponding meta data and storing; Including,
Generating the meta data,
Extracting a keyword for the photographic recording through character recognition from the photographic recording; And
Extracting object information and person information existing on the photographic recording by applying a pre-learned deep learning-based algorithm model to the photographic recording
Including,
The step of extracting the keyword,
Character recognition is performed on the photographic record to extract text present on the photographic record, and a single character string including all the extracted texts and no spaces is generated, and the extracted text and the single character string are And extracting the keyword by performing a morpheme analysis on the photographic record.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 딥 러닝 기반의 알고리즘 모델 중 객체 인식 알고리즘 모델은 R-CNN(Regions-CNN), R-CNN에서 파생된 신경망, YOLO(You only Look Once), SSD(Single Shot MultiBox Detector)를 포함하는 것을 특징으로 하는 사진 기록물의 저장 방법.
The method of claim 1,
Among the deep learning-based algorithm models, the object recognition algorithm model includes R-CNN (Regions-CNN), a neural network derived from R-CNN, YOLO (You Only Look Once), and SSD (Single Shot MultiBox Detector). How to save photo records
제1항에 있어서,
상기 객체 정보 및 인물 정보를 추출하는 단계에서,
미리 학습되지 않은 새로운 객체가 상기 사진 기록물에 존재하는 경우, 상기 새로운 객체의 이름 정보가 포함되고 새로운 객체를 둘러싸는 경계 박스가 표시된 복수 개의 이미지를 트레이닝 데이터를 이용하여 상기 딥 러닝 기반의 알고리즘 모델 중 객체 인식 알고리즘 모델이 추가적으로 학습되는 것을 특징으로 하는 사진 기록물의 저장 방법.
The method of claim 1,
In the step of extracting the object information and person information,
When a new object that has not been learned in advance exists in the photographic record, a plurality of images including the name information of the new object and displaying a bounding box surrounding the new object are selected from the deep learning-based algorithm model using training data. An object recognition algorithm model is additionally learned.
제1항에 있어서,
상기 딥 러닝 기반의 알고리즘 모델 중 얼굴 인식 알고리즘 모델은 VGGFace, FaceNet, NAN(Neural Aggregation Network)를 포함하는 것을 특징으로 하는 사진 기록물의 저장 방법.
The method of claim 1,
Among the deep learning-based algorithm models, facial recognition algorithm models include VGGFace, FaceNet, and NAN (Neural Aggregation Network).
제1항에 있어서,
상기 메타 데이터는, 상기 사진 기록물의 제목, 상기 사진 기록물의 촬영자, 상기 사진 기록물의 촬영일, 상기 사진 기록물의 촬영 장소, 상기 사진 기록물의 설명, 상기 사진 기록물에서 수행된 이벤트의 이름, 상기 사진 기록물의 원본 사진 파일의 이름인 원화 번호, 상기 사진 기록물을 등록하는 생성자, 상기 사진 기록물의 가로 및 세로 사이즈, 상기 사진 기록물이 상기 장치 내에서 저장된 위치, 상기 사진 기록물의 파일 사이즈, 상기 사진 기록물의 이미지 압축 포멧, 상기 사진 기록물의 카테고리, 상기 사진 기록물의 조회수를 더 포함하는 것을 특징으로 하는 사진 기록물의 저장 방법.
The method of claim 1,
The metadata may include a title of the photographic record, a photographer of the photographic record, a photographing date of the photographic record, a photographing location of the photographic record, a description of the photographic record, a name of an event performed on the photographic record, and the photographic record. The original picture number, which is the name of the original photo file of, the creator registering the photo record, the horizontal and vertical size of the photo record, the location where the photo record is stored in the device, the file size of the photo record, and the image of the photo record. And a compression format, a category of the photographic record, and number of views of the photographic record.
제1항에 있어서,
상기 메타 데이터는, 상기 사진 기록물의 검색 시 사용되는 것을 특징으로 하는 사진 기록물의 저장 방법.
The method of claim 1,
The metadata is used when searching for the photographic recording.
컴퓨터에서 판독 가능한 명령을 저장하는 메모리; 및
상기 명령을 실행하도록 구현되는 프로세서:를 포함하되,
상기 프로세서는, 복수의 사진 기록물 각각에 대한 메타 데이터를 생성하고, 상기 복수의 사진 기록물을 대응되는 상기 메타 데이터와 매칭시켜 저장하도록 제어하되,
상기 프로세서는, 상기 사진 기록물에 대해 사진 기록물에서 문자 인식을 통해 키워드를 추출하고, 상기 사진 기록물에 미리 학습된 딥 러닝 기반의 알고리즘 모델을 적용하여 상기 사진 기록물 상에 존재하는 객체 정보 및 인물 정보를 추출하여 상기 메타 데이터를 생성하고,
상기 프로세서는, 상기 사진 기록물에 대해 문자 인식을 수행하여 상기 사진 기록물 상에 존재하는 텍스트를 추출하고, 상기 추출된 텍스트를 모두 포함하고 띄어쓰기가 없는 하나의 문자열을 생성하며, 상기 추출된 텍스트 및 상기 하나의 문자열에 대해 형태소 분석을 수행하여 상기 키워드를 추출하는 것을 특징으로 하는 단말 장치.
A memory for storing computer-readable instructions; And
Processor embodied to execute the instruction: including,
The processor controls to generate metadata for each of a plurality of photographic records, and to match and store the plurality of photographic recordings with the corresponding metadata,
The processor extracts a keyword from the photographic record through character recognition for the photographic record, and applies a pre-learned deep learning-based algorithm model to the photographic record to obtain object information and person information existing on the photographic record. Extract and generate the metadata,
The processor performs character recognition on the photographic record to extract text present on the photographic record, generates a single character string including all the extracted texts and without spaces, and generates the extracted text and the A terminal device comprising extracting the keyword by performing morpheme analysis on one character string.
삭제delete 제10항에 있어서,
상기 메타 데이터는, 상기 사진 기록물의 제목, 상기 사진 기록물의 촬영자, 상기 사진 기록물의 촬영일, 상기 사진 기록물의 촬영 장소, 상기 사진 기록물의 설명, 상기 사진 기록물의 원본 사진 파일의 이름인 원화 번호, 상기 사진 기록물을 등록하는 생성자, 상기 사진 기록물의 가로 및 세로 사이즈, 상기 사진 기록물이 상기 장치 내에서 저장된 위치, 상기 사진 기록물의 파일 사이즈, 상기 사진 기록물의 이미지 압축 포멧, 상기 사진 기록물의 카테고리, 상기 사진 기록물의 조회수를 더 포함하는 것을 특징으로 하는 단말 장치.
The method of claim 10,
The metadata may include a title of the photographic record, a photographer of the photographic record, a photographing date of the photographic record, a photographing location of the photographic record, a description of the photographic record, an original picture number that is a name of an original photo file of the photographic record, Creator registering the photographic record, the horizontal and vertical size of the photographic record, the location where the photographic record is stored in the device, the file size of the photographic record, the image compression format of the photographic record, the category of the photographic record, the Terminal device, characterized in that it further comprises the number of views of the photographic record.
KR1020180169835A 2018-12-26 2018-12-26 Method for storing photo recording using metadata and terminals device for performing the method KR102209316B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180169835A KR102209316B1 (en) 2018-12-26 2018-12-26 Method for storing photo recording using metadata and terminals device for performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180169835A KR102209316B1 (en) 2018-12-26 2018-12-26 Method for storing photo recording using metadata and terminals device for performing the method

Publications (2)

Publication Number Publication Date
KR20200084445A KR20200084445A (en) 2020-07-13
KR102209316B1 true KR102209316B1 (en) 2021-01-29

Family

ID=71570788

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180169835A KR102209316B1 (en) 2018-12-26 2018-12-26 Method for storing photo recording using metadata and terminals device for performing the method

Country Status (1)

Country Link
KR (1) KR102209316B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006164008A (en) * 2004-12-09 2006-06-22 Matsushita Electric Ind Co Ltd Image retrieval device and image retrieval method
JP2009217742A (en) * 2008-03-12 2009-09-24 Fujifilm Corp Metadata attachment method, device, and metadata attachment program
JP2009217741A (en) * 2008-03-12 2009-09-24 Fujifilm Corp Metadata attachment method, device, and metadata attachment program
KR101887216B1 (en) * 2017-11-24 2018-08-09 한태재 Image Reorganization Server and Method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006164008A (en) * 2004-12-09 2006-06-22 Matsushita Electric Ind Co Ltd Image retrieval device and image retrieval method
JP2009217742A (en) * 2008-03-12 2009-09-24 Fujifilm Corp Metadata attachment method, device, and metadata attachment program
JP2009217741A (en) * 2008-03-12 2009-09-24 Fujifilm Corp Metadata attachment method, device, and metadata attachment program
KR101887216B1 (en) * 2017-11-24 2018-08-09 한태재 Image Reorganization Server and Method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Yang, Jiaolong, et al. "Neural aggregation network for video face recognition." Proceedings of the IEEE conference on computer vision and pattern recognition. (2017.08.02. 공개)*

Also Published As

Publication number Publication date
KR20200084445A (en) 2020-07-13

Similar Documents

Publication Publication Date Title
US20180357211A1 (en) Constructing a Narrative Based on a Collection of Images
EP2565804B1 (en) Text-based searching of image data
US11580763B2 (en) Representative document hierarchy generation
US10803253B2 (en) Method and device for extracting point of interest from natural language sentences
CN111444723B (en) Information extraction method, computer device, and storage medium
US20200104350A1 (en) Information extraction from open-ended schema-less tables
US10803252B2 (en) Method and device for extracting attributes associated with centre of interest from natural language sentences
US9852217B2 (en) Searching and ranking of code in videos
US10210211B2 (en) Code searching and ranking
US10652454B2 (en) Image quality evaluation
US20200312297A1 (en) Method and device for extracting factoid associated words from natural language sentences
US20140348400A1 (en) Computer-readable recording medium storing program for character input
US20220222292A1 (en) Method and system for ideogram character analysis
CN112699758B (en) Sign language translation method, device, computer equipment and medium for dynamic gesture recognition
US10699458B2 (en) Image editor for merging images with generative adversarial networks
WO2023108980A1 (en) Information push method and device based on text adversarial sample
US11854285B2 (en) Neural network architecture for extracting information from documents
US11636312B2 (en) Systems and methods for rapid development of object detector models
US20230004830A1 (en) AI-Based Cognitive Cloud Service
US20220335243A1 (en) Cognitive generation of html pages based on video content
Li et al. Screencast tutorial video understanding
KR102209316B1 (en) Method for storing photo recording using metadata and terminals device for performing the method
CN113094538A (en) Image retrieval method, device and computer-readable storage medium
CN110020120B (en) Feature word processing method, device and storage medium in content delivery system
CN112800771B (en) Article identification method, apparatus, computer readable storage medium and computer device

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant