KR101964914B1 - 컨텐트에 대한 오토 네이밍 방법 및 이 기능을 갖는 장치와 기록 매체 - Google Patents

컨텐트에 대한 오토 네이밍 방법 및 이 기능을 갖는 장치와 기록 매체 Download PDF

Info

Publication number
KR101964914B1
KR101964914B1 KR1020120049781A KR20120049781A KR101964914B1 KR 101964914 B1 KR101964914 B1 KR 101964914B1 KR 1020120049781 A KR1020120049781 A KR 1020120049781A KR 20120049781 A KR20120049781 A KR 20120049781A KR 101964914 B1 KR101964914 B1 KR 101964914B1
Authority
KR
South Korea
Prior art keywords
content
naming
processor
autonomaming
information
Prior art date
Application number
KR1020120049781A
Other languages
English (en)
Other versions
KR20130126038A (ko
Inventor
김기호
이문주
김유리
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120049781A priority Critical patent/KR101964914B1/ko
Priority to CN201380033088.0A priority patent/CN104395877B/zh
Priority to US13/891,738 priority patent/US9639632B2/en
Priority to PCT/KR2013/004116 priority patent/WO2013169051A1/en
Priority to JP2015511370A priority patent/JP6253639B2/ja
Priority to EP13787725.4A priority patent/EP2847671A4/en
Publication of KR20130126038A publication Critical patent/KR20130126038A/ko
Priority to US15/477,676 priority patent/US10922274B2/en
Application granted granted Critical
Publication of KR101964914B1 publication Critical patent/KR101964914B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/41Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/16File or folder operations, e.g. details of user interfaces specifically adapted to file systems
    • G06F16/164File meta data generation
    • G06F16/166File name conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/61Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/11File system administration, e.g. details of archiving or snapshots
    • G06F16/113Details of archiving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/16File or folder operations, e.g. details of user interfaces specifically adapted to file systems
    • G06F16/164File meta data generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/908Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/448Execution paradigms, e.g. implementations of programming paradigms
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording

Abstract

본 발명은 사용자가 컨텐트를 직관적으로 식별하거나 검색할 수 있는 네임을 용이하게 생성하기 위한 컨텐트에 대한 오토 네이밍 방법 및 이러한 기능을 갖는 장치와 컴퓨터로 읽을 수 있는 기록 매체를 제공한다. 본 발명의 바람직한 실시 예에 따른 컨텐트에 대한 오토 네이밍 방법은, 컨텐트에 대한 오토 네이밍 명령을 수신하는 단계; 서로 다른 컨텐트 타입에 따라 서로 다른 방식을 사용하여 오토 네이밍을 수행하는 단계; 및 오토 네이밍 결과를 디스플레이 하는 단계를 포함한다.

Description

컨텐트에 대한 오토 네이밍 방법 및 이 기능을 갖는 장치와 기록 매체{Method for performing auto naming for content and apparatus having auto naming function for content, and computer readable recording medium thereof}
본 발명은 컨텐트에 대한 네이밍 방법 및 그와 같은 기능을 갖는 장치에 관한 것이다.
스마트 폰, 핸드 헬드 PC(hand-held Personal Computer), 테블릿(tablet) PC, 스마트 TV(TeleVsion)와 같은 장치에서 저장하거나 처리할 수 있는 컨텐트의 량과 종류가 증가하고 있다. 따라서 사용자 입장에서는 다양한 종류의 컨텐트를 저장하고 관리해야 하는 부담이 늘어날 수 있다. 특히, 컨텐트의 이름이 컨텐트의 내용을 제대로 반영하지 못하는 경우 사용자는 컨텐트를 일일이 재생하거나 열어보고 확인해야 하는 번거로움을 겪을 수도 있다.
본 발명이 해결하고자 하는 과제는 사용자가 컨텐트를 직관적으로 식별하거나 검색할 수 있는 네임을 용이하게 생성하기 위한 컨텐트에 대한 오토 네이밍 방법 및 이러한 기능을 갖는 장치와 컴퓨터로 읽을 수 있는 기록 매체를 제공하는데 있다.
상기 과제를 달성하기 위한 본 발명의 바람직한 실시 예에 따른 컨텐트에 대한 오토 네이밍 방법은, 컨텐트에 대한 오토 네이밍 명령을 수신하는 단계; 서로 다른 컨텐트 타입에 따라 서로 다른 방식을 사용하여 오토 네이밍을 수행하는 단계; 및 상기 오토 네이밍 결과를 디스플레이 하는 단계를 포함하는 것이 바람직하다.
상기 오토 네이밍 명령은 컨텐트 생성 프로세스, 컨텐트 전송 프로세스, 및 컨텐트 저장 프로세스중 하나의 프로세스 요청시 수신되는 것이 바람직하다.
상기 오토 네이밍을 수행하는 단계는, 상기 요청된 프로세스에 따라 서로 다른 오토 네이밍을 수행하는 것이 바람직하다.
상기 컨텐트에 대한 오토 네이밍 방법은, 상기 디스플레이 되는 오토 네이밍 결과에 대한 사용자의 자동 변경 요청에 의해 상기 오토 네이밍을 자동적으로 재 수행하는 단계를 더 포함하는 것이 바람직하다.
상기 컨텐트에 대한 오토 네이밍 방법은, 상기 오토 네이밍 결과에 인접한 위치에 자동 변경 가능 상태를 나타내는 인디케이터를 디스플레이 하는 단계; 및 상기 인디케이터에 기초한 사용자 입력 정보에 의해 상기 컨텐트에 대한 오토 네이밍을 자동적으로 재 수행하는 단계를 더 포함하는 것이 바람직하다.
상기 오토 네이밍을 자동적으로 재 수행하는 단계는, 상기 오토 네이밍 수행 조건을 변경하여 상기 오토 네이밍을 자동적으로 재 수행하는 것이 바람직하다.
상기 컨텐트에 대한 오토 네이밍 방법은, 상기 디스플레이 되는 오토 네이밍 결과에 대한 사용자의 수동 변경 요청에 의해 상기 디스플레이 되는 오토 네이밍 결과를 상기 사용자의 입력 정보로 변경하는 단계를 더 포함하는 것이 바람직하다.
상기 오토 네이밍을 수행하는 단계는, 상기 컨텐트의 타입에 따라 결정된 기준에 따라 상기 컨텐트의 프로세스에 기초한 상황에 대한 추론 정보를 얻는 단계; 및 상기 추론 정보에 기초하여 상기 컨텐트에 대한 오토 네이밍을 수행하는 단계를 포함하는 것이 바람직하다.
상기 기준은 상기 컨텐트 타입에 따른 상황인지 모델에 기초하여 결정되는 것이 바람직하다.
상기 추론 정보를 얻는 단계는 상기 기준에 따라 상기 컨텐트의 생성 상황 정보를 얻는 단계; 및 상기 컨텐트의 생성 상황 정보를 융합하여 상기 추론 정보를 얻는 단계를 포함하는 것이 바람직하다.
상기 추론 정보를 얻는 단계는, 외부 기기와의 통신에 기초하여 수행되는 것이 바람직하다.
상기 오토 네이밍을 수행하는 단계는, 상기 컨텐트에 대한 오토 네이밍 명령이 서로 다른 타입의 복수개의 컨텐트에 대한 오토 네이밍 명령임에 따라 상기 서로 다른 컨텐트 타입에 따라 서로 다른 방식을 사용하여 오토 네이밍을 수행하는 것이 바람직하다.
상기 디스플레이 되는 오토 네이밍 결과가 복수의 후보 네이밍 결과를 포함하고, 상기 컨텐트에 대한 오토 네이밍 방법은, 상기 복수의 후보 네이밍 결과중 하나에 대한 선택 신호를 수신하는 단계; 및 상기 선택 신호에 따라 선택된 후보 오토 네이밍 결과를 디스플레이 하는 단계를 더 포함하는 것이 바람직하다.
상기 과제를 달성하기 위한 본 발명의 바람직한 실시 예에 따른 컨텐트에 대한 오토 네이밍 기능을 갖는 장치는, 컨텐트에 대한 오토 네이밍을 위한 적어도 하나의 프로그램과 데이터를 저장하는 저장부; 터치 기반 사용자 입력 정보를 수신하고, 상기 컨텐트의 오토 네이밍 결과를 디스플레이 하는 터치 스크린; 및 오토 네이밍 명령을 수신함에 따라 상기 저장부에 저장된 상기 적어도 하나의 프로그램 및 데이터를 이용하여 서로 다른 컨텐트 타입에 따라 서로 다른 방식을 사용하여 오토 네이밍을 수행하고, 상기 오토 네이밍 결과를 상기 터치 스크린에 디스플레이 하는 프로세서를 포함하는 것이 바람직하다.
상기 과제를 달성하기 위한 본 발명의 바람직한 실시 예에 따른 컨텐트에 대한 오토 네이밍 기능을 갖는 장치는, 터치 기반 사용자 입력 정보를 수신하고, 컨텐트의 적어도 하나의 오토 네이밍 결과를 디스플레이 하는 터치 스크린; 상기 터치 스크린을 제어하여 사용자 인터페이스를 제공하는 적어도 하나의 프로세서; 상기 프로세서에 의해 실행 가능하도록 구성된 오토 네이밍을 위한 적어도 하나의 프로그램과 데이터를 저장하는 저장부를 포함하고, 상기 프로그램은, 컨텐트에 대한 오토 네이밍 명령을 수신하고, 서로 다른 컨텐트 타입에 따라 서로 다른 방식을 사용하여 오토 네이밍을 수행하고, 상기 적어도 하나의 오토 네이밍 결과를 디스플레이 하는 명령어를 포함하는 것이 바람직하다.
상기 과제를 달성하기 위한 본 발명의 실시 예에 따른 컨텐트에 대한 오토 네이밍 방법을 실행하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 상기 컨텐트에 대한 오토 네이밍 방법은, 상술한 컨텐트에 대한 오토 네이밍 방법과 같이 수행된다.
도 1은 본 발명의 바람직한 일 실시 예에 따른 컨텐트에 대한 오토 네이밍 기능을 갖는 장치의 기능 블로도와 외부 기기를 설명하기 위한 도면이다.
도 2는 도 1에 도시된 저장부에 저장되는 프로그램 및/또는 명령어 세트의 구성 예이다.
도 3은 본 발명의 바람직한 다른 실시 예에 따른 컨텐트에 대한 오토 네이밍 방법의 동작 흐름도이다.
도 4는 도 3의 오토 네이밍 프로세스에 대한 상세한 동작 흐름도이다.
도 5는 도 4의 결정된 기준에 따라 추론 정보를 얻는 프로세스에 대한 상세한 동작 흐름도이다.
도 6은 본 발명의 바람직한 다른 실시 예에 따른 컨텐트에 대한 오토 네이밍 방법의 동작 흐름도이다.
도 7a, 도 7b 및 도 8은 도 1의 터치 스크린에 디스플레이 되는 오토 네이밍 결과가 변경되는 화면의 예이다.
도 9는 하나의 컨텐트에 복수의 후보 오토 네이밍이 디스플레이 되고, 이중 하나를 선택하는 경우의 화면의 예이다.
도 10은 본 발명의 바람직한 다른 실시 예에 따른 컨텐트에 대한 오토 네이임 기능을 수행하는 장치와 서버간의 동작 흐름도이다.
도 11은 본 발명의 바람직한 다른 실시예에 따른 컨텐트에 대한 오토 네이밍 방법의 동작 흐름도이다.
도 12는 본 발명의 바람직한 다른 실시 에에 따른 컨텐트에 대한 오토 네이밍 방법의 동작 흐름도이다.
도 13은 본 발명의 바람직한 또 다른 실시 예에 따른 오토 네이밍 방법의 동작 흐름도이다.
도 14는 본 발명의 바람직한 다른 실시 예에 따른 오토 네이밍 기능을 갖는 장치의 기능 블록도와 외부 기기를 설명하기 위한 도면이다.
도 15는 도 14에 도시된 저장부에 저장된 소프트웨어 및/또는 명령어 세트의 구성 예이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 본 출원에서 사용한 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나 이는 당 분야에 종사하는 기술자의 의도, 판례, 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 예를 들어 명세서 전반에서 컨텐트(content)는 컨텐츠(contents)로 표현될 수 있다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전반에서 컨텐트(content)는 이미지, 음성, 음향, 및 문자 등을 디지털 형식으로 제작한 것을 의미한다. 이러한 컨텐트의 타입은 동영상, 사진, 전자 문서, 전자 책, 및 오디오 등으로 나뉠 수 있다. 그러나 디지털 컨텐트의 경우에 여러 타입의 컨텐트들을 하나의 컨텐트로 결합하는 것이 가능하므로, 컨텐트 타입은 상술한 바로 제한되지 않는다. 즉, 모바일 메신저, 인터넷 전화, 트위터, 블로그 등의 소셜 네트워크 서비스 기반의 컨텐트, 및 어플리케이션 기반의 컨텐트는 다양한 타입의 컨텐트를 결합할 수 있는 환경에서 제작될 수 있다. 따라서 컨텐트의 타입은 소셜 네트워크 서비스 기반 또는 어플리케이션 기반으로 정의될 수 있다.
어플리케이션 기반의 컨텐트는 예를 들어 미니 다이어리 어플리케이션, 일정 관리 어플리케이션, 이메일 어플리케이션, 이미지 관리 어플리케이션, 브라우징 어플리케이션 등 컨텐트를 생성 또는/및 저장 또는/및 전송할 수 있는 다양한 어플리케이션 기반의 컨텐트를 포함한다.
명세서 전반에서 컨텐트는 파일 형태로 관리될 수 있다. 따라서 컨텐트 타입은 컨텐트 생성, 컨텐트 저장, 또는 컨텐트 전송시 컨텐트에 부여되는 확장자(extension)에 기초하여 결정될 수 있다. 예를 들어, 컨텐트의 확장자가 'jpg'인 경우에 컨텐트 타입은 사진으로, 확장자가 'htm'인 경우에 컨텐트 타입은 이메일로, 확장자가 'ac3'일 때 컨텐트 타입은 오디오로, 확장자가 'hwp'일 때 컨텐트 타입은 한글 전자 문서로, 확장자가 'txt'일 때 컨텐트 타입은 메모로, 확장자가 'mpeg'일 때 컨텐트 타입은 MPEG 동영상으로 결정될 수 있으나, 컨텐트 타입을 결정하는 방식은 상술한 바로 제한되지 않는다.
명세서 전반에서 컨텐트에 대한 오토 네이밍(auto naming)은 사용자가 컨텐트를 직관적으로 식별하고 검색할 수 있는 네임을 컨텐트에 자동으로 붙이는 것을 의미한다. 또한, 컨텐트에 대한 오토 네이밍은 컨텐트 타입과 요청된 컨텐트에 대한 프로세스에 따라 각기 다르게 수행될 수 있다. 컨텐트에 대한 프로세스는 컨텐트 생성 프로세스, 컨텐트 전송 프로세스, 및 컨텐트 저장 프로세스를 포함할 수 있으나 이로 제한되지 않는다.
상술한 컨텐트에 대한 오토 네이밍은 기존에 네임이 설정된 컨텐트에 대한 네임을 변경하고자 할 때에도 적용될 수 있다. 예를 들어, 이미 생성된 컨텐트를 다른 기기로 전송하고자 할 때, 설정된 네임을 변경하기 위해 오토 네이밍을 수행할 수 있다. 이 때, 컨텐트에 대한 전송 요청에 따라 컨텐트 생성시 오토 네이밍과 서로 다른 기준으로 오토 네이밍이 수행될 수 있다. 예를 들어, 컨텐트 생성 및 저장시에는 컨텐트를 생성 및 저장한 장치의 사용자 기준으로 컨텐트에 대한 오토 네이밍을 수행하는 반면에 컨텐트 전송시에는 컨텐트를 수신하는 사용자 기준으로 컨텐트에 대한 오토 네이밍을 수행할 수 있다. 상기 컨텐트에 대한 오토 네이밍시 서로 다른 기준은 서로 다른 방식으로 이해될 수 있다.
또한, 본 발명의 바람직한 실시 예에 따른 컨텐트에 대한 오토 네이밍은 어플리케이션 프로그램과 같이 네임이 설정되어 있으나 설정된 네임을 변경하고자 할 때에도 적용될 수 있다. 어플리케이션 프로그램의 네임을 변경하고자 할 때에는 어플리케이션 프로그램의 속성 정보를 이용하여 오토 네이밍할 수 있다.
명세서 전반에서 언급되는 오토 네이밍 결과는 사용자가 직관적으로 인식할 수 있는 자연어로 발생될 수 있다. 따라서 오토 네이밍 결과는 오토 네이밍 정보로 언급될 수 있다. 컨텐트에 대한 오토 네이밍은 컨텐트에 대한 오토 태깅(tagging) 또는 컨텐트에 대한 제목 자동 생성으로 언급될 수 있다.
명세서 전반에서 언급되는 오토 네이밍 명령은 사용자의 직접적인 입력에 의해 수신될 수 있으나 사용자의 컨텐트의 생성 요청, 컨텐트의 저장 요청, 또는 컨텐트의 전송 요청에 따라 오토 네이밍 명령이 수신된 것으로 인식될 수 있다.
명세서 전반에서의 사용자의 입력 정보는 사용자의 제스처(gesture)에 의존할 수 있다. 사용자의 제스처는 입력 장치에 따라 정의될 수 있다. 즉, 입력 장치가 터치스크린 기반일 때, 사용자의 제스처는 예를 들어 탭(tap), 터치 앤 홀드(touch and hold), 더블 탭(double tap), 드래그(drag), 패닝(panning), 플릭(flick), 드래그 앤 드롭(drag and drop), 및 스윕(sweep) 등을 포함할 수 있으나 이로 제한되지 않는다. 또한, 사용자의 입력 정보는 터치 스크린상에 디스플레이 되는 가상 키보드에 기초하여 입력되는 정보를 포함할 수 있다.
터치스크린 기반의 사용자의 제스처는 사용자의 손가락 또는 터치 도구(예를 들어, stylus pen)를 이용하여 수행될 수 있다. 입력 장치가 카메라 기반일 때, 사용자의 제스처는 카메라를 이용하여 촬영된 영상 기반의 공간 체스처(space gesture)를 포함할 수 있다.
입력 장치가 물리적 버튼, 다이얼, 슬라이더 스위치, 조이스틱, 클릭 휠 등을 포함할 때, 사용자의 입력 정보는 입력 장치에 대한 사용자의 물리적인 제어에 의존할 수 있다.
이하, 본 발명의 실시 예를 첨부 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 바람직한 일 실시 예에 따른 컨텐트에 대한 오토 네이밍 기능을 갖는 장치의 기능 블록도와 외부 기기를 설명하는 도면이다.
도 1을 참조하면, 장치(100)는 컨텐트를 생성, 저장, 전송할 수 있고, 외부 기기(120)와 연결이 가능한 전자 기기를 포함한다. 전자 기기는 예를 들어, 휴대 단말(Portable Device), 스마트 폰(Smart Phone), 스마트 TV, PC(Personal Computer), 데스크탑(Desktop) PC, 노트북(Notebook), 스마트 보드(Smart Board), 태블릿(Tablet) PC, 이동 단말기(Mobile Device), 핸드헬드(handheld) 기기 또는 핸드헬드 컴퓨터, 미디어 플레이어, PDA(Personal Digital Assistant), 디지털 CE(Consumer Electronics) 기기를 포함할 수 있다. 디지털 CE 기기는 DTV(Digital Television), IPTV(Internet Protocol Television)를 포함할 수 있다.
장치(100)는 사용자 입력부(101), 센싱부(102), 터치 스크린(touch screen)(103), 카메라(104), 오디오 입력부(105), 오디오 출력부(106), 저장부(107), 통신부(108), 포트(109), 프로세서(110), 및 전원부(111)를 포함한다. 장치(100)의 구성은 도 1에 도시된 바로 제한되지 않는다.
사용자 입력부(101)는 장치(100)의 동작을 제어하기 위한 입력 데이터(또는 제어 데이터) 및 상술한 사용자의 입력 정보를 발생시킨다. 사용자 입력부(101)는 키 패드(key pad), 돔 스위치(dome switch), 마우스를 대신할 수 있는 터치 패드(touch pad), 조그 휠(Jog wheel), 조그 스위치(Jog switch), 하드웨어(H/W) 버튼 등을 포함할 수 있다.
센싱부(102)는 장치(100)의 위치, 유저의 접촉 유무, 장치(100)의 방위, 장치(100)의 가속 또는 감속 등과 같이 장치(100)의 현재 상태를 감지하여 장치(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 센싱부(102)는 근접 센서를 포함할 수 있다.
근접 센서는 사전에 설정된 검출면에 접근하는 물체, 또는 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로 투과형 광전 센서, 직접 반사형 광전 센서, 미러 발사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.
터치 스크린(103) 기반의 사용자 입력 정보는 사용자의 제스처에 의존하는 사용자의 요청(request) 또는 사용자의 선택(selection)에 따라 발생될 수 있다. 사용자의 제스처는 터치 횟수, 터치 패턴, 터치 면적, 및 터치 강도의 다양한 조합에 의해 상술한 사용자 제스처의 예들과 같이 다양하게 정의될 수 있다. 터치 스크린(103)에 대한 사용자의 손가락에 기초한 터치는 터치 스크린(103)의 터치 영역을 터치할 수 있는 사용자의 신체 부위에 기초하는 것으로 이해될 수 있다.
또한 터치 스크린(103)은 터치 스크린(103)의 터치 또는 근접 터치 또는 이미지 센서를 감지하기 위한 다양한 센서가 구비될 수 있다. 터치 스크린(103)에 구비되는 센서는 터치 스크린(103)상에서의 사용자의 제스처 또는 패턴을 감지하는 센서를 의미한다. 따라서 터치 스크린(103)은 상술한 터치 기반의 드래그, 플릭, 탭, 터치 앤 홀드, 더블 탭, 패닝, 스윕(sweep) 등과 근접 센서에 기초한 사용자 제스처 또는 패턴을 센싱한 신호를 발생시킬 수 있다.
터치 스크린(103)의 터치를 감지하는 센서의 일례로 촉각 센서가 있다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다. 터치 스크린(103)의 터치(touch)는 패널에 포인터(pointer)가 터치된 경우이다. 터치는 멀티 터치를 포함할 수 있다. 터치 스크린(103)의 근접 터치(proximity-touch)는 포인터가 터치 스크린(103)에 실제로 터치되지 않고, 터치 스크린(103)으로부터 소정 거리내에 접근된 경우이다. 포인터는 터치 스크린(103)의 특정 부분을 터치하거나 근접 터치하기 위한 도구이다. 그 일 예로, 스타일러스 펜, 손가락 또는 손가락에 대응되는 사람의 신체 부위 또는 손가락에 대응되는 도구 등이 있다. 따라서 포인터는 외부 입력 장치로 언급될 수 있다.
터치 스크린(103)은 장치(100)에서 처리되는 정보를 출력한다. 예를 들어, 터치 스크린(103)은 터치 스크린(103)에 구비된 센싱부를 통해 센싱된 사용자의 제스처 또는 터치 패턴 또는 사용자 입력부(101)를 통해 입력된 제어 데이터 또는 사용자의 입력 정보 또는 센싱부(102)를 통해 감지된 신호에 응답하는 화면을 디스플레이 한다.
터치 스크린(103)은 입력 및 출력 장치로 언급될 수 있다. 터치 스크린(103)이 입력 및 출력 장치일 때, 터치 스크린(103)에 디스플레이 되는 화면은 UI(User Interface) 또는 GUI(Graphic User Interface) 화면을 포함한다. 터치 스크린(103)은 재생되고 있는 컨텐트의 영상을 디스플레이하고, 사용자 입력 정보를 수신할 수 있다. 또한, 본 발명의 바람직한 실시 예에 따라 생성된 컨텐트와 컨텐트의 오토 네이밍 결과를 디스플레이 할 수 있다.
터치 스크린(103)은 액정 디스플레이(Liquid Crystal Display), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display), 유기 발광 다이오드(Organic Light-emitting diode), 플렉시블 디스플레이(Flexible display), 3차원 디스플레이(3D display), 및 AMOLED(Active-Matrix Organic Light-Emitting Diode) 등을 포함할 수 있으나 이로 제한되지 않는다. 터치 스크린(103)은 디스플레이로 언급될 수 있다. 터치 스크린(103)은 장치(100)의 구현 형태에 따라 2개 이상 존재할 수 있다.
카메라(104)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지 영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고 처리된 화상 프레임은 터치 스크린(103)에 표시될 수 있다. 카메라(104)에서 처리된 화상 프레임은 저장부(107)에 저장되거나 통신부(108) 또는 포트(109)를 통해 외부로 전송될 수 있다. 카메라(104)는 장치(100)의 구성에 따라 2개 이상이 구비될 수 있다. 또한, 카메라(104)는 사용자의 공간 제스처를 인식하는 입력 장치로 사용될 수 있다. 카메라(104)에 의해 얻어지는 화상 프레임은 본 발명의 바람직한 실시 예에 따른 컨텐트 생성 요청에 따라 생성된 컨텐트일 수 있다. 카메라(104)에 대한 촬영 모드에서 셔터 버튼 제어시 컨텐트 생성이 요청된 것으로 인식될 수 있다.
오디오 입력부(105)는 통화모드, 또는 녹화 모드, 또는 음성 인식 모드 등에서 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 변환하여 프로세서(110)로 전송한다. 오디오 입력부(105)는 예를 들어 마이크로폰으로 구성될 수 있다. 오디오 입력부(105)는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 포함하도록 구성될 수 있다. 오디오 입력부(105)를 이용하여 입력되는 상기 음향 신호는 본 발명의 바람직한 실시 예에 따라 생성되는 컨텐트이거나 컨텐트에 대한 오토 네이밍을 위해 입력되는 자연어 기반의 사용자 입력 정보일 수 있다. 음향 신호가 자연어 기반의 사용자 입력 정보라는 것은 음성 인식 기반의 사용자 입력 정보를 의미한다. 오디오 입력부(105)를 통해 입력된 외부의 음향 신호는 저장부(107)에 저장되거나 통신부(108) 또는 포트(109)를 통해 외부로 전송될 수 있다.
장치(100)와 사용자간의 인터페이스 기능에 따라 사용자 입력부(101), 센싱부(102), 터치 스크린(103), 카메라(104), 및 오디오 입력부(105)는 입력 장치 또는 입출력 장치로 언급될 수 있다. 예를 들어, 장치(100)와 사용자간의 유저 인터페이스 기능이 터치 인식 기능, 음성 인식 기능, 및 공간 제스처 인식 기능을 포함하는 경우에, 사용자 입력부(101), 센싱부(102), 카메라(104), 및 오디오 입력부(105)는 입력 장치로 언급되고, 터치 스크린(103)은 입출력 장치로 언급될 수 있다.
오디오 출력부(106)는 통화 모드, 또는 오디오 재생 모드 등에서 외부로부터 수신된 음향 신호 또는 오디오 신호를 출력한다. 오디오 신호 출력부(106)는 스피커로 구성될 수 있다. 오디오 출력부(106)는 컨텐트가 재생될 때, 재생되는 컨텐트에 오디오 신호가 포함되어 있으면, 재생되는 컨텐트에 포함되어 있는 오디오 신호를 출력한다. 오디오 입력부(105)와 오디오 출력부(106)는 헤드셋과 같이 일체형으로 구성될 수 있다.
저장부(107)는 후술할 프로세서(110)에서 실행 가능하도록 구성된 적어도 하나의 프로그램 및/또는 명령어 세트와 자원(resource)을 저장한다. 적어도 하나의 프로그램은 본 발명의 바람직한 실시 예에 따른 컨텐트에 대한 오토 네이밍 방법을 실행하기 위해 필요한 적어도 하나의 프로그램, 장치(100)의 오퍼레이팅 시스템(Operating System) 프로그램, 장치(100)에 설정된 어플리케이션, 및 장치(100)의 각종 기능을 수행하는데 필요한 프로그램을 포함한다.
자원은 본 발명의 바람직한 실시 예에서 언급되는 컨텐트에 대한 오토 네이밍시 사용되는 언어의 국가 정보, 각 컨텐트 타입별로 오토 네이밍을 위해 필요한 파라미터 정보, 폰북과 같은 인물 정보 데이터 베이스, 장치(100)의 사용자 정보, 장치(100)에 설정된 어플리케이션을 운영하는데 필요한 정보 및 상술한 각종 기능을 수행하는데 필요한 프로그램을 실행하는데 필요한 정보를 포함한다. 컨텐트 타입이 사진인 경우에 오토 네이밍을 위해 필요한 파라미터 정보는 예를 들어 시간, 위치 및 사진 속 객체에 대한 정보를 포함할 수 있다. 컨텐트 타입이 워드 전자 문서이거나 이메일인 경우에 오토 네이밍을 위해 필요한 파라미터 정보는 예를 들어 대표 키워드 및 작성자 정보를 포함할 수 있다.
저장부(107)는 상기 오퍼레이팅 시스템 프로그램을 비롯한 장치(100)의 각종 기능을 수행하는데 필요한 적어도 하나의 프로그램을 저장하는 저장부와 본 발명의 바람직한 실시 예에 따른 컨텐트에 대한 오토 네이밍 방법을 실행하는 하나 이상의 프로그램과 자원 및 상기 어플리케이션들을 저장하는 저장부를 독립적으로 구성할 수 있다.
저장부(107)는 고속 랜덤 액세스 메모리, 자기 디스크 저장 장치, 플래시 메모리와 같은 불휘발성 메모리 또는 다른 불휘발성 반도체 메모리를 포함할 수 있다. 따라서 저장부(107)는 메모리로 언급될 수 있다.
저장부(107)에 저장되는 적어도 하나의 프로그램 및/또는 명령어 세트는 기능에 따라 복수개의 모듈로 분류할 수 있다.
도 2는 저장부(107)에 저장되는 프로그램 및/또는 명령어 세트를 모듈별로 분류한 예이다. 도 2를 참조하면, 저장부(107)는 오퍼레이팅 시스템(201), 통신 모듈(202), 그래픽 모듈(203), GPS(Global Position System) 모듈, UI(User Interface) 모듈(205), 센싱 모듈(206), 접촉 및 움직임 모듈(207), 전원 모듈(208), 및 어플리케이션 모듈(209)을 포함하나 이로 제한되지 않는다.
도 2를 참조하면, 어플리케이션 모듈(209)은 컨텐트 재생 모듈(210), 타이머 모듈(211), 얼굴인식 모듈(212), 폰북(phone book) 모듈(213), 키워드 검출 모듈(214), 카메라 모듈(215), DMB(Digital Multimedia Broadcasting) 모듈(216), 오토 네이밍 모듈(217), 전화 모듈(218), 일정 관리 모듈(219), 이메일 모듈(220), 및 컨텐트 공유 모듈(221)을 포함하나 이로 제한되지 않는다.
오퍼레이팅 시스템(201)은 장치(100)의 일반적인 기능을 제어하고 관리하는 것으로 장치(100)내의 하드웨어 및 소프트웨어 컴포넌트(component)간의 통신을 가능하게 하는 소프트웨어 컴포넌트를 포함한다.
통신 모듈(202)은 통신부(108) 또는 포트(109)를 통한 외부 기기(120)와의 통신을 가능하게 하고, 통신부(108) 또는 포트(109)를 통해 외부 기기(120)로부터 수신된 데이터를 처리하기 위한 소프트웨어 컴포넌트(component)를 포함한다. 본 발명의 바람직한 실시 예에 따라 통신 모듈(202)은 오토 네이밍된 컨텐트를 통신부(108) 또는 포트(109)를 통해 외부 기기(120)로 전송할 수 있다. 또한, 통신 모듈(202)은 통신부(108) 또는 포트(109)를 통해 외부 기기(120)로 컨텐트에 대한 오토 네이밍을 요청하고, 이에 따라 외부 기기(120)로부터 수신되는 오토 네이밍 결과를 수신하여 터치 스크린(103)에 디스플레이 할 수 있다.
그래픽 모듈(203)은 터치 스크린(103)에 디스플레이 되는 그래픽의 밝기 조절 및 랜더링을 위한 소프트웨어 컴포넌트 및 어플리케이션 모듈(209)에서 텍스트를 입력하기 위한 가상 키보드(또는 소프트 키보드)를 제공하는 소프트웨어 컴포넌트를 포함한다.
GPS 모듈(204)은 장치(100)의 위치를 결정하고, 결정된 위치 정보를 위치 기반 서비스를 제공하는 어플리케이션에 제공하는 소프트웨어 컴포넌트를 포함한다. 예를 들어, 오토 네이밍 모듈(217)이 동작되고, 컨텐트에 대한 오토 네이밍시 위치 정보가 필요한 경우에 오토 네이밍 모듈(217)은 GPS 모듈(204)로부터 제공되는 위치 정보를 이용할 수 있다.
UI 모듈(205)은 터치 스크린(103) 기반의 UI 정보를 제공하는 어플리케이션에 필요한 UI를 제공하는 소프트웨어 컴포넌트를 포함한다.
센싱 모듈(206)은 센싱부(102) 기반의 센싱 정보를 결정하고 결정된 센싱 정보 기반의 서비스를 제공하는 어플리케이션 모듈(209)에 제공하는 소프트웨어 컴포넌트를 포함한다.
접촉 및 움직임 모듈(207)은 터치 스크린(103) 기반의 터치 접촉을 감지하고, 접촉에 기초한 움직임을 추적하여 이를 필요로 하는 어플리케이션 모듈(209)로 제공하는 소프트웨어 컴포넌트를 포함한다.
전원 모듈(208)은 오퍼레이팅 시스템(201)과 연동되어 장치(100)내의 하드웨어 컴포넌트에 대한 전원 공급을 제어하고, 터치 스크린(103)으로 공급되는 전원에 대한 절전 모드를 제어하는 소프트웨어 컴포넌트를 포함한다.
어플리케이션 모듈(209)에 포함되는 모듈들의 기능은 그 명칭으로 당업자가 직관적으로 추론할 수 있을 것으로 생각되므로, 본 발명의 바람직한 실시 예에 관련된 어플리케이션 모듈 중심으로 설명하기로 한다.
장치(100)가 컨텐트 생성 요청, 컨텐트 저장 요청, 또는 컨텐트 전송 요청에 기초한 컨텐트에 대한 오토 네이밍 명령을 수신함에 따라 프로세서(110)에 의해 오토 네이밍 모듈(217)의 동작이 시작된다. 이에 따라 오토 네이밍 모듈(217)은 서로 다른 컨텐트 타입에 따라 서로 다른 방식(way)으로 오토 네이밍을 수행하기 위하여, 컨텐트의 타입을 결정하고, 결정된 컨텐트 타입에 따라 서로 다른 방식으로 오토 네이밍을 수행하기 위해 필요한 기준이 되는 파라미터를 결정한다. 결정된 파라미터에 따라 어플리케이션 모듈중 필요한 어플리케이션 모듈로 필요한 동작을 요청한다.
예를 들어, 컨텐트가 사진이고, 결정된 파라미터가 시간, 위치, 사진속 객체인 경우에, 오토 네이밍 모듈(217)은 타이머 모듈(211), GPS 모듈(205), 및 얼굴 인식 모듈(212)과 연동하여 컨텐트가 생성 또는 저장 또는 전송되는 시점의 시간 정보, 위치 정보 및 컨텐트에 포함된 객체에 대한 정보를 얻는다. 얼굴 인식 모듈(212)에 의해 객체에 대한 정보가 얻어진 경우에, 검출된 얼굴 인식 결과에 대응되는 인물을 폰북 모듈(213)에서 검색할 수 있다. 폰북 모듈(213)에서 대응되는 인물이 검색되면, 오토 네이밍 모듈(217)은 검색된 결과에 기초한 관계 정보를 이용하여 추론 정보를 얻는다. 오토 네이밍 모듈(217)은 얻은 추론 정보에 기초하여 컨텐트에 대한 오토 네이밍을 수행하고, 수행된 결과를 그래픽 모듈(203)과 연동하여 터치 스크린(103)에 디스플레이 한다.
어플리케이션 모듈(209)에 포함되는 모듈들은 도 2에 도시된 바로 한정되지 않고, 인스턴트 메시징 모듈, 화상 회의 모듈, 이미지 관리 모듈, 브라우징 모듈, 달력 모듈, 위젯 모듈, 검색 모듈 및 워드 문서 작성 모듈 등 다양한 모듈을 더 포함하는 것으로 정의할 수 있다. 또한, 어플리케이션 모듈(209)에 포함되는 모듈들은 엔진(engine)으로 언급될 수 있다.
통신부(108)는 무선 인터넷, 무선 인트라넷, 무선 전화 네트워크, 무선 랜(LAN), 와이파이(Wi-Fi), 와이파이 다이렉트(WFD, Wi-Fi Direct), 3G(Generation), 4G(4 Generation), 블루투스(Bluetooth), 적외선 통신(IrDA, Infrared Data Association), RFID(Radio Frequency Identification), UWB(Ultra WideBand), 지그비(Zigbee), NFC(Near Field Communication)와 같은 무선 네트워크 또는 유선 인터넷과 같은 유선 네트워크를 통해 외부 기기(120)와 데이터를 송수신할 수 있도록 구성된다.
통신부(108)는 방송 수신 모듈, 이동 통신 모듈, 무선 인터넷 모듈, 유선 인터넷 모듈, 근거리 통신 모듈, 및 위치 정보 모듈중 적어도 하나를 포함할 수 있으나 이로 제한되지 않는다.
방송 수신 모듈은 방송 채널을 통하여 외부의 방송 관리 서버(미 도시됨)로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 이동 통신 모듈은 이동 통신망 상에서 기지국(미 도시됨) 및 외부기기(120)와 무선 신호를 송수신한다. 무선 신호는 음성 호 신호, 화상 통화 호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. 무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 의미한다. 유선 인터넷 모듈은 유선 인터넷 접속을 위한 모듈을 의미한다.
근거리 통신 모듈은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스, RFID, 적외선 통신, UWB, Zigbee, WFD, NFC 등이 이용될 수 있다. 위치 정보 모듈은 장치(100)의 위치를 확인하거나 얻기 위한 모듈이다. 일 예로 GPS(Global Position System) 기반 위치 정보 모듈이 있다. GPS 기반 위치 정보 모듈은 복수개의 인공위성으로부터 위치 정보를 수신한다. 위치 정보는 위도 및 경도로 표시되는 좌표 정보를 포함할 수 있다.
포트(109)는 USB(Universal Serial Bus) 포트(미 도시됨)와 같은 플러그 앤 플레이(Plug and Play) 인터페이스를 이용하여 외부 기기(120)와 데이터를 송수신할 수 있다. 플러그 앤 플레이 인터페이스는 장치(100)의 플러그에 외부 기기(120)가 꼽히며 자동으로 플레이하는 모듈을 의미한다.
전원부(111)는 장치(100)의 다양한 구성 요소에 전력을 공급한다. 전원부(111)는 배터리 및 교류 전원과 같은 하나 이상의 전원을 포함한다. 장치(100)는 전원부(111)를 포함하지 않고, 외부 전원 제공부(미 도시됨)와 연결될 수 있는 연결부(connection unit)(미 도시됨)를 포함할 수 있다.
프로세서(110)는 장치(100)의 전반적인 동작을 제어하는 것으로 하나 이상의 프로세서로 언급될 수 있다. 프로세서(110)가 하나 이상의 프로세서로 언급될 수 있는 것은 도 1의 경우에 프로세서(110)를 단일 칩 형태로 도시하였으나 장치(100)의 기능에 따라 프로세서(110)를 복수개의 프로세서로 분할하여 운영할 수 있기 때문이다.
프로세서(110)는 저장부(107)에 저장된 오퍼레이팅 시스템(201)과 각종 모듈들을 이용하여 사용자 입력부(110), 센싱부(102), 터치 스크린(103), 카메라(103), 오디오 입력부(105), 오디오 출력부(106), 저장부(107), 통신부(108), 및 포트(109)를 전반적으로 제어할 수 있다. 따라서 프로세서(110)는 제어기나 마이크로프로세서, 디지털 신호 처리기(Digital Signal Processor) 등으로 언급될 수 있다. 또한 프로세서(110)는 오퍼레이팅 시스템(201)과 UI 모듈(205)을 이용하여 사용자 입력부(110), 센싱부(102), 터치 스크린(103), 카메라(104), 및 오디오 입력부(105)를 이용하여 사용자 인터페이스를 제공할 수 있다.
프로세서(110)는 본 발명의 바람직한 실시 예에 따른 컨텐트에 대한 오토 네이밍 방법에 관련된 적어도 하나의 프로그램을 실행시킬 수 있다. 프로세서(110)는 상기 프로그램을 저장부(107)로부터 리드하여 실행시키거나 통신부(108)를 통해 연결된 외부기기(120)로부터 다운받아 실행시킬 수 있다. 이 때, 외부 기기(120)는 어플리케이션 제공 서버(미 도시됨) 또는 어플리케이션 마켓 서버로 언급될 수 있다. 그러나, 프로세서(110)는 외부 기기(120)에 저장되어 있는 오토 네이밍 방법에 관련된 적어도 하나의 프로그램을 실행시켜 오토 네이밍 결과를 수신하여 터치 스크린(103)에 디스플레이 되도록 동작할 수 있다. 프로세서(110)는 장치(100)내의 각종 기능 모듈과 프로세서(110)간의 인터페이스 기능부를 포함하는 것으로 이해될 수 있다. 본 발명의 바람직한 실시 예에 따른 컨텐츠에 대한 오토 네이밍 방법에 관련된 프로세서(110)의 동작은 후술할 도 3 내지 도 13에서 좀더 상세하게 설명하기로 한다.
외부 기기(120)는 상술한 어플리케이션 제공 서버 또는 어플리케이션 마켓 서버를 포함할 수 있고, 후술할 도 10에서의 서버(1000)와 같이 컨텐트에 대한 오토 네이밍 기능을 갖는 클라우드 서버를 포함할 수 있다. 장치(100)와 외부 기기(120)는 통신부(108)에서 정의된 통신 방식(communication way)중 하나에 기초한 네트워크를 통해 연결될 수 있다.
도 3은 본 발명의 바람직한 일 실시 예에 따른 오토 네이밍 방법의 동작 흐름도의 일 예이다. 도 3은 프로세서(110)에 의해 수행된다.
프로세서(110)는 사용자의 입력 정보에 의해 오토 네이밍 명령이 수신되면(S301), 저장부(107)에 저장된 오토 네이밍 모듈(217)을 로딩하여 오토 네이밍 기능을 스타트한다.
이에 따라 프로세서(110)는 오토 네이밍 대상 컨텐트의 타입에 따른 오토 네이밍 방식으로 컨텐트에 대한 오토 네이밍을 수행한다(S302). 단계 S302에서의 오토 네이임은 서로 다른 컨텐트의 타입에 따라 서로 다른 방식으로 오토 네이밍을 수행하는 것을 의미한다. 상기 서로 다른 방식의 오토 네이밍은 후술할 컨텐트 타입에 따라 결정된 오토 네이밍 기준에 따른 오토 네이밍을 포함한다.
오토 네이밍될 컨텐트는 상기 오토 네이밍 명령이 컨텐트 생성 요청에 의한 것인지, 컨텐트 저장 요청에 의한 것인지, 컨텐트 전송 요청에 의한 것인지에 따라 결정될 수 있다. 오토 네이밍 명령이 컨텐트 생성 요청에 의한 것이면, 상기 대상 컨텐트는 예를 들어 카메라(104)에 의해 획득된 사진 파일일 수 있다. 오토 네이밍 명령이 컨텐트 저장 요청에 의한 것이면, 상기 대상 컨텐트는 예를 들어 컨텐트 공유 모듈(221)을 이용하여 통신부(108)를 통해 수신된 동영상 파일일 수 있다. 오토 네이밍 명령이 컨텐트 전송 요청에 의한 것이면, 상기 대상 컨텐트는 예를 들어 이메일 모듈(220)을 이용하여 통신부(108)를 통해 외부로 전송되는 이메일 파일일 수 있다.
도 4는 도 3의 오토 네이밍 프로세스에 대한 상세한 동작 흐름도이다. 도 4를 참조하면, 프로세서(110)는 컨텐트 타입에 따라 오토 네이밍 기준을 결정한다(S401). 여기서 오토 네이밍 기준은 상술한 파라미터에 대응된다. 만약 상황인지(context aware)기반으로 오토 네이밍할 경우에, 상기 오토 네이밍 기준은 컨텐트 타입에 따라 결정될 수 있는 파라미터에 기초한 상황인지 모델을 의미할 수 있다. 따라서 오토 네이밍 기준은 컨텐트 타입에 따라 서로 다를 수 있다.
프로세서(110)는 결정된 오토 네이밍 기준에 따라 추론 정보를 얻는다(S402).
도 5는 도 4의 결정된 기준에 따라 추론 정보를 얻는 프로세스에 대한 상세한 동작 흐름도이다. 도 5는 상황인지 모델을 이용한 경우이다.
예를 들어 컨텐트 생성 프로세스이고, 생성된 컨텐트가 사진이면, 결정된 상황인지 모델은 컨텐트 생성 시간, 컨텐트 생성 위치, 및 컨텐트에 포함된 객체를 검출할 수 있도록 결정된다. 이와 같이 상황인지 모델이 결정된 경우에, 프로세서(110)는 결정된 상황인지 모델과 컨텐트 생성 프로세스에 기초하여 상황 정보를 얻는다(S501). 이 경우에 얻어진 상황 정보는 컨텐트 생성 시간 정보, 컨텐트 생성 위치 정보, 및 컨텐트에 포함된 객체 정보를 포함한다. 이를 위하여 프로세서(110)는 도 2에서 설명한 바와 같이 저장부(107)에 저장된 어플리케이션 모듈중에서 필요한 어플리케이션 모듈을 구동시킨다. 만약 생성된 컨텐트가 워드 전자 문서인 경우에 얻어진 상황 정보는 대표 키워드 정보와 작성자 정보를 포함할 수 있으나 이로 제한되지 않는다.
검출된 시간 정보가 2012년 3월 19일이고, 검출된 위치 정보가 위도 N 37.5에 경도 E127. 5이고, 검출된 객체가 아들인 경우에, 프로세서(110)는 각 정보를 사용자가 직관적으로 인지할 수 있는 상황 정보로 변경한다. 이 때 상황 정보는 컨텐트 생성 상황 정보를 의미할 수 있다.
즉, 상술한 검출 정보에 기초하여 상황 정보를 얻을 있는 데이터 베이스가 저장부(107)에 저장되어 있고, 상기 데이터 베이스에 저장된 시간 정보가 장치(100)가 사용되는 지역이 4계절이 있고, 3월의 경우에 봄이라는 자연어로 정의된 경우에, 프로세서(110)는 검출된 2012년 3월 19일을 '봄'으로 변경한다. 또한, 상기 데이터 베이스가 상술한 위도와 경도 정보에 대응되는 '과천시 막계동에 있는 동물원"이라는 자연어로 정의된 경우에 프로세서(110)는 검출된 상술한 위도 및 경도 정보를 '동물원'으로 변경한다. 또한, 상술한 객체에 대한 정보는 아들이라는 자연어이므로 변경하지 않는다. 도 5의 단계 S501은 컨텐트 저장 프로세스 또는 컨텐트 전송 프로세스에 대해서도 수행될 수 있다.
프로세서(110)는 '봄, 동물원, 및 아들'이라는 컨텐트 생성 상황 정보를 얻으면, 얻은 컨텐트 생성 상황 정보를 융합(fusion)하고, 융합된 결과에 대한 확률적인 추론에 의해 추론 정보를 얻는다(S502). 즉, 융합된 결과에 따라 얻어진 추론 정보는 "봄나들이, 동물원, 아들"이 될 수 있다.
추론 정보가 얻어지면, 프로세서(110)는 추론 정보에 기초하여 컨텐트에 대한 오토 네이밍을 수행한다(S403). 이 때 오토 네이밍은 추론된 정보를 단순히 나열하거나 저장부(107)에 사전에 설정된 오토 네이밍 국가 언어의 문법에 따라 추론된 정보를 재배열할 수 있다. 예를 들어, 오토 네이밍 국가 언어의 문법에 따라 "아들과 함께 동물원으로 봄나들이 가다"와 같은 자연어로 오토 네이밍을 수행할 수 있다.
프로세서(110)는 오토 네이밍 수행이 종료되면, 오토 네이밍 결과를 터치 스크린(103)에 디스플레이 한다(S303).
도 6은 본 발명의 바람직한 다른 실시 예에 따른 컨텐트에 대한 오토 네이밍 방법의 동작 흐름도이다. 도 6은 도 3의 동작 흐름도에서 디스플레이 되는 오토 네이밍 결과에 대한 사용자의 변경 요청에 따라 오토 네이밍 결과를 변경하는 기능이 추가된 예이다. 따라서, 도 6의 단계 S601 내지 단계 S603은 도 3의 단계 S301 내지 단계 S303과 동일하므로 이하 설명을 생략한다.
오토 네이밍 결과가 터치 스크린(103)에 디스플레이 될 때, 사용자 변경 요청이 수신됨에 따라 프로세서(110)는 터치 스크린(103)에 디스플레이 되는 오토 네이밍 결과를 변경한다. 오토 네이밍 재 수행에 따라 오토 네이밍 결과를 변경할 때, 상황 정보를 얻는 조건 및 추론 정보를 얻는 조건을 다르게 설정할 수 있다. 예를 들어, 상황 정보 및 추론 정보의 검색 범위 및 검색 확률에 관한 조건을 다르게 설정할 수 있다.
도 7a, 도 7b 및 도 8은 터치 스크린(103)에 디스플레이 되는 오토 네이밍 결과가 변경되는 화면 예이다.
도 7a는 사용자가 수동적으로 입력한 정보에 의해 오토 네이밍 결과가 변경되는 경우이다. 즉, 터치 스크린(103)에 화면(710)에 도시된 바와 같이 생성된 컨텐트(711)에 대한 오토 네이밍 결과(712)가 디스플레이 될 때, 오토 네이밍 결과에 대한 변경 요청이 수신되면, 프로세서(110)는 화면(710)을 화면(720)에 도시된 바와 같이 변경할 수 있다. 화면(720)을 참조하면, 변경 요청에 의해 오토 네이밍 결과(712)가 변경 가능한 상태임을 나타내도록 변경되면서 가상 키보드(721)가 디스플레이 된다. 디스플레이 되는 가상 키보드(721)를 이용하여 변경을 원하는 네임이 사용자에 의해 입력되면, 화면(730)에 도시된 바와 같이 컨텐트(711)에 대한 오토 네이밍 결과(7120)가 (731)로 변경된 화면이 디스플레이 된다.
도 7b는 사용자가 자동적인 오토 네이밍 변경을 요청한 경우와 수동 변경과 자동 변경을 선택적으로 할 수 있는 경우의 화면 예이다. 즉, 화면(740)에 도시된 바와 같이 생성된 컨텐트(711)와 생성된 컨텐트(711)에 대한 오토 네이밍 결과(712)가 디스플레이 되고, 오토 네이밍 결과(712)가 변경 가능한 상태임을 나타내는 인디케이터(741 또는 771)가 표시될 때, 표시되는 인디케이터(741 또는 771)에 기초한 변경 요청이 수신되면, 프로세서(110)는 화면(750)에 도시된 바와 같이 오토 네이밍(712)에 대한 오토 네이밍이 재 수행되는 상태를 나타내는 화면을 디스플레이하고(751), 재 수행에 따른 오토 네이밍 결과(761)를 디스플레이 한다. 상술한 인디케이터(741, 771)는 도시된 바로 제한되지 않고 다른 형태로 디스플레이 될 수 있다. 또한, 화면(750)에 표시된 재 수행(751)을 나타내는 가이드 정보는 디스플레이 되지 않거나 다른 내용 또는 다른 형태로 제공될 수 있다.
한편, 화면(780)에 도시된 바와 같이 오토 네이밍 변경을 도 7a와 같이 사용자의 입력 정보에 의해 수동적으로 할지 상술한 화면(740, 770)에서와 같이 자동으로 오토 네이밍을 재 수행할지를 사용자가 선택할 수 있는 인디케이터(781, 782)가 터치 스크린(103)에 디스플레이될 수 있다. 화면(780)에 따라 사용자는 오토 네이밍 결과를 선택적으로 변경할 수 있다.
도 8은 복수의 컨텐트에 대해 오토 네이밍을 수행하는 경우의 화면 예이다. 즉, 화면(810)에 디스플레이되는 것과 같이 다양한 타입의 컨텐트가 디스플레이 되고, 이중에 화면(820)에 도시된 블록(821)에 포함된 컨텐트에 대한 오토 네이밍 명령이 수신되면, 프로세서(110)는 각 컨텐트에 대해 컨텐트 타입에 따라 서로 다른 방식의 오토 네이밍을 수행한다. 오토 네이밍시, 컨텐트 전송 상황인지, 컨텐트 저장 상황인지에 따라 오토 네이밍은 상술한 바와 같이 다르게 수행될 수 있다.
복수의 서로 다른 타입의 컨텐트에 대한 오토 네이밍 결과는 화면(830)에 도시된 바와 같이 디스플레이 될 수 있다.
도 9는 하나의 생성된 컨텐트에 복수의 후보 오토 네이밍이 디스플레이 되고, 이중 하나를 선택하는 경우의 화면 예이다. 즉, 화면(910)은 생성된 컨텐트(811)에 대해 복수의 후보 오토 네이밍(812)이 디스플레이 되고, 후보 오토 네이밍중에서 x3,jpg 네임이 선택된 경우이다. 이에 따라 생성된 컨텐트(811)에 대한 오토 네이밍 결과는 화면(920)에 도시된 바와 같이 터치 스크린(103)상에 디스플레이 될 수 있다.
도 10은 본 발명의 바람직한 다른 실시 예에 따른 컨텐트에 대한 오토 네이임 기능을 수행하는 장치(100)와 서버(1000)간의 동작 흐름도이다. 서버(1000)는 도 1에 도시된 외부 기기(120)에 대응될 수 있다.
장치(100)와 서버(1000)가 연결된 상태(1001)에서, 장치(100)에서 오토 네이밍 명령이 수신되면(1002), 장치(100)는 컨텐트에 대한 오토 네이밍을 위해 필요한 컨텐트에 대한 정보를 검출하여 서버(1000)로 전송한다(1003). 서버(1000)로 전송되는 정보는 오토 네이밍 명령이 컨텐트 생성 요청에 의한 것인지, 컨텐트 저장 요청에 의한 것인지, 컨텐트 전송 요청에 의한 것인지를 나타내는 정보와 컨텐트 타입을 판별할 수 있는 정보를 포함할 수 있다. 또는 서버(1000)로 전송되는 정보는 상술한 요청에 관한 정보, 컨텐트 타입을 판별할 수 있는 정보 및 오토 네이밍을 위해 필요한 상술한 파라미터 정보를 포함할 수 있다.
서버(1000)는 컨텐트 정보가 수신되면(1004), 수신된 컨텐트 정보를 이용하여 컨텐트 타입에 따른 방식으로 오토 네이밍을 수행한다(1005). 오토 네이밍은 상술한 장치(100)에서의 오토 네이밍과 같이 서로 다른 컨텐트 타입에 따라 서로 다른 방식으로 오토 네이밍을 수행할 수 있다. 서버(1000)는 오토 네이밍 결과를 장치(100)로 전송한다. 이에 따라 장치(100)는 수신된 오토 네이밍 결과를 터치 스크린(1007)에 디스플레이 한다(1007).
도 11은 본 발명의 바람직한 다른 실시 예에 따른 컨텐트에 대한 오토 네이밍 방법의 동작 흐름도이다. 도 11은 도 6에 도시된 오토 네이밍 변경에 대한 동작 흐름도를 좀더 상세하게 도시하고, 컨텐트에 대한 오토 네이밍을 상황인지 모델에 따라 수행하는 경우이다.
즉, 컨텐트에 대한 오토 네이밍 명령이 수신되면(S1101), 프로세서(110)는 컨텐트 타입에 따라 상황인지 모델을 결정한다(S1102). 상황인지 모델은 상술한 컨텐트 타입에 따른 파라미터에 따라 결정될 수 있다.
프로세서(110)는 상황인지 모델을 이용하여 컨텐트에 대한 프로세스에 기초한 상황에 대한 추론 정보를 얻는다(S1103). 컨텐트에 대한 프로세스는 상술한 생성, 저장, 및 전송 프로세스를 포함한다. 단계 S1103은 서로 다른 컨텐트 타입에 따라 서로 다른 방식으로 오토 네이밍하기 위한 추론 정보를 얻는 것을 의미할 수 있다. 프로세서(110)는 추론 정보에 기초하여 컨텐트에 대해 오토 네이밍하고, 오토 네이밍 결과를 터치 스크린(103)에 디스플레이 한다(S1104).
디스플레이 되는 오토 네이밍 결과에 대한 변경 요청이 수신되지 않으면, 프로세서(110)는 디스플레이 되는 컨텐트에 대한 오토 네이밍 결과에 기초하여 컨텐트의 네임을 설정한다(S1106).
그러나, 디스플레이 되는 오토 네이밍 결과에 대한 변경 요청이 수신되지 않으면, 프로세서(110)는 변경 요청이 수동인지 자동인지를 판단한다(S1107). 수동인지 자동인지는 도 7a 및 도 7b에서 설명한 바와 같이 입력되는 사용자의 입력 정보에 의해 판단될 수 있다.
판단 결과, 자동적으로 오토 네이밍을 원하는 변경 요청이 수신된 경우에, 프로세서(110)는 단계 S1103으로 진행되어 상황인지 모델을 이용하여 컨텐트에 대한 추론 정보를 얻는 과정을 재 수행한다. 이 때, 추론 정보를 얻는 조건은 상술한 바와 같이 변경될 수 있다.
판단 결과, 수동적으로 오토 네이밍 결과를 변경하기 원하는 경우에, 프로세서(110)는 도 7a에 도시된 바와 같은 가상 키보드(721)를 이용하여 입력된 정보에 의해 디스플레이 되는 오토 네이밍 결과를 변경한다(S1108).
도 12는 본 발명의 바람직한 다른 실시 에에 따른 컨텐트에 대한 오토 네이밍 방법의 동작 흐름도이다. 도 12는 상술한 도 9에 도시된 화면 예에서와 같이 복수의 후보 네이밍 결과를 디스플레이 하는 경우이다. 따라서, 도 12의 단계 S1201 내지 단계 S1203은 도 11의 단계 S1101 내지 단계 S1103과 동일하므로 이하 설명을 생략한다
추론 정보에 기초하여 복수의 후보 오토 네이밍 결과가 도 9의 화면(910)과 같이 터치 스크린(303)에 디스플레이 되고(S1204), 터치 스크린(103) 또는 사용자 입력부(101)를 통해 디스플레이 되는 복수의 후보 오토 네이밍 결과중에서 하나를 선택하는 입력 정보가 수신되면(S1205), 프로세서(110)는 선택된 오토 네이밍 결과에 기초하여 컨텐트의 네임을 화면(920)과 같이 디스플레이 한다(S1206).
도 13은 본 발명의 바람직한 또 다른 실시 예에 따른 오토 네이밍 방법의 동작 흐름도이다. 도 13을 참조하면, 오토 네이밍 명령이 수신되면(S1301), 프로세서(110)는 저장부(107)에 저장된 오토 네이밍 모듈(217)을 로딩하여 동작이 스타트 되도록 제어한다(S1302).
이에 따라 프로세서(110)는 오토 네이밍 대상 컨텐트의 타입을 판단 및 결정한다(S1303). 결정된 컨텐트 타입에 따라 서로 다른 방식으로 오토 네이밍하기 위하여 프로세서(110)는 상황인지 모델을 결정한다(S1304).
프로세서(110)는 결정된 상황인지 모델에 기초하여 컨텐트의 프로세스에 따른 상황 정보를 획득한다(S1305). 이 때 획득되는 상황 정보는 로우 데이터(raw)에 해당된다. 따라서, 프로세서(110)는 획득된 상황 정보를 추상화(context abstraction)하여 상황 정보에 대응되는 메타 데이터를 생성한다(S1306).
생성된 메타 데이터를 이용하여 프로세서(110)는 상술한 추론 정보를 획득한다(S1307). 확률적인 메카니즘에 의해 추론 정보를 획득하기 위하여 저장부(107)에 그에 대응되는 추론용 데이터베이스를 저장할 수 있다.
추론 정보가 획득되면, 프로세서(110)는 추론된 정보를 이용하여 컨텐트에 대해 오토 네이밍하고(S1308), 오토 네이밍 결과를 터치 스크린(103)에 디스플레이 한다(S1309).
디스플레이 되는 오토 네이밍 결과에 대한 사용자의 확인(confirm) 명령이 수신되면, 프로세서(110)는 디스플레이 되는 오토 네이밍 결과를 컨텐트의 네임에 적용한다(S1311). 확인 명령은 오토 네이밍 결과에 대한 승인 명령 또는 OK명령을 의미한다. 그러나, 확인 명령이 수신되지 않으면, 프로세서(110)는 단계 S1306으로 리턴된어 상술한 상황인지 모델에 기초한 상황 정보를 획득하는 단계부터 오토 네이밍 단계를 재차 수행할 수 있다. 이 때, 상황인지 모델의 구동 기준이 변경되거나 결정된 상황인지 모델이 변경될 수 있다. 구동 기준은 얼굴 인식 모듈(212)에서 인식률을 90%에서 80%로 변경하는 것을 예로 들 수 있다. 결정된 상황인지 모델의 변경은 상황인지 모델이 시간, 위치, 및 객체에 기초한 것을 위치 및 객체로 변경하는 것을 예로 들 수 있다. 상술한 구동 기준의 변경이나 상황인지 모델의 변경은 상술한 기준 변경에 대응되는 것으로 이해될 수 있다.
도 14는 본 발명의 바람직한 다른 실시 예에 따른 오토 네이밍 기능을 갖는 장치(1400)의 기능 블록도와 외부 기기(1460)를 설명하기 위한 도면이다.
도 14에 도시된 장치(1400)는 컨텐트를 생성, 저장, 전송할 수 있는 전자 기기를 포함한다. 전자 기기는 예를 들어, 휴대 단말(Portable device), 스마트 폰(Smart Phone), 스마트 TV, PC(Personal Computer), 데스크탑(Desktop) PC, 노트북(Notebook), 스마트 보드(Smart Board), 태블릿(Tablet) PC, 이동 단말기(Mobile Device), 핸드헬드(handheld) 기기 또는 핸드헬드 컴퓨터, 미디어 플레이어, PDA(Personal Digital Assistant), 디지털 CE(Consumer Electronics) 기기를 포함할 수 있다. 디지털 CE 기기는 DTV(Digital Television), IPTV(Internet Protocol TeleVion)를 포함할 수 있다.
도 14를 참조하면, 장치(1400)는 사용자 입력부(1410), 프로세서(1420), 디스플레이부(1430), 저장부(1440), 및 통신부(1450)를 포함한다.
사용자 입력부(1410)는 장치(1400)의 기능을 제어하기 위한 입력 데이터(또는 제어 데이터) 및 상술한 입력 정보를 발생시킨다. 사용자 입력부(110)는 상술한 물리적 버튼(또는 하드웨어 버튼), 다이얼, 슬라이더 스위치, 조이스틱, 클릭 휠, 키 패드(key pad), 돔 스위치(dome switch), 마우스를 대신할 수 있는 터치 패드(touch padnel), 조그 휠(Jog wheel), 조그 스위치(Jog swich) 등을 포함할 수 있다.
프로세서(1420)는 오토 네이밍 명령에 따라 저장부(1440)에 저장된 적어도 하나의 프로그램을 이용하여 컨텐트의 타입을 결정하고, 결정된 컨텐트 타입에 따라 오토 네이밍을 수행한다. 오토 네이밍은 도 1에서 설명한 바와 같이 수행될 수 있다.
오토 네이밍이 상황인지 모델에 기초하여 수행될 경우에, 프로세서(1420)는 컨텐트에 대한 오토 네이밍 명령에 따라 저장부(1440)에 저장된 적어도 하나의 프로그램을 이용하여 컨텐트의 타입을 결정하고, 결정된 컨텐트 타입에 따라 상황인지 모델을 결정한다.
이를 위하여 저장부(1440)에 도 15에 도시된 바와 같은 소프트웨어 및/또는 명령어 세트를 저장할 수 있다. 도 15에 도시된 소프트웨어 및/또는 명령어 세트는 어플리케이션 모듈(1507)에 포함된 어플리케이션의 종류를 제외하면, 도 2에 도시된 바와 동일하다. 그러나, 각 모듈의 역할은 유사할 수 있으나 실질적인 기능은 장치들(100, 1400)간에 설정된 규격에 따라 다를 수 있다. 특히 오퍼레이션 시스템(1501)은 그 성능이 상이할 수 있다.
도 15를 참조하면, 저장부(1440)에 도 15에 도시된 바와 같은 어플리케이션 모듈이 저장될 경우에, 장치(1400)에서 오토 네이밍하기 위한 컨텐트는 워드 문서 작성 모듈(1515)에 의해 작성된 워드 문서 파일, 이메일 모듈(1514)에 의해 생성된 이메일 파일, 통신부(1450)를 통해 수신된 컨텐트를 포함할 수 있다.
한편, 프로세서(1400)는 결정된 상황인지 모델에 기초한 저장부(1440)에 저장된 적어도 하나의 프로그램을 이용하여 컨텐트의 생성 상황 정보를 얻는다. 컨텐트의 생성 상황 정보가 얻어지면, 얻어진 생성 상황 정보를 융합(fusion)하여 추론 정보를 얻는다.
예를 들어, 컨텐트가 동영상일 때, 컨텐트로부터 검출될 수 있는 파라미터는 컨텐트 생성 시간, 컨텐트 생성 위치, 및 컨텐트내에 포함된 객체를 포함할 수 있다. 따라서 상황인지 모델에 기초하여 얼굴인식 모듈(1510), GPS 모듈(1504), 및 타이머 모듈(1509)과 연동하여 상황 정보를 얻고, 얻은 상황 정보를 이용하여 상술한 추론 정보를 얻을 수 있다.
컨텐트가 파일 또는 텍스트일 때, 컨텐트로부터 검출될 수 있는 파라미터는 컨텐트 생성 시간, 컨텐트 생성 위치, 컨텐트내의 포함된 키워드(keyword), 및 컨텐트 작성자를 포함할 수 있다. 따라서 상황인지 모델에 기초하여 GPS 모듈(1504), 타이머 모듈(1509) 및 작성자 검출 모듈(미 도시됨), 키워드 검출 모듈(1512)을 연동하여 상황 정보를 얻고, 얻은 상황 정보를 이용하여 상술한 추론 정보를 얻을 수 있다. 상술한 작성자 검출 모듈은 로그(log) 파일 정보에 등록된 사용자 정보를 작성자 정보로 검출할 수 있다.
컨텐트가 음원일 때, 컨텐트로부터 검출될 수 있는 파라미터는 컨텐트 생성 시간, 컨텐트 생성 위치, 컨텐트에 관련된 아티스트, 장르, 타이틀, 및 컨텐트 제작자를 포함할 수 있다. 따라서, 상기 파라미터에 따른 상황인지 모델에 기초하여 저장부(1440)에 저장된 모듈들을 이용하여 상황 정보를 얻는다. 컨텐트가 방송 컨텐트일 때, 컨텐트로부터 검출될 수 있는 파라미터는 방송 시간, 방송 회차, 방송 타이틀, 출연자, 및 제작자를 포함할 수 있다.
명세서 전반에서 상황인지 모델에 기초한 컨텐트의 생성 상황에 대한 추론 정보는 컨텐트로부터 검출된 상황 정보를 융합(fusion)하여 률적 메커니즘에 의해 유도되는 상위(high level) 상황 정보를 의미한다. 예를 들어, 컨텐트가 사진일 때, 컨텐트로부터 검출된 상황 정보가 봄(생성 시간), 동물원(생성 장소), 홍길동(컨텐트 생성자), 홍길동의 아들(컨텐에 포함된 객체)인 경우에, 봄, 동물원, 홍길동, 및 아들을 융합하고 이를 확률적인 메커니즘으로 추론할 경우에 "홍길동과 아들, 동물원, 봄나들"라는 상위 상황 정보가 추론 정보로서 얻어질 수 있다.
프로세서(1420)는 추론 정보에 기초하여 컨텐트에 대해 오토 네이밍한다. 즉, 추론 정보가 상술한 바와 같을 때, 프로세서(1420)는 "아들과 함께 동물원에 봄나들이 가다"라고 컨텐트에 대해 오토 네이밍할 수 있다.
디스플레이부(1430)는 프로세서(1420)에 의해 제어되어 컨텐트에 대한 오토 네이밍 결과를 디스플레이한다. 디스플레이부(1430)는 도 1에서의 터치 스크린(103)과 같이 구성될 수 있다.
통신부(1450)는 도 1의 통신부(108)와 같이 구성될 수 있고, 본 발명의 바람직한 실시 예에 따라 외부 기기(1460)와 컨텐트를 송수신할 수 있다. 도 1에서와 같이 외부 기기(1460)가 클라우드 서버인 경우에, 장치(1400)는 컨텐트에 대한 오토 네이밍 결과를 요청할 수 있다.
본 발명의 실시 예들에 따른 오토 네이밍 방법을 컴퓨터로 구현하는 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로써 기록되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로써 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (30)

  1. 디바이스에 의해 수행되는 컨텐트에 대한 오토 네이밍 방법에 있어서,
    상기 디바이스의 프로세서에 의해 상기 컨텐트에 대한 오토 네이밍 명령을 수신하는 단계;
    상기 프로세서에 의해 상기 오토 네이밍 명령이 컨텐트 저장 요구 또는 컨텐트 전송 요구와 함께 수신되었는지 여부를 판단하는 단계;
    적어도 하나의 오토 네이밍 결과를 얻기 위하여, 상기 판단에 기초하여, 상기 프로세서에 의해, 상기 오토 네이밍 명령이 수신된 상황에 따라 서로 다른 파라미터를 선택하는 단계;
    상기 프로세서에 의해 상기 선택된 파라미터를 사용하여 상기 컨텐트의 오토 네이밍을 수행하는 단계; 및
    상기 적어도 하나의 오토 네이밍 결과를 디스플레이 하는 단계를 포함하는 컨텐트에 대한 오토 네이밍 방법.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서, 상기 컨텐트에 대한 오토 네이밍 방법은,
    상기 디스플레이 되고 있는 오토 네이밍 결과에 대한 사용자의 자동 변경 요청에 의해 상기 프로세서에 의해 상기 오토 네이밍을 자동적으로 재 수행하는 단계를 더 포함하는 컨텐트에 대한 오토 네이밍 방법.
  5. 제 1 항에 있어서, 상기 컨텐트에 대한 오토 네이밍 방법은,
    상기 프로세서에 의해 상기 오토 네이밍 결과에 인접한 위치에 자동 변경 가능 상태를 나타내는 인디케이터를 디스플레이 하는 단계; 및
    상기 인디케이터에 기초한 사용자 입력 정보의 수신에 응답하여, 상기 프로세서에 의해 상기 컨텐트에 대한 오토 네이밍을 자동적으로 재 수행하는 단계를 더 포함하는 컨텐트에 대한 오토 네이밍 방법.
  6. 제 4 항 또는 제 5 항에 있어서, 상기 오토 네이밍을 자동적으로 재 수행하는 단계는,
    상기 프로세서에 의해 오토 네이밍 수행 조건을 변경하여 상기 오토 네이밍을 자동적으로 재 수행하는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 방법.
  7. 제 4 항 또는 제 5 항에 있어서, 상기 컨텐트에 대한 오토 네이밍 방법은,
    상기 디스플레이 되고 있는 오토 네이밍 결과에 대한 사용자의 수동 변경 요청 수신에 응답하여, 상기 프로세서에 의해 상기 디스플레이 되고 있는 오토 네이밍 결과를 상기 사용자의 입력 정보로 변경하는 단계를 더 포함하는 컨텐트에 대한 오토 네이밍 방법.
  8. 제 1 항에 있어서, 상기 컨텐트에 대한 오토 네이밍 방법은,
    상기 디스플레이 되고 있는 오토 네이밍 결과에 대한 사용자의 수동 변경 요청 수신에 응답하여, 상기 프로세서에 의해 상기 오토 네이밍 결과를 사용자의 입력 정보로 변경하는 단계를 더 포함하는 컨텐트에 대한 오토 네이밍 방법.
  9. 제 1 항에 있어서, 상기 오토 네이밍을 수행하는 단계는,
    상기 선택된 파라미터에 기초하여 상기 컨텐트의 프로세스에 기초한 상황에 대한 추론 정보를 얻는 단계; 및
    상기 추론 정보에 기초하여 상기 컨텐트에 대한 오토 네이밍을 수행하는 단계를 포함하는 컨텐트에 대한 오토 네이밍 방법.
  10. 제 9 항에 있어서, 상기 추론 정보를 얻는 단계는 상기 선택된 파라미터에 기초한 상황인지 모델을 이용하여 수행되는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 방법.
  11. 제 9 항에 있어서, 상기 추론 정보를 얻는 단계는 상기 프로세서에 의해 상기 선택된 파라미터에 따라 상기 컨텐트에 대한 상황 정보를 얻는 단계; 및
    상기 프로세서에 의해 상기 컨텐트의 상황 정보를 융합하여 상기 추론 정보를 얻는 단계를 포함하는 컨텐트에 대한 오토 네이밍 방법.
  12. 제 9 항 내지 제 11 항중 어느 한 항에 있어서, 상기 추론 정보를 얻는 단계는, 상기 프로세서에 의해 상기 디바이스와 외부 기기간의 통신에 기초하여 수행되는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 방법.
  13. 삭제
  14. 제 1 항에 있어서, 상기 디스플레이 되고 있는 오토 네이밍 결과가 복수의 후보 네이밍 결과를 포함하고,
    상기 컨텐트에 대한 오토 네이밍 방법은,
    상기 프로세서에 의해 상기 복수의 후보 네이밍 결과중 하나에 대한 선택 신호를 수신하는 단계; 및
    상기 프로세서에 의해 선택 신호에 따라 선택된 후보 오토 네이밍 결과를 디스플레이 하는 단계를 더 포함하는 컨텐트에 대한 오토 네이밍 방법.
  15. 컨텐트에 대한 오토 네이밍을 위한 적어도 하나의 프로그램과 데이터를 저장하는 저장부;
    터치 기반 사용자 입력 정보를 수신하고, 상기 컨텐트의 오토 네이밍 결과를 디스플레이 하는 터치 스크린; 및
    상기 터치 스크린을 제어하여 사용자 인터페이스를 제공하고,
    오토 네이밍 명령을 수신함에 따라 상기 저장부에 저장된 상기 적어도 하나의 프로그램 및 데이터를 이용하여 상기 오토 네이밍 명령이 컨텐트 저장 요구 또는 컨텐트 전송 요구와 함께 수신되었는지 여부를 판단하고, 적어도 하나의 오토 네이밍 결과를 얻기 위하여, 상기 판단에 기초하여, 상기 오토 네이밍 명령이 수신된 상황에 따라 서로 다른 파라미터를 선택하고, 상기 선택된 파라미터를 사용하여 상기 컨텐트의 오토 네이밍을 수행하고, 상기 적어도 하나의 오토 네이밍 결과를 상기 터치 스크린에 디스플레이 하는 프로세서를 포함하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  16. 삭제
  17. 삭제
  18. 제 15 항에 있어서, 상기 프로세서는,
    상기 디스플레이 되고 있는 오토 네이밍 결과에 대한 사용자의 자동 변경 요청에 의해 상기 컨텐트에 대한 오토 네이밍을 자동적으로 재 수행하는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  19. 제 15 항에 있어서, 상기 프로세서는,
    상기 디스플레이 되고 있는 오토 네이밍 결과에 인접한 위치에 자동 변경 가능 상태를 나타내는 인디케이터를 상기 터치 스크린에 디스플레이하고, 상기 인디케이터에 기초한 사용자 입력 정보에 의해 상기 컨텐트에 대한 오토 네이밍을 자동적으로 재 수행하는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  20. 제 18 항 또는 제 19 항에 있어서, 상기 프로세서는,
    상기 오토 네이밍 수행 조건을 변경하여 상기 오토 네이밍을 자동적으로 재 수행하는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  21. 제 18 항 또는 제 19 항에 있어서, 상기 프로세서는,
    상기 디스플레이 되고 있는 오토 네이밍 결과에 대한 사용자의 수동 변경 요청에 의해 상기 디스플레이 되고 있는 오토 네이밍 결과를 상기 사용자의 입력 정보로 변경하는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  22. 제 15 항에 있어서, 상기 프로세서는,
    상기 디스플레이 되고 있는 오토 네이밍 결과에 대한 사용자의 수동 변경 요청에 의해 상기 디스플레이 되고 있는 오토 네이밍 결과를 상기 사용자의 입력 정보로 변경하는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  23. 제 15 항에 있어서, 상기 프로세서는,
    상기 선택된 파라미터를 이용하여 상기 컨텐트에 대한 추론 정보를 얻고, 상기 추론 정보에 기초하여 상기 컨텐트에 대한 오토 네이밍을 수행하는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  24. 제 23 항에 있어서, 상기 프로세서는, 상기 선택된 파라미터에 기초한 상황인지 모델을 이용하여 상기 추론 정보를 얻는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  25. 제 24 항에 있어서, 상기 프로세서는 상기 선택된 파라미터에 따라 상기 컨텐트에 대한 상황 정보를 얻고, 상기 컨텐트에 대한 상황 정보를 융합하여 상기 추론 정보를 얻는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  26. 제 15 항에 있어서, 상기 장치는,
    외부 기기와 데이터를 송수신할 수 있는 통신부를 더 포함하고,

    상기 프로세서는,
    상기 적어도 하나의 프로그램을 이용하여 상기 통신부를 통해 연결된 상기 외부 기기와의 통신에 기초하여 상기 오토 네이밍을 수행하는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  27. 삭제
  28. 제 15 항에 있어서, 상기 프로세서는,
    상기 디스플레이 되는 오토 네이밍 결과가 복수의 후보 네이밍 결과를 포함하고, 상기 터치 스크린을 통해 상기 복수의 후보 네이밍 결과중 하나에 대한 선택 신호를 수신함에 따라 상기 선택 신호에 따라 선택된 후보 오토 네이밍 결과를 상기 터치 스크린에 디스플레이하는 것을 특징으로 하는 컨텐트에 대한 오토 네이밍 기능을 갖는 장치.
  29. 삭제
  30. 디바이스에 의해 컨텐트에 대한 오토 네이밍 방법을 수행하도록 하는 명령어를 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체에 있어서,
    상기 컨텐트에 대한 오토 네이밍 방법은,
    상기 디바이스의 프로세서에 의해 컨텐트에 대한 오토 네이밍 명령을 수신하는 단계:
    상기 프로세서에 의해 상기 오토 네이밍 명령이 컨텐트 저장 요구 또는 컨텐트 전송 요구와 함께 수신되었는지 여부를 판단하는 단계;
    적어도 하나의 오토 네이밍 결과를 얻기 위하여, 상기 판단에 기초하여, 상기 프로세서에 의해, 상기 오토 네이밍 명령이 수신된 상황에 따라 서로 다른 파라미터를 선택하는 단계;
    상기 프로세서에 의해 상기 선택된 파라미터를 사용하여 상기 컨텐트의 오토 네이밍을 수행하는 단계: 및
    상기 적어도 하나의 오토 네이밍 결과를 디스플레이 하는 단계를 포함하는 컴퓨터로 읽을 수 있는 기록 매체.
KR1020120049781A 2012-05-10 2012-05-10 컨텐트에 대한 오토 네이밍 방법 및 이 기능을 갖는 장치와 기록 매체 KR101964914B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020120049781A KR101964914B1 (ko) 2012-05-10 2012-05-10 컨텐트에 대한 오토 네이밍 방법 및 이 기능을 갖는 장치와 기록 매체
CN201380033088.0A CN104395877B (zh) 2012-05-10 2013-05-10 执行内容自动命名的方法和装置及计算机可读记录介质
US13/891,738 US9639632B2 (en) 2012-05-10 2013-05-10 Method and apparatus for performing auto-naming of content, and computer-readable recording medium thereof
PCT/KR2013/004116 WO2013169051A1 (en) 2012-05-10 2013-05-10 Method and apparatus for performing auto-naming of content, and computer-readable recording medium thereof
JP2015511370A JP6253639B2 (ja) 2012-05-10 2013-05-10 コンテンツのオートネーミング遂行方法及びその装置、並びに記録媒体
EP13787725.4A EP2847671A4 (en) 2012-05-10 2013-05-10 METHOD AND DEVICE FOR AUTOMATICALLY DESCRIBING CONTENT AND COMPUTER READABLE RECORDING MEDIUM THEREFOR
US15/477,676 US10922274B2 (en) 2012-05-10 2017-04-03 Method and apparatus for performing auto-naming of content, and computer-readable recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120049781A KR101964914B1 (ko) 2012-05-10 2012-05-10 컨텐트에 대한 오토 네이밍 방법 및 이 기능을 갖는 장치와 기록 매체

Publications (2)

Publication Number Publication Date
KR20130126038A KR20130126038A (ko) 2013-11-20
KR101964914B1 true KR101964914B1 (ko) 2019-04-03

Family

ID=49549467

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120049781A KR101964914B1 (ko) 2012-05-10 2012-05-10 컨텐트에 대한 오토 네이밍 방법 및 이 기능을 갖는 장치와 기록 매체

Country Status (6)

Country Link
US (2) US9639632B2 (ko)
EP (1) EP2847671A4 (ko)
JP (1) JP6253639B2 (ko)
KR (1) KR101964914B1 (ko)
CN (1) CN104395877B (ko)
WO (1) WO2013169051A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292537B1 (en) 2013-02-23 2016-03-22 Bryant Christopher Lee Autocompletion of filename based on text in a file to be saved
US20150228197A1 (en) * 2014-02-11 2015-08-13 Steven Victor McKinney Adaptive Learning Components for Electronic Books
DE102015117668B4 (de) * 2015-10-16 2017-10-26 Frank Sax Verfahren zur Ablage von Daten und zur Abfrage derselben
CN105574167B (zh) * 2015-12-17 2020-01-14 惠州Tcl移动通信有限公司 一种基于移动终端的照片自动命名处理方法及系统
CN107992995A (zh) * 2017-11-20 2018-05-04 上海华力微电子有限公司 一种创建工艺流程名称的方法及系统
JP6955434B2 (ja) * 2017-12-22 2021-10-27 株式会社Pfu ファイル管理装置、ファイル管理方法、及びプログラム
CN109460611A (zh) * 2018-11-12 2019-03-12 北京华大九天软件有限公司 一种根据线网名自动创建端口的方法
CN113822140A (zh) * 2021-07-27 2021-12-21 广东工业大学 一种基于多角度手姿态的手写字姿势生成方法和系统
CN114186093B (zh) * 2021-12-13 2023-04-28 北京百度网讯科技有限公司 多媒体数据的处理方法、装置、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6657661B1 (en) 2000-06-20 2003-12-02 Hewlett-Packard Development Company, L.P. Digital camera with GPS enabled file management and a device to determine direction
JP2005346440A (ja) * 2004-06-03 2005-12-15 Ntt Docomo Inc メタデータ付与支援システム、制御装置、及び、メタデータ付与支援方法
US20070027911A1 (en) 2003-09-04 2007-02-01 Tero Hakala Method and arrangement for naming pictures to be saved in a mobile station
US20100215272A1 (en) * 2008-09-23 2010-08-26 Andrey Isaev Automatic file name generation in ocr systems

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3147358B2 (ja) 1990-02-23 2001-03-19 ミノルタ株式会社 撮影地データを記録できるカメラ
US6275976B1 (en) * 1996-03-15 2001-08-14 Joseph M. Scandura Automated method for building and maintaining software including methods for verifying that systems are internally consistent and correct relative to their specifications
US7073129B1 (en) * 1998-12-18 2006-07-04 Tangis Corporation Automated selection of appropriate information based on a computer user's context
US9183306B2 (en) * 1998-12-18 2015-11-10 Microsoft Technology Licensing, Llc Automated selection of appropriate information based on a computer user's context
US6885481B1 (en) 2000-02-11 2005-04-26 Hewlett-Packard Development Company, L.P. System and method for automatically assigning a filename to a scanned document
US20030046401A1 (en) * 2000-10-16 2003-03-06 Abbott Kenneth H. Dynamically determing appropriate computer user interfaces
JP2002374481A (ja) * 2001-06-18 2002-12-26 Matsushita Electric Ind Co Ltd ファイル名設定システム
US6778979B2 (en) * 2001-08-13 2004-08-17 Xerox Corporation System for automatically generating queries
US6690883B2 (en) * 2001-12-14 2004-02-10 Koninklijke Philips Electronics N.V. Self-annotating camera
JP4336511B2 (ja) 2002-03-12 2009-09-30 キヤノン株式会社 データ転送装置、データ転送システム及びプログラム
US7821536B2 (en) 2002-03-12 2010-10-26 Canon Kabushiki Kaisha Information processing apparatus, data storage device, data transfer system and data transfer method, program and recording medium
WO2003096669A2 (en) * 2002-05-10 2003-11-20 Reisman Richard R Method and apparatus for browsing using multiple coordinated device
US8321584B2 (en) * 2003-04-04 2012-11-27 Ellacoya Networks, Inc. Method and apparatus for offering preferred transport within a broadband subscriber network
US7650590B2 (en) * 2004-01-13 2010-01-19 Sap Ag Flexible code generation
KR20050091286A (ko) * 2004-03-11 2005-09-15 엘지전자 주식회사 멀티미디어 콘텐츠 저장 및 메시지 편집 방법
JP4536461B2 (ja) * 2004-09-06 2010-09-01 株式会社沖データ 画像処理装置
US20060248150A1 (en) * 2005-04-29 2006-11-02 International Business Machines Corporation Methods and apparatus for managing and distinguishing instant messaging sessions and threads
US20060290789A1 (en) * 2005-06-22 2006-12-28 Nokia Corporation File naming with optical character recognition
US8140362B2 (en) * 2005-08-30 2012-03-20 International Business Machines Corporation Automatically processing dynamic business rules in a content management system
CN1988590A (zh) * 2005-12-22 2007-06-27 佛山市顺德区顺达电脑厂有限公司 具卫星定位坐标信息的图像撷取显示系统及其方法
US20070192253A1 (en) * 2006-01-13 2007-08-16 Gogo Mobile, Inc. Digital content delivery assistance system and method
US9026495B1 (en) * 2006-05-26 2015-05-05 Netapp, Inc. System and method for creating and accessing a host-accessible storage entity
US20100050080A1 (en) * 2007-04-13 2010-02-25 Scott Allan Libert Systems and methods for specifying frame-accurate images for media asset management
US20090006091A1 (en) * 2007-06-29 2009-01-01 Nokia Corporation Apparatuses and methods for handling recorded voice strings
US8156118B2 (en) * 2007-08-20 2012-04-10 Samsung Electronics Co., Ltd. Method and system for generating playlists for content items
US20090235167A1 (en) * 2008-03-12 2009-09-17 International Business Machines Corporation Method and system for context aware collaborative tagging
KR20090122043A (ko) 2008-05-23 2009-11-26 삼성전자주식회사 스케줄 관리 기능과 연동한 사진 파일 생성 방법 및이동통신 단말기
CA2736750A1 (en) * 2008-09-15 2010-03-18 James A. Aman Session automated recording together with rules based indexing, analysis and expression of content
US8190697B2 (en) * 2009-05-20 2012-05-29 Square D Company Automated configuration of device communication settings
US20110271173A1 (en) 2010-05-03 2011-11-03 Xerox Corporation Method and apparatus for automatic filling of forms with data
US9128939B2 (en) * 2010-11-16 2015-09-08 Blackberry Limited Automatic file naming on a mobile device
US20130041808A1 (en) * 2011-08-10 2013-02-14 Nathalie Pham Distributed media access
US8965971B2 (en) * 2011-12-30 2015-02-24 Verisign, Inc. Image, audio, and metadata inputs for name suggestion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6657661B1 (en) 2000-06-20 2003-12-02 Hewlett-Packard Development Company, L.P. Digital camera with GPS enabled file management and a device to determine direction
US20070027911A1 (en) 2003-09-04 2007-02-01 Tero Hakala Method and arrangement for naming pictures to be saved in a mobile station
JP2005346440A (ja) * 2004-06-03 2005-12-15 Ntt Docomo Inc メタデータ付与支援システム、制御装置、及び、メタデータ付与支援方法
US20100215272A1 (en) * 2008-09-23 2010-08-26 Andrey Isaev Automatic file name generation in ocr systems

Also Published As

Publication number Publication date
CN104395877B (zh) 2018-03-23
JP6253639B2 (ja) 2017-12-27
EP2847671A4 (en) 2016-01-27
US10922274B2 (en) 2021-02-16
US20170206216A1 (en) 2017-07-20
CN104395877A (zh) 2015-03-04
US20130304733A1 (en) 2013-11-14
KR20130126038A (ko) 2013-11-20
US9639632B2 (en) 2017-05-02
JP2015522863A (ja) 2015-08-06
WO2013169051A1 (en) 2013-11-14
EP2847671A1 (en) 2015-03-18

Similar Documents

Publication Publication Date Title
US11150792B2 (en) Method and device for executing object on display
KR101964914B1 (ko) 컨텐트에 대한 오토 네이밍 방법 및 이 기능을 갖는 장치와 기록 매체
US10175847B2 (en) Method and system for controlling display device and computer-readable recording medium
US10299110B2 (en) Information transmission method and system, device, and computer readable recording medium thereof
KR102064952B1 (ko) 수신 데이터를 이용하여 어플리케이션을 운영하는 전자 장치
EP3770745B1 (en) Method and device for executing an application
US20140365923A1 (en) Home screen sharing apparatus and method thereof
US9826026B2 (en) Content transmission method and system, device and computer-readable recording medium that uses the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant