KR20190096752A - 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법 및 전자 장치 - Google Patents

컨텐츠에 대한 텍스트 코멘트를 생성하는 방법 및 전자 장치 Download PDF

Info

Publication number
KR20190096752A
KR20190096752A KR1020180016559A KR20180016559A KR20190096752A KR 20190096752 A KR20190096752 A KR 20190096752A KR 1020180016559 A KR1020180016559 A KR 1020180016559A KR 20180016559 A KR20180016559 A KR 20180016559A KR 20190096752 A KR20190096752 A KR 20190096752A
Authority
KR
South Korea
Prior art keywords
content
information
data
text comment
text
Prior art date
Application number
KR1020180016559A
Other languages
English (en)
Inventor
최형탁
황인철
고현목
김홍철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180016559A priority Critical patent/KR20190096752A/ko
Priority to US16/266,217 priority patent/US20190251355A1/en
Publication of KR20190096752A publication Critical patent/KR20190096752A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • H04N21/4666Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms using neural networks, e.g. processing the feedback provided by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Library & Information Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Human Computer Interaction (AREA)

Abstract

본 개시는 딥 러닝 등의 신경망 모델을 이용하여 인간 두뇌의 인지, 판단 등의 기능을 수행하는 인공지능(AI) 시스템 및 그 응용에 관련된 것이다.
적어도 하나의 컨텐츠를 포함하는 컨텐츠 그룹을 획득하고, 적어도 하나의 컨텐츠 각각에 대한 특징 정보를 획득하고, 획득된 특징 정보를 이용하여, 적어도 하나의 컨텐츠 중 포커스 컨텐츠를 결정하고, 포커스 컨텐츠를 이용하여, 상기 컨텐츠 그룹에 대한 텍스트 코멘트를 생성하고, 생성된 텍스트 코멘트를 표시하는, 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법이 제공된다.

Description

컨텐츠에 대한 텍스트 코멘트를 생성하는 방법 및 전자 장치 {Method and electronic device for generating text comment for content}
본 개시는, 적어도 하나의 컨텐츠에 대한 텍스트 코멘트를 자동으로 생성하는 방법 및 전자 장치에 관한 것이다.
인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 Rule 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 룰(Rule) 기반 스마트 시스템은 점차 딥러닝 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계학습(딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.
기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥 러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.
전자 장치는, 사용자 입력에 따라서, 적어도 하나의 사진 또는 동영상, 오디오 등의 다양한 종류의 컨텐츠를 포함한 SNS(social network service) 메시지를 SNS 시스템으로 전송할 수 있다. 이 경우, 전자 장치는, 컨텐츠를 나타내거나 컨텐츠와 관련된 부가 설명을 위한 텍스트 코멘트를 컨텐츠와 함께 전송할 수 있다. 텍스트 코멘트는, 사용자의 직접적인 입력에 따라, 작성될 수 있으나, 사용자 편의를 위해, 전자 장치에서 텍스트 코멘트를 자동으로 생성하여 사용자에게 제공할 필요가 있다.
일 실시 예는, 적어도 하나의 컨텐츠에 대한 텍스트 코멘트를 자동으로 생성하는 방법 및 전자 장치를 제공하기 위한 것이다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면은, 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법에 있어서, 적어도 하나의 컨텐츠를 포함하는 컨텐츠 그룹을 획득하는 단계; 상기 적어도 하나의 컨텐츠 각각에 대한 특징 정보를 획득하는 단계; 상기 획득된 특징 정보를 이용하여, 상기 적어도 하나의 컨텐츠 중 포커스 컨텐츠를 결정하는 단계; 상기 포커스 컨텐츠를 이용하여, 상기 컨텐츠 그룹에 대한 텍스트 코멘트를 생성하는 단계; 및 상기 생성된 텍스트 코멘트를 표시하는 단계를 포함한다.
또한, 본 개시의 제2 측면은, 적어도 하나의 컨텐츠를 포함하는 컨텐츠 그룹을 획득하고, 상기 적어도 하나의 컨텐츠 각각에 대한 특징 정보를 획득하고, 상기 획득된 특징 정보를 이용하여, 상기 적어도 하나의 컨텐츠 중 포커스 컨텐츠를 결정하고, 상기 포커스 컨텐츠를 이용하여, 상기 컨텐츠 그룹에 대한 텍스트 코멘트를 생성하는 프로세서; 및 상기 생성된 텍스트 코멘트를 표시하는 디스플레이를 포함하는, 컨텐츠에 대한 텍스트 코멘트를 생성하는 전자 장치를 포함한다.
또한, 본 개시의 제 3 측면은, 제 1 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.
일 실시 예에 의하면, 적어도 하나의 컨텐츠 중에서 결정된 포커스 컨텐츠에 기초하여 텍스트 코멘트가 생성됨으로써, 중복되거나 모순되지 않은 특징 정보에 따라 텍스트 코멘트가 생성될 수 있다.
일 실시 예에 의하면, 컨텐츠를 분석한 결과 획득될 수 있는 정보뿐만 아니라, 사용자의 개인 정보나 인터넷에서 검색 가능한 정보 등 다양한 방법을 통해 획득된 정보를 활용함으로써, 개인화되고 구체화인 표현을 포함한 텍스트 코멘트가 생성될 수 있다.
도 1은 일 실시 예에 의한 적어도 하나의 컨텐츠에 대한 텍스트 코멘트를 자동으로 생성하는 예시를 나타내는 도면이다.
도 2 및 도 3은 일 실시 예에 의한 전자 장치를 나타낸 블록도이다.
도 4는 일부 실시예에 따른 프로세서의 블록도이다.
도 5는 일부 실시예에 따른 데이터 학습부의 블록도이다.
도 6은 일부 실시예에 따른 데이터 인식부의 블록도이다.
도 7은 일부 실시예에 따른 전자 장치 및 서버가 서로 연동함으로써 데이터를 학습하고 인식하는 예시를 나타내는 도면이다.
도 8 및 도 9는 일 실시 예에 의한 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법을 나타낸 순서도이다.
도 10은 일 실시 예에 의한 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법을 나타낸 블록도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 일 실시 예에 의한 적어도 하나의 컨텐츠에 대한 텍스트 코멘트를 자동으로 생성하는 예시를 나타내는 도면이다.
도 1을 참조하면, 일 실시 예에 의한 전자 장치(1000)는 적어도 하나의 컨텐츠(110, 120, 130)를 포함한 컨텐츠 그룹(100)에 대한 텍스트 코멘트(140)를 생성할 수 있다. 예를 들면, 전자 장치(1000)는 적어도 하나의 컨텐츠(110, 120, 130) 중 포커스 컨텐츠(130)를 결정하고, 결정된 포커스 컨텐츠(130)를 이용하여, 적어도 하나의 컨텐츠(110, 120, 130)를 포함한 컨텐츠 그룹(100)에 대해 텍스트 코멘트를 생성할 수 있다.
일 실시 예에 의한 적어도 하나의 컨텐츠(110, 120, 130)는, 영상, 동영상, 음성, 텍스트, 멀티미디어 등 다양한 종류의 컨텐츠를 포함할 수 있다. 또한, 일 실시 예에 의한 적어도 하나의 컨텐츠(110, 120, 130)는, 전자 장치(1000)에서 생성된 컨텐츠를 포함할 수 있으나, 이에 한하지 않고 외부 장치로부터 수신된 컨텐츠를 포함할 수 있다.
일 실시 예에 의한 전자 장치(1000)는, 사용자 입력에 따라, 적어도 하나의 컨텐츠(110, 120, 130) 및 텍스트 코멘트(140)를 포함한 게시물을 작성하여, SNS, 인터넷 게시판, 블로그 등에 업로드할 수 있다. 또한, 일 실시 예에 의한 전자 장치(1000)는, 사용자 입력에 따라, 적어도 하나의 컨텐츠(110, 120, 130) 및 텍스트 코멘트(140)를 포함한 SNS 메시지 또는 이메일 메시지를 작성하여, 외부 장치로 전송할 수 있다. 상술한 예에 한하지 않고, 전자 장치(1000)는, 적어도 하나의 컨텐츠(110, 120, 130) 및 텍스트 코멘트(140)을 이용하여 다양한 종류의 컨텐츠를 생성할 수 있다. 일 실시 예에 의해 생성된 텍스트 코멘트(140)는, 사용자 입력에 따라 수정된 후, 상술한 게시물, 메시지 등의 다양한 종류의 컨텐츠를 작성하는데 이용될 수 있다.
일 실시 예에 의한 텍스트 코멘트는, 적어도 하나의 컨텐츠(110, 120, 130)와 관련된 텍스트로서, 적어도 하나의 컨텐츠(110, 120, 130)를 설명하거나 관련된 정보를 나타내기 위한 텍스트를 포함할 수 있다. 상술한 예에 한하지 않고, 일 실시 예에 의한 텍스트 코멘트는, 적어도 하나의 컨텐츠(110, 120, 130)와 관련된 다양한 내용의 텍스트를 포함할 수 있다.
일 실시 예에 의한 포커스 컨텐츠(130)는, 각각의 컨텐츠(110, 120, 130)에 대한 특징 정보에 기초하여, 결정될 수 있다. 예를 들면, 각각의 컨텐츠(110, 120, 130)와 공통되는 특징 정보를 가장 많이 포함한 컨텐츠가 포커스 컨텐츠(130)로 결정될 수 있다.
또 다른 예로, 포커스 컨텐츠(130)는, 사용자에 의해 입력된, 텍스트 코멘트의 중심 주제에 기초하여, 결정될 수 있다. 예를 들면, 사용자에 의해 입력된 텍스트 코멘트의 중심 주제와 관련도가 높은 특징 정보를 가장 많이 포함하는 컨텐츠가 포커스 컨텐츠(130)로 선택될 수 있다.
또 다른 예로, 포커스 컨텐츠(130)는, 포커스 컨텐츠(130)를 선택하기 위해 미리 학습된(training) 기계학습 알고리즘에 따라서, 결정될 수 있다. 예를 들면, 상술한 기계학습 알고리즘은, 일 실시 예에 따라 텍스트 코멘트를 생성하기 위한 데이터 인식 모델에 포함될 수 있다. 이에 한하지 않고, 포커스 컨텐츠(130)를 선택하기 위한 기계학습 알고리즘은 텍스트 코멘트를 생성하기 위한 데이터 인식 모델과 별개로 존재하는 것일 수 있다.
또 다른 예로, 포커스 컨텐츠(130)는 포커스 컨텐츠(130)를 직접 선택하는 사용자 입력에 따라 결정될 수 있다. 상술한 예에 한하지 않고, 포커스 컨텐츠(130)는 다양한 방법에 따라 결정될 수 있다.
일 실시 예에 의하면, 텍스트 코멘트는, 적어도 하나의 컨텐츠 중 결정된 포커스 컨텐츠(130)를 이용하여 생성될 수 있다. 예를 들면, 텍스트 코멘트는, 포커스 컨텐츠를 제외한 다른 컨텐츠(110, 120)의 특징 정보보다, 포커스 컨텐츠(130)의 특징 정보가 우선적으로 이용됨으로써 생성될 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는, 적어도 하나의 컨텐츠에 대한 특징 정보 중 포커스 컨텐츠(130)의 특징 정보를 우선적으로 이용하여, 적어도 하나의 컨텐츠(110, 120, 130)에 대한 텍스트 코멘트를 생성할 수 있다.
다수의 컨텐츠의 특징 정보에 따라 텍스트 코멘트가 생성되는 경우, 각 컨텐츠의 특징 정보가 서로 중복되거나 모순될 수 있으므로, 어색하거나 모순된 내용을 포함하는 텍스트 코멘트가 생성될 수 있다. 그러나, 일 실시 예에 의하면, 적어도 하나의 컨텐츠 중에서 결정된 포커스 컨텐츠에 기초하여 텍스트 코멘트가 생성됨으로써, 중복되거나 모순되지 않은 특징 정보에 따라 텍스트 코멘트가 생성될 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 포커스 컨텐츠의 특징 정보를 이용하되, 포커스 컨텐츠의 특징 정보와 중복되거나 모순되지 않는, 다른 컨텐츠(110, 120)의 특징 정보를 더 이용하여, 텍스트 코멘트를 생성할 수 있다. 예를 들면, 전자 장치(1000)는 적어도 하나의 컨텐츠 중에서, 포커스 컨텐츠의 특징 정보와 중복되거나 모순된 특징 정보를 갖는 제 1 컨텐츠를 결정할 수 있다. 그리고, 전자 장치(1000)는 적어도 하나의 컨텐츠 중에서 제 1 컨텐츠 이외의 제 2 컨텐츠를 더 이용하여, 텍스트 코멘트를 생성할 수 있다.
일 실시 예에 의한 각각의 컨텐츠(110, 120, 130)에 대한 특징 정보(feature information)는, 컨텐츠의 특징을 나타내는 다양한 종류의 정보를 포함할 수 있다. 예를 들면, 특징 정보는, 컨텐츠에 포함된 오브젝트에 관한 정보, 컨텐츠와 관련된 날씨, 위치 및 사용자에 관한 정보 중 적어도 하나를 포함할 수 있다.
일 실시 예에 의한 컨텐츠에 포함된 오브젝트는, 컨텐츠에 포함된 오브젝트를 인식하기 위한 기계학습 알고리즘에 기초하여 인식될 수 있다. 오브젝트를 인식하기 위한 기계학습 알고리즘은, 일 실시 예에 따라 텍스트 코멘트를 생성하기 위한 데이터 인식 모델에 포함될 수 있다. 이에 한하지 않고, 오브젝트를 인식하기 위한 기계학습 알고리즘은 텍스트 코멘트를 생성하기 위한 데이터 인식 모델과 별개로 존재하는 것일 수도 있다.
일 실시 예에 의하면, 컨텐츠에 포함된 오브젝트는, 컨텐츠와 대응되는 위치 정보에 기초하여, 인식될 수 있다. 예를 들어, 컨텐츠가 촬영된 위치에, A 레스토랑과 B 동상이 존재하는 경우, 컨텐츠에 A 레스토랑과 B 동상 중 적어도 하나가 포함될 가능성이 높다. 따라서, 전자 장치(1000)는, 컨텐츠가 촬영된 위치 정보에 기초하여, 컨텐츠에 포함된 A 레스토랑과 B 동상 중 적어도 하나를 오브젝트로서 인식할 수 있다.
또한, 일 실시 예에 의한 컨텐츠에 포함된 오브젝트는, 오브젝트가 포함된 영역을 지정(designate)하기 위한 사용자 입력에 따라, 인식될 수 있다. 상술한 예에 한하지 않고, 컨텐츠에 포함된 오브젝트는 다양한 방법에 따라 인식될 수 있다. 컨텐츠에 포함된 오브젝트는, 사람뿐만 아니라 동물, 사물, 장소 등 컨텐츠에서 인식될 수 있는 다양한 종류의 대상물을 포함할 수 있다.
일 실시 예에 의한 컨텐츠에 포함된 오브젝트에 관한 정보는, 오브젝트의 식별 정보, 오브젝트의 위치 정보, 오브젝트의 상태에 관한 정보, 오브젝트의 특징에 관한 정보 등, 오브젝트와 관련된 다양한 정보를 포함할 수 있다.
오브젝트의 식별 정보는, 오브젝트의 명칭, 종류에 관한 정보 등 오브젝트를 식별하기 위한 정보를 포함할 수 있다. 일 실시 예에 의하면, 오브젝트의 식별 정보는, 전자 장치(1000)의 사용자 데이터에 기초하여 획득될 수 있다.
사용자 데이터는 사용자의 주변 환경, 주변 인물, 생활 패턴 등 사용자와 관련된 정보를 포함할 수 있다. 사용자 데이터는, 전자 장치(1000)의 센서 장치에 의해 감지된 정보 및 사용자에 의해 입력된 정보 중 적어도 하나에 기초하여 획득될 수 있다. 예를 들면, 사용자 데이터는, 적어도 하나의 컨텐츠와 관련된 사용자의 라이프 로그(life log)를 포함할 수 있다. 사용자의 라이프 로그는, 전자 장치(1000)에 의해 수집될 수 있는, 사용자의 일상 생활에 관한 정보를 포함할 수 있다. 예를 들면, 라이프 로그는, 사용자의 운동 여부, 이동 상태, 방문 장소 등, 사용자에 관한 다양한 정보를 포함할 수 있다.
일 예로, 사용자 데이터는 전자 장치(1000)의 사용자와 관련된 인물, 사물, 동물에 관한 정보를 포함할 수 있다. 사용자의 가족 중 한 명이 컨텐츠에서 오브젝트로 인식된 경우, 전자 장치(1000)는 사용자 데이터에 기초하여, 인식된 오브젝트의 명칭(ex. 나의 딸, 아들, 우리 엄마)을 인식된 오브젝트의 식별 정보로서 획득할 수 있다.
오브젝트의 위치 정보는, 오브젝트가 존재하는 지리적 위치에 관한 정보를 포함할 수 있다. 일 실시 예에 의하면, 오브젝트의 위치 정보는, 컨텐츠와 관련된 위치 정보(ex. 컨텐츠가 촬영될 때의 전자 장치(1000)의 위치 정보)에 기초하여, 획득될 수 있다.
예를 들면, 전자 장치(1000)는, 사용자 데이터의 위치 기록 정보 및 오브젝트의 위치 정보를 이용하여, 오브젝트가 존재하는 지리적 위치에 대한 사용자의 방문 빈도 수를 획득할 수 있다. 예를 들어, 컨텐츠에 포함된 오브젝트의 위치가 '제주도의 월정리 해변'이고, 사용자가 상기 컨텐츠를 촬영할 때 '제주도의 월정리 해변'을 3년 만에 재방문한 경우, 전자 장치(1000)는, 컨텐츠의 특징 정보로서, '3년 만에 재방문한 제주도의 월정리 해변'을 획득할 수 있다.
오브젝트의 상태에 관한 정보는, 오브젝트의 동작, 감정, 표정 등에 관한 정보를 포함할 수 있다. 오브젝트의 상태에 관한 정보는, 오브젝트의 상태를 판단하기 위한 기계 학습 알고리즘에 따라 획득될 수 있다. 오브젝트의 상태를 판단하기 위한 기계학습 알고리즘은, 일 실시 예에 따라 텍스트 코멘트를 생성하기 위한 데이터 인식 모델에 포함될 수 있다. 그러나, 이에 한하지 않고, 오브젝트의 상태를 판단하기 위한 기계학습 알고리즘은 텍스트 코멘트를 생성하기 위한 데이터 인식 모델과 별개로 존재하는 것일 수 있다.
오브젝트의 특징에 관한 정보는, 전자 장치(1000)에 의해 인식된 오브젝트와 관련된 키워드를 이용하여 인터넷 검색을 통해 획득한 정보 및 사용자 데이터 중 적어도 하나에 기초하여 획득될 수 있다.
전자 장치(1000)에 의해 인식된 오브젝트와 관련된 키워드는, 인식된 오브젝트의 명칭에 기초하여 결정될 수 있다. 예를 들면, 인식된 오브젝트가 A 레스토랑이면, 전자 장치(1000)는 A 레스토랑의 명칭을 상술한 컨텐츠의 위치 정보에 기초하여 획득할 수 있다. 전자 장치(1000)는 'A 레스토랑'의 명칭을 이용하여 인터넷 검색을 수행함으로써, A 레스토랑에 관한 특징에 관한 정보를 획득할 수 있다.
또 다른 예로, 전자 장치(1000)는 A 레스토랑에 관한 사용자 데이터에 기초하여, A 레스토랑의 특징 정보를 획득할 수 있다. 일 예로, A 레스토랑의 특징 정보는, 사용자에 의해 입력된 A 레스토랑에 관한 정보, 사용자가 A 레스토랑에 방문한 횟수 등 다양한 종류의 사용자 데이터에 기초하여 획득될 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는, 포커스 컨텐츠(130)에 포함된 오브젝트에 관한 식별 정보, 위치 정보, 상태 정보 및 특징 정보 중 적어도 하나를 포함한 텍스트 코멘트를 생성할 수 있다.
일 실시 예에 의하면, 컨텐츠에서 오브젝트로서 전자 장치(1000)의 사용자가 인식된 경우, 전자 장치(1000)는 1인칭 표현으로 텍스트 코멘트를 생성할 수 있다.
일 실시 예에 의한 컨텐츠와 관련된 사용자에 관한 정보는, 컨텐츠 생성 시 전자 장치(1000)의 사용자에 대한 동작 상태(ex. 이동 중, 휴식 중)에 관한 정보를 포함할 수 있다. 외부 장치에서 생성된 컨텐츠인 경우, 컨텐츠에 대한 동작 정보는, 외부 장치를 이용하는 사용자에 대한 동작 상태에 관한 정보를 포함할 수 있다. 사용자의 동작 상태에 관한 정보는, 전자 장치(1000)에 구비된 가속도 센서, 적외선 센서, 위치 센서 등 다양한 종류의 센서 장치에 의해 감지된 정보에 기초하여 획득될 수 있다. 상술한 예에 한하지 않고, 사용자의 동작 상태에 관한 정보는 다양한 종류의 정보에 기초하여, 획득될 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 포커스 컨텐츠(130)와 관련된 사용자에 관한 정보를 이용하여, 텍스트 코멘트를 생성할 수 있다. 예를 들면, 전자 장치(1000)는 사용자에 대한 동작 상태(ex. 버스/지하철로 이동중)를 나타내는 표현을 포함한 텍스트 코멘트를 생성할 수 있다.
일 실시 예에 의한, 컨텐츠에 대한 위치 정보는, 컨텐츠가 생성될 때 컨텐츠를 생성하는 전자 장치(1000)의 지리적 위치에 관한 정보를 포함할 수 있다. 컨텐츠에 대한 위치 정보는 전자 장치(1000)에 구비된 위치 센서에 의해 감지된 정보에 기초하여 획득될 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 포커스 컨텐츠(130)에 대한 위치 정보를 이용하여, 텍스트 코멘트를 생성할 수 있다. 예를 들면, 전자 장치(1000)는 컨텐츠가 촬영된 위치나 장소(ex. 제주도의 A해변, B레스토랑, C학교)를 나타내는 표현을 포함한 텍스트 코멘트를 생성할 수 있다.
일 실시 예에 의하면, 컨텐츠에 대한 날씨 정보는, 컨텐츠가 생성될 때의 날씨에 관한 정보를 포함할 수 있다. 전자 장치(1000)는 포커스 컨텐츠(130)에 대한 날씨 정보를 이용하여, 텍스트 코멘트를 생성할 수 있다. 예를 들면, 전자 장치(1000)는 포커스 컨텐츠(130)가 촬영될 때의 날씨(ex. 눈 오는날, 비 오는날)를 나타내는 표현을 포함한 텍스트 코멘트를 생성할 수 있다.
일 실시 예에 의하면, 전자 장치(1000)는 포커스 컨텐츠(130)를 분석한 결과 획득될 수 있는 정보뿐만 아니라, 포커스 컨텐츠(130)와 관련된 사용자의 개인 정보나 인터넷에서 검색 가능한 정보 등 다양한 방법을 통해 획득된 정보를 활용하여, 텍스트 코멘트를 생성할 수 있다. 따라서, 일 실시 예에 의한 전자 장치(1000)는 개인화되고 컨텐츠를 나타내기 위한 보다 구체적인 표현을 포함한 텍스트 코멘트를 생성할 수 있다.
도 1에 도시된 실시예에서는, 텍스트 코멘트(140)의 생성을 위해, 포커스 컨텐츠(130)의 특징 정보로서, 컨텐츠와 관련된 위치 정보 및 오브젝트에 관한 정보가 획득될 수 있다. 예를 들면, 위치 정보는, 포커스 컨텐츠(130)의 촬영 장소인 '제주도 월정리 해변'을 포함할 수 있다. 또한, 오브젝트에 관한 정보는, 포커스 컨텐츠(130)에서 인식된 오브젝트의 식별 정보로서, '나(사용자)'와 '둘째 딸 민희'를 포함할 수 있다. 또한, 오브젝트에 관한 정보는, 포커스 컨텐츠(130)에 포함된 오브젝트들의 동작 상태에 관한 정보로서, '나(사용자)는 웃으면서 모래 놀이를 하고 있음', '둘째 딸 민희는 노란색 튜브를 끼고 모래 놀이를 하고 있음'을 포함할 수 있다. 따라서, 전자 장치(1000)는 상술한 포커스 컨텐츠(130)의 특징 정보에 기초하여, '제주도 월정리 해변에서(위치 정보), 둘째 딸 민희(오브젝트의 식별 정보)와 웃으면서 노란색 튜브를 끼고 모래 놀이(오브젝트의 상태 정보) 사진'이란, 1인칭 표현의 텍스트 코멘트(140)를 생성할 수 있다.
일 실시 예에 의한 텍스트 코멘트는, 특징 정보가 삽입될 수 있는 텍스트 템플릿에 기초하여 생성될 수 있다. 예를 들면, 텍스트 템플릿은, '(위치 정보)에서', '(오브젝트의 식별 정보)와' '(오브젝트의 상태 정보)하고 있는 상태'를 포함할 수 있다. 텍스트 템플릿은, 포커스 컨텐츠(130)의 특징 정보에 기초하여 획득될 수 있다. 예를 들면, 텍스트 템플릿은, 각각의 특징 정보가 삽입될 수 있는 적어도 하나의 문구를 포함할 수 있다.
또한, 일 실시 예에 의한 텍스트 코멘트는, 사용자 입력에 따라, 전자 장치(1000)에서 이용된 텍스트 코멘트의 생성 패턴에 기초하여 생성될 수 있다. 일 실시 예에 의하면, 사용자 입력에 따라 게시물 또는 메시지 작성에 이용된 텍스트 코멘트와, 텍스트 코멘트와 대응되는 적어도 하나의 컨텐츠(110, 120, 130)에 기초하여, 텍스트 코멘트의 생성 패턴이 학습될 수 있다. 따라서, 일 실시 예에 의한 전자 장치(1000)는 사용자에 대한 텍스트 코멘트의 생성 패턴을 이용하여, 텍스트 코멘트를 생성할 수 있다. 예를 들면, 전자 장치(1000)는 텍스트 코멘트의 생성 패턴에 기초하여, 각각의 텍스트 구조 및 단어에 대한 사용자의 사용 빈도수에 따라, 텍스트 코멘트를 생성할 수 있다.
텍스트 코멘트의 생성 패턴은, 전자 장치(1000)의 사용자 외에 다른 사용자에 의해 이용된 텍스트 코멘트에 의해서도 학습될 수 있다.
일 실시 예에 의해 생성된 텍스트 코멘트는, 사용자가 확인할 수 있도록 디스플레이에 표시되거나, 다른 출력 수단을 통해 출력될 수 있다. 사용자 입력에 따라, 일 실시 예에 의해 생성된 텍스트 코멘트는 수정될 수 있다. 텍스트 코멘트는 사용자 입력에 따라, 적어도 하나의 컨텐츠(110, 120, 130)를 포함한 게시물로서, SNS(social network service), 인터넷 게시판, 블로그 등에 업로드될 수 있다. 또는, 사용자 입력에 따라, 텍스트 코멘트는 적어도 하나의 컨텐츠(110, 120, 130)와 함께 메시지, 이메일 등을 통해 외부 장치로 전송될 수 있다. 또한, 사용자 입력에 따라, 전자 장치(1000)에서 이용된 텍스트 코멘트는, 텍스트 코멘트의 생성 패턴이 학습되는데 이용될 수 있다.
일 실시 예에 의한 전자 장치(1000)는 생성된 텍스트 코멘트를 이용하여 다양한 종류의 컨텐츠를 작성하되, 사용자의 컨텐츠 작성 패턴에 기초하여, 컨텐츠를 보정하거나 필터를 적용시킬 수 있다. 예를 들면, 전자 장치(1000)는, 컨텐츠에서 사용자가 오브젝트로서 식별된 경우, 사용자의 이용 빈도수가 높은 보정 필터를 사용자로 식별된 오브젝트에 적용시킬 수 있다.
일 실시 예에 의한 전자 장치(1000)는 컨텐츠에서 식별된 오브젝트를 텍스트 코멘트를 생성하는데 이용할지 여부를 결정할 수 있다. 예를 들면, 오브젝트가, 연예인, 대중인, 또는 사회 상규나 도덕적 관념에 어긋나는 대상인 것으로 판단되는 경우, 전자 장치(1000)는 상술한 오브젝트에 관한 정보를 텍스트 코멘트의 생성에 이용하지 않을 수 있다. 따라서, 일 실시 예에 의한 전자 장치(1000)는, 컨텐츠에 포함된 민감하거나 부적절한 오브젝트에 관한 정보가 텍스트 코멘트에 포함되지 않도록, 텍스트 코멘트를 생성할 수 있다. 따라서, 전자 장치(1000)는 부적절한 텍스트 코멘트가 생성되지 않도록 동작할 수 있다.
도 2 및 도 3은 일 실시 예에 의한 전자 장치(1000)를 나타낸 블록도이다.
도 2에 도시된 바와 같이, 일 실시예에 따른 전자 장치(1000)는, 메모리(1700), 디스플레이부(1210), 및 프로세서(1300)를 포함할 수 있다. 그러나, 도 2에 도시된 구성 요소 모두가 전자 장치(1000)의 필수 구성 요소인 것은 아니다. 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 도 2에 도시된 구성 요소보다 적은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있다.
예를 들어, 도 3에 도시된 바와 같이, 일부 실시예에 따른 전자 장치(1000)는, 메모리(1700), 디스플레이부(1210) 및 프로세서(1300) 이외에 사용자 입력부(1100), 통신부(1500), 출력부(1200), 센싱부(1400) 및 A/V 입력부(1600)를 더 포함할 수도 있다.
사용자 입력부(1100)는, 사용자가 전자 장치(1000)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
일 실시 예에 의하면, 사용자 입력부(1100)는, 텍스트 코멘트를 생성하기 위한 사용자 입력을 수신할 수 있다. 또한, 사용자 입력부(1100)는, 생성된 텍스트 코멘트를 수정하거나 이용하기 위한 사용자 입력을 수신할 수 있다.
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.
디스플레이부(1210)는 전자 장치(1000)에서 처리되는 정보를 표시 출력한다. 예를 들어, 디스플레이부(1210)는, 텍스트 코멘트가 생성될 적어도 하나의 컨텐츠를 디스플레이할 수 있다. 또한, 디스플레이부(1210)는, 일 실시 예에 의해 생성된 텍스트 코멘트를 디스플레이할 수 있다.
한편, 디스플레이부(1210)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(1210)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(1210)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 전자 장치(1000)의 구현 형태에 따라 전자 장치(1000)는 디스플레이부(1210)를 2개 이상 포함할 수도 있다.
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 데이터를 출력한다.
진동 모터(1230)는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
프로세서(1300)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다.
구체적으로, 프로세서(1300)는 적어도 하나의 컨텐츠를 포함하는 컨텐츠 그룹을 획득할 수 있다. 프로세서(1300)는, 컨텐츠 그룹에 포함된 적어도 하나의 컨텐츠 각각에 대한 특징 정보를 획득하고, 특징 정보를 이용하여, 적어도 하나의 컨텐츠 중 포커스 컨텐츠를 결정할 수 있다. 또한, 프로세서(1300)는, 포커스 컨텐츠의 특징 정보를 이용하여, 컨텐츠 그룹에 대한 텍스트 코멘트를 생성할 수 있다.
센싱부(1400)는, 전자 장치(1000)의 상태 또는 전자 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 프로세서(1300)로 전달할 수 있다. 일 실시 예에 의하면, 센싱부(1400)에 의해 감지된 정보는, 컨텐츠와 관련된 사용자 데이터 및 사용자에 관한 정보로서 획득될 수 있다.
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
통신부(1500)는, 전자 장치(1000)가 다른 전자 디바이스(2000) 또는 외부 디바이스(미도시)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(1510)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1000)가 방송 수신부(1530)를 포함하지 않을 수도 있다.
일 실시 예에 의한, 통신부(1500)는, 외부 장치(미도시)와 데이터를 송수신할 수 있다. 예를 들면, 통신부(1500)는, 사용자 입력에 따라, 적어도 하나의 컨텐츠에 대해 생성된 텍스트 코멘트를 상기 적어도 하나의 컨텐츠와 함께 외부 서버로 전송할 수 있다. 외부 서버로 전송된 적어도 하나의 컨텐츠 및 텍스트 코멘트는, SNS, 블로그, 인터넷 게시판 등에서 게시물로 업로드될 수 있다. 또 다른 예로0, 통신부(1500)는, 사용자 입력에 따라, 적어도 하나의 컨텐츠에 대해 생성된 텍스트 코멘트를 상기 적어도 하나의 컨텐츠와 함께, SNS 메시지 또는 이메일 메시지로서 외부 장치로 전송할 수 있다.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 일 실시 예에 의하면, A/V 입력부(1600)에 의해 생성된 오디오 신호 또는 비디오 신호는, 텍스트 코멘트를 생성하기 위한 적어도 하나의 컨텐츠로 이용될 수 있다.
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 일 실시 예에 의하면, 마이크로폰(1620)에 의해 수신된 음향 신호는, 텍스트 코멘트가 생성될 적어도 하나의 컨텐츠로 이용될 수 있다.
메모리(1700)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되거나 전자 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다. 일 실시 예에 의한 메모리(1700)는 텍스트 코멘트가 생성될 적어도 하나의 컨텐츠를 저장할 수 있다. 또한, 메모리(1700)는 컨텐츠와 관련된 특징 정보를 저장할 수 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다.
UI 모듈(1710)은, 애플리케이션 별로 전자 장치(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(1300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(1730)은 전자 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다.
도 4는 일부 실시예에 따른 프로세서(1300)의 블록도이다.
도 4를 참조하면, 일부 실시예에 따른 프로세서(1300)는 데이터 학습부(1310) 및 데이터 인식부(1320)를 포함할 수 있다.
데이터 학습부(1310)는, 텍스트 코멘트를 생성하기 위한 기준을 학습할 수 있다. 데이터 학습부(1310)는 텍스트 코멘트를 생성하기 위해 어떤 데이터를 이용할 지, 데이터를 이용하여 텍스트 코멘트를 어떻게 생성할 지에 관한 기준을 학습할 수 있다. 데이터 학습부(1310)는 학습에 이용될 데이터를 획득하고, 획득된 데이터를 후술할 데이터 인식 모델에 적용함으로써, 텍스트 코멘트를 생성하기 위한 기준을 학습할 수 있다.
데이터 인식부(1320)는 데이터에 기초하여 텍스트 코멘트를 생성할 수 있다. 데이터 인식부(1320)는 학습된 데이터 인식 모델을 이용하여, 소정의 데이터로부터 텍스트 코멘트를 생성할 수 있다. 데이터 인식부(1320)는 학습에 의한 기 설정된 기준에 따라 소정의 데이터를 획득하고, 획득된 데이터를 입력 값으로 하여 데이터 인식 모델을 이용함으로써, 소정의 데이터에 기초한 텍스트 코멘트를 생성할 수 있다. 또한, 획득된 데이터를 입력 값으로 하여 데이터 인식 모델에 의해 출력된 결과 값은, 데이터 인식 모델을 갱신하는데 이용될 수 있다.
데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.
이 경우, 데이터 학습부(1310) 및 데이터 인식부(1320)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(1310) 및 데이터 인식부(1320) 중 하나는 전자 장치에 포함되고, 나머지 하나는 서버에 포함될 수 있다. 또한, 데이터 학습부(1310) 및 데이터 인식부(1320)는 유선 또는 무선으로 통하여, 데이터 학습부(1310)가 구축한 모델 정보를 데이터 인식부(1320)로 제공할 수도 있고, 데이터 인식부(1320)로 입력된 데이터가 추가 학습 데이터로서 데이터 학습부(1310)로 제공될 수도 있다.
한편, 데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(1310) 및 데이터 인식부(1320) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 5는 일부 실시예에 따른 데이터 학습부(1310)의 블록도이다.
도 5를 참조하면, 일부 실시예에 따른 데이터 학습부(1310)는 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5)를 포함할 수 있다.
데이터 획득부(1310-1)는 텍스트 코멘트를 생성하는데 필요한 데이터를 획득할 수 있다. 데이터 획득부(1310-1)는 텍스트 코멘트를 생성하기 위한 학습을 위하여 필요한 데이터를 획득할 수 있다.
데이터 획득부(1310-1)는 텍스트 코멘트를 생성하는데 이용된 포커스 컨텐츠(130)에 관한 정보를 획득할 수 있다. 포커스 컨텐츠(130)에 관한 정보는, 포커스 컨텐츠(130)에 대한 특징 정보를 포함할 수 있다.
또한, 데이터 획득부(1310-1)는, 텍스트 코멘트를 생성하는데 이용된 적어도 하나의 컨텐츠의 특징 정보를 획득할 수 있다. 컨텐츠의 특징 정보는, 컨텐츠에 포함된 오브젝트에 관한 정보, 날씨 및 위치 정보, 사용자의 동작 정보 중 적어도 하나를 포함할 수 있다.
또한, 데이터 획득부(1310-1)는, 사용자 또는 다른 사용자에 의해 작성된 텍스트 코멘트에 관한 정보를 획득할 수 있다.
전처리부(1310-2)는 텍스트 코멘트의 생성을 위한 학습을 위하여, 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(1310-2)는 후술할 모델 학습부(1310-4)가 상황 판단을 위한 학습을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.
학습 데이터 선택부(1310-3)는 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 모델 학습부(1310-4)에 제공될 수 있다. 학습 데이터 선택부(1310-3)는 텍스트 코멘트를 생성하기 위한 기 설정된 기준에 따라, 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 또한, 학습 데이터 선택부(1310-3)는 후술할 모델 학습부(1310-4)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.
모델 학습부(1310-4)는 학습 데이터에 기초하여 텍스트 코멘트를 어떻게 생성할 지에 관한 기준을 학습할 수 있다. 또한, 모델 학습부(1310-4)는 텍스트 코멘트를 생성하기 위하여 어떤 학습 데이터를 이용해야 하는 지에 대한 기준을 학습할 수도 있다.
또한, 모델 학습부(1310-4)는 텍스트 코멘트의 생성에 이용되는 데이터 인식 모델을 학습 데이터를 이용하여 학습시킬 수 있다. 이 경우, 데이터 인식 모델은 미리 구축된 모델일 수 있다. 예를 들어, 데이터 인식 모델은 기본 학습 데이터(예를 들어, 샘플 이미지 등)을 입력 받아 미리 구축된 모델일 수 있다.
데이터 인식 모델은, 인식 모델의 적용 분야, 학습의 목적 또는 장치의 컴퓨터 성능 등을 고려하여 구축될 수 있다. 데이터 인식 모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 데이터 인식 모델로서 사용될 수 있으나, 이에 한정되지 않는다.
다양한 실시예에 따르면, 모델 학습부(1310-4)는 미리 구축된 데이터 인식 모델이 복수 개가 존재하는 경우, 입력된 학습 데이터와 기본 학습 데이터의 관련성이 큰 데이터 인식 모델을 학습할 데이터 인식 모델로 결정할 수 있다. 이 경우, 기본 학습 데이터는 데이터의 타입 별로 기 분류되어 있을 수 있으며, 데이터 인식 모델은 데이터의 타입 별로 미리 구축되어 있을 수 있다. 예를 들어, 기본 학습 데이터는 학습 데이터가 생성된 지역, 학습 데이터가 생성된 시간, 학습 데이터의 크기, 학습 데이터의 종류, 학습 데이터의 생성자, 학습 데이터 내의 오브젝트의 종류 등과 같은 다양한 기준으로 기 분류되어 있을 수 있다.
또한, 모델 학습부(1310-4)는, 예를 들어, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 데이터 인식 모델을 학습시킬 수 있다.
또한, 모델 학습부(1310-4)는, 예를 들어, 학습 데이터를 입력 값으로 하는 지도 학습(supervised learning) 을 통하여, 데이터 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(1310-4)는, 예를 들어, 별다른 지도없이 상황 판단을 위해 필요한 데이터의 종류를 스스로 학습함으로써, 상황 판단을 위한 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(1310-4)는, 예를 들어, 학습에 따른 상황 판단의 결과가 올바른 지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통하여, 데이터 인식 모델을 학습시킬 수 있다.
또한, 데이터 인식 모델이 학습되면, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 저장할 수 있다. 이 경우, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 데이터 인식부(1320)를 포함하는 전자 장치의 메모리에 저장할 수 있다. 또는, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 후술할 데이터 인식부(1320)를 포함하는 전자 장치의 메모리에 저장할 수 있다. 또는, 모델 학습부(1310-4)는 학습된 데이터 인식 모델을 전자 장치와 유선 또는 무선 네트워크로 연결되는 서버의 메모리에 저장할 수도 있다.
이 경우, 학습된 데이터 인식 모델이 저장되는 메모리는, 예를 들면, 전자 장치의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 함께 저장할 수도 있다. 또한, 메모리는 소프트웨어 및/또는 프로그램을 저장할 수도 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API) 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다.
모델 평가부(1310-5)는 데이터 인식 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 인식 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(1310-4)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 데이터 인식 모델을 평가하기 위한 기 설정된 데이터일 수 있다.
예를 들어, 모델 평가부(1310-5)는 평가 데이터에 대한 학습된 데이터 인식 모델의 인식 결과 중에서, 인식 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 예컨대, 소정 기준이 비율 2%로 정의되는 경우, 학습된 데이터 인식 모델이 총 1000개의 평가 데이터 중의 20개를 초과하는 평가 데이터에 대하여 잘못된 인식 결과를 출력하는 경우, 모델 평가부(1310-5)는 학습된 데이터 인식 모델이 적합하지 않은 것으로 평가할 수 있다.
한편, 학습된 데이터 인식 모델이 복수 개가 존재하는 경우, 모델 평가부(1310-5)는 각각의 학습된 동영상 인식 모델에 대하여 소정 기준을 만족하는지를 평가하고, 소정 기준을 만족하는 모델을 최종 데이터 인식 모델로서 결정할 수 있다. 이 경우, 소정 기준을 만족하는 모델이 복수 개인 경우, 모델 평가부(1310-5)는 평가 점수가 높은 순으로 미리 설정된 어느 하나 또는 소정 개수의 모델을 최종 데이터 인식 모델로서 결정할 수 있다.
한편, 데이터 학습부(1310) 내의 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.
또한, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 일부는 전자 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.
또한, 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(1310-1), 전처리부(1310-2), 학습 데이터 선택부(1310-3), 모델 학습부(1310-4) 및 모델 평가부(1310-5) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 6은 일부 실시예에 따른 데이터 인식부(1320)의 블록도이다.
도 6을 참조하면, 일부 실시예에 따른 데이터 인식부(1320)는 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5)를 포함할 수 있다.
데이터 획득부(1320-1)는 텍스트 코멘트의 생성에 필요한 데이터를 획득할 수 있으며, 전처리부(1320-2)는 텍스트 코멘트의 생성을 위해 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(1320-2)는 후술할 인식 결과 제공부(1320-4)가 텍스트 코멘트의 생성을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.
인식 데이터 선택부(1320-3)는 전처리된 데이터 중에서 텍스트 코멘트의 생성에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 인식 결과 제공부(1320-4)에게 제공될 수 있다. 인식 데이터 선택부(1320-3)는 텍스트 코멘트의 생성을 위한 기 설정된 기준에 따라, 전처리된 데이터 중에서 일부 또는 전부를 선택할 수 있다. 또한, 인식 데이터 선택부(1320-3)는 후술할 모델 학습부(1310-4)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.
인식 결과 제공부(1320-4)는 선택된 데이터를 데이터 인식 모델에 적용하여 텍스트 코멘트를 생성할 수 있다. 인식 결과 제공부(1320-4)는 데이터의 인식 목적에 따른 인식 결과로서, 텍스트 코멘트를 제공할 수 있다. 인식 결과 제공부(1320-4)는 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 입력 값으로 이용함으로써, 선택된 데이터를 데이터 인식 모델에 적용할 수 있다. 또한, 인식 결과는 데이터 인식 모델에 의해 결정될 수 있다.
모델 갱신부(1320-5)는 인식 결과 제공부(1320-4)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 데이터 인식 모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(1320-5)는 인식 결과 제공부(1320-4)에 의해 제공되는 인식 결과를 모델 학습부(1310-4)에게 제공함으로써, 모델 학습부(1310-4)가 데이터 인식 모델을 갱신하도록 할 수 있다.
한편, 데이터 인식부(1320) 내의 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.
또한, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 일부는 전자 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.
또한, 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(1320-1), 전처리부(1320-2), 인식 데이터 선택부(1320-3), 인식 결과 제공부(1320-4) 및 모델 갱신부(1320-5) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 7은 일부 실시예에 따른 전자 장치(1000) 및 서버(2000)가 서로 연동함으로써 데이터를 학습하고 인식하는 예시를 나타내는 도면이다.
도 7을 참조하면, 서버(2000)는 텍스트 코멘트를 생성하기 위한 기준을 학습할 수 있으며, 전자 장치(1000)는 서버(2000)에 의한 학습 결과에 기초하여 텍스트 코멘트를 생성할 수 있다.
이 경우, 서버(2000)의 모델 학습부(2340)는 도 5에 도시된 데이터 학습부(1310)의 기능을 수행할 수 있다. 서버(2000)의 모델 학습부(2340)는 텍스트 코멘트를 생성하기 위하여 어떤 데이터를 이용할 지, 데이터를 이용하여 텍스트 코멘트를 어떻게 생성할 지에 관한 기준을 학습할 수 있다. 모델 학습부(2340)는 학습에 이용될 데이터를 획득하고, 획득된 데이터를 후술할 데이터 인식 모델에 적용함으로써, 텍스트 코멘트의 생성을 위한 기준을 학습할 수 있다.
또한, 전자 장치(1000)의 인식 결과 제공부(1320-4)는 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 서버(2000)에 의해 생성된 데이터 인식 모델에 적용하여 텍스트 코멘트를 생성할 수 있다. 예를 들어, 인식 결과 제공부(1320-4)는 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 서버(2000)에게 전송하고, 서버(2000)가 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 인식 모델에 적용하여 텍스트 코멘트를 생성할 것을 요청할 수 있다. 또한, 인식 결과 제공부(1320-4)는 서버(2000)에 의해 생성된 텍스트 코멘트에 관한 정보를 서버(2000)로부터 수신할 수 있다.
또는, 전자 장치(1000)의 인식 결과 제공부(1320-4)는 서버(2000)에 의해 생성된 인식 모델을 서버(2000)로부터 수신하고, 수신된 인식 모델을 이용하여 텍스트 코멘트를 생성할 수 있다. 이 경우, 전자 장치(1000)의 인식 결과 제공부(1320-4)는 인식 데이터 선택부(1320-3)에 의해 선택된 데이터를 서버(2000)로부터 수신된 데이터 인식 모델에 적용하여 텍스트 코멘트를 생성할 수 있다.
도 8은 일 실시 예에 의한 컨텐츠에 대한 텍스트 코멘트를 자동으로 생성하는 방법을 나타낸 순서도이다.
도 8을 참조하면, 단계 810에서, 전자 장치(1000)는, 텍스트 코멘트를 생성하기 위한 적어도 하나의 컨텐츠를 포함하는 컨텐츠 그룹을 획득할 수 있다. 일 실시 예에 의하면, 텍스트 코멘트를 생성하기 위한 적어도 하나의 컨텐츠는, 사용자 입력에 따라 선택될 수 있다.
또 다른 예에 의하면, 전자 장치(1000)는 적어도 하나의 사진 또는 동영상이 촬영되어 생성되면, 사용자의 행동 패턴에 따라, 사용자의 별도 입력 없이, 현재 촬영된 적어도 하나의 사진 또는 동영상을 획득하여, 자동으로 텍스트 코멘트를 생성할 수 있다.
음식을 포함한 사진이 촬영될 때마다 SNS 게시물이 작성되는 경우를 예를 들면, 전자 장치(1000)는 사용자의 사진 촬영 패턴에 따라, 자동으로 텍스트 코멘트를 생성할 수 있다. 사용자 입력에 의해 전자 장치(1000)가 음식을 포함한 사진 촬영을 수행하면, 텍스트 코멘트를 생성하기 위한 사용자 입력 없이, 적어도 하나의 음식 사진에 대한 텍스트 코멘트를 자동으로 생성하여 표시할 수 있다. 사용자는, 자동으로 생성된 텍스트 코멘트를 확인하고, 필요한 경우, 수정할 수 있다. 전자 장치(1000)는, 사용자 입력에 따라, 자동 생성된 텍스트 코멘트를 이용하여 SNS 게시물을 작성할 수 있다.
단계 820에서, 전자 장치(1000)는, 단계 810에서 획득된 적어도 하나의 컨텐츠 각각에 대한 특징 정보를 획득할 수 있다. 일 실시 예에 의하면, 특징 정보는, 컨텐츠에 포함된 오브젝트에 관한 정보, 컨텐츠와 관련된 날씨, 위치 및 사용자에 관한 정보 중 적어도 하나를 포함할 수 있다.
일 실시 예에 의한 컨텐츠의 특징 정보는, 컨텐츠를 분석함으로써 획득될 수 있으나, 이에 한하지 않고, 사용자 데이터나 인터넷에서 검색 가능한 정보 등 다양한 방법을 통해 획득된 정보에 기초하여 획득될 수 있다.
단계 830에서, 전자 장치(1000)는 단계 820에서 획득된 특징 정보를 이용하여, 적어도 하나의 컨텐츠 중 포커스 컨텐츠를 결정할 수 있다. 일 실시 예에 의하면, 컨텐츠의 특징 정보에 기초하여, 적어도 하나의 컨텐츠를 대표할 수 있는 컨텐츠가 포커스 컨텐츠로 결정될 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는, 포커스 컨텐츠를 선택하기 위한 기계학습 알고리즘에 기초하여, 포커스 컨텐츠를 결정할 수 있다. 그러나, 이에 한하지 않고 다양한 방법에 따라 포커스 컨텐츠를 결정할 수 있다.
단계 840에서, 전자 장치(1000)는 단계 830에서 결정된 포커스 컨텐츠를 이용하여, 컨텐츠 그룹에 대한 텍스트 코멘트를 생성할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 포커스 컨텐츠의 특징 정보에 기초하여, 텍스트 템플릿을 획득하고, 텍스트 템플릿에 포커스 컨텐츠의 특징 정보를 삽입함으로써, 텍스트 코멘트를 생성할 수 있다.
또한, 일 실시 예에 의하면, 전자 장치(1000)는 포커스 컨텐츠의 특징 정보와 같거나 유사한 특징 정보를 포함하는 다른 컨텐츠에 대한 텍스트 코멘트에 기초하여, 적어도 하나의 컨텐츠에 대한 텍스트 코멘트를 생성할 수 있다.
예를 들어, 포커스 컨텐츠가 음식을 포함하는 사진인 경우, 전자 장치(1000)는 음식과 관련된 다른 컨텐츠에 대한 텍스트를 이용하여 텍스트 코멘트를 생성할 수 있다. 일 예로, 전자 장치(1000)는, SNS에 업로드된 게시글 중, 해시태그가 '음식', '맛집', '요리' 등을 포함하는 게시글을 검색할 수 있다. 전자 장치(1000)는 검색된 SNS 게시글의 구조, 포함된 단어 등을 이용하여, 적어도 하나의 컨텐츠에 대한 텍스트 코멘트를 생성할 수 있다.
단계 850에서, 전자 장치(1000)는 단계 840에서 생성된 텍스트 코멘트를 표시할 수 있다. 사용자 입력에 따라, 전자 장치(1000)는 생성된 텍스트 코멘트를 이용하여 SNS 메시지, 이메일 메시지, SNS 게시글 등을 작성하여, 외부 장치로 전송할 수 있다.
도 9는 일 실시 예에 의한 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법을 나타낸 순서도이다. 도 9에 도시된 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법은, 도 8의 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법과 대응되며, 중복되는 설명은 생략될 수 있다.
도 9를 참조하면, 단계 910에서, 전자 장치(1000)는 텍스트 코멘트를 생성하기 위한 적어도 하나의 컨텐츠를 포함한 컨텐츠 그룹을 획득할 수 있다.
단계 920에서, 전자 장치(1000)는 적어도 하나의 컨텐츠와 관련된 사용자 데이터를 획득할 수 있다. 사용자 데이터는, 사용자의 주변 환경, 주변 인물, 생활 패턴 등 사용자와 관련된 정보뿐만 아니라 전자 장치(1000)의 사용자와 관련된 인물, 사물, 동물에 관한 정보를 포함할 수 있다.
단계 930에서, 전자 장치(1000)는, 단계 910에서 획득한 컨텐츠 각각의 특징 정보를 획득할 수 있다. 일 실시 예에 의하면, 전자 장치(1000)는 단계 920에서 획득한 컨텐츠와 관련된 사용자 데이터를 이용하여, 컨텐츠의 특징 정보를 획득할 수 있다. 예를 들면, 사용자의 가족 중 한 명이 컨텐츠에서 오브젝트로 인식된 경우, 전자 장치(1000)는 사용자 데이터에 기초하여, 인식된 오브젝트의 명칭(ex. 나의 딸, 아들, 우리 엄마)을 컨텐츠의 특징 정보로서 획득할 수 있다.
단계 940에서, 전자 장치(1000)는 각 컨텐츠의 특징 정보를 이용하여 포커스 컨텐츠를 결정할 수 있다. 예를 들면, 텍스트 코멘트의 중심 주제와의 관련도가 높은 특징 정보를 많이 포함하는 컨텐츠가 포커스 컨텐츠로 결정될 수 있다. 중심 주제는, 사용자 입력에 따라 결정되거나, 각 컨텐츠의 특징 정보에 기초하여 결정될 수 있다.
단계 950에서, 전자 장치(1000)는, 텍스트 코멘트의 생성 패턴을 획득할 수 있다. 텍스트 코멘트의 생성 패턴은, 전자 장치(1000)의 사용자에 의해 생성된 텍스트에 기초하여 미리 학습될 수 있다. 또한, 텍스트 코멘트의 생성 패턴은 전자 장치(1000)의 사용자에 한하지 않고, 다른 사용자에 의해 생성된 텍스트에 기초하여 학습된 것을 포함할 수 있다.
단계 960에서, 전자 장치(1000)는, 포커스 컨텐츠의 특징 정보 및 텍스트 코멘트의 생성 패턴을 이용하여, 단계 910에서 획득한 컨텐츠 그룹에 대한 텍스트 코멘트를 생성할 수 있다.
단계 970에서, 전자 장치(1000)는, 필요한 경우, 사용자 입력에 따라 단계 960에서 생성된 텍스트 코멘트를 수정할 수 있다. 전자 장치(1000)는, 사용자 입력에 따라, 사용자에 의해 수정된 텍스트 코멘트를 이용하여, SNS 게시글 또는 메시지를 작성할 수 있다.
단계 980에서, 전자 장치(1000)는 사용자에 의해 수정된 텍스트 코멘트를 이용하여, 사용자에 대한 텍스트 코멘트의 생성 패턴을 갱신(modify)할 수 있다. 갱신된 텍스트 코멘트의 생성 패턴은, 일 실시 예에 따라 텍스트 코멘트를 자동으로 생성하는데 이용될 수 있다.
도 10은 일 실시 예에 의한 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법을 나타낸 블록도이다. 도 10에 도시된 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법은, 도 8 및 도 9의 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법과 대응되며, 중복되는 설명은 생략될 수 있다.
도 10을 참조하면, 블록 1010에서, 전자 장치(1000)는 적어도 하나의 컨텐츠를 포함한 컨텐츠 그룹을 획득할 수 있다. 또한, 블록 1020에서, 전자 장치(1000)는 텍스트 코멘트를 생성하기 위한 사용자 데이터를 획득할 수 있다. 사용자 데이터는, 사용자에 관한 라이프 로그 정보, 식별 정보, 사용자의 주변 인물, 주변 사물에 관한 식별 정보 등, 사용자에 관한 다양한 종류의 정보를 포함할 수 있다.
블록 1030에서, 전자 장치(1000)는 각각의 컨텐츠에 대한 특징 정보를, 사용자 데이터를 이용하여 획득할 수 있다. 컨텐츠에 대한 특징 정보는, 컨텐츠 자체를 분석한 결과에 기초하여 획득된 정보뿐만 아니라, 사용자에 관한 정보를 포함한 사용자 데이터를 이용하여 획득될 수 있다.
블록 1040에서, 전자 장치(1000)는, 컨텐츠의 특징 정보에 기초하여 포커스 컨텐츠를 결정할 수 있다.
블록 1050에서, 전자 장치(1000)는, 포커스 컨텐츠의 특징 정보에 기초하여, 텍스트가 삽입될 수 있는 템플릿을 획득할 수 있다.
블록 1070에서, 전자 장치(1000)는, 텍스트 코멘트의 생성 패턴을 획득할 수 있다. 텍스트 코멘트의 생성 패턴은, 전자 장치(1000)의 사용자에 의해 생성된 텍스트를 학습함으로써 획득될 수 있다.
블록 1060에서, 전자 장치(1000)는, 포커스 컨텐츠의 특징 정보에 기초하여, 템플릿 및 텍스트 코멘트의 생성 패턴을 이용하여, 블록 1010에서 획득된 컨텐츠 그룹에 대한 텍스트 코멘트를 생성할 수 있다.
블록 1080에서, 전자 장치(1000)는 사용자 입력에 따라 자동으로 생성된 텍스트 코멘트를 수정할 수 있다. 사용자 입력에 따라 텍스트 코멘트가 수정되는 경우, 전자 장치(1000)는, 수정된 텍스트 코멘트를 이용하여, 텍스트 코멘트의 생성 패턴을 갱신할 수 있다.
블록 1090에서, 전자 장치(1000)는 사용자 입력에 의해 수정된 텍스트 코멘트를 표시할 수 있다.
일 실시 예에 의하면, 적어도 하나의 컨텐츠 중에서 결정된 포커스 컨텐츠에 기초하여 텍스트 코멘트가 생성됨으로써, 중복되거나 모순되지 않은 특징 정보에 따라 텍스트 코멘트가 생성될 수 있다.
일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 또는 프로그램 모듈을 포함하며, 임의의 정보 전달 매체를 포함한다.
또한, 본 명세서에서, “부”는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법에 있어서,
    적어도 하나의 컨텐츠를 포함하는 컨텐츠 그룹을 획득하는 단계;
    상기 적어도 하나의 컨텐츠 각각에 대한 특징 정보를 획득하는 단계;
    상기 획득된 특징 정보를 이용하여, 상기 적어도 하나의 컨텐츠 중 포커스 컨텐츠를 결정하는 단계;
    상기 포커스 컨텐츠를 이용하여, 상기 컨텐츠 그룹에 대한 텍스트 코멘트를 생성하는 단계; 및
    상기 생성된 텍스트 코멘트를 표시하는 단계를 포함하는, 방법.
  2. 제1항에 있어서, 상기 텍스트 코멘트를 생성하는 단계는
    상기 포커스 컨텐츠의 특징 정보를 이용하여, 상기 컨텐츠 그룹에 대한 텍스트 코멘트를 생성하는 단계를 포함하는, 방법.
  3. 제1항에 있어서, 상기 텍스트 코멘트를 생성하는 단계는
    상기 적어도 하나의 컨텐츠 중에서, 상기 포커스 컨텐츠의 특징 정보와 중복되거나 모순된 특징 정보를 갖는 제 1 컨텐츠를 결정하는 단계; 및
    상기 적어도 하나의 컨텐츠 중에서 상기 제 1 컨텐츠 이외의 제 2 컨텐츠를 더 이용하여, 상기 컨텐츠 그룹에 대한 텍스트 코멘트를 생성하는 단계를 포함하는, 방법.
  4. 제1항에 있어서, 상기 적어도 하나의 컨텐츠에 대한 특징 정보는
    상기 적어도 하나의 컨텐츠에 포함된 오브젝트에 관한 정보, 상기 적어도 하나의 컨텐츠와 관련된 날씨, 위치 및 사용자에 관한 정보 중 적어도 하나를 포함하는, 방법.
  5. 제1항에 있어서, 상기 특징 정보를 획득하는 단계는
    상기 적어도 하나의 컨텐츠에 포함된 오브젝트를 인식하는 단계; 및
    상기 오브젝트의 식별 정보, 위치 정보, 상태에 관한 정보 및 특징에 관한 정보 중 적어도 하나를 포함하는, 상기 오브젝트에 관한 정보를 획득하는 단계를 포함하는, 방법.
  6. 제5항에 있어서, 상기 오브젝트를 인식하는 단계는
    상기 적어도 하나의 컨텐츠와 대응되는 위치 정보를 획득하는 단계; 및
    상기 위치 정보에 기초하여, 상기 적어도 하나의 컨텐츠에 포함된 오브젝트를 인식하는 단계를 포함하는, 방법.
  7. 제1항에 있어서, 상기 텍스트 코멘트를 생성하는 단계는
    상기 포커스 컨텐츠와 대응되는 특징 정보를 획득하는 단계;
    상기 포커스 컨텐츠의 특징 정보에 기초하여, 텍스트 템플릿을 획득하는 단계; 및
    상기 포커스 컨텐츠의 특징 정보 및 상기 텍스트 템플릿을 이용하여, 상기 텍스트 코멘트를 생성하는 단계를 포함하는, 방법.
  8. 컨텐츠에 대한 텍스트 코멘트를 생성하는 전자 장치에 있어서,
    적어도 하나의 컨텐츠를 포함하는 컨텐츠 그룹을 획득하고, 상기 적어도 하나의 컨텐츠 각각에 대한 특징 정보를 획득하고, 상기 획득된 특징 정보를 이용하여, 상기 적어도 하나의 컨텐츠 중 포커스 컨텐츠를 결정하고, 상기 포커스 컨텐츠를 이용하여, 상기 컨텐츠 그룹에 대한 텍스트 코멘트를 생성하는 프로세서; 및
    상기 생성된 텍스트 코멘트를 표시하는 디스플레이를 포함하는, 전자 장치.
  9. 제8항에 있어서, 상기 프로세서는,
    상기 포커스 컨텐츠의 특징 정보를 이용하여, 상기 컨텐츠 그룹에 대한 텍스트 코멘트를 생성하는, 전자 장치.
  10. 제8항에 있어서, 상기 프로세서는
    상기 적어도 하나의 컨텐츠 중에서, 상기 포커스 컨텐츠의 특징 정보와 중복되거나 모순된 특징 정보를 갖는 제 1 컨텐츠를 결정하고, 상기 적어도 하나의 컨텐츠 중에서 상기 제 1 컨텐츠 이외의 제 2 컨텐츠를 더 이용하여, 상기 컨텐츠 그룹에 대한 텍스트 코멘트를 생성하는, 전자 장치.
  11. 제8항에 있어서, 상기 적어도 하나의 컨텐츠에 대한 특징 정보는
    상기 적어도 하나의 컨텐츠에 포함된 오브젝트에 관한 정보, 상기 적어도 하나의 컨텐츠와 관련된 날씨, 위치 및 사용자에 관한 정보 중 적어도 하나를 포함하는, 전자 장치.
  12. 제8항에 있어서, 상기 프로세서는
    상기 적어도 하나의 컨텐츠에 포함된 오브젝트를 인식하고,
    상기 오브젝트의 식별 정보, 위치 정보, 상태에 관한 정보 및 특징에 관한 정보 중 적어도 하나를 포함하는, 상기 오브젝트에 관한 정보를 획득하는, 전자 장치.
  13. 제12항에 있어서, 상기 프로세서는
    상기 적어도 하나의 컨텐츠와 대응되는 위치 정보를 획득하고, 상기 위치 정보에 기초하여, 상기 적어도 하나의 컨텐츠에 포함된 오브젝트를 인식하는, 전자 장치.
  14. 제8항에 있어서, 상기 프로세서는
    상기 포커스 컨텐츠와 대응되는 특징 정보를 획득하고, 상기 포커스 컨텐츠의 특징 정보에 기초하여, 텍스트 템플릿을 획득하고, 상기 포커스 컨텐츠의 특징 정보 및 상기 텍스트 템플릿을 이용하여, 상기 텍스트 코멘트를 생성하는, 전자 장치.
  15. 제1항 내지 제7항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020180016559A 2018-02-09 2018-02-09 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법 및 전자 장치 KR20190096752A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180016559A KR20190096752A (ko) 2018-02-09 2018-02-09 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법 및 전자 장치
US16/266,217 US20190251355A1 (en) 2018-02-09 2019-02-04 Method and electronic device for generating text comment about content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180016559A KR20190096752A (ko) 2018-02-09 2018-02-09 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법 및 전자 장치

Publications (1)

Publication Number Publication Date
KR20190096752A true KR20190096752A (ko) 2019-08-20

Family

ID=67540561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180016559A KR20190096752A (ko) 2018-02-09 2018-02-09 컨텐츠에 대한 텍스트 코멘트를 생성하는 방법 및 전자 장치

Country Status (2)

Country Link
US (1) US20190251355A1 (ko)
KR (1) KR20190096752A (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825952A (zh) * 2019-11-08 2020-02-21 福州大学 基于嵌套lstm的水军评论检测方法及系统
CN111428489B (zh) * 2020-03-19 2023-08-29 北京百度网讯科技有限公司 一种评论生成方法、装置、电子设备及存储介质
CN111859959A (zh) * 2020-07-24 2020-10-30 南京航空航天大学 一种基于深度学习的虚假评论自动生成方法和装置
CN114821566A (zh) * 2022-05-13 2022-07-29 北京百度网讯科技有限公司 文本识别方法、装置、电子设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8929615B2 (en) * 2011-11-03 2015-01-06 Facebook, Inc. Feature-extraction-based image scoring
US9317531B2 (en) * 2012-10-18 2016-04-19 Microsoft Technology Licensing, Llc Autocaptioning of images
US10732783B2 (en) * 2015-12-28 2020-08-04 Microsoft Technology Licensing, Llc Identifying image comments from similar images
US20190197315A1 (en) * 2017-12-21 2019-06-27 Facebook, Inc. Automatic story generation for live media

Also Published As

Publication number Publication date
US20190251355A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
US20200236425A1 (en) Method and apparatus for filtering video
KR102359391B1 (ko) 디바이스가 이미지를 보정하는 방법 및 그 디바이스
US20200118010A1 (en) System and method for providing content based on knowledge graph
KR102428920B1 (ko) 전자 장치 및 그 동작 방법
KR102491546B1 (ko) 객체를 인식하는 방법 및 장치
KR20220020296A (ko) 디바이스가 이미지를 보정하는 방법 및 그 디바이스
KR102556492B1 (ko) 텍스트와 연관된 이미지 제공 방법 및 이를 위한 전자 장치
US11508364B2 (en) Electronic device for outputting response to speech input by using application and operation method thereof
KR102606287B1 (ko) 애플리케이션의 번역 정보를 제공하는 디바이스 및 방법
KR102480416B1 (ko) 차선 정보를 추정하는 방법 및 전자 장치
KR102474246B1 (ko) 복수 개의 전자 디바이스를 이용하여 신경망 모델을 처리하는 방법 및 시스템
KR20180055708A (ko) 이미지를 처리하는 전자 장치 및 방법
KR102304701B1 (ko) 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치
KR102628042B1 (ko) 연락처 정보를 추천하는 방법 및 디바이스
US20190251355A1 (en) Method and electronic device for generating text comment about content
KR102474245B1 (ko) 스와이프 입력에 기초하여 입력 문자를 판단하는 시스템 및 방법
KR102430567B1 (ko) 텍스트와 연관된 이미지 제공 방법 및 이를 위한 전자 장치
KR20180060971A (ko) 사용자 입력에 기반한 문장을 제공하는 장치 및 방법
US11327320B2 (en) Electronic device and method of controlling the same
KR102384878B1 (ko) 동영상을 필터링하는 방법 및 장치
KR102464906B1 (ko) 패션 상품을 추천하는 전자 장치, 서버 및 그 동작 방법
US20210004702A1 (en) System and method for generating information for interaction with a user
KR102440963B1 (ko) 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체
KR20200084395A (ko) 영상에서 오브젝트를 인식하는 전자 장치 및 그 동작 방법
KR20200084428A (ko) 동영상을 제작하는 방법 및 그에 따른 장치