KR102009145B1 - 미디어 객체 기반의 저작 방법 및 장치 - Google Patents

미디어 객체 기반의 저작 방법 및 장치 Download PDF

Info

Publication number
KR102009145B1
KR102009145B1 KR1020170154017A KR20170154017A KR102009145B1 KR 102009145 B1 KR102009145 B1 KR 102009145B1 KR 1020170154017 A KR1020170154017 A KR 1020170154017A KR 20170154017 A KR20170154017 A KR 20170154017A KR 102009145 B1 KR102009145 B1 KR 102009145B1
Authority
KR
South Korea
Prior art keywords
media
sensory
authoring
information
sensory effect
Prior art date
Application number
KR1020170154017A
Other languages
English (en)
Other versions
KR20180055750A (ko
Inventor
김지연
고은진
박노삼
박상욱
윤재관
윤현진
이훈기
장종현
지덕구
한미경
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20180055750A publication Critical patent/KR20180055750A/ko
Application granted granted Critical
Publication of KR102009145B1 publication Critical patent/KR102009145B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Marketing (AREA)
  • Signal Processing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

미디어 객체 기반의 저작 방법 및 장치가 개시된다. 본 발명에 미디어 객체 기반의 저작 방법은 미디어에 포함된 객체를 기반으로 실감 미디어의 저작을 제공하는 저작 장치에서 수행되는 저작 방법으로서, 실감 미디어를 저작하기 위한 원시 미디어를 획득하는 단계, 원시 미디어에 포함된 복수의 장면들 중 사용자에 의해 선택된 적어도 하나의 장면에 대한 정보를 획득하는 단계, 적어도 하나의 장면에 포함된 복수의 객체들 중 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정하는 단계, 적어도 하나의 객체에 적용 가능한 복수의 실감 효과들 각각의 실감효과코드를 검색하는 단계 및 검색된 실감효과코드를 기반으로 사용자에게 실감 미디어의 저작을 지원하는 단계를 포함한다.

Description

미디어 객체 기반의 저작 방법 및 장치{METHOD FOR AUTHORING BASED ON MEDIA OBJECT AND APPRATUS THEREFOR}
본 발명은 미디어 객체 기반의 저작 방법 및 장치에 관한 것으로, 더욱 상세하게는 미디어에 포함된 객체와 관련된 실감 효과(sensory effect)를 기반으로 저작을 수행하는 방법 및 장치에 관한 것이다.
지난 2015년 한국인터넷진흥원에 의해 작성된 모바일 인터넷 이용 실태 조사 요약 보고서에 따르면, 스마트 폰(smart phone)과 같은 스마트 기기의 보급이 2014년과 대비하여 2015년에 약 76.9%로 증가되었고, 스마트 기기의 이용도를 나타내는 일 평균 이용 시간이 약 22%에서 약 42.1%로 증가되었다. 또한, 스마트 기기를 통해 주로 사용되는 서비스는 모바일 SNS(social networking service)로서, 이용도가 2014년과 대비하여 2015년에 약 13.1%가 증가되었다. 즉, 2014년과 대비하여 2015년에 개인적인 관심사를 공유하여 소통이 가능한 SNS의 이용도가 증가하고 있다는 것을 의미할 수 있다.
이와 같이, 다양한 미디어의 공급 및 미디어에 대한 접근이 용이하게 됨에 따라 미디어 서비스에 대한 사용자의 요구는 단순히 일반적인 시청에서 개인적인 미디어의 방송, 개인 블로그(blog) 및 SNS 내의 동영상 공유 등으로 변화하고 있다. 이와 관련하여, 비교적 짧은 시간 동안 제공되는 미디어 내에 다양한 부가 정보를 추가하기 위한 연구 및 개발이 계속되고 있다. 다시 말해, 최근 미디어는 단순히 사용자들 간에 공유를 위한 용도의 범위에 한정되는 것이 아니라, 광고 및 마케팅(marketing)과 같은 다양한 부가 서비스로 이용되고 있다.
예를 들어, AR(augmented reality) 또는 VR(virtual reality)와 같은 대용량 미디어 서비스에 대한 플랫폼(platform)을 제공하는 유튜브(YouTube)는 가상 정보나 사용자가 전달하고자 하는 영상에 대한 현장감을 극대화할 수 있는 실감 미디어의 저작 기술이 적용될 수 있다. 이를 통해, 사용자들은 전문가의 도움 없이 개인적인 미디어에 다양한 실감 효과를 적용할 수 있고, 실감 미디어를 보다 용이하게 저작할 수 있게 된다.
그러나, 아직까지 실감 미디어의 저작은 대부분 전문가에 의해 전문적인 장치에 의해 동작하는 것으로 제한적이며, 대중화되지 못하고 있는 상황이다. 즉, 4D 미디어의 영화관 및 체험관 등의 보급으로 실감 미디어가 많은 사용자들에게 보급되고 있으나, 실감 미디어의 저작과 관련해서는 실감 미디어의 저작을 위한 전문적인 장치에 대한 조작의 복잡성 및 전문적인 지식의 필요로 인해 일반 사용자들이 용이하게 실감 미디어를 저작하지 못하는 문제가 있다.
상기와 같은 문제점을 해결하기 위해 본 발명은 미디어에 포함된 객체와 관련된 실감 효과(sensory effect)를 기반으로 저작을 수행하는 방법 및 장치를 제공하는 데 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법은 미디어에 포함된 객체를 기반으로 실감 미디어(sensory media)의 저작(authoring)을 제공하는 저작 장치에서 수행되는 저작 방법으로서, 상기 실감 미디어를 저작하기 위한 원시 미디어를 획득하는 단계, 상기 원시 미디어에 포함된 복수의 장면들 중 사용자에 의해 선택된 적어도 하나의 장면에 대한 정보를 획득하는 단계, 상기 적어도 하나의 장면에 포함된 복수의 객체들 중 실감 효과(sensory effect)를 적용하기 위한 적어도 하나의 객체를 결정하는 단계, 상기 적어도 하나의 객체에 적용 가능한 복수의 실감 효과(sensory effect)들 각각의 실감효과코드(sensory effect code)를 검색하는 단계 및 상기 검색된 실감효과코드를 기반으로 상기 사용자에게 상기 실감 미디어의 저작을 지원하는 단계를 포함한다.
여기서, 상기 적어도 하나의 객체를 결정하는 단계는 상기 적어도 하나의 장면을 상기 저작 장치에 포함된 디스플레이(display) 장치를 통해 출력하는 단계 및 상기 적어도 하나의 장면에 포함된 복수의 객체들 중 상기 사용자에 의해 선택된 적어도 하나의 객체에 대한 정보가 획득된 경우, 상기 획득된 적어도 하나의 객체를 상기 실감 효과를 적용하기 위한 적어도 하나의 객체로 결정할 수 있다.
여기서, 상기 적어도 하나의 객체를 결정하는 단계는 상기 적어도 하나의 장면에 포함된 복수의 객체들 중 상기 사용자에 의해 선택된 적어도 하나의 객체에 대한 정보가 획득되지 않은 경우, 상기 원시 미디어에 대한 특성 정보 및 상기 적어도 하나의 장면에 대한 장면 정보를 기반으로 상기 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정하는 단계를 포함할 수 있다.
여기서, 상기 적어도 하나의 객체를 결정하는 단계는 상기 특성 정보를 분석하기 위한 전처리(preprocessing)를 수행하여 상기 원시 미디어에 대한 특성 정보를 획득하는 단계, 상기 적어도 하나의 장면을 분석하여 상기 적어도 하나의 장면에 대한 특성을 나타내는 장면 정보를 획득하는 단계 및 상기 특성 정보 및 상기 장면 정보를 기반으로 상기 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정하는 단계를 포함할 수 있다.
여기서, 상기 특성 정보는 상기 원시 미디어에 대한 기본적인 사항과 관련된 기본 정보, 상기 원시 미디어의 용도와 관련된 용도 정보 및 상기 원시 미디어를 사용하는 대상인 대상자의 연령과 관련된 연령 정보를 포함할 수 있다.
여기서, 상기 장면 정보는 상기 적어도 하나의 장면 공간과 관련된 공간적 장면 정보, 상기 적어도 하나의 장면의 계절과 관련된 계절적 장면 정보, 상기 적어도 하나의 장면에 포함된 객체와 관련된 객체 기반의 장면 정보 및 상기 적어도 하나의 장면에 포함된 이벤트(event)와 관련된 이벤트 기반의 장면 정보를 포함할 수 있다.
여기서, 상기 실감효과코드를 검색하는 단계는 상기 실감 미디어에 적용 가능한 복수의 실감 효과들에 대한 복수의 실감효과코드들을 포함하는 데이터베이스(database)에서 상기 적어도 하나의 객체에 적용 가능한 복수의 실감 효과들 각각의 실감효과코드를 검색할 수 있다.
여기서, 상기 실감 미디어의 저작을 지원하는 단계는 상기 검색된 실감효과코드가 나타내는 실감 효과를 기반으로 시뮬레이션(simulation)을 수행함으로써 상기 실감 미디어의 저작을 지원할 수 있다.
여기서, 상기 실감 미디어의 저작을 지원하는 단계는 상기 원시 미디어에 상기 검색된 실감효과코드가 나타내는 실감 효과를 적용하여 제1 테스트 미디어를 생성하는 단계, 상기 제1 테스트 미디어를 상기 저작 장치에 포함된 디스플레이 장치를 통해 출력하는 단계 및 상기 제1 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부를 기반으로 상기 실감 미디어의 저작을 지원하는 단계를 포함할 수 있다.
여기서, 상기 실감 미디어의 저작을 지원하는 단계는 상기 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득된 경우, 상기 변경된 정보에 상응하도록 상기 제1 테스트 미디어에 적용된 실감 효과를 변경하는 단계, 상기 변경된 실감 효과가 적용된 제2 테스트 미디어를 생성하는 단계, 상기 제2 테스트 미디어를 상기 디스플레이 장치를 통해 출력하는 단계 및 상기 제2 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부를 기반으로 상기 실감 미디어의 저작을 지원하는 단계를 포함할 수 있다.
여기서, 상기 실감 미디어의 저작을 지원하는 단계는 상기 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득되지 않는 경우, 상기 제1 테스트 미디어를 상기 저작 장치에서 저작하기 위한 최종적인 실감 미디어로 생성하는 단계를 포함할 수 있다.
여기서, 상기 실감 미디어의 저작을 지원하는 단계는 상기 제1 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부에 기초하여 상기 테스트 미디어에 적용된 실감 효과의 실감효과코드에 대한 정보를 업데이트(update)할 수 있다.
여기서, 상기 실감효과코드에 대한 정보를 업데이트하는 단계는 상기 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득되는 경우, 상기 변경된 정보에 상응하도록 상기 실감 효과를 변경하는 단계 및 상기 실감 효과의 실감효과코드가 상기 변경된 실감 효과를 가지도록 상기 실감효과코드에 대한 정보를 업데이트하는 단계를 포함할 수 있다.
여기서, 상기 실감효과코드에 대한 정보를 업데이트하는 단계는 상기 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득되지 않은 경우, 상기 실감 효과에 대한 신뢰도를 나타내는 가중치를 증가시키는 단계 및 상기 실감 효과의 실감효과코드가 상기 증가된 가중치의 실감 효과를 가지도록 상기 실감효과코드에 대한 정보를 업데이트하는 단계를 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 미디어 객체 기반의 저작 장치는 미디어에 포함된 객체를 기반으로 실감 미디어(sensory media)의 저작(authoring)을 제공하는 저작 장치로서, 프로세서(processor) 및 상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고, 상기 적어도 하나의 명령은 상기 실감 미디어를 저작하기 위한 원시 미디어를 획득하고, 상기 원시 미디어에 포함된 복수의 장면들 중 사용자에 의해 선택된 적어도 하나의 장면에 대한 정보를 획득하고, 상기 적어도 하나의 장면에 포함된 복수의 객체들 중 실감 효과(sensory effect)를 적용하기 위한 적어도 하나의 객체를 결정하고, 상기 적어도 하나의 객체에 적용 가능한 복수의 실감 효과(sensory effect)들 각각의 실감효과코드(sensory effect code)를 검색하고, 그리고 상기 검색된 실감효과코드를 기반으로 상기 사용자에게 상기 실감 미디어의 저작을 지원하도록 실행된다.
여기서, 상기 적어도 하나의 명령은 상기 적어도 하나의 객체를 결정하는 과정에서, 상기 적어도 하나의 장면을 상기 저작 장치에 포함된 디스플레이(display) 장치를 통해 출력하고, 그리고 상기 적어도 하나의 장면에 포함된 복수의 객체들 중 상기 사용자에 의해 선택된 적어도 하나의 객체에 대한 정보가 획득된 경우, 상기 획득된 적어도 하나의 객체를 상기 실감 효과를 적용하기 위한 적어도 하나의 객체로 결정하도록 실행될 수 있다.
여기서, 상기 적어도 하나의 명령은 상기 적어도 하나의 객체를 결정하는 과정에서, 상기 적어도 하나의 장면에 포함된 복수의 객체들 중 상기 사용자에 의해 선택된 적어도 하나의 객체에 대한 정보가 획득되지 않은 경우, 상기 원시 미디어에 대한 특성 정보 및 상기 적어도 하나의 장면에 대한 장면 정보를 기반으로 상기 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정하도록 실행될 수 있다.
여기서, 상기 적어도 하나의 명령은 상기 실감효과코드를 검색하는 과정에서, 상기 실감 미디어에 적용 가능한 복수의 실감 효과들에 대한 복수의 실감효과코드들을 포함하는 데이터베이스(database)에서 상기 적어도 하나의 객체에 적용 가능한 복수의 실감 효과들 각각의 실감효과코드를 검색하도록 실행될 수 있다.
여기서, 상기 적어도 하나의 명령은 상기 실감 미디어의 저작을 지원하는 과정에서, 상기 검색된 실감효과코드가 나타내는 실감 효과를 기반으로 시뮬레이션(simulation)을 수행함으로써 상기 실감 미디어의 저작을 지원하도록 실행될 수 있다.
여기서, 상기 적어도 하나의 명령은 상기 실감 미디어의 저작을 지원하는 과정에서, 상기 원시 미디어에 상기 검색된 실감효과코드가 나타내는 실감 효과를 적용하여 테스트 미디어를 생성하고, 상기 테스트 미디어를 상기 저작 장치에 포함된 디스플레이 장치를 통해 출력하고, 그리고 상기 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부를 기반으로 상기 실감 미디어의 저작을 지원하도록 실행될 수 있다.
본 발명에 의하면, 실감 미디어의 대중화를 위해 전문적인 저작자에 의해 보급 또는 배포되는 실감 미디어를 사용자들이 개인적인 미디어에 실감 효과를 적용 가능하도록 실감효과코드(sensory effect code)를 제공할 수 있다. 이를 통해, 본 발명은 일반 사용자들이 실감 미디어를 용이하게 생성하거나 공유할 수 있는 효과가 있다.
또한, 본 발명은 사용자가 공유하고자 하는 실감 미디어를 제공할 뿐 아니라, 추가적인 부가 정보를 함께 제공함으로써 실감 미디어를 저작하는 사용자의 요구 사항을 만족시킬 수 있다. 즉, 본 발명은 실감 미디어를 저작하는 사용자에게 일방적인 실감미디어효과코드를 제공하는 것이 아니라, 사용자의 선호도 및 공유 중인 미디어에 대한 컨텍스트(context) 정보의 관계성을 고려하여 사용자에게 적절한 실감미디어효과코드를 제공할 수 있다.
또한, 본 발명은 사용자가 실감 미디어에 대한 컨텍스트 정보 및 실감 미디어에 포함된 다양한 객체를 자유롭게 추가, 편집 및 저작할 수 있도록 제공함으로써, 사용자가 표현하고자 하는 다양한 실감 효과를 실감 미디어에 표현할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하는 미디어 객체 기반의 저작 장치를 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하는 미디어 객체 기반의 저작 장치의 기능을 도시한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법에서 수행되는 미디어 전처리를 도시한 개념도이다.
도 4는 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법에서 장면 분석을 도시한 개념도이다.
도 5는 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 도시한 흐름도이다.
도 6은 본 발명의 일 실시예에 따른 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정하는 방법을 도시한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 특성 정보 및 장면 정보를 기반으로 실감 효과를 적용 하기 위한 적어도 하나의 객체를 결정하는 방법을 도시한 흐름도이다.
도 8은 본 발명의 일 실시예에 따른 실감 미디어의 저작을 지원하는 방법을 도시한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 실감 효과에 대한 변경 여부를 기반으로 실감 미디어의 저작을 지원하는 방법을 도시한 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 실감 효과에 대한 변경 여부를 기반으로 실감효과코드에 대한 정보를 업데이트하는 방법을 도시한 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하는 미디어 객체 기반의 저작 장치를 도시한 블록도이다.
도 1을 참조하면, 본 발명의 미디어 객체 기반의 저작 방법을 수행하는 미디어 객체 기반의 저작 장치(100)는 적어도 하나의 프로세서(110), 메모리(120) 및 네트워크와 연결되어 통신을 수행하는 네트워크 인터페이스 장치(130)를 포함할 수 있다. 또한, 통신 노드(100)는 입력 인터페이스 장치(140), 출력 인터페이스 장치(150), 저장 장치(160) 등을 더 포함할 수 있다. 통신 노드(100)에 포함된 각각의 구성 요소들은 버스(bus)(170)에 의해 연결되어 서로 통신을 수행할 수 있다.
프로세서(110)는 메모리(120) 및/또는 저장 장치(160)에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU) 또는 본 발명에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 메모리(120)와 저장 장치(160)는 휘발성 저장 매체 및/또는 비휘발성 저장 매체로 구성될 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(read only memory, ROM) 및/또는 랜덤 액세스 메모리(random access memory, RAM)로 구성될 수 있다. 여기서, 프로세서(110)를 통해 실행되는 프로그램 명령은 본 발명에서 제안하는 미디어 객체 기반의 저작 방법을 수행하는 복수의 단계들을 포함할 수 있다.
도 2는 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하는 미디어 객체 기반의 저작 장치의 기능을 도시한 개념도이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하는 저작 장치(200)는 도 1을 참조하여 설명된 저작 장치(100)를 의미할 수 있다. 구체적으로, 저작 장치(200)는 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하기 위한 복수의 기능 요소들을 포함할 수 있다. 즉, 복수의 기능 요소들은 물리적인 구성을 의미할 수도 있으나, 물리적인 구성이 아닌 기능에 따라 구분된 논리적인 구성을 의미할 수도 있다.
예를 들어, 저작 장치(200)의 복수의 기능 요소들은 미디어 정보 분석(210)에 대한 기능 요소, 사용자 정보 분석(220)에 대한 기능 요소, 실감효과코드 북(sensory effect code book)(230)에 대한 기능 요소, 실감 효과 피드백(sensory effect feedback)(240)에 대한 기능 요소, 실감 효과 객체 관리(sensory effect object management)에 대한 기능 요소, 데이터베이스(database)(260)에 대한 기능 요소 및 실감 미디어 배포(270)에 대한 기능 요소를 포함할 수 있다.
복수의 기능 요소들 중 미디어 정보 분석(210)에 대한 기능 요소는 실감 미디어를 저작하기 위한 대상이 되는 원시 미디어에 대한 정보를 분석하는 기능을 수행할 수 있다. 구체적으로, 미디어 정보 분석(210)에 대한 기능 요소는 원시 미디어에 대한 정보를 분석하기 위해 복수의 서브 기능 요소들을 포함할 수 있다.
예를 들어, 미디어 정보 분석(210)에 대한 기능 요소의 복수의 서브 기능 요소들은 미디어 전처리(media preprocessing)(211)에 대한 서브 기능 요소 및 장면 분석(image analysis)(212)에 대한 서브 기능 요소를 포함할 수 있다. 미디어 정보 분석(210)에 대한 기능 요소의 미디어 전처리(211)에 대한 서브 기능 요소 및 장면 분석(212)에 대한 서브 기능 요소는 도 3 내지 도 4를 참조하여 구체적으로 설명될 수 있다.
도 3은 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법에서 수행되는 미디어 전처리를 도시한 개념도이고, 도 4는 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법에서 장면 분석을 도시한 개념도이다.
먼저, 도 3을 참조하면 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법에서 미디어 정보 분석(210)에 대한 기능 요소에 포함된 미디어 전처리(211)에 대한 서브 기능 요소는 원시 미디어의 특성 정보(characteristic information)를 분석하기 위한 전처리(preprocessing)를 수행할 수 있다. 구체적으로, 미디어 전처리(211)에 대한 서브 기능 요소를 통해 분석되는 특정 정보는 원시 미디어에 대한 기본적인 사항과 관련된 기본 정보(211-1), 원시 미디어의 용도와 관련된 용도 정보(211-2) 및 원시 미디어를 사용하는 대상인 대상자의 연령과 관련된 연령 정보(211-3)를 포함할 수 있다.
예를 들어, 기본 정보(211-1)는 원시 미디어를 제작한 제작자에 대한 정보, 원시 미디어의 장르에 대한 정보 및 원시 미디어의 재상 시간과 관련된 단편 또는 장편과 같은 정보를 포함할 수 있다. 즉, 원시 미디어가 영화인 경우, 제작자에 대한 정보는 영화를 제작한 감독에 대한 정보를 포함할 수 있다. 또한, 장르에 대한 정보는 다큐멘터리(documentary), 공포(horror), 스릴러(thriller) 및 드라마(drama)와 같은 복수의 장르들 중 하나에 대한 정보를 포함할 수 있다. 또한, 단편 또는 장편과 같은 시간과 관련된 정보는 단편 또는 장편을 구분하기 위해 미리 설정된 기준에 기초하여 구분된 장편 또는 단편에 대한 정보를 포함할 수 있다.
또한, 용도 정보(211-2)는 영화, 취미 및 교육 등과 같이 원시 미디어에 대한 용도와 관련된 정보를 포함할 수 있다. 이와 같은 용도 정보(211-2)는 원시 미디어에 적용된 실감 효과에 대한 강도, 횟수, 타입의 수 및 실감 효과가 적용된 객체에 대한 정보를 획득하기 위해 사용될 수 있다. 즉, 원시 미디어가 새에 대한 교육과 관련된 영상인 경우, 저작 장치(200)는 실감 효과가 적용된 객체에 대한 정보로서 새와 관련된 배경 및 새의 동작과 관련된 이벤트를 획득할 수 있다. 예를 들어, 실감 효과가 적용된 객체에 대한 정보는 하늘을 나는 새 및 둥지에 머무르는 새 등과 같이 새의 동작과 관련된 이벤트에 대한 정보를 포함할 수 있다. 또한, 실감 효과가 적용된 객체에 대한 정보는 하늘, 새, 포식자(예를 들어, 고양이, 뱀 및 표범 등), 둥지 및 숲 등과 같은 새와 관련된 배경에 대한 정보를 포함할 수 있다.
또한, 연령 정보(211-3)는 원시 미디어를 사용하는 대상인 대상자의 연령과 관련된 유아 또는 아동에 대한 정보, 청소년에 대한 정보, 일반 사용자에 대한 정보와 같은 정보를 포함할 수 있다. 이와 같은 연령 정보(211-3)는 실감 미디어를 저작하는 과정에서 실감 미디어에 적용되는 실감 효과에 대한 강도 및 실감 효과의 실행 횟수 등을 제어하기 위해 사용될 수 있다. 예를 들어, 연령 정보에 포함된 정보에 유아 또는 아동에 대한 정보가 포함된 경우, 실감 미디어를 저작하는 과정에서 적용되는 복수의 실감 효과들 중 폭력성과 관련된 실감 효과는 비교적 강도가 낮도록 또는 실감효과 적용 횟수 등이 제어될 수 있다.
한편, 도 4를 참조하면 본 발명의 일 실시예에 따른 미디어 객체 기반의 저장 방법을 수행하는 저작 장치(200)는 장면 분석(212)에 대한 서브 기능 요소를 기반으로 원시 미디어에 포함된 장면을 분석함으로써 장면에 대한 특성을 나타내는 장면 정보를 획득할 수 있다. 구체적으로, 장면 분석(212)에 대한 서브 기능 요소를 통해 획득되는 장면 정보는 원시 미디어에 포함된 복수의 장면들 각각의 공간과 관련된 공간적 장면 정보(212-1), 복수의 장면들 각각의 계절과 관련된 계절적 장면 정보(212-2), 복수의 장면들 각각에 포함된 객체와 관련된 객체 기반의 장면 정보(212-3) 및 복수의 장면들 각각에 포함된 이벤트와 관련된 이벤트 기반의 장면 정보(212-4)를 포함할 수 있다.
예를 들어, 공간적 장면 정보(212-1)는 복수의 장면들 각각에 포함된 바다, 하늘 및 사막 등과 같이 공간과 관련된 정보를 포함할 수 있다. 또한, 계절적 장면 정보(212-2)는 봄, 여름, 가을, 겨울, 장마 및 눈 등과 같이 계절과 관련된 정보를 포함할 수 있다. 또한, 객체 기반의 장면 정보(212-3)는 원시 미디어가 새에 대한 교육과 관련된 영상인 경우, 복수의 장면들 각각에 포함된 새, 둥지 및 포식자 등과 같이 객체와 관련된 정보를 포함할 수 있다. 또한, 이벤트 기반의 장면 정보(212-4)는 원시 미디어가 새에 대한 교육과 관련된 영상인 경우, "새가 포식자에게 쫓기다"와 같은 이벤트에 대한 정보를 포함할 수 있다.
이와 같이, 저작 장치(200)에서 획득되는 장면 정보는 실감 미디어를 저작하는 과정에서 실감 미디어에 적용 가능한 복수의 실감 효과들을 결정하기 위해 사용될 수 있다. 이와 같은 방법을 통해, 본 발명의 일 실시예에 따른 미디어 객체 기반 실감효과 매핑을 수행하는 저작 장치(200)는 원시 미디어에 대한 특성 정보를 분석하기 위한 전처리 및 원시 미디어에 대한 장면 정보를 획득하기 위한 장면 분석을 수행할 수 있다.
다시, 도 2를 참조하면 저작 장치(200)의 복수의 기능 요소들 중 사용자 정보 분석(220)에 대한 기능 요소는 실감 미디어를 저작하는 저작자(즉, 저작 장치(200)를 사용하는 사용자)에 대한 프로파일(profile)과 관련된 정보 및 실감 미디어의 대상인 대상자(즉, 실감 미디어를 사용하는 사용자)에 대한 정보를 분석하는 기능을 수행할 수 있다. 예를 들어, 사용자 정보 분석(220)에 대한 기능 요소는 저작자에 대한 정보로서 실감 미디어의 저작에 대한 이력(예를 들어, 실감 미디어의 저작 횟수 및 종류 등)에 대한 정보를 분석할 수 있다. 또한, 사용자 정보 분석(220)에 대한 기능 요소는 대상자에 대한 정보로서 대상자의 연령에 대한 정보를 분석할 수 있다. 이와 같이, 사용자 정보 분석(200)에 대한 기능 요소에서 분석된 저작자에 대한 정보 및 대상자에 대한 정보는 실감 미디어를 저작하는 과정에서 실감 효과에 대한 정확도를 향상시키기 위해 사용될 수 있다.
또한, 사용자 정보 분석(220)에 대한 기능 요소는 실감 미디어를 저작하는 과정에서 실감 미디어를 저작하는 저작자가 다른 저작자에 의해 미리 저작된 실감 미디어를 실감 효과에 대한 변경 없이 사용하는 경우, 해당하는 다른 저작자에 대한 신뢰도를 의미하는 가중치를 증가시킬 수 있다. 예를 들어, 다른 저작자에 대한 신뢰도를 의미하는 가중치는 히트 레이트(hit rate)를 의미할 수 있다. 이와 같은, 다른 저작자에 대한 신뢰도를 의미하는 가중치는 실감 미디어를 저작하는 저작자에게 다른 저작자의 실감 미디어에 포함된 실감 효과를 추천하기 위해 사용될 수 있다.
또한, 저작 장치(200)의 복수의 기능 요소들 중 실감효과코드 북(230)에 대한 기능 요소는 미디어 정보 분석(210)에 대한 기능 요소 및 사용자 정보 분석(220)에 대한 기능 요소에 의해 분석된 정보에 대한 실감 효과를 제공하는 기능을 수행할 수 있다. 구체적으로, 실감효과코드 북(230)에 대한 기능 요소는 실감 효과에 상응하는 실감효과코드가 저장된 데이터베이스에서 실감 효과에 상응하는 실감효과코드를 검색할 수 있고, 검색된 실감효과코드를 호출하는 기능을 수행할 수 있다.
또한, 저작 장치(200)의 복수의 기능 요소들 중 실감효과코드 피드백(240)에 대한 기능 요소는 실감 효과에 대한 피드백(feedback)을 기반으로 실감 효과에 상응하는 실감효과코드를 업데이트하는 기능을 수행할 수 있다. 즉, 실감효과코드 피드백(240)에 대한 기능 요소는 실감 미디어를 저작하는 과정에서 실감효과코드가 나타내는 실감 효과가 변경되는 경우, 변경된 실감 효과를 나타내도록 실감효과코드를 업데이트(update)하는 기능을 수행할 수 있다.
또한, 저작 장치(200)의 복수의 기능 요소들 중 실감 효과 객체 관리(250)에 대한 기능 요소는 실감 미디어를 저작하는 과정에서 저작 장치(200)의 사용자에 의해 선택된 객체에 대한 정보를 관리하는 기능을 수행할 수 있다. 즉, 사용자에 의해 선택된 복수의 객체들을 배경, 인물 및 동물 등과 같이 종류에 기초하여 분류하는 기능을 수행할 수 있다. 예를 들어, 사용자에 의해 선택된 객체가 해인 경우, 실감 효과 객체 관리(250)에 대한 기능 요소는 사용자에 의해 선택된 객체 "해"를 배경과 관련된 객체로 분류할 수 있다.
또한, 저작 장치(200)의 복수의 기능 요소들 중 데이터베이스(260)에 대한 기능 요소는 실감 미디어에 적용되는 실감 효과에 상응하는 실감효과코드 및 실감 미디어를 저작하는 과정에서 분석된 정보 등을 저장하는 기능을 수행할 수 있다. 또한, 저작 장치(200)의 복수의 기능 요소들 중 실감 미디어 배포(270)에 대한 기능 요소는 실감 미디어의 저작이 완료된 경우, 저작된 실감 미디어를 배포하는 기능을 수행할 수 있다. 예를 들어, 실감 미디어 배포(270)에 대한 기능 요소는 저작된 실감 미디어를 공유 가능한 웹 사이트(web site)로 업로드 하거나, 공유하고자 하는 대상자의 장치로 전송하는 기능을 수행할 수 있다.
이하에서는, 도 1 내지 도 4를 참조하여 설명된 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하는 저작 장치에서 미디어 객체 기반의 저작 방법을 수행하는 구체적인 방법이 도 5 내지 도 10을 참조하여 설명될 수 있다.
도 5는 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 도시한 흐름도이다.
도 5를 참조하면, 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법은 도 1을 참조하여 설명된 저작 장치(100) 및 도 2를 참조하여 설명된 저작 장치(200)에서 수행될 수 있다. 즉, 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하는 저작 장치는 도 1을 참조하여 설명된 저작 장치(100)와 유사 또는 동일한 구조를 가질 수 있다. 또한, 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하는 저작 장치는 도 2를 참조하여 설명된 복수의 기능 요소들을 기반으로 미디어 객체 기반의 저작 방법을 수행할 수 있다.
먼저, 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하는 저작 장치는 실감 미디어를 저작하기 위한 원시 미디어를 획득할 수 있다(S100). 여기서, 원시 미디어는 실감 미디어를 저작하는 저작자(즉, 저작 장치를 사용하는 사용자)에 의해 미리 저작된 미디어를 의미할 수 있다. 이러한 경우, 원시 미디어는 저작 장치의 데이터베이스에 미리 저장되어 있으므로, 데이터베이스로부터 획득될 수 있다. 또한, 원시 미디어는 실감 미디어를 저작하는 저작자가 아닌 다른 저작자에 의해 미리 저작된 미디어를 의미할 수도 있다. 이러한 경우, 원시 미디어는 복수의 다른 저작자들에 의해 미리 저작된 복수의 미디어들이 업로드 된 웹 사이트에서 다운로드(download) 함으로써 획득될 수 있다.
이후, 저작 장치는 원시 미디어에 포함된 복수의 장면들 중 사용자에 의해 선택된 적어도 하나의 장면에 대한 정보를 획득할 수 있다(S200). 구체적으로, 저작 장치는 원시 미디어를 저작 장치에 포함된 디스플레이 장치를 통해 출력할 수 있다. 이때, 사용자는 저작 장치의 디스플레이 장치를 통해 출력된 원시 미디어에 포함된 복수의 장면들 중 실감 효과를 적용하기 위한 적어도 하나의 장면을 선택할 수 있다. 예를 들어, 디스플레이 장치가 터치 스크린(touch screen)인 경우, 사용자는 적어도 하나의 장면을 터치함으로써 선택할 수 있다. 이에 따라, 저작 장치는 디스플레이 장치를 통해 수신된 신호(즉, 터치 신호)를 통해 사용자에 의해 선택된 적어도 하나의 장면에 대한 정보를 획득할 수 있다.
이후, 저작 장치는 적어도 하나의 장면에 포함된 복수의 객체들 중 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정할 수 있다(S300). 저작 장치에서 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정하는 방법은 도 2를 참조하여 설명된 실감 효과 객체 관리(250)에 대한 기능 요소를 기반으로 수행될 수 있다. 구체적으로, 저작 장치는 저작 장치에서 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정하는 방법은 이하에서 도 6 내지 도 7을 참조하여 설명될 수 있다.
도 6은 본 발명의 일 실시예에 따른 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정하는 방법을 도시한 흐름도이고, 도 7은 본 발명의 일 실시예에 따른 특성 정보 및 장면 정보를 기반으로 실감 효과를 적용 하기 위한 적어도 하나의 객체를 결정하는 방법을 도시한 흐름도이다.
먼저, 도 6을 참조하면 저작 장치는 적어도 하나의 장면을 저작 장치에 포함된 디스플레이 장치를 통해 출력할 수 있다(S310). 예를 들어, 저작 장치는 디스플레이 장치를 통해 적어도 하나의 장면을 미리 설정된 시간 동안 출력할 수 있다. 여기서, 미리 설정된 시간은 사용자에 의해 저작 장치에 미리 설정될 수 있고, 적어도 하나의 장면에서 사용자가 실감 효과를 적용하기 위한 적어도 하나의 객체를 선택하기 위한 시간을 의미할 수 있다.
이후, 저작 장치는 적어도 하나의 장면에 포함된 복수의 객체들 중 사용자에 의해 실감 효과를 적용하기 위한 적어도 하나의 객체에 대한 정보의 획득 여부를 판단할 수 있다(S320). 구체적으로, 저작 장치는 미리 설정된 시간 내에 적어도 하나의 장면에 포함된 복수의 객체들 중 사용자에 의해 선택된 적어도 하나의 객체에 대한 정보가 획득된 경우, 획득된 적어도 하나의 객체를 실감 효과를 적용하기 위한 적어도 하나의 객체로 결정할 수 있다(S330). 여기서, 적어도 하나의 객체에 대한 정보가 획득되는 구체적인 방법은 도 5의 단계 S200을 참조하여 설명된 적어도 하나의 장면에 대한 정보가 획득되는 방법과 동일할 수 있다.
반면, 저작 장치는 미리 설정된 시간 내에 적어도 하나의 장면에 포함된 복수의 객체들 중 사용자에 의해 선택된 적어도 하나의 객체에 대한 정보가 획득되지 않은 경우, 원시 미디어에 대한 특성 정보 및 적어도 하나의 장면에 대한 장면 정보를 기반으로 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정할 수 있다(S340). 즉, 사용자에 의해 선택된 적어도 하나의 객체에 대한 정보가 획득되지 않았다는 것은 실감 효과를 적용하기 위한 적어도 하나의 객체가 사용자에 의해 선택되지 않았다는 것을 의미할 수 있다.
이러한 경우, 저작 장치는 실감 효과를 적용하기 위한 적어도 하나의 객체를 자체적으로 결정할 수 있다. 저작 장치에서 원시 미디어에 대한 특성 정보 및 적어도 하나의 장면에 대한 장면 정보를 기반으로 실감 효과를 적용하기 위한 구체적인 방법은 이하에서 도 7을 참조하여 설명될 수 있다.
도 7을 참조하면, 저작 장치는 원시 미디어에 대한 특성 정보를 분석하기 위한 전처리를 수행하여 원시 미디어에 대한 특성 정보를 획득할 수 있다(S341). 여기서, 원시 미디어에 대한 특성 정보는 원시 미디어에 대한 기본적인 사항과 관련된 기본 정보, 원시 미디어의 용도와 관련된 용도 정보 및 원시 미디어를 사용하는 대상인 대상자의 연령과 관련된 연령 정보를 포함할 수 있다. 즉, 저작 장치에서 전처리를 수행하여 원시 미디어에 대한 특성 정보를 획득하는 방법은 도 3을 참조하여 설명된 미디어 전처리(211)에 대한 서브 기능 요소를 기반으로 수행될 수 있다.
이후, 저작 장치는 적어도 하나의 장면을 분석하여 적어도 하나의 장면에 대한 특성을 나타내는 장면 정보를 획득할 수 있다(342). 여기서, 장면 정보는 적어도 하나의 장면의 공간과 관련된 공간적 장면 정보, 적어도 하나의 장면의 계절과 관련된 계절적 장면 정보, 적어도 하나의 장면에 포함된 객체와 관련된 객체 기반의 장면 정보 및 적어도 하나의 장면에 포함된 이벤트와 관련된 이벤트 기반의 장면 정보를 포함할 수 있다. 즉, 저작 장치에서 적어도 하나의 장면을 분석하여 적어도 하나의 장면에 대한 특성을 나타내는 장면 정보를 획득하는 방법은 도 4를 참조하여 설명된 장면 분석(212)에 대한 서브 기능 요소를 기반으로 수행될 수 있다.
이후, 저작 장치는 특성 정보 및 장면 정보를 기반으로 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정할 수 있다(S343). 예를 들어, 원시 미디어가 새에 대한 교육과 관련된 영상인 경우, 저작 장치는 장면 정보에 포함된 객체 기반의 장면 정보로서 새 및 새를 잡아먹는 포식자(예를 들어, 독수리 및 뱀 등)를 적어도 하나의 객체로 결정할 수 있다. 이때, 저작 장치는 특성 정보의 연령 정보에 유아 또는 아동에 대한 정보가 포함된 경우, 비교적 폭력성을 가지는 새를 잡아먹는 포식자는 적어도 하나의 객체에서 제거할 수 있다. 이와 같은 방법을 통해, 저작 장치는 특성 정보 및 장면 정보를 기반으로 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정할 수 있다.
다시, 도 5를 참조하면 저작 장치는 실감 효과를 적용하기 위해 결정된 적어도 하나의 객체에 적용 가능한 복수의 실감 효과들 각각의 실감효과코드(sensory effect code)를 검색할 수 있다(S400). 구체적으로, 저작 장치는 실감 미디어에 적용 가능한 복수의 실감 효과들에 대한 복수의 실감효과코드들을 포함하는 데이터베이스에서 적어도 하나의 객체에 부여 가능한 복수의 실감 효과들 각각의 실감효과코드를 검색할 수 있다. 즉, 저작 장치에서 실감효과코드를 검색하는 방법은 도 2를 참조하여 설명된 실감효과코드 북(230)에 대한 기능 요소 및 데이터베이스(260)에 대한 기능 요소를 기반으로 수행될 수 있다.
이후, 저작 장치는 검색된 실감효과코드를 기반으로 사용자에게 실감 미디어의 저작을 지원할 수 있다(S500). 구체적으로, 저작 장치는 검색된 실감효과코드가 나타내는 실감 효과를 기반으로 시뮬레이션(simulation)을 수행함으로써 실감 미디어의 저작을 지원할 수 있다. 예를 들어, 저작 장치는 원시 미디어에 검색된 실감효과코드가 나타내는 실감 효과를 적용할 수 있고, 실감 효과가 적용된 원시 미디어에 대한 사용자의 피드백을 기반으로 사용자에게 실감 미디어의 저작을 지원할 수 있다. 저작 장치에서 실감 미디어의 저작을 지원하는 구체적인 방법은 이하에서 도 8 내지 도 9를 참조하여 설명될 수 있다.
도 8은 본 발명의 일 실시예에 따른 실감 미디어의 저작을 지원하는 방법을 도시한 흐름도이고, 도 9는 본 발명의 일 실시예에 따른 실감 효과에 대한 변경 여부를 기반으로 실감 미디어의 저작을 지원하는 방법을 도시한 흐름도이다.
먼저, 도 8을 참조하면 저작 장치는 원시 미디어에 검색된 실감효과코드가 나타내는 실감 효과를 적용하여 제1 테스트 미디어를 생성할 수 있다(S510). 예를 들어, 원시 미디어가 새에 대한 교육과 관련된 영상이고, 검색된 실감효과코드가 나타내는 실감 효과가 새의 날개가 움직이는 효과인 것으로 가정할 수 있다. 이러한 경우, 저작 장치는 원시 미디어인 새에 대한 교육과 관련된 영상에 포함된 새에 새의 날개가 움직이는 효과를 적용함으로써 제1 테스트 미디어를 생성할 수 있다.
이후, 저작 장치는 제1 테스트 미디어를 저작 장치에 포함된 디스플레이 장치를 통해 출력할 수 있다(S520). 구체적으로, 저작 장치는 디스플레이 장치를 통해 제1 테스트 미디어를 미리 설정된 시간 동안 출력할 수 있다. 여기서, 미리 설정된 시간은 사용자가 객체를 설정하는 시간에 의해 저작 장치에 미리 설정될 수 있고, 제1 테스트 미디어에 적용된 실감 효과에 대한 변경 여부를 판단하기 위해 대기하는 시간을 의미할 수 있다.
이후, 저작 장치는 제1 테스트 미디어에 적용된 실감 효과에 대한 변경 여부를 기반으로 실감 미디어의 저작을 지원할 수 있다(S530). 구체적으로, 저작 장치에서 실감 효과에 대한 변경 여부를 기반으로 실감 미디어의 저작을 지원하는 방법은 도 9를 참조하여 설명될 수 있다. 도 9를 참조하면, 저작 장치는 실감 효과에 대하여 변경된 정보의 획득 여부를 판단할 수 있다(S531).
이후, 저작 장치는 미리 설정된 시간 내에 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득된 경우, 변경된 정보에 상응하도록 제1 테스트 미디어에 적용된 실감 효과를 변경할 수 있다(S532). 예를 들어, 제1 테스트 미디어에 적용된 실감 효과가 새의 날개가 움직이는 효과인 것으로 가정할 수 있고, 이러한 경우 저작 장치에서 획득된 변경 정보는 새의 날개가 움직이는 강도에 대한 정보일 수 있다.
이후, 저작 장치는 변경된 실감 효과가 적용된 제2 테스트 미디어를 생성할 수 있다(S533). 즉, 저작 장치는 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보에 기초하여 제1 테스트 미디어에 적용된 실감 효과를 변경할 수 있고, 변경된 실감 효과를 제1 테스트 미디어에 적용함으로써 제2 테스트 미디어를 생성할 수 있다.
이후, 저작 장치는 제2 테스트 미디어를 저작 장치에 포함된 디스플레이 장치를 통해 출력할 수 있다(S534). 구체적으로, 저작 장치는 디스플레이 장치를 통해 제2 테스트 미디어를 미리 설정된 시간 동안 출력할 수 있다. 여기서, 미리 설정된 시간은 사용자에 의해 저작 장치에 미리 설정될 수 있고, 제2 테스트 미디어에 적용된 실감 효과에 대한 변경 여부를 판단하기 위해 대기하는 시간을 의미할 수 있다.
이후, 저작 장치는 제2 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부를 기반으로 실감 미디어의 저작을 지원할 수 있다(S535). 즉, 저작 장치는 사용자에 의해 변경된 실감 효과에 대한 정보가 획득되지 않는 경우까지 반복적으로 테스트 미디어를 생성할 수 있고, 생성된 테스트 미디어를 저작 장치의 디스플레이 장치를 통해 출력할 수 있다.
반면, 저작 장치는 단계 S541에서 미리 설정된 시간 내에 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득되지 않는 경우, 제1 테스트 미디어를 저작 장치에서 저작하기 위한 최종적인 실감 미디어로 생성할 수 있다(S536). 즉, 저작 장치는 미리 설정된 시간 동안 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득되지 않는 경우, 제1 테스트 미디어에 적용된 실감 효과에 대하여 추가적인 변경 사항이 없는 것으로 판단할 수 있다.
이후, 저작 장치는 최종적으로 생성된 실감 미디어가 배포되도록 지원할 수 있다. 즉, 저장 장치에서 실감 미디어가 배포되도록 지원하는 방법은 도 2를 참조하여 설명된 실감 미디어 배포(270)에 대한 기능 요소를 기반으로 수행될 수 있다. 예를 들어, 저작 장치는 최종적으로 생성된 실감 미디어를 사용자가 공유하고자 하는 웹 사이트로 업로드 함으로써 실감 미디어의 배포를 지원할 수 있다. 또한, 저작 장치는 최종적으로 생성된 실감 미디어를 사용자가 공유하고자 하는 대상인 대상자의 장치로 전송함으로써 실감 미디어의 배포를 지원할 수 있다.
한편, 저작 장치는 단계 S530에서 제1 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부에 기초하여 테스트 미디어에 적용된 실감 효과의 실감효과코드에 대한 정보를 업데이트할 수 있다. 구체적으로, 저작 장치에서 실감 효과의 실감효과코드에 대한 정보를 업데이트하는 방법은 이하에서 도 10을 참조하여 설명될 수 있다.
도 10은 본 발명의 일 실시예에 따른 실감 효과에 대한 변경 여부를 기반으로 실감효과코드에 대한 정보를 업데이트하는 방법을 도시한 흐름도이다.
도 10을 참조하면, 본 발명의 일 실시예에 따른 미디어 객체 기반의 저작 방법을 수행하는 저작 장치는 제1 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부를 판단할 수 있다(S541). 저작 장치에서 제1 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부를 판단하는 단계 S541은 도 9를 참조하여 설명된 단계 S531과 동일할 수 있다.
이후, 저작 장치는 미리 설정된 시간 동안 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득되는 경우, 변경된 정보에 상응하도록 실감 효과를 변경할 수 있다(S542). 저작 장치에서 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보에 상응하도록 실감 효과를 변경하는 단계 S542는 도 9를 참조하여 설명된 단계 S532와 동일할 수 있다.
이후, 저작 장치는 실감 효과의 실감효과코드가 변경된 실감 효과를 가지도록 실감효과코드에 대한 정보를 업데이트할 수 있다(S543). 예를 들어, 제1 테스트 미디어에 적용된 실감 효과가 새의 날개가 움직이는 효과인 것으로 가정할 수 있고, 이러한 경우 저작 장치에서 획득된 변경 정보는 새의 날개가 움직이는 강도에 대한 정보일 수 있다. 이때, 저작 장치는 새의 날개가 움직이는 강도가 변경된 실감 효과를 가지도록 실감 효과의 실감효과코드에 대한 정보를 업데이트할 수 있다.
반면, 저작 장치는 단계 S541에서 미리 설정된 시간 동안 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득되지 않은 경우, 제1 테스트 미디어에 적용된 실감 효과에 대한 신뢰도를 나타내는 가중치를 증가시킬 수 있다(S544). 예를 들어, 실감 효과에 대한 신뢰도는 사용자가 요구하는 실감 효과에 대한 정확도를 의미할 수 있다. 즉, 실감 효과에 대한 신뢰도가 높을수록 사용자가 요구하는 실감 효과에 대한 정확도가 높은 것을 의미할 수 있다.
이후, 저작 장치는 실감 효과의 실감효과코드가 증가된 가중치의 실감 효과를 가지도록 실감효과코드에 대한 정보를 업데이트할 수 있다(S545). 이에 따라, 실감효과코드는 사용자에 의해 요구되는 실감 효과를 가지는 실감효과코드로 업데이트될 수 있다. 저작 장치에서 실감 효과에 대한 사용자의 변경 여부를 기반으로 실감효과코드에 대한 정보를 업데이트하는 방법은 도 2를 참조하여 설명된 실감효과코드 피드백(240)에 대한 기능 요소를 기반으로 수행될 수 있다.
본 발명에 따른 방법들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능 매체의 예에는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 적어도 하나의 소프트웨어 모듈로 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (20)

  1. 미디어에 포함된 객체를 기반으로 실감 미디어(sensory media)의 저작(authoring)을 제공하는 저작 장치에서 수행되는 저작 방법으로서,
    상기 실감 미디어를 저작하기 위한 원시 미디어를 획득하는 단계;
    상기 원시 미디어에 포함된 복수의 장면들 중 사용자에 의해 선택된 적어도 하나의 장면에 대한 정보를 획득하는 단계;
    상기 적어도 하나의 장면에 포함된 복수의 객체들 중 상기 사용자에 의해 선택된 적어도 하나의 객체에 대한 객체 정보의 획득 여부를 결정하는 단계;
    상기 객체 정보의 획득 여부에 기초하여 실감 효과(sensory effect)를 적용하기 위한 적어도 하나의 객체를 결정하는 단계;
    상기 적어도 하나의 객체에 적용 가능한 복수의 실감 효과들 각각의 실감효과코드(sensory effect code)를 검색하는 단계; 및
    상기 검색된 실감효과코드를 기반으로 상기 사용자에게 상기 실감 미디어의 저작을 지원하는 단계를 포함하고,
    상기 객체 정보가 획득되지 않은 경우, 상기 실감 효과를 적용하기 위한 적어도 하나의 객체는 상기 원시 미디어에 대한 특성 정보 및 상기 적어도 하나의 장면에 대한 장면 정보에 기초하여 결정되는 미디어 객체 기반의 저작 방법.
  2. 청구항 1에 있어서,
    상기 적어도 하나의 장면은 상기 저작 장치에 포함된 디스플레이(display) 장치를 통해 출력되는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  3. 삭제
  4. 청구항 1에 있어서,
    상기 적어도 하나의 객체를 결정하는 단계는,
    상기 특성 정보를 분석하기 위한 전처리(preprocessing)를 수행하여 상기 원시 미디어에 대한 특성 정보를 획득하는 단계;
    상기 적어도 하나의 장면을 분석하여 상기 적어도 하나의 장면에 대한 특성을 나타내는 장면 정보를 획득하는 단계; 및
    상기 특성 정보 및 상기 장면 정보를 기반으로 상기 실감 효과를 적용하기 위한 적어도 하나의 객체를 결정하는 단계를 포함하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  5. 청구항 1에 있어서,
    상기 특성 정보는,
    상기 원시 미디어에 대한 기본적인 사항과 관련된 기본 정보, 상기 원시 미디어의 용도와 관련된 용도 정보 및 상기 원시 미디어를 사용하는 대상인 대상자의 연령과 관련된 연령 정보를 포함하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  6. 청구항 1에 있어서,
    상기 장면 정보는,
    상기 적어도 하나의 장면 공간과 관련된 공간적 장면 정보, 상기 적어도 하나의 장면의 계절과 관련된 계절적 장면 정보, 상기 적어도 하나 장면에 포함된 객체와 관련된 객체 기반의 장면 정보 및 상기 적어도 하나의 장면에 포함된 이벤트(event)와 관련된 이벤트 기반의 장면 정보를 포함하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  7. 청구항 1에 있어서,
    상기 실감효과코드를 검색하는 단계는,
    상기 실감 미디어에 적용 가능한 복수의 실감 효과들에 대한 복수의 실감효과코드들을 포함하는 데이터베이스(database)에서 상기 적어도 하나의 객체에 적용 가능한 복수의 실감 효과들 각각의 실감효과코드를 검색하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  8. 청구항 1에 있어서,
    상기 실감 미디어의 저작을 지원하는 단계는,
    상기 검색된 실감효과코드가 나타내는 실감 효과를 기반으로 시뮬레이션(simulation)을 수행함으로써 상기 실감 미디어의 저작을 지원하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  9. 청구항 1에 있어서,
    상기 실감 미디어의 저작을 지원하는 단계는,
    상기 원시 미디어에 상기 검색된 실감효과코드가 나타내는 실감 효과를 적용하여 제1 테스트 미디어를 생성하는 단계;
    상기 제1 테스트 미디어를 상기 저작 장치에 포함된 디스플레이 장치를 통해 출력하는 단계; 및
    상기 제1 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부를 기반으로 상기 실감 미디어의 저작을 지원하는 단계를 포함하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  10. 청구항 9에 있어서,
    상기 실감 미디어의 저작을 지원하는 단계는,
    상기 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득된 경우, 상기 변경된 정보에 상응하도록 상기 제1 테스트 미디어에 적용된 실감 효과를 변경하는 단계;
    상기 변경된 실감 효과가 적용된 제2 테스트 미디어를 생성하는 단계;
    상기 제2 테스트 미디어를 상기 디스플레이 장치를 통해 출력하는 단계; 및
    상기 제2 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부를 기반으로 상기 실감 미디어의 저작을 지원하는 단계를 포함하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  11. 청구항 9에 있어서,
    상기 실감 미디어의 저작을 지원하는 단계는,
    상기 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득되지 않는 경우, 상기 제1 테스트 미디어를 상기 저작 장치에서 저작하기 위한 최종적인 실감 미디어로 생성하는 단계를 포함하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  12. 청구항 9에 있어서,
    상기 실감 미디어의 저작을 지원하는 단계는,
    상기 제1 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부에 기초하여 상기 테스트 미디어에 적용된 실감 효과의 실감효과코드에 대한 정보를 업데이트(update)하는 단계를 포함하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  13. 청구항 12에 있어서,
    상기 실감효과코드에 대한 정보를 업데이트하는 단계는,
    상기 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득되는 경우, 상기 변경된 정보에 상응하도록 상기 실감 효과를 변경하는 단계; 및
    상기 실감 효과의 실감효과코드가 상기 변경된 실감 효과를 가지도록 상기 실감효과코드에 대한 정보를 업데이트하는 단계를 포함하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  14. 청구항 12에 있어서,
    상기 실감효과코드에 대한 정보를 업데이트하는 단계는,
    상기 제1 테스트 미디어에 적용된 실감 효과에 대하여 변경된 정보가 획득되지 않은 경우, 상기 실감 효과에 대한 신뢰도를 나타내는 가중치를 증가시키는 단계; 및
    상기 실감 효과의 실감효과코드가 상기 증가된 가중치의 실감 효과를 가지도록 상기 실감효과코드에 대한 정보를 업데이트하는 단계를 포함하는 것을 특징으로 하는 미디어 객체 기반의 저작 방법.
  15. 미디어에 포함된 객체를 기반으로 실감 미디어(sensory media)의 저작(authoring)을 제공하는 저작 장치로서,
    프로세서(processor); 및
    상기 프로세서를 통해 실행되는 적어도 하나의 명령이 저장된 메모리(memory)를 포함하고,
    상기 적어도 하나의 명령은,
    상기 실감 미디어를 저작하기 위한 원시 미디어를 획득하고;
    상기 원시 미디어에 포함된 복수의 장면들 중 사용자에 의해 선택된 적어도 하나의 장면에 대한 정보를 획득하고;
    상기 적어도 하나의 장면에 포함된 복수의 객체들 중 상기 사용자에 의해 선택된 적어도 하나의 객체에 대한 객체 정보의 획득 여부를 결정하고;
    상기 객체 정보의 획득 여부에 기초하여 실감 효과(sensory effect)를 적용하기 위한 적어도 하나의 객체를 결정하고;
    상기 적어도 하나의 객체에 적용 가능한 복수의 실감 효과들 각각의 실감효과코드(sensory effect code)를 검색하고; 그리고
    상기 검색된 실감효과코드를 기반으로 상기 사용자에게 상기 실감 미디어의 저작을 지원하도록 실행되고,
    상기 객체 정보가 획득되지 않은 경우, 상기 실감 효과를 적용하기 위한 적어도 하나의 객체는 상기 원시 미디어에 대한 특성 정보 및 상기 적어도 하나의 장면에 대한 장면 정보에 기초하여 결정되는 미디어 객체 기반의 저작 장치.
  16. 청구항 15에 있어서,
    상기 적어도 하나의 장면은 상기 저작 장치에 포함된 디스플레이(display) 장치를 통해 출력되는 것을 특징으로 하는 미디어 객체 기반의 저작 장치.
  17. 삭제
  18. 청구항 15에 있어서,
    상기 적어도 하나의 명령은,
    상기 실감효과코드를 검색하는 과정에서, 상기 실감 미디어에 적용 가능한 복수의 실감 효과들에 대한 복수의 실감효과코드들을 포함하는 데이터베이스(database)에서 상기 적어도 하나의 객체에 적용 가능한 복수의 실감 효과들 각각의 실감효과코드를 검색하도록 실행되는 것을 특징으로 하는 미디어 객체 기반의 저작 장치.
  19. 청구항 15에 있어서,
    상기 적어도 하나의 명령은,
    상기 실감 미디어의 저작을 지원하는 과정에서, 상기 검색된 실감효과코드가 나타내는 실감 효과를 기반으로 시뮬레이션(simulation)을 수행함으로써 상기 실감 미디어의 저작을 지원하도록 실행되는 것을 특징으로 하는 미디어 객체 기반의 저작 장치.
  20. 청구항 15에 있어서,
    상기 적어도 하나의 명령은,
    상기 실감 미디어의 저작을 지원하는 과정에서, 상기 원시 미디어에 상기 검색된 실감효과코드가 나타내는 실감 효과를 적용하여 테스트 미디어를 생성하고;
    상기 테스트 미디어를 상기 저작 장치에 포함된 디스플레이 장치를 통해 출력하고; 그리고
    상기 테스트 미디어에 적용된 실감 효과에 대한 사용자의 변경 여부를 기반으로 상기 실감 미디어의 저작을 지원하도록 실행되는 것을 특징으로 하는 미디어 객체 기반의 저작 장치.
KR1020170154017A 2016-11-17 2017-11-17 미디어 객체 기반의 저작 방법 및 장치 KR102009145B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160153431 2016-11-17
KR20160153431 2016-11-17

Publications (2)

Publication Number Publication Date
KR20180055750A KR20180055750A (ko) 2018-05-25
KR102009145B1 true KR102009145B1 (ko) 2019-08-09

Family

ID=62299868

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170154017A KR102009145B1 (ko) 2016-11-17 2017-11-17 미디어 객체 기반의 저작 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102009145B1 (ko)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101618590B1 (ko) * 2008-12-09 2016-05-09 코닌클리케 필립스 엔.브이. 몰입 효과들을 제공하기 위한 방법 및 시스템
KR20110012541A (ko) * 2009-07-30 2011-02-09 함정운 디지털 스토리보드 생성 시스템

Also Published As

Publication number Publication date
KR20180055750A (ko) 2018-05-25

Similar Documents

Publication Publication Date Title
Boavida-Portugal et al. Where to vacation? An agent-based approach to modelling tourist decision-making process
US11574430B2 (en) Method and system for creating animal type avatar using human face
CN111242310B (zh) 特征有效性评估方法、装置、电子设备及存储介质
CN111695037A (zh) 基于人工智能的信息推荐方法、装置及电子设备
KR102273511B1 (ko) 선호도 예측 방법 및 장치
CN113742572B (zh) 一种数据的推荐方法、装置、电子设备及存储介质
CN114741423A (zh) 基于人工智能的内容推荐方法及装置
CN110427564A (zh) 将深度学习集成到广义加性混合效应(game)框架中
CN113742580A (zh) 目标类型数据的召回方法、装置、电子设备及存储介质
KR102119518B1 (ko) 인공지능을 이용하여 생성되는 스타일 공간에 기반한 상품 추천 방법 및 시스템
KR102549937B1 (ko) Sns 텍스트 기반의 사용자의 인테리어 스타일 분석 모델 제공 장치 및 방법
GB2576938A (en) System and method for improved content discovery
KR101624071B1 (ko) 소셜 태깅 및 메타데이터 어플리케이션들에 기초하여 문화적 아이템의 관람을 제시하는 시스템 및 방법
CN113704620A (zh) 基于人工智能的用户标签更新方法、装置、设备及介质
KR102009145B1 (ko) 미디어 객체 기반의 저작 방법 및 장치
Schnase et al. Automatic variable selection in ecological niche modeling: A case study using Cassin’s Sparrow (Peucaea cassinii)
Kashevnik et al. Context-driven tour planning service: an approach based on synthetic coordinates recommendation
CN116467591A (zh) 多目标模型训练方法和装置、电子设备及存储介质
US12008057B2 (en) Determining a visual theme in a collection of media items
KR20230151704A (ko) 지역 지식 그래프를 기반으로 추천 정보를 제공하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
CN114357236A (zh) 音乐推荐方法、装置、电子设备及计算机可读存储介质
US10783398B1 (en) Image editor including localized editing based on generative adversarial networks
KR102521020B1 (ko) 인공지능 모델을 이용한 갤러리, 작가 및 소비자 매칭 및 결제 플랫폼 서비스 제공 방법, 장치 및 시스템
KR20210020513A (ko) 위치 기반 경험 공유 방법 및 컴퓨터 프로그램
US20150058756A1 (en) System For The Presentation, Creation, Organization, Analysis, And Curation Of Information Through The Use Of A Dynamic, Living, Online Ecosystem Which Can Mutually Interact With The Real World

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant