KR20050004885A - 합성화상출력장치 및 합성화상배송장치 - Google Patents

합성화상출력장치 및 합성화상배송장치 Download PDF

Info

Publication number
KR20050004885A
KR20050004885A KR10-2004-7019273A KR20047019273A KR20050004885A KR 20050004885 A KR20050004885 A KR 20050004885A KR 20047019273 A KR20047019273 A KR 20047019273A KR 20050004885 A KR20050004885 A KR 20050004885A
Authority
KR
South Korea
Prior art keywords
image
target
pose
scene
unit
Prior art date
Application number
KR10-2004-7019273A
Other languages
English (en)
Other versions
KR100752870B1 (ko
Inventor
고조다카시
Original Assignee
가시오게산키 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2002154511A external-priority patent/JP3918632B2/ja
Priority claimed from JP2002154512A external-priority patent/JP3901015B2/ja
Application filed by 가시오게산키 가부시키가이샤 filed Critical 가시오게산키 가부시키가이샤
Publication of KR20050004885A publication Critical patent/KR20050004885A/ko
Application granted granted Critical
Publication of KR100752870B1 publication Critical patent/KR100752870B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)

Abstract

합성화상출력/배송장치는 촬영된 장면화상에 단순히 고정된 애니메이션화상을 추가시키지 않고, 촬영된 장면화상에 상응하는 애니메이션화상을 추가시켜서 최종적인 합성화상을 출력/배송한다. 화상입력유닛(17)을 통하여 수신된 촬영된 장면화상으로부터 물체화상이 추출될 때, 장면화상에 상응하는 어느 특정된 유형의 캐릭터화상은 캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e), 캐릭터(3) "고양이"포즈 화상메모리(12f)중 적당한 것으로부터 선택된다. 선택된 유형의 캐릭터화상은 촬영된 장면화상내 물체화상을 대체하거나 장면화상에 추가되어서 이에 의해 최종적인 합성화상을 제공하고 나타낸다. 다시 말해서, 물체화상과 포즈가 유사한 애니메이션화상으로 물체화상을 대체하거나, 애니메이션화상을 장면화상에 추가하여서, 화상촬영프레임에 단순히 고정된 애니메이션화상을 추가하지 않고도, 애니메이션을 가진 매우 재미있는 촬영된 화상이 쉽게 생성된다.

Description

합성화상출력장치 및 합성화상배송장치{COMPOSITE IMAGE OUTPUT APPARATUS AND COMPOSITE IMAGE DELIVERY APPARATUS}
종래의 스틸카메라 또는 비디오카메라의 일부 유형은 촬영된 화상을 다른 화상과 결합하여 최종적인 합성화상을 나타내는 기능을 가진다.
예를들어, 현재 실사용중인 그러한 카메라는 촬영된 장면화상을 촬영프레임내 고정된 또는 원하는 위치에서 소정의 꽃 또는 유명한 캐릭터의 애니메이션화상과 결합함으로써 형성된 합성화상을 출력한다.
디지털카메라에 의해 촬영된 화상은 개인용 컴퓨터의 디스플레이 스크린에 나타나고, 다른 화상과 결합되어 편집될 수 있다. 이러한 경우에, 예를들어, 다른 화상은 또 다른 사진파일로부터 선택적으로 절단되어, 촬영된 화상내 원하는 위치에 붙여질 수 있다.
그러나, 이러한 종래의 화상처리장치의 문제점은 소정의 화상이 고정된 또는 원하는 위치에서 촬영된 장면화상과 단순히 결합되고, 그후 출력된다는 것이며, 따라서 촬영된 화상을 제외한 합성사진은 항상 단조롭고 지루한 경향이 있다.
본 발명은 촬영된 장면화상을 다른 것과 결합하여 최종적인 합성화상을 출력하기 위한 합성화상출력장치에 관한 것이며, 또한 촬영된 장면화상에 기초한 합성화상을 배송하기 위한 합성화상배송장치에 관한 것이다.
도 1은 본 발명의 제 1 실시예에 따르는 화상출력장치(10)의 전자회로구조를 도시한 블럭도이다.
도 2는 화상출력장치(10)내에 각각 캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e), 및 캐릭터(3) "고양이"포즈 화상메모리(12f)로 저장된 여러가지 포즈(파트1)를 취하는 "토끼", "곰" 및 "고양이"캐릭터의 화상을 도시한다.
도 3은 또한 화상출력장치(10)내에 각각 캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e), 및 캐릭터(3) "고양이"포즈 화상메모리(12f)로 저장된 여러가지 포즈(파트2)를 취하는 "토끼", "곰" 및 "고양이"캐릭터의 화상을 도시한다.
도 4는 또한 화상출력장치(10)내에 각각 캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e), 및 캐릭터(3) "고양이"포즈 화상메모리(12f)로 저장된 여러가지 포즈(파트3)를 취하는 "토끼", "곰" 및 "고양이"캐릭터의 화상을 도시한다.
도 5는 화상출력장치(10)내 모델포즈 메모리(12b)로 저장된 모델의 여러가지 포즈(파트1)의 화상을 도시한다.
도 6은 또한 화상출력장치(10)내 모델포즈 메모리(12b)로 저장된 모델의 여러가지 포즈(파트2)의 화상을 도시한다.
도 7은 또한 화상출력장치(10)내 모델포즈 메모리(12b)로 저장된 모델의 여러가지 포즈(파트3)의 화상을 도시한다.
도 8A는 예로써, 표준체형의 물체화상(타겟화상)을 기초로 생성되고, 화상출력장치(10)내에 사이즈조절된 모델포즈 화상메모리(12c)로 저장된 모델화상(포즈번호. 1A 내지 5A)을 도시한다.
도 8B는 또 다른 예로써, 도 8B의 비표준체형 물체화상(타겟화상)으로 사이즈조절되고, 메모리(2C)에 저장되는 모델화상(포즈번호. 1A 내지 5A)을 도시한다.
도 9는 화상출력장치(10)에 의해 팔로워(follower) 추가방식이 특정되었을 때, 촬영된 장면화상에 팔로워로서 "곰"캐릭터 화상의 추가를 도시한 도면이다.
도 10은 화상출력장치(10)에 의해 공간영역 캐릭터화상 추가방식이 특정되었을 때, 촬영된 장면화상의 공간영역에 "고양이"캐릭터 화상의 추가를 도시한 도면이다.
도 11은 화상출력장치(10)에 의해 거울역상의 캐릭터화상 추가방식이 특정되었을 때, 촬영된 장면화상에 거울역상의 "토끼"캐릭터 화상의 추가를 도시한 도면이다.
도 12는 화상출력장치(10)에 의해 다중화상 촬영/대체 방식이 특정되었을 때, "토끼"캐릭터 화상으로 물체화상의 대체를 도시한 도면이다.
도 13은 화상출력장치(10)에 의해 물체 선택/대체 방식이 특정되었을 때, "토끼"캐릭터 화상으로 물체화상의 대체를 도시한 도면이다.
도 14는 화상출력장치(10)에 의해 수행되는 화상처리(파트1)를 도시한 흐름도이다.
도 15는 화상출력장치(10)에 의해 수행되는 도 14의 화상처리(파트1)로부터 연속된 화상처리(파트2)를 도시한 흐름도이다.
도 16A 및 16B는 화상출력장치(10)에서 수행되는 화상처리내 각각 포함된 타겟화상 추출처리(방법 1 및 2)를 도시한 흐름도이다.
도 17A 및 17B는 화상출력장치(10)에서 수행되는 화상처리내 각각 포함된 상응애니메이션화상 획득처리(방법 1 및 2)를 도시한 흐름도이다.
도 18은 도 17A/17B의 상응애니메이션화상 획득처리(방법 1)/(방법 2)내 포함된 모사의 타겟화상과 캐릭터/모델 화상의 포즈에서 유사성의 평가를 위한 처리를 도시한 흐름도이다.
도 19는 도 17A의 상응애니메이션화상 획득처리(방법 1)내 포함된 포즈유사성 평가처리에서 타겟화상과 특정한 캐릭터화상의 포즈에서 유사성 평가의 특정한 예를 도시한 도면이다.
도 20은 도 17B의 상응애니메이션화상 획득처리(방법 2)에 포함된 포즈유사성 평가처리에서 타겟화상과 모델화상의 포즈에서 유사성 평가의 구체적인 예를 도시한 도면이다.
도 21은 도 17B의 상응애니메이션화상 획득처리(방법 2)에 포함된 포즈유사성 평가처리에서 타겟화상과 모델화상의 포즈에서 유사성 평가의 또 다른 구체적인 예(파트 2)를 도시한 도면이다.
도 22는 화상출력장치(110)에 의해 포즈 모델을 위한 사이즈조절 처리를 도시한 흐름도이다.
도 23은 본 발명의 제 2 실시예에 따르는 화상배송시스템에서 화상배송서버(110)의 전자회로 구조를 도시한 블럭도이다.
도 24는 제 2 실시예에 따르는 화상배송시스템에서 단말기(120)의 전자회로 구조를 도시한 블럭도이다.
도 25는 제 2 실시예에 따라서, 다중-촬영 대체모델이 특정되었을 때, 화상배송시스템의 단말기장치(12)로부터의 요청에서, 화상배송서버(110)에 의해 다른 화상으로 타겟화상의 대체 및 "곰"캐릭터화상의 추가를 도시한 도면이다.
도 26은 제 2 실시예에 따르는 화상배송시스템의 단말기(120)에 의한 화상처리(파트 1)를 도시한 흐름도이다.
도 27은 화상배송시스템의 단말기(120)에 의해 도 26의 화상처리(파트 1)로부터 연속된 화상처리(파트 2)를 도시한 흐름도이다.
도 28은 제 2 실시예에 따르는 화상배송시스템의 화상배송서버(10)에 의한서버처리(파트 1)를 도시한 흐름도이다.
도 29는 제 2 실시예에 따르는 화상배송서버(10)에 의해 도 28의 서버처리(파트 1)로부터 연속된 서버처리(파트 2)를 도시한 흐름도이다.
도 30은 제 2 실시예에 따르는 화상배송서버(10)에서 서버처리내 포함된 타겟화상 추출처리를 도시한 흐름도이다.
도 31은 제 2 실시예에 따르는 화상배송서버(10)에서 서버처리내 포함된 상응애니메이션화상 획득처리를 도시한 흐름도이다.
도 32는 제 2 실시예에 따르는 화상배송시스템(10)의 상응애니메이션화상 획득처리내 포함된 포즈유사성 평가처리에서 수행될 타겟화상과 모델화상의 포즈에서 유사성의 평가를 도시한 도면이다.
도 33은 제 3 실시예에 따르는 화상배송시스템의 단말기(120)에 의한 화상처리(파트 1)를 도시한 흐름도이다.
도 34는 화상배송시스템의 단말기장치(120)에 의해 도 33의 화상처리(파트 1)로부터 연속된 화상처리(파트 2)를 도시한 흐름도이다.
도 35는 제 3 실시예에 따르는 화상배송시스템의 화상배송서버(110)에 의한 서버처리를 도시한 흐름도이다.
도 36은 제 3 실시예에 따르는 화상배송시스템의 단말기(120)에서 화상처리내 포함된 타겟화상 추출처리를 도시한 흐름도이다.
도 37은 제 3 실시예에 따르는 화상배송시스템의 단말기(120)에서 화상처리내 포함된 포즈번호 결정처리를 도시한 흐름도이다.
도 38은 제 3 실시예에 따르는 화상배송시스템의 단말기(120)에서 화상처리내 포함된 포즈번호 결정처리에서 모사의 타겟화상과 모델화상의 포즈에서 유사성의 평가를 도시한 흐름도이다.
도 39는 제 3 실시예에 따르는 화상배송서버(110)에서 이동사진을 위해 사용되는 포즈캐릭터화상으로서 화상배송서버(110)내 이동사진 "토끼"캐릭터포즈 화상메모리(12dM)로 저장된 여러가지 포즈를 취하는 애니메이션 "토끼"캐릭터의 화상을 도시한다.
도 40은 제 4 실시예에 따르는 화상배송시스템의 일반적인 구조를 도시한 블럭도이다.
도 41은 도 41A가 휴대용 전화(200A) 측면에서 수행되는 처리를 도시한 흐름도이고, 도 41B가 화상배송서버(210) 측면에서 수행되는 처리를 도시한 흐름도인 제 4 실시예에 따르는 화상배송시스템에서 사용자의 최초 캐릭터화상 등록처리를 도시한 흐름도이다.
본 발명은 상술된 문제점의 관점에서 이루어졌다. 본 발명의 목적은 고정된 애니메이션화상을 촬영된 장면화상과 결합하여, 최종적인 합성화상을 출력하는 것뿐만 아니라, 촬영된 장면화상에 상응하는 애니메이션화상을 촬영된 장면화상과 결합할 수 있는 화상출력장치, 화상출력처리프로그램, 및 화상출력방법을 제공하는 것이다.
본 발명의 또 다른 목적은 고정된 화상을 배송하는 것뿐만 아니라 화상을 배송할 수 있는 화상배송서버, 화상배송프로그램, 및 화상배송방법에 관한 것이다.
상기 목적을 달성하기 위해서, 본 발명의 한 관점에 따르면,
적어도 하나의 물체를 포함하는 장면을 나타내는 촬영된 장면화상을 획득하는 촬영된 장면화상 획득유닛(수단);
상기 획득유닛에 의해 획득된 촬영된 장면화상으로부터 적어도 하나의 물체중 어느 특정한 것을 나타내는 타겟화상을 추출하는 타겟화상 추출유닛(수단);
상기 추출유닛에 의해 추출된 타겟화상에 상응하는 화상을 얻는 상응화상 취득유닛(수단); 및
상기 촬영된 장면화상 획득유닛에 의해 획득된 촬영된 장면화상에 상기 취득유닛에 의해 취득된 화상을 추가하고, 최종적인 합성화상을 출력하는 화상출력유닛(수단)을 포함하는 합성화상출력장치를 제공한다.
이러한 합성화상출력장치에서, 적어도 하나의 물체중 어느 특정한 것을 나타내는 타겟화상이 획득수단에 의해 획득된 촬영된 장면화상으로부터 타겟화상 추출수단에 의해 추출되었을 때, 추출된 타겟화상에 상응하는 화상은 상응화상 취득수단에 의해 취득된다. 이때, 취득수단에 의해 취득된 화상이 촬영된 장면화상 획득수단에 의해 획득된 촬영된 장면화상에 추가되어서 최종적인 합성화상을 출력한다. 즉, 사용자는 재미있는 합성화상 생성하는 것을 즐길 수 있다.
본 발명의 또 다른 관점에 따르면,
적어도 하나의 물체를 포함하는 장면을 각각 나타내는 복수의 촬영된 장면화상을 획득하는 촬영된 장면화상 획득유닛(수단);
상기 촬영된 장면화상 획득유닛에 의해 획득된 복수의 촬영된 장면화상중 어느 선택된 것로부터 적어도 하나의 물체중 어느 특정한 것을 나타내는 타겟화상을 추출하는 타겟화상 추출유닛(수단);
상기 추출유닛에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 상응화상 취득유닛(수단); 및
상기 타겟화상 추출유닛에 의해 어떤 타겟화상도 추출되지 않은 다른 복수의 촬영된 장면화상중 선택된 것에 상응화상을 추가하고, 최종적인 합성화상을 출력하기 위하여, 상응화상 취득유닛에 의해 취득된 화상으로 촬영된 장면화상내 추출된 타겟화상을 대체하는 화상출력유닛(수단)을 포함하는 합성화상출력장치를 제공하는 것이다.
이러한 합성화상출력장치에서, 적어도 하나의 물체중 어느 특정한 것을 나타내는 타겟화상이 촬영된 장면화상 획득수단에 의해 획득된 복수의 촬영된 장면화상중 어느 것으로부터 타겟화상 추출수단에 의해 추출되었을 때, 추출된 타겟화상에 상응하는 화상은 상응화상 취득수단에 의해 취득된다. 이때, 화상출력수단에 의해서, 타겟화상 추출수단에 의해 추출된 타겟화상은 상응화상 취득수단에 의해 취득된 화상으로 대체된다. 또한 화상출력수단에 의해서, 어떠한 타겟화상도 타겟화상 추출수단에 의해 추출되지 않은 복수의 촬영된 장면화상의 다른 것들중 선택된 것에 상응화상이 추가되어서 최종적인 합성화상을 출력한다. 즉, 사용자는 재미있는 화상을 생성하는 것을 즐길 수 있다.
본 발명의 또 다른 관점에 따르면,
물체를 포함하는 장면을 나타내는 촬영된 장면화상을 단말기로부터 수신하는 촬영된 장면화상 수신부(수신수단);
상기 촬영된 장면화상 수신유닛에 의해 수신된 촬영된 장면화상으로부터 물체를 나타내는 타겟화상을 추출하는 타겟화상 추출부(추출수단);
상기 타겟화상 추출유닛에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 상응화상 취득부(취득수단);
상기 상응화상 취득부에 의해 취득된 상응화상을 상기 촬영된 장면화상에 추가해서 최종적인 합성화상을 제공하는 화상 추가부(추가수단); 및
상기 화상 추가부에 의해 제공된 합성화상을 단말기로 배송하는 화상 배송부(배송수단)를 포함하는 합성화상배송장치를 제공한다.
이러한 합성화상배송장치에서, 적어도 하나의 물체를 포함하는 장면을 나타내는 촬영된 장면화상이 단말기로부터 수신되었을 때, 물체를 나타내는 타겟화상은 타겟화상 추출수단에 의해 수신된 촬영된 장면화상으로부터 추출된다. 추출된 타겟화상에 상응하는 화상은 상응화상 취득수단에 의해 얻어진다. 이때, 취득화상은 화상 추가수단에 의해 촬영된 장면화상에 추가되어서 최종적인 합성화상을 제공하며, 그후 화상배송수단에 의해 단말기로 배송된다. 즉, 사용자는 재미있는 화상을 생성하는 것을 즐길 수 있다.
본 발명의 또 다른 관점에 따르면,
촬영된 장면화상내 포함된 타겟화상을 추출하고, 상기 추출된 타겟화상의 포즈정보를 단말기로 발송하고, 상기 합성화상배송장치에 의한 포즈정보의 발송에 반응하여 발송된 단말기의 포즈정보에 상응하는 화상을 수신하고, 촬영된 장면화상에 상응화상을 추가하여 최종적인 합성화상을 출력하는 단말기를 가지고 통신하며,
촬영된 장면화상내 포함된 타겟화상을 위한 포즈정보를 단말기로부터 수신하는 포즈정보 수신부(수신수단);
포즈정보의 다른 항목중 각 하나에 각각 대응하는 복수의 화상을 저장하는 상응화상 저장메모리(저장수단); 및
상기 포즈정보 수신기에 의해 수신된 포즈정보에 상응하는 화상을 상응화상 저장메모리로부터 판독하고, 상기 판독된 화상을 단말기로 배송하는 화상 배송부(배송수단)를 포함하는 합성화상 배송장치를 제공하는 것이다.
이러한 합성화상배송장치에서, 단말기가 촬영된 장면화상내 포함된 타겟화상을 추출하고, 합성화상배송장치로 타겟화상을 위한 포즈정보를 발송할 때, 합성화상배송장치는 포즈정보 수신수단으로 포즈정보를 수신한다. 이때, 수신된 포즈정보에 상응하는 화상이 화상배송수단에 의해 상응화상저장수단으로부터 판독되고, 단말기에 배송된다. 즉, 단말기는 촬영된 장면화상으로부터 추출된 타겟화상에 상응하는 화상을 화상배송장치로부터 수신하고, 촬영된 장면화상에 상기 화상을 추가하여서 최종적으로 흥미있는 합성화상을 출력할 수 있다. 즉, 사용자는 재미있는 화상을 생성하는 것을 즐길 수 있다.
본 발명의 바람직한 실시예가 첨부도면을 참조하여 설명될 것이다.
(제 1 실시예)
도 1은 본 발명의 제 1 실시예에 따르는 화상출력장치(10)의 전자회로 구조를 도시한 블럭도이다.
이러한 화상출력장치(10)는 여러 종류의 기록매체 또는 외부적으로 수신된프로그램의 일부에 기록된 프로그램을 판독하고, 그 프로그램에 따라서 그 자체 작동을 제어하는 컴퓨터를 포함한다. 컴퓨터의 전자회로는 CPU(중앙처리유닛)(11)를 포함한다.
CPU(11)는 메모리(12)내에 미리 저장된 장치제어프로그램, CD-ROM과 같은 외부기록매체(13)로부터 기록매체판독부(14)를 통하여 메모리(12)에 판독된 장치제어프로그램, 또는 인터넷(N)상의 웹서버(21)(이 경우에는, 프로그램 서버)로부터 전자전송제어부(15)를 통하여 메모리(12)에 판독된 장치제어프로그램에 따라서 회로 구성요소의 작동을 제어한다. 메모리(12)내에 저장된 장치제어프로그램은 사용자의 키이 또는 터치패널을 가지는 입력유닛(16)의 작동에 반응하여 생긴 입력신호에 의해, 또는 화상입력유닛(17)을 통한 화상신호입력에 의해, 또는 전자전송제어부(15)를 통하여 화상출력장치(10)로 연결되는 인터넷(N)상 각각의 웹서버(21)와 통신하는데 사용되는 통신신호에 의해 시작된다.
메모리(12), 기록매체판독부(14), 전자전송제어부(15), 입력유닛(16) 및 화상입력유닛(17)이외에, CPU(11)는 거리센서(18), LED를 포함하는 디스플레이유닛(19), 및 화상출력유닛(20)과 연결된다.
화상입력유닛(17)은 디지털카메라(17A), 디지털비디오 무비카메라(17B), 또는 VTR(비디오플레이어)(17C)로부터 촬영된 장면화상 데이터를 선택적으로 얻는다.
거리센서(18)는 물체화상이 화상입력유닛(17)에 입력되는 장면에서의 물체와 거리센서(18) 사이의 거리를 검지한다.
화상출력유닛(20)은 화상입력유닛(17)을 통하여 수신된 촬영된 장면화상을기초로 이러한 장치에 의해 처리된 화상데이터를 출력한다. 출력화상데이터는 화상을 저장, 기록 또는 인쇄하기 위해 메모리 카드(20A), VTR(비디오 레코더)(20B) 또는 화상 프린터(20C)에 선택적으로 출력된다.
메모리(12)는 화상출력장치(10)의 전 작동의 제어를 담당하는 시스템 프로그램 및 전자전송제어부(15)를 통하여 인터넷(N)상 각각의 웹서버(21)로 데이터를 교환하기 위한 통신 프로그램을 저장한다. 메모리(12)는 또한 화상입력유닛(17)과 화상출력유닛(20)을 통하여 화상출력장치(10)에 의해 촬영된 장면화상내 타겟화상에 상응하는 화상을 위한 결합/출력 처리를 수행하는 화상처리 프로그램(12a)을 저장한다.
또한, 메모리(12)는 모델포즈 화상메모리(12b), 사이즈조절된 모델포즈 화상메모리(12c), 캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e), 및 캐릭터(3) "고양이"포즈 화상메모리(12f)를 준비한다. 또한 메모리(12)는 그 작업영역내에 촬영된 장면 화상메모리(12g) 및 화상처리 작업영역(12h)을 준비한다.
도 2는 화상출력장치(10)내에 각각 캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e), 및 캐릭터(3) "고양이"포즈 화상메모리(12f)로 저장된 여러가지 포즈(파트1)를 취하는 "토끼", "곰" 및 "고양이"캐릭터 화상을 도시한다.
도 3은 또한 화상출력장치(10)내에 각각 캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e), 및 캐릭터(3) "고양이"포즈 화상메모리(12f)로 저장된 여러가지 포즈(파트2)를 취하는 "토끼", "곰" 및 "고양이"캐릭터 화상을 도시한다.
도 4는 또한 화상출력장치(10)내에 각각 캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e), 및 캐릭터(3) "고양이"포즈 화상메모리(12f)로 저장된 여러가지 포즈(파트3)를 취하는 "토끼", "곰" 및 "고양이"캐릭터 화상을 도시한다.
캐릭터 "토끼", "곰" 및 "고양이"포즈 화상메모리(12d, 12e 및 12f)로 저장된 여러가지 포즈를 취하는 캐릭터화상의 각각의 다른 유형은 화상입력유닛(17)으로부터 입력된 촬영된 장면화상내 물체(타겟)화상중 각각 하나의 포즈를 모사하는 것으로 사용된다. 다른 포즈번호는 상응하는 관계에서 다른 포즈로 저장된다.
도 5는 화상출력장치(10)내 모델포즈 메모리(12b)로 저장된 여러가지 모델 포즈(파트1)에 상응하는 모델의 화상을 도시한다.
도 6은 또한 화상출력장치(10)내 모델포즈 메모리(12b)로 저장된 여러가지 모델 포즈(파트2)에 상응하는 모델의 화상을 도시한다.
도 7은 또한 화상출력장치(10)내 모델포즈 메모리(12b)로 저장된 여러가지 모델 포즈(파트3)에 상응하는 모델의 화상을 도시한다.
모델포즈 화상메모리(12b)로 저장된 여러가지 포즈를 취하는 각각의 모델화상은 화상입력유닛(17)으로부터 입력된 촬영된 장면화상내 물체(타겟)화상과 포즈가 유사한 모델화상을 얻기위해 사용된다. 다른 포즈는 상응하는 관계에서 다른 포즈번호로 저장되고, 3개의 변화하는 모델화상(A, B 및 C)이 각각의 포즈번호를 위해 저장된다.
캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e), 및 캐릭터(3) "고양이"포즈 화상메모리(12f)로 저장된 각각의 "토끼", "곰" 및 "고양이"캐릭터 화상은 모델포즈 화상메모리(12b)에 저장된 모든 포즈번호(번호. 1A, 1B, 1C, 2A, 2B, 2C, ...nA, nB, nC)에 의해 지시된 포즈를 취하는 모델화상에 상응한다.
도 8은 화상출력장치의 사이즈조절된 모델포즈 화상메모리(12c)로 저장된 사이즈조절된 포즈화상을 도시하며, 도 8A는 예로써, 도 8A의 좌측말단에 도시된 표준체형의 물체(타겟)화상으로 생성되고 메모리(12c)에 저장되는 모델포즈 화상(포즈번호. 1A 내지 5A)을 도시한다. 도 8B는 예로써, 도 8A의 각각의 표준체형 모델포즈 화상의 사이즈를 가로 및 세로로 비표준체형 물체(타겟)화상으로 조절함으로써 얻어지고 메모리(12c)로 저장되는 사이즈조절된 모델포즈 화상(포즈번호. 1A 내지 5A)을 도시한다.
사이즈조절된 모델포즈 화상메모리(12c)에 저장된 사이즈조절된 모델화상은 하기와 같이 얻어진다. 도 8A에 포즈번호 2A로 도시된 완전한 길이의 표준체형 포즈모델 화상은 도 8B에 도시된 비표준체형 물체화상으로 사이즈(세로 및 가로)가 조절되어, 포즈번호 2A에 상응하는 사이즈조절된 화상이 된다. 포즈번호 2A를 위한 사이즈조절된 모델화상의 사이즈조절 비율(밸런스)에 따르면, 다른 포즈를 위한 모든 다른 표준체형 모델화상은 비표준체형 모델화상으로 사이즈조절되고, 이후에 사이즈조절된 모델포즈 화상메모리(12c)에 저장된다.
촬영된 장면화상 메모리(12g)는 화상입력유닛(17)으로부터 촬영된 장면화상 데이터를 수신하고, 촬영된 장면화상의 유닛내 촬영된 장면화상 데이터를 저장한다.
화상데이터가 처리되었을 때, 화상처리 작업영역(12h)은 화상처리프로그램(12a)에 따라서 처리되는 화상데이터를 일시적으로 저장한다.
이제, 상술된 구조의 화상출력장치(10)의 작동이 설명될 것이다.
도 9는 화상출력장치(10)에 의해 팔로워 추가방식이 특정되었을 때, 팔로워로서 "곰"캐릭터 화상의 추가를 나타낸다.
도 9A의 촬영된 장면화상(12g1)으로부터, 도 9B에 도시되었듯이, 물체(타겟)화상(H)이 추출되고 "곰"캐릭터 화상이 팔로워로서 특정되었을 때, 도 9C에 도시되었듯이 물체화상(H)과 포즈가 유사한 포즈번호.4(측면)의 "워킹" 캐릭터화상 "곰"이 캐릭터(2) "곰"포즈 화상메모리(12e)로부터 판독된다. 따라서, 물체화상(H)이 일정한 시간전에 존재하던 촬영된 장면화상(12g1)에서의 위치는 일련의 촬영된 장면화상(12g1)에서 물체화상(H)이 존재하는 위치로부터 인식된다. 캐릭터(2) "곰" 포즈 화상메모리(12e)로부터 판독된 포즈번호.4의 "워킹 곰" 캐릭터화상(측면)은 도 9D에 도시되었듯이, 촬영된 장면화상내 물체화상(H)이 일정한 시간전에 존재하던 위치로 추가된다.
다시 말하면, 촬영된 장면화상(12g1)내 물체화상(H)과 포즈가 유사한 "워킹 곰" 캐릭터화상은 "곰"캐릭터 화상이 물체화상(H)을 따르는 촬영된 화상내 위치로 추가된다.
도 10은 공간영역 캐릭터화상 추가방식이 특정되었을 때, 화상출력장치(10)에 의해 공간영역에 "고양이"캐릭터 화상의 추가를 도시한 도면이다.
도 10A의 촬영된 장면화상(12g2)으로부터 도 10B에 도시되었듯이, 모사의 물체(타겟)화상(H1)이 특정되고 추출되며, "고양이"캐릭터 화상이 공간영역내 추가됨으로써 특정된다면, 물체(타겟)화상(H1)과 포즈가 유사한 포즈번호.10 ("만세")의 "고양이"캐릭터 화상은 도 10C에 도시되었듯이, 캐릭터(3) "고양이"포즈 화상메모리(12f)로부터 판독된다. 그후, 도 10D에 도시되었듯이, 이렇게 판독된 포즈번호.10 ("만세")의 "곰"캐릭터 화상은 촬영된 장면화상(12g2)의 물체(타겟)화상(H1 및 H2)이 존재하지 않는 공간영역내의 어떤 임의의 위치에 추가된다.
도 11은 화상출력장치(10)에 의해 거울역상의 화상 추가방식이 특정되었을 때, 거울역상의 "토끼"캐릭터 화상의 추가를 나타낸다.
도 11A에 도시되었듯이, 예로써, 파트너(도시되지 않음)와 춤추는 것으로 인식되는 물체(타겟)화상(H)을 포함하는 촬영된 장면화상(12g3)으로부터, 도 11B에 도시되었듯이, 물체(타겟)화상(H)이 추출되고, "토끼"캐릭터 화상이 댄스파트너 캐릭터화상으로 추가되도록 특정된다면, 물체(타겟)화상(H)과 포즈가 유사한 포즈번호.19("댄스")의 "토끼"캐릭터 화상이 도 11C에 도시되었듯이, 캐릭터(1) "토끼"포즈 화상메모리(12d)로부터 판독된다. 따라서, 도 11D에 도시되었듯이, 판독된 "토끼"캐릭터 화상은 거울역상이고, 거울역상의 "토끼"화상이 댄스 목적으로 물체(타겟)화상과 결합되는 촬영된 장면화상(12g3)내 위치에 댄스파트너로 추가된다.
다시 말하면, 촬영된 장면화상(12g3)내 물체화상(H)의 댄스포즈를 모사하는"토끼"캐릭터 화상은 거울역상이고, 거울역상의 "토끼"가 물체화상(H)과 연결되는 촬영된 장면화상내 위치에 댄스파트너로 추가된다.
도 12는 화상출력장치(10)에 의해 다중화상 촬영/대체 방식이 특정되었을 때, "토끼"캐릭터 화상에 의한 물체화상의 대체를 나타낸다.
예를들어, 사용자가 대체화상으로서 "토끼"캐릭터가 사용자에게 키스하는 장면화상을 생성하기 바라는 경우, 키스포즈를 취하는 물체(타겟)화상(H1)이 포함된 도 12A의 촬영된 장면화상(12g4)으로부터, 도 12B에 도시되었듯이, 키스포즈를 취하는 물체(타겟)화상(H1)이 추출된다. "토끼"캐릭터 화상이 대체캐릭터 화상으로써 특정되는 경우, 도 12C에 도시되었듯이, 물체(타겟)화상(H1)과 포즈가 유사한 포즈번호.20("키스")을 가지는 "토끼"캐릭터 화상은 캐릭터(1) "토끼"포즈 화상메모리(12d)로부터 판독된다.
그후, 도 12D에 도시되었듯이, 캐릭터(1) "토끼"포즈 화상메모리(12d)로부터 판독된 제 1 물체화상(H1)과 포즈가 유사한 포즈번호.20("키스")을 가지는 "토끼"캐릭터 화상은 도 12E에 도시되었듯이, 제 1 촬영된 화상내 물체(타겟)화상(H)과 포즈가 다른 물체화상(H2)을 포함하는 제 2 촬영된 장면화상(12g4')에 추가된다.
다시 말하면, 제 1 촬영된 장면화상(12g4)내 물체화상(H1)을 모사한 "토끼"캐릭터 화상은 제 2 촬영된 장면화상(12g4')내 물체화상(H2)과 결합된다.
도 13은 화상출력장치(10)에 의해 물체 선택/대체 방식이 선택되었을 때, 캐릭터 "토끼"화상에 의한 물체화상의 대체를 나타낸다.
예를들어, 도 13A에 도시되었듯이, 3개의 물체화상(H1 내지 H3)을 포함하는촬영된 장면화상(12g5)으로부터, 도 13B에 도시되었듯이 물체화상(H1)이 대체되는 것으로서 특정되고 추출되며, "토끼"화상이 대체 물체화상으로써 특정된다면, 물체화상(H1)과 포즈가 유사한 포즈번호.1 (웃기(클로즈업))을 가지는 "토끼"캐릭터 화상은 도 13C에 도시되었듯이, 캐릭터(1) "토끼"포즈 화상메모리(12d)로부터 판독된다.
반면에, 특정된 물체화상(H1) 및 다른 물체화상(H2, H3)은 촬영된 장면화상(12g5)으로부터 절단되고, 도 13B, 13F, 13E 및 13D에 각각 예시되었듯이 배경화상(12g5')이 생성된다.
따라서, 도 13G에 도시되었듯이, 캐릭터(1) "토끼"포즈 화상메모리(12d)로부터 판독된 특정된 물체화상(H1)과 포즈가 유사한 "토끼"캐릭터 화상, 및 촬영된 장면화상(12g5)으로부터 절단된 물체화상(H2, H3)은 화상이 촬영된 각각의 물체에 화상촬영거리의 감소하는 순서로 각각의 적당한 위치에서 배경화상(12g5')과 결합된다.
다시 말하면, 촬영된 장면화상(12g5)내 특정된 물체화상(H1)의 포즈를 모사한 "토끼"캐릭터 화상은 특정된 물체화상(H1)을 대체시키고, 이에 의해서 최종적인 합성화상을 제공한다.
이제, 화상출력장치(10)에 의해 수행될 화상처리가 다음과 같이 더 상세하게 설명될 것이다.
도 14는 화상출력장치(10)에 의해 수행되는 화상처리(파트1)를 도시한 흐름도이다.
도 15는 도 14의 화상처리(파트1)로부터 연속된 화상출력장치(10)에 의해 수행되는 화상처리(파트2)를 도시한 흐름도이다.
촬영된 장면화상(12g)내 추가된 캐릭터 또는 대체로서 사용되는 캐릭터의 유형("토끼", "곰" 또는 "고양이")이 입력유닛(16)의 조작에 의해 특정된다(단계 S1).
"1-1: 임의의 공간영역 캐릭터화상 추가방식", "1-2: 팔로워 추가방식", "1-3: 거울역상의 캐릭터화상 추가방식", 및 "2-1: 물체화상 선택/대체 방식", 및 "2-2: 다중화상 촬영/대체 방식" 간으로부터 추가/합성 방식 또는 대체/합성 방식이 선택되고 특정된다(단계 S2).
디지털카메라(17A), 디지털비디오 무비카메라(17B) 또는 VTR(플레이어)(17C)에 의해 촬영된 장면화상(12gn)이 화상출력장치(12gn)로 입력되기 시작하고(단계 S3), 특정된 캐릭터화상을 장면화상(12gn)에 추가하기 위한 시작 작동이 수행될 때(단계 S4), 도 16에 물체화상을 추출하는 처리가 진행된다(단계 SA).
도 16A 및 16B는 화상출력장치(10)에서 화상처리내 각각 포함된 타겟화상 추출처리(방법 1 및 2)의 흐름도이다.
도 16A의 타겟화상 추출처리(방법 1)에서, 화상출력장치(10)에 화상입력유닛(17)을 통하여 소정의 시간에서 순차적으로 입력된 일련의 촬영된 장면화상(12gn)은 작업영역내 촬영된 장면화상 메모리(12g)로 저장된다(단계 A11).
따라서, 각 물체의 이동에 상응하여 다른 포즈를 취하는 물체화상(Hn)은 촬영된 장면화상 메모리(12g)에 저장된 일련의 촬영된 장면화상(12gn)으로부터 각각의 블럭으로써 추출되고(단계 A12), 화상처리 작업영역(12h)에 저장된다(단계 A13).
도 16B내 타겟화상 추출처리(방법 2)에서, 그 화상이 촬영된 장면에서의 각 물체와 거리센서(18) 사이의 거리는 거리센서(18)에 의해 측정된다(단계 A21). 배경과 물체 사이의 거리에 의존하여 단거리로 존재하도록 결정된 각 물체의 화상(Hn)이 분리된 블럭으로 추출된다(단계 A22).
각각의 추출된 물체화상(Hn)은 화상처리 작업영역(12h)내 분리된 블럭으로 저장된다(단계 A23).
촬영된 장면화상(12gn)내 포함된 각각의 물체화상(Hn)이 촬영된 장면화상(12gn)으로부터 블럭으로 추출되고 화상처리 작업영역(12h)에 저장될 때, 파선의 둘레(M)에 각각의 추출된 물체화상(Hn)을 가지는 촬영된 장면화상(12gn)은 예로써, 도 9A, 11A, 12A 또는 13A에 도시되었듯이, 디스플레이(19)상에 나타난다(단계 S5).
그후, 디스플레이(19)상에 나타난 촬영된 장면화상(12gn)내 물체화상(Hn)의 복수의 블럭이 있는지가 결정된다(단계 S6).
촬영된 장면화상(12gn)내 물체화상(Hn)의 복수의 블럭이 없는 것으로 결정된다면, 촬영된 장면화상(12gn)으로부터 추출된 것의 물체화상(Hn)만이 모사의 물체화상으로 설정된다(단계 S6 → S7a).
촬영된 장면화상(12gn)내 물체화상(Hn)의 복수의 블럭이 있는 것으로 결정된다면, 모사의 타겟화상은 물체화상의 복수의 블럭간으로부터 사용자의 입력유닛(16)의 조작에 의해 특정된다(단계 S6 → S7b).
물체화상(Hn)이 모사의 타겟화상으로 특정되었을 때, 도 17내 상응애니메이션화상 획득처리로 처리가 진행된다(단계 SB).
도 17A 및 17B는 화상출력장치(10)에서 수행되는 화상처리내 각각 포함된 상응애니메이션화상 획득처리(방법 1 및 2)를 도시한 다른 흐름도이다.
도 17A의 상응애니메이션화상 획득처리(방법 1)에서, 촬영된 장면화상(12gn)으로부터 추출되고 모사의 타겟화상으로 설정된 물체화상(Hn)과 각각의 특정된 캐릭터의 포즈화상의 포즈유사성이 평가되고(단계 B1C), 최고의 포즈유사성을 가지는 포즈 캐릭터화상이 디스플레이(19)상에 도시된다(단계 B12).
여기에, 사용자의 입력유닛(16)의 조작에 의하여 디스플레이(19)상에 나타난 모사의 타겟화상과 최고의 포즈유사성을 가지는 포즈 캐릭터화상이 선택되었을 때, (그것의 포즈번호를 가지고) 특정된 캐릭터화상은 모사의 타겟화상에 상응하는 애니메이션화상으로서 등록된다. 다른 포즈유사성을 가지는 포즈 캐릭터화상이 있으면, "다음 디스플레이"가 클릭될 때마다 그 다음 최고의 포즈유사성을 가지는 포즈캐릭터가 나타난다.
반면에, 모사의 타겟화상과 최고의 포즈유사성을 가지는 캐릭터화상이 디스플레이(19)상에 나타난 상태에서(또는 매시간), 사용자의 입력유닛(16)의 조작에 의해 "다음 디스플레이"가 클릭된다면, 두번째로 최고의 포즈유사성을 가지는 캐릭터화상이 나타날 것이다(단계 B13 → B15).
사용자의 입력유닛(16)의 조작에 의해 원하는 포즈유사성을 가지는 캐릭터화상이 나타나고 선택되었을 때, (그것의 포즈번호로 특정된) 선택된 캐릭터화상은 모사의 타겟화상에 상응하는 애니메이션화상으로 등록된다(단계 B13 → B14).
다시 말하면, 상응애니메이션화상 획득처리(방법 1)에서, 촬영된 장면화상(12gn)으로부터 추출되고 타겟화상으로 설정된 모사의 타겟화상으로서 물체화상(Hn)과 특정된 캐릭터의 각각의 포즈화상의 포즈유사성이 직접적으로 평가된다. 이러한 평가를 기초로, 물체화상(Hn)의 포즈를 모사한 포즈를 취하는 추가된 캐릭터화상 또는 대체로서 사용되는 특정된 캐릭터화상이 결정된다.
도 17B내 상응애니메이션화상 획득처리(방법 2)에서, 촬영된 장면화상(12gn)으로부터 추출되고 모사의 타겟화상으로 설정된 물체화상(Hn)과 모델포즈 화상메모리(12b)로 저장된 특정된 모델의 포즈화상의 각각의 포즈에서의 유사성이 평가된다(단계 B2C). 최고의 포즈유사성을 가지는 모델화상의 포즈번호에 상응하는 특정된 캐릭터화상이 디스플레이(19)상에 나타난다(단계 B22).
사용자의 입력유닛(16)의 조작에 의해 디스플레이(19)상에 나타난 모사의 타겟화상과 최고의 포즈유사성을 가지는 포즈 모델화상에 상응하는 캐릭터화상이 선택되었을 때, (그것의 포즈번호로 특정된) 캐릭터화상은 모사의 타겟화상에 상응하는 애니메이션화상으로 등록된다(단계 B23 → B24).
반면에, 모사의 타겟화상과 최고의 포즈유사성을 가지는 모델화상의 포즈번호에 상응하는 화상인 캐릭터화상이 디스플레이(19)상에 나타난 상태에서(또는 매시간), 사용자의 입력유닛(16)의 조작에 의해 "다음 디스플레이"가 클릭된다면, 두번째로 최고의 포즈유사성을 가지는 모델화상의 포즈번호에 상응하는 특정된 캐릭터화상이 나타난다. 다른 포즈유사성을 가지는 포즈의 캐릭터화상이 있다면, 다음으로 최고의 포즈유사성을 가지는 포즈캐릭터가 "다음 디스플레이"가 클릭될 때마다 나타난다(단계 B13 → B15).
그후, 원하는 포즈유사성을 가지는 모델포즈 화상에 상응하는 캐릭터화상이 선택되어 나타난 후, 사용자의 입력유닛(16)의 조작에 의해 선택된 때, (그것의 포즈번호에 의해 특정된) 특정한 캐릭터화상은 모사의 타겟화상에 상응하는 애니메이션화상으로 등록된다(단계 S23 → S24).
상술하였듯이, 상응애니메이션화상 획득처리(방법 2)에서, 촬영된 장면화상(12gn)으로부터 추출되고 그렇게 설정된 모사의 타겟화상으로서 물체화상(Hn)과 사람형상 기본모델의 다른 포즈화상의 각각의 포즈에서 유사성이 평가된다. 그후 이러한 평가를 기초로, 물체화상(Hn)의 포즈를 모사하고, 추가된 캐릭터 또는 대체로서 사용되는 특정된 캐릭터화상이 결정된다.
이러한 경우, 모사의 타겟화상으로서 물체화상(Hn)과 특정된 캐릭터의 여러가지 포즈화상의 각각의 포즈에서 유사성이 직접적으로 평가되고, 이에 의해 추가된 캐릭터 또는 대체로서 사용되는 캐릭터화상을 결정하는 상응애니메이션화상 획득처리(방법 1)와 비교해서, 촬영된 장면화상(12gn)으로부터 추출되고 모사의 타겟화상으로 설정된 물체화상(Hn)과 특정된 모델의 다른 포즈화상의 포즈에서 유사성이 평가되고, 추가된 캐릭터 또는 대체로서 사용되는 캐릭터화상이 이러한 평가를 기초로 선택된 모델 포즈번호로부터 결정되는 상응애니메이션화상 획득처리(방법 2)는 사람형상 모델의 사용이 물체화상과 최고의 포즈유사성을 가지는 모델화상을얻는 것과 최고의 포즈유사성(모사)을 가지는 캐릭터화상을 얻는 것을 쉽게 만든다는 점에서 유리하다.
도 18은 화상출력장치(10)에서 수행되는 화상처리내 포함된 도 17의 상응애니메이션화상 획득처리(방법 1 및 2)내 모사의 타겟화상과 캐릭터/모델 화상의 포즈에서 유사성의 평가를 도시한 흐름도이다.
상응애니메이션화상 획득처리(방법 1)에서 포즈유사성 평가가 수행될 때, 모사의 타겟화상과 특정된 캐릭터의 여러가지 포즈화상의 각각의 포즈에서의 유사성이 평가된다. 상응애니메이션화상 획득처리(방법 2)에서 포즈유사성 평가가 수행될 때, 모사의 타겟화상과 특정된 모델의 여러가지 포즈화상의 각각의 포즈에서의 유사성이 평가된다.
도 19는 화상출력장치(10)에서 수행되는 상응애니메이션화상 획득처리(방법 1)의 포즈유사성 평가처리에 포함된 모사의 타겟화상과 특정한 캐릭터화상의 포즈에서 유사성 평가의 한 예를 도시한 도면이다.
도 20은 화상출력장치(10)에서 수행되는 상응애니메이션화상 획득처리(방법 2)의 포즈유사성 평가처리에 포함된 모사의 타겟화상과 모델화상의 포즈(파트 1)에서 유사성 평가의 한 예를 도시한 도면이다.
도 21은 상응애니메이션화상 획득처리(방법 2)의 포즈유사성 평가처리에 포함된 모사의 타겟화상과 모델화상의 포즈(파트 2)에서 유사성 평가의 한 예를 도시한 도면이다.
가장 먼저, 포즈유사성 평가처리(방법 1)에서, 예를들어, 도 19A에 도시되었듯이, 첫번째 포즈번호를 가지는 특정된 캐릭터화상이 판독되고(단계 C1), 도 19(X)에 도시되었듯이, 특정된 캐릭터화상 및 모사의 타겟화상(H1)은 사이즈가 (세로 및 가로로) 일치하도록 조절된다(단계 C2).
따라서, 특정된 캐릭터화상 및 모사의 타겟화상(H1)이 서로 중첩되고 나서, 그들 사이에 포즈에서 유사성(%)이 평가되고, 모사의 타겟화상과 캐릭터화상의 포즈에서 유사성으로 저장된다(단계 C3).
여기에 유사성 평가의 타겟으로서 (제 1 포즈번호를 가지는) 캐릭터화상이 비대칭인지가 결정된다(단계 C4). 캐릭터화상이 비대칭이 아닌 것으로 결정된다면(단계 C4, "아니오"), 예를들어 도 19B 및 19C에 도시되었듯이, 각각의 연속적인 포즈번호를 가지는 특정된 캐릭터의 각각의 포즈화상과 모사의 타겟화상 사이에 사이즈조절 및 중첩-유사성 평가가 순차적으로 수행되고, 그들의 유사성이 저장된다(단계 C8 → C9 → C2-4).
반면에, 유사성평가의 타겟으로서 포즈번호를 가지는 캐릭터화상이 비대칭인 것으로 결정된다면, 캐릭터화상은 거울역상이고(단계 C4 → C5), 반대의 캐릭터화상 및 모사의 타겟화상은 사이즈가 (세로 및 가로로) 일치하도록 조절된다(단계 C6).
따라서, 모사의 타겟화상 및 반대의 캐릭터화상은 서로 중첩되고, 그들 사이에 포즈에서 유사성(%)이 평가되고, 모사의 타겟화상 및 반대의 화상의 포즈에서 유사성으로 저장된다(단계 C7).
그후, 연속된 포즈번호를 가지는 특정된 캐릭터의 다른 포즈화상이 또 있다면(단계 C8), 그들은 순차적으로 판독되고(단계 C9), 상술되었듯이, 연속적인 포즈번호를 가지는 특정된 캐릭터의 각각의 포즈화상과 모사의 타겟화상 사이에 유사성평가 처리가 반복적으로 수행된다(단계 C2-C7).
예를들어, 도 19에 도시되었듯이, 물체화상(타겟화상)(H1)으로 "토끼"캐릭터 화상의 포즈에서 유사성이 평가되었을 때, 포즈번호. 1A를 가지는 "토끼"캐릭터 화상(12d①A)이 최고의 포즈유사성를 가지는 것으로 평가된다.
그후, 예를들어 도 20A 또는 21A에 도시되었듯이, 유사성평가 처리(방법 2)가 수행될 때, 첫번째 포즈번호. ①A의 모델화상이 판독되고(단계 C1), 도 20(X) 또는 도 21(X)에 도시되었듯이, 모사의 타겟화상(H1 또는 H)으로 사이즈가 (세로 및 가로로) 조절된다(단계 C2).
그후, 모사의 타겟화상(H1 또는 H) 및 조절된 모델화상이 중첩되고, 그들 사이에 포즈에서의 유사성(%)이 평가되어, 모사의 타겟화상과 모델화상의 포즈에서의 유사성으로 저장된다(단계 C3).
이제, 유사성평가의 타겟으로서 모델화상이 비대칭인지가 결정된다(단계 4). 예를들어 도 20A 또는 21A에 도시되었듯이, 모델포즈 화상(12b(1A))이 비대칭이 아닌 것으로 결정된다면(단계 C4, "아니오"), 다음 포즈번호를 가지는 모델화상이 판독되고(단계 C8 → C9), 상술된 것과 같은 방법으로, 모사의 타겟화상(H1 또는 H)과 다음 포즈의 모델화상 사이에 포즈유사성 평가처리가 반복된다(단계 C2-C4).
반면에, 예를들어 도 20B 또는 21B에 도시되었듯이, 이러한 경우에 유사성평가의 타겟으로서 포즈번호. 1B 또는 4B를 가지는 모델화상(12b(1B) 또는 12b(4B))이 비대칭인 것으로 결정된다면, 포즈번호. ①B 또는 ④B를 가지는 모델화상은 거울역상이고(단계 C4 내지 C5), 도 20C 또는 21C에 도시되었듯이, 이러한 반대의 모델화상(12b(1B)R 또는 12b(4B)R)은 모사의 타겟화상(H1 또는 H)으로 사이즈가 (세로 및 가로로) 조절된다(단계 C6).
그후, 모사의 타겟화상(H1 또는 H) 및 반대이고 사이즈조절된 모델화상(12b(1B)R 또는 12b(4B)R)이 서로 중첩되고, 그들 사이에 포즈에서 유사성(%)이 평가되고, 모사의 타겟화상과 포즈반대의 모델화상(12b(1B)R 또는 12b(4B)R)의 포즈에서의 유사성으로 저장된다(단계 C7).
그후, 연속적인 포즈번호를 가지는 모델화상이 있다면(단계 C8), 이러한 모델화상은 순차적으로 판독되어(단계 C9), 상술된 것과 같은 방법으로, 모사의 타겟화상과 각각의 모델화상 사이에 포즈유사성 평가처리가 반복된다(단계 C2-C7).
결과적으로, 예를들어 도 20에 도시되었듯이, 물체화상(타겟화상)(H1)과 각각의 포즈 모델화상 사이에 포즈 유사성평가가 수행된다면, 포즈번호. 1B를 가지는 모델화상(12b(1B))이 최고의 포즈유사성을 가지는 것으로 평가된다. 예를들어, 도 21에 도시되었듯이, 물체화상(타겟화상)(H)과 각각의 모델화상 사이에 포즈 유사성평가가 수행된다면, 포즈번호. ④BR을 가지는 모델화상(12b(4B)R)이 최고의 포즈유사성을 가지는 것으로 평가된다.
설명되었듯이, 촬영된 장면화상(12gn)으로부터 추출되고 그렇게 설정된 모사의 타겟화상으로 물체화상(Hn)의 포즈를 모사하는 특정된 캐릭터화상이, 도 17-21을 참조하여 설명되었듯이, 상응애니메이션화상 획득처리(단계 SB)에서 결정된 때,특정된 화상을 위한 합성방식이 추가/합성 방식 또는 대체/합성 방식인지가 결정된다(단계 S8).
특정된 화상을 위한 합성방식이 "추가/합성 방식" 및 "1-1: 임의의 공간영역 캐릭터화상 추가방식"인 것으로 결정된다면, 상응애니메이션화상 획득처리(도 17을 보라)로 얻어진 모사의 타겟으로서 물체화상(H1)의 포즈 "만세"를 모사하는 "고양이"캐릭터 화상(12f⑩)은 예를들어, 도 10D에 도시되었듯이, 촬영된 장면화상(12g2')내 추출된 물체블럭(M)의 영역이외의 공간영역내 임의의 위치에 추가되어 나타난다(단계 S11a).
이때, "고양이"캐릭터 화상(12f⑩)을 "고양이"캐릭터 화상이 촬영된 장면화상(12g2')내 추가된 현재의 위치에서 어느 특정한 다른 위치로 이동시키기 위해 수동작동이 수행된다면(단계 S16 내지 S17), "고양이"캐릭터 화상은 다른 위치에 다시 추가되고 최종적인 합성화상이 나타난다(단계 S18).
따라서, 합성화상의 데이터가 화상입력유닛(20)으로부터 출력되고(단계 S19), 메모리카드(20A) 또는 VTR(레코더)(20B)에 기록되거나 주문형 화상프린터(20C)에 의해 인쇄된다.
특정된 화상 합성방식이 "추가/합성 방식" 및 "1-2: 팔로워 추가방식"인 것으로 결정된다면(단계 S8 → S9, "1-2"), 예를들어, 도 9에 도시되었듯이, 촬영된 장면화상(12g1)내 물체화상(타겟화상)(H)의 "워킹"포즈를 모사하고, 상응애니메이션화상 획득처리(도 17을 보라)로 얻어진 반대의 "곰"캐릭터 화상(12e④R)은 도 9D에 도시되었듯이, 말하자면 "곰"캐릭터 화상이 물체화상(타겟화상)(H)을 따르는 촬영된 장면화상(12g1')내 위치, 다시 말해서, 일정한 시간전에 일련의 촬영된 장면화상(12g1)중 관련된 것에서 물체화상(타겟화상)(H)의 위치에 추가되어 나타나다(단계 S11b).
이때, 추가되어 나타난 "곰"캐릭터 화상(12e④R)이 수동작동에 의해 현재의 위치에서 특정한 다른 위치로 이동된다면(단계 S16 → S17), "곰"캐릭터 화상은 다른 위치로 이동되고, 이에 의해 최종적인 합성화상이 나타난다(단계 S18).
따라서, 이러한 합성화상의 화상데이터는 화상출력유닛(20)으로부터 출력되고(단계 S19), 메모리카드(20A) 또는 VTR(레코더)(20B)에 기록되고 또는 주문형 화상프린터(20C)에 의해 인쇄된다.
특정한 화상을 위한 합성방식이 "추가/합성 방식" 및 "1-3: 거울역상의 캐릭터화상 추가방식"인 것으로 결정된다면(단계 S8 내지 S9 "1-3"), 예를들어, 도 11에 도시되었듯이, 촬영된 장면화상(12g3)내 물체(타겟)화상(H)의 댄싱포즈를 모사하고, 상응애니메이션화상 획득처리(도 17을 보라)로 얻어진 "토끼"캐릭터 화상(12d(19)A)(도 11C)은 거울역상이고, 반대의 "토끼"캐릭터 화상은, 도 11D에 도시되었듯이, 촬영된 장면화상(12g3')내 댄싱포즈를 취하는 물체(타겟)화상(H)과 결합되는 위치에서 추가되어, 최종적인 합성화상이 나타난다(단계 S11c).
이 경우, 거울역상의 "토끼"캐릭터 화상(12d(19)R)이 물체(타겟)화상(H)과 결합되는 촬영된 장면화상(12g3)내의 위치에 나타난 거울역상의 "토끼"캐릭터 화상을 현재의 위치에서 어떤 특정한 다른 위치로 이동시키는 처리가 수동적으로 수행될 때(단계 S16 → S17), 거울역상의 "토끼"캐릭터 화상(12d(19)R)은 다른 위치로이동되고, 이에 의해 이후 나타나는 최종적인 합성화상을 제공한다(단계 S18).
따라서, 이러한 합성화상의 데이터는 화상입력유닛(20)으로부터 출력되고(단계 S19), 메모리카드(20A) 또는 VTR(레코더)(20B)에 기록되거나, 주문형 화상프린터(20C)에 의해 출력된다.
특정한 화상 합성방식이 "대체/합성 방식" 및 "2-1: 물체 선택/대체 방식"을 포함하는 것으로 결정된다면(단계 SB8 → S10, "2-1"), 상응애니메이션화상 획득처리(도 17)에서 획득된 촬영된 장면화상(12g5)내 특정된 모사의 타겟화상으로서 특정한 물체(타겟)화상(H1)이 물체화상(H1)의 포즈를 모사하는 "토끼"캐릭터 화상(12d①)으로 대체되고, 도 13G에 도시되었듯이, 최종적인 합성화상이 나타난다.
이러한 경우에, 3개의 물체화상, 즉 물체(타겟)화상(H1) 및 다른 2개의 물체화상(H2 및 H3)은 촬영된 장면화상(12g5)으로부터 절단되고, 이에 의해 촬영된 배경화상(12g5')을 제공한다. 물체화상(H1)과 포즈가 유사한 "토끼"캐릭터 화상(12d①), 장면화상(12g5)으로부터 절단된 나머지 2개의 물체화상(H2 및 H3)은 그후 화상촬영내 거리센서(18)에 의해 감지된 각각의 관련 물체에 화상촬영거리의 감소하는 순서로 촬영된 배경화상(12g5')내 각각의 적당한 위치에 추가되고, 최종적인 합성화상을 제공한다.
나머지 배경화상(12g5')을 생성함 없이, 물체(타겟)화상(H1)과 포즈가 유사한 "토끼"캐릭터 화상(12d①)과 다른 2개의 화상(H2 및 H3)은 화상촬영내 거리센서(18)에 의해 감지된 각각의 관련물체에 화상촬영거리의 감소하는 순서로 촬영된 장면화상(12g5)내의 적당한 위치로 추가되고, 이에 의해 최종적인 합성화상을 제공한다.
촬영된 장면화상(12g5")내 타겟화상(H1)의 위치에 추가된 "토끼"캐릭터 화상(12d①)을 현재의 위치로부터 어느 특정한 다른 위치로 이동시키는 처리가 수행될 때(단계 S16 → S17), "토끼"캐릭터 화상(12d①)은 촬영된 장면화상(12g5")내 특정한 다른 위치로 이동되고, 이에 의해 이후 나타나는 최종적인 합성화상을 제공한다(단계 S18).
따라서, 합성화상의 데이터는 화상출력유닛(20)으로부터 출력되고(단계 S19), 메모리카드(20A) 또는 VTR(레코더)(20B)에 기록되거나, 주문형 화상프린터(20C)에 의해 인쇄된다.
화상 합성방식이 "대체/합성 방식" 및 "2-2: 다중 화상 촬영/대체 방식"을 포함하는 것으로 결정된다면(단계 S8 → S10, "2-2"), 예를들어, 도 12에 도시되었듯이, 제 1 촬영된 장면화상(12g4)내 물체(타겟)화상(H1)의 위치는 물체화상(H1)이 모사화상으로 대체되는 것으로서 저장된다.
제 2 장면화상(12g4')이 촬영된 때(단계 S14), 상응애니메이션화상 획득처리(도 17)에서 획득된 물체화상(H1)의 포즈를 모사하는 "토끼"캐릭터 화상(12d(20))은 "토끼"캐릭터 화상(12d(20))이 물체화상(H1)과 결합되는 제 1 촬영된 장면화상(12g4)내 물체(타겟)화상의 저장된 위치에 상응하는 위치에서 제 2 촬영된 장면화상(12g4')으로 추가되고, 이후 최종적인 합성화상(12g4")이 나타난다.
"토끼"캐릭터 화상(12d(20))을 현재의 위치로부터 어느 특정한 위치로 이동시키는 처리가 제 2 촬영된 장면화상(12dg4')에서 수동적으로 수행될 때(단계 S16→ S17), "토끼"캐릭터 화상(12d(20))은 특정한 다른 위치로 이동되고, 최종적인 합성화상이 나타난다(단계 S18).
따라서, 이러한 합성화상의 화상데이터가 이후 화상출력유닛(20)으로부터 출력되고(단계 S19), 메모리카드(20A) 또는 비디오테입 레코더(20B)에 기록되거나 주문형 화상프린터(20C)에 의해 인쇄된다.
상기로부터 명백하듯이, 화상출력장치(10)의 화상처리기능에 따르면, 화상입력유닛(17)을 통하여 수신된 장면화상으로부터 물체화상이 추출되고, 추출된 물체화상과 포즈가 유사한 어느 특정한 유형의 캐릭터가 캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e) 및 캐릭터(3) "고양이"포즈 화상메모리(12f)로부터 선택된 경우, 선택된 특정한 유형의 캐릭터화상은 촬영된 장면화상내 물체화상을 대체하거나, 또는 촬영된 장면화상에 추가되고, 이에 의해 최종적인 합성화상을 제공한다. 다시 말하면, 추가된 것 또는 타겟화상을 대체하는 것으로서 타겟화상의 포즈를 모사하는 애니메이션화상을 사용하는 매우 재미있는 장면화상은 고정된 애니메이션화상이 화상촬영프레임에 단순히 추가되는 장면화상을 만들지 않고도 쉽게 만들어진다.
다음, 모델화상의 사이즈를 조절하는 화상출력장치(10)의 기능이 설명될 것이다. 모델화상의 사이즈를 조절하는 기능에서, 표준체형 물체(타겟)화상과 사이즈가 일치하고, 모델포즈 화상메모리(12b)에 저장된 포즈모델 화상은 비표준체형 물체(타겟)화상으로 사이즈가 조절되어, 사이즈조절된 모델포즈 화상메모리(12c)로 저장된다. 상응애니메이션화상 획득처리(파트 2)에서, 사이즈조절된 모델포즈 화상메모리(12c)에 저장된 사이즈조절된 모델화상은 모사의 타겟화상으로서 물체화상과 조절된 모델화상의 포즈에서 유사성을 평가하고, 이에 의해 포즈유사성을 가지는 소정의 특정된 캐릭터화상을 얻는다. 이것은 일정한 체형을 가지는 물체화상과 포즈가 유사한 캐릭터화상을 쉽게 얻을 수 있도록 한다.
도 22는 화상출력장치(10)에 의해 수행되는 포즈모델 사이즈조절 처리의 흐름도이다.
예를들어, 도 8B에 도시된 사용자의 비표준체형 완전한 길이의 형상을 가지는 물체를 포함하는 장면을 나타내는 촬영된 화상이 화상입력유닛(17)을 통하여 입력되었을 때(단계 D1), 물체로서 사용자의 화상은 도 16의 타겟화상 추출처리(방법 1 또는 2)로 추출되고(단계 DA), 모델포즈 화상메모리(12b)로 저장된 표준체형 완전한 길이의 모델화상(12b②A)과 비교된다(단계 D2).
그후, 모델화상(12b②A)은 얼굴, 몸 및 다리의 세로비율에 대하여(단계 D3), 그후 얼굴, 몸 및 다리의 가로비율에 대하여(단계 D4), 촬영된 장면화상으로부터 추출된 물체화상으로 사이즈가 조절된다.
따라서, 모델포즈 화상메모리(12b)에 저장된 모든 다른 포즈의 모델화상은 사이즈조절된 모델화상(12b②A)으로 사이즈가 조절되고, 이후 사이즈조절된 모델포즈 화상메모리(12c)로 등록된다(단계 D5).
상술되었듯이, 모든 종류의 체형을 가지는 물체화상과 포즈가 유사한 캐릭터화상이 쉽게 얻어질 수 있도록, 모사의 타겟화상으로서 물체화상과 사이즈조절된 모델포즈 화상메모리(12c)에 저장된 사이즈조절된 모델화상의 어느 하나의 포즈에서의 유사성이 평가되고, 물체화상과 포즈가 동등한 유사성을 가진 캐릭터화상이 얻어진다. 모사의 타겟화상으로서 물체화상과 포즈가 더 유사한 캐릭터화상은 촬영된 장면화상에 추가되거나, 또는 촬영된 장면화상내 물체화상을 대체하고, 이에 의해 최종적인 합성화상을 제공한다.
실시예에서, 촬영된 장면화상으로부터 추출된 물체화상과 포즈가 유사한 캐릭터화상이 선택적으로 얻어지고, 그것의 애니메이션화상은 촬영된 장면화상에 추가된 것 또는 대체로서 사용되어, 이에 의해 최종적인 합성화상을 출력하는 반면에, 여러가지 표현을 가지는 얼굴화상 및 실제적으로 촬영된 사람의 화상은 미리 저장되어, 촬영된 장면화상내에 촬영된 장면화상으로부터 추출된 물체화상의 포즈를 모사하는 추가된 것 또는 대체로서 각각 사용되고, 이에 의해 최종적인 합성화상을 출력한다.
본 발명은 디지털카메라에서 잘 수행될 수 있다. 본 발명이 특히 액정디스플레이를 가지는 디지털카메라에서 수행된다면, 최종적인 합성화상이 점에서 확인될 수 있도록 물체화상이 촬영될 수 있다.
실시예에서는 정지화상으로서 촬영된 장면화상이 예시되었지만, 화상입력유닛(17), 예를들어, 디지털 비디오무비(17B)를 통하여 입력된 동화상의 배경화상과 관련하여 일련의 시간동안 변화하는 물체화상이 동화상으로부터 순차적으로 추출될 수 있다. 순차적으로 추출된 물체화상과 포즈가 유사한 캐릭터화상이 각각 선택적으로 획득되어, 촬영된 동화상에 추가되거나 각각의 동화상내 물체화상을 대체하고, 이에 의해 최종적인 일련의 합성동화상을 제공한다.
실시예의 화상처리기능은 예를들어, 소정의 바람직한 캐릭터화상 또는 실제적으로 촬영된 사람의 화상으로 게임에서 사용되는 애니메이션화상으로부터 특정되고 추출된 모사의 타겟화상으로서 캐릭터화상을 대체하고, 이에 의해 최종적인 합성화상을 나타낸다.
실시예에서 설명된 화상출력장치(10)에 의해 수행되는 각각의 처리, 다시 말하면, 도 14 및 15의 흐름도에 도시된 화상처리, 도 16의 흐름도에 도시된 화상처리내 포함된 물체화상 추출처리, 도 17의 흐름도에 도시된 화상처리내 포함된 상응애니메이션화상 획득처리, 상응애니메이션화상 획득처리에 포함된 도 18의 흐름도에 도시된 물체화상과 캐릭터(또는 모델)화상의 포즈에서의 유사성을 평가하는 처리, 및 도 22의 흐름도에 도시된 포즈모델 사이즈조절 처리중의 어느 하나가 저장되고, 메모리카드(ROM 및 RAM 카드등), 자기디스크(플로피디스크, 하드디스크등), 광디스크(CD-ROM, DVD등), 또는 외부기록매체(13)(반도체메모리등)에서 컴퓨터가 수행될 수 있는 프로그램으로 배송된다. 통신망(인터넷)(N)으로 통신기능을 가지는 여러가지 컴퓨터 단말기는 기록매체판독부(14)를 통하여 메모리(12)로 외부기록매체(13)에 저장된 프로그램을 판독하고, 판독된 프로그램에 따라서 그것의 작동을 제어할 수 있어서, 이에 의해 실시예에서 설명된 화상처리를 수행하고, 상술된 방법과 유사한 처리를 수행한다.
각각의 상술된 처리를 수행하는 프로그램에 포함된 데이터는 프로그램 코드형태로 통신망(인터넷)(N)을 통하여 전송될 수 있다. 통신망(인터넷)(N)에 연결된 컴퓨터 단말기로부터 프로그램 데이터가 얻어질 수 있고, 이에 의해 상술된 화상처리기능을 수행한다.
(제 2 실시예)
도 23은 본 발명의 화상배송시스템에서 화상배송서버(110)의 전자회로 구조를 나타내는 블럭도이다.
도 24는 제 2 실시예에 따르는 화상배송시스템에서 단말기(120)의 전자회로 구조를 나타내는 블럭도이다.
화상배송시스템은 화상배송서버(110)로부터 인터넷 또는 블루투스(R)와 같은 통신망에 연결되는 휴대용 전화(120A), 개인휴대정보단말기(PDA)(12B), 개인용 컴퓨터(PC)(120C), 디지털카메라(120D)등과 같은 여러가지 단말기(120)에 화상 생성/배송 서비스를 제공한다. 화상배송서버(110)는 단말기(120)(120A-120D)에 의해 촬영된 화상내의 타겟화상과 상응하는 화상(예를들어, 촬영된 장면화상내의 사람화상과 상응하는 캐릭터화상)을 각각의 단말기(120)로 배송한다.
도 23에서, 화상배송서버(110)는 여러가지 기록매체에 기록된 프로그램 또는 판독 프로그램에 의해 제어되는 컴퓨터 작동으로 외부적으로 수신된 프로그램을 판독하는 컴퓨터를 포함한다. 컴퓨터는 전자회로에 CPU(중앙처리유닛)(111)를 포함한다.
CPU(111)는 메모리(112)내 미리 저장된 서버제어 프로그램에 따라서 각각의 회로 구성요소를 제어하고, 서버제어 프로그램은 인터넷(N)상의 또 다른 웹서버(이 경우, 프로그램 서버)로부터 전자전송 제어부(115)를 통하여 메모리(112)로 판독된 CD-ROM 또는 서버제어 프로그램과 같은 외부기록매체(113)으로부터 기록매체판독부(114)를 통하여 메모리(112)에 판독된다. 메모리(112)에 저장된 서버제어 프로그램은 전송 제어부(115)를 통하여 연결된 인터넷(N)상에 각각의 단말기(120)(120A-120C)로부터 통신신호, 단거리 무선통신유닛(116)을 통하여 연결된 디지털카메라(120D)로부터 통신신호, 또는 키이나 터치패널을 포함하는 입력유닛(117)으로부터 작동에 의해 생성된 입력신호에 의해 시작된다.
CPU(111)는 메모리(112), 기록매체판독부(114), 전송제어부(115), 단거리 무선통신유닛(116), 및 입력유닛(117)뿐만 아니라 LCD 또는 CRT를 포함하는 디스플레이유닛(118)에 연결된다.
화상배송서버(110)의 전 작동을 담당하는 시스템 프로그램, 전송제어부(115)를 통하여 인터넷(N)상에 각각의 단말기(120)(120A-120C)를 가진 데이터전송용 통신프로그램, 및 통신유닛(16)을 통하여 단거리 무선통신유닛(16)의 통신범위에서 디지털카메라(120D)를 가진 데이터통신용 단거리 통신프로그램에 추가하여, 메모리(112)는 전송제어부(115) 및 단거리 무선통신유닛(116)을 통하여 연결된 단말기(120)(120A-120D) 통신중 각각의 것으로부터 얻어진 촬영된 화상내 물체화상에 상응하는 화상을 생성하고, 촬영된 화상에 상응화상을 추가하고, 그리고 단말기에 최종적인 화상을 배송하기 위한 화상배송프로그램(120a)을 저장한다.
메모리(112)는 모델포즈 화상메모리(112b), 사이즈조절된 모델포즈 화상메모리(112c), 캐릭터(1) "토끼"포즈 화상메모리(112d), 캐릭터(2) "곰"포즈 화상메모리(112e), 캐릭터(3) "고양이"포즈 화상메모리(112f), 및 요청자단말기 정보메모리(112g)뿐만 아니라 그 작업영역내 촬영된 장면화상메모리(112h) 및 화상처리 작업영역(112i)을 가진다.
화상배송서버(110)에 각각 캐릭터 "토끼", "곰" 및 "고양이"포즈 화상메모리(112d, 112e 및 112f)로 저장된 각각의 포즈를 취하는 캐릭터 "토끼", "곰" 및 "고양이"화상은 제 1 실시예의 도 2-4에 예시된 것과 동일하고, 도 2-4는 또한 제 2 실시예를 설명하는데 사용된다.
메모리(112d, 112e 및 112f)에 저장된 캐릭터의 각각의 여러가지 포즈화상은 화상배송서버(110)에 연결된 외부단말기(120)(120A-120D) 통신중 각각 하나의 요청에서 입력된 촬영된 장면화상내 물체(타겟)화상과 포즈가 유사한 모사화상으로서 사용된다. 각각의 포즈 캐릭터화상은 그것의 상응하는 포즈번호로 저장된다.
도 5-7은 제 1 실시예와 관련되고, 또한 여기에서 제 2 실시예를 설명하는데 사용된다. 도 5-7은 화상배송서버(110)의 모델포즈 화상메모리(112b)에 저장된 각각의 포즈를 취하는 모델화상을 도시한다. 메모리(112b)에 저장된 각각의 여러가지 포즈의 모델화상은 상응하는 포즈번호로 저장된 다른 포즈를 가지고 화상배송서버(110)에 연결된 외부단말기(120)(120A-120D) 통신중 각각 하나의 요청에서 입력된 촬영된 장면화상내 물체(타겟)화상과 포즈가 유사한 모델화상을 얻는데 사용된다. 추가적으로, 3개의 다른 여러가지 모델화상(A, B 및 C)은 각각의 포즈번호로 저장된다.
캐릭터(1) "토끼"포즈 화상메모리(112d), 캐릭터(2) "곰"포즈 화상메모리(112e) 및 캐릭터(3) "고양이"포즈 화상메모리(112f)로 각각 저장된 캐릭터화상은 모델포즈 화상메모리(112b)에 저장된 모든 포즈번호(번호.1A,1B,1C,2A,2B,2C...na,nb,nc)에 상응하는 포즈를 취하는 것이다.
사이즈조절된 모델포즈 화상메모리(112)에 저장된 포즈번호. 2A의 사이즈조절된 모델화상은 도 4내 포즈번호 2A로 도시된 포즈를 취하는 완전한 길이 형상의 표준체형 모델화상의 사이즈를 수직 및 수평으로 비표준체형 물체(타겟)화상으로 조절해서 얻어진다. 각각의 포즈를 취하는 모든 다른 표준체형 모델화상은 포즈번호. 2A로 사이즈조절된 모델화상의 수직-수평 비율에 따라서 사이즈가 조절되고, 사이즈조절된 모델포즈 화상메모리(112c)에 저장된다.
사이즈조절된 모델포즈 화상메모리(112c)에 저장된 사이즈조절된 모델화상은 하기와 같이 얻어진다. 도 8A내 포즈번호. 2A로 도시된 완전한 길이의 표준체형포즈 모델화상은 도 8B에 도시된 비표준체형 물체화상으로 사이즈가 (가로 및 세로로) 조절되어, 포즈번호. 2A에 상응하는 사이즈조절된 화상이 된다. 포즈번호. 2A에 대한 사이즈조절된 모델화상의 사이즈조절 비율(밸런스)에 따르면, 다른 포즈를 위한 모든 다른 표준체형 모델화상은 비표준체형 모델화상으로 사이즈가 조절되고, 사이즈조절된 모델포즈 화상메모리(12c)에 저장된다.
요청자의 단말기 정보메모리(112g)는 화상배송서버(110)가 그것들을 등록하도록 요청하는 화상배송부재에 관한 그들의 개인적 통신판매업 정보로서, 단말기(120)(120A-120D)의 ID, 은행계좌번호, 및 패스워드를 등록한다.
촬영된 장면화상메모리(112h)는 화상배송서버(110)에 연결된 각각의 외부단말기(120)(120A-120D) 통신으로부터 입력된 촬영된 장면화상 데이터를 촬영된 장면화상의 유닛에 일시적으로 저장한다.
화상처리 작업영역(112i)은 화상처리에 의존하는 화상배송프로그램(112a)에 따라서 처리된 화상데이터를 일시적으로 저장한다.
도 24에서, 각각의 단말기(120)는 각종의 기록매체에 기록된 프로그램 또는 프로그램에 의해 제어되는 컴퓨터 작동을 가지고 외부적으로 수신된 프로그램을 판독하는 컴퓨터를 포함한다. 전자회로는 CPU(중앙처리유닛)(121)을 포함한다.
CPU(121)는 메모리에 미리 판독된 단말기제어 프로그램, CD-ROM 또는 ROM카드와 같은 외부기록매체(123)로부터 기록매체판독부(124)를 통하여 메모리(122)에 판독된 단말기제어 프로그램, 또는 인터넷(N)상 웹서버(이 경우, 프로그램서버)로부터 전자전송제어부(125)를 통하여 메모리(122)에 판독되는 단말기제어 프로그램에 따라서 각각 회로 구성요소의 작동을 제어한다. 메모리(122)에 저장된 단말기제어 프로그램은 키이 또는 터치패널을 포함하는 입력유닛(126)에 사용자의 작동에 의해 생성된 입력신호, 화상입력유닛(127a)을 통하여 디지털카메라(132)에 의해 입력된 화상신호, 전송제어부(125)를 통하여 단말기(120)로 연결되는 인터넷(N)상의 화상배송서버(110)와 같은 각각의 웹서버를 가진 통신신호, 단거리 무선통신유닛(128)을 통하여 단말기(120)로 연결되는 화상배송서버(110)를 가진 통신신호, 또는 GPS(위성위치확인시스템)(129)으로부터 이동하는 단말기(120)의 현재 위치를 나타내는 현재위치 검지신호에 의해 시작된다.
CPU(121)는 화상출력유닛(127b)을 통하여 메모리(122), 기록매체판독부(124), 전송제어부(125), 입력유닛(126), 화상입력유닛(127a), 단거리 무선통신유닛(128), 및 GPS(129)뿐만 아니라 LCD의 디스플레이유닛(130) 및 화상프린터(131)에 연결된다.
화상입력유닛(127a)은 외부적으로 연결되거나 내장된 디지털카메라(132)로부터 촬영된 장면화상 데이터를 수신한다. 예를들어, 단말기(120)가 휴대용전화(120A), 개인휴대정보단말기(PDA)(120B) 또는 디지털카메라(120D)를 포함한다면, 화상입력유닛(127)은 내장된 디지털카메라(132)로부터 촬영된 장면화상 데이터를 수신한다.
화상출력유닛(127b)은 단말기의 요청에서 화상입력유닛(127a)에 의해 입력된 촬영된 장면화상을 기초로 화상배송서버(110)에 의해 처리되고 배송된 화상데이터를 출력한다. 출력된 화상데이터는 이후 배송되고 화상프린터(131)에 의해 인쇄된다.
단말기(120)(120A-120D)의 전 작동의 제어를 담당하는 시스템 프로그램, 전송제어부(125)를 통하여 인터넷(N)상의 화상배송서버(110)와 같은 웹서버를 가진 데이터통신용 통신 프로그램, 및 무선통신유닛(128)을 통하여 단거리 무선통신유닛(128)의 통신범위에 존재하는 화상배송서버(110)를 가진 데이터통신용 단거리 통신 프로그램에 추가하여, 메모리(122)는 화상입력유닛(127a)으로부터 입력된 촬영된 장면화상을 기초로 화상처리를 수행하는 화상배송서버(110)를 요청하고, 화상배송서버(110)에 의해 배송된 화상데이터를 나타내고, 그리고 화상출력유닛(127b)을 통하여 인쇄처리를 수행하기 위한 통신/화상 처리 프로그램(122a)을 저장한다.
단말기(120)(120A-120D)는 제 2 실시예의 화상배송서버(110)의 메모리(112)에 포함된 메모리(112b 및 112c)와 특징이 유사한 모델포즈 화상메모리(122b) 및사이즈조절된 모델포즈 화상메모리(122c)를 메모리(122)내에 포함한다.
메모리(122)는 그것의 처리에 의존한 통신/화상 처리 프로그램(122a)에 따라서 처리된 화상데이터를 일시적으로 저장하는 화상처리 작업영역(122d)을 포함한다.
다음으로, 제 2 실시예의 화상배송시스템의 작동이 설명될 것이다.
도 11은 제 1 실시예와 관련되고, 또한 제 2 실시예를 설명하기 위해 사용된다. 도 11은 단말기(120)가 거울역상의 캐릭터화상 추가방식을 특정하고, 화상배송서버(110)로부터 화상배송을 요청하는 경우, 촬영된 장면화상내 거울역상의 캐릭터화상 "토끼"의 추가를 나타낸다.
도 11A에 도시되었듯이, 단말기(120)가 예를들어 파트너와 춤추는 것을 미리 인식하는 포즈를 취하는 물체화상(타겟화상)(H)을 포함하는 장면화상(12g3)을 촬영하고, 그리고 거울역상의 캐릭터화상이 거울역상의 캐릭터화상 추가방식을 특정함으로써 타겟화상과 춤추고, 그것을 단말기(120)로 배송하는 합성화상을 생성하도록 화상배송서버(110)를 요청한다.
그후, 도 11B에 도시되었듯이, 화상배송서버(110)에서 물체(타겟)화상(H)이 단말기(120)에 의해 수신된 촬영된 장면화상(12g3)으로부터 추출된다. "토끼"캐릭터 화상이 추가된 것으로 특정된 경우, 물체(타겟)화상(H)과 포즈가 유사한 포즈번호. 19("댄스")를 가진 "토끼"캐릭터 화상이 도 11C에 도시되었듯이, 캐릭터(1) "토끼"캐릭터 화상메모리(112d)로부터 판독된다. 따라서, 이러한 "토끼"캐릭터 화상은 거울역상이고, 수직중심선에 대해 물체(타겟)화상의 위치와 대칭인 위치로 촬영된 장면화상(12g3')내 추가되고, 그리고 거울역상의 "토끼"화상은 도 11D에 도시되었듯이 댄스목적을 위해 물체(타겟)화상과 결합된다. 이것은 요청자의 단말기(120)로 배송되어, 거기에서 나타나거나 인쇄되는 합성화상을 생성한다.
다시 말하면, 화상배송서버(110)는 단말기(120)에 의해 촬영된 장면화상(12h1)내 물체(타겟)화상의 댄스포즈를 모사하는 "토끼"캐릭터 화상과 반대이고, 거울역상의 "토끼"캐릭터 화상이 댄스목적을 위해 댄스포즈를 취하는 물체(타겟)화상과 결합되는 촬영된 장면화상(12h1)내 위치에 댄스파트너로서 거울역상의 "토끼"캐릭터 화상을 추가한다. 그후 최종적인 합성화상이 단말기(120)로 발송된다.
도 25는 화상배송시스템의 단말기(120)가 서버로부터 화상 생성 및 배송을 요청받고 다중화상 촬영/대체 방식을 특정하였을 때, 화상배송서버(110)에 의해 수행될 "곰"캐릭터 화상으로 물체화상의 대체를 나타낸다.
단말기(120)에서 사용자가 물체화상과 "곰"캐릭터 화상이 서로 작별인사하는 장면화상을 생성하기 바라는 경우, 사용자는 도 25A에 도시되었듯이, 캐릭터화상이 취하기를 바라는 것과 같은 "작별인사"포즈를 취하는 물체(타겟)화상(H1)을 포함하는 장면화상을 촬영하고, 촬영된 장면화상을 화상배송서버(110)로 발송하고, 그리고 다중화상 촬영/합성 방식을 특정함으로써 촬영된 장면화상(12h2)을 기초로 합성 장면화상을 생성하여, 합성 장면화상을 단말기로 배송하도록 화상배송서버(110)를 요청한다.
도 25B에 도시되었듯이, 화상배송서버(110)는 사용자에 의해 발송된 제 1 촬영된 화상(12h2)으로부터 화상(타겟화상)(H1)을 추출한다. 사용자에 의해 교체되는것으로서 "곰"캐릭터 화상이 특정된 경우, 물체(타겟)화상(H1)과 포즈가 유사한 (포즈번호. 11 "작별인사"를 취하는) "곰"캐릭터 화상은 캐릭터(2) "곰"포즈 화상메모리(112e)로부터 판독된다. 예를들어, 현재시간이 "08:00 p.m."로 감지되거나 또는 현재 저녁인 것으로 결정된 경우, "작별인사"포즈를 취하는 "곰"캐릭터 화상은 예를들어, 달에 앉아있는 저녁 캐릭터화상(12e⑪N)으로 판독된다.
그후, 도 25D에 도시되었듯이, 촬영된 장면화상(12h2)내 물체화상(타겟화상)(H1)에 상응하는 파트너로서 타겟화상(H2)을 포함하고, 또 다른 포즈를 취하는 제 2 장면화상(12h2')이 단말기에 의해 촬영된 경우, 저녁용 포즈번호. 11("작별인사")을 취하는 판독된 "곰"캐릭터 화상은 제 2 촬영된 장면화상(12h2')에 추가되고, 이에 의해 도 25E내 12h2"에 도시되었듯이 최종적인 합성화상을 제공한다. 최종적인 합성화상은 그후 사용자의 단말기(120)로 배송되고, 거기에서 나타나거나 인쇄된다.
다시 말하면, 화상배송서버(110)에서 단말기(120)에 의해 촬영된 제 1 장면화상(12h2)내 물체(타겟)화상(H1)의 작별인사 포즈를 모사하는 캐릭터화상이 단말기(120)에 의해 촬영된 제 2 장면화상(12h2')내 물체(타겟)화상(H2)의 위치와 관련된 적당한 위치로 추가되고, 이에 의해 최종적인 합성화상을 제공하고, 그후 단말기(120)로 배송된다.
도 13은 제 1 실시예의 화상출력장치(110)의 물체 대체처리를 설명하기 위해 사용되는 반면, 또한 제 2 실시예의 화상배송서버의 유사한 물체 대체처리를 설명하기 위해 사용된다.
도 13은 단말기(120)가 화상배송서버로부터 화상 생성 및 배송을 요청하고 물체화상 선택/대체 방식을 특정할 때, 화상배송서버(100)에 의해 "토끼"캐릭터 화상으로 물체화상의 대체를 나타낸다.
도 13A에 도시되었듯이, 단말기(120)는 예를들어, 3개의 사람(물체)화상(H1-H3)을 포함하는 장면화상(12g5)을 촬영하고, 예를들어 "토끼"로 특정된 대체 캐릭터화상의 지시에 따라서 장면화상을 화상배송서버(110)로 발송하고, 물체화상 선택/대체 방식을 특정함으로서 촬영된 장면화상을 기초로 합성화상을 생성하고 그것을 단말기(120)로 배송하도록 화상배송서버(110)를 요청한다.
따라서, 도 13B에 도시되었듯이, 화상배송서버(110)는 단말기(120)에 의해 대체됨으로써 특정된 물체(또는 타겟)화상(H1)을 단말기(120)에 의해 발송된 촬영된 장면화상(12g5)으로부터 추출한다. 대체하는 "토끼"캐릭터 화상이 특정되었을 때, 물체(타겟)화상(H1)과 포즈(포즈번호. 1 "웃기"(클로즈업))가 유사한 "토끼"캐릭터 화상은 도 13C에 도시되었듯이, 캐릭터(1) "토끼"포즈 화상메모리(112d)로부터 판독된다.
도 13B,D,E 및 F에 도시되었듯이, 특정된 물체(타겟)화상(H1) 및 다른 물체화상(H2 및 H3)이 장면화상(12g5)으로부터 절단되고, 배경화상(12g5')이 남는다.
따라서, 도 13G에 도시되었듯이, 캐릭터(1) "토끼"포즈 화상메모리(112d)로부터 판독된 특정한 물체화상(타겟화상)(H1)과 포즈가 유사한 "토끼"캐릭터 화상 및 장면화상(12g5)으로부터 절단된 다른 2개의 물체화상(H2 및 H3)은 각각의 관련된 물체에 화상촬영거리의 감소하는 순서로 배경화상(12g5')내 적당한 위치로 추가된다. 합성화상(12g5")은 그후 사용자의 단말기(120)로 배송되고, 거기에서 나타나거나 인쇄된다.
다시 말하면, 화상배송서버(110)에서 단말기(120)에 의해 촬영된 장면화상(12g5)내 특정된 물체(타겟)화상(H1)의 포즈를 모사하는 "토끼"캐릭터 화상은 단말기(120)에 의해 촬영된 장면화상(12g5)내 물체(타겟)화상(H1)을 대체하고, 최종적인 합성화상이 단말기(120)로 배송된다.
화상배송시스템에서, 화상처리방식은 반대캐릭터화상 추가방식, 다중화상 촬영/대체 방식 및 물체화상 선택/대체 방식이외에, 화상배송서버의 작동에 관한 개요에서 도면을 사용한 그 예시적인 설명이 생략된 팔로워 추가방식 및 공간영역 캐릭터화상 추가방식을 포함한다.
팔로워 추가방식에서, 단말기(120)가 워킹하는 물체(타겟)화상(H)을 포함하거나 워킹하는 포즈를 취하는 장면화상(12hn)을 촬영하고, 팔로워 추가방식을 특정함에 의한 장면화상(12hn) 및 물체화상(H)의 포즈를 모사하는 팔로워로서 캐릭터화상에 기초한 합성 장면화상을 생성하고, 최종적인 합성화상을 단말기(120)로 배송하도록 화상배송서버(100)를 요청하는 경우, 화상배송서버(110)는 팔로워로서 특정된 캐릭터화상이 물체(타겟)화상(H)을 따르는 위치로 장면화상(12hn)내 특정된 캐릭터화상을 추가하고, 이에 의해 최종적인 합성화상을 단말기(120)로 배송한다.
단말기(120)가 어느 물체(타겟)화상(H)을 포함하는 장면화상(12hn)을 촬영하고, 이러한 장면화상(12hn) 및 특정된 물체(타겟)화상(H)의 포즈를 모사하는 특정된 캐릭터화상을 화상배송서버(110)로 발송하고, 공간영역 캐릭터화상 추가방식을특정함에 의해 촬영된 장면화상(12hn)내 특정된 캐릭터화상 및 장면화상에 기초한 합성 장면화상을 생성하고, 합성화상을 단말기로 배송하도록 배송서버(110)를 요청하는 경우, 화상배송서버(110)는 장면화상(12hn)의 공간영역내 임의의 위치에 특정된 캐릭터화상을 추가하고, 이에 의해 최종적인 합성화상을 단말기(120)로 배송한다.
다음으로, 화상배송서버(110) 및 단말기(120)에 의한 배송작동 및 화상처리가 설명될 것이다.
도 26은 단말기(120)에 의해 수행되는 화상처리(파트 1)의 흐름도이다.
도 27은 도 26의 화상처리(파트 1)로부터 연속된 화상처리(파트 2)의 흐름도이다.
도 28은 화상배송서버(110)에 의해 수행되는 서버처리(파트 1)의 흐름도이다.
도 29는 도 28의 서버처리(파트 1)로부터 연속된 서버처리(파트 2)의 흐름도이다.
먼저, 단말기(120)(120A, 120B 또는 120C)는 전송제어부(125) 또는 단거리 무선통신유닛(128)을 통하여 인터넷(N) 또는 단거리 무선통신범위내 화상배송서버(110)와 연결되고, 사용자의 ID와 그의 패스워드를 화상배송서버(110)로 발송하도록 입력유닛(126)의 조작에 반응한다(단계 TA1).
화상배송서버(110)가 인터넷(N)을 통하여 전송유닛(115)을 경유한 단말기(120)(120A, 120B 또는 120C)로부터 또는 단거리 무선통신유닛(116)을 경유한 단말기(디지털카메라)(120D)로부터 ID 및 패스워드를 수신할 때, 단말기 ID 및 패스워드가 메모리(112)의 요청자단말기 정보메모리(112g)에 등록된 부재의 ID 및 패스워드 중에서 그들의 매치를 찾을 수 있는지에 의존하여 단말기가 완전한 부재인지가 결정된다(단계 SB2).
단말기의 ID 및 패스워드가 등록된 부재의 ID 및 패스워드 중에서 그들의 매치를 찾을 수 없고, 단말기가 완전한 부재가 아닌 것으로 결정된 경우, 화상배송서버(110)로 단말기(120)의 연결이 중단되고 에러처리가 수행된다(단계 SB2, "아니오").
단말기(120)가 그것의 ID 및 패스워드를 화상배송서버(110)로 발송한 이후 화상배송서버(110)로 단말기(120)의 연결이 소정의 시간을 걸쳐 중단되지 않은 경우(단계 TA1), GPS(129)에 의해 감지된 단말기(120)의 현재위치를 나타내는 데이터(휴대용 전화(120A)의 경우, 그것의 관련된 기지국의 위치를 나타내는 데이터)는 단말기(120)로부터 화상배송서버(110)로 발송된다(단계 TA2).
화상배송서버(110)가 단말기(120)로부터 단말기의 현재위치를 나타내는 데이터를 수신한 경우(단계 SB3), 단말기(120)가 현재 소정의 특정한 장소에 있는지(예를들어, 테마파크 또는 관광지에서 기념사진 찍는 장소) 또는 현재시간이 소정의 시간대(예를들어, 저녁)인지가 결정된다(단계 SB4).
화상배송서버(110)가 단말기(120)가 현재 소정의 특정한 장소에 있는 것 또는 현재시간이 소정의 시간대에 있는 것으로 결정한다면(단계 SB4), 특정한 장소에 상응하는 특정한 캐릭터(예를들어, 테마파크의 경우에, 거기에서 유명한 캐릭터)또는 소정의 시간대에 상응하는 특정한 캐릭터(예를들어, 저녁인 경우에, 초승달에 앉아있는 "곰"캐릭터)가 타겟물체에 상응하는 특정한 캐릭터로 결정되고, 그후 이러한 캐릭터의 이름이 단말기(120)로 보내진다(단계 SB5).
화상배송서버(110)가 연결된 단말기(120)가 소정의 장소에 있지 않는 것 또는 현재시간이 특정한 시간대가 아닌 것으로 결정할 때(단계 SB4), 화상배송서버(110)는 단말기(120)로부터 특정한 캐릭터 유형의 수신을 기다린다(단계 SB6).
단말기(120)가 특정한 장소에 있거나 또는 현재시간이 특정한 시간대에 있기 때문에, 단말기(120)가 화상배송서버(110)에 의해 결정되어 발송된 특정한 캐릭터의 이름을 수신한다면(단계 TA3), 특정한 캐릭터 이름은 배송되고 디스플레이유닛(130)에 의해 나타난다(단계 TA4).
단말기(120)가 특정한 장소에 있지않거나 현재시간이 특정한 시간대에 있지 않기 때문에, 단말기(120)가 화상배송서버(110)로부터 특정한 캐릭터의 이름을 수신하지 않을 때, 단말기(120)의 사용자는 입력유닛(126)을 조작하고 이에 의해 촬영된 장면화상내 추가된 것 또는 대체로서 사용되는 캐릭터("토끼", "곰" 또는 "고양이")화상의 유형을 특정하고, 특정된 유형의 캐릭터화상을 화상배송서버(110)로 발송한다(단계 TA5).
그후, 단말기(120)는 "1-1: 임의의 공간영역 캐릭터화상 추가방식", "1-2: 팔로워 추가방식", "1-3: 거울역상의 캐릭터화상 추가방식", "2-1: 물체화상 선택/대체 방식" 및 "2-2: 다중화상 촬영/대체 방식"간으로부터 추가 또는 대체/합성 방식을 선택하고, 그후 선택된 방식을 나타내는 모델번호를 화상배송서버(110)로 발송한다(단계 TA6).
디지털카메라(132)는 화상입력유닛(127a)을 통하여 단말기(120)로 일련의 촬영된 장면화상의 입력을 시작하고, 그후 일련의 촬영된 장면화상을 화상배송서버(110)로 발송한다(단계 TA7).
화상배송서버(110)가 단말기(120)로부터 선택된 방식을 나타내는 모델번호를 수신하고(단계 SB7), 단말기(120)로부터 일련의 촬영된 장면화상을 수신할 때(단계 SB8), 화상배송서버(110)는 서버처리내 포함된 도 30의 타겟화상을 추출하는 처리를 수행한다(단계 SBC).
이러한 타겟화상 추출처리에서, 소정의 시간에 단말기(120)로부터 수신된 일련의 촬영된 장면화상(12hn)은 작업영역의 촬영장면메모리(112h)에 저장된다.
따라서, 각 물체의 일련의 연속적으로 변화하는 동작을 나타내는 일련의 연속적인 포즈의 물체화상(Hn)은 촬영된 장면화상메모리(112h)에 저장된 일련의 촬영된 장면화상(12hn)으로부터 추출되어(단계 SC2), 화상처리 작업영역(12i)에 저장(단계 SC3)된다.
다시 말하면, 촬영된 장면화상(12hn)에 포함된 각각의 물체화상(Hn)이 촬영된 장면화상(12hn)으로부터 분리된 블럭으로 추출되고, 화상처리 작업영역(12i)에 저장될 때(단계 SCB), 파선의 둘레(M)에 각각의 추출된 캐릭터화상(Hn)을 포함하는 촬영된 장면화상(12hn)은 예를들어, 도 11A, 12A 또는 13A에 도시되었듯이, 디스플레이유닛(118)에 나타난다(단계 SB9).
따라서, 디스플레이유닛(118)에 나타난 촬영된 장면화상(12hn)내 복수의 물체화상(Hn)의 블럭이 있는지가 결정된다(단계 SB10).
화상배송서버(110)가 촬영된 장면화상(12hn)내 복수의 물체화상(Hn)의 블럭이 없는 것으로 결정한다면, 촬영된 장면화상(12hn)으로부터 추출된 단일한 물체화상(Hn)이 모사의 타겟화상으로 설정된다(단계 SB10 → SB11).
화상배송서버(110)가 촬영된 장면화상(12hn)내 복수의 물체화상(Hn)의 블럭이 있는 것으로 결정한다면, 화상배송서버(110)는 사용자가 모사되는 물체화상 블럭을 특정하는 요청을 단말기(120)로 발송한다(단계 SB10 → SB12).
단말기(120)가 서버(110)로부터 이러한 요청을 수신하여 그것을 나타낼 때(단계 TA8), 사용자는 복수 블럭의 물체화상(Hn)간으로부터 모사의 타겟화상을 특정하기 위해 입력장치(126)를 조작하고, 특정된 화상의 지시를 화상배송서버(110)로 발송한다(단계 TA9).
그후, 화상배송서버(110)는 단말기로부터 이러한 지시를 수신한다(단계 SB13).
화상배송서버(110)는 그후 단말기(120)로부터 수신된 촬영된 장면화상(12hn)으로부터 특정된 물체화상(Hn)을 추출하고 그것을 모사의 타겟화상으로 설정한다. 그후, 화상배송서버(110)는 그것의 처리를 도 31의 서버처리내 포함된 상응애니메이션화상 획득처리로 바꾼다(단계 SBD).
이러한 상응애니메이션화상 획득처리에서, 화상배송서버(110)는 먼저 촬영된 장면화상(12hn)으로부터 추출되고 모사의 타겟화상으로 설정된 물체화상(Hn)과 모델포즈 화상메모리(112b)에 저장된 다른 포즈를 취하는 모델화상의 각각의 포즈에서 유사성을 평가한다(단계 SDC). 화상배송서버(110)는 그후, 물체화상과 가장 유사한 포즈를 가지는 모델화상의 포즈번호에 상응하는 특정된 캐릭터화상(A)을 단말기(120)로 발송한다(단계 SD1).
단말기(120)가 화상배송시스템(110)으로부터 특정된 캐릭터화상(A)을 수신하여 그것을 나타낼 때(단계 TA10), 사용자는 나타난 특정된 포즈의 캐릭터화상이 "OK"인지 "다음 디스플레이"(다음 후보의 디스플레이)가 클릭되어야 하는지를 결정하고, 그후 이러한 결정의 지시를 화상배송서버(110)로 발송한다(단계 TA11).
화상배송서버(110)가 단말기(120)로부터 지시를 수신하고, 단말기(120)가 "나타난 특정된 포즈의 캐릭터화상이 현재 평가된 유사성에 기초한 OK"를 선택한 것으로 결정할 때, 화상배송서버(110)는 모사의 타겟화상에 상응하는 애니메이션화상으로서 (그것의 포즈번호에 의해 식별된) OK의 캐릭터화상을 등록한다(단계 SD2 → SD3).
화상배송서버(110)가 단말기(120)로부터 선택의 지시를 수신하고, 수신된 특정 캐릭터의 포즈화상을 위해서, 현재의 유사성 평가를 기초로 "다음 디스플레이"가 선택된 것으로 결정할 때, 화상배송서버(110)는 두번째로 가장 유사한 포즈를 가지는 모델화상의 포즈번호에 상응하는 또 다른 특정된 캐릭터화상(A)을 단말기(120)로 발송한다. 이것은 포즈의 모델화상에 상응하는 포즈의 캐릭터화상이 있는 한, 사용자의 "다음 디스플레이"의 선택이 단말기(120)로부터 수신될 때마다 반복된다(단계 SD2 → SD4).
단말기(120)가 화상배송서버(110)로부터 수신된 원하는 포즈유사성을 가지는모델포즈에 상응하는 포즈의 캐릭터화상을 수신하여 포즈의 캐릭터화상을 나타내고, 사용자가 나타난 캐릭터화상을 화상배송서버(110)로 발송하기 위해 입력유닛(126)을 조작할 때(단계 TA10-TA12), 화상배송서버(110)는 모사의 타겟화상에 상응하는 애니메이션화상으로서 (그것의 포즈번호에 의해 식별된) OK의 캐릭터화상을 등록한다(단계 SD2 → SD3).
상술하였듯이, 화상배송서버(110)에 의한 상응애니메이션화상 획득처리에서, 단말기(120)에 의해 촬영된 장면화상(12hn)으로부터 추출된 모사의 타겟화상으로서 물체화상(Hn)과 사람 기본모델의 각각의 포즈를 나타내는 모델화상의 포즈에서 유사성이 평가되고, 물체화상(Hn)의 포즈를 모사하는 추가된 것 또는 대체로서 사용되는 특정의 캐릭터화상이 결정된다.
이 경우에, 모사의 타겟화상으로서 물체화상(Hn)과 특정된 캐릭터의 여러가지 포즈화상의 각각의 포즈에서 유사성이 직접적으로 평가되고, 이에 의해 추가된 것 또는 대체로서 사용되는 캐릭터화상을 결정하는 경우와 비교하여, 모사의 타겟화상으로서 물체화상(Hn)과 각각의 모델화상의 포즈에서 유사성이 평가되고, 추가된 것 또는 대체로서 사용되는 캐릭터화상이 선택된 모델화상의 포즈번호로부터 결정되는 상응애니메이션화상 획득처리는 사람형상 모델의 사용이 매우 유사한 포즈의 물체화상 및 매우 유사한 포즈를 가지는 캐릭터화상(모사)을 쉽게 얻을 수 있다는 점에서 더 유리하다.
도 18의 유사성 평가처리는 제 1 실시예의 화상출력장치에 의해 수행되는 반면에, 유사한 유사성 평가처리가 제 2 실시예에서 화상배송서버에 의해 수행된다.따라서, 제 2 실시예에서 유사성 평가처리는 도 18을 사용해서 설명될 것이다.
도 18은 화상배송시스템의 화상배송서버(110)에 의해 수행되는 서버처리내 포함된 상응애니메이션화상 획득처리내 모사의 타겟화상과 애니메이션화상의 포즈에서 유사성을 평가하는 처리의 흐름도이다.
도 32는 화상배송서버(110)에 의해 수행되는 상응애니메이션화상 획득처리내 모사의 타겟화상과 모델 캐릭터화상의 포즈에서 유사성을 평가하는 실시예를 나타낸다.
도 32A에 도시되었듯이, 예를들어 제 1 포즈번호를 가지는 모델화상이 판독되고(단계 C1), 도 32(X)의 모사의 타겟화상(H1)으로 사이즈가 조절된다(단계 C2).
그후, 타겟화상(H1)과 사이즈조절된 모델화상은 서로 중첩되고, 그들 사이에 포즈에서 유사성이 평가되어, 타겟화상(H1)과 모델화상의 포즈에서 유사성으로 저장된다(단계 C3).
그후, 모델화상이 비대칭인지가 결정된다(단계 C4). 모델화상이 예를들어, 도 32A의 12b(1)A에 의해 도시되었듯이, 비대칭이 아닌 것으로 결정된 때(단계 C4, "아니오"), 다음 포즈번호 모델화상이 판독되고(단계 C8 → C9), 모사의 타겟화상(H1)과 이러한 모델화상의 포즈에서 유사성이 평가된다. 또 다음 모델화상이 비대칭이 아니면, 이러한 유사성 평가처리는 반복된다(단계 C2 → C4).
유사성평가에서 모델화상이 예를들어, 도 32B의 포즈번호. 19의 모델화상(12b19)에 의해 도시되었듯이, 비대칭인 것으로 결정된다면, 모델화상은 거울역상이다(단계 C4 → C5). 그후, 도 32C에 도시되었듯이, 1개의 거울역상의 모델화상(12b(19)R)은 모사의 타겟화상으로 (세로 및 가로로) 사이즈가 조절된다(단계 C6).
그후, 타겟화상(H1)과 거울역상의 모델화상(12b(19)R)은 서로 중첩된다. 이러한 화상들 사이에 포즈에서 유사성(%)이 평가되어, 타겟화상(H1)과 거울역상의 모델화상의 포즈에서 유사성으로서 저장된다(단계 C7).
그후, 각각의 포즈번호를 가지는 모델화상이 여전히 있다면(단계 C8), 그것이 순차적으로 판독되고(단계 C9), 그리고 모사의 타겟화상과 모델화상의 각각의 하나의 포즈에서 유사성이 반복적으로 평가된다(단계 C2-C7).
이러한 실시예에서, 도 32에 도시된 실시예에 대해, 물체(타겟)화상(H1)과 모델화상의 포즈에서 유사성이 평가된 때, 포즈번호. 19를 가지는 모델화상(12b(19))은 타겟화상(H1)과 가장 유사한 포즈를 가지는 것으로 평가된다.
상술하였듯이, 물체화상(Hn)을 모사하는 특정된 캐릭터화상이 도 31, 18 및 32와 관련하여 설명된 상응애니메이션화상 획득처리(단계 SBD)내 촬영된 장면화상(12hn)으로부터 추출된 모사의 타겟화상으로 결정되는 경우, 단말기(120)에 의해 특정되고, 단말기(120)로부터 수신된 화상합성방식이 "추가/합성 방식"인지 "대체/합성 방식"인지가 결정된다(단계 SB14).
단말기(120)에 의해 특정된 화성합성방식이 "추가/합성 방식" 및 "1-1: 임의의 공간영역 캐릭터화상 추가방식"이라면(단계 SB14 → SB15, "1-1"), 상응애니메이션화상 획득처리에서 획득된 모사의 타겟화상으로서 타겟화상(H1)의 포즈를 모사하는 특정된 캐릭터화상은 예를들어, 도 10내에 물체화상블럭이 추출된 장소를 제외한 그 공간영역내 임의의 위치로 촬영된 장면화상(12hn)내 추가된다(단계SB17a). 그후, 최종적인 합성화상은 단말기(120)로 발송된다(단계 SB22).
단말기(120)는 그후 화상배송서버(110)로부터 합성화상을 수신하여, 그것을 나타낸다(단계 TA13). 단말기(120)에서 사용자가 캐릭터화상을 그것의 현재 위치로부터 합성 촬영된 장면화상(12hn)내 어느 특정된 다른 위치로 이동시키는 처리를 수행할 때, 그 이동상의 정보는 그후 화상배송서버(110)로 발송된다(단계 TA14).
화상배송서버(110)가 단말기(120)로부터 이러한 정보를 수신한 때(단계 SB23 → SB24), 화상배송서버(110)는 촬영된 장면화상(12hn)의 공간영역내 정보에 기초한 다른 위치로 캐릭터화상을 이동시키고(단계 SB25), 그후 최종적인 합성화상을 단말기(120)로 발송한다(단계 SB26).
따라서, 단말기(120)는 화상배송서버(110)로부터 이러한 합성화상을 수신하여 나타낸다(단계 TA15 → TA16).
다시 말하면, 화상배송서버(110)는 특정된 물체화상(H1)의 포즈를 모사하고, 임의의 공간영역 캐릭터화상 추가방식으로 생성된 특정의 캐릭터화상이 촬영된 장면화상(12hn)의 공간영역내 임의의 위치로 추가되는 합성화상의 데이터를 단말기(120)로 발송한다.
화상배송서버(110)가 단말기(120)에 의해 특정된 화상합성방식이 "추가/합성 방식" 및 "1-2: 팔로워 추가방식"인 것으로 결정한 때(단계 SB14 → SB15, "1-2"), 특정된 캐릭터화상이 물체화상으로부터 주어진 거리에서 워킹하는 물체화상(타겟화상)(H)을 따르는 촬영된 장면화상(12hn)내 위치, 또는 물체(타겟)화상이 도 9에서 일정 시간전에 가정된 촬영된 장면화상(12hn)내 위치에서, 상응애니메이션화상 획득처리(도 31)에서 획득된 촬영된 장면화상(12hn)내 물체화상(타겟화상)의 워킹하는 포즈를 모사하는 특정된 캐릭터화상을 추가한다(단계 SB17b). 이러한 화상배송서버(110)는 그후 최종적인 합성화상을 단말기(120)로 발송한다(단계 SB22).
단말기(120)가 합성화상을 화상배송서버(110)로부터 수신하여 그것을 나타낸 경우(단계 TA13), 단말기(120)의 사용자는 합성화상내 팔로워로서 특정된 캐릭터화상을 그것의 현재 위치로부터 어느 특정된 다른 위치로 이동시키는 처리를 수동적으로 수행한다(단계 TA14).
화상배송서버(110)가 단말기(120)로부터 이러한 정보를 수신한 때(단계 SB23 → SB24), 화상배송서버(110)는 촬영된 장면화상(12hn)내 다른 위치에 팔로워로서 특정된 캐릭터화상을 다시 추가하고(단계 SB25), 최종적인 합성화상을 단말기(120)로 발송한다(단계 SB26).
그후, 단말기(120)는 화상배송서버(110)로부터 이러한 합성화상을 수신하여 그것을 나타낸다(단계 TA15 → TA16).
다시 말하면, 화상배송서버(110)는 특정된 물체화상(H)의 포즈를 모사하고, 팔로워 추가방식으로 생성된 특정된 캐릭터화상이 물체화상(H) 이후의 팔로워의 위치에 추가되는 합성화상의 데이터를 단말기(120)로 발송한다.
화상배송서버(110)가 단말기(120)에 의해 특정된 화상합성방식이 "추가/합성 방식" 및 "1-3: 거울역상의 캐릭터화상 추가방식"을 포함하는 것이라 결정한 때(단계 SB14 → SB15, "1-3"), 화상배송서버(110)는 장면화상(12g3)내 물체화상(타겟화상)(H)의 댄스포즈를 모사하는 "토끼"캐릭터화상(12d(19))을 거울역상으로 하고,거울역상의 "토끼"캐릭터화상이 타겟화상(H)과 결합되는 장면화상(12g3)내 위치에 추가하고(단계 SB17c), 그후 최종적인 합성장면화상(12g3')을 단말기(120)로 발송한다(단계 SB22).
단말기(120)가 최종적인 화상(12g3')을 화상배송서버(110)로부터 수신하여 그것을 나타내고(단계 TA13), 사용자가 촬영된 장면화상(12g3')내 반대의 "토끼"캐릭터화상(12d(19)R)(반대의 R수단)을 그것의 현재위치로부터 어느 특정된 다른 위치로 이동시키는 처리를 수동적으로 수행할 때, 그것의 이동상 정보는 화상배송서버(110)로 배송된다 (단계 TA14).
화상배송서버(110)가 단말기(120)로부터 이동정보를 수신한 때(단계 SB23 → SB24), 화상배송서버(110)는 장면화상(12g3')내 이동정보를 기초한 다른 위치로 거울역상의 "토끼"캐릭터화상을 다시 추가하고(단계 SB25), 그후 최종적인 합성장면화상을 단말기(120)로 발송한다(단계 SB26).
그후, 단말기(120)는 이러한 합성장면화상을 화상배송서버(110)로부터 수신하여 그것을 나타낸다(단계 TA15 → TA16).
다시 말하면, 화상배송서버(110)는 댄싱하는 물체화상(H)의 포즈를 모사하고, 거울역상의 캐릭터화상 추가방식으로 생성된 거울역상의 "토끼"캐릭터화상이 예를들어, 도 11D내의 물체화상(H)과 결합되는 위치로 추가되는 장면화상(12g3)의 데이터를 단말기(120)로 발송한다.
화상배송서버(110)가 단말기(120)에 의해 특정된 화상합성방식이 "대체/합성 방식" 및 "2-1: 물체화상 선택/대체 방식"을 포함하는 것으로 결정한다면(단계SB14 → SB16, "2-1"), 화상배송서버(110)는 상응애니메이션화상 획득처리(도 31)로 획득된 촬영된 장면화상(12g5)내 특정된 모사의 타겟화상으로서 물체화상(H1)의 포즈를 모사하는 "토끼"캐릭터화상(12d①)으로 특정된 물체화상(타겟화상)(H1)을 대체하고(단계 SB18), 도 13에서와 같이 최종적인 합성화상을 단말기(120)로 발송한다(단계 SB22).
이러한 경우에, 3개의 물체화상, 다시 말해서, 촬영된 장면화상(12g5)내 특정된 타겟물체화상(H1)과 다른 2개의 물체화상(H2 및 H3)은 촬영된 장면화상(12g5)으로부터 절단되고, 촬영된 배경화상(12g5')이 생성된다. 그후, 특정된 타겟물체화상(H1)과 포즈가 유사한 "토끼"캐릭터화상(12d①), 및 장면화상(12g5)로부터 절단된 나머지 2개의 물체화상(H2 및 H3)은 관련된 각각의 물체에 감지된 화상촬영거리의 감소하는 순서로 촬영된 배경화상(12g5')내 각각의 관련된 위치로 추가되어 최종적인 합성화상을 제공한다.
나머지 배경화상(12g5')을 생성하지 않고, 타겟화상(H1)과 포즈가 유사한 "토끼"캐릭터화상(12d①), 및 다른 2개의 화상(H2 및 H3)은 관련된 각각의 물체에 감지된 화상촬영거리의 감소하는 순서로 촬영된 장면화상(12g5)내 그들의 관련된 위치로 추가될 수 있다.
단말기(120)가 합성화상을 화상배송서버(110)로부터 수신하여 그것을 나타내고(단계 TA13), 촬영된 장면화상(12g5")내 타겟화상(H1)의 위치에 추가된 "토끼"캐릭터화상(12d①)을 그것의 현재위치로부터 어느 특정된 다른 위치로 이동시키는 처리를 수동적으로 수행할 때, 그 이동상의 정보가 그후 화상배송서버(110)로 발송된다(단계 TA14).
화상배송서버(110)가 이러한 정보를 수신할 때(단계 SB23 → SB24), 타겟캐릭터화상(H1)의 위치에 촬영된 장면화상(12g5")내 이동정보를 기초한 다른 위치로 "토끼"캐릭터화상(12d①)을 재추가하고(단계 SB25), 최종적인 합성화상을 단말기(120)로 발송한다(단계 SB26).
따라서, 단말기(120)는 이러한 합성화상을 화상배송서버(110)로부터 수신하여 그것을 나타낸다(단계 TA15 → TA16).
다시 말하면, 화상배송서버(110)는 물체화상 선택/대체 방식으로 생성되고, 물체화상(H1)이 도 13G와 같이 물체화상(H1)의 포즈"웃기"를 모사하는 "토끼"캐릭터화상으로 대체되는 합성화상의 데이터를 단말기(12)로 발송한다.
화상배송서버(110)가 단말기(120)에 의해 특정된 화상합성방식이 "대체/합성 방식" 및 "2-2: 다중화상 촬영/대체 방식"을 포함하는 것으로 결정한다면(단계 SB14 → SB16, "2-2"), 제 1 촬영된 장면화상(12h2)내 타겟물체화상(H1)의 위치는 모사화상이 예를들어 도 25에 도시되었듯이, 타겟물체화상(H1)을 대체하는 위치로서 저장된다(단계 SB16 → SB19).
화상배송서버(110)가 제 2 촬영된 장면화상(12h2')을 획득한 때(단계 SB20), 화상배송서버(110)는 제 1 촬영된 장면화상(12h2)내 물체화상(타겟화상)(H1)의 저장된 위치와 상응하는 제 2 촬영된 장면화상(12h2')내 위치에 상응애니메이션화상 획득처리(도 31)로 획득된 물체화상(H1)의 포즈를 모사하는 "곰"캐릭터화상(12e⑪N)(이 경우에, 특히 "저녁 곰" 캐릭터화상)을 추가하여, "곰"캐릭터화상(12e⑪N)이물체화상(H2)에 작별인사를 하고(단계 SB21), 최종적인 합성화상(12h2")이 그후 단말기(120)로 발송된다(단계 SB22).
단말기(120)가 화상배송서버(110)로부터 합성화상(12h2")을 수신하여 나타내고(단계 TA13), 합성화상(12h2")내 "저녁 곰" 캐릭터화상(12e⑪N)을 그것의 현재위치로부터 합성화상(12h2")내 어느 특정된 다른 위치로 이동시키는 처리를 수동적으로 수행할 때, 그 이동상 정보는 화상배송서버(110)로 발송된다(단계 TA14).
화상배송서버(110)가 이러한 정보를 수신할 때(단계 SB23 → SB24), 화상배송서버(110)는 수신된 이동정보를 기초로 제 2 촬영된 장면화상(12h2')내 다른 위치로 "곰"캐릭터화상(12e⑪N')을 재추가하고(단계 SB25), 그후 최종적인 합성화상을 단말기(120)로 발송한다(단계 SB26).
그후, 단말기(120)는 이러한 합성화상을 화상배송서버(110)로부터 수신하여 그것을 나타낸다(단계 TA15 → TA16).
다시 말해서, 화상배송서버(110)는 제 1 촬영된 장면화상(12h2)내 물체화상(H1)의 "작별인사"포즈를 모사하는 "곰"캐릭터화상(특히 "저녁"캐릭터화상)이 제 2 촬영된 장면화상(12h2')내 물체화상(H2)과 결합되는 다중화상 촬영/대체 방식으로 생성된 합성화상(12h2")을 단말기(120)로 발송한다. 그후, 최종적인 합성화상이 단말기(120)로 배송된다.
단말기(120)는 이러한 합성화상을 수신하여 나타낸다. 단말기(120)의 사용자가 단말기(120)상에 나타난 합성화상을 특정된 다른 단말기로 발송하기를 바라는 경우, 사용자는 입력유닛(126)을 통하여 다른 단말기의 주소를 입력하고, 그후 합성화상을 화상배송서버(110)로 발송한다(단계 TA17 → TA18).
화상배송서버(110)가 단말기(120)로부터 다른 단말기의 주소를 수신한 때(단계 SB27), 화상배송서버(110)는 그 주소의 다른 단말기로 합성화상을 발송하고(단계 SB28), 이 때, 사용 요청자 및 특정된 다른 단말기로 제공된 발송서비스 및 합성화상생성의 과금을 계산하고, 그리고 과금의 내용을 요청자단말기(120)로 발송한다(단계 SB29).
요청자단말기(120)는 그후 과금의 내용을 화상배송서버(110)로부터 수신하여 그것을 디스플레이(130)상에 나타낸다(단계 TA19).
단말기(120)가 특정된 다른 단말기의 어떠한 주소도 입력 및 발송하지 않은 때(단계 TA17 → 아니오), 화상배송서버(110)는 이 때 요청자단말기로 제공된 배송서비스 및 합성화상생성만을 위한 과금을 계산해서, 과금의 내용을 요청자단말기(120)로 발송한다(단계 S27 → SB30).
따라서, 요청자단말기(120)는 과금의 내용을 화상배송서버(110)로부터 수신하여 나타내고, 그것을 디스플레이(30)상에 나타낸다(단계 TA20).
화상배송서버(110)는 요청자단말기 정보메모리(112g)에 등록된 요청자단말기의 은행계좌로 소정의 청구서를 발송한다(단계 SB31).
따라서, 제 2 실시예의 화상배송시스템의 화상배송기능에 따르면, 단말기(120)에 의해 촬영된 장면화상이 화상배송서버(110)로 발송될 때, 화상배송서버(110)는 수신된 장면화상으로부터 물체화상을 추출하고, 캐릭터(1) "토끼"포즈 화상메모리(12d), 캐릭터(2) "곰"포즈 화상메모리(12e), 캐릭터(3) "고양이"포즈 화상메모리(12f)간으로부터 추출된 물체화상과 포즈가 유사한 어느 특정된 종류의 캐릭터화상을 획득하고, 촬영된 장면화상내 획득된 특정 종류의 캐릭터화상으로 촬영된 장면화상내 물체화상을 대체하거나, 요청된 캐릭터화상을 장면화상에 추가하여서, 이에 의해 최종적인 합성화상을 제공하고, 그리고 이러한 합성화상을 단말기(120)로 발송한다. 따라서, 고정된 애니메이션화상이 화상촬영프레임에 단순히 추가되는 장면화상을 생성하고 배송함이 없이, 최초의 장면화상내 타겟물체의 포즈를 모사하는 애니메이션화상이 추가된 것 또는 타겟물체를 대체하는 것으로 사용되는 매우 재미있는 합성장면화상이 생성되어 단말기로 배송된다.
제 2 실시예에서 화상배송시스템내 화상배송서버(110)를 사용함으로서, 촬영된 장면화상내 물체화상의 포즈를 모사하는 추가되거나 대체하는 캐릭터화상을 포함하는 합성장면화상으로 메일의 배송, 촬영된 원래의 장면화상내 타겟화상의 포즈를 모사하는 캐릭터화상이 디지털카메라를 가지고 휴대용전화 단말기(120A)와 같은 화상촬영된 유형의 이동단말기(120B, 120C, 120D)의 각각 하나에 최초의 장면화상내 추가된 것 또는 대체하는 것으로 사용되는 합성장면화상의 지불 합성 및 배송, 촬영된 장면화상내 물체화상의 포즈를 모사하는 특정한 캐릭터화상이 특정한 홈페이지상의 특정한 캐릭터를 공개하기 위해 물체화상으로 추가되거나 대체하는 합성장면화상의 지불 또는 무료 생성 및 배송, 촬영된 장면화상내 물체화상의 포즈를 모사하는 유명한 캐릭터화상이 유원지와 같은 특정된 장소에서만 단거리 무선통신유닛(116)을 통해 연결된 디지털카메라 단말기(120D)에 추가되는 촬영된 장면화상의 지불 생성 및 배송을 포함하는 여러가지 서버스가 제공된다.
상술되었듯이, 제 2 실시예의 화상배송시스템에서, 단말기(120)에 의해 촬영된 화상은 화상배송서버(110)로 발송된다. 화상배송서버(110)에서, 촬영된 장면화상으로부터 물체화상이 추출되고, 추출된 물체화상과 포즈가 유사한 캐릭터화상이 획득되고, 캐릭터화상은 장면화상에 추가되거나 장면화상내 물체화상을 대체한다. 최종적인 합성화상은 그후 단말기(120)로 배송되고, 이러한 서비스를 위한 청구서가 단말기(120)로 발송된다. 계약에서, 다음의 제 3 실시예에서 설명되듯이, 단말기(120)는 촬영된 장면화상으로부터 물체화상을 추출하고, 추출된 물체화상과 포즈가 유사한 모델화상의 포즈번호를 결정하고, 결정된 포즈번호를 가지는 특정된 캐릭터화상을 화상배송서버(110)가 배송하도록 요청한다. 화상배송서버(110)는 단지 단말기(120)에 의해 요청된 결정된 포즈번호를 가지는 캐릭터화상을 단말기(120)로 배송하고, 이러한 서비스를 위한 단말기로 청구한다. 단말기(120)는 또한 배송된 캐릭터화상을 장면화상에 추가하거나, 장면화상내 물체화상을 배송된 캐릭터화상으로 대체하여서, 이에 의해 최종적인 합성화상을 제공한다.
(제 3 실시예)
본 발명의 제 3 실시예에서의 화상배송시스템의 화상배송서버(110) 및 단말기(120)(120A-120D)는 하기와 같은 점을 제외하고는 도 23 및 24를 참조하여 설명된 제 2 실시예의 그것과 실질적으로 유사하다.
제 3 실시예의 화상배송시스템에서, 모델화상메모리(112b) 및 사이즈조절된 모델포즈 화상메모리(112c)는 화상배송서버(110)가 아니라 단말기(120)에서 제공된다.
도 33은 제 3 실시예의 화상배송시스템에서 단말기(120)에 의해 수행되는 화상처리(파트 1)의 흐름도이다.
도 34는 도 33의 화상처리(파트 1)로부터 연속된 화상처리(파트 2)의 흐름도이다.
도 35는 제 3 실시예의 화상배송서버(110)에 의해 수행되는 서버처리의 흐름도이다.
먼저, 단말기(120)(120A, 120B 또는 120C)는 전송제어부(125) 또는 단거리 무선통신유닛(128)을 통하여 인터넷(N) 또는 단거리 무선통신범위내 화상배송서버(110)와 연결되고, 사용자의 ID와 그의 패스워드를 화상배송서버(110)로 발송하기 위해 입력유닛(126)의 조작에 반응한다(단계 TF1).
화상배송서버(110)가 인터넷(N)을 통해 전송유닛(115)을 경유한 단말기(120)(120A, 120B 또는 120C)로부터 또는 단거리 무선통신유닛(116)을 경유한 단말기(디지털카메라)(120D)로부터 ID 및 패스워드를 수신할 때(단계 SJ1), 단말기가 단말기 ID 및 패스워드가 메모리(112)의 요청자단말기 정보메모리(112g)내 부재 단말기의 등록된 ID 및 패스워드간에 그들의 매치를 찾을 수 있는지에 의존하여 완전한 부재인지가 결정된다(단계 SJ2).
단말기(120)의 ID 및 패스워드가 부재 단말기의 등록된 ID 및 패스워드중에서 그들의 매치를 찾을 수 없고, 단말기가 완전한 부재가 아닌 것으로 결정된 경우, 화상배송서버(110)로 단말기(120)의 연결이 중단되고 에러처리가 수행된다(단계 SJ2, "아니오").
단말기(120)가 그것의 ID 및 패스워드를 화상배송서버(110)로 발송한 이후, 화상배송서버(110)로 단말기(120)의 연결이 소정의 시간을 걸쳐 중단되지 않은 경우(단계 TF1), GPS(129)에 의해 감지된 단말기(120)의 현재위치를 나타내는 데이터(휴대용 전화(120A)의 경우, 그것의 관련된 기지국의 위치를 나타내는 데이터)는 단말기(120)로부터 화상배송서버(110)로 발송된다(단계 TF2).
화상배송서버(110)가 단말기(120)로부터 단말기의 현재위치를 나타내는 데이터를 수신한 경우(단계 SJ3), 단말기(120)가 현재 소정의 특정한 장소에 있는지(예를들어, 테마파크 또는 관광지에서 기념사진 찍는 장소) 또는 현재시간이 소정의 시간대(예를들어, 저녁)인지가 결정된다(단계 SJ4).
화상배송서버(110)가 단말기(120)가 현재 소정의 특정한 장소에 있는 것 또는 현재시간이 소정의 시간대에 있는 것을 결정한다면(단계 SJ4), 특정한 장소에 상응하는 특정한 캐릭터(예를들어, 테마파크의 경우에, 거기에서 유명한 캐릭터) 또는 소정의 시간대에 상응하는 특정한 캐릭터(예를들어, 저녁인 경우에, 초승달에 앉아있는 "곰"캐릭터)는 타겟물체에 상응하는 특정한 캐릭터로 결정되고, 그후 이러한 캐릭터의 이름이 단말기(120)로 발송된다(단계 SJ5).
화상배송서버(110)가 연결된 단말기(120)가 소정의 장소에 있지 않는 것 또는 현재시간이 특정한 시간대가 아닌 것으로 결정한 때(단계 SJ4), 화상배송서버(110)는 단말기(120)로부터 특정한 유형의 캐릭터의 수신을 기다린다(단계 SJ6).
단말기(120)가 특정한 장소에 있거나 또는 현재시간이 특정한 시간대에 있기때문에, 단말기(120)가 화상배송서버(110)에 의해 결정되고 발송된 특정한 캐릭터의 이름을 수신한다면(단계 TF3), 특정한 캐릭터 이름은 배송되어, 디스플레이유닛(130)에 의해 나타난다(단계 TF4).
단말기(120)가 특정한 장소에 있지않거나 현재시간이 특정한 시간대에 있지 않기 때문에, 단말기(120)가 화상배송서버(110)로부터 특정한 캐릭터의 이름을 수신하지 않을 때(단계 TF3), 단말기(120)의 사용자는 입력유닛(126)을 조작하고, 이에 의해 촬영된 장면화상내 추가된 것 또는 대체로서 사용되는 캐릭터의 유형("토끼", "곰" 또는 "고양이")을 특정하고, 특정된 유형의 캐릭터화상을 화상배송서버(110)로 발송한다(단계 TF5).
따라서, 촬영된 장면화상은 디지털카메라(132)로부터 화상입력유닛(127a)을 통하여 단말기(120)로 입력되기 시작하고(TF6), 상기 처리는 단말기(120)에 의한 화상처리내 포함된 도 36의 타겟화상추출처리(TFG)로 진행된다.
이러한 타겟화상 추출처리에서, 소정의 시간에 화상입력유닛(127)을 통하여 단말기(120)로 입력된 일련의 촬영된 장면화상은 메모리(122)의 작업영역(122d)에 저장된다(단계 TG1).
따라서, 각 물체의 각각의 동작을 나타내는 일련의 연속적인 물체화상(Hn)은 화상처리 작업영역(122d)에 저장된 일련의 촬영된 장면화상(12hn)으로부터 분리된 블럭으로 추출되고(단계 TG2), 작업영역(122d)내 각각의 블럭으로 저장된다(단계 TG3).
다시 말하면, 촬영된 장면화상내 포함된 각각의 물체화상(Hn)이 촬영된 장면화상(12hn)으로부터 분리된 블럭으로 추출되고, 화상처리 작업영역(122d)에 저장될 때(단계 TFG), 파선의 둘레(M)에 각각의 추출된 캐릭터화상(Hn)을 포함하는 촬영된 장면화상은 예를들어, 도 11A, 12A 또는 13A에서와 같이, 디스플레이유닛(130)에 나타난다(단계 TF7).
따라서, 디스플레이유닛(130)에 나타난 촬영된 장면화상내 복수의 물체화상(Hn)의 블럭이 있는지가 결정된다(단계 TF8).
복수의 물체화상(Hn)의 블럭이 없는 것으로 결정된다면, 촬영된 장면화상으로부터 추출된 단일한 물체화상(Hn)이 모사의 타겟화상으로 설정된다(단계 TF8 → TF9).
복수의 물체화상(Hn)의 블럭이 있는 것으로 결정된다면, 물체화상(Hn)은 물체화상(Hn)의 복수의 블럭간으로부터 사용자의 입력유닛(126)의 조작에 의해 모사의 타겟화상으로 특정된다(단계 TF8 → TF10).
물체화상(Hn)이 촬영된 장면화상으로부터 추출되고, 모사의 타겟화상(Hn)으로 특정된 때, 상기 처리는 도 37의 포즈번호 결정처리로 진행된다(단계 TFI).
이러한 포즈번호 결정처리에서, 촬영된 장면화상으로부터 추출되고 모사의 타겟화상으로 설정된 물체화상(Hn)과 모델포즈 화상메모리(122b)에 저장된 다른 포즈의 모델화상의 각각의 포즈에서 유사성이 평가되고(단계 TIK), 가장 유사한 포즈를 가지는 포즈의 모델화상이 디스플레이유닛(130)에 나타난다(단계 TI1).
이렇게 나타난 모델화상이 입력유닛(126)에서 사용자에 의해 선택된 때, 이렇게 선택된 모델화상의 포즈번호는 모사의 타겟화상에 상응하는 것으로 등록된다(단계 TI2 → TI3).
모사의 타겟화상과 가장 유사한 포즈를 나타내는 포즈번호에 상응하는 모델화상이 나타난 상태에서, 사용자의 입력유닛(126)의 조작에 의해 "다음 디스플레이"가 클릭될 때, 타겟화상과 두번째로 유사한 포즈를 나타내는 포즈번호를 가진 모델화상이 나타난다. 다른 유사성을 가지는 복수의 모델화상이 여전히 있다면, "다음 디스플레이"가 클릭될 때마다 다음 순서의 포즈유사성을 가지는 모델화상이 나타난다(단계 TI2 → TI4).
원하는 포즈유사성을 나타내는 포즈번호를 가진 모델화상이 사용자의 입력유닛(126)의 조작에 의해 나타나고 선택될 때, 이러한 모델화상의 포즈번호는 모사의 타겟화상과 상응하는 것으로 등록된다(단계 TI2 → TI3).
상술되었듯이, 포즈번호 결정처리에서, 촬영된 장면화상으로부터 추출된 모사의 타겟화상으로 물체화상(Hn)과 사람의 기본모델을 나타내는 (각각의 포즈를 취하는) 각각의 모델화상의 포즈유사성이 평가되고, 물체화상(Hn)의 포즈를 모사하는 모델화상의 포즈번호가 유사성의 평가를 기초로 결정된다.
도 38은 제 3 실시예의 화상배송시스템에서 단말기(120)에 의해 수행되는 화상처리내 포함된 포즈번호 결정처리에서 모사의 타겟화상과 모델화상의 포즈에서 유사성의 평가하는 흐름도이다.
예를들어, 도 32A에 도시되었듯이, 제 1 포즈번호를 가지는 모델화상이 판독되어(단계 TK1), 도 32(X)의 모사의 타겟화상(H1)으로 사이즈가 조절된다(단계 TK2).
그후, 타겟화상(H1) 및 사이즈조절된 모델화상은 서로 중첩되고, 그들 사이에 포즈에서 유사성(%)이 평가되어, 타겟화상(H1)과 모델화상의 포즈에서 유사성으로 저장된다(단계 TK3).
그후, 특정한 포즈번호를 가지는 모델화상이 비대칭인지가 결정된다(단계 TK4). 모델화상이 예를들어, 도 32A의 12bA(1)에 의해 도시되었듯이, 비대칭이 아닌 것으로 결정된 때(단계 TK4, "아니오"), 다음 포즈번호 모델화상이 판독되고(단계 TK8 → TK9), 모사의 타겟화상(H1)과 이러한 모델화상의 포즈에서 유사성이 마찬가지로 평가된다. 또 다음 모델화상이 비대칭이 아니면, 이러한 유사성 평가처리는 반복된다(단계 TK2 → TK4).
유사성평가에서 모델화상이 예를들어, 도 32B의 포즈번호. 19의 모델화상(12b19)에 의해 도시되었듯이, 비대칭인 것으로 결정된다면, 모델화상은 거울역상이다(단계 TK4 → TK5). 그후, 도 32C에 도시되었듯이, 1개의 거울역상의 모델화상(12b(19)R)은 모사의 타겟화상으로 (세로 및 가로로) 사이즈가 조절된다(단계 TK6).
그후, 타겟화상(H1)과 거울역상의 모델화상(12b(19)R)은 서로 중첩된다. 이러한 화상들간에 포즈유사성(%)이 평가되어, 타겟화상(H1)과 거울역상의 모델화상의 포즈유사성으로서 저장된다(단계 TK7).
그후, 다른 포즈번호의 모델화상이 여전히 있다면(단계 TK8), 그것이 순차적으로 판독되고(단계 TK9), 그리고 모사의 타겟화상과 모델화상의 각각의 하나의 포즈에서 유사성이 반복적으로 평가된다(단계 TK2-TK7).
이러한 실시예에서, 예를들어 도 32에 도시되었듯이, 물체(타겟)화상(H1)과 모델화상의 포즈에서 유사성이 평가된 때, 포즈번호. 19를 가지는 모델화상(12b(19))이 타겟화상(H1)과 가장 유사한 포즈를 가지는 것으로 평가된다.
상술하였듯이, 촬영된 장면화상으로부터 추출된 모사의 타겟화상으로서 물체화상(Hn)의 포즈를 모사하는 모델화상의 포즈번호가 도 37, 38 및 32를 참조하여 설명된 포즈번호 결정처리(단계 TFI)에서 결정되는 경우, 결정된 포즈번호에 대한 포즈를 취하는 특정된 캐릭터화상의 배송을 위한 요청은 그후 화상배송서버(110)로 발송된다(단계 TF11).
화상배송서버(110)가 단말기(120)로부터 캐릭터화상의 배송을 위한 요청을 수신한 때(단계 SJ7), 화상배송서버(110)는 메모리(112)내 포함된 캐릭터(1) "토끼"포즈 화상메모리(112d), 캐릭터(2) "곰"포즈 화상메모리(112e), 캐릭터(3) "고양이"포즈 화상메모리(112f)중 적절한 하나로부터 결정된 포즈번호를 가지는 캐릭터화상을 선택적으로 판독하고, 판독된 캐릭터화상을 요청자단말기(120)로 배송한다(단계 SJ8).
따라서, 화상배송서버(110)는 사용 요청자에게로 제공된 배송서비스를 위한 과금을 계산하여 과금내용의 지시를 요청자단말기(120)로 발송하고(단계 SJ9), 소정의 청구서가 요청자단말기 정보메모리(112g)내 등록된 요청자단말기의 은행계좌로 발송된다(단계 SJ10).
요청자단말기(120)가 결정된 포즈번호를 가지는 캐릭터화상을 화상배송서버(110)로부터 수신한 때(단계 TF12), 수신된 캐릭터화상을 촬영된 장면화상에 추가하는 추가/합성 방식 또는 촬영된 장면화상내 타겟화상(H)을 수신된 캐릭터화상으로 대체하는 대체/합성 방식이 "1-1: 임의의 공간영역 캐릭터화상 추가방식", "1-2: 팔로워 추가방식", "1-3: 거울역상의 캐릭터화상 추가방식", "2-1: 물체화상 선택/대체 방식", 또는 "2-2: 다중화상 촬영/대체 방식"간으로부터 선택된다(단계 TF13).
도 33 및 34내 단말기(120)에 의해 수행되는 화상처리의 흐름도에서, 대체/합성 방식 "2-1: 물체화상 선택/대체 방식" 및 "2-2: 다중화상 촬영/대체 방식"에 상응하는 관례는 생략된다. 생략된 관례는 도 28 및 29의 단계 SB16, SB18-SB21로 표현되고, 이후 설명될 추가/합성 방식에서 단계 TF14 및 TF15a-TF15c의 처리를 따라 수행되는 것과 같은 처리를 포함한다.
따라서, 추가/합성 방식이 선택되었을 때 수행되는 처리만이 여기에서 설명될 것이고, 대체/합성 방식이 선택되었을 때 수행되는 처리는 생략될 것이다.
단계 TF13에서, 특정된 화상합성방식이 "추가/합성 방식" 및 "1-1: 임의의 공간영역 캐릭터화상 추가방식"인 것으로 결정된다면(단계 F14, "1-1"), 화상배송서버(110)에 의해 배송된 모사의 타겟화상으로서 타겟화상(Hn)의 포즈를 모사하는 특정된 캐릭터화상은 물체화상블럭이 추출된 장소를 제외한 공간영역내 임의의 위치로 촬영된 장면화상(12hn)에 추가된다. 그후 최종적인 합성화상이 나타난다(단계 TF15a, TF16).
합성화상내 캐릭터화상을 그것의 현재위치로부터 어느 특정된 다른 위치로 이동시키는 처리가 합성화상에서 수행될 때(단계 TF17 → TF18), 캐릭터화상은 합성화상내 다른 위치로 이동되고, 그후 또 다른 최종적인 합성화상이 나타난다(TF19-TF20).
특정된 화상합성방식이 "추가/합성 방식" 및 "1-2: 팔로워 추가방식"을 포함하는 것으로 결정된 때(단계 TF14, "1-2"), 화상배송서버(110)에 의해 배송되고, 촬영된 장면화상내 물체화상(타겟화상)의 워킹포즈를 모사하는 특정된 캐릭터화상은 워킹하는 물체화상(타겟화상)(H)이 일정 시간전에 가정된 일련의 촬영된 장면화상(12hn)중 관련된 것에서의 위치에 상응하는 최근의 장면화상내 위치로 추가되어, 이에 의해 도 9D에서와 같은 최종적인 합성화상을 제공한다(단계 TH15b, TF16).
합성화상내 팔로워로서 특정된 캐릭터화상을 그것의 현재위치로부터 합성화상내 어느 특정된 다른 위치로 이동시키는 처리가 수동적으로 수행된 때(단계 TF17 내지 TF18), 특정된 캐릭터화상은 합성화상내 다른 위치로 이동되고, 그후 또 다른 최종적인 합성화상이 나타난다(단계 TF19, TF20).
특정된 화상합성방식이 "추가/합성 방식" 및 "1-3: 반대의 캐릭터화상 추가방식"을 포함하는 것으로 결정된 때(단계 T14, "1-3"), 장면화상(12g3)내 물체화상(타겟화상)(H)의 댄싱포즈를 모사하는 "토끼"캐릭터화상(12d(19))은 거울역상이고, 거울역상의 "토끼"캐릭터화상은 거울역상의 "토끼"캐릭터화상이 댄싱목적으로 타겟화상(H)과 결합되는 장면화상(12g3)내 위치에 추가되고, 그후 도 11D에 도시되었듯이 최종적인 합성화상(12g3')이 나타난다(단계 TF15c → TF16).
합성화상(12g3')내 반대의 "토끼"캐릭터화상(12d(19)R)을 그것의 현재위치로부터 어느 특정된 다른 위치로 이동시키는 처리가 수동적으로 수행된 때(단계 TF17내지 단계 TF18), 거울역상의 "토끼"캐릭터화상은 합성화상(12g3')내 다른 위치로 이동되고, 그후 또 다른 최종적인 합성화상이 나타난다(단계 TF19, TF20).
그후, 단말기(120)는 사용자에 의해 화상배송서버(110)로부터 서버서비스의 사용을 위한 과금내용의 지시를 수신하여, 그것을 디스플레이유닛(130)에 나타낸다(단계 TF21).
따라서, 제 3 실시예의 화상배송시스템의 화상배송기능에 따르면, 단말기(120)가 물체를 포함하는 장면의 화상을 촬영한 때, 촬영된 장면화상으로부터 물체화상이 추출된다. 추출된 물체화상과 포즈가 유사한 모델화상으로부터 포즈번호가 결정된다. 단말기(120)는 소정의 포즈번호를 가지는 포즈의 캐릭터화상 및 화상배송서버(110)로부터 특정된 유형의 캐릭터화상의 배송을 요청한다. 따라서, 화상배송서버(110)는 캐릭터(1) "토끼"포즈 화상메모리(112d), 캐릭터(2) "곰"포즈 화상메모리(112e), 캐릭터(3) "고양아"포즈 화상메모리(112f)중 적절한 하나로부터 특정된 포즈번호 및 유형을 가지는 캐릭터화상을 판독하고, 촬영된 장면화상내 물체화상을 그 물체와 포즈가 유사한 수신된 캐릭터화상으로 대체하거나, 또는 수신된 캐릭터화상을 장면화상에 추가해서, 최종적인 합성화상을 나타내는 단말기(120)로 판독된 캐릭터화상을 배송한다. 다시 말하면, 단말기(120)에서 사용자는 고정된 애니메이션화상을 재미목적을 위해 촬영프레임에 단순히 추가시키지 않고, 화상배송서버(110)로부터 장면화상내 물체화상과 포즈가 유사한 애니메이션화상을 획득하며, 촬영된 장면화상내 물체화상을 애니메이션화상으로 대체하거나 애니메이션화상을 촬영된 장면화상에 추가시켜서, 이에 의해 애니메이션화상을 포함하는 매우 재미있는 합성화상을 생성한다.
제 3 실시예의 화상배송시스템내 화상배송서버(110)는 각각의 촬영된 장면화상내 물체화상의 포즈를 모사하는 캐릭터화상의 지불 배송, 특정 홈페이지상의 특정한 캐릭터를 공개하는 촬영된 장면화상내 물체화상의 포즈를 모사하는 특정한 캐릭터화상의 지불 또는 무료 배송, 및 유원지등과 같은 특정된 장소에서만 단거리 무선통신유닛(116)을 통하여 디지털카메라 단말기(120D)로 촬영된 장면화상내 물체화상의 포즈를 모사하는 유명한 캐릭터화상의 지불 배송을 가지고, 디지털카메라를 포함하는 핸드폰 단말기(120A)와 같은 화상촬영 유형의 이동단말기(120B, 120C, 120D)를 제공할 수 있다.
각각의 실시예에서, 촬영된 장면화상으로부터 추출된 물체화상과 포즈가 유사한 캐릭터화상은 선택적으로 얻어지고, 촬영된 장면화상내 추가된 것 또는 대체로서 사용되어, 최종적인 합성화상을 제공하는 반면에, 여러가지 표정을 가지는 얼굴화상과 실제적으로 촬영된 사람화상은 미리 저장되고, 촬영된 장면화상으로부터 추출된 물체화상의 포즈를 모사하는 추가된 것 또는 대체로서 사용되어, 최종적인 합성화상을 출력할 수 있다.
각각의 상기 실시예에서, 정지화상으로서 촬영된 장면화상이 예시되었다. 반면에, 촬영된 장면화상이 일련의 입력된 애니메이션화상을 포함할 때, 일련의 입력된 동화상의 배경화상과 관련하여 시간마다 연속적으로 변화하는 물체화상은 일련의 애니메이션화상으로부터 순차적으로 추출될 것이다. 순차적으로 추출된 물체화상과 포즈가 유사한 캐릭터화상(도 39)이 이후 선택적으로 획득되고 배송되며, 또는 촬영된 동화상에 추가되거나 각각의 애니메이션화상내 물체화상을 대체하여서, 이후 배송될 일련의 최종적인 합성 애니메이션화상을 제공한다.
도 39는 화상배송서버(110)내 캐릭터"토끼" 애니메이션포즈 화상메모리(112dM)로 저장된 여러가지 포즈를 취하는 애니메이션 캐릭터화상을 나타낸다.
각각의 실시예에서 화상배송서버(110) 또는 단말기(120)의 화상처리기능을 사용하여서, 예를들어, 게임내 애니메이션화상 또는 실제적으로 촬영된 사람화상으로부터 특정되고 추출되어 나타난 캐릭터를 포함하는, 모사의 타겟화상과 포즈가 유사한 소정의 원하는 캐릭터화상이 획득되어 요청자단말기로 배송되거나 애니메이션화상내 나타나는 캐릭터를 대체하여서, 이에 의해 최종적인 합성화상을 요청자단말기로 배송한다.
다음의 제 4 실시예에서 설명되듯이, 사용자에 의해 촬영된 여러가지 포즈를 취하는 물체화상, 또는 인터넷(N)상의 게임서버(게임 HP)로부터 다운로드된 게임에서 나타나는 여러가지 포즈를 취하는 캐릭터화상은 화상배송서버(110)내 메모리(112)의 캐릭터(1) "토끼"포즈 화상메모리(112d), 캐릭터(2) "곰"포즈 화상메모리(112e), 캐릭터(3) "고양이"포즈 화상메모리(112f)와 유사한 메모리에 기록될 것이다. 제 2 또는 제 3 실시예에서, 촬영된 장면화상으로부터 추출된 물체화상과 포즈가 유사한 캐릭터화상이 화상배송서버(110)로부터 획득된 때, 그것은 최초로 등록된 "토끼", "곰" 및 "고양이" 캐릭터화상, 및 사용자에 의해 등록된 사람화상과 게임캐릭터화상간으로부터 선택된다.
(제 4 실시예 )
도 40은 제 4 실시예에서 화상배송시스템의 전 구조를 나타내는 블럭도이다.
이러한 실시예는 디지털카메라를 가지는 핸드폰(220A)을 사용하여 여러가지 포즈를 취하는 물체화상의 사용자의 촬영, 및 화상배송서버(210)의 메모리(212)내 사용자의 최초 캐릭터화상으로서 물체화상의 등록이나, 또는 화상배송서버(210)의 메모리(212)내 사용자의 최초 캐릭터로서 게임서버(210A)의 메모리(212A)로부터 다운로드된 여러가지 포즈를 취하는 게임캐릭터의 등록을 다룬다.
도 41A 및 41B는 제 4 실시예에서 화상배송시스템의 핸드폰(220A) 및 화상배송서버(210)에서 각각 수행되는 사용자의 최초 캐릭터화상 등록처리의 흐름도이다.
먼저, 인터넷(N)상의 게임서버(210A)로부터 디지털카메라를 가지는 핸드폰(220A)에 사용자의 최초 캐릭터화상이 다운로드되어 등록될 때, 캐릭터화상이 획득된 게임서버(210A)의 홈페이지(HP)가 특정되어, 핸드폰(220A)으로 연결된다(단계 TS1 → TS2).
사용자가 게임서버(210A)의 홈페이지(HP)상에 사용자의 최초 캐릭터화상으로 설정되는 게임캐릭터를 특정할 때(단계 TS3), 게임서버(210A)의 메모리(212A)에 저장된 특정된 게임캐릭터의 여러가지 포즈의 화상이 다운로드된다(단계 TS4).
따라서, 핸드폰(220A)의 사용자 ID 및 게임서버(210A)로부터 다운로드된 각각의 포즈의 캐릭터화상은 화상배송서버(210)로 배송된다(단계 TS5).
사용자가 인터넷(N)으로부터 유사한 캐릭터화상을 다운로드하지 않고, 핸드폰(220A)을 사용하여 사용자의 최초 캐릭터화상을 촬영하여 등록할 때, 디지털카메라(232)는 그 각각의 포즈를 취하는 물체화상을 포함하는 장면화상을 촬영한다(단계 TS1 → TS7).
따라서, 핸드폰(220A)은 촬영된 장면화상내 배경화상을 제외한 물체화상으로서 캐릭터화상을 추출하고, 각각의 포즈를 취하는 상응캐릭터화상으로 그것을 저장한다(단계 TS9).
그후, 핸드폰(220A)은 그 단말기 사용자의 ID 및 각각의 포즈를 취하는 저장된 상응화상을 화상배송서버(210)로 발송한다(단계 TS5).
화상배송서버(210)가 핸드폰(220A)으로부터 단말기 사용자의 ID 및 각각의 포즈를 취하는 캐릭터화상을 수신할 때(단계 SR1), 그것은 예를들어, 메모리(212)내 도 23의 각각의 "토끼", "곰" 및 "고양이"캐릭터화상(112d-112f)과 무관하게, 사용자의 ID를 위해 각각의 포즈를 취하는 것으로서 캐릭터화상을 등록한다(단계 SR2).
화상배송서버(210)가 제 2 또는 제 3 실시예에서 촬영된 장면화상으로부터 추출된 물체화상과 포즈가 유사한 캐릭터화상을 선택하여 배송할 때, 화상배송서버(210)는 등록된 "토끼", "곰" 및 "고양이"캐릭터화상, 및 사용자나 게임캐릭터에 의해 촬영되어 등록된 캐릭터화상으로부터 캐릭터화상을 선택할 수 있다.
각각의 실시예를 참조하여 설명된 화상배송시스템에 의해 수행되는 여러가지 처리, 다시 말해서, 제 2 실시예의 화상배송시스템의 단말기(120)에 의해 수행되는 도 26과 27의 흐름도에 도시된 화상처리, 제 2 실시예의 화상배송시스템에서 도 28과 29의 흐름도에 도시된 화상배송서버(110)에 의해 수행되는 서버처리, 도 30의흐름도에 도시된 제 2 실시예에서 서버처리에 포함된 물체화상 추출처리, 도 31의 흐름도에 도시된 제 2 실시예의 서버처리에 포함된 상응애니메이션화상 획득처리, 도 18의 흐름도에 도시된 제 2 실시예에서 상응애니메이션화상 획득처리내 포함된 모사의 타겟화상과 캐릭터/모델 화상의 포즈에서 유사성을 평가하는 처리, 도 33과 34의 흐름도에 도시된 제 3 실시예의 화상배송시스템내 단말기(120)에 의해 수행되는 화상처리, 도 35의 흐름도에 도시된 제 3 실시예의 화상배송시스템내 화상배송서버(110)의 서버처리, 도 36의 흐름도에 도시된 제 3 실시예의 화상처리내 포함된 포즈번호 결정처리, 도 38의 흐름도에 도시된 제 3 실시예에서 포즈번호 결정처리에 포함된 모사의 타겟화상과 모델포즈화상의 포즈에서 유사성을 평가하는 처리, 도 41의 흐름도에 도시된 제 4 실시예의 화상배송시스템내 핸드폰(220A)에서 수행되는 사용자의 캐릭터화상 등록처리, 및 화상배송서버(210)에 의해 수행되는 사용자의 캐릭터화상 등록처리는 메모리카드(ROM카드, RAM카드등), 자기디스크(플로피디스크, 하드디스크등), 광디스크(CD-ROM, DVD등), 및 반도체메모리(113)(123, 213, 223)와 같은 외부기록매체상의 컴퓨터수행 프로그램으로 저장되어 배송된다. 통신망으로 통신기능을 가지는 여러가지 컴퓨터단말기(인터넷)(N)는 기록매체판독부(114)(124, 214, 224)를 사용하여, 메모리(112)(122, 212, 222)로 외부기록매체(113)(123, 213, 223)상에 저장된 프로그램을 판독할 수 있다. 따라서 각각의 실시예를 참조하여 설명된 화상배송기능을 수행하는 이러한 프로그램에 의해 컴퓨터의 작동이 제어되고, 이에 의해 상술된 것과 유사한 처리를 수행한다.
각각의 처리를 인식하는 프로그램 데이터는 프로그램 코드의 형태로 통신망(인터넷)(N)을 통하여 전송될 수 있다. 프로그램 데이터는 화상배송기능을 인식하기 위해 통신망(인터넷)(N)에 연결된 컴퓨터 단말기로부터 얻을 수 있다.
본 발명은 각각의 실시예에 의해 수행된 것으로 제한되지 않는다. 본 발명의 사상 및 범위로부터 이탈하지 않는 여러가지 변화와 변형이 당업자에 의해 쉽게 이루어진다.

Claims (39)

  1. 적어도 하나의 물체를 포함하는 장면을 나타내는 촬영된 장면화상을 획득하는 촬영된 장면화상 획득유닛(17);
    상기 획득유닛에 의해 획득된 촬영된 장면화상으로부터 적어도 하나의 물체중 어느 특정한 것을 나타내는 타겟화상을 추출하는 타겟화상 추출유닛(11);
    상기 추출유닛에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 상응화상 취득유닛(11); 및
    상기 촬영된 장면화상 획득유닛에 의해 촬영된 장면화상에 상기 취득유닛에 의해 취득된 화상을 추가하여, 최종적인 합성화상을 출력하는 화상출력유닛(11, 20)을 포함하는 것을 특징으로 하는 합성화상출력장치.
  2. 적어도 하나의 물체를 포함하는 장면을 각각 나타내는 복수의 촬영된 장면화상을 획득하는 촬영된 장면화상 획득유닛(17);
    상기 촬영된 장면화상 획득유닛에 의해 획득된 복수의 촬영된 장면화상중 어느 선택된 것으로부터 적어도 하나의 물체중 어느 특정한 것을 나타내는 타겟화상을 추출하는 타겟화상 추출유닛(11);
    상기 추출유닛에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 상응화상 취득유닛(11); 및
    상기 타겟화상 추출유닛에 의해 추출된 촬영된 장면화상내 타겟화상을 상기상응화상 취득유닛에 의해 취득된 화상으로 대체하고, 상기 타겟화상 추출유닛에 의해 어떠한 타겟화상도 추출되지 않은 상기 복수의 촬영된 장면화상의 다른 것들중 어느 선택된 것에 상응화상을 추가하고, 그리고 최종적인 합성화상을 출력하는 화상출력유닛(11, 20)을 포함하는 것을 특징으로 하는 합성화상출력장치.
  3. 제 1 항에 있어서,
    상기 촬영된 장면화상 획득유닛은 일련의 연속적으로 변화하는 촬영된 장면화상을 획득하고; 그리고
    상기 타겟화상 추출유닛은 상기 촬영된 장면화상 획득유닛에 의해 획득된 일련의 연속적으로 변화하는 장면화상간으로부터 적어도 하나의 물체중 어느 특정한 것의 일련의 연속적으로 변화하는 화상을 추출하는 것을 특징으로 하는 합성화상출력장치.
  4. 제 1 항에 있어서, 상기 타겟화상 추출유닛은:
    상기 합성화상출력장치로부터 장면내 각각 적어도 하나의 물체까지의 거리를 측정하는 유닛(18); 및
    상기 합성화상출력장치로부터 장면내 각각 적어도 하나의 물체까지 상기 측정유닛에 의해 측정된 거리에 따라서 타겟화상을 추출하는 유닛(11)을 포함하는 것을 특징으로 하는 합성화상출력장치.
  5. 제 1 항에 있어서, 상기 상응화상 취득유닛은:
    상기 타겟화상에 상응하는 복수의 화상을 저장하는 저장수단(12d, 12e, 12f); 및
    상기 타겟화상 추출유닛에 의해 추출된 타겟화상과 상기 저장수단에 저장된 각 화상의 포즈에서 유사성을 평가하는 수단(11),
    상기 유사성평가수단에 의해 평가된 타겟화상과 포즈에서 특정된 유사성을 가지는 화상을 상기 저장수단으로부터 취득하는 수단을 포함하는 것을 특징으로 하는 합성화상출력장치.
  6. 제 1 항에 있어서, 상기 상응화상 취득유닛은:
    복수의 모델화상 및 상응하는 관계에서 상기 복수의 모델화상과 각각 상응하는 복수의 화상을 저장하는 상응화상 저장유닛(12b, 12c, 12d, 12e, 12f);
    상기 화상추출유닛에 의해 추출된 타겟화상과 상기 상응화상 저장수단에 저장된된 모델화상의 각각의 포즈에서 유사성을 평가하는 유사성평가수단(11); 및
    상기 유사성평가수단에 의해 평가된 타겟화상과 포즈에서 특정된 유사성을 가지는 모델화상에 상응하는 화상을 상기 상응화상 저장수단으로부터 취득하는 수단(11)을 포함하는 것을 특징으로 하는 합성화상출력장치.
  7. 제 1 항에 있어서, 상기 상응화상 취득유닛은:
    상기 타겟화상에 상응하는 각각의 화상인, 복수의 각각 다른 유형을 위한 복수그룹의 다른 화상을 저장하는 상응화상 저장수단(12d, 12e, 12f);
    상기 상응화상 저장수단에 상기 복수그룹들중 관련된 것의 다른 화상이 저장되기 위해 복수의 다른 유형중 어느 특별한 것을 특정시키는 유형특정수단(11);
    상기 상응화상 저장수단에 저장된 관련그룹의 화상에 대해 각각의 포즈, 및 상기 타겟화상 추출유닛에 의해 추출된 타겟화상으로 상기 유형특정수단에 의해 특정된 유형에서 유사성을 평가하는 유사성평가수단(11); 및
    상기 특정된 유형을 위한 화상을 상기 상응화상 저장수단으로부터 취득하고, 상기 유사성평가수단에 의해 평가된 타겟화상과 포즈에서 특정된 유사성을 가지는 수단(11)을 포함하는 것을 특징으로 하는 합성화상출력장치.
  8. 제 1 항에 있어서, 상기 상응화상 취득유닛은:
    복수의 모델화상 및 복수의 모델화상중 각각의 것과 상응하는 각 그룹의 화상인, 상응하는 관계에서 복수의 각각 다른 유형을 위한 복수그룹의 다른 화상을 저장하는 상응화상 저장수단(12d, 12e, 12f);
    상기 상응화상 저장수단에 복수그룹중 관련된 것의 다른 화상이 저장되기 위해 복수의 다른 유형중 어느 특별한 것을 특정하는 유형특정수단(11);
    상기 타겟화상 추출유닛에 의해 추출된 타겟화상과 상기 상응화상 저장수단에 저장된 모델화상의 각각의 포즈에서 유사성을 평가하는 유사성평가수단(11); 및
    상기 유사성평가수단에 의해 평가된 상기 타겟화상과 특정된 포즈유사성을 가지는 모델화상에 상응하는 화상인, 상기 유형특정수단에 의해 특정된 유형을 위한 화상을 상기 상응화상 저장수단으로부터 취득하는 수단(11)을 포함하는 것을 특징으로 하는 합성화상출력장치.
  9. 제 6 항에 있어서,
    상기 타겟화상 추출유닛에 의해 추출된 타겟화상으로 상기 상응화상 저장수단에 저장된 각각 복수의 모델화상을 세로 및 가로로 조절하는 수단을 더 포함하고,
    상기 유사성평가수단은 상기 타겟화상 추출수단에 의해 추출된 타겟화상과 상기 모델화상 조절수단에 의해 세로 및 가로로 조절된 모델화상의 각각의 포즈에서 유사성이 평가되는 것을 특징으로 하는 합성화상출력장치.
  10. 제 1 항에 있어서,
    상기 출력유닛은 상기 타겟화상 추출유닛에 의해 추출된 촬영된 장면화상내 타겟화상의 위치이외의 위치에서 상기 촬영된 장면화상 획득유닛에 의해 획득된 촬영된 장면화상에 상기 상응화상 취득유닛에 의해 취득된 상응화상을 추가하고, 최종적인 합성화상을 출력하는 것을 특징으로 하는 합성화상출력장치.
  11. 제 1 항에 있어서,
    상기 출력유닛에 의해 출력된 합성화상에서 상응화상의 이동을 그것의 현재위치로부터 다른 위치로 특정시키는 수단(11, 16); 및
    상기 촬영된 장면화상에 추가된 상응화상을 그것의 현재위치로부터 획득된 장면화상내 특정된 다른 위치로 이동시켜서, 이에 의해 최종적인 합성화상을 출력하기 위해 상기 특정수단에 반응하는 수단(11)을 더 포함하는 것을 특징으로 하는 합성화상출력장치.
  12. 제 1 항에 있어서,
    상기 출력유닛은 일련의 촬영된 장면화상의 이전 것으로부터 상기 타겟화상 추출유닛에 의해 추출된 타겟화상의 위치와 상응하는 위치에서, 상기 촬영된 장면화상 획득유닛에 의해 획득된 일련의 촬영된 장면화상중 최근 것에 상기 상응화상 취득유닛에 의해 취득된 상응화상을 추가시키고, 이에 의해 최종적인 합성화상을 출력하는 것을 특징으로 하는 합성화상출력장치.
  13. 제 1 항에 있어서,
    상기 출력유닛은 상기 상응화상 취득유닛에 의해 취득한 상응화상을 거울역상으로하고, 거울역상의 상응화상이 상기 촬영된 장면화상 획득유닛에 의해 획득된 촬영된 장면화상내 물체화상과 결합되는 위치에서, 상기 획득된 장면화상에 상기 거울역상의 상응화상을 추가하고, 이에 의해 최종적인 합성화상을 출력하는 것을 특징으로 하는 합성화상출력장치,
  14. 제 2 항에 있어서, 상기 화상출력유닛은:
    상기 타겟화상을 위한 복수의 후보간으로부터 하나를 특정하는 타겟화상 특정부(16); 및
    상기 촬영된 장면화상 획득유닛에 의해 획득된 촬영된 장면화상내 상기 상응화상 취득유닛에 의해 취득된 상응화상으로 상기 타겟화상 특정부에 의해 특정된 화상을 대체하여, 이에 의해 최종적인 합성화상을 출력하는 수단(11, 20)을 포함하는 것을 특징으로 하는 합성화상출력장치.
  15. 제 2 항에 있어서, 상기 화상출력유닛은:
    상기 타겟화상 추출유닛에 의해 추출된 타겟화상을 위한 복수의 후보로부터 하나를 특정하는 타겟화상 특정부(16); 및
    상기 타겟화상 특정부에 의해 특정된 타겟화상의 위치에서 상기 촬영된 장면화상 획득유닛에 의해 획득된 촬영된 장면화상에 상기 상응화상 취득유닛에 의해 취득된 화상, 및 각각의 물체에 화상촬영거리의 감소하는 순서로 상기 타겟화상 특정부에 의해 특정된 타겟화상 이외의 타겟화상의 위치에서 나머지 타겟화상을 위한 후보를 추가시키고, 이에 의해 최종적인 합성화상을 출력하는 수단(11, 20)을 포함하는 것을 특징으로 하는 합성화상출력장치.
  16. 제 1 항에 있어서,
    상기 타겟화상 추출유닛은 상기 촬영된 장면화상 획득유닛에 의해 획득된 제 1 촬영된 장면화상으로부터 타겟화상을 추출하고; 그리고
    상기 출력유닛은 상기 촬영된 화상 획득유닛에 의해 획득된 제 2 촬영된 장면화상에 상기 상응화상 취득유닛에 의해 취득된 화상을 추가시켜서, 이에 의해 최종적인 합성화상을 출력하는 것을 특징으로 하는 합성화상출력장치.
  17. 제 1 항에 있어서, 상기 촬영된 장면화상 획득유닛은 장면화상을 촬영하는 것을 특징으로 하는 합성화상출력장치.
  18. 제 1 항에 있어서, 상기 촬영된 장면화상 획득유닛은 비디오화상에 기초한 촬영된 장면화상을 획득하는 것을 특징으로 하는 합성화상출력장치.
  19. 제 1 항에 있어서, 상기 촬영된 장면화상은 애니메이션화상을 포함하는 것을 특징으로 하는 합성화상출력장치.
  20. 합성화상을 출력하기 위해 컴퓨터를 제어하는 합성화상출력 프로그램을 기록하고, 상기 프로그램은 컴퓨터가:
    물체를 포함하는 장면을 나타내는 촬영된 장면화상을 획득하는 촬영된 장면화상 획득수단;
    상기 획득수단에 의해 획득된 촬영된 장면화상으로부터 물체를 나타내는 타겟화상을 추출하는 화상추출수단;
    상기 추출수단에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 상응화상 취득수단; 및
    상기 촬영된 장면화상 획득수단에 의해 획득된 촬영된 장면화상에 상기 취득수단에 의해 취득된 상응화상을 추가하고, 최종적인 합성화상을 출력하는 화상출력수단으로서 기능하도록 하는 기록매체.
  21. 합성화상을 출력하기 위해 컴퓨터를 제어하는 합성화성출력 프로그램을 기록하고, 상기 프로그램은 컴퓨터가:
    물체를 포함하는 장면을 각각 나타내는 복수의 촬영된 장면화상을 획득하는 촬영된 장면화상 획득수단;
    상기 촬영된 장면화상 획득수단에 의해 획득된 복수의 촬영된 장면화상중 어느 선택된 것으로부터 물체를 나타내는 타겟화상을 추출하는 타겟화상 추출수단;
    상기 추출수단에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 상응화상 취득수단; 및
    상기 상응화상 취득수단에 의해 취득된 상응화상으로 상기 타겟화상 추출수단에 의해 추출된 촬영된 장면화상내의 타겟화상을 대체하고, 상기 타겟화상 추출수단에 의해 어떠한 타겟화상도 추출되지 않은 상기 복수의 촬영된 장면화상의 다른 것들중 어느 선택된 것에 상응화상을 추가하고, 그리고 일련의 최종적인 합성화상을 출력하는 화상출력수단으로서 기능하도록 하는 기록매체.
  22. 물체를 포함하는 장면을 나타내는 촬영된 장면화상을 획득하는 단계;
    상기 획득단계에 의해 획득된 촬영된 장면화상으로부터 물체를 나타내는 타겟화상을 추출하는 단계;
    상기 추출단계에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 단계; 및
    상기 촬영된 장면화상 획득단계에 의해 획득된 촬영된 장면화상에 상기 취득단계에 의해 취득된 상응화상을 추가하고, 최종적인 합성화상을 출력하는 단계를 포함하는 것을 특징으로 하는 합성화상출력방법.
  23. 물체를 포함하는 장면을 각각 나타내는 복수의 촬영된 장면화상을 획득하는 단계;
    상기 촬영된 장면화상 획득단계에 의해 획득된 복수의 촬영된 장면화상중 어느 선택된 것로부터 물체를 나타내는 타겟화상을 추출하는 단계;
    상기 추출단계에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 단계; 및
    상기 상응화상 취득단계에 의해 취득된 상응화상으로 상기 타겟화상 추출단계에 의해 추출된 촬영된 장면화상내의 타겟화상을 대체하고, 상기 타겟화상 추출단계에 의해 어떠한 타겟화상도 추출되지 않는 복수의 촬영된 장면화상의 다른 것들중 어느 선택된 것에 상응화상을 추가하고, 최종적인 합성화상을 출력하는 단계를 포함하는 것을 특징으로 하는 합성화상출력방법.
  24. 물체를 포함하는 장면을 나타내는 촬영된 장면화상을 단말기로부터 수신하는 촬영된 장면화상 수신부(115, 116);
    상기 촬영된 장면화상 수신부에 의해 수신된 촬영된 장면화상으로부터 물체를 나타내는 타겟화상을 추출하는 타겟화상 추출부(111);
    상기 타겟화상 추출부에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 상응화상 취득부(111);
    상기 상응화상 취득부에 의해 취득된 상응화상을 촬영된 장면화상에 추가하여, 최종적인 합성화상을 제공하는 화상 추가부(111); 및
    상기 화상 추가부에 의해 제공된 합성화상을 단말기로 배송하는 화상 배송부(115, 116)를 포함하는 것을 특징으로 하는 합성화상 배송장치.
  25. 제 24 항에 있어서,
    상기 촬영된 장면화상 수신부는 물체를 포함하는 장면을 각각 나타내는 화상인 일련의 연속적으로 변화하는 촬영된 장면화상을 수신하고,
    상기 타겟화상 추출부는 상기 촬영된 장면화상 수신부에 의해 수신된 일련의 촬영된 장면화상으로부터, 물체의 동작을 각각 나타내는 일련의 연속적으로 변화하는 타겟화상을 추출하는 것을 특징으로 하는 합성화상배송장치.
  26. 제 24 항에 있어서, 상기 상응화상 취득부는:
    상기 타겟화상에 각각 상응하는 복수의 다른 화상을 저장하는 상응화상 저장수단(112d, 112e, 112f);
    상기 타겟화상 추출수단에 의해 추출된 타겟화상과 상기 상응화상 저장수단에 저장된 다른 화상의 각각의 포즈에서 유사성을 평가하는 유사성평가수단(111); 및
    상기 유사성평가수단에 의해 평가된 타겟화상과 포즈에서 특정된 유사성을 가지는 상응화상을 획득하는 수단을 포함하는 것을 특징으로 하는 합성화상배송장치.
  27. 제 26 항에 있어서, 상기 유사성 평가부는:
    상응하는 관계에서 복수의 모델화상과 복수의 상응화상을 저장하는 상응화상 저장수단(112b, 112c, 112d, 112e, 112f); 및
    상기 타겟화상 추출수단에 의해 추출된 타겟화상과 상기 상응화상 저장수단에 저장된 모델화상의 각각의 포즈에서 유사성을 평가하는 모델유사성 평가수단(111)을 포함하고; 그리고
    상기 상응화상 취득부는 상기 유사성 평가부에 의해 평가된 타겟화상과 포즈에서 특정된 유사성을 가지는 모델화상에 상응하는 화상을 상기 상응화상 저장수단으로부터 취득하는 것을 특징으로 하는 합성화상배송장치.
  28. 제 24 항에 있어서,
    상기 단말기로부터 다른 단말기의 주소를 수신하는 주소 수신부(111, 115,116); 및
    상기 주소 수신부에 의해 그 주소가 수신되는 다른 단말기로 상기 화상 추가부에 의해 제공된 합성화상을 배송하는 배송부(115, 116)를 더 포함하는 것을 특징으로 하는 합성화상배송장치.
  29. 촬영된 장면화상내 포함된 타겟화상을 추출하고, 상기 추출된 타겟화상의 상기 합성화상배송장치 포즈정보를 발송하고, 단말기에 의한 포즈정보의 발송에 반응하여 발송된 상기 합성화상배송장치의 포즈정보에 상응하는 화상을 수신하고, 상기 촬영된 장면화상에 상기 상응화상을 추가하여, 최종적인 합성화상을 출력하는 단말기를 가지고 통신하며,
    상기 촬영된 장면화상내 포함된 타겟화상의 포즈정보를 상기 단말기로부터 수신하는 포즈정보 수신부(115, 116);
    포즈정보의 다른 항목중 각 하나에 각각 상응하는 복수의 화상을 저장하는 상응화상 저장메모리(112d, 112e, 112f); 및
    상기 상응화상 저장메모리로부터 상기 유사성 평가부에 의해 평가된 타겟화상과 포즈에서 특정된 유사성을 가지는 포즈화상에 상응하는 화상을 판독하는 화상 배송부(111, 115, 116)를 포함하는 합성화상배송장치.
  30. 촬영된 장면화상내 포함된 타겟화상을 추출하고, 상기 추출된 타겟화상의 상기 합성화상배송장치 포즈정보 및 특정된 캐릭터 유형의 정보를 발송하고, 단말기에 의한 포즈정보 및 특정된 캐릭터 유형의 정보의 발송에 반응하여 발송된 상기 합성화상배송장치의 포즈정보 및 특정된 캐릭터 유형의 정보에 상응하는 화상을 수신하고, 상기 촬영된 장면화상에 상기 수신된 화상을 추가하여, 최종적인 합성화상을 출력하는 단말기를 가지고 통신하며,
    상기 촬영된 장면화상내 포함된 타겟화상의 포즈정보 및 특정된 캐릭터 유형의 정보를 상기 단말기로부터 수신하는 포즈정보 수신부(115, 116);
    포즈정보의 다른 항목중 각각 하나에 상응하는 각종의 화상, 캐릭터를 나타내는 각각의 화상인 복수 유형의 화상을 저장하는 상응화상 저장메모리(112d, 112e, 112f); 및
    상기 포즈정보 수신부에 의해 수신된 포즈정보 및 특정된 캐릭터 유형의 정보에 상응하는 화상을 상기 상응화상 저장메모리로부터 판독하고, 상기 판독된 화상을 상기 단말기로 배송하는 화상 배송부(111, 115, 116)를 포함하는 합성화상배송장치.
  31. 제 30 항에 있어서,
    상기 단말기로부터 그것의 위치 정보를 수신하는 위치정보 수신부를 더 포함하고, 그리고
    상기 위치정보 수신부에 의해 수신된 단말기의 위치정보는 단말기가 특정된 위치에 있는 것을 나타낼 때, 상기 화상 배송부는 상기 포즈정보 수신부에 의해 수신된 포즈정보 및 특정된 위치에 상응하고, 캐릭터를 나타내는 화상을 상기 상응화상 저장메모리로부터 판독하고, 상기 판독된 화상을 단말기로 발송하는 것을 특징으로 하는 합성화상배송장치.
  32. 제 30 항에 있어서,
    상기 화상 배송부는 상기 포즈정보 수신메모리에 의해 수신된 포즈정보, 및 현재 시간이 특정한 시간대인 경우 특정한 시간대에 대한 정보에 상응하고, 캐릭터를 나타내는 화상을 상기 상응화상 저장메모리로부터 판독하고, 상기 판독된 화상을 상기 단말기로 배송하는 것을 특징으로 하는 합성화상배송장치.
  33. 제 24 항에 있어서,
    생성한 청구서를 단말기로 발송하고 상기 배송부에 의해 제공된 화상의 서비스를 배송하는 발송부를 더 포함하는 것을 특징으로 하는 합성화상배송장치.
  34. 합성화상을 단말기로 배송하기 위해 통신망에 연결된 컴퓨터를 제어하는 합성화상배송 프로그램을 저장하고, 상기 프로그램은 컴퓨터가:
    물체를 포함하는 장면을 나타내는 촬영된 장면화상을 단말기로부터 수신하는 촬영된 장면화상 수신수단;
    상기 촬영된 장면화상 수신수단에 의해 수신된 촬영된 장면화상으로부터 물체를 나타내는 타겟화상을 추출하는 타겟화상 추출수단;
    상기 타겟화상 추출수단에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 상응화상 취득수단;
    상기 상응화상 취득수단에 의해 취득된 화상을 상기 촬영된 장면화상에 추가하여 최종적인 합성화상을 제공하는 화상추가수단; 및
    상기 화상추가수단에 의해 제공된 합성화상을 상기 단말기로 배송하는 화상배송수단으로서 기능하도록 하는 기록매체.
  35. 물체를 포함하는 장면을 나타내는 촬영된 장면화상을 단말기로부터 수신하는 단계;
    상기 수신단계에 의해 수신된 상기 촬영된 장면화상으로부터 물체를 나타내는 타겟화상을 추출하는 단계;
    상기 추출단계에 의해 추출된 타겟화상에 상응하는 화상을 취득하는 단계;
    상기 상응화상 취득단계에 의해 취득된 화상을 상기 촬영된 장면화상에 추가하여, 최종적인 합성화상을 제공하는 단계; 및
    상기 화상추가단계에 의해 제공된 합성화상을 상기 단말기로 배송하는 단계를 포함하는 것을 특징으로 하는 합성화상배송방법.
  36. 물체에 상응하는 타겟화상인 촬영된 장면화상내 포함된 타겟화상을 추출하고, 상기 추출된 타겟화상의 포즈정보를 화상배송장치로 발송하고, 단말기에 의한 포즈정보의 발송에 반응하여 발송된 화상배송장치의 포즈정보에 상응하는 화상을 수신하고, 그리고 상기 상응화상을 상기 촬영된 장면화상에 추가하여 최종적인 합성화상을 출력하는 단말기를 가지고 통신하는 컴퓨터를 제어하는 합성화상배송 프로그램을 저장하고,
    상기 프로그램은 상기 컴퓨터가:
    상기 물체화상에 상응하고 촬영된 장면화상내 포함된 타겟화상의 포즈정보를 상기 단말기로부터 수신하는 포즈정보 수신수단;
    포즈정보의 다른 항목중 각 하나에 각각 상응하는 복수의 화상을 저장하는 상응화상 저장수단; 및
    상기 포즈정부 수신수단에 의해 수신된 포즈정보에 상응하는 화상을 상기 상응화상 저장수단으로부터 판독하고, 상기 판독된 화상을 상기 단말기로 배송하는 화상배송수단으로서 기능하도록 하는 기록매체.
  37. 물체에 상응하는 타겟화상인 촬영된 장면화상내 포함된 타겟화상을 추출하고, 상기 추출된 타겟화상의 포즈정보를 화상배송장치로 발송하고, 단말기에 의한 포즈정보의 발송에 반응하여 발송된 화상배송장치의 포즈정보에 상응하는 화상을 수신하고, 그리고 상기 상응화상을 상기 촬영된 장면화상에 추가하여, 최종적인 합성화상을 출력하는 단말기를 가지고 통신하며,
    상기 촬영된 장면화상내 포함된 타겟화상의 포즈정보를 상기 단말기로부터 수신하는 단계;
    상기 포즈정보의 다른 항목중 각 하나에 각각 상응하는 복수의 화상을 메모리에 저장하는 단계; 및
    상기 포즈정보 수신단계에 의해 수신된 포즈정보에 상응하는 화상을 메모리로부터 판독하고, 상기 판독된 화상을 상기 단말기로 배송하는 단계를 포함하는 것을 특징으로 하는 합성화상배송방법.
  38. 제 29 항에 있어서,
    상기 상응화상 저장메모리에 저장된 화상은 상기 단말기내 상기 촬영된 장면화상으로부터 추출되고, 상기 단말기로부터 수신된 화상인, 그 포즈정보의 항목에 상응하여 저장되는 화상을 포함하는 것을 특징으로 하는 합성화상배송장치.
  39. 제 29 항에 있어서,
    상기 상응화상 저장메모리에 저장된 화상은 상기 단말기에 의해 상기 인터넷으로부터 다운로드되고, 그 포즈정보의 항목에 상응하여 저장되는 화상을 포함하는 것을 특징으로 하는 합성화상배송장치.
KR1020047019273A 2002-05-28 2003-05-28 합성화상출력장치, 합성화상출력방법 및 기록매체 KR100752870B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JPJP-P-2002-00154511 2002-05-28
JP2002154511A JP3918632B2 (ja) 2002-05-28 2002-05-28 画像配信サーバ、画像配信プログラム、及び画像配信方法
JP2002154512A JP3901015B2 (ja) 2002-05-28 2002-05-28 画像出力装置、画像出力処理プログラム、および画像出力方法
JPJP-P-2002-00154512 2002-05-28
PCT/JP2003/006696 WO2003100703A2 (en) 2002-05-28 2003-05-28 Composite image output apparatus and composite image delivery apparatus

Related Child Applications (2)

Application Number Title Priority Date Filing Date
KR1020067014954A Division KR100710508B1 (ko) 2002-05-28 2003-05-28 합성화상출력장치, 합성화상출력방법 및 기록매체
KR1020067014955A Division KR100710512B1 (ko) 2002-05-28 2003-05-28 합성화상배신장치, 합성화상배신방법 및 기록매체

Publications (2)

Publication Number Publication Date
KR20050004885A true KR20050004885A (ko) 2005-01-12
KR100752870B1 KR100752870B1 (ko) 2007-08-29

Family

ID=29585996

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020067014954A KR100710508B1 (ko) 2002-05-28 2003-05-28 합성화상출력장치, 합성화상출력방법 및 기록매체
KR1020047019273A KR100752870B1 (ko) 2002-05-28 2003-05-28 합성화상출력장치, 합성화상출력방법 및 기록매체
KR1020067014955A KR100710512B1 (ko) 2002-05-28 2003-05-28 합성화상배신장치, 합성화상배신방법 및 기록매체

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020067014954A KR100710508B1 (ko) 2002-05-28 2003-05-28 합성화상출력장치, 합성화상출력방법 및 기록매체

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020067014955A KR100710512B1 (ko) 2002-05-28 2003-05-28 합성화상배신장치, 합성화상배신방법 및 기록매체

Country Status (5)

Country Link
US (1) US7787028B2 (ko)
EP (3) EP1508120B1 (ko)
KR (3) KR100710508B1 (ko)
CN (1) CN101119443B (ko)
WO (1) WO2003100703A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8189864B2 (en) 2007-08-29 2012-05-29 Casio Computer Co., Ltd. Composite image generating apparatus, composite image generating method, and storage medium

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9230601B2 (en) 2005-07-01 2016-01-05 Invention Science Fund I, Llc Media markup system for content alteration in derivative works
US9065979B2 (en) 2005-07-01 2015-06-23 The Invention Science Fund I, Llc Promotional placement in media works
US20080028422A1 (en) * 2005-07-01 2008-01-31 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Implementation of media content alteration
US9583141B2 (en) 2005-07-01 2017-02-28 Invention Science Fund I, Llc Implementing audio substitution options in media works
US8203609B2 (en) 2007-01-31 2012-06-19 The Invention Science Fund I, Llc Anonymization pursuant to a broadcasted policy
US8126938B2 (en) 2005-07-01 2012-02-28 The Invention Science Fund I, Llc Group content substitution in media works
US9092928B2 (en) 2005-07-01 2015-07-28 The Invention Science Fund I, Llc Implementing group content substitution in media works
US7860342B2 (en) 2005-07-01 2010-12-28 The Invention Science Fund I, Llc Modifying restricted images
US8126190B2 (en) 2007-01-31 2012-02-28 The Invention Science Fund I, Llc Targeted obstrufication of an image
US9349219B2 (en) * 2006-01-09 2016-05-24 Autodesk, Inc. 3D scene object switching system
WO2007142643A1 (en) * 2006-06-08 2007-12-13 Thomson Licensing Two pass approach to three dimensional reconstruction
JP4757120B2 (ja) * 2006-07-06 2011-08-24 キヤノン株式会社 画像処理装置及びその制御方法
JP5162928B2 (ja) * 2007-03-12 2013-03-13 ソニー株式会社 画像処理装置、画像処理方法、画像処理システム
US9215512B2 (en) 2007-04-27 2015-12-15 Invention Science Fund I, Llc Implementation of media content alteration
US7773099B2 (en) * 2007-06-28 2010-08-10 Mitsubishi Electric Research Laboratories, Inc. Context aware image conversion method and playback system
JP4973622B2 (ja) 2007-08-29 2012-07-11 カシオ計算機株式会社 画像合成装置および画像合成処理プログラム
JP4561803B2 (ja) * 2007-10-03 2010-10-13 ソニー株式会社 撮像装置、画像データの交換方法およびプログラム
JP4970302B2 (ja) 2008-02-14 2012-07-04 富士フイルム株式会社 画像処理装置,画像処理方法及び撮像装置
US8121409B2 (en) 2008-02-26 2012-02-21 Cyberlink Corp. Method for handling static text and logos in stabilized images
JP5105550B2 (ja) * 2009-03-19 2012-12-26 カシオ計算機株式会社 画像合成装置及びプログラム
KR101643602B1 (ko) * 2009-06-24 2016-07-29 삼성전자주식회사 구도 가이드 방법 및 장치, 및 디지털 촬영 장치
JP5553141B2 (ja) * 2009-11-11 2014-07-16 ソニー株式会社 画像処理システム、画像処理装置、画像処理方法、およびプログラム
US20110234850A1 (en) * 2010-01-27 2011-09-29 Kf Partners Llc SantaCam
KR101184876B1 (ko) * 2010-02-11 2012-09-20 삼성전자주식회사 영상과 상호작용이 가능한 캐릭터의 동적 효과를 생성하는 방법 및 장치
JP5024465B2 (ja) * 2010-03-26 2012-09-12 株式会社ニコン 画像処理装置、電子カメラ、画像処理プログラム
US8400564B2 (en) * 2010-05-03 2013-03-19 Microsoft Corporation Image capture
JP5406813B2 (ja) * 2010-10-05 2014-02-05 株式会社ソニー・コンピュータエンタテインメント パノラマ画像表示装置およびパノラマ画像表示方法
US8743244B2 (en) 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
JP5725965B2 (ja) * 2011-04-28 2015-05-27 キヤノン株式会社 撮像装置及びその制御方法
KR101285076B1 (ko) * 2011-09-09 2013-07-17 동국대학교 산학협력단 인간의 행동을 모방하는 가상 객체를 이용한 통신 방법 및 그 방법에 따른 통신 시스템
US9255813B2 (en) * 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
US9025835B2 (en) 2011-10-28 2015-05-05 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US8811747B2 (en) * 2011-10-28 2014-08-19 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US9025836B2 (en) 2011-10-28 2015-05-05 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US9008436B2 (en) 2011-10-28 2015-04-14 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US8938100B2 (en) 2011-10-28 2015-01-20 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
JP2013162221A (ja) * 2012-02-02 2013-08-19 Sony Corp 情報処理装置、情報処理方法、情報処理プログラム
JP5578186B2 (ja) * 2012-02-16 2014-08-27 カシオ計算機株式会社 キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム
US8957915B1 (en) * 2012-06-14 2015-02-17 Cinemagram Inc. Method, apparatus and system for dynamic images
JP2015002423A (ja) * 2013-06-14 2015-01-05 ソニー株式会社 画像処理装置、サーバ及び記憶媒体
JP6119992B2 (ja) * 2013-08-23 2017-04-26 ブラザー工業株式会社 画像処理装置およびコンピュータプログラム
US9146455B2 (en) * 2013-09-09 2015-09-29 Disney Enterprises, Inc. Spatio-temporal video compositing
WO2015038144A1 (en) * 2013-09-13 2015-03-19 Intel Corporation Processing of images of a subject individual
EP2852143A1 (en) * 2013-09-18 2015-03-25 Nokia Corporation Creating a cinemagraph
KR102179386B1 (ko) * 2013-12-16 2020-11-18 삼성전자주식회사 객체 탐지 방법 방법 및 장치.
US9807316B2 (en) * 2014-09-04 2017-10-31 Htc Corporation Method for image segmentation
CN104318596B (zh) * 2014-10-08 2017-10-20 北京搜狗科技发展有限公司 一种动态图片的生成方法以及生成装置
JP6452440B2 (ja) * 2014-12-26 2019-01-16 任天堂株式会社 画像表示システム、画像表示装置、画像表示方法、およびプログラム
US10165199B2 (en) * 2015-09-01 2018-12-25 Samsung Electronics Co., Ltd. Image capturing apparatus for photographing object according to 3D virtual object
EP3557861A4 (en) * 2017-01-31 2019-12-25 NTT DoCoMo, Inc. INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
US10810415B1 (en) * 2018-01-22 2020-10-20 Apple Inc. Low bandwidth transmission of event data
JP6973190B2 (ja) * 2018-03-07 2021-11-24 株式会社Jvcケンウッド 端末装置および通知方法
CN109361879A (zh) * 2018-11-29 2019-02-19 北京小米移动软件有限公司 图像处理方法及装置
KR102646344B1 (ko) * 2019-09-06 2024-03-12 삼성전자주식회사 이미지를 합성하기 위한 전자 장치 및 그의 동작 방법
US11361467B2 (en) * 2019-11-22 2022-06-14 Adobe Inc. Pose selection and animation of characters using video data and training techniques
US11282257B2 (en) 2019-11-22 2022-03-22 Adobe Inc. Pose selection and animation of characters using video data and training techniques
JP7398265B2 (ja) * 2019-12-19 2023-12-14 司 志賀 映像編集システム及び映像編集方法
CN111275800B (zh) * 2020-01-15 2021-09-14 北京字节跳动网络技术有限公司 动画生成方法、装置、电子设备及计算机可读存储介质
CN113709370B (zh) * 2021-08-26 2023-05-09 维沃移动通信有限公司 图像生成方法、装置、电子设备及可读存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9119964D0 (en) * 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
GB9418610D0 (en) * 1994-09-15 1994-11-02 Grace Paul Image manipulation
JP3784104B2 (ja) 1996-06-07 2006-06-07 大日本印刷株式会社 画像合成装置
JPH10126687A (ja) 1996-10-16 1998-05-15 Matsushita Electric Ind Co Ltd すり替え編集システム
US6130677A (en) * 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
JPH11167674A (ja) 1997-12-04 1999-06-22 Hitachi Software Eng Co Ltd 画像プリント作成装置
JP3532105B2 (ja) 1998-04-27 2004-05-31 株式会社リクルート 多数の受信端末に向けて類似文書を編集して配信するファクシミリ受託配信システム
JP2000000216A (ja) 1998-06-12 2000-01-07 Toshiba Eng Co Ltd 行動監視装置および行動監視・支援システム
US6205831B1 (en) * 1998-10-08 2001-03-27 Rayovac Corporation Method for making a cathode can from metal strip
JP2001230972A (ja) 1999-12-09 2001-08-24 Canon Inc 撮像装置、画像合成方法、画像処理装置及び画像処理方法
JP2001292305A (ja) 2000-02-02 2001-10-19 Casio Comput Co Ltd 画像データ合成装置、画像データ合成システム、画像データ合成方法及び記録媒体
JP2001274972A (ja) 2000-03-23 2001-10-05 Matsushita Electric Ind Co Ltd 画像合成送信装置、画像合成受信装置及び印刷物配送方法
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
US6954498B1 (en) * 2000-10-24 2005-10-11 Objectvideo, Inc. Interactive video manipulation
JP4205299B2 (ja) 2000-10-24 2009-01-07 セイコーエプソン株式会社 コンテンツ配信のためのシステム及び方法
JP4310916B2 (ja) 2000-11-08 2009-08-12 コニカミノルタホールディングス株式会社 映像表示装置
US7262798B2 (en) * 2001-09-17 2007-08-28 Hewlett-Packard Development Company, L.P. System and method for simulating fill flash in photography

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8189864B2 (en) 2007-08-29 2012-05-29 Casio Computer Co., Ltd. Composite image generating apparatus, composite image generating method, and storage medium

Also Published As

Publication number Publication date
KR20060095780A (ko) 2006-09-01
EP2357796A2 (en) 2011-08-17
US20050225566A1 (en) 2005-10-13
EP1508120B1 (en) 2014-08-06
CN101119443B (zh) 2011-01-19
US7787028B2 (en) 2010-08-31
EP2357795A3 (en) 2013-05-15
WO2003100703A2 (en) 2003-12-04
KR20060095781A (ko) 2006-09-01
EP2357796A3 (en) 2013-05-15
CN101119443A (zh) 2008-02-06
KR100710512B1 (ko) 2007-04-24
EP1508120A2 (en) 2005-02-23
EP2357795A2 (en) 2011-08-17
WO2003100703A3 (en) 2004-05-27
KR100752870B1 (ko) 2007-08-29
KR100710508B1 (ko) 2007-04-24

Similar Documents

Publication Publication Date Title
KR100752870B1 (ko) 합성화상출력장치, 합성화상출력방법 및 기록매체
CN100382576C (zh) 合成图像输出设备及方法
US20200349386A1 (en) Storing Information for Access Using a Captured Image
WO2011064918A1 (ja) 画像データ作成支援装置および画像データ作成支援方法
CN102572258A (zh) 能再现全景图像的图像再现装置
JP4981370B2 (ja) 動画生成システム、及び動画生成方法
CN109241956A (zh) 合成图像的方法、装置、终端及存储介质
CN103761758A (zh) 一种旅游虚拟人物照相方法及系统
JP2003125361A (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
JP2005020607A (ja) 合成画像出力装置および合成画像出力処理プログラム
CN113014832B (zh) 影像编辑系统及影像编辑方法
KR20180000022A (ko) 가상 오피스 구현 방법
EP1890262A1 (en) Virtual 3D models for display
JP4161769B2 (ja) 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
JP3901015B2 (ja) 画像出力装置、画像出力処理プログラム、および画像出力方法
JP2013214158A (ja) 表示画像検索装置、表示制御システム、表示制御方法、およびプログラム
JP2020137012A (ja) 合成動画像生成装置
JP7306162B2 (ja) サーバ、再生デバイス、コンテンツ再生システム、コンテンツ再生方法、及びプログラム
JP4214019B2 (ja) 画像生成装置及びプログラム
CN108416832B (zh) 媒体信息的显示方法、装置和存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20120802

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20130801

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140808

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150817

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee