KR970004115B1 - 물체화상 표시장치 - Google Patents

물체화상 표시장치 Download PDF

Info

Publication number
KR970004115B1
KR970004115B1 KR1019930028626A KR930028626A KR970004115B1 KR 970004115 B1 KR970004115 B1 KR 970004115B1 KR 1019930028626 A KR1019930028626 A KR 1019930028626A KR 930028626 A KR930028626 A KR 930028626A KR 970004115 B1 KR970004115 B1 KR 970004115B1
Authority
KR
South Korea
Prior art keywords
pattern
object image
voice
image display
mouth
Prior art date
Application number
KR1019930028626A
Other languages
English (en)
Other versions
KR940015885A (ko
Inventor
신이찌로 사이또
슌스께 아까사
히로유끼 요시노
Original Assignee
가시오게이상기 가부시끼가이샤
가시오 가즈오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP4340299A external-priority patent/JPH06187410A/ja
Priority claimed from JP36089692A external-priority patent/JP3298197B2/ja
Priority claimed from JP4360900A external-priority patent/JPH06203127A/ja
Application filed by 가시오게이상기 가부시끼가이샤, 가시오 가즈오 filed Critical 가시오게이상기 가부시끼가이샤
Publication of KR940015885A publication Critical patent/KR940015885A/ko
Application granted granted Critical
Publication of KR970004115B1 publication Critical patent/KR970004115B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

내용 없음.

Description

물체화상 표시장치
제1도는 본 발명의 제1실시예에 관한 물체화상표시장치를 도시하는 외관도.
제2도는 이 제1실시예에 관한 물체화상표시장치의 전자회로구성을 도시하는 블록도.
제3도는 기본부위패턴 ROM의 부위패턴의 격납상태를 도시하는 도면.
제4도는 입패턴 ROM의 입패턴의 격납상태를 도시하는 도면.
제5도는 부위패턴 RAM의 기억상태를 도시하는 도면.
제6도는 입패턴 RAM의 기억상태를 도시하는 도면.
제7도는 몽타주작성처리의 처리순서를 도시하는 플로챠트.
제8도는 부위패턴의 합성처리의 처리순서를 도시하는 플로챠트.
제9도는 입변화 설정모드처리의 처리순서를 도시하는 플로챠트.
제10도는 입변화 표시모드처리의 처리순서를 도시하는 플로챠트.
제11도는 표시부의 표시상태를 도시하는 설명도.
제12A도~제12C도는 표시부에 있어서 각 표시상태를 도시하는 설명도.
제13도는 본 발명의 제2실시예에 관한 물체화상표시장치의 전자회로구성을 도시하는 블록도.
제14도는 입패턴ROM의 입패턴의 격납상태를 도시하는 도면.
제15도는 음성RAM의 기억상태를 도시하는 도면.
제16도는 RAM의 기억상태를 도시하는 도면.
제17도는 입부위패턴 대응시간 RAM의 기억상태를 도시하는 도면.
제18도는 개인데이터 입력처리의 처리순서를 도시하는 플로챠트.
제19도는 입변화설정모드처리의 처리순서를 도시하는 플로챠트.
제20도는 개인데이터 출력처리의 처리순서를 도시하는 플로챠트.
제21A도~제21D도는 표시부에 있어서 각 표시상태를 도시하는 설명도.
제22도는 본 발명의 제3실시예에 관한 물체화상표시장치를 도시하는 외관도.
제23도는 제3실시예에 관한 물체화상표시장치의 전자회로구성을 도시하는 블록도.
제24도는 기본부위패턴ROM의 부위패턴의 격납상태를 도시하는 도면.
제25도는 제1상태변화ROM의 부위패턴과 음성의 격납상태를 도시하는 도면.
제26도는 제2상태변화ROM의 부위패턴과 음성의 격납상태를 도시하는 도면.
제27도는 음성RAM의 음성과 대응하는 음성번호와 격납상태를 도시하는 도면.
제28A도 및 제28B도는 제1 및 제2몽타주RAM에 있어서 부위패턴번호군과 음성번호와의 격납상태를 도시하는 도면.
제29도는 등록처리의 처리순서를 도시하는 플로챠트.
제30도는 상태변화처리의 처리순서를 도시하는 플로챠트.
제31도는 상태변화처리의 다른 처리순서를 도시하는 플로챠트.
제32A~제32D도는 표시부에 있어서 각 표시상태를 도시하는 설명도.
제33도는 본 발명의 제4실시예에 관한 물체화상표시장치의 전자회로의 구성을 도시하는 블록도.
제34도는 부위ROM내의 「눈」의 부위페이지에 있어서 부위패턴의 격납상태를 도시하는 도면.
제35도는 몽타주작성의 기본처리를 도시하는 플로챠트.
제36도는 음성인식에 따르는 몽타주의 합성처리를 도시하는 플로챠트.
*도면의 주요 부분에 대한 부호의 설명*
2 : 표시부6 : 시작키
20 : CPU27 : 합성RAM
39 : 음성인식부40 : 음량검출부
본 발명은 동물이나 건조물 등의 물체화상을 변경시켜서 표시시킬 수 있는 물체화상표시장치에 관한 것이다.
종래부터 인물의 얼굴을 작성하여 등록시켜 두고, 그 등록된 얼굴을 표시할 수 있는 물체화상표시장치가 알려져 있다.
이 물체화상표시장치는 윤곽, 두발형, 눈, 코, 입 등의 얼굴을 구성하고 있는 각각 부위마다에 부위패턴을 각각 복수종류 기억하여 두고, 이 각각의 부위패턴을 각 부위마다에 키조작으로 선택하고, 이 선택된 각 부위패턴을 표시부상에서 조합시키고, 그 조합으로 구성되는 임의의 얼굴을 표시하는 것이다.
그런데, 종래의 물체화상표시장치에서는 일단 작성표시된 얼굴의 형태는 항상 일정하며, 움직임이 없기 때문에 흥미가 적어지고, 일단 작성표시된 얼굴의 형태를 자동적으로 변경할 수 없으므로 예를 들면 동일인물이 희노애락시에 어떻게 그 얼굴이 변화하는 것인지를 키조작을 하지 않고 표시화면상에서 관찰하고 싶다는 요구에 충분이 응할 수 없다는 문제점이 있었다. 또, 일단 작성표시된 얼굴을 변경하려면 복잡한 키조작을 실시하여 각 부위패턴의 조합을 다시 바꾸어야 하는, 얼굴을 변경하기 위한 조작이 번잡하다는 문제점이 있었다.
본 발명은 이러한 과제를 해결하기 위해 이루어진 것이며, 복잡한 키조작을 실시하지 않고, 얼굴, 체형, 건조물 등의 물체화상을 자동적으로 변경시킬 수 있는 물체화상표시장치를 제공하는 것을 목적으로 한다.
또, 본 발명은 사용자의 감정이나 기분 등에 따라 물체화상을 변경시키는 것이 가능한 물체화상표시장치를 제공하는 것을 목적으로 한다.
본 발명은 이러한 목적을 달성하기 위해 물체의 각 부위 각각에 대응하는 부위패턴의 조합으로 구성되는 물체화상을 기억하는 물체화상기억수단과, 상기 물체화상기억수단에 기억되어 있는 물물체화상을 표시하는 물체화상표시수단과, 상기 물체화상표시수단에 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 같은 부위의 다른 부위패턴으로 연속적으로 변경하고, 상기 물체화상의 적어도 일부가 연속적으로 움직이도록 표시시키는 변경수단을 구비하고 있다.
또, 본 발명은 물체의 각 부위 각각에 대응하는 부위패턴의 조합으로 구성되는 물체화상을 기억하는 물체화상기억수단과, 상기 물체화상기억수단에 기억되어 있는 물체화상을 표시하는 물체화상표시수단과, 문자데이터를 설정가능한 문자데이터설정수단과, 상기 문자데이터설정수단에 의해 설정된 문자데이터를 순차 판독하는 판독수단과, 상기 판독수단에 의해 순차 판독된 문자데이터에 따라 상기 물체화상 표시수단에 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 같은 부위의 다른 부위패턴으로 연속적으로 변경하고, 상기 물체화상의 적어도 일부가 연속적으로 움직이도록 표시시키는 변경수단을 구비하고 있다.
또, 본 발명은 물체의 각 부위 각각에 대응하는 부위패턴의 조합으로 구성되는 물체화상을 기억하는 물체화상기억수단과, 상기 물체화상기억수단에 기억되어 있는 물체화상을 표시하는 물체화상표시수단과, 외부에서 입력되는 음성을 인식하는 음성인식수단과, 상기 음성인식수단으로 인식된 음성의 내용에 따라 상기 물체화상표시수단에 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 같은 부위의 다른 부위패턴으로 변경하고, 상기 물체화상의 적어도 일부가 움직이도록 표시시키는 변경수단을 구비하고 있다.
이하, 도면에 의거하여 본 발명의 각 실시예에 대하여 설명한다.
[실시예 1]
제1도~제12C도는 발명의 제1실시예를 나타낸다.
우선 이 제1실시예에 관한 물체화상표시장치의 구성을 설명한다.
제1도는 본 실시예에 관한 물체화상표시장치의 개략구성을 도시하는 외관이다.
제1도에 있어서, 물체화상표시장치(M)는 경첩형부재(IC)를 통하여 개폐자유롭게 연결된 표시/조작패널(1a)과 데이터 입력패널(1b)로 구성되어 있다.
표시/조작패널(1a)에는 액정패트릭스표시장치 등으로 구성된 표시부(2), 스피커(3)와 각종 조작키가 배설되어 있다.
각종 조작키중, 중요한 것을 설명하면 상기 표시부(2)의 하부에는 몽타주 작성/표시모드를 설정할 때에 조작되는 몽타주작성모드선택키(MS)가 배설되어 있다. 또, 그 아래쪽에는 이야기 기능을 동작시킬 때에 조작되는 이야기키(4), 각종모드를 설정할 때에 조작되는 모드설정키(5), 몽타주의 동작을 개시시킬 때에 조작되는 시작키(6), 몽타주의 입을 움직일 때에 조작되는 입변화키(7), 전원의 ON/OFF 키(8), 작성한 몽타주 등을 등록할 때에 조작되는 등록키(13), 표시부(2)에 표시된 각종 데이터의 지정 등을 실시한 때에 조작되는 커서이동키를 겸한 기본형선택키(9), 변경부위선택키(10), 패턴변경키(11), 입력된 데이터를 등록할 때에 조작되는 OK키(12) 등이 배설되어 있다.
또, 데이터입력패널(1b)에는 수치데이터를 입력할 때에 조작되는 텐키(14)와, 문자데이터를 입력할 때에 조작되는 알파벳키(15)가 배설되어 있다.
상기 몽타주작성모드선택키(MS), 이야기키(4), 시작키(6), 텐키(14), 알파벳키(15) 등에 의해 키입력부가 구성되어 있다.
다음에 이 제1실시예에 관한 물체화상표시장치(M)의 회로구성을 제2도에 따라 설명한다. 물체화상표시장치(M)는 CPU(Central Processing Unit)(20)에 ROM(21), RAM(24), 키입력부(1), 표시부(2) 및 합성RAM(27) 등이 접속되어 구성되어 있다.
CPU(20)는 키입력부에서 공급된 키조작신호에 의거하여 ROM(21)에 격납되어 있는 각종 제어프로그램에 따라 기본부위패턴ROM(22), 입부위패턴ROM(23)이나 RAM(24), 부위패턴ROM(25), 입부위패턴ROM(26)과의 사이에서 각종 데이터의 주고받음을 실시하면서 각종 동작에 필요한 연산처리를 실시하고, 그 연산처리에 의거하여 물체화상표시장치(M)의 각부를 제어하기 위한 각종 제어신호를 출력한다.
ROM(21)은 기본부위패턴ROM(22)과 입부위패턴ROM(23)을 구비하고 있고, RAM(24)은 부위패턴ROM(25)과 입패턴RAM(26)으로 구성되어 있다.
기본부위패턴ROM(22)에는 제3도에 도시하는 바와 같이 몽타주작성의 기초가 되는 각부위 마다의 복수종류의 부위패턴이 격납되어 있다. 복수종류의 부위패턴은 윤곽, 두발형, 눈, 코, 입 등의 각 부위 별로 분류되어 있고, 기본부위패턴ROM(22) 부위패턴기억영역(22a)에 어드레스지정(번호붙임)된 비트 맵 데이터로서 격납되어 있다.
예를 들면 「윤곽」을 나타내는 부위의 부위패턴용 부위패턴기억영역(22a)은 "1번지 (No. 01)"부터 "50번지 (No. 50)"로 분류되어 있고, 그 "1번지 (No. 01)"에는 「사각형얼굴의 윤곽부위패턴」이, "2번지 (No. 02)"에는 「조금 각진얼굴의 윤곽부위패턴」이, 마지막인 "50번지 (No. 50)"에는 「가름한 얼굴의 윤곽부위패턴」이 격납되어 있다.
또, 「두발형」을 나타내는 부위패턴용 부위패턴기억영역(22a)에는 마찬가지로 "1번지 (No. 01)"부터 "50번지 (No. 50)"으로 구분되어 있고, 이 "1번지 (No. 01)"에는 「긴 두발형 부위패턴」, "2번지 (No. 02)"에는 「7대3으로 분할된 두발형부위패턴」이, 마지막의 "50번지 (No. 50)" 「대머리형 부위패턴」이 격납되어 있다.
또, 마찬가지로 하여 「눈」부위의 부위패턴, 「코」부위의 부위패턴, 「입」부위의 부위패턴용 부위패턴기억영역(22a)에도 복수종류의 부위패턴이 격납되어 있다.
또, 본 실시예에서는 부위패턴기억영역(22a)에 인간의 얼굴을 모티브로 한 부위패턴을 격납한 경우에 대하여 서술했지만 이것에 한정되지 않고, 동물, 우주인의 얼굴 외에 건조물 등의 물체를 구성하는 부위패턴을 격납하도록 해도 좋다.
한편, 제4도에 도시하는 바와 같이 입패턴ROM(23)의 각 부위패턴기억영역(23a)에는 기본부위패턴ROM(22)에 있어서, 「입」부위의 부위패턴부위패턴번호의 「01」~「50」에 각각 대응하여 입을 여는 방법이 다른 「입」의 부위패턴이 「01」~「150」까지 번호가 붙여져서 격납되어 있다.
예를 들면 입패턴ROM(23)에 있어서 부위패턴번호의 「01」의 부위패턴기억영역(23a)에는 「01」~「150」의 기억영역으로 구분되어 있다. 우선, 기억영역의 「No. 1」에는 「입을 다문 부위패턴」이 격납되고, 기억영역의 「No. 1」에는 「조금 입을 연 부위패턴」이 격납되고, 기억영역의 「No. 3」에는 「입을 조금 옆으로 넓게 연 부위패턴」이 격납되어 있다.
부위패턴번호의 「02」~「50」의 부위패턴기억영역(23a)에도 마찬가지로 「01」~「150」의 기억영역으로 분류되어 있고, 마찬가지로 각 기억영역(23a) 마다에 입의 열리는 방법이 다른 입부위패턴이 각각 격납되어 있다.
상기 RAM(Random Access Memory)(24)는 키입력부에서 입력된 이름, 전화번호 등의 개인데이터가 기억되도록 되어 있다.
제5도에 도시하는 바와 같이 이 RAM(24)을 구성하고 있는 부위패턴RAM(25)의 기억영역(25a)에는 개인별 얼굴을 구성하기 위한 각 부위패턴에 대응하는 부위패턴번호군이 각 부위마다에 번호가 붙여져 격납되도록 되어 있다.
예를 들면, 개인을 나타내는 「갑」을 구성하는 각 부위패턴에 대응하는 기억영역(25a)에는 「갑」의 얼굴을 구성하는 각 부위패턴에 대응하는 부위패턴번호군(GP1)이 격납되어 있다. 이 실시예에서는 「갑」의 얼굴에 대응하는 부위패턴번호군(GP1)은 기본부위패턴ROM(22)에 있어서 「윤곽」의 부위패턴인 「No. 01」, 「두발형」의 부위패턴인 「No. 03」, 「눈」의 부위패턴인 「No. 02」, 「코」의 부위패턴인 「No. 50」, 「입」의 부위패턴인 「No. 01」…로 구성되어 있다.
또, 「을」얼굴을 구성하는 각 부위패턴에 대응하는 부위패턴번호군(GP2)은 「윤곽」의 부위패턴인 「No. 03」, 「두발형」의 부위패턴인 「No. 02」, 「눈」의 부위패턴인 「No. 01」, 「입」의 부위패턴인 「No. 03」…로 구성되어 있다. 이후 마찬가지로 하여 각 개인별로 부위패턴번호군이 격납되도록 되어 있다.
제6도에 도시하는 바와 같이 입패턴RAM(26)은 상기 부위패턴RAM(25)의 부위패턴번호군에 의거하여 작성되는 얼굴의 몽타주화상을 시간의 경과에 따라 변경할 때에 사용되는 복수의 입의 부위패턴에 대응한 입부위패턴번호군이 어드레스의 번호에 따라 순차 격납되도록 되어 있다.
예를 들면 「갑」의 입부위패턴인 경우는 어드레스번호인 「0」, 「1」…의 순으로, 입부위패턴에 대응한 「01」, 「02」, 「04」, 「03」, 「08」, 「10」, 「05」…와 같이 입부위패턴번호군(KP1)이 격납되어 있다. 또, 「을」의 입부위패턴의 경우도 마찬가지로 어드레스번호인 「0」, 「1」…의 순으로「03」, 「15」, 「20」, 「17」, 「09」, 「30」, 「01」…와 같이 입부위패턴번호군(KP2)이 격납되어 있다.
이후, 마찬가지로 각 개인마다에 입부위패턴번호군이 각각 격납되도록 되어 있다.
다음에 제7도 내지 제10도에 도시하는 플로챠트에 의거하여 제1실시예에 관한 물체화상표시장치(M)로 실해되는 주요한 처리의 처리순서에 대하여 설명한다.
우선, 제7도에 도시하는 몽타주작성처리의 처리순서를 설명한다.
이 처리는 어느 인물의 얼굴의 화상을 사용자의 키조작에 따라 각부위마다의 부위패턴의 조합에 의거하여 작성하는 처리이다.
우선, 스텝(S100)에서 몽타주작성모드선택키(MS)가 입력되었는지 아닌지가 판단된다. 입력되어 있지 않다고 판정한 경우에는 루프를 형성하여 대기상태가 되고, 입력되었다고 판정된 경우에는 스텝(S101)으로 이행한다.
스텝(S101)에서는 RAM(24)내에 제1 기본형으로 지정하는 번호(예를 들면 제3도의 경우는 기본부위패턴ROM(22)내의 부위패턴번호인 「01」을 초기설정으로 하여 설정함과 동시에 변경대상이 되는 부위를 지정하는 번호(예를 들면 「윤곽」에 대응하는 부위번호라면 「1」)를 초기설정하고 나서 스텝(S102)을 이행한다.
스텝(S102)에서는 스텝(S101)에서 초기설정된 제1의 기본형을 지정하는 부위패턴번호의 「01」에 대응하는 각 부위패턴을 기본부위패턴ROM(25)에서 순차 판독하여 그 각 부위패턴을 합성RAM(27)에 일시적으로 기억하여 합성하기 위한 부위패턴 합성처리의 서브루틴을 실행하고 나서 스텝(S103)으로 이행한다.
여기에서 부위패턴의 합성처리에 대하여 제8도에 도시하는 플로챠트를 참조하여 설명한다.
우선, 스텝(S1021)에서는 상기 스텝(S101)에서 초기설정된 각 부위마다의 부위패턴번호인 「01」중, 부위번호의 「1」로 표시되는 「윤곽」에 대응하는 부위패턴번호(여기에서는 「01」)를 판독하고 나서 스텝(S1022)으로 이행하고, 그 부위패턴번호 「01」에 대응하는 「윤곽」의 부위패턴을 기본부위패턴ROM(22)에서 판독하여 그 부위패턴을 합성RAM(27)으로 전송하고 나서 스텝(S1023)으로 진행한다.
스텝(S1023)에서 다음의 부위번호인 「2」로 표시되는 「두발형」에 대응하는 부위패턴번호(여기에서도 「01」)를 판독하고 나서 스텝(S1024)으로 이행하고, 그 부위패턴번호 「01」에 대응하는 부위패턴을 기본부위패턴ROM(22)에서 판독하여 그 부위패턴을 합성RAM(27)에 전송하고 나서 스텝(S1025)으로 진행한다. 이 스텝(S1025)에 있어서, 이하 부위번호인 「3」으로 도시되는 「눈」, 「4」로 도시되는 「코」, 「5」로 도시되는 「입」의 부위패턴에 대해서도 마찬가지로 각각의 「01」의 부위패턴번호에 대응하는 각 부위패턴을 기본부위패턴ROM(22)에서 순차판독하고, 합성RAM(27)에 전송하고 나서 스텝(S1026)으로 이행한다. 이 결과, 부위패턴번호인 「01」에 대응하는 부위패턴이 각 부위마다에 기본부위패턴ROM(22)에서 판독되어 각 부위패턴이 합성RAM(27)으로 전송되어 그 합성RAM(27)에 일시적으로 기억된다.
스텝(S1026)에서는 합성RAM(27)로 각 부위패턴이 합성된 하나의 얼굴화상(F1)이 표시구동회로(35)의 제어에 의해 표시부(2)에 표시(제11도 참조)하고 나서 제7도의 스텝(S103)의 처리로 복귀하게 된다.
한편, 제7도의 스텝(S103)에서는 스텝(S1026)에서 표시부(2)에 표시되어 있는 얼굴화상(F1)에 대응하는 부위패턴번호를 각 부위명과 함께 표시하고, 또 상기 얼굴(F1)의 옆에는 상기 기본부위패턴ROM(22)내의 전체부위패턴(P)의 표시형식으로 일람표시(제11도 참조)하고 나서 스텝(S104)으로 진행한다.
스텝(S104)에서는 표시/조작패널(1a)의 기본형 선택키(9)중 무언가가 입력되었는지 어떤지를 판정된다. 입력되었다고 판정된 경우에는 스텝(S105)으로 진행하여 기본형을 지정하는 번호를 변경(여기에서는 제1 기본형을 나타내는 번호인 「01」에서 제2기본형을 나타내는 번호인 「02」로 변경)하고 나서 상기 스텝(S102)의 부위패턴 합성처리로 복귀한다. 반대로, 입력되어 있지 않다고 판정한 경우에는 스텝(S106)으로 이행한다.
따라서, 상기 스텝(S104)에 있어서 기본형선택키(9)를 조작할 때마다 표시부(2)에 표시되는 얼굴의 기본형이 순차 변경된다. 즉, 기본형선택키(9)가 늘려질 때마다 기본형을 지정하는 번호가 「01」→「02」→「03」…라는 식으로 순차 변경된다. 이 때문에 조작자가 희망하는 기본형의 얼굴화상을 기본형선택키(9)의 조작으로 선택할 수 있다.
스텝(S106)에서는 변경부위선택키(10)중 무언가가 입력되었는지 아닌지가 판정되고, 입력되었다고 판정된 경우에는 스텝(S107)으로 진행하여 변경하는 부위번호를 현재 초기설정되어 있는 「윤곽」의 「1」에서 「두발형」의 부위번호를 나타내는 「2」로 변경하고 나서 상기 스텝(S102)의 부위패턴 합성처리 복귀하고, 입력되어 있지 않다고 판정된 경우에는 스텝(S108)으로 이행한다.
따라서, 상기 스텝(S106)에서 변경부위선택키(10)를 조작할 때마다 표시부(2)에 표시되어 있는 기본형의 얼굴을 구성하고 있는 각 부위 중에서 변경하고 싶은 부위가 순차 「윤곽」→「두발형」→「눈」→… 이런 식으로 변경되므로 조작자는 원하는 부위를 변경부위선택키(10)의 조작으로 선택할 수 있다.
또, 제11도에서 방사상의 선으로 도시하는 바와 같이 표시부(2)에 표시된 기본형의 얼굴을 구성하는 각 부위패턴에 대응하는 부위패턴번호군중의 변경부위선택키(10)의 조작으로 변경된 부위의 부위명(이 경우, 「두발형」)과 그 부위번호(이 경우 「두발형」을 나타내는 「02」)를 점멸표시하고 변경부위선택키(10)의 조작에 의해 현재 선택된 부위명 및 부위패턴번호를 눈으로 확인하도록 되어 있다.
스텝(S108)에서는 패턴변경키(11)중 무언가가 입력되었는지 아떤지가 판정된다. 입력되었다고 판정된 경우에는 스텝(S109)으로 진행하여 부위패턴번호를 변경한다. 예를 들면 상기 스텝(S107)에서 「두발형」의 부위가 지정되어 있는 경우에는 「두발형」의 부위패턴번호를 「01」에서 「02」로 변경한다. 그후, 상기 스텝(S102)의 부위패턴 합성처리 복귀한다. 입력되어 있지 않다고 판정된 경우에는 스텝(S110)으로 이행한다.
따라서, 상기 스텝(S108)에서 패턴변경키를 조작할 때마다 표시부(2)에 표시중인 부위패턴을 달리하는 같은 부위의 다른 부위패턴으로 변경할 수 있기 때문에 조작자는 원하는 부위패턴을 선택할 수 있다.
또, 제11도에서 방사상의 선으로 도시하는 바와 같이 표시부(2)에 표시된 기본형의 얼굴을 구성하는 각 부위패턴에 대응하는 부위패턴 번호군중의 패턴변경키(11)의 조작으로 변경된 부위패턴번호 대응하는 부위패턴(이 경우, 「두발형」의 부위패턴번호가 「02」에 대응하는 부위패턴)을 점멸표시하고, 패턴변경키(11)의 조작에 의해 현재 선택된 부위패턴을 눈으로 확인할 수 있도록 되어 있다.
스텝(S110)에서는 등록키(13)가 입력되었는지의 여부가 판정된다. 입력되어 있지 않다고 판정된 경우에는 스텝(S111)으로 이행하여 상기 스텝(S104)~스텝(S109)의 실행에 의해 변경된 얼굴(F2)에 등록하고 나서 처리를 종료한다.
이 몽타주 작성처리에 의해 조작자가 작성하고자 하는 얼굴을 쉽고 신속하게 작성하여 그 얼굴을 등록하는 것이 가능하게 된다.
다음에 제9도의 플로챠트에 의거하여 입변화설정모드처리의 처리순서를 설명한다.
이 입변화설정모드처리는 모드설정키(5)의 조작에 의해 입번호설정모드가 설정되었을 때 실행되는 처리이며, 입의 변화패턴을 설정, 등록하는 처리이다.
우선 스텝(S200)에서는 전술한 작성처리로 미리 등록한 복수의 얼굴몽타주중에서 하나의 등록된 얼굴의 몽타주(예를 들면 얼굴(F2)의 몽타주)를 OK키(12)의 조작으로 선택하고 나서 스텝(S201)으로 이행한다.
스텝(S201)에서는 입변화키(7)가 입력되었는지의 여부가 판정된다. 입력되어 있지 않다고 판정된 경우에는 루프를 형성하여 입변화키(7)가 입력될 때까지 대기한다. 입력되었다고 판정된 경우에는 스텝(S202)으로 진행하고, 상기 스텝(S200)에서 선택된 등록된 몽타주(F2)의 입부위패턴번호(이 예에서는 「01」)에 대응하는 부위패턴을 입패턴ROM(23)에서 판독하여 스텝(S203)으로 이행한다.
스텝(S203)에서는 선택되어 있는 얼굴(F2)을 구성하고 있는 「입」의 부위패턴에 대응한 모든 「입」의 부위패턴을 입패턴ROM(23)에서 판독하여 그것을 대응하는 부위패턴번호와 함께 일괄표시(제12A도 참조)하고 나서 스텝(S204)으로 이행한다. 이 스텝(S204)에서는 패턴변경키(11)의 조작에 의해 시간의 경과에 따라 변경시키고 싶은 「입」의 부위패턴을 선택하여 스텝(S205)으로 진행한다.
스텝(S205)에서 선택관 「입」의 부위패턴에 대응하는 부위패턴번호를 입패턴RAM(26)에 등록한다. 예를 들면 「갑」의 경우는 어드레스번호의 「0」에는 「입」부위패턴에 대응하는 부위패턴번호인 "1"을 등록한다. 그후, 스텝(S206)으로 이행하고, 입패턴RAM(26)의 어드레스번호를 "1"만큼 증가시키고 나서 스텝(S207)으로 진행한다.
스텝(S207)에서는 OK키(12)가 입력되었는지의 여부가 판정된다.
입력되어 있지 않다고 판정된 경우에는 상기 스텝(S203)으로 복귀하여 다시 다른 「입」의 부위패턴을 선택하고, 그것에 대응하는 부위패턴번호를 기억하는 처리를 계속하여 실시하고, OK키(12)가 입력된 경우에는 해당처리를 종료한다.
이 처리에 의해 선택되어 있는 얼굴(F2)의 대해 조작자가 변경을 원하는 입의 변화패턴을 자유롭게 설정할 수 있다. 예를 들면 「갑」의 경우는 제6도의 부위패턴번호군(KP1)과 같은 패턴, 「을」의 경우는 제6도의 부위패턴번호군(KP2)와 같은 패턴을 자유롭게 설정할 수 있다.
다음에 제10도에 도시하는 플로챠트에 의거하여 입변화모드처리의 처리순서에 대하여 설명한다.
이 입변화모드처리는 등록된 얼굴중 입이 열리는 방법을 시간의 경과에 따라 변화시키는 처리이다.
우선, 스텝(S301)에서, 등록된 다수의 얼굴몽타주중에서 하나의 등록된 몽타주(예를 들면 얼굴(F2)의 몽타주)를 선택하고 나서 스텝(S301)으로 이행한다.
스텝(S301)에서는 상기 스텝(S300)에서 선택한 얼굴(F2)을 구성하고 있는 부위패턴에 대응하는 부위패턴번호군(HP1)을 부위패턴RAM(25)에서 판독하고, 그 부위패턴번호군(HP1)에 따라 각 부위패턴을 기본부위패턴ROM(22)에서 판독하여 합성하고, 합성된 얼굴(F2)을 표시부(2)에 표시(제12A도 참조)하고 나서 스텝(S302)으로 이행한다.
스텝(S302)에서 시작키(6)가 입력되었는지의 여부가 판정된다. 입력되어 있지 않다고 판정된 경우에는 루프를 형성하여 스타트키(6)가 입력될 때까지 대기하고, 입력되었다고 판정된 경우에는 스텝(S303)으로 진행한다.
스텝(S303)에서 상기 스텝(S300)에서 선택한 얼굴(F2)의 몽타주에 대응하는 입부위패턴번호(이 예에서는 「갑」의 경우, 제6도의 부위패턴번호군(KP1)의 어드레스번호의 「1」에 대응하는 입부위번호인 「2」를 입패턴RAM(26)에서 판독하여 스텝(S304)으로 이행한다.
스텝(S304)에서 표시중인 입부위패턴에 대응하는 입패턴번호(No. 01)에서 상기 스텝(S303)에서 판독한 입패턴번호(No. 02)로 교체하고 나서 스텝(S305)으로 진행한다. 교체된 부위패턴번호(No. 02)에 대응하는 입부위패턴이 현재 표시중인 다른 각 부위패턴과 합성된 얼굴(F2A)의 몽타주표시부(2)에 표시(제12B도 참조)하여 스텝(S306)으로 진행한다.
스텝(S306)에서는 소정시간이 경과되었는지의 여부가 판정된다. 경과되지 않았다고 판정된 경우에는 소정시간에 도달할 때까지 대기한다. 경과되었다고 판정된 경우에는 스텝(S307)으로 이행한다.
스텝(S307)에서는 모든 입패턴번호의 판독이 종료되었는지의 여부가 즉, 입패턴RAM(26)의 어드레스번호의 마지막까지 도달되었는지의 여부가 판정된다. 아직 종료되지 않았다고 판정된 경우에는 스텝(S308)으로 이행하여 다음의 어드레스의 어드레스번호의 「2」로 표시되는 입부위패턴의 (No. 04)를 판독하고 나서 스텝(S304)으로 복귀하고, 다시 표시중의 입패턴번호인 (No. 02)와 상기 스텝(S303)에서 판독한 입패턴번호인 (No. 04)로 교체하고 나서 스텝(S305)으로 진행한다. 교체된 입부위패턴번호 (No. 04)에 대응하는 입부위패턴과 현재 표시중인 같은 부위의 다른 부위패턴과 합성된 얼굴(F2B)의 몽타주를 표시부(2)에 표시(제12C도 참조)하여 스텝(S306) 이후로 진행하고, 스텝(S307)에서 모든 입부위패턴번호의 판독이 종료되었다고 판정될 때까지 스텝(S304~S308)의 처리를 반복하여 실시한다.
또, 상기 스텝(S307)에서 모든 입부위패턴번호의 판독이 종료되었다고 판정된 경우, 즉 입패턴RAM(26)의 어드레스번호의 최종까지 도달되었다고 판정된 경우에는 처리를 종료한다.
이 처리에 의해 등록된 다수의 얼굴몽타주중에서 선택된 하나의 등록된 얼굴(F2)이 표시부(2)에 표시된 후에 스타트기(63)가 입력되면 그 얼굴(F2)중의 「입」의 부분만이 제12A~제12C도에 도시하는 바와 같이 입패턴RAM(26)에 격납된 입부위패턴에 의거하여 시간경과에 따라 변화시킬 수 있기 때문에 마치 그 인물이 이야기하는 것처럼 보이는 것이 가능하게 된다.
또, 본 실시예에서는 얼굴몽타주의 일부분만을 변화시키는 경우에 대하여 설명했지만 이것에 한정되지 않고, 예를 들면 제12C도에 도시하는 바와 같이 입 외에 아울러서 손(F2C)을 움직이도록 할 수도 있다. 그 경우에는 본 실시예와 마찬가지로 손패턴RAM을 또한 설치하여 그 손패턴RAM의 각 어드레스에 복수종류의 손패턴번호를 등록하고, 그것에 대응하는 손의 부위패턴을 순차 판독하여 표시하게 된다. 또, 마찬가지로 하여 얼굴몽타주의 다른 부위(눈썹, 눈, 코 등)를 변화시켜서 표시하는 것도 가능하다.
[실시예 2]
다음에 제13도~제21D도에 의거하여 본 발명의 제2실시예를 설명한다.
제13도는 이 제2실시예에 관한 물체화상표시장치(MA)의 회로구성의 일례를 도시하는 블록도이다. 또, 제1실시예의 경우와 같은 구성요소에는 같은 지시부호를 붙여서 그 구성요소의 상세한 설명은 생략한다.
물체화상표시장치(MA)는 CPU(20)에 ROM(21), 기본부위패턴ROM(22), 입패턴ROM(30), 음성ROM(31), RAM(24), 개인데이터부위패턴RAM(32), 입부위패턴대응시간RAM(33), 키입력부(1), 음성합성성부(35), 증폭기(36), 표시부(2) 및 합성RAM(27) 등이 접속되어 구성되어 있다.
CPU(20)은 그 내부에 시간계측을 위한 타이머(34)를 구비하고 있다.
각 패턴ROM(30)내에는 제14도에 도시하는 바와 같이 무음상태와 오십음(아, 이, 우, 에, 오…와, 응)의 각 발음마다에 대응하는 오십수종류(탁음 등을 포함한다)의 입을 벌리는 방법을 한, 입술의 형태가 다른 복수종류의 부위패턴이 대응하는 음절문자(아, 이, 우, 에, 오…)와 함께 격납되어 있다.
입패턴ROM(30)내에는 예를 들면 기본부위패턴ROM(22)내의 각 부위패턴번호 01~50의 입술형태별로 「무음」, 「아」, 「이」, 「우」, …의 각 음을 발음할 때의 입을 벌리는 방법에 대응하는 형상의 입부위패턴이 각각 격납되어 있다.
또, 음성ROM(31)에는 제15도에 도시하는 바와 같이 오십음(아, 이, 우, 에, 오…와, 응)의 각 음에 각각 대응하는 음성이 샘플링데이터로서 격납되어 있다. 또, "다", "가" 등의 탁음이나 "빠", "삐" 등의 반탁음 등도 마찬가지로 샘플링 데이터로서 격납되어 있다.
또, 각 음절문자에는 번호(무음은 「No. 0」, "아"는 「No. 1」, "이"는 「No. 2」…02)가 붙여져 있다.
RAM(24)은 제16도에 도시하는 바와 같이 성명, 전화번호, 얼굴의 몽타주 데이터(부위패턴번호군), 음성데이터, 입부위패턴 등이 기억되도록 되어 있다.
이 실시예에는 「相田 健(상전 건)」과, 그 발음 「아이다 겐」과, 전화번호인 「03(300)***」과, 그 발음 「영삼삼영영…」과, 「아이다 겐」의 얼굴부위 패턴번호군(GP1)(이 예에서는 「윤곽」의 부위패턴으로서의 「No. 01」, 「두발형」부위패턴으로서의 「No. 50」, 「눈」의 부위패턴으로서의 「No. 01」, 「코」의 부위패턴으로서의 「No. 03」, 「입」의 부위패턴으로서의 「No. 01」)과, 「아이다 겐」의 발음에 대응하는 음성데이터, 입부위패턴 및 「전화번호」의 발음에 대응하는 음성데이터·입부위패턴이 격납되어 있다.
또, 이름의 「大化 九太郞」과 발음 「오오바 구다로우」와, 전화번호인 「0425(53)****」과, 그 발음 「영사이오오삼…」과 「오오바 구다로우」의 얼굴의 부위패턴번호군(GP2)(이 예에서는 「윤곽」의 부위패턴으로서의 「No. 02」, 「두발형」의 부위패턴으로서의 「No. 01」, 「눈」의 부위패턴으로서 「No. 03」, 「코」의 부위패턴으로서의 「No. 50」, 「입」의 부위패턴으로서의 「No. 03」)과, 「오오바 구다로우」의 발음에 대응하는 음성데이터, 입부위패턴 및 「전화번호」의 발음에 대응하는 음성데이터, 입부위패턴이 격납된다. 이후 마찬가지로 하여 다른 음성데이터, 입부위패턴이 격납된다.
또, 입부위패턴대응시간RAM(33)은 제17도에 도시하는 바와 같이 입부위패턴으로서 입패턴ROM(30)내의 오십음중 무엇에 대응하는 번호와, 그 입부위패턴번호 및 대응하는 음성의 출력시간이 어드레스 지정되어 격납되도록 되어 있다.
이 실시예에서는 입부위패턴 대응시간RAM(33)내의 어드레스번호 1에는 입부위패턴번호 1(음절문자 "아"에 대응)과 출력시간 "3초"가 격납되고, 어드레스번호 2에는 입부위패턴번호 2(음절문자 "이"에 대응)과 출력시간 "2초"가 격납되고, 또 어드레스번호 3에는 입부위패턴번호 30(음절문자 "다"에 대응)과 출력시간 "3초"가 격납되어 있다.
이후, 각 어드레스마다에 입부위패턴의 번호와 출력시간이 각각 격납되도록 되어 있다.
다음에 제18도에서 제20도에 도시하는 플로챠트를 참조하여 이 제2실시예에 관한 물체화상표시장치(MA)에 있어서 각종처리의 처리순서를 설명한다.
우선, 제18도의 플로챠트에 의거하여 개인데이터 입력처리의 처리순서를 설명한다.
이 개인데이터 입력처리 성명, 전화번호, 얼굴몽타주 데이터 등을 입력하여 등록하는 처리이다.
우선, 스텝(S400)에서 모드설정치(5)를 조작하여 개인데이터입력모드에 설정하고 나서 스텝(S401)으로 이행한다.
스텝(S401)에서는 표시부(2)에 「이름은?」이라고 표시하고 나서 스텝(S402)으로 이행하고, 기입력부(1a)의 조작에 의해 이름(예를 들면 "아이다 겐"을 입력하여 스텝(S403)으로 진행한다.
스텝(S403)에서는 상기 스텝(S402)에서 입력된 이름("아이다 겐")을 한자변환하여("아이다 겐"→"相田 健")에서 스텝(S404)으로 이행한다.
스텝(S404)에서는 OK키(12)가 입력되었는지의 여부가 판정되고, 입력되어 있지 않다고 판정된 경우에는 상기 스텝(S403)으로 복귀하여 원하는 한자로 변환될 때까지 처리를 반복하고, OK키(12)가 입력되었다고 판정된 경우에는 스텝(S405)으로 진행한다.
스텝(S405)에서는 상기 스텝(S403)에서 변환된 한자데이터를 RAM(24)에 기억하고 나서 스텝(S406)으로 이행한다.
스텝(S406)에서는 표시부(2)에 「이름의 발음은?」이라고 표시하여 스텝(S407)으로 이행하고, 키입력부(1)의 조작으로 이름의 발음(이 예에서는 "아이다 겐")을 입력하고 나서 스텝(S408)으로 진행한다.
스텝(S408)에서 OK키(12)가 입력되었는지의 여부가 판정되고, 입력되어 있지 않다고 판정된 경우에는 상기 스텝(S407)으로 복귀하여 이름의 발음을 고쳐놓고, OK키(12)가 입력되었다고 판정된 경우에는 스텝(S409)으로 진행한다.
스텝(S409)에서는 상기 스텝(S407)에서 입력된 이름의 발음의 음절데이터를 RAM(24)에 기억하고 나서 스텝(S410)으로 이행한다.
스텝(S410)에서는 표시부(2)에 「TEL?」이라고 표시하여 스텝(S411)으로 이행하고, 키입력부(1)의 텐키(14)의 조작에 의해 전화번호(이 예에서는 03(30****)을 입력하고 나서 스텝(S412)로 진행하고, OK키(12)가 입력되었는지의 여부가 판정되고, 입력되어 있지 않다고 판정된 경우에는 상기 스텝(S411)으로 복귀하여 전화번호를 다시 입력하고, OK키(12)가 입력되었다고 판정된 경우에는 스텝(S413)으로 진행한다.
스텝(S413)에서는 상기 스텝(S411)에서 입력된 전화번호(03(300)****)와 그 발음을 나타내는 음절데이터(영삼삼영영...)를 RAM(24)에 기억하고 나서 스텝(S414)으로 이행한다.
스텝(S414)에서는 표시부(2)에 「몽타주작성?」이라고 표시하고 나서 스텝(S415)을 이행하고, 몽타주작성모드선캑키(MS)가 입력되었는지의 여부가 판정되고, 입력되어 있지 않다고 판정된 경우에는 그대로 스텝(S417)으로 이행하고, 입력되었다고 판정된 경우에는 스텝(S416)으로 진행한다.
스텝(S416)에서는 제7도와 같은 몽타주작성처리의 서브루틴을 실행하고 나서 스텝(S417)으로 이행하고, 등록키(13)가 입력되었는지의 여부가 판정되고, 입력되었지 않다고 판정된 경우에는 상기 스텝(S401)으로 복귀하여 다른 사람의 개인데이터를 입력하는 처리를 반복하고, 등록키(13)가 입력되었다고 판정된 경우에는 스텝(S418)으로 이행하여 입력된 개인데이터 및 몽타주데이터를 RAM(24)에 기억하여 처리를 종료한다. 이 처리에 의해 이름, 전화번호 등과 그 발음을 나타내는 음절데이터 및 몽타주 데이터가 기억된다. 또, 상기 스텝(S416)의 몽타주 작성처리 예를 들면 제21A도에 도시하는 바와 같이 어느 인물의 얼굴(F1)을 각 부위마다의 부위패턴의 조합에 의거하여 작성하고, 그 얼굴(F1)을 표시하는 처리이다.
다음에 제19도에 도시하는 플로챠트에 의거하여 입변화설정모드처리의 처리순서에 대하여 설명한다.
이 입변화설정모드처리는 모드설정키(5)의 조작으로 입변화설정모드에 설정되었을 때에 실행되는 처리이며, 몽타주의 입변화패턴을 설정, 등록하는 처리이다.
우선, 스텝(S600)에서 하나의 등록된 몽타주(예를 들면 제21A도에 있어서 얼굴(F1)의 몽타주)를 선택하고 나서 스텝(S601)으로 이행한다.
스텝(S601)에서는 입변화키(7)가 입력되었는지의 여부가 판정되고, 입력되어 있지 않다고 판정된 경우에는 루프를 형성하여 입변화키(7)가 입력될 때까지 대기하고, 입력되었다고 판정된 경우에는 스텝(S602)으로 진행하고, 상기 스텝(S600)에서 선택된 등록완료 몽타주(F1)의 일부위패턴번호에 대응하는 부위패턴을 입패턴ROM(30)에서 판독하여 스텝(S603)으로 이행한다.
스텝(S603)에서는 전체 입패턴 등을 일괄표시하고 나서 스텝(S604)으로 이행하고, 변경부위선택기(10) 등의 조작으로 원하는 입패턴을 선택하여 스텝(S605)으로 진행한다.
스텝(S605)에서 변경된 입패턴을 표시부(2)에 표시하고 소정의 음성을 출력하는 시간을 설정하고 나서 스텝(S606)으로 이행하고, 선택된 입패턴과 함께 설정한 시간데이터를 입부위패턴대응시간RAM(33)의 소정어드레스에 기억(제 17 도 참조)하여 스텝(S607)으로 진행한다.
스텝(S607)에서는 입부위패턴에 대응시간RAM(33)의 어드레스번호를 "1"증가하고 나서 스텝(S608)으로 이행하고, OK키(12)가 입력되었는지의 여부를 판정하고, 입력되었다고 판정된 경우에는 처리를 종료하고, 입력되지 않았다고 판정된 경우에는 상기 스텝(S603)으로 복귀하여 다시 다른 입패턴을 선택, 기억하는 처리를 계속하여 실시하게 된다.
이 처리에 의해 조작자가 원하는 몽타주의 입의 변화패턴 및 출력 시간을 자유롭게 설정할 수 있다.
다음에 제20도에 도시하는 플로챠트에 의거하여 개인데이터 출력처리의 처리순서에 대하여 설명한다.
이 개인데이터 출력시간은 이름, 전화번호 등의 개인데이터를 표시하여 출력함과 동시에 음성에 의해 그 내용을 출력하는 처리이다.
우선, 스텝(S700)에서 모드설정키(5)의 조작에 의해 개인데이터 출력모드에 설정하고 나서 스텝(S701)으로 이행한다.
스텝(S701)에서는 키입력부(1)에서의 입력에 의거하여 원하는 개인데이터를 검색(예를 들면 「아이다 겐」이라고 입력)하여 스텝(S702)으로 진행한다.
스텝(S702)에서는 상기 스텝(S701)에서 입력된 데이터가 RAM(24)에 기억되어 있는 개인데이터와 일치하는지의 여부가 판정되고, 일치하지 않는다고 판정된 경우에는 스텝(S714)으로 이행하여 표시부(2)에 「데이터가 발견되지 않습니다」라고 표시하고 나서 스텝(S701)으로 복귀하고, 개인데이터의 검색을 다시 실시하고, 일치했다고 판정된 경우에는 스텝(S703)으로 이행된다.
스텝(S703)에서는 대응하는 개인데이터 및 몽타주데이터(이 예에서는 「아이다 겐」의 개인데이터와 부위패턴번호군(GP1))을 RAM(24)에서 판독하여 스텝(S704)으로 이행한다.
스텝(S704)에서는 스텝(S703)에서 판독한 부위패턴번호군(GP1)에 따라 대응하는 부위패턴을 기본부위패턴ROM(22)에서 판독하여 「아이다 겐」의 얼굴(F1)의 몽타주를 합성하여 스텝(S705)으로 진행한다.
스텝(S705)에서는 「아이다 겐」의 개인데이터와 합성몽타주의 얼굴(F1)을 표시하여 (제21A도 참조)하여 스텝(S706)으로 이행한다.
스텝(S706)에서는 이야기키(4)가 입력되었는지의 여부가 판정되고, 입력되어 있지 않다고 판정된 경우에는 그대로 처리를 종료하고, 입력되었다고 판정된 경우에는 스텝(S707)을 이행한다.
스텝(S707)에서는 개인데이터에 대응한 음성데이터·입부위패턴데이터를 RAM(24)에서 판독하여 스텝(S708)으로 진행하고, CPU(20)내외 타이머(34)를 삭제하여 스텝(S709)으로 이행한다.
스텝(S709)에서 기억된 음성데이터·입부위패턴의 판독을 실시하고 나서 스텝(S709)으로 진행하고, 판독된 음성데이터를 음성합성부(35)에 송출하고, 판독된 입부위패턴데이터에 대응하는 입부위패턴을 입부위패턴ROM(30)에서 판독하여 그 입부위패턴을 합성RAM(27)에 송출하고 나서 스텝(S711)으로 이행한다.
스텝(S711)에서는 판독된 음성데이터에 의거하여 스피커(3)에서 음성("아"와 같은 음성)을 출력함과 동시에 표시부(2)에 합성RAM(27)으로 합성한 얼굴(F2)의 몽타주를 표시출력(제21B도 참조)하여 스텝(S712)으로 진행한다.
스텝(S712)에서는 소정시간(여기에서는 3초간)이 경과했는지의 여부가 판정되고, 경과되지 않았다고 판정된 경우에는 소정시간에 도달할 때까지 대기하고, 경과되었다고 판정된 경우에는 스텝(S713)으로 이행한다.
스텝(S713)에서는 전체 음성 및 입부위패턴의 판독종료인지의 여부가 판정되고 Yes인 경우에는 처리를 종료하고, No인 경우에는 상기 스텝(S709)으로 복귀하여 음성 및 합성 몽타주의 얼굴의 출력을 반복하게 된다.
따라서, 이 제2실시예에서는 제21B도~제21D도에 도시하는 바와 같이 「아이다 겐」의 개인데이터(이름, 전화번호 등)와 함께 그 얼굴(F1~F4)을 시간경과에 따라 표시부(2)에 순차변화시키면서 표시시킬 수 있을 뿐 아니라 그 얼굴(F1~F4)의 변화에 맞추어서 그 사람의 이름, 전화번호 등의 발음을 스피커(3)로부터 「아이다…」이라고 음성출력시킬 수 있다. 이 때문에 움직임이 있는 몽타주표시를 실시할 수 있게 되고, 재미를 부가하여 실용적 가치나 상품적 가치를 크게 향상시킬 수 있다는 효과가 있다.
또, 이 제2 실시예에 의하여 이야기키(4)의 조작에 응답하여 이름 등의 개인데이터에 의거하여 각 부위패턴의 조합을 순차 변경하여 얼굴의 적어도 일부를 순차 변경시킨 상태에서 표시출력 또는 인쇄출력시킬 수 있으므로 선택된 자신 또는 타인의 이름의 발음에 맞추어서 그 인물자체가 자기의 이름을 마치 이야기하고 있는 것처럼 보일 수 있고, 더 한층 흥미를 높일 수 있게 된다.
또, 이 제2실시예의 경우에는 얼굴을 순차 변경시킬 때에 이 얼굴의 변경과 대응하는 음성을 출력시킬 수 있으므로 입의 변화에 따라 대응하는 음성을 출력시킬 수 있고, 마치 자신의 이름 등을 입을 움직이면서 스스로 발음하고 있는 것처럼 되어 지금까지 없었던 재미를 주가할 수 있다.
또, 이제 2실시예의 경우에는 이야기키(4)의 조작에 응답하여 이름 등의 개인데이터에 의거하여 선택된 인물의 입의 부분을 순차 변경시킬 때에 이 입의 부분의 변경과 아울려 대응하는 음성을 출력시키는 구성으로 하고 있지만, 이야기키(4)의 조작에 응답하여 이름 등의 개인데이터에 의거하여 선택된 인물의 입의 부분만을 순차변경시키고 입의 부분의 변경에 아울러서 대응하는 음성을 출력시키지 않도록 구성해도 좋다. 이 경우는 제20도의 스텝(S707)에 있어서 판독된 개인데이터에 대응한 입의 부위패턴만을 판독하고(음성데이터는 판독되지 않는다), 스텝(S711)에 있어서 이 입의 부위패턴에 의거하여 입만을 움직이도록 하면 된다.
[실시예 3]
제22도~제32D도는 본 발명의 제3실시예를 도시한다. 이 제1실시예의 경우와 같은 구성요소에는 같은 지시부호를 붙여서 그 구성요소의 상세한 설명은 생략한다.
제22도는 이 제3실시예에 관한 물체화상표시장치의 개략구성을 도시하는 외관도이다.
제22도에 있어서, 패턴(1a)에는 마이크 등으로 구성되는 음성입력부(38), 스피커(3), 몽타주작성모드선택키(MS), 전원의 온/오프키(5), 모드설정키(5), 음성을 등록하는 음성등록키(37), 등록키(13), 기본형선택키(9), 변경부위선택키(10), 패턴변경키(11) 등이 배설되어 있다. 또, 데이터입력패널(1b)에 텐키(14), 알파벳키(15)가 배설되어 있다.
다음에 제23도에 따라 이 제3실시예에 관한 물체화상표시장치(MB)의 회로구성을 실행한다.
물체화상표시장치(MB)는 RPM(21)을 구성하고 있는 기본부위패턴ROM(22), 제1상태변화용ROM(22B), 제어프로그램용ROM(22B), 제어프로그램용ROM(22C), 음성RAM(42), 제1몽타주RAM(25A), 제2몽타주 RAM(25B), 합성RAM(24), 키입력부(1), 음성입력부(38), 음성인식부(39), 음량검출부(40), 음성발생부(41), 스피커(3), 표시부(2) 등이 CPU(20)에 접속되어 구성되어 있다.
상기 음성인식부(39)는 입력된 음성에 대하여 예를 들면 음성스팩트럼 단축화 등의 분석처리를 실시한 후에 그 분석처리된 음성패턴과 미리 설정되어 있는 음성의 표준패턴과의 패턴매칭을 실시하여 입력된 음성이 어떠한 내용인지를 인식하는 것이다. 또, 음량검출부(40)는 음압 등을 검출하는 음센서 등에 의해 구성되어 있다. 또 음성발생부(41)는 상기 음성RAM(42)에 기억되어 있는 음성데이터에 의거하여 음성을 합성하는 음성합성칩 등으로 구성되어 있다.
기본부위패턴ROM(22)은 제3도에 도시하는 기본부위패턴ROM(22)과 같은 ROM이며, 복수종류의 부위패턴을 윤곽, 두발형, 눈, 코, 입 등의 각 부위에 분류하여 격납하고 있다. 예를 들면 제24도에 도시하는 바와 같이 윤곽부위패턴의 "1번지(No. 1)"에는 「평균적인 얼굴의 윤곽부위패턴」, "2번지(No. 2)"에는 「둥근얼굴의 윤곽부위패턴」… "49번지(No. 49)"에는 「말의 얼굴의 윤곽부위패턴」…50번지"에는 「사자의 얼굴의 윤곽부위패턴」 등이 격납되어 있다.
또, 윤곽부위패턴의 "1번지(No. 1)"에는 「머리가 선 두발형의 부위패턴」, "2번지(No. 2)"에는 「7대3으로 분할된 두발형 부위패턴」…"49번지(No. 49)"에는 「말의 두발형부위패턴」, …50번지"에는 「사자의 두발형부위패턴」 등이 격납되어 있다.
이하, 마찬가지로 해서 눈의 부위패턴, 코의 부위패턴, 입의 부위패턴이 각각 복수종류 격납되어 있다.
또, 제1 상태변화용ROM(22A) 및 제2 상태변화용ROM(22B)에는 상기 음성입력부(38)에서 입력된 음성의 특성(예를 들면 음성데이터의 내용(으르렁거린다, 웃는다, 노한다 등), 음량의 대소 등)에 따라 얼굴의 표정이나 체형의 형태를 변화시키기 위해 준비되어 있는 복수종류의 부위패턴과 얼굴의 표정이나 체형의 형태에 따른 음성데이터를 번호를 붙여서 격납되어 있다.
제1상태변화용ROM(22)에는 상기 기본부위패턴ROM(22)에 격납되어 있는 각 부위패턴에 따라 "고함칠 때의 얼굴 및 체형"의 부위패턴이 격납되어 있다. 예를 들면 제25도에 도시하는 바와 같이 "고함치고 있는 얼굴"을 나타내는 각종 부위패턴이 격납되어 있다. 상기 기본부위패턴ROM(22)내의 「No. 1」번대의 각 부위패턴(두발형부위패턴, 눈부위패턴, 입부위패턴 등)에 대응하여 제1상태변화용ROM(22A)내의 「No. A-11」, 「No. A-12」, 「No. A-13」에 대응한 각 영역에는 3종류의 다른 형상을 한 부위패턴과 극 각 부위패턴에 대응한 음성데이터가 각각 격납되어 있다. 또, 기본부위패턴ROM(22)내의 「No. 2」번대의 부위패턴에 대응하여 제1상태변화용ROM(22A)의 「No. A-21」, 「No. A-22」, 「No. A-23」에 대응한 영역에는 3종류의 다른 형상을 한 부위패턴과 그 각 부위패턴에 대응한 음성데이터가 각각 격납되어 있다. 이후도 마찬가지로 각 부위패턴마다에 기본부위패턴ROM(22)내의 각 부위패턴에 따른 표정의 변화가 이루어진 부위패턴 및 음성데이터가 격납되어 있다.
이 경우, 「No. A-11」에 대응한 각 부위마다의 영역에 격납되어 있는 부위패턴군은 음성입력부(38)에 입력된 것과 같이 "고함친다"라는 음성의 음량이 작은 경우에 대응한 표정의 부위패턴으로 되어 있다. 이 실시예의 경우는 "조금 선 두발"의 형상을 한 두발형의 부위패턴, "조금 올라간 눈"의 형상을 한 눈의 부위패턴, "작게 고함치는 입"의 형상을 한 입의 부위패턴 등이 격납되어 있다. 또 이들 각 부위패턴에 대응한 음성데이터는 "고함친다"는 음성의 음량이 작아진 경우에 대응한 작은 음량의 "우오"라는 고함소리가 디지털신호로 기억되어 있다.
또, 「No. A-12」에 대응한 각 부위마다의 영역에 격납되어 있는 부위패턴군은 음성입력부(38)에서 입력된 것과 마찬가지로 "고함친다"는 음성의 음량이 평균적인 크기에 대응한 표정의 부위패턴으로 되어 있다. 이 실시예의 경우는 "상당히 선 두발"의 형상을 한 두발부위패턴, "상당히 올라간 눈"의 형상을 한 눈의 부위패턴, "상당히 큰 고함소리"의 형상을 한 입의 부위패턴 등이 격납되어 있다. 또, 이들 각 부위패턴에 대응한 음성데이터는 "고함친다"는 음성의 음량이 약간 큰 음량인 경우에 대응한 음량인 "우로"하는 고함 소리가 디지털 신호로 기억되어 있다.
또, 「No. A-13」에 대응한 각 부위마다의 영역에 격납되어 있는 부위패턴군은 음성입력부(38)에서 입력된 것과 마찬가지로 "고함친다"라는 음성의 음량이 큰 경우엔 대응한 표정의 부위패턴으로 되어 있다. 이 실시예의 경우는 "완전히 선 머리"의 형상을 한 두발형부위패턴, "크게 올라간 눈"의 형상을 한 눈의 부위패턴, "크게 고함치는 입"의 형상을 한 입의 부위패턴 등이 격납되어 있다. 또, 이들 부위패턴에 대응한 음성데이터는 "고함친다"하는 음성의 음량이 상당히 큰 음량인 경우에 대응한 큰 음량의 "우오"하는 고함소리 디지털신호로 기억되어 있다.
기타 「No. A-21」, 「No. A-22」, 「No. A-23」 등에 대해서도 마찬가지로 음성입력부(38)에서 입력된 "고함친다"라는 음성의 음량의 대소에 대응한 표정의 부위패턴과 대응한 음량의 음성데이터가 격납되어 있다.
제2상태변화용ROM(22B)에는 제26도에 도시하는 바와 같이 상기 기본부위패턴ROM(22)에 격납되어 있는 각 부위패턴에 따라 "웃을 때의 얼굴 및 체형"의 부위패턴이 격납되어 있다. 이 제2 상태변화용 ROM(22B)에 격납되어 있는 각 부위패턴 및 음성데이터는 전술한 제1상태변화용ROM(22A)에 격납되어 있는 "고함칠 때의 얼굴 및 체형"의 부위패턴 대신에 "웃을 때의 얼굴 및 체형"의 부위패턴이 격납되어 있고, 또, "고함칠 때의 음성데이터" 대신에 "웃을 때의 음성데이터"가 격납되어 있는 점이 다른 점이므로 그 상세한 내용은 생략한다.
또, 본 실시예에서는 제1 상태변화용ROM(22A) 및 제2상태변화용ROM(22B)에 각각 입력된 음성의 "고함친다", "웃는다"라는 음성내용에 대응하는 부위패턴 및 음성데이터를 격납한 경우에 대하여 설명했지만 이것에 한정되지 않고 예를 들면 "화낸다", "운다" 등의 다른 음성에 대응하는 부위패턴을 격납하도록 해도 좋다.
또 ROM(22C)은 상기 CPU(20)가 물체화상표시장치(MB)의 각종 동작을 제어하기 위한 각종 제어프로그램 등이 격납되어 있다.
음성RAM(42)에는 음성입력부(38)에서 압하는 음성이 그 음성이 내용에 따라 번호가 붙여져 디지털신호로서 기억되도록 되어 있다.
예를 들면 제27도에 도시하는 바와 같이 "고함친다"는 음성은 번호가 「1」로 붙여져 기억되고, 또, "웃는다"는 음성은 번호가 「2」라고 붙여져 기억되고, 또 "운다"는 음성은 번호가 「3」이라고 붙여져 기억되도록 되어 있다.
제1몽타주RAM(25A)에는 등록된 얼굴 등의 몽타주의 부위패턴번호군과 음성번호가 격납되도록 되어 있다.
이 실시예에는 제28A도에 도시하는 바와 같이 번호 「1」의 기억영역에 무음상태를 나타내는 음성번호인 「0」과 부위패턴번호군(GP1)은 「윤곽」의 부위패턴번호인 「50」, 「두발형」의 부위패턴번호인 「50」, 「눈」의 부위패턴번호인 「50」, 「코」의 부위패턴번호인 「50」… 「양발」의 부위패턴번호인 「50」으로 되어 있다. 또, 번호 「2」의 기억영역에는 "고함친다"는 내용의 음성을 나타내는 음성번호의 「1」과 부위패턴번호군(GP2)이 격납되어 있다. 여기에서 부위패턴번호군은 「윤곽」의 부위패턴번호인 「50」, 「두발형」의 부위패턴번호인 「50」, 「눈」의 부위패턴번호인 「32」, 「코」의 부위패턴번호인 「50」… 「양발」의 부위패턴번호인 「02」로 구성되어 있다.
이하 마찬가지로 하여 다른 「3」~「20」의 각 기억영역에도 음성번호와 그 번호에 대응하는 부위패턴번호군(GP2~GP20)이 각각 격납되어 있다.
또, 제2몽타주RAM(25B)에는 작성된 몽타주에 관한 데이터가 아니고, 입력된 음성내용에 따라 변경된 얼굴 등의 몽타주의 부위패턴번호군과 음성번호가 격납되도록 되어 있다.
이 실시예에는 제28B도에 도시하는 바와 같이 번호 「1」의 기억영역에 무음상태를 나타내는 음성번호인 「0」과 부위패턴번호군(HP1)이 격납되어 있다. 여기에서 이 부위패턴번호군(HP1)은 「윤곽」의 부위패턴번호인 「50」, 「두발형」의 부위패턴번호인 「50」, 「눈」의 부위패턴번호인 「50」, 「코」의 부위패턴번호인 「50」…… 「양발」의 부위패턴번호인 「50」으로 구성되어 있다. 또, 입력된 음성이 무음상태에서는 몽타주의 얼굴은 변화하지 않으므로 제28A도에 도시하는 번호 「1」의 기억영역에 격납되는 부위패턴번호군(HP1)과는 같아진다. 또, 부위패턴번호군중 「-」로 표시되어 있는 부분은 부위패턴번호가 기억되어 있지 않은 것을 나타낸다.
다음에 제20도 내지 제31도에 도시하는 플로챠트에 의거하여 본 실시예에 관한 물체화상표시장치(MB)에서 실행되는 각종 처리의 처리순서에 대하여 설명한다.
우선, 제29도에 도시하는 등록처리에 대하여 설명한다. 이 처리는 작성된 몽타주의 부위패턴번호군이나 음성번호 등을 등록하는 처리이다.
우선 스텝(S100)에서는 제7도에 도시하는 제1 실시예의 경우와 같은 몽타주작성처리의 서브루틴을 실행하고 나서 스텝(S101)으로 이행한다. 이 몽타주작성처리를 실시하므로 미리 몽타주 데이터를 구성하는 부위패턴번호군(GP1~GP20)을 몽타주 RAM(25A)의 소정 기억영역의 어딘가에 등록하여 둔다.
다음에 음성등록키(37)가 조작되었는지의 여부가 판정된다. 음성등록키(37)가 조작되었다고 판정된 경우에는 스텝(S102)로 이행한다. 이 스텝(S102)에서는 음성입력부(38)에서 입력된 음성을 샘플링하고 나서 스텝(S103)으로 진행하고, 이 샘플링된 음성(예를 들면 "고함친다" 등)을 음성인식부(39)에서 음성인식하고 나서 스텝(S104)으로 이행한다.
스텝(S104)에서는 인식된 음성을 음성RAM(42)의 소정기억영역에 기억하고 나서 스텝(S105)으로 이행하고, 인식된 음성에 대응하는 음성번호(예를 들면 "고함친다"라면 「No. 1」)라고 지정되어 있는 몽타주의 부위패턴번호군(GP2)을 제1 몽타주RAM(25A) 중의 예를 들면 「2」의 기억영역에 기억하고 나서 일련의 처리를 종료한다(제28A도 참조).
또, 상기 스텝(S101)에서 음성등록키(37)가 조작되어 있지 않다고 판정된 경우에는 스텝(S106)으로 이행하여 음성번호에 번호을 세트하여 무음상태를 지정하고 나서 스텝(S105)로 진행하고, 그 음성번호의 「0」과 부위패턴번호군(GP1)을 제1몽타주 RAM(25A)의 번호 「1」의 기억영역에 기억하여 처리를 종료한다.
이 처리에 의해 ①작성한 몽타주에 관한 부위패턴번호군과 입력된 음성 또는 ②작성한 몽타주에 관한 부위패턴번호군과 음성등록키(37)로 지정된 음성을 대응관계에서 복수조 분할등록하여 둔다.
다음에 제30도에 도시하여 플로챠트에 의거하여 상태변화처리의 일예에 대하여 설명한다.
이 상태변화처리란 입력된 음성에 의거하여 등록되어 있는 몽타주의 표시상태를 변화시키는 처리를 말한다.
우선, 스텝(S400)에서는 몽타주의 표시중인지 아닌지 즉, 몽타주표시모드로 설정되어 있는지의 여부를 판정하는 "No"인 경우에는 그대로 처리를 종료하고, "Yes"인 경우에는 스텝(S401)으로 이행한다.
스텝(S401)에서는 음성입력부(38)에 의해 음성(예를 들면 "고함친다" 등의 음성)을 음성집합하고 나서 스텝(S402)으로 진행하고, 이 스텝(S402)에 있어서, 음성집합된 음성이 어떠한 내용인지를 음성인식부(39)에 의해 음성인식함과 동시에 그 음성의 음량이 어느정도인지를 음량검출부(40)에 의해 음성검출하고 나서 스텝(S403)으로 이행한다.
스텝(S403)에서는 검출된 음량이 미리 설정되어 있는 설정음량치 이하인지의 여부가 판정된다. 만약 설정음량치 이하라고 판정된 경우에는 스텝(S404)으로 이행하고 인식된 음성(고함친다")에 대응하는 음성번호(이 경우는 검출음량이 설정음량치 이하이므로 무음상태인 것을 나타내는 「0」에 대응한 부위패턴번호군(GP1)을 제1몽타주RAM(25A)의 기억번호 「1」의 영역에서 판독하고 나서 스텝(S406)으로 진행한다.
스텝(S406)에서 상기 스텝(S405)에서 판독된 부위패턴번호군(GP1)에 대응한 각 부위패턴을 기본부위패턴ROM(22)에서 판독하고 나서 스텝(S407)으로 이행한다.
또, 이 경우, 무음의 경우는 음성데이터는 이 ROM(22)에는 기억되어 있지 않으므로 음성데이터가 판독되지는 않는다.
스텝(S407)에서는 상기 스텝(S406)에서 판독된 각 부위패턴을 합성RAM(27)으로 합성하여 스텝(S408)으로 진행하고, 이 스텝(S408)에 있어서 합성한 몽타주(F1)을 표시부(2)에 표시출력(제32A도 참조)하고 나서 스텝(S409)으로 이행한다.
스텝(S409)에서는 판독된 음성데이터를 음성발생부(4)로 송출하여 스피커에서 음성을 출력하지만 이 경우에 있어서는 상기 스텝(S404)에서 지정된 음성번호는 번호가 「0」인 무음상태이기 때문에 음성발생부(4)에서 음성을 출력하지 않고 일련의 처리를 종료한다.
한편, 상기 스텝(S403)에서, 입력된 음성(예를 들면 "고함친다")의 검출음량치가 설정음량치 이하가 아니고 설정음량치를 넘었다고 판정된 경우에는 스텝(S405)으로 이행하여 인식된 음성에 대응하여 세가지 상태변화의 부위패턴번호군중의 하나를 제1상태변화ROM(212A)내에서 선택하여 지정한다.
이 경우, 검출음량이 약간 큰 경우에는 제1 상태변화ROM(22A)내에서 부위패턴번호군중의 「No. A-51」을 지정한다. 또, 검출음량이 상당히 큰 경우에는 부위패턴번호군의 「No. 51」을 지정한다. 또 검출음량이 매우 큰 경우에는 부위패턴번호군의 「No. A-53」을 지정하고 나서 스텝(S406)으로 이행한다.
또, 부위패턴번호군을 지정하는 방법은 여러 가지이지만 이 실시예에서는 대상으로 되어 있는 몽타주의 각 부위패턴에 대응한 부위패턴번호(이 실시예에서는 어떤 부위패턴번호도 「50」)에, 음성의 음량이 약간 큰 경우에는 「50」의 값에 「1」을 가산하여 「No. A-51」로 하고, 음량이 상당히 큰 경우에는 「50」의 값에 「2」를 가산하여 「No. A-52」로 하고, 음량이 매우 큰 경우에는 마찬가지로 「3」을 가산하여 「No. A-53」으로 하는 방법을 이용하고 있다.
스텝(S406)에서는 상기 스텝(S405)에서 지정된 각 부위패턴군에 대응하는 부위패턴(예를 들면 음량이 매우 큰 경우의 「No. A53」이라면 그것에 대응하는 부위패턴)을 제1 상태변화ROM(22A)에서 판독하여 스텝(S407)으로 진행하고, 판독된 상태변화의 각 부위패턴을 합성RAM(27)에서 합성하여 스텝(S408)로 진행하고, 변경된 몽타주(F2)를 표시부(2)에 표시출력(제32B도 참조)하고 나서 스텝(S409)으로 이행한다.
스텝(S409)에서는 제1 상태변화ROM(22A)내의 상기 「No. A-53」에 대응한 판독된 음성(예를 들면 「사자의 으르렁거리는 소리(3)」)을 음성발생부(4)에서 출력하여 일련의 처리를 종료한다.
이 처리에 의해 인식된 음성의 내용 및 그 특성의 양쪽에 따라 등록되어 있는 몽타주의 표시상태를 변화시킬 수 있음과 동시에 그 변화된 표시상태에 다른 음성을 출력할 수 있기 때문에 흥미를 더할 수 있다.
다음에 제31도에 도시하는 플로챠트에 의거하여 상태변화처리의 다른 실시예를 설명한다.
우선, 스텝(S500)에서는 몽타주가 표시중인지의 여부가, 즉 몽타주표시모드에 설정되어 있는지의 여부를 판정하고, "NO"인 경우에는 그대로 처리를 종료하고, "Yes"인 경우에는 스텝(S501)으로 이행한다.
스텝(S501)에서는 음성입력부(38)에서 음성(예를 들면 "웃는다"라는 음성)을 음성집합하고 나서 스텝(S502)으로 진행하고 음성집합된 음성의 내용을 음성인식부(39)에 의해 음성인식함과 동시에 유성집합된 음성의 음량을 음량검출부(40)에 의해 음량검출하고 나서 스텝(S503)으로 이행한다.
스텝(S503)에서는 검출된 음성의 음량치가 설정음량 이하인지의 여부가 판정된다. 검출음량치가 설정음량치 이하라고 판정된 경우에는 스텝(S504)으로 이행하고 인식된 음성("웃는다"라는 음성)에 대응하는 음성번호(이 경우는 음량이 너무 작기 때문에 No. 「0」의 무음상태를 설정)에 대응한 부위패턴번호군(GP1)중에서 두발형, 눈, 입 등의 미리 정해져 있는 특정의 부위패턴 이외의 다른 부위패턴을 판독하고 나서 스텝(S506)으로 진행한다.
스텝(S506)에서 판독된 다른 각 부위패턴번호와 표시출력중의 부위패턴번호로 구성되는 부위패턴번호군(HP1)을 제2몽타주RAM(25B)의 예를 들면 「1」의 기억영역에 기억하고 나서 스텝(S507)으로 이행한다.
스텝(S507)에서는 제2몽타주RAM(25B)의 부위패턴번호군(HP1)에 대응한 각 부위패턴을 기본부위패턴ROM(22)에서 판독하고 나서 스텝(S508)으로 이행한다.
스텝(S508)에서는 상기 스텝(S507)에서 판독된 각 부위패턴을 합성RAM(27)으로 몽타주합성하여 스텝(S509)으로 진행하고, 합성된 몽타주를 표시부(2)에 표시출력하여 처리를 종료한다.
한편, 상기 스텝(S503)에서, 검출음량치가 설정음량치 이하가 아니고 설정음량치를 넘었다고 판정된 경우에는 스텝(S505)으로 이행하여 인식된 음성(예를 들면 "웃는다"라는 음성)에 대응하여 상태변화의 부위패턴번호군중의 하나를 검출음량치에 따라 제 2 상태변화ROM(22B)내에서 선택한다(단, 이 경우 선택되는 각 부위패턴은 표시 상태를 변화시키고 싶은 두발형, 눈, 입 등의 미리 지정되어 있는 특정부위패턴에 한정된다).
이 경우, 검출음량이 약간 큰 경우에는 제2 상태변화ROM(22B)내에서 부위패턴번호군의 「No. B-51」을 지정하고, 음량이 상당힌 큰 경우에는 부위패턴번호군의 「No. B-52」을 지정하고, 검출음량이 매우 큰 경우에는 부위패턴번호군의 「No. B-53」을 지정한다. 그 후, 스텝(S506)으로 이행한다.
스텝(S506)에서 상기 스텝(S505)에서 지정된 부위패턴번호군(HP20)에 대응하는 번호(예를 들면 「B-53」)를 제2 몽타주RAM(25B)의 기억영역에 기억하고 나서 스텝(S507)으로 이행한다.
스텝(S507)에서는 제2 몽타주RAM(25B)의 각 부위패턴번호 (No. B-53)에 대응하는 부위패턴을 제2상태변화ROM(22B)에서 판독하여 스텝(S508)으로 진행한다.
스텝(S508)에서는 상기 스텝(S507)에서 판독된 부위패턴을 합성RAM(27)에서 합성하여 스텝(S509)으로 진행하고 합성된 몽타주(F4)를 표시부(2)에 표시출력(제32D도 참조)하여 처리를 종료한다.
이 처리에 의해 음성에 따라 몽타주를 변화시킬 수 있다. 또, 이제 2 상태변화처리(제31도)의 경우에는 얼굴을 구성하는 모든 부위패턴에 대응하는 부위패턴번호군을 제2 몽타주RAM(25A)에 기억하도록 하고 있는 전술한 제1 상태변화처리(제30도)의 경우보다도 표시상태를 변화시키고 싶은 특정의 각 부위패턴에 대응하는 부위패턴번호군만을 제2 몽타주RAM(25B)에 기억하도록 하고 있으므로 데이터의 기억용량이 작아진다는 이점이 있다.
이상과 같이 이 제3실시예에 의하여 사용자가 내는 음성의 내용이나 음성의 특성(예를 들면 음량, 음색, 음높이)에 따라 등록되어 있는 몽타주의 내용이나 형태를 변화시킬 수 있을 뿐 아니라 몽타주의 내용이나 형태의 변화에 따라 몽타주에서 나오는 음성도 변경시킬 수 있고, 흥미를 더할 수 있다.
또, 이 제3 실시예에서는 음성의 특성으로서 음성의 음량을 이용하여 그 음향의 크기에 따라 얼굴이나 체형을 변경하도록 한 경우에 대하여 설명했지만 이것에 한정되지 않고 음성의 음높이나 음색 등을 이용하여 그 음높이나 음색 등에 따라 얼굴이나 체형을 변경하도록 해도 좋다.
제33도는 본 발명의 제4실시예에 관한 물체화상표시장치의 전자회로의 구성을 도시하는 블록도이다. 또, 제1실시예의 경우와 같은 구성요소에는 같은 지시부호를 붙여서 그 구성요소의 상세한 설명은 생략한다.
이 물체화상표시장치 CPU(중앙처리장치)(20)를 구비하고 있다. 이 CPU(20)는 음성인식부(39)에 있어서 음성언어에 의거하여 ROM(53)에 기억된 물체화상표시프로그램에 따라 회로각부의 동작제어를 실시하는 것이며, CPU(20)에는 상기 음성인식부(39), ROM(53) 외에 부위ROM(21), RAM(24), 합성RAM(270), 표시부(35)가 접속되어 있다.
부위ROM(21)은 제2도에 도시하는 기본부위패턴ROM(22)과 같은 ROM이다. 이 실시예의 경우는 얼굴을 구성하는 눈, 눈썹, 코 등의 각 부위마다에 대응하는 부위페이지(21A, 21B……21N)이 구비되어 있고, 각각의 부위페이지(21A, 21B……21N)에는 각 부위마다에 복수종류의 부위패턴이 비트 맵 데이터의 형태로 기억되어 있다. 이 경우, 각 부위페이지(21A, 21B……21N)에 있어서 그 부위패턴의 종류는 행 포인터에 의해 관리되고, 또 부위패턴의 크기는 열포인터에 의해 관리되도록 되어 있다. 제34도는 상기 부위ROM(21)내의 「눈」의 부위페이지(21A)에 있어서 부위패턴의 격납상태를 도시한다. 이 부위ROM(21)에 있어서 각부위마다 부위패턴의 종류는 세로방향 즉, 행방향으로 다름과 동시에 그 크기는 가로방향 즉 열방향으로 5단계로 다르고, 본 실시예의 경우, 각 부위패턴의 표준크기는 3단계의 (3)에 격납되어 있는 부위패턴을 표준크기로서 설정되어 있다.
여기에서 상기 부위ROM(21)에 대한 각 부위페이지(21A, 21B……21N)는 CPU(20)에 있어서 페이지포인터(58)에 의해 지정된다. 이 페이지 포인터(58)에 의해 지정된 부위페이지내의 행(종류)는 등 CPU(20)에 있어서 행포인터(59)에 의해 지정되고, 또 열(크기)은 열포인터(60)에 의해 지정되고, 또, 상기 열(크기)의 변화량은 A레지스터(61) 내에 지시된다.
RAM(24)에는 몽타주작성에 수반되는 사용자에 의해 선택된 각 부위 각각의 패턴번호를 기억하기 위한 각 부위마다의 패턴번호레지스터(24a, 24b……)가 구비되어 있다. 예를 들면 「눈」의 패턴번호레지스터(24a)에 「1-3」이라고 기입된 경우에는 상기 부위ROM(21)에 있어서 「눈」의 부위페이지(21A)의 1행 3열찌의 「눈」의 패턴이 선택된 것을 나타낸다.
합성RAM(27)은 상기 RAM(24)에 있어서 각 패턴번호레지스터(24a, 24b, ……)에 기억된 각 부위패턴번호에 대응하여 상기 부위ROM(21)의 각 부위페이지(21A, 21B……21N)에서 판독된 각 부위패턴을 합성하는 것이며, 이 합성RAM(27)에 있어서 각 부위패턴의 합성에 의해 얻어진 몽타주화상이 표시부(35)에 표시되게 된다.
한편, 이 물체화상표시장치에서는 음성입력부(38)가 구비되어 있고, 사용자가 내는 음성신호가 입력되는 음성입력부(38)에는 음성인식부(39)가 접속되어 있다. 이 음성인식부(39)는 언어ROM(54)을 갖고, 음성입력부(38)에서 입력된 음성신호에 대응하는 언어ROM(54)내의 언어를 검색인식하는 것으로, 본 실시예의 경우, 음성인식가능한 언어로서 상기 언어ROM(54)에 미리 기억되는 언어는 상기 부위ROM(21)내의 각 부위페이지(21A, 21B……21N)를 선택하기 위한 부위선택언어인 「눈」, 「눈썹」, 「코」…… 「입」, 선택된 부위페이지내의 부위패턴 종류를 선택하기 위한 부위패턴이 선택언어인 「다음」, 및 선택된 부위패턴의 크기를 지시하기 위한 크기지시언어인 「좀더」, 「조금」, 「크게」, 「작게」이다.
상기 음성인식부(39)에 의한 인식언어에 따라 CPU(20)에 있어서 페이지포인터(58), 행포인터(59), 열포인터(60)의 각 포인트값 및 A레지스터(61)의 레지스트값이 제어되고, 몽타주를 구성하는 각 부위 마다의 부위패턴이 선택되도록 되어 있다.
다음에 상기 구성에 의한 물체화상표시장치의 동작에 대하여 설명한다.
제35도는 상기 물체화상표시장치에 의한 몽타주작성의 기본처리를 도시하는 플로챠트이다. 우선, 사용자가 발성하는 부위선택언어, 크기지시언어가 음성입력부(38)에 의해 입력되어 이 음성입력부(38)에서 음성집합된(스텝S1)후에 그 음성이 음성인식부(39)에서 음성인식되면(스텝S2), 각 인식언어에 따라 CPU(20)에 있어서 페이지포인터(58), 행포인터(59), 열포인터(60)의 각 포인터값 및 A레지스터(61)의 레지스트값이 순차설정된다. 그러면 설정된 각 값에 따라 부위ROM(21)에서 대응하는 부위패턴이 판독되고 이 판독된 각 부위패턴이 합성 RAM(27)에서 몽타주 합성된다(스텝 S3).
이 결과 상기 스텝(S1~S3)에 대응하는 음성집합→음성인식→각부위패턴에 의한 몽타주합성처리를 반복하여 실시하는 것으로, 원하는 부위패턴의 조합으로 구성되는 몽타주가 표시부(35)에 표시되게 된다. 제36도는 상기 물체화상표시장치에 있어서 음성인식에 따르는 몽타주합성처리를 도시하는 플로챠트이다.
우선, 사용자가 음성입력부(38)에 대하여 「눈」이라고 발성하고, 이 때문에 음성인식부(39)에 의한 인식언어인 「눈」이 CPU(20)에 주어지면 (스텝 A1), 페이지포인터(58)는 (1), 행포인터(59)는(1), 열포인터(60)는 (3)으로 초기설정되므로 부위ROM(21)의 「눈」의 제1부위페이지(21A)에 있어서 1행 3열째의 눈의 부위패턴(제34도 참조)이 판독되고, 이 판독된 각 부위패턴이 합성RAM(27)에 기입되어 표시부(35)에 표시된다(스텝 A2).
여기에서 상기 초기선택표시된 부위ROM(21)내의 제1부위페이지(21A)에 있어서 1행 3열째의 눈의 부위패턴을 다른 종류의 부위패턴으로 변경할 사용자의 발성에 의거하여 부위패턴선택언어인 「다음」이 음성인식되면(스텝A6), CPU(20)에 있어서 행포인터(59)가 (2)로 변경되고(스텝A15), 상기 「눈」의 제1 부위페이지(21A)에 있어서 2행 3열째의 눈의 부위패턴(제34도 참조)이 판독되고, 표시부(35)에 교체되어 표시된다(스텝A1→A3→A5, A6, A15).
그리고 상기 종류의 교체표시된 「눈」의 제1부위페이지(21A)에 있어서 2행 3열의 눈부위패턴의 크기를 좀더 크게 변경할 사용자의 발성에 의거하는 크기지시언어인 「좀더」 또는 「크게」가 음성인식되면(스텝A7, A11), CPU(20)에 있어서 A 레지스터(61)에 (2)가 세트됨(스텝A8, A12)과 동시에 이 A레지스터(61)에 세트된 크기변화량(2)에 대응하여 열포인터(60)가 가산(3+2=5)되고, 상기 제1부위페이지 「눈」의 21A에 있어서 2행 5열째의 커다란 눈부위패턴(제34도 참조)이 판독되고, 표시부(35)에 교체표시된다(스텝A1→A3→A5→A7, A8, A1→A3→A5→A7→A9→A11, A12, A15).
한편, 상기 종류의 교체표시된 「눈」의 제1 부위페이지(21A)에 있어서 2행 3열의 눈부위패턴의 크기를 조금 작게 변경할 사용자의 발성에 의거하여 크기지시언어의 「조금」 또는 「작게」가 음성인식되면(스텝A9, A13), CPU(20)에 있어서 A레지스터(61)에 (1)이 세트됨(스텝A10, A14)과 동시에 이 A 레지스터(61)에 세트된 크기변화량(1)에 대응하여 열포인터(60)가 감산(3-1=2)되고, 상기 「눈」의 제1부위페이지(21A)에 있어서 2행 2열째의 조금 작은 눈부위패턴(제34도 참조)이 판독되고, 표시부(35)에 교체표시된다(스텝A1→A3→A5→A7→A9, A10, A1→A3→A5→A7→A11→A13→, A14, A15).
이렇게 해서 우선 원하는 「눈」의 부위패턴이 선택표시된 상태에서 다음의 부위를 선택표시시킬 사용자가 음성입력부(38)에 대하여 「눈썹」이라고 발성하여 음성인식부(39)에 의한 인식언어인 「눈썹」이 CPU(20)에 주어지면(스텝A3), 페이지포인터(58)는 (2), 행포인터(59)는 (1), 열포인터(60)는 (3)으로 초기설정되므로 부위ROM(21)의 「눈썹」의 제2 부위페이지(21A)에 있어서 1행 3열째의 눈썹부위패턴이 판독되고, 합성RAM(27)에 기입되어 표시부(35)에 표시된(스텝A1→A3, A4).
이 경우, 상기 행포인터(59) 및 열포인터(60)에 이미 세트되어 있는 눈의 부위패턴에 대응하는 부위패턴번호(예를 들면 2~2)는 RAM(24)에 있어서 「눈」의 부위패턴레지스터(24a)에 기입되어 등록된다.
이후, 상기와 마찬가지로 부위패턴선택언어인 「다음」이 음성인식되면 행포인터(59)가 (2) 변경되고 제2부위페이지 「눈썹」인 21B에 있어서 2행 3열째의 눈썹의 부위패턴이 판독되고 표시부(35)에 교체되어 표시된다(스텝A1→A3→A5, A6, A15).
그리고 와 마찬가지로 「좀더」 혹은 「조금」과 「크게」 혹은 「작게」를 조합시킨 크기지시언어가 음성인식되는 것으로 A레지스터(61)에 있어서 크기변화량이 (2) 혹은 (1)에 세트됨과 동시에 이 A레지스터(61)에 세트된 크기변화량에 따라 상기 열포인터(60)의 포인트값(3)이 가산 혹을 감산되게 되고, 상기 행포인터(2)에 대응하는 「눈썹」의 부위패턴의 부위패턴크기가 원하는 크기로 변경되어 표시된다(스텝A1→A3→A5→A7→A15).
이후 「코」에서 「입」까지 상기와 같은 부위선택언어의 음성입력조작에 의해 얼굴의 각 부위를 선택지정함과 동시에 이 부위선택마다의 부위패턴선택언어 및 크기지시언어의 음성입력조작에 의해 선택된 각 부위의 부위패턴과 그 코드를 선택지정하는 것으로, 원하는 몽타주가 합성되어 표시되게 된다.
따라서, 이 제4실시예에 의하여 언어ROM(54)에는 예를 들면 얼굴을 수성하는 각 부위의 선택언어인 「눈」, 「코」, 「입」 등과 함께 「다음」 등의 부위패턴선택언어 및 「좀더」, 「크게」, 「작게」 등의 크기지시언어를 기억시켜 두고, 이들의 언어가 음성입력부(38)를 통하여 음성입력된 음성인식부(39)에서 언어인식되고, 이에 의해 이 인식언어가 상기 부위의 선택언어인 경우에는 부위ROM(21)에 미리 기억되어 있는 대응부위페이지(21A, 21B……21N)내의 「눈」, 「코」, 「입」 등의 소정의 부위패턴이 선택되고, 계속해서 상기 부위패턴선택언어가 인식된 경우에는 그대로 부위페이지내에서 다른 종류의 부위패턴이 선택되고, 또 상기 크기언어가 인식된 경우에는 상기 소정부위패턴을 표준크기로 하므로서 큰 혹은 작은 종류의 부위패턴이 선택되고, 이들이 순차합성RAM(27)으로 합성되어 표시부(35)에 표시된다. 이 때문에 종래와 같이 번잡한 키입력조작 등을 실시할 필요없이 누구나 간단하고 쉽게 몽타주를 작성할 수 있다.
이상의 설명에서 알 수 있는 바와 같이 본 발명에 의하여 물체화상기억수단에 기억되어 있는 물체화상을 물체화상표시수단으로 표시한 상태에서 그 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 같은 부위의 다른 부위패턴으로 연속적으로 변경하고 상기 물체화상의 적어도 일부가 변경수단으로 연속적으로 움직이도록 표시시킬 수 있다.
또, 본 발명에 의하여 문자데이터설정수단에 의해 설정된 문자데이터를 순차 판독수단에 의해 판독시키면 그 문자데이터에 따라 물체화상표시수단에 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 같은 부위 다른 부위패턴으로 연속적으로 변경하고, 상기 물체화상의 적어도 일부가 변경수단으로 연속적으로 움직이도록 표시시킬 수 있다.
또, 본 발명에 의하면 외부에서 입력되는 음성을 음성인식수단으로 인식하고, 그 인식된 음성의 내용에 따라 물체화상표시수단에 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 가 부위 다른 부위패턴으로 변경하고, 상기 물체화상의 적어도 일부가 변경수단으로 움직이도록 표시시킬 수 있다.

Claims (10)

  1. 물체의 각부위 각각에 대응하는 부위패턴의 조합으로 구성되는 물체화상을 기억하는 물체화상수단(27)과, 상기 물체화상기억수단(27)에 기억되어 있는 물체화상을 표시하는 물체화상표시수단(2)과, 상기 물체화상기억수단(27)에 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 같은 부위의 다른 부위패턴으로 연속적으로 변경하고, 상기 물체화상의 적어도 일부가 연속적으로 움직이도록 표시시키는 변경수단(20, 23, 26)을 구비하고 있는 것을 특징으로 하는 물체화상표시장치.
  2. 제1항에 있어서, 상기 변경수단(20, 23, 16)은 연속적으로 변경될 같은 부위 다른 부위패턴을 순서대로 설정하는 순서설정수단(1, 26)과, 상기 순서설정수단(1, 26)에 의해 설정된 순서에 따라 상기 다른 부위패턴을 순차판독하는 판독수단(20)과, 상기 판독수단(20)에 의해 순차 판독된 상기 다른 부위패턴을 상기 물체화상표시수단(2)에 표시되어 있는 물체화상의 적어도 일부의 부위패턴과 연속적으로 교체하고, 상기 물체화상의 적어도 일부가 연속적으로 움직이도록 표시시키는 변경수단(20, 23, 26)을 구비하고 있는 것을 특징으로 하는 물체화상표시장치.
  3. 제1항에 있어서, 상기 물체화상의 연속적인 변경의 개시를 지시하는 변경개시지시수단(6)을 또한 구비하고, 상기 변경수단(20, 23, 26)은 상기 변경개시 지시수단(6)에 의한 변경개시의 지시에 따라 상기 물체화상표시수단(2)에 표시되어 있는 물체화상의 연속적인 변경개시를 실시하도록 한 것을 특징으로 하는 물체화상표시장치.
  4. 물체의 각 부위 각각에 대응하는 부위패턴의 조합으로 구성되는 물체화상을 기억하는 물체화상기억수단(27)과, 상기 물체화상기억수단(27)에 기억되어 있는 물체화상을 표시하는 물체화상표시수단(27)과, 문자데이터를 설정가능한 문자데이터설정수단(1, 24)과, 상기 문자데이터설정수단(1, 24)에 의해 설정된 문자데이터를 순차판독하는 판독수단(10)과, 상기 판독수단(20)에 의해 순차 판독된 문자데이터에 따라 상기 물체화상표시수단(2)에 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 같은 부위의 다른 부위패턴으로 연속적으로 변경하고, 상기 물체화상의 적어도 일부가 연속적으로 움직이도록 효시시키는 변경수단(20, 23, 26)을 구비하고 있는 것을 특징으로 하는 물체화상표시장치.
  5. 제4항에 있어서, 복수의 문자데이터에 각각 대응하는 음성을 기억하는 음성기억수단(31)과, 상기 판독수단(20)에 의해 순차판독된 문자데이터에 따라 전역 음성기억수단(31)에 기억되어 있는 음성을 순차 판독하여 외부에 출력하는 음성출력수단(35, 36, 3)을 구비하고 있는 것을 특징으로 하는 물체화상표시장치.
  6. 제4항에 있어서, 상기 물체화상의 연속적인 변경의 개시를 지시하는 변경개시지시수단(4)을 또한 구비하고, 상기 변경수단(20, 23, 26)은 상기 변경개시지시수단(4)에 의한 변경개시의 지시에 따라 상기 물체화상표시수단(2)에 표시되어 있는 물체화상의 연속적인 변경개시를 실시하도록 한 것을 특징으로 하는 물체화상표시장치.
  7. 물체의 각 부위 각각에 대응하는 부위패턴의 조합으로 구성되는 물체화상을 기억하는 물체화상기억수단(27)과, 상기 물체화상기억수단(27)에 기억되어 있는 물체화상을 표시하는 물체화상표시수단(2)과, 외부에서 입력되는 음성을 인식하는 음성인식수단(39)과, 상기 음성인식수단(39)으로 인식된 음성의 내용에 따라 상기 물체화상표시수단(2)에 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 같은 부위의 다른 부위패턴으로 변경하고, 상기 물체화상의 적어도 일부 움직이도록 표시시키는 변경수단(20, 23, 26)을 구비하고 있는 것을 특징으로 하는 물체화상표시장치.
  8. 제7항에 있어서, 상기 음성인식수단(39)은 외부에서 입력되는 음성의 특성을 검출하는 음성특성검출수단(40)을 구비하고, 상기 변경수단(20, 23, 26)은, 이 음성특성검출수단(40)에 의해 검출된 음성의 특성과 상기 음성인식수단(39)에 의해 인식된 음성에 의거하여 상기 물체화상표시수단(2)에 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 같은 부위의 다른 부위패턴으로 변경하고, 상기 물체화상의 적어도 일부가 움직이도록 표시시키는 표시변경수단(20, 23, 26)을 구비하고 있는 것을 특징으로 하는 물체화상표시장치.
  9. 제8항에 있어서, 상기 음성특정검출수단(40)에 의해 검출된 음성의 특성은 음성의 음량, 음높이 또는 음색의 적어도 하나인 것을 특징으로 하는 물체화상표시장치.
  10. 제7항에 있어서, 상기 변경수단(20, 23, 26)은 물체를 구성하는 부위에 관한 음성을 인식하는 음성인식수단(39)과, 상기 음성인식수단(39)에 의해 인식된 부위에 관한 음성에 따라 상기 물체화상표시수단(2)에 표시되어 있는 물체화상의 적어도 일부의 부위패턴을 같은 부위의 다른 부위패턴으로 변경하고, 상기 물체화상의 적어도 일부가 움직이도록 표시시키는 표시변경수단(20, 23, 26)을 구비하고 있는 것을 특징으로 하는 물체화상표시장치.
KR1019930028626A 1992-12-21 1993-12-20 물체화상 표시장치 KR970004115B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP92-340299 1992-12-21
JP4340299A JPH06187410A (ja) 1992-12-21 1992-12-21 似顔絵作成装置
JP92-340298 1992-12-21
JP36089692A JP3298197B2 (ja) 1992-12-30 1992-12-30 似顔絵画像表示制御装置および似顔絵画像表示制御方法
JP4360900A JPH06203127A (ja) 1992-12-30 1992-12-30 モンタージュ出力装置
JP92-360900 1992-12-30
JP92-360896 1992-12-30

Publications (2)

Publication Number Publication Date
KR940015885A KR940015885A (ko) 1994-07-22
KR970004115B1 true KR970004115B1 (ko) 1997-03-25

Family

ID=27340957

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019930028626A KR970004115B1 (ko) 1992-12-21 1993-12-20 물체화상 표시장치

Country Status (1)

Country Link
KR (1) KR970004115B1 (ko)

Also Published As

Publication number Publication date
KR940015885A (ko) 1994-07-22

Similar Documents

Publication Publication Date Title
US5588096A (en) Object image display devices
US5940797A (en) Speech synthesis method utilizing auxiliary information, medium recorded thereon the method and apparatus utilizing the method
JP4370811B2 (ja) 音声表示出力制御装置、および音声表示出力制御処理プログラム
EP1667031A2 (en) HTML-e-mail creation system
JP2003099084A (ja) 音声による感情合成方法及び装置
JP6656447B1 (ja) 動画出力システム
JPS62239231A (ja) 口唇画像入力による音声認識方法
CN107705341A (zh) 用户表情头像生成的方法及其装置
EP0974948A1 (en) Apparatus and method of assisting visually impaired persons to generate graphical data in a computer
KR970004115B1 (ko) 물체화상 표시장치
KR20010088350A (ko) 언어 학습장치 및 그것의 언어 분석방법
US20230317090A1 (en) Voice conversion device, voice conversion method, program, and recording medium
KR100754430B1 (ko) 음성 기반 자동 립싱크 애니메이션 장치와 방법 및 기록매체
US10964308B2 (en) Speech processing apparatus, and program
JP3222283B2 (ja) 案内装置
JPH03273280A (ja) 発声練習用音声合成方式
JPH0844384A (ja) 連続単語音声認識装置
JPH06203127A (ja) モンタージュ出力装置
CN110166844A (zh) 一种数据处理方法和装置、一种用于数据处理的装置
JP2001006295A (ja) 情報再生装置及び方法、並びに情報提供媒体
JPH07244496A (ja) テキスト朗読装置
JP4985714B2 (ja) 音声表示出力制御装置、および音声表示出力制御処理プログラム
KR20140087950A (ko) 언어 데이터 및 원어민의 발음 데이터를 이용한 리듬 패턴 학습장치 및 방법
Ogata et al. Inverse estimation of the vocal tract shape from speech sounds including consonants using a vocal tract mapping interface
CN113656635A (zh) 视频彩铃合成方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
G160 Decision to publish patent application
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110617

Year of fee payment: 15

LAPS Lapse due to unpaid annual fee