KR100246520B1 - 화상처리장치 - Google Patents

화상처리장치 Download PDF

Info

Publication number
KR100246520B1
KR100246520B1 KR1019960013355A KR19960013355A KR100246520B1 KR 100246520 B1 KR100246520 B1 KR 100246520B1 KR 1019960013355 A KR1019960013355 A KR 1019960013355A KR 19960013355 A KR19960013355 A KR 19960013355A KR 100246520 B1 KR100246520 B1 KR 100246520B1
Authority
KR
South Korea
Prior art keywords
image
box
data
display
displayed
Prior art date
Application number
KR1019960013355A
Other languages
English (en)
Other versions
KR960038669A (ko
Inventor
구니히로 마츠바라
데츠이치 나카에
히로히사 고야마
아츠시 이노시타
가즈히사 나카무라
고지 도리야마
Original Assignee
가시오 가즈오
가시오게산키 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP12558095A external-priority patent/JP3671258B2/ja
Priority claimed from JP7128775A external-priority patent/JPH08305532A/ja
Priority claimed from JP13600995A external-priority patent/JP3675514B2/ja
Priority claimed from JP13615395A external-priority patent/JP3707096B2/ja
Application filed by 가시오 가즈오, 가시오게산키 가부시키가이샤 filed Critical 가시오 가즈오
Publication of KR960038669A publication Critical patent/KR960038669A/ko
Application granted granted Critical
Publication of KR100246520B1 publication Critical patent/KR100246520B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 화상처리장치는 화면상에 처리해야 할 화일을 나타내는 화상 또는 그 처리항목을 나타내는 화상을 복수표시하고, 또한 상기 각 화상에 관하여 사용자에게 전달해야 할 메시지정보를 표시할 때, 상기 메시지정보를 보다 강조하여 표시하기 위해 상기 메시지정보를 둘러싸는 박스도형을 표시시키도록 했으며, 또 화면상에 얼굴화상을 표시할 때에는 상기 메시지정보가 마치 얼굴화상으로부터 발신한 것같이 하기 위해 메시지정보를 만화나 애니메이션에서 많이 이용되고 있는 박스형식으로 표시하도록 하고, 상기 박스모양의 표시형태는 화면상에 표시되어 있는 얼굴화상에 조화되도록 얼굴화상이 갖는 속성에 따라서 변경하도록 한 것을 특징으로 한다.

Description

화상처리장치
제1도는 본 발명의 실시예 1의 시스템구성을 나타내는 외관사시도.
제2도는 본 발명의 실시예 1의 시스템구성을 나타내는 블록도.
제3도는 ROM 및 RAM의 영역도를 나타내는 도면.
제4도는 RAM의 화일속성데이터영역의 구성을 나타내는 도면.
제5도는 본 실시예 1의 동작을 나타내는 메인프로그램의 흐름도.
제6도는 화일선택처리의 프로그램의 흐름도.
제7도는 화일선택처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제8도는 ROM에 기록되어 있는 데이터의 예를 나타내고,
제8(a)도는 설명문의 예.
제8(b)도는 경고문의 예.
제8(c)도는 박스모양(balloon) 등의 예를 나타내는 도면.
제9도는 화일선택처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제10도는 화일선택처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제11도는 화일선택처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제12도는 부위데이터편집처리의 프로그램의 흐름도.
제13도는 화일기록처리의 프로그램의 흐름도.
제14도는 화일기록처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제15도는 화일기록처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제16도는 화일기록처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제17도는 화일기록처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제18도는 화일기록처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제19도는 본 발명의 실시예 2에 있어서의 조작패드의 조작면을 나타내는 도면.
제20도는 RAM의 영역도를 나타내는 도면.
제21도는 설명용 박스모양데이터영역에 기록되는 ROM의 데이터를 나타내는 도면.
제22도는 본 실시예의 동작을 나타내는 메인프로그램의 흐름도.
제23도는 화상작성처리의 프로그램의 흐름도.
제24도는 화상작성처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제25도는 화상작성처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제26도는 화상작성처리에 있어서의 메뉴화면의 한 예를 나타내는 도면.
제27도는 본 발명의 실시예 3의 화상제어장치의 구성을 나타내는 회로블록도.
제28도는 제27도의 장치가 데이터로서 갖는 박스도형을 나타내는 도면.
제29도는 상기와 동일한 장치에 의한 화상처리기능의 설명도.
제30도는 상기와 동일한 장치에 의한 화상처리기능의 설명도.
제31도는 상기와 동일한 장치에 의한 화상처리기능의 설명도.
제32도는 상기와 동일한 장치가 데이터로서 갖는 메뉴화면을 나타내는 도면.
제33도는 상기와 동일한 장치에 의한 화상처리기능의 설명도.
제34도는 상기와 동일한 장치에 의한 화상처리기능의 설명도.
제35도는 상기와 동일한 장치에 의한 화상처리기능의 설명도.
제36도는 상기와 동일한 장치에 의한 화상처리기능의 설명도.
제37도는 상기와 동일한 장치에 의한 화상처리기능의 설명도.
제38도는 상기와 동일한 장치에 의한 화상처리기능의 설명도.
제39도는 상기와 동일한 장치가 데이터로서 갖는 변환테이블을 나타내는 도면.
제40도는 상기와 동일한 장치에 의한 화상처리기능의 설명도.
제41도는 상기와 동일한 장치가 데이터로서 갖는 암호변환테이블을 나타내는 도면.
제42도는 실시예 3의 화상제어장치의 동작을 설명하기 위한 흐름도.
제43도는 실시예 3의 화상제어장치의 동작을 설명하기 위한 흐름도.
제44도는 실시예 3의 화상제어장치의 동작을 설명하기 위한 흐름도.
제45도는 실시예 3의 화상제어장치의 동작을 설명하기 위한 흐름도.
제46도는 실시예 3의 화상제어장치의 동작을 설명하기 위한 흐름도.
제47도는 본 발명의 실시예 4에 있어서의 얼굴화상작성장치(1)의 전체구성을 나타내는 블록도.
제48도는 동 실시예에 있어서의 콘트롤러(10)의 구성을 설명하기 위한 도면.
제49도는 동 실시예에 있어서 ROM(12)의 메모리구성을 나타내는 메모리도.
제50도는 동 실시예에 있어서의 ROM(12)의 메모리구성을 나타내는 메모리도.
제51도는 동 실시예에 있어서 동 실시예에 있어서의 모드선택화면(MSD) 및 화일선택화면(FSD)의 구성을 설명하기 위한 도면.
제52도는 동 실시예에 있어서의 앙케트화면(AMD), 성별선택화면(SSD), 연령선택화면(OSD), 체형선택화면(BSD) 및 성격선택 화면(CSD)의 구성을 설명하기 위한 도면.
제53도는 동 실시예에 있어서의 틀선택화면(WSD), 문자열선택화면(MOSD) 및 박스모양문자열선택화면(FWSD)의 구성을 설명하기 위한 도면.
제54도는 동 실시예에 있어서의 작업RAM(13)의 메모리구성을 설명하기 위한 메모리도.
제55도는 동 실시예의 동작을 설명하기 위한 흐름도.
제56도는 동 실시예의 동작을 설명하기 위한 흐름도.
제57도는 동 실시예의 동작을 설명하기 위한 흐름도.
제58도는 동 실시예의 동작을 설명하기 위한 흐름도.
제59도는 동 실시예의 동작을 설명하기 위한 흐름도.
제60도는 동 실시예의 동작을 설명하기 위한 흐름도.
제61도는 동 실시예의 동작을 설명하기 위한 흐름도.
제62도는 동 실시예의 동작을 설명하기 위한 흐름도.
제63도는 동 실시예의 동작을 설명하기 위한 표시화면예를 나타내는 도면.
제64도는 동 실시예의 동작을 설명하기 위한 표시화면예를 나타내는 도면.
제65도는 동 실시예의 동작을 설명하기 위한 표시화면예를 나타내는 도면.
제66도는 동 실시예의 동작을 설명하기 위한 표시화면예를 나타내는 도면.
제67도는 동 실시예에 있어서의 박스모양틀 변형처리를 설명하기 위한 도면.
제68도는 박스모양틀 변형처리의 한 예를 나타내는 도면이다.
* 도면의 주요부분에 대한 부호의 설명
1 : 본체 2 : ROM
10 : CPU 11 : RAM
33 : 설명문 34 : 박스모양
37 : 박스마크 125 : 박스모양데이터
130 : 박스모양틀 131 : 박스모양문자열
본 발명은 인물의 얼굴 등의 그림, 문자, 또는 기호를 나타내는 화상을 처리하는 화성처리장치에 관한 것이다.
전자수첩이나 워드프로세서 등의 종래의 화상처리장치에 있어서는 문자나 그림을 나타내는 화상데이터로 이루어지는 화일의 내용을 디스플레이상에서 편집하여 RAM 등의 메모리의 소정의 기억영역에 기억하거나 프린터로 인쇄하거나, 나아가서는 메모리에 기억되어 있는 화일의 내용을 불러내는 처리가 실시된다.
그런데 이 종래의 장치에서는 상기한 화일의 처리 조작을 하기 쉽게 하기 위해 각 화일의 각각에 대응하는 아이콘이라 불리우는 표식을 메뉴화면상에 표시시킬 수 있다. 이와 같은 방법을 채용하면 문자 등으로 이루어지는 화일의 명칭을 입력하는 일 없이 화면조작에 의해 화일처리를 실시할 수 있기 때문에 조작이 용이해진다.
예를 들면 화일을 메모리로부터 불러내는 경우에는 조작에 따라서 디스플레이의 화면내를 이동하는 선택커서에 의하여 메뉴화면의 복수의 아이콘중의 하나를 선택하고, 그 아이콘에 대응하는 기억영역의 화일을 불러내어 화면에 표시시켜서 편집이나 인쇄 등의 처리를 실시할 수 있다.
그러나 상기 종래의 화상처리장치에 있어서는 메뉴화면에 표시되어 있는 각 아이콘에 대응하는 기억영역에 화일이 기억되어 있거나 기억영역에 화일을 기억하는 것이 가능한 등의 기억영역의 상태를 판별할 수 없었다. 이 때문에 사용자는 화일이 기억되어 있지 않은 기억영역으로부터 화일을 불러내려 하거나 화일을 기억할 수 없는 기억영역에 화일을 기억하려 하는 잘못된 아이콘을 선택하는 일이 있었다. 이 때문에 잘못된 조작을 할 때마다 메뉴화면으로 전환하여 아이콘선택을 고쳐 하지 않으면 안되어 부득이하게 번잡한 조작을 하게 되는 문제가 있었다. 또 아이콘선택의 미스에 의해 보존해야 할 화일이 기억되어 있는 기억영역에 다른 화일을 기억해 버려서, 그 보존해야 할 화일이 지워지는 트러블이 발생하는 문제도 있었다.
또 메모리로부터 불러내어진 화일의 내용을 화면상에서 처리하는 경우도 디스플레이에 복수의 처리항목을 메뉴화면으로서 표시시키고 사용자의 입력조작에 의해 임의의 항목을 선택하며, 그 선택된 항목에 따른 처리를 실시하고 있다.
이 경우에 있어서도 입력조작에 대응하여 디스플레이내를 이동하는 커서를 표시시키고 선택예정 항목의 표시영역의 위치에 커서를 이동시키고 있다. 따라서 사용자는 이 커서의 위치에 따라 선택하려 하는 항목을 인식하고 선택을 할 것인지 안할 것인지를 확정하기 위한 다음의 조작을 실시한다.
그러나 이 메뉴화면에 표시되어 있는 각 항목이 더욱이 복수의 선택지를 포함하는 복잡한 메뉴구조인 경우에는 사용자는 커서표시만으로는 선택지의 내용을 파악할 수 없고, 다음의 조작에 당황하여 조작미스를 발생시키거나 초심자인 경우에는 다음의 조작을 전혀 할 수 없는 문제가 있었다.
그리고 전자수첩, 워프로, 페이져 등의 화성처리장치에는 사용자에 대하여 보다 친근함을 갖고 있는 표시화면으로 하기 위해 일러스트풍의 닮은 얼굴그림을 전자적으로 작성하여 표시하는 기능이 부가되어 있다.
이 장치는 실제의 얼굴을 촬상하여 얻어진 비디오신호를 디지털화상데이터로서 받아들이는 방식, 또는 「눈」, 「코」, 「입」이나 「윤곽」등의 얼굴의 각 부위를 그리는 각종 부위화상데이터를 메모리에 등록해 두고 이들중에서 각 부위마다 부위화상데이터를 선택하여 판독하여 소망하는 용모의 얼굴화상을 형성하는 방식 등이 채용되고 있다.
그러나 단순히 얼굴화상을 화면상에 표시시키는 것만으로는 그 화상 자체는 아무런 의미도 갖지 않는다. 그래서 이 얼굴화상을 이용하여 사용자에 대하여 조작방법, 불러낸 화일의 내용 등을 알리는 메시지의 전달에 이용하면 보다 메시지가 두드러진 인상을 사용자에 대하여 부여할 수 있다. 예를 들면 페이져에 적용한 경우 발신인의 닮은 얼굴그림으로서 작성된 얼굴화상에 덧붙여서 전언해야 할 메시지문을 표시하는 것이 제안되고 있다.
그러나 단순히 얼굴화상과 메시지정보를 같은 화면에 독립적으로 표시한 것만으로는 메시지정보를 두드러지게 하는 효과는 충분히 나오지 않는다.
이와 같이 종래에는 얼굴화상에 부수하여 메시지문을 표시시키는 것은 제안되고 있었지만 표시되어 있는 얼굴화상에 조화시켜서 메시지문을 표시시키는 것에 대해서는 아무런 배려도 되어 있지 않다.
또한 통상 얼굴화상에 부수하여 표시되는 메시지문은 그 얼굴화상의 캐릭터(성별, 연령, 체형, 성격 및 표정)에 따라서 변화시킬 필요가 있다. 예를 들면 같은 의미의 메시지라도 성별에 따라서는 그 말쓰임이 다르고, 또 화난표정의 얼굴화상에서는 메시지문도 성난 형식의 박스모양(balloon)으로 표시할 필요가 있는 문제점도 생각된다.
본 발명의 목적은 표시화면상에서 처리해야 할 화일이 기억되어 있는 메모리의 기억영역의 정보를 확실하게 인식할 수 있게 하며, 또한 이 처리조작을 메뉴화면을 보면서 실시하는 경우 복잡한 메뉴구조이어도 용이하게 처리조작을 실시할 수 있는 화상처리장치를 제공하는 것에 있다.
즉 본 발명의 하나의 측면에 따르면, 소정의 화상을 표시하기 위한 제 1 표시신호를 출력하는 제 1 표시신호출력수단과, 이 제 1 표시신호를 기초로 하는 상기 소정의 화상에 대응하는 정보를 표시하기 위한 제 2 표시신호를 출력하는 제 2 표시신호출력수단과, 이 제 2 표시출력신호에 대응하는 정보의 표시를 강조하기 위한 강조화상을 표시하기 위한 제 3 표시출력신호를 출력하는 제 3 표시신호출력수단을 갖는 화상처리장치를 제공할 수 있다.
이 구성에 따르면 제 2 표시신호가 기억영역에 관한 정보를 표시하는 것인 경우 제 3 표시신호에 따라 이 기억영역에 관한 정보를 강조하는 화상도 동시에 표시하기 때문에 종래와 같은 획기적인 표시에 비하여 사용자의 주의를 강하게 환기시키고 기억영역의 정보를 확실하게 인식시킬 수 있다. 따라서 조작미스로부터 발생하는 트러블을 미연에 방지할 수 있다.
또 제 2 표시신호가 메뉴화면상에 표시된 복수의 항목의 각각에 관한 정보를 표시하는 것인 경우 제 3 표시신호에 따라 이 정보를 지시하는 지시화상을 표시하기 때문에 디스플레이의 메뉴화면을 보면서 조작을 실시하는 경우 다음의 조작순서를 용이하고, 또한 확실하게 인식시킬 수 있으며 복잡한 메뉴구조이어도 용이하게 조작을 실시할 수 있다.
또 본 발명의 목적은 화면상에 얼굴화상과 메시지정보를 표시하는 경우 그 메시지를 보다 얼굴화상에 조화되도록 표시하여 사용자의 주의를 환기하고, 또한 얼굴화상의 표현력을 한층 높일 수 있게 하는 것에 있다.
즉 본 발명의 하나의 측면에 따르면, 얼굴화상을 표시하기 위한 제 1 표시신호를 출력하는 제 1 표시신호출력수단과, 이 제 1 표시신호를 기초로 하는 상기 얼굴화상에 부수하여 표시해야 할 메시지정보를 나타내는 화상을 표시하기 위한 제 2 표시신호를 출력하는 제 2 표시신호출력수단과, 이 제 2 표시신호출력수단을 기초로 하는 상기 메시지정보를 나타내는 화상의 표시영역을 둘러싸는 박스도형의 화상을 표시하기 위한 제 3 표시출력신호를 출력하는 제 3 표시신호출력수단을 갖는 화상처리장치를 제공할 수 있다.
이 구성에 따르면 메시지정보를 얼굴화상에 조화되도록 박스도형에 의해 둘러쌈으로써 만화나 애니메이션 등에서 많이 사용되는 표현형식인 박스 형식으로 표현할 수 있어서, 흡사 얼굴화상으로부터 메시지가 발해지고 있는 것 같이 보여 얼굴화상의 표현력을 한층 높일 수 있다.
본건 발명의 그 밖의 목적 내지 특징은 첨부한 도면과 함께 본건의 가장 적절한 실시예에 대해서의 기재로부터 당업자라면 용이하게 이해되는 점이다.
이하 제1도~제18도를 참조하여 본 발명의 실시예 1을 설명한다.
제1도는 실시예 1의 시스템구성을 나타내는 외관도이다. 도면에 있어서, 본체(1)는 화상처리기능을 갖고, 또한 인쇄기능을 구비하고 있다. ROM(2)은 본체(1)에 착탈 자유롭게 삽입되는 카세트형태의 판독전용메모리이며 어플리케이션프로그램(이하 단순히 프로그램이라 한다)이나 화상처리에 이용하는 부위화상데이터, 그 밖의 각종 데이터(이들 데이터에 대해서는 후술한다)가 기록되어 있다. 조작패드(3)는 본체(1)에 접속되어 화상처리, 그 밖의 제어동작을 지시한다. 이 조작패드(3)에는 십자키(4), 결정키(5) 및 해제키(6)가 설치되어 있다. 외부표시장치(7)는 본체(1)에 접속되는 일반적인 T.V 수상기이며 디스플레이(8) 및 스피이커(9)를 구비하고 있다.
제2도는 제1도의 시스템구성의 블록도이다. CPU(10)는 ROM(2) 및 조작패드(3)에 접속되어 ROM(2)으로부터 프로그램 등을 판독하고, 또한 조작패드(3)로부터의 지령을 기초로 하여 화상처리, 그 밖의 제어동작을 실시한다. 처리하는 화상데이터로서는 예를 들면 사람이나 물건의 형태를 나타내는 화상데이터가 있다. RAM(11)은 CPU(10)에 접속되어 ROM(2)으로부터 입력된 프로그램 등을 일시적으로 기록하고, 또한 화상데이터 및 화상처리에 필요한 데이터를 일시적으로 기록하는 작업영역으로서 이용된다. 비디오디스플레이프로세서(12)는 CPU(10)에 접속되어, 그 지시를 기초로 하여 표시를 위한 화상신호를 외부표시장치(7)의 디스플레이(8)에 출력한다. VRAM(13)은 비디오디스플레이프로세서(12)에 접속되고 비디오디스플레이프로세서(12)로부터의 판독지령에 따라서 디스플레이(8)의 표시위치에 대응하는 도트데이터를 송출하고 비디오디스플레이프로세서(12)로부터의 기입지령에 따라서 CPU(10)로부터 출력되는 화상데이터를 기록한다. 프린터(14)는 CPU(130)에 접속되어 RAM(11)에 기록된 화상데이터를 CPU(10)의 지령을 기초로 하여 인쇄한다. 음원(15)은 CPU(10)에 접속되어 CPU(10)로부터 출력되는 음성데이터에 따라서 화상처리나 표시시에 필요한 경고음이나 음악을 위한 음성신호를 외부표시장치(7)의 스피이커(9)에 송출한다.
제3도에 ROM(2) 및 RAM(11)의 영역도를 나타낸다.
ROM(2)의 부위화상데이터영역(21)에는 인물의 화상이나 물건의 화상을 구성하는 복수의 부위화상데이터(이하 단순히 부위데이터라 한다)가 기록되어 있다. 예를 들면 인물을 구성하는 머리, 눈, 코, 옷 등의 복수의 범주의 부위데이터인 경우 각 범주마다 다른 형상의 부위데이터가 복수 기록되어 있으며, 개개의 부위데이터마다 부위번호가 붙여져 있다. 즉 각 부위번호는 부위의 범주 및 형상을 한결같이 나타내는 번호로 되어 있다. 따라서 각 범주로부터 각각 하나의 형상의 부위데이터를 선택하여 조합함으로써 다른 복수의 인물의 화상데이터를 구성하고 복수의 부위번호의 데이터로 이루어지는 화일에서 화상데이터에 대응시켜서 관리한다.
본 실시예 1의 경우 ROM(2)의 부위번호데이터영역(22)에는 #0~#3의 4개 화일의 데이터를 기록하는 영역이 있으며, RAM(11)의 부위번호데이터영역(23)에는 #4~#15의 14개 화일의 데이터를 기록하는 영역이 있다. RAM(11)의 화일어드레스데이터영역(24)에는 이들 16개의 영역의 선두어드레스가 기록된다. RAM(11)의 부위번호스톡영역(25)에는 #0~#15의 16개 화일중의 임의의 1개 화일의 부위번호데이터를 일시적으로 기록하게 되어 있다. RAM(11)의 화상데이터스톡영역(26)에는 부위번호스톡영역(26)에 기록되어 있는 각 부위번호에 대응하는 부위데이터로 구성된 인물 등의 화상데이터를 기록한다. RAM(11)의 화일속성데이터영역(27)에는 각 화일의 내용을 나타내는 데이터를 기록한다.
각 화일속성데이터영역(27)은 제4도에 나타내는 바와 같이 복수 비트의 레지스터로 구성되어 있다. 상위의 1비트가 0인 경우는 사용자가 화일을 기록할 수 없는 부위번호데이터영역(프리세트영역)을 나타내고, 1인 경우는 사용자가 화일을 기록할 수 있는 부위번호데이터영역(사용자영역)을 나타내고 있다. 다음의 2비트가 0.0인 경우는 그 영역에 기록되어 있는 화일의 부위번호데이터가 사람의 화상데이터에 관한 것인 것을 나타내고, 이 2비트가 0.1인 경우는 기록되어 있는 화일의 부위번호데이터가 물건의 화상데이터에 관한 것인 것을 나타내고, 이 2비트가 1.0인 경우는 그 영역에는 화일이 기록되어 있지 않은 것을 나타내고 있다. 또 하위 4비트는 16의 영역을 식별하는 번호를 나타내고 있다.
또한 CPU내부처리용 작업영역(28)에는 현재 아이콘번호 등의 데이터를 기록한다.
다음으로 본 실시예 1의 동작에 대하여 설명한다.
본체(1) 및 외부표시장치(7)에 전원이 투입되면 이 시스템이 기동하고 CPU(10)가 ROM(2)으로부터 프로그램을 RAM(11)에 입력하여 이 프로그램을 설명한다.
제5도에 메인프로그램의 흐름도를 나타낸다. 우선 시스템의 초기화를 위한 이니셜처리를 실시하고(스텝S1), 다음으로 편집하고 싶은 화상데이터에 관한 화일을 판독하기 위한 화일선택처리를 실시한다(스텝S2).
제6도에 화일선택처리의 프로그램의 흐름도를 나타낸다. 우선 디스플레이(8)에 메뉴화면을 표시시키는 이니셜처리를 실시한다(스텝S21). 이 경우의 메뉴화면에는 제7도에 나타내는 바와 같이 16개의 아이콘(표식)(31), 어느쪽인가 하나의 아이콘을 선택하기 위한 선택커서(32)가 표시된다. 또한 사용자에 대한 설명문(정보)(33) 및 이 설명문(33)을 강조하는 특이한 삽화의 화상, 예를 들면 설명문(33)을 둘러싸는 박스모양(박스마크)(34) 및 이 박스모양(34)을 발하는 피에로의 화상(35)이 표시된다. 이 경우 피에로의 화상(35)은 동작화면이며 좌우로 움직이게 되어 있다.
16개의 아이콘(31)의 각각에는 화일속성영역(27)의 데이터에 대응하여 1~16의 번호가 표시되고 1~4의 번호의 아이콘은 반전표시되어 프리세트영역의 화일에 대응하는 것을 나타내고, 5~16의 번호의 아이콘은 통상의 표시로 사용자영역의 화일에 대응하는 것을 나타내고 있다. 또 화일의 부위번호가 사람에 관한 것인가 또는 물건에 관한 것인가에 따라서 검은 별마크 또는 휜별마크가 표시되고 화일이 기록되어 있지 않은 여백의 경우에는 ?마크가 표시되어 있다.
이 메뉴화면에 표시되는 설명문(33), 설명용 박스모양(34) 및 피에로의 화상(35)의 데이터는 ROM(2)에 기록되어 있으며, 표시되는 메뉴화면에 따라서 표시되는 내용이 변화한다. 제8(a)도에 설명문(33)의 예를 나타낸다. 제7도의 메뉴화면의 경우의 설명문(33)은 「어느 것을 불러내는가?」이며 사용자에 대하여 아이콘선택을 재촉하는 메시지로서 표시된다. 또 박스모양(34) 및 피에로의 화상(35)의 데이터는 제8(c)도에 나타내는 박스모양데이터, 형상데이터를 입력함으로써 표시처리가 이루어진다. 사용자는 설명문(33)을 강조하도록 박스모양(34) 및 동작화면의 피에로의 화상(35)이 표시되기 때문에 화면에 주목하여 설명문(33)이 아이콘선택을 재촉하는 정보이면 인식하고 조작패드(3)를 조작한다.
다음으로 조작패드(3)의 키조작이 이루어지면 제6도의 스텝S22에서 키처리를 판정하고 조작된 키가 삽자키(4)인 경우에는 선택커서 이동처리를 실시하여 조작에 따른 아이콘의 위치에 선택커서(32)를 이동시키고(스텝S23), 스텝S22의 키처리의 판정으로 이행한다. 결정키(5)가 조작된 경우에는 화일속성데이터영역(27)을 참조하여 선택커서(32)가 위치하는 아이콘에 대응하는 화일을 판정한다(스텝S24). 즉 부위번호데이터영역(22) 또는 (23)으로부터 화일의 판독이 가능한지 불가능한지를 판정한다. 이 경우 사용자는 각 아이콘의 마크에 의하여 화일의 유무를 판단할 수 있는데, 사용자가 초심자이거나 사용자의 조작미스나 마크의 간과도 생각되기 때문에 선택된 아이콘에 대응하는 화일에 대하여 CPU(10)가 판정한다.
지금 선택커서(32)가 5인 번호의 아이콘을 나타내고 있는 경우에는 이 아이콘에 대응하는 영역의 화일판정에 의해 이 영역에는 아무 것도 기록되어 있지 않은 것을 판정하고 화일의 판독을 할 수 없기 때문에 제8(a)도의 설명문중의 「그 곳에는 아무 것도 없어요」라는 데이터를 입력하여 설명용 박스모양표시처리를 실시한다(스텝S25). 따라서 제9도에 나타내는 바와 같이 메뉴화면의 설명용 박스모양(34)에는 「그 곳에는 아무 것도 없어요」라는 설명문(33)이 특징적인 박스모양(34) 및 동작화면의 피에로의 화상(35)과 함께 표시된다. 사용자는 이 표시에 주목하여 선택한 아이콘에 대응하는 영역에 화일이 기록되어 있는지 기록되어 있지 않은지를 인식한다. 이 경우는 설명문(33)이 다른 아이콘을 선택하도록 재촉하는 정보라고 인식하여 조작패드(3)를 조작한다.
스텝S24의 화일판정처리에 있어서, 선택된 아이콘에 대응하는 화일의 판독이 가능한 것을 판정한 경우에는 제8(a)도의 설명문중에서 화일판정에 따른 설명문(33)을 표시시키는 설명용 박스모양표시처리를 실시한다(스텝S26). 예를 들면 6인 번호의 아이콘이 선택된 경우에는 화상데이터가 사람이기 때문에 제10도에 나타내는 바와 같이 메뉴화면에는 「이 사람이면 괜찮아?」라는 설명문(33)이 특징적인 화상과 함께 표시된다. 또 8인 번호의 아이콘이 선택된 경우에는 화상데이터가 물건이기 때문에 제11도에 나타내는 바와 같이 메뉴화면에는 「이것으로 괜찮아?」라는 설명문(33)이 특징적인 화상과 함께 표시된다. 사용자는 이 표시에 주목하여 조작패드(3)의 결정키(5) 또는 해제키(6)를 조작하게 된다.
키조작이 이루어진 경우에는 그 키처리를 판정하고(스텝S27), 해제키(6)가 조작된 경우에는 설명용 박스모양표시처리를 실시한다(스텝S28). 이 경우에는 제7도의 메뉴화면이 되고 「어느 것을 불러내는가?」라는 설명문(33)이 표시된다. 결정키(5)가 조작된 경우에는 화일어드레스데이터영역(24)중의 선택된 아이콘에 대응하는 영역의 선두어드레스를 참조하여, 그 어드레스에 대응하는 화일을 입력하고, 그 화일의 부위번호를 부위번호스톡영역(25)에 기억하는 화일세트를 실시한다(스텝S29). 이 경우 부위번호스톡영역(25)에 기억한 화일의 부위번호에 대응하는 각 범주의 복수의 부위데이터를 부위데이터영역(21)으로부터 입력하고, 이 복수의 부위데이터로 구성되는 인물 등의 화상데이터를 화상데이터스톡영역(26)에 기록한다. 따라서 이 화상데이터를 화상데이터스톡영역(26)으로부터 판독하여 비디오디스플레이프로세서(12) 및 VRAM(13)을 통하여 디스플레이(8)에 표시한다.
화일선택처리에 있어서 화일이 불러내어진 경우에는 제5도의 부위데이터 편집처리(스텝S3)로 이행한다.
제12도에 부위데이터 편집처리의 프로그램의 흐름도를 나타낸다. 우선 이니셜처리를 실시하고(스텝S31) 편집처리를 위한 메뉴화면(도시하지 않음)을 표시한다. 다음으로 조작패드(3)의 선택키(도시하지 않음)의 조작에 의해 처리판정을 실시한다(스텝S32). 부위변경처리(스텝S33)의 경우에는 부위번호스톡영역(25)의 부위번호를 변경한다. 화상인쇄처리(스텝S34)의 경우에는 화상데이터스톡영역(26)에 기록되어 있는 화상데이터를 프린터(14)에 송출하여 인쇄시킨다. 또 화일기록처리(스텝S35)의 경우에는 편집한 화일을 기록한다.
제13도에 화일기록처리의 프로그램의 흐름도를 나타낸다. 우선 이니셜처리를 실시하고(스텝S41) 제14도에 나타내는 바와 같은 메뉴화면을 표시시킨다. 이 경우 제8(a)도 중의 「어디에 기록하는가?」라는 설명문(33)이 특징적인 박스모양(34) 및 동작화면인 피에로의 화상(35)과 함께 표시된다. 또한 아이콘(31)의 윗쪽의 위치에 경고문(36)이 박스마크(37)와 함께 표시된다. 이 경우 기록하는 부위데이터의 명칭인 「* * * * * * * *」 및 제8(b)도에 나타내는 ROM(2)의 경고데이터중의 「를 기록하시오」를 조합하여 「* * * * * * * * 를 기록하시오」라는 경고문(36)이 표시된다.
사용자는 특징적인 박스모양(34) 및 동작화면인 피에로의 화상(35)이 설명문(33) 및 경고문(36)과 함께 표시되기 때문에 화면에 주목하여 설명문(33)이 아이콘선택을 재촉하는 정보라고 인식하고 경고문(36)이 기록하는 부위번호가 목적하는 부위데이터에 관한 것이라는 것을 인식하고 조작패드(3)를 조작하게 된다.
키조작이 된 경우에는 그 키처리를 판정하고(스텝S42), 조작된 키가 십자키(4)인 경우에는 선택커서 이동처리를 실시하여 조작에 따른 아이콘의 위치에 선택커서(32)를 이동시키고(스텝S43), 스텝S42의 키처리의 판정으로 이행한다. 결정키(5)가 조작된 경우에는 선택커서(32)가 나타내는 아이콘에 대응하는 RAM(11)의 화일속성데이터영역(27)을 참조하여 기록하려 하는 부위번호데이터영역(22)의 영역판정을 실시한다(스텝S44). 예를 들면 선택커서(32)가 1인 번호의 아이콘의 위치에 있는 경우에는 대응하는 영역이 프리세스영역이라고 판정하여 설명용 박스모양표시처리를 실시한다(스텝S45). 이 경우에는 제15도에 나타내는 바와 같이 제8(a)도 중의 「그 곳에는 기록할 수 없어요」라는 설명문(33)이 특징적인 화상과 함께 표시된다. 사용자는 특징적인 화상이 설명문(33) 및 경고문(36)과 함께 표시되기 때문에 화면에 주목하여 선택한 아이콘에 대응하는 영역이 기록 가능한지 가능하지 않은지를 인식하다. 이 경우는 설명문(33)이 기록 불가능하여 다른 아이콘선택을 재촉하는 정보라고 인식해서 조작패드(3)를 조작하게 된다.
스텝S44에 있어서 선택된 아이콘에 대응하는 영역이 사용자영역이라고 판정한 경우에는 그 영역에 이미 다른 화일이 기록되어 있는지 기록되어 있지 않은지를 판정한다(스텝S46). 예를 들면 선택커서(32)가 6인 번호의 아이콘의 위치에 있는 경우에는 이미 다른 화일이 대응하는 영역에 기록되어 있기 때문에 제16도에 나타내는 바와 같이 기록되어 있는 화상데이터의 명칭 「# # # # # # # #」 및 제8(b)도에 나타내는 경고데이터중의 「가 지워져 버려요」를 조합하여 「# # # # # # # #가 지워져 버려요」라는 경고문(36)을 박스마스(37)속에 표시시키고, 또 동시에 「이것으로 괜찮아?」라는 설명문(33)을 특징적인 화상과 함께 표시시킨다(스텝S47). 사용자는 특징적인 화상에 의해 화면에 주목하여 경고문(36)이 화일의 제거를 확인하는 정보라고 인식하고 결정키(5) 또는 해제키(6)의 어느쪽인가를 조작하게 된다.
한편 선택커서(32)가 5인 번호의 아이콘의 위치에 있는 경우에는 이 아이콘에 대응하는 영역에 화일이 기록되어 있지 않기 때문에 제17도에 나타내는 바와 같이 「이것으로 괜찮아?」라는 설명문(33)이 특징적인 화상과 함께 표시된다(스텝S48). 이 경우 경고문(36)의 내용은 제15도에 나타내는 경고문(36)의 내용과 같이 때문에 새로운 경고표시처리는 실시하지 않는다.
다음으로 키처리의 판정을 실시하고(스텝S49), 해제키(6)가 조작된 경우에는 제14도에 나타내는 메뉴화면을 표시하는 설명용 박스모양표시처리를 실시한다(스텝S50). 결정키(5)가 조작된 경우에는 부위번호스톡영역(25)에 기록되어 있는 부위번호를 선택된 아이콘에 대응하는 RAM(11)의 부위번호데이터영역(23)의 영역(#4)에 기록한다(스텝S51). 다음으로 선택된 아이콘의 마크가 변화하는 경우에는 화일아이콘표시처리를 실시한다(스텝S52). 예를 들면 5인 번호의 아이콘이 선택된 경우에는 이 아이콘의 마크를 여백을 나타내는 ?마크로부터 사람을 나타내는 검은 별마크로 변경한다. 그리고 제18도에 나타내는 바와 같이 경고문(36)의 표시를 지우는 처리, 즉 제8(b)도의 표시OFF의 경고데이터를 판독하는 처리를 실시하고, 또한 설명용 박스모양표시처리를 실시한다(스텝S53). 이 경우에는 「기록됐어요」라는 설명문(33)이 특징적인 화상과 함께 표시된다.
이와 같이 상기 실시예 1에 따르면 선택된 아이콘에 대응하는 부위번호데이터영역(22) 또는 (23)의 각 영역에 관한 설명문(33) 등을 표시할 때 이 설명문(33) 등을 강조하는 특징적인 화상, 즉 박스모양(34) 및 이 박스모양(34)을 발하는 피에로의 화상(35)과 함께 표시하기 때문에 문자 등만에 의한 획일적인 표시에 비하여 사용자의 주위를 강하게 환기시키고 부위번호데이터영역(22) 또는 (23)의 영역의 화일 정보를 확실하게 인식시킬 수 있다.
이 경우에 있어서 설명문(33)의 표시영역과 특징적인 화상인 박스모양(34)의 표시영역이 서로 겹쳐서 표시되기 때문에 사용자에게는 이들이 시각적으로 일체화되어 인식된다. 따라서 설명문(33)을 간과하는 일이 없다.
또한 상기 실시예 1에서는 설명문(33) 등을 강조하는 특징적인 화상을 박스모양(34) 및 삽화인 피에로의 화상(35)으로 했지만 표시하는 화상으로서는 다른 특징적인 삽화이어도 좋고 삽화 이외의 특징적인 도형이어도 좋으며 삽화와 도형의 조합이어도 좋다.
또 상기 실시예 1에서는 설명문(33) 등을 강조하는 화상을 형상에 특징이 있도록 했지만 아이콘(31)의 색채와 다른 색채로 특징적인 화상을 표시해도 좋다. 이 경우에는 설명문(33) 등이 더한층 강조된다.
또 상기 실시예 1에서는 설명문(33) 등을 특징적인 화상과 함께 표시시켜서 사용자의 주의를 환기하도록 했지만, 이와 동시에 스피이커로부터 설명문(33) 등을 음성에 의해 통지하도록 해도 좋다. 이 경우에는 사용자의 주의를 시각적 및 청각적으로 환기할 수 있어서 보다 큰 효과가 얻어진다.
또 상기 실시예 1에서는 본체(1)에 삽입하는 카세트형태의 ROM(2)에 프로그램을 기록하는 구성으로 했지만, ROM을 내장한 원칩CPU를 이용하여 그 내장ROM에 프로그램을 기록하는 구성으로 해도 좋다. 이 경우에는 장치를 소형화하는 것이 가능하게 된다.
또 상기 실시예 1에서는 본체(1)에 일반적인 T.V수상기인 외부표시장치(7)를 접속하도록 했지만 외부표시장치로서는 T.V수상기에 한정되지 않고 퍼스컴 등의 표시장치에 접속해도 좋고 본체(1)에 표시부 및 스피이커 및 조작부를 편입한 구성으로 해도 좋다. 본체(1)에 표시부 등을 편입한 경우에는 매우 콤팩트한 장치를 실현할 수 있다.
다음으로 본 발명을 적용한 화상저리장치의 실시예 2를 설명한다. 이 경우의 화상처리장치는 표시된 메뉴화면을 통하여 사용자와 앙케트(대화)형식으로 인물, 동물, 물건 등의 화상작성처리를 실시하여 작성한 화상의 표시, 인쇄 등의 처리를 실시하는 것이다.
우선 본 실시예 2의 구성에 대하여 제19도~제20도를 참조하여 설명한다.
실시예 2의 시스템구성은 실시예 1과 똑같다.
조작패드(3)의 조작면에는 제19도에 나타내는 바와 같이 십자키(4) 및 결정키(5)가 설치되어 있다. 십자키(4)는 수평방향, 수직방향으로 회동 가능한 구조로 되어 있으며 수평방향의 단부(4a) 또는 단부(4b) 또는 수직방향의 단부(4c) 또는 단부(4d)를 누름으로써 각 단부의 아래에 설치된 스위치(도시하지 않음)가 작동한다. 여기에서 수평방향의 단부(4a) 또는 단부(4b)의 키조작을 좌우키조작이라 하고 수직방향의 단부(4c) 또는 단부(4d)의 키조작을 상하키조작이라 한다.
제20도 및 제21도에 RAM(11) 및 ROM(2)의 데이터구성을 나타낸다.
RAM(11)에는 제19도에 나타내는 바와 같이 부위번호스톡영역(121), 설명용 박스모양영역(122), 화상데이터스톡영역(123), CPU내부처리용 작업영역(124)이 설치되어 있다. 부위번호스톡영역(121)에는 ROM(2)에 기록되어 있는 인물의 화상이나 물건의 화상을 구성하는 머리, 눈, 코, 옷 등의 복수의 부위화상데이터(도시하지 않음)에 대응한 부위번호가 기록된다. 즉 하나의 화상을 구성하기 위한 1쌍의 부위번호가 이 부위번호스톡영역(121)에 기록된다. 또 부위번호스톡영역(121)에 기록된 1쌍의 부위번호에 의하여 구성된 화상데이터는 인쇄시에 화상데이터스톡영역(123)에 기록된다. 또 설명용 박스모양데이터영역(122)에는 ROM(2)에 기록되어 있는 설명용 박스모양데이터(125)가 전송된다.
ROM(2)에는 제21도에 나타내는 바와 같이 RAM(11)에 전송되는 설명용 박스모양데이터(125)외에 박스모양형상데이터(126), 설명용 박스모양문자열데이터(127) 및 앙케트항목선택지데이터(128)가 기록되어 있다. 설명용 박스모양데이터(125)는 #0~#4의 데이터로 구성되고, 또한 각 설명용 박스모양데이터는 5개의 데이터(125a)~(125e)로 구성되어 있다. 즉 디스플레이(8)의 표시위치를 정하는 X좌표(125a) 및 Y좌표(125b), 박스형상데이터(126)의 번호 No. 0~No. 3중의 하나의 번호를 나타내는 박스형상번호(125c), 설명용 박스모양문자열데이터(127)의 번호No. 0~No. 4중의 하나의 번호를 나타내는 설명번호(125d) 및 앙케트항목선택지데이터(128)의 항목번호 #0~#4중 대응하는 하나의 항목번호(125c)로 구성되어 있다. 이 경우 예를 들면 설명용 박스모양데이터(125)중의 설명용 박스모양 #0데이터에 있어서는 박스형상번호(125c)는 No. 3, 설명번호(125d)는 No. 0, 항목번호는 #0이 기록되어 있다. 또 앙케트항목선택지데이터(128)는 각 항목마다 복수의 선택지가 있으며 후보번호로 나타내어진다. 따라서 제21도에 나타내는 바와 같이 항목번호와 후보번호를 어드레스로 하여 하나의 앙케트항목의 문자열데이터가 특정된다.
제20도에 있어서의 CPU내부처리용 작업영역(124)에는 현재 설문중인 항목의 번호, 즉 현재항목번호의 데이터 및 각 항목마다 표시하는 선택지의 후보번호의 데이터가 기록된다. CPU(10)는 이 작업영역(124)에 기록되어 있는 각 항목마다의 후보번호를 기초로 하여 ROM(2)의 앙케트항목선택지데이터(128)의 문자열데이터를 비디오디스플레이프로세서(12)를 통하여 VRAM(13)에 기록한다.
다음으로 본 실시예의 동작에 대하여 제22도~제26도를 참조하여 설명한다.
본체(1) 및 외부표시장치(7)에 전원이 투입되면 이 시스템이 기동하여 CPU(10)가 ROM(2)으로부터 프로그램을 RAM(11)에 입력하여 실행한다.
제22도는 CPU(10)에 의하여 실행되는 메인프로그램의 흐름도이다. 우선 시스템의 초기화를 위한 이니셜처리를 실시한다(스텝S101). 다음으로 앙케트형식으로 부위화상작성처리를 실시한다(스텝S102).
제23도에 부위화상작성처리의 프로그램의 흐름도를 나타낸다. 우선 디스플레이(8)에 초기설정된 메뉴화면을 표시하기 위한 이니셜처리를 실시한다(스텝S121). 이 처리에 있어서는 선택 가능한 앙케트항목과 각각의 항목에 대응하는 설문을 박스모양에 의하여 설명하는 설명용 박스모양을 표시한다.
앙케트항목을 표시하는 이니셜처리로서 RAM(11)의 CPU내부처리용 작업영역(124)의 항목(#0~#4)의 후보번호를 0으로 설정하여 ROM(2)의 앙케트항목선택지데이터(128)의 각 항목(#0~#4)의 후보번호No. 0의 문자열데이터 「남성」, 「유치원」, 「명랑하다」, 「뚱뚱하다」. 「토끼」를 VRAM(13)에 전송한다. 그리고 이들 5항목의 문자열의 디스플레이(4)의 소정 위치에 표시시키는 위치정보를 비디오디스플레이프로세서(11)에 설정한다.
다음으로 설명용 박스모양의 초기설정번호를 #0으로 하고 RAM(11)의 CPU내부처리용 작업영역(124)의 현재항목번호를 0으로 한다. 이 현재항목번호에서 ROM(2)의 설명용 박스모양데이터(125)로부터 설명용 박스모양 #0데이터를 판독하고 RAM(11)의 설명용 박스모양데이터영역(122)에 전송하다. 따라서 설명용 박스모양 #0데이터의 표시위치 X좌표 및 Y좌표, 박스형상번호 No. 3, 설명번호No. 0, 항목번호 0이 설명용 박스모양데이터영역(122)에 기록된다. 그리고 이 설명용 박스모양데이터영역(122)의 내용을 기초로 하여 박스형상번호No. 3에 대응하는 박스형상데이터(126)를 ROM(2)으로부터 판독하여 VRAM(13)에 전송하고 표시위치 X좌표 및 Y좌표에 대응하는 값을 비디오디스플레이프로세서(12)에 설정한다. 또 설명번호No. 0에 대응하는 설명용문자열데이터 「성별은?」를 ROM(2)으로부터 판독하여 VRAM(13)에 전송하고 박스모양틀의 표시위치에 맞춘 위치정보를 비디오디스플레이프로세서(11)에 설정한다.
제24도에 이니셜의 메뉴화면을 나타낸다. 즉 앙케트항목(129)으로서 「남성」, 「유치원」, 「명랑하다」, 「뚱뚱하다」, 「토끼」가 각각 소정의 영역에 표시된다. 또 박스모양틀(박스마크)(130)가 「남성」의 영역을 지시하도록 특징적으로 표시되고 박스모양틀(130)에 둘러싸여서 「성별은?」이라는 설명용 박스모양문자열(131)이 표시된다. 즉 박스모양틀(130)은 커서의 역할을 갖고, 또한 박스모양틀(130)중의 설명용 박스모양문자열(131)은 지시하는 앙케트항목의 내용을 설명하는 정보를 구성하고 있다. 사용자는 화면에 특징적으로 앙케트항목을 지시하는 박스모양틀(130) 및 설명용 박스모양문자열(131)에 의해 앙케트항목이 성별을 의미하는 것 및 다른 선택지가 있는 것을 인식하여 조작패드(3)를 조작한다.
다음으로 조작패드(3)의 키조작이 이루어지면 제22도의 스텝S122에서 키처리를 판정한다. 키조작이 좌우키조작인 경우에는 앙케트항목 변경처리를 실시한다(스텝S123). 예를 들면 십자키(4)의 단부(4b)가 1회 눌러지면 RAM(11)의 CPU내부처리작업영역(124)의 현재항목번호 #0를 참조하여 대응하는 번호 #0의 후보번호를 「1」만큼 증가시킨다. 그리고 현재항목번호 #0과 변경한 후보번호No. 1에 대응하는 문자열데이터 「여성」을 ROM(2)의 앙케트항목선택지데이터(128)로부터 판독하여 VRAM(13)에 전송하다. 이 결과 앙케트항목 #0의 표시가 「남성」으로부터 「여성」으로 변경된다. 그 후 스텝S122로 이행하여 다음의 키처리를 판정한다.
스텝S122에 있어서, 상하키조작이 이루어진 경우에는 RAM(11)의 CPU내부처리작업영역(124)의 현재항목번호를 키조작에 따른 값으로 변경하고 새로운 현재항목번호에 대응하는 설명용 박스모양데이터(125)를 ROM(2)으로부터 판독하여 RAM(11)의 설명용 박스모양데이터영역(122)에 전송한다(스텝S124). 예를 들면 십자키의 단부(3d)가 1회 눌러지면 현재항목번호를 0으로부터 1로 변경하고 설명용 박스모양 #1데이터를 ROM(2)으로부터 판독하여 RAM(11)의 설명용 박스모양데이터영역(122)에 전송한다.
다음으로 설명용 박스모양을 삽화처리를 실시한다(스텝S125). 즉 설명용 박스모양데이터영역(122)의 박스형상번호(이 경우 No. 0으로 한다)에 대응하는 박스형상데이터(126)를 VRAM(13)에 전송하여 대응하는 표시위치 X좌표 및 Y좌표를 비디오디스플레이프로세서(12)에 설정하다. 다음으로 설명용 박스모양문자표시처리를 실시한다(스텝S126). 즉 설명용 박스모양데이터영역(122)의 설명번호 No. 1에 대응하는 설명용 문자열데이터 「연령은?」을 ROM(2)으로부터 판독하여 VRAM(13)에 전송하고 박스모양틀의 표시위치에 맞춘 위치정보를 비디오디스플레이프로세서(12)에 설정한다. 그 후 스텝S122로 이행하여 다음의 키처리를 판정한다.
이 결과 디스플레이(4)의 메뉴화면은 제25도에 나타내는 바와 같이 박스모양틀(103) 및 이 중의 「연령은?」이라는 설명용 박스모양문자열(131)이 앙케트항목 #1을 지시하는 위치에 이동한다. 사용자는 화면에 특징적으로 항목을 지시하는 박스모양틀(130) 및 설명용 박스모양문자열(131)에 의해 앙케트항목이 연령을 의미하는 항목으로 변경된 것 및 그 항목에 다른 선택지가 있는 것을 인식하여 조작패드(3)를 조작한다.
다음으로 좌우키조작이 이루어져서 십자키(4)의 단부(4b)가 2회 눌러지면 RAM(11)의 CPU내부처리작업영역(124)의 현재항목번호 #1을 참조하여 대응하는 번호 #1의 후보번호를 「2」만큼 증가시키고 No. 1으로부터 No. 2로 변경한다. 그리고 현재항목번호 #1과 변경한 후보번호No. 2에 대응하는 문자열데이터 「중학생」을 ROM(2)의 앙케트항목선택지데이터(128)로부터 판독하여 VRAM(13)에 전송한다. 그 후 스텝S122로 이행하여 다음의 키처리를 판정한다.
이 결과 디스플레이(9)의 메뉴화면은 제26도에 나타내는 바와 같이 앙케트항목 #0의 표시가 「유치원」으로부터 「중학생」으로 변경된다. 사용자는 화면에 특징적으로 항목을 지시하는 박스모양틀(130) 및 설명용 박스모양문자열(131)에 의해 연령에 대해서의 앙케트항목이 조작에 따른 내용으로 변경된 것을 인식하고 조작패드(3)를 차례로 조작하면서 각 앙케트항목에 대하여 소망하는 선택지를 설정하다. 그리고 소망하는 앙케트결과가 얻어진 경우에는 사용자는 조작패드(3)의 결정키(5)를 조작한다.
스텝S22에 있어서, 결정키(5)가 조작된 경우에는 부위화상데이터세트처리를 실시한다(스텝S126). 이 처리에 있어서는 결정된 각 앙케트항목 #0~#4를 기초로 하여 ROM(2)의 테이블(도시하지 않음)을 참조한다. 테이블에는 앙케트항목 #0~#4의 선택지의 조합에 대응하는 부위번호의 데이터가 기록되어 있으며, 결정된 조합에 대응하는 부위번호를 RAM(11)의 부위번호스톡영역(121)에 기록하여 제22도의 메인프로그램인 스텝S103으로 이행한다.
메인프로그램의 스텝S103에 있어서는 부위번호스톡영역(121)에 기록한 부위번호에 대응하는 부위화상데이터를 ROM(2)으로부터 판독하여 VRAM(13)에 전송한다. 이 결과 사용자의 앙케트를 기초로 한 화상이 디스플레이(4)에 표시된다. 또 편집한 화상을 인쇄하는 경우에는 화상데이터를 VRAM(13)으로부터 전송하여 화상데이터스톡영역(123)에 기록하고, 그 기록한 화상데이터를 판독하여 프린터(14)에 출력한다.
이와 같이 상기 실시예 2에 따르면 조작패드(3)에 의하여 선택된 앙케트항목의 영역을 지시하는 지시화상인 박스모양틀(130)이 나타나고, 또한 선택된 앙케트항목을 설명하는 정보인 설명용 박스모양문자열(131)을 박스모양틀(130)중에 표시시키기 때문에 디스플레이(8)의 메뉴화면을 보면서 조작이 실시된 경우 다음의 조작순서를 용이하며, 또한 확실하게 인식시킬 수 있고, 이와 같이 앙케트항목에 더욱이 복수의 선택지가 있는 복잡한 메뉴구조이어도 용이하게 조작을 실시할 수 있다. 따라서 다음의 조작에 당황하여 조작미스를 발생시키거나 초심자인 경우에도 다음의 조작을 할 수 없게 되는 일은 없다.
또한 상기 실시예 2에서는 박스모양틀(130)의 표시영역과 설명용 박스모양문자열(131)의 표시영역을 서로 겹쳐서 표시하도록 했지만 박스모양틀(130)의 표시영역과 설명용 박스모양문자열(131)의 표시영역을 인접하도록 해도 좋다. 요는 박스모양틀(130)과 설명용 박스모양문자열(131)이 특정한 항목을 지시하고, 또한 그 항목에 관한 정보를 갖는 구성이면 좋다.
또 상기 실시예 2에서는 박스모양틀(130)의 형상이 앙케트항목에 따라서 변화하도록 했지만 항목에 불구하고 동일한 형상으로 해도 좋다. 또 상기 실시예 2에서는 지시화상인 박스모양틀(130)의 형상을 추상적인 형상으로 했지만 구체적인 사물을 나타내는 형상의 지시화상이어도 좋다. 이 경우에는 오히려 항목의 내용에 따라서 형상을 변화시키는 편이 좋다. 이 경우에는 항목의 내용을 이미지로도 인식시키기 때문에 더한층 조작이 용이해진다. 또한 형상의 변화만이 아니고 항목에 따라서 지시화상의 색채를 변화시키도록 해도 좋다. 이 경우에는 항목의 내용을 색채로도 인식시키기 때문에 더한층 조작이 용이해진다.
또 상기 실시예 2에서는 본체(1)에 삽입하는 카세트형태의 ROM(2)에 프로그램을 기록하는 구성으로 했지만 ROM을 내장한 원칩CPU를 이용하여 그 내장ROM에 프로그램을 기록하는 구성으로 해도 좋다. 이 경우에는 장치를 소형화하는 것이 가능하게 된다.
또 상기 실시예 2에서는 본체(1)에 일반적인 T.V수상기인 외부표시장치(7)를 접속하도록 했지만 외부표시장치로서는 T.V수상기에 한정되지 않고 퍼스컴 등의 표시장치에 접속해도 좋고 본체(1)에 표시부 및 스피이커 및 조작부를 편입한 구성으로 해도 좋다. 본체(1)에 표시부 등을 편입한 경우에는 매우 콤팩트한 장치를 실현할 수 있다.
또 상기 실시예 2에서는 인물, 동물, 물건 등의 화상작성처리를 실시하는 화상처리장치에 대하여 설명했지만 메뉴화면을 통하여 사용자와 대화형식으로 데이터처리를 실시하는 다른 장치에도 본 발명을 적용할 수 있다. 예를 들면 고기능의 전자수첩이나 워프로에 있어서는 메뉴화면이 복잡한 구조로 되어 있기 때문에 항목을 나타내는 커서의 역할을 갖는 지시화상 및 이 지시화상이 지시하는 항목의 내용을 설명하는 정보를 표시시킴으로써 메뉴화면을 보면서의 조작이 용이해진다.
이하에 본 발명의 화상처리장치의 실시예 3에 대하여 구체적으로 설명한다.
제27도는 본 실시예의 화상처리장치(201)의 회로블록도이며 화상처리장치(201)는 CPU(202)와, ROM(203)과, RAM(204)과, 비디오신호입력부(205)와, 비디오신호변환부(A/D)(206)와, VDP(207)와, 비디오RAM(208)과, 비디오신호변환부(D/A)(209)와, 비디오신호출력부(201)와, 문자입력부(211)와, 콘트롤조작자(212)와, 문자열상황판단부(213)와, 인쇄부(214)로 이루어진다.
CPU(202), ROM(230)과, RAM(204), 비디오신호변환부(A/D)(206), VDP(207), 비디오신호변환부(D/A)(209), 콘트롤조작자(212), 문자열상황판단부(213) 및 인쇄부(214)는 버스(217)에 의해 접속되어 있으며 비디오신호입력부(205)와 비디오신호변환부(A/D)(206), VDP(207)와 비디오RAM(208), 비디오신호변환부(D/A)(209)와 비디오신호출력부(210)는 각각 버스(218)(219)(220)에 의해 접속되어 있다.
그리고 이 화상처리장치(201)의 비디오신호입력부(205)에는 비디오신호발생장치(215)가, 비디오신호출력부(210)에는 비디오신호모니터(216)가 각각 신호케이블(221)(222)을 통하여 접속되어 있다.
ROM(230)에는 화상제어장치로서의 처리에 필요한 프로그램이나 데이터가 기억되어 있다. 이 ROM(230)에 기억되어 있는 각종 데이터로서는 제28도에 나타내어지는 각종 박스모양(1~9)의 화상데이터, 제32도에 나타내는 메뉴화면의 화상데이터, 제40(a)도에 나타내는 문자입력화면의 화상데이터, 문자폰트데이터, 색데이터, 좌표데이터 등이 있다. 여기에서 박스모양이란 인물 등의 발어(發語)내용이나 사고(思考)내용을 나타내는 문자열 등을 둘러싸도록 하여 붙여지는 박스도형을 말한다.
RAM(204)은 CPU(202)의 작업메모리이다. 다만 그 기억영역의 일부는 인쇄용의 버퍼영역에 할당되어 있다. 인쇄용의 버퍼영역의 용량은 1필드분의 화상데이터를 받아들일 수 있을 정도의 용량이다.
CPU(202)는 ROM(230)에 기억된 프로그램에 따라서 RAM(204)을 작업메모리로서 사용하면서 화상제어장치(1)의 각 부를 제어한다.
비디오신호입력부(205)는 비디오신호발생장치(215)로부터 신호케이블(221)을 통하여 보내어져 오는 비디오신호를 비디오신호변환부(A/D)(206)에 출력하고, 비디오신호변환부(A/D)(206)는 이 비디오신호를 디지털신호로 변환한다.
VDP(207)는 RAM(204)상에 전개된 화상데이터를 비디오RAM(VRAM)(14)에 차례로 받아들이고, 그 화상데이터를 비디오신호변환부(D/A)(209) 등에 출력한다.
비디오신호변환부(D/A)(209)는 화상데이터를 비디오신호로 변환하여 비디오신호출력부(210)에 출력하고 비디오신호출력부(210)는 이 비디오신호를 비디오신호모니터(216)에 출력한다.
콘트롤패널(212)은 각종 콘트롤조작자로서의 A보턴, B보턴, C보턴, D보턴, L보턴, R보턴, 스타트보턴 및 셀렉트보턴과 전원스위치를 패널상에 배치하여 이루어지고 각종 콘트롤조작자의 조작신호는 CPU(202)에 입력된다.
문자열 상황판별부(213)는 그 내부메모리에 즐겁다, 화나 있다, 의심하고 있다, 울고 있다 등의 심리적 상황과 각 상황의 표현에 있어서 기호열의 끝에 사용되는 여백기호 “ ”, 감탄부“!”, 의문부“?” 등의 특정한 기호를 각각 대응시킨 상황판별테이블을 갖고, 표시되어 있는 입력문자열의 끝의 기호를 기초로 하여 그 입력문자열에 따라서 표현되어 있는 상황의 판별을 실시한다.
인쇄부는 RAM(204)의 인쇄용의 버퍼영역에 전개된 화상데이터를 인쇄한다.
문자입력부(211)는 실시예 3에 있어서는 RAM(203)에 기억되어 있는 문자입력화면의 화상데이터를 비디오신호모니터(216)에 표시하고 문자입력화면상의 문자나 기호 등을 커서지정하여 콘트롤패널(212)의 A보턴을 누름으로써 문자입력이 이루어지는 가상적인 장치이며 문자입력화면의 표시중은 비디오신호모니터(216)가 문자입력부(211)로서 기능한다.
비디오신호발생장치(215)에는 가정용의 비디오플레이어, 캠코더 등이 사용된다.
비디오신호모니터(216)는 가정용 T.V 등 비디오신호를 시각적으로 표시할 수 있는 모니터장치이다.
다음으로 본 실시예의 화상제어장치(1)의 동작예에 대하여 제42도~제46도의 흐름도와 제28도~제41도를 이용하여 설명한다. 또한 이하에 나타내는 각 스텝의 동작은 CPU(202)가 ROM(203)에 기억되어 있는 프로그램의 명령을 차례로 실행함으로써 이루어지는 것이다.
콘트롤패널(212)의 전원스위치가 ON되면 제42도에 나타내는 프로그램(메인루틴)이 실행되고, 우선 RAM(204)이나 VRAM(208)의 데이터를 전부 제거하는 등 화상제어장치(201)의 각 부의 초기화처리가 이루어지고(스텝S201), 그 후 비디오신호발생장치(215)에 의해 비디오신호의 입력이 개시된다(스텝S202).
그 후 VDP(207)가 RAM(204)에 액세스하고 있는지 아닌지가 판단되고(스텝S203), 액세스하고 있지 않다고 판단된 경우에는 비디오신호발생장치(215)에 의해 생성된 비디오신호가 비디오신호입력부(205)를 통하여 비디오신호변환부(A/D)(206)에 입력되고 디지털신호로 변환된 후 VDP(207)에 의해 VRAM(208)에 차례로 기입된다(스텝S204). VRAM(208)에 기입된 화상데이터는 VDP(207)에 의해 비디오신호변환부(D/A)(209)에 차례로 출력되고 비디오신호변환부(D/A)(209)에서 아날로그신호로 변환된 후 비디오신호출력(210)을 통하여 비디오신호모니터(216)에 출력된다. 이에 따라 제29(a)도에 나타내는 바와 같이 비디오신호발생장치(215)에서 입력된 화상(받아들임화상)이 비디오신호모니터(216)의 화면상에 표시된다.
다음으로 콘트롤조작자에 의한 입력조작이 이루어졌는지 아닌지가 판단되고(스텝S205), 입력조작이 이루어졌다고 판단된 경우에는 또한 그 입력이 A보턴에 의해 이루어졌는지 아닌지가 판단된다(스텝S206). 그리고 스텝S205에 있어서 입력이 A보턴에 의해 이루어졌다고 판단된 경우에는 비디오신호발생장치(215)에 의해 생성된 비디오신호가 비디오신호입력부(205), 비디오신호변환부(A/D)(206)를 통하여 RAM(204)의 정해진 기억영역에 차례로 기입된다(스텝S207).
그 후 콘트롤조작자에 의한 입력조작이 이루어졌는지 아닌지가 판단되고(스텝S208), 입력조작이 이루어졌다고 판단된 경우에는, 또한 그 입력이 시작보턴에 의해 이루어졌는지 아닌지가 판단된다(스텝S209). 그리고 스텝S209에서, 시작보턴에 의한 입력이라고 판단된 경우에는 스텝S210에서 제46도에 나타내는 처리(D)의 프로그램이 실행된다.
처리(D)에 있어서는, 우선 ROM(203)에 기억된 문자입력화면의 화상데이터가 VDP(207)에 의해 VRAM(208)에 기입되고 비디오신호변환부(D/A)(209), 비디오신호출력부(210)를 통하여 비디오신호모니터(216)에 출력된다. 이에 따라 비디오신호모니터(216)의 화면에 제40(b)도에 나타내는 문자입력화면이 표시된다(스텝S601). 문자입력화면에는 입력문자열외에 “A”, “a”, “☆”, “END” 등의 입력지정기호도 표시된다. 덧붙여서 “A”, “a”, 및 “☆”은 각각 대문자 입력, 소문자 입력 및 암호 입력을 지정하기 위한 기호이다. 또 “END”는 문자입력의 종료를 지정하기 위한 기호이다.
문자입력화면이 표시되어 있는 있는 상태에서 콘트롤패널(212)의 상, 하, 좌, 우보턴을 조작함으로서 화면상을 커서가 이동하고 커서위치의 문자 등이 강조표시된다. 그리고 입력을 희망하는 문자, 그 밖의 기호나 “END”, “☆” 등의 입력지정기호를 강조표시시키면서 콘트롤패널(212)의 A보턴을 누름으로써 문자입력 및 입력지정이 실시된다.
그리고 문자입력화면에 의한 문자입력이 이루어지고 있는 사이 콘트롤조작자에 의한 입력조작이 이루어졌는지 아닌지가 판단되고(스텝S602), 입력조작이 이루어졌다고 판단된 경우에는, 또한 그 입력이 A보턴에 의해 이루어졌는지 아닌지가 판단된다(스텝S603). 그리고 A보턴이 눌러졌다고 판단될 때마다 그 때 어떠한 입력지정의 상태가 되어 있는지가 판별된다(스텝S604).
그리고 예를 들면 암호입력지정의 상태가 되어 있다고 판단된 경우에는 입력문자가 ROM(203)에 기억되어 있는 암호변환테이블(제41도 참조)에 의해 암호로 변환된다(스텝S605). 그리고 암호변환된 문자열의 화상데이터가 VDP(207)에 의해 RAM(208)에 기입되고, 이 문자열의 화상데이터와 비디오신호발생장치(215)에 의해 입력된 화상데이터가 비디오신호변환부(D/A)(209), 비디오신호출력부(210)를 통하여 비디오신호모니터(216)에 출력된다. 이에 따라 제40(c)도에 나타내는 바와 같이 모니터화면의 상단에 암호변환된 입력문자열이 표시된다(스텝S606). 또 통상의 입력지정상태가 되어 있을 때에는 제40(d)도에 나타내는 바와 같이 모니터화면의 상단에 암호변환되어 있지 않은 입력문자열이 표시된다.
다만 입력문자의 표시글자수에는 상한이 있으며, 문자입력이 이루어질 때마다 입력문자수가 표시문자수의 상한(이 경우 12문자)을 웃도는지 아닌지가 판단되고(스텝S607), 웃돌고 있지 않다고 판단된 경우만 표시가 이루어진다(스텝S608).
그 후 스텝S604에 있어서, 문자입력종료의 상태가 되었다고 판단되면 화면에 표시되어 있는 입력문자열의 각 문자의 화상데이터(폰트데이터)가 ROM(203)으로부터 판독되고 RAM(204)내의 정해진 기억영역에 전개된다(스텝S609). 그리고 RAM(204)상에 전개된 문자열의 화상데이터가 VDP(207)에 의해 RAM(208)에 기입되고, 이 문자열의 화상데이터와 받아들임화상의 화상데이터가 합성되고 비디오신호변환부(D/A)(209), 비디오신호출력부(210)를 통하여 비디오신호모니터(216)에 출력된다. 이에 따라 제29(b)도에 나타내는 바와 같이 화면에 표시된 인물의 얼굴 옆에 입력문자열이 표시된다.
이상으로 문자입력처리가 종료되고, 그 후 메인루틴(제42도)으로 되돌아가서 문자입력처리(스텝S210)에 있어서 문자입력이 있었는지 없었는지가 판단된다(스텝S211). 그리고 문자입력 있음이라고 판단된 경우에는 다음의 스텝S212에서 제43도에 나타내는 처리(A)의 프로그램이 실행된다.
처리(A)에 있어서는 우선 A보턴, C보턴, D보턴, L보턴중 어느 보턴이 눌러졌는지가 판단되고(스텝S301), 어느 보턴도 눌러지지 않는다고 판단된 경우에는 스텝S302에서 제44도에 나타내는 처리(B)의 프로그램이 실행된다.
처리(B)에서는 우선 미리 정해진 가장 표준적인 박스모양의 화상데이터(3차 베제데이터)가 ROM(203)으로부터 판독되고, RAM(204)내의 정해진 기억영역에 전개된다(스텝S401). 이때 이미 RAM(204)상에 전개되어 있는 문자열을 박스모양으로 둘러싸도록 하여 박스모양의 화상데이터의 전개가 이루어진다.
그리고 RAM(204)상에 전개된 문자열의 화상데이터와 박스모양의 화상데이터가 VDP(207)에 의해 VRAM(208)에 기입되고 문자열의 화상데이터와 박스모양의 화상데이터와 받아들임화상의 화상데이터가 합성되어 비디오신호변환부(D/A)(209), 비디오신호출력부(210)를 통하여 비디오신호모니터(216)에 출력된다. 이에 따라 제30(c)도에 나타내는 바와 같이 받아들임화상과 입력문자열의 화상과 박스모양의 화상을 포함하는 합성화상이 표시된다.
그 후 셀렉트보턴이 눌러졌는지 아닌지가 판단되고(스텝S402). 눌러졌다고 판단된 경우에는 문자열상황판별부(213)에서 현재 표시되어 있는 입력문자열의 끝의 기호(여백기호“ ”, 감탄부“!”, 의문부“?” 등)를 기초로 하여, 그 입력문자열에 의하여 표현되어 있는 상황(즐겁다, 화나 있다. 의심하고 있다., 울고 있다 등)의 판별이 이루어지고, 또한 ROM(203)에 기억되어 있는 변환테이블(제39도)을 참조함으로써 변환테이블중의 어느 조건과 일치하고 있는지가 조사된다(스텝S403). 그리고 그 참조결과로부터 대응하는 박스모양이 선택되면(스텝S404), 그때까지 RAM(204)상에 전개되고 있었던 박스모양의 화상데이터가 선택된 박스모양의 데이터로 개서된다(스텝S405). 이에 따라 화면에 표시되어 있는 인물 등의 심리적 상황을 보다 효과적으로 표현할 수 있는 박스모양의 화상이 자동적으로 표시된다.
또 처리(A)(제43도)의 스텝S301에 있어서, A보턴이 눌러졌다고 판단되면 입력문자열의 문자수가 미리 설정된 문자수 이상인지 이하인지가 판별된다(스텝S303). 그리고 만일 설정문자수를 6문자로 한 경우 입력문자수가 6문자 이상인 경우에는 입력문자열이 6문자째에서 자동적으로 되풀이된다(스텝S304). 다음으로 그 되풀이된 입력문자열의 크기(세로 y1, 가로 x1)가 계산되고(스텝S305), 또한 그 계산 결과를 토대로 그 입력문자열을 둘러쌀 수 있는 박스모양의 크기(세로 y2, 가로 x2)가 계산된다(스텝S306). 이때 박스모양의 크기(세로 y2, 가로 x2)는 문자열의 크기(가로 y1, 가로 x1)에 대하여 세로, 가로 함께 예를 들면 1.4배의 크기가 되도록 계산된다. 그 후 입력문자열의 중심위치(yc, xc)가 계산되고(스텝S307), 입력문자열의 중심위치에 박스모양의 중심위치를 일치시키도록 RAM(204)상에 박스모양의 화상데이터가 전개된다(스텝S308). 이에 따라 되풀이된 입력문자열이 박스모양내에 수습되도록, 또한 보기 좋은 적절한 위치에 배치되도록 자동적으로 박스모양이 표시된다(제31(a)도, 제31(b)도 참조).
또 이상과 같이 하여 받아들임화상에 박스모양부착메시지정보를 붙인 후 콘트롤패널(212)의 L보턴을 누름으로써 VDP(216)에 의하여 외견상 합성되어 표시되어 있는 문자열의 화상데이터, 박스모양의 화상데이터 및 받아들임화상의 화상데이터가 하나의 화상데이터로서 RAM(204)의 인쇄용의 버퍼영역에 전개되고, 그 화상데이터가 인쇄부(214)에 의해 인쇄된다(제30(c)도, 제31(c)도 참조).
또 스텝S301에 있어서, L보턴이 눌러졌다고 판단되면, 또한 A보턴이 눌러졌는지 아닌지가 판단된다(스텝S309). 그리고 A보턴이 눌러졌다고 판단된 경우에는 그 후에 A모턴이 눌러진 횟수가 짝수회인지 홀수회인지가 판단된다(스텝S310). 그리고 스텝S311에 있어서 짝수회(0회를 포함한다)라고 판단된 경우는 RAM(204)내의 박스모양의 화상데이터를 상하 반전시킨 데이터가 계산되고(스텝S311). RAM(204)상의 박스모양이 화상데이터가 상하 반전시킨 데이터에 고쳐 써진다. 또 스텝S310에 있어서 홀수회라고 판단된 경우는 RAM(204)내의 박스모양의 화상데이터를 좌우 반전시킨 데이터가 계산되고(스텝S313), RAM(204)상의 박스모양의 화상데이터가 좌우 반전시킨 데이터에 고쳐 써진다. 따라서 L보턴이 눌러진 후 A보턴이 눌러질 때마다 제38도에 나타내는 바와 같이 박스모양의 화상이 차례로 상하 반전→좌우 반전→상하 반전을 반복하게 된다.
또 처리(A)의 스텝S301에 있어서, C보턴이 눌러졌다고 판단되면 ROM(203)에 기억되어 있는 메뉴화면(제32도)의 화상데이터가 VDP(207)에 의해 VRAM(208)에 기입되고 제33(a)도~제36(a)도에 나타내는 바와 같이 표시중의 화상에 겹쳐서 메뉴화면이 표시된다(스텝S314).
제32도에 나타내는 메뉴화면에 있어서, “문자”는 문자의 색을, “틀”은 박스모양의 틀(윤곽선)의 색을, “인삿말”은 박스모양의 내측의 색을, “크기”는 문자의 크기를, “종류”는 박스모양의 형태를 각각 지정하기 위한 입력키열인 것을 나타내고, 가로나열로 표시된 하나 하나의 입력키가 상기 각 속성의 패러미터로 되어 있다. 그리고 “문자”, “틀”, “인삿말”의 패러미터는 실제의 색(왼쪽으로부터 차례로 적색, 오렌지색, 황색, 녹색, 물색, 청색, 백색, 흑색, 투명색)으로 나타내어진다. 또 “크기”의 패러미터는 수값 1~9로 나타내어진다. 덧붙여서 각 수값 1~9와 화소수의 대응관계는 1:16도트, 2:20도트, 3:24도트, 4:32도트, 5:48도트, 6:60도트, 7:72도트, 8:96도트, 9:128도트로 되어 있다. 또 “종류”의 패러미터도 똑같이 수값 1~9로 나타내어진다.
이 메뉴화면이 표시되어 있는 상태에서 콘트롤패널(212)의 상, 하, 좌, 우의 커서보턴을 조작함으로써 화면상을 커서가 이동하여 커서위치의 입력키가 강조표시된다. 그리고 소망하는 입력키를 강조표시시키면서 콘트롤패널(212)의 A보턴을 누름으로서 화면에 표시되어 있는 박스모양의 속성에 관한 변경지정이 실시된다.
즉 메뉴화면 표시후 콘트롤조작자에 의한 입력이 이루어졌는지 아닌지가 판단되고(스텝S315), 입력이 이루어졌다고 판단된 경우, 그 입력이 커서보턴(상, 하, 와, 우)의 조작에 의한 것인지가 판단된다(스텝S316). 그리고 커서보턴의 조작이라고 판단되면, 다음으로 A보턴이 눌러졌는지 아닌지가, 즉 변경값을 지정하는 입력이 있었는지 아닌지가 판단된다(스텝S317). 그리고 A보턴이 눌러졌다고 판단된 경우, 그 지정된 변경값이 문자의 색, 박스모양의 틀의 색, 박스모양의 내측의 색, 문자의 크기 및 박스모양의 형태중 어떤 속성을 변경하는 것인지가 판단된다(스텝S318).
그리고 지정된 변경값이 문자의 색이 변경값이라고 판단된 경우 VDP(207)에 의해 문자의 컬러데이터가 변경되고 VRAM(208)상의 문자열데이터의 색번호를 변경하도록 데이터가 개서된다(스텝S319). 이에 따라 화면에 표시되어 있는 박스 내부의 문자의 색을 변화시킬 수 있다.
또 스텝S318에 있어서, 지정된 변경값이 박스모양의 틀의 색의 변경값이라고 판단된 경우 VDP(207)에 의해 박스모양의 틀의 컬러데이터가 변경되고 VRAM(208)상의 박스모양의 화상데이터속의 틀의 색번호를 변경하도록 데이터가 개서된다(스텝S320). 이에 따라 화면에 표시되어 있는 박스모양의 틀의 색을 변화시킬 수 있다(제33도 참조).
또 스텝S318에 있어서, 지정된 변경값이 박스모양의 내측의 색의 변경값이라고 판단된 경우 VDP(207)에 의해 박스모양의 내부의 컬러데이터가 변경되고 VRAM(208)상의 박스모양의 화상데이터속의 박스모양의 내부에 색번호를 변경하도록 데이터가 개서된다(스텝S321). 이에 따라 화면에 표시되어 있는 박스모양의 틀의 색을 변화시킬 수 있다(제34도 참조).
또 스텝S318에 있어서, 지정된 변경값이 문자열의 크기의 변경값이라고 판단된 경우 RAM(204)상에 전개되어 있는 문자열데이터의 크기가 변경되고(제35(b)도 참조), 또한 그 문자열의 크기에 따라서 RAM(204)상에 전개되어 있는 박스모양데이터를 적정한 크기로 고쳐 계산하고(예를 들면 문자열의 크기(세로/가로)의 140%가 되도록 계산하고), 다시 RAM(204)상에 전재한다(스텝S322). 이에 따라 문자열의 크기의 변화에 동반하여 박스모양의 크기를 자동적으로 신축할 수 있다(제35(c)도 참조).
또 스텝S318에 있어서, 지정된 변경값이 박스형상의 변경값이라고 판단된 경우 변경값에 대응하는 형상의 박스모양데이터가 ROM(230)으로부터 판독되어 RAM(304)상에 고쳐 전개하고, 또한 그 박스의 형상 및 크기에 따라서 RAM(304)상에 전개되어 있는 문자열데이터를 적정한 크기 및 배치로 변경하여 RAM(304)상에 고쳐 전개한다(스텝S323). 이에 따라 박스형상의 변화에 동반하여 박스모양내의 문자열의 크기 및 배치를 자동적으로 변화시킬 수 있다(제36도 참조).
또 처리(A)의 스텝S301에 있어서, D보턴이 눌러졌다고 판단되면 스텝S324에서 제45도에 나타내는 처리(C)의 프로그램이 실행된다.
처리(C)에서는 우선 이미 박스모양이 표시되어 있는지 아닌지가 판단되고(스텝S502), 표시되어 있다고 판단된 경우는 문자열과 박스모양이 그룹화되고(스텝S502), 다음으로 제37(b)도에 나타내는 바와 같이 모니터화면상에 「손」의 형태를 한 이동커서가 박스모양의 부분에 약간 겹쳐지도록 하여 표시된다(스텝S503). 그 후 콘트롤조작자에 의한 입력이 이루어졌는지 아닌지가 판단되고(스텝S504), 입력이 이루어졌다고 판단된 경우, 그 입력이 커서보턴(상, 하, 좌, 우)의 조작에 의한 것인지가 판단된다(스텝S505). 그리고 커서보턴의 조작이라고 판단되면, 그 조작에 따라서 이동커서가 임의의 위치로 이동되고, 이 이동커서의 이동에 동반하여 RAM(204)상의 박스모양의 화상데이터 및 문자열의 화상데이터도 이동된다(스텝S508). 이에 따라 박스모양과 문자열을 동시에 이동시킬 수 있다. 또 이때 제37(c)도에 나타내는 바와 같이 화상중의 「손」이 박스모양과 문자열을 운반하고 있는 것같이 보이게 할 수 있다. 그리고 A보턴이 눌러지면 이동이 종료되고 제37(c)도에 나타내는 바와 같이 이동커서가 화면상에서 지워진다(스텝S506, S507).
실시예 3의 화상제어장치는 가정용의 비디오플레이어 등을 비디오신호발생장치에 사용하여 여러 가지 인물이나 동물의 화상을 받아들이고, 그 화상에 문자 또는 문자열을 입력할 때에 여러 가지 박스모양을 붙일 수 있기 때문에 인물이나 동물의 여러 가지 표정에 여러 가지 박스모양부착 메시지정보를 첨가하여 생생한 화상표시를 실시할 수 있다.
또 이와 같이 여러 가지 화상에 박스모양부착 메시지정보를 붙이고, 그것을 인쇄부(214)에 의해 인쇄할 수 있기 때문에 인쇄한 것을 가족이나 친구의 선물 등에 이용할 수 있다.
또 본 발명은 상기 실시예 3에 한정되는 것은 아니다.
예를 들면 상기 실시예 3의 화상제어장치는 ROM(203)에 기억되어 있는 문자입력화면의 화상데이터를 비디오신호모니터(216)에 표시함으로써 가상적으로 문자입력부(211)를 실현하고 있는데, 이를 실제의 장치로서 구비해도 좋은 것은 말할 것도 없다.
또 인물이나 동물 등의 얼굴 화상에 박스모양부착 메시지정보를 첨가하여 표시할 수 있는 기능을 갖고 있는 것만으로도 충분히 높은 오락적 기능을 발휘할 수 있기 때문에 인쇄기능은 반드시 필요하지는 않다.
다음으로 본 발명이 실시예 4에 대하여 설명한다.
A. 실시예 4의 구성
(1) 전체 구성
제47도는 본 발명의 실시예에 의한 얼굴화상 작성장치(301)의 전체 구성을 나타내는 블록도이다. 이 얼굴화상 작성장치(301)는 후술하는 구성요소(310~316)를 기초로 하여 생성되는 콤포지트비디오신호(Sv)를 디스플레이장치(302)에 공급한다. 디스플레이장치(302)는 예를 들면 통상의 T.V수상기, 또는 VDT(비디오·디스플레이·터미널)이며 얼굴화상 작성장치(301)측으로부터 공급되는 콤포지트비디오신호(Sv)에 다른 화상을 화면표시한다.
얼굴화상 작성장치(301)에 있어서, “301”은 각종 조작스위치를 구비하는 콘트롤러이며 조작자에 의한 스위치조작에 따른 조작신호를 발생시킨다. 이 콘트롤러(301)에는 제48도에 나타내는 바와 같이 커서를 상하방향으로 이동시키는 상하키 및 좌우방향으로 이동시키는 좌우키로 구성되는 커서키(CUR), 상기 커서키(CUR)에 의해 선택되는 아이콘처리를 결정하는 결정키(ENT), 설정을 해제하는 해제키(ESC)가 설치되어 있다. “311”은 콘트로러(310)가 발생시키는 조작신호를 기초로 하여 장치 각 부를 제어하는 CPU이며, 그 동작에 대해서는 후술한다. 또한 CPU(311)는 도시되어 있지 않은 DMA콘트롤러 등의 주변장치를 포함하여 DMA전송할 수 있게 구성되어 있다.
“312”는 ROM이며 CPU(311)에 의하여 로드되는 얼굴화상 작성프로그램외에 얼굴화상이나 박스모양(후술하는)을 표시하는 화상데이터, 또는 아이콘 조작이 이루어지는 조작화면을 표시하기에 필요한 화상데이터가 기억되어 있으며, 그 메모리구성에 대해서는 후술한다. “313”은 CPU(311)의 연산결과나 플러그값을 일시 기억하는 각종 레지스터외에 상기 ROM(312)으로부터 판독되는 각종 화상데이터나 속성데이터(후술하는)가 격납되는 작업RAM이며, 그 메모리구성에 대해서는 추후에 상세히 서술한다. “314” CPU(311)의 지시하에 표시제어하는 비디오·디스플레이·프로세서(이하 VDP라 한다)이며 VRAM(215)에 DMA전송되는 각종 화상데이터를 표시데이터(RGB데이터)로 변환하여 출력한다.
VRAM(315)은 CPU(U31)의 지시에 의해 작업RAM(313)측으로부터 DMA 전송되는 얼굴화상이나 박스상을 형성하는 화상데이터, 또는 아이콘조작이 이루어지는 조작화면을 표시하기에 필요한 화상데이터를 일시 기억한다. “316”은 엔코더이며 상기한 VDP(314)로부터 출력되는 표시데이터(RGB데이터)를 콤포지트비디오신호(Sv)로 변환하여 출력하고 디스플레이장치(302)에 공급한다.
상기 구성에 따르면 콘트로러(310)의 조작에 따라서 선택된 부위화상에 의해 소망하는 용모의 얼굴화상이 형성되는 한편, 이 형성된 얼굴화상의 특징을 나타내는 속성데이터(후술하는)에 따라서 상기 얼굴화상에 조화시키는 형태로 박스모양 표시가 이루어진다.
(2) ROM(312)의 메모리구성
제49도 및 제50도는 ROM(312)에 있어서의 화상기억영역의 구성을 나타내는 메모리도이다. 우선 제49도에 있어서, “KP”는 얼굴부위화상데이터기억영역이며 얼굴의 각 부위를 그리는 각종 부위화상을 기억하는 데이터영역(KP1~KP5)으로 형성된다. 데이터영역(KP1~KP5)은 각각 「머리」, 「윤곽」, 「눈」, 「코」 및 「입」을 그리는 부위화상데이터가 N종류분량 격납되어 있으며, 예를 들면 「머리」부분의 부위화상을 기억하는 데이터영역(KP1)에서는 부위화상데이터(KP1(l)~KP1(N))가 격납되어 있으며, 이 격납형태는 다른 데이터영역(KP2~KP5)에 있어서도 똑같다.
“ME”는 박스모양 화상데이터 기억영역이며 박스모양 표시할 때의 박스모양틀을 그리는 박스모양 화상데이터가 격납되는 데이터영역(ME1)과 박스모양틀내에 표시되는 문자열을 그리는 박스모양문자열화상데이터가 격납되는 데이터영역(ME2)으로 형성된다. 데이터영역(ME1)(ME2)에는 각각 N종류의 박스모양화상데이터(ME1(l)~ME(N))와 박스모양문자열화상데이터(ME2(l)~ME(2N))가 격납되어 있다.
“KPT”는 상기 영역(KP)에 기억되어 있는 얼굴부위화상을 변형시키는 얼굴부위용 변환테이블이다. 이 테이블(KPT)에서는 상기 영역(KP)에 기억되어 있는 얼굴부위화상에 대하여 희로애락의 표정을 부여하기 위한 화상변형 패러미터가 기억되어 있으며, 후술하는 표정데이터에 따라서 화상변형패러미터가 테이블판독된다.
“MET”는 박스모양틀용 변환테이블이다. 이 테이블(MET)는 얼굴화상에 부수하는 속성데이터에 따라서 박스모양틀의 형상을 지정하는 박스모양틀번호를 발생시킨다. “MECT”는 박스모양문자열변환테이블이며 얼굴화상에 부수하는 속성데이터에 대응한 박스모양문자열틀을 지정하는 데이터를 발생시킨다.
“KPST”는 얼굴부위선택용 테이블이다. 이 테이블(KPST)은 성별, 연령, 체형, 성격 및 표정을 나타내는 속성데이터에 따라서 얼굴의 각 부위의 부위화상을 선택하는 데이터를 발생시킨다. 즉 테이블(KPST)에서는 후술하는 앙케트형식으로 소망하는 용모의 얼굴화상을 작성하는 경우 앙케트결과로부터 얻어지는 속성데이터를 기초로 하여 그 얼굴화상을 형성하기에 필요한 각 부위의 부위화상데이터를 선택 지정하기 위한 데이터를 발생시킨다.
“FE”는 화일영역이며 얼굴의 각 부위의 부위화상을 지정하는 데이터를 각 얼굴별로 화일기억한다. 여기에서 제50도를 참조하여 화일영역(FE)의 메모리구성에 대하여 상세히 서술한다.
화일영역(FE)은 제50도에 도시하는 바와 같이 화일영역(A~D)로 이루어지고, 각 화일영역에는 데이터(NUM)(FN)(PN0~PN5)(ATT1~ATT4) 및 (ME2N)가 기억된다. 여기에서 데이터(NUM)는 화일번호, (FN)은 화일명을 나타낸다. 또 데이터(PN0~PN5)는 각각 「배경」. 「머리」, 「윤곽」, 「눈」, 「코」 및 「입」의 부위화상을 지정하는 부위번호이다. 이들 부위번호가 상기한 얼굴부위화상데이터영역(KP)에 격납되는 각 부위의 부위화상데이터를 지정한다. 또한 데이터(PN0)에 대응하는 배경화상은 도시되어 있지 않은 배경화상영역에 기억되어 있다. 데이터(ATT1~ATT4)는 표시하는 얼굴화상의 「성별」, 「연령」, 「체형」 및 「성격」을 나타내고, 데이터(ME2N)은 상기한 박스모양문자열화상데디터(ME2)의 박스모양문자열을 지정한다. 또한 이들 데이터군을 이하 화상지정데이터라 한다.
또 ROM(312)에는 상기 화일영역(FE)외에 아이콘조작이 이루어지는 각종 선택화면을 형성하는 화면데이터가 복수 기억되어 있다. 그 주요한 화면데이터로서는 제50도에 나타내는 바와 같이 모드선택화면(MSD), 앙케트화면(AMD), 연령선택화면(OSD), 체형선택화면(BSD), 화일선택화면(FSD), 틀선택화면(WSD), 문자열선택화면(MOSD) 및 박스모양선택화면(FWSD)으로 이루어진다. 이하 이들 각 화면의 구성과 그 화면이 의도하는 점에 대하여 개략적으로 설명해 둔다.
(3) 조작화면의 구성
a. 모드선택화면(MSD)
모드선택화면(MSD)은 얼굴화상을 후술하는 앙케트방식 또는 화일방식의 어느쪽으로 실시하는지를 선택하는 화면이며, 이 화면(MSD)에는 제5(a)도에 도시하는 바와 같이 아이콘(ICMSD1)(ICMSD2)이 표시된다. 아이콘(ICMSD1)은 상기한 화일영역(FE)의 화일(A~D)을 선택할 때에 조작되는 아이콘이다. 한편 아이콘(ICMSD2)은 후술하는 앙케트방식으로 얼굴화상을 작성하는 경우에 조작되는 아이콘이다. 이들 아이콘(ICMSD1)(ICMSD2)내, 조작된 측이 비트반전등에 의해 강조표시된다. 또한 제51(a)도에서는 아이콘(ICMSD1)이 아이콘조작된 상황을 나타내고 있다.
b. 화일선택화면(FSD)
상기 모드선택화면(MSD)에 있어서 아이콘(ICMSD1)이 조작된 경우에 제51(b)도에 나타내는 화일선택화면(FSD)이 화면표시된다. 이 화면(FSD)에는 화일(A~D)에 대응하는 아이콘(ICFSD1)(ICFSD4)이 표시된다. 이들 아이콘(ICFSD1)(ICFSD4)의 어느쪽인가를 아이콘조작하는 것으로 대응하는 화일로부터 상기한 화상지정데이터가 판독된다. 화일로부터 판독된 화상지정데이터를 기초로 하여 대응하는 각종 화상데이터가 ROM(312)측으로부터 작업RAM(313)에 격납된 후 VRAM(315)측으로 DMA전송되어 VDP(314)에 의해 얼굴화상으로서 화면표시된다.
c. 앙케트화면(AMD)
상기 모드선택화면(MSD)에 있어서 아이콘(ICMSD2)이 조작된 경우에 제52도에 나타내는 앙케트화면(AMD)이 화면표시된다. 이 화면(AMD)은 얼굴화상을 신규로 작성할 때에 사용자에 대하여 질문하는 앙케트항목이 아이콘(ICAMD1)(ICAMD5)으로서 표시된다. 아이콘(ICAMD1)은 얼굴화상을 작성하는 대상인물의 성별을 묻기 위한 것으로, 이를 아이콘조작하는 것으로 후술하는 성별선택화면(SSD)으로 표시전환된다. 아이콘(ICAMD2)은 얼굴화상을 작성하는 대상인물의 연령을 묻기 위한 것으로, 이를 아이콘조작하는 것으로 후술하는 연령선택화면(OSD)으로 표시전환되다. 아이콘(ICAMD3)은 얼굴화상을 작성하는 대상인물의 체형을 묻기 위한 것으로, 이를 아이콘조작하는 것으로 후술하는 체형선택화면(BSD)으로 표시전환된다. 아이콘(ICAMD4)은 얼굴화상을 작성하는 대상인물의 성격을 묻기 위한 것으로, 이를 아이콘조작하는 것으로 후술하는 성격선택화면(CSD)으로 표시전환된다. 아이콘(ICAMD5)은 앙케트입력을 완료할 때에 조작되는 것이다.
d. 성별선택화면(SSD)
상기 앙케트화면(AMD)에 있어서 아이콘(ICAMD1)이 조작된 경우에 제52도에 나타내는 성별선택화면(SSD)이 화면표시된다. 이 화면(SSD)에는 대상인물의 성별을 입력하는 아이콘(ICSSD1)(ICSSD2)이 표시되고 조작에 따라서 지정되는 성별데이터가 작업RAM(313)의 속성데이터영역(ATT)(후술하는)에 격납된다.
e. 연령성택화면(OSD)
상기 앙케트화면(AMD)에 있어서 아이콘(ICAMD2)이 조작된 경우에 제52도에 나타내는 연령선택화면(OSD)이 화면표시된다. 이 화면(OSD)에는 대상인물의 체형을 입력하는 아이콘(ICOSD1)(ICOSD3)이 표시되고 조작에 따라서 지정되는 연령데이터가 작업RAM(313)의 속성데이터영역(ATT)(후술하는)에 격납된다.
f. 체형선택화면(BSD)
상기 앙케트화면(AMD)에 있어서 아이콘(ICAMD3)이 조작된 경우에 제52도에 나타내는 체형선택화면(BSD)이 화면표시된다. 이 화면(BSD)에는 대상인물의 성격을 입력하는 아이콘(ICBSD1)(ICBSD3)이 표시되고 조작에 따라서 지정되는 체형데이터가 작업RAM(313)의 속성데이터영역(ATT)(후술하는)에 격납된다.
g. 성격선택화면(CSD)
상기 앙케트화면(AMD)에 있어서 아이콘(ICAMD4)이 조작된 경우에 제52도에 나타내는 성격선택화면(CSD)이 화면표시된다. 이 화면(CSD)에는 대상인물의 연령을 입력하는 아이콘(ICCSD1)(ICCSD3)이 표시되고 조작에 따라서 지정되는 성격데이터가 작업RAM(313)의 속성데이터영역(ATT)(후술하는)에 격납된다.
h. 틀선택화면(WSD)
상기한 화일방식 또는 앙케트방식에 의해 얼굴화상이 작성된 후, 그 얼굴화상과 함께 화면표시되는 「박스모양틀」, 또는 「박스모양문자열」을 선택할 때에 제53(a)도에 나타내는 틀 선택화면(WSD)이 화면표시된다. 이 화면(WSD)에는 「박스모양틀」을 선택하는지 안하는지, 「박스모양문자열」을 선택하는지 안하는지, 또는 「종료」하는지 안하는지를 선택하는 각 아콘(ICWSD1~ICWSD3)이 표시되고, 그 아이콘조작에 따라서 박스모양틀선택화면(FWSD) 또는 문자열선택화면(MOSD)으로 전환표시된다.
I. 문자열선택화면(MOSD)
상기의 틀선택화면(WSD)에 있어서 아이콘(ICWSD2)이 조작된 경우에 제53(b)도에 나타내는 문자열선택화면(MOSD)이 화면표시된다. 이 화면(MOSD)에는 기본박스모양문자열(메시지문)을 선택하는 아이콘(ICMOSD1)(ICMOSD4)가 표시되고, 조작에 따라서 박스모양문자열번호가 생성되고 작업RAM(313)의 화상지정데이터영역(IMD)(후술하는)에 격납된다.
j. 박스모양틀선택화면(FWSD)
상기의 틀선택화면(WSD)에 있어서 아이콘(ICWSD1)이 조작된 경우에 제53(c)도에 나타내는 박스모양틀선택화면(FWSD)이 화면표시된다. 이 화면(FWSD)에는 박스모양틀형상을 선택하는 아이콘(ICFOSD1~ICFOSD4)이 표시되고 이들 아이콘조작에 따라서 박스모양틀번호가 생성되며 작업RAM(313)의 화상지정데이터영역(IMD)(후술하는)에 격납된다.
(4) 작업RAM(313)의 구성
다음으로 제54도를 참조하여 작업RAM(313)의 메모리구성에 대하여 설명해 둔다. 상기한 바와 같이 작업RAM(313)에 있어서는 CPU(311)의 연산 결과나 플러그값을 일시 기억하는 각종 레지스터가 설치되는 기억영역외에 제54도에 도시하는 바와 같이 얼굴화상이나 박스모양을 표시하기 위한 각종 데이터가 저장되는 표시영역이 설치되어 있다. 이 표시영역은 화상데이터영역(GD), 화상지정데이터영역(IMD) 및 속성데이터영역(ATT)으로 크게 나누어진다.
화상데이터영역(GD)에는 후술하는 화상지정데이터영역(IMD)에 격납되는 화상지정데이터에 의해 지정되는 부위화상데이터(KP1~KP5), 박스모양틀화상데이터(ME1) 및 박스모양문자열화상데이터(ME2)가 격납된다. 이들 데이터는 화상지정데이터에 따라서 상기한 ROM(312)으로부터 전송된다.
화상지정데이터영역(IMD)에는 얼굴의 각 부위를 형성하는 부위화상, 즉 「머리」, 「윤곽」, 「눈」, 「코」 및 「입」의 부위화상(KP1~KP5)을 각각 각각 지정하는 부위번호(PN1~PN5)와 박스모양틀화상데이터(ME1)를 지정하는 박스모양틀번호(WN), 박스모양틀의 표시색을 지정하는 컬러번호(CN), 박스모양문자열화상데이터(ME2)를 지정하는 박스모양문자열번호(ME2N)가 격납된다. 이들 화상지정데이터내 부위번호(PN1~PN5)는 상기한 화일방식 또는 앙케트방식에 의해 정해지는 속성데이터에 대응하여 지정된다. 박스모양틀 번호(WN), 컬러번호(CN) 및 박스모양문자열(ME2N)은 입력조작에 의해 결정된다.
속성데이터영역(ATT)에는 상기한 앙케트방식으로 입력되는 성별(ATT1), 연령(ATT2), 체형(ATT3), 성격(ATT4) 및 표정(ATT5)이 격납된다. 또 이 영역(ATT)에는 상기한 화일방식으로 ROM(312)에 격납되는 화일(A~D)의 어느쪽인가가 선택된 경우 그 화일번호(NUM)와 화일명(FN)이 격납된다.
B. 실시예의 동작
다음으로 상기한 장치구성 및 데이터구성에 의한 실시예의 동작에 대하여 제55도~제66도를 참조하여 설명한다.
우선 얼굴화상 작성장치(301)에 전원이 투입되면 CPU(311)는 ROM(312)으로부터 대응하는 얼굴화상 작성프로그램을 판독하여 자신에게 로드하여 제55도에 나타내는 스텝S1으로 처리를 진행하고 작업RAM(313)에 설치되어 있는 각종 레지스터/플러그류를 초기화하는 한편 VDP(314)에 대하여 내부메모리를 초기화하도록 지시한다.
(1) 모드선택처리
초기화 완료 후 CPU(311)는 스텝S702로 처리를 진행하면 제51(a)도에 도시한 모드 선택화면(MSD)을 화면표시한다. 다음으로 스텝S703에서는 키버퍼에 격납되는 키데이터를 취득한다. 또한 키버퍼에는 콘트롤러(310)의 조작에 대응한 키데이터가 격납되게 되어 있다. 그리고 다음의 스텝S704로 진행하면 키버퍼로부터 추출한 키데이터가 상기한 커서키(CUR)의 조작에 의한 것인지 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다.
여기에서 모드선택화면(MSD)에 표시되는 아이콘(ICMSD1)(ICMSD2)의 어느쪽인가를 선택하기 위한 커서키(CUR)가 조작되면 상기 스텝S704의 판단을 거쳐서 스텝S705로 처리를 진행하고 커서키(CUR)의 조작에 따라서 선택되는 아이콘번호로 갱신하며, 계속해서 스텝S706에서는 변경한 아이콘번호측의 아이콘(ICMSD1)(ICMSD2)을 강조표시하고 상기 스텝S703으로 처리를 되돌린다.
(2) 앙케트화면처리
다음으로 예를 들면 결정키(ENT)가 ON조작되었다고 한다. 그렇게 하면 CPU(311)는 상기 스텝S704의 판단을 통하여 스텝S707로 처리를 진행하여 아이콘(ICMSD1)(ICMSD2)의 어느쪽이 선택되어 있는지를 판단한다. 여기에서 아이콘(ICMSD2)이 선택되어 있을 때에는 다음의 스텝S708로 처리를 진행하고 앙케트방식에 의한 얼굴화상 작성 및 박스모양 작성으로 이행한다.
한편 아이콘(ICMSD1)이 선택되었을 때에는 후술하는 화일선택처리(제61도의 스텝S764)로 이행한다.
앙케트방식의 처리로 옮기면 CPU(311)는 스텝S708로 진행하고 앙케트화면(AMD)(제52도 참조)을 화면표시한다. 그리고 다음의 스텝S709에서는 키버퍼에 격납되는 키데이터를 취득하고, 계속해서 스텝S710에서는 키버퍼로부터 추출한 키데이터가 커서키(CUR)의 조작에 의한 것인지, 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다. 키데이터가 커서키(CUR)의 조작에 의한 것이면 스텝S711로 처리를 진행하고, 그 조작에 따라서 아이콘번호를 갱신한다. 다음으로 스텝S712에서는 갱신한 아이콘번호에 대응하는 아이콘 표시위치도 갱신하고 상기 스텝S709로 처리를 되돌린다. 이하 앙케트화면(AMD)의 아아콘(ICAMD1~ICAMD5)에 대응지워진 동작에 대하여 설명한다.
(3) 성별선택처리
앙케트화면(AMD)에 있어서 아이콘(ICAMD1)을 선택한 상태에서 결정키(ENT)가 ON조작되면 CPU(711)는 상기 스텝S710을 통하여 제56도에 나타내는 스텝S713으로 처리를 진행한다. 스텝S713에서는 결정된 아이콘번호가 「0」, 즉 아이콘(ICAMD1)이 선택된 상태인지 아닌지를 판단한다. 이 경우 판단결과는 「YES」가 되어 다음의 스텝S714로 처리를 진행하고 성별 선택화면(SSD)(제52도 참조)을 화면표시한다.
다음으로 스텝S715로 진행하면 키버퍼에 격납되는 키데이터를 취득하고 스텝S716에서는 키버퍼로부터 추출한 키데이터가 커서키(CUR)의 조작에 의한 것인지, 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다.
여기에서 커서키(CUR)가 조작되었을 때에는 스텝S717로 처리를 진행하고, 그 조작에 따라서 아이콘번호를 갱신한다. 다음으로 스텝S718에 있어서 선택한 아이콘번호에 대응하여 아이콘 표시위치를 갱신하여 스텝S715로 처리를 되돌린다.
그리고 성별선택화면(SSD)의 아이콘(ICSSD1)(ICSSD2)의 어느쪽인가를 선택하여 결정키(ENT)가 조작되면 스텝S716의 판단을 통하여 스텝S719로 처리를 진행하고 결정한 아이콘(ICSSD1)(남성), (ICSSD2)(여성)에 대응지워진 성별데이터(ATT1)를 작업RAM(313)의 속성데이터영역(ATT)에 기입하고, 이 후 상기한 스텝S708의 앙케트화면(AMD)의 표시상태로 되돌아간다.
(4) 연령선택처리
앙케트화면(AMD)에 있어서 아이콘(ICAMD2)을 선택한 상태에서 결정키(ENT)가 ON조작되면 CPU(311)는 상기한 스텝S713의 판단을 통하여 스텝S720으로 처리를 진행한다. 스텝S720에서는 결정된 아이콘번호가 「1」, 즉 아이콘(ICAMD2)이 선택된 상태인지 아닌지를 판단한다. 이 경우 판단결과는 「YES」가 되어 다음의 스텝S721로 진행하고 연령선택화면(OSD)(제52도 참조)을 화면표시한다.
다음으로 스텝S722로 진행하면 키버퍼에 격납되는 키데이터를 취득하고 스텝S723에서는 취득한 키데이터가 커서키(CUR)의 조작에 의한 것인지, 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다.
여기에서 커서키(CUR)가 조작되었을 때에는 스텝S724로 처리를 진행하고, 그 조작에 따라서 아이콘번호를 갱신한다. 다음으로 스텝S725에 있어서 선택한 아이콘번호에 대응하는 아이콘 표시위치로 갱신하여 스텝S715로 처리를 되돌린다.
그리고 아이콘(ICOSD1~ICOSD3)의 어느쪽인가를 선택하여 결정키(ENT)를 조작하면 CPU(311)는 스텝S723의 판단을 통하여 스텝S726으로 처리를 진행하고 결정한 아이콘(ICOSD1)(어린이), 아이콘(ICOSD2)(어른), 아이콘(ICOSD3)(노인)에 대응지워진 연령데이터(ATT2)를 작업RAM(313)의 속성데이터영역(ATT)에 기입하고, 이후 앙케트화면(AMD) 표시상태로 되돌린다.
(5) 체형선택처리
앙케트화면(AMD)에 있어서 아이콘(ICAMD3)을 선택한 상태에서 결정키(ENT)가 ON조작되면 CPU(311)는 상기한 스텝S720의 판단을 통하여 제57도에 나타내는 스텝S727로 처리를 진행한다. 스텝S727에서는 결정된 아이콘번호가 「2」, 즉 아이콘(ICAMD3)이 선택된 상태인지 아닌지를 판단한다. 이 경우 판단결과는 「YES」가 되어 다음의 스텝S728로 진행하고 체형선택화면(BSD)(제52도 참조)을 화면에 표시한다.
다음으로 스텝S729로 진행하면 키버퍼에 격납되는 키데이터를 취득하고 스텝S730에서는 취득한 키데이터가 커서키(CUR)의 조작에 의한 것인지, 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다.
여기에서 커서키(CUR)가 조작되었을 때에는 스텝S731로 처리를 진행하고, 그 조작에 따라서 아이콘번호를 갱신한다. 다음으로 스텝S732에 있어 택한 아이콘번호에 대응하는 아이콘 표시위치로 갱신하고 스텝S729로 처리를 되돌린다.
그리고 아이콘(ICBSD1~ICBSD3)의 어느쪽인가를 선택하여 결정키(ENT)가 조작되면 CPU(11)는 스텝S730의 판단을 통하여 스텝S733으로 처리를 진행하고 결정한 아이콘(ICBSD1)(말라있다), 아이콘(ICBSD2)(중간정도), (ICBSD3)(뚱뚱해 있다)에 대응지워진 체형데이터(ATT3)를 작업RAM(313)의 속성데이터영역(ATT)에 기입하고, 이후 앙케트화면(AMD)의 표시상태(스텝S708)로 되돌린다.
(6) 성격선택처리
앙케트화면(AMD)에 있어서 아이콘(ICAMD4)을 선택한 상태에서 결정키(ENT)가 ON조작되면 CPU(311)는 상기한 스텝S732의 판단을 통하여 스텝S734로 처리를 진행한다. 스텝S734에서는 결정된 아이콘번호가 「3」, 즉 아이콘(ICAMD4)이 선택된 상태인지 아닌지를 판단한다. 이 경우 판단결과는 「YES」가 되어 다음의 스텝S735로 진행하고 성격선택화면(CSD)(제52도 참조)을 화면에 표시한다.
다음으로 스텝S736로 진행하면 키버퍼에 격납되는 키데이터를 취득하고 스텝S737에서는 취득한 키데이터가 커서키(CUR)의 조작에 의한 것인지, 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다.
여기에서 커서키(CUR)가 조작되었을 때에는 스텝S738로 처리를 진행하고, 그 조작에 따라서 아이콘번호를 갱신한다. 다음으로 스텝S739에 있어서 선택한 아이콘번호에 대응하는 아이콘 표시위치로 갱신하고 스텝S736으로 처리를 되돌린다.
그리고 아이콘(ICCSD1~ICCSD3)의 어느쪽인가를 선택하여 결정키(ENT)가 조작되면 CPU(11)는 스텝S737의 판단을 통하여 스텝S740으로 처리를 진행하고 결정한 아이콘(ICCSD1)(명랑하다), (ICCSD2)(마음이 강하다), (ICCSD3)(성질이 급하다)에 대응지워진 성격데이터(ATT4)를 작업RAM(313)의 속성데이터영역(ATT)에 기입하고, 이후 앙케트화면(AMD)을 표시하는 스텝S708로 처리를 되돌린다.
(7) 앙케트 종료처리(얼굴부위화상지정)
앙케트화면(AMD)에 있어서 아이콘(ICAMD5)을 선택한 상태에서 결정키(ENT)를 ON조작하면 CPU(311)는 상기한 스텝S734의 판단을 통하여 제58도에 나타내는 스텝S741로 처리를 진행한다. 스텝S741에서는 결정된 아이콘번호가 「4」, 즉 앙케트를 종료시키는 아이콘(ICAMD5)이 선택된 상태인지 아닌지를 판단한다. 이 경우 판단결과 「YES」가 되어 다음의 스텝S742로 처리를 진행한다.
스텝S742에서는 상기한 각 선택처리로 작업RAM(313)의 속성데이터영역(ATT)에 기입된 「성별데이터(ATT1)」, 「연령데이터(ATT2)」, 「체형데이터(ATT3)」, 「성격데이터(ATT4)」 및 초기설정(기정(旣定))된 표정데이터(ATT5)에 따라서 ROM(312)에 격납되는 얼굴부위선택용 테이블(KPS)로부터 부위번호(PN1~PN5)를 판독하고, 이를 작업RAM(313)의 화상지정데이터영역(IMD)에 저장한다. 그리고 다음의 스텝S743에서는 화상지정데이터영역(IMD)에 저장된 부위번호(PN1~PN5)에 대응하는 각 부위화상을 ROM(312)으로부터 작업RAM(313)의 화상데이터영역(GD)에 DMA전송한다.
또한 상기 스텝S741에 있어서 판단결과가 「NO」인 경우, 예를 들면 앙케트처리를 중단해야 하여 해제키(ESC)가 조작되었을 때에는 스텝S708로 처리를 되돌리고 앙케트화면(AMD)의 표시상태로 처리를 되돌린다.
(8) 박스모양선택회로
이상과 같이 하여 앙케트방식에 의해 표시해야 할 각 부위를 그리는 부위화상이 정해지면 CPU(311)는 제57도에 나타내는 스텝S744로 처리를 진행한다. 스텝S744에서는 제53(a)도에 도시한 박스모양선택화면(WSD)을 화면표시한다. 다음으로 스텝S745에서는 키버퍼에 격납되는 키데이터를 취득하고, 계속해서 스텝S746에서는 취득한 키데이터가 커서키(CUR)의 조작에 의한 것인지, 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다.
여기에서 커서키(CUR)가 조작되었을 때에는 스텝S747로 처리를 진행하고, 그 조작에 따라서 아이콘번호를 갱신한다. 다음으로 스텝S748에서는 선택한 아이콘번호에 대응하여 아이콘 표시위치를 갱신하고 스텝S745로 처리를 되돌린다.
그리고 아이콘(ICWSD1~ICWSD3)의 어느쪽인가를 선택하여 결정키(ENT)가 조작되면 스텝S746의 판단을 통하여 스텝S749로 처리를 진행하고 결정한 아이콘(ICWSD1)(박스모양틀 선택), (ICWSD2)(문자열 선택), (ICWSD3)(끝)에 따라서 처리를 분기시킨다.
a. 박스모양틀화상의 선택
아이콘(ICAMD5)을 선택한 상태에서 결정키(ENT)가 조작된 경우에는 상기 스텝S749의 판단을 통하여 스텝S750으로 처리를 진행하고, 제53(c)도에 나타내는 박스모양틀선택화면(FWSD)을 화면표시한다. 다음으로 스텝S751로 진행하면 CPU(311)는 키버퍼에 격납되는 키데이터를 취득하고, 계속해서 스텝S752에서는 취득한 키데이터가 커서키(CUR)의 조작에 의한 것인지, 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다.
여기에서 커서키(CUR)가 조작되었을 때에는 스텝S753으로 처리를 진행하고, 그 조작에 따라서 아이콘번호를 갱신한다. 다음으로 스텝S754에서는 갱신한 아이콘번호에 대응하여 아이콘 표시위치를 갱신하고 스텝S751로 처리를 되돌린다.
그리고 예를 들면 아이콘(ICFWSD1)으로 나타내어지는 박스모양 표시형태를 결정해야 하여 결정키(ENT)를 조작했다고 한다. 그렇게 하면 스텝S752의 판단을 통하여 스텝S755로 처리를 진행하고 작업RAM(313)의 화상지정데이터영역(IMD)의 박스모양틀번호(WN)에 대응하는 번호를 저장한다. 이에 따라 박스모양틀의 표시형태가 정해진다.
다음으로 스텝S756으로 진행하면 CPU(311)는 이 박스모양틀번호(WN)에 대응하는 박스모양틀화상데이터(ME1)를 ROM(312)으로부터 판독하여 작업RAM(313)의 화상데이터영역(GD)에 있어서의 박스모양틀화상영역(ME1)에 전송하고, 그 후 상기한 스텝S744로 처리를 되돌린다.
b. 박스모양문자열화상의 선택
박스모양틀이 정해지고, 다시 스텝S744에 있어서 박스모양선택화면(WSD)(제53(a)도 참조)이 화면표시된 상태에서 문자열을 선택하는 아이콘(ICWSD2)을 선택하여 결정키(ENT)가 조작되면 CPU(311)는 상기한 스텝S749의 판단을 통하여 제60도에 나타내는 스텝S757로 처리를 진행한다.
스텝S757에서는 제53(b)도에 나타내는 문자열선택화면(MOSD)을 화면표시한다. 다음으로 스텝S758로 진행하면 CPU(311)는 키버퍼에 격납되는 키데이터를 취득하고, 계속해서 스텝S759에서는 취득한 키데이터가 커서키(CUR)의 조작에 의한 것인지, 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다.
여기에서 커서키(CUR)가 조작되었을 때에는 스텝S760으로 처리를 진행하고, 그 조작에 따라서 아이콘번호를 갱신한다. 다음으로 스텝S761에서는 갱신한 아이콘번호에 대응하여 아이콘 표시위치를 스텝S758로 처리를 되돌린다.
그리고 예를 들면 아이콘(ICMOSD1)으로 나타내어지는 박스모양문자열 「안녕」을 결정해야 하여 결정키(ENT)가 조작되면 CPU(311)는 스텝S759의 판단을 통하여 스텝S762로 처리를 진행하고 작업RAM(313)의 화상지정데이터영역(IMD)의 박스모양문자열(ME2N)에 상기 아이콘(ICMOSD1)에 대응지워진 문자열번호를 저장한다. 이에 따라 박스모양문자열이 정해진다.
다음으로 스텝S763으로 진행하면 박스모양문자열(ME2N)에 기입된 문자열번호가 지정하는 박스모양문자열화상데이터(ME2)를 ROM(312)으로부터 판독하여 작업RAM(313)의 화상데이터영역(GD)에 있어서의 박스모양문자열화상영역(ME2)에 전송하고, 상기한 스텝S744(제59도 참조)로 처리를 되돌린다.
이와 같이 하여 「박스모양틀」과 「박스모양문자열」이 결정된 경우 사용자는 박스모양선택에 관련되는 처리를 완료하기 위해 박스모양선택화면(WSD)이 화면표시되어 있는 상태에서 아이콘(ICWSD3)을 선택하여 결정키(ENT)를 조작한다. 그러면 CPU(311)는 상기한 스텝S749(제59도)의 판단을 통하여 제61도에 나타내는 스텝S771로 처리를 진행한다.
그런데 스텝S771 이후에서는 얼굴화상의 속성데이터에 따라서 「박스모양틀」과 「박스모양문자열」을 변화시켜서 상기 얼굴화상에 조화시키는 박스모양 표시를 실현하는 처리이며, 그 상세함에 대해서는 다음의 화일 선택처리에 대하여 서술하고나서 설명한다.
(9) 화일선택처리
상기한 모드선택화면(MSD)(제51(a)도 참조)에 있어서 아이콘(ICMSD1)을 선택하여 결정키(ENT)를 조작한 경우, CPU(311)는 상기한 스텝S707의 판단을 통하여 제61도에 나타내는 스텝S764로 처리를 진행하고 화일선택화면(FSD)(제51(b)도 참조)을 화면표시한다.
다음으로 스텝S765로 진행하면 CPU(311)는 키비퍼에 격납되는 키데이터를 취득하고, 계속해서 스텝S766에서는 취득한 키데이터가 커서키(CUR)의 조작에 의한 것인지, 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다.
여기에서 커서키(CUR)가 조작되었을 때에는 스텝S767으로 처리를 진행하고, 그 조작에 따라서 아이콘번호를 갱신한다. 다음으로 스텝S768에서는 갱신한 아이콘번호에 대응하여 아이콘 표시위치를 스텝S766로 처리를 되돌린다.
그리고 예를 들면 아이콘(ICFSD1)에 대응지워진 화일(A)의 내용을 판독해야 하여 결정키(ENT)가 조작되면 CPU(311)는 스텝S766의 판단을 통하여 스텝S769로 처리를 진행하고 화일(A)에 격납되는 화상지정데이터 및 속성데이터를 ROM(312)로부터 판독하고, 이들을 작업RAM(313)의 각 기억영역에 저장한다.
이렇게 하여 화일(A)에 프리세트되어 있는 화상지정데이터 및 속성데이터가 작업RAM(313)측에 세트되면 CPU(311)는 다음의 스텝S770으로 처리를 진행하고 작업RAM(313)의 화상지정데이터영역(IMD)에 세트된 부위번호(PN1~PN5)를 기초로 하여 ROM(312)측으로부터 대응하는 부위화상데이터(KP1~KP5)를 판독하여 작업RAM(313)의 화상데이터영역(GD)에 차례로 전송한다.
(10) 박스모양 변환처리
상기한 앙케트화면처리 또는 상기 화일선택처리를 통하여 표시해야 할 각종 화상데이터가 정해지면 CPU(311)는 스텝S771로 처리를 진행하고 작업RAM(313)에 격납된 속성데이터(성별, 연령, 체형, 성격 및 초기설정된 표정)에 따라서 ROM(312)에 격납된 박스모양틀용 변환테이블(MET)로부터 박스모양틀번호와 컬러번호를 판독하고, 이들을 작업RAM(313)의 화상지정데이터영역(IMD)에 있어서의 박스모양틀 번호(WN) 및 컬러번호(CN)로서 저장한다.
다음으로 스텝S772(제62도 참조)로 진행하면 작업RAM(313)에 격납된 속성데이터(성별, 연령, 체형, 성격 및 초기설정된 표정)에 따라서 ROM(312)에 격납된 박스모양문자열변환테이블(MECT)로부터 박스모양문자열을 판독하여 작업RAM(313)의 화상지정데이터영역(IMD)에 있어서의 박스모양문자열(ME2N)에 저장하고 다음의 스텝S773으로 진행한다.
스텝S773에서는 작업RAM(313)의 화상지정데이터영역(IMD)에 세트된 박스모양문자열(ME2N) 및 박스모양틀번호(WN)를 기초로 하여 ROM(312)측으로부터 대응하는 박스모양문자열화상데이터(ME2), 박스모양틀화상데이터(ME1)를 판독하여 작업RAM(313)의 화상데이터영역(GD)에 차례로 전송한다.
(11) 표시 제어처리
그리고 스텝S774로 진행하면 CPU(311)는 작업RAM(313)의 화상데이터영역(GD)에 세트된 각 화상데이터를 VRAM(315)의 소정 영역에 격납해야 하여 DMA전송을 지시하는 한편 VDP(314)에 대하여 VRAM(315)에 차례로 전송되어 있는 각 화상데이터에 따라서 얼굴화상과, 이에 대응하는 박스모양틀 및 문자열을 화면표시하도록 지시한다.
이에 따라 예를 들면 제63도에 도시하는 한 예와 같이 초기설정된 표정에 의한 얼굴화상(KG)과 박스모양메시지(FM)가 화면표시된다. 이때 화면 상부에는 표정데이터를 「초기설정」, 「화내다」 「울다」 및 「웃다」로 변경시키는 아이콘(IC1~IC4)이 표시된다.
다음으로 스텝S775로 진행하면 CPU(311)에는 키버퍼에 격납되는 데이터를 취득하고, 계속해서 스텝S776에서는 취득한 키데이터가 커서키(CUR)의 조작에 의한 것인지, 또는 결정키(ENT)의 조작에 의한 것인지를 판단한다.
여기에서 표시데이터의 내용을 갱신하기 위해 상기 아이콘(IC1~IC4)의 어느쪽인가를 선택하도록 커서키(CUR)가 조작된 경우에는 스텝S777로 처리를 진행하고, 그 조작에 따라서 아이콘번호를 갱신한다. 다음으로 스텝S778에서는 갱신한 아이콘번호에 대응하는 아이콘(IC1~IC4)의 어느쪽인가를 강조표시하고 다시 스텝S775로 처리를 되돌린다.
지금 예를 들면 커서키(CUR)조작에 의해 아이콘(IC2)이 선택된 상태에서 결정키(ENT)가 조작되면 CPU(11)는 스텝S776의 판단을 통하여 스텝S779로 처리를 진행하고 결정된 아이콘번호에 따라서 작업RAM(313)의 속성데이터영역(ATT)에 격납되는 표정데이터(ATT5)를 변경한다. 그리고 스텝S780에서는 ROM(312)에 격납되는 얼굴부위용 변환테이블(KPT)을 참조하여 변경된 표정데이터(ATT5)에 따라서 얼굴부위화상데이터(KP1~KP5)를 각각 화상변형한다.
표정데이터(ATT5)에 따라서 얼굴의 각 부위를 형성하는 얼굴화상데이터(KP1~KP5)를 변형시키면 CPU(311)는 다음의 스텝S781로 처리를 진행하고 키버퍼로부터 키데이터를 추출한다. 다음으로 스텝S782에서는 그 추출한 키데이터가 해제키(ESC)의 조작에 의한 것인지 아닌지를 판단한다. 여기에서 해제키(ESC)가 조작되었을 때에는 얼굴화상 작성 및 박스모양화상 작성을 중지하기 위해 CPU(311)의 처리를 상기한 스텝S701로 되돌리고 시스템이니셜라이즈를 실시한다.
한편 해제키(ESC)의 조작이 아닐 때에는 상기한 스텝S772에 처리를 되돌리고, 이 스텝S772~S774를 거쳐서 새로이 설정된 표정의 얼굴화상이 화면표시되고, 또한 그 얼굴화상에 조화하는 형태의 「박스모양틀」과 「박스모양문자열」이 화면표시되게 된다.
예를 들면 제64도에 도시하는 바와 같이 아이콘(IC2)을 선택하여 「화가 남」을 설정하면 얼굴화상(KG)에 있어서는 상기한 화상변형(스텝S780)에 의해 「머리」부분에 화난 표정을 나타내는 마그(MK)를 표시하거나 「눈」이나 「눈썹」, 「입」을 화난 표정이 되도록 변형시키고 있다. 그리고 또한 이 얼굴화상이 표시형태에 맞추어서 「화난」분위기를 자아내는 박스모양메시지(FM)가 표시된다. 또 아이콘(IC3)을 선택하여 「울다」를 설정한 경우에는 제65도에 나타내는 한 예와 같이 얼굴화상이 변형되고, 그에 맞는 박스모양 표시가 이루어진다. 또한 아이콘(IC4)을 선택하여 「웃다」를 설정한 경우에는 제66도에 나타내는 한 예와 같이 얼굴화상이 변형되고, 그 얼굴화상에 조화시키는 박스모양 표시형태가 된다.
C. 박스모양틀 변형처리
그런데 상기한 스텝S771에서는 속성데이터(성별, 연령, 체형, 성격 및 초기설정된 표정)에 따라서 ROM(312)에 격납된 박스모양틀용 변환테이블(MET)을 참조하여 박스모양틀의 형상을 변화시키고 있는데, 이 변형처리에 대하여 제57도~제68도를 참조하여 구체적으로 설명해둔다.
제67도는 박스모양틀 변형처리의 개념을 나타내는 도면이다. 이 도면에 나타내는 바와 같이 VRAM(315)에 박스모양틀화상데이터를 격납한다. 이 박스모양틀화상데이터는 복수종류의 패턴데이터로 형성된다. 각 패턴데이터는 각종 형태의 박스모양틀을 형성하는 선분요소이며 표시화면을 32×32분할한 1개의 셀영역을 표시한다.
한편 ROM(312)에는 상기 패턴데이터의 조합을 지정하는 박스모양틀번호를 테이블데이터로서 등록한 박스모양틀용 변환테이블(MET)을 설치해둔다. 즉 테이블(MET)에는 박스모양틀번호마다 표시해야 할 박스모양틀을 형성하는 패턴데이터의 조합이 복수종류 격납되어 있다.
따라서 상기한 속성데이터를 판독패러미터로서 이 테이블(MET)로부터 대응하는 박스모양틀번호를 판독하는 것으로, 그 박스모양틀번호가 지정하는 패턴데이터의 조합에 따라서 VRAM(315)으로부터 차례로 패턴데이터가 판독되어 화면표시된다. 이 결과 표시화면에는 박스모양틀번호에 대응한 형상의 박스모양틀이 형성되고, 그 형상은 속성데이터에 따라서 변형시킬 수 있다.
제68(a)도, 제68(b)도는 박스모양틀의 형상을 가변시킨 경우의 한 예이다. 제68(a)도에서는 패턴데이터(W1~W14)에 의하여 박스모양틀이 형성되고, 제68(b)도에서는 패턴데이터(W1~W7) (W10A)(W10B)(W11~W14)에 의하여 박스모양틀이 형성되어 있다.
이러한 수법에 따르면 박스모양틀화상데이터를 복수종류 준비할 필요가 없어서 적은 데이터량으로 복수종류의 형상이 다른 박스모양틀을 생성하는 것이 가능해진다.
이상과 같이 실시예 4에 따르면 표시해야 할 얼굴의 특징을 나타내는 속성데이터에 따라서 얼굴부위화상을 변형시키는 얼굴부위용 변환테이블(KPT)과, 속성데이터에 따라서 박스모양틀의 형상을 변화시키는 박스모양틀용 변환테이블(MET)과, 속성데이터에 따라서 박스모양문자열의 내용을 변화시키는 박스모양문자열 변환테이블(MECT)을 ROM(312)에 설치해 두고 속성데이터가 갱신된 경우에는 상기 테이블(KPT)을 참조하여 당초의 얼굴화상을 변형시키는 한편, 상기 테이블(MET)(MECT)을 참조하여 「박스모양틀」 및 「박스모양문자열」을 변화시키기 때문에 얼굴화상에 조화시키는 박스모양표시가 되어 보다 감정표현력을 높이는 것이 가능하게 되는 셈이다.
또한 상기한 실시예 4에서는 얼굴화상을 표정변화에 맞추어서 화상변형시키고 있는데, 이에 한정되는 것은 아니고 다른 속성(성격, 체형, 성별 및 연령)에 따라서 화상변형시킬 수도 있다. 이 경우 표시화면에 속성을 선택하는 아이콘을 표시시키고 어느쪽인가의 속성이 선택되면, 그 속성의 범주에서 화상변형시키면 좋다.
또 화상변형을 하나의 속성에 고정할 필요도 없고 복수의 속성변화에 따라서 화상변형시키는 것도 가능하다. 이 경우 보다 복잡한 특징의 얼굴화상을 작성할 수 있다. 또 그 사용방식으로서도 예를 들면 현재의 속성(성격, 체형, 성별 및 연령)에 따라서 작성한 얼굴화상으로부터 “10년 후의 살찐 얼굴”을 시뮬레이트하는 등의 새로운 즐거움을 창출할 수도 있다.

Claims (16)

  1. 얼굴화상을 표시하기 위한 제 1 표시신호를 출력하는 제 1 표시신호출력수단과, 상기 제 1 표시신호를 기초로 하는 상기 얼굴화상에 부수하여 표시해야 할 메시지정보를 나타내는 화상을 표시하기 위한 제 2 표시신호를 출력하는 제 2 표시신호출력수단과, 상기 제 2 표시신호를 기초로 하는 상기 메시지정보를 나타내는 화상의 표시영역을 둘러싸는 박스도형의 화상을 표시하기 위한 제 3 표시신호를 출력하는 제 3 표시신호출력수단과, 상기 박스도형의 화상의 속성을 변화시키는 박스도형 제어수단을 갖는 것을 특징으로 하는 화상처리장치.
  2. 제1항에 있어서, 상기 박스도형 제어수단은 상기 박스도형의 속성으로서의 크기를 상기 메시지정보를 나타내는 문자 및 기호의 적어도 한쪽의 배열의 크기에 따라서 변화시키는 것을 특징으로 하는 화상처리장치.
  3. 제1항에 있어서, 상기 박스도형 제어수단은 상기 박스도형의 속성으로서의 위치를 상기 메시지정보를 나타내는 문자 및 기호의 적어도 한쪽의 배열의 위치에 따라서 변화시키는 것을 특징으로 하는 화상처리장치.
  4. 제1항에 있어서, 상기 박스도형 제어수단은 상기 박스도형의 속성으로서의 윤곽부의 색을 변화시키는 것을 특징으로 하는 화상처리장치.
  5. 제1항에 있어서, 상기 박스도형 제어수단은 상기 박스도형의 속성으로서의 그 배경색을 변화시키는 것을 특징으로 하는 화상처리장치.
  6. 제1항에 있어서, 상기 박스도형 제어수단은 상기 박스도형의 속성으로서의 형상을 변화시키는 것을 특징으로 하는 화상처리장치.
  7. 제1항에 있어서, 상기 박스도형 제어수단은 상기 박스도형의 속성으로서의 상기 도형의 배치항향을 상하 또는 좌우로 반전시키는 것을 특징으로 하는 화상처리장치.
  8. 제1항에 있어서, 상기 박스도형 제어수단은 상기 박스도형의 속성으로서의 표시자세를 변화시키는 것을 특징으로 하는 화상처리장치.
  9. 제1항에 있어서, 상기 박스도형 제어수단은 상기 메시지정보를 나타내는 기호의 배열에 있어서 특정한 기호의 사용상황을 판별하고, 그 판별결과에 따라서 상기 박스도형의 속성으로서의 형상을 변화시키는 것을 특징으로 하는 화상처리장치.
  10. 제1항에 있어서, 상기 화상처리장치는 또한 상기 박스도형을 나타내는 화상과 그 박스도형내에 나타내어져 있는 기호 및 문자의 적어도 한쪽을 일체화하여 이동시키는 박스도형 이동수단을 구비하고 있는 것을 특징으로 하는 화상처리장치.
  11. 제1항에 있어서, 상기 화상처리장치는 또한 상기 박스도형을 나타내는 화상의 크기 또는 형상에 따라서 상기 메시지정보를 나타내는 문자 및 기호의 적어도 한쪽을 포함하여 배열상태를 변화시키는 기호배열 제어수단을 구비하고 있는 것을 특징으로 하는 화상처리장치.
  12. 표시해야 할 얼굴의 특징을 나타내는 속성데이터를 발생하는 속성데이터 발생수단과, 얼굴의 각 부위를 형성하는 부위화상을 복수종류 기억하는 부위기억수단과, 상기 속성데이터 발생수단으로부터의 속성데이터에 대응한 부위화상을 각 얼굴의 각 부위마다 상기 부위기억수단으로부터 선택하여 합성함으로써 얼굴화상을 작성해서 표시하는 신호를 출력하는 제 1 표시신호출력수단과, 상기 형성된 얼굴화상에 부수하여 표시해야 할 메시지정보를 나타내는 화상을 표시하기 위한 제 2 표시신호를 출력하는 제 2 표시신호출력수단과, 상기 메시지정보를 나타내는 화상의 표시영역을 둘러싸는 박스도형의 화상을 표시하기 위한 제 3 표시신호를 출력하는 제 3 표시신호출력수단과, 상기 속성데이터 발생수단으로부터의 속성데이터가 갱신되는데 응답하여 표시되는 얼굴화상을 변형하는 얼굴화상 변형수단과, 상기 속성데이터 발생수단으로부터의 속성데이터가 갱신되는데 응답하여 상기 메시지정보 및 박스도형의 화상의 적어도 한쪽의 표시형태를 변경하는 화상제어수단을 갖는 것을 특징으로 하는 화상표시장치.
  13. 제12항에 있어서, 상기 메시지정보를 나타내는 화상은 문자를 나타내는 화상을 복수개 배열하여 이루어지는 것을 특징으로 하는 화상처리장치.
  14. 제12항에 있어서, 상기 박스도형의 화상은 상기 속성데이터가 갱신되는데 응답하여 상기 도형의 색 및 형상의 적어도 한쪽이 갱신되는 것을 특징으로 하는 화상처리장치.
  15. 제12항에 있어서, 상기 속성데이터는 적어도 얼굴화상이 나타내는 인물의 성별, 연령, 체형, 성격 및 표정의 어느 쪽인가 하나를 포함하는 것을 특징으로 하는 화상처리장치.
  16. 제12항에 있어서, 상기 속성데이터는 적어도 얼굴화상이 나타내는 인물의 성별, 연령, 체형, 성격 및 표정의 어느 쪽인가 복수를 조합하여 형성되는 것을 특징으로 하는 화상처리장치.
KR1019960013355A 1995-04-27 1996-04-27 화상처리장치 KR100246520B1 (ko)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP12558095A JP3671258B2 (ja) 1995-04-27 1995-04-27 画像処理装置
JP95-125580 1995-04-27
JP95-128775 1995-05-01
JP7128775A JPH08305532A (ja) 1995-05-01 1995-05-01 画像処理装置
JP13600995A JP3675514B2 (ja) 1995-05-10 1995-05-10 顔画像作成装置
JP95-136009 1995-05-10
JP13615395A JP3707096B2 (ja) 1995-05-10 1995-05-10 画像制御装置および画像制御方法
JP95-136153 1995-05-10

Publications (2)

Publication Number Publication Date
KR960038669A KR960038669A (ko) 1996-11-21
KR100246520B1 true KR100246520B1 (ko) 2000-03-15

Family

ID=27471127

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960013355A KR100246520B1 (ko) 1995-04-27 1996-04-27 화상처리장치

Country Status (6)

Country Link
US (1) US5943049A (ko)
EP (1) EP0740271B1 (ko)
KR (1) KR100246520B1 (ko)
CN (1) CN1105994C (ko)
DE (1) DE69628695T2 (ko)
MY (1) MY115012A (ko)

Families Citing this family (145)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3714378B2 (ja) * 1997-07-31 2005-11-09 セイコーエプソン株式会社 機器のセットアップ支援装置、機器のセットアップ支援方法および機器のセットアップ支援プログラムを記録した媒体
JP3216084B2 (ja) * 1998-01-19 2001-10-09 株式会社ネットワークコミュニティクリエイション チャット画面表示方法
AUPQ056099A0 (en) * 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
JP2001009157A (ja) * 1999-06-30 2001-01-16 Konami Co Ltd ビデオゲームの制御方法、ビデオゲーム装置、並びにビデオゲームのプログラムを記録したコンピュータ読み取り可能な媒体
US7328177B1 (en) * 1999-07-20 2008-02-05 Catherine Lin-Hendel System and method for interactive, computer assisted personalization of on-line merchandise purchases
JP3219744B2 (ja) * 1999-07-26 2001-10-15 コナミ株式会社 ビデオゲーム装置、ビデオゲーム表示方法およびビデオゲーム表示プログラムが記録された可読記録媒体
JP3450760B2 (ja) * 1999-10-14 2003-09-29 富士通株式会社 コミュニケーション促進方法及びシステム
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7106887B2 (en) * 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
US7246317B2 (en) * 2000-06-09 2007-07-17 Seiko Epson Corporation Creation of image designation file and reproduction of image using the same
US8490134B2 (en) * 2000-08-14 2013-07-16 Cumnor Technologies Llc Displaying advertising in an electronic program guide
US6810149B1 (en) * 2000-08-17 2004-10-26 Eastman Kodak Company Method and system for cataloging images
WO2002061561A1 (en) * 2001-01-30 2002-08-08 Vasunas Pte Ltd. Digital assistants
US20020130834A1 (en) * 2001-03-16 2002-09-19 Emsquare Research, Inc. System and method for universal control of devices
US20020175916A1 (en) * 2001-04-16 2002-11-28 Nichols Michael R. Method for presenting circular dialog windows
WO2002084472A1 (en) * 2001-04-16 2002-10-24 Corporate Media Partners D/B/A Americast Method for presenting circular dialog windows
US8643667B2 (en) * 2002-08-02 2014-02-04 Disney Enterprises, Inc. Method of displaying comic books and similar publications on a computer
US7669134B1 (en) 2003-05-02 2010-02-23 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US20050044500A1 (en) * 2003-07-18 2005-02-24 Katsunori Orimoto Agent display device and agent display method
US7343561B1 (en) * 2003-12-19 2008-03-11 Apple Inc. Method and apparatus for message display
US7646517B2 (en) * 2004-02-27 2010-01-12 Seiko Epson Corporation Image processing system and image processing method
US8023145B2 (en) * 2004-02-27 2011-09-20 Seiko Epson Corporation Image processing system and image processing method
USRE49187E1 (en) 2005-09-06 2022-08-23 Samsung Electronics Co., Ltd. Mobile communication terminal and method of the same for outputting short message
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7677974B2 (en) * 2005-10-14 2010-03-16 Leviathan Entertainment, Llc Video game methods and systems
US20070113180A1 (en) * 2005-11-15 2007-05-17 Michael Danninger Method and system for providing improved help functionality to assist new or occasional users of software in understanding the graphical elements of a display screen
US9304675B2 (en) * 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8301999B2 (en) * 2006-09-25 2012-10-30 Disney Enterprises, Inc. Methods, systems, and computer program products for navigating content
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
JP4823970B2 (ja) * 2007-05-24 2011-11-24 オリンパスイメージング株式会社 画像編集装置
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
JP5008605B2 (ja) 2008-05-26 2012-08-22 富士フイルム株式会社 画像処理装置および方法ならびにプログラム
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
WO2010070882A1 (ja) * 2008-12-16 2010-06-24 パナソニック株式会社 情報表示装置及び情報表示方法
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
DE102009025304A1 (de) * 2009-06-15 2010-12-16 Deutsche Telekom Ag Personenbezogene Sprechblasen
DE102009025306A1 (de) * 2009-06-15 2010-12-16 Deutsche Telekom Ag Emotionale Sprechblasen
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
DE112011100329T5 (de) 2010-01-25 2012-10-31 Andrew Peter Nelson Jerram Vorrichtungen, Verfahren und Systeme für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9628865B2 (en) * 2012-09-10 2017-04-18 Apple Inc. Enhanced closed caption feature
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144949A2 (en) 2013-03-15 2014-09-18 Apple Inc. Training an at least partial voice command system
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
JP6089898B2 (ja) * 2013-04-09 2017-03-08 ソニー株式会社 画像処理装置および記憶媒体
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
DE112014002747T5 (de) 2013-06-09 2016-03-03 Apple Inc. Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Ermöglichen einer Konversationspersistenz über zwei oder mehr Instanzen eines digitalen Assistenten
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
AU2014306221B2 (en) 2013-08-06 2017-04-06 Apple Inc. Auto-activating smart responses based on activities from remote devices
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
USD955406S1 (en) * 2020-07-13 2022-06-21 Professional Holding Corp. Display screen with graphical user interface for an account identifier
USD983817S1 (en) * 2021-02-16 2023-04-18 Kimberly-Clark Worldwide, Inc. Package with surface ornamentation or display screen with icon

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0222387A2 (en) * 1985-11-14 1987-05-20 Hitachi, Ltd. Method for making of design reference and apparatus therefor

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4569026A (en) * 1979-02-05 1986-02-04 Best Robert M TV Movies that talk back
US4445187A (en) * 1979-02-05 1984-04-24 Best Robert M Video games with voice dialog
US4333152A (en) * 1979-02-05 1982-06-01 Best Robert M TV Movies that talk back
US4791581A (en) * 1985-07-27 1988-12-13 Sony Corporation Method and apparatus of forming curved surfaces
US5247610A (en) * 1989-03-17 1993-09-21 Hitachi, Ltd. Method and apparatus for generating graphics
US5287448A (en) * 1989-05-04 1994-02-15 Apple Computer, Inc. Method and apparatus for providing help information to users of computers
US5111409A (en) * 1989-07-21 1992-05-05 Elon Gasper Authoring and use systems for sound synchronized animation
US5393073A (en) * 1990-11-14 1995-02-28 Best; Robert M. Talking video games
US5428733A (en) * 1991-12-16 1995-06-27 Apple Computer, Inc. Method of calculating dimensions and positioning of rectangular balloons
US5727174A (en) * 1992-03-23 1998-03-10 International Business Machines Corporation Graphical end-user interface for intelligent assistants
US5388993A (en) * 1992-07-15 1995-02-14 International Business Machines Corporation Method of and system for demonstrating a computer program
US5434965A (en) * 1992-12-23 1995-07-18 Taligent, Inc. Balloon help system
US5638502A (en) * 1992-12-25 1997-06-10 Casio Computer Co., Ltd. Device for creating a new object image relating to plural object images
US5524195A (en) * 1993-05-24 1996-06-04 Sun Microsystems, Inc. Graphical user interface for interactive television with an animated agent
WO1995014268A1 (en) * 1993-11-17 1995-05-26 Collegeview Method and apparatus for displaying three-dimensional animated characters upon a computer monitor's screen
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
US5544305A (en) * 1994-01-25 1996-08-06 Apple Computer, Inc. System and method for creating and executing interactive interpersonal computer simulations
US5611037A (en) * 1994-03-22 1997-03-11 Casio Computer Co., Ltd. Method and apparatus for generating image
US5491743A (en) * 1994-05-24 1996-02-13 International Business Machines Corporation Virtual conference system and terminal apparatus therefor
US5682469A (en) * 1994-07-08 1997-10-28 Microsoft Corporation Software platform having a real world interface with animated characters
US5649086A (en) * 1995-03-08 1997-07-15 Nfx Corporation System and method for parameter-based image synthesis using hierarchical networks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0222387A2 (en) * 1985-11-14 1987-05-20 Hitachi, Ltd. Method for making of design reference and apparatus therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IBM Technical Disclosure Bulletin, vol.32, No.6B, p.173-174 *

Also Published As

Publication number Publication date
US5943049A (en) 1999-08-24
EP0740271A2 (en) 1996-10-30
EP0740271B1 (en) 2003-06-18
KR960038669A (ko) 1996-11-21
CN1105994C (zh) 2003-04-16
DE69628695D1 (de) 2003-07-24
MY115012A (en) 2003-03-31
CN1136191A (zh) 1996-11-20
DE69628695T2 (de) 2003-12-11
EP0740271A3 (en) 1997-05-02

Similar Documents

Publication Publication Date Title
KR100246520B1 (ko) 화상처리장치
AU693389B2 (en) Table data processing apparatus
EP0743614A2 (en) Information processor having two-dimensional bar code processing function
US20020024519A1 (en) System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character
EP0974948A1 (en) Apparatus and method of assisting visually impaired persons to generate graphical data in a computer
JP3707096B2 (ja) 画像制御装置および画像制御方法
Akeo et al. Computer Graphics System for Reproducing Three‐Dimensional Shape from Idea Sketch
JPS644189B2 (ko)
JP2559390B2 (ja) 音・画像変換装置
WO1992022038A1 (en) Mechanical conceptual view operation display device, transmitter mechanical conceptual view drawing device
JP3076428B2 (ja) 立体形状モデリング方法
JP2005099977A (ja) 手話編集方法および装置
JP2716133B2 (ja) ブロック図のデータ表示処理装置
JP2701056B2 (ja) 三次元物体の二次表現方法
JPS632118B2 (ko)
JP3569958B2 (ja) 立体画像作成装置および立体画像作成方法
JPH06243266A (ja) 透視図作成装置
JPH0991455A (ja) 吹き出し図形入力方法
JPS62281063A (ja) 文書処理装置
JPS6349883A (ja) 図形処理装置
JPS58137085A (ja) 文字処理装置
JPH06309309A (ja) 文字枠入力装置
Strothotte et al. Tactile Computer Graphics
JPS636676A (ja) ストロ−ク指示方式
JPS6145363A (ja) 図面作成装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121121

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20131118

Year of fee payment: 15

LAPS Lapse due to unpaid annual fee