KR20140124271A - 영상의 회화적 표현을 위한 영상 처리 방법 및 장치 - Google Patents

영상의 회화적 표현을 위한 영상 처리 방법 및 장치 Download PDF

Info

Publication number
KR20140124271A
KR20140124271A KR20130041803A KR20130041803A KR20140124271A KR 20140124271 A KR20140124271 A KR 20140124271A KR 20130041803 A KR20130041803 A KR 20130041803A KR 20130041803 A KR20130041803 A KR 20130041803A KR 20140124271 A KR20140124271 A KR 20140124271A
Authority
KR
South Korea
Prior art keywords
edge
image
value
ycrcb
directional information
Prior art date
Application number
KR20130041803A
Other languages
English (en)
Other versions
KR102069228B1 (ko
Inventor
이동혁
김도현
황성택
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130041803A priority Critical patent/KR102069228B1/ko
Publication of KR20140124271A publication Critical patent/KR20140124271A/ko
Application granted granted Critical
Publication of KR102069228B1 publication Critical patent/KR102069228B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Processing (AREA)

Abstract

영상의 회화적 표현을 위한 영상 처리 방법에 있어서, YCrCb 영상에서 색차(Cr, Cb)를 추출하여 색차 레이어를 생성하는 과정과; 상기 YCrCb영상의 휘도(Y)에 따라 상기 YCrCb영상의 에지를 추출하며, 상기 추출된 에지에 미리 설정된 화소값을 할당하여 휘도 레이어를 생성하는 과정과; 상기 색차 레이어와 상기 휘도 레이어를 결합하는 과정을 포함함을 특징으로 한다.

Description

영상의 회화적 표현을 위한 영상 처리 방법 및 장치{METHOD AND APPARATUS FOR FILLING COLOR OF IMAGE}
본 발명은 영상 처리 기술에 관한 것으로, 특히 영상의 회화적 표현을 위한 영상 처리 방법 및 장치에 관한 것이다.
과거, 포토샵, 페인트샵과 같은 상용 그래픽 툴이 설치되어 있는 컴퓨터에서만 가능했던 영상에 대한 잘라내기, 회전 등의 물리적인 영상 편집 기술이 스마트폰, 태블릿 PC 등과 같은 휴대 단말 장치에 적용되면서 누구나 쉽게 영상을 편집할 수 있게 되었다.
또한 최근에는 시각적인 요소 즉, 그래픽 요소가 중요해지면서 보다 자연스러운 형태 및 색상의 영상을 표현하기 위한 영상 처리 기술이 개발되고 있으며, 이와 더불어 사용자의 감성적인 부분을 영상에 적용하기 위한 시도가 이루어 지고 있다. 이에 따라, 영상을 사실적으로 표시하도록 하는 기술 외에, 흑백 효과, 반전, 세피아, 및 빛 바랜 효과 등과 같은 다양한 특수 효과들을 영상에 적용할 수 있도록 하는 기술이 개발되었다.
그러나, 종래에 이미 개발되어 적용되고 있는 특수 효과들의 경우 실제로 그려진 것과 같은 회화적 표현을 나타내는 감성적인 효과를 갖는 영상을 표현하기에는 한계가 있다. 이에 따라 영상에 새로운 효과를 적용하여 새롭게 영상을 표시하기 위한 영상 처리 기술의 개발이 요구되고 있다.
따라서, 본 발명의 목적은, 기존에 개발된 흑백 효과, 반전, 세피아, 및 빛 바랜 효과 등과 같은 특수 효과들과는 차별화되며, 입력 영상을 새로운 감성적인 효과를 갖는 영상으로 표현할 수 있도록 하기 위한 영상의 회화적 표현을 위한 영상 처리 방법 및 장치를 제공함에 있다.
상기한 목적을 달성하기 위하여 본 발명의 일 견지에 따르면, 영상의 회화적 표현을 위한 영상 처리 방법에 있어서, YCrCb 영상에서 색차(Cr, Cb)를 추출하여 색차 레이어를 생성하는 과정과; 상기 YCrCb영상의 휘도(Y)에 따라 상기 YCrCb영상의 에지를 추출하며, 상기 추출된 에지에 미리 설정된 화소값을 할당하여 휘도 레이어를 생성하는 과정과; 상기 색차 레이어와 상기 휘도 레이어를 결합하는 과정을 포함함을 특징으로 한다.
상기한 목적을 달성하기 위하여 본 발명의 다른 견지에 따르면, 영상의 회화적 표현을 위한 영상 처리 장치에 있어서, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이 하는 표시부와; 상기 표시부를 제어하며, YCrCb 영상에서 색차(Cr, Cb)를 추출하여 색차 레이어를 생성하며, 상기 YCrCb영상의 휘도(Y)에 따라 상기 YCrCb영상의 에지를 추출하며 상기 추출된 에지에 미리 설정된 화소값을 할당하여 휘도 레이어를 생성하며, 상기 색차 레이어와 상기 휘도 레이어를 결합하는 동작을 제어하는 제어부를 포함함을 특징으로 한다.
상기한 바와 같이, 본 발명에 따른 색상 채우기 효과 적용 방법 및 장치를 사용함으로서, 경계선이 있는 이미지에 채우기 효과의 수행 시, 경계선 영역과 잘 어울러진 채우기 결과를 빠르게 얻을 수 있다. 이를 통해 휴대폰, 스마트폰, 태블릿 PC, 노트북, 카메라와 같은 휴대 단말 장치 및 컴퓨터에서의 사진 편집 애플리케이션 및 노트(메모) 애플리케이션의 이미지 편집에 있어서 차별화된 기술로 활용할 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상의 회화적 표현을 위한 영상 처리 동작을 수행하는 휴대 단말 장치의 구성도
도 2는 본 발명의 일 실시예에 따른 영상의 회화적 표현을 위한 영상 처리 동작의 흐름도
도 3은 도 2의 일 실시예에 따른 휘도 레이어를 생성하는 동작의 상세 흐름도
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 색차 레이어를 나타낸 예시도
도 5a 및 도 5b는 본 발명의 일 실시예에 따른 휘도 레이어를 나타낸 예시도
도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 영상의 회화적 표현을 위한 영상 처리 동작에 따른 영상의 결과를 나타낸 예시도
이하 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 색차 레이어, 휘도 레이어 등과 같은 명칭, 구성 소자 등의 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
도 1은 본 발명의 일 실시예에 따른 영상의 회화적 표현을 위한 영상 처리 동작을 수행하는 휴대 단말 장치의 구성도이다. 도 1을 참조하면, 휴대 단말 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180) 및 표시부(190)를 포함한다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 키패드(166) 및 이어폰 연결잭(Earphone Connecting Jack, 167) 중 적어도 하나를 포함한다. 이하에서는 상기 표시부(190) 및 디스플레이 컨트롤러(195)가 각각 터치스크린 및 터치스크린 컨트롤러인 경우를 예로 들어 설명한다.
전원공급부(180)는 제어부(110)의 제어에 따라 휴대 단말 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 휴대 단말 장치(100)에 전원을 공급한다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 휴대 단말 장치(100)로 공급할 수 있다. 또한, 전원공급부(180)는 무선 충전 기술을 통해 외부의 전원소스로부터 무선으로 입력되는 전원을 휴대 단말 장치(100)로 공급할 수도 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(110)에 포함될 수 있다.
이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나 또는 복수의 안테나(도시되지 아니함)를 이용하여 이동통신을 통해 휴대 단말 장치(100)가 외부 장치와 연결되도록 할 수 있다. 이동통신 모듈(120)은 휴대 단말 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신할 수 있다. 또한 이동통신 모듈(120)은 제어부(110)의 제어에 따라 와이파이(Wi-Fi), 3G/4G 데이터 네트워크를 통해 무선 액세스 포인트(AP, access point)가 설치된 장소에서 무선 인터넷 등과 연결되거나, 주변 장치들과 무선으로 무선 신호를 송/수신할 수 있다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 휴대 단말 장치(100)간에 무선으로 근거리 통신을 할 수 있다.
휴대 단말 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 휴대 단말 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 휴대 단말 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 휴대 단말 장치(100)의 위치를 산출할 수 있다.
센서 모듈(170)은 휴대 단말 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 휴대 단말 장치(100)에 대한 접근여부를 검출하는 근접센서, 또는 휴대 단말 장치(100)의 동작(예, 휴대 단말 장치(100)의 회전, 휴대 단말 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 모션센서(도시되지 아니함), 주변의 빛의 양을 검출하는 조도센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다. 또한 센서 모듈(170)은 지구 자기장을 이용해 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor, 도시되지 아니함), 어떤 정해진 방향에서의 각변위 또는 그 변화율을 계측하는 관성센서를 포함할 수 있다.
상기 센서모듈(170)의 센서는 휴대 단말 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다. 적어도 하나의 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다.
입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 상기 휴대 단말 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 상기 휴대 단말 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다. 스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 휴대 단말 장치(100) 외부로 출력할 수 있다. 스피커(163)는 휴대 단말 장치(100)가 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 휴대 단말 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 상기 휴대 단말 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 터치스크린(190) 상을 터치하는 사용자의 터치 동작 및 터치스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 상기 휴대 단말 장치(100)와 외부 장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 상기 휴대 단말 장치(100)는 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 휴대 단말 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)로부터 데이터를 수신할 수 있다. 또한 상기 휴대 단말 장치(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)로부터 전원을 입력받거나, 상기 전원소스를 이용하여 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 휴대 단말 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 휴대 단말 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 휴대 단말 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 휴대 단말 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰(도시되지 아니함)이 삽입되어 상기 휴대 단말 장치(100)에 연결될 수 있다.
터치스크린(190)은 사용자의 조작을 입력 받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이 할 수 있다. 즉, 터치스크린(190)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 제공할 수 있다. 터치스크린(190)은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다. 터치스크린(190)은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력 받을 수 있다. 또한, 터치스크린(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력 받을 수 있다. 터치스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다.
또한, 본 발명에서 터치는 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 직접적인 접촉에 한정되지 않고, 비접촉을 포함할 수 있다. 터치스크린(190)에서 검출 가능한 간격은 휴대 단말 장치(100)의 성능 또는 구조에 따라 변경될 수 있으며, 특히 터치스크린(190)은 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 의한 터치 이벤트와, 비접촉 상태로의 입력(예컨대, 호버링(Hovering)) 이벤트를 구분하여 검출 가능하도록, 상기 터치 이벤트와 호버링 이벤트에 의해 검출되는 값(예컨대, 전류값 등)이 다르게 출력될 수 있도록 구성된다. 또한, 터치스크린(190)은 호버링 이벤트가 발생되는 공간과 터치스크린(190) 사이의 거리에 따라, 검출되는 값(예컨대, 전류값 등)을 다르게 출력하는 것이 바람직하다.
터치스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 전자기 유도(EMR; Electro Magnetic Resonance) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
한편, 터치스크린 컨트롤러(195)는 터치스크린(190)에서부터 수신된 아날로그 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 이벤트 또는 호버링 이벤트에 응답하여 터치스크린(190)에 표시된 단축 아이콘(도시되지 아니함)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한, 터치스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.
또한, 터치스크린 컨트롤러(195)는 터치스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 호버링 이벤트가 발생되는 공간과 터치스크린(190) 사이의 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수 있다.
또한, 터치스크린(190)은 사용자의 신체 및 터치 가능한 입력 수단에 의한 입력을 동시에 입력 받을 수 있도록, 사용자의 신체 및 터치 가능한 입력 수단의 터치나 근접을 각각 감지할 수 있는 적어도 두 개의 터치스크린 패널을 포함할 수 있다. 상기 적어도 두 개의 터치스크린 패널은 서로 다른 출력값을 터치스크린 컨트롤러(195)에 제공하고, 터치스크린 컨트롤러(195)는 상기 적어도 두 개의 터치스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치스크린으로부터의 입력이 사용자의 신체에 의한 입력인지, 터치 가능한 입력 수단에 의한 입력인지를 구분할 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 휴대 단말 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
"저장부"라는 용어는 저장부(175), 제어부(110)내 롬(112), 램(113) 또는 휴대 단말 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
제어부(110)는 CPU(111), 휴대 단말 장치(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 112) 및 휴대 단말 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 휴대 단말 장치(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 터치스크린(190), 및 터치스크린 컨트롤러(195)를 제어할 수 있다.
또한 제어부(110)는 본 발명의 영상의 회화적 표현을 위한 영상 처리 동작의 특징에 따라, YCrCb 영상에서 색차(Cr, Cb)를 추출하여 색차 레이어를 생성하며, 상기 YCrcb 영상의 휘도에 따라 상기 YCrCb 영상의 에지를 추출하며 상기 추출된 에지에 미리 설정된 화소값을 할당하여 휘도 레이어를 생성하며, 상기 색차 레이어와 상기 휘도 레이어를 결합하는 동작을 제어한다.
또한 제어부는(110)는 터치스크린(190)에 표시된 RGB 영상을 상기 YCrCb 영상으로 변환하는 동작을 제어하며, 상기 색차 레이어와 상기 휘도 레이어를 결합하는 동작 이후, 상기 색차 레이어와 상기 휘도 레이어의 결합에 따른 YCrCb 영상을 RGB영상으로 변환하여 터치스크린(190)에 표시하는 동작을 제어한다.
도 2는 본 발명의 일 실시예에 따른 영상의 회화적 표현을 위한 영상 처리 동작의 흐름도이다. 도 2를 참조하면, 본 발명은 YCrCb 영상에서 색차(Cr, Cb)를 추출하여 색차 레이어를 생성하며, 상기 YCrCb영상의 휘도(Y)에 따라 YCrCb영상의 에지를 추출하여 추출된 에지에 미리 설정된 화소값을 할당하여 휘도 레이어를 생성하며, 상기 색차 레이어와 상기 휘도 레이어를 결합하는 동작을 수행한다. 이와 같은 동작에 따라 일반적인 영상에 상기 색차 레이어의 파스텔 효과와 상기 휘도 레이어의 스케치 효과가 적용되어, 회화적 표현의 새로운 효과를 갖는 영상을 생성할 수 있도록 한다.
먼저 210 단계에서는 영상의 RGB 값을 YCrCb 값으로 변환한다. 이는 본 발명을 적용할 대상의 원본 RGB 영상을 YCrCb 영상으로 변환하여 색차(Cr, Cb) 정보 및 휘도(Y) 값을 산출하기 위함이다. RGB 영상을 YCrCb 영상으로 변환하는 수식은 하기 수학식 1을 적용할 수 있다. 하기 수학식 1에서 R은 RGB 영상의 R(적색) 값, G는 RGB 영상의 G(녹색)값, B는 RGB 영상의 B(청색)값이며, Y는 휘도, Cr 및 Cb는 색차를 나타낸다.
Figure pat00001
이후 230 단계에서는 YCrCb 영상에서Cr, Cb 각 색차를 추출하여 색차 레이어를 생성한다. 이때 생성된 색차 레이어는 영상을 파스텔로 색칠한 듯한 파스텔 효과를 가진다. 도 4a 및 도 4b를 참조하면, 도 4a의 (a) 및 도 4b의 (a)는 원본 RGB 영상이며, 도 4a의 (b) 및 도 4b의 (b)는 상기 원본 RGB 영상으로부터 YCrCb 영상으로 변환 후 색차를 추출한 색차 레이어이다.
이후 250 단계에서는 휘도에 따라 영상의 에지를 추출하며 추출된 에지에 미리 설정된 화소 값을 할당하여 휘도 레이어를 생성한다. 이때 생성된 휘도 레이어는 영상의 주요 외곽선을 스케치한 듯한 스케치 효과를 가진다.
도 3을 참조하여 250 단계의 휘도 레이어 생성 동작을 상세히 설명하면 다음과 같다. 먼저 251 단계에서는 영상의 전체 휘도에 대해 방향성 에지 필터를 적용하여 영상에서 방향성 정보를 갖는 에지를 추출한다. 즉, YCrCb 영상의 전체 휘도에 대해 3*3, 5*5 등과 같은 방향성 에지 필터를 적용하여 수평, 수직, 좌대각, 우대각 등과 같은 방향성 정보를 갖는 에지를 추출한다. 이후 253 단계에서는 전체 휘도에 대해 방향성 에지 필터를 적용하여 산출된 방향성 정보를 갖는 에지의 결과 값에 각 방향성 정보 별 가중 평균 값을 적용하여 상기 추출된 에지의 에지 강도를 산출한다. 이때, 가중 평균 값을 수평, 수직, 좌대각, 우대각 등과 같은 방향성 정보 별로 각각 다른 값으로 설정하여, 방향성 정보 별로 에지 강도를 각각 다르게 산출되도록 한다. 이에 따라 후술하는 255 단계의 에지 강도에 따라 에지에 명도 및 두께를 적용할 때, 에지의 방향 별로 에지에 명도 및 두께가 다르게 적용되도록 할 수 있다. 추가로 가중 평균 값은 사용자에 의해 변경 가능할 수 있다. 이후 255 단계에서는 에지 강도에 따라 에지에 명도 및 두께를 적용한다. 다시 말해서, 산출된 에지 강도에 따라, 에지 강도에 대응하도록 에지의 두께를 확장 또는 축소하여, 에지 강도에 대응하는 미리 설정된 화소 값을 두께가 확장 또는 축소된 에지에 적용한다. 예를 들어서, 에지 강도가 클 경우에는 에지의 두께를 확장하여 두꺼운 에지 두께를 갖게 하고 검은색에 가까운 화소값을 확장된 에지에 적용하여 두꺼운 두께의 검은 색의 외곽선으로 에지가 표시되도록 할 수 있다. 또한 에지 강도가 작을 경우에는 에지의 두께를 축소하여 얇은 에지 두께를 갖게 하고 흰색에 가까운 화소값을 축소된 에지에 적용하여 두께가 얇으며 흰색에 가까운 색의 외곽선으로 에지가 표시되도록 할 수 있다. 즉, 250 단계의 동작의 결과, 에지의 방향 별로 에지에 에지의 두께 및 화소 값을 각각 다르게 표시되도록 할 수 있다. 예를 들어 좌대각, 우대각 방향의 에지에는 두껍고 검은색에 가까운 화소값으로 표시되도록 할 수 있으며, 수평, 수직 방향의 에지에는 얇고 흰색에 가까운 화소값으로 표시되도록 할 수 있다. 도 5a 및 도 5b를 참조하면, 도 5a의 (a) 및 도 5b의 (a)는 원본 RGB 영상이며, 도 5a의 (b) 및 도 5b의 (b)는 상기 원본 RGB 영상으로부터 YCrCb 영상으로 변환 후 휘도(Y)에 따라 추출된 영상의 에지에 화소값이 할당된 휘도 레이어이다. 이때의 휘도 레이어는 외곽선을 직접 그린듯한 스케치 효과가 표시된다.
이후 270 단계에서는 상기 색차 레이어 및 휘도 레이어를 결합한다. 이는 상기 색차 레이어의 파스텔 효과와 상기 휘도 레이어의 스케치 효과를 결합하기 위한 것이다.
이후 290 단계에서는 YCrCb 값을 RGB 값으로 변환한다. 이는 YCrCb 영상을 RGB 영상으로 변환하여 화면에 표시하기 위한 것으로, 하기 수학식 2를 적용하여 RGB 영상으로 변환 할 수 있다. 하기 수학식 2에서 Y는 휘도, Cr 및 Cb는 색차이며, R은 RGB 영상의 R(적색) 값, G는 RGB 영상의 G(녹색)값, B는 RGB 영상의 B(청색)값을 나타낸다.
Figure pat00002
도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 영상의 회화적 표현을 위한 영상 처리 동작에 따른 영상의 결과를 나타낸 예시도이다. 도 6a 내지 도 6c를 참조하면, 도 6a의 (a) 내지 도 6c의 (a)는 원본 RGB 영상이며, 도 6a의 (b) 내지 도 6c의 (c)는 상기 원본 RGB 영상으로부터 YCrCb 영상으로 변환 후 생성한 색차 레이어 및 휘도 레이어를 결합한 후, RGB 영상으로 변환한 파스텔 및 스케치 효과가 적용된 영상이다.
상기와 같이 일 실시예에 따른 본 발명의 영상의 회화적 표현을 위한 영상 처리 방법 및 장치의 구성 및 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나 이외에도 본 발명의 다양한 실시예들이나, 여러 가지 변형 및 변경이 있을 수 있다. 예컨대, 본 명세서에서 기재된 각각의 동작들은 그 전체 또는 일부가 병력적으로 동시에 수행되거나, 일부가 생략되거나, 다른 추가적인 동작들을 포함할 수 있다.
예를 들어, 상기 실시예에서는 230 단계의 색차 레이어를 생성하는 동작 이후 250 단계의 휘도 레이어를 생성하는 동작을 수행하는 것으로 설명했지만, 색차 레이어를 생성하는 동작과 휘도 레이어를 생성하는 동작은 병렬적으로 동시에 수행될 수 있다.
또한 상기 실시예에서는 방향성 에지 필터의 적용에 따라 산출된 결과 값에 각 방향성 정보 별 가중 평균 값을 적용하여 에지 강도를 산출하는 동작을 설명했지만, 방향성 에지 필터에 각 방향성 정보 별 가중 평균 값이 적용되어 방향성 에지 필터의 적용에 따라 산출된 결과 값을 에지 강도로 결정하도록 할 수 있다. 또한 상기 추출된 방향성 정보를 갖는 에지에 상기 방향성 정보 별 미리 설정된 가중 평균 값을 적용하여 상기 추출된 방향성 정보를 갖는 에지의 에지 강도를 산출할 수도 있다.
또한 상기 실시예에서는 에지의 방향 별로 에지의 두께 및 화소 값을 각각 다르게 표시되도록 하는 동작을 설명했지만, 전체 에지에 같은 두께 및 화소 값이 적용되도록 하거나, 전체 에지에 두께만 같고 화소 값이 다르게 적용되거나, 전체 에지에 화소 값을 동일하게 적용하고 두께를 다르게 적용하도록 할 수도 있다.
또한 상기 실시예에서는 스마트폰, 태블릿 PC 등의 휴대 단말 장치에서 본 발명의 영상의 회화적 표현을 위한 영상처리 동작을 설명했지만, 컴퓨터와 같은 전자 장치에도 본 발명을 적용할 수 있다.
또한 본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 휴대 단말 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.

Claims (22)

  1. 영상의 회화적 표현을 위한 영상 처리 방법에 있어서,
    YCrCb 영상에서 색차(Cr, Cb)를 추출하여 색차 레이어를 생성하는 과정과;
    상기 YCrCb영상의 휘도(Y)에 따라 상기 YCrCb영상의 에지를 추출하며, 상기 추출된 에지에 미리 설정된 화소값을 할당하여 휘도 레이어를 생성하는 과정과;
    상기 색차 레이어와 상기 휘도 레이어를 결합하는 과정을 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  2. 제 1항에 있어서,
    RGB 영상을 상기 YCrCb 영상으로 변환하는 과정을 더 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  3. 제 2항에 있어서, 상기 RGB 영상을 YCrCb 영상으로 변환하는 과정은,
    하기 수학식 1에 의해 상기 RGB 영상이 상기 YCrCb 영상으로 변환되는 것을 포함하며,
    (수학식 1)
    Figure pat00003

    상기 수학식 1에서 상기 R은 RGB 영상의 R(적색) 값이며, 상기 G는 RGB 영상의 G(녹색)값이며, 상기 B는 RGB 영상의 B(청색)값이며, 상기 Y는 휘도이며, 상기 Cr 및 상기 Cb는 색차를 나타내는 것을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  4. 제 1항에 있어서, 휘도 레이어를 생성하는 과정은,
    상기 YCrCb 영상의 휘도에 대해 미리 설정된 방향성 에지 필터를 적용하여 상기 YCrCb 영상에서 방향성 정보를 갖는 에지를 추출하는 단계와,
    상기 추출된 방향성 정보를 갖는 에지의 에지 강도를 산출하는 단계와,
    상기 산출된 에지 강도에 대응하는 미리 설정된 화소 값을 상기 추출된 방향성 정보를 갖는 에지에 적용하는 단계를 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  5. 제 4항에 있어서, 상기 추출된 방향성 정보를 갖는 에지의 에지 강도를 산출하는 단계는,
    상기 추출된 방향성 정보를 갖는 에지에 상기 방향성 정보 별 미리 설정된 가중 평균 값을 적용하여 상기 에지 강도를 산출하는 것을 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  6. 제 4항에 있어서, 상기 추출된 방향성 정보를 갖는 에지의 에지 강도를 산출하는 단계는,
    상기 방향성 에지 필터의 적용에 따라 산출된 결과 값을 에지 강도로 하는 것을 포함하며,
    상기 방향성 에지 필터는 각 방향성 정보 별 미리 설정된 가중 평균 값이 적용된 것을 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  7. 제 4항에 있어서, 상기 추출된 방향성 정보를 갖는 에지의 에지 강도를 산출하는 단계는,
    상기 방향성 에지 필터의 적용에 따라 산출된 결과 값에 각 방향성 정보 별 미리 설정된 가중 평균 값을 적용하여 에지 강도로 산출하는 것을 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  8. 제 5항, 6항 및 7항 중 어느 한 항에 있어서, 상기 방향성 정보 별 미리 설정된 가중 평균 값은,
    사용자에 의해 변경 가능함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  9. 제 4항에 있어서, 상기 산출된 에지 강도에 대응하는 미리 설정된 화소 값을 상기 추출된 방향성 정보를 갖는 에지에 적용하는 단계의 실행 시,
    상기 산출된 에지 강도에 따라, 상기 에지의 두께를 확장 또는 축소하여 상기 미리 설정된 화소 값을 상기 두께가 확장 또는 축소된 에지에 적용하는 단계를 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  10. 제 1항에 있어서, 상기 색차 레이어와 상기 휘도 레이어를 결합하는 과정 이후,
    상기 색차 레이어와 상기 휘도 레이어의 결합에 따른 YCrCb영상을 RGB 영상으로 변환하는 과정을 더 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  11. 제 10항에 있어서, 상기 RGB 영상으로 변환하는 과정은,
    하기 수학식 2에 의해 상기 색차 레이어와 상기 휘도 레이어의 결합에 따른 YCrCb영상이 상기 RGB 영상으로 변환되는 것을 포함하며,
    (수학식 2)
    Figure pat00004

    상기 수학식 2에서 상기 Y는 휘도이며, 상기 Cr 및 상기 Cb는 색차이며, 상기 R은 RGB 영상의 R(적색) 값이며, 상기 G는 RGB 영상의 G(녹색)값이며, 상기 B는 RGB 영상의 B(청색)값을 나타내는 것을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 방법.
  12. 영상의 회화적 표현을 위한 영상 처리 장치에 있어서,
    응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이 하는 표시부와;
    상기 표시부를 제어하며, YCrCb 영상에서 색차(Cr, Cb)를 추출하여 색차 레이어를 생성하며, 상기 YCrCb영상의 휘도(Y)에 따라 상기 YCrCb영상의 에지를 추출하며 상기 추출된 에지에 미리 설정된 화소값을 할당하여 휘도 레이어를 생성하며, 상기 색차 레이어와 상기 휘도 레이어를 결합하는 동작을 제어하는 제어부를 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
  13. 제 12항에 있어서, 상기 제어부는
    상기 표시부에 디스플레이된 RGB 영상을 상기 YCrCb 영상으로 변환하는 동작을 제어하는 것을 더 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
  14. 제 13항에 있어서, 상기 RGB 영상을 YCrCb 영상으로 변환하는 동작은,
    하기 수학식 1에 의해 상기 RGB 영상이 상기 YCrCb 영상으로 변환되는 것을 포함하며,
    (수학식 1)
    Figure pat00005

    상기 수학식 1에서 상기 R은 RGB 영상의 R(적색) 값이며, 상기 G는 RGB 영상의 G(녹색)값이며, 상기 B는 RGB 영상의 B(청색)값이며, 상기 Y는 휘도이며, 상기Cr 및 상기 Cb는 색차를 나타내는 것을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
  15. 제 12항에 있어서, 휘도 레이어를 생성하는 동작은,
    상기 YCrCb 영상의 휘도에 대해 미리 설정된 방향성 에지 필터를 적용하여 상기 YCrCb 영상에서 방향성 정보를 갖는 에지를 추출하며, 상기 추출된 방향성 정보를 갖는 에지의 에지 강도를 산출하며, 상기 산출된 에지 강도에 대응하는 미리 설정된 화소 값을 상기 추출된 방향성 정보를 갖는 에지에 적용하는 동작을 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
  16. 제 15항에 있어서, 상기 추출된 방향성 정보를 갖는 에지의 에지 강도를 산출하는 동작은,
    상기 추출된 방향성 정보를 갖는 에지에 상기 방향성 정보 별 미리 설정된 가중 평균 값을 적용하여 상기 에지 강도를 산출하는 것을 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
  17. 제 15항에 있어서, 상기 추출된 방향성 정보를 갖는 에지의 에지 강도를 산출하는 동작은,
    상기 방향성 에지 필터의 적용에 따라 산출된 결과 값을 에지 강도로 하는 것을 포함하며,
    상기 방향성 에지 필터는 각 방향성 정보 별 미리 설정된 가중 평균 값이 적용된 것을 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
  18. 제 15항에 있어서, 상기 추출된 방향성 정보를 갖는 에지의 에지 강도를 산출하는 동작은,
    상기 방향성 에지 필터의 적용에 따라 산출된 결과 값에 각 방향성 정보 별 미리 설정된 가중 평균 값을 적용하여 에지 강도로 산출하는 것을 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
  19. 제 16항, 17항 및 18항 중 어느 한 항에 있어서, 상기 방향성 정보 별 미리 설정된 가중 평균 값은,
    사용자에 의해 변경 가능함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
  20. 제 15항에 있어서, 상기 산출된 에지 강도에 대응하는 미리 설정된 화소 값을 상기 추출된 방향성 정보를 갖는 에지에 적용하는 동작의 실행 시,
    상기 산출된 에지 강도에 따라, 상기 에지의 두께를 확장 또는 축소하여 상기 미리 설정된 화소 값을 상기 두께가 확장 또는 축소된 에지에 적용하는 동작을 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
  21. 제 12항에 있어서, 상기 제어부는
    상기 색차 레이어와 상기 휘도 레이어를 결합하는 동작 이후, 상기 색차 레이어와 상기 휘도 레이어의 결합에 따른 YCrCb영상을 RGB 영상으로 변환하여 상기 표시부에 디스플레이하는 동작을 더 포함함을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
  22. 제 21항에 있어서, 상기 RGB 영상으로 변환하는 동작은,
    하기 수학식 2에 의해 상기 색차 레이어와 상기 휘도 레이어의 결합에 따른 YCrCb영상이 상기 RGB 영상으로 변환되는 것을 포함하며,
    (수학식 2)
    Figure pat00006

    상기 수학식 2에서 상기 Y는 휘도이며, 상기 Cr 및 상기 Cb는 색차이며, 상기 R은 RGB 영상의 R(적색) 값이며, 상기 G는 RGB 영상의 G(녹색)값이며, 상기 B는 RGB 영상의 B(청색)값을 나타내는 것을 특징으로 하는 영상의 회화적 표현을 위한 영상 처리 장치.
KR1020130041803A 2013-04-16 2013-04-16 영상의 회화적 표현을 위한 영상 처리 방법 및 장치 KR102069228B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130041803A KR102069228B1 (ko) 2013-04-16 2013-04-16 영상의 회화적 표현을 위한 영상 처리 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130041803A KR102069228B1 (ko) 2013-04-16 2013-04-16 영상의 회화적 표현을 위한 영상 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20140124271A true KR20140124271A (ko) 2014-10-24
KR102069228B1 KR102069228B1 (ko) 2020-01-22

Family

ID=51994598

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130041803A KR102069228B1 (ko) 2013-04-16 2013-04-16 영상의 회화적 표현을 위한 영상 처리 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102069228B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220059755A (ko) * 2020-11-03 2022-05-10 중앙대학교 산학협력단 감성이 반영되는 이미지 묘사 장치 및 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH064662A (ja) * 1992-06-19 1994-01-14 Canon Inc 画像処理方法及びその装置
JP2005266897A (ja) * 2004-03-16 2005-09-29 Nec Corp 画像処理装置
JP2006311626A (ja) * 2006-08-21 2006-11-09 Murata Mach Ltd カラー画像処理装置
JP2010055410A (ja) * 2008-08-28 2010-03-11 Kyocera Corp 画像処理装置、画像処理方法、および画像処理プログラム
JP2010157163A (ja) * 2008-12-31 2010-07-15 Morpho Inc 画像処理方法および画像処理装置
KR20110031573A (ko) * 2009-09-21 2011-03-29 우경식 영구자석 바이패스 디스크 모터.
JP2012044243A (ja) * 2010-08-12 2012-03-01 Nikon Corp 画像処理装置、撮像装置及び画像処理プログラム
KR20130031573A (ko) * 2011-09-21 2013-03-29 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH064662A (ja) * 1992-06-19 1994-01-14 Canon Inc 画像処理方法及びその装置
JP2005266897A (ja) * 2004-03-16 2005-09-29 Nec Corp 画像処理装置
JP2006311626A (ja) * 2006-08-21 2006-11-09 Murata Mach Ltd カラー画像処理装置
JP2010055410A (ja) * 2008-08-28 2010-03-11 Kyocera Corp 画像処理装置、画像処理方法、および画像処理プログラム
JP2010157163A (ja) * 2008-12-31 2010-07-15 Morpho Inc 画像処理方法および画像処理装置
KR20110031573A (ko) * 2009-09-21 2011-03-29 우경식 영구자석 바이패스 디스크 모터.
JP2012044243A (ja) * 2010-08-12 2012-03-01 Nikon Corp 画像処理装置、撮像装置及び画像処理プログラム
KR20130031573A (ko) * 2011-09-21 2013-03-29 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220059755A (ko) * 2020-11-03 2022-05-10 중앙대학교 산학협력단 감성이 반영되는 이미지 묘사 장치 및 방법

Also Published As

Publication number Publication date
KR102069228B1 (ko) 2020-01-22

Similar Documents

Publication Publication Date Title
US9324305B2 (en) Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
EP2753065B1 (en) Method and apparatus for laying out image using image recognition
US20140351728A1 (en) Method and apparatus for controlling screen display using environmental information
KR20140042544A (ko) 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치
KR20140122458A (ko) 휴대 단말 장치의 화면 표시 방법 및 장치
US10319345B2 (en) Portable terminal and method for partially obfuscating an object displayed thereon
KR102030475B1 (ko) 주위 광원에 따른 디스플레이 영상의 변환 방법 및 장치
KR102090948B1 (ko) 대화 기록 장치 및 그 방법
KR20140071035A (ko) 복수 스크린을 표시하는 디스플레이 장치 및 그 제어 방법
KR20140119546A (ko) 사용자 인터페이스 표시 방법 및 장치
KR102186815B1 (ko) 컨텐츠 스크랩 방법, 장치 및 기록매체
CN111105474B (zh) 字体绘制方法、装置、计算机设备及计算机可读存储介质
KR20150079387A (ko) 카메라 광 데이터로 가상 환경을 조명하는 방법
KR20140123325A (ko) 색상 채우기 효과 적용 방법 및 장치
KR20140068585A (ko) 터치스크린에서 손 터치와 펜 터치의 구별 방법 및 장치
KR102069228B1 (ko) 영상의 회화적 표현을 위한 영상 처리 방법 및 장치
KR102146832B1 (ko) 스타일러스 펜의 입력 지점을 측정하는 전자 장치 및 그 제어 방법
KR20140113032A (ko) 휴대단말기의 표시화면을 표시하는 방법 및 장치
KR20150024009A (ko) 사용자 입력 피드백 제공 방법 및 장치
KR20150026110A (ko) 아이콘들을 관리하는 방법 및 이를 위한 모바일 단말기
KR101955280B1 (ko) 이미지 내에 포함된 얼굴에 대한 줌 효과 제공 장치 및 방법
KR102482630B1 (ko) 사용자 인터페이스 표시 방법 및 장치
CN116301849A (zh) 生成表单的方法、装置、设备和存储介质
KR20210097765A (ko) 가상 환경에 기반한 객체 구축 방법 및 장치, 컴퓨터 장치 및 판독 가능 저장 매체
CN116703763A (zh) 视频修复方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant