KR20150106330A - 화상 표시 장치 및 화상 표시 방법 - Google Patents

화상 표시 장치 및 화상 표시 방법 Download PDF

Info

Publication number
KR20150106330A
KR20150106330A KR1020150012585A KR20150012585A KR20150106330A KR 20150106330 A KR20150106330 A KR 20150106330A KR 1020150012585 A KR1020150012585 A KR 1020150012585A KR 20150012585 A KR20150012585 A KR 20150012585A KR 20150106330 A KR20150106330 A KR 20150106330A
Authority
KR
South Korea
Prior art keywords
image
area
display screen
designated
enlarging
Prior art date
Application number
KR1020150012585A
Other languages
English (en)
Inventor
타츠야 무라카미
아츠시 이리에
마사히로 센가
미즈키 후루타
Original Assignee
오므론 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오므론 가부시키가이샤 filed Critical 오므론 가부시키가이샤
Publication of KR20150106330A publication Critical patent/KR20150106330A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Abstract

표시 화면과, 상기 표시 화면에 화상을 출력하는 화상 출력 수단과, 상기 화상에 포함되는 하나 이상의 오브젝트를 추출하고, 당해 오브젝트에 각각 대응하는 영역인 제1의 영역을 설정하는 영역 설정 수단과, 유저에 의해 지정된, 상기 표시 화면상의 좌표를 취득하는 조작 취득 수단과, 상기 지정된 좌표에 의거하여, 표시 중의 화상을 확대 표시하는 화상 확대 수단을 가지며, 상기 화상 확대 수단은, 상기 지정된 좌표가, 상기 설정된 제1의 영역 내에 있는 경우에, 당해 제1의 영역에 포함되는 오브젝트를 확대 표시한다.

Description

화상 표시 장치 및 화상 표시 방법{IMAGE DISPLAY APPARATUS AND IMAGE DISPLAY METHOD}
본 발명은, 화상을 표시하는 화상 표시 장치에 관한 것이다.
근래, 스마트폰이나 태블릿 등, 화면에 터치함으로써 조작이 행하여지는 컴퓨터가 널리 보급되어 있다. 이와 같은 컴퓨터를 이용하여 사진 등의 화상을 표시하면, 탭이나 핀치 등의 직감적인 제스처 조작에 의해, 확대나 축소 등을 행할 수가 있다.
한편, 제스처 조작에 의거하여 화상을 확대한 경우, 배율을 적절하게 설정하여야 한다는 과제가 있다. 배율이 적절하지 않은 경우, 유저는, 소망하는 배율을 얻기 위해 몇 회나 확대 조작을 행하여야 한다. 이 때문에, 유저가 소망하는 확대 배율을 추정하기 위한 기술이 수많이 고안되어 있다.
예를 들면, 특허 문헌 1에 기재된 화상 표시 프로그램은, 화상에 포함되는 얼굴을 검출하고, 유저에 의해 어느 위치가 지정된 경우에, 당해 위치에 가장 가까운 인물의 얼굴을 확대 표시하는 것을 특징으로 하고 있다. 또한, 특허 문헌 2에 기재된 전자 앨범은, 화상 중에 존재하는 복수의 얼굴을 검출하고, 전원(全員)의 얼굴이 프레임 아웃하지 않는 배율로 화상의 확대 표시를 행하는 것을 특징으로 하고 있다.
일본 특개2006-178222호 공보 일본 특개2004-193933호 공보
특허 문헌 1에 기재된 발명에서는, 유저가 확대 표시시켜서 싶다고 추정되는 대상(얼룩)을 결정하고, 당해 대상이 프레임 아웃하지 않는 확대 배율을 결정하고 있다.
그러나, 당해 발명에서는, 임의의 대상을 지정한 경우에, 당해 대상을 확대 표시시킬 수는 있지만, 복수의 대상을 지정할 수는 없다. 예를 들면, 화상에 인물이 2사람 나란히 하여 찍혀 있는 경우, 어느 하나의 얼굴을 화면 가득히 확대할 수는 있지만, 두 사람의 얼굴을 화면 가득히 확대한 케이스에는 대응할 수가 없다.
한편, 특허 문헌 2에 기재된 발명에서는, 화상에 복수의 인물이 찍혀 있는 경우에, 전원의 얼굴이 화면에 들어가는 배율로 화상을 확대시킬 수 있다. 그러나, 당해 발명은, 찍혀 있는 모든 얼굴을 대상으로 하여 처리를 행하기 때문에, 몇 사람의 얼굴만을 확대시킬 수가 없다.
즉, 어느 발명도, 유저가 소망하는 범위를 올바르게 확대할 수가 없는 케이스가 있다.
본 발명은 상기한 과제를 고려하여 이루어진 것으로, 화상의 확대 기능을 갖는 화상 표시 장치에 있어서, 유저가 확대 표시를 소망하는 범위를 정밀도 좋게 추정하는 기술을 제공하는 것을 목적으로 한다.
상기 과제를 해결하기 위해, 본 발명에 관한 화상 표시 장치는,
표시 화면과, 상기 표시 화면에 화상을 출력하는 화상 출력 수단과, 상기 화상에 포함되는 하나 이상의 오브젝트를 추출하고, 당해 오브젝트에 각각 대응하는 영역인 제1의 영역을 설정하는 영역 설정 수단과, 유저에 의해 지정된, 상기 표시 화면상의 좌표를 취득하는 조작 취득 수단과, 상기 지정된 좌표에 의거하여, 표시 중의 화상을 확대 표시하는 화상 확대 수단을 가지며, 상기 화상 확대 수단은, 상기 지정된 좌표가, 상기 설정된 제1의 영역 내에 있는 경우에, 당해 제1의 영역에 포함되는 오브젝트를 확대 표시하는 것을 특징으로 한다.
제1의 영역이란, 화상에 포함되는 오브젝트에 대응하는 영역이다. 오브젝트란, 화상에 포함되는 하나 이상의 대상물이고, 예를 들면 화상이 사진인 경우, 인간의 얼굴이라도 좋고, 얼굴을 포함하는 인간의 몸 전체라도 좋다. 또한, 제1의 영역은, 예를 들면, 오브젝트에 외접하는 사각형이라도 좋고, 오브젝트의 윤곽을 나타내는 폐영역이라도 좋다. 화상에 오브젝트가 복수 포함되는 경우, 영역 설정 수단에 의해, 복수의 제1의 영역이 설정된다.
또한, 조작 취득 수단은, 유저에 의해 지정된, 표시 화면상의 좌표를 취득하는 수단이다. 화면상의 좌표의 지정은, 어떤 수단에 의해 행하여도 좋다. 예를 들면, 마우스 등의 입력 장치를 이용하여 행하여도 좋고, 터치 패널 등을 이용하여 행하여도 좋다.
또한, 화상 확대 수단은, 지정된 좌표가, 설정된 제1의 영역 내에 있는 경우에, 당해 제1의 영역에 포함되는 오브젝트를 대상으로 하여 확대 표시를 행한다. 예를 들면, 당해 오브젝트를 화면 가득히 표시하는 배율을 구하고, 화상의 확대를 행한다.
또한, 상기 영역 설정 수단은, 상기 제1의 영역을 포함하는 영역으로서, 상기 제1의 영역보다도 넓은 영역인 제2의 영역을 또한 설정하고, 상기 화상 확대 수단은, 상기 지정된 좌표가, 상기 제1의 영역 외로서, 또한, 제2의 영역 내에 있는 경우에, 당해 좌표에 대해 소정의 범위 내에 있는 오브젝트를 확대 표시하는 것을 특징으로 하여도 좋다.
제2의 영역이란, 제1의 영역을 포함하고, 또한, 제1의 영역보다도 넓은 영역이다. 유저가, 제1의 영역의 외측이고, 또한, 제2의 영역의 내측을 지정한 경우, 제1의 영역에 포함되는 오브젝트만이 아니라, 당해 좌표의 부근에 있는 오브젝트도 동시에 확대하려고 하고 있다고 추정할 수 있다. 그래서, 지정된 좌표에 대해 소정의 범위 내에 있는 하나 이상의 오브젝트를 추출하고, 추출하는 오브젝트를 확대의 대상으로 한다. 소정의 범위 내란, 소정의 거리 이내라도 좋고, 소정의 크기의 도형의 범위 내라도 좋다.
또한, 상기 화상 확대 수단은, 상기 지정된 좌표가, 상기 설정된 제1의 영역 및 제2의 영역의 어느 것에도 속하지 않는 경우에, 소정의 배율을 이용하여 화상을 확대 표시하는 것을 특징으로 하여도 좋다.
제1의 영역 및 제2의 영역에 포함되지 않는 장소가 지정된 경우, 유저는, 오브젝트를 특단(特段)적으로 지정하지 않고서 확대를 행하려고 하고 있다고 추정할 수 있다. 이와 같은 경우는, 소정의 배율을 이용하여 화상을 확대 표시하는 것이 바람직하다.
또한, 상기 화상 확대 수단은, 오브젝트를 확대 표시할 때에, 확대 대상의 오브젝트가 상기 표시 화면을 일탈하지 않는 배율을 구하고, 당해 배율을 이용하여 화상을 확대 표시하는 것을 특징으로 하여도 좋다.
구체적으로는, 예를 들면, 당해 오브젝트에 대응하는 제1의 영역이 표시 화면을 일탈하지 않는 배율을 구하여도 좋고, 당해 오브젝트의 윤곽을 검출하고, 당해 윤곽이 표시 화면을 일탈하지 않는 배율을 구하여도 좋다.
또한, 상기 화상 확대 수단은, 오브젝트를 확대 표시할 때에, 확대 대상의 오브젝트의 중심이 상기 표시 화면 중심이 되도록, 확대 후의 중심 좌표를 결정하는 것을 특징으로 하여도 좋고, 상기 화상 확대 수단은, 오브젝트를 확대 표시할 때에, 상기 지정된 좌표가 상기 표시 화면 중심이 되도록, 확대 후의 중심 좌표를 결정하는 것을 특징으로 하여도 좋다.
이와 같이 함으로써, 유저가 확대를 소망하는 오브젝트를 자연스럽게 확대 표시시킬 수 있다. 또한, 확대 대상의 오브젝트가 복수 있는 경우, 복수의 오브젝트의 중간점이 표시 화면 중심에 오도록 하여도 좋다.
또한, 상기 표시 화면 및 상기 조작 취득 수단은, 터치 패널 디스플레이에 의해 구성되는 것을 특징으로 하여도 좋고, 상기 영역 설정 수단이 추출하는 오브젝트는, 인간의 얼굴인 것을 특징으로 하여도 좋다.
본 발명에 관한 화상 표시 장치는, 터치 패널 디스플레이를 구비한 장치에 대해 알맞게 적용할 수 있고, 또한, 사람의 얼굴을 포함하는 사진을 표시하는 장치에 대해 알맞게 적용할 수 있다.
또한, 본 발명은, 상기 수단의 적어도 일부를 포함하는 화상 표시 장치로서 특정할 수 있다. 또한, 본 발명은, 화상 표시 방법으로서 특정할 수도 있다. 또한, 본 발명은, 컴퓨터에 상기 화상 표시 방법을 실행시키는 프로그램으로서 특정할 수도 있다. 상기 처리나 수단은, 기술적인 모순이 생기지 않는 한에 있어서, 자유롭게 조합시켜서 실시할 수 있다.
본 발명에 의하면, 화상의 확대 기능을 갖는 화상 표시 장치에 있어서, 유저가 확대 표시를 소망하는 범위를 정밀도 좋게 추정할 수 있다.
도 1은 실시 형태에 관한 화상 표시 장치의 시스템 구성도.
도 2는 실시 형태에 관한 화상 표시 장치의 처리 플로차트도.
도 3은 화상 표시 장치에 표시되는 화면을 설명하는 도면.
도 4는 화상 판독 처리의 플로차트도.
도 5는 제1의 영역 및 제2의 영역의 배치 장소를 설명하는 도면.
도 6은 화상 확대 처리의 플로차트도.
도 7은 유저의 조작에 의거하여 확대되는 범위를 설명하는 도면.
도 8은 유저의 조작에 의거하여 확대되는 범위를 설명하는 제2의 도면.
(시스템 구성)
이하, 본 발명의 바람직한 실시 형태에 관해 도면을 참조하면서 설명한다.
본 실시 형태에 관한 화상 표시 장치는, 그래픽이나 사진 등의 화상을, 내장된 터치 패널 디스플레이에 출력하는 기능을 갖는 태블릿형 컴퓨터이다. 또한, 본 실시 형태에 관한 화상 표시 장치는, 유저가 행한 조작에 의거하여, 표시 중의 화상을 확대 및 축소할 수 있다. 도 1은, 본 실시 형태에 관한 화상 표시 장치(10)의 시스템 구성도이다.
화상 표시 장치(10)는, 화상 취득부(11), 입력부(12), 출력부(13), 오브젝트 검출부(14), 표시 제어부(15)로 구성된다. 화상 표시 장치(10)는, 보조 기억 장치에 기억된 프로그램이 주기억 장치에 로드되고, CPU에 의해 실행됨에 의해 도 1에 도시한 각 수단이 동작한다. (CPU, 보조 기억 장치, 주기억 장치는 모두 도시 생략)
화상 취득부(11)는, 표시하는 화상을 취득하는 수단이고, 본 실시 형태에서는, 고정 디스크 드라이브나 플래시 메모리라는 기억 장치이다. 또한, 화상 취득부(11)는, 장치의 외부로부터 화상을 취득하는 수단(예를 들면 통신 장치)이라도 좋다. 또한, 입력부(12)는, 유저가 행하는 입력 조작을 접수하는 수단이고, 구체적으로는, 터치 패널과 그 제어 수단으로 구성된다. 입력부(12)는, 터치 패널에의 손가락의 접촉을 검지하고, 유저가 행하는 입력 조작을 취득할 수 있다.
또한, 출력부(13)는, 유저에 대해 정보를 제시하는 수단이다. 구체적으로는, 액정 디스플레이와 그 제어 수단으로 구성되고, 유저에게 제시하는 그래픽을 생성하여 디스플레이에 표시시키는 수단이다.
입력부(12)를 구성하는 터치 패널, 및 출력부(13)를 구성하는 액정 디스플레이는, 본 실시 형태에서는 하나의 터치 패널 디스플레이(터치 스크린)로 이루어진다.
오브젝트 검출부(14)는, 화상 중에 포함되는 오브젝트를 검출하는 수단이다. 오브젝트란, 전형적으로는 인물이나 인물의 얼굴이지만, 존재하는 영역을 특정할 수 있으면, 오브젝트는 어떤 것이라도 좋다. 예를 들면, 화상이 일본 지도인 경우, 각 도도부현(都道府縣)을 각각 오브젝트로 하여도 좋다. 또한, 화상이 도로를 감시한 카메라의 영상인 경우, 차량을 오브젝트로 하여도 좋다. 본 실시 형태의 설명에서는, 오브젝트란 사람의 얼굴인 것으로 한다.
표시 제어부(15)는, 화면 표시를 제어하는 수단이다. 구체적으로는, 입력부(12)를 통하여 유저가 행한 조작을 취득하는 처리와, 화상 취득부(11)를 통하여 화상을 취득하고, 출력부(13)를 통하여 유저에게 제공하는 처리와, 유저가 행한 조작에 의거하여, 표시 중의 화상을 확대 및 축소하는 처리를 실행한다. 상세한 방법에 관해서는 후술한다.
(화상 표시 처리의 개요)
다음에, 화상 표시 장치(10)가 행하는 화상 표시 처리에 관해, 처리 플로 차트를 참조하면서 설명한다. 도 2는, 화상 표시 장치(10)가 행하는 화상 표시 처리의 플로차트도이다. 도 2에 도시한 처리는, 화상 표시 장치(10)의 기동과 함께 시작된다.
스탭 S11은, 화상 표시 장치(10)를 초기화하는 스탭이다. 구체적으로는, CPU가 보조 기억 장치로부터 프로그램을 판독하고, 주기억 장치에 전개하여 실행한다. 프로그램이 실행되면, 표시 제어부(15)가 조작용의 화면을 생성하고, 출력부(13)를 통하여 터치 스크린상에 표시한다.
여기서, 화상 표시 장치에 표시되는 화면에 관해 설명한다. 도 3은, 화상 표시 장치(10)를 도시한 도면이고, 부호 100이 터치 스크린이다. 표시 제어부(15)는, 출력부(13)를 통하여 당해 스크린상에 그래픽을 표시시킬 수 있다.
또한, 표시 제어부(15)는, 화면을 2종류의 표시 모드로 전환할 수 있다. 하나는, 도 3(A)에 도시한 바와 같은, 열람하는 화상을 선택하는 화면(화상 선택 화면)으로 있고, 또 하나는, 도 3(B)에 도시한 바와 같은, 선택한 화상을 표시하는 화면(화상 열람 화면)이다. 스탭 S11이 실행되면, 표시 제어부(15)는, 우선 화상 선택 화면을 생성하여 출력한다. 화상 선택 화면에서는, 화상 취득부(11)에 기억된 복수의 화상이 섬네일 형식으로 표시된다.
스탭 S12는, 표시 제어부(15)가, 입력부(12)를 통하여, 터치 패널상에서 행하여진 입력 조작을 취득하는 스탭이다. 터치 패널상에서 행할 수 있는 입력 조작으로서, 여기서는, 화상 선택 조작, 화상 확대 조작, 화상 축소 조작, 열람 종료 조작의 4개의 조작을 들어, 각각 개요를 설명한다. 또한, 이 이외의 조작에 관해서는, 실시 형태의 설명에서는 생략한다.
화상 선택 조작은, 유저가 열람하고 싶은 화상을 선택하는 조작이다. 화상 선택 조작은, 화상 선택 화면에서만 유효하게 된다. 유저가, 표시 중의 섬네일 중의 하나를 선택하는 조작(예를 들면 탭 조작, 더블 탭 조작 등)를 행하면, 표시 제어부(15)가 대응하는 화상을 판독하고, 화상 열람 화면을 표시시킨다. 본 조작에 대응하는 처리 스탭은, 스탭 S13이다.
화상 확대 조작은, 표시 중의 화상의 표시 배율을 확대하는 조작이다. 화상 확대 조작은, 화상 열람 화면에서만 유효하게 된다. 유저가, 표시 중의 화상의 임의의 위치를 탭 조작 등에 의해 지정하면, 표시 제어부(15)가, 당해 지정된 위치에 의거하여, 확대 배율 및 확대 후의 중심 좌표를 산출하고, 화상의 확대를 행한다. 본 조작에 대응하는 처리 스탭은, 스탭 S14이다.
화상 축소 조작은, 표시 중의 화상의 표시 배율을 축소하는 조작이다. 화상 축소 조작은, 화상 열람 화면에서만 유효하게 된다. 유저가, 표시 중의 화상의 임의의 위치를 탭 조작 등에 의해 지정하면, 표시 제어부(15)가, 당해 지정된 위치에 의거하여, 축소 배율 및 축소 후의 중심 좌표를 산출하고, 화상의 축소를 행한다. 본 조작에 대응하는 처리 스탭은, 스탭 S15이다.
열람 종료 조작은, 표시 중의 화상을 닫는 조작이다. 열람 종료 조작은, 화상 열람 화면에서만 유효하게 된다. 유저가, 표시 중의 화상을 닫는 조작을 행하면, 표시 제어부(15)가, 표시 중의 화상을 파기하고, 화상 선택 화면을 재표시시킨다. 본 조작에 대응하는 처리 스탭은, 스탭 S16이다.
(화상 표시 처리의 상세)
다음에, 스탭 S13, S14, S15, S16에서 각각 행하여지는 처리의 상세에 관해 설명한다.
스탭 S13은, 표시 제어부(15)가, 선택된 화상을 판독하고, 화상 열람 화면을 표시시키는 스탭이다. 스탭 S12에서 취득한 조작이, 화상을 선택하는 조작인 경우, 처리는 스탭 S13로 천이한다.
도 4는, 스탭 S13에서 행하는 처리의 내용을 상세히 도시한 플로 차트이다.
우선, 스탭 S131에서, 지정된 화상을 화상 취득부(11)로부터 판독하고, 디코드한다. 여기서는, 도 3(B)에 도시한 화상이 판독된 것으로 한다.
스탭 S132는, 오브젝트 검출부(14)가, 취득한 화상으로부터 오브젝트를 검출하는 스탭이다. 전술한 바와 같이, 본 실시 형태에서는, 오브젝트란 사람의 얼굴이다. 도 3(B)의 경우, 3명의 인물의 얼굴을 각각 오브젝트로서 검출한다. 화상 중에 포함되는 얼굴을 검출하는 방법에 관해서는, 공지의 것을 이용할 수 있기 때문에, 상세한 설명은 생략한다.
스탭 S133은, 검출한 오브젝트에 대응하는 영역을 설정하는 스탭이다. 본 실시 형태에서는, 검출한 오브젝트에 대응하는 영역인 제1의 영역과, 제1의 영역보다도 큰 영역인 제2의 영역을 설정한다.
제1의 영역 및 제2의 영역을 설정하는 방법에 관해, 도 5를 참조하여 설명한다. 도 5는, 도 3(B)에 도시한 화상을 이용하여, 오브젝트(즉 사람의 얼굴)를 검출하고, 제1의 영역 및 제2의 영역을 설정한 결과를 도시하는 도면이다.
제1의 영역은, 검출한 오브젝트에 외접하는 사각형 영역이다. 도 5의 예에서는, 제1의 영역으로서, 3명의 인물의 얼굴에 각각 외접하는 영역인, 영역(101A, 102A, 103A)이 설정된다.
또한, 제2의 영역은, 제1의 영역의 소정배의 면적을 갖는 영역이다. 또한, 제2의 영역의 중심점은, 제1의 영역의 중심점이다. 도 5의 예에서는, 제2의 영역으로서, 영역(101B, 102B, 103B)이 설정된다. 또한, 제2의 영역의 크기는, 제1의 영역보다도 크면, 임의의 크기로 할 수 있다. 예를 들면, 제1의 영역보다도 종횡 방향으로 각각 소정의 픽셀 수만큼 큰 영역으로 하여도 좋다.
설정된 제1의 영역 및 제2의 영역에 관한 정보는, 표시 중의 화상에 대한 열람 종료 조작이 행하여질 때까지, 표시 제어부(15)에 의해 유지된다.
다음에, 스탭 S14에서 행하는 처리의 상세에 관해 설명한다.
스탭 S14는, 표시 제어부(15)가, 표시 중의 화상을 확대 표시시키는 스탭이다. 스탭 S12에서 취득한 조작이, 화상을 확대하는 조작인 경우, 처리는 스탭 S14로 천이한다. 화상을 확대하는 조작이란, 본 실시 형태에서는, 유저가 화상 중의 임의의 장소를 탭하는 조작이다.
도 6은, 스탭 S14에서 행하는 처리의 내용을 상세히 도시한 플로 차트이다.
우선, 스탭 S141에서, 표시 중의 화상에 오브젝트가 하나 이상 포함되든지 판정한다. 이 결과, 오브젝트가 포함되지 않는 경우, 스탭 S147로 천이하고, 이미 정한 배율을 이용하여 확대 표시를 행한다. 표시 중의 화상에 오브젝트가 포함되는 경우, 처리는 스탭 S142로 천이하고, 유저에 의해 지정된(즉 탭된) 좌표를 취득한다.
스탭 S142 이후의 처리에서는, 유저에 의해 탭된 장소가, 「제1의 영역 내인지」 「제1의 영역 외로서, 제2의 영역 내인지」 「제2의 영역 외인지」의 3패턴으로 나누어, 패턴마다 다른 확대 처리를 행한다. 각각의 패턴에 관해, 상세하게 설명한다.
(1) 제1의 영역 내가 탭된 경우.
우선, 스탭 S143에서, 유저에 의해 탭된 장소가, 제1의 영역 내에 있는지의 여부를 판정한다. 이 결과, 제1의 영역 내에 있는 경우(S143-Yes), 처리는 스탭 S144로 천이하고, 대응하는 오브젝트를 확대 표시시킨다.
유저에 의해 탭된 장소가 제1의 영역 내인 경우, 유저가, 당해 제1의 영역에 대응하는 오브젝트를 확대하려고 하고 있는 것을 추정할 수 있다. 예를 들면, 탭된 장소가, 도 5의 원문자 1번으로 도시한 장소인 경우, 유저는, 화면 좌측에 찍혀 있는 인물의 얼굴을 확대하려고 하고 있는 것을 추정할 수 있다.
도 7은, 제1의 영역 내가 지정된 경우의 확대 범위를 설명하는 도면이다.
스탭 S144에서는, 대응하는 인물의 얼굴을 대상으로 하여 확대 표시 행한다. 구체적으로는, 영역(101A)이 화면 외로 일탈하지 않는 최대의 배율을 결정하고, 확대 후의 화면 중심을, 영역(101A)의 중심점으로 설정한다. 이 결과, 점선으로 도시한 영역(201)이 화면 가득히 확대 표시된다. 화상의 확대가 종료되면, 처리는 스탭 S12로 천이하고, 입력 대기가 된다. 또한, 본 예에서는, 영역(101A)의 내부가 지정된 경우의 예를 들었지만, 영역(102A 및 103A)의 내부가 지정된 경우라도, 마찬가지 처리가 행하여진다.
(2) 제1의 영역 외, 또한, 제2의 영역 내가 탭된 경우
유저에 의해 탭된 장소가, 제1의 영역 외인 경우(S143-No), 스탭 S145에서, 당해 장소가 제2의 영역 내에 있는지를 판정한다. 이 결과, 제2의 영역 내인 경우(S145-Yes), 처리는 스탭 S146로 천이하고, 확대 표시의 대상이 되는 하나 이상의 오브젝트를 결정한 다음, 당해 오브젝트를 확대 표시시킨다.
스탭 S146에서의 처리를 구체적으로 설명한다.
유저에 의해 탭된 장소가 제1의 영역 외로서, 또한, 제2의 영역 내인 경우, 유저가, 제1의 영역에 포함되는 오브젝트만이 아니라, 당해 좌표의 부근에 있는 오브젝트도 동시에 확대하려고 하고 있는 것을 추정할 수 있다. 예를 들면, 탭된 장소가, 도 5의 원문자 2번에 도시한 장소인 경우, 유저는, 화면 중앙에 찍혀 있는 두 사람의 얼굴을 확대하려고 하고 있는 것을 추정할 수 있다.
도 8은, 제1의 영역 외, 또한, 제2의 영역 내가 지정된 경우의 확대 범위를 설명하는 도면이다. 스탭 S146에서는, 이하의 처리에 의해, 확대를 행하는 대상의 오브젝트를 특정한다.
(2-1) 유저에 의해 지정된 좌표를 중심으로 한 제3의 영역을 설정한다
제3의 영역이란, 확대를 행하는 대상의 오브젝트를 특정하기 위한 영역이고, 본 실시 형태에서는, 「지정된 좌표를 중심으로 한, 소정의 크기를 갖는 사각형 영역」이다. 본 예에서는, 제3의 영역으로서, 영역(301)을 설정한다.
(2-2) 제3의 영역에 포함되는 오브젝트를 추출한다
다음에, 제3의 영역에, 그 전부 내지 일부가 포함되는 오브젝트(제1의 영역)를 추출한다. 본 예의 경우, 영역(101A 및 102A)가 추출된다.
(2-3) 추출된 오브젝트를 대상으로 하여, 확대 표시를 행한다
다음에, 추출한 영역(101A 및 102A)이 함께 화면 외로 일탈하지 않는 최대의 배율을 결정하고, 확대 후의 화면 중심을, 영역(101A 및 102A)의 중간점에 설정한다. 이 결과, 점선으로 도시한 영역(302)이 화면 가득히 확대 표시된다.
화상의 확대가 종료되면, 처리는 스탭 S12로 천이하고, 입력 대기가 된다.
또한, 본 예에서는, 제3의 영역으로서, 지정된 좌표를 중심으로 하는 사각형 영역을 설정하였지만, 제3의 영역은 반드시 사각형이 아니라도 좋다. 예를 들면, 지정된 좌표를 중심으로 하는 원이라도 좋고, 다른 형상을 갖는 영역이라도 좋다.
또한, 지정된 좌표에 대해 소정의 범위 내에 있는 오브젝트를 추출할 수 있으면, 예시하는 방법 이외의 방법을 이용하여도 좋다. 예를 들면, 지정된 좌표가, 복수의 제2의 영역에 포함되는 경우, 당해 복수의 제2의 영역에 대응하는 오브젝트를 전부 확대 대상으로 하여도 좋다. 도 5의 예의 경우, 지정된 좌표는, 영역(101B 및 102B)의 쌍방의 내측에 있기 때문에, 영역(101B 및 102B)에 포함되는 2개의 얼굴을 확대 대상으로 한다, 라는 판정을 행하여도 좋다.
(3) 제2의 영역 외가 탭된 경우
유저에 의해 탭된 장소가, 제2의 영역에 속하지 않는 장소인 경우(S145-No), 처리는 스탭 S147로 천이한다. 이 경우, 유저는, 특정한 오브젝트를 확대하려고 하는 것은 아니라고 추정할 수 있다. 따라서, 스탭 S147에서는, 이미 정한 배율을 이용하여 확대 표시를 행한다.
다음에, 스탭 S15 및 스탭 S16에서 행하는 처리의 상세에 관해 설명한다.
스탭 S15는, 표시 중의 화상을 축소 표시시키는 스탭이다. 스탭 S12에서 취득한 조작이, 화상을 축소시키는 조작인 경우, 처리는 스탭 S15로 천이한다. 화상을 축소시키는 조작이란, 본 실시 형태에서는, 유저가 화상 중의 임의의 장소를 더블 탭하는 조작이다. 당해 조작이 있는 경우, 표시 제어부(15)는, 소정의 배율로 표시 중의 화상을 축소시키다. 또한, 화상을 축소시킬 때의 배율은, 고정치를 이용하여도 좋고, 스탭 S14로 확대를 행한 때의 배율에 의거하여 결정하여도 좋다.
스탭 S16은, 표시 중의 화상을 닫는 스탭이다. 스탭 S12에서 취득한 조작이, 화상을 닫는 조작인 경우, 표시 제어부(15)가, 화상 열람 화면을 종료시키고, 화상 선택 화면을 재표시시킨다.
이상 설명한 바와 같이, 본 실시 형태에 관한 화상 표시 장치에서는, 화상을 로드할 때에 제1의 영역 및 제2의 영역을 설정하고, 유저에 의해 지정된 장소(좌표)가 각 영역의 내부에 있는지의 여부에 의해, 확대를 행하는 대상의 오브젝트를 결정할 때의 로직을 변경한다. 이와 같이 함으로써, 유저가 확대를 소망하는 오브젝트를 정밀도 좋게 추정할 수 있다. 즉, 소망하는 확대 배율을 1회의 조작으로 얻을 수 있다.
(변형례)
상기한 실시 형태는 어디까지나 한 예이고, 본 발명은 그 요지를 일탈하지 않는 범위 내에서 적절히 변경하여 실시할 수 있다.
예를 들면, 실시 형태의 설명에서는, 검출한 오브젝트에 외접하는 사각형 영역을 제1의 영역으로 하였지만, 제1의 영역은 반드시 사각형이 아니라도 좋다. 예를 들면, 오브젝트의 에지를 검출하고, 당해 에지에 따른 폐영역을 설정하도록 하여도 좋다.
또한, 유저가 행하는 좌표의 지정은, 탭 이외의 조작에 의해 행하도록 하여도 좋다. 또한, 실시 형태의 설명에서는, 대상의 오브젝트를 확대할 때에, 당해 오브젝트에 대응하는 제1의 영역이 화면 외로 일탈하지 않는 최대의 배율을 결정하였지만, 확대를 행할 때의 배율은, 시인성을 손상시키지 않는 범위에서 적절하게 설정되면 좋다. 예를 들면, 최대 배율의 n할(割)로 하여도 좋다. 또한, 제1의 영역을 이용하지 않고, 오브젝트의 윤곽을 추출한 다음, 당해 윤곽이 표시 화면을 일탈하지 않는 배율을 구하여도 좋다.
또한, 오브젝트를 확대한 후의 중심 좌표는, 유저에 의해 지정된 좌표로 하여도 좋다.
또한, 실시 형태의 설명에서는, 화상으로부터 오브젝트를 검출하는 예를 들었지만, 메타 데이터 등에 의해, 오브젝트가 존재하는 장소를 유지할 수 있는 경우, 오브젝트의 검출은 행하지 않고, 당해 데이터를 이용하여 오브젝트의 장소를 취득하도록 하여도 좋다.
또한, 실시 형태의 설명에서는, 정지화상을 표시하는 예를 들었지만, 본 발명은, 동화를 표시한 장치에 적용할 수도 있다. 예를 들면, 동화를 재생 중에, 화상을 확대하는 조작이 발생한 경우, 재생 중의 프레임에 대응하는 화상을 이용하여 전술한 처리를 행하여, 재생중의 동화를 확대 표시하도록 하여도 좋다.
10 : 화상 표시 장치
11 : 화상 취득부
12 : 입력부
13 : 출력부
14 : 오브젝트 검출부
15 : 표시 제어부

Claims (10)

  1. 표시 화면과,
    상기 표시 화면에 화상을 출력하는 화상 출력 수단과,
    상기 화상에 포함되는 하나 이상의 오브젝트를 추출하고, 당해 오브젝트에 각각 대응하는 영역인 제1의 영역을 설정하는 영역 설정 수단과,
    유저에 의해 지정된, 상기 표시 화면상의 좌표를 취득하는 조작 취득 수단과,
    상기 지정된 좌표에 의거하여, 표시 중의 화상을 확대 표시하는 화상 확대 수단을 가지며,
    상기 화상 확대 수단은, 상기 지정된 좌표가, 상기 설정된 제1의 영역 내에 있는 경우에, 당해 제1의 영역에 포함되는 오브젝트를 확대 표시하는 것을 특징으로 하는 화상 표시 장치.
  2. 제1항에 있어서,
    상기 영역 설정 수단은, 상기 제1의 영역을 포함하는 영역으로서, 상기 제1의 영역보다도 넓은 영역인 제2의 영역을 또한 설정하고,
    상기 화상 확대 수단은, 상기 지정된 좌표가, 상기 제1의 영역 외로서, 또한, 제2의 영역 내에 있는 경우에, 당해 좌표에 대해 소정의 범위 내에 있는 오브젝트를 확대 표시하는 것을 특징으로 하는 화상 표시 장치.
  3. 제2항에 있어서,
    상기 화상 확대 수단은, 상기 지정된 좌표가, 상기 설정된 제1의 영역 및 제2의 영역의 어느 것에도 속하지 않는 경우에, 소정의 배율을 이용하여 화상을 확대 표시하는 것을 특징으로 하는 화상 표시 장치.
  4. 제1항에 있어서,
    상기 화상 확대 수단은, 오브젝트를 확대 표시할 때에, 확대 대상의 오브젝트가 상기 표시 화면을 일탈하지 않는 배율을 구하고, 당해 배율을 이용하여 화상을 확대 표시하는 것을 특징으로 하는 화상 표시 장치.
  5. 제4항에 있어서,
    상기 화상 확대 수단은, 오브젝트를 확대 표시할 때에, 확대 대상의 오브젝트의 중심이 상기 표시 화면 중심이 되도록, 확대 후의 중심 좌표를 결정하는 것을 특징으로 하는 화상 표시 장치.
  6. 제4항에 있어서,
    상기 화상 확대 수단은, 오브젝트를 확대 표시할 때에, 상기 지정된 좌표가 상기 표시 화면 중심이 되도록, 확대 후의 중심 좌표를 결정하는 것을 특징으로 하는 화상 표시 장치.
  7. 제1항에 있어서,
    상기 표시 화면 및 상기 조작 취득 수단은, 터치 패널 디스플레이에 의해 구성되는 것을 특징으로 하는 화상 표시 장치.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 영역 설정 수단이 추출하는 오브젝트는, 인간의 얼굴인 것을 특징으로 하는 화상 표시 장치.
  9. 표시 화면을 갖는 화상 표시 장치가 행하는 화상 표시 방법으로서,
    상기 표시 화면에 화상을 출력하는 화상 출력 스탭과,
    상기 화상에 포함되는 하나 이상의 오브젝트를 추출하고, 당해 오브젝트를 각각 포함하는 영역인 제1의 영역을 설정하는 영역 설정 스탭과,
    유저에 의해 지정된, 상기 표시 화면상의 좌표를 취득하는 조작 취득 스탭과,
    상기 지정된 좌표에 의거하여, 표시 중의 화상을 확대 표시하는 화상 확대 스탭을 포함하고,
    상기 화상 확대 스탭에서는, 상기 지정된 좌표가, 상기 설정된 제1의 영역 내에 있는 경우에, 당해 제1의 영역에 대응하는 오브젝트를 확대 표시하는 것을 특징으로 하는 화상 표시 방법.
  10. 입력 수단으로부터 입력을 취득하고, 표시 화면에 화상을 출력하는 컴퓨터가 실행하는 화상 표시 프로그램으로서,
    상기 표시 화면에 화상을 출력하는 화상 출력 스탭과,
    상기 화상에 포함되는 하나 이상의 오브젝트를 추출하고, 당해 오브젝트에 각각 대응하는 영역인 제1의 영역을 설정하는 영역 설정 스탭과,
    상기 입력 수단을 통하여, 유저에 의해 지정된, 상기 표시 화면상의 좌표를 취득하는 조작 취득 스탭과,
    상기 지정된 좌표에 의거하여, 표시 중의 화상을 확대 표시하는 화상 확대 스탭을 포함하고,
    상기 화상 확대 스탭에서는, 상기 지정된 좌표가, 상기 설정된 제1의 영역 내에 있는 경우에, 당해 제1의 영역에 대응하는 오브젝트를 확대 표시하는 것을 특징으로 하는 화상 표시 프로그램을 비일시적으로 기억한 기억 매체.
KR1020150012585A 2014-03-11 2015-01-27 화상 표시 장치 및 화상 표시 방법 KR20150106330A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014047341A JP2015170343A (ja) 2014-03-11 2014-03-11 画像表示装置および画像表示方法
JPJP-P-2014-047341 2014-03-11

Publications (1)

Publication Number Publication Date
KR20150106330A true KR20150106330A (ko) 2015-09-21

Family

ID=52434605

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150012585A KR20150106330A (ko) 2014-03-11 2015-01-27 화상 표시 장치 및 화상 표시 방법

Country Status (5)

Country Link
US (1) US9489715B2 (ko)
EP (1) EP2919111A1 (ko)
JP (1) JP2015170343A (ko)
KR (1) KR20150106330A (ko)
CN (1) CN104915109A (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6000602B2 (ja) * 2012-03-30 2016-09-28 キヤノン株式会社 体検出方法及び物体検出装置
JP2018018004A (ja) * 2016-07-29 2018-02-01 カシオ計算機株式会社 表示装置、表示制御方法及びプログラム
JP6873830B2 (ja) * 2017-06-05 2021-05-19 キヤノン株式会社 表示制御装置、その制御方法及びプログラム
US10373290B2 (en) * 2017-06-05 2019-08-06 Sap Se Zoomable digital images
CN109840059B (zh) * 2019-01-29 2020-05-15 北京字节跳动网络技术有限公司 用于显示图像的方法和装置
US11036375B1 (en) * 2020-02-20 2021-06-15 Lenovo (Singapore) Pte. Ltd. Dynamic zoom based on media
TWI767714B (zh) * 2021-05-19 2022-06-11 華碩電腦股份有限公司 電子裝置以及其影像擷取器的控制方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193933A (ja) 2002-12-11 2004-07-08 Canon Inc 画像拡大表示方法・装置・メディア・プログラム
JP4352980B2 (ja) * 2004-04-23 2009-10-28 オムロン株式会社 拡大表示装置及び拡大画像制御装置
JP2006178222A (ja) 2004-12-22 2006-07-06 Fuji Photo Film Co Ltd 画像表示プログラムおよび画像表示装置
US8775953B2 (en) * 2007-12-05 2014-07-08 Apple Inc. Collage display of image projects
US20100214321A1 (en) * 2009-02-24 2010-08-26 Nokia Corporation Image object detection browser
JP5326802B2 (ja) * 2009-05-19 2013-10-30 ソニー株式会社 情報処理装置、画像拡大縮小方法及びそのプログラム
JP4852652B2 (ja) * 2010-03-09 2012-01-11 パナソニック株式会社 電子ズーム装置、電子ズーム方法、及びプログラム
JP5620142B2 (ja) * 2010-04-28 2014-11-05 オリンパスイメージング株式会社 撮像装置および撮像方法
US9715751B2 (en) * 2011-07-13 2017-07-25 Apple Inc. Zooming to faces depicted in images
JP5791448B2 (ja) * 2011-09-28 2015-10-07 京セラ株式会社 カメラ装置および携帯端末
JP2013142919A (ja) * 2012-01-06 2013-07-22 Sharp Corp 表示制御装置、情報端末装置、集積回路、表示制御方法、プログラム、および記録媒体

Also Published As

Publication number Publication date
EP2919111A1 (en) 2015-09-16
US20150262330A1 (en) 2015-09-17
JP2015170343A (ja) 2015-09-28
US9489715B2 (en) 2016-11-08
CN104915109A (zh) 2015-09-16

Similar Documents

Publication Publication Date Title
KR20150106330A (ko) 화상 표시 장치 및 화상 표시 방법
EP2894634B1 (en) Electronic device and image compostition method thereof
JP2007041866A (ja) 情報処理装置及び情報処理方法並びにプログラム
WO2007004489A1 (ja) 画像処理装置及び画像処理方法
US9880721B2 (en) Information processing device, non-transitory computer-readable recording medium storing an information processing program, and information processing method
US20100315315A1 (en) Optimal graphics panelization for mobile displays
AU2013222958A1 (en) Method and apparatus for object size adjustment on a screen
CN110574000B (zh) 显示装置
WO2013179560A1 (ja) 画像処理装置および画像処理方法
US20160300321A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
US9753548B2 (en) Image display apparatus, control method of image display apparatus, and program
JP6170241B2 (ja) 文字特定装置、および制御プログラム
EP2144201A2 (en) Image processing apparatus and image processing method
JP6448696B2 (ja) 情報処理装置、方法及びプログラム
CN110737417B (zh) 一种演示设备及其标注线的显示控制方法和装置
JP6579905B2 (ja) 情報処理装置、情報処理装置の表示制御方法、及びプログラム
CN109766530B (zh) 图表边框的生成方法、装置、存储介质和电子设备
RU2509377C2 (ru) Способ и система и для просмотра изображения на устройстве отображения
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
CN113273167B (zh) 数据处理设备、方法和存储介质
JP2015032261A (ja) 表示装置および制御方法
US9530183B1 (en) Elastic navigation for fixed layout content
US20160171333A1 (en) User terminal device and method for controlling the same
JP2013062688A (ja) 画像処理装置、画像処理方法
CN113157184A (zh) 内容显示方法、装置、电子设备和可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment