KR101532963B1 - 정보 처리장치 및 그 제어방법 - Google Patents

정보 처리장치 및 그 제어방법 Download PDF

Info

Publication number
KR101532963B1
KR101532963B1 KR1020120025929A KR20120025929A KR101532963B1 KR 101532963 B1 KR101532963 B1 KR 101532963B1 KR 1020120025929 A KR1020120025929 A KR 1020120025929A KR 20120025929 A KR20120025929 A KR 20120025929A KR 101532963 B1 KR101532963 B1 KR 101532963B1
Authority
KR
South Korea
Prior art keywords
image
display area
display
display range
mouse cursor
Prior art date
Application number
KR1020120025929A
Other languages
English (en)
Other versions
KR20120105371A (ko
Inventor
유이치로 히로타
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20120105371A publication Critical patent/KR20120105371A/ko
Application granted granted Critical
Publication of KR101532963B1 publication Critical patent/KR101532963B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00458Sequential viewing of a plurality of images, e.g. browsing or scrolling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00442Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3212Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image
    • H04N2201/3214Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image of a date
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3212Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image
    • H04N2201/3215Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to a job, e.g. communication, capture or filing of an image of a time or duration

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 일면은, 소정의 속성 정보의 항목에 근거한 축을 갖는 표시 영역에, 화상을 그것의 속성 정보에 따라 표시하고, 시간축 위의 표시 범위를 변경할 때, 그것의 기준점을 유저가 용이하게 지정할 수 있도록 하는 것을 목적으로 한다. 본 발명에 따른 정보 처리장치는, 화상을 화상의의 일시 정보에 따라 시간축을 갖는 표시 영역에 표시한다. 정보 처리장치는 유저의 조작에 따라, 표시 영역 위에서 마우스 커서를 이동하고, 표시 영역의 변경후의 기준을 설정한다.

Description

정보 처리장치 및 그 제어방법{INFORMATION PROCESSING APPARATUS AND CONTROL METHOD THEREFOR}
본 발명은, 화상 등의 콘텐츠 정보를 그것의 속성 정보에 따라 화면에 표시하기 위한 기술에 관한 것이다.
종래, 유저는, 표시 영역에 있어서의 표시 범위를 변경할 때에, 포인팅 디바이스를 조작해서 마우스 커서를 표시 영역 위에서 이동함으로써, 기준점을 지정한다.
그렇지만, 표시 영역 위에 화상이 배치되어 있는 경우에는, 화상의 아래에 있는 표시 영역이 감추어져 버리므로, 유저는 원하는 지점으로 마우스 커서를 이동하는 것이 곤란하였다.
본 발명의 일면은, 소정의 속성 정보의 항목에 근거한 표시 영역에, 화상을 그것의 속성 정보에 따라 표시하고, 표시 영역의 표시 범위를 변경할 때에, 그것의 기준점이 되는 지점을 유저가 용이하게 지정할 수 있도록 하는 기술을 제공하는 것을 목적으로 한다.
본 발명의 일면에 따르면, 정보 처리장치는, 화상을 그의 촬영 시간에 따라, 시간 축을 갖는 표시 영역에 배치하여 표시하는 표시부와, 유저의 조작에 응답하여, 상기 표시 영역 위의 지점을 지정하는 지정부와, 상기 지정된 지점이 상기 화상 위에 있는 경우, 상기 화상의 촬영 시간에 대응하는 기준 좌표를 취득하고, 상기 지정된 지점이 상기 화상 위에 있지 않은 경우, 상기 지정된 지점과 같은 기준 좌표를 취득하는 취득부와, 상기 취득된 기준 좌표가 표시 범위의 변경 전후에 상기 표시 영역 위의 동일한 지점에 남도록 배율에 근거하여 상기 표시 범위를 결정하는 결정부를 포함하고, 상기 표시부는, 상기 화상의 촬영 시간에 따라 상기 표시 영역의 상기 시간 축 위의 상기 결정된 표시 범위 내에 상기 화상을 재배치 및 표시한다.
본 발명의 또 다른 특징 및 국면은 첨부된 도면을 참조하여 주어지는 이하의 실시형태의 상세한 설명으로부터 명백해질 것이다.
명세서에 포함되고 명세서의 일부를 구성하는 다음의 첨부도면은, 본 발명의 예시적인 실시형태, 특징 및 국면을 예시하며, 상세한 설명과 함께, 본 발명의 원리를 설명하는 역할을 한다.
도 1은 본 발명의 일 실시형태에 따른 정보 처리장치의 구성의 일례를 나타낸 블록도이다.
도 2는 본 발명의 일 실시형태에 따른 정보 처리장치의 동작의 일례를 나타낸 흐름도이다.
도 3a 및 도 3b는 본 발명의 일 실시형태에 따른 표시 영역의 일례를 도시한 도면이다.
도 4a 및 도 4b는 본 발명의 일 실시형태에 따른 표시 영역의 일례를 도시한 도면이다.
도 5는 본 발명의 일 실시형태에 따른 화상의 중첩의 일례를 도시한 도면이다.
도 6은 본 발명의 일 실시형태에 따른 정보 처리장치의 동작의 일례를 나타낸 흐름도이다.
도 7a 및 도 7b는 본 발명의 일 실시형태에 따른 표시 영역의 일례를 도시한 도면이다.
도 8a 및 도 8b는 본 발명의 일 실시형태에 따른 표시 영역의 일례를 도시한 도면이다.
이하, 도면을 참조하여, 본 발명의 바람직한 실시형태, 특징 및 국면을 상세히 설명한다. 단, 본 실시형태에 기재되어 있는 구성요소는 본 발명의 범위를 한정하는 취지의 것은 아니다.
우선, 본 실시형태의 정보 처리장치를 실현하는 컴퓨터 장치의 구성에 대해 도 1을 참조해서 설명한다. 표시장치(101)는 정보 처리장치(100)에 기억된 및/또는 정보 처리장치에서 공급된 데이터를 표시한다. 예를 들면, 표시장치(101)는 본 실시형태에 따른 정보 관리 애플리케이션 프로그램의 윈도우에 묘화될 표시 영역을 표시한다. 표시장치(101)는 액정 디스플레이, 음극선관(CRT) 디스플레이 등이어도 된다.
비디오 랜덤 액세스 메모리(VRAM)(102)는 표시장치(101)에 표시하기 위한 화상 데이터를 기억한다. VRAM(102)에 기억된 화상 데이터는, 소정의 사양에 따라 표시장치(101)에 전송되고, 이에 따라 표시장치(101)에 화상 데이터가 표시된다. 비트 무브 유닛(bit move unit: BMU)(103)은, 메모리 사이(예를 들면, VRAM(102)과 다른 메모리)의 데이터 전송이나, 메모리와 각 입출력(I/O) 디바이스(예를 들면, 네트워크 인터페이스(I/F)(110)) 사이의 데이터 전송을 제어한다.
키보드(104)는, 유저가 문자열 데이터 등을 입력하고 지시를 내리기 위한 각종 키를 갖는다. 포인팅 디바이스(PD)(105)는, 표시장치(101)에 표시된 표시 영역 위의 마우스 커서를 유저가 조작하기 위해 사용된다.
제어부(106)는, 중앙처리장치(CPU) 등이다. 제어부(106)는 리드 온리 메모리(ROM)(107)나, 하드 디스크(HDD)(109)에 격납된 제어 프로그램에 근거하여, 제어부(106)에 접속된 각 디바이스를 제어한다. ROM(107)은, 각종의 제어 프로그램 등의 데이터를 유지한다. 랜덤 액세스 메모리(RAM)(108)는, 제어부(106)의 워크 영역, 에러 처리시의 데이터의 보존 영역, 제어 프로그램의 로드 영역 등을 갖는다.
HDD(109)은, 제어부(106)에 의해 실행되는 각종의 제어 프로그램이나 운영체계(OS)와, 화상 화일이나 음성 화일 등의 콘텐츠 정보, 정보 관리 애플리케이션 프로그램, 지도에 관한 정보 등을 격납한다. 네트워크 인터페이스(110)는, 장치들을 인터넷 등의 네트워크 회선에 접속하는데 이용된다. 본 실시형태에서는, 화상 화일은 HDD(109)에 보존되어 있는 것으로 하여 설명한다. 그러나, 네트워크 인터페이스(110)를 경유해서 다른 정보 처리장치와 통신해서 액세스하는 경우도, 마찬가지로 본 실시예를 실현할 수 있다. CPU 버스(112)는 각 디바이스 101 내지 110이 서로 통신을 할 수 있게 하기 위한 것이고, 어드레스 버스, 데이터 버스 및 콘트롤 버스를 포함한다.
정보 처리장치(100)는, 단일의 컴퓨터 장치로 실현해도 되고, 필요에 따라 복수의 컴퓨터 장치에 각 기능을 분산하여 실현하도록 하여도 된다. 정보 처리장치(100)가 복수의 컴퓨터 장치로 구성되는 경우에는, 컴퓨터 장치들이 서로 통신 가능하게 근거리 통신망(LAN) 등으로 접속되어 있다.
다음에, 본 실시형태에 따른 정보 처리장치(100)가, 화상을 그것의 속성 정보에 포함된 촬영 시간에 근거하여 시간축을 갖는 표시 영역에 표시하는 동작에 대해 도 2를 참조해서 설명한다. 본 동작은, 제어부(106)가, 유저의 조작에 응답하여, 정보 관리 애플리케이션 프로그램(이하, 정보 관리 애플리케이션)을 기동하고, OS와 정보 관리 애플리케이션에 따라 동작하는 것에 의해 개시되어 실현된다.
우선, 스텝 S201에서, 제어부(106)는 HDD(109)에서 화상 화일을 판독하고, 화상 화일의 섬네일 화상을, 화상 화일의 촬영 시간 정보에 따라, 소정의 표시 범위를 갖는 표시 영역에 표시한다. 그후, 스텝 S202에서, 제어부(106)는 표시 범위의 변경 지시를 받았는지 아닌지 판정한다. 유저가 PD(105)을 사용한 드래그 조작에 의해 표시 영역 위에서 마우스 커서를 이동하여, 더블클릭 등의 소정의 조작을 실행하면, 제어부(106)는 표시 범위의 변경 지시를 받았다고 판정한다.
더구나, 제어부(106)는, 예를 들면, 더블클릭의 조작만 실행되면, 표시 범위를 현재의 표시 범위보다도 좁게 변경하는 확대 지시인 것으로 판정한다. 또한, 더블클릭 뿐만 아니라, 이와 동시에 키보드(104)를 사용해서 시프트 키의 누름 조작도 실행되면, 제어부(106)는, 표시 범위를 현재의 표시 범위보다도 넓게 변경하는 축소 지시인 것으로 판정한다. 즉, 스텝 S202에 있어서, 제어부(106)는, 유저의 조작의 내용을 검지하고, 검지 결과에 근거하여 표시 범위의 변경 지시의 유무를 판정한다.
제어부(106)가 표시 범위의 변경 지시를 받으면(스텝 S202에서 Yes), 스텝 S203에서, 제어부(106)는 표시 영역 위의 마우스 커서의 수평 좌표와 변경후의 배율을 취득한다. 변경후의 배율은 마우스 커서의 드래그 조작의 개시 시점으로부터 종료 시점까지의 변위로부터 산출할 수 있다. 이와 달리, 예를 들어, 마우스가 더블클릭되면 2배(200%)로 확대되는 것으로 미리 결정해 두어도 된다. 즉 변경후의 배율은, 표시 범위의 변경 지시를 받았을 때 검지된 유저의 조작 내용에 근거하여 산출된다.
스텝 S204에서, 제어부(106)는 기준 지정 모드가 자동인지 아닌지 판정한다. 이 경우에, 유저가 예를 들면 드래그 조작과 함께 콘트롤 키의 누름 조작 등의 소정의 조작을 행하면, 제어부(106)는 기준 지정 모드가 수동이라고 판정한다.
모드가 자동으로 판정되면(스텝 S204에서 Yes), 제어부(106)는, 표시 영역에 있어서, 스텝 S203에서 취득한 마우스 커서가 표시하는 좌표에 섬네일 화상이 존재하는지 아닌지를 검지한다. 마우스 커서가 섬네일 화상 위에 존재할 때(스텝 S205에서 Yes), 스텝 S206에서, 제어부(106)는, 섬네일 화상과 대응하는 화상 화일의 촬영 시간을 취득한다. 그후, 스텝 S207에서, 제어부(106)는 촬영 시간을 기준 시간으로 설정한다.
한편, 기준 지정 모드가 자동이 아니고 수동으로 간주되는 경우(스텝 S204에서 No)나, 마우스 커서가 표시하는 좌표에 섬네일 화상이 존재하지 않을 때(스텝 S205에서 No), 스텝 S208에서, 제어부(106)는 마우스 커서의 수평 좌표와 대응하는 시간축 위의 시간을 취득한다. 그후, 스텝 S209에서, 제어부(106)는 스텝 S208에서 취득한 시간을 기준 시간으로 설정한다.
스텝 S210에서, 제어부(106)는 설정된 기준 시간에 대응하는 표시 영역 위의 픽셀 수평 좌표를 기준 수평 좌표로서 기억한다(S210). 스텝 S211에서, 제어부(106)는, 기준 수평 좌표가 표시 범위의 변경 전후에서 바뀌지 않고 기준 시간을 표시하도록, 변경후의 배율에 근거하여 표시 범위를 결정한다. 스텝 S121에서, 제어부(106)는 시간축 위에 갱신후의 표시 범위 내의 촬영 시간을 갖는 화상 화일의 섬네일 화상을 재배치한다.
도 3a는, 스텝 S205에서 마우스 커서가 표시하는 좌표에 섬네일 화상이 존재하지 않을 때, 및 스텝 S204에서 기준 지정 모드가 수동일 때의 상태를 도시한 도면이다. 도 3a에서는, 표시 영역(300)의 표시 범위는 11:45부터 16:15까지이며, 섬네일 화상(303∼307)이 그것의 화상 화일의 촬영 시간과 대응하는 수평 좌표에 섬네일 화상의 무게중심이 놓이도록 표시되어 있다. 마우스 커서(301)는 어떤 섬네일 화상과도 중첩하지 않는 좌표에 존재한다. 마우스 커서(301)의 수평 좌표는 시간축(310) 위에서 13:53을 표시하는 것으로 가정한다.
도 3b는, 도 3a의 상태로부터 표시 범위가 변경된 상태를 도시한 도면이다. 도 3b에서는, 표시 영역(300)의 표시 범위는 13:23부터 14:29까지로 되어, 도 3a에 비해 표시 범위가 좁기 때문에, 확대하여 표시되게 된다. 변경후의 표시 범위에 포함되는 섬네일 화상 303∼304는 표시되지만, 표시 범위 밖의 섬네일 화상 305∼307은 비표시로 된다.
또한, 도 3b의 마우스 커서(301)는 시간축(310) 위에서 기준 시간 13:53의 수평 좌표에 존재하고, 이것은 도 3a의 마우스 커서(301)의 시간축(310) 위의 수평 좌표와 동일하다. 즉, 스텝 S211에 있어서, 제어부(106)는, 표시 범위의 변경의 전후에 마우스 커서(301)의 수평 좌표와 그것에 대응하는 시간이 바뀌지 않도록, 시간축의 표시 범위를 결정한다.
도 4a는, 스텝 S205에서 마우스 커서가 표시하는 좌표에 섬네일 화상이 존재할 때의 상태를 도시한 도면이다. 도 4a에서는, 표시 영역(400)의 표시 범위는 11:45부터 16:15까지이며, 섬네일 화상(403∼407)이 그것의 화상 화일의 촬영 시간과 대응하는 수평 좌표에 섬네일 화상의 무게중심이 놓이도록 표시되어 있다. 마우스 커서(401)는 섬네일 화상 403과 중첩하는 좌표에 존재하므로, 섬네일 화상 403과 대응하는 화상 화일의 촬영 시간 13:35를 기준 시간으로 설정한다.
도 4b는, 도 4a의 상태로부터 표시 범위가 변경된 상태를 도시한 도면이다. 도 4b에서는, 표시 영역(400)의 표시 범위는 13:08부터 14:14까지로 되고, 도 4a에 비해 표시 범위가 좁기 때문에, 표시 영역(400)이 확대하여 표시되게 된다. 변경후의 표시 범위에 포함되는 섬네일 화상 403∼405는 표시되지만, 표시 범위 밖의 섬네일 화상 406 및 407은 비표시로 된다. 도 4b의 마우스 커서(401)가 중첩하고 있는 섬네일 화상 403의 무게중심은 시간축 위에서 기준 시간 13:35의 수평 좌표에 존재하고, 이것은 도 4a의 섬네일 화상 403의 무게중심(402)의 수평 좌표와 동일하다.
즉, 스텝 S211에 있어서, 제어부(106)는, 표시 범위의 변경의 전후에 마우스 커서(401)가 중첩하고 있는 섬네일 화상 403의 무게중심의 수평 좌표와 그것에 대응하는 촬영 시간이 바뀌지 않도록, 시간축의 표시 범위를 갱신한다. 또한, 마우스 커서(401)도 표시 범위의 변경 전후에 그것이 중첩하고 있는 섬네일 화상 403 내부에서의 수평 좌표에 관한 위치 관계를 유지한다. 따라서, 마우스 커서(401)의 픽셀 수평 좌표도 시간축의 표시 범위의 변경 전후에 바뀌지 않는다.
스텝 S211에 있어서, 제어부(106)는, 표시 영역에 있어서의 마우스 커서의 위치가 표시 범위의 변경 전후에 변하지 않도록 표시 범위를 결정한다. 이에 따라, 유저는 시점을 움직일 필요가 없고, 변경전부터 유저가 주목하고 있었던 화상이나 지점을 계속해서 확인할 수 있다.
그러나, 표시 범위를 결정하는 방법은 전술한 방법에 한정되지 않는다. 스텝 S211에 있어서, 제어부(106)는 마우스 커서의 위치가 변경후의 표시 영역의 중앙과 일치하도록 표시 범위를 결정하여도 된다. 이에 따라, 표시 범위의 변경후, 유저는 유저가 주목하고 있는 지점을 중심으로 해서 확인할 수 있다.
도 3a 내지 도 4b에 있어서, 섬네일 화상은 시간축의 수평 방향으로 그것의 화상 화일의 촬영 시간과 대응하는 장소에 배치되지만, 섬네일 화상이 시간축의 수직 방향으로는 랜덤한 장소에 배치된다. 이에 따라, 촬영 시간이 가까운 화상 화일의 섬네일 화상들이 서로 중첩하지 않도록 섬네일 화상들을 수직 방향으로 어긋나게 하여 표시할 수 있어, 유저는 섬네일 화상을 확인하기 쉬워진다.
또한, 도 3a 내지 도 4b는, 각각의 섬네일 화상의 무게중심이 그것의 화상 화일의 촬영 시간과 대응하는 시간축 위의 위치에 놓이도록 섬네일 화상들을 표시하는 방법을 나타낸다. 그러나, 시간축 위에 섬네일 화상을 배치하는 방법은 전술한 방식에 한정되지 않는다. 섬네일 화상의 좌측단이나 우측단이 그것의 화상 화일의 촬영 시간과 대응하는 시간축 위의 위치가 되도록 각각의 섬네일 화상을 표시해도 된다.
스텝 S206에 있어서, 도 5에 나타낸 것과 같이 복수의 섬네일 화상 503 및 504가 중첩한 영역에 마우스 커서(501)가 존재하는 경우에, 제어부(106)는 복수의 섬네일 화상 중에서 가장 전방면에 존재하는 섬네일 화상 503의 화상 화일의 촬영 시간을 취득한다. 이와 달리, 제어부(106)는, 섬네일 화상 503 및 504의 각각의 화상 화일의 촬영 시간을 취득하고, 그것의 중간점을 촬영 시간으로 취득해도 된다.
표시 영역 위에서의 마우스 커서의 이동을 유저가 PD(105)을 조작함으로써 실현하는 경우에 대해 설명하였다. 그러나, 마우스 커서를 이동하는 방법은 이 방법에 한정되지 않는다. 표시장치(101)에 터치패널을 구비하고, 유저가 손가락을 사용해서 표시장치(101)에 접촉함으로써 마우스 커서를 이동해도 된다.
유저가, 섬네일 화상 위에 마우스 커서를 이동하면, 유저가 그 섬네일 화상에 주목하고 있을 가능성이 높다. 그렇지만, 섬네일 화상이 표시되어 있기 때문에, 유저가 그 섬네일 화상의 촬영 시간과 대응하는 시간축 위의 좌표로 마우스 커서를 이동하는 것은 어렵다.
이와 같은 상황을 감안하여, 상기한 것과 같이 본 실시형태에 따르면, 마우스 커서가 섬네일 화상 위에 존재할 때에는, 그 섬네일 화상과 대응하는 화상 화일의 촬영 시간을 기준으로서 설정하도록 하였다. 이에 따라, 유저가 원하는 섬네일 화상에 대응하는 촬영 시간을 기준으로 설정하고 싶은 경우에는, 유저가 섬네일 화상 위에 마우스 커서를 이동만 하면 된다. 그 결과, 그것의 촬영 시간과 대응하는 지점으로 정확하게 마우스 커서를 이동하는 것에 비해, 조작을 용이하게 할 수 있다.
한편, 유저가 섬네일 화상이 존재하지 않는 좌표로 마우스 커서를 이동하면, 유저가 마우스 커서의 수평 좌표와 대응하는 시간에 관심이 있을 가능성이 높다. 따라서, 상기한 것과 같이 본 실시형태에 따르면, 마우스 커서가 섬네일 화상 위에 없을 때에는, 마우스 커서의 위치와 대응하는 시간축 위의 시간을 기준으로서 설정하도록 하였다. 이에 따라, 유저는 원하는 시간을 지정하는 것도 간단한 조작으로 행할 수 있다.
또한, 표시 범위가 크고, 표시 영역 위에서 시간축의 길이에 대응하는 시간이 길 때에는, 유저가 마우스 커서로 시간을 지정하기 어렵다. 그러나, 표시 범위가 작아지고, 표시 영역 위에서 시간축의 길이에 대응하는 시간이 짧아지면, 유저가 마우스 커서로 시간을 지정하기 쉬워진다. 따라서, 상기한 것과 같이 본 실시형태에 따르면, 기준 지정 모드를 전환할 수 있다. 이에 따라, 유저는, 조작중에 간단한 조작으로 기준 지정 모드를 전환함으로써, 원하는 방법으로 기준을 설정할 수 있다.
제 2 실시형태에서는, 정보 처리장치(100)가, 화상을 그것의 속성 정보에 포함된 촬영 장소에 근거하여 위도 및 경도를 갖는 표시 영역(지도)에 표시하는 동작에 대해 도 6을 참조해서 설명한다. 이하에서는, 제1실시형태와 유사한 부분에 대해서는 설명을 반복하지 않으며, 본 실시형태에 특유한 부분에 대해 상세하게 설명한다.
이 동작은, 제어부(106)가, 유저의 조작에 따라 정보 관리 애플리케이션 프로그램(이하, 정보 관리 애플리케이션)을 기동하고, OS와 정보 관리 애플리케이션에 따라 동작함으로써, 개시되어 실현된다.
우선, 스텝 S601에서, 제어부(106)는, HDD(109)로부터 화상 화일과 소정의 축척의 지도에 관한 정보를 판독하고, 화상 화일의 섬네일 화상을, 화상 화일의 촬영 장소 정보(위도 및 경도)에 따라, 표시 영역에 표시한다. 그후, 스텝 S602에서, 제어부(106)는 지도의 축척의 변경 지시를 받았는지 아닌지 판정한다.
지도의 축척의 변경 지시를 받으면(스텝 S602에서 Yes), 스텝 S603에서, 제어부(106)는 표시 영역 위의 마우스 커서의 위치와 소정의 갱신 축척을 취득한다. 소정의 갱신 축척은 마우스 커서의 드래그 동작의 개시 시점으로부터 종료 시점까지의 변위로부터 산출된다. 이와 달리, 예를 들어, 마우스가 더블클릭되면 10배로 확대되는 것을 등 미리 결정해도 된다. 즉, 갱신 축척은, 지도의 축척의 변경 지시를 받았을 때 검지된 유저의 조작 내용에 근거하여 산출된다.
다음에, 스텝 S604에서, 제어부(106)는 기준 지정 모드가 자동인지 아닌지 판정한다. 자동인 것으로 판정되면(스텝 S604에서 Yes), 스텝 S605에서, 제어부(106)는, 표시 영역에 있어서, 스텝 S603에서 취득한 마우스 커서의 위치에 섬네일 화상이 존재하는지 아닌지를 검지한다.
마우스 커서가 섬네일 화상 위에 존재할 때(스텝 S605에서 Yes), 스텝 S606에서, 제어부(106)는, 섬네일 화상과 대응하는 화상 화일의 촬영 장소를 취득한다. 그후, 스텝 S607에서, 제어부(106)는 촬영 장소를 기준 지점으로 설정한다.
한편, 기준 지정 모드가 자동이 아니고 수동인 경우(스텝 S604에서 No)나, 마우스 커서의 위치에 섬네일 화상이 존재하지 않을 때(스텝 S605에서 No), 스텝 S608에서, 제어부(106)는 마우스 커서의 위치와 대응하는 지도 위의 장소(위도 및 경도)를 취득한다. 그후, 스텝 S609에서, 제어부(106)는 스텝 S608에서 취득된 장소를 기준 지점으로서 설정한다.
스텝 S610에서, 제어부(106)는 설정된 기준 지점에 대응하는 표시 영역 위의 픽셀 좌표를 기준 좌표로서 기억한다. 다음에, 스텝 S611에서, 제어부(106)는 기준 좌표가 갱신후의 축척의 지도에 있어서도 갱신전의 축척의 지도 위와 변하지 않고 기준 지점을 표시하도록, 변경후의 축척의 지도의 표시 범위를 결정한다. 스텝 S612에서, 제어부(106)는, 변경후의 축척의 지도 위에, 새롭게 결정된 표시 범위 내의 촬영 장소를 갖는 화상 화일의 섬네일 화상을 재배치한다.
도 7a는, 스텝 S605에서 마우스 커서의 위치에 섬네일 화상이 존재하지 않을 때, 및 스텝 S604에서 기준 지정 모드가 수동일 때의 상태를 도시한 도면이다. 도 7a에서는, 축척은 1만분의 1이고, 섬네일 화상(703∼706)이 각각의 화상 화일의 촬영 장소와 대응하는 위치에 표시되어 있다. 마우스 커서(701)는 어떤 섬네일 화상과도 중첩하지 않는 좌표에 존재하며, 이 좌표는 지도에 있어서 (북위 35.6160도 및 동경 139.7190도)를 투영한다.
도 7b는, 도 7a의 상태로부터 지도의 축척이 변경된 상태를 도시한 도면이다. 도 7b에서는, 축척이 5000분의 1이고, 도 7a에 비해 표시 범위가 좁아졌기 때문에, 지도가 확대되어 표시되게 된다. 변경후의 표시 범위에는 섬네일 화상(703∼706)은 포함되지 않기 때문에, 비표시로 된다.
도 7b의 마우스 커서(701)의 좌표는 지도 위에서 기준 지점(북위 35.6160 및 동경 139.7190)에 투영하고, 이것은 도 7a의 마우스 커서(701)의 지도 상에서의 좌표와 동일하다. 즉, 스텝 S611에 있어서, 제어부(106)는, 표시 범위의 변경의 전후에 마우스 커서(701)의 좌표와 그것에 대응하는 장소(위도, 경도)가 변하지 않도록, 지도의 표시 범위를 결정한다.
도 8a는, 스텝 S605에서 마우스 커서의 위치에 섬네일 화상이 존재할 때의 상태를 도시한 도면이다. 도 8a에서는, 지도의 축척은 1만분의 1이고, 섬네일 화상(803∼806)이 그것의 화상 화일의 촬영 장소와 대응하는 위치에 표시되어 있다. 마우스 커서(801)는 섬네일 화상 803과 중첩하는 위치에 존재하므로, 섬네일 화상 803과 대응하는 화상 화일의 촬영 장소(북위 35.6160도 및 동경 139.7148도)를 기준 지점으로 설정한다.
도 8b는, 도 8a의 상태로부터 지도의 축척이 변경된 상태를 도시한 도면이다. 도 8b에서는, 지도의 축척이 5000분의 1이고, 도 8a에 비해 표시 범위가 좁아졌기 때문에, 지도가 확대되어 표시되게 된다. 변경후의 표시 범위에 포함되는 섬네일 화상 803∼804는 표시되지만, 표시 범위 밖의 섬네일 화상 805 및 806은 비표시로 된다.
도 8b의 마우스 커서(801)가 중첩하고 있는 섬네일 화상 803의 무게중심은 지도 위에서 기준 지점(북위 35.6160도 및 동경 139.7148도)의 좌표에 존재하고, 이것은 도 8a의 섬네일 화상 803의 무게중심(802)의 좌표와 동일하다.
더욱 구체적으로 설명하면, 스텝 S611에 있어서, 제어부(106)는, 지도의 축척의 변경의 전후에 마우스 커서(801)가 중첩하고 있는 섬네일 화상 803의 무게중심의 좌표와 그것에 대응하는 장소가 바뀌지 않도록, 지도의 표시 범위를 갱신한다. 또한, 마우스 커서(801)도 표시 범위의 변경 전후에, 그것이 중첩하고 있는 섬네일 화상 803 내부에서의 좌표에 관한 위치 관계를 유지한다. 따라서, 마우스 커서(801)도 표시 범위의 변경 전후에 픽셀 좌표는 바뀌지 않는다.
스텝 S611에 있어서, 제어부(106)는, 표시 영역에 있어서의 마우스 커서의 위치가 표시 범위의 변경의 전후에 변하지 않도록, 표시 범위를 결정한다. 이에 따라, 유저는 시점을 움직일 필요가 없고, 변경전부터 유저가 주목하고 있었던 화상이나 지점을 계속해서 확인할 수 있다. 그러나, 표시 범위를 결정하는 방법은 전술한 방법에 한정되지 않는다. 스텝 S611에 있어서, 제어부(106)는 마우스 커서의 좌표가 표시 영역의 중앙과 일치하도록 표시 범위를 결정해도 된다. 이에 따라, 유저는 유저가 주목하고 있는 지점을 중심으로 해서 확인할 수 있다.
도 7a 내지 도 8b는, 각각의 섬네일 화상의 무게중심의 좌표가 그것의 화상 화일의 촬영 장소와 대응하는 지도 위의 위치에 놓이도록 섬네일 화상들을 표시하는 방법을 나타내었다. 그러나, 지도 위에 섬네일 화상을 배치하는 방법은 전술한 방법에 한정되지 않는다. 섬네일 화상의 좌측단이나 우측단이 그것의 화상 화일의 촬영 장소와 대응하는 지도 위의 위치에 섬네일 화상을 표시해도 된다.
스텝 S606에 있어서, 도 5에 나타낸 것과 같이 복수의 섬네일 화상 503 및 504가 중첩한 영역에 마우스 커서(501)가 존재할 때는, 제어부(106)는 복수의 섬네일 화상 중에서 가장 전방면에 있는 섬네일 화상 503의 화상 화일의 촬영 장소를 취득한다. 이와 달리, 제어부(106)는, 섬네일 화상 503 및 504의 각각의 화상 화일의 촬영 장소를 취득하고, 그것의 중간점을 촬영 장소로서 취득해도 된다.
표시 영역 위에서의 마우스 커서의 이동을 유저가 PD(105)을 조작함으로써 실현하는 경우에 대해 설명하였다. 그러나, 마우스 커서를 이동하는 방법은 이 방법에 한정되지 않는다. 표시장치(101)에 터치패널을 구비하고, 유저가 손가락을 사용해서 표시장치(101)에 접촉함으로써 마우스 커서를 이동해도 된다.
유저가, 섬네일 화상 위에 마우스 커서를 이동하면, 유저가 그 섬네일 화상에 주목하고 있을 가능성이 높다. 그렇지만, 섬네일 화상이 표시되어 있기 때문에, 그것의 촬영 장소와 대응하는 지도 위의 좌표로 마우스 커서를 이동하는 것은 어렵다.
이와 같은 상황을 감안하여, 상기한 것과 같은 본 실시형태에 따르면, 마우스 커서가 섬네일 화상 위에 있을 때, 그 섬네일 화상과 대응하는 화상 화일의 촬영 장소를 기준으로 하여 설정한다. 이에 따라, 유저가 원하는 섬네일 화상에 대응하는 촬영 장소를 기준으로 설정하고 싶은 경우에는, 유저가 섬네일 화상 위에 마우스 커서를 이동만 하면 된다. 그 결과, 그것의 촬영 장소와 대응하는 지점에 정확하게 마우스 커서를 이동하는 것에 비해, 조작이 용이해진다.
한편, 섬네일 화상이 존재하지 않는 장소에 유저가 마우스 커서를 이동하면, 유저가 마우스 커서의 위치와 대응하는 장소 바로 그것에 관심이 있을 가능성이 높다. 따라서, 상기한 것과 같은 본 실시형태에 따르면, 마우스 커서가 섬네일 화상 위에 없을 때에는, 마우스 커서의 위치와 대응하는 지도 위의 장소를 기준으로 설정한다. 이에 따라, 유저는 원하는 장소를 지정하는 것도 간단한 조작으로 행할 수 있다.
표시 범위가 크고, 표시 영역 위에서의 축척이 클 때에는 유저가 마우스 커서로 장소를 지정하기 어렵다. 그러나, 표시 범위가 작고, 표시 영역 위에서의 축척이 작아지면, 유저가 마우스 커서로 장소를 지정하기 쉬워진다. 따라서, 상기한 것과 같은 본 실시형태에 따르면, 기준 지정 모드를 전환할 수 있다. 이에 따라, 유저는, 조작중에 간단한 조작으로 기준 지정 모드를 전환함으로써, 원하는 방법으로 기준을 설정할 수 있다.
본 발명의 국면은, 전술한 실시형태(들)의 기능을 수행하기 위해 기억장치에 기록된 프로그램을 판독하여 실행하는 시스템 또는 장치(또는 CPU 또는 MPU 등의 소자)의 컴퓨터나, 예를 들면, 전술한 실시형태(들)의 기능을 수행하기 위해 기억장치에 기록된 프로그램을 판독하여 실행함으로써, 시스템 또는 장치의 컴퓨터에 의해 수행되는 스텝들을 갖는 방법에 의해 구현될 수도 있다. 이와 같은 목적을 위해, 예를 들어, 네트워크를 거쳐, 또는 기억장치로서의 역할을 하는 다양한 종류의 기록매체(예를 들어, 컴퓨터 판독가능한 매체)로부터 이 프로그램이 컴퓨터로 주어진다.
예시적인 실시형태들을 참조하여 본 발명을 설명하였지만, 본 발명이 이러한 실시형태에 한정되지 않는다는 것은 자명하다. 이하의 청구범위의 보호범위는 가장 넓게 해석되어 모든 변형, 동등물 구조 및 기능을 포괄하여야 한다.

Claims (6)

  1. 화상을 그의 촬영 시간에 따라, 시간 축을 갖는 표시 영역에 배치하여 표시하는 표시부와,
    유저의 조작에 응답하여, 상기 표시 영역 위의 지점을 지정하는 지정부와,
    상기 지정된 지점이 상기 화상 위에 있는 경우, 상기 화상의 촬영 시간에 대응하는 기준 좌표를 취득하고, 상기 지정된 지점이 상기 화상 위에 있지 않은 경우, 상기 지정된 지점과 같은 기준 좌표를 취득하는 취득부와,
    상기 취득된 기준 좌표가 표시 범위의 변경 전후에 상기 표시 영역 위의 동일한 지점에 남도록 배율에 근거하여 상기 표시 범위를 결정하는 결정부를 포함하고,
    상기 표시부는, 상기 화상의 촬영 시간에 따라 상기 표시 영역의 상기 시간 축 위의 상기 결정된 표시 범위 내에 상기 화상을 재배치 및 표시하는, 정보처리장치.
  2. 삭제
  3. 삭제
  4. 제 1항에 있어서,
    상기 취득부는, 상기 지정된 지점에 복수의 화상이 표시되어 있을 경우, 상기 복수의 화상 중 전방 면에 존재하는 화상의 촬영 시간에 대응하는 상기 기준 좌표를 취득하는, 정보 처리장치.
  5. 화상을 그의 촬영 시간에 따라, 시간 축을 갖는 표시 영역에 배치하여 표시하는 스텝과,
    유저의 조작에 응답하여, 상기 표시 영역 위의 지점을 지정하는 스텝과,
    상기 지정된 지점이 상기 화상 위에 있는 경우, 상기 화상의 촬영 시간에 대응하는 기준 좌표를 취득하고, 상기 지정된 지점이 상기 화상 위에 있지 않은 경우, 상기 지정된 지점과 같은 기준 좌표를 취득하는 스텝과,
    상기 취득된 기준 좌표가 표시 범위의 변경 전후에 상기 표시 영역 위의 동일한 지점에 남도록 배율에 근거하여 상기 표시 범위를 결정하는 스텝을 포함하고,
    상기 표시 스텝은, 상기 화상의 촬영 시간에 따라 상기 표시 영역의 상기 시간 축 위의 상기 결정된 표시 범위 내에 상기 화상을 재배치 및 표시하는, 정보 처리장치의 제어방법.
  6. 청구항 5의 정보처리장치의 제어방법을 컴퓨터에 실행시키는 프로그램이 기억되어 있는, 컴퓨터 판독가능한 기억매체.




KR1020120025929A 2011-03-15 2012-03-14 정보 처리장치 및 그 제어방법 KR101532963B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011056808A JP5734037B2 (ja) 2011-03-15 2011-03-15 情報処理装置およびその制御方法およびプログラム
JPJP-P-2011-056808 2011-03-15

Publications (2)

Publication Number Publication Date
KR20120105371A KR20120105371A (ko) 2012-09-25
KR101532963B1 true KR101532963B1 (ko) 2015-07-01

Family

ID=46828044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120025929A KR101532963B1 (ko) 2011-03-15 2012-03-14 정보 처리장치 및 그 제어방법

Country Status (4)

Country Link
US (1) US8878778B2 (ko)
JP (1) JP5734037B2 (ko)
KR (1) KR101532963B1 (ko)
CN (1) CN102750076B (ko)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9710852B1 (en) 2002-05-30 2017-07-18 Consumerinfo.Com, Inc. Credit report timeline user interface
US9400589B1 (en) 2002-05-30 2016-07-26 Consumerinfo.Com, Inc. Circular rotational interface for display of consumer credit information
US8127986B1 (en) 2007-12-14 2012-03-06 Consumerinfo.Com, Inc. Card registry systems and methods
US9990674B1 (en) 2007-12-14 2018-06-05 Consumerinfo.Com, Inc. Card registry systems and methods
US8312033B1 (en) 2008-06-26 2012-11-13 Experian Marketing Solutions, Inc. Systems and methods for providing an integrated identifier
US9256904B1 (en) 2008-08-14 2016-02-09 Experian Information Solutions, Inc. Multi-bureau credit file freeze and unfreeze
US8060424B2 (en) 2008-11-05 2011-11-15 Consumerinfo.Com, Inc. On-line method and system for monitoring and reporting unused available credit
JP5658451B2 (ja) * 2009-11-30 2015-01-28 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
US9147042B1 (en) 2010-11-22 2015-09-29 Experian Information Solutions, Inc. Systems and methods for data verification
US20120151397A1 (en) * 2010-12-08 2012-06-14 Tavendo Gmbh Access to an electronic object collection via a plurality of views
US9607336B1 (en) 2011-06-16 2017-03-28 Consumerinfo.Com, Inc. Providing credit inquiry alerts
US9483606B1 (en) 2011-07-08 2016-11-01 Consumerinfo.Com, Inc. Lifescore
US9106691B1 (en) 2011-09-16 2015-08-11 Consumerinfo.Com, Inc. Systems and methods of identity protection and management
US8738516B1 (en) 2011-10-13 2014-05-27 Consumerinfo.Com, Inc. Debt services candidate locator
US9853959B1 (en) 2012-05-07 2017-12-26 Consumerinfo.Com, Inc. Storage and maintenance of personal data
JP2013242710A (ja) * 2012-05-21 2013-12-05 Sony Corp ユーザインターフェイス、情報表示方法およびプログラム
US20150187098A1 (en) * 2012-09-14 2015-07-02 Google Inc. Method and apparatus for unobtrusively changing imagery supplementing a map display
US9654541B1 (en) 2012-11-12 2017-05-16 Consumerinfo.Com, Inc. Aggregating user web browsing data
US9916621B1 (en) 2012-11-30 2018-03-13 Consumerinfo.Com, Inc. Presentation of credit score factors
US10255598B1 (en) 2012-12-06 2019-04-09 Consumerinfo.Com, Inc. Credit card account data extraction
US10102570B1 (en) 2013-03-14 2018-10-16 Consumerinfo.Com, Inc. Account vulnerability alerts
US9406085B1 (en) 2013-03-14 2016-08-02 Consumerinfo.Com, Inc. System and methods for credit dispute processing, resolution, and reporting
US9870589B1 (en) 2013-03-14 2018-01-16 Consumerinfo.Com, Inc. Credit utilization tracking and reporting
US9633322B1 (en) 2013-03-15 2017-04-25 Consumerinfo.Com, Inc. Adjustment of knowledge-based authentication
US10664936B2 (en) 2013-03-15 2020-05-26 Csidentity Corporation Authentication systems and methods for on-demand products
US10685398B1 (en) 2013-04-23 2020-06-16 Consumerinfo.Com, Inc. Presenting credit score information
US9721147B1 (en) 2013-05-23 2017-08-01 Consumerinfo.Com, Inc. Digital identity
US9443268B1 (en) 2013-08-16 2016-09-13 Consumerinfo.Com, Inc. Bill payment and reporting
US10325314B1 (en) 2013-11-15 2019-06-18 Consumerinfo.Com, Inc. Payment reporting systems
US9477737B1 (en) 2013-11-20 2016-10-25 Consumerinfo.Com, Inc. Systems and user interfaces for dynamic access of multiple remote databases and synchronization of data based on user rules
CN106897039B (zh) * 2014-03-20 2020-06-23 海信视像科技股份有限公司 一种图片显示方法及装置
USD759690S1 (en) 2014-03-25 2016-06-21 Consumerinfo.Com, Inc. Display screen or portion thereof with graphical user interface
USD759689S1 (en) 2014-03-25 2016-06-21 Consumerinfo.Com, Inc. Display screen or portion thereof with graphical user interface
USD760256S1 (en) 2014-03-25 2016-06-28 Consumerinfo.Com, Inc. Display screen or portion thereof with graphical user interface
US9892457B1 (en) 2014-04-16 2018-02-13 Consumerinfo.Com, Inc. Providing credit data in search results
US10373240B1 (en) 2014-04-25 2019-08-06 Csidentity Corporation Systems, methods and computer-program products for eligibility verification
US10991137B2 (en) * 2015-06-11 2021-04-27 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and information processing system for display of medical images
US10911234B2 (en) 2018-06-22 2021-02-02 Experian Information Solutions, Inc. System and method for a token gateway environment
US10880313B2 (en) 2018-09-05 2020-12-29 Consumerinfo.Com, Inc. Database platform for realtime updating of user data from third party sources
US11315179B1 (en) 2018-11-16 2022-04-26 Consumerinfo.Com, Inc. Methods and apparatuses for customized card recommendations
US11238656B1 (en) 2019-02-22 2022-02-01 Consumerinfo.Com, Inc. System and method for an augmented reality experience via an artificial intelligence bot
US11941065B1 (en) 2019-09-13 2024-03-26 Experian Information Solutions, Inc. Single identifier platform for storing entity data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217828A (ja) * 2009-04-10 2009-09-24 Konica Minolta Holdings Inc 画像検索装置
US20100110228A1 (en) * 2008-10-31 2010-05-06 Sony Corporation Image processing apparatus, image displaying method, and image displaying program
JP2011028643A (ja) * 2009-07-28 2011-02-10 Dainippon Printing Co Ltd データファイルの偽装処理装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3906938B2 (ja) 1997-02-18 2007-04-18 富士フイルム株式会社 画像再生方法及び画像データ管理方法
US8028249B2 (en) 2001-05-23 2011-09-27 Eastman Kodak Company Method and system for browsing large digital multimedia object collections
JP4085634B2 (ja) * 2002-01-18 2008-05-14 株式会社エクォス・リサーチ 画像表示プログラム
JP2004328265A (ja) * 2003-04-23 2004-11-18 Sony Corp 表示方法及び表示装置
JP4285178B2 (ja) * 2003-10-01 2009-06-24 ソニー株式会社 画像再生装置、画像編集方法、プログラム、および記録媒体
US7788592B2 (en) * 2005-01-12 2010-08-31 Microsoft Corporation Architecture and engine for time line based visualization of data
JP2006209258A (ja) 2005-01-25 2006-08-10 Kenwood Corp Av処理装置、av処理方法及びプログラム
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
JP5343332B2 (ja) 2007-07-03 2013-11-13 株式会社ニコン 画像表示プログラム、画像表示装置、および画像表示方法
JP4458158B2 (ja) * 2007-12-07 2010-04-28 ソニー株式会社 表示装置、表示方法、及びプログラム
JP5312815B2 (ja) * 2008-02-08 2013-10-09 ヤフー株式会社 地図拡大表示装置
US8872847B2 (en) * 2008-08-28 2014-10-28 Google Inc. Architectures and methods for creating and representing time-dependent imagery
US8698920B2 (en) * 2009-02-24 2014-04-15 Olympus Imaging Corp. Image display apparatus and image display method
JP2011033870A (ja) * 2009-08-03 2011-02-17 Sony Corp 画像処理装置、画像処理方法およびプログラム
US8654148B2 (en) * 2010-12-23 2014-02-18 Sony Corporation Display control apparatus for deciding a retrieval range for displaying stored pieces of information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100110228A1 (en) * 2008-10-31 2010-05-06 Sony Corporation Image processing apparatus, image displaying method, and image displaying program
JP2009217828A (ja) * 2009-04-10 2009-09-24 Konica Minolta Holdings Inc 画像検索装置
JP2011028643A (ja) * 2009-07-28 2011-02-10 Dainippon Printing Co Ltd データファイルの偽装処理装置

Also Published As

Publication number Publication date
JP5734037B2 (ja) 2015-06-10
US8878778B2 (en) 2014-11-04
CN102750076A (zh) 2012-10-24
KR20120105371A (ko) 2012-09-25
CN102750076B (zh) 2015-05-20
US20120235897A1 (en) 2012-09-20
JP2012194673A (ja) 2012-10-11

Similar Documents

Publication Publication Date Title
KR101532963B1 (ko) 정보 처리장치 및 그 제어방법
US9519451B2 (en) Communication system and information processing device
AU2014312481B2 (en) Display apparatus, portable device and screen display methods thereof
US9648099B2 (en) Mobile apparatus, display apparatus, method for UI display thereof and computer-readable recording medium
EP3534248A1 (en) Information management apparatus, information sharing system, and method of sharing information
US20100134432A1 (en) Method and apparatus to provide user interface
US8863007B2 (en) Programmatic information transfer
JP2008293361A (ja) 画面表示システム、その制御方法、プログラム及び記録媒体
JP2017076207A (ja) 画像処理装置及び画像処理システム
EP3048524B1 (en) Document display support device, terminal, document display method, and computer-readable storage medium for computer program
JP7192953B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2017110606A1 (ja) 情報処理装置およびその制御方法およびプログラム
US20130298077A1 (en) Display control apparatus capable of placing objects on screen according to position attributes of the objects, control method therefor, and storage medium
KR102371098B1 (ko) 오브젝트를 편집 가능한 형태로 전체 화면 팝 아웃하는 기법
JP7298224B2 (ja) 表示装置、及び表示方法
JP7147322B2 (ja) 画像管理サーバ、プログラム、情報共用システム、情報共用方法
JP2013205773A (ja) 表示システム、画像生成装置及びコンピュータプログラム
JP2014178791A (ja) 投影装置、投影システム、画像生成プログラム及び画像生成方法
JP6501665B2 (ja) 情報処理装置およびその制御方法およびプログラム
JP6225668B2 (ja) ファイル管理装置及びプログラム
US10802675B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
JP6661295B2 (ja) 情報処理装置およびその制御方法およびプログラム
JP6566771B2 (ja) 情報処理装置およびその制御方法およびプログラム
JP2019008516A (ja) 情報処理装置、情報処理方法およびプログラム
JP6388479B2 (ja) 情報表示装置、情報配信装置、情報表示方法、情報表示プログラムおよび情報配信方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180525

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190618

Year of fee payment: 5