KR20210139325A - 전자기기, 전자기기의 제어방법, 및 컴퓨터 판독가능한 기억매체 - Google Patents

전자기기, 전자기기의 제어방법, 및 컴퓨터 판독가능한 기억매체 Download PDF

Info

Publication number
KR20210139325A
KR20210139325A KR1020217032418A KR20217032418A KR20210139325A KR 20210139325 A KR20210139325 A KR 20210139325A KR 1020217032418 A KR1020217032418 A KR 1020217032418A KR 20217032418 A KR20217032418 A KR 20217032418A KR 20210139325 A KR20210139325 A KR 20210139325A
Authority
KR
South Korea
Prior art keywords
display
electronic device
display surface
inclination
movement amount
Prior art date
Application number
KR1020217032418A
Other languages
English (en)
Other versions
KR102549779B1 (ko
Inventor
순이치 요코야마
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20210139325A publication Critical patent/KR20210139325A/ko
Application granted granted Critical
Publication of KR102549779B1 publication Critical patent/KR102549779B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/34Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators for rolling or scrolling
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명의 전자기기는, 표시면의 기울기를 검출하는 검출수단과, 유저 조작을 접수하는 접수수단과, 화상의 일부의 범위를 표시 범위로서 상기 표시면에 표시하도록 제어하고, 상기 표시면의 기울기의 변화에 따라 상기 표시 범위의 위치를 변경하고, 소정의 유저 조작에 따라 상기 표시 범위의 위치를 변경하는 제어수단을 갖고, 상기 제어수단은, 상기 소정의 유저 조작에 의해 상기 표시 범위가 이동한 제1 이동량에 근거하여, 상기 표시면의 기울기의 변화에 의해 상기 표시 범위가 이동하는 제2 이동량을 보정하는 것을 특징으로 한다.

Description

전자기기, 전자기기의 제어방법, 프로그램, 및, 기억매체
본 발명은, 전자기기, 전자기기의 제어방법, 프로그램, 및, 기억매체에 관한 것으로서, 특히, 광범위한 영상 범위를 갖는 화상을 표시하는 제어방법에 관한 것이다.
종래, 반구 화상, 전천구 화상 등과 같은 넓은 범위의 영상을 갖는 화상의 일부의 범위를 표시 범위로서 표시부에 표시하고, 표시부의 자세(표시면의 기울기)의 변화, 소정의 유저 조작 등에 따라 표시 범위의 위치를 임의로 변경하는 기술이 제안되어 있다. 이와 같이 이용되는 화상을 전송하는 화상 전송기술도 제안되어 있다.
특허문헌 1에는, 헤드 마운트 디스플레이의 기울기의 방향과 크기에 따라, 360도 동화상의 시간축의 방향과 재생의 속도를 제어하는 기술이 개시되어 있다.
일본국 특개 2017-111539호 공보
종래기술에서는, 표시면의 기울기를 변경함으로써 표시 범위의 위치를 변경한 후, 소정의 유저 조작을 행함으로써 표시 범위의 위치를 더 변경할 수 있다. 그렇지만, 그렇게 표시 범위의 위치가 변경된 후에는, 표시면의 기울기를 원래의 기울기로 되돌려도 표시 범위의 위치는 원래의 위치로 되돌아가지 않기 때문에, 표시 범위의 위치를 원하는 위치로 용이하게 변경할 수 없다. 바꾸어 말하면, 유저는, 표시면의 기울기의 직감적인 변경으로, 표시 범위의 위치를 원하는 위치로 변경할 수 없다.
본 발명은, 표시 범위의 위치를 원하는 위치로 용이하게 변경할 수 있는 기술을 제공하는 것을 목적으로 한다.
본 발명의 전자기기는, 표시면의 기울기를 검출하는 검출수단과, 유저 조작을 접수하는 접수수단과, 화상의 일부의 범위를 표시 범위로서 상기 표시면에 표시하도록 제어하고, 상기 표시면의 기울기의 변화에 따라 상기 표시 범위의 위치를 변경하고, 소정의 유저 조작에 따라 상기 표시 범위의 위치를 변경하는 제어수단을 갖고, 상기 제어수단은, 상기 소정의 유저 조작에 의해 상기 표시 범위가 이동한 제1 이동량에 근거하여, 상기 표시면의 기울기의 변화에 의해 상기 표시 범위가 이동하는 제2 이동량을 보정하는 것을 특징으로 한다.
본 발명에 따르면, 표시 범위의 위치를 원하는 위치로 용이하게 변경할 수 있다.
도1은 실시예 1에 관한 전자기기의 구성예를 나타낸 하드웨어 블록도.
도2는 실시예 1에 관한 동화상 전송 시스템의 구성예를 도시한 도면.
도3은 실시예 1에 관한 동화상 플레이어의 화면의 일례를 도시한 도면.
도4는 실시예 1에 관한 표시 범위의 결정방법의 일례를 도시한 도면.
도5는 실시예 1에 관한 전자기기로부터 송신되는 정보의 일례를 도시한 도면.
도6은 표시 제어 처리의 일례를 나타낸 플로우차트.
도7은 실시예 1에서 해결되는 과제의 일례를 도시한 도면.
도8은 실시예 1에 관한 방향 대응 관계의 일례를 도시한 도면.
도9는 실시예 1에 관한 확인 화면의 일례를 도시한 도면.
도10은 실시예 2에 관한 유저의 자세의 일례를 도시한 도면.
도11은 실시예 2에 관한 표시 제어 처리의 일례를 나타낸 플로우차트.
<실시예1>
이하, 본 발명의 실시예 1에 대해 설명한다. 도1은, 본 실시예에 따른 전자기기(100)의 구성예를 나타낸 하드웨어 블록도다. 전자기기(100)는, 스마트 폰, 헤드 마운트 디스플레이 등이다. 전자기기(100)가 헤드 마운트 디스플레이가 아닌 경우에, 전자기기(100)는, 헤드 마운트 어댑터에 장착함으로써 헤드 마운트 디스플레이(HMD)로서 사용 가능해도 된다. 헤드 마운트 어댑터는 「VR(Virtual Reality) 고글」로도 불린다.
전자기기(100)(CPU(101))는, 화상(대상 화상)의 일부의 범위를 표시 범위로서 표시부(110)의 표시면에 표시한다. 이때, 표시부(110)는, 전자기기(100)와는 별체의 표시장치이어도 된다. 예를 들면, 전자기기(100)는, 표시부(110)를 갖지 않는 퍼스널 컴퓨터(PC), 게임기, 각종 재생장치 등이어도 되고, 표시부(110)는, 전자기기(100)에 접속된 HMD 등이어도 된다.
대상 화상은, 반구 화상, 전천구 화상 등이며, 통상의 배율로 표시되는 경우에, 표시 범위보다도 넓은 영상 범위(영상이 있는 범위; 유효 영상 범위)를 갖는다. 유효 영상 범위는 촬영 범위라고도 할 수 있다. 통상의 배율은, 예를 들면, 확대도 축소도 되지 않는 배율이다. 전천구 화상은, 「전방향 화상」, 「360도 화상」, 「360도 파노라마 화상」 등으로도 불린다. 대상 화상은, 최대로 상하 방향(수직 각도, 천정으로부터의 각도, 앙부각, 고도각) 360도, 좌우 방향(수평 각도, 방위 각도) 360도의 시야분의 유효 영상 범위를 갖는다. 이때, 대상 화상의 유효 영상 범위는, 360도 미만의 앙부각(예를 들면, 180도(±90도))에 대응해도 되고, 360도 미만의 방위각(예를 들면, 180도(±90도))에 대응해도 된다. 대상 화상은, 정지 화상이어도 되고, 동화상이어도 된다. 본 실시예에서는, 대상 화상이 동화상인 예를 설명한다.
또한, 전자기기(100)(CPU(101))는, 전자기기(100)의 자세 변화(표시부(110)(표시부(110)의 표시면)의 기울기의 변화)에 따라 표시 범위의 위치를 임의로 변경한다. 이에 따라, 유저는, 상하 좌우 방향으로의 전자기기(100)의 방향의 직감적인 변경으로, 표시 범위의 위치를 원하는 위치로 변경할 수 있다. 더구나, 전자기기(100)(CPU(101))는, 소정의 유저 조작(표시 위치 변경 조작)에 따라 표시 범위의 위치를 임의로 변경한다. 이에 따라, 유저는, 전자기기(100)의 방향, 유저 자신의 자세 등을 바꾸지 않고, 표시 범위의 위치를 원하는 위치로 변경할 수 있다. 유저는, 전자기기(100)의 자세의 변경과, 표시 위치 변경 조작을 적절히 선택해서 행할 수 있기 때문에, 편리성이 좋게 표시 범위의 위치를 변경할 수 있다. 표시 위치 변경 조작은, 예를 들면, 표시부(110)의 표시면 위에 설치된 터치패널에 대한 터치 조작(탭 조작, 플릭 조작, 슬라이드 조작 등)이다. 표시 위치 변경 조작은, 전자기기(100)에 접속된 콘트롤러 등에 대한 조작이어도 된다.
HMD인 전자기기(100)를 유저가 두부에 장착한 상태에서는, 유저는, 손으로 전자기기(100)를 유지하지 않고, 표시부(110)에 표시된 표시 범위를 시인할 수 있다. 이 경우, 유저가 두부 또는 몸체 전체를 움직이면, 전자기기(100)(표시부(110))의 자세도 변화한다. 이 때문에, 전자기기(100)의 자세는 「유저의 두부의 자세(유저의 시선이 향하고 있는 방향)」으로 바꿔 말할 수 있다.
전자기기(100)(표시부(110))의 자세 변화에 따라 표시 범위의 위치를 변경하는 표시방법은 「VR 표시」 등으로 불린다. 그리고, VR 표시에 따르면, 유저에 대하여, 시각적으로 마치 대상 화상 내(VR 공간 내)의 그 자리에 있는 것 같은 감각(몰입감이나 임장감)을 제공할 수 있다. 대상 화상은 「유효 영상 범위가 가상 공간(VR 공간)의 적어도 일부인 화상」이라고도 할 수 있다. VR 표시와 같은 대상 화상의 보이는 방식은 「VR 뷰」 등으로 불리며, VR 표시가능한 화상은 「VR 화상」 등으로 불린다. 이때, 대상 화상은 VR 화상이어도 되고, VR 화상이 아니어도 된다.
도1과 같이, 전자기기(100)에서는, 내부 버스(109)에 대하여, CPU(101), DRAM(102), ROM(103), RAM(104), 표시 제어부(105), 조작부(106), 방향 검출부(107), 통신 IF(108), 표시부(110), 및, EEPROM(111)이 접속되어 있다. 내부 버스(109)에 접속된 상기 복수의 유닛은, 내부 버스(109)를 거쳐 서로 데이터의 교환을 행할 수 있다.
표시부(110)는, 액정 패널 등의 표시 디바이스다. ROM(103)은, 각종 프로그램 및 각종 데이터를 기억한다. 예를 들면, ROM(103)에는, 전자기기(100)의 전체적인 처리(동작)를 제어하기 위한 프로그램, 후술하는 동화상 플레이어의 애플리케이션 프로그램 등이 미리 격납되어 있다. CPU(101)은, ROM(103)에 격납되어 있는 프로그램을 실행함으로써, 전자기기(100)의 각 유닛의 처리를 제어한다. DRAM(102)은, 전자기기(100)의 메인 메모리다. RAM(104)은, CPU(101)의 워크 메모리로서 사용된다. EEPROM(111)은, 전자기기(100)의 전원을 꺼도 정보를 계속해서 기억할 수 있는 불휘발성 메모리다. 통신 IF(108)은, CPU(101)로부터의 지시에 따라, 인터넷 등의 네트워크(120)와의 통신을 행한다.
조작부(106)는, 조작(유저 조작)을 접수하는 입력 디바이스다. 예를 들면, 조작부(106)는, 터치패널 등의 포인팅 디바이스를 포함한다. 터치패널은, 유저나 터치 펜 등이 터치패널에 접촉한 접촉 위치에 따른 좌표 정보를 출력하고, 예를 들면, 표시부(110)와 일체로 구성되도록 표시부(110)의 표시면에 중첩된다. 이때, 표시면, 터치패널 등은 평면적으로 구성되어도 되고, 그렇지 않아도 된다. CPU(101)은, 조작부(106)에 대한 조작에 따라, 전자기기(100)의 각 유닛의 처리를 제어한다. 구체적으로는, 조작부(106)는, 조작부(106)에 대한 조작에 따른 제어신호를 생성하여, CPU(101)에 공급한다. CPU(101)은, 조작부(106)로부터 공급된 제어신호에 따라, 전자기기(100)의 각 유닛의 처리를 제어한다. 이에 따라, 전자기기(100)에, 유저 조작에 따른 동작을 행하게 할 수 있다.
표시 제어부(105)는, 표시부(110)에 화상을 표시시키기 위한 표시 신호(화상신호, 표시부(110)를 구동하는 구동신호 등)를 생성하고, 표시 신호를 표시부(110)에 출력한다. CPU(101)은, 표시부(110)에 표시할 화상에 따른 표시 제어신호를 생성하고, 해당 표시 제어신호를 표시 제어부(105)에 공급한다. 표시 제어부(105)는, CPU(101)로부터 공급된 표시 제어신호에 근거하여 표시 신호를 생성하고, 표시 신호를 표시부(110)에 공급한다. 표시부(110)는, 표시 제어부(105)로부터 공급된 표시 신호에 따라, 표시면에 화상을 표시한다.
방향 검출부(107)는, 전자기기(100)의 자세(표시부(110)(표시부(110)의 표시면)의 기울기; 전자기기(100)가 향하고 있는 방향)를 검출하고, 그 검출 결과를 CPU(101)에 공급한다. 본 실시예에서는, 방향 검출부(107)는, 검출 결과로서, 전자기기(100)(표시부(110)(표시부(110)의 표시면))가 향하고 있는 방향(앙각과 방위각)을, CPU(101)에 통지한다. CPU(101)은, 방향 검출부(107)로부터 통지된 정보에 근거하여, 전자기기(100)의 방향(자세; 기울기)을 판단(검출)하거나, 전자기기(100)의 방향이 변화하였는지 아닌지를 판단(검출)할 수 있다. 방향 검출부(107)로서, 가속도 센서, 자이로 센서, 지자기 센서, 방위 센서 등의 복수의 센서 중 적어도 1개를 사용할 수 있다. 복수의 센서의 조합이 방향 검출부(107)로서 사용되어도 된다. 이때, 표시부(110)가 전자기기(100)와는 별체의 표시장치인 경우에는, 방향 검출부(107)가 표시부(110)에 설치되고, 방향 검출부(107)의 검출 결과를 취득하는 인터페이스가 전자기기(100)에 설치된다.
도2는, 본 실시예에 따른 동화상 전송 시스템의 구성예를 도시한 도면이다. 도2의 동화상 전송 시스템에서는, 전자기기(100)가, 네트워크(120)를 거쳐 동화상 전송 서버(10)에 접속되어 있다. 동화상 전송 서버(10)는, 전술한 대상 화상인 동화상(대상 동화상)을 기억하고 있다. 전자기기(100)는, 표시 범위와 표시 시간 위치의 정보를 동화상 전송 서버(10)에 송신한다. 표시 시간 위치는, 대상 동화상의 개시로부터 종료까지의 기간에 있어서의 복수의 시간 위치 중, 표시 대상의 시간 위치이다. 동화상 전송 서버(10)는, 표시 범위와 표시 시간 위치의 정보를 수신하면, 해당 표시 범위와 해당 표시 시간 위치에 따른 화상 데이터를, 대상 동화상 데이터(대상 동화상의 동화상 데이터)로부터 추출하여, 전자기기(100)에 송신한다. 그리고, 전자기기(100)는, 수신한 화상 데이터에 근거한 화상을 표시한다. 이들 처리는, 전자기기(100)의 표시를 갱신하는 각 갱신 타이밍에 행해진다.
이때, 동화상 전송 서버(10)가 추출하는 화상 데이터의 화상 사이즈는 특별히 한정되지 않는다. 화상의 확대나 축소는, 동화상 전송 서버(10)에서 행해져도 되고, 전자기기(100)에서 행해져도 된다. 동화상 전송 서버(10)가 화상의 확대나 축소를 행하는 경우에는, 동화상 전송 서버(10)가 추출하는 화상 데이터의 화상 사이즈는 변화할 수 있다. 동화상 전송 서버(10)가 화상의 확대나 축소를 행하지 않는 경우에는, 동화상 전송 서버(10)가 추출하는 화상 데이터의 화상 사이즈는 변화하지 않는다. 또한, 전자기기(100)는, 대상 동화상 데이터의 전체를 취득하고, 표시 범위와 표시 시간 위치에 따른 화상 데이터를 대상 동화상 데이터로부터 추출해서 표시해도 된다. 대상 동화상 데이터는, 동화상 전송 서버(10)와는 다른 장치로부터 취득되어도 된다.
도3은, 전자기기(100)에 표시된 화면의 일례를 도시한 도면이다. 도3의 화면은, 동화상 플레이어의 화면이다. 도3에 도시된 것과 같이, 동화상 플레이어의 화면은, 표시 에어리어(301), 재생 버튼(302), 일시 정지 버튼(303), 정지 버튼(304), 및, 표시 위치 변경 버튼(305)을 갖는다. 표시 에어리어(301)는, 대상 동화상이 표시되는 에어리어이다. 재생 버튼(302)은, 대상 동화상을 재생하기 위한 유저 조작을 접수하고, 일시 정지 버튼(303)은, 대상 동화상을 일시 정지하기 위한 유저 조작을 접수하고, 정지 버튼(304)은, 대상 동화상을 정지하기 위한 유저 조작을 접수한다. 재생 제어(재생, 일시 정지, 정지 등)는 CPU(101)에 의해 행해진다. 표시 위치 변경 버튼(305)은, 표시 범위의 위치를 변경하기 위한 유저 조작을 접수한다. 즉, 본 실시예에서는, 표시 위치 변경 버튼(305)에 대한 유저 조작이, 전술한 표시 위치 변경 조작이다.
조작부(106)는, 재생 버튼(302), 일시 정지 버튼(303), 정지 버튼(304), 표시 위치 변경 버튼(305) 등에 대한 유저 조작에 따른 제어신호를 생성하여, CPU(101)에 공급한다. 그리고, CPU(101)은, 조작부(106)로부터 공급된 제어신호에 따라, 전자기기(100)의 각 유닛의 처리를 제어한다. 예를 들면, 재생 버튼(302)에 대한 유저 조작이 행해지면, CPU(101)은, 제어신호에 따라, 표시 시간 위치를 순차 갱신해서 동화상 전송 서버(10)에 정보(표시 범위와 표시 시간 위치의 정보)를 순차 송신하도록 제어한다. 일시 정지 버튼(303)에 대한 유저 조작이 행해지면, CPU(101)은, 제어신호에 따라, 표시 시간 위치를 갱신하지 않고 동화상 전송 서버(10)에 정보를 순차 송신하도록 제어한다. 정지 버튼(304)에 대한 유저 조작이 행해지면, CPU(101)은, 제어신호에 따라, 동화상 전송 서버(10)에의 정보의 송신을 정지하고 대상 동화상을 비표시로 하도록 제어한다.
표시 위치 변경 버튼(305)에 대한 유저 조작이 행해지면, CPU(101)은, 조작부(106)로부터 공급된 제어신호에 따라, 표시 범위를 갱신해서 동화상 전송 서버(10)에 정보(표시 범위와 표시 시간 위치의 정보)를 순차 송신하도록 제어한다. 도3의 예에서는, 표시 위치 변경 버튼(305)은, 상측 화살표 버튼(305a), 하측 화살표 버튼(305b), 좌측 화살표 버튼(305c), 및, 우측 화살표 버튼(305d)을 갖는다. 상측 화살표 버튼(305a)에 대한 유저 조작이 행해질 때마다, 표시 범위가 상측 방향으로 1단계 이동하고, 하측 화살표 버튼(305b)에 대한 유저 조작이 행해질 때마다, 표시 범위가 하측 방향으로 1단계 이동한다. 그리고, 좌측 화살표 버튼(305c)에 대한 유저 조작이 행해질 때마다, 표시 범위가 좌측 방향으로 1단계 이동하고, 우측 화살표 버튼(305d)에 대한 유저 조작이 행해질 때마다, 표시 범위가 우측 방향으로 1단계 이동한다.
도4a∼4c는, 표시 범위의 결정방법의 일례를 도시한 도면이다. 도4a∼4c는, 대상 동화상에 의해 반구형의 가상 공간(401)이 형성되는 예를 나타낸다. 여기에서는, 전자기기(100)에서 대상 동화상이 재생되는 경우에, 전자기기(100)가, 가상 공간(401)의 기준면(바닥면)(402)의 중심에 위치하는 것으로 한다. 이때, 대상 동화상(대상 화상)에 의해 형성되는 가상 공간의 형상은 반구형에 한정되지 않는다. 예를 들면, 완전한 구형의 가상 공간이 형성되어도 된다.
도4a에 있어서, 화살표 403은, 가상 공간(401)에 있어서 전자기기(100)가 향한 방향을 나타낸다. 화살표 403의 방향은, 「가상 공간(401)에 있어서 유저가 보고 있는 방향(시청 방향; 시점 방향)」이라고도 할 수 있다. 가상 공간(401)의 표면에 있어서, 화살표 403의 방향에 있는 범위 404가, 표시 범위로서 결정된다. 화살표 403의 방향과 표시 범위(404)의 위치는, 방위각 Θ과 앙각 Φ을 사용해서 표시된다. 방위각 Θ은, 기준면(402) 상의 기준선(405)으로부터, 표시 범위(404)의 중심으로부터 기준면(402)에 대하여 수직하게 내린 점 P와 기준면(402)의 중심점 T를 연결하는 선까지의 각도이다. 앙각 Φ은, 점 P와 중심점 T를 연결하는 선으로부터, 표시 범위(404)의 중심과 중심점 T를 연결하는 선까지의 각도이다.
도4b에서는, 유저는, 가상 공간(401)(대상 동화상)의 물체 406에 전자기기(100)를 향하고 있다. 이 때문에, 물체 406을 포함하는 표시 범위 407이 설정되고, 표시 범위 407이 표시 에어리어(301)에 표시된다. 도4c에서는, 유저는, 가상 공간(401)(대상 동화상)의 물체 408에 전자기기(100)를 향하고 있다. 이 때문에, 물체 408을 포함하는 표시 범위 409가 설정되고, 표시 범위 409가 표시 에어리어(301)에 표시된다. 도4b, 도4c에 도시된 것과 같이, 유저는, 전자기기(100)의 방향을 변경함으로써, 표시 범위의 위치(방위각 Θ과 앙각 Φ)을 자유롭게 변경할 수 있고, 표시 에어리어(301)에서 임의의 표시 범위를 시청할 수 있다.
또한, 전술한 바와 같이, 표시 위치 변경 버튼(305)(상측 화살표 버튼(305a), 하측 화살표 버튼(305b), 좌측 화살표 버튼(305c), 및, 우측 화살표 버튼(305d))에 대한 유저 조작에 의해서도, 표시 범위의 위치를 자유롭게 변경할 수 있다. 예를 들면, 상측 화살표 버튼(305a)에 대한 유저 조작이 행해질 때마다 앙각 Φ이 1도 증가하고, 하측 화살표 버튼(305b)에 대한 유저 조작이 행해질 때마다 앙각 Φ이 1도 감소한다. 그리고, 좌측 화살표 버튼(305c)에 대한 유저 조작이 행해질 때마다 방위각 Θ이 1도 증가하고, 우측 화살표 버튼(305d)에 대한 유저 조작이 행해질 때마다 방위각 Θ이 1도 감소한다.
이때, 반구형의 가상 공간(401)을 형성하는 대상 동화상 데이터는 동화상 전송 서버(10)에 격납되어 있다. 전자기기(100)는, 통신 IF(108)을 사용하여, 방향 검출부(107)에 의해 생성된 정보(방위각 Θ과 앙각 Φ)를 동화상 전송 서버(10)에 송신한다. 그리고, 동화상 전송 서버(10)는, 네트워크(120)를 거쳐 전자기기(100)로부터 수신한 정보에 따라, 방위각 Θ과 앙각 Φ에 의해 정해지는 표시 범위의 화상 데이터를 대상 동화상 데이터 추출한다. 그후, 동화상 전송 서버(10)는, 추출한 화상 데이터를, 네트워크(120)를 거쳐 전자기기(100)에 송신한다. 전자기기(100)는, 동화상 전송 서버(10)로부터 송신된 화상 데이터(표시 범위의 화상 데이터)를, 통신 IF(108)을 사용해서 수신한다. 그리고, 전자기기(100)의 CPU(101)은, 수신한 화상 데이터에 근거하여 표시 제어신호를 생성하고, 표시 제어부(105)는, 표시 제어신호에 근거하여 표시 신호를 생성하고, 표시부(110)는, 표시 신호에 근거하여 화상을 표시한다. 이렇게 하여, 표시 범위의 화상이 표시부(110)의 표시면(표시 에어리어(301))에 표시된다. 전자기기에서 표시하는 화상 데이터를 대상 동화상 데이터로부터 추출(생성)하는 처리에는, 제안되어 있는 다양한 기술을 사용할 수 있다.
도5는, 전자기기(100)로부터 동화상 전송 서버(10)에 송신되는 정보(데이터)의 일례를 도시한 도면이다. 본 실시예에서는, 전자기기(100)는, 표시 범위 정보(표시 범위의 정보)로서 방위각 Θ과 앙부각 Φ을 송신한다. 또한, 전자기기(100)는, 표시 시간 위치 정보(표시 시간 위치의 정보)로서, 대상 동화상의 개시로부터 표시 시간 위치까지의 경과 시간을 송신한다. 도5의 카운트 값은, 전자기기(100)의 표시를 갱신하는 표시 갱신 타이밍에서 카운트업하여, 전자기기(100)에서 관리된다. 전자기기(100)는, 카운트 값을 카운트업할 때마다, 표시 범위 정보와 표시 시간 위치 정보를 동화상 전송 서버(10)에 송신한다.
도5의 예에서는, 카운트 값은 1초마다 카운트업하는, 즉 1초마다 전자기기(100)의 표시를 갱신하는 것으로 한다. 카운트 값 0∼5에서는, 대상 동화상이 일시 정지되어 있어, 표시 시간 위치가 0:00(분:초)에서 머무르고 있다. 카운트 값 6 이후에서는, 대상 동화상이 재생되고 있고, 표시 시간 위치가 0:01로부터 1초씩 진행하고 있다. 카운트 값 0∼2에서는, 방위각 Θ도 앙각 Φ도 0°이고, 방위각 Θ 또한 앙각 Φ의 방향의 동화상 데이터가 표시되어 있다. 카운트 값 3 이후에서는, 방위각 Θ과 앙각 Φ의 변화가 발생하고 있고, 전자기기(100)에서 표시되고 있는 화상 데이터의 방향의 변화, 즉 표시 범위의 위치의 변화가 발생하고 있다.
도6은, 전자기기(100)에서 행해지는 표시 제어 처리의 일례를 나타낸 플로우차트다. CPU(101)이, ROM(103)에 격납되어 있는 동화상 플레이어의 애플리케이션 프로그램을, RAM(104)에 전개해서 실행함으로써, 도6의 플로우차트에 있어서의 각 처리가 실현된다. 여기에서는, 대상 동화상이 미리 결정되어 있는 것으로 한다. 또한, 전자기기(100)(표시부(110)(표시부(110)의 표시면))가 향하고 있는 방향(방위각 Θ1과 앙각 Φ1)을 나타내는 장치 방향 정보 L1을, 「장치 방향 정보 L1(Θ1, Φ1)」로 기재한다. 표시 위치 변경 조작(표시 위치 변경 버튼(305)에 대한 유저 조작)에 의해 표시 범위(시청 방향)가 이동한 이동량(방위각의 변화량 Θ2, 및, 앙각의 변화량 Φ2)을 나타내는 이동량 정보 L2를, 「이동량 정보 L2(Θ2, Φ2)」로 기재한다. 그리고, 동화상 전송 서버(10)에 송신되는 표시 범위 정보 L(표시 범위(방위각 Θ과 앙각 Φ)를 나타내는 정보)을, 「표시 범위 정보 L(Θ, Φ)로 기재한다.
도6의 표시 제어 처리를 설명하기 전에, 본 실시예(도6의 표시 제어 처리)에 의해 해결되는 과제에 대해 설명한다. 여기에서, 표시부의 자세(표시면의 기울기)의 변화와, 표시 위치 변경 조작에 따라 표시 범위의 위치를 임의로 변경할 수 있는 경우를 생각한다. 이 경우에는, 표시면의 기울기를 변경함으로써 표시 범위의 위치를 변경한 후, 표시 위치 변경 조작을 행함으로써 표시 범위의 위치를 더 변경할 수 있다. 그렇지만, 그렇게 표시 범위의 위치가 변경된 후에는, 표시면의 기울기를 원래의 기울기로 되돌려도 표시 범위의 위치는 원래의 위치로 되돌아가지 않기 때문에, 표시 범위의 위치를 원하는 위치로 용이하게 변경할 수 없다. 바꾸어 말하면, 유저는, 표시면의 기울기의 직감적인 변경으로, 표시 범위의 위치를 원하는 위치로 변경할 수 없다.
예를 들면, 도7a와 같이 전자기기를 수평 방향을 향해서 방위각 Θ=앙각 Φ=0°의 범위가 표시된 상태로부터, 도7b와 같이 전자기기를 상측 방향으로 30° 기울인 경우를 생각한다. 이 경우에는, 표시 범위가 수직 방향으로 이동하여, 방위각 Θ=앙각 Φ=0°의 범위로부터, 방위각 Θ=0° 또한 앙각 Φ=30°의 범위로 갱신된다. 그리고, 표시 위치 변경 조작이 행해지면, 표시 범위가 더 이동한다. 예를 들면, 도7c와 같이, 표시 범위가 수직 방향으로 변화량 Φ2=30°로 이동하여, 방위각 Θ=0°또한 앙각 Φ=30°의 범위로부터, 방위각 Θ=0° 또한 앙각 Φ=60°로 갱신된다. 그후, 전자기기를 수평 방향을 향한 경우에는, 변화량 Φ2=30°이 남기 때문에, 표시 범위는 방위각 Θ=앙각 Φ=0°의 범위로 되돌아오지 않고, 방위각 Θ=0° 또한 앙각 Φ=30°의 범위로 되어 버린다. 이렇게, 유저는, 전자기기를 수평 방향을 향해도, 방위각 Θ=앙각 Φ=0°의 범위로 표시 범위를 되돌릴 수 없다.
따라서, 도6의 표시 제어 처리에서는, 표시 위치 변경 조작에 의해 표시 범위가 이동한 이동량(변화량 Θ2, Φ2)에 근거하여, 표시면의 기울기의 변화에 의해 표시 범위가 이동하는 이동량을 보정하는 처리 등을 행한다. 이에 따라, 표시 범위의 위치를 원하는 위치로 용이하게 변경할 수 있게 된다.
도6의 스텝 S601에서, CPU(101)은, 장치 방향 정보 L1(Θ1, Φ1)을 방향 검출부(107)로부터 취득하여, RAM(104)에 기록한다. 도7b의 상태에서는, 장치 방향 정보 L1(Θ1=0°, Φ1=30°)이 취득된다. 더구나, CPU(101)은, 표시 범위 정보 L(Θ, Φ)과 이동량 정보 L2(Θ2, Φ2)를, RAM(104)에 각각 기록한다. 스텝 S601에서는, 표시 위치 변경 조작에 의한 표시 범위가 이동은 발생하지 않는다. 이 때문에, CPU(101)은, 표시 범위 정보 L(Θ=Θ1, Φ=Φ1)과 이동량 정보 L2(Θ2=0°, Φ2=0°)를 RAM(104)에 기록한다. 그리고, CPU(101)은, 카운트 값 0의 정보로서, 표시 범위 정보 L(Θ=Θ1, Φ=Φ1)과 표시 시간 위치 정보를 동화상 전송 서버(10)에 송신한다. 카운트 값 0의 표시 시간 위치 정보는, 예를 들면, 대상 동화상의 선두 프레임의 시간 위치 (0:00)를 나타낸다. 이때, 카운트 값 0의 표시 시간 위치 정보는, 다른 시간 위치를 나타내도 된다. 예를 들면, 전회 대상 동화상의 재생을 정지한 시간 위치를 나타내는 정보가, 카운트 값 0의 표시 시간 위치 정보로서 사용되어도 된다. 그러한 시간 위치는, 전자기기(100)와 동화상 전송 서버(10)의 적어도 한쪽에서 관리할 수 있다.
스텝 S602에서, CPU(101)은, 통신 IF(108)을 사용해서 동화상 전송 서버(10)로부터 화상 데이터(표시 범위의 화상 데이터)를 수신하고, 수신한 화상 데이터를 RAM(104)에 기록한다. 그리고, CPU(101)은, 표시 제어부(105)를 사용하여, RAM(104)에 격납되어 있는 화상 데이터에 근거한 화상(표시 범위의 화상)을 표시부(110)에 표시한다.
스텝 S603에서, CPU(101)은, 표시 위치 변경 조작(표시 위치 변경 버튼(305)에 대한 유저 조작)이 행해졌는지 아닌지를 판단한다. 조작부(106)로부터 출력되는 제어신호를 감시함으로써, 스텝 S603의 판단을 행할 수 있다. 표시 위치 변경 조작이 행해졌다고 판단된 경우에는 스텝 S604로 처리가 진행되고, 표시 위치 변경 조작이 행해지지 않고 있다고 판단된 경우에는 스텝 S607로 처리가 진행한다.
스텝 S604에서, CPU(101)은, 표시 위치 변경 조작에 따른 이동량 정보 L2(Θ2, Φ2)를 조작부(106)로부터 취득한다. 그리고, CPU(101)은, RAM(104)에 격납되어 있는 이동량 정보 L2(Θ2, Φ2)를, 조작부(106)로부터 취득한 이동량 정보 L2(Θ2, Φ2)로 갱신한다. 도7c의 상태에서는, 이동량 정보 L2(Θ2=0°, Φ2=30°)가 취득된다.
스텝 S605에서, CPU(101)은, RAM(104)에 격납되어 있는 표시 범위 정보 L(Θ, Φ)을, RAM(104)에 격납되어 있는 장치 방향 정보 L1(Θ1, Φ1)과 이동량 정보 L2(Θ2, Φ2)에 근거하여 갱신한다. 구체적으로는, 이하의 식 1, 2를 사용해서 갱신후의 방위각 Θ과 앙각 Φ이 산출되고, RAM(104)에 격납되어 있는 표시 범위 정보 L(Θ, Φ)이 갱신된다. 도7b의 상태로부터 도7c의 상태로의 변화가 발생한 경우에는, 갱신후의 방위각 Θ=0°과, 갱신후의 앙각 Φ=60°가 산출되어, 표시 범위 정보 L (Θ=0°,Φ=60°)로의 갱신이 행해진다.
Θ=Θ1+Θ2 …(식 1)
Φ=Φ1+Φ2 …(식 2)
스텝 S606에서, CPU(101)은, 전자기기(100)(표시부(110)(표시부(110)의 표시면))의 앙각 Φ1과, 표시 범위의 앙각 Φ의 대응 관계(방향 대응 관계)를 결정한다. 도8a)는, 초기 상태의 방향 대응 관계를 나타내고, 표시 위치 변경 조작이 행해지기 전의 방향 대응 관계, 이동량 정보 L2(Θ2=0°,Φ2=0°)의 상태에서의 방향 대응 관계 등이다. 초기 상태의 방향 대응 관계에서는, 표시 범위의 앙각 Φ은 전자기기(100)의 앙각 Φ1과 일치한다. 도7b의 상태로부터 도7c의 상태로의 변화가 발생한 경우에는, 스텝 S606에 있어서, 도8b에 나타낸 방향 대응 관계가 결정된다. 도8b의 점 A의 앙각 Φn은, 스텝 S606을 실행하는 시점에서 RAM(104)에 격납되어 있는 앙각 Φ=Φ1+Φ2=60°(표시 범위 정보 L(Θ, Φ))이다. 점 A의 앙각 Φ1n은, 스텝 S606을 실행하는 시점에서 RAM(104)에 격납되어 있는 앙각 Φ1=30°(장치 방향 정보 L1(Θ1, Φ1))이다.
여기에서, 도8b에 나타낸 방향 대응 관계를 사용해서 표시 범위가 결정되는 경우를 생각한다. 그 경우에는, 전자기기(100)(표시부(110)(표시부(110)의 표시면))가 향하는 방향을 특정한 방향에 가깝게 하는 전자기기(100)의 기울기의 변화에 대하여 표시 범위가 전자기기(100)의 기울기에 따른 위치까지 연속적으로 이동하도록, 표시 범위가 결정된다. 본 실시예에서는, 특정한 방향은, 수평 방향(전자기기(100)의 앙각 Φ1이 0° 또는 180°인 방향)이다. 그리고, 「전자기기(100)의 기울기에 따른 위치」는, 변화량 Φ2(이동량 정보 L2(Θ2, Φ2))를 고려하지 않는 위치이며, 표시 범위의 앙각 Φ이 전자기기(100)의 앙각 Φ1과 일치하는 위치이다.
이때, 도8b의 방향 대응 관계로 표시된 앙각 Φ은, 앙각 Φ1을 변화량 Φ2에 근거하여 보정한 앙각이다. 이 때문에, 도8b의 방향 대응 관계는, 「앙각 Φ1의 변화에 의한 앙각 Φ의 변화량을 변화량 Φ2에 근거하여 보정하는 대응 관계」라고도 할 수 있다. 이때, 변화량 Φ2는, 「표시 위치 변경 조작에 의해 표시 범위가 수직 방향(앙각 방향)으로 이동한 이동량」이라고도 할 수 있다. 그리고, 앙각 Φ1의 변화에 의한 앙각 Φ의 변화량은, 「앙각 방향에 있어서의 표시면의 기울기의 변화에 의해 표시 범위가 수직 방향(앙각 방향)으로 이동하는 이동량」이라고도 할 수 있다.
스텝 S607에서, CPU(101)은, 장치 방향 정보 L1(Θ1, Φ1)을 방향 검출부(107)로부터 취득하여, RAM(104)에 기록한다(장치 방향 정보 L1(Θ1, Φ1)의 갱신). 그 때에, CPU(101)은, 전자기기(100)(표시부(110)(표시부(110)의 표시면))의 기울기가 변화하였는지 아닌지를 판단한다. 본 실시예에서는, CPU(101)은, 전자기기(100)의 기울기가 임계값보다도 큰 변화량으로 변화하였는지 아닌지를 판단한다. 구체적으로는, CPU(101)은, 갱신전의 장치 방향 정보 L1(Θ1, Φ1)과 갱신후의 장치 방향 정보 L1(Θ1, Φ1)을 비교하여, 앙각 Φ1의 변화량이 임계값보다도 큰지 아닌지를 판단한다. 앙각 Φ1의 변화량이 임계값보다도 큰 것으로 판단된 경우에는 스텝 S608로 처리가 진행되고, 앙각 Φ1의 변화량이 임계값 이하라고 판단된 경우에는 스텝 S613으로 처리가 진행한다.
이때, 임계값은 제로이어도 되고, 제로보다 커도 된다. 임계값은, 메이커 등에 의해 미리 정해진 값이어도 되고, 그렇지 않아도 된다. 예를 들면, 임계값은, 유저에 의해 지정된 값(변경가능한 값)이어도 된다. 본 실시예에서는, 방위각 Θ1이 변화하여도 앙각 Φ1이 변화하지 않는 경우에는, 전자기기(100)의 기울기가 변화하지 않고 있다고 판단되지만, 그러한 경우에, 전자기기(100)의 기울기가 변화되었다고 판단되어도 된다. 즉, 방위각 Θ1의 변화를 더 고려하여, 전자기기(100)의 기울기가 변화하였는지 아닌지를 판단해도 된다.
스텝 S608에서, CPU(101)은, 이동량 정보 L2(Θ2, Φ2)(표시 위치 변경 조작에 의한 표시 범위의 이동량)를 리셋할 것인지 아닌지를 판단한다. 본 실시예에서는, CPU(101)은, 표시 제어부(105)를 사용하여, 이동량 정보 L2(Θ2, Φ2)를 리셋할 것인지 아닌지의 확인 화면을 표시면에 표시한다. 그리고, CPU(101)은, 확인 화면에 응답하는 유저 조작에 따라, 이동량 정보 L2(Θ2, Φ2)를 리셋할 것인지 아닌지를 판단한다. 도9는 확인 화면의 일례를 나타낸다. 확인 화면(901)은, 동화상 플레이어의 화면(도3)에 겹쳐서 표시된다. 확인 화면(901)에서는, 이동량 정보 L2(Θ2, Φ2)를 리셋할 것인지 아닌지를 유저에게 문의하기 위해, 「화면 조작에 의한 시점 변경을 리셋합니까? 」 등의 메시지가 표시된다. 더구나, 확인 화면(901)에서는, YES 버튼(902)과 NO 버튼(903)이 표시된다. 유저는, 이동량 정보 L2(Θ2, Φ2)를 리셋하는 경우에 YES 버튼(902)을 누르고, 이동량 정보 L2(Θ2, Φ2)를 리셋하지 않는 경우에 NO 버튼(903)을 누른다. YES 버튼(902), NO 버튼(903) 등의 누름은, 조작부(106)로부터 CPU(101)에 통지된다. 이동량 정보 L2(Θ2, Φ2)를 리셋하는 것으로 판단된 경우에는 스텝 S612로 처리가 진행되고, 이동량 정보 L2(Θ2, Φ2)를 리셋하지 않는 것으로 판단된 경우에는 스텝 S609로 처리가 진행한다. 이 때문에, 본 실시예에서는, 스텝 S609의 처리와 스텝 S612의 처리의 한쪽이 선택되어 실행된다.
이때, 스텝 S609의 처리와 스텝 S612의 처리의 한쪽을 선택하는 방법은, 확인 화면을 표시하는 상기 방법에 한정되지 않는다. 예를 들면, 도6의 표시 제어 처리의 개시시 등에 있어서, 실행할 처리(스텝 S609의 처리와 스텝 S612의 처리의 한쪽)가 미리 설정되어도 된다. 스텝 S609의 처리와 스텝 S612의 처리의 한쪽을 선택하지 않고, 항상 스텝 S608로부터 스텝 S609로 처리가 진행되도록 하여도 된다. 항상 스텝 S608로부터 스텝 S612로 처리가 진행되도록 하여도 된다.
스텝 S609에서, CPU(101)은, 스텝 S606에서 결정한 방향 대응 관계로부터, RAM(104)에 격납되어 있는 앙각 Φ1(스텝 S607의 갱신후의 장치 방향 정보 L1(Θ1, Φ1))에 대응하는 앙각 Φ을 취득한다. 예를 들면, 스텝 S606에서 도8b의 방향 대응 관계가 결정되고, 또한, RAM(104)에 앙각 Φ1=15°이 격납되어 있는 경우에는, 점 B의 앙각 Φ=30°이 취득된다. 그리고, CPU(101)은, 취득한 앙각 Φ이 도시된 것과 같이, RAM(104)에 격납되어 있는 표시 범위 정보 L(Θ, Φ)을 갱신한다. 이에 따라, 앙각 Φ1의 변화에 의한 앙각 Φ의 변화량이 변화량 Φ2에 근거하여 보정되고, 보정후의 변화량 (앙각 Φ의 변화량)으로 표시 범위가 이동하게 된다. 또한, 전자기기(100)(표시부(110)(표시부(110)의 표시면))가 수평 방향(특정한 방향)으로 향한 경우에는, 변화량 Φ2가 반영되지 않고, 앙각 Φ1에 따른 표시 범위(앙각 Φ=Φ1의 표시 범위)가 결정되게 된다.
스텝 S610에서, CPU(101)은, 전자기기(100)(표시부(110)(표시부(110)의 표시면))가 수평 방향(특정한 방향)을 향하고 있는지 아닌지를 판단한다. 구체적으로는, CPU(101)은, 스텝 S609의 갱신후의 앙각 Φ이 기준값(0° 또는 180°)인지 아닌지를 판단한다. 스텝 S606에서 결정되는 방향 대응 관계(도8b)에서는, 표시 범위의 앙각 Φ이 기준값인 경우에, 표시 범위의 앙각 Φ은 전자기기(100)의 앙각 Φ1과 일치한다. 따라서, 스텝 S609의 갱신후의 앙각 Φ이 기준값인 경우에는, 전자기기(100)는 수평 방향을 향하고 있다. 앙각 Φ이 기준값이라고 판단된 경우에는 스텝 S611로 처리가 진행되고, 앙각 Φ이 기준값이 아니다고 판단된 경우에는 스텝 S613으로 처리가 진행한다.
스텝 S611에 있어서, CPU(101)은, RAM(104)에 격납되어 있는 이동량 정보 L2(Θ2, Φ2)를 이동량 정보 L2(0,0)로 갱신(초기화)한다. 더구나, CPU(101)은, 방향 대응 관계를, 스텝 S606에서 결정한 방향 대응 관계로부터 도8a의 방향 대응 관계로 되돌린다(초기화). 즉, CPU(101)은, 이동량 정보 L2(Θ2, Φ2)와 방향 대응 관계를 리셋한다.
스텝 S612의 처리의 후에는, 스텝 S611의 처리(이동량 정보 L2(Θ2, Φ2)의 리셋)가 반드시 행해진다. 이 때문에, 스텝 S612에서, CPU(101)은, RAM(104)에 격납되어 있는 표시 범위 정보 L(Θ, Φ)을, RAM(104)에 격납되어 있는 장치 방향 정보 L1(Θ1, Φ1)로 갱신한다. 즉, CPU(101)은, 표시 범위 정보 L(Θ, Φ)을, 이동량 정보 L2(Θ2, Φ2)가 반영되어 있지 않은 정보로 갱신한다.
스텝 S613에서, CPU(101)은, 정지 조작(정지 버튼(304)에 대한 유저 조작)이 행해졌는지 아닌지를 판단한다. 조작부(106)로부터 출력되는 제어신호를 감시함으로써, 스텝 S613의 판단을 행할 수 있다. 정지 조작이 행해졌다고 판단된 경우에는, CPU(101)은, 표시 제어부(105)를 사용해서 대상 동화상의 표시를 종료하고, 도6의 표시 제어 처리를 종료한다. 정지 조작이 행해지지 않고 있다고 판단된 경우에는, 스텝 S614로 처리가 진행한다.
스텝 S614에서, CPU(101)은, 표시 시간 위치 정보를 갱신한다. 구체적으로는, CPU(101)은, 재생 조작(재생 버튼(302)에 대한 유저 조작) 또는 일시 정지 조작(일시 정지 버튼(303)에 대한 유저 조작)이 행해졌는지 아닌지를 판단한다. 조작부(106)로부터 출력되는 제어신호를 감시함으로써, 이 판단을 행할 수 있다. 그리고, 재생 조작이 행해지고나서 일시 정지 조작이 행해질 때까지의 기간에 있어서, CPU(101)은, 표시 시간 위치가 진행하여, 대상 동화상의 개시로부터 표시 시간 위치까지의 경과 시간이 증가하도록, 표시 시간 위치 정보를 순차 갱신한다. 이때, 일시 정지 조작이 행해지고나서 재생 조작이 행해질 때까지의 기간에서는, CPU(101)은, 표시 시간 위치 정보를 갱신하지 않는다.
스텝 S615에서, CPU(101)은, 카운트 값을 1개 증분한다.
스텝 S616에서, CPU(101)은, 스텝 S615의 갱신후의 카운트 값의 정보로서, 스텝 S614의 갱신후의 표시 시간 위치 정보와, RAM(104)에 격납되어 있는 표시 범위 정보 L(Θ, Φ)을, 동화상 전송 서버(10)에 송신한다.
이상에서 설명한 바와 같이, 본 실시예에 따르면, 표시 위치 변경 조작에 의해 표시 범위가 이동한 이동량에 근거하여, 표시면의 기울기의 변화에 의해 표시 범위가 이동하는 이동량을 보정하는 처리 등이 행해진다. 이에 따라, 표시 범위의 위치를 원하는 위치로 용이하게 변경할 수 있다. 예를 들면, 표시 위치 변경 조작에 의해 표시 범위의 위치가 변경된 후에도, 표시면의 기울기를 원래의 기울기로 되돌림으로써, 표시 범위의 위치를 원래의 위치로 되돌릴 수 있다.
이때, 표시면의 앙각 Φ1의 변화에 의한 표시 범위의 앙각 Φ의 변화량을, 표시 위치 변경 조작에 의한 변화량 Φ2(표시 범위의 앙각 Φ의 변화량)에 근거하여 보정하는 예를 설명했지만, 이것에 한정되지 않는다. 예를 들면, 표시면의 방위각 Θ1의 변화에 의한 표시 범위의 방위각 Θ의 변화량을, 표시 위치 변경 조작에 의한 변화량 Θ2(표시 범위의 방위각 Θ의 변화량)에 근거하여 보정해도 된다. 방위각 Θ과 앙각 Φ의 한쪽만을 보정하도록 하여도 되고, 방위각 Θ과 앙각 Φ의 양쪽을 보정하도록 하여도 된다. 또한, 특정한 방향은 수평 방향과는 다른 방향이어도 된다. 예를 들면, 특정한 방향은 방위각 Θ1이 90°의 방향이어도 되고, 특정한 방향은 방위각 Θ1=앙각 Φ1=45°의 방향이어도 된다.
이때, 표시면이 특정한 방향(수평 방향 등)으로 향하고 있는 상태에 있어서, CPU(101)은, 표시 위치 변경 조작에 따라 표시 범위의 위치를 변경하지 않도록 하여도 된다. 그렇게 함으로써, 표시 위치 변경 조작이 의도하지 않고 행해진 경우에도, 유저는 특정한 방향을 계속해서 볼 수 있다.
<실시예2>
이하, 본 발명의 실시예 2에 대해 설명한다. 이때, 이하에서는, 실시예 1과 다른 점(구성, 처리 등)에 대해 상세히 설명하고, 실시예 1과 같은 점에 대한 설명은 생략한다.
본 실시예에서는, 방향 검출부(107)는, 전자기기(100)의 유저의 자세(포즈)를 더 검출한다(자세 검출). 구체적으로는, 방향 검출부(107)는, 자이로 센서를 사용하여, 전자기기(100)가 있는 높이 H를 검출한다. 도10은, 전자기기(100)가 있는 높이 H와 유저의 자세의 대응 관계의 일례를 나타낸다. 도10에 도시된 것과 같이, 선 자세, 앉은 자세, 누운 자세 등의 사이에서 유저의 자세가 변하면, 전자기기(100)가 있는 높이 H도 변화한다. 이 때문에, 전자기기(100)가 있는 높이는, 「유저의 자세에 대응하는 파라미터」라고 할 수 있다. 그리고, 유저의 자세가 변화한 경우에는, 유저가 표시 위치 변경 조작을 다시 하고 싶은 가능성이 높다. 이 때문에, 본 실시예에서는, CPU(101)은, 방향 검출부(107)의 검출 결과에 근거하여 유저의 자세가 변화하였는지 아닌지를 판단하여, 유저의 자세가 변화하였다고 판단한 경우에, 이동량 정보 L2(Θ2, Φ2)를 적절히 리셋한다.
도11은, 본 실시예에 따른 표시 제어 처리의 일례를 나타낸 플로우차트다. CPU(101)이, ROM(103)에 격납되어 있는 동화상 플레이어의 애플리케이션 프로그램을, RAM(104)에 전개해서 실행함으로써, 도11의 플로우차트에 있어서의 각 처리가 실현된다.
스텝 S1101∼S1112의 처리는, 도6의 스텝 S601∼S612의 처리와 같다.
스텝 S1113에서, CPU(101)은, 방향 검출부(107)를 사용하여, 유저의 자세(포즈)가 변화하였는지 아닌지를 판단한다. 본 실시예에서는, CPU(101)은, 유저의 자세가 임계값보다도 큰 변화량으로 변화하였는지 아닌지를 판단한다. 구체적으로는, 방향 검출부(107)는, 전자기기(100)가 있는 높이 H를 검출하여, CPU(101)에 통지한다. 그리고, CPU(101)은, 통지된 높이 H의 변화량(전회로부터의 변화량, 소정 시간당의 변화량 등)이 임계값보다도 큰지 아닌지를 판단한다. 높이 H의 변화량이 임계값보다도 크다고 판단된 경우에는 스텝 S1114로 처리가 진행되고, 높이 H의 변화량이 임계값 이하라고 판단된 경우에는 스텝 S1119로 처리가 진행한다. 이때, 임계값은 제로이어도 되고, 제로보다 커도 된다. 임계값은, 메이커 등에 의해 미리 정해진 값이어도 되고, 그렇지 않아도 된다. 예를 들면, 임계값은, 유저에 의해 지정된 값(변경가능한 값)이어도 된다.
스텝 S1114∼S1122의 처리는, 도6의 스텝 S608∼S616의 처리와 같다.
이상에서 설명한 바와 같이, 본 실시예에 따르면, 유저의 자세가 변화하였다고 판단한 경우에, 유저가 표시 위치 변경 조작을 다시 하고 싶은 가능성이 높기 때문에, 이동량 정보 L2(Θ2, Φ2)가 적절히 리셋된다. 이에 따라, 편리성을 향상시킬 수 있다.
이때, CPU(101)이 행하는 것으로서 설명한 전술한 각종 제어는, 1개의 하드웨어가 행해도 되고, 복수의 하드웨어(예를 들면, 복수의 프로세서나 회로)가 처리를 분담함으로써, 장치 전체의 제어를 행해도 된다.
또한, 본 발명을 그것의 바람직한 실시예에 근거하여 상세히 설명해 왔지만, 본 발명은 이들 특정한 실시예에 한정되는 것은 아니고, 본 발명의 요지를 일탈하지 않는 범위의 다양한 형태도 본 발명에 포함된다. 더구나, 전술한 각 실시예는 본 발명의 일 실시예를 나타낸 것에 지나지 않고, 각 실시예를 적절히 조합하는 것도 가능하다.
<기타 실시예>
본 발명은, 전술한 실시예의 1 이상의 기능을 실현하는 프로그램을, 네트워크 또는 기억매체를 거쳐 시스템 또는 장치에 공급하고, 그 시스템 또는 장치의 컴퓨터에 있어서의 1개 이상의 프로세서가 프로그램을 판독하여 실행하는 처리에서도 실현가능하다. 또한, 1 이상의 기능을 실현하는 회로(예를 들면, ASIC)에 의해서도 실현가능하다.
본 발명은 상기 실시예에 제한되는 것은 아니고, 본 발명의 정신 및 범위에서 이탈하지 않고, 다양한 변경 및 변형이 가능하다. 따라서, 본 발명의 범위를 명확하게 하기 위해서 이하의 청구항을 첨부한다.
본원은, 2019년 3월 19일 제출된 일본국 특허출원 특원 2019-051262를 기초로서 우선권을 주장하는 것이며, 그것의 기재 내용의 전체를 여기에 원용한다.
100: 전자기기 101: CPU 106: 조작부 107: 방향 검출부

Claims (17)

  1. 표시면의 기울기를 검출하는 검출수단과,
    유저 조작을 접수하는 접수수단과,
    화상의 일부의 범위를 표시 범위로서 상기 표시면에 표시하도록 제어하고, 상기 표시면의 기울기의 변화에 따라 상기 표시 범위의 위치를 변경하고, 소정의 유저 조작에 따라 상기 표시 범위의 위치를 변경하는 제어수단을 갖고,
    상기 제어수단은, 상기 소정의 유저 조작에 의해 상기 표시 범위가 이동한 제1 이동량에 근거하여, 상기 표시면의 기울기의 변화에 의해 상기 표시 범위가 이동하는 제2 이동량을 보정하는 것을 특징으로 하는 전자기기.
  2. 제 1항에 있어서,
    상기 제어수단은, 상기 표시면이 특정한 방향으로 향한 경우에, 상기 제1 이동량이 반영되어 있지 않은, 상기 표시면의 기울기에 따른 표시 범위를 결정하는 것을 특징으로 하는 전자기기.
  3. 제 2항에 있어서,
    상기 특정한 방향은 수평 방향인 것을 특징으로 하는 전자기기.
  4. 제 2항 또는 제 3항에 있어서,
    상기 제어수단은, 상기 표시면이 상기 특정한 방향으로 향하고 있는 상태에 있어서, 상기 소정의 유저 조작에 따라 상기 표시 범위의 위치를 변경하지 않는 것을 특징으로 하는 전자기기.
  5. 제 2항 내지 제 4항 중 어느 한 항에 있어서,
    상기 제어수단은, 상기 표시면이 향하는 방향을 상기 특정한 방향에 가깝게 하는 상기 표시면의 기울기의 변화에 대해 상기 표시 범위가 상기 표시면의 기울기에 따른 위치까지 연속적으로 이동하도록, 상기 표시 범위를 결정하는 것을 특징으로 하는 전자기기.
  6. 제 1항 내지 제 5항 중 어느 한 항에 있어서,
    상기 제1 이동량은 수직 방향의 이동량이고,
    상기 제2 이동량은, 앙각 방향에 있어서의 상기 표시면의 기울기의 변화에 의해 상기 표시 범위가 수직 방향으로 이동하는 이동량인 것을 특징으로 하는 전자기기.
  7. 제 1항 내지 제 6항 중 어느 한 항에 있어서,
    상기 제어수단은, 상기 표시면의 기울기가 변화한 경우에, 상기 제2 이동량으로 상기 표시 범위를 이동시키는 처리와, 상기 제1 이동량을 리셋하고 상기 표시 범위를 결정하는 처리의 한쪽을 선택해서 실행하는 것을 특징으로 하는 전자기기.
  8. 제 7항에 있어서,
    상기 표시면의 기울기가 변화한 경우는, 임계값보다도 큰 변화량으로 상기 표시면의 기울기가 변화한 경우인 것을 특징으로 하는 전자기기.
  9. 제 7항 또는 제 8항에 있어서,
    상기 제어수단은, 상기 표시면의 기울기가 변화한 경우에, 상기 제1 이동량을 리셋할 것인지 아닌지의 확인 화면을 상기 표시면에 표시하도록 제어하는 것을 특징으로 하는 전자기기.
  10. 제 1항 내지 제 9항 중 어느 한 항에 있어서,
    유저의 자세를 검출하는 자세 검출수단을 더 갖고,
    상기 제어수단은, 상기 유저의 자세가 변화한 경우에, 상기 제2 이동량으로 상기 표시 범위를 이동시키는 처리와, 상기 제1 이동량을 리셋하고 상기 표시 범위를 결정하는 처리의 한쪽을 선택해서 실행하는 것을 특징으로 하는 전자기기.
  11. 제 10항에 있어서,
    상기 자세 검출수단은, 상기 유저의 자세에 대응하는 파라미터로서, 상기 전자기기가 있는 높이를 검출하는 것을 특징으로 하는 전자기기.
  12. 제 10항 또는 제 11항에 있어서,
    상기 유저의 자세가 변화한 경우는, 임계값보다도 큰 변화량으로 상기 유저의 자세가 변화한 경우인 것을 특징으로 하는 전자기기.
  13. 제 10항 내지 제 12항 중 어느 한 항에 있어서,
    상기 제어수단은, 상기 유저의 자세가 변화한 경우에, 상기 제1 이동량을 리셋할 것인지 아닌지의 확인 화면을 상기 표시면에 표시하도록 제어하는 것을 특징으로 하는 전자기기.
  14. 제 1항 내지 제 13항 중 어느 한 항에 있어서,
    상기 화상은 VR(Virtual Reality) 화상인 것을 특징으로 하는 전자기기.
  15. 표시면의 기울기를 검출하는 검출 스텝과,
    유저 조작을 접수하는 접수 스텝과,
    화상의 일부의 범위를 표시 범위로서 상기 표시면에 표시하도록 제어하고, 상기 표시면의 기울기의 변화에 따라 상기 표시 범위의 위치를 변경하고, 소정의 유저 조작에 따라 상기 표시 범위의 위치를 변경하는 제어 스텝을 갖고,
    상기 제어 스텝은, 상기 소정의 유저 조작에 의해 상기 표시 범위가 이동한 제1 이동량에 근거하여, 상기 표시면의 기울기의 변화에 의해 상기 표시 범위가 이동하는 제2 이동량을 보정하는 것을 특징으로 하는 전자기기의 제어방법.
  16. 컴퓨터를 청구항 1∼14 중 어느 한 항에 기재된 전자기기의 각 수단으로서 기능시키기 위한 프로그램.
  17. 컴퓨터를 청구항 1∼14 중 어느 한 항에 기재된 전자기기의 각 수단으로서 기능시키기 위한 프로그램을 격납한 컴퓨터가 판독가능한 기억매체.
KR1020217032418A 2019-03-19 2020-03-04 전자기기, 전자기기의 제어방법, 및 컴퓨터 판독가능한 기억매체 KR102549779B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019051262A JP7341685B2 (ja) 2019-03-19 2019-03-19 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JPJP-P-2019-051262 2019-03-19
PCT/JP2020/009091 WO2020189274A1 (ja) 2019-03-19 2020-03-04 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体

Publications (2)

Publication Number Publication Date
KR20210139325A true KR20210139325A (ko) 2021-11-22
KR102549779B1 KR102549779B1 (ko) 2023-06-30

Family

ID=72520185

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217032418A KR102549779B1 (ko) 2019-03-19 2020-03-04 전자기기, 전자기기의 제어방법, 및 컴퓨터 판독가능한 기억매체

Country Status (6)

Country Link
US (1) US11740477B2 (ko)
EP (1) EP3944228A4 (ko)
JP (1) JP7341685B2 (ko)
KR (1) KR102549779B1 (ko)
CN (1) CN113574592B (ko)
WO (1) WO2020189274A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019231632A1 (en) 2018-06-01 2019-12-05 Shure Acquisition Holdings, Inc. Pattern-forming microphone array
JP2023140923A (ja) * 2022-03-23 2023-10-05 株式会社リコー 表示端末、情報処理システム、通信システム、表示方法、情報処理方法、通信方法、及びプログラム
WO2023243024A1 (ja) * 2022-06-16 2023-12-21 株式会社ビジョン・コンサルティング セパレート型スマートデバイス

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150020649A (ko) * 2015-01-26 2015-02-26 엘지전자 주식회사 이동 단말기, 그 제어방법 및 이를 포함하는 정보표시 시스템
KR20170043911A (ko) * 2015-10-14 2017-04-24 삼성전자주식회사 전자 장치 및 그 제어 방법
JP2017111539A (ja) 2015-12-15 2017-06-22 株式会社コロプラ プログラム及びコンピュータ

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006050198A2 (en) * 2004-10-28 2006-05-11 Accelerated Pictures, Llc Client/server-based animation software, systems and methods
JP5330640B2 (ja) * 2006-05-09 2013-10-30 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP5265159B2 (ja) * 2007-09-11 2013-08-14 株式会社バンダイナムコゲームス プログラム及びゲーム装置
JP5485702B2 (ja) * 2007-12-28 2014-05-07 株式会社カプコン プログラムおよびゲームシステム
JP5800473B2 (ja) * 2010-06-11 2015-10-28 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
US20120314899A1 (en) * 2011-06-13 2012-12-13 Microsoft Corporation Natural user interfaces for mobile image viewing
JP6385725B2 (ja) * 2014-06-06 2018-09-05 任天堂株式会社 情報処理システム及び情報処理プログラム
FR3035523B1 (fr) * 2015-04-23 2017-04-21 Parrot Systeme de pilotage de drone en immersion
CN105208368A (zh) * 2015-09-23 2015-12-30 北京奇虎科技有限公司 显示全景数据的方法及装置
KR20170084443A (ko) * 2016-01-12 2017-07-20 엘지전자 주식회사 헤드 마운트 디스플레이 장치 제어방법
CN105828090A (zh) * 2016-03-22 2016-08-03 乐视网信息技术(北京)股份有限公司 全景直播方法及装置
JP2018037034A (ja) * 2016-09-02 2018-03-08 株式会社タカラトミー 情報処理システム
KR20180063581A (ko) * 2016-12-02 2018-06-12 김기창 가상 현실 표시 장치 및 그 제어 방법
JP7048230B2 (ja) 2017-09-19 2022-04-05 株式会社ユニバーサルエンターテインメント 遊技機
JP6603375B2 (ja) * 2018-08-08 2019-11-06 任天堂株式会社 情報処理システム及び情報処理プログラム
JP2019015972A (ja) * 2018-08-17 2019-01-31 株式会社コロプラ Vr酔いを抑制するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置
JP7214523B2 (ja) * 2019-03-20 2023-01-30 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム
US11677911B2 (en) * 2019-11-14 2023-06-13 Canon Kabushiki Kaisha Display apparatus capable of controlling a position of a display range based on a change of focal distance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150020649A (ko) * 2015-01-26 2015-02-26 엘지전자 주식회사 이동 단말기, 그 제어방법 및 이를 포함하는 정보표시 시스템
KR20170043911A (ko) * 2015-10-14 2017-04-24 삼성전자주식회사 전자 장치 및 그 제어 방법
JP2017111539A (ja) 2015-12-15 2017-06-22 株式会社コロプラ プログラム及びコンピュータ

Also Published As

Publication number Publication date
KR102549779B1 (ko) 2023-06-30
JP2020154567A (ja) 2020-09-24
JP7341685B2 (ja) 2023-09-11
CN113574592A (zh) 2021-10-29
WO2020189274A1 (ja) 2020-09-24
CN113574592B (zh) 2024-08-27
EP3944228A1 (en) 2022-01-26
US20210405383A1 (en) 2021-12-30
US11740477B2 (en) 2023-08-29
EP3944228A4 (en) 2022-11-23

Similar Documents

Publication Publication Date Title
US10620791B2 (en) Information processing apparatus and operation reception method
KR102549779B1 (ko) 전자기기, 전자기기의 제어방법, 및 컴퓨터 판독가능한 기억매체
JP5981591B1 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
US20180188802A1 (en) Operation input apparatus and operation input method
JP2013258614A (ja) 画像生成装置および画像生成方法
JP6357023B2 (ja) 情報処理プログラム、情報処理装置、情報処理装置の制御方法および情報処理システム
US10978019B2 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
US20170185147A1 (en) A method and apparatus for displaying a virtual object in three-dimensional (3d) space
JP2019531038A (ja) ディスプレイ装置及びその制御方法
US20210329171A1 (en) Image adjustment system, image adjustment device, and image adjustment
JP5868128B2 (ja) 情報処理装置およびその制御方法
JP2006285789A (ja) 画像処理方法、画像処理装置
EP2952233B1 (en) Information processing system, information processing program, information processing apparatus, and information processing method
WO2017057218A1 (ja) 情報処理装置および位置情報取得方法
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
KR101356015B1 (ko) 센서를 이용한 3d 영상 보정 장치 및 이를 위한 방법
JP2021089382A (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2019201307A (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP2013246719A (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
KR101805922B1 (ko) 포인터 이동 값 보정 방법 및 이를 사용하는 3d 포인팅 디바이스
CN112738404A (zh) 电子设备的控制方法及电子设备
JP2006285786A (ja) 情報処理方法、情報処理装置
JP6568795B2 (ja) 電子機器の操作方法および画像の表示方法
EP4383700A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
JP7394046B2 (ja) システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant