CN104793857A - 电子装置以及系统、方法 - Google Patents

电子装置以及系统、方法 Download PDF

Info

Publication number
CN104793857A
CN104793857A CN201510018396.7A CN201510018396A CN104793857A CN 104793857 A CN104793857 A CN 104793857A CN 201510018396 A CN201510018396 A CN 201510018396A CN 104793857 A CN104793857 A CN 104793857A
Authority
CN
China
Prior art keywords
project
display
test section
appointed
specify
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510018396.7A
Other languages
English (en)
Inventor
挂川聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of CN104793857A publication Critical patent/CN104793857A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G04HOROLOGY
    • G04CELECTROMECHANICAL CLOCKS OR WATCHES
    • G04C3/00Electromechanical clocks or watches independent of other time-pieces and in which the movement is maintained by electric means
    • G04C3/001Electromechanical switches for setting or display
    • G04C3/002Position, e.g. inclination dependent switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

本发明提供一种电子装置以及系统、方法,以使所显示的多个项目各自地发生显示变化。包含:显示部(10),其对图像进行显示;触摸面板(11),其检测针对显示于所述显示部(10)的图像内的项目的操作;加速度计(8),其用于将由所述触摸面板(11)检测到针对所述项目的操作作为条件来检测装置主体的移动;以及控制部(3),其基于来自所述触摸面板(11)以及所述加速度计(8)的输出信号来对已被操作的所述项目中的图像内容进行控制。

Description

电子装置以及系统、方法
技术领域
本发明涉及对指示各自不同的动作的多个项目进行显示的电子装置以及系统、方法。
背景技术
在当今的电子装置例如智能手机、平板终端、一部分数码摄像机、腕式终端装置或眼镜型终端装置等中,在画面上显示有多个图标,根据针对这些图标的触摸、轻拍、或视线上的指定操作,来执行与被指定的图标对应的程序。
然而,在这些电子装置中,各图标与各自不同的程序对应,通过指定图标,仅是启动与该图标对应的程序的执行。
因而,为了实现更复杂的动作,也提出了不仅是触摸还兼用摇晃动作的技术。在专利文献1中记载了如下内容,即,在具备触摸面板和加速度传感器的移动终端中,由加速度传感器来检测终端装置主体的移动、倾斜或加速度,并控制图像显示(内容块)。
专利文献1记载的技术中,根据终端装置的倾斜角度来控制图标群的移动,并在显示器中显示时时刻刻移动的图标。即,在终端装置被保持为水平的情况下,将显示器中央附近所显示的图标所示的内容块显示于显示器。因此,用户使终端装置朝前后左右方向倾斜直至期望的图标出现在画面中为止,在期望的图标显示于画面中心附近时将终端装置保持为水平,从而能对信息进行检索、阅览。
进而,在专利文献2中记载了如下技术,即,在具备加速度传感器的图像显示装置中,探测终端装置主体的倾斜,进行给定的操作的同时仅在使终端装置主体发生倾斜时进行显示的变更。即,仅在误动作防止用而按下按钮的同时使装置主体从水平位置发生倾斜时,进行从第1图像的人物图像向同一人物的第2图像的显示变更。
在先技术文献
专利文献
专利文献1:JP特开2002-149616号公报
专利文献2:JP特开2010-181556号公报
发明要解决的课题
然而,在专利文献1、2记载的技术中,存在对应于装置的移动而能实现的动作受限这样的课题。
发明内容
本发明鉴于此现有的课题而提出,其目的在于提供能对应于装置的移动来实现多个动作的电子装置以及系统、方法、程序。
用于解决课题的手段
为了解决上述课题,本发明提供一种电子装置,主要特征是,在具备显示对各自不同的动作进行指示的多个项目的显示部、以及检测移动的检测部,且若指定所述项目则进行与该被指定的项目对应的动作的电子装置中,具备:控制部,其以指定所述多个项目当中的任一个且所述检测部检测到移动作为条件,来使该被指定的项目的显示或与该项目关联的显示发生变化,并以指定其他的项目且所述检测部检测到移动作为条件,使该被指定的其他的项目的显示或与该其他的项目关联的显示发生变化。
本发明的其他的特征通过本说明书以及附图的记载而明确。
发明效果
根据本发明,能选择性地指定对各自不同的动作进行指示的多个项目、以及以装置的移动为条件来实现多个动作。
附图说明
图1A是表示本发明第1实施方式所涉及的腕式终端装置的概观图。
图1B是表示本发明第1实施方式所涉及的腕式终端装置的显示单元上所显示的另一指示的例子的图。
图2A是表示本发明第2实施方式所涉及的眼镜型信息设备的概观图。
图2B是表示在本发明第2实施方式中在虚拟屏幕上显示图标的图。
图3A是表示本发明第3实施方式所涉及的摄像机系统的概观图。
图3B是表示摄像部与监视器部彼此分离的摄像机系统的图。
图4是表示基于本发明第1实施方式所涉及的腕式终端装置的电路构成的框图。
图5是表示在日历模式下的腕式终端装置的图。
图6是表示本发明第1实施方式所涉及的腕式终端装置中所执行的处理的流程图。
图7是表示将一个图标或项目与表示应用程序的图标一起删除的处理的流程图。
图8是本发明第2实施方式所涉及的眼镜型信息设备的电路构成的框图。
图9A是表示本发明第2实施方式所涉及的在虚拟屏幕上显示步数的图标(B)的图。
图9B是表示本发明第2实施方式所涉及的在虚拟屏幕上显示代表Km/h的图标(C)的图。
图9C是表示本发明第2实施方式所涉及的在虚拟屏幕上显示代表音乐的图标(D)的图。
图10是表示本发明第3实施方式所涉及的摄像机系统的构成的概观框图。
图11A是表示本发明第3实施方式所涉及的代表摄像机系统中的快门速度的图标(E)的图。
图11B是表示本发明第3实施方式所涉及的代表摄像机系统中的F-数的图标(F)的图。
图11C是表示本发明第3实施方式所涉及的代表摄像机系统中的帧频的图标(G)的图。
具体实施方式
图1A是表示本发明的第1实施方式的概观图的图。附图标记1是穿戴于腕部的腕式终端装置。在显示部10中显示有以附图标记A~I所示的多个图标IC1。附图标记ICH1是主页按钮(home botton)。附图标记7a是操作开关。
图1B是表示所述第1实施方式的其他的显示例的图。腕式终端装置1具有各种功能(模式),例如若图标(A)表示时钟模式,则通过触摸图标(A),从而腕式终端装置1作为时钟发挥功能。在时钟模式时,如图所示,在最上部的行,显示有表示年的年项目I101、表示月的月项目I102、以及表示日的日项目I103,在中间的行,显示有表示星期的星期项目I104,在最下部的行,显示有表示小时的小时项目I105和表示分钟的分钟项目I106(12:23)。
图2A是表示本发明的第2实施方式的概观图的图。附图标记100是眼镜型信息设备,详细的结构将后述。图2B是表示在第2实施方式中在虚拟屏幕200中显示有图标IC2的状态的图。附图标记ICH2是主页按钮。
图3A是表示本发明的第3实施方式的概观图的图。附图标记300是摄像机系统,摄像部301和监视器部302如图3B所示可分离。在分离的情况下以Bluetooth(注册商标)等无线进行连接。在监视器部302的显示部323中显示有图标IC3。附图标记ICH3是主页按钮。
以下,参照附图来说明本发明的多个实施方式。此外,本说明书中,项目包含图标,另外包含用于指定给定的动作的全部的电子显示,包含操作菜单。即,图1A、图2B、图3A、图3B所示的图标IC1、IC2、IC3是项目。另外,在一个项目中有多个菜单的情况下,将与各菜单的每一个对应的显示也称为项目。例如表示日历功能的显示是项目,日历功能之中的表示年、月、日、时刻的显示也是项目。即,图1B所示的I101~I106是项目。
<第1实施方式>
以下,针对在腕式终端装置中实施的实施方式来说明本发明。
<构成>
图4是表示图1A、图1B所示的本发明的第1实施方式所涉及的腕式终端装置1的电路构成的框图。如该图所示,腕式终端装置1包含:经由总线2而彼此连接的控制部3、RAM(Random Access Memory;随机存取存储器)4、ROM(Read Only Memory;只读存储器)5、RTC(Real-TimeClock;实时时钟)6、输入部7、加速度计8、显示驱动部9、显示部10以及触摸面板11。
控制部3由CPU(Central Processing Unit;中央处理器)及其外围电路构成。CPU在将RAM4作为工作用存储器使用的同时,执行ROM5中预先保存的程序,并进行针对经由总线2所输入的来自外围设备的数据的运算、处理,从而控制腕式终端装置1整体的动作。控制部3中的运算处理结果经由显示驱动部9而被输出至显示部10,用户能将处理结果以图像形式进行观察,并基于处理结果来进行接下来的操作。
显示部10一般由液晶显示部构成,在其表面层叠有触摸面板11。用户不进行键输入,而是经由触摸面板11来对显示部10所显示的图标、项目进行触摸,从而能向控制部3输入各种数据、指令。在该触摸面板11中能采用各种类型,例如静电电容方式、电阻膜方式、表面弹性波方式等。
加速度计8优选由3轴即三维加速度计构成,由检测如图1A所示那样的腕式终端装置1主体的3轴方向的加速度的加速度传感器(未图示)、放大该加速度传感器的输出信号的放大器(未图示)、和将该输出变换为数字信号的A/D变换器(未图示)构成,能在控制部3内基于来自该加速度计8的数字输出来运算腕式终端装置1主体的倾斜角度以及加速度。
RTC6不仅具有对当前时刻进行计时的功能还具有日历功能,经由总线2将当前的日期信息以及时刻信息提供给控制部3,如图1B所示能在将处于日历模式的腕式终端装置1的显示部10中显示年、日期、星期、时刻。
输入部7由在用户即将该腕式终端装置1穿戴于腕部的穿戴者操作腕式终端装置1时被使用的、模式设定开关或主电源开关等多个操作开关构成。在图1A、图1B中作为代表,图示了1个操作开关7a。此外,这些操作开关的操作状态由控制部3逐次检测。
显示驱动部9由对显示部10进行驱动的驱动电路等构成,遵照经由总线2而被送来的来自控制部3的指令,来驱动显示部10,从而使日期、当前时刻、各种信息显示于显示部10。
<动作>
接下来参照图5。该图示出了成为日历模式的腕式终端装置1(设在初始的状态下,处于图5(a)的状态)。如图所示,在最上部的行,显示有年项目I101、月项目I102、日项目I103,在中间的行,显示有星期项目I104,在最下部的行,显示有小时项目I105和分钟项目I106(12:23)。
在该状态下,若穿戴者的手指12进行对显示部10的小时项目I105或分钟项目I106的触摸,则图6所示那样的程序启动,此时通过时钟显示(步骤S100),在腕式终端装置1的下段进行了12:23的显示。
接下来,控制部3基于针对触摸面板11的扫描,来判断是否检测到对小时项目I105或分钟项目I106的触摸(步骤S101)。在未检测到的情况下,返回至步骤S100,依然继续相同的时刻显示(12:23)。
在检测到对小时项目I105或分钟项目I106的触摸的情况下,启动定时器计数(步骤S102)。该定时器计数是指定进行后述的腕式终端装置1的移动的测量的时间例如5秒的处理。接下来,控制部3判断定时器是否期满,即是否经过了移动检测时间(步骤S103)。在未检测到腕式终端装置1的移动而经过了给定的时间的情况下(步骤S103;“是”),返回至步骤S100,此时进行时刻显示。在未期满的情况下(步骤S103;“否”),前进至步骤S104。
在该步骤S104中,判断图5的腕式终端装置1的主体是否向右倾斜。若判断为“是”(图5(b)的状态),则判断为指示了分钟项目I106的变更,使分钟项目I106(“23”)闪烁而转移至分钟的修正模式(步骤S105)。
接下来,判断腕式终端装置1的主体向近前的倾斜是否大于给定角度(步骤S106)。即,腕式终端装置1的顶部部分以向用户侧接近的方式倾斜,在从对分钟项目I106的触摸时的初始角度起倾斜了给定角度例如30°以上的情况下(步骤S103;“是”),使分钟项目I106的显示值持续递增(步骤S107)。由此分钟项目I106按照“23→24→25”的方式变化。该递增通过腕式终端装置1的主体向原始角度的恢复而完成,所显示的分钟项目I106被设定为“25”。
若步骤S106中的判断为“否”,则控制部3使处理前进至步骤S108,判断腕式终端装置1的主体向前方是否倾斜了给定角度以上。即腕式终端装置1的顶部部分按照远离用户的方式倾斜,在从对分钟项目I106的触摸时的初始角度起倾斜了给定角度例如30°以上的情况下,使分钟项目I106的显示值持续递减。即分钟按照23→22→21的方式变化。该递减通过腕式终端装置1的主体向原始角度的恢复而完成,所显示的“分钟”被设定为21。
接下来,在判断步骤S104中判断为“否”的情况下,前进至判断步骤S110,判断腕式终端装置1是否向左倾斜。若为“是”(图2(c)的状态),则判断为期望“小时”的变更,使小时“12”闪烁而成为小时的修正模式(步骤S111)。
接下来,前进至判断步骤S112,进行腕式终端装置1是否朝近前倾斜了给定角度以上的判断。即腕式终端装置1向近前侧,即腕式终端装置1的顶部部分以接近用户侧的方式倾斜,在从对小时项目I105的触摸时的初始角度起倾斜了给定角度例如30°以上的情况下,使“小时”持续递增(步骤S113)。即,小时按照“12→13→14”的方式变化。该递增通过腕式终端装置1的主体向原始角度的恢复而完成,所显示的“小时”被设定为“14”。
若步骤S112中的判断为“否”,则控制部3使处理前进至步骤S114,判断腕式终端装置1的主体是否向前方倾斜了给定角度以上。即,腕式终端装置1的顶部部分以远离用户侧的方式倾斜,在从对小时项目I105或分钟项目I106的触摸时的初始角度起倾斜了给定角度例如30°以上的情况下,使小时项目I105持续递减(步骤S115)。即,小时按照“12→11→10”的方式变化。该递减通过腕式终端装置1的主体向原始角度的恢复而完成,所显示的“小时”被设定为“10”。
如此,若小时项目I105和分钟项目I106的设定完成,则时钟设定结束(步骤S116),所显示的“小时”被设定为“10”,若时间期满(步骤S117中“是”),则该程序结束。
也就是,通过在触摸腕式终端装置1主体的小时项目I105或分钟项目I106的同时使腕式终端装置1的主体倾斜,从而能进行时刻或分钟的显示修正,通过恢复至原始的姿势,从而使时刻或分钟的设定完成。可以对应于倾斜的角度来改变递增、递减的速度。关于年、月也同样。
此外,图5中,关于左右的倾斜,按照以腕式终端装置1的主体下部中央为中心来使上部朝左右倾斜的方式进行了表现,但也可以以垂直方向的中心轴为中心来使腕式终端装置1的主体向左侧旋转或者向右侧旋转。另外,关于前后的倾斜,也可以以腕式终端装置1的主体的水平方向的中心轴为中心而向前方或者近前旋转。
在本实施方式中,对应于腕式终端装置的左右的倾斜,在显示部10内选择位于左右的项目,对应于前后的倾斜来进行递增或递减,但也可以与该方法不同,通过腕式终端装置的前后的倾斜来进行项目的选择,且对应于左右的倾斜来进行递增或递减。
另外,在本实施方式中,在腕式终端装置1的前后的倾斜角度超过了给定的角度的期间内持续递增或递减,但也可以在前后方向或左右方向上每当执行一次超过给定的加速度的摇晃时就进行一次递增或递减。
另外,在本实施方式中,对从触摸小时项目I105或分钟项目I106起给定时间内所发生的腕式终端装置1的主体的移动进行测量,对应于其移动的方向、大小来使时间递增(提前)或递减(滞后),但还能响应于仅限于触摸的期间所发生的腕式终端装置1的主体的移动,来变更给定的显示(在前述例中为小时或分钟)。通过这样的动作,来防止因腕式终端装置1的移动而容易发生的误动作。
在以上的说明中,示出了在小时项目和分钟项目的显示变更中应用了本发明的情况,但本发明还能应用于图5中最上行所显示的年、月、日的变更。即。在按下显示部中所显示的表示年、月、日的变更的图标的同时,使终端主体向左右倾斜,进行年、月、日的选择,然后终端主体向前后倾斜,由此来变更年、月、日的显示值。
另外,通过在触摸给定的图标(未图示)、操作开关7a的同时使腕式终端装置1主体向前后倾斜,还能使图5中的上段的项、中段的项、下段的项目依次移动。
另外,如下所示,还能对应于倾斜的程度来改变显示。
即,若项目是日时分秒等的时刻数据,在触摸分钟的项目的同时使终端向前方稍微倾斜,则“分钟”会加1分钟。若在触摸分钟的项目的同时使终端向近前稍微倾斜,则“分钟”会减1分钟。若在触摸小时的项目的同时使终端向前方较大倾斜,则“小时”会加1小时。若在触摸小时的项目的同时使终端向近前较大倾斜,则“小时”会减1小时。在释放了触摸时,设定完成。
或者,若项目是时钟(时间表),在触摸时钟的项目的同时使腕式终端装置1向前方稍微倾斜,则“分钟”会加1分钟。若使腕式终端装置1向近前稍微倾斜,则“分钟”会减1分钟。若在触摸时钟的项目的同时使腕式终端装置1向前方较大倾斜,则“小时”会加1小时。若使终端向近前较大倾斜,则“小时”会减去1小时。
<变形例>
接下来,参照图7来说明本发明的第1实施方式的变形例。对于与上述实施方式公共的部分,使用公共的符号并省略说明。
在该图中示出了使与应用(应用程序)对应的项目即图标的删除变得容易的方法的流程图以及流程图内的步骤所对应的腕式终端装置1的显示部10中所显示的应用。如图7(a)所示,遵照步骤S200,在腕式终端装置1的显示部10上显示有4个应用的图标(A)、(B)、(C)、(D)。
在该状态下,控制部3判断是否执行了对触摸面板11的触摸(步骤S201)。若在步骤S201中,在侧部如图7(c)所示对图标(C)进行了触摸(步骤S201;“是”),则前进至步骤S202,判断腕式终端装置1向哪一个方向进行了移动。若在任何方向上均未移动(步骤S202;“否”),则返回至原始的应用显示步骤S200(图7(b))。
若判断步骤S202中的判断结果为“是”,则前进至步骤S203,在此判断腕式终端装置1主体的移动是否为给定的大小,例如给定的加速度或给定的距离以上。该倾斜检测或者移动检测的原理与第1实施方式同样。若为给定的大小以上(步骤S203;“是”),则从显示部10中删除所触摸的图标(C),将图标(D)移动至删除的场所。另外,在由此空出的空间中追加新的图标(E)(步骤S204)。由此,如图7(d)所示,在显示部10中显示图标(A)(B)(D)(E)。另外,若腕式终端装置1主体的移动并非给定的大小(步骤S203;“否”),则返回至步骤S200,由此维持原始的应用显示。
在所述方法中,对应于腕式终端装置1的移动而删除了所触摸的图标(C),但也可以与此不同,留下所触摸的图标(C),删除对应于腕式终端装置1的移动未被触摸的图标(A)、(B)、(D)。在此情况下,所删除的图标可以在降至显示部10的下方的同时被消去。
以上参照腕式终端装置来说明了本发明,但本发明并非仅使用于腕式终端装置,当然还能使用于具备显示部、触摸传感器面板、对装置主体的移动进行检测的单元的各种终端装置,例如智能手机、个人数码助手(PDA)、平板终端、电子词典、数字书、数码摄像机、游戏机等。
另外,所述腕式终端装置1被单独进行了使用,但还能作为可与其他的器件例如智能手机进行数据通信的成对的终端装置中的一者来使用。在这样的终端装置中,存在与Wi-Fi的连接启用/禁用模式、飞行模式的启用/禁用、壁纸或待机画面的选择等众多功能。通过在触摸给定的图标的同时使腕式终端装置1的主体倾斜,从而能使其切换与Wi-Fi的连接启用/禁用模式、飞行模式的启用/禁用。另外,在壁纸或待机画面、照片或文件夹的检索中,也能通过在触摸文件夹的图标的同时使腕式终端装置1倾斜,从而使多个照片按照拍摄顺序、名称顺序、拍摄地顺序等而依次显示。
另外,作为其他的实施方式将后述,但在眼镜型信息终端设备或头戴式终端装置等的佩戴式终端装置中,还能通过视线的移动来操作显示部内的特定图像区域的同时,或在操作后,使头部朝左右或前后倾斜,或通过摇晃由此来控制与特定的图像区域对应的图像的内容。在使用这些类型的佩戴式终端装置的情况下,为了进行终端装置的操作而不能自由使用穿戴者的两手的情况较多,所以如本发明这样,响应于与穿戴者的动作联动的终端装置的移动来控制显示图像特别有利。
<第2实施方式>
上述第1实施方式将本发明应用于腕式终端装置,但是接下来说明将本发明应用于眼镜型信息设备的实施方式。
<构成>
图2A是表示本实施方式的眼镜型信息设备100的概略构成的外观图。若大体划分,由主体部100A、镜腿(眼镜腿)部100B、挂耳部100C构成。在主体部100A配置有:摄像机部116、传感器部122、GPS124、GPS天线125、投影部134、屏幕136以及麦克风部138。在镜腿部100B配置有由触摸板构成的操作部142。能用手指来进行笔记本电脑的触摸板或智能手机的触摸面板那样的操作。在挂耳部100C配置有I/O部148,内置有图3A中未图示的CPU110、时钟部126、存储器部140和控制部150。
图8是表示眼镜型信息设备100的内部电路的整体构成的框图。附图标记110是CPU,通过在使用工作存储器114的同时执行程序存储器112中所存储的程序,由此来控制整体。程序存储器112存储OS或各种应用程序。附图标记116是包含CCD或CMOS等摄像元件的摄像部,被摄像控制部118控制,且该摄像部116摄像到的静止图像或运动图像的图像被存储在图像存储器120中。附图标记122是传感器部,具备3轴加速度传感器、振动传感器、温度传感器等各种传感器,以眼镜型信息设备100的摇晃或移动为主来探测各种状态。附图标记124是包含GPS天线125的GPS(Global Positioning System;全球定位系统),检测位置信息。附图标记126是时钟部,计测日期或时分秒。附图标记128是对这些传感器部122、GPS124、时钟部126进行控制,并收集各种信息的传感器控制部,收集到的各种信息被存储在传感器存储器130中。
附图标记132是显示控制部,通过投影部134使由CPU110创建的显示数据投影至屏幕136。屏幕136配置于眼睛的近前。屏幕136中映在眼睛之前的影像虽小,但如图2B中示出概念图那样,能作为虚拟屏幕200而看得较大。
附图标记138是用于输入声音的麦克风部,附图标记139是麦克风控制部。能进行基于声音输入的指示。另外,附图标记142如图2A所示是由触摸板构成的操作部,该操作部142的操作信号被输入控制部144取入。附图标记146是通信控制部,能通过Wi-Fi或Bluetooth(注册商标)来实现与智能手机或因特网的无线连接。附图标记148是I/O部,被通信控制部146控制,且能实现与USB电缆或存储卡的有线连接。能经由该通信控制部146而与服务器或其他的信息设备进行各种数据交换,或进行应用程序的安装。
将程序存储器112、工作存储器114、图像存储器120、传感器存储器130统称为存储器部140。将摄像控制部118、传感器控制部128、显示控制部132、输入控制部144、麦克风控制部139、通信控制部146统称为控制部150。
附图标记160是探测用户的视线的视线探测部。对用户正在看虚拟屏幕200的哪个位置进行检测。即,为了判断用户正在看哪儿,以红外线摄像机来拍摄眼睛,检测眼睛的活动。关于眼睛的活动,检测眼睛不动的部分(基准点)和动的部分(动点),基于动点相对于基准点的位置来检测视线。检测视线的技术本身是公知的,因此不详述。
<动作>
在此,若用户穿戴眼镜型信息设备100来使身体移动,则以传感器部122和传感器控制部128来检测移动。若图标(B)是步数图标,则在用户观察图标(B)的同时进行行走之际检测步数,如图9A所例示,对表示步数的步数项目I201进行显示。此外,若凝视图标(B)5秒钟,则转移至图9A的显示模式。在图9A中持续观察图标(B)的期间,持续步数项目I201的显示,若转移视线,则返回至主页画面显示。
另外,若图标(C)是速度图标,则在用户观察图标(C)的同时进行慢跑之际检测时速,如图9B所例示,对表示时速的时速项目I202进行显示。此外,若凝视图标(B)5秒钟,则转移至图9B的显示模式。在图9B中持续观察图标(C)的期间,持续时速项目I202的显示,若转移视线,则返回至主页画面显示。
除此以外,若图标(D)是音乐图标,则在持续观察图标(D)时检测视线,如图9C所例示成为音乐再现模式,在纵向上表示曲名的曲名项目I203显示为曲名1、曲名2、曲名3、……曲名N,通过使头部上下移动,来检测该移动,能使所选择的曲名项目I203上下滚动来选择。
另外,在画面左方向表示音量小、且画面右方向表示音量大的情况下,通过显示音量项目I204,从而若头部向左摇晃,则检测该移动而降低音量,若头部向右摇晃则检测该移动而提高音量。也可以不是音量,而是歌曲的前进、倒带。
这些只是例子,但如此能对应于基于视线的图标的指定和传感器的检测结果来使模式或项目的显示发生变化。因此,用户能在进行慢跑等运动的同时获得身体的移动等信息,或者进行模式的变更。
<第3实施方式>
<构成>
图10是表示图3A、图3B所示的第3实施方式中的摄像机系统300中的摄像部301和监视器部302的内部构成的概略的框图。
在摄像部301中,附图标记311是包含透镜、CCD或CMOS等摄像元件、电子快门、定时控制电路、变焦机构、手抖补偿机构等在内的摄像器件。附图标记312是对由摄像器件311摄像到的静止图像、连拍图像、运动图像等进行存储的存储部。还作为工作存储器而被使用。附图标记313是通过无线与监视器部302取得协作的通信控制部。所采用的通信技术不限于Bluetooth(注册商标),还可以是Wi-Fi(注册商标)或红外线等。另外,还能暂且中继智能手机等来与因特网进行连接。附图标记310是包含对摄像部301整体进行控制的CPU和程序在内的控制部。附图标记314是包含后述的各种传感器在内的传感器部。
在监视器部302中,附图标记321是通过无线与摄像部1取得协作的通信控制部。附图标记322是对由摄像部301摄像且经由通信控制部313、321而送来的静止图像、连拍图像、运动图像等进行存储的存储部。还作为工作存储器而被使用。附图标记323是对从摄像部301送来的图像、存储部322中所存储的图像、其他菜单等进行显示的显示部。可以与触摸面板一体形成。附图标记324是进行各种操作输入的操作部。还能在所述触摸面板进行兼用。附图标记320是包含对监视器部302整体进行控制的CPU和程序在内的控制部。附图标记325是包含后述的各种传感器在内的传感器部。
在此,针对传感器部314、传感器部325进行说明。该摄像机系统300搭载有多个传感器,对应于传感器的感测结果而由摄像部301执行自动拍摄。传感器部314、传感器部325中所含的传感器既可以相同也可以不同,可以处于任一者。其中,使监视器部302的显示、以及位于远离之处的摄像部301的移动进行联动是本实施方式的目的,因此传感器部314在本实施方式中是必须的。
传感器部325或314中所含的传感器特别用于测量监视器部302被放置的状况,包含:速度传感器、加速度传感器、陀螺仪传感器(角速度传感器)、高度传感器、GPS(位置检测)、时钟(时间检测)、步数传感器(步数检测)、麦克风(声音检测)、气压传感器以及温度传感器。当然不限于这些。
根据这些传感器的感测结果来识别摄像部301的快门定时,该识别单元既可以由监视器部302的控制部320来承担,也可以由摄像部301的控制部310来承担。即,在监视器部302的控制部320承担的情况下,在监视器部302内控制部320识别快门定时,并将是快门定时这一情况作为控制信号发往摄像部301。另外,在摄像部301的控制部310承担的情况下,将感测信号作为控制信号从监视器部302送来,在摄像部301内控制部310识别快门定时来执行摄像处理。
<动作>
在这样的摄像机系统300中,说明在对控制器部302的显示部323中所显示的图标进行触摸的同时,对应于摄像部301的传感器部314的感测结果来进行模式的变更或显示的变更的例子。
图11A例示了显示部323的图标(E)是指定快门速度的图标的情况,若维持图标(E)的触摸,则摄像部301内的传感器部314检测移动,对应于感测结果来使拍摄模式和显示部323的显示发生变化。
若在图3B的显示状态时触摸图标(E),则如该图11A所示成为快门速度设定模式,使快门速度项目I211显示至1/30~1/5000。在该图11A的显示状态下维持图标(E)的触摸时,摄像部301的传感器部314检测移动,移动越快则所选择的快门速度项目I211越向附图下方移动,移动越慢则越向附图上方移动。因此,若在某定时拍摄静止图像或连拍图像,则在该定时以选择出的快门速度进行拍摄,从而能在摄像部301快速移动时以更快的快门速度进行拍摄,在移动慢时以更慢的快门速度进行拍摄。
图11B例示了显示部323的图标(F)为指定光圈的图标的情况,若维持图标(F)的触摸,则摄像部301内的传感器部314检测移动,对应于感测结果来使拍摄模式和显示部323的显示发生变化。
在图3B的显示状态时,若触摸图标(F),则如该图11B所示成为光圈设定模式,使光圈项目I212显示至F2.8~F16.0。在该图11B的显示状态下维持图标F的触摸时,摄像部301的传感器部314检测移动,移动越快则选择光圈的光圈项目I212越向附图下方移动,移动越慢则越向附图上方移动。因此,若在某定时拍摄静止图像或连拍图像,则在该定时以选择出的光圈来进行拍摄,从而能在摄像部301快速移动时以将光圈进一步缩小的状态进行拍摄,在移动慢时以将光圈进一步开放的状态进行拍摄。
图11C例示了显示部323的图标(G)是指定帧频的图标的情况,若维持图标(G)的触摸,则摄像部301内的传感器部314检测移动,对应于感测结果来使拍摄模式和显示部323的显示发生变化。
在图3B的显示状态时,若触摸图标(G)则如该图11C所示成为帧频设定模式,将帧频项目I213显示至1FPS~60FPS。在该图11C的显示状态下维持图标(G)的触摸时,摄像部301的传感器部314检测移动,移动越快则所选择的帧频项目I213越向附图下方移动,移动越慢则越向附图上方移动。因此,若在某定时拍摄连拍图像或运动图像,则在该定时以选择出的帧频进行拍摄,从而能够在摄像部301快速移动时以更高的帧频进行拍摄,在移动慢时以更低的帧频进行拍摄。
以上说明了本发明的实施方式,但本发明不限于这些,还包含权利要求书中记载的发明和其均等的范围。
符号说明
1    腕式终端装置
3    控制部
4    RAM
5    ROM
6    RTC
7    输入部
7a   操作开关
8    加速度计
9    显示驱动部
10   显示部
11   触摸面板
100  眼镜型信息设备
100A 主体部
100B 镜腿部
100C 挂耳部
110  CPU
112  程序存储器
114  工作存储器
116  摄像机部
120  图像存储器
122  传感器部
124  GPS部
126  时钟部
128  传感器控制部
130  传感器存储器
132  显示控制部
134  投影部
136  屏幕
138  操作部
138  麦克风部
139  麦克风控制部
140  存储器部
144  输入控制部
146  通信控制部
148  I/O部
150  控制部
160  视线探测部
200  虚拟屏幕
300  摄像机系统
301  摄像部
302  监视器部
311  摄像器件
313  通信控制部
314  传感器部
322  存储部
323  显示部
324  操作部
325  传感器部
I101 年项目
I102 月项目
I103 日项目
I104 星期项目
I105 小时项目
I106 分钟项目
IC1、IC2、IC3 图标
ICH1、ICH2、ICH3 主页按钮
I201 步数项目
I202 时速项目
I203 曲名项目
I204 音量项目
I211 快门速度项目
I212 光圈项目
I213 帧频项目

Claims (17)

1.一种电子装置,具备:
显示部,其显示对各自不同的动作进行指示的多个项目;和
检测部,其检测移动,
若指定所述项目,则该电子装置进行与该被指定的项目对应的动作,
所述电子装置的特征在于具备:控制部,其以指定所述多个项目当中的任一个且所述检测部检测到移动作为条件,来使该被指定的项目的显示或与该项目关联的显示发生变化,并以指定其他的项目且所述检测部检测到移动作为条件,来使该被指定的其他的项目的显示或与该其他的项目关联的显示发生变化。
2.根据权利要求1所述的电子装置,其特征在于,
所述控制部以指定所述多个项目当中的任一个且所述检测部检测到移动作为条件,来使该被指定的项目的显示或与该项目关联的显示对应于所述检测部的检测结果而发生变化,并以指定其他的项目且所述检测部检测到移动作为条件,来使该被指定的其他的项目的显示或与该其他的项目关联的显示对应于所述检测部的检测结果而发生变化。
3.根据权利要求1所述的电子装置,其特征在于,
检测针对所述项目的视线,来作为指定项目的条件。
4.根据权利要求1所述的电子装置,其特征在于,
检测针对所述项目的持续指定,来作为指定项目的条件。
5.根据权利要求1所述的电子装置,其特征在于,
检测针对所述项目的多次指定,来作为指定项目的条件。
6.根据权利要求1所述的电子装置,其特征在于,
所述检测部检测倾斜角度或倾斜方向或倾斜速度的至少一者。
7.一种电子装置,其特征在于,具备:
显示部,其显示对各自不同的动作进行指示的多个项目;和
检测部,其检测视线的移动,
以指定所述项目且所述检测部检测到视线的移动作为条件,来使该被指定的项目的显示或与该其他的项目关联的显示发生变化。
8.一种电子装置,其特征在于,具备:
显示部,其具备对触摸进行检测的第1检测单元,且该显示部显示多个项目;
第2检测单元,其对设有所述显示部的装置主体的状态变化进行检测;和
控制单元,其以由两所述检测单元检测到对任一个项目的触摸、且检测到所述装置主体的状态变化作为条件,来使检测到该触摸的项目发生显示变化。
9.根据权利要求8所述的电子装置,其特征在于,
所述项目是构成日历显示的要素,包含月日、时刻,所述控制单元在检测到对月日的项目的触摸、且检测到所述装置主体的倾斜时,进行月日的显示修正,在检测到对时刻的项目的触摸、且检测到装置主体的倾斜时,进行时刻的显示修正。
10.一种系统,具备:
显示部,其显示对各自不同的动作进行指示的多个项目;和
检测部,其检测移动,
若指定所述项目,则该系统进行与该被指定的项目对应的动作,
所述系统的特征在于具备:控制部,其以指定所述多个项目当中的任一个且所述检测部检测到移动作为条件,来使与该被指定的项目对应的动作发生变化,并以指定其他的项目且所述检测部检测到移动作为条件,来使与该被指定的其他的项目对应的动作发生变化。
11.根据权利要求10所述的系统,其特征在于,
所述控制部以指定所述项目当中的任一个且所述检测部检测到移动作为条件,转移至与该被指定的项目关联的模式,并以指定其他的项目且所述检测部检测到移动作为条件,转移至与该被指定的其他的项目关联的模式。
12.根据权利要求10所述的系统,其特征在于,
所述系统包含:第1筐体、以及与该第1筐体物理式分离且以无线方式进行连接的第2筐体,
所述显示部被收纳于所述第1筐体,
所述检测部被收纳于所述第2筐体。
13.根据权利要求12所述的系统,其特征在于,
所述第2筐体还具备摄像部,
所述控制部以指定所述项目且所述检测部检测到移动作为条件,转移至与该被指定的项目关联的拍摄模式。
14.根据权利要求13所述的系统,其特征在于,
所述多个项目当中的一个项目是指定快门速度或光圈的项目,
所述检测部检测移动的速度,
所述控制部在指定所述快门速度或光圈的项目被指定、且所述检测部检测到移动时,使所述显示部显示指定快门速度或光圈的选择信息,
所述控制部在指定所述快门速度或光圈的项目被指定、且所述检测部检测到移动时,所述检测到的移动的速度越是更快,则从指定所述快门速度或光圈的选择信息之中越是示出更快的快门速度或更窄的光圈的选择信息。
15.根据权利要求13所述的系统,其特征在于,
所述多个项目当中的一个项目是指定帧频的项目,
所述检测部检测移动的速度,
所述控制部在指定所述帧频的项目被指定、且所述检测部检测到移动时,使所述显示部显示指定帧频的选择信息,
所述控制部在指定所述帧频的项目被指定、且所述检测部检测到移动时,所述检测到的移动的速度越是更快,则从指定所述帧频的选择信息之中越是示出更快的帧频的选择信息。
16.一种方法,是电子装置所执行的方法,所述电子装置具备:显示部,其显示对各自不同的动作进行指示的多个项目;和检测部,其检测移动,若指定所述项目,则该电子装置进行与该被指定的项目对应的动作,
其中,所述方法包括:
以指定所述多个项目当中的任一个且所述检测部检测到移动作为条件,来使该被指定的项目的显示或与该项目关联的显示发生变化的步骤;和
以指定其他的项目且所述检测部检测到移动作为条件,来使该被指定的其他的项目的显示或与该其他的项目关联的显示发生变化的步骤。
17.一种方法,是电子装置所执行的方法,所述电子装置具备:显示部,其显示对各自不同的动作进行指示的多个项目;和检测部,其检测移动,若指定所述项目,则该电子装置进行与该被指定的项目对应的动作,
其中,所述方法包括:
以指定所述多个项目当中的任一个且所述检测部检测到移动作为条件,转移至与该被指定的项目关联的模式的步骤;和
以指定其他的项目且所述检测部检测到移动作为条件,转移至与该被指定的其他的项目关联的模式的步骤。
CN201510018396.7A 2014-01-17 2015-01-14 电子装置以及系统、方法 Pending CN104793857A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014006719 2014-01-17
JP2014-006719 2014-01-17
JP2014227687A JP6024725B2 (ja) 2014-01-17 2014-11-10 システム
JP2014-227687 2014-11-10

Publications (1)

Publication Number Publication Date
CN104793857A true CN104793857A (zh) 2015-07-22

Family

ID=53544748

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510018396.7A Pending CN104793857A (zh) 2014-01-17 2015-01-14 电子装置以及系统、方法

Country Status (3)

Country Link
US (1) US9678568B2 (zh)
JP (1) JP6024725B2 (zh)
CN (1) CN104793857A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106405840A (zh) * 2016-10-31 2017-02-15 沈阳工业大学 具有导航功能的头盔式增强现实眼镜

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170081401A (ko) * 2016-01-04 2017-07-12 삼성전자주식회사 전자 장치 및 그의 동작 방법
JP2018004713A (ja) * 2016-06-27 2018-01-11 孝郎 林 撮影機能付リスト装置
US10834357B2 (en) * 2018-03-05 2020-11-10 Hindsight Technologies, Llc Continuous video capture glasses
JP7183599B2 (ja) * 2018-07-13 2022-12-06 カシオ計算機株式会社 電子機器、電子機器の制御方法、及びプログラム
US12001627B2 (en) * 2021-05-20 2024-06-04 Zebra Technologies Corporation Simulated input mechanisms for small form factor devices

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101640712A (zh) * 2008-07-29 2010-02-03 Lg电子株式会社 移动终端及其操作控制方法
CN102402328A (zh) * 2010-09-07 2012-04-04 索尼公司 信息处理装置、程序以及控制方法
CN103092470A (zh) * 2011-07-21 2013-05-08 索尼公司 信息处理设备,信息处理方法和程序
WO2013099081A1 (ja) * 2011-12-26 2013-07-04 ソニー株式会社 ヘッドマウントディスプレイ及び情報表示装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749744A (ja) * 1993-08-04 1995-02-21 Pioneer Electron Corp 頭部搭載型表示入力装置
JP2001350578A (ja) * 2000-06-06 2001-12-21 Sensor:Kk 視線による入力制御装置及び方法並びに視線により入力させる制御プログラムを記録した記録媒体
JP3890880B2 (ja) 2000-11-10 2007-03-07 株式会社日立製作所 情報検索端末
US20030038779A1 (en) * 2001-08-22 2003-02-27 Baron John M. Acceleration-responsive navigation among mode variables
JP2003114752A (ja) * 2001-10-05 2003-04-18 Toshiba Corp 携帯情報端末装置及びその制御方法
JP2004015367A (ja) * 2002-06-06 2004-01-15 Nikon Corp 電子カメラ
JP4379918B2 (ja) * 2004-11-29 2009-12-09 富士フイルム株式会社 撮影装置及び撮影方法
JP2007122607A (ja) * 2005-10-31 2007-05-17 Fujifilm Corp センサ入力機能付き装置
JP4910878B2 (ja) * 2007-05-17 2012-04-04 株式会社ニコン カメラ
JP4884417B2 (ja) * 2008-04-01 2012-02-29 富士フイルム株式会社 携帯型電子装置及びその制御方法
KR101737829B1 (ko) * 2008-11-10 2017-05-22 삼성전자주식회사 휴대 단말기의 모션 입력 장치 및 그의 운용 방법
JP2010181556A (ja) 2009-02-04 2010-08-19 Fujifilm Corp 画像表示装置及び方法
JP5369947B2 (ja) * 2009-07-09 2013-12-18 ソニー株式会社 撮像装置、画像処理方法及びプログラム
US8264471B2 (en) * 2009-09-22 2012-09-11 Sony Mobile Communications Ab Miniature character input mechanism
JP2011139353A (ja) * 2009-12-28 2011-07-14 Nikon Corp 撮像装置
JP5306266B2 (ja) * 2010-03-15 2013-10-02 キヤノン株式会社 撮像装置及びその制御方法
JP5081952B2 (ja) * 2010-06-16 2012-11-28 株式会社コナミデジタルエンタテインメント 項目選択装置、項目選択方法、ならびに、プログラム
JP5651386B2 (ja) * 2010-06-23 2015-01-14 ソフトバンクモバイル株式会社 眼鏡型表示装置
US9201520B2 (en) * 2011-02-11 2015-12-01 Microsoft Technology Licensing, Llc Motion and context sharing for pen-based computing inputs
JP5684621B2 (ja) * 2011-03-28 2015-03-18 京セラ株式会社 電子機器、表示制御方法及び表示制御プログラム
JP5497708B2 (ja) * 2011-08-31 2014-05-21 楽天株式会社 携帯型電子機器、携帯型電子機器の制御方法、プログラム、及び情報記憶媒体
US9880640B2 (en) * 2011-10-06 2018-01-30 Amazon Technologies, Inc. Multi-dimensional interface
JP5762935B2 (ja) * 2011-11-28 2015-08-12 京セラ株式会社 装置、方法、及びプログラム
WO2013084780A1 (ja) * 2011-12-06 2013-06-13 株式会社ニコン 撮像装置
JP5882731B2 (ja) * 2011-12-28 2016-03-09 キヤノン株式会社 入力表示装置、その制御方法、プログラム、及び印刷装置
JP2013200614A (ja) * 2012-03-23 2013-10-03 Ntt Docomo Inc 情報処理装置及び文字入力方法
JP2013206614A (ja) 2012-03-27 2013-10-07 Panasonic Corp ファン付き照明器具
WO2014092437A1 (en) * 2012-12-10 2014-06-19 Samsung Electronics Co., Ltd. Mobile device of bangle type, control method thereof, and ui display method
JP5737277B2 (ja) * 2012-12-13 2015-06-17 カシオ計算機株式会社 情報表示装置及びプログラム
JP5921427B2 (ja) * 2012-12-27 2016-05-24 キヤノン株式会社 撮像制御装置及びその制御方法
KR20150000632A (ko) * 2013-06-25 2015-01-05 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
US9448755B2 (en) * 2013-12-28 2016-09-20 Intel Corporation Wearable electronic device having heterogeneous display screens

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101640712A (zh) * 2008-07-29 2010-02-03 Lg电子株式会社 移动终端及其操作控制方法
CN102402328A (zh) * 2010-09-07 2012-04-04 索尼公司 信息处理装置、程序以及控制方法
CN103092470A (zh) * 2011-07-21 2013-05-08 索尼公司 信息处理设备,信息处理方法和程序
WO2013099081A1 (ja) * 2011-12-26 2013-07-04 ソニー株式会社 ヘッドマウントディスプレイ及び情報表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106405840A (zh) * 2016-10-31 2017-02-15 沈阳工业大学 具有导航功能的头盔式增强现实眼镜

Also Published As

Publication number Publication date
JP2015156201A (ja) 2015-08-27
US20150205365A1 (en) 2015-07-23
US9678568B2 (en) 2017-06-13
JP6024725B2 (ja) 2016-11-16

Similar Documents

Publication Publication Date Title
CN104793857A (zh) 电子装置以及系统、方法
US10330940B1 (en) Content display methods
WO2019153824A1 (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
JP5745241B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
CN110221734B (zh) 信息显示方法、图形用户接口及终端
US20150035781A1 (en) Electronic device
US9262867B2 (en) Mobile terminal and method of operation
CN107533373A (zh) 虚拟现实中经由手与对象的场境敏感碰撞的输入
CN107636594A (zh) 用于处理触摸输入的设备和方法
CN106415426A (zh) 用于基于倾斜致动的方法和系统
CN105829948B (zh) 可佩戴显示输入系统
KR20150049942A (ko) 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
CN102467236A (zh) 指示受理装置和指示受理方法
CN110069178A (zh) 界面控制方法及终端设备
CN109917995A (zh) 一种对象处理方法及终端设备
US20140132725A1 (en) Electronic device and method for determining depth of 3d object image in a 3d environment image
CN109521933A (zh) 一种显示控制方法及移动终端
CN111064848B (zh) 图片显示方法及电子设备
CN113918258B (zh) 页面滚动处理方法、装置、终端以及存储介质
CN108696642B (zh) 整理图标的方法和移动终端
CN109933267A (zh) 控制终端设备的方法及终端设备
CN110841288B (zh) 提示标识的消除方法、装置、终端及存储介质
JP2017217339A (ja) ゲームプログラム、情報処理装置、情報処理システム、ゲーム処理方法
CN115695908A (zh) 视频播放方法、装置、电子设备及存储介质
CN111813280B (zh) 显示界面的控制方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20150722