CN104423798A - 腕带式信息处理装置和存储介质 - Google Patents
腕带式信息处理装置和存储介质 Download PDFInfo
- Publication number
- CN104423798A CN104423798A CN201410403165.3A CN201410403165A CN104423798A CN 104423798 A CN104423798 A CN 104423798A CN 201410403165 A CN201410403165 A CN 201410403165A CN 104423798 A CN104423798 A CN 104423798A
- Authority
- CN
- China
- Prior art keywords
- image
- unit
- wrist belt
- control module
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1639—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
- G09G5/006—Details of the interface to the display terminal
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/068—Adjustment of display parameters for control of viewing angle adjustment
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72412—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/54—Details of telephonic subscriber devices including functional features of a projector or beamer module assembly
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Projection Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
提供了一种腕带式信息处理装置和存储介质,该腕带式信息处理装置包括:带单元,该带单元被配置成佩戴在用户的手腕上;投影单元,该投影单元被配置成将图像投影在佩戴带单元的手上;以及控制单元,该控制单元被配置成以以下方式来控制该投影单元:将存储在存储单元中的图像和从外部装置输入的图像中的至少一个图像投影在手上。
Description
相关申请的交叉应用
本申请要求于2013年8月23日提交的日本优先权专利申请JP2013-173229的权益,其全部内容通过引用合并至本文中。
技术领域
本公开内容涉及腕带式信息处理装置和存储介质。
背景技术
近年来,随着移动终端变得越来越普遍并且具有更高的性能,已经开发了用于提高移动终端的可用性的技术。
例如,US 2011-0133934A公开了如下一种技术:该技术通过在上臂部分放置投影仪来将图像投影到用户的前臂部分,并且该技术还向图像所投影到的身体的各个部分分配各个键,使得可以通过在那些部分上的触摸或轻拂操作来操作相关联的设备。
发明内容
然而,对于US 2011-0133934A中公开的技术,用户需要花费时间将设备卷绕在上臂部分,而且期望进一步提高可用性。
因此,本公开内容提出一种可以提高移动终端的可用性的、新颖的且改进的腕带式信息处理装置和存储介质。
根据本公开内容的实施方式,提供了一种腕带式信息处理装置,该腕带式信息处理装置包括:带单元,该带单元被配置成佩戴在用户的手腕上;投影单元,该投影单元被配置成将图像投影在佩戴带单元的手上;以及控制单元,该控制单元被配置成以以下方式来控制该投影单元:将存储在存储单元中的图像和从外部装置输入的图像中的至少一个图像投影在手上。
根据本公开内容的另一实施方式,提供了一种其中存储有程序的非暂态计算机可读存储介质,该程序用于使计算机用作为:投影单元,该投影单元被配置成将图像投影在佩戴带单元的手上;以及控制单元,该控制单元被配置成以以下方式来控制该投影单元:将存储在存储单元中的图像和从外部装置输入的图像中的至少一个图像投影在手上。
如上所述,根据本公开内容的实施方式中的一个或更多个实施方式,可以提高移动终端的可用性。应指出的是,上述效果不是限制性的,并且除了上述效果或者代替于上述效果,可以产生在本说明书中所描述的任何效果以及可从本说明书获得的其他效果。
附图说明
图1是示出根据本公开内容实施方式的投影系统的概观的说明图;
图2是示出根据本公开内容实施方式的投影系统的配置的框图;
图3是示出根据本公开内容实施方式的投影系统的操作的顺序图;
图4A至图4C是示出根据第一实施方式的投影处理的说明图;
图5A至图5C是示出根据第二实施方式的投影处理的说明图;
图6A和图6B是示出根据第三实施方式的投影处理的说明图;
图7A和图7B是示出根据第四实施方式的投影处理的说明图;
图8A至图8C是示出根据第五实施方式的投影处理的说明图;
图9A至图9C是示出根据第六实施方式的投影处理的说明图;
图10A和图10B是示出根据第七实施方式的投影处理的说明图;
图11是示出根据第七实施方式的投影处理的说明图;
图12A和图12B是示出根据第八实施方式的投影处理的说明图;
图13A和图13B是示出根据第九实施方式的投影处理的说明图;以及
图14是示出根据第十实施方式的腕带式终端的配置的框图。
具体实施方式
在下文中,将参照附图来描述本公开内容的优选实施方式。应指出的是,在本说明书和附图中,具有基本上相同功能的结构元件用相同附图标记来表示,并且省略了对这些结构元件的重复说明。
应指出的是,将按照以下顺序进行描述。
1.根据本公开内容实施方式的投影系统的概述
2.实施方式
2-1.共同形式
2-1-1.配置
2-1-2.操作处理
2-2.第一实施方式
2-3.第二实施方式
2-4.第三实施方式
2-5.第四实施方式
2-6.第五实施方式
2-7.第六实施方式
2-8.第七实施方式
2-9.第八实施方式
2-10.第九实施方式
2-11.第十实施方式
3.结论
<1.根据本公开内容实施方式的投影系统的概述>
首先,将参照图1来描述根据本公开内容实施方式的投影系统的概述。
图1是示出根据本公开内容实施方式的投影系统的概观的说明图。如图1所示,根据本公开内容实施方式的投影系统包括腕带式终端1(腕带式信息处理装置)和智能电话2(外部装置)。
如图1所示,通过使用带单元6将腕带式终端1佩戴在用户的手腕上。带单元6以类似于由皮革、金属、纤维或橡胶等制成的手表带的方式形成。应指出的是,在腕带式终端1中,除了带单元6之外的部分,即设置有投影仪3和显示单元4等的部分,也被称为主体。
腕带式终端1通过无线通信连接至智能电话2,并且将从口袋中的智能电话2接收到的图像显示在显示单元4上。此外,腕带式终端1通过使用投影仪3(投影单元)将从智能电话2接收到的图像投影在佩戴带单元6的手上。在图1所示的示例中,腕带式终端1将通过使用智能电话2中的全球定位系统(GPS)功能生成的地图图像投影为投影图像5。
腕带式终端1的大小局限于普通手表的大小程度,例如,以便于携带。因此,在显示单元4的物理大小方面存在限制,例如,如图1所示,用户难以看见显示在显示单元4上的地图。因此,根据该实施方式的腕带式终端1例如通过投影仪3在手上投影与智能电话2上的图像具有基本上相同英寸大小的放大图像,从而提高了图像的可视性。这使得用户能够容易地通过使用与智能电话2上的图像具有基本上相同大小的投影图像5来查看用户在地图上的位置或者寻找目的地。
此外,用户不需要拿出智能电话2,并且可以将智能电话2留在口袋或包中来查看图像,例如地图。因此,腕带式终端1可以省去用户从口袋或包里拿出智能电话2的麻烦。
此处,利用US 2011-0133934A中公开的技术,用户需要花费时间将设备卷绕在上臂部分上。此外,在US 2011-0133934A中公开的技术中,由于假设将图像投影在皮肤上,因此期望用户在穿着不遮盖手臂的衣服时使用该设备。也就是说,很遗憾,用户在使用US 2011-0133934A中公开的技术时存在不便。
因此,针对这种情况,做出根据本公开内容实施方式的腕带式信息处理装置。根据本公开内容实施方式的腕带式信息处理装置可以提高移动终端的可用性。
更具体地,因为腕带式终端1佩戴在用户的手腕上,所以用户不需要将装置卷绕在上臂部分,或者甚至可以在穿着遮盖手臂的衣服(例如长袖衣服)时使用该装置。此外,因为用户习惯于在手腕上佩戴某物,例如手表,腕带或手镯,所以用户可以使用腕带式终端1而没有任何不自然的感觉。
此外,如图1所示,腕带式终端1大约为手表大小。一般来讲,因为手表比智能电话轻,所以与将智能电话2实际拿在手上相比,用户可以以更小的力来操作腕带式终端1,并且手较不劳累。
此外,通过以将投影仪3放置在手腕的内表面的方式佩戴腕带式终端1,如图1所示,用户可以通过将手掌用作投影平面来使投影图像5被投影。在此情况下,可以对用户周围的人或物隐藏投影图像5,这增加了私密性。此外,在将图像投影在手掌上的情况下,用户将手掌朝向自己以便查看图像。在用户通过握持智能电话2来操作智能电话2的情况下,通常手掌朝向用户。因此,腕带式终端1的可操作性类似于智能电话2的可操作性。因此,用户可以使用腕带式终端1而没有不自然的感觉。
此外,由投影仪3投影的图像是示出了智能电话2的图形用户界面(GUI)的图像,用户可以向腕带式终端1输入在投影图像上的操作。也就是说,腕带式终端1用作为智能电话2的输出装置和输入装置。因此,用户可以操作智能电话2而无需从口袋或包里拿出智能电话2。因此,可以进一步提高智能电话2的可用性。
以上描述了根据本公开内容实施方式的投影系统的概述。接下来,将详细描述根据本公开内容实施方式的投影系统。
<2.实施方式>
[2.1共同形式]
首先,将参照图2和图3来描述对本发明实施方式来讲共同的投影系统的配置和操作处理。
[2-1-1.配置]
图2是示出根据本公开内容实施方式的投影系统的配置的框图。如图2所示,腕带式终端1包括投影仪3、显示单元4、控制单元11、通信单元12、成像单元13、操作单元14以及传感器单元15,并且腕带式终端1与智能电话2相关联地操作。
(智能电话2)
智能电话2是独立于腕带式终端1或与腕带式终端1相关联地操作的信息处理装置。在与腕带式终端1相关联的操作的情况下,智能电话2使腕带式终端1用作为输出装置和输入装置。也就是说,智能电话2具有发送待投影或待显示的图像并接收指示用户操作的信息的功能。更具体地,智能电话2向腕带式终端1发送包括GUI的图像,并且接收响应于GUI的用户的操作。然后,智能电话2根据所接收到的用户操作来执行处理,并向腕带式终端1发送用于表示根据处理而更新的GUI的图像。
应指出的是,尽管在图1所示的示例中使用智能电话2作为外部装置的示例,但根据该实施方式的外部装置不限于此。例如,外部装置可以是数字相机、数字摄像机、个人数字助理(PDA)、个人计算机(PC)、膝上型PC、平板终端、移动电话终端、移动音乐重放装置、移动图像处理装置或移动游戏机等。
投影仪3在控制单元11的控制下将图像(静止图像或运动图像)投影在投影平面上。在该实施方式中,投影仪3在控制单元11的控制下将图像投影在佩戴着带单元6的手(手背或手掌)上。投影仪3例如由使用激光的微型投影仪来实现。在此情况下,由于基本上不必须执行校准,例如调焦,所以不管由于手表面的不平和手腕的角度等造成的投影仪3与投影平面之间的位置关系如何,投影仪3都可以对图像进行投影。
(显示单元4)
显示单元4在控制单元11的控制下显示图像(静止图像或运动图像)。显示单元4通过液晶显示器(LCD)或有机发光二极管(OLED)来实现。在该实施方式中,显示单元4被实现为与稍后将描述的操作单元14一体形成的触摸屏。
(通信单元12)
通信单元12与外部装置交换数据。通信单元12通过使用诸如无线通信、蓝牙(注册商标)、无线高清(WiHD)、无线局域网(WLAN)、无线保真(Wi-Fi,注册商标)、近场通信或红外通信等的方案与智能电话2进行通信。可替选地,通信单元12可以通过使用3G/LTE(长期演进)的电波或毫波区与智能电话2进行通信。
在该实施方式中,通信单元12用作为从预先与腕带式终端1相关联的智能电话2接收由投影仪3投影的图像或由显示单元4显示的图像的接收单元。更具体地,通信单元12接收指示智能电话2的GUI的图像,作为由投影仪3投影的图像或由显示单元4显示的图像。应指出的是,取决于用户的操作或外部输入等可以改变与腕带式终端1相关联的智能电话2。通信单元12将所接收到的图像输出到控制单元11。
此外,从控制单元11向通信单元12提供表示由稍后将描述的操作单元14或传感器15所获取的用户操作的信息,并且通信单元12将该信息发送给智能电话2。因此,用户可以经由腕带式终端1操作智能电话2。
(成像单元13)
成像单元13包括:包含成像透镜、光圈(stop)、变焦透镜和聚焦透镜等的透镜系统;引起透镜系统的聚焦操作或变焦操作的驱动系统;以及通过对由透镜系统获得的成像光进行光电转换来生成成像信号的固态图像传感器阵列等。固态图像传感器阵列可以由电荷耦合器件(CCD)传感器阵列或互补金属氧化物半导体(CMOS)传感器阵列来实现。成像单元13将转换成数字信号的成像图像的数据输出到控制单元11。
(操作单元14)
操作单元14具有接收来自用户的输入(用户的操作)的功能。例如,操作单元14由按钮、触摸传感器或轨迹球(trackball)等来实现。在该实施方式中,操作单元14可以由与显示单元4一体形成的触摸板来实现。操作单元14将表示所输入的用户操作的信息输出至控制单元11。
(传感器单元15)
传感器单元15具有获取用户的操作或状态的功能。例如,传感器单元15由对用户的面部、眼睛或佩戴着腕带式终端1的手进行成像的相机来实现。可替选地,传感器单元15由具有检测深度的功能的相机、麦克风、GPS、红外传感器、射线传感器、肌电传感器、神经传感器、脉搏传感器、温度计、陀螺仪、加速度传感器、触摸传感器等来实现。应注意的是,肌电传感器、神经传感器、脉搏传感器和温度计可以被实现为设置在带单元6上的手镯传感器。因为传感器15设置在主体或带单元6上,所以传感器15可以在接近手的位置处执行感测,并且因此,传感器15可以更准确地获得手的运动。传感器单元15将表示感测结果的信息输出至控制单元11。
(控制单元11)
控制单元11用作算术处理装置或控制装置,并且控制单元11根据各种程序来控制腕带式终端1中的一般操作。控制单元11由例如中央处理单元(CPU)或微处理器来实现。应注意的是,控制单元11可以包括存储要使用的程序、算法参数等的只读存储器(ROM),以及视情况暂时存储改变参数等的随机存取存储器(RAM)。
控制单元11以下述方式控制投影仪3:将从智能电话2输入的图像和存储在未示出的存储单元中的图像中的至少一个投影在手上。更具体地,控制单元11以将经由通信单元12从智能电话2输入的图像投影在佩戴着带单元6的手上的方式来控制投影仪3。此外,控制单元11可以以如下方式控制投影仪3:将从智能电话2接收到的成像图像、表示邮件文本的图像等暂时存储在未示出的存储单元中,然后对存储在该存储单元中的图像进行投影。应注意的是,在该实施方式中,控制单元11以投影经由通信单元12从智能电话2输入的图像的方式来控制投影仪3。
此外,根据由操作单元14接收到的用户的操作,控制单元11控制由投影仪3投影的图像。例如,根据由操作单元14接收到的滚动操作或放大/缩小操作,控制单元11对由投影仪3投影的图像进行滚动或放大/缩小。更具体地,控制单元11将表示由操作单元14接收到的用户操作的信息经由通信单元12发送至智能电话2。智能电话2将表示下述GUI的图像发送至腕带式终端1:作为根据所接收到的用户操作而执行的处理的结果,该GUI被更新。因此,腕带式终端1以与在智能电话2的触摸板上做出轻拂或触摸的情况下相同的方式来投影屏幕转变。
以相似的方式,控制单元11根据由操作单元14接收到的用户操作来控制显示在显示单元4上的图像。另外,控制单元11基于从成像单元13和传感器单元15输出的多条信息来控制投影仪3和显示单元4。
此外,如图2所示,控制单元11包括作为识别单元111和检测单元112的功能。识别单元111和检测单元112使腕带式终端1能够执行手势输入。
-识别单元111
识别单元111包括识别佩戴着带单元6的手的运动的功能。更具体地,识别单元11使用通过对佩戴着带单元6的手进行成像而获得的图像,该图像是从传感器单元15输出的,经由图像识别、运动识别等来识别手的运动。控制单元11基于由识别单元111的识别所获得的结果来执行诸如屏幕转变的处理。
-检测单元112
检测单元112包括检测投影仪3投影在手上的图像上的用户操作的功能。例如,检测单元112检测诸如在投影图像上的轻拂或触摸的操作。控制单元11将表示由检测单元112检测到的用户操作的信息发送至智能电话2,然后智能电话2根据用户的操作执行处理。因此,腕带式终端1以在智能电话2的触摸板上做出轻拂或触摸的情况下相同的方式来显示或投影屏幕转变。例如,当用户在垂直方向上轻拂投影图像时,投影图像被滚动。
以上描述了根据本实施方式的投影系统的配置。接下来,将参照图3来描述根据本实施方式的投影系统的操作。
[2-1-2.操作过程]
图3是示出根据本公开内容实施方式的投影系统的操作的顺序图。如图3所示,首先,在步骤S102中,确定智能电话2是否要与腕带式终端1相关联。例如,确定是将智能电话2设定成独立于腕带式终端1而操作,还是将智能电话2设定成与腕带式终端1相关联地操作。
在智能电话2被确定为与腕带式终端1相关联的情况下(S102/是),在步骤S104中,智能电话2向腕带式终端1发送图像信号。更具体地,智能电话2将要由腕带式终端1投影或显示的图像发送至腕带式终端1。应注意的是,在智能电话2被确定为与腕带式终端1不关联的情况下(S102/否),智能电话2独立地操作,而不与腕带式终端1相关联。
接下来,在步骤S106中,腕带式终端1将从智能电话2接收到的图像显示在显示单元4上。更具体地,控制单元11以显示单元4显示经由通信单元12从智能电话2接收到的图像的方式来控制显示单元4。
接下来,在步骤S108中,腕带式终端1确定是否将该图像投影在手上。更具体地,控制单元11确定是否在佩戴着带单元6的手上投影该图像。例如,控制单元11通过参照由用户预先设定的设定信息来确定是否投影该图像。
在确定要投影该图像的情况下(S108/是),在步骤S110中,腕带式终端1通过使用投影仪3将从智能电话2接收到的图像投影在手上。更具体地,控制单元11以将经由通信单元12从智能电话2接收到的图像投影在手上的方式来控制投影仪3。应指出的是,在确定不在手上投影该图像的情况下(S108/否),处理返回到步骤S106。
接下来,在步骤S112中,腕带式终端1确定投影是否结束。例如,在操作单元14接收到指示结束该投影的用户操作或者将投影执行了预定时间段的情况下,控制单元11确定结束投影。
在确定结束投影的情况下(S112/是),在步骤S114中,腕带式终端1通过投影仪3结束图像的投影。此后,处理返回到步骤S106,并且腕带式终端1通过使用显示单元4继续显示图像。另一方面,在确定不结束投影的情况下(S112/否),处理返回到步骤S110,并且继续由投影仪3投影图像。
以上描述了对于本公开内容的实施方式来讲共同的投影系统的配置和操作处理。接下来将参照图4A-4C至图14来详细描述本公开内容的实施方式。
[2-2.第一实施方式]
在该实施方式中,根据在腕带式终端1上的用户操作,由投影仪3将显示在显示单元4上的图像投影在手上。下面将参照图4A至图4C来详细描述该实施方式。
图4A和图4C是示出根据第一实施方式的投影处理的说明图。如图4所示,显示单元4显示示出了地图的图像。在该实施方式中,控制单元11根据由操作单元14接收到的用户操作,以将显示在显示单元4上的图像投影在手上的方式来控制投影仪3。例如,为了放大图像,如图4B所示,用户用手指拖动显示在显示单元4上的图像并将该图像放在手掌或手背上。此时,腕带式终端1通过使用与显示单元4一体形成作为触摸板的操作单元14来检测在显示单元4上的拖动操作,并且进一步利用包含在传感器单元15中的相机、红外传感器等来检测拖动操作或在手掌或手背上的放下操作。因此,如图4C所示,腕带式终端1通过投影仪3在手上投影出对显示在显示单元4上的图像进行放大的投影图像5-2。
应指出的是,如图4B所示,当用户手指在手掌或手背上拖动时,腕带式终端1可以在手指的位置上投影出表示拖动的投影图像5-1。此外,基于在触摸板上做出的简单轻拂操作,腕带式终端1可以在手上投影出放大的图像。
以此方式,根据本实施方式的腕带式终端1可以通过拖放来容易地投影放大的图像。此外,如图4C所示,用户可以通过在显示单元4(触摸板)上做出轻拂操作来滚动地图。另外,用户可以基于将触摸显示单元4的双指打开的操作来对地图进行放大,或者可以基于闭合该双指的操作来对地图进行缩小。
以上描述了第一实施方式。
[2-3.第二实施方式]
在本实施方式中,由投影仪3投影或由显示单元4显示不同的图像,并且对于各图像可以独立操作。下面将参照图5A至图5C来详细描述该实施方式。
图5A至图5C是示出根据第二实施方式的投影处理的说明图。如图5A所示,在显示单元4(触摸板)上显示有包括多个应用图标的腕带式终端1的基本屏幕(主屏幕)。在本实施方式中,控制单元11根据由操作单元14接收到的用户操作,以在手上投影与显示单元4上所显示的图像不同的图像的方式来控制投影仪3。例如,如图5所示,当用户触摸邮件图标41时,腕带式终端1通过使用投影仪3将邮件文本投影在手上,同时保持在显示单元4上显示主屏幕。因此,当阅读邮件文本时,用户可以在显示单元4所显示的主屏幕上查看新邮件的接收,或者在显示单元4上查看用户先前已经发送的邮件。
此处,如图5所示,根据本实施方式的腕带式终端1设置有按钮14-1和触摸传感器14-2。如图5C所示,用户可以通过操作触摸传感器14-2来滚动投影在手上的邮件文本。此外,用户可以例如通过直接触摸显示单元4来滚动显示单元4上的显示。以此方式,通过另外地提供触摸传感器14-2,腕带式终端1能够单独操作显示在显示单元4上的图像和由投影仪3投影的图像。
此外,腕带式终端1通过使用按钮14-1来切换将对显示单元4的触摸输入看作是关于显示在显示单元4上的图像的操作还是看作是关于由投影仪3投影的图像的操作。当通过使用按钮14-1来切换操作目标时,用户例如可以单独地对显示在显示单元4上的图像和由投影仪3投影的图像进行滚动或进行放大/缩小。
以上描述了第二实施方式。
[2-4.第三实施方式]
在本实施方式中,包括两个投影仪3。下面将参照图6A和图6B来详细描述本实施方式。
图6A和图6B是示出根据第三实施方式的投影处理的说明图。如图6A所示,用户查看通过使用投影仪3-1投影出的投影地图5-3,其中放大的地图包括用户初次访问的商店。此处,如图6A所示,除了将该图像投影在手上的投影仪3-1之外,根据本实施方式的腕带式终端1还包括将图像投影在佩戴着带单元6的前臂部分的投影仪3-2(另一投影单元)。如图6B所示,投影仪3-1和3-2能够投影彼此不同的放大图像。更具体地,控制单元11以将第一图像投影在手上的方式控制投影仪3-1,并且控制单元11以将第二图像投影在前臂部分的方式控制投影仪3-2。因此,考虑到显示单元4,腕带式终端1能够同时显示三个图像。此外,因为三个图像被显示成彼此相邻,所以用户可以看见每个图像而无需在很大程度上移动眼睛。例如,如图6B所示,当使投影仪3-1投影用户初次访问的商店的地图(第一图像)5-3时,用户可以通过使投影仪3-2投影出已经做出预约的邮件(第二图像)5-4来查看预约时间等。
应指出的是,根据本实施方式的腕带式终端1能够进行与在第一实施方式和第二实施方式中所描述的操作类似的操作。也就是说,用户可以通过触摸输入或未示出的传感器单元15的感测来单独地操作由投影仪3-1和3-2投影的图像以及由显示单元4显示的图像。此外,用户可以通过拖放来交换由投影仪3-1投影的图像和由投影仪3-2投影的图像。
以上描述了第三实施方式。
[2-5.第四实施方式]
智能电话2可以结合有调谐器,该调谐器从广播波(例如地面广播波或卫星广播波)从外部接收图像。因此,根据本实施方式腕带式终端1通过使用投影仪3来投影来自广播波的图像,并通过使用显示单元4来显示节目信息等。
更具体地,在本实施方式中,控制单元11以将来自广播波(例如地面广播波或卫星广播波)从外部输入的图像投影在手上的方式控制投影仪3。此外,控制单元11以显示与投影仪3投影的广播波相关的相关信息(例如字幕和节目信息)的方式控制显示单元4。下面将参照图7A和图7B来描述本实施方式。
图7A和图7B是示出根据第四实施方式的投影处理的说明图。如图7所示,根据本实施方式的腕带式终端1通过投影仪3将图像投影在手上,其中该图像是通过使用内置在智能电话2中的单波段调谐器或全波段调谐器而接收的。应指出的是,腕带式终端1可以包括未示出的扬声器,以输出电视声音。此外,用户可以经由触摸输入通过选择显示在显示单元4上的频道来改变观看频道。
此外,如图7B所示,腕带式终端1在显示单元4上显示字幕、频道信息和节目信息等。一般地,当在智能电话2的屏幕上显示电视运动图像的情况下,在屏幕的下部显示字幕、频道信息和节目信息,使得电视运动图像的显示较小。相反,在本实施方式中,显示单元4显示字幕、频道信息和节目信息,而投影仪3在整个投影平面上投影电视运动图像。因此,用户可以在不使电视运动图像较小的情况下观看图像。此外,腕带式终端1可以包括使腕带式终端1振动的振动单元,并且振动单元根据电视运动图像而振动。在该情况下,振动传播到用户并且由投影仪3投影的投影图像自身振动,从而产生更有效果的图像。
以上描述了第四实施方式。
[2-6.第五实施方式]
在本实施方式中,当成像时,在显示单元4上显示直通图像(throughimage),并且由投影仪3投影成像的图像。下面将参照图8A至图8C来详细描述本实施方式。
图8A至图8C是示出根据第五实施方式的投影处理的说明图。如图8A所示,用户要使用成像单元13对对象7A进行成像。此时,控制单元11以显示由成像单元13获取的对象7A的直通图像的方式来控制显示单元4,并且如图8A所示在显示单元4上显示对象7A的直通图像。因此,用户可以在使用显示单元4查看对象7A的位置和焦距等的同时执行成像。
当执行成像时,控制单元11以将成像单元13成像的图像投影在手上的方式来控制投影仪3。更具体地,如图8B所示,投影仪3投影出成像对象7A的投影图像5-5。此时,显示单元4显示由成像单元13获取的对象7B的直通图像。因此,用户可以在同时查看先前成像的图像和成像目标的当前直通图像的时候执行成像。
此外,控制单元11可以控制投影仪3使得由成像单元13成像的多个图像投影在手上。更具体地,如图8C所示,投影仪3可以在手上并排地投影出示出了成像对象7B的投影图像5-6和示出了最近一次获取的成像对象7A的投影图像5-5。以此方式,因为腕带式终端1按顺序在手上投影成像图像,所以用户可以在查看刚才获取的照片的同时执行下一成像。
以上描述了第五实施方式。
[2-7.第六实施方式]
在本实施方式中,根据用户的眼睛与手之间的相对位置关系,通过以容易识别图像的方式调节显示角度来执行投影。下面将参照图9A至图9C来描述本实施方式。
图9A至图9C是示出根据第六实施方式的投影处理的说明图。如图9A所示,用户通过使用投影仪3来查看邮件文本。此处,由于用户将腕带式终端1佩戴在手腕上,因此取决于诸如手的角度或高度的状态,在某些情况下文本与用户的眼睛不平行,并且是倾斜的。例如,如图9B所示,在用户的手沿倾斜方向的情况下,文本也是沿倾斜方向的,这难以阅读。
因此,在本实施方式中,控制单元11根据由传感器单元15获得的用户眼睛与手之间的相对位置关系,控制由投影仪3投影的图像的显示角度。更具体地,首先,控制单元11通过使用相机或红外相机(在图9A至图9C中由附图标记15-1表示)来指定用户眼睛的位置,并且通过陀螺仪传感器或加速度传感器来指定用户手臂的位置和角度,从而计算用户眼睛与手之间的相对位置关系。然后,控制单元11根据所计算的位置关系,以文本能够与用户的眼睛平行的方式来修正图像的显示角度。
以此方式修正显示角度使得投影仪3能够与用户眼睛平行地投影文本,如图9C所示。因此,用户可以阅读文本而不感到阅读困难。应指出的是,佩戴腕带式终端1的位置取决于用户而不同,例如是左手还是右手、或者是高还是低。因此,控制单元11在0°至360°范围内修正显示角度。
应指出的是,本实施方式示出将文本修正成与用户眼睛平行的示例;然而,本实施方式不限于该示例。例如,控制单元11以下述方式来修正显示角度:不在相对于用户眼睛的倾斜方向上投影图像,其中该图像为任何图像,例如风景图像或肖像。
以上描述了第六实施方式。
[2-8.第七实施方式]
在本实施方式中,根据佩戴腕带式终端1的手的运动来控制投影仪3的投影方向。例如,腕带式终端1通常以将图像投影在手背上的近投影模式来操作,而在手做出预定运动的情况下,以将图像投影到较远区域而不是手背上的远投影模式来操作。
在本实施方式中,首先,识别单元111基于传感器单元15的感测结果来识别手的运动。然后,控制单元11根据由识别单元111识别的手的运动来控制投影仪3的投影方向。下面将参照图10A和图10B来详细描述本实施方式。
图10A和图10B是示出根据第七实施方式的投影处理的说明图。更具体地,图10A是示出在近投影模式下的操作的说明图,而图10B是示出在远投影模式下的操作的说明图。
如图10A所示,因为相机或红外传感器(在图10A中由附图标记15-2表示)未能检测到手指,所以识别单元111识别出用户正握着手。在该情况下,由于用户正握着手,所以控制单元11将投影仪3的投影方向导向手背上。因此,投影仪3在腕带式终端1的附近区域,即佩戴腕带式终端1的手背上,投影图像。应指出的是,在本实施方式中,如图10A所示,显示单元4和投影仪3显示或投影相关联的智能电话2的主图像。
相反,因为相机或红外传感器(在图10B中由附图标记15-2表示)检测到手指,如图10B所示,所以识别单元111识别出用户正松开手。在该情况下,由于用户正松开手,所以控制单元11以不将图像投影在手背上的方式,将投影仪3的投影方向移动到与手背分离开的方向(Y方向)。因此,投影仪3可以将图像投影在远距离屏幕8上、墙壁上、地板上等等,而不是佩戴腕带式终端1的手上。应注意的是,在投影仪3由使用激光的投影仪实现的情况下,投影仪3基本上可以在不执行校准(例如调焦)的情况下将图像投影在远距离屏幕8等上。不用说,投影仪3可以基于投影距离等而自动执行校准。
此外,如图11所示,投影仪3可以将图像投影在未佩戴腕带式终端1的另一只手上,而不是远距离区域上。图11是示出根据第七实施方式的投影处理的说明图。如图11所示,因为相机或红外传感器(在图11中由附图标记15-2表示)检测到手指,所以识别单元111识别出用户正松开手。在该情况下,控制单元11以不将图像投影在手背上的方式,将投影仪3的投影方向移动到与手背分离开的方向(Y方向)。此时,在未佩戴腕带式终端1的另一只手处于投影仪3的投影方向上的情况下,在另一只手上投影图像。
以上描述了第七实施方式。
[2-9.第八实施方式]
在本实施方式中,根据佩戴腕带式终端1的手的运动来操作智能电话2。更具体地,根据本实施方式的腕带式终端1识别由佩戴腕带式终端1的手做出的手势输入,并且投影由智能电话2根据基于该手势输入的处理而更新的图像。
在本实施方式中,首先,识别单元111基于包含在传感器单元15中的相机或红外传感器的感测结果来识别手的运动。可替选地,识别单元111可以基于由包含在传感器单元15中的肌电传感器或神经传感器检测到的肌电或神经的电信号来识别手的运动。然后,控制单元11根据由识别单元111识别的手的运动来控制由投影仪3投影的图像。下面将参照图12A和图12B来详细描述本实施方式。
图12A和图12B是示出根据第八实施方式的投影处理的说明图。如图12A所示,投影仪3在手背上投影表示邮件文本的投影图像5-7。在本实施方式中,腕带式终端1将经常使用的键分配给佩戴腕带式终端1的手的每根手指,并且根据手指运动对智能电话2的操作控制了由投影仪3投影的图像。
例如,腕带式终端1将指示启动成像单元13的启动键和指示由成像单元13进行成像的快门键分配给拇指。以类似的方式,腕带式终端1将指示删除操作的返回键分配给食指,将指示显示主屏幕的归位键分配给中指,将指示显示菜单的菜单键分配给无名指,以及将指示开/关投影仪3的投影的键分配给小拇指。该分配还可以由用户自由设定。
当用户想在使用投影仪3的同时返回到主屏幕时,用户通过伸展或合拢中指来移动中指。然后,识别单元111识别中指的运动,并且基于识别结果,控制单元111以投影智能电话2的主屏幕的方式来控制投影仪3。因此,如图12B所示,由投影仪3投影出表示主屏幕的投影图像5-8。
以上描述了第八实施方式。
[2-10.第九实施方式]
在本实施方式中,根据用户对投影仪3投影的投影图像的操作来操作智能电话2。更具体地,根据本实施方式的腕带式终端1检测用户的操作,例如在投影图像上做出的触摸或轻拂输入,并且投影根据基于用户操作的处理由智能电话2更新的图像。
在本实施方式中,检测单元112基于具有检测深度的功能的相机或红外传感器的感测结果,来检测用户对投影仪3投影在手上的图像的操作,该相机或红外传感器包含在传感器单元15中。然后,控制单元11根据由检测单元112检测的用户操作来控制由投影仪3投影的图像。下面将参照图13A和图13B来详细描述本该实施方式。
图13A和图13B示出根据第九实施方式的投影处理的说明图。如图13A所示,腕带式终端1包括具有检测深度的功能的相机15-3,并且投影出表示主屏幕的投影图像5-9。基于由具有检测深度的功能的相机15-3成像的图像,检测单元112检测用户对于包含在投影仪3所投影的主屏幕中的图标的触摸。然后,控制单元11以投影与所触摸的图标相对应的屏幕的方式来控制投影仪3。例如,在触摸邮件图标的情况下,控制单元11经由通信单元12从智能电话2接收邮件文本,并使投影仪3对邮件文本进行投影。
另外,腕带式终端1可以基于将触摸投影图像的两根手指打开的操作来对图像进行放大,基于闭合两根手指的操作来对图像进行缩小,或者基于轻拂操作来滚动图像。此外,腕带式终端1可以例如根据在投影图像上做出的拖动操作来移动投影图像中的图标等。此外,如图13B所示,根据本实施方式的腕带式终端1可以根据例如在表示选择号码的屏幕而非主屏幕的投影图像5-10上做出的用户操作来操作智能电话2。
以上已经描述了第九实施方式。
[2-11.第十实施方式]
在本实施方式中,腕带式终端10包括作为智能电话2的功能。也就是说,根据本实施方式的腕带式终端10可以例如独立地、不与智能电话2相关联地发送或接收邮件或者能够查看邮件。下面将描述根据本实施方式的腕带式终端10的配置。
图14是示出根据第十实施方式的腕带式终端10的配置的框图。如图14所示,腕带式终端10包括投影仪3、显示单元4、成像单元13、操作单元14、传感器单元15、存储单元16、控制单元110和通信单元120。
(存储单元16)
存储单元16是执行预定记录介质的数据的记录和再现的部分。存储单元16例如被实现为硬盘驱动器(HDD)。不用说,记录介质可以是以下各种介质中的任何介质:固态存储器例如闪存,结合有固定存储器的存储卡、光盘、磁光盘和全息图存储器(hologram memory)等。存储单元16被配置成按照所采用的记录介质来执行记录和再现。
根据本实施方式的存储单元16存储使腕带式终端10用作为智能电话2的各种应用程序、资源数据例如图像和声音、以及邮件数据等。
(通信单元120)
通信单元120与外部装置交换数据。通信单元120通过使用无线通信、蓝牙(注册商标)、WiHD、WLAN、Wi-Fi(注册商标)、NFC、红外通信,或者3G/LTE电波或毫波区来执行通信。例如,根据本实施方式的通信单元120发送由用户生成的邮件或者接收网络(Web)内容。
(控制单元110)
控制单元111用作算术处理装置或控制装置,并且控制单元111根据各种程序来控制腕带式终端10中的一般操作。控制单元110例如由CPU或微处理器来实现。应指出的是,控制单元110根据情况可以包括存储要使用的程序、算术参数等的ROM,以及暂时存储改变参数等的RAM。
在本实施方式中,控制单元110以将存储在存储单元16中的图像投影在佩戴带单元6的手上的方式来控制投影仪3。例如,控制单元110以投影存储在存储单元16中的邮件文本的方式来控制投影仪3。此外,控制单元110可以以投影从外部装置输入的图像的方式来控制投影仪3。例如,控制单元110以投影经由通信单元120从服务器等外部接收到的网络内容的方式来控制投影仪3。另外,控制单元110包括与在上文以基本形式描述的控制单元11的功能类似的功能。
以上描述了根据本实施方式的腕带式终端10的配置。应指出的是,投影仪3、显示单元4、成像单元13、操作单元14和传感器单元15与参照图2在上文以基本形式描述的相同。因此,此处省略对其详细的描述。此外,除了腕带式终端10被独立地操作之外,本实施方式中的操作处理与参照图3在上文以基本形式描述的相同。因此,此处省略对其详细的描述。
<3.结论>
如上所述,根据本公开内容实施方式的腕带式终端可以提高移动终端的可用性。更具体地,腕带式终端1与智能电话2相关联,以便用作为智能电话2的输出设备和输入设备,使得用户可以查看地图、网络、邮件等,而不用将智能电话2拿在手上。
尽管已经参照附图详细描述了本公开内容的优选实施方式,但本公开内容不限于此。本领域技术人员应当理解的是,取决于设计需求和其它因素,可以出现各种修改、组合、子组合和替换,只要其在所附权利要求或其等同物的范围内。
例如,可以创建用于使结合在信息处理装置中的硬件(例如CPU、ROM或RAM)具有与腕带式终端1或腕带式终端10的每个结构部件相同的功能的计算机程序。此外,还可以提供存储该计算机程序的存储介质。
在说明书中所描述的效果仅是说明性或示例性效果,并非限制性的。也就是说,与以上效果一起或代替于以上效果,根据本公开内容的技术可以呈现出根据说明书中的描述对于本领域技术人员来说显而易见的其他效果。
另外,本公开技术还被配置成如下。
(1)一种腕带式信息处理装置,包括:
带单元,所述带单元被配置成佩戴在用户的手腕上;
投影单元,所述投影单元被配置成将图像投影在佩戴所述带单元的手上;以及
控制单元,所述控制单元被配置成以以下方式来控制所述投影单元:将存储在存储单元中的图像和从外部装置输入的图像中的至少一个图像投影在所述手上。
(2)根据(1)所述的腕带式信息处理装置,还包括:
操作单元,所述操作单元被配置成接收用户的操作,
其中,所述控制单元根据由所述操作单元接收到的所述用户的操作来控制由所述投影单元投影的图像。
(3)根据(2)所述的腕带式信息处理装置,还包括:
显示单元,
其中,所述控制单元根据由所述操作单元接收到的所述用户的操作,以将显示在所述显示单元上的图像投影在所述手上的方式来控制所述投影单元。
(4)根据(2)所述的腕带式信息处理装置,还包括:
显示单元,
其中,所述控制单元根据由所述操作单元接收到的所述用户的操作,以将与显示在所述显示单元上的图像不同的图像投影在所述手上的方式来控制所述投影单元。
(5)根据(1)所述的腕带式信息处理装置,还包括:
检测单元,所述检测单元被配置成检测用户对所述投影单元投影在所述手上的图像的操作,
其中,所述控制单元根据由所述检测单元检测的所述用户的操作来控制由所述投影单元投影的所述图像。
(6)根据(4)所述的腕带式信息处理装置,其中,所述控制单元以将来自广播波的图像投影在所述手上的方式来控制所述投影单元,所述广播波被从外部输入,并且所述控制单元以显示与所述广播波有关的相关信息的方式来控制所述显示单元。
(7)根据(4)所述的腕带式信息处理装置,还包括:
成像单元,
其中,所述控制单元以将由所述成像单元成像的图像投影在所述手上的方式来控制所述投影单元,并且所述控制单元以显示由所述成像单元获取的直通图像的方式来控制所述显示单元。
(8)根据(1)至(7)中任一项所述的腕带式信息处理装置,还包括:
另一投影单元,所述另一投影单元被配置成将图像投影在佩戴所述带单元的前臂部分上。
(9)根据(8)所述的腕带式信息处理装置,其中,所述控制单元以将第一图像投影在所述手上的方式来控制所述投影单元,并且以将第二图像投影在所述前臂部分上的方式来控制所述另一投影单元。
(10)根据(1)至(9)中任一项所述的腕带式信息处理装置,其中,所述控制单元根据所述用户的眼睛与手之间的相对位置关系来控制由所述投影单元投影的图像的显示角度。
(11)根据(1)至(10)中任一项所述的腕带式信息处理装置,还包括:
识别单元,所述识别单元被配置成识别所述手的运动。
(12)根据(11)所述的腕带式信息处理装置,其中,所述控制单元根据由所述识别单元识别的所述手的运动来控制所述投影单元的投影方向。
(13)根据(11)或(12)所述的腕带式信息处理装置,其中,所述控制单元根据由所述识别单元识别的所述手的运动来控制由所述投影单元投影的图像。
(14)根据(1)至(13)中任一项所述的腕带式信息处理装置,还包括:
接收单元,所述接收单元被配置成从与所述腕带式信息处理装置相关联的移动终端接收由所述投影单元投影的图像。
(15)根据(14)所述的腕带式信息处理装置,其中,所述接收单元接收指示所述移动终端的图形用户界面的图像作为由所述投影单元投影的图像。
(16)根据(1)至(15)中任一项所述的腕带式信息处理装置,其中,所述投影单元是使用激光的微型投影仪。
(17)一种其中存储有程序的非暂态计算机可读存储介质,所述程序用于使计算机用作为:
投影单元,所述投影单元被配置成将图像投影在佩戴带单元的手上;以及
控制单元,所述控制单元被配置成以以下方式来控制所述投影单元:将存储在存储单元中的图像和从外部装置输入的图像中的至少一个图像投影在所述手上。
Claims (17)
1.一种腕带式信息处理装置,包括:
带单元,所述带单元被配置成佩戴在用户的手腕上;
投影单元,所述投影单元被配置成将图像投影在佩戴所述带单元的手上;以及
控制单元,所述控制单元被配置成以以下方式来控制所述投影单元:将存储在存储单元中的图像和从外部装置输入的图像中的至少一个图像投影在所述手上。
2.根据权利要求1所述的腕带式信息处理装置,还包括:
操作单元,所述操作单元被配置成接收用户的操作,
其中,所述控制单元根据由所述操作单元接收到的所述用户的操作来控制由所述投影单元投影的图像。
3.根据权利要求2所述的腕带式信息处理装置,还包括:
显示单元,
其中,所述控制单元根据由所述操作单元接收到的所述用户的操作,以将显示在所述显示单元上的图像投影在所述手上的方式来控制所述投影单元。
4.根据权利要求2所述的腕带式信息处理装置,还包括:
显示单元,
其中,所述控制单元根据由所述操作单元接收到的所述用户的操作,以将与显示在所述显示单元上的图像不同的图像投影在所述手上的方式来控制所述投影单元。
5.根据权利要求1所述的腕带式信息处理装置,还包括:
检测单元,所述检测单元被配置成检测用户对所述投影单元投影在所述手上的图像的操作,
其中,所述控制单元根据由所述检测单元检测的所述用户的操作来控制由所述投影单元投影的所述图像。
6.根据权利要求4所述的腕带式信息处理装置,其中,所述控制单元以将来自广播波的图像投影在所述手上的方式来控制所述投影单元,所述广播波被从外部输入,并且所述控制单元以显示与所述广播波有关的相关信息的方式来控制所述显示单元。
7.根据权利要求4所述的腕带式信息处理装置,还包括:
成像单元,
其中,所述控制单元以将由所述成像单元成像的图像投影在所述手上的方式来控制所述投影单元,并且所述控制单元以显示由所述成像单元获取的直通图像的方式来控制所述显示单元。
8.根据权利要求1所述的腕带式信息处理装置,还包括:
另一投影单元,所述另一投影单元被配置成将图像投影在佩戴所述带单元的前臂部分上。
9.根据权利要求8所述的腕带式信息处理装置,其中,所述控制单元以将第一图像投影在所述手上的方式来控制所述投影单元,并且以将第二图像投影在所述前臂部分上的方式来控制所述另一投影单元。
10.根据权利要求1所述的腕带式信息处理装置,其中,所述控制单元根据所述用户的眼睛与手之间的相对位置关系来控制由所述投影单元投影的图像的显示角度。
11.根据权利要求1所述的腕带式信息处理装置,还包括:
识别单元,所述识别单元被配置成识别所述手的运动。
12.根据权利要求11所述的腕带式信息处理装置,其中,所述控制单元根据由所述识别单元识别的所述手的运动来控制所述投影单元的投影方向。
13.根据权利要求11所述的腕带式信息处理装置,其中,所述控制单元根据由所述识别单元识别的所述手的运动来控制由所述投影单元投影的图像。
14.根据权利要求1所述的腕带式信息处理装置,还包括:
接收单元,所述接收单元被配置成从与所述腕带式信息处理装置相关联的移动终端接收由所述投影单元投影的图像。
15.根据权利要求14所述的腕带式信息处理装置,其中,所述接收单元接收指示所述移动终端的图形用户界面的图像作为由所述投影单元投影的图像。
16.根据权利要求1所述的腕带式信息处理装置,其中,所述投影单元是使用激光的微型投影仪。
17.一种其中存储有程序的非暂态计算机可读存储介质,所述程序用于使计算机用作为:
投影单元,所述投影单元被配置成将图像投影在佩戴带单元的手上;以及
控制单元,所述控制单元被配置成以以下方式来控制所述投影单元:将存储在存储单元中的图像和从外部装置输入的图像中的至少一个图像投影在所述手上。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-173229 | 2013-08-23 | ||
JP2013173229A JP2015041052A (ja) | 2013-08-23 | 2013-08-23 | リストバンド型情報処理装置および記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104423798A true CN104423798A (zh) | 2015-03-18 |
Family
ID=52479891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410403165.3A Pending CN104423798A (zh) | 2013-08-23 | 2014-08-15 | 腕带式信息处理装置和存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150054730A1 (zh) |
JP (1) | JP2015041052A (zh) |
CN (1) | CN104423798A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104980676A (zh) * | 2015-06-24 | 2015-10-14 | 福州瑞芯微电子有限公司 | 手臂投影方法和装置 |
CN105117011A (zh) * | 2015-08-26 | 2015-12-02 | 广东欧珀移动通信有限公司 | 一种应用程序操作方法、装置以及智能手表 |
CN107249124A (zh) * | 2017-08-14 | 2017-10-13 | 佛山神航科技有限公司 | 一种表戴式防丢失装置 |
CN107329526A (zh) * | 2017-06-30 | 2017-11-07 | 联想(北京)有限公司 | 一种电子设备及处理方法 |
WO2017202309A1 (zh) * | 2016-05-25 | 2017-11-30 | 青岛海尔股份有限公司 | 一种旋转式腕投 |
CN108364594A (zh) * | 2018-01-25 | 2018-08-03 | 西安中科创达软件有限公司 | 一种腕投设备的投影信息保护方法 |
CN113038100A (zh) * | 2021-03-10 | 2021-06-25 | 维沃移动通信有限公司 | 投影控制方法、投影控制装置、电子设备和可读存储介质 |
CN114201129A (zh) * | 2020-09-18 | 2022-03-18 | 比亚迪股份有限公司 | 智能设备的屏幕投影方法、装置、存储介质及终端 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160193733A1 (en) * | 2014-03-27 | 2016-07-07 | Fatemah A.J.A. Abdullah | Robot for medical assistance |
CN103995621B (zh) * | 2014-04-28 | 2017-02-15 | 京东方科技集团股份有限公司 | 一种穿戴式触控装置和穿戴式触控方法 |
CA2949088C (en) | 2014-05-15 | 2023-01-24 | Federal Express Corporation | Wearable devices for courier processing and methods of use thereof |
KR102297473B1 (ko) * | 2014-07-15 | 2021-09-02 | 삼성전자주식회사 | 신체를 이용하여 터치 입력을 제공하는 장치 및 방법 |
US20180101277A9 (en) * | 2014-09-24 | 2018-04-12 | Evan John Kaye | Skin Touchpad |
KR101909540B1 (ko) * | 2014-10-23 | 2018-10-18 | 삼성전자주식회사 | 가상의 입력 영역을 이용한 포터블 디바이스의 사용자 입력 방법 |
KR101632007B1 (ko) * | 2014-10-29 | 2016-06-21 | 엘지전자 주식회사 | 와치 타입의 제어 디바이스 |
US20160178906A1 (en) * | 2014-12-19 | 2016-06-23 | Intel Corporation | Virtual wearables |
JP2017009573A (ja) * | 2015-03-06 | 2017-01-12 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 装着端末、及び、装着端末の制御方法 |
FR3034890B1 (fr) | 2015-04-10 | 2018-09-07 | Cn2P | Dispositif electronique de projection interactif |
FR3034889B1 (fr) * | 2015-04-10 | 2017-04-28 | Cn2P Sas | Bracelet electronique pour l’affichage d’un contenu numerique interactif destine a etre projete sur une zone d’un bras |
JP6807037B2 (ja) * | 2016-02-19 | 2021-01-06 | ソニー株式会社 | 表示装置 |
KR102408359B1 (ko) * | 2017-08-23 | 2022-06-14 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
KR102055572B1 (ko) * | 2017-12-27 | 2019-12-13 | 한양대학교 산학협력단 | 웨어러블 가상 입력 장치 및 이를 위한 제어 방법 |
US11573648B2 (en) | 2018-03-12 | 2023-02-07 | Sony Corporation | Information processing apparatus and information processing method to identify gesture operation of a user |
US11188154B2 (en) * | 2018-05-30 | 2021-11-30 | International Business Machines Corporation | Context dependent projection of holographic objects |
US11244080B2 (en) * | 2018-10-09 | 2022-02-08 | International Business Machines Corporation | Project content from flexible display touch device to eliminate obstruction created by finger |
US11287885B1 (en) * | 2019-01-22 | 2022-03-29 | Facebook Technologies, Llc | Apparatus, system, and method for determining the position of wearables donned by users of artificial reality systems |
CN112687217B (zh) * | 2020-12-28 | 2023-04-25 | 维沃移动通信有限公司 | 投影方法、可穿戴设备及可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
US20110007035A1 (en) * | 2007-08-19 | 2011-01-13 | Saar Shai | Finger-worn devices and related methods of use |
US20110221672A1 (en) * | 2010-02-28 | 2011-09-15 | Osterhout Group, Inc. | Hand-worn control device in an augmented reality eyepiece |
US20120249409A1 (en) * | 2011-03-31 | 2012-10-04 | Nokia Corporation | Method and apparatus for providing user interfaces |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030174125A1 (en) * | 1999-11-04 | 2003-09-18 | Ilhami Torunoglu | Multiple input modes in overlapping physical space |
US8743079B2 (en) * | 2008-08-29 | 2014-06-03 | Nec Corporation | Position information input device and position information input method |
KR101526998B1 (ko) * | 2008-10-16 | 2015-06-08 | 엘지전자 주식회사 | 이동통신 단말기 및 그 절전 방법 |
US9069164B2 (en) * | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
JP5624530B2 (ja) * | 2011-09-29 | 2014-11-12 | 株式会社東芝 | コマンド発行装置、方法及びプログラム |
US20140267031A1 (en) * | 2013-03-12 | 2014-09-18 | Kenneth J. Huebner | Spatially aware pointer for mobile appliances |
KR101999958B1 (ko) * | 2013-05-22 | 2019-07-15 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
US9606721B2 (en) * | 2013-07-22 | 2017-03-28 | Lg Electronics Inc. | Mobile terminal and control method thereof |
JP6344032B2 (ja) * | 2013-09-26 | 2018-06-20 | 富士通株式会社 | ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム |
-
2013
- 2013-08-23 JP JP2013173229A patent/JP2015041052A/ja active Pending
-
2014
- 2014-07-08 US US14/325,801 patent/US20150054730A1/en not_active Abandoned
- 2014-08-15 CN CN201410403165.3A patent/CN104423798A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
US20110007035A1 (en) * | 2007-08-19 | 2011-01-13 | Saar Shai | Finger-worn devices and related methods of use |
US20110221672A1 (en) * | 2010-02-28 | 2011-09-15 | Osterhout Group, Inc. | Hand-worn control device in an augmented reality eyepiece |
US20120249409A1 (en) * | 2011-03-31 | 2012-10-04 | Nokia Corporation | Method and apparatus for providing user interfaces |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104980676A (zh) * | 2015-06-24 | 2015-10-14 | 福州瑞芯微电子有限公司 | 手臂投影方法和装置 |
CN104980676B (zh) * | 2015-06-24 | 2017-12-19 | 福州瑞芯微电子股份有限公司 | 手臂投影方法和装置 |
CN105117011A (zh) * | 2015-08-26 | 2015-12-02 | 广东欧珀移动通信有限公司 | 一种应用程序操作方法、装置以及智能手表 |
WO2017032055A1 (zh) * | 2015-08-26 | 2017-03-02 | 广东欧珀移动通信有限公司 | 一种应用程序操作方法、装置以及智能手表 |
WO2017202309A1 (zh) * | 2016-05-25 | 2017-11-30 | 青岛海尔股份有限公司 | 一种旋转式腕投 |
CN107329526A (zh) * | 2017-06-30 | 2017-11-07 | 联想(北京)有限公司 | 一种电子设备及处理方法 |
CN107249124A (zh) * | 2017-08-14 | 2017-10-13 | 佛山神航科技有限公司 | 一种表戴式防丢失装置 |
CN108364594A (zh) * | 2018-01-25 | 2018-08-03 | 西安中科创达软件有限公司 | 一种腕投设备的投影信息保护方法 |
CN114201129A (zh) * | 2020-09-18 | 2022-03-18 | 比亚迪股份有限公司 | 智能设备的屏幕投影方法、装置、存储介质及终端 |
CN113038100A (zh) * | 2021-03-10 | 2021-06-25 | 维沃移动通信有限公司 | 投影控制方法、投影控制装置、电子设备和可读存储介质 |
CN113038100B (zh) * | 2021-03-10 | 2023-08-15 | 维沃移动通信有限公司 | 投影控制方法、投影控制装置、电子设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20150054730A1 (en) | 2015-02-26 |
JP2015041052A (ja) | 2015-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104423798A (zh) | 腕带式信息处理装置和存储介质 | |
US10686990B2 (en) | Mobile terminal and method of controlling the same | |
US10628014B2 (en) | Mobile terminal and control method therefor | |
US10534535B2 (en) | Watch-type terminal and method for controlling same | |
US9846507B2 (en) | Mobile terminal and control method thereof | |
US10613655B2 (en) | Rollable mobile terminal and control method therefor | |
EP3130993B1 (en) | Mobile terminal and method for controlling the same | |
KR101649663B1 (ko) | 이동 단말기 및 그 제어방법 | |
US9787890B2 (en) | Mobile terminal and method of controlling the same | |
US9778825B2 (en) | Mobile terminal and controlling method thereof | |
US10365821B2 (en) | Mobile terminal and control method for the mobile terminal | |
US9860411B2 (en) | Mobile terminal and method of controlling the same | |
US20160165037A1 (en) | Mobile terminal and method for controlling the same | |
KR20160099399A (ko) | 와치 타입 단말기 | |
KR102223728B1 (ko) | 이동단말기 및 그 제어방법 | |
US9788074B2 (en) | Mobile terminal and method for controlling the same | |
US9538086B2 (en) | Method of performing previewing and electronic device for implementing the same | |
KR20180002208A (ko) | 단말기 및 그 제어 방법 | |
US10771680B2 (en) | Mobile terminal and corresponding control method for changing the length of a control icon based on a size, position and/or a moving speed of a first object in a preview image | |
US10866668B2 (en) | Display device and control method therefor | |
US20190384996A1 (en) | Stylus pen, electronic device, and digital copy generating method | |
KR102130801B1 (ko) | 손목 스탭 검출 장치 및 그 방법 | |
CN108628646B (zh) | 用于显示设备加载数据的方法及装置 | |
KR102161513B1 (ko) | 이동단말기 및 그 제어방법 | |
JP2015192362A (ja) | 画像再生装置,画像再生方法およびその制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150318 |
|
WD01 | Invention patent application deemed withdrawn after publication |