CN105094294B - 操作裸眼三维图形显示设备的方法及装置 - Google Patents
操作裸眼三维图形显示设备的方法及装置 Download PDFInfo
- Publication number
- CN105094294B CN105094294B CN201410197229.9A CN201410197229A CN105094294B CN 105094294 B CN105094294 B CN 105094294B CN 201410197229 A CN201410197229 A CN 201410197229A CN 105094294 B CN105094294 B CN 105094294B
- Authority
- CN
- China
- Prior art keywords
- coordinate
- space
- point
- stereo
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种操作裸眼三维图形显示设备的方法及装置,该方法应用于处于出屏状态的裸眼3D显示设备。该方法包括:确定立体图像上的每个点在显示屏所在平面构成的第一空间坐标系下的空间坐标,每个点在第一空间坐标系下的空间坐标包括第一坐标值、第二坐标值及第一深度值;获取用户的操作点在第一空间坐标系下的空间坐标,操作点在第一空间坐标系下的空间坐标包括第三坐标值、第四坐标值及第二深度值;获取在第一空间坐标系下的空间坐标中的第一坐标值和第二坐标值分别与第三坐标值和第四坐标值相等的目标点,并判断第一深度值与第二深度值的距离是否小于预设阈值;如果是,则获取左右视图上与目标点对应的视图点,并执行与视图点对应的操作。
Description
技术领域
本发明涉及三维图形技术领域,特别涉及一种操作裸眼三维图形显示设备的方法及装置。
背景技术
随着3D(Three-Dimensiona,三维图形)技术以及电子技术的迅速发展,越来越多的终端可以作为裸眼3D显示设备。也就是说,用户可以在不借助于任何其它设备的情况下通过裸眼3D显示设备获得很直观的立体效果。例如,当裸眼3D显示设备处于出屏状态时,用户不借助于3D眼镜等设备便可以看见立体图像。为了使用户能够很好地操作裸眼3D显示设备,有必要提出一种操作裸眼3D显示设备的方法。
相关技术中,用户操作裸眼3D显示设备时,通过点击或者触摸裸眼3D显示设备的显示屏显示的左右视图上的点来实现。具体地,对于裸眼3D显示设备的UI(UserInterface,用户界面)显示的左右视图上的每一个点,均可以对应一定的操作。当裸眼3D显示设备检测到用户的操作手对应的操作点为点击或触摸左右视图上的某个视图点的操作后,裸眼3D显示设备执行与该视图点对应的操作。
在实现本发明的过程中,发明人发现相关技术至少存在以下问题:
由于相关技术中,用户操作裸眼3D显示设备时,需要通过点击或者触摸左右视图上的视图点来实现,而与用户获得的立体图像之间没有关系,不仅导致操作裸眼3D显示设备的方式单一,而且给用户带来的操作体验不好。
发明内容
为了解决相关技术的问题,本发明实施例提供了一种操作裸眼三维图形显示设备的方法及装置。所述技术方案如下:
第一方面,提供了一种操作裸眼三维图形显示设备的方法,所述方法应用于处于出屏状态的裸眼三维图形3D显示设备,所述方法包括:
确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点在所述裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标,所述立体图像上的每个点在所述第一空间坐标系下的空间坐标包括第一坐标值、第二坐标值以及第一深度值;
获取用户的操作点在所述第一空间坐标系下的空间坐标,所述操作点在所述第一空间坐标系下的空间坐标包括第三坐标值、第四坐标值以及第二深度值;
从所述立体图像上的所有点中获取在所述第一空间坐标系下的空间坐标中的第一坐标值和第二坐标值分别与所述第三坐标值和第四坐标值相等的目标点,并判断所述目标点的第一深度值与所述第二深度值之间的距离是否小于预设阈值;
如果所述第一深度值与所述第二深度值之间的距离小于预设阈值,则根据所述立体图像上的每个点与所述立体图像对应的左右视图上的每个点之间的对应关系获取所述左右视图上与所述目标点对应的视图点,并执行与所述视图点对应的操作。
结合第一方面,在第一方面的第一种可能的实现方式中,所述确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点在所述裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标,包括:
确定处于出屏状态的裸眼3D显示设备显示的所述立体图像上的每个点与所述显示屏的距离,并将所述立体图像上的每个点与所述显示屏的距离作为所述立体图像的每个点在所述第一空间坐标系下的空间坐标中的第一深度值;
确定所述立体图像上的每个点在所述第一空间坐标系下的空间坐标中的第一坐标值以及第二坐标值,获得所述立体图像上的每个点在所述第一空间坐标系下的空间坐标。
结合第一方面的第一种可能的实现方式,在第一方面的第二种可能的实现方式中,所述确定处于出屏状态的裸眼3D显示设备显示的所述立体图像上的每个点与所述显示屏的距离,包括:
获取用户的眼睛与所述显示屏之间的距离、所述立体图像上每个点的左右视图视差以及所述眼睛的瞳距;
根据用户的眼睛与所述显示屏之间的距离、所述立体图像上每个点的左右视图视差以及所述眼睛的瞳距确定处于出屏状态的裸眼3D显示设备显示的所述立体图像上的每个点与所述显示屏的距离。
结合第一方面的第二种可能的实现方式,在第一方面的第三种可能的实现方式中,所述获取用户的眼睛与所述显示屏之间的距离,包括:
建立在所述显示屏上设置的深度摄像头所在平面构成的第二空间坐标系;
获取所述眼睛在所述第二空间坐标系下的空间坐标;
通过坐标换算法将所述眼睛在所述第二空间坐标系下的坐标转换为眼睛在所述第一空间坐标系下的空间坐标,并根据所述眼睛在所述第一空间坐标系下的空间坐标确定用户的眼睛与所述显示屏之间的距离。
结合第一方面的第三种可能的实现方式,在第一方面的第四种可能的实现方式中,所述获取用户的操作点在所述第一空间坐标系下的空间坐标,包括:
通过所述深度摄像头获取所述操作点在所述第二空间坐标系下的空间坐标;
通过坐标换算法将所述操作点在所述第二空间坐标系下的空间坐标转换为所述操作点在所述第一空间坐标系下的空间坐标。
结合第一方面至第一方面的第四种可能的实现方式中的任一种可能的实现方式,在第一方面的第五种可能的实现方式中,所述执行与所述视图点对应的操作之前,还包括:
获取在所述裸眼3D显示设备的用户界面UI上设置的所述左右视图上的每个点对应的操作;
所述执行与所述视图点对应的操作,包括:
在所述左右视图上的每个点对应的操作中查找所述视图点对应的操作,并执行查找到的所述视图点对应的操作。
第二方面,提供了一种操作裸眼三维图形显示设备的装置,所述装置应用于处于出屏状态的裸眼三维图形3D显示设备,所述装置包括:
确定模块,用于确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点在所述裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标,所述立体图像上的每个点在所述第一空间坐标系下的空间坐标包括第一坐标值、第二坐标值以及第一深度值;
第一获取模块,用于获取用户的操作点在所述第一空间坐标系下的空间坐标,所述操作点在所述第一空间坐标系下的空间坐标包括第三坐标值、第四坐标值以及第二深度值;
第二获取模块,用于从所述立体图像上的所有点中获取在所述第一空间坐标系下的空间坐标中的第一坐标值和第二坐标值分别与所述第三坐标值和第四坐标值相等的目标点;
判断模块,用于判断所述目标点的第一深度值与所述第二深度值之间的距离是否小于预设阈值;
第三获取模块,用于当所述第一深度值与所述第二深度值之间的距离小于预设阈值时,根据所述立体图像上的每个点与所述立体图像对应的左右视图上的每个点之间的对应关系获取所述左右视图上与所述目标点对应的视图点;
执行模块,用于执行与所述视图点对应的操作。
结合第二方面,在第二方面的第一种可能的实现方式中,所述确定模块,包括:
第一确定子模块,用于确定处于出屏状态的裸眼3D显示设备显示的所述立体图像上的每个点与所述显示屏的距离,并将所述立体图像上的每个点与所述显示屏的距离作为所述立体图像的每个点在所述第一空间坐标系下的空间坐标中的第一深度值;
第二确定子模块,用于确定所述立体图像上的每个点在所述第一空间坐标系下的空间坐标中的第一坐标值以及第二坐标值,获得所述立体图像上的每个点在所述第一空间坐标系下的空间坐标。
结合第二方面的第一种可能的实现方式,在第二方面的第二种可能的实现方式中,所述第一确定子模块,包括:
获取单元,用于获取用户的眼睛与所述显示屏之间的距离、所述立体图像上每个点的左右视图视差以及所述眼睛的瞳距;
确定单元,用于根据用户的眼睛与所述显示屏之间的距离、所述立体图像上每个点的左右视图视差以及所述眼睛的瞳距确定处于出屏状态的裸眼3D显示设备显示的所述立体图像上的每个点与所述显示屏的距离。
结合第二方面的第二种可能的实现方式,在第二方面的第三种可能的实现方式中,所述获取单元,包括:
坐标建立子单元,用于建立在所述显示屏上设置的深度摄像头所在平面构成的第二空间坐标系;
获取子单元,用于获取所述眼睛在所述第二空间坐标系下的空间坐标;
坐标转换子单元,用于通过坐标换算法将所述眼睛在所述第二空间坐标系下的坐标转换为眼睛在所述第一空间坐标系下的空间坐标,并根据所述眼睛在所述第一空间坐标系下的空间坐标确定用户的眼睛与所述显示屏之间的距离。
结合第二方面的第三种可能的实现方式,在第二方面的第四种可能的实现方式中,所述第一获取模块,包括:
获取子模块,用于通过所述深度摄像头获取所述操作点在所述第二空间坐标系下的空间坐标;
坐标转换子模块,用于通过坐标换算法将所述操作点在所述第二空间坐标系下的空间坐标转换为所述操作点在所述第一空间坐标系下的空间坐标。
结合第二方面至第二方面的第四种可能的实现方式中的任一种可能的实现方式,在第二方面的第五种可能的实现方式中,所述装置,还包括:
第四获取模块,用于在所述裸眼3D显示设备的用户界面UI上设置的所述左右视图上的每个点对应的操作;
所述执行模块,用于在所述左右视图上的每个点对应的操作中查找所述视图点对应的操作,并执行查找到的所述视图点对应的操作。
本发明实施例提供的技术方案带来的有益效果是:
通过在立体图像上获取与用户的操作点之间的深度值差值在预设阈值内的目标点,并通过操作立体图像上的目标点来操作裸眼3D显示设备,不仅操作裸眼3D显示设备的方式更加灵活,而且通过操作立体图像来操作操作裸眼3D显示设备能给用户带来良好的操作体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的一种操作裸眼三维图形显示设备的方法流程图;
图2是本发明实施例二提供的一种操作裸眼三维图形显示设备的方法流程图;
图3是本发明实施例二提供的一种用户与显示屏、立体图像上某点以及该点的左右视图视差之间的关系示意图;
图4是本发明实施例三提供的一种操作裸眼三维图形显示设备的装置结构示意图;
图5是本发明实施例三提供的另一种操作裸眼三维图形显示设备的装置结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
实施例一
裸眼3D显示设备是一种利用人的两只眼睛具有视差的特性制成的一种显示设备,用户通过裸眼3D显示设备在不需要任何辅助设备(如3D眼镜,头盔等)的情况下,即可获得具有空间、深度的逼真立体图像。处于出屏状态的裸眼3D显示设备是指用户通过裸眼3D显示设备获得的立体图像介于用户的眼睛与裸眼3D显示设备的显示屏之间。本发明实施例提供了一种操作裸眼三维图形显示设备的方法,通过本发明实施例提供的方法,当裸眼3D显示设备处于出屏状态时,用户可以通过操作立体图像上的点来实现操作裸眼3D显示设备。参见图1,本发明实施例提供的方法流程包括:
101:确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点在裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标,其中,立体图像上的每个点在第一空间坐标系下的空间坐标包括第一坐标值、第二坐标值以及第一深度值。
可选地,确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点在裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标,包括:
确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏的距离,并将立体图像上的每个点与显示屏的距离作为立体图像的每个点在第一空间坐标系下的空间坐标中的第一深度值;
确定立体图像上的每个点在第一空间坐标系下的空间坐标中的第一坐标值以及第二坐标值,获得立体图像上的每个点在第一空间坐标系下的空间坐标。
可选地,确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏的距离,包括:
获取用户的眼睛与显示屏之间的距离、立体图像上每个点的左右视图视差以及眼睛的瞳距;
根据用户的眼睛与显示屏之间的距离、立体图像上每个点的左右视图视差以及眼睛的瞳距确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏的距离。
可选地,获取用户的眼睛与显示屏之间的距离,包括:
建立在显示屏上设置的深度摄像头所在平面构成的第二空间坐标系;
获取眼睛在第二空间坐标系下的空间坐标;
通过坐标换算法将眼睛在第二空间坐标系下的坐标转换为眼睛在第一空间坐标系下的空间坐标,并根据眼睛在第一空间坐标系下的空间坐标确定用户的眼睛与显示屏之间的距离。
102:获取用户的操作点在第一空间坐标系下的空间坐标,其中,操作点在第一空间坐标系下的空间坐标包括第三坐标值、第四坐标值以及第二深度值。
可选地,获取用户的操作点在第一空间坐标系下的空间坐标,包括:
通过深度摄像头获取操作点在第二空间坐标系下的空间坐标;
通过坐标换算法将操作点在第二空间坐标系下的空间坐标转换为操作点在第一空间坐标系下的空间坐标。
103:从立体图像上的所有点中获取在第一空间坐标系下的空间坐标中的第一坐标值和第二坐标值分别与第三坐标值和第四坐标值相等的目标点,并判断目标点的第一深度值与第二深度值之间的距离是否小于预设阈值。
104:如果第一深度值与第二深度值之间的距离小于预设阈值,则根据立体图像上的每个点与立体图像对应的左右视图上的每个点之间的对应关系获取左右视图上与目标点对应的视图点,并执行与视图点对应的操作。
可选地,执行与视图点对应的操作之前,还包括:
获取在裸眼3D显示设备的UI上设置的左右视图上的每个点对应的操作;
执行与视图点对应的操作,包括:
在左右视图上的每个点对应的操作中查找视图点对应的操作,并执行查找到的视图点对应的操作。
本发明实施例提供的方法,通过在立体图像上获取与用户的操作点之间的深度值差值在预设阈值内的目标点,并通过操作立体图像上的目标点来操作裸眼3D显示设备,不仅操作裸眼3D显示设备的方式更加灵活,而且通过操作立体图像来操作操作裸眼3D显示设备能给用户带来良好的操作体验。
实施例二
结合上述实施例一的内容,本发明实施例提供了一种操作裸眼三维图形显示设备的方法,该方法应用于处于出屏状态的裸眼3D显示设备。参见图2,本发明实施例提供的方法流程包括:
201:获取裸眼3D显示设备的UI上显示的左右视图上的每个点对应的操作。
为了实现操作裸眼3D显示设备,往往会预先设置裸眼3D显示设备的UI上显示的左右视图上的每个点对应的操作,从而确保可以通过操作左右视图上的某个点实现操作裸眼3D显示设备。例如,如果将左右视图上的某一点a对应的操作设置为双击打开其对应的文件的操作,则通过双击a点,可以打开a点对应的文件。因此,当对UI界面上显示的左右视图上的每个点均设置好对应的操作后,为了在后续可以确定当前用户的操作点对应的操作,从而实现操作裸眼3D显示设备,需要先获取裸眼3D显示设备的UI上显示的左右视图上的每个点对应的操作。
关于获取裸眼3D显示设备的UI上显示的左右视图上的每个点对应的操作的方式,本发明实施例不作具体限定。具体实施时,可以为:在设置好裸眼3D显示设备的UI上显示的左右视图上的每个点及其每个点对应的操作后,形成左右视图上的每个点与每个点对应的操作之间的映射关系,并存储该映射关系。因此,在获取裸眼3D显示设备的UI上显示的左右视图上的每个点对应的操作时,可以先获取预先存储的左右视图上的每个点与每个点对应的操作之间的映射关系,并从该映射关系中获取裸眼3D显示设备的UI上显示的左右视图上的每个点对应的操作。其中,存储的左右视图上的每个点与每个点对应的操作之间的映射关系的形式可以如表一所示:
表一
左右视图上的点 | 操作 |
A | 双击打开文件 |
B | 触摸解锁 |
需要说明的是,在每次执行操作裸眼3D显示设备的方法时,并非每次均需获取左右视图上的每个点对应的操作,确保当用户操作裸眼3D显示设备时,获取与当前用户的操作点对应的左右视图上的视图点相对应的操作即可。
202:确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点在裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标,其中,立体图像上的每个点在第一空间坐标系下的空间坐标包括第一坐标值、第二坐标值以及第一深度值。
为了便于描述处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点的空间位置,可以使用立体图像上的每个点的空间坐标表示每个点的空间位置。而为了便于确定立体图像上的每个点与裸眼3D显示设备的显示屏之间的位置关系,可以建立一个以裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系,并在该第一坐标系下表示立体图像上的每个点的空间坐标。因此,需要确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点在裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标。其中,立体图像上的每个点在第一空间坐标系下的空间坐标包括第一坐标值、第二坐标值以及第一深度值,且当第一空间坐标系为以裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系时,立体图像上的某一点在第一空间坐标系下的空间坐标中的第一深度值即为该点与裸眼3D显示设备的显示屏之间的距离。
由于当第一空间坐标系为以裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系时,立体图像上的某一点的空间坐标中的第一深度值为该点与裸眼3D显示设备的显示屏之间的距离,因此,确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点在裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标时,包括但不限于:确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏的距离,并将立体图像上的每个点与显示屏的距离作为立体图像的每个点在第一空间坐标系下的空间坐标中的第一深度值;另外,还需要确定立体图像上的每个点在第一空间坐标系下的空间坐标中的第一坐标值以及第二坐标值。当分别确定立体图像上的每个点在第一空间坐标系下的第一深度值、第一坐标值和第二坐标值后,便获得了立体图像上的每个点在第一空间坐标系下的空间坐标。
其中,在确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏的距离时,包括但不限于可以通过如下步骤来实现:
第一步:获取用户的眼睛与显示屏之间的距离、立体图像上每个点的左右视图视差以及眼睛的瞳距。
其中,本发明实施例不对获取用户的眼睛与显示屏之间的距离、立体图像上每个点的左右视图视差以及眼睛的瞳距的方式进行限定。例如,获取用户的眼睛与显示屏之间的距离时,包括但不限于可以通过一个深度摄像头来实现。
具体地,当采用深度摄像头来获取用户的眼睛与显示屏之间的距离时,可以通过将深度摄像头放置于裸眼3D显示设备的显示屏上来实现。其中,具体的获取用户的眼睛与显示屏之间的距离的方式包括:
(1)建立在显示屏上设置的深度摄像头所在平面构成的第二空间坐标系,并获取眼睛在第二空间坐标系下的空间坐标。
由于通过深度摄像头可以获得用户的眼睛在该深度摄像头所在平面构成的空间坐标系下的在空间坐标,因此,可以建立深度摄像头所在平面构成的第二空间坐标系,并通过深度摄像头获取眼睛在第二空间坐标系下的空间坐标。
(2)通过坐标换算法将眼睛在第二空间坐标系下的坐标转换为眼睛在第一空间坐标系下的空间坐标,并根据眼睛在第一空间坐标系下的空间坐标确定用户的眼睛与显示屏之间的距离。
由于第一步中需要确定用户的眼睛与显示屏之间的距离,而用户的眼睛在第一空间坐标系下的空间坐标中的第一深度值即为眼睛与显示屏之间的距离。因此,当通过深度摄像头获得用户的眼睛在第二空间坐标系下的坐标之后,需要通过坐标换算法将眼睛在第二空间坐标系下的坐标转换为眼睛在第一空间坐标系下的空间坐标。
其中,本发明实施例不对通过坐标换算法将眼睛在第二空间坐标系下的坐标转换为眼睛在第一空间坐标系下的空间坐标进行限定。具体实施时,可以先确定第二空间坐标系和第一空间坐标系的坐标之间的关系,并通过第二空间坐标系和第一空间坐标系的坐标之间的关系将眼睛在第二空间坐标系下的坐标转换为眼睛在第一空间坐标系下的空间坐标。
第二步:根据用户的眼睛与显示屏之间的距离、立体图像上每个点的左右视图视差以及眼睛的瞳距确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏的距离。
其中,本发明实施例不对根据用户的眼睛与显示屏之间的距离、立体图像上每个点的左右视图视差以及眼睛的瞳距确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏的距离的方式进行限定。
如图3所示,其示出了一种用户的眼睛与显示屏、立体图像上某个点以及该点对应的左右视图视差之间的关系示意图。根据图3所示的用户的眼睛与显示屏、立体图像上某个点以及该点对应的左右视图视差之间的关系可确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏之间的距离。具体地,由图3中的几何关系可得:
由公式(1)可得,处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏之间的距离为:
公式(1)和公式(2)中,M为处于出屏状态的裸眼3D显示设备显示的立体图像上的某个点与显示屏之间的距离,也即M为立体图像上的该点的第一深度值;D为用户的眼睛与显示屏之间的距离;δ为该点的左右视图视差;θ为眼睛的瞳距。
可选地,在确定立体图像上的每个点在第一坐标系下的空间坐标之后,由于左右视图上的每个点均对应一定的操作,因此,可以建立立体图像上每个点与左右视图上的每个点之间的对应关系,从而可以使立体图像上的每个与左右视图上的点对应的点也可以对应一定的操作。其中,建立的立体图像上的每个点与左右视图上的每个点及其对应的操作之间的关系可以如表二所示:
表二
立体图像上的点 | 左右视图上的点 | 操作 |
a | A | 双击打开文件 |
b | B | 触摸解锁 |
203:获取用户的操作点在第一空间坐标系下的空间坐标,操作点在第一空间坐标系下的空间坐标包括第三坐标值、第四坐标值以及第二深度值。
由于本发明实施例提供的方法通过操作立体图像上的点来实现操作裸眼3D显示设备,因此,当用户的操作手对应的操作点触及立体图像上的点时,便能实现操作裸眼3D显示设备。为了确定用户的操作手对应的操作点当前触及的位置,需要获取用户的操作点在第一空间坐标系下的空间坐标。其中,用户的操作点在第一空间坐标系下的空间坐标包括第三坐标值、第四坐标值以及第二深度值。其中,在获取用户的操作点的空间坐标时,也可以通过深度摄像头确定用户的操作点当前所在的位置。
具体地,获取用户的操作点在第一空间坐标系下的空间坐标,包括:通过深度摄像头获取操作点在第二空间坐标系下的空间坐标,并通过坐标换算法将操作点在第二空间坐标系下的空间坐标转换为操作点在第一空间坐标系下的空间坐标。其中,通过深度摄像头获取操作点在第二空间坐标系下的空间坐标,并通过坐标换算法将操作点在第二空间坐标系下的空间坐标转换为操作点在第一空间坐标系下的空间坐标的原理与上述第一步中获取用户的眼睛与显示屏之间的距离的原理一致,具体可参见上述第一步中的内容,在此不再赘述。
204:从立体图像上的所有点中获取在第一空间坐标系下的空间坐标中的第一坐标值和第二坐标值分别与第三坐标值和第四坐标值相等的目标点,并判断目标点的第一深度值与第二深度值之间的距离是否小于预设阈值。
为了确定用户的操作点触及立体图像上的哪个点,可以将用户的操作点在第一空间坐标系下的空间坐标与立体图像上的每个点在第一空间坐标系下的空间坐标进行比对来实现。当用户的操作点在第一空间坐标系下的空间坐标中的第三坐标值和第四坐标值分别与立体图像上的某个点在第一空间坐标系下的第一坐标值和第二坐标值相等,且用户的操作点在第一空间坐标系下的空间坐标中的第二深度值和该点在第一空间坐标系下的第一深度值之间的距离在一定范围之内时,则确定用户的操作点触及了立体图像上的该点。因此,需要从立体图像上的所有点中获取在第一空间坐标系下的空间坐标中的第一坐标值和第二坐标值分别与第三坐标值和第四坐标值相等的目标点,并判断第一深度值与第二深度值之间的距离是否小于预设阈值。
其中,本发明实施例不对预设阈值的大小进行限定。具体实施时,为了确定用户的操作点确实触及到了目标点,该预设阈值越小越好。
205:如果第一深度值与第二深度值之间的距离小于预设阈值,则根据立体图像上的每个点与立体图像对应的左右视图上的每个点之间的对应关系获取左右视图上与目标点对应的视图点,并执行与视图点对应的操作。
如果第一深度值与第二深度值之间的距离小于预设阈值,则确定用户的操作点触及了立体图像上的目标点。由于左右视图上的每个点均对应一定的操作,当在步骤202中确定立体图像上的每个点在第一空间坐标系下的空间坐标并建立了立体图像上的每个点与左右视图上的每个点之间的关系后,便可以根据立体图像上的每个点和与立体图像对应的左右视图上的每个点之间的对应关系获取左右视图上与目标点对应的视图点,并执行与视图点对应的操作。
其中,在执行与视图点对应的操作时,包括但不限于:在左右视图上的每个点对应的操作中查找视图点对应的操作,并执行查找到的视图点对应的操作。
关于在左右视图上的每个点对应的操作中查找视图点对应的操作的方式,本发明实施例不作具体限定。具体实施时,可以将视图点的坐标与预先存储的左右视图上每个点对应的坐标进行比对来确定视图点,并根据左右视图上每个点与每个点对应的操作形成的映射关系来查找视图点对应的操作。
关于执行查找到的视图点对应的操作的方式,本发明实施例不作具体限定。例如,如果视图点对应的操作为触摸解锁,则执行该视图点对应的操作后,裸眼3D显示设备将会实现解锁操作。
本发明实施例提供的方法,通过在立体图像上获取与用户的操作点之间的深度值差值在预设阈值内的目标点,并通过操作立体图像上的目标点来操作裸眼3D显示设备,不仅操作裸眼3D显示设备的方式更加灵活,而且通过操作立体图像来操作操作裸眼3D显示设备能给用户带来良好的操作体验。
实施例三
本发明实施例提供了一种操作裸眼三维图形显示设备的装置,该装置应用于处于出屏状态的裸眼三维图形3D显示设备。参见图4,该装置包括:
确定模块401,用于确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点在裸眼3D显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标,其中,立体图像上的每个点在第一空间坐标系下的空间坐标包括第一坐标值、第二坐标值以及第一深度值;
第一获取模块402,用于获取用户的操作点在第一空间坐标系下的空间坐标,其中,操作点在第一空间坐标系下的空间坐标包括第三坐标值、第四坐标值以及第二深度值;
第二获取模块403,用于从立体图像上的所有点中获取在第一空间坐标系下的空间坐标中的第一坐标值和第二坐标值分别与第三坐标值和第四坐标值相等的目标点;
判断模块404,用于判断目标点的第一深度值与第二深度值之间的距离是否小于预设阈值;
第三获取模块405,用于当第一深度值与第二深度值之间的距离小于预设阈值时,根据立体图像上的每个点与立体图像对应的左右视图上的每个点之间的对应关系获取左右视图上与目标点对应的视图点;
执行模块406,用于执行与视图点对应的操作。
可选地,确定模块401,包括:
第一确定子模块,用于确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏的距离,并将立体图像上的每个点与显示屏的距离作为立体图像的每个点在第一空间坐标系下的空间坐标中的第一深度值;
第二确定子模块,用于确定立体图像上的每个点在第一空间坐标系下的空间坐标中的第一坐标值以及第二坐标值,获得立体图像上的每个点在第一空间坐标系下的空间坐标。
可选地,第一确定子模块,包括:
获取单元,用于获取用户的眼睛与显示屏之间的距离、立体图像上每个点的左右视图视差以及眼睛的瞳距;
确定单元,用于根据用户的眼睛与显示屏之间的距离、立体图像上每个点的左右视图视差以及眼睛的瞳距确定处于出屏状态的裸眼3D显示设备显示的立体图像上的每个点与显示屏的距离。
可选地,获取单元,包括:
坐标建立子单元,用于建立在显示屏上设置的深度摄像头所在平面构成的第二空间坐标系;
获取子单元,用于获取眼睛在第二空间坐标系下的空间坐标;
坐标转换子单元,用于通过坐标换算法将眼睛在第二空间坐标系下的坐标转换为眼睛在第一空间坐标系下的空间坐标,并根据眼睛在第一空间坐标系下的空间坐标确定用户的眼睛与显示屏之间的距离。
可选地,第一获取模块402,包括:
获取子模块,用于通过深度摄像头获取操作点在第二空间坐标系下的空间坐标;
坐标转换子模块,用于通过坐标换算法将操作点在第二空间坐标系下的空间坐标转换为操作点在第一空间坐标系下的空间坐标。
可选地,参见图5,装置,还包括:
第四获取模块407,用于在裸眼3D显示设备的用户界面UI上设置的左右视图上的每个点对应的操作;
执行模块406,用于在左右视图上的每个点对应的操作中查找视图点对应的操作,并执行查找到的视图点对应的操作。
本发明实施例提供的装置,通过在立体图像上获取与用户的操作点之间的深度值差值在预设阈值内的目标点,并通过操作立体图像上的目标点来操作裸眼3D显示设备,不仅操作裸眼3D显示设备的方式更加灵活,而且通过操作立体图像来操作操作裸眼3D显示设备能给用户带来良好的操作体验。
需要说明的是:上述实施例提供的操作裸眼三维图形显示设备的装置在操作裸眼三维图形显示设备时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的操作裸眼三维图形显示设备的装置与操作裸眼三维图形显示设备的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (12)
1.一种操作裸眼三维图形显示设备的方法,其特征在于,所述方法应用于处于出屏状态的裸眼三维图形显示设备,所述方法包括:
确定处于出屏状态的裸眼三维图形显示设备显示的立体图像上的每个点在所述裸眼三维图形显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标,所述立体图像上的每个点在所述第一空间坐标系下的空间坐标包括第一坐标值、第二坐标值以及第一深度值;
获取用户的操作点在所述第一空间坐标系下的空间坐标,所述操作点在所述第一空间坐标系下的空间坐标包括第三坐标值、第四坐标值以及第二深度值;
从所述立体图像上的所有点中获取在所述第一空间坐标系下的空间坐标中的第一坐标值和第二坐标值分别与所述第三坐标值和第四坐标值相等的目标点,并判断所述目标点的第一深度值与所述第二深度值之间的距离是否小于预设阈值;
如果所述第一深度值与所述第二深度值之间的距离小于预设阈值,则根据所述立体图像上的每个点与所述立体图像对应的左右视图上的每个点之间的对应关系获取所述左右视图上与所述目标点对应的视图点,并执行与所述视图点对应的操作。
2.根据权利要求1所述的方法,其特征在于,所述确定处于出屏状态的裸眼三维图形显示设备显示的立体图像上的每个点在所述裸眼三维图形显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标,包括:
确定处于出屏状态的裸眼三维图形显示设备显示的所述立体图像上的每个点与所述显示屏的距离,并将所述立体图像上的每个点与所述显示屏的距离作为所述立体图像的每个点在所述第一空间坐标系下的空间坐标中的第一深度值;
确定所述立体图像上的每个点在所述第一空间坐标系下的空间坐标中的第一坐标值以及第二坐标值,获得所述立体图像上的每个点在所述第一空间坐标系下的空间坐标。
3.根据权利要求2所述的方法,其特征在于,所述确定处于出屏状态的裸眼三维图形显示设备显示的所述立体图像上的每个点与所述显示屏的距离,包括:
获取用户的眼睛与所述显示屏之间的距离、所述立体图像上每个点的左右视图视差以及所述眼睛的瞳距;
根据用户的眼睛与所述显示屏之间的距离、所述立体图像上每个点的左右视图视差以及所述眼睛的瞳距确定处于出屏状态的裸眼三维图形显示设备显示的所述立体图像上的每个点与所述显示屏的距离。
4.根据权利要求3所述的方法,其特征在于,所述获取用户的眼睛与所述显示屏之间的距离,包括:
建立在所述显示屏上设置的深度摄像头所在平面构成的第二空间坐标系;
获取所述眼睛在所述第二空间坐标系下的空间坐标;
通过坐标换算法将所述眼睛在所述第二空间坐标系下的坐标转换为眼睛在所述第一空间坐标系下的空间坐标,并根据所述眼睛在所述第一空间坐标系下的空间坐标确定用户的眼睛与所述显示屏之间的距离。
5.根据权利要求4所述的方法,其特征在于,所述获取用户的操作点在所述第一空间坐标系下的空间坐标,包括:
通过所述深度摄像头获取所述操作点在所述第二空间坐标系下的空间坐标;
通过坐标换算法将所述操作点在所述第二空间坐标系下的空间坐标转换为所述操作点在所述第一空间坐标系下的空间坐标。
6.根据权利要求1至5中任一权利要求所述的方法,其特征在于,所述执行与所述视图点对应的操作之前,还包括:
获取在所述裸眼三维图形显示设备的用户界面UI上设置的所述左右视图上的每个点对应的操作;
所述执行与所述视图点对应的操作,包括:
在所述左右视图上的每个点对应的操作中查找所述视图点对应的操作,并执行查找到的所述视图点对应的操作。
7.一种操作裸眼三维图形显示设备的装置,其特征在于,所述装置应用于处于出屏状态的裸眼三维图形显示设备,所述装置包括:
确定模块,用于确定处于出屏状态的裸眼三维图形显示设备显示的立体图像上的每个点在所述裸眼三维图形显示设备的显示屏所在平面构成的第一空间坐标系下的空间坐标,所述立体图像上的每个点在所述第一空间坐标系下的空间坐标包括第一坐标值、第二坐标值以及第一深度值;
第一获取模块,用于获取用户的操作点在所述第一空间坐标系下的空间坐标,所述操作点在所述第一空间坐标系下的空间坐标包括第三坐标值、第四坐标值以及第二深度值;
第二获取模块,用于从所述立体图像上的所有点中获取在所述第一空间坐标系下的空间坐标中的第一坐标值和第二坐标值分别与所述第三坐标值和第四坐标值相等的目标点;
判断模块,用于判断所述目标点的第一深度值与所述第二深度值之间的距离是否小于预设阈值;
第三获取模块,用于当所述第一深度值与所述第二深度值之间的距离小于预设阈值时,根据所述立体图像上的每个点与所述立体图像对应的左右视图上的每个点之间的对应关系获取所述左右视图上与所述目标点对应的视图点;
执行模块,用于执行与所述视图点对应的操作。
8.根据权利要求7所述的装置,其特征在于,所述确定模块,包括:
第一确定子模块,用于确定处于出屏状态的裸眼三维图形显示设备显示的所述立体图像上的每个点与所述显示屏的距离,并将所述立体图像上的每个点与所述显示屏的距离作为所述立体图像的每个点在所述第一空间坐标系下的空间坐标中的第一深度值;
第二确定子模块,用于确定所述立体图像上的每个点在所述第一空间坐标系下的空间坐标中的第一坐标值以及第二坐标值,获得所述立体图像上的每个点在所述第一空间坐标系下的空间坐标。
9.根据权利要求8所述的装置,其特征在于,所述第一确定子模块,包括:
获取单元,用于获取用户的眼睛与所述显示屏之间的距离、所述立体图像上每个点的左右视图视差以及所述眼睛的瞳距;
确定单元,用于根据用户的眼睛与所述显示屏之间的距离、所述立体图像上每个点的左右视图视差以及所述眼睛的瞳距确定处于出屏状态的裸眼三维图形显示设备显示的所述立体图像上的每个点与所述显示屏的距离。
10.根据权利要求9所述的装置,其特征在于,所述获取单元,包括:
坐标建立子单元,用于建立在所述显示屏上设置的深度摄像头所在平面构成的第二空间坐标系;
获取子单元,用于获取所述眼睛在所述第二空间坐标系下的空间坐标;
坐标转换子单元,用于通过坐标换算法将所述眼睛在所述第二空间坐标系下的坐标转换为眼睛在所述第一空间坐标系下的空间坐标,并根据所述眼睛在所述第一空间坐标系下的空间坐标确定用户的眼睛与所述显示屏之间的距离。
11.根据权利要求10所述的装置,其特征在于,所述第一获取模块,包括:
获取子模块,用于通过所述深度摄像头获取所述操作点在所述第二空间坐标系下的空间坐标;
坐标转换子模块,用于通过坐标换算法将所述操作点在所述第二空间坐标系下的空间坐标转换为所述操作点在所述第一空间坐标系下的空间坐标。
12.根据权利要求7至11中任一权利要求所述的装置,其特征在于,所述装置,还包括:
第四获取模块,用于在所述裸眼三维图形显示设备的用户界面UI上设置的所述左右视图上的每个点对应的操作;
所述执行模块,用于在所述左右视图上的每个点对应的操作中查找所述视图点对应的操作,并执行查找到的所述视图点对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410197229.9A CN105094294B (zh) | 2014-05-12 | 2014-05-12 | 操作裸眼三维图形显示设备的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410197229.9A CN105094294B (zh) | 2014-05-12 | 2014-05-12 | 操作裸眼三维图形显示设备的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105094294A CN105094294A (zh) | 2015-11-25 |
CN105094294B true CN105094294B (zh) | 2018-07-06 |
Family
ID=54574937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410197229.9A Active CN105094294B (zh) | 2014-05-12 | 2014-05-12 | 操作裸眼三维图形显示设备的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105094294B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109785445B (zh) * | 2019-01-22 | 2024-03-08 | 京东方科技集团股份有限公司 | 交互方法、装置、系统及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081493A (zh) * | 2009-12-01 | 2011-06-01 | 宏碁股份有限公司 | 移动电子装置及其三维操作界面的控制方法 |
CN102221880A (zh) * | 2011-05-19 | 2011-10-19 | 北京新岸线网络技术有限公司 | 3d图形界面的显示方法及系统 |
CN103488292A (zh) * | 2013-09-10 | 2014-01-01 | 青岛海信电器股份有限公司 | 一种立体应用图标的控制方法及装置 |
CN103744518A (zh) * | 2014-01-28 | 2014-04-23 | 深圳超多维光电子有限公司 | 立体交互方法及其显示装置和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8487871B2 (en) * | 2009-06-01 | 2013-07-16 | Microsoft Corporation | Virtual desktop coordinate transformation |
-
2014
- 2014-05-12 CN CN201410197229.9A patent/CN105094294B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081493A (zh) * | 2009-12-01 | 2011-06-01 | 宏碁股份有限公司 | 移动电子装置及其三维操作界面的控制方法 |
CN102221880A (zh) * | 2011-05-19 | 2011-10-19 | 北京新岸线网络技术有限公司 | 3d图形界面的显示方法及系统 |
CN103488292A (zh) * | 2013-09-10 | 2014-01-01 | 青岛海信电器股份有限公司 | 一种立体应用图标的控制方法及装置 |
CN103744518A (zh) * | 2014-01-28 | 2014-04-23 | 深圳超多维光电子有限公司 | 立体交互方法及其显示装置和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105094294A (zh) | 2015-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11481982B2 (en) | In situ creation of planar natural feature targets | |
CN105593785B (zh) | 凝视辅助触摸屏输入 | |
CN105187814B (zh) | 影像处理方法以及影像处理装置 | |
CN103139463B (zh) | 扩增实境的方法、系统及移动装置 | |
CN103718148B (zh) | 屏幕显示模式确定方法及终端设备 | |
CN106055081A (zh) | 移动终端及其控制方法 | |
CN103488292B (zh) | 一种立体应用图标的控制方法及装置 | |
CN104781849A (zh) | 单眼视觉同时定位与建图(slam)的快速初始化 | |
CN102274633A (zh) | 图像显示系统、装置以及方法 | |
CN109697002B (zh) | 一种在虚拟现实中对象编辑的方法、相关设备及系统 | |
JP2014197066A (ja) | 表示制御装置、表示制御方法、およびプログラム | |
CN105573485B (zh) | 一种显示内容调节方法及终端 | |
US9823773B2 (en) | Handheld device and method for implementing input area position adjustment on handheld device | |
CN107278301A (zh) | 一种辅助用户寻物的方法及装置 | |
JP2012079167A (ja) | 情報処理装置、情報処理システムおよび情報処理方法 | |
CN115515487A (zh) | 基于使用多视图图像的3d人体姿势估计的基于视觉的康复训练系统 | |
CN106598250A (zh) | 一种vr显示方法、装置和电子设备 | |
CN111161396B (zh) | 虚拟内容的控制方法、装置、终端设备及存储介质 | |
JP5920911B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN107102750B (zh) | 一种基于笔式交互系统的虚拟三维空间中目标的选择方法 | |
CN104598035B (zh) | 基于3d立体图像显示的光标显示方法、智能设备及系统 | |
CN107635132A (zh) | 裸眼3d显示终端的显示控制方法、装置及显示终端 | |
JPWO2018146922A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN105094294B (zh) | 操作裸眼三维图形显示设备的方法及装置 | |
CN102307308A (zh) | 一种在触摸屏上生成立体图像的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |