CN110674322A - 多媒体内容整合方法、系统及介质 - Google Patents

多媒体内容整合方法、系统及介质 Download PDF

Info

Publication number
CN110674322A
CN110674322A CN201810621235.0A CN201810621235A CN110674322A CN 110674322 A CN110674322 A CN 110674322A CN 201810621235 A CN201810621235 A CN 201810621235A CN 110674322 A CN110674322 A CN 110674322A
Authority
CN
China
Prior art keywords
multimedia content
user
recordable
content
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810621235.0A
Other languages
English (en)
Inventor
陈裕美
沈冠廷
胡婷婷
蔡洪睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Z Intermediate Global Corp
Original Assignee
Ryon Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ryon Co Ltd filed Critical Ryon Co Ltd
Priority to CN201810621235.0A priority Critical patent/CN110674322A/zh
Priority to JP2019111004A priority patent/JP7300901B2/ja
Publication of CN110674322A publication Critical patent/CN110674322A/zh
Pending legal-status Critical Current

Links

Images

Abstract

本发明公开一种多媒体内容整合方法,包括以下步骤。首先,取得来自第一用户端且关联于可记录主体的第一多媒体内容。然后,获取关联于所述可记录主体的第二多媒体内容。然后,根据第一多媒体内容及第二多媒体内容产生用于描述可记录主体的第一整合内容。本发明还公开另外多种多媒体内容整合方法、能够整合多媒体内容的多媒体内容整合系统及暂时性计算机可读取介质。

Description

多媒体内容整合方法、系统及介质
技术领域
本发明涉及多媒体内容整合方法、系统及介质,特别是一种用于描述可记录主体的多媒体内容整合方法、系统及介质。
背景技术
于现有用户设备及时间等限制下,每个用户都只能取得所欲记录的可记录主体(例如地标、建筑物、自然景观、物品或事件等)的其中一部分多媒体内容(例如二维相片、影片、声音等)。因此,可记录主体的许多重要部分可能未被用户所记录,导致遗憾的产生。
例如,当多个用户一起到旅游景点旅游时,每个用户都可能通过他们的手机拍摄二维相片。然而,每张二维相片都只能描述旅游景点的其中一部分(例如,仅拍摄韩国的首尔塔几个角度的二维照片)。每张二维相片都无法完整描述旅游景点。若用户只保存自己拍摄的二维相片,则可能错失旅游景点的许多重要部分。当用户未来回忆这段旅游时,可能会有遗憾的感觉。
发明内容
基于本发明的至少一个实施例,本发明提供一种多媒体内容整合方法,其能够整合多媒体内容。
所述多媒体内容整合方法包括以下步骤。首先,取得来自第一用户端的第一多媒体内容,其中第一多媒体内容关联于一个可记录主体。然后,获取关联于可记录主体且来自第一用户端以外的第二多媒体内容。然后,根据第一多媒体内容及第二多媒体内容产生用于描述可记录主体的第一整合内容。
可选地,于服务器端,取得来自第一用户端的第一多媒体内容,其中第一多媒体内容关联于一个可记录。于服务器端,获取关联于可记录主体且来自第一用户端以外的第二多媒体内容。于服务器端,根据第一多媒体内容及第二多媒体内容产生用于描述可记录主体的第一整合内容。
可选地,第二多媒体内容来自第一用户端外的其他用户端、服务器端的内存、因特网及其他多媒体内容来源的其中之一、之二、之三或全部。
可选地,在获取关联于所述可记录主体的第二多媒体内容的步骤中,还包括以下步骤。获取关联于可记录主体的关联于第一用户的历史信息。根据历史信息获取全部或一部分的第二多媒体内容。
可选地,在获取关联于所述可记录主体的第二多媒体内容的步骤中,还包括以下步骤。根据第一多媒体内容及第一用户或第一用户所在群组的历史信息,于服务器端的内存、因特网及其他多媒体内容来源的其中之一、之二或全部中,找出关联于可记录主体的一部分且未被第一与第二多媒体内容涵盖的另一多媒体内容。
可选地,在找出关联于可记录主体的第一用户或第一用户所在群组的历史信息之后,以及在产生第一整合内容以前,还包括以下两个步骤。首先,将确认可记录主体是否为正确的确认命令传送至第一用户端或第一用户所在群组。然后,若确认结果为否,则重新设定可记录主体,并找出关联于重新设定可记录主体的另一多媒体内容。
可选地,多媒体内容整合方法还包括以下步骤。首先,分析第一整合内容,以产生第一导引数据,第一导引数据能够导引群组中的至少一用户提供关联于可记录主体的第三多媒体内容。然后,将第一导引数据提供给用户。然后,取得来自用户的第三多媒体内容。然后,根据第一多媒体内容、第二多媒体内容及第三多媒体内容产生用于描述可记录主体的第二整合内容。
可选地,第一多媒体内容包括第一相片,第一相片由从第一角度拍摄可记录主体而产生。第二多媒体内容包括第二相片,第二相片由从第二角度拍摄可记录主体而产生。第三多媒体内容包括第三相片,第三相片由从第三角度拍摄可记录主体而产生。第一相片、第二相片及第三相片为二维相片。第一导引数据包括为了呈现可记录主体的三维视图所缺漏的拍摄角度数据。
可选地,第一多媒体内容还包括关于第一相片的第一拍摄地点数据、第一拍摄时间数据或第一拍摄方向数据。第二多媒体内容还包括关于第二相片的第二拍摄地点数据、第二拍摄时间数据或第二拍摄方向数据。第三多媒体内容还包括关于第三相片的第三拍摄地点数据、第三拍摄时间数据或第三拍摄方向数据。
可选地,于提供第一导引数据给用户的步骤中,多媒体内容整合方法还包括以下步骤。首先,计算群组中的第一用户及关联于第一用户的多个第二用户与可记录主体在地图上的距离。然后,根据计算结果,自第一用户及多个第二用户中选择最靠近可记录主体的一个。然后,提供第一导引数据给选择的用户。然后,取得来自选择的用户的第三多媒体内容。
可选地,多媒体内容整合方法还包括以下步骤。首先,根据第一整合内容描述可记录主体的完整程度,给予完整度分数。然后,将完整度分数提供给用户。
可选地,在用户根据第一导引数据的导引提供关联于可记录主体的第三多媒体内容之后,提供用户奖励分数。
可选地,在产生第二整合内容的步骤之前,以及在取得第三多媒体内容之后,多媒体内容整合方法还包括以下步骤。首先,判断第二整合内容的当前多媒体内容是否足够以描述可记录主体。然后,若判断当前多媒体内容不足够以描述可记录主体,则产生第二导引数据,以导引用户提供关联于可记录主体的第四多媒体内容。然后,将第二导引数据提供给用户,然后取得来自用户的第四多媒体内容。然后,根据第一多媒体内容、第二多媒体内容、第三多媒体内容及第四多媒体内容产生用于描述可记录主体的第三整合内容。
可选地,多媒体内容整合方法还包括以下步骤。首先,分析第一整合内容,以判断第一整合内容是否足够以描述可记录主体。然后,若判断第一整合内容不足够以描述可记录主体,则产生导引数据,导引数据能够导引用户提供关联于可记录主体的第三多媒体内容。然后,将导引数据提供给用户,然后取得来用户的第三多媒体内容。根据第一多媒体内容、第二多媒体内容及第三多媒体内容产生用于描述可记录主体的第二整合内容。
基于本发明的至少一个实施例,本发明提供一种能够整合多媒体内容的多媒体内容整合系统,包括至少一内存装置、至少一处理装置以及至少一通信装置,配置成用于执行前述多个多媒体内容整合方法的任一者。
基于本发明的至少一个实施例,本发明提供一种能够整合多媒体内容的暂时性计算机可读取介质。暂时性计算机可读取媒体包括多个程序代码以执行前述多个多媒体内容整合方法的任一者
由此,本发明的方法、、系统及媒体能够整合多媒体内容。因此,本发明的方法、系统及媒体可以更完整描述可记录主体,从而带给用户更好的用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的多媒体内容整合系统的框图;
图2是根据本发明实施例的多媒体内容整合方法的流程图;
图3是图2的多媒体内容整合方法的方法实现于图1的多媒体内容整合系统的示意图;
图4是根据本发明另一个实施例的多媒体内容整合方法的流程图;
图5是图4的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图;
图6是根据本发明另一个实施例的多媒体内容整合方法的流程图;
图7是图6的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图;
图8是根据本发明另一个实施例的多媒体内容整合方法的流程图;
图9是图8的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图;
图10是根据本发明另一个实施例的多媒体内容整合方法的流程图;
图11是图10的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图;
图12是根据本发明另一个实施例的多媒体内容整合方法的流程图;
图13是图12的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图;
图14是根据本发明另一个实施例的多媒体内容整合方法的流程图;以及
图15是图14的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图。
附图标记
100 多媒体内容整合系统
110 服务器端
111 内存
112 处理器
113 通信组件
120 第一用户端
121 输入设备
122 显示器
123 内存
124 处理器
125 通信组件
130 第二用户端
140 因特网
150 其他多媒体内容来源
S11~S13 步骤
S21~S28 步骤
S31~S36 步骤
S41~S46 步骤
S51~S56 步骤
S61~S69 步骤
S71~S78 步骤
具体实施方式
为充分了解本发明的目的、特征及功效,兹藉由下述具体的实施例,并配合附图,对本发明做详细说明,说明如后:
请参照图1,图1是根据本发明实施例的多媒体内容整合系统的框图。
如图1所示,多媒体内容整合系统100包括服务器端110、第一用户端120以及多个第二用户端130。服务器端110适用于通信连接因特网140及其他多媒体内容来源150。服务器端110可具有服务器装置。服务器装置可包括内存111、处理器112及通信组件113,且通信连接于第一用户端120及多个第二用户端130。第一用户端120可具有计算机装置。第一用户端120的计算机装置可包括输入设备121、显示器122、内存123、处理器124及通信组件125。类似地,多个第二用户端130可具有计算机装置。多个第二用户端130的计算机装置也可包括输入设备、显示器、内存、处理器及通信组件。
服务器端110适用于接收及存储来自第一用户端120、多个第二用户端130及其他多媒体内容来源150的多媒体内容。例如,通信组件113适用于接收来自第一用户端120、第二用户端130及其他多媒体内容来源150的多媒体内容,且处理器112适用于控制内存111存储来自第一用户端120、第二用户端130及其他多媒体内容来源的多媒体内容。
第一用户端120适用于接收来自服务器端110的数据,也适用于执行来自服务器端110的命令。例如,第一用户端120的通信组件125适用于接收服务器端110的通信组件113传送的多媒体内容,以及第一用户端120的处理器124适用于控制内存121执行服务器端110存储多媒体内容的命令。又例如,第一用户端120的处理器124适用于控制显示器122执行服务器端110显示多媒体内容的命令。又例如,第一用户端120的处理器124适用于执行服务器端110找出指定多媒体内容并回传指定多媒体内容的命令。又例如,第一用户端120的处理器124适用于控制显示器122显示来自服务器端110导引数据。
于本实施例中,首次传输自第一用户端120的多媒体内容(以下称为第一多媒体内容)、非传输自第一用户端120的多媒体内容(以下称为第二多媒体内容)、及非首次传输自第一用户端120的多媒体内容(以下称为第三多媒体内容)的其中之二或全部将会被整合,以作为整合内容。第一用户端120适用于存储及播放整合内容。相较于第一多媒体内容、第二多媒体内容或第三多媒体内容只能零散地描述可记录主体,整合内容能够更完整描述可记录主体。因此,由整合内容,可以避免用户产生遗憾。由于本发明后续的实施例将对于如何产生整合内容有详细说明,故于此处省略相关叙述。
请参照图2及图3,图2是根据本发明实施例的多媒体内容整合方法的流程图,图3是图2的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图。
所述方法包括以下三个步骤S11~S13。步骤S11为,于服务器端110,取得来自第一用户端的第一多媒体内容。所述第一多媒体内容关联于一个可记录主体。步骤S12为,于服务器端110,获取关联于可记录主体且来自第一用户端以外的第二多媒体内容。步骤S13为,于服务器端110,根据第一多媒体内容及第二多媒体内容产生用于描述可记录主体的第一整合内容。
于本实施例中,实现步骤S11~S13的先后顺序依序是步骤S11、步骤S12、步骤S13,但本发明不以此为限制。例如,于本发明其他可能的实施例中,可以在找出多个第二多媒体内容的一部分之后,先整合第一多媒体内容及一部分的第二多媒体内容来产生中间整合内容。然后,再找出多个第二多媒体内容的另一部分之后,再整合中间整合内容及另一部分的第二多媒体内容来产生第一整合内容。也就是,于本发明其他可能的实施例中,步骤S12及步骤S13的实现可以具有中间步骤(也就是,产生中间整合内容)。
于步骤S11中,服务器端110适用于取得来自第一用户端120的第一用户端的第一多媒体内容。例如,服务器端110的服务器装置的通信组件适用于接收来自第一用户端120的通信组件传送的第一多媒体内容。
于步骤S12中,服务器端110适用于找出关联于可记录主体且来自第一用户端以外的第二多媒体内容。例如,服务器端110的服务器装置的处理器适用于找出关联于可记录主体且来自第一用户端以外的第二多媒体内容。
于步骤S13中,服务器端110适用于根据所述第一多媒体内容及所述第二多媒体内容产生用于描述可记录主体的第一整合内容。例如,服务器端110的服务器装置的处理器适用于根据所述第一多媒体内容及所述第二多媒体内容产生用于描述可记录主体的第一整合内容。
于本实施例(以下称为第一个方法实施例)中,步骤S11~S13大致上都是通过服务器端110实现的。然而,本发明不以此为限制。例如,于其他实施例中,步骤S11~S13的其中之一、之二或全部可实现于第一用户端120或其他装置。
请参照图4及图5,图4是根据本发明另一个实施例的多媒体内容整合方法。图5是图4的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图。
所述方法包括以下八个步骤S21~S28,其中图4的步骤S21与图2的步骤S11完全相同,图4的步骤S28图2的步骤S13完全相同,故于此皆不再赘述。比较图2及图4,可发现图2的步骤S12被示例性的分解为图4的六个步骤S22~S27。步骤S22为,服务器端110的服务器装置的处理器传送第一命令至服务器装置的内存,以找出内存中关联于可记录主体的第二多媒体内容。步骤S23为,响应于第一命令,服务器装置的内存传送一部分的第二多媒体内容至服务器装置的处理器。步骤S24为,服务器端的服务器装置的处理器传送第二命令至因特网140的服务器,以找出因特网140的服务器中关联于可记录主体的第二多媒体内容。步骤S25为,响应于第二命令,因特网140的服务器传送另一部分的第二多媒体内容至服务器装置的处理器。步骤S26为,服务器装置的处理器传送第三命令至其他多媒体内容来源150的服务器,以找出其他多媒体内容来源150的服务器中关联于可记录主体的第二多媒体内容。步骤S27为,响应于第三命令,其他多媒体内容来源150的服务器传送另一部分的第二多媒体内容至服务器装置的处理器。
值得注意的是,本实施例(以下称为第二个方法实施例)显然只是第一个方法实施例的其中一个下位实施例而已,且本发明不以此为限制。例如,服务器端110的服务器装置的处理器适用于产生对应数量的命令以从服务器装置的内存、因特网及其他多媒体内容来源的其中之一、之二或全部找出关联于可记录主体的第二多媒体内容。也就是,第二多媒体内容可以来自服务器装置的内存、因特网及其他多媒体内容来源的其中之一、之二或全部。
此外,于本实施例中,服务器装置的处理器是依序传送第一至第三命令至服务器装置的内存、因特网及其他多媒体内容来源,以依序取得来自服务器装置的内存、因特网及其他多媒体内容来源的第二多媒体内容。然而,本发明不以此为限制。例如,于其他可能的实施例中,服务器装置的处理器取得来自服务器装置的内存、因特网及其他多媒体内容来源的第二多媒体内容的顺序可以与本实施例不同。
请参照图6及图7,图6是根据本发明另一个实施例的多媒体内容整合方法的流程图,图7是图6的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图。
所述方法包括以下六个步骤S31~S36。步骤S31为,取得来自第一用户端120的第一多媒体内容。第一多媒体内容关联于一个可记录主体。步骤S32为,找出关联于可记录主体的关联于第一用户的历史信息。关联于第一用户的历史信息可以作为全部或一部分的第二多媒体内容,或不作为第二多媒体内容。此外,虽然关联于第一用户的历史信息的原始来源可能来自第一用户端120或其他用户端,但由于关联于第一用户的历史信息通常不会存储于第一用户端120,因此于本文中,关联于第一用户的历史信息可以作为来自第一用户端120以外的第二多媒体内容。步骤S33为,根据所述第一多媒体内容及关联于第一用户的历史信息,于服务器端110的内存、因特网及其他多媒体内容来源的其中之一、之二或全部中,找出第二多媒体内容。步骤S34为,将确认可记录主体是否为正确的确认命令传送至第一用户端。步骤S35为,若第一用户端的确认结果为是,根据第一多媒体内容及第二多媒体内容产生用于描述可记录主体的第一整合内容。步骤S36为,若第一用户端的确认结果为否或第一用户端此时选择的可记录主体不是步骤S32中所决定的可记录主体,则重新决定所述可记录主体,并回到步骤S32,以重新决定关联可记录主体。
于步骤S31中,例如,服务器端110的服务器装置的通信组件适用于接收来自第一用户端120的通信组件传送的第一多媒体内容。
于步骤S32中,例如,服务器端110的服务器装置的处理器适用于产生命令以控制内存找出关联于可记录主体的关联于第一用户的历史信息,以作为一部分的第二多媒体内容。关联于第一用户的历史信息可以包括第一用户的个人档案、历史聊天记录、历史操作记录、分享过的档案(包括相片、影片、文件等)、第一用户的好友及第一用户参加或有兴趣参加的群组。
于步骤S33中,例如,服务器端110的服务器装置的处理器适用于根据第一多媒体内容及关联于第一用户的历史信息,且于服务器端的内存、因特网及其他多媒体内容来源的其中之一、之二或全部中,找出关联于可记录主体的另一部分的多媒体内容。由于第二个方法实施例已详细说明如何从一个或多个来源取得多媒体内容,故于本实施例(以下称为第三个方法实施例)不再赘述步骤S33如何找出关联于可记录主体的另一部分的多媒体内容。
于步骤S34中,服务器端110适用于将确认所述可记录主体是否为正确的确认命令传送至第一用户端。例如,服务器端110的服务器装置的处理器适用于产生确认所述可记录主体是否为正确的确认命令,服务器端110的服务器装置的处理器的通信组件适用于传送确认命令至第一用户端的计算器装置的通信组件。根据步骤S34的确认结果,可接着实现步骤S35或实现步骤S36。
于步骤S35中,例如,服务器端110的服务器装置的处理器适用于根据第一多媒体内容及第二多媒体内容产生用于描述所述可记录主体的第一整合内容。
于步骤S36中,例如,服务器端110的服务器装置的处理器适用于重新设定可记录主体,以找出关联于重新设定可记录主体的第二多媒体内容。
举例来说,若第一多媒体内容为二维相片且二维相片记录多个物体,则于步骤S33中,可以根据关联于第一用户的历史信息来预测哪个物体为可记录主体。也就是,利用关联于第一用户的历史信息来预测第一用户真正所欲记录的是哪一个物体,并且,将预测最有可能是第一用户真正所欲记录的物体作为可记录主体。于此例子中,由于可记录主体仅是根据关联于第一用户的历史信息产生的预测结果。当前设定的可记录主体不一定就是第一用户真正所欲记录的物体。因此,可以使用步骤S34及步骤S35向第一用户确认当前设定的可记录主体是否就是第一用户真正所欲记录的物体。
于一个其他可能的实施例中,可以省略步骤S34及步骤S35,仅依序实施步骤S31、步骤S32、步骤S33及步骤S36。也就是,于其他可能的实施例中,可以不需要来自第一用户端的确认,直接产生第一整合内容。
于另一个其他可能的实施例中,可以先依序实施步骤S31、S32及S34,接着实施步骤S35或步骤S36。若接着实施的步骤为S35,则最后实施步骤S33。若接着实施的步骤为S36,则重新设定所述可记录主体,并回到步骤S32。也就是,于另一个其他可能的实施例中,可以先取得来自第一用户端的对所述可记录主体的确认,然后再找出另外的第二多媒体内容。
请参照图8及图9,图8是根据本发明另一个实施例的多媒体内容整合方法的流程图,图9是图8的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图。
图8的步骤S41~S46类似于图6的步骤S31~S36。然而,图8的步骤S42是找出第一用户所在群组的历史信息,而不是找出关联于第一用户的历史信息。图8的步骤S43是根据第一用户所在群组的历史信息找出第二多媒体内容,而不是根据找出关联于第一用户的历史信息找出第二多媒体内容。图8的步骤S44可以将确认所述可记录主体是否为正确的确认命令传送至第一用户,也可以传送至第一用户所在群组(也就是,作为群组信息)。
图8的步骤S41~S46实现方式的举例说明、顺序与图6的步骤S31~S36实现方式的举例说明、顺序可以完全相同,故于此不再赘述。
于所述其他可能的实施例中,可以省略步骤S44及步骤S45,仅依序实施步骤S41、步骤S42、步骤S43及步骤S46。也就是,于其他可能的实施例中,可以不需要来自第一用户端的确认,直接产生第一整合内容。
请参照图10及图11,图10是根据本发明另一个实施例的多媒体内容整合方法的流程图,图11是图10的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图。
所述方法包括以下六个步骤S51~S56,其中图10的步骤S51~S53与图2的步骤S11~S13完全相同,故于此不再赘述。步骤S54为,分析第一整合内容,以产生导引数据。导引数据能够导引用户提供关联于可记录主体的第三多媒体内容。步骤S55为,将导引数据提供给群组中的至少一用户,然后取得来自用户的第三多媒体内容。步骤S56为,根据第一多媒体内容、第二多媒体内容及第三多媒体内容产生用于描述可记录主体的第二整合内容。
图10的步骤S51~S53实现方式的举例说明、顺序与图2的步骤S11~S13实现方式的举例说明、顺序也可以完全相同,故于此也不再赘述。
于步骤S54中,例如,服务器端110的服务器装置的处理器适用于分析第一整合内容,以产生导引数据。
于步骤S55中,例如,服务器端110的服务器装置的通信组件适用于提供导引数据给群组中的至少一用户,以及接收来自群组中的至少一用户的第三多媒体内容。
于步骤S56中,例如,服务器端110的服务器装置的处理器适用于根据第一多媒体内容、第二多媒体内容及第三多媒体内容产生用于描述可记录主体的第二整合内容。可选地,第二整合内容可以被提供给第一用户及多个第二用户。
于本实施例(以下称为第五个方法实施例)中,步骤S51~S56大致上都是通过服务器端110实现的。然而,本发明不以此为限制。例如,于其他可能的实施例中,步骤S51~S56的其中之一、之二、之三、之四、之五或全部可实现于第一用户端120或其他位置。
举例来说,第一多媒体内容可包括一个第一相片,第二多媒体内容可包括一个第二相片,第三多媒体内容可包括一个第三相片。第一相片、第二相片及第三相片可以皆为二维相片。第一相片、第二相片及第三相片分别藉由从第一角度、第二角度及第三角度拍摄所述可记录主体而产生。第一角度、第二角度及第三角度彼此不同。第一整合内容仅能够粗略可记录主体,例如第一整合内容仅能够粗略呈现可记录主体的三维视图。因此,由导引数据,用户可以提供第三多媒体内容以产生第二整合内容。相较于第一整合内容,第二整合内容能够更完整描述可记录主体,例如第二整合内容能够更完整呈现可记录主体的三维视图。
此外,于一个可能的实施例中,于依序实施步骤S51~S53之后,可以先分析第一整合内容,以判断第一整合内容足够以描述可记录主体。若判断第一整合内容不足够以描述可记录主体,则依序实施步骤S54~S56。若判断第一整合内容足够以描述可记录主体,则不实施步骤S54~S56。于此例子中,可以藉由完整度分数作为门坎值。若第一整合内容的完整度分数达到门坎值,则判断第一整合内容是否足够以描述可记录主体。若第一整合内容的完整度分数未达到门坎值,则判断第一整合内容不足够以描述可记录主体。关于完整度分数,后面的实施例有详细说明,故于此不再赘述。
此外,于一个可能的实施例中,于依序实施步骤S51~S55之后,可以先判断包括第一多媒体内容、第二多媒体内容及第三多媒体内容的当前多媒体内容是否足够以描述可记录主体。若判断当前多媒体内容不足够以描述可记录主体,则产生更多的导引数据,以导引用户提供关联于可记录主体的第四多媒体内容。然后,最后实施步骤S56。类似地,于此例子中,可以由完整度分数作为门坎值。若当前多媒体内容的完整度分数达到门坎值,则判断当前多媒体内容足够以描述可记录主体。若当前多媒体内容的完整度分数未达到门坎值,则判断当前多媒体内容不足够以描述可记录主体。关于完整度分数,后面的实施例有详细说明,故于此不再赘述。
虽然于以上的例子中第一相片、第二相片及第三相片的数量皆为一个,但本发明不以此限制。例如,第一相片的数量可以为多个,每个第一相片的第一角度可以彼此不同。例如,第二相片的数量可以为多个,每个第二相片的第二角度可以彼此不同。例如,第三相片的数量可以为多个,每个第三相片的第三角度可以彼此不同。
此外,第一多媒体内容还可以包括关于第一相片的第一拍摄地点数据、第一拍摄时间数据或第一拍摄方向数据。第二多媒体内容还可以包括关于第二相片的第二拍摄地点数据、第二拍摄时间数据或第二拍摄方向数据。第三多媒体内容还可以包括关于所述第三相片的第三拍摄地点数据、第三拍摄时间数据或第三拍摄方向数据。
第一至第三拍摄地点数据可以用于优化第二整合内容。例如,当可记录主体为地标时,由于地标位置通常是固定的,因此,可以由第一至第三拍摄地点数据,确认第一相片、第二相片及第三相片都是同一个地点拍摄的。
第一至第三拍摄时间数据也可以用于优化第二整合内容。例如,当可记录主体为事件(例如,一场婚礼)时,由于事件通常发生在一段时间内,因此,可以由第一至第三拍摄时间数据,了解第一相片、第二相片及第三相片的时间顺序。又例如,当可记录主体为物品时,由于物品通常可以被移动或转动,且移动过程及转动过程通常发生在一段时间内,因此,可以由第一至第三拍摄时间数据,了解第一相片、第二相片及第三相片的时间顺序,从而能够更精准的描述物品的整体构造。
第一至第三拍摄方向数据也可以用于优化第二整合内容。例如,当可记录主体为建筑物或自然景观时,由第一至第三拍摄方向数据,了解建筑物或自然景观的方位,从而能够更精准的描述建筑物或自然景观。
于上述的几个例子中,可记录主体分别以地标、事件、物品、建筑物及自然景观作为举例。然而,如同前面所叙述的,可记录主体意旨用户真正所欲记录的、通常是相当具有纪念价值的主体。因此,本说明书所描述的可记录主体不以地标、事件、物品、建筑物及自然景观为限制。
第一至第三拍摄地点数据、第一至第三拍摄时间数据及第一至第三拍摄方向数据可以例如由计算器装置本身的全球定位系统(GPS)、重力传感器及加速计来取得。计算器装置可以是行动装置,例如手机或平板等。
于本实施例中,第一至第三多媒体内容皆是以二维相片作为举例。然而,本发明不以此为限制。例如,第一至第三多媒体内容可以包括影片、声音、其他种类的多媒体内容或多个种类多媒体内容的组合。
于本实施例中,用户包括第一用户及关联于第一用户的一个或多个第二用户。例如,第二用户可以是第一用户在通信软件上的个人好友,或是,第二用户可以是第一用户参与群组的群组好友,或是,第二用户可以是与第一用户使用相同局域网络的用户。一部分第三多媒体内容来自所述第一用户,而另一部分第三多媒体内容来自关联于第一用户的一个或多个第二用户。然而,本发明不以此为限制。于其他可能的实施例中,用户可以仅包括第一用户或仅包括一个第二用户。全部第三多媒体内容可以仅来自第一用户,或者,全部第三多媒体内容可以仅来自一个或多个第二用户。
请参照图12及图13,图12是根据本发明另一个实施例的多媒体内容整合方法的流程图,图13是图12的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图。
所述方法(以下称为第六个方法实施例)包括以下九个步骤S61~S69,其中图12的步骤S61~S64与图10的步骤S51~S54完全相同,图12的步骤S69与图10的步骤S56完全相同,故于此不再赘述。步骤S65为,计算包括第一用户及关联于第一用户的多个第二用户与可记录主体在地图上的距离。步骤S66为,根据计算结果,判断第一用户及多个第二用户哪一个最靠近可记录主体。步骤S67为,仅提供导引数据给最靠近可记录主体的用户。也就是,仅提供所述导引数据给最靠近可记录主体的第一用户,或仅提供所述导引数据给最靠近所述可记录主体的所述多个第二用户的其中之一。步骤S68为,取得来自所述用户的所述第三多媒体内容。全部第三多媒体内容仅来自第一用户,或者,全部第三多媒体内容仅来自一个第二用户。
于步骤S65中,例如,服务器端110的服务器装置的处理器适用于计算包括第一用户及关联于第一用户的多个第二用户与可记录主体在地图上的距离。又例如,服务器端110的服务器装置的处理器由GPS、拍摄地点数据或无线网络地址(例如Beacon、WIFI、4G等)的其中之一、之二或全部,判断可记录主体、第一用户及多个第二用户在地图上的位置,从而可以计算第一用户与可记录主体在地图上的距离,以及可以计算多个第二用户与可记录主体在地图上的距离。于此例子中,在室外,可能较适合由GPS判断可记录主体及用户在地图上的位置,而在室内,可能较适合由无线网络地址判断可记录主体及用户在地图上的位置。
于步骤S66中,例如,服务器端110的服务器装置的处理器适用于根据计算结果,判断第一用户及多个第二用户哪一个最靠近可记录主体。
于步骤S67中,例如,服务器端110的服务器装置的处理器适用于控制内存仅提供导引数据给最靠近可记录主体的用户。
于步骤S68中,例如,服务器端110的服务器装置的通信组件适用于取得来自所述用户的第三多媒体内容。
举例来说,若第一用户与可记录主体在地图上的距离的计算结果为10公尺,代号A的第二用户与可记录主体在地图上的距离的计算结果为8公尺,代号B的第二用户与可记录主体在地图上的距离的计算结果为6公尺,则根据计算结果,判断代号B的第二用户为最靠近可记录主体的用户。导引数据仅提供给代号B的第二用户。代号B的第二用户由导引数据的导引提供第三多媒体内容。
请参照图14及图15,图14是根据本发明另一个实施例的多媒体内容整合方法的流程图,图15是图14的多媒体内容整合方法实现于图1的多媒体内容整合系统的示意图。
所述方法(以下称为第七个方法实施例)包括以下八个步骤S71~S78,其中图14的步骤S71~S76与图10的步骤S51~S56完全相同,故于此不再赘述。步骤S77为,根据第一整合内容描述可记录主体的完整程度,给予完整度分数。步骤S78为,将完整度分数提供给用户。
于步骤S77中,例如,服务器端110的服务器装置的处理器适用于根据第一整合内容描述可记录主体的完整程度,给予完整度分数。
于步骤S78中,例如,服务器端110的服务器装置的通信组件适用于将完整度分数提供给用户。
举例来说,完整度分数可以设定在0~100分的范围内,分数越高代表描述可记录主体的完整程度越高。用户可能跟据完整度分数,改变是否提供第三多媒体内容的意愿。例如,用户可能因为第一整合内容的完整度分数只有60分,决定提供第三多媒体内容,以提升描述可记录主体的完整程度。于其他可能的实施例中,也可以计算第二整合内容的完整度分数,以及可以把第二整合内容的完整度分数提供给用户。第二整合内容的完整度分数理想上应该高于第一整合内容的完整度分数。
于第五个方法实施例至第七个方法实施例中,在用户根据导引数据的导引提供第三多媒体内容之后,可以提供用户奖励分数。奖励分数可以关联于用户的贡献,例如,奖励分数等于第二整合内容的完整度减去第一整合内容的完整度分数。奖励分数可以是代币形式,用户可以使用奖励分数来购买贴图或其他奖品。
虽然以上由第一个方法实施例至第七个方法实施例作为举例,然而,本发明不以第一个方法实施例至第七个方法实施例为限。本发明显然可以基于第一个方法实施例至第七个方法实施例产生更多的方法实施例。
举例来说,于其他可能的实施例中,在取得来自用户的第三多媒体内容之后,可以找出关联于所述可记录主体且来自用户以外的多媒体内容(以下称为第五多媒体内容)。然后,根据第一多媒体内容、第二多媒体内容、第三多媒体内容及第五多媒体内容可以产生用于描述可记录主体的第二整合内容。第五多媒体内容可以来自该用户外的其他用户、服务器端的内存、因特网及其他多媒体内容来源的其中之一、之二、之三或全部。
举例来说,于第一个方法实施例至第七个方法实施例中,第一整合内容的产生是根据来自第一用户端的第一多媒体内容及来自第一用户端以外的第二多媒体内容。然而,本发明不以此为限制。
例如,于其他可能的实施例中,可以判断第一多媒体内容是否足够用于描述所述可记录主体。若判断第一多媒体内容足够描述可记录主体,则可以仅根据第一多媒体内容产生用于描述所述可记录主体的第一整合内容。若判断第一多媒体内容不足以用于描述可记录主体,则可以找出关联于可记录主体的第二多媒体内容,并根据第一多媒体内容及第二多媒体内容产生用于描述所述可记录主体的第一整合内容。
例如,于其他可能的实施例中,可以不找出第二多媒体内容,而且也不判断第一多媒体内容是否足够描述可记录主体,直接根据所述第一多媒体内容产生用于描述所述可记录主体的第一整合内容。
本发明另公开能够整合多媒体内容的多媒体内容整合系统。所述多媒体内容整合系统包括至少一内存装置、至少一处理装置以及至少一通信装置,配置成用于执行前述第一个至第七个方法实施例其中之一、或其他变化出的方法实施例。由于前面对于第一个至第七个方法实施例已经有相当详细的说明,故于此不再赘述所述多媒体内容整合系统。
本发明另公开能够整合多媒体内容的暂时性计算机可读取介质。所述暂时性计算机可读取介质包括多个程序代码以执行前述第一个至第七个方法实施例的其中之一、或其他变化出的方法实施例。由于前面对于第一个至第七个方法实施例已经有相当详细的说明,故于此不再赘述所述暂时性计算机可读取介质。
本发明的方法、系统及介质能够整合多媒体内容。因此,本发明的方法、系统及介质可以更完整描述可记录主体,从而带给用户更好的用户体验。
本发明在上文中已以较佳实施例说明,然而,本领域普通技术人员应理解的是,所述多个实施例仅用于描绘本发明,而不应解读为限制本发明的范围。应注意的是,举凡与所述实施例等效的变化与置换,均应设为涵盖于本发明的范围内。因此,本发明的保护范围当以权利要求书所界定的范围为准。

Claims (16)

1.一种多媒体内容整合方法,其特征在于,包括以下步骤:
取得来自第一用户端的第一多媒体内容,其中所述第一多媒体内容关联于一个可记录主体;
获取关联于所述可记录主体且来自所述第一用户端以外的第二多媒体内容;以及
根据所述第一多媒体内容及所述第二多媒体内容产生用于描述所述可记录主体的第一整合内容。
2.根据权利要求1所述的多媒体内容整合方法,其特征在于,
于服务器端,取得来自第一用户端的第一多媒体内容;
于所述服务器端,获取关联于所述可记录主体且来自第一用户端以外的所述第二多媒体内容;以及
于所述服务器端,根据所述第一多媒体内容及所述第二多媒体内容产生用于描述所述可记录主体的所述第一整合内容。
3.根据权利要求2所述的多媒体内容整合方法,其特征在于,所述第二多媒体内容来自所述第一用户端外的其他用户端、所述服务器端的内存、因特网及其他多媒体内容来源的其中之一、之二、之三或全部。
4.根据权利要求1所述的多媒体内容整合方法,其特征在于,在获取关联于所述可记录主体的第二多媒体内容的步骤中,还包括以下步骤:
获取关联于所述可记录主体的关联于第一用户的历史信息;以及
根据所述历史信息获取全部或一部分的第二多媒体内容。
5.根据权利要求4所述的多媒体内容整合方法,其特征在于,在获取关联于所述可记录主体的第二多媒体内容的步骤中,还包括以下步骤:
根据所述第一多媒体内容及所述关联于第一用户的所述历史信息,于所述服务器端的内存、因特网及其他多媒体内容来源的其中之一、之二或全部中,找出关联于所述可记录主体的一部分且未被所述第一与第二多媒体内容涵盖的另一多媒体内容。
6.根据权利要求4或5所述的多媒体内容整合方法,其特征在于,在获取关联于所述可记录主体的关联于第一用户的所述历史信息之后,以及在产生所述第一整合内容以前,还包括以下步骤:
将确认所述可记录主体是否为正确的确认命令传送至第一用户端;以及
若确认结果为否,则重新设定所述可记录主体,并找出关联于所述重新设定可记录主体的另一多媒体内容。
7.根据权利要求1所述的多媒体内容整合方法,其特征在于,多媒体内容整合方法还包括以下步骤:
分析所述第一整合内容,以产生第一导引数据,所述第一导引数据能够导引群组中的至少一用户提供关联于所述可记录主体的第三多媒体内容;
将所述第一导引数据提供给所述用户;
取得来自所述用户的所述第三多媒体内容;以及
根据所述第一多媒体内容、所述第二多媒体内容及所述第三多媒体内容产生用于描述所述可记录主体的第二整合内容。
8.根据权利要求7所述的多媒体内容整合方法,其特征在于,
所述第一多媒体内容包括第一相片,所述第一相片由从第一角度拍摄所述可记录主体而产生;
所述第二多媒体内容包括第二相片,所述第二相片由从第二角度拍摄所述可记录主体而产生;
所述第三多媒体内容包括第三相片,所述第三相片由从第三角度拍摄所述可记录主体而产生;
所述第一相片、所述第二相片及所述第三相片为二维相片;以及
所述第一导引数据包括为了呈现所述可记录主体的三维视图所缺漏的拍摄角度数据。
9.根据权利要求8所述的多媒体内容整合方法,其特征在于,
所述第一多媒体内容还包括关于所述第一相片的第一拍摄地点数据、第一拍摄时间数据或第一拍摄方向数据;
所述第二多媒体内容还包括关于所述第二相片的第二拍摄地点数据、第二拍摄时间数据或第二拍摄方向数据;以及
所述第三多媒体内容还包括关于所述第三相片的第三拍摄地点数据、第三拍摄时间数据或第三拍摄方向数据。
10.根据权利要求7所述的多媒体内容整合方法,其特征在于,于提供所述第一导引数据给所述用户的步骤中,多媒体内容整合方法还包括以下步骤:
计算所述群组中的第一用户及关联于所述第一用户的多个第二用户与所述可记录主体在地图上的距离;
根据计算结果,自所述第一用户及所述多个第二用户中选择最靠近所述可记录主体的一个;
提供所述第一导引数据给所述选择的用户;以及
取得来自所述选择的用户的所述第三多媒体内容。
11.根据权利要求7所述的多媒体内容整合方法,其特征在于,多媒体内容整合方法还包括以下步骤:
根据所述第一整合内容描述所述可记录主体的完整程度,给予完整度分数;以及
将所述完整度分数提供给所述用户。
12.根据权利要求11所述的多媒体内容整合方法,其特征在于,在所述用户根据所述第一导引数据的导引提供关联于所述可记录主体的第三多媒体内容之后,提供所述用户奖励分数。
13.根据权利要求7所述的多媒体内容整合方法,其特征在于,在产生第二整合内容的步骤之前,以及在取得所述第三多媒体内容之后,多媒体内容整合方法还包括以下步骤:
判断所述第二整合内容的当前多媒体内容是否足够以描述所述可记录主体;
若判断所述当前多媒体内容不足够以描述所述可记录主体,则产生第二导引数据,以导引所述用户提供关联于所述可记录主体的第四多媒体内容;
将所述第二导引数据提供给用户,然后取得来自所述用户的所述第四多媒体内容;以及
根据所述第一多媒体内容、所述第二多媒体内容、所述第三多媒体内容及所述第四多媒体内容产生用于描述所述可记录主体的第三整合内容。
14.根据权利要求1所述的多媒体内容整合方法,其特征在于,多媒体内容整合方法还包括以下步骤:
分析所述第一整合内容,以判断所述第一整合内容是否足够以描述所述可记录主体;
若判断所述第一整合内容不足够以描述所述可记录主体,则产生导引数据,所述导引数据能够导引用户提供关联于所述可记录主体的第三多媒体内容;
将所述导引数据提供给所述用户,然后取得来自所述用户的所述第三多媒体内容;以及
根据所述第一多媒体内容、所述第二多媒体内容及所述第三多媒体内容产生用于描述所述可记录主体的第二整合内容。
15.一种多媒体内容整合系统,包括至少一内存装置、至少一处理装置以及至少一通信装置,配置成用于执行根据权利要求1-14任一者所述的多媒体内容整合方法。
16.一种暂时性计算机可读取介质,包括多个程序代码以执行根据权利要求1-14任一者所述的多媒体内容整合方法。
CN201810621235.0A 2018-06-15 2018-06-15 多媒体内容整合方法、系统及介质 Pending CN110674322A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810621235.0A CN110674322A (zh) 2018-06-15 2018-06-15 多媒体内容整合方法、系统及介质
JP2019111004A JP7300901B2 (ja) 2018-06-15 2019-06-14 マルチメディアコンテンツ整合方法、マルチメディアコンテンツ整合システム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810621235.0A CN110674322A (zh) 2018-06-15 2018-06-15 多媒体内容整合方法、系统及介质

Publications (1)

Publication Number Publication Date
CN110674322A true CN110674322A (zh) 2020-01-10

Family

ID=69065277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810621235.0A Pending CN110674322A (zh) 2018-06-15 2018-06-15 多媒体内容整合方法、系统及介质

Country Status (2)

Country Link
JP (1) JP7300901B2 (zh)
CN (1) CN110674322A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7409404B2 (ja) 2022-01-24 2024-01-09 積水ハウス株式会社 接続部材、接続ユニット及び杭ユニット

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110019087A1 (en) * 2009-07-27 2011-01-27 Ipeer Multimedia International Ltd. Method and system for displaying multimedia subtitle
CN104583901A (zh) * 2012-08-20 2015-04-29 罗·利维 基于集合的多媒体数据的打包和显示方法及系统
CN104765761A (zh) * 2014-01-06 2015-07-08 宏达国际电子股份有限公司 多媒体文件处理方法
CN105095213A (zh) * 2014-04-22 2015-11-25 小米科技有限责任公司 信息关联方法及装置
CN106416128A (zh) * 2014-01-03 2017-02-15 投资资产公司 一种自动化的外部内容整合的用户内容共享系统和方法
CN106851096A (zh) * 2017-01-17 2017-06-13 北京品驰医疗设备有限公司 一种基于无人机自拍平台的多媒体数据记录系统和方法
CN111161555A (zh) * 2018-11-07 2020-05-15 北京嘀嘀无限科技发展有限公司 一种信息搜集方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160149959A (ko) * 2015-06-19 2016-12-28 라인 가부시키가이샤 사용자들간의 협업을 통해 컨텐츠를 생성하는 방법 및 시스템

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110019087A1 (en) * 2009-07-27 2011-01-27 Ipeer Multimedia International Ltd. Method and system for displaying multimedia subtitle
CN104583901A (zh) * 2012-08-20 2015-04-29 罗·利维 基于集合的多媒体数据的打包和显示方法及系统
CN106416128A (zh) * 2014-01-03 2017-02-15 投资资产公司 一种自动化的外部内容整合的用户内容共享系统和方法
CN104765761A (zh) * 2014-01-06 2015-07-08 宏达国际电子股份有限公司 多媒体文件处理方法
CN105095213A (zh) * 2014-04-22 2015-11-25 小米科技有限责任公司 信息关联方法及装置
CN106851096A (zh) * 2017-01-17 2017-06-13 北京品驰医疗设备有限公司 一种基于无人机自拍平台的多媒体数据记录系统和方法
CN111161555A (zh) * 2018-11-07 2020-05-15 北京嘀嘀无限科技发展有限公司 一种信息搜集方法及系统

Also Published As

Publication number Publication date
JP2019220181A (ja) 2019-12-26
JP7300901B2 (ja) 2023-06-30

Similar Documents

Publication Publication Date Title
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
JP5134664B2 (ja) アノテーション装置
US9418482B1 (en) Discovering visited travel destinations from a set of digital images
CN112074797A (zh) 用于将虚拟对象锚定到物理位置的系统和方法
US9189966B2 (en) System for learning trail application creation
US11380078B2 (en) 3-D reconstruction using augmented reality frameworks
US20180049002A1 (en) Method, server and terminal for information interaction
CN106471548A (zh) 使用外围信息的加速模板匹配
US9600932B2 (en) Three dimensional navigation among photos
US20220189060A1 (en) Visual Camera Re-Localization using Graph Neural Networks and Relative Pose Supervision
CN111680238B (zh) 信息分享方法、装置和存储介质
CN103562957A (zh) 信息提供装置、信息提供方法、信息提供处理程序、记录了信息提供处理程序的记录介质以及信息提供系统
CN109540122B (zh) 一种构建地图模型的方法及装置
US10148772B2 (en) System and method for automatically pushing location-specific content to users
EP3358505A1 (en) Method of controlling an image processing device
CN110674322A (zh) 多媒体内容整合方法、系统及介质
JP2016133701A (ja) 情報提供システム、及び情報提供方法
CN113063421A (zh) 导航方法及相关装置、移动终端、计算机可读存储介质
US20150379040A1 (en) Generating automated tours of geographic-location related features
TWI611307B (zh) 適地性空間物件資料建立方法、顯示方法與應用系統
US20200285852A1 (en) Method of controlling an image processing device
CN113704553B (zh) 视频取景地推送方法及系统
US20240046564A1 (en) Simulated Consistency Check for Points of Interest on Three-Dimensional Maps
JP2016220153A (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム
Shih Augmented-Life Phone Organizer

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Tokyo

Applicant after: AI Holding Co.,Ltd.

Address before: Tokyo, Japan

Applicant before: LINE Corp.

CB02 Change of applicant information
TA01 Transfer of patent application right

Effective date of registration: 20220216

Address after: Tokyo

Applicant after: LINE Corp.

Address before: Tokyo

Applicant before: AI Holding Co.,Ltd.

TA01 Transfer of patent application right