CN112702643A - 弹幕信息显示方法、装置、移动终端 - Google Patents

弹幕信息显示方法、装置、移动终端 Download PDF

Info

Publication number
CN112702643A
CN112702643A CN201911007282.7A CN201911007282A CN112702643A CN 112702643 A CN112702643 A CN 112702643A CN 201911007282 A CN201911007282 A CN 201911007282A CN 112702643 A CN112702643 A CN 112702643A
Authority
CN
China
Prior art keywords
bullet screen
information
position information
screen information
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911007282.7A
Other languages
English (en)
Other versions
CN112702643B (zh
Inventor
段云鹏
涂中英
孙英男
龚亚辉
鲁炳坦
王炜煜
施波迪
罗勇
方海波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Bilibili Technology Co Ltd
Original Assignee
Shanghai Bilibili Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Bilibili Technology Co Ltd filed Critical Shanghai Bilibili Technology Co Ltd
Priority to CN201911007282.7A priority Critical patent/CN112702643B/zh
Priority to US17/073,957 priority patent/US11651560B2/en
Publication of CN112702643A publication Critical patent/CN112702643A/zh
Application granted granted Critical
Publication of CN112702643B publication Critical patent/CN112702643B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/75Indicating network or usage conditions on the user display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种弹幕信息显示方法、装置、移动终端及可读存储介质,属视频显示技术领域。本发明的弹幕信息显示方法包括:获取移动终端在相机坐标系中的相机位置信息;将所述相机位置信息转换为在世界坐标系中的空间位置信息;获取所述待显示弹幕信息;根据所述空间位置信息显示所述待显示弹幕信息。本发明可以将弹幕信息显示在现实空间中,提高用户体验。

Description

弹幕信息显示方法、装置、移动终端
技术领域
本发明涉及视频显示技术领域,尤其涉及一种弹幕信息显示方法、装置、移动终端及计算机可读存储介质。
背景技术
弹幕信息可以以滚动、停留或者其他特效方式出现在视频的播放界面上,其内容通常是观看视频的用户发送的简短评论。现有技术中,主要是通过在视频的播放界面中叠加弹幕信息,实现弹幕信息的显示。当同时显示多条弹幕信息时,可以通过定向滚动或者分行显示的方式,将弹幕信息显示给用户。
然而,在现有的弹幕信息显示方法中,弹幕信息仅显示在播放界面中,且用户的交互方式较单一,使得用户参与感不强,进而导致用户体验差。
发明内容
针对现有的弹幕信息显示方法中,弹幕信息仅显示在播放界面中,且用户的交互方式较单一的问题,现提供一种弹幕信息显示方法、装置、移动终端及计算机可读存储介质。
本发明提供了一种弹幕信息显示方法,包括:
获取移动终端在相机坐标系中的相机位置信息;
将所述相机位置信息转换为在世界坐标系中的空间位置信息;
获取所述待显示弹幕信息;
根据所述空间位置信息显示所述待显示弹幕信息。
可选地,所述将所述相机位置信息转换为在世界坐标系中的空间位置信息的步骤包括:
根据所述相机位置信息计算出所述待显示弹幕信息在所述相机坐标系中的弹幕生成位置信息;
根据所述弹幕生成位置信息确定所述空间位置信息。
可选地,所述根据所述空间位置信息显示所述待显示弹幕信息的步骤包括:
获取所述待显示弹幕信息的运动轨迹以及运动速度;
根据所述运动轨迹以及运动速度播放所述待显示弹幕信息。
可选地,所述获取所述待显示弹幕信息的步骤包括:
获取待识别物体的物体图像;
通过物体识别技术对所述物体图像进行图像识别,以识别出物体类别;
根据所述物体类别从服务器中获取与所述物体类别相关联的评论信息,所述评论信息为所述待信息弹幕信息。
可选地,所述获取所述待显示弹幕信息的步骤包括:
获取所述移动终端所处的地理位置信息;
根据所述地理位置信息从服务器中获取与该地理位置信息相关联的评论信息,所述评论信息为所述待信息弹幕信息。
可选地,所述评论信息包括地点评论信息及/或视频URL信息。
可选地,所述待显示弹幕信息包括超链接弹幕,所述方法还包括:
接收到用户对播放的超链接弹幕的点击操作时,显示超链接弹幕对应的页面。
本发明还提供了一种弹幕信息显示装置,包括:
位置获取模块,用于获取移动终端在相机坐标系中的相机位置信息;
确定模块,用于将所述相机位置信息转换为在世界坐标系中的空间位置信息;
弹幕获取模块,用于获取所述待显示弹幕信息;
播放模块,用于根据所述空间位置信息显示所述待显示弹幕信息。
本发明还提供了一种移动终端,所述移动终端,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
上述技术方案的有益效果:
本技术方案中,通过获取移动终端在相机坐标系中的相机位置信息;将所述相机位置信息转换为在世界坐标系中的空间位置信息;获取所述待显示弹幕信息;根据所述空间位置信息显示所述待显示弹幕信息。本发明实施例通过增强现实技术(AugmentedReality,简称AR)来显示弹幕信息,从而可以将弹幕信息显示在现实空间中,让用户真实地体验到弹幕飘来的感觉,提高用户体验,此外,通过AR技术来显示弹幕信息,从而可以进行更加多样的交互。
附图说明
图1为本发明所述弹幕信息显示的系统框架图的一种实施例的框架图;
图2为本发明所述的弹幕信息显示方法的一种实施例的流程图;
图3为本发明图2中的将所述相机位置信息转换为在世界坐标系中的空间位置信息的步骤的细化流程图;
图4为本发明图2中获取所述待显示弹幕信息的步骤的细化流程图;
图5为本发明图2中获取所述待显示弹幕信息的步骤的细化流程图;
图6为本发明图2中根据所述空间位置信息显示所述待显示弹幕信息的步骤的细化流程图;
图7为本发明所述的弹幕信息显示方法的另一实施例的流程图;
图8为本发明所述的弹幕信息显示装置的一种实施例的模块图;
图9为本发明实施例提供的执行弹幕信息显示方法的移动终端的硬件结构示意图;
图10为本发明实施例弹幕信息显示的界面示意图;
图11为本发明实施例弹幕信息显示的另一界面示意图。
具体实施方式
以下结合附图与具体实施例进一步阐述本发明的优点。
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
在本发明的描述中,需要理解的是,步骤前的数字标号并不标识执行步骤的前后顺序,仅用于方便描述本发明及区别每一步骤,因此不能理解为对本发明的限制。
请参考图1,图1是示出了根据本申请实施例的弹幕信息显示方法的应用环境示意图。在示例性的实施例中,移动终端2可以通过网络6向服务器4获取数据。所述移动终端2可以是移动电话、平板个人计算机(tablet personal computer)、膝上型计算机(laptopcomputer)、笔记本电脑,台式电脑等具有数据发送功能的电子设备。所述网络6可以是因特网。
实施例一
图2示意性示出了根据本申请实施例一的弹幕信息显示方法的流程图。该方法应用于移动终端2中,可以理解,本方法实施例中的流程图不用于对执行步骤的顺序进行限定。下面以移动终端2为执行主体进行示例性描述。
如图2所示,该弹幕信息显示方法包括步骤S20~S23,其中:
步骤S20、获取移动终端在相机坐标系中的相机位置信息;
具体地,所述相机位置信息为移动终端在相机坐标系中的坐标。在本实施例中,移动终端在使用增强现实(Augmented Reality,简称AR)显示弹幕信息时,会启动AR弹幕程序,并调用其自身的光学系统(如摄像机组,包括镜头、快门和图像传感器等)和惯性测量单元(Inertial Measurement Unit,IMU)以及AR软件工具开发包一起收集并计算出设备的位置信息(x,y,z)和方向(俯仰、偏航、滚转),其中,该惯性测量单元可以为加速度计或陀螺仪。其中,AR技术是指透过摄影机影像的位置及角度精算并加上图像分析技术,让屏幕上的虚拟世界能够与现实世界场景进行结合与交互的技术。
需要说明的是,该位置信息(x,y,z)是相机坐标系中的坐标。
其中,相机坐标系是以相机的聚焦中心为原点,以光轴为Z轴建立的三维直角坐标系。相机坐标系(观察坐标系)的原点为相机的光心,x轴与y轴与图像的X,Y轴平行,z轴为相机光轴,它与图形平面垂直。光轴与图像平面的交点,即为图像坐标系的原点,图像坐标系为二维直角坐标系。
步骤S21,将所述相机位置信息转换为在世界坐标系中的空间位置信息。
具体地,所述空间位置信息为所述待信息弹幕信息显示在世界坐标系中的坐标。通过相机坐标系与世界坐标系的转换公式可以将相机坐标系中的坐标转换为世界坐标系中的坐标。
在示例性的实施例中,参照图3,将所述相机位置信息转换为在世界坐标系中的空间位置信息的步骤包括S30~S31,其中:
步骤S30,根据所述相机位置信息计算出所述待显示弹幕信息在所述相机坐标系中的弹幕生成位置信息。
具体地,所述弹幕生成位置信息为所述待信息弹幕信息显示在相机坐标系中的坐标。
在本实施例中,为了对弹幕信息的显示更加随机以及分散,可以对弹幕显示位置做初始化位置优化,即可以预先设定弹幕的生成位置。在一实施方式中,具体可以采用如下方式进行初始化位置优化:首先,获取到移动终端的相机位置信息,其中,在相机坐标系中,该相机位置信息用齐次坐标系来表示是
Figure BDA0002243144800000061
Figure BDA0002243144800000062
其次,在获取到移动终端的相机位置信息后,通过对相机位置p1进行平移及/或旋转变换,最后计算经过平移及/或旋转变换之后得到的位置信息,并将该位置信息作为随机以及分散的弹幕生成位置信息,其中,在相机坐标系中,经变换后的相机位置信息用齐次坐标系来表示是
Figure BDA0002243144800000063
在本实施例中,具体平移的距离以及旋转的角度可以预先设定,也可以由用户设定,在本实施例中不作限定。
步骤S31,根据所述弹幕生成位置信息确定所述空间位置信息。
具体地,在移动终端中预存有待显示弹幕信息的变换关系,该变换关系用于确定待显示弹幕信息的生成位置,示例性的,该变换关系可以为:向x轴平移a个单位,并在俯仰方向旋转b角度。在本实施例中,该变换关系会根据相机的移动以及旋转作对应的改变,改变后的变换关系可以由移动终端的操作系统和SDK来自动执行维护。
在获取到弹幕生成位置信息之后,即可以根据该变换关系来计算出所述弹幕生成位置信息对应的空间位置信息。也就是说,相机坐标系和世界坐标系的转换是根据这个变换关系来计算得到的。
步骤S22,获取所述待显示弹幕信息。
具体地,弹幕(barrage),指的是在网络上观看视频时弹出的评论性字幕。类似小说中行间彰显的夹批,视频中屏间飘过的评点叫做弹幕,原意指用大量或少量火炮提供密集炮击。而弹幕,顾名思义是指子弹多而形成的幕布,大量吐槽评论从屏幕飘过时效果看上去像是飞行射击游戏里的弹幕。
所述待显示弹幕信息为用户的评论信息。在一实施方式中,该评论信息具体可以为用户对某一个物品的评论,也可以为用户对某一地点的评论,或者对某事件的评论等。在本实施例中,该评论信息可以以文字的形式存在,在另一实施方式中,该评论信息也可以为图片、3D模型或视频等任意可以转换为3D模型的形式存在。
所述待显示弹幕信息存储于服务器中,当需要显示该弹幕信息时,可以通过一个弹幕获取指令从服务器中获取该待显示弹幕信息。
在一示例性的实施例中,参照图4,获取所述待显示弹幕信息的步骤包括S40~S42,其中:
步骤S40,获取待识别物体的物体图像。
具体地,当用户需要获取用户针对某个待识别物体的评论信息时,用户可以通过移动终端的摄像头拍摄该待识别物体的照片,从而使得移动终端获取到待识别物体的物体图像。在另一实施方式中,也可以直接从移动终端中的相册中获取该待识别物体的物体图像。
步骤S41,通过物体识别技术对所述物体图像进行图像识别,以识别出物体类别。
具体地,可以通过深度学习技术训练得到的物体识别模型来对物体图像进行图像识别,从而识别出物体的类别。该物体图像识别模型在训练的过程中,为了提高模型识别的准确率,对使用的训练样本数据集中的图片可以利用裁剪、旋转等方法对样本数据集中的图片进行数据增强处理,从而提高样本数据集的多样性,进而可以使得通过该训练样本集训练得到的物体识别模型具有更好的识别率。
步骤S42,根据所述物体类别从服务器中获取与所述物体类别相关联的评论信息,所述评论信息为所述待信息弹幕信息。
具体地,在识别出物体的类别之后,将该物体的类别信息传输至服务器,服务器根据该获取到的物体类别信息查找与该物体类别相关联的评论信息。
示例性的,该物体类别以手办商品为例,当用户看到一个手办后,用户可以通过移动终端对该手办进行拍照,然后移动终端对该手办图片进行识别,并在识别出该手办图片的类别之后,将该手办类别信息传至服务器,服务器根据该类别信息查找到与该手办相关联的评论信息。其中,移动终端可以使用离线图像识别技术进行手办商品的识别,以获取质量较高的数据集,提升识别准确度。
可以理解的,每一个用户都可以通过播放该待显示弹幕信息的用户界面来发表对该手办商品的评论信息,用户在通过该用户界面发表评论信息后,移动终端将该评论信息传至服务器,服务器将该用户评论信息与对应的手办进行关系保存至评论数据库。
在获取到弹幕信息之后,即可以将弹幕信息显示出来,在一具体实施例中,显示的弹幕信息如图10所示。
在另一示例性的实施例中,参照图5,获取所述待显示弹幕信息的步骤包括步骤S50~S51,其中:
步骤S50,获取所述移动终端所处的地理位置信息。
具体地,可以通过调用移动终端中的定位模块来获取移动终端所处的地理位置信息。
步骤S51,根据所述地理位置信息从服务器中获取与该地理位置信息相关联的评论信息,所述评论信息为所述待信息弹幕信息。
具体地,用户在发表评论信息时,可以获取用户发表该评论信息时所处的地理位置,则当用户通过移动终端发表评论信息后,移动终端会将包含地理位置信息的评论信息上传至服务器,服务器在接收到该包含地理位置信息的评论信息之后,对该包含地理位置信息的评论信息进行存储。可以理解的是,在服务器对包含地理位置信息的评论信息存储之后,后台管理人员可以对用户发表的包含地理位置信息的评论信息进行审核,在发现不合适的评论信息时,可以对该评论信息进行删除。
由于用户发表的评论信息包含有地理位置信息,因此,在获取到移动终端的地理位置信息之后,可以根据该地理位置信息从服务器中获取与该地理位置信息相关联的评论信息。
在本实施例中,该评论信息可以为地点评论信息,即用户针对某个地点的评论,该地点评论可以为文字的形式,也可以为图片、3D模型或视频等任意可以转换为3D模型的形式存在。在该评论信息以视频的形式存在时,该评论信息还包括有该视频的视频URL信息。
示例性地,当用户在某家餐厅吃饭时,用户可以针对该餐厅发表评论信息,例如,该餐厅味道很好,用户也可以针对该餐厅环境发表一个该餐厅环境的视频。当用户通过移动终端发表评论信息时,移动终端会获取用户发表该评论信息所处的地理位置信息,然后将包含该地理位置信息的评论信息上传至服务器。这样,当移动终端获取到地理位置信息之后,即可以根据获取到的地理位置信息从服务器获取与该地理位置信息相关联的评论信息。
可以理解的是,每一个用户都可以通过播放该待显示弹幕信息的用户界面来针对某一个地点来发表地点评论信息,用户在通过该用户界面发表地点评论信息后,移动终端将该地点评论信息传至服务器,服务器将该用户的地点评论信息与对应的地理位置信息进行关系保存至评论数据库。当用户发表的评论信息为视频时,移动终端在将该视频上传至服务器后,服务器会将该视频对应的URL信息与对应的地理位置信息进行关联保存至评论数据库。
在获取到弹幕信息之后,即可以将弹幕信息显示出来,在一具体实施例中,显示的弹幕信息如图11所示。
步骤S23,根据所述空间位置信息显示所述待显示弹幕信息。
具体地,在获取到待显示弹幕信息的空间位置信息之后,移动终端可以根据每一条弹幕信息的显示大小、字体颜色、字体格式和显示特效来播放每一条待显示弹幕信息,其中,显示特效包括停留、滚动或其他特效方式。
在示例性的实施例中,参照图6,根据所述空间位置信息显示所述待显示弹幕信息的步骤包括步骤S60~S61,其中:
步骤S60,获取所述待显示弹幕信息的运动轨迹以及运动速度。
步骤S61,根据所述运动轨迹以及运动速度播放所述待显示弹幕信息。
具体地,可以预先设定弹幕信息的运动轨迹以及运动速度,例如,预设弹幕运动轨迹为相对相机当前位置从右到左,运动向量记为a,在获取到该预设的运动向量a之后,将其转换为世界坐标系中向量a’。
在获取到待显示弹幕信息的空间位置信息以及计算得到弹幕的运动轨迹对应的世界坐标系中向量a’之后,在该空间位置信息中生成弹幕模型,然后根据该世界坐标系中向量a’,以运动速度S使得该弹幕模型进行运动,从而完成对所述待显示弹幕信息的播放。
在本实施例中,基于不同的操作系统或者SDK,弹幕模型可以做到不同程度的自定义效果。如弹幕模型可以使用不同的字体、颜色、光照阴影等效果,除了文字模型,也可以使用图片纹理覆盖3D模型。
在一实施方式中,当弹幕移动到预设位置之后,可以将弹幕资源进行回收。
在另一实施方式中,在显示该弹幕信息之后,用户可以对该弹幕信息进行交互式操作,比如,用户可以通过点击或者滑动等方式,来改变某一条弹幕的移动轨迹。比如,用户可以通过滑动操作将一条弹幕的移动轨迹切换到另一移动轨迹,移动终端在接收到用户对弹幕移动轨迹的切换操作之后,可以根据用户的滑动操作重新确定弹幕移动轨迹对应的方向向量,并在确定新的移动轨迹对应的方向向量后,将该方向向量转换为对应世界坐标系中的方向向量,最后按照该世界坐标系中的方向向量播放该条弹幕信息。
本实施例中,通过获取移动终端在相机坐标系中的相机位置信息;将所述相机位置信息转换为在世界坐标系中的空间位置信息;获取所述待显示弹幕信息;根据所述空间位置信息显示所述待显示弹幕信息。本发明实施例通过增强现实技术(AugmentedReality,简称AR)来显示弹幕信息,从而可以将弹幕信息显示在现实空间中,让用户真实地体验到弹幕飘来的感觉,提高用户体验,此外,通过AR技术来显示弹幕信息,从而可以进行更加多样的交互。
实施例二
图7示意性示出了根据本申请实施例二的弹幕信息显示方法的流程图。该弹幕信息显示方法还可以包括步骤S70~S74,其中:
步骤S70,获取移动终端在相机坐标系中的相机位置信息。
步骤S71,将所述相机位置信息转换为在世界坐标系中的空间位置信息。
步骤S72,获取所述待显示弹幕信息。
步骤S73,根据所述空间位置信息显示所述待显示弹幕信息。
具体地,本实施例中的步骤S70~S73与实施例一中的步骤S20~S23大致相同,在本实施例中不再赘述。
步骤S74,接收到用户对播放的超链接弹幕的点击操作时,显示超链接弹幕对应的页面。
具体地,该待显示弹幕信息可以为超链接弹幕,当播放的待显示弹幕信息包括超链接弹幕时,用户可以对视频界面中播放的超链接弹幕进行点击,当接收到用户对该超链接弹幕的点击操作之后,移动终端根据该超链接获取对应的页面内容,然后显示该页面内容。
本实施例中,通过提供超链接弹幕,使得用户可以对超链接弹幕进行点击,从而进入超链接对应的页面,从而增加了弹幕的交互方式,可以提升用户体验。
实施例三
图8示意性示出了根据本申请实施例三的弹幕信息显示装置的框图,该弹幕信息显示装置可以被分割成一个或多个程序模块,一个或者多个程序模块被存储于存储介质中,并由一个或多个处理器所执行,以完成本申请实施例。本申请实施例所称的程序模块是指能够完成特定功能的一系列计算机程序指令段,比程序本身更适合描述视频处理系统在存储介质中的执行过程,以下描述将具体介绍本实施例各程序模块的功能。
如图8所示,该弹幕信息显示装置800可以包括位置获取模块801、确定模块802、弹幕获取模块803、播放模块804,其中:
位置获取模块801,用于获取移动终端在相机坐标系中的相机位置信息;
具体地,所述相机位置信息为移动终端在相机坐标系中的坐标。在本实施例中,移动终端在使用AR技术显示弹幕信息时,会启动AR弹幕程序,并调用其自身的光学系统(如摄像机组,包括镜头、快门和图像传感器等)和惯性测量单元(Inertial Measurement Unit,IMU)以及AR软件工具开发包一起收集并计算出设备的位置信息(x,y,z)和方向(俯仰、偏航、滚转),其中,该惯性测量单元可以为加速度计或陀螺仪。
需要说明的是,该位置信息(x,y,z)是相机坐标系中的坐标。
其中,相机坐标系是以相机的聚焦中心为原点,以光轴为Z轴建立的三维直角坐标系。相机坐标系(观察坐标系)的原点为相机的光心,x轴与y轴与图像的X,Y轴平行,z轴为相机光轴,它与图形平面垂直。光轴与图像平面的交点,即为图像坐标系的原点,图像坐标系为二维直角坐标系。
确定模块802,用于将所述相机位置信息转换为在世界坐标系中的空间位置信息。
所述空间位置信息为所述待信息弹幕信息显示在世界坐标系中的坐标。通过相机坐标系与世界坐标系的转换公式可以将相机坐标系中的坐标转换为世界坐标系中的坐标。
在示例性的实施例中,所述确定模块802,还用于根据所述相机位置信息计算出所述待显示弹幕信息在所述相机坐标系中的弹幕生成位置信息。
具体地,所述弹幕生成位置信息为所述待信息弹幕信息显示在相机坐标系中的坐标。
在本实施例中,在本实施例中,为了对弹幕信息的显示更加随机以及分散,可以对弹幕显示位置做初始化位置优化,即可以预先设定弹幕的生成位置。在一实施方式中,具体可以采用如下方式进行初始化位置优化:首先,获取到移动终端的相机位置信息,其中,在相机坐标系中,该相机位置信息用齐次坐标系来表示是
Figure BDA0002243144800000131
其次,在获取到移动终端的相机位置信息后,通过对相机位置p1进行平移及/或旋转变换,最后计算经过平移及/或旋转变换之后得到的位置信息,并将该位置信息作为随机以及分散的弹幕生成位置信息,其中,在相机坐标系中,经变换后的相机位置信息用齐次坐标系来表示是
Figure BDA0002243144800000132
在本实施例中,具体平移的距离以及旋转的角度可以预先设定,也可以由用户设定,在本实施例中不作限定。
所述确定模块802,还用于根据所述弹幕生成位置信息确定所述空间位置信息。
具体地,在移动终端中预存有待显示弹幕信息的变换关系,该变换关系用于确定待显示弹幕信息的生成位置,示例性的,该变换关系可以为:向x轴平移a个单位,并在俯仰方向旋转b角度。在本实施例中,该变换关系会根据相机的移动以及旋转作对应的改变,改变后的变换关系可以由移动终端的操作系统和SDK来自动执行维护。
在获取到弹幕生成位置信息之后,即可以根据该变换关系来计算出所述弹幕生成位置信息对应的空间位置信息。也就是说,相机坐标系和世界坐标系的转换是根据这个变换关系来计算得到的。
弹幕获取模块803,用于获取所述待显示弹幕信息。
具体地,弹幕(barrage),指的是在网络上观看视频时弹出的评论性字幕。类似小说中行间彰显的夹批,视频中屏间飘过的评点叫做弹幕,原意指用大量或少量火炮提供密集炮击。而弹幕,顾名思义是指子弹多而形成的幕布,大量吐槽评论从屏幕飘过时效果看上去像是飞行射击游戏里的弹幕。
所述待显示弹幕信息为用户的评论信息。在一实施方式中,该评论信息具体可以为用户对某一个物品的评论,也可以为用户对某一地点的评论,或者对某事件的评论等。在本实施例中,该评论信息可以以文字的形式存在,在另一实施方式中,该评论信息也可以为图片、3D模型或视频等任意可以转换为3D模型的形式存在。
所述待显示弹幕信息存储于服务器中,当需要显示该弹幕信息时,可以通过一个弹幕获取指令从服务器中获取该待显示弹幕信息。
在一示例性的实施例中,所述弹幕获取模块803,还用于获取待识别物体的物体图像。
具体地,当用户需要获取用户针对某个待识别物体的评论信息时,用户可以通过移动终端的摄像头拍摄该待识别物体的照片,从而使得移动终端获取到待识别物体的物体图像。在另一实施方式中,也可以直接从移动终端中的相册中获取该待识别物体的物体图像。
所述弹幕获取模块803,还用于通过物体识别技术对所述物体图像进行图像识别,以识别出物体类别。
具体地,可以通过深度学习技术训练得到的物体识别模型来对物体图像进行图像识别,从而识别出物体的类别。该物体图像识别模型在训练的过程中,为了提高模型识别的准确率,对使用的训练样本数据集中的图片可以利用裁剪、旋转等方法对样本数据集中的图片进行数据增强处理,从而提高样本数据集的多样性,进而可以使得通过该训练样本集训练得到的物体识别模型具有更好的识别率。
所述弹幕获取模块803,还用于根据所述物体类别从服务器中获取与所述物体类别相关联的评论信息,所述评论信息为所述待信息弹幕信息。
具体地,在识别出物体的类别之后,将该物体的类别信息传输至服务器,服务器根据该获取到的物体类别信息查找与该物体类别相关联的评论信息。
示例性的,该物体类别以手办商品为例,当用户看到一个手办后,用户可以通过移动终端对该手办进行拍照,然后移动终端对该手办图片进行识别,并在识别出该手办图片的类别之后,将该手办类别信息传至服务器,服务器根据该类别信息查找到与该手办相关联的评论信息。其中,移动终端可以使用离线图像识别技术进行手办商品的识别,以获取质量较高的数据集,提升识别准确度。
可以理解的,每一个用户都可以通过播放该待显示弹幕信息的用户界面来发表对该手办商品的评论信息,用户在通过该用户界面发表评论信息后,移动终端将该评论信息传至服务器,服务器将该用户评论信息与对应的手办进行关系保存至评论数据库。
在另一示例性的实施例中,所述弹幕获取模块803,还用于获取所述移动终端所处的地理位置信息。
具体地,可以通过调用移动终端中的定位模块来获取移动终端所处的地理位置信息。
所述弹幕获取模块803,还用于根据所述地理位置信息从服务器中获取与该地理位置信息相关联的评论信息,所述评论信息为所述待信息弹幕信息。
具体地,用户在发表评论信息时,可以获取用户发表该评论信息时所处的地理位置,则当用户通过移动终端发表评论信息后,移动终端会将包含地理位置信息的评论信息上传至服务器,服务器在接收到该包含地理位置信息的评论信息之后,对该包含地理位置信息的评论信息进行存储。可以理解的是,在服务器对包含地理位置信息的评论信息存储之后,后台管理人员可以对用户发表的包含地理位置信息的评论信息进行审核,在发现不合适的评论信息时,可以对该评论信息进行删除。
由于用户发表的评论信息包含有地理位置信息,因此,在获取到移动终端的地理位置信息之后,可以根据该地理位置信息从服务器中获取与该地理位置信息相关联的评论信息。
在本实施例中,该评论信息可以为地点评论信息,即用户针对某个地点的评论,该地点评论可以为文字的形式,也可以为图片、3D模型或视频等任意可以转换为3D模型的形式存在。在该评论信息以视频的形式存在时,该评论信息还包括有该视频的视频URL信息。
示例性地,当用户在某家餐厅吃饭时,用户可以针对该餐厅发表评论信息,例如,该餐厅味道很好,用户也可以针对该餐厅环境发表一个该餐厅环境的视频。当用户通过移动终端发表评论信息时,移动终端会获取用户发表该评论信息所处的地理位置信息,然后将包含该地理位置信息的评论信息上传至服务器。这样,当移动终端获取到地理位置信息之后,即可以根据获取到的地理位置信息从服务器获取与该地理位置信息相关联的评论信息。
可以理解的是,每一个用户都可以通过播放该待显示弹幕信息的用户界面来针对某一个地点来发表地点评论信息,用户在通过该用户界面发表地点评论信息后,移动终端将该地点评论信息传至服务器,服务器将该用户的地点评论信息与对应的地理位置信息进行关系保存至评论数据库。当用户发表的评论信息为视频时,移动终端在将该视频上传至服务器后,服务器会将该视频对应的URL信息与对应的地理位置信息进行关联保存至评论数据库。
播放模块804,用于根据所述空间位置信息显示所述待显示弹幕信息。
具体地,在获取到待显示弹幕信息的空间位置信息之后,移动终端可以根据每一条弹幕信息的显示大小、字体颜色、字体格式和显示特效来播放每一条待显示弹幕信息,其中,显示特效包括停留、滚动或其他特效方式。
在示例性的实施例中,所述播放模块804,还用于获取所述待显示弹幕信息的运动轨迹以及运动速度,以及用于根据所述运动轨迹以及运动速度播放所述待显示弹幕信息。
具体地,可以预先设定弹幕信息的运动轨迹以及运动速度,例如,预设弹幕运动轨迹为相对相机当前位置从右到左,运动向量记为a,在获取到该预设的运动向量a之后,将其转换为世界坐标系中向量a’。
在获取到待显示弹幕信息的空间位置信息以及计算得到弹幕的运动轨迹对应的世界坐标系中向量a’之后,在该空间位置信息中生成弹幕模型,然后根据该世界坐标系中向量a’,以运动速度S使得该弹幕模型进行运动,从而完成对所述待显示弹幕信息的播放。
在本实施例中,基于不同的操作系统或者SDK,弹幕模型可以做到不同程度的自定义效果。如弹幕模型可以使用不同的字体、颜色、光照阴影等效果,除了文字模型,也可以使用图片纹理覆盖3D模型。
在一实施方式中,当弹幕移动到预设位置之后,可以将弹幕资源进行回收。
在另一实施方式中,在显示该弹幕信息之后,用户可以对该弹幕信息进行交互式操作,比如,用户可以通过点击或者滑动等方式,来改变某一条弹幕的移动轨迹。比如,用户可以通过滑动操作将一条弹幕的移动轨迹切换到另一移动轨迹,移动终端在接收到用户对弹幕移动轨迹的切换操作之后,可以根据用户的滑动操作重新确定弹幕移动轨迹对应的方向向量,并在确定新的移动轨迹对应的方向向量后,将该方向向量转换为对应世界坐标系中的方向向量,最后按照该世界坐标系中的方向向量播放该条弹幕信息。
本实施例中,通过获取移动终端在相机坐标系中的相机位置信息;将所述相机位置信息转换为在世界坐标系中的空间位置信息;获取所述待显示弹幕信息;根据所述空间位置信息显示所述待显示弹幕信息。本发明实施例通过增强现实技术(AugmentedReality,简称AR)来显示弹幕信息,从而可以将弹幕信息显示在现实空间中,让用户真实地体验到弹幕飘来的感觉,提高用户体验,此外,通过AR技术来显示弹幕信息,从而可以进行更加多样的交互。
在示例性的实施例中,如图8所示,该弹幕信息显示装置800还可以包括接收模块805。
其中,接收模块805,用于接收到用户对播放的超链接弹幕的点击操作时,显示超链接弹幕对应的页面。
具体地,该待显示弹幕信息可以为超链接弹幕,当播放的待显示弹幕信息包括超链接弹幕时,用户可以对视频界面中播放的超链接弹幕进行点击,当接收到用户对该超链接弹幕的点击操作之后,移动终端根据该超链接获取对应的页面内容,然后显示该页面内容。
本实施例中,通过提供超链接弹幕,使得用户可以对超链接弹幕进行点击,从而进入超链接对应的页面,从而增加了弹幕的交互方式,可以提升用户体验。
实施例四
图9示意性示出了根据本申请实施例四的适于实现弹幕信息显示方法的移动终端的硬件架构示意图。本实施例中,移动终端2是一种能够按照事先设定或者存储的指令,自动进行数值计算和/或信息处理的设备。例如,可以是智能手机、平板电脑、笔记本电脑、台式计算机、机架式服务器、刀片式服务器、塔式服务器或机柜式服务器(包括独立的服务器,或者多个服务器所组成的服务器集群)等。如图9所示,移动终端2至少包括但不限于:可通过系统总线相互通信链接存储器910、处理器920、网络接口930。其中:
存储器910至少包括一种类型的计算机可读存储介质,可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器910可以是移动终端2的内部存储模块,例如该移动终端2的硬盘或内存。在另一些实施例中,存储器910也可以是移动终端2的外部存储设备,例如该移动终端2上配备的插接式硬盘,智能存储卡(Smart MediaCard,简称为SMC),安全数字(Secure Digital,简称为SD)卡,闪存卡(Flash Card)等。当然,存储器910还可以既包括移动终端2的内部存储模块也包括其外部存储设备。本实施例中,存储器910通常用于存储安装于移动终端2的操作系统和各类应用软件,例如弹幕信息显示方法的程序代码等。此外,存储器910还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器920在一些实施例中可以是中央处理器(Central Processing Unit,简称为CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器920通常用于控制移动终端2的总体操作,例如执行与移动终端2进行数据交互或者通信相关的控制和处理等。本实施例中,处理器920用于运行存储器910中存储的程序代码或者处理数据。
网络接口930可包括无线网络接口或有线网络接口,该网络接口930通常用于在移动终端2与其他移动终端之间建立通信链接。例如,网络接口930用于通过网络将移动终端2与外部终端相连,在移动终端2与外部终端之间的建立数据传输通道和通信链接等。网络可以是企业内部网(Intranet)、互联网(Internet)、全球移动通讯系统(Global System ofMobile communication,简称为GSM)、宽带码分多址(Wideband Code Division MultipleAccess,简称为WCDMA)、4G网络、5G网络、蓝牙(Bluetooth)、Wi-Fi等无线或有线网络。
需要指出的是,图9仅示出了具有部件910~930的移动终端,但是应理解的是,并不要求实施所有示出的部件,可以替代的实施更多或者更少的部件。
在本实施例中,存储于存储器910中的弹幕信息显示方法还可以被分割为一个或者多个程序模块,并由一个或多个处理器(本实施例为处理器920)所执行,以完成本发明。
实施例六
本实施例还提供一种计算机可读存储介质,计算机可读存储介质其上存储有计算机程序,计算机程序被处理器执行时实现实施例中的弹幕信息显示方法的步骤。
本实施例中,计算机可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,计算机可读存储介质可以是移动终端的内部存储单元,例如该移动终端的硬盘或内存。在另一些实施例中,计算机可读存储介质也可以是移动终端的外部存储设备,例如该移动终端上配备的插接式硬盘,智能存储卡(Smart Media Card,简称为SMC),安全数字(Secure Digital,简称为SD)卡,闪存卡(Flash Card)等。当然,计算机可读存储介质还可以既包括移动终端的内部存储单元也包括其外部存储设备。本实施例中,计算机可读存储介质通常用于存储安装于移动终端的操作系统和各类应用软件,例如实施例中的弹幕信息显示方法的程序代码等。此外,计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的各类数据。
显然,本领域的技术人员应该明白,上述的本发明实施例的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明实施例不限制于任何特定的硬件和软件结合。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种弹幕信息显示方法,其特征在于,包括:
获取移动终端在相机坐标系中的相机位置信息;
将所述相机位置信息转换为在世界坐标系中的空间位置信息;
获取所述待显示弹幕信息;
根据所述空间位置信息显示所述待显示弹幕信息。
2.根据权利要求1所述的弹幕信息显示方法,其特征在于,所述将所述相机位置信息转换为在世界坐标系中的空间位置信息的步骤包括:
根据所述相机位置信息计算出所述待显示弹幕信息在所述相机坐标系中的弹幕生成位置信息;
根据所述弹幕生成位置信息确定所述空间位置信息。
3.根据权利要求2所述的弹幕信息显示方法,其特征在于,所述根据所述空间位置信息显示所述待显示弹幕信息的步骤包括:
获取所述待显示弹幕信息的运动轨迹以及运动速度;
根据所述运动轨迹以及运动速度播放所述待显示弹幕信息。
4.根据权利要求1至3任一项所述的弹幕信息显示方法,其特征在于,所述获取所述待显示弹幕信息的步骤包括:
获取待识别物体的物体图像;
通过物体识别技术对所述物体图像进行图像识别,以识别出物体类别;
根据所述物体类别从服务器中获取与所述物体类别相关联的评论信息,所述评论信息为所述待信息弹幕信息。
5.根据权利要求1至3任一项所述的弹幕信息显示方法,其特征在于,所述获取所述待显示弹幕信息的步骤包括:
获取所述移动终端所处的地理位置信息;
根据所述地理位置信息从服务器中获取与该地理位置信息相关联的评论信息,所述评论信息为所述待信息弹幕信息。
6.根据权利要求5所述的弹幕信息显示方法,其特征在于,所述评论信息包括地点评论信息及/或视频URL信息。
7.根据权利要求1所述的弹幕信息显示方法,其特征在于,所述待显示弹幕信息包括超链接弹幕,所述方法还包括:
接收到用户对播放的超链接弹幕的点击操作时,显示超链接弹幕对应的页面。
8.一种弹幕信息显示装置,其特征在于,包括:
位置获取模块,用于获取移动终端在相机坐标系中的相机位置信息;
确定模块,用于将所述相机位置信息转换为在世界坐标系中的空间位置信息;
弹幕获取模块,用于获取所述待显示弹幕信息;
播放模块,用于根据所述空间位置信息显示所述待显示弹幕信息。
9.一种移动终端,所述移动终端,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现权利要求1至7任一项所述的弹幕信息显示方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现权利要求1至7任一项所述的弹幕信息显示方法的步骤。
CN201911007282.7A 2019-10-22 2019-10-22 弹幕信息显示方法、装置、移动终端 Active CN112702643B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911007282.7A CN112702643B (zh) 2019-10-22 2019-10-22 弹幕信息显示方法、装置、移动终端
US17/073,957 US11651560B2 (en) 2019-10-22 2020-10-19 Method and device of displaying comment information, and mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911007282.7A CN112702643B (zh) 2019-10-22 2019-10-22 弹幕信息显示方法、装置、移动终端

Publications (2)

Publication Number Publication Date
CN112702643A true CN112702643A (zh) 2021-04-23
CN112702643B CN112702643B (zh) 2023-07-21

Family

ID=75492149

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911007282.7A Active CN112702643B (zh) 2019-10-22 2019-10-22 弹幕信息显示方法、装置、移动终端

Country Status (2)

Country Link
US (1) US11651560B2 (zh)
CN (1) CN112702643B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114302184A (zh) * 2021-12-28 2022-04-08 阿里巴巴(中国)有限公司 商品信息的显示方法及设备
WO2024078209A1 (zh) * 2022-10-12 2024-04-18 腾讯科技(深圳)有限公司 视频评论的显示方法、装置、终端及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11393202B2 (en) * 2020-02-28 2022-07-19 CareAR Holdings LLC Augmented reality support platform

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106982387A (zh) * 2016-12-12 2017-07-25 阿里巴巴集团控股有限公司 弹幕的显示、推送方法及装置及弹幕应用系统
CN108347657A (zh) * 2018-03-07 2018-07-31 北京奇艺世纪科技有限公司 一种显示弹幕信息的方法和装置
CN108629843A (zh) * 2017-03-24 2018-10-09 成都理想境界科技有限公司 一种实现增强现实的方法及设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7131060B1 (en) * 2000-09-29 2006-10-31 Raytheon Company System and method for automatic placement of labels for interactive graphics applications
JP5621421B2 (ja) * 2010-09-06 2014-11-12 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
US9147221B2 (en) * 2012-05-23 2015-09-29 Qualcomm Incorporated Image-driven view management for annotations
US10139985B2 (en) * 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
CN103797783B (zh) * 2012-07-17 2017-09-29 松下知识产权经营株式会社 评论信息生成装置及评论信息生成方法
JP5571269B2 (ja) * 2012-07-20 2014-08-13 パナソニック株式会社 コメント付き動画像生成装置およびコメント付き動画像生成方法
US9361733B2 (en) * 2013-09-02 2016-06-07 Lg Electronics Inc. Portable device and method of controlling therefor
JP2015095147A (ja) * 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US20150262428A1 (en) * 2014-03-17 2015-09-17 Qualcomm Incorporated Hierarchical clustering for view management augmented reality
JP6265027B2 (ja) * 2014-04-22 2018-01-24 富士通株式会社 表示装置、位置特定プログラム、および位置特定方法
KR20160015972A (ko) * 2014-08-01 2016-02-15 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
JP2017123050A (ja) * 2016-01-07 2017-07-13 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及びサーバ
US20200037034A1 (en) * 2017-03-09 2020-01-30 Eben-Haeser Greyling System and Method for Navigating in a Digital Environment
EP3731066A4 (en) * 2017-12-20 2021-01-27 Sony Corporation DATA PROCESSING DEVICE AND PROCESS, AND ASSOCIATED PROGRAM
CN108845737B (zh) * 2018-06-29 2019-08-09 掌阅科技股份有限公司 图片错层显示方法、电子设备及存储介质
TWI691891B (zh) * 2018-09-07 2020-04-21 財團法人工業技術研究院 多重目標物資訊顯示方法及裝置
US12067683B2 (en) * 2018-09-14 2024-08-20 Streem, Llc Location persistent augmented reality object and annotation placement
US10810430B2 (en) * 2018-12-27 2020-10-20 At&T Intellectual Property I, L.P. Augmented reality with markerless, context-aware object tracking
US10866563B2 (en) * 2019-02-13 2020-12-15 Microsoft Technology Licensing, Llc Setting hologram trajectory via user input
US11064108B2 (en) * 2019-08-21 2021-07-13 Sony Corporation Frame rate control for media capture based on rendered object speed

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106982387A (zh) * 2016-12-12 2017-07-25 阿里巴巴集团控股有限公司 弹幕的显示、推送方法及装置及弹幕应用系统
CN108629843A (zh) * 2017-03-24 2018-10-09 成都理想境界科技有限公司 一种实现增强现实的方法及设备
CN108347657A (zh) * 2018-03-07 2018-07-31 北京奇艺世纪科技有限公司 一种显示弹幕信息的方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114302184A (zh) * 2021-12-28 2022-04-08 阿里巴巴(中国)有限公司 商品信息的显示方法及设备
WO2024078209A1 (zh) * 2022-10-12 2024-04-18 腾讯科技(深圳)有限公司 视频评论的显示方法、装置、终端及存储介质

Also Published As

Publication number Publication date
US11651560B2 (en) 2023-05-16
CN112702643B (zh) 2023-07-21
US20210118233A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
US10121099B2 (en) Information processing method and system
KR101691903B1 (ko) 광학 캐릭터 인식을 사용하여 증강 현실을 제공하기 위한 방법 및 장치
US9904664B2 (en) Apparatus and method providing augmented reality contents based on web information structure
US11651560B2 (en) Method and device of displaying comment information, and mobile terminal
US20130278633A1 (en) Method and system for generating augmented reality scene
CN111031293B (zh) 全景监控的展示方法、装置和系统及计算机可读存储介质
US10242280B2 (en) Determining regions of interest based on user interaction
TWI617930B (zh) 空間物件搜尋排序方法、系統與電腦可讀取儲存裝置
CN110215706B (zh) 虚拟对象的位置确定方法、装置、终端及存储介质
CN111833457A (zh) 图像处理方法、设备及存储介质
CN112882576B (zh) Ar交互方法、装置、电子设备及存储介质
US20240276058A1 (en) Video-based interaction method and apparatus, computer device, and storage medium
Jacob et al. Arduino object follower with augmented reality
CN112215964A (zh) 基于ar的场景导览方法和设备
US20240331245A1 (en) Video processing method, video processing apparatus, and storage medium
US10740618B1 (en) Tracking objects in live 360 video
CN113178017A (zh) Ar数据展示方法、装置、电子设备及存储介质
US20200226833A1 (en) A method and system for providing a user interface for a 3d environment
CN112017304B (zh) 用于呈现增强现实数据的方法、装置、电子设备及介质
CN113052753B (zh) 全景拓扑结构的生成方法、装置、设备及可读存储介质
CN112788443B (zh) 基于光通信装置的交互方法和系统
KR102176805B1 (ko) 뷰 방향이 표시되는 vr 컨텐츠 제공 시스템 및 방법
KR101909994B1 (ko) 나노블럭을 이용한 3d 증강현실 서비스 제공 방법
Kim et al. Vision-based all-in-one solution for augmented reality and its storytelling applications
CN113973235A (zh) 互动信息显示方法、装置、计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant