WO2023231666A1 - 信息交互方法、装置、电子设备和存储介质 - Google Patents

信息交互方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
WO2023231666A1
WO2023231666A1 PCT/CN2023/091234 CN2023091234W WO2023231666A1 WO 2023231666 A1 WO2023231666 A1 WO 2023231666A1 CN 2023091234 W CN2023091234 W CN 2023091234W WO 2023231666 A1 WO2023231666 A1 WO 2023231666A1
Authority
WO
WIPO (PCT)
Prior art keywords
target message
display space
target
space
video image
Prior art date
Application number
PCT/CN2023/091234
Other languages
English (en)
French (fr)
Inventor
吴培培
冀利悦
李笑林
吴洋
赵岩
Original Assignee
北京字跳网络技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京字跳网络技术有限公司 filed Critical 北京字跳网络技术有限公司
Publication of WO2023231666A1 publication Critical patent/WO2023231666A1/zh

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present disclosure relates to the field of computer technology, and specifically to an information interaction method, device, electronic equipment and storage medium.
  • virtual reality virtual Reality
  • virtual reality virtual Reality
  • users can watch the anchor's performance through, for example, head-mounted display devices and related accessories, and can interact with the anchor and other viewers through emoticons and barrages.
  • emoticons and barrages the display effect of emoticons and barrages on the virtual live broadcast platform is poor, and the user experience is not good.
  • an information interaction method including:
  • a virtual reality space which includes a video image display space and a target message display space
  • the target message display space is located in front of the video image display space in a first direction, and the first direction is the direction in which the video image faces.
  • an object control method including:
  • a virtual reality space which includes a video image display space and a target message display space
  • the projections of at least two target messages in the first direction do not overlap, and the first direction is the direction in which the video image faces.
  • an information interaction device including:
  • a space display unit displays a virtual reality space, where the virtual reality space includes a video image display space and a target message display space;
  • a video image display unit used to display video images in the video image display space
  • a message unit used to determine a target message and display the target message in the target message display space; wherein the target message display space is located in front of the video image display space in the first direction, and the first The direction is the direction the video image is facing.
  • an information interaction device including:
  • a video image display unit used to display video images in the video image display space
  • a message unit used to determine a target message and display the target message in the target message display space; wherein, in the target message display space, the projections of at least two target messages in the first direction do not overlap.
  • the first direction is the direction in which the video image faces.
  • an electronic device including: at least one memory and at least one processor; wherein the memory is used to store program code, and the processor is used to call The program code stored in the memory enables the electronic device to execute the information interaction method provided according to one or more embodiments of the present disclosure.
  • a non-transitory computer storage medium stores program code, and when the program code is executed by a computer device, such that The computer device executes the information interaction method provided according to one or more embodiments of the present disclosure.
  • Figure 1 is a schematic diagram of a virtual reality device according to an embodiment of the present disclosure
  • Figure 2 is an optional schematic diagram of a virtual field of view of a virtual reality device according to an embodiment of the present disclosure
  • Figure 3 is a flow chart of an information interaction method provided by an embodiment of the present disclosure.
  • Figure 4 is a schematic diagram of a virtual reality space provided according to an embodiment of the present disclosure.
  • Figures 5a and 5b are respectively a front view and a left view of a target message display space provided according to an embodiment of the present disclosure
  • Figures 6a and 6b are schematic diagrams of a virtual reality space provided according to an embodiment of the present disclosure.
  • Figure 7 is a flow chart of an information interaction method provided by another embodiment of the present disclosure.
  • FIG. 8 is a schematic structural diagram of an electronic device according to an embodiment of the present disclosure.
  • the term “include” and its variations are open-ended, ie, "including but not limited to.”
  • the term “based on” means “based at least in part on.”
  • the term “one embodiment” means “at least one embodiment”; the term “another embodiment” means “at least one additional embodiment”; and the term “some embodiments” means “at least some embodiments”.
  • the term “responsive to” and related terms means that one signal or event is affected by another signal or event to some extent, but not necessarily completely or directly. If event x occurs "in response to" event y, x may respond to y, directly or indirectly. For example, the occurrence of y may eventually lead to the occurrence of x, but there may be other intermediate events and/or conditions. In other cases, y may not necessarily cause x to occur, and even if y has not yet happens, x may also happen. Furthermore, the term “responsive to” may also mean “responsive at least in part to.”
  • the term "determine” broadly encompasses a wide variety of actions, which may include retrieving, calculating, calculating, processing, deriving, investigating, looking up (e.g., in a table, database, or other data structure), exploring, and similar actions, Also included may be receiving (e.g., receiving information), accessing (e.g., accessing data in memory), and similar actions, as well as parsing, selecting, selecting, creating, and similar actions, and the like. Relevant definitions of other terms will be given in the description below. Relevant definitions of other terms will be given in the description below. Relevant definitions of other terms will be given in the description below.
  • phrase "A and/or B” means (A), (B) or (A and B).
  • Extended reality technology can combine reality and virtuality through computers to provide users with a virtual reality space that allows human-computer interaction.
  • users can use virtual reality devices such as Head Mount Display (HMD) to conduct social interaction, entertainment, learning, work, telecommuting, and create UGC (User Generated Content), etc. .
  • HMD Head Mount Display
  • UGC User Generated Content
  • PCVR Computer-side virtual reality
  • the external computer-side virtual reality equipment uses the data output from the PC side to achieve virtual reality effects.
  • Mobile virtual reality equipment supports setting up a mobile terminal (such as a smartphone) in various ways (such as a head-mounted display with a special card slot), and through a wired or wireless connection with the mobile terminal, the mobile terminal performs virtual reality Function-related calculations and output data to mobile virtual reality devices, such as viewing virtual reality videos through mobile terminal APPs.
  • a mobile terminal such as a smartphone
  • ways such as a head-mounted display with a special card slot
  • the mobile terminal performs virtual reality Function-related calculations and output data to mobile virtual reality devices, such as viewing virtual reality videos through mobile terminal APPs.
  • the all-in-one virtual reality device has a processor for performing calculations related to virtual functions, so it has independent virtual reality input and output functions. It does not need to be connected to a PC or mobile terminal, and has a high degree of freedom in use.
  • virtual reality equipment is not limited to this, and can be further miniaturized or enlarged as needed. Styling.
  • the virtual reality device is equipped with a posture detection sensor (such as a nine-axis sensor), which is used to detect posture changes of the virtual reality device in real time. If the user wears a virtual reality device, when the user's head posture changes, the head posture will be changed.
  • the real-time posture is passed to the processor to calculate the gaze point of the user's line of sight in the virtual environment. Based on the gaze point, the image in the three-dimensional model of the virtual environment within the user's gaze range (i.e., the virtual field of view) is calculated and displayed on the display screen. display, giving people an immersive experience as if they were watching in a real environment.
  • Figure 2 shows an optional schematic diagram of the virtual field of view of the virtual reality device provided by an embodiment of the present disclosure.
  • the horizontal field of view angle and the vertical field of view angle are used to describe the distribution range of the virtual field of view in the virtual environment.
  • the vertical field of view is used to describe the distribution range of the virtual field of view in the virtual environment.
  • the distribution range in the direction is represented by the vertical field of view BOC
  • the distribution range in the horizontal direction is represented by the horizontal field of view AOB.
  • the human eye can always perceive the image in the virtual field of view in the virtual environment through the lens. It can be understood that the field of view angle The larger it is, the larger the size of the virtual field of view, and the larger the area of the virtual environment that the user can perceive.
  • the field of view represents the distribution range of the viewing angle when the environment is perceived through the lens.
  • the field of view of a virtual reality device represents the distribution range of the viewing angle of the human eye when the virtual environment is perceived through the lens of the virtual reality device; for another example, for a mobile terminal equipped with a camera, the field of view of the camera The angle is the distribution range of the viewing angle when the camera perceives the real environment and shoots.
  • Virtual reality devices such as HMDs, integrate several cameras (such as depth cameras, RGB cameras, etc.). The purpose of the cameras is not limited to providing a pass-through view. Camera images and an integrated inertial measurement unit (IMU) provide data that can be processed through computer vision methods to automatically analyze and understand the environment. Also, HMDs are designed to support not only passive computer vision analysis, but also active computer vision analysis. Passive computer vision methods analyze image information captured from the environment. These methods can be monoscopic (images from a single camera) or stereoscopic (images from two cameras). They include, but are not limited to, feature tracking, object recognition, and depth estimation. Active computer vision methods add information to the environment by projecting patterns that are visible to the camera but not necessarily to the human visual system. Such technologies include time-of-flight (ToF) cameras, laser scanning or structured light to simplify the stereo matching problem. Active computer vision is used to achieve deep scene reconstruction.
  • ToF time-of-flight
  • Figure 3 shows a flow chart of an information interaction method 100 provided by an embodiment of the present disclosure.
  • the method 100 includes steps S120 to S160.
  • Step S120 Display a virtual reality space, which includes a video image display space and a target message display space.
  • the virtual reality space can be a simulation environment of the real world, or it can be a semi-simulation and semi-fictional environment.
  • a virtual scene can also be a purely fictitious virtual scene.
  • the virtual scene may be any one of a two-dimensional virtual scene, a 2.5-dimensional virtual scene, or a three-dimensional virtual scene.
  • the embodiments of this application do not limit the dimensions of the virtual scene.
  • the virtual scene can include the sky, land, ocean, etc.
  • the land can include environmental elements such as deserts and cities, and the user can control virtual objects to move in the virtual scene.
  • users can enter the virtual reality space through smart terminal devices such as head-mounted VR glasses, and control their own virtual characters (Avatar) in the virtual reality space to interact socially, entertain and learn with virtual characters controlled by other users. , remote working, etc.
  • smart terminal devices such as head-mounted VR glasses
  • Avatar virtual characters
  • the user in the virtual reality space, can implement related interactive operations through a controller, which can be a handle.
  • a controller can be a handle.
  • the user can perform related operation controls by operating buttons on the handle.
  • gestures or voice or multi-modal control methods may be used to control the target object in the virtual reality device.
  • the virtual reality space includes a virtual live broadcast space.
  • performer users can live broadcast with virtual images or real images, and audience users can control virtual characters to watch the performers' live broadcast from viewing angles such as first-person perspective.
  • Step S140 Display the video image in the video image display space.
  • a video stream may be obtained and video content may be presented in a video image display space based on the video stream.
  • the video stream may adopt encoding formats such as H.265, H.264, and MPEG-4.
  • the client can receive the live video stream sent by the server, and display the live video image in the video image display space based on the live video stream.
  • the video image display space displays 3D (stereoscopic) video by default.
  • 3D video technology that uses human eyes includes but is not limited to rectangular 3D video, half-view 3D video, panoramic 3D video or fish-eye 3D video.
  • Step S160 Determine the target message, and display the target message in the target message display space; wherein, in the first direction, the target message display space is located in front of the video image display space, and the first direction is the direction the video image is facing.
  • target messages include but are not limited to text messages (such as comments, barrages), image messages (such as emojis, pictures, virtual items, etc.).
  • the current user can invoke the message editing interface through a preset operation, edit and send the target message, and display the target message sent by the current user in the target message display space.
  • the client can accept target messages from other clients sent by the server, and display the target messages from other clients in the target message display space.
  • FIG 4 is a schematic diagram of a virtual reality space provided according to an embodiment of the present disclosure.
  • the virtual reality space 10 includes a video image display space 20 and target message display spaces 40 and 50 .
  • the video image display space 20 may be used to display video images, such as 3D video images.
  • the target message display spaces 40 and 50 can be respectively used to display image messages (such as emojis, pictures, virtual items, etc.) and text messages (such as comments or barrages sent by the current user or other users).
  • the target message display spaces 40 and 50 are located in front of the video image display space, where the first direction is the direction in which the video image faces, that is, the direction in front of the user.
  • the video image is viewed in the opposite direction.
  • the user viewing distance corresponding to the target message display space is closer than the viewing distance corresponding to the video image display space, thereby presenting a visual effect in which the target message is closer and the video image is further away.
  • the target message display space in the virtual reality space, is located in front of the video image display space in the direction the video image faces, so that the user viewing distance corresponding to the target message display space is The viewing distance is closer than the corresponding viewing distance of the video image display space, so that the target message can be independent of the video picture, improving the spatial layering of the movie. It can also solve the ghost problem caused by the coexistence of the target message and the 3D video picture, avoiding the user's Difficulty focusing.
  • the projections of at least two target messages in the first direction do not overlap.
  • the text message B in the target message space 50 is located before the text message A, and the projections of the two in the first direction do not overlap; similarly, the text message B in the target message space 40
  • the smiley face emoticon is displayed before the heart emoticon, and the projections of the two in the first direction do not overlap.
  • the at least two target messages are arranged along a preset first path; in the left view of the target message display space, the At least two target messages are arranged along the preset second path; wherein the main view of the target message display space is a view that can display the front content of the target message.
  • the target message is arranged along the preset first path from the user's perspective.
  • the target message is arranged along the preset second path in the user's perspective.
  • both the first path and the second path are arc-shaped paths.
  • Figures 5a and 5b are respectively a front view and a left view of a target message display space provided according to an embodiment of the present disclosure.
  • FIG 5a in the front view of the target message display space 51, multiple target messages 511 are arranged along the arc-shaped first path 501;
  • Figure 5b in the left view of the target message display space, multiple target messages 511 are arranged along the arc-shaped second path 502 .
  • the target message is distributed in an arc shape in both the main view and the left view, which can better integrate the message content and the video image display space from the user's viewing angle, thereby improving the user's viewing angle.
  • the information interaction method further includes: rotating the target message around a preset vertical axis based on the user's viewing perspective, so that the content of the target message is visible to the user.
  • the target message when the user changes the viewing angle, for example, when the user controls the virtual character (Avatar) or other corresponding objects to move in the virtual space, the target message can be rotated around the Y-axis, so that the content of the target message Visible to the user.
  • the target message display space may display a message queue including multiple target messages in the form of an up-down direction information flow, with newly loaded target messages appearing at the bottom of the message queue.
  • a preset first prompt identification is displayed; the first prompt identification is used to indicate the target message display direction, and the target message display space is configured to Historical target messages are dynamically displayed along the target message display direction.
  • method 100 further includes,
  • Step A1 In response to the operation on the target message display space, display a preset first prompt identification; the first prompt identification is used to indicate the currently available target message display direction, and the target message display space is configured to Historical target messages are dynamically displayed along the target message display direction.
  • Operations on the target message display space include but are not limited to somatosensory control operations, gesture control operations, eye shaking operations, touch operations, voice control instructions, or preset operations on external control devices.
  • the user can point the handle ray to the target message display space to evoke the preset first prompt identification.
  • the first prompt mark can display the target message display direction, and the user can control the handle according to the displayed target message direction, so that the target message display space can scroll up and down or turn pages to display the target message.
  • method 100 further includes,
  • Step A2 When the target message display space dynamically displays the target message along the target message display direction, in response to receiving the new target message, display the preset second prompt identification;
  • Step A3 In response to the second prompt identification being triggered, the target message display space displays the new target message.
  • the second prompt identification displays the number of new target messages.
  • first prompt signs 512 and 513 are displayed.
  • the first prompt sign 512 is used to indicate that the user can scroll up or turn the page.
  • the first prompt sign 513 is used to indicate that the user can scroll down or turn the page so that the user can follow the first prompt sign instructions.
  • the target message display direction controls the target message display space to scroll up or down or page.
  • the virtual reality device can display the target message at a preset position in the target message display space 51, such as the target presented in the target message display space.
  • the second prompt identification 514 "New Message + N" is displayed below the message queue to prompt the user that N new messages have been received. If the user triggers the second prompt mark through a preset operation, the target message display space jumps to display a new message.
  • the first prompt mark if the first prompt mark is highlighted, it means that the display target message display direction indicated by the first prompt mark is available; if the first prompt mark is highlighted in grayscale, it means that the first prompt Identifies that the indicated display target message presentation direction is unavailable.
  • the orthographic projection of the target message display space on the video image display space is located outside a preset central area of the video image display space.
  • Figure 6a is a schematic diagram of a virtual reality space provided according to an embodiment of the present disclosure, which reflects the virtual reality space presented in the user's perspective when the user views a video image from the front.
  • the virtual reality space 10 includes a video image display space 20, and target message display spaces 41, 42 and 51.
  • the orthographic projections of the target message display spaces 41, 42 and 51 on the video image display space 20 are all located outside the preset central area 21, so that the target message display spaces 41, 42 and 51 do not block the preset central area. , thus not affecting the user’s video viewing experience.
  • the target message display spaces 41, 42 may be display spaces for displaying image messages
  • the target message display space 51 may be a display space for displaying text messages.
  • the above items The target message display spaces 41, 42 and 51 can rotate the target message around a preset vertical axis based on the user's viewing angle, so that the content of the target message is visible to the user.
  • the positions of the above-mentioned target message display spaces 41 and 42 may remain unchanged relative to the video image display space 20.
  • the target message space 51 may revolve around Y The axis deflects based on the user's perspective.
  • step S160 further includes:
  • Step B1 The target message moves toward the target message display space.
  • the target message display spaces 41 and 42 used to display image information are located on the left and right sides of the preset central area 21, showing that the target message "closely surrounds” the performer's vision. Effect.
  • the determined target messages 411, 412 and 421 (for example, sent by the current user or sent by other users) can "fly" into the target message display space, presenting a visual effect of cheering or presenting gifts to the performer, thereby enriching the user's experience. Interactive experience enhances user participation.
  • the target message moves along the first path; if the target message originates from a client other than the current client, the target message The message moves along the second path.
  • the second path may be a random path other than the first path.
  • multiple movement paths may be preset, so that one is randomly selected as the second path each time.
  • target messages from different sources have different movement paths, which makes it easier for users to distinguish which target messages are sent by them, thereby improving the user's interactive experience.
  • the first path is a path between a message editing interface and the target message display space; the message editing interface is used to edit and send target messages.
  • target messages sent from the current client may be highlighted.
  • the target message sent by the current client can be highlighted through background color, size of the target message or other logos, animation effects, etc.
  • the movement paths of the two or more identical first target messages are the same. For example, after the first target message A moves to the target message space, it can stay and be presented in the target message space for 2 seconds. During this period, if the same client sends the same first target message A, then the same The first target message A will move along the same movement path into the target message space, so that the visual effect of "continuous delivery" can be presented.
  • a third identifier corresponding to the two or more identical first target messages is displayed in the target message display space, and the third identifier is used to display the message currently arriving in the target message display space.
  • the number of first target messages For example, after the first target message A moves to the target message space, it can stay and be presented in the target message space A for 2 seconds. During this period, if the same client sends the same first target message A, then when After the new first target message A arrives in the target message display space, the mark " ⁇ 2" can be displayed, which is used to display in real time the number of first target messages A that have continuously arrived in the target message space. Referring to Figure 6a, the third mark 415 displays " ⁇ 5", indicating that the same client has currently sent 5 target messages 412 continuously. When the same client sends a new target message B, then the target message B can move through the new path.
  • the virtual reality space 10 currently displays a message editing interface 60.
  • the current user A can input expressions or barrages into the message editing interface 60, or trigger other function menus, etc.
  • the video image displayed in the video image display space can be switched from a 3D format to a 2D format to ensure that the user is using the message editing interface (for example, editing a target message). , which can better focus on the message editing interface to edit the target message.
  • the video image displayed in the video image display space can be switched from a 2D format to a 3D format.
  • FIG. 7 shows a flow chart of the information interaction method 100 provided by an embodiment of the present disclosure.
  • the method 200 includes steps S220 to S260.
  • Step S220 Display a virtual reality space, which includes a video image display space and a target message display space;
  • Step S240 Display the video image in the video image display space
  • Step S260 Determine the target message and display the target message in the target message display space; wherein, in the target message display space, the projections of at least two target messages in the first direction do not overlap, so The first direction is the direction in which the video image faces.
  • the at least two target messages are arranged along a preset first path; in the left view of the target message display space, the At least two target messages are arranged along the preset second path; wherein the main view of the target message display space is a view that can display the front content of the target message.
  • method 200 further includes:
  • a preset first prompt identification is displayed; the first prompt identification is used to indicate the target message display direction, and the target message display space is configured to be along the target message
  • the display direction dynamically displays historical target messages.
  • method 200 further includes:
  • Step C1 When the target message display space dynamically displays the target message along the target message display direction, in response to receiving a new target message, display a preset first message at a preset position in the target message display space.
  • Step C2 In response to the two prompt flags being triggered, the target message display space displays the new target message.
  • an information interaction device including:
  • a space display unit displays a virtual reality space, where the virtual reality space includes a video image display space and a target message display space;
  • a video image display unit used to display video images in the video image display space
  • a message unit used to determine a target message and display the target message in the target message display space; wherein the target message display space is located in front of the video image display space in the first direction, and the first The direction is the direction the video image is facing.
  • an information interaction device including:
  • An information interaction device characterized by including:
  • a video image display unit used to display video images in the video image display space
  • a message unit configured to determine a target message and display the target message in the target message display space; wherein, in the target message display space, the projections of at least two target messages in the first direction do not overlap.
  • the first direction is the direction in which the video image faces.
  • the target message display space includes: at least one display space for displaying text messages, and/or at least one display space for displaying image messages.
  • the orthographic projection of the target message display space on the video image display space is located outside a preset central area of the video image display space.
  • the orthographic projection of the target message display space on the video image display space is outside the preset center area of the video image display space, it includes: the orthographic projection is located on the left and/or right side of the preset center area of the video image display area.
  • the projections of at least two target messages in the first direction do not overlap.
  • At least two target messages are arranged along the preset first path; in the left view of the target message display space, at least two target messages The messages are arranged along the preset second path; wherein the main view of the target message display space is a view that can display the front content of the target message.
  • the information interaction device further includes:
  • a message rotation unit is configured to rotate the target message around a preset vertical axis based on the user's viewing angle, so that the content of the target message is visible to the user.
  • the information interaction device further includes:
  • a first prompt unit configured to display a first prompt identification in response to an operation on the target message display space; the first prompt identification is used to indicate a currently available target message display direction, and the target message display space is configured The target message can be dynamically displayed along the target message display direction.
  • the information interaction device further includes:
  • a second prompt unit configured to display a second prompt identification in response to receiving a new target message when the target message display space dynamically displays the target message along the target message display direction; in response to the second prompt The mark is triggered, and the target message display space displays the new target message.
  • the second prompt identification displays the number of new target messages.
  • displaying the target message in the target message display space includes: moving the target message toward the target message display space.
  • the target message moves along the first path; if the target message originates from a client other than the current client, the target message The message moves along the second path.
  • the first path is a path between a message editing interface and the target message display space; the message editing interface is used to edit and send target messages.
  • the movement paths of the two or more identical first target messages are the same.
  • the information interaction device further includes:
  • a third prompting unit is used to display a third identifier corresponding to the two or more identical first target messages in the target message display space, and the third identifier is used to display the current arrival in the target message display space. The number of the first target messages.
  • the device embodiment since it basically corresponds to the method embodiment, please refer to the partial description of the method embodiment for relevant details.
  • the device embodiments described above are only illustrative, and the modules described as separate modules may or may not be separate. Some or all of the modules can be selected according to actual needs to achieve the purpose of the solution of this embodiment. Persons of ordinary skill in the art can understand and implement the method without any creative effort.
  • an electronic device including:
  • the memory is used to store program codes
  • the processor is used to call the program codes stored in the memory to cause the electronic device to execute the information interaction method provided according to one or more embodiments of the present disclosure.
  • a non-transitory computer storage medium stores program code, and the program code can be executed by a computer device to cause the computer device to execute An information interaction method provided according to one or more embodiments of the present disclosure.
  • Terminal devices in embodiments of the present disclosure may include, but are not limited to, mobile phones, laptops, digital broadcast receivers, PDAs (Personal Digital Assistants), PADs (Tablets), PMPs (Portable Multimedia Players), vehicle-mounted terminals (such as Mobile terminals such as car navigation terminals) and fixed terminals such as digital TVs, desktop computers, etc.
  • the electronic device shown in FIG. 8 is only an example and should not impose any limitations on the functions and scope of use of the embodiments of the present disclosure.
  • the electronic device 800 may include a processing device (eg, central processing unit, graphics processor, etc.) 801, which may be loaded into a random access device according to a program stored in a read-only memory (ROM) 802 or from a storage device 808.
  • the program in the memory (RAM) 803 executes various appropriate actions and processes.
  • various programs and data required for the operation of the electronic device 800 are also stored.
  • the processing device 801, ROM 802 and RAM 803 are connected to each other via a bus 804.
  • An input/output (I/O) interface 805 is also connected to bus 804.
  • the following devices may be connected to the I/O interface 805: including, for example, a touch screen, touch pad, keyboard, mouse, etc.
  • Input devices 806 such as markers, cameras, microphones, accelerometers, gyroscopes, etc.
  • output devices 807 including, for example, liquid crystal displays (LCDs), speakers, vibrators, etc.
  • storage devices 808 including, for example, tapes, hard disks, etc.
  • communication devices 809 may allow the electronic device 800 to communicate wirelessly or wiredly with other devices to exchange data.
  • FIG. 8 illustrates an electronic device 800 having various means, it should be understood that implementation or availability of all illustrated means is not required. More or fewer means may alternatively be implemented or provided.
  • embodiments of the present disclosure include a computer program product including a computer program carried on a computer-readable medium, the computer program containing program code for performing the method illustrated in the flowchart.
  • the computer program may be downloaded and installed from the network via communication device 809, or from storage device 808, or from ROM 802.
  • the processing device 801 the above-mentioned functions defined in the method of the embodiment of the present disclosure are performed.
  • the computer-readable medium mentioned above in the present disclosure may be a computer-readable signal medium or a computer-readable storage medium, or any combination of the above two.
  • the computer-readable storage medium may be, for example, but is not limited to, an electrical, magnetic, optical, electromagnetic, infrared, or semiconductor system, apparatus or device, or any combination thereof. More specific examples of computer readable storage media may include, but are not limited to: an electrical connection having one or more wires, a portable computer disk, a hard drive, random access memory (RAM), read only memory (ROM), removable Programmd read-only memory (EPROM or flash memory), fiber optics, portable compact disk read-only memory (CD-ROM), optical storage device, magnetic storage device, or any suitable combination of the above.
  • a computer-readable storage medium may be any tangible medium that contains or stores a program for use by or in connection with an instruction execution system, apparatus, or device.
  • a computer-readable signal medium may include a data signal propagated in baseband or as part of a carrier wave, carrying computer-readable program code therein. Such propagated data signals may take many forms, including but not limited to electromagnetic signals, optical signals, or any suitable combination of the above.
  • a computer-readable signal medium may also be any computer-readable medium other than a computer-readable storage medium that can send, propagate, or transmit a program for use by or in connection with an instruction execution system, apparatus, or device .
  • Program code embodied on a computer-readable medium may be transmitted using any suitable medium, including but not limited to: wire, optical cable, RF (radio frequency), etc., or any suitable combination of the above.
  • the client and server can use HTTP (HyperText Transfer Communicates with any currently known or future developed network protocol such as Hypertext Transfer Protocol) and can be interconnected with any form or medium of digital data communication (e.g., a communications network).
  • HTTP HyperText Transfer Communicates with any currently known or future developed network protocol such as Hypertext Transfer Protocol
  • Examples of communication networks include local area networks (“LAN”), wide area networks (“WAN”), the Internet (e.g., the Internet), and end-to-end networks (e.g., ad hoc end-to-end networks), as well as any currently known or developed in the future network of.
  • the above-mentioned computer-readable medium may be included in the above-mentioned electronic device; it may also exist independently without being assembled into the electronic device.
  • the above-mentioned computer-readable medium carries one or more programs.
  • the electronic device When the above-mentioned one or more programs are executed by the electronic device, the electronic device is caused to perform the above-mentioned method of the present disclosure.
  • Computer program code for performing the operations of the present disclosure may be written in one or more programming languages, including object-oriented programming languages such as Java, Smalltalk, C++, and conventional Procedural programming language—such as "C" or a similar programming language.
  • the program code may execute entirely on the user's computer, partly on the user's computer, as a stand-alone software package, partly on the user's computer and partly on a remote computer or entirely on the remote computer or server.
  • the remote computer can be connected to the user's computer through any kind of network, including a local area network (LAN) or a wide area network (WAN), or it can be connected to an external computer (such as an Internet service provider through Internet connection).
  • LAN local area network
  • WAN wide area network
  • Internet service provider such as an Internet service provider through Internet connection
  • each block in the flowchart or block diagram may represent a module, segment, or portion of code that contains one or more logic functions that implement the specified executable instructions.
  • the functions noted in the block may occur out of the order noted in the figures. For example, two blocks shown one after another may actually execute substantially in parallel, or they may sometimes execute in the reverse order, depending on the functionality involved.
  • each block of the block diagram and/or flowchart illustration, and combinations of blocks in the block diagram and/or flowchart illustration can be implemented by special purpose hardware-based systems that perform the specified functions or operations. , or can be implemented using a combination of specialized hardware and computer instructions.
  • the units involved in the embodiments of the present disclosure can be implemented in software or hardware. Among them, the name of a unit does not constitute a limitation on the unit itself under certain circumstances.
  • exemplary types of hardware logic components include: field programmable gate arrays (FPGA), Application Specific Integrated Circuit (ASIC), Application Specific Standard Product (ASSP), System on Chip (SOC), Complex Programmable Logic Device (CPLD), etc.
  • FPGA field programmable gate arrays
  • ASIC Application Specific Integrated Circuit
  • ASSP Application Specific Standard Product
  • SOC System on Chip
  • CPLD Complex Programmable Logic Device
  • a machine-readable medium may be a tangible medium that may contain or store a program for use by or in connection with an instruction execution system, apparatus, or device.
  • the machine-readable medium may be a machine-readable signal medium or a machine-readable storage medium.
  • Machine-readable media may include, but are not limited to, electronic, magnetic, optical, electromagnetic, infrared, or semiconductor systems, devices or devices, or any suitable combination of the foregoing.
  • machine-readable storage media would include one or more wire-based electrical connections, laptop disks, hard drives, random access memory (RAM), read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), optical fiber, portable compact disk read-only memory (CD-ROM), optical storage device, magnetic storage device, or any suitable combination of the above.
  • RAM random access memory
  • ROM read only memory
  • EPROM or flash memory erasable programmable read only memory
  • CD-ROM portable compact disk read-only memory
  • magnetic storage device or any suitable combination of the above.
  • an information interaction method including: displaying a virtual reality space, the virtual reality space including a video image display space and a target message display space; within the video image display space Display a video image; determine a target message, and display the target message in the target message display space; wherein the target message display space is located in front of the video image display space in the first direction, and the first direction is the direction the video image is facing.
  • the target message display space includes: at least one display space for displaying text messages, and/or at least one display space for displaying image messages.
  • the orthographic projection of the target message display space on the video image display space is located outside the preset center area of the video image display space.
  • the orthographic projection of the target message display space on the video image display space is located outside the preset central area of the video image display space, including: the orthogonal projection of the target message display space on the video image display space.
  • the projection is located on the left and/or right of the preset center area of the video image display area.
  • projections of at least two target messages in the first direction do not overlap.
  • the target message display space in the front view of the target message display space, at least two target messages are arranged along the preset first path; in the left view of the target message display space , at least two target messages are arranged along the preset second path; wherein the main view of the target message display space is a view that can display the front content of the target message.
  • the information interaction method provided according to one or more embodiments of the present disclosure further includes: rotating the target message around a preset vertical axis based on the user's viewing angle, so that the content of the target message is visible to the user.
  • the information interaction method provided according to one or more embodiments of the present disclosure further includes: in response to an operation on the target message display space, displaying a first prompt identification; the first prompt identification is used to indicate a currently available target.
  • the target message display space is configured to dynamically display the target message along the target message display direction.
  • the information interaction method provided according to one or more embodiments of the present disclosure further includes: when the target message display space dynamically displays the target message along the target message display direction, in response to receiving the new target message, display a second prompt identification; in response to the second prompt identification being triggered, the target message display space displays the new target message.
  • the second prompt identification displays the number of the new target messages.
  • displaying the target message in the target message display space includes: moving the target message toward the target message display space.
  • the target message if the target message originates from the current client, the target message moves along the first path; if the target message originates from a client other than the current client , then the target message moves along the second path.
  • the first path is a path between a message editing interface and the target message display space; the message editing interface is used to edit and send target messages.
  • the movement paths of the two or more identical first target messages are the same.
  • the information interaction method provided according to one or more embodiments of the present disclosure further includes: displaying a third identifier corresponding to the two or more identical first target messages in the target message display space, the third The identifier is used to display the number of the first target messages currently arriving in the target message display space.
  • an information interaction method including: displaying a virtual reality space, the virtual reality space including a video image display space and a target message display space; within the video image display space Display a video image; determine a target message and display the target message in the target message display space; wherein, in the target message display space, the projections of at least two target messages in the first direction do not overlap,
  • the first direction is the direction in which the video image faces.
  • the at least two target messages are arranged along a preset first path; on the left side of the target message display space In the view, the at least two target messages are arranged along a preset second path; wherein the main view of the target message display space is a view that can display the front content of the target message.
  • the information interaction method provided according to one or more embodiments of the present disclosure further includes: rotating the target message around a preset vertical axis based on the user's viewing angle, so that the content of the target message is visible to the user.
  • the information interaction method provided according to one or more embodiments of the present disclosure further includes: in response to an operation on the target message display space, displaying a preset first prompt identification; the first prompt identification is used to indicate the target Message display direction, the target message display space is configured to dynamically display historical target messages along the target message display direction.
  • the information interaction method provided according to one or more embodiments of the present disclosure further includes: when the target message display space dynamically displays the target message along the target message display direction, in response to receiving a new target message, in A preset second prompt mark is displayed in a preset position of the target message display space; in response to the two prompt marks being triggered, the target message display space displays the new target message.
  • the second prompt identification displays the number of the new target messages.
  • an information interaction device including: a space display unit that displays a virtual reality space, where the virtual reality space includes a video image display space and a target message display space; a video image display unit , used to display video images in the video image display space; a message unit, used to determine a target message, and display the target message in the target message display space; wherein, the target message in the first direction
  • the display space is located in front of the video image display space, and the first direction is the direction in which the video image faces.
  • an information interaction device including: a space display unit for displaying a virtual reality space, where the virtual reality space includes a video image display space and a target message display space; video image A display unit is used to display a video image in the video image display space; a message unit is used to determine a target message and display the target message in the target message display space; wherein, in the target message display space , the projections of at least two target messages in the first direction do not overlap, and the first direction is the direction in which the video image faces.
  • an electronic device including: at least one memory and at least one processor; wherein the memory is used to store program code, and the processor is used to call the stored program code.
  • the program code stored in the device is used to cause the electronic device to execute the information interaction method provided according to one or more embodiments of the present disclosure.
  • a non-transitory computer storage medium stores program code, and when the program code is executed by a computer device, the computer device causes The information interaction method provided according to one or more embodiments of the present disclosure is executed.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开涉及计算机技术领域,具体涉及信息交互方法、装置、电子设备及存储介质。根据本公开实施例提供的信息交互方法,包括:显示虚拟现实空间,虚拟现实空间包括视频图像显示空间和目标消息显示空间;在视频图像显示空间内显示视频图像;确定目标消息,并在目标消息显示空间内显示目标消息;其中,在第一方向上,目标消息显示空间位于视频图像显示空间之前,第一方向为视频图像所朝向的方向。

Description

信息交互方法、装置、电子设备和存储介质
相关申请的交叉引用
本申请基于申请号为202210612147.0、申请日为2022年05月31日、名称为“信息交互方法、装置、电子设备和存储介质”的中国专利申请提出,并要求该中国专利申请的优先权,该中国专利申请的全部内容在此引入本申请作为参考。
技术领域
本公开涉及计算机技术领域,具体涉及一种信息交互方法、装置、电子设备和存储介质。
背景技术
随着虚拟现实技术(Virtual Reality,VR)的发展,越来越多的虚拟直播平台或应用被开发出来供用户使用。在虚拟直播平台中,用户可以通过例如头戴式显示设备及相关配件观看主播的表演,并可以通过表情和弹幕与主播和其他观众进行互动。然而,相关技术中,表情和弹幕在虚拟直播平台的显示效果较差,用户体验不好。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,根据本公开的一个或多个实施例,提供了一种信息交互方法,包括:
显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
在所述视频图像显示空间内显示视频图像;
确定目标消息,并在所述目标消息显示空间内显示所述目标消息;
其中,在第一方向上所述目标消息显示空间位于所述视频图像显示空间之前,所述第一方向为所述视频图像所朝向的方向。
第二方面,根据本公开的一个或多个实施例,提供了一种对象控制方法,包括:
显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
在所述视频图像显示空间内显示视频图像;
确定目标消息并在所述目标消息显示空间内显示所述目标消息;
其中,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合,所述第一方向为所述视频图像所朝向的方向。
第三方面,根据本公开的一个或多个实施例,提供了一种信息交互装置,包括:
空间显示单元,显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
视频图像显示单元,用于在所述视频图像显示空间内显示视频图像;
消息单元,用于确定目标消息,并在所述目标消息显示空间内显示所述目标消息;其中,在第一方向上所述目标消息显示空间位于所述视频图像显示空间之前,所述第一方向为所述视频图像所朝向的方向。
第四方面,根据本公开的一个或多个实施例,提供了一种信息交互装置,包括:
空间显示单元,用于显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
视频图像显示单元,用于在所述视频图像显示空间内显示视频图像;
消息单元,用于确定目标消息并在所述目标消息显示空间内显示所述目标消息;其中,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合,所述第一方向为所述视频图像所朝向的方向。
第五方面,根据本公开的一个或多个实施例,提供了一种电子设备,包括:至少一个存储器和至少一个处理器;其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储器所存储的程序代码以使所述电子设备执行根据本公开的一个或多个实施例提供的信息交互方法。
第六方面,根据本公开的一个或多个实施例,提供了一种非暂态计算机存储介质,所述非暂态计算机存储介质存储有程序代码,所述程序代码被计算机设备执行时,使得所述计算机设备执行根据本公开的一个或多个实施例提供的信息交互方法。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为根据本公开一实施例虚拟现实设备的示意图;
图2为根据本公开一实施例提供的虚拟现实设备的虚拟视场的一个可选的示意图;
图3为本公开一实施例提供的信息交互方法的流程图;
图4为根据本公开一实施例提供的虚拟现实空间的示意图;
图5a和5b分别为根据本公开一实施例提供的目标消息显示空间的主视图和左视图;
图6a和6b为根据本公开一实施例提供的虚拟现实空间的示意图;
图7为本公开另一实施例提供的信息交互方法的流程图;
图8为根据本公开一实施例提供的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的实施方式中记载的步骤可以按照不同的顺序执行,和/或并行执行。此外,实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。术语“响应于”以及有关的术语是指一个信号或事件被另一个信号或事件影响到某个程度,但不一定是完全地或直接地受到影响。如果事件x“响应于”事件y而发生,则x可以直接或间接地响应于y。例如,y的出现最终可能导致x的出现,但可能存在其它中间事件和/或条件。在其它情形中,y可能不一定导致x的出现,并且即使y尚未 发生,x也可能发生。此外,术语“响应于”还可以意味着“至少部分地响应于”。
术语“确定”广泛涵盖各种各样的动作,可包括获取、演算、计算、处理、推导、调研、查找(例如,在表、数据库或其他数据结构中查找)、探明、和类似动作,还可包括接收(例如,接收信息)、访问(例如,访问存储器中的数据)和类似动作,以及解析、选择、选取、建立和类似动作等等。其他术语的相关定义将在下文描述中给出。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
为了本公开的目的,短语“A和/或B”意为(A)、(B)或(A和B)。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
本公开一个或多个实施例提供的信息交互方法采用扩展现实(Extended Reality,简称XR)技术。扩展现实技术可以通过计算机将真实与虚拟相结合,为用户提供可人机交互的虚拟现实空间。在虚拟现实空间中,用户可以通过例如头盔式显示器(Head Mount Display,HMD)等虚拟现实设备,进行社交互动、娱乐、学习、工作、远程办公、创作UGC(User Generated Content,用户生成内容)等。
本公开实施例记载的虚拟现实设备可以包括但不限于如下几个类型:
电脑端虚拟现实(PCVR)设备,利用PC端进行虚拟现实功能的相关计算以及数据输出,外接的电脑端虚拟现实设备利用PC端输出的数据实现虚拟现实的效果。
移动虚拟现实设备,支持以各种方式(如设置有专门的卡槽的头戴式显示器)设置移动终端(如智能手机),通过与移动终端有线或无线方式的连接,由移动终端进行虚拟现实功能的相关计算,并输出数据至移动虚拟现实设备,例如通过移动终端的APP观看虚拟现实视频。
一体机虚拟现实设备,具备用于进行虚拟功能的相关计算的处理器,因而具备独立的虚拟现实输入和输出的功能,不需要与PC端或移动终端连接,使用自由度高。
当然虚拟现实设备实现的形态不限于此,可以根据需要可以进一步小型化或大 型化。
虚拟现实设备中设置有姿态检测的传感器(如九轴传感器),用于实时检测虚拟现实设备的姿态变化,如果用户佩戴了虚拟现实设备,那么当用户头部姿态发生变化时,会将头部的实时姿态传给处理器,以此计算用户的视线在虚拟环境中的注视点,根据注视点计算虚拟环境的三维模型中处于用户注视范围(即虚拟视场)的图像,并在显示屏上显示,使人仿佛在置身于现实环境中观看一样的沉浸式体验。
图2示出了本公开一实施例提供的虚拟现实设备的虚拟视场的一个可选的示意图,使用水平视场角和垂直视场角来描述虚拟视场在虚拟环境中的分布范围,垂直方向的分布范围使用垂直视场角BOC表示,水平方向的分布范围使用水平视场角AOB表示,人眼通过透镜总是能够感知到虚拟环境中位于虚拟视场的影像,可以理解,视场角越大,虚拟视场的尺寸也就越大,用户能够感知的虚拟环境的区域也就越大。其中,视场角,表示通过透镜感知到环境时所具有的视角的分布范围。例如,虚拟现实设备的视场角,表示通过虚拟现实设备的透镜感知到虚拟环境时,人眼所具有的视角的分布范围;再例如,对于设置有摄像头的移动终端来说,摄像头的视场角为摄像头感知真实环境进行拍摄时,所具有的视角的分布范围。
虚拟现实设备,例如HMD集成有若干的相机(例如深度相机、RGB相机等),相机的目的不仅仅限于提供直通视图。相机图像和集成的惯性测量单元(IMU)提供可通过计算机视觉方法处理以自动分析和理解环境的数据。还有,HMD被设计成不仅支持无源计算机视觉分析,而且还支持有源计算机视觉分析。无源计算机视觉方法分析从环境中捕获的图像信息。这些方法可为单视场的(来自单个相机的图像)或体视的(来自两个相机的图像)。它们包括但不限于特征跟踪、对象识别和深度估计。有源计算机视觉方法通过投影对于相机可见但不一定对人视觉系统可见的图案来将信息添加到环境。此类技术包括飞行时间(ToF)相机、激光扫描或结构光,以简化立体匹配问题。有源计算机视觉用于实现场景深度重构。
参考图3,图3示出了本公开一实施例提供的信息交互方法100的流程图,方法100包括步骤S120-步骤S160。
步骤S120:显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间。
其中,虚拟现实空间可以是对真实世界的仿真环境,也可以是半仿真半虚构的 虚拟场景,还可以是纯虚构的虚拟场景。虚拟场景可以是二维虚拟场景、2.5维虚拟场景或者三维虚拟场景中的任意一种,本申请实施例对虚拟场景的维度不加以限定。例如,虚拟场景可以包括天空、陆地、海洋等,该陆地可以包括沙漠、城市等环境元素,用户可以控制虚拟对象在该虚拟场景中进行移动。
参考图1,用户可以通过例如头戴式VR眼镜等智能终端设备进入虚拟现实空间,并在虚拟现实空间中控制自己的虚拟角色(Avatar)与其他用户控制的虚拟角色进行社交互动、娱乐、学习、远程办公等。
在一个实施例中,在虚拟现实空间中,用户可以通过控制器来实现相关的交互操作,该控制器可以为手柄,例如用户通过对手柄的按键的操作来进行相关的操作控制。当然在另外的实施例中,也可以不使用控制器而使用手势或者语音或者多模态控制方式来对虚拟现实设备中的目标对象进行控制。
在一些实施例中,所述虚拟现实空间包括虚拟直播空间。在虚拟直播空间中,表演者用户可以以虚拟形象或真实影像进行直播,观众用户可以控制虚拟角色以诸如第一人称视角等观看视角,观看表演者的直播。
步骤S140:在所述视频图像显示空间内显示视频图像。
在一些实施例中,可以获取视频流,并基于视频流在视频图像显示空间中呈现视频内容。示例性地,视频流可以采用H.265、H.264、MPEG-4等编码格式。在一个具体的实施方式中,客户端可以接收服务器发送的视频直播流,并基于该视频直播流在视频图像显示空间内显示视频直播图像。
在一些实施例中,所述视频图像显示空间默认显示3D(立体)视频。3D视频技术利用人两眼的包括但不限于矩形3D视频、半景3D视频、全景3D视频或鱼眼3D视频。
步骤S160:确定目标消息,并在所述目标消息显示空间内显示所述目标消息;其中,在第一方向上,所述目标消息显示空间位于所述视频图像显示空间之前,所述第一方向为所述视频图像所朝向的方向。
在一些实施例中,目标消息包括但不限于文本消息(例如评论、弹幕)、图像消息(例如表情emoji、图片、虚拟物品等)。
在一个具体实施方式中,当前用户可以通过预设的操作唤起消息编辑界面,编辑并发送目标消息,并在目标消息显示空间内显示当前用户发送的目标消息。在另一个具体 实施方式中,客户端可以接受服务器发送的、来自于其他客户端的目标消息,并在目标消息显示空间内显示来自于其他客户端的目标消息。
参见图4,图4为根据本公开一实施例提供的虚拟现实空间的示意图。虚拟现实空间10包括视频图像显示空间20、目标消息显示空间40、50。视频图像显示空间20可以用于显示视频图像,例如3D视频图像。目标消息显示空间40、50可以分别用于显示图像消息(例如表情emoji、图片、虚拟物品等)和文本消息(例如当前用户或其他用户发送的评论或弹幕)。在第一方向上(即图4所示的Z轴的方向),目标消息显示空间40、50位于视频图像显示空间之前,其中,第一方向是视频图像所朝向的方向,即与用户观看正面视频图像时的观看方向相反。在本实施例中,目标消息显示空间对应的用户观看距离比视频图像显示空间对应的观看距离更近,从而呈现出目标消息较近而视频图像较远的视觉效果。
根据本公开的一个或多个实施例,通过在虚拟现实空间内,在视频图像所朝向的方向上,目标消息显示空间位于所述视频图像显示空间之前,使得目标消息显示空间对应的用户观看距离比视频图像显示空间对应的观看距离更近,从而使目标消息能够独立于视频画面,提升观影的空间层次感,还可以解决目标消息与3D视频画面共存时产生的虚影问题,避免用户出现对焦困难。
在一些实施例中,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合。示例性地,参考图4,在第一方向上,目标消息空间50中的文本消息B位于文本消息A之前,二者在第一方向上的投影不重合;类似地,目标消息空间40中的笑脸表情符号显示与在爱心表情符号之前,二者亦在第一方向上的投影不重合。这样,目标消息空间中不同的目标消息可以对应不同的用户观看距离,从而实现目标消息具有不同的显示纵深。
在一些实施例中,在所述目标消息显示空间的主视图中,所述至少两个目标消息沿着预设的第一路径排布;在所述目标消息显示空间的左视图中,所述至少两个目标消息沿着预设的第二路径排布;其中,所述目标消息显示空间的主视图为能够展示目标消息正面内容的视图。这样,当用户正对目标消息时(即可以观察到目标消息的显示内容),目标消息在用户的视角中沿着预设的第一路径排布,当用户侧对目标消息时(即只能观察目标消息的左侧投影),目标消息在用户的视角中沿着预设的第二路径排布。
在一些实施例中,所述第一路径与所述第二路径均为弧形路径。
图5a和5b分别为根据本公开一实施例提供的目标消息显示空间的主视图和左视图。参见图5a,在目标消息显示空间51的主视图中,多个目标消息511沿着呈弧形的第一路径501排列;参见图5b,在目标消息显示空间的左视图中,多个目标消息511沿着呈弧形的第二路径502排列。
根据本公开的一个或多个实施例,将目标消息在主视图和左视图中均呈弧形分布,可以在用户的观看视角种将消息内容与视频图像显示空间更好地融合,提升用户的互动体验。
在一些实施例中,所述信息交互方法还包括:基于用户的观看视角使所述目标消息围绕预设的纵轴旋转,以使所述目标消息的内容对用户可见。示例性地,参考图4,当用户改变观看视角时,例如用户控制虚拟角色(Avatar)或其他对应物在虚拟空间内移动时,可以对应使目标消息围绕Y轴旋转,以使目标消息的内容对用户可见。
在一些实施例中,参见图5a,目标消息显示空间可以以上下方向信息流的形式显示包括多个目标消息的消息队列,新加载的目标消息出现在消息队列的底部。
在一些实施例中,响应于针对所述目标消息显示空间的操作,显示预设的第一提示标识;所述第一提示标识用于指示目标消息展示方向,所述目标消息显示空间被构造成沿着所述目标消息展示方向动态展示历史目标消息。
在一些实施例中,方法100还包括,
步骤A1:响应于针对所述目标消息显示空间的操作,显示预设的第一提示标识;所述第一提示标识用于指示当前可用的目标消息展示方向,所述目标消息显示空间被构造成沿着所述目标消息展示方向动态展示历史目标消息。
针对所述目标消息显示空间的操作包括但不限于体感控制操作、手势控制操作、眼球晃动操作、触控操作、语音控制指令、或对外接控制设备的预设操作。示例性地,用户可以通过手柄射线指向目标消息显示空间,以唤起预设的第一提示标识。第一提示标识可以显示目标消息展示方向,用户可以按照所显示的目标消息方向控制手柄,使目标消息显示空间可以上下滚动显示或翻页显示目标消息。
在一些实施例中,方法100还包括,
步骤A2:当所述目标消息显示空间沿着所述目标消息展示方向动态展示目标消息时,响应于接收到新的目标消息,显示预设的第二提示标识;
步骤A3:响应于所述第二提示标识被触发,所述目标消息显示空间显示所述新的目标消息。
在一些实施例中,所述第二提示标识显示所述新的目标消息的数量。
参考图5a,用户通过例如手柄射线或其他预设操作触发目标消息显示空间51后,可以在目标消息显示空间51的预设位置处,例如在目标消息显示空间所呈现的目标消息队列的上方和下方,显示第一提示标识512、513,第一提示标识512用于指示可以向上滚动或翻页,第一提示标识513用于指示可以向下滚动或翻页,以便用户按照第一提示标识指示的目标消息展示方向控制目标消息显示空间向上或向下滚动或翻页。若在目标消息显示空间滚动或翻页显示目标消息期间,虚拟现实设备接收到了N条新目标消息,则可以在目标消息显示空间51的预设位置处,例如在目标消息显示空间所呈现的目标消息队列的下方显示第二提示标识514“新消息+N”,以提示用户当前收到了N条新消息。若用户通过预设的操作触发该第二提示标识,则目标消息显示空间跳转显示新消息。
在一些实施例中,若第一提示标识高亮显示,则表示该第一提示标识所述指示的显示目标消息展示方向可用;若第一提示标识高亮灰度显示,则表示该第一提示标识所述指示的显示目标消息展示方向不可用。
在一些实施例中,所述目标消息显示空间在所述视频图像显示空间上的正投影,位于所述视频图像显示空间的预设的中心区域之外。
图6a为根据本公开一实施例提供的虚拟现实空间的示意图,其反映了用户正面观看是视频图像时用户视角中呈现的虚拟现实空间。参见图6a,虚拟现实空间10包括视频图像显示空间20,目标消息显示空间41、42和51。其中,目标消息显示空间41、42和51在视频图像显示空间20上的正投影均位于预设的中心区域21之外,使得目标消息显示空间41、42和51不遮挡该预设的中心区域,从而不影响用户的视频观看的体验。
需要说明的是,本领域技术人员在本公开的上述教导下可以根据实际需求设置预设的中心区域的位置和大小,本公开在此不做限制。
在一个实施例中,如图6a所示,目标消息显示空间41、42可以为用于显示图像消息的显示空间,而目标消息显示空间51可以为用于显示文本消息的显示空间。上述目 标消息显示空间41、42及51可以基于用户的观看视角使所述目标消息围绕预设的纵轴旋转,以使所述目标消息的内容对用户可见。
在一个实施例中,如图6b所示,上述目标消息显示空间41、42的位置可以相对于视频图像显示空间20的相对位置不变,在用户视角进行转动时,目标消息空间51可以围绕Y轴根据用户视角进行偏转。
在一些实施例中,步骤S160进一步包括:
步骤B1:所述目标消息朝向所述目标消息显示空间内移动。
参见图6a,用于显示图像信息(例如表情或虚拟物品)的目标消息显示空间41和42位于预设的中心区域21的左右两侧,呈现出目标消息“紧紧围绕”着表演者的视觉效果。所确定的(例如当前用户发送的或其他用户发送的)目标消息411、412和421则可以“飞入”目标消息显示空间内,呈现出向表演者喝彩或献礼的视觉效果,从而丰富了用户的交互体验,提升了用户参与感。
在一些实施例中,若所述目标消息来源于当前的客户端,则所述目标消息沿着第一路径移动;若所述目标消息来源于当前的客户端以外的客户端,则所述目标消息沿着第二路径移动。
在一些实施例中,第二路径可以为第一路径以外的随机路径。示例性地,可以预设多个移动路径,从而每次随机选择一个作为第二路径。
在本实施例中,不同来源的目标消息具有不同的移动路径,从而可以便于用户区分哪些目标消息是自己所发送的,从而可以提升用户的交互体验。
在一些实施例中,所述第一路径为消息编辑界面与所述目标消息显示空间之间的路径;所述消息编辑界面用于编辑和发送目标消息。
在一些实施例中,可以突出显示来源于当前的客户端发送的目标消息。例如,可以通过背景颜色、目标消息的尺寸或其他标识、动画特效等方式,突出显示当前客户端发送的目标消息。
在一些实施例中,若在预设时段内确定了来自同一个客户端两个以上相同的第一目标消息,则所述两个以上相同的第一目标消息的移动路径相同。示例性地,当第一目标消息A移动至目标消息空间后,可以在目标消息空间内停留并呈现2秒,在此期间内如果同一客户端发送了相同的第一目标消息A,则该相同的第一目标消息A将沿着相同的移动路径移动至目标消息空间内,从而可以呈现出“连送”的视觉效果。
在一些实施例中,在所述目标消息显示空间内显示与所述两个以上相同的第一目标消息对应的第三标识,所述第三标识用于显示当前到达所述目标消息显示空间的所述第一目标消息的数量。示例性地,当第一目标消息A移动至目标消息空间后,可以在目标消息空间A内停留并呈现2秒,在此期间内如果同一客户端发送了相同的第一目标消息A,则当新的第一目标消息A抵达目标消息显示空间后,可以显示标识“×2”,用于实时显示当前连续抵达至目标消息空间的第一目标消息A的数量。参考图6a,第三标识415显示“×5”,表明同一客户端当前已连续发送了5个目标消息412。当该同一客户端发送了新的目标消息B时,则该目标消息B可以通过新的路径移动。
参见图6a,虚拟现实空间10当前显示有消息编辑界面60,当前用户A可以通过给消息编辑界面60输入表情或弹幕,或者触发其他功能菜单等。
在一些实施例中,当消息编辑界面被预设操作唤起后,可以将视频图像显示空间显示的视频图像由3D格式切换为2D格式,以保证用户在使用消息编辑界面(例如编辑目标消息)时,能够更好地聚焦到消息编辑界面以编辑目标消息。
进一步地,在一些实施例中,当消息编辑界面被预设操作隐藏后,则可以将视频图像显示空间显示的视频图像由2D格式切换为3D格式。
参考图7,图7示出了本公开一实施例提供的信息交互方法100的流程图,方法200包括步骤S220-步骤S260。
步骤S220:显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
步骤S240:在所述视频图像显示空间内显示视频图像;
步骤S260:确定目标消息并在所述目标消息显示空间内显示所述目标消息;其中,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合,所述第一方向为所述视频图像所朝向的方向。
在一些实施例中,在所述目标消息显示空间的主视图中,所述至少两个目标消息沿着预设的第一路径排布;在所述目标消息显示空间的左视图中,所述至少两个目标消息沿着预设的第二路径排布;其中,所述目标消息显示空间的主视图为能够展示目标消息正面内容的视图。
在一些实施例中,方法200还包括:
响应于针对所述目标消息显示空间的操作,显示预设的第一提示标识;所述第一提示标识用于指示目标消息展示方向,所述目标消息显示空间被构造成沿着所述目标消息展示方向动态展示历史目标消息。
在一些实施例中,方法200还包括:
步骤C1:当所述目标消息显示空间沿着所述目标消息展示方向动态展示目标消息时,响应于接收到新的目标消息,在所述目标消息显示空间的预设位置出显示预设的第二提示标识;
步骤C2:响应于所述二提示标识被触发,所述目标消息显示空间显示所述新的目标消息。
相应地,根据本公开一实施例提供了一种信息交互装置,包括:
空间显示单元,显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
视频图像显示单元,用于在所述视频图像显示空间内显示视频图像;
消息单元,用于确定目标消息,并在所述目标消息显示空间内显示所述目标消息;其中,在第一方向上所述目标消息显示空间位于所述视频图像显示空间之前,所述第一方向为所述视频图像所朝向的方向。
相应地,根据本公开一实施例提供了一种信息交互装置,包括:
一种信息交互装置,其特征在于,包括:
空间显示单元,用于显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
视频图像显示单元,用于在所述视频图像显示空间内显示视频图像;
消息单元,用于确定目标消息并在所述目标消息显示空间内显示所述目标消息;其中,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合,所述第一方向为所述视频图像所朝向的方向。
在一些实施例中,所述目标消息显示空间包括:至少一个用于显示文本消息的显示空间,和/或至少一个用于显示图像消息的显示空间。
在一些实施例中,所述目标消息显示空间在所述视频图像显示空间上的正投影,位于所述视频图像显示空间的预设的中心区域之外。
在一些实施例中,所述目标消息显示空间在所述视频图像显示空间上的正投影,位 于所述视频图像显示空间的预设的中心区域之外,包括:所述正投影位于所述视频图像显示区的预设中心区域的左侧和/或右侧。
在一些实施例中,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合。
在一些实施例中,在所述目标消息显示空间的主视图中,至少两个目标消息沿着预设的第一路径排布;在所述目标消息显示空间的左视图中,至少两个目标消息沿着预设的第二路径排布;其中,所述目标消息显示空间的主视图为能够展示目标消息正面内容的视图。
在一些实施例中,信息交互装置还包括:
消息旋转单元,用于基于用户的观看视角使所述目标消息围绕预设的纵轴旋转,以使所述目标消息的内容对用户可见。
在一些实施例中,信息交互装置还包括:
第一提示单元,用于响应于针对所述目标消息显示空间的操作,显示第一提示标识;所述第一提示标识用于指示当前可用的目标消息展示方向,所述目标消息显示空间被构造成能够沿着所述目标消息展示方向动态展示目标消息。
在一些实施例中,信息交互装置还包括:
第二提示单元,用于当所述目标消息显示空间沿着所述目标消息展示方向动态展示目标消息时,响应于接收到新的目标消息,显示第二提示标识;响应于所述第二提示标识被触发,所述目标消息显示空间显示所述新的目标消息。
在一些实施例中,所述第二提示标识显示所述新的目标消息的数量。
在一些实施例中,所述在所述目标消息显示空间内显示所述目标消息,包括:所述目标消息朝向所述目标消息显示空间内移动。
在一些实施例中,若所述目标消息来源于当前的客户端,则所述目标消息沿着第一路径移动;若所述目标消息来源于当前的客户端以外的客户端,则所述目标消息沿着第二路径移动。
在一些实施例中,所述第一路径为消息编辑界面与所述目标消息显示空间之间的路径;所述消息编辑界面用于编辑和发送目标消息。
在一些实施例中,在预设时段内确定了来自同一个客户端的两个以上相同的第一目标消息,则所述两个以上相同的第一目标消息的移动路径相同。
在一些实施例中,信息交互装置还包括:
第三提示单元,用于在所述目标消息显示空间内显示与所述两个以上相同的第一目标消息对应的第三标识,所述第三标识用于显示当前到达所述目标消息显示空间的所述第一目标消息的数量。
对于装置的实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中作为分离模块说明的模块可以是或者也可以不是分开的。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
相应地,根据本公开的一个或多个实施例,提供了一种电子设备,包括:
至少一个存储器和至少一个处理器;
其中,存储器用于存储程序代码,处理器用于调用存储器所存储的程序代码以使所述电子设备执行根据本公开一个或多个实施例提供的信息交互方法。
相应地,根据本公开的一个或多个实施例,提供了一种非暂态计算机存储介质,非暂态计算机存储介质存储有程序代码,程序代码可被计算机设备执行来使得所述计算机设备执行根据本公开一个或多个实施例提供的信息交互方法。
下面参考图8,其示出了适于用来实现本公开实施例的电子设备(例如终端设备或服务器)800的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM803中,还存储有电子设备800操作所需的各种程序和数据。处理装置801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠 标、摄像头、麦克风、加速度计、陀螺仪等的输入装置806;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置808;以及通信装置809。通信装置809可以允许电子设备800与其他设备进行无线或有线通信以交换数据。虽然图8示出了具有各种装置的电子设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置808被安装,或者从ROM 802被安装。在该计算机程序被处理装置801执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText Transfer  Protocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述的本公开的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列 (FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,提供了一种信息交互方法,包括:显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;在所述视频图像显示空间内显示视频图像;确定目标消息,并在所述目标消息显示空间内显示所述目标消息;其中,在第一方向上所述目标消息显示空间位于所述视频图像显示空间之前,所述第一方向为所述视频图像所朝向的方向。
根据本公开的一个或多个实施例,所述目标消息显示空间包括:至少一个用于显示文本消息的显示空间,和/或至少一个用于显示图像消息的显示空间。
根据本公开的一个或多个实施例,所述目标消息显示空间在所述视频图像显示空间上的正投影,位于所述视频图像显示空间的预设的中心区域之外。
根据本公开的一个或多个实施例,所述目标消息显示空间在所述视频图像显示空间上的正投影,位于所述视频图像显示空间的预设的中心区域之外,包括:所述正投影位于所述视频图像显示区的预设中心区域的左侧和/或右侧。
根据本公开的一个或多个实施例,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合。
根据本公开的一个或多个实施例,在所述目标消息显示空间的主视图中,至少两个目标消息沿着预设的第一路径排布;在所述目标消息显示空间的左视图中,至少两个目标消息沿着预设的第二路径排布;其中,所述目标消息显示空间的主视图为能够展示目标消息正面内容的视图。
根据本公开的一个或多个实施例提供的信息交互方法,还包括:基于用户的观看视角使所述目标消息围绕预设的纵轴旋转,以使所述目标消息的内容对用户可见。
根据本公开的一个或多个实施例提供的信息交互方法,还包括:响应于针对所述目标消息显示空间的操作,显示第一提示标识;所述第一提示标识用于指示当前可用的目标消息展示方向,所述目标消息显示空间被构造成能够沿着所述目标消息展示方向动态展示目标消息。
根据本公开的一个或多个实施例提供的信息交互方法,还包括:当所述目标消息显示空间沿着所述目标消息展示方向动态展示目标消息时,响应于接收到新的目标消息,显示第二提示标识;响应于所述第二提示标识被触发,所述目标消息显示空间显示所述新的目标消息。
根据本公开的一个或多个实施例,所述第二提示标识显示所述新的目标消息的数量。
根据本公开的一个或多个实施例,所述在所述目标消息显示空间内显示所述目标消息,包括:所述目标消息朝向所述目标消息显示空间内移动。
根据本公开的一个或多个实施例,若所述目标消息来源于当前的客户端,则所述目标消息沿着第一路径移动;若所述目标消息来源于当前的客户端以外的客户端,则所述目标消息沿着第二路径移动。
根据本公开的一个或多个实施例,所述第一路径为消息编辑界面与所述目标消息显示空间之间的路径;所述消息编辑界面用于编辑和发送目标消息。
根据本公开的一个或多个实施例,在预设时段内确定了来自同一个客户端的两个以上相同的第一目标消息,则所述两个以上相同的第一目标消息的移动路径相同。
根据本公开的一个或多个实施例提供的信息交互方法,还包括:在所述目标消息显示空间内显示与所述两个以上相同的第一目标消息对应的第三标识,所述第三标识用于显示当前到达所述目标消息显示空间的所述第一目标消息的数量。
根据本公开的一个或多个实施例,提供了一种信息交互方法,包括:显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;在所述视频图像显示空间内显示视频图像;确定目标消息并在所述目标消息显示空间内显示所述目标消息;其中,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合,所述第一方向为所述视频图像所朝向的方向。
根据本公开的一个或多个实施例,在所述目标消息显示空间的主视图中,所述至少两个目标消息沿着预设的第一路径排布;在所述目标消息显示空间的左视图中,所述至少两个目标消息沿着预设的第二路径排布;其中,所述目标消息显示空间的主视图为能够展示目标消息正面内容的视图。
根据本公开的一个或多个实施例提供的信息交互方法,还包括:基于用户的观看视角使所述目标消息围绕预设的纵轴旋转,以使所述目标消息的内容对用户可见。
根据本公开的一个或多个实施例提供的信息交互方法,还包括:响应于针对所述目标消息显示空间的操作,显示预设的第一提示标识;所述第一提示标识用于指示目标消息展示方向,所述目标消息显示空间被构造成沿着所述目标消息展示方向动态展示历史目标消息。
根据本公开的一个或多个实施例提供的信息交互方法,还包括:当所述目标消息显示空间沿着所述目标消息展示方向动态展示目标消息时,响应于接收到新的目标消息,在所述目标消息显示空间的预设位置出显示预设的第二提示标识;响应于所述二提示标识被触发,所述目标消息显示空间显示所述新的目标消息。
根据本公开的一个或多个实施例,所述第二提示标识显示所述新的目标消息的数量。
根据本公开的一个或多个实施例,提供了一种信息交互装置,包括:空间显示单元,显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;视频图像显示单元,用于在所述视频图像显示空间内显示视频图像;消息单元,用于确定目标消息,并在所述目标消息显示空间内显示所述目标消息;其中,在第一方向上所述目标消息显示空间位于所述视频图像显示空间之前,所述第一方向为所述视频图像所朝向的方向。
根据本公开的一个或多个实施例,提供了一种信息交互装置,包括:空间显示单元,用于显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;视频图像显示单元,用于在所述视频图像显示空间内显示视频图像;消息单元,用于确定目标消息并在所述目标消息显示空间内显示所述目标消息;其中,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合,所述第一方向为所述视频图像所朝向的方向。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:至少一个存储器和至少一个处理器;其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储 器所存储的程序代码以使所述电子设备执行根据本公开的一个或多个实施例提供的信息交互方法。
根据本公开的一个或多个实施例,提供了一种非暂态计算机存储介质,所述非暂态计算机存储介质存储有程序代码,所述程序代码被计算机设备执行时,使得所述计算机设备执行根据本公开的一个或多个实施例提供的信息交互方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (25)

  1. 一种信息交互方法,其特征在于,包括:
    显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
    在所述视频图像显示空间内显示视频图像;
    确定目标消息,并在所述目标消息显示空间内显示所述目标消息;
    其中,在第一方向上所述目标消息显示空间位于所述视频图像显示空间之前,所述第一方向为所述视频图像所朝向的方向。
  2. 根据权利要求1所述的方法,其特征在于,所述目标消息显示空间包括:
    至少一个用于显示文本消息的显示空间,和/或至少一个用于显示图像消息的显示空间。
  3. 根据权利要求1所述的方法,其特征在于,
    所述目标消息显示空间在所述视频图像显示空间上的正投影,位于所述视频图像显示空间的预设的中心区域之外。
  4. 根据权利要求3所述的方法,其特征在于,所述目标消息显示空间在所述视频图像显示空间上的正投影,位于所述视频图像显示空间的预设的中心区域之外,包括:
    所述正投影位于所述视频图像显示区的预设中心区域的左侧和/或右侧。
  5. 根据权利要求1所述的方法,其特征在于,
    在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合。
  6. 根据权利要求1所述的方法,其特征在于,
    在所述目标消息显示空间的主视图中,至少两个目标消息沿着预设的第一路径排布;在所述目标消息显示空间的左视图中,至少两个目标消息沿着预设的第二路径排布;
    其中,所述目标消息显示空间的主视图为能够展示目标消息正面内容的视图。
  7. 根据权利要求1所述的方法,其特征在于,还包括:
    基于用户的观看视角使所述目标消息围绕预设的纵轴旋转,以使所述目标消息的内容对用户可见。
  8. 根据权利要求1所述的方法,其特征在于,还包括:
    响应于针对所述目标消息显示空间的操作,显示第一提示标识;所述第一提示标识用于指示当前可用的目标消息展示方向,所述目标消息显示空间被构造成能够沿着所述目标消息展示方向动态展示目标消息。
  9. 根据权利要求8所述的方法,其特征在于,还包括:
    当所述目标消息显示空间沿着所述目标消息展示方向动态展示目标消息时,响应于接收到新的目标消息,显示第二提示标识;
    响应于所述第二提示标识被触发,在所述目标消息显示空间内显示所述新的目标消息。
  10. 根据权利要求9所述的方法,其特征在于,
    所述第二提示标识显示所述新的目标消息的数量。
  11. 根据权利要求1所述的方法,其特征在于,所述在所述目标消息显示空间内显示所述目标消息,包括:
    所述目标消息朝向所述目标消息显示空间内移动。
  12. 根据权利要求11所述的方法,其特征在于,
    若所述目标消息来源于当前的客户端,则所述目标消息沿着第一路径移动;
    若所述目标消息来源于当前的客户端以外的客户端,则所述目标消息沿着第二路径移动。
  13. 根据权利要求12所述的方法,其特征在于,
    所述第一路径为消息编辑界面与所述目标消息显示空间之间的路径;所述消息编辑界面用于编辑和发送目标消息。
  14. 根据权利要求13所述的方法,其特征在于,
    在预设时段内确定了来自同一个客户端的两个以上相同的第一目标消息,则所述两个以上相同的第一目标消息的移动路径相同。
  15. 根据权利要求14所述的方法,其特征在于,还包括:
    在所述目标消息显示空间内显示与所述两个以上相同的第一目标消息对应的第三标识,所述第三标识用于显示当前到达所述目标消息显示空间的所述第一目标消息的数量。
  16. 一种信息交互方法,其特征在于,包括:
    显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
    在所述视频图像显示空间内显示视频图像;
    确定目标消息并在所述目标消息显示空间内显示所述目标消息;其中,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合,所述第一方向为所述视频图像所朝向的方向。
  17. 根据权利要求16所述的方法,其特征在于,
    在所述目标消息显示空间的主视图中,所述至少两个目标消息沿着预设的第一路径排布;在所述目标消息显示空间的左视图中,所述至少两个目标消息沿着预设的第二路径排布;
    其中,所述目标消息显示空间的主视图为能够展示目标消息正面内容的视图。
  18. 根据权利要求16所述的方法,其特征在于,还包括:
    基于用户的观看视角使所述目标消息围绕预设的纵轴旋转,以使所述目标消息的内容对用户可见。
  19. 根据权利要求16所述的方法,其特征在于,还包括:
    响应于针对所述目标消息显示空间的操作,显示预设的第一提示标识;所述第一提示标识用于指示目标消息展示方向,所述目标消息显示空间被构造成沿着所述目标消息展示方向动态展示历史目标消息。
  20. 根据权利要求19所述的方法,其特征在于,还包括:
    当所述目标消息显示空间沿着所述目标消息展示方向动态展示目标消息时,响应于接收到新的目标消息,在所述目标消息显示空间的预设位置出显示预设的第二提示标识;
    响应于所述二提示标识被触发,所述目标消息显示空间显示所述新的目标消息。
  21. 根据权利要求20所述的方法,其特征在于,
    所述第二提示标识显示所述新的目标消息的数量。
  22. 一种信息交互装置,其特征在于,包括:
    空间显示单元,显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
    视频图像显示单元,用于在所述视频图像显示空间内显示视频图像;
    消息单元,用于确定目标消息,并在所述目标消息显示空间内显示所述目标消息;其中,在第一方向上所述目标消息显示空间位于所述视频图像显示空间之前,所述第一方向为所述视频图像所朝向的方向。
  23. 一种信息交互装置,其特征在于,包括:
    空间显示单元,用于显示虚拟现实空间,所述虚拟现实空间包括视频图像显示空间和目标消息显示空间;
    视频图像显示单元,用于在所述视频图像显示空间内显示视频图像;
    消息单元,用于确定目标消息并在所述目标消息显示空间内显示所述目标消息;其中,在所述目标消息显示空间中,至少两个目标消息在所述第一方向上的投影不重合,所述第一方向为所述视频图像所朝向的方向。
  24. 一种电子设备,其特征在于,包括:
    至少一个存储器和至少一个处理器;
    其中,所述存储器用于存储程序代码,所述处理器用于调用所述存储器所存储的程序代码以使所述电子设备执行权利要求1至21中任一项所述的方法。
  25. 一种非暂态计算机存储介质,其特征在于,
    所述非暂态计算机存储介质存储有程序代码,所述程序代码被计算机设备执行时,使得所述计算机设备执行权利要求1至21中任一项所述的方法。
PCT/CN2023/091234 2022-05-31 2023-04-27 信息交互方法、装置、电子设备和存储介质 WO2023231666A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202210612147.0A CN117197400A (zh) 2022-05-31 2022-05-31 信息交互方法、装置、电子设备和存储介质
CN202210612147.0 2022-05-31

Publications (1)

Publication Number Publication Date
WO2023231666A1 true WO2023231666A1 (zh) 2023-12-07

Family

ID=88989338

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2023/091234 WO2023231666A1 (zh) 2022-05-31 2023-04-27 信息交互方法、装置、电子设备和存储介质

Country Status (2)

Country Link
CN (1) CN117197400A (zh)
WO (1) WO2023231666A1 (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160086379A1 (en) * 2014-09-22 2016-03-24 Samsung Electronics Company, Ltd. Interaction with three-dimensional video
CN106454387A (zh) * 2016-10-31 2017-02-22 北京小米移动软件有限公司 全景视频弹幕显示方法及装置
CN107484036A (zh) * 2017-09-07 2017-12-15 深圳市迅雷网络技术有限公司 一种弹幕显示方法和装置
CN109246463A (zh) * 2017-06-02 2019-01-18 腾讯科技(深圳)有限公司 用于显示弹幕的方法和装置
CN114257849A (zh) * 2020-09-22 2022-03-29 华为技术有限公司 弹幕播放方法、相关设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160086379A1 (en) * 2014-09-22 2016-03-24 Samsung Electronics Company, Ltd. Interaction with three-dimensional video
CN106454387A (zh) * 2016-10-31 2017-02-22 北京小米移动软件有限公司 全景视频弹幕显示方法及装置
CN109246463A (zh) * 2017-06-02 2019-01-18 腾讯科技(深圳)有限公司 用于显示弹幕的方法和装置
CN107484036A (zh) * 2017-09-07 2017-12-15 深圳市迅雷网络技术有限公司 一种弹幕显示方法和装置
CN114257849A (zh) * 2020-09-22 2022-03-29 华为技术有限公司 弹幕播放方法、相关设备及存储介质

Also Published As

Publication number Publication date
CN117197400A (zh) 2023-12-08

Similar Documents

Publication Publication Date Title
EP3011418B1 (en) Virtual object orientation and visualization
US20200264433A1 (en) Augmented reality display device and interaction method using the augmented reality display device
WO2023231666A1 (zh) 信息交互方法、装置、电子设备和存储介质
WO2024012106A1 (zh) 信息交互方法、装置、电子设备和存储介质
WO2024016880A1 (zh) 信息交互方法、装置、电子设备和存储介质
CN116324675A (zh) 使用可穿戴设备识别可控设备的位置
US20240078734A1 (en) Information interaction method and apparatus, electronic device and storage medium
WO2023231661A1 (zh) 信息交互方法、装置、电子设备和存储介质
CN117519457A (zh) 信息交互方法、装置、电子设备和存储介质
CN117631904A (zh) 信息交互方法、装置、电子设备和存储介质
WO2023231662A1 (zh) 信息的显示方法、装置、终端和存储介质
CN117519456A (zh) 信息交互方法、装置、电子设备和存储介质
US20230405475A1 (en) Shooting method, apparatus, device and medium based on virtual reality space
CN117435041A (zh) 信息交互方法、装置、电子设备和存储介质
CN117631921A (zh) 信息交互方法、装置、电子设备和存储介质
CN118229921A (zh) 图像显示方法、装置、电子设备和存储介质
CN117641040A (zh) 视频处理方法、装置、电子设备和存储介质
CN117934769A (zh) 图像显示方法、装置、电子设备和存储介质
CN118227005A (zh) 信息交互方法、装置、电子设备和存储介质
CN116193246A (zh) 用于拍摄视频的提示方法、装置、电子设备和存储介质
CN117354484A (zh) 基于虚拟现实的拍摄处理方法、装置、设备及介质
CN115981544A (zh) 基于扩展现实的交互方法、装置、电子设备和存储介质
CN117115396A (zh) 显示控制方法、装置、终端和存储介质
CN117376591A (zh) 基于虚拟现实的场景切换处理方法、装置、设备及介质
CN117994284A (zh) 碰撞检测方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23814852

Country of ref document: EP

Kind code of ref document: A1