WO2014103544A1 - 表示制御装置、表示制御方法および記録媒体 - Google Patents

表示制御装置、表示制御方法および記録媒体 Download PDF

Info

Publication number
WO2014103544A1
WO2014103544A1 PCT/JP2013/080604 JP2013080604W WO2014103544A1 WO 2014103544 A1 WO2014103544 A1 WO 2014103544A1 JP 2013080604 W JP2013080604 W JP 2013080604W WO 2014103544 A1 WO2014103544 A1 WO 2014103544A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
display control
content
unit
area
Prior art date
Application number
PCT/JP2013/080604
Other languages
English (en)
French (fr)
Inventor
圭祐 齊藤
佳恵 岡澤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP13868177.0A priority Critical patent/EP2940563A4/en
Priority to JP2014554226A priority patent/JP6222111B2/ja
Priority to US14/654,444 priority patent/US9542095B2/en
Publication of WO2014103544A1 publication Critical patent/WO2014103544A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0232Special driving of display border areas

Definitions

  • the present disclosure relates to a display control device, a display control method, and a recording medium.
  • Patent Document 1 describes the use of the time series order of updating each content group as an example of the order in which the content groups are arranged.
  • the content group is displayed in a list, so that the content group can be easily browsed.
  • the displayed area of the content is a static rectangle, and the user cannot have a strong impression. Therefore, this technique is not sufficient as a technique for browsing content while giving a stronger impression to the user. Therefore, it is desirable to realize a technique that allows a user to browse content while giving a stronger impression to the user.
  • the display unit is configured such that the boundary line between the content display area and the area adjacent to the content display area has a wave shape, and the boundary line is changed and displayed over time.
  • a display control device comprising: a display control unit that generates a control signal for control; and an output unit that outputs the control signal to the display unit.
  • the boundary line between the content display area and the area adjacent to the content display area has a wave shape, and the boundary line is displayed so as to be changed and displayed with the passage of time.
  • a display control method is provided, including generating a control signal for controlling the unit and outputting the control signal to the display unit.
  • the boundary line between the content display area and the area adjacent to the content display area has a wave shape, and the boundary line is changed and displayed over time.
  • a computer recorded with a program for functioning as a display control device comprising: a display control unit that generates a control signal for controlling the display unit; and an output unit that outputs the control signal to the display unit.
  • a readable recording medium is provided.
  • FIG. 3 is a diagram illustrating a functional configuration example of a display control device according to an embodiment of the present disclosure.
  • 4 is a diagram for describing an overview of functions of a display control device according to an embodiment of the present disclosure.
  • FIG. It is a figure for demonstrating an example of the fluctuation
  • FIG. 3 is a diagram illustrating a hardware configuration example of a display control device according to an embodiment of the present disclosure.
  • a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
  • it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration only the same reference numerals are given.
  • Embodiment 1-1 Appearance example of display control device 1-2.
  • Example of content reading method 1-3 Functional configuration example of display control apparatus 1-4.
  • FIG. 1 is a diagram illustrating an appearance example of a display control device 10 according to an embodiment of the present disclosure.
  • the display control apparatus 10 can control the display screen 161 to display a list in which a plurality of areas in which content is displayed (hereinafter also referred to as “content display areas”) are arranged.
  • content display areas a plurality of areas in which content is displayed
  • the display control apparatus 10 can control the content display areas C1 to C6 to be displayed on the display screen 161 as an example of a list.
  • the type of content is not particularly limited.
  • the content may be image data, text data, or other types of content.
  • the image data may be still image data or moving image data.
  • the display control device 10 includes a display screen 161, but the display screen 161 may exist outside the display control device 10, and the display control device 10 may be connected to the display control device 10 via a network. It may be connected.
  • the display screen 161 may include a selection display mode display area 162.
  • the selected display mode display area 162 displays the currently selected display mode.
  • the display mode may include an “automatic mode” in which the display control device 10 is left to determine the arrangement order of the content display areas.
  • the display mode may include a “priority order mode” in which the content display areas are arranged in an order according to the priority, and the content display areas are arranged in an order according to the time associated with the display content.
  • the display screen 161 may include a selected keyword display area 163.
  • the currently selected keyword is displayed in the selected keyword display area 163.
  • the display control unit 111 may display each content display area corresponding to the currently selected keyword on the display screen 161 as a list.
  • each content display area corresponding to “Genki” and “Encouragement” that are currently selected keywords is displayed as a list on the display screen 161.
  • the boundary line between the content display area and the area adjacent to the content display area has a wave shape, and the boundary line is displayed as it fluctuates over time.
  • the content provided to the control unit 110 may be content stored in the storage unit 130 or may be content streamed from a predetermined server.
  • the content stored in the storage unit 130 is provided to the control unit 110, the content received from another device may be stored in the storage unit 130, or the content read by the reading device 20 is stored. It may be stored by the unit 130.
  • FIG. 2 is a diagram illustrating an example of a content reading method.
  • the reading device 20 includes a reading unit 211.
  • a reading unit 211 For example, when a user is browsing a page (for example, a book, a magazine, an advertisement, etc.) and there is a portion (for example, a sentence, a picture, a photo, etc.) to be recorded on the page, That portion can be read by the reading unit 211.
  • the portion read by the reading unit 211 is stored as content by the storage unit 130.
  • the part to be recorded may be a part that the user is impressed with.
  • the reading device 20 may include a reading unit 212 having a wider reading range than the reading unit 211 in addition to the reading unit 211.
  • the reading device 20 may include a priority input unit 220 that inputs the priority of the content.
  • the priority input unit 220 may include a pressure sensor, for example. In such a case, the priority input unit 220 can input a priority according to the magnitude of the force applied by the user to the pressure sensor. However, the priority input unit 220 may not include a pressure sensor.
  • the priority input unit 220 may include a pulse sensor. In such a case, the priority input unit 220 can input a priority according to the heart rate of the user. For example, the higher the user's heart rate, the higher the user's sensitivity to the content is expected, so the priority input unit 220 may input a higher priority.
  • the priority input unit 220 may include an acceleration sensor. In such a case, the priority input unit 220 can input a priority according to the acceleration given to the acceleration sensor.
  • the priority input unit 220 can also input the priority via the operation unit 120.
  • the priority input unit 220 can input a priority according to an operation given by the user to the operation unit 120.
  • the type of operation given to the operation unit 120 is not particularly limited.
  • the priority according to the finger movement for example, finger speed or acceleration
  • the user moves while touching the content display area. May be input.
  • the reading device 20 may include a priority output unit 230 for outputting the input priority.
  • the priority output unit 230 may be configured by a write, for example. In such a case, the priority output unit 230 can emit light having an intensity corresponding to the input priority.
  • the priority output unit 230 may be configured by something other than writing.
  • the priority output unit 230 may be configured by a vibration generator that applies vibration to the user. In such a case, the priority output unit 230 can generate a vibration having a strength corresponding to the input priority.
  • the content read by the reading device 20 in this way can be stored in the storage unit 130 and provided to the control unit 110.
  • the input priority may be stored in the storage unit 130 and provided to the control unit 110.
  • the priority may not necessarily be input.
  • the priority may be calculated by the display control device 10.
  • FIG. 3 is a diagram illustrating a functional configuration example of the display control apparatus 10 according to the embodiment of the present disclosure.
  • the display control device 10 includes a control unit 110, an operation unit 120, a storage unit 130, a communication unit 140, an output unit 150, and a display unit 160.
  • the control unit 110 corresponds to a processor such as a CPU (Central Processing Unit).
  • the control unit 110 exhibits various functions of the control unit 110 by executing a program stored in the storage unit 130 or another storage medium.
  • the control unit 110 includes a display control unit 111, a priority acquisition unit 112, and a recognition unit 113.
  • the display control unit 111 controls the display unit 160 so that the boundary line between the content display region and the region adjacent to the content display region has a wave shape, and the boundary line is displayed to change with time.
  • a control signal for generating Functions of the priority acquisition unit 112 and the recognition unit 113 will be described later.
  • the operation unit 120 detects a user operation and outputs it to the control unit 110.
  • the operation part 120 since the case where the operation part 120 is comprised with a touch panel is assumed, user operation is input by using a user's finger
  • the operation unit 120 may be configured by hardware other than the touch panel. In the example illustrated in FIG. 2, the operation unit 120 is integrated with the display control device 10, but the operation unit 120 may be configured separately from the display control device 10.
  • the storage unit 130 stores a program for operating the control unit 110 using a storage medium such as a semiconductor memory or a hard disk. Further, for example, the storage unit 130 can also store various data used by the program (for example, various setting information and content). In the example illustrated in FIG. 3, the storage unit 130 is integrated with the display control device 10, but the storage unit 130 may be configured separately from the display control device 10.
  • the communication unit 140 can communicate with other display control devices 10.
  • the communication format by the communication unit 140 is not particularly limited, and the communication by the communication unit 140 may be wireless communication or wired communication.
  • the communication unit 140 is integrated with the display control device 10, but the communication unit 140 may be configured separately from the display control device 10.
  • the output unit 150 outputs the control signal generated by the display control unit 111 to the display unit 160.
  • the output unit 150 corresponds to an interface that connects the control unit 110 with a bus to which the display unit 160 and the control unit 110 are connected.
  • the output unit 150 corresponds to an interface for connecting the control unit 110 and the network.
  • the display unit 160 displays various information according to the control by the display control unit 111.
  • the display unit 160 includes, for example, an LCD (Liquid Crystal Display), an organic EL (Electroluminescence) display device, or the like. In the example illustrated in FIG. 3, the display unit 160 is integrated with the display control device 10, but the display unit 160 may be configured separately from the display control device 10.
  • FIG. 4 is a diagram for describing an overview of functions of the display control apparatus 10 according to the embodiment of the present disclosure.
  • the selection operation is performed by a touch operation
  • the enlargement operation is performed by a pinch-in operation
  • the reduction operation is performed by a pinch-out operation
  • the selection operation, the enlargement operation, and the reduction operation are It may be realized by any operation.
  • the display control unit 111 performs control so that a keyword selection screen for selecting a keyword is displayed.
  • the keyword selection screen includes a keyword 164.
  • the keyword 164 is associated with the content. For example, when a comment is written from a user who viewed the content, the keyword 164 is obtained by extraction from the comment. The user can select a desired keyword from the keywords 164 displayed on the keyword selection screen.
  • the display control unit 111 controls to display a list display screen in which a plurality of content display areas are arranged. For example, as shown in FIG. 4, the display control unit 111 can control to display a list display screen in which the content display areas C1 to C6 are arranged according to the selected keyword.
  • the display control unit 111 controls to display the keyword selection screen.
  • the display control unit 111 displays an enlarged screen in which the size of the content display area is enlarged. Control.
  • the display control unit 111 displays a list display screen in which the size of the content display area is restored. To be controlled.
  • FIG. 5 is a diagram for explaining an example of the fluctuation of the boundary line.
  • the boundary line may be a boundary line between the content display area and another content display area adjacent to the content display area.
  • the wave shape of the boundary line between the content display area C3 and the content display area C2 adjacent thereto is defined as the wave A
  • the wave shape of the boundary line between the content display area C4 and the content display area C3 adjacent thereto is illustrated.
  • the wave B the wave shape of the boundary line between the content display area C5 and the content display area C4 adjacent thereto is the wave C.
  • the display control unit 111 may determine Ay, By, and h so as to satisfy the following expression (1).
  • the display control unit 111 sets Ay, By, h, and so as to satisfy the following expression (2). H may be determined.
  • the boundary line has a wave shape and is controlled so as to be changed and displayed with the passage of time, but the change of the boundary line may be any change.
  • the wave shape of the boundary line is a standing wave having a node corresponding to a portion that does not vibrate and an antinode corresponding to a portion that vibrates will be mainly described as an example.
  • the wave shape of the boundary line may be a traveling wave that moves in a predetermined direction while the shape itself is fixed.
  • the display control unit 111 selects a region to be displayed in the content (hereinafter also referred to as “display target region”), but various methods are assumed as a method for selecting the display target region.
  • the recognition unit 113 acquires the position of a predetermined region included in the content as a recognition result by recognizing the content, and the display control unit 111 changes the boundary line according to the recognition result acquired by the recognition unit 113. May be. More specifically, the display control unit 111 may change the position of the display target area in the content according to the position of the predetermined area.
  • the predetermined area may be any area.
  • the predetermined area may be an area where the predetermined text data exists when predetermined text data is included in the content.
  • FIG. 6 is a diagram showing a display example when predetermined text data is included in the content.
  • the recognition unit 113 acquires the position of the area where the keyword “Genki” exists in the content by recognition of the content, and the display control unit 111 determines that the position of the area where the keyword “Genki” exists is the content display area.
  • the position of the display target region C31 in the content may be determined so that there is a timing that falls within C3.
  • the predetermined text data may be text data other than the keyword selected by the user.
  • the predetermined text data may be text data registered in advance by the user, or may be predetermined parts of speech (for example, proper nouns or conjunctions) registered in advance as dictionary data.
  • the predetermined text data may be text data (for example, a performer of the content) extracted from a content browsing history by the user.
  • the predetermined area may be an area where the predetermined object exists when the content includes the predetermined object.
  • FIG. 7 is a diagram illustrating a display example when a predetermined object is included in the content. As shown in FIG. 7, it is assumed that the content displayed in the content display area C3 includes a face area. In such a case, the recognition unit 113 acquires the position of the face area included in the content by recognizing the content, and the display control unit 111 detects the position of the display target area C32 in the content so that the position of the face area is within the content display area C3. The position may be adjusted.
  • the predetermined object may be an object other than the face area.
  • the predetermined object may be an object registered in advance by the user, or may be a predetermined object registered in advance as dictionary data.
  • the boundary line is determined according to the priority associated with the content. It may be varied.
  • the priority acquisition unit 112 acquires the priority associated with the content, and the display control unit 111 changes the boundary line according to the priority acquired by the priority acquisition unit 112. Good.
  • the method of acquiring the priority by the priority acquisition unit 112 is not particularly limited, and the priority acquisition unit 112 may acquire a value input by the user as the priority, or calculate the priority.
  • the priority may be acquired.
  • the priority acquisition unit 112 may acquire the priority input by the priority input unit 220.
  • the priority calculation method by the priority acquisition unit 112 is not particularly limited.
  • the priority acquisition unit 112 may calculate based on various types of information associated with the content (for example, evaluation on the content, content browsing history, a predetermined time related to the content, etc.).
  • the priority acquisition unit 112 may calculate a higher priority as the evaluation for the content is higher.
  • the priority acquisition part 112 may analyze a user's preference from the browsing history of a content, and may calculate a higher priority for the content close
  • the display control unit 111 may change a predetermined parameter related to the fluctuation of the boundary line according to the priority.
  • the display control unit 111 may change the reference position of the fluctuation of the boundary line as a predetermined parameter according to the priority.
  • FIG. 8 is a diagram illustrating a display example when the reference position of the boundary line change is changed according to the priority.
  • the display control unit 111 may change the reference position of the change in the boundary line between the content display area C4 and the area adjacent to the content display area C4. For example, as illustrated in FIG. 8, the display control unit 111 may change the reference position of the boundary line fluctuation so that the content display area C4 expands. Further, the display control unit 111 may temporarily change the reference position of the boundary line.
  • FIG. 9 is a diagram for explaining an example in which the reference position of the boundary line change is changed according to the priority.
  • the distances between the reference positions for fluctuations of the boundary line are shown as h2 to h5.
  • the priority of the contents of the content display areas C2 and C3 is higher than the priority of the contents of the content display areas C4 and C5, as shown in FIG.
  • the reference position for line fluctuation may be changed so that each of the content display areas C2 and C3 expands.
  • the display control unit 111 may change the changing speed of the boundary line as a predetermined parameter according to the priority.
  • various speeds are assumed as the changing speed of the boundary line.
  • the change speed of the boundary line may be a waveform period of the boundary line.
  • FIG. 10 is a diagram for explaining an example of changing the waveform period of the boundary line according to the priority.
  • the wave shape of the boundary line between the content display area C3 and the content display area C2 adjacent thereto is the wave A
  • the wave shape of the boundary line between the content display area C3 and the content display area C3 adjacent to the wave display area B is the wave B
  • the wave shape of the boundary line between the content display area C5 and the content display area C4 adjacent thereto is the wave C.
  • the display control unit 111 sets the boundary line between the content display area C4 and the content display area C3 adjacent thereto.
  • the period of the wave shape (wave shape of wave B) may be increased. If the period is changed in this way, it is expected that the possibility that the user's line of sight is directed to the content display area C4 is increased.
  • the change speed of the boundary line is not limited to the waveform period of the boundary line.
  • the change speed of the boundary line may be the vibration speed of the boundary line.
  • the vibration speed of the wave shape (wave shape of the wave A) included in the boundary line with the adjacent content display area C2 may be increased. If the vibration speed is changed in this way, it is expected that the possibility that the user's line of sight is directed to the content display area C3 is increased.
  • FIG. 11 is a diagram illustrating a display example when the display target region in the content is moved in the content at a speed according to the priority.
  • the display control unit 111 may move the display target area in the content within the content at a speed corresponding to the priority. It may be moved. If the moving speed is changed in this way, it is expected that the possibility that the user's line of sight is directed to the content display area having a high moving speed is expected.
  • the display control unit 111 moves the display target area in the content displayed in the content display area C4 in a predetermined direction (for example, downward), the content displayed in the content display area C4 is the predetermined content. It appears to move in a direction opposite to the direction (eg, upward).
  • the display control unit 111 moves the display target area in the content displayed in the content display area C4 in a predetermined direction (for example, upward)
  • the content displayed in the content display area C4 is predetermined. It appears to move in the opposite direction (eg, downward) from the direction.
  • FIG. 12 is a diagram showing a first display example when the end of the list reaches the display screen 161.
  • the display control unit 111 may display the content display area C1 at the top of the list next to the content display area C6 at the end of the list.
  • this first display example is particularly convenient for the user when the setting is such that after the playback of the content at the end of the list is finished, the system automatically shifts to the playback of the content at the top of the list. It is considered that the nature is high.
  • FIG. 13 is a diagram showing a second display example when the end of the list has reached the display screen 161.
  • the display control unit 111 may perform control so that a predetermined expression (for example, an expression that appears foggy) is displayed.
  • a predetermined expression for example, an expression that appears foggy
  • Such a predetermined expression may be displayed so as to move from the end of the list toward the inside of the display screen 161 but bounce back like a spring and return to the original position.
  • FIG. 14 is a diagram showing a third display example when the end of the list reaches the display screen 161.
  • the display control unit 111 may perform control so that a predetermined object (for example, a mark with “Repeat”) is displayed.
  • a predetermined object for example, a mark with “Repeat”
  • the display control unit 111 displays the content display area C1 at the top of the list next to the content display area C6 at the end of the list according to the drag operation by the user. You may control as follows.
  • FIG. 15 is a diagram illustrating another external appearance example of the display control device 10 according to the embodiment of the present disclosure.
  • the display control unit 111 performs control so that a list in which a plurality of content display areas are arranged is displayed on the display screen 161.
  • the display control apparatus 10 can control the content display areas C1 to C6 to be displayed on the display screen 161 as an example of a list.
  • the display control unit 111 can also change the orientation of the displayed content according to the orientation in which the display screen 161 is placed.
  • FIGS. 16 to 18 are diagrams for explaining an example in which content transmission / reception is performed between a plurality of display control devices 10.
  • a display control device 10A and a display control device 10B are used as an example of the plurality of display control devices 10.
  • connection generation is generated between the display control device 10A and the display control device 10B.
  • the trigger of connection generation may be, for example, detection of a collision between the display control device 10A and the display control device 10B, but is not particularly limited.
  • each device may receive some parameter (for example, the amplitude and period of the waveform of the boundary) from the partner device and use it for the change of the boundary controlled by the own device.
  • each device may be controlled so that the content of the partner device is displayed.
  • each device is controlled so that the content of the own device exists in the own region M and the content of the partner device is displayed in the partner region Y.
  • the self area M indicates the contents of the storage area in the storage section 130 of the own apparatus
  • the partner area Y indicates the contents of the storage area in the storage section 130 of the counterpart apparatus.
  • the content existing in the self area M is controlled to be displayed.
  • the content that has been controlled to be displayed in the partner area Y may not be displayed.
  • the operation indicating that the content existing in the self area M is displayed is realized by a drag operation from the self area M to the partner area Y as shown in FIG.
  • the user can input the priority of the content by performing a predetermined operation on the content display area displayed in the partner area Y.
  • the user can input a priority according to a finger movement (for example, finger speed or acceleration) while moving the content display area.
  • the priority input here may be used for a change of a predetermined parameter related to a change in the boundary line.
  • the display control unit 111 may change the reference position of the boundary line variation according to the priority.
  • the control unit 110 can copy the content from the partner area Y to the self area M.
  • the operation of copying content from the partner area Y to the self area M is realized by a drag operation from the content display area displayed in the partner area Y to the self area M, as shown in FIG.
  • control unit 110 can copy the content from the self region M to the partner region Y.
  • the operation of copying content from the self region M to the partner region Y is realized by a drag operation from the content display region displayed in the self region M to the partner region Y as shown in FIG.
  • the content copied from the partner area Y to the self area M may be content designated by the user of the partner apparatus (for example, recommended content).
  • FIG. 19 is a diagram illustrating a hardware configuration example of the display control apparatus 10 according to the embodiment of the present disclosure.
  • the hardware configuration example illustrated in FIG. 19 is merely an example of the hardware configuration of the display control apparatus 10. Therefore, the hardware configuration of the display control apparatus 10 is not limited to the example shown in FIG.
  • the display control apparatus 10 according to the present embodiment will be described mainly on the assumption that the display control apparatus 10 is, for example, a high-functional mobile phone terminal or tablet terminal provided with a touch panel on a display panel.
  • the communication antenna 901 is, for example, a built-in antenna, and various application programs including a call and e-mail transmission / reception through a mobile phone network or a public wireless communication network, and a display control program according to the present embodiment. Download and transmission of signal radio waves for communication with the Internet.
  • the antenna circuit 902 includes an antenna switch, a matching circuit, a filter circuit, and the like, and the transmission / reception circuit unit 903 performs frequency conversion, modulation, demodulation, and the like of transmission / reception signals through a mobile phone network or a public wireless communication network.
  • the speaker 915 is a speaker provided in the display control apparatus 10 according to the present embodiment, and is used, for example, for music reproduction, reception sound output, ringer sound (ringing tone) output, and the like.
  • the microphone 916 is used for collecting external audio, transmitting audio, and the like.
  • the audio signal processing unit 914 includes an amplifying circuit for the speaker 915, an amplifying circuit for the microphone 916, a decompression decoding circuit that decompresses and decodes the compressed and encoded audio data supplied from the control / arithmetic unit 904, and the decompression decoding Digital / analog conversion circuit for converting the converted digital audio data into an analog audio signal, an analog / digital conversion circuit for converting the analog audio signal input from the microphone 916 into digital audio data, and compression encoding the digital audio data It consists of a compression encoding circuit.
  • the video signal processing unit 911 includes a decompression decoding circuit that decompresses and decodes the compressed and encoded video data supplied from the control / arithmetic unit 904, a digital video after the decompression decoding, and a digital broadcast reception module 909 described later.
  • the display panel driving circuit for displaying the digital broadcast video received on the display panel 912 or the like.
  • the video signal processing unit 911 displays a desktop image, various menu images, a virtual touch area image corresponding to a position on the touch panel, and the like supplied from the control / calculation unit 904. And the images are displayed on the display panel 912.
  • the key operation unit 919 includes a hard key provided on the casing of the display control apparatus 10 according to the present embodiment and its peripheral circuits.
  • the key operation unit 919 converts a hard key pressing operation input by a user into an electrical signal, amplifies and analog / digital converts the operation input signal, and controls / calculates the operation input data after the analog / digital conversion. Send to.
  • the external input / output terminal unit 918 includes, for example, a cable connection connector and an external data communication interface circuit when performing data communication through a cable, a charging terminal and its charging interface circuit when charging an internal battery through a power cable, etc. Consists of. Various application programs including the display control program of the present embodiment may be acquired via the external input / output terminal unit 918.
  • the external memory I / F unit 910 includes an external memory slot to which a storage medium such as an external memory is attached and detached, an interface circuit for external memory data communication, and the like.
  • Various application programs including the display control program of the present embodiment may be acquired via a storage medium such as an external memory inserted in the external memory I / F unit 910.
  • the storage medium may store a display control application program for controlling display to be described later of the display control apparatus 10 according to the present embodiment.
  • the near field communication module 908 includes a communication antenna for near field radio waves such as a wireless LAN and Bluetooth (registered trademark) and a near field communication circuit.
  • Various application programs including the display control program of the present embodiment may be acquired via the short-range wireless communication module 908.
  • the digital broadcast receiving module 909 includes a receiving antenna and a tuner for so-called digital television broadcasting and digital radio broadcasting.
  • the digital broadcast receiving module 909 can receive not only single-channel digital broadcasts but also multiple-channel digital broadcasts at the same time.
  • the digital broadcast receiving module 909 can also receive data multiplexed in the digital broadcast.
  • the digital broadcast data received by the digital broadcast receiving module 909 can be stored (ie, recorded) in the memory unit 905 after being compressed by the control / calculation unit 904, for example.
  • Various application programs including the display control program according to the present embodiment may be broadcast as one of the display broadcast data.
  • the camera unit 913 includes an image sensor for photographing a still image or a moving image, an optical system, and its peripheral circuits, a light driving circuit for emitting photographing auxiliary light, and the like. Still image data and moving image data at the time of shooting by the camera unit 913 are sent to the video signal processing unit 911 as preview video data. As a result, a preview image is displayed on the display panel 912 when the camera is photographed.
  • the captured still image data or moving image data is sent to the control / arithmetic unit 904, compressed, and then stored in the memory. Stored in the external memory connected to the unit 905 and the external memory I / F unit 910.
  • the non-contact communication module 907 performs non-contact communication used in, for example, a so-called RFID (Radio Frequency-Identification), a non-contact IC card, and the like through a non-contact communication antenna.
  • RFID Radio Frequency-Identification
  • a GPS (Global Positioning System) module 906 has a GPS antenna and obtains the latitude and longitude of the current position of the terminal using a GPS signal from a GPS geodetic satellite. GPS data (information indicating latitude and longitude) obtained by the GPS module 906 is sent to the control / calculation unit 904. Thereby, the control / calculation unit 904 can know the current position and movement of the terminal itself.
  • GPS Global Positioning System
  • the various sensor units 917 include various detection sensors such as a terminal state detection sensor for detecting the state of the display control apparatus 10 according to the present embodiment and its peripheral circuits.
  • Examples of the various sensor units 917 include an inclination sensor, an acceleration sensor, an orientation sensor, a temperature sensor, a humidity sensor, and an illuminance sensor. Detection signals from the various sensor units 917 are sent to the control / calculation unit 904. Thereby, the control / calculation unit 904 can know the state (inclination, acceleration, direction, temperature, humidity, illuminance, etc.) of the display control device 10.
  • the touch panel 921 is an input operation unit having a detection surface that can detect an operation input by a user, and includes a transparent touch sensor screen sensor disposed on the entire surface of the display panel 912.
  • the touch panel signal processing unit 920 measures the touch detection position, touch trajectory, touch duration, touch time interval, and the like from the touch panel 921 and sends the measured data to the control / calculation unit 904 as touch detection data. Note that the touch panel 921 and the touch panel signal processing unit 920 support so-called multi-touch.
  • the memory unit 905 includes a built-in memory provided in the display control device 10 and a removable card-like memory.
  • the removable card-like memory include a card that stores so-called SIM (Subscriber Identity Module) information.
  • SIM Subscriber Identity Module
  • the built-in memory is composed of ROM (Read Only Memory) and RAM (Random Access Memory).
  • the ROM is an OS (Operating System), a control program for the control / calculation unit 904 to control each unit, various initial setting values, dictionary data, character prediction conversion dictionary data, various sound data, and display control according to the present embodiment.
  • Various application programs including programs are stored.
  • This ROM includes a rewritable ROM such as NAND flash memory (NAND-type flash memory) or EEPROM (Electrically Erasable Programmable Read-Only Memory), and data of e-mail data, telephone book and mail address book, and stationary Data of image and moving image content, and other various user setting values can be stored.
  • the RAM stores data as needed as a work area and a buffer area when the control / arithmetic unit 904 performs various data processing.
  • the control / arithmetic unit 904 includes a CPU (central processing unit), a transmission / reception circuit unit 903, a video signal processing unit 911, an audio signal processing unit 914, a GPS module 906, a non-contact communication module 907, a short-range wireless communication module 908, Controls each part such as a digital broadcast receiving module 909, an external memory I / F unit 910, a camera unit 913, various sensor units 917, an external input / output terminal unit 918, a key operation unit 919, a touch panel signal processing unit 920, and the like. Perform various calculations.
  • the control / arithmetic unit 904 executes various application programs including a control program stored in the memory unit 905 and a display control program according to the present embodiment.
  • the control / calculation unit 904 causes each of the plurality of directions on the panel surface to be approximately centered on the operation input position desired by the user on the touch panel surface. It functions as an information allocation control unit that allocates predetermined information such as characters to be described later.
  • the control / calculation unit 904 causes the operation input direction by the user on the touch panel surface to substantially match any of the plurality of directions. It functions as an information input control unit that inputs the predetermined information assigned in a substantially coincident direction as information selected by the user.
  • the display control apparatus 10 includes a clock unit that measures time and time, a battery that supplies power to each unit, and a power management IC that controls the power, and the like provided in a general portable information terminal. A component may be provided.
  • the boundary line between the content display area and the area adjacent to the content display area has a wave shape, and the boundary line varies with time. It is possible to provide a display control device comprising: a display control unit that generates a control signal for controlling the display unit so as to be displayed, and an output unit that outputs the control signal to the display unit. is there. According to this configuration, it is possible to browse content while giving a stronger impression to the user.
  • the display control device includes a priority acquisition unit that acquires a priority associated with content, The display control unit varies the boundary line according to the priority.
  • the priority acquisition unit acquires a value input by a user as the priority.
  • the priority acquisition unit acquires the priority by calculating the priority;
  • the display control unit changes a predetermined parameter related to the fluctuation of the boundary line according to the priority.
  • the display control apparatus according to any one of (2) to (4).
  • the display control unit changes a change speed of the boundary line as the predetermined parameter according to the priority.
  • the rate of change is a waveform period of the boundary line,
  • the change speed is a vibration speed of the boundary line.
  • the display control apparatus according to (6). (9)
  • the display control unit changes a reference position of fluctuation of the boundary line as the predetermined parameter according to the priority.
  • the display control apparatus according to (5).
  • the display control unit moves a display target area in the content within the content at a speed according to the priority.
  • the display control apparatus includes a recognition unit that acquires a position of a predetermined region included in the content as a recognition result by recognition of the content, The display control unit varies the boundary line according to the recognition result.
  • the display control apparatus according to any one of (1) to (10).
  • (12) The display control unit changes a position of a display target area in the content according to a position of the predetermined area;
  • the display control device according to (11).
  • the predetermined area is an area where the predetermined text data exists when the text includes predetermined text data.
  • the display control apparatus according to (12).
  • the predetermined area is an area where the predetermined object exists when the predetermined object is included in the content.
  • the display control apparatus according to (12).
  • the boundary line is a boundary line between the content display area and another content display area adjacent to the content display area.
  • the display control apparatus according to any one of (1) to (14).
  • (16) A control signal for controlling the display unit so that a boundary line between the content display area and the area adjacent to the content display area has a wave shape, and the boundary line is changed and displayed over time. Generating Outputting the control signal to the display unit; Including a display control method.
  • Computer A control signal for controlling the display unit so that a boundary line between the content display area and the area adjacent to the content display area has a wave shape, and the boundary line is changed and displayed over time.
  • a display control unit for generating An output unit for outputting the control signal to the display unit;

Abstract

【課題】ユーザにより強い印象を与えながらコンテンツを閲覧させることが可能な技術を提供する。 【解決手段】コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成する表示制御部と、前記制御信号を前記表示部へ出力する出力部と、を備える、表示制御装置が提供される。

Description

表示制御装置、表示制御方法および記録媒体
 本開示は、表示制御装置、表示制御方法および記録媒体に関する。
 近年、通信技術の発達や記録媒体の記憶容量の増加に伴って、ユーザによって扱われるコンテンツの数も増大してきている。そこで、コンテンツ群を簡易に閲覧できるようにするための技術として様々な技術が開示されている。例えば、コンテンツ群をリスト状にして並べて表示する技術が開示されている(例えば、特許文献1参照。)。この特許文献1には、コンテンツ群の並び順の例として、コンテンツ群それぞれの更新の時系列順を使用することが記載されている。
 かかる技術によれば、コンテンツ群がリスト状に並べられて表示されるため、コンテンツ群を簡易に閲覧できるようにすることができる。
特開2011-22811号公報
 しかしながら、かかる技術においては、コンテンツのうち表示される領域が静的な矩形をしており、ユーザにさほど強い印象を与えることができない。そのため、かかる技術はユーザにより強い印象を与えながらコンテンツを閲覧させる技術としては十分ではない。したがって、ユーザにより強い印象を与えながらコンテンツを閲覧させることが可能な技術が実現されることが望ましい。
 本開示によれば、コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成する表示制御部と、前記制御信号を前記表示部へ出力する出力部と、を備える、表示制御装置が提供される。
 また、本開示によれば、コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成することと、前記制御信号を前記表示部へ出力することと、を含む、表示制御方法が提供される。
 また、本開示によれば、コンピュータを、コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成する表示制御部と、前記制御信号を前記表示部へ出力する出力部と、を備える表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体が提供される。
 以上説明したように本開示によれば、ユーザにより強い印象を与えながらコンテンツを閲覧させることが可能である。
本開示の実施形態に係る表示制御装置の外観例を示す図である。 コンテンツの読み取り手法の一例を示す図である。 本開示の実施形態に係る表示制御装置の機能構成例を示す図である。 本開示の実施形態に係る表示制御装置の機能の概要を説明するための図である。 境界線の変動の一例を説明するための図である。 コンテンツに所定のテキストデータが含まれる場合における表示例を示す図である。 コンテンツに所定の物体が含まれる場合における表示例を示す図である。 優先度に応じて境界線の変動の基準位置を変化させる場合における表示例を示す図である。 優先度に応じて境界線の変動の基準位置を変化させる例を説明するための図である。 優先度に応じて境界線が有する波形状の周期を変化させる例を説明するための図である。 優先度に応じた速度でコンテンツにおける表示対象領域をコンテンツ内において移動させる場合における表示例を示す図である。 表示画面にリストの端が達した場合における第1の表示例を示す図である。 表示画面にリストの端が達した場合における第2の表示例を示す図である。 表示画面にリストの端が達した場合における第3の表示例を示す図である。 本開示の実施形態に係る表示制御装置の他の外観例を示す図である。 複数の表示制御装置の間でコンテンツ送受信を行う場合の例を説明するための図である。 複数の表示制御装置の間でコンテンツ送受信を行う場合の例を説明するための図である。 複数の表示制御装置の間でコンテンツ送受信を行う場合の例を説明するための図である。 本開示の実施形態に係る表示制御装置のハードウェア構成例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
  1.実施形態
   1-1.表示制御装置の外観例
   1-2.コンテンツの読み取り手法の例
   1-3.表示制御装置の機能構成例
   1-4.表示制御装置の機能の概要
   1-5.境界線の変動の例
   1-6.表示画面にリストの端が達した場合
   1-7.表示制御装置の他の外観例
   1-8.複数の装置間でのコンテンツ送受信
   1-9.ハードウェア構成例
  2.むすび
  <<1.実施形態>>
 まず、本開示の実施形態について説明する。
   [1-1.表示制御装置の外観例]
 最初に、本開示の実施形態に係る表示制御装置10の外観例について説明する。図1は、本開示の実施形態に係る表示制御装置10の外観例を示す図である。表示制御装置10は、コンテンツが表示される領域(以下、「コンテンツ表示領域」とも言う。)が複数並べられてなるリストが表示画面161に表示されるように制御することが可能である。例えば、図1に示すように、表示制御装置10は、リストの例としてコンテンツ表示領域C1~C6が表示画面161に表示されるように制御することができる。
 図1に示した例では、リストに6つのコンテンツ表示領域が含まれているが、リストに含まれるコンテンツ表示領域の数は特に限定されない。また、本実施形態では、図1に示すように、複数のコンテンツが順に重ね合わされることによりリストが生成される場合を想定している。しかし、かかるリスト生成は一例に過ぎないため、複数のコンテンツに基づいてどのようにリストが生成されるかといった点に関しては、特に限定されない。
 また、コンテンツの種類は特に限定されない。例えば、コンテンツは、画像データであってもよいし、テキストデータであってもよいし、その他の種類のコンテンツであってもよい。画像データは、静止画の画像データであってもよいし、動画像の画像データであってもよい。図1に示された例では、表示制御装置10が表示画面161を備えているが、表示画面161は、表示制御装置10の外部に存在してもよく、ネットワークを介して表示制御装置10と接続されていてもよい。
 図1に示すように、表示画面161には、選択表示モード表示領域162が含まれていてもよい。選択表示モード表示領域162には、現在選択されている表示モードが表示される。ここで、表示モードには、図1に示すように、各コンテンツ表示領域の並び順の決定を表示制御装置10に委ねる「おまかせモード」があってもよい。また、表示モードには、優先度に応じた順序で各コンテンツ表示領域を並べる「優先度順モード」があってもよく、表示コンテンツに関連付けられた時刻に応じた順序で各コンテンツ表示領域を並べる「時系列順モード」、他のユーザから提供された各コンテンツ表示領域を並べる「ソーシャルモード」などがあってもよい。
 また、図1に示すように、表示画面161には、選択キーワード表示領域163が含まれていてもよい。選択キーワード表示領域163には、現在選択されているキーワードが表示される。例えば、表示制御部111は、現在選択されているキーワードに応じた各コンテンツ表示領域をリストとして表示画面161に表示させてもよい。図1に示した例では、現在選択されているキーワードである「元気」「励まし」に応じた各コンテンツ表示領域がリストとして表示画面161に表示されている。
 ここで、例えば、コンテンツ表示領域が静的な矩形をしている場合、ユーザにはさほど強い印象を与えることができない。そのため、ユーザにより強い印象を与えながらコンテンツを閲覧させることが可能な技術が実現されることが望ましい。そこで、本明細書においては、図1に示すように、コンテンツ表示領域とコンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、境界線が時間の経過とともに変動して表示されるように制御する技術を提案する。これにより、ユーザにより強い印象を与えながらコンテンツを閲覧させることが可能となることが期待される。
 以上、本開示の実施形態に係る表示制御装置10の外観例について説明した。ところで、制御部110に提供されるコンテンツは、記憶部130により記憶されているコンテンツであってもよいし、所定のサーバからストリーミング配信されたコンテンツであってもよい。記憶部130により記憶されているコンテンツが制御部110に提供される場合には、他の装置から受信したコンテンツが記憶部130により記憶されてもよいし、読取装置20により読み取られたコンテンツが記憶部130により記憶されてもよい。
   [1-2.コンテンツの読み取り手法の例]
 以下、読取装置20により読み取られたコンテンツが記憶部130により記憶される例について説明する。図2は、コンテンツの読み取り手法の一例を示す図である。図2に示すように、読取装置20は、読取部211を備える。例えば、ユーザは、紙面(例えば、本や雑誌、広告など)を閲覧しているときに、記録しておきたい部分(例えば、文章、絵、写真など)がその紙面上にあった場合には、その部分を読取部211に読み取らせることができる。読取部211によって読み取られた部分は、コンテンツとして記憶部130により記憶される。記録しておきたい部分はユーザが感動した部分であってもよい。
 図2に示すように、読取装置20は、読取部211の他に、読取部211よりも読み取り範囲が広い読取部212を備えていてもよい。また、図2に示すように、読取装置20は、そのコンテンツの優先度を入力する優先度入力部220を備えていてもよい。優先度入力部220は、例えば、圧力センサを含んでいてもよい。かかる場合には、優先度入力部220は、圧力センサに対してユーザにより与えられる力の大きさに応じた優先度を入力することができる。しかし、優先度入力部220は、圧力センサを含まなくてもよい。
 例えば、優先度入力部220は、脈拍センサを含んでいてもよい。かかる場合には、優先度入力部220は、ユーザの心拍数に応じた優先度を入力することができる。例えば、優先度入力部220は、ユーザの心拍数が高いほど、そのコンテンツに対するユーザの感動度は高いことが予想されるため、高い優先度を入力してもよい。また、例えば、優先度入力部220は、加速度センサを含んでもよい。かかる場合には、優先度入力部220は、加速度センサに対して与えられる加速度に応じた優先度を入力することができる。
 また、例えば、優先度入力部220は、操作部120を介して優先度を入力することも可能である。かかる場合には、優先度入力部220は、操作部120に対してユーザにより与えられる操作に応じた優先度を入力することができる。ここで、操作部120に対して与えられる操作の種類は特に限定されず、例えば、ユーザがコンテンツ表示領域をタッチしながら動かす指の動き(例えば、指の速度や加速度など)に応じた優先度が入力されてもよい。
 また、図2に示すように、読取装置20は、入力された優先度を出力するための優先度出力部230を備えていてもよい。優先度出力部230は、例えば、ライトにより構成されていてもよい。かかる場合には、優先度出力部230は、入力された優先度に応じた強さの光を発することができる。しかし、優先度出力部230は、ライト以外によって構成されていてもよい。例えば、優先度出力部230は、ユーザに振動を与える振動発生装置によって構成されていてもよい。かかる場合には、優先度出力部230は、入力された優先度に応じた強さの振動を発生させることができる。
 このようにして読取装置20により読み取られたコンテンツは、記憶部130により記憶されて制御部110に提供され得る。また、入力された優先度も、記憶部130により記憶されて制御部110に提供され得る。なお、本明細書においては、優先度が入力される場合を主として説明するが、優先度は必ずしも入力されなくてもよい。例えば、優先度は、表示制御装置10によって算出されてもよい。
   [1-3.表示制御装置の機能構成例]
 続いて、本開示の実施形態に係る表示制御装置10の機能構成例について説明する。図3は、本開示の実施形態に係る表示制御装置10の機能構成例を示す図である。図3に示すように、表示制御装置10は、制御部110、操作部120、記憶部130、通信部140、出力部150および表示部160を備える。
 制御部110は、例えば、CPU(Central Processing Unit)などのプロセッサに相当する。制御部110は、記憶部130または他の記憶媒体に記憶されるプログラムを実行することにより、制御部110が有する様々な機能を発揮する。制御部110は、表示制御部111、優先度取得部112および認識部113を有する。表示制御部111は、コンテンツ表示領域とコンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、境界線が時間の経過とともに変動して表示されるように表示部160を制御するための制御信号を生成する。優先度取得部112および認識部113それぞれが有する機能については後に説明する。
 操作部120は、ユーザ操作を検出して制御部110に出力する。本明細書においては、操作部120がタッチパネルにより構成される場合を想定しているため、ユーザ操作はユーザの指を操作体として入力される。しかし、操作部120はタッチパネル以外のハードウェアにより構成されていてもよい。なお、図2に示した例では、操作部120は表示制御装置10と一体化されているが、操作部120は、表示制御装置10と別体に構成されていてもよい。
 記憶部130は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部110を動作させるためのプログラムを記憶する。また、例えば、記憶部130は、プログラムによって使用される各種のデータ(例えば、各種の設定情報、コンテンツなど)を記憶することもできる。なお、図3に示した例では、記憶部130は表示制御装置10と一体化されているが、記憶部130は表示制御装置10と別体に構成されていてもよい。
 通信部140は、他の表示制御装置10と通信を行うことが可能である。通信部140による通信の形式は特に限定されず、通信部140による通信は、無線による通信であってもよいし、有線による通信であってもよい。なお、図3に示した例では、通信部140は表示制御装置10と一体化されているが、通信部140は、表示制御装置10と別体に構成されていてもよい。
 出力部150は、表示制御部111により生成された制御信号を表示部160へ出力する。例えば、出力部150は、表示部160が制御部110と一体化されている場合には、表示部160および制御部110が接続されているバスと制御部110とを接続するインタフェースに相当する。また、例えば、出力部150は、表示部160が制御部110とネットワークを介して別体に構成されている場合には、制御部110とネットワークとを接続するためのインタフェースに相当する。
 表示部160は、表示制御部111による制御に従って、各種情報の表示を行う。表示部160は、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ装置などにより構成される。なお、図3に示した例では、表示部160は表示制御装置10と一体化されているが、表示部160は表示制御装置10と別体に構成されていてもよい。
 以上、本開示の実施形態に係る表示制御装置10の機能構成例について説明した。
   [1-4.表示制御装置の機能の概要]
 続いて、本開示の実施形態に係る表示制御装置10の機能の概要について説明する。図4は、本開示の実施形態に係る表示制御装置10の機能の概要を説明するための図である。なお、以下において、選択操作はタッチ操作により行われ、拡大操作はピンチイン操作により行われ、縮小操作はピンチアウト操作により行われる例を主に説明するが、選択操作、拡大操作および縮小操作は、どのような操作によって実現されてもよい。
 まず、表示制御部111は、キーワードを選択するためのキーワード選択画面が表示されるように制御する。キーワード選択画面には、キーワード164が含まれている。キーワード164は、コンテンツに関連付けられており、例えば、そのコンテンツを閲覧したユーザからコメントが書き込まれた場合には、そのコメントからの抽出によって得られる。ユーザは、キーワード選択画面に表示されたキーワード164から所望のキーワードを選択することができる。
 例えば、キーワード選択画面においてユーザによりタッチ操作がなされると、表示制御部111は、コンテンツ表示領域が複数並べられてなる一覧表示画面が表示されるように制御する。例えば、図4に示すように、表示制御部111は、選択されたキーワードに応じたコンテンツ表示領域C1~C6が並べられた一覧表示画面が表示されるように制御することができる。一覧表示画面においてユーザによりタッチ操作がなされると、表示制御部111は、キーワード選択画面が表示されるように制御する。
 一方、一覧表示画面においてユーザによりコンテンツ表示領域に対するピンチイン操作がなされると、図4に示すように、表示制御部111は、そのコンテンツ表示領域のサイズが拡大された拡大画面が表示されるように制御する。また、拡大画面においてユーザによりそのコンテンツ表示領域に対するピンチアウト操作がなされると、図4に示すように、表示制御部111は、そのコンテンツ表示領域のサイズが元に戻された一覧表示画面が表示されるように制御する。
 以上、本開示の実施形態に係る表示制御装置10の機能の概要について説明した。
   [1-5.境界線の変動の例]
 図5は、境界線の変動の一例を説明するための図である。図5に示すように、境界線は、コンテンツ表示領域とコンテンツ表示領域に隣接する他のコンテンツ表示領域との境界線であってもよい。ここで、例えば、コンテンツ表示領域C3とこれに隣接するコンテンツ表示領域C2との境界線の波形状を波Aとし、コンテンツ表示領域C4とこれに隣接するコンテンツ表示領域C3との境界線の波形状を波Bとし、コンテンツ表示領域C5とこれに隣接するコンテンツ表示領域C4との境界線の波形状を波Cとする。
 かかる場合、波Aの振幅をAyとし、波Bの振幅をByとし、波Aおよび波Bそれぞれの基準位置間の距離をhとすると、波Aと波Bとが交わってしまうことを回避するため、表示制御部111は、以下の式(1)を満たすように、Ay、Byおよびhを決定するとよい。
 h>Ay+By ・・・(1)
 また、コンテンツ表示領域の高さをHとすると、表示画面161内に空白が生じないようにするため、表示制御部111は、以下の式(2)を満たすように、Ay、By、hおよびHを決定するとよい。
 H=h+Ay+By ・・・(2)
 なお、上記したように、境界線は波形状を有し、かつ、時間の経過とともに変動して表示されるように制御されるが、境界線の変動はどのような変動であってもよい。以下の説明においては、境界線の有する波形状が、振動しない部分に相当する節と振動する部分に相当する腹とを有する定常波である場合を主に例として説明する。しかし、境界線の有する波形状は、その形状自体は固定化された状態において所定の方向に移動する進行波であってもよい。
 ここで、表示制御部111は、コンテンツにおいて表示対象となる領域(以下、「表示対象領域」とも言う。)を選択するが、表示対象領域の選択手法としては様々な手法が想定される。例えば、認識部113は、コンテンツに対する認識によりコンテンツに含まれる所定の領域の位置を認識結果として取得し、表示制御部111は、認識部113により取得された認識結果に応じて境界線を変動させてもよい。より詳細には、表示制御部111は、所定の領域の位置に応じてコンテンツにおける表示対象領域の位置を変化させてもよい。ここで、所定の領域はどのような領域であってもよい。例えば、所定の領域は、コンテンツに所定のテキストデータが含まれる場合、所定のテキストデータが存在する領域であってもよい。
 図6は、コンテンツに所定のテキストデータが含まれる場合における表示例を示す図である。図6に示すように、コンテンツ表示領域C3に表示されるコンテンツに、ユーザにより選択されたキーワード「元気」が含まれているとする。かかる場合、認識部113は、コンテンツに対する認識によりコンテンツに含まれるキーワード「元気」が存在する領域の位置を取得し、表示制御部111は、キーワード「元気」が存在する領域の位置がコンテンツ表示領域C3に収まるタイミングが存在するようにコンテンツにおける表示対象領域C31の位置を決定してもよい。
 なお、所定のテキストデータはユーザにより選択されたキーワード以外のテキストデータであってもよい。例えば、所定のテキストデータは、ユーザによりあらかじめ登録されたテキストデータであってもよいし、あらかじめ辞書データとして登録されている所定の品詞(例えば、固有名詞または接続詞など)であってもよい。また、所定のテキストデータは、ユーザによるコンテンツの閲覧履歴などから抽出されたテキストデータ(例えば、コンテンツの出演者など)であってもよい。
 また、例えば、所定の領域は、コンテンツに所定の物体が含まれる場合、所定の物体が存在する領域であってもよい。図7は、コンテンツに所定の物体が含まれる場合における表示例を示す図である。図7に示すように、コンテンツ表示領域C3に表示されるコンテンツに、顔領域が含まれているとする。かかる場合、認識部113は、コンテンツに対する認識によりコンテンツに含まれる顔領域の位置を取得し、表示制御部111は、顔領域の位置がコンテンツ表示領域C3に収まるようにコンテンツにおける表示対象領域C32の位置を調整してもよい。
 なお、所定の物体は顔領域以外の物体であってもよい。例えば、所定の物体は、ユーザによりあらかじめ登録された物体であってもよいし、あらかじめ辞書データとして登録されている所定の物体であってもよい。
 以上においては、コンテンツに含まれる所定の領域の位置を認識結果として取得し、認識結果に応じて境界線を変動させる例を示したが、境界線は、コンテンツに関連付けられた優先度に応じて変動されてもよい。かかる場合には、優先度取得部112は、コンテンツに関連付けられた優先度を取得し、表示制御部111は、優先度取得部112により取得された優先度に応じて境界線を変動させればよい。
 ここで、優先度取得部112による優先度の取得の手法は特に限定されず、優先度取得部112は、ユーザにより入力された値を優先度として取得してもよいし、優先度を算出することにより優先度を取得してもよい。
 ユーザによる値の入力手法については、上記したように様々な手法が想定されるが、優先度取得部112は、優先度入力部220により入力された優先度を取得してもよい。また、優先度取得部112による優先度の算出手法は特に限定されない。例えば、優先度取得部112は、コンテンツに関連付けられている各種情報(例えば、コンテンツに対する評価、コンテンツの閲覧履歴、コンテンツに関する所定の時期など)に基づいて算出してもよい。
 例えば、優先度取得部112は、コンテンツに対する評価が高いほど優先度を高く算出してもよい。また、優先度取得部112は、コンテンツの閲覧履歴からユーザの嗜好を解析し、ユーザの嗜好に近いコンテンツほど優先度を高く算出してもよい。また、優先度取得部112は、現在からコンテンツに関する所定の時期(例えば、コンテンツの一般公開時期、コンテンツの販売開始時期など)までの期間が近いコンテンツほど優先度を高く算出してもよい。
 優先度に応じて境界をどのように変動させるかといった点に関しても特に限定されない。例えば、表示制御部111は、優先度に応じて境界線の変動に関する所定のパラメータを変化させればよい。例えば、表示制御部111は、優先度に応じて所定のパラメータとして境界線の変動の基準位置を変化させてもよい。図8は、優先度に応じて境界線の変動の基準位置を変化させる場合における表示例を示す図である。
 図8に示すように、他のコンテンツより優先度が高いコンテンツがコンテンツ表示領域C4に表示されるとする。かかる場合、表示制御部111は、コンテンツ表示領域C4とコンテンツ表示領域C4に隣接する領域との境界線の変動の基準位置を変化させてもよい。例えば、図8に示すように、表示制御部111は、境界線の変動の基準位置をコンテンツ表示領域C4が拡がるように変化させてもよい。また、表示制御部111は、境界線の基準位置を一時的に変化させてもよい。
 図9は、優先度に応じて境界線の変動の基準位置を変化させる例を説明するための図である。図9には、境界線の変動の基準位置間の距離がh2~h5として示されている。ここで、コンテンツ表示領域C4,C5それぞれのコンテンツの優先度よりも、コンテンツ表示領域C2,C3それぞれのコンテンツの優先度が高い場合には、図9に示すように、表示制御部111は、境界線の変動の基準位置をコンテンツ表示領域C2,C3それぞれが拡がるように変化させてもよい。
 また、例えば、表示制御部111は、優先度に応じて所定のパラメータとして境界線の変化速度を変化させてもよい。ここで、境界線の変化速度としては様々な速度が想定される。例えば、境界線の変化速度は、境界線が有する波形状の周期であってもよい。図10は、優先度に応じて境界線が有する波形状の周期を変化させる例を説明するための図である。
 図5に示した例と同様に、図10に示した例においても、コンテンツ表示領域C3とこれに隣接するコンテンツ表示領域C2との境界線の波形状を波Aとし、コンテンツ表示領域C4とこれに隣接するコンテンツ表示領域C3との境界線の波形状を波Bとし、コンテンツ表示領域C5とこれに隣接するコンテンツ表示領域C4との境界線の波形状を波Cとする。
 ここで、表示制御部111は、コンテンツ表示領域C4のコンテンツの優先度が他のコンテンツの優先度よりも高い場合には、コンテンツ表示領域C4とこれに隣接するコンテンツ表示領域C3との境界線が有する波形状(波Bの波形状)の周期を高くしてもよい。このように周期を変化させれば、ユーザの視線がコンテンツ表示領域C4に向けられる可能性が高まることが予想される。
 なお、境界線の変化速度は、境界線が有する波形状の周期に限られない。例えば、境界線の変化速度は、境界線の振動速度であってもよい。図10に示した例を用いて説明すれば、表示制御部111は、コンテンツ表示領域C3のコンテンツの優先度がコンテンツ表示領域C5の優先度よりも高い場合には、コンテンツ表示領域C3とこれに隣接するコンテンツ表示領域C2との境界線が有する波形状(波Aの波形状)の振動速度を高くしてもよい。このように振動速度を変化させれば、ユーザの視線がコンテンツ表示領域C3に向けられる可能性が高まることが予想される。
 以上の説明においては、コンテンツにおける表示対象領域は、コンテンツ内において固定されている場合を想定したが、コンテンツにおける表示対象領域は、コンテンツ内において移動されてもよい。すなわち、表示制御部111は、優先度に応じた速度でコンテンツにおける表示対象領域をコンテンツ内において移動させてもよい。図11は、優先度に応じた速度でコンテンツにおける表示対象領域をコンテンツ内において移動させる場合における表示例を示す図である。
 例えば、表示制御部111は、優先度に応じた速度でコンテンツにおける表示対象領域をコンテンツ内において移動させてもよく、優先度が大きいコンテンツほど、そのコンテンツにおける表示対象領域をコンテンツ内において大きい速度によって移動させてもよい。このように移動速度を変化させれば、ユーザの視線が移動速度の大きいコンテンツ表示領域に向けられる可能性が高まることが予想される。
 なお、例えば、表示制御部111が、コンテンツ表示領域C4に表示されるコンテンツにおける表示対象領域を所定の方向(例えば、下方向)に移動させると、コンテンツ表示領域C4に表示されるコンテンツは所定の方向とは逆方向(例えば、上方向)に移動するように見える。一方、例えば、表示制御部111が、コンテンツ表示領域C4に表示されるコンテンツにおける表示対象領域を所定の方向(例えば、上方向)に移動させると、コンテンツ表示領域C4に表示されるコンテンツは所定の方向とは逆方向(例えば、下方向)に移動するように見える。
 以上、本開示の実施形態に係る表示制御装置10の機能の概要について説明した。
   [1-6.表示画面にリストの端が達した場合]
 ここで、ユーザ操作に従ってリストを移動させることが可能である場合、リストの端が表示画面161に達した場合には、その旨を示す表示がされればユーザにとって利便性が高い。以下では、リストの端が表示画面161に達した場合の表示例について説明する。なお、以下の説明においては、リストの移動が、ユーザによるドラッグ操作に従って行われる場合を主に説明するが、ユーザによりなされる操作はドラッグ操作に限定されない。
 図12は、表示画面161にリストの端が達した場合における第1の表示例を示す図である。図12に示すように、ユーザによるドラッグ操作に従って、リストが移動された結果、リストの端が表示画面161に達したとする。かかる場合、図12に示すように、表示制御部111は、リストの先頭であるコンテンツ表示領域C1がリストの末尾であるコンテンツ表示領域C6の次に表示されるようにしてもよい。なお、かかる第1の表示例は、リストの末尾のコンテンツの再生が終わった後、リストの先頭のコンテンツの再生に自動的に移行するような設定がされている場合には、ユーザにとって特に利便性が高いと考えられる。
 図13は、表示画面161にリストの端が達した場合における第2の表示例を示す図である。図13に示すように、ユーザによるドラッグ操作に従って、リストが移動された結果、リストの端が表示画面161に達したとする。かかる場合、図13に示すように、表示制御部111は、所定の表現(例えば、霧がかかったような表現)が表示されるように制御してもよい。かかる所定の表現はリストの端から表示画面161の内側に向けて動くがバネのように跳ね返って元の位置に戻るように表示されてもよい。
 図14は、表示画面161にリストの端が達した場合における第3の表示例を示す図である。図14に示すように、ユーザによるドラッグ操作に従って、リストが移動された結果、リストの端が表示画面161に達したとする。かかる場合、図14に示すように、表示制御部111は、所定のオブジェクト(例えば、「Repeat」が付されたマーク)が表示されるように制御してもよい。所定のオブジェクトがユーザによって選択された場合には、表示制御部111は、ユーザによるドラッグ操作に従って、リストの先頭であるコンテンツ表示領域C1がリストの末尾であるコンテンツ表示領域C6の次に表示されるように制御してもよい。
 以上、リストの端が表示画面161に達した場合の表示例について説明した。
   [1-7.表示制御装置の他の外観例]
 続いて、本開示の実施形態に係る表示制御装置10の他の外観例について説明する。図15は、本開示の実施形態に係る表示制御装置10の他の外観例を示す図である。図15に示す例では、図1に示した例と同様に、表示制御部111は、コンテンツ表示領域が複数並べられてなるリストが表示画面161に表示されるように制御する。例えば、図15に示すように、表示制御装置10は、リストの例としてコンテンツ表示領域C1~C6が表示画面161に表示されるように制御することができる。
 しかし、図15に示した例と図1に示した例とでは、表示画面161に表示される内容(例えば、各コンテンツ表示領域に表示されるコンテンツ、選択表示モード表示領域162に表示される選択表示モード、選択キーワード表示領域163に表示される選択キーワードなど)の向きが異なっている。すなわち、表示制御部111は、表示画面161の置かれる向きに応じて表示される内容の向きを変更することも可能である。
 以上、本開示の実施形態に係る表示制御装置10の他の外観例について説明した。
   [1-8.複数の装置間でのコンテンツ送受信]
 以上においては、表示制御装置10が1つである場合について主に説明した。以下、表示制御装置10が複数である場合に、複数の表示制御装置10の間でなされるコンテンツ送受信の手法の例について説明する。図16~図18は、複数の表示制御装置10の間でコンテンツ送受信を行う場合の例を説明するための図である。なお、ここでは、複数の表示制御装置10の例として、表示制御装置10Aと表示制御装置10Bとを使用する。
 まず、表示制御装置10Aと表示制御装置10Bとの間でコネクションが生成される。コネクション生成の契機は、例えば、表示制御装置10Aと表示制御装置10Bとの衝突の検出であってもよいが、特に限定されない。コネクション生成時には、各装置は、何らかのパラメータ(例えば、境界が有する波形状の振幅、周期など)を相手装置から受け取って、自装置によって表示制御されている境界の変動に利用してもよい。
 例えば、各装置は、相手装置のコンテンツが表示されるように制御してもよい。図16に示した例では、各装置において、自装置のコンテンツが自己領域Mに存在し、相手装置のコンテンツが相手領域Yに表示されるように制御されている。例えば、自己領域Mは、自装置の記憶部130における記憶領域の中身を示し、相手領域Yは、相手装置の記憶部130における記憶領域の中身を示している。
 例えば、図16に示すように、ユーザ操作により自己領域Mに存在するコンテンツを表示する旨を示す操作がなされると、自己領域Mに存在するコンテンツが表示されるように制御される。その代わりに、かかる操作がなされると、相手領域Yに表示されるように制御されていたコンテンツは、表示されなくなってもよい。自己領域Mに存在するコンテンツを表示する旨を示す操作は、図16に示すように、自己領域Mから相手領域Yへのドラッグ操作により実現される。
 ユーザは、相手領域Yに表示されたコンテンツ表示領域に対して所定の操作を行うことにより、そのコンテンツの優先度を入力することが可能である。例えば、図17に示すように、ユーザはコンテンツ表示領域をタッチしながら動かす指の動き(例えば、指の速度や加速度など)に応じた優先度を入力することが可能である。ここで入力された優先度は、境界線の変動に関する所定のパラメータの変化に利用されてもよい。例えば、図17に示すように、表示制御部111は、優先度に応じて境界線の変動の基準位置を変化させてもよい。
 続いて、相手領域Yから自己領域Mにコンテンツをコピーする操作がなされた場合には、制御部110は、相手領域Yから自己領域Mにコンテンツをコピーすることができる。相手領域Yから自己領域Mにコンテンツをコピーする操作は、図17に示すように、相手領域Yに表示されているコンテンツ表示領域から自己領域Mへのドラッグ操作により実現される。
 同様に、自己領域Mから相手領域Yにコンテンツをコピーする操作がなされた場合には、制御部110は、自己領域Mから相手領域Yにコンテンツをコピーすることができる。自己領域Mから相手領域Yにコンテンツをコピーする操作は、図18に示すように、自己領域Mに表示されているコンテンツ表示領域から相手領域Yへのドラッグ操作により実現される。
 また、相手領域Yへのコンテンツのコピーが契機となり、相手領域Yから自己領域Mに何らかのコンテンツがコピーされてもよい。このとき、相手領域Yから自己領域Mにコピーされるコンテンツは、相手装置のユーザにより指定されたコンテンツ(例えば、おすすめのコンテンツなど)であってもよい。
 以上、表示制御装置10が複数である場合に、複数の表示制御装置10の間でなされるコンテンツ送受信の手法の例について説明した。
   [1-9.ハードウェア構成例]
 続いて、表示制御装置10のハードウェア構成例について説明する。図19は、本開示の実施形態に係る表示制御装置10のハードウェア構成例を示す図である。ただし、図19に示したハードウェア構成例は、表示制御装置10のハードウェア構成の一例を示したに過ぎない。したがって、表示制御装置10のハードウェア構成は、図19に示した例に限定されない。なお、以下では、本実施形態に係る表示制御装置10は、例えば、ディスプレイパネル上にタッチパネルを備えた高機能型携帯電話端末やタブレット端末などである場合を主に想定して説明を続ける。
 図19に示した例において、通信アンテナ901は、例えば、内蔵アンテナであり、携帯電話網や公衆無線通信網を通じた通話や電子メールの送受信、本実施形態に係る表示制御プログラムを含む各種アプリケーションプログラムのダウンロード、インターネット等と通信するための信号電波の送受信を行う。
 アンテナ回路902は、アンテナ切り替え器やマッチング回路、フィルタ回路などからなり、送受信回路部903は、携帯電話網や公衆無線通信網を通じた送受信信号の周波数変換、変調と復調などを行う。スピーカ915は、本実施形態に係る表示制御装置10に設けられているスピーカであり、例えば、音楽再生や受話音出力、リンガ音(着信音)出力などに用いられる。マイクロホン916は、外部音声の集音や送話音声の集音などに用いられる。
 音声信号処理部914は、スピーカ915用の増幅回路、マイクロホン916用の増幅回路、制御・演算部904から供給される圧縮符号化された音声データを伸張復号化する伸張復号化回路、当該伸張復号化後のデジタル音声データをアナログ音声信号に変換するデジタル/アナログ変換回路、マイクロホン916から入力されたアナログ音声信号をデジタル音声データに変換するアナログ/デジタル変換回路、当該デジタル音声データを圧縮符号化する圧縮符号化回路などからなる。
 映像信号処理部911は、制御・演算部904から供給される圧縮符号化された映像データを伸張復号化する伸張復号化回路、当該伸張復号化後のデジタル映像や後述するデジタル放送受信モジュール909にて受信されたデジタル放送映像などを、ディスプレイパネル912へ表示させるディスプレイパネル駆動回路などからなる。また、本実施形態の場合、映像信号処理部911は、制御・演算部904から供給されるデスクトップ画像や各種メニュー画像、タッチパネル上の位置に対応した仮想タッチエリア画像などを表示するための映像信号を生成し、それら画像をディスプレイパネル912上に表示させる。
 キー操作部919は、本実施形態に係る表示制御装置10の筐体上に設けられたハードキーとその周辺回路などからなる。キー操作部919は、ユーザによるハードキーの押下操作入力を電気信号へ変換し、その操作入力信号を増幅及びアナログ/デジタル変換し、そのアナログ/デジタル変換後の操作入力データを制御・演算部904へ送る。
 外部入出力端子部918は、例えばケーブルを通じてデータ通信を行う際のケーブル接続用コネクタと外部データ通信用インタフェース回路や、電源ケーブルなどを通じて内部電池を充電する際の充電端子とその充電用インタフェース回路などからなる。本実施形態の表示制御プログラムを含む各種アプリケーションプログラムは、外部入出力端子部918を介して取得されてもよい。
 また、外部メモリI/F部910は、外部メモリなどの記憶媒体が着脱される外部メモリ用スロットと外部メモリデータ通信用インタフェース回路などからなる。本実施形態の表示制御プログラムを含む各種アプリケーションプログラムは、外部メモリI/F部910に挿着された外部メモリ等の記憶媒体を介して取得されてもよい。なお、前記記憶媒体は、本実施形態に係る表示制御装置10の後述する表示を制御するための表示制御アプリケーションプログラムなどを記憶したものであってもよい。
 近距離無線通信モジュール908は、無線LANやブルートゥース(登録商標)などの近距離無線電波用の通信アンテナと、近距離無線通信回路とからなる。本実施形態の表示制御プログラムを含む各種アプリケーションプログラムは、近距離無線通信モジュール908を介して取得されてもよい。
 デジタル放送受信モジュール909は、いわゆるデジタルテレビジョン放送やデジタルラジオ放送などの受信用アンテナとチューナとからなる。デジタル放送受信モジュール909は、1チャンネルのデジタル放送の受信のみならず、同時に複数チャンネルのデジタル放送を受信可能となされている。また、デジタル放送受信モジュール909は、デジタル放送に多重されたデータも受信可能となされている。
 なお、デジタル放送受信モジュール909にて受信されたデジタル放送データは、例えば、制御・演算部904により圧縮等された後、メモリ部905などに記憶(つまり録画)することも可能となされている。また、本実施形態に係る表示制御プログラムを含む各種アプリケーションプログラムは、当該ディスプレイ放送データの一つとして放送されてもよい。
 カメラ部913は、静止画像や動画像の撮影のための撮像素子,光学系等とその周辺回路、および、撮影補助光を出射するためのライトの駆動回路などからなる。カメラ部913による撮影時の静止画データや動画像データは、プレビュー映像データとして映像信号処理部911に送られる。これにより、当該カメラ撮影時に、前記ディスプレイパネル912にはプレビュー映像が表示される。また、カメラ部913にて撮影された静止画データや動画像データを記録する場合、当該撮影された静止画データや動画像データは、制御・演算部904に送られて圧縮された後、メモリ部905や外部メモリI/F部910に接続された外部メモリに記憶される。
 非接触通信モジュール907は、非接触通信アンテナを通じて、例えば、いわゆるRFID(Radio Frequency-Identification:電波方式認識)や非接触型ICカード等で用いられる非接触通信を行う。
 GPS(Global Positioning System)モジュール906は、GPSアンテナを有し、GPS測地衛星からのGPS信号を用いて自端末の現在位置の緯度及び経度を求める。GPSモジュール906により得られたGPSデータ(緯度,経度を表す情報)は制御・演算部904へ送られる。これにより、制御・演算部904は、自端末の現在位置や移動などを知ることができる。
 各種センサ部917は、本実施形態に係る表示制御装置10の状態を検知するための端末状態検知センサなどの各種検知用センサとその周辺回路からなる。各種センサ部917としては、一例として傾きセンサ、加速度センサ、方位センサ、温度センサ、湿度センサ、照度センサなどを挙げることができる。各種センサ部917による検知信号は、制御・演算部904に送られる。これにより、制御・演算部904は、表示制御装置10の状態(傾き、加速度、方位、温度、湿度、照度など)を知ることができる。
 タッチパネル921は、ユーザによる操作入力を検出可能な検出面を有する入力操作部であり、ディスプレイパネル912の全面に配された透明タッチセンサスクリーンセンサからなる。タッチパネル信号処理部920は、タッチパネル921からのタッチ検出位置やタッチ軌跡、タッチ継続時間、タッチ時間間隔などを計測し、その計測したデータをタッチ検出データとして制御・演算部904へ送出する。なお、タッチパネル921およびタッチパネル信号処理部920は、いわゆるマルチタッチに対応している。
 メモリ部905は、表示制御装置10の内部に設けられている内蔵メモリと着脱可能なカード状メモリなどからなる。着脱可能なカード状メモリとしては、いわゆるSIM(Subscriber Identity Module)情報などを格納するカードなどを挙げることができる。内蔵メモリは、ROM(Read Only Memory)とRAM(Random Access Memory)とからなる。ROMは、OS(Operating System)、制御・演算部904が各部を制御するための制御プログラム、各種の初期設定値、辞書データ、文字予測変換辞書データ、各種音データ、本実施形態に係る表示制御プログラムを含む各種アプリケーションプログラム等を格納している。
 このROMは、NAND型フラッシュメモリ(NAND-type flash memory)或いはEEPROM(Electrically Erasable Programmable Read-Only Memory)のような書き換え可能なROMを含み、電子メールデータ、電話帳やメールアドレス帳のデータ、静止画像や動画像コンテンツのデータ、その他、各種のユーザ設定値などを保存可能となされている。RAMは、制御・演算部904が各種のデータ処理を行う際の作業領域、バッファ領域として随時データを格納する。
 制御・演算部904は、CPU(中央処理ユニット)からなり、送受信回路部903、映像信号処理部911、音声信号処理部914、GPSモジュール906、非接触通信モジュール907、近距離無線通信モジュール908、デジタル放送受信モジュール909、外部メモリI/F部910、カメラ部913、各種センサ部917、外部入出力端子部918、キー操作部919、タッチパネル信号処理部920など各部を制御し、必要に応じて各種の演算を行う。
 また、制御・演算部904は、メモリ部905に記憶されている制御プログラムや本実施形態に係る表示制御プログラムを含む各種アプリケーションプログラムを実行する。そして、本実施形態の場合、表示制御プログラムを実行することにより、制御・演算部904は、タッチパネル面へのユーザ所望の操作入力位置を略々中心とした当該パネル面上の複数の方向にそれぞれ後述する文字などの所定の情報を割り当てる情報割当制御部として機能する。
 また、本実施形態の場合、表示制御プログラムを実行することにより、制御・演算部904は、タッチパネル面上へのユーザによる操作入力方向が前記複数の方向の何れかに略々一致した時、当該略々一致した方向に割り当てられた前記所定の情報をユーザが選択した情報として入力する情報入力制御部として機能する。その他、本実施形態に係る表示制御装置10は、時間や時刻を計測する時計部、各部へ電力を供給するバッテリとその電力をコントロールするパワーマネージメントICなど、一般的な携帯情報端末に設けられる各構成要素を備えていてもよい。
  <<2.むすび>>
 以上説明したように、本開示の実施形態によれば、コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成する表示制御部と、前記制御信号を前記表示部へ出力する出力部と、を備える、表示制御装置を提供することが可能である。かかる構成によれば、ユーザにより強い印象を与えながらコンテンツを閲覧させることが可能である。
 なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した表示制御装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成する表示制御部と、
 前記制御信号を前記表示部へ出力する出力部と、
 を備える、表示制御装置。
(2)
 前記表示制御装置は、コンテンツに関連付けられた優先度を取得する優先度取得部を備え、
 前記表示制御部は、前記優先度に応じて前記境界線を変動させる、
 前記(1)に記載の表示制御装置。
(3)
 前記優先度取得部は、ユーザにより入力された値を前記優先度として取得する、
 前記(2)に記載の表示制御装置。
(4)
 前記優先度取得部は、前記優先度を算出することにより前記優先度を取得する、
 前記(2)に記載の表示制御装置。
(5)
 前記表示制御部は、前記優先度に応じて前記境界線の変動に関する所定のパラメータを変化させる、
 前記(2)~(4)のいずれか一項に記載の表示制御装置。
(6)
 前記表示制御部は、前記優先度に応じて前記所定のパラメータとして前記境界線の変化速度を変化させる、
 前記(5)に記載の表示制御装置。
(7)
 前記変化速度は、前記境界線が有する波形状の周期である、
 前記(6)に記載の表示制御装置。
(8)
 前記変化速度は、前記境界線の振動速度である、
 前記(6)に記載の表示制御装置。
(9)
 前記表示制御部は、前記優先度に応じて前記所定のパラメータとして前記境界線の変動の基準位置を変化させる、
 前記(5)に記載の表示制御装置。
(10)
 前記表示制御部は、前記優先度に応じた速度で前記コンテンツにおける表示対象領域を前記コンテンツ内において移動させる、
 前記(5)に記載の表示制御装置。
(11)
 前記表示制御装置は、コンテンツに対する認識により前記コンテンツに含まれる所定の領域の位置を認識結果として取得する認識部を備え、
 前記表示制御部は、前記認識結果に応じて前記境界線を変動させる、
 前記(1)~(10)のいずれか一項に記載の表示制御装置。
(12)
 前記表示制御部は、前記所定の領域の位置に応じて前記コンテンツにおける表示対象領域の位置を変化させる、
 前記(11)に記載の表示制御装置。
(13)
 前記所定の領域は、前記コンテンツに所定のテキストデータが含まれる場合、前記所定のテキストデータが存在する領域である、
 前記(12)に記載の表示制御装置。
(14)
 前記所定の領域は、前記コンテンツに所定の物体が含まれる場合、前記所定の物体が存在する領域である、
 前記(12)に記載の表示制御装置。
(15)
 前記境界線は、前記コンテンツ表示領域と前記コンテンツ表示領域に隣接する他のコンテンツ表示領域との境界線である、
 前記(1)~(14)のいずれか一項に記載の表示制御装置。
(16)
 コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成することと、
 前記制御信号を前記表示部へ出力することと、
 を含む、表示制御方法。
(17)
 コンピュータを、
 コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成する表示制御部と、
 前記制御信号を前記表示部へ出力する出力部と、
 を備える表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。
 10(10A,10B) 表示制御装置
 20  読取装置
 161 表示画面
 162 選択表示モード表示領域
 163 選択キーワード表示領域
 111 表示制御部
 110 制御部
 112 優先度取得部
 113 認識部
 120 操作部
 130 記憶部
 140 通信部
 150 出力部
 160 表示部
 211 読取部
 212 読取部
 220 優先度入力部
 230 優先度出力部
 C1~C6 コンテンツ表示領域
 C31,C32 表示対象領域

Claims (17)

  1.  コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成する表示制御部と、
     前記制御信号を前記表示部へ出力する出力部と、
     を備える、表示制御装置。
  2.  前記表示制御装置は、コンテンツに関連付けられた優先度を取得する優先度取得部を備え、
     前記表示制御部は、前記優先度に応じて前記境界線を変動させる、
     請求項1に記載の表示制御装置。
  3.  前記優先度取得部は、ユーザにより入力された値を前記優先度として取得する、
     請求項2に記載の表示制御装置。
  4.  前記優先度取得部は、前記優先度を算出することにより前記優先度を取得する、
     請求項2に記載の表示制御装置。
  5.  前記表示制御部は、前記優先度に応じて前記境界線の変動に関する所定のパラメータを変化させる、
     請求項2に記載の表示制御装置。
  6.  前記表示制御部は、前記優先度に応じて前記所定のパラメータとして前記境界線の変化速度を変化させる、
     請求項5に記載の表示制御装置。
  7.  前記変化速度は、前記境界線が有する波形状の周期である、
     請求項6に記載の表示制御装置。
  8.  前記変化速度は、前記境界線の振動速度である、
     請求項6に記載の表示制御装置。
  9.  前記表示制御部は、前記優先度に応じて前記所定のパラメータとして前記境界線の変動の基準位置を変化させる、
     請求項5に記載の表示制御装置。
  10.  前記表示制御部は、前記優先度に応じた速度で前記コンテンツにおける表示対象領域を前記コンテンツ内において移動させる、
     請求項5に記載の表示制御装置。
  11.  前記表示制御装置は、コンテンツに対する認識により前記コンテンツに含まれる所定の領域の位置を認識結果として取得する認識部を備え、
     前記表示制御部は、前記認識結果に応じて前記境界線を変動させる、
     請求項1に記載の表示制御装置。
  12.  前記表示制御部は、前記所定の領域の位置に応じて前記コンテンツにおける表示対象領域の位置を変化させる、
     請求項11に記載の表示制御装置。
  13.  前記所定の領域は、前記コンテンツに所定のテキストデータが含まれる場合、前記所定のテキストデータが存在する領域である、
     請求項12に記載の表示制御装置。
  14.  前記所定の領域は、前記コンテンツに所定の物体が含まれる場合、前記所定の物体が存在する領域である、
     請求項12に記載の表示制御装置。
  15.  前記境界線は、前記コンテンツ表示領域と前記コンテンツ表示領域に隣接する他のコンテンツ表示領域との境界線である、
     請求項1に記載の表示制御装置。
  16.  コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成することと、
     前記制御信号を前記表示部へ出力することと、
     を含む、表示制御方法。
  17.  コンピュータを、
     コンテンツ表示領域と前記コンテンツ表示領域に隣接する領域との境界線が波形状を有し、かつ、前記境界線が時間の経過とともに変動して表示されるように表示部を制御するための制御信号を生成する表示制御部と、
     前記制御信号を前記表示部へ出力する出力部と、
     を備える表示制御装置として機能させるためのプログラムを記録した、コンピュータに読み取り可能な記録媒体。
PCT/JP2013/080604 2012-12-26 2013-11-12 表示制御装置、表示制御方法および記録媒体 WO2014103544A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13868177.0A EP2940563A4 (en) 2012-12-26 2013-11-12 DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD AND RECORDING MEDIUM
JP2014554226A JP6222111B2 (ja) 2012-12-26 2013-11-12 表示制御装置、表示制御方法および記録媒体
US14/654,444 US9542095B2 (en) 2012-12-26 2013-11-12 Display control device, display control method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012282034 2012-12-26
JP2012-282034 2012-12-26

Publications (1)

Publication Number Publication Date
WO2014103544A1 true WO2014103544A1 (ja) 2014-07-03

Family

ID=50993592

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080604 WO2014103544A1 (ja) 2012-12-26 2013-11-12 表示制御装置、表示制御方法および記録媒体

Country Status (5)

Country Link
US (1) US9542095B2 (ja)
EP (1) EP2940563A4 (ja)
JP (1) JP6222111B2 (ja)
CN (1) CN103902245A (ja)
WO (1) WO2014103544A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9996235B2 (en) 2015-10-15 2018-06-12 International Business Machines Corporation Display control of an image on a display screen
JP7223624B2 (ja) * 2019-04-12 2023-02-16 フォルシアクラリオン・エレクトロニクス株式会社 表示制御装置、及び表示制御方法
CN113485491B (zh) * 2021-05-20 2022-06-10 西安微媒软件有限公司 一种大棚智能检测控制模型及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034250A (ja) * 1999-07-19 2001-02-09 Mitsubishi Electric Corp 映像表示装置、映像表示方法および映像を表示するためのプログラムを記録した記録媒体
JP2006099733A (ja) * 2004-09-02 2006-04-13 Canon Inc 画面表示装置、画面表示方法及びプログラム
JP2010020616A (ja) * 2008-07-11 2010-01-28 Fujifilm Corp コンテンツ表示装置、コンテンツ表示方法およびプログラム
JP2011022811A (ja) 2009-07-16 2011-02-03 Sony Ericsson Mobile Communications Ab 情報端末、情報端末の情報提示方法及び情報提示プログラム
JP2012248034A (ja) * 2011-05-27 2012-12-13 Kyocera Corp 携帯端末装置、プログラムおよび表示制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08129472A (ja) * 1994-11-01 1996-05-21 Sharp Corp 表示装置
WO1998038831A1 (en) * 1997-02-28 1998-09-03 Starsight Telecast, Inc. Television control interface with electronic guide
US7822233B2 (en) * 2003-11-14 2010-10-26 Fujifilm Corporation Method and apparatus for organizing digital media based on face recognition
JP4730590B2 (ja) * 2005-05-23 2011-07-20 ソニー株式会社 制御装置および方法、情報処理装置および方法、並びにプログラム
KR101407100B1 (ko) * 2007-03-09 2014-06-16 엘지전자 주식회사 전자 기기 및 이를 이용한 아이템 표시 방법
JP4683110B2 (ja) * 2008-10-17 2011-05-11 ソニー株式会社 表示装置、表示方法及びプログラム
US9639265B2 (en) * 2010-09-03 2017-05-02 Microsoft Technology Licensing, Llc Distance-time based hit-testing for displayed target graphical elements
JP5648473B2 (ja) * 2010-12-27 2015-01-07 ソニー株式会社 電子機器、表示制御方法およびプログラム
US9477674B2 (en) * 2014-02-20 2016-10-25 Avid Technology, Inc. Merging and splitting of media composition files

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034250A (ja) * 1999-07-19 2001-02-09 Mitsubishi Electric Corp 映像表示装置、映像表示方法および映像を表示するためのプログラムを記録した記録媒体
JP2006099733A (ja) * 2004-09-02 2006-04-13 Canon Inc 画面表示装置、画面表示方法及びプログラム
JP2010020616A (ja) * 2008-07-11 2010-01-28 Fujifilm Corp コンテンツ表示装置、コンテンツ表示方法およびプログラム
JP2011022811A (ja) 2009-07-16 2011-02-03 Sony Ericsson Mobile Communications Ab 情報端末、情報端末の情報提示方法及び情報提示プログラム
JP2012248034A (ja) * 2011-05-27 2012-12-13 Kyocera Corp 携帯端末装置、プログラムおよび表示制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2940563A4

Also Published As

Publication number Publication date
CN103902245A (zh) 2014-07-02
JPWO2014103544A1 (ja) 2017-01-12
EP2940563A1 (en) 2015-11-04
JP6222111B2 (ja) 2017-11-01
US20150346997A1 (en) 2015-12-03
EP2940563A4 (en) 2016-08-17
US9542095B2 (en) 2017-01-10

Similar Documents

Publication Publication Date Title
CN107885533B (zh) 管理组件代码的方法及装置
CN111524501B (zh) 语音播放方法、装置、计算机设备及计算机可读存储介质
CN111970401B (zh) 一种通话内容处理方法、电子设备和存储介质
CN109240785A (zh) 一种设置语言的方法、终端及存储介质
CN112632445A (zh) 网页播放方法、装置、设备及存储介质
CN111081277B (zh) 音频测评的方法、装置、设备及存储介质
CN106777204B (zh) 图片数据的处理方法、装置及移动终端
CN110798327B (zh) 消息处理方法、设备及存储介质
US9633225B2 (en) Portable terminal and method for controlling provision of data
JP6222111B2 (ja) 表示制御装置、表示制御方法および記録媒体
CN111312207B (zh) 文本转音频方法、装置、计算机设备及存储介质
JP6003626B2 (ja) 表示制御装置、表示制御方法および記録媒体
CN110837557B (zh) 摘要生成方法、装置、设备及介质
CN110377914B (zh) 字符识别方法、装置及存储介质
CN111368136A (zh) 歌曲识别方法、装置、电子设备及存储介质
CN108763521B (zh) 存储歌词注音的方法和装置
CN111145723B (zh) 转换音频的方法、装置、设备以及存储介质
CN114360494A (zh) 韵律标注方法、装置、计算机设备及存储介质
CN109829067B (zh) 音频数据处理方法、装置、电子设备及存储介质
CN108733831B (zh) 一种对词库进行处理的方法及装置
CN110750675A (zh) 歌词分享方法及装置、存储介质
CN111292773A (zh) 音视频合成的方法、装置、电子设备及介质
CN113593521B (zh) 语音合成方法、装置、设备及可读存储介质
CN114489559B (zh) 音频播放方法、音频播放的处理方法及装置
CN114296620A (zh) 信息交互方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13868177

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014554226

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013868177

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14654444

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE