BR102013030684A2 - Método e aparelho para processamento de conteúdo - Google Patents

Método e aparelho para processamento de conteúdo Download PDF

Info

Publication number
BR102013030684A2
BR102013030684A2 BRBR102013030684-3A BR102013030684A BR102013030684A2 BR 102013030684 A2 BR102013030684 A2 BR 102013030684A2 BR 102013030684 A BR102013030684 A BR 102013030684A BR 102013030684 A2 BR102013030684 A2 BR 102013030684A2
Authority
BR
Brazil
Prior art keywords
content
master
input
control unit
linked
Prior art date
Application number
BRBR102013030684-3A
Other languages
English (en)
Inventor
Jinho Choi
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of BR102013030684A2 publication Critical patent/BR102013030684A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Método e aparelho para processamento de conteúdo métodos e aparelhos para processamento de conteúdo são providos. Uma pluralidade de conteúdos é exibida. É determinado se uma entrada é recebida para movimento de um conteúdo selecionado da pluralidade de conteúdos para um conteúdo alvo da pluralidade de conteúdos. O conteúdo alvo é configurado como um conteúdo mestre, quando a entrada é recebida. O conteúdo selecionado é ligado ao conteúdo mestre. Um indicador do conteúdo selecionado é exibido no conteúdo mestre. É determinado se uma entrada é recebida para separação do conteúdo do conteúdo mestre. Uma ligação entre o conteúdo e o conteúdo mestre é liberada, quando a entrada é recebida. O indicador do conteúdo é removido do conteúdo mestre.

Description

MÉTODO E APARELHO PARA PROCESSAMENTO DE CONTEÚDO ANTECEDENTES DA INVENÇÃO 1. Campo da Invenção [001] A presente invenção se refere geralmente a um método e a um aparelho para processamento de conteúdo e, mais particularmente, a um método melhorado para processamento integral de conteúdos correlacionados e a um terminal móvel correspondente. 2. Descrição da Técnica Relacionada [002] Os terminais móveis geralmente são capazes de processarem vários conteúdos e executarem funções de telefonia. Os terminais móveis também podem ser capazes de exibirem uma pluralidade de conteúdos em uma única tela de acordo com um padrão de uso de conteúdo do usuário, e seletivamente processando os conteúdos. Especificamente, um terminal móvel pode ser provido com um aplicativo visualizador para a exibição da pluralidade de conteúdos na tela em uma vista lado a lado ou de portfólio. Os conteúdos que são simultaneamente exibidos na tela podem ser de tipos diferentes, tais como, por exemplo, um conteúdo de áudio, um conteúdo de video, fotos, documentos e mapas. [003] Certos conteúdos que são simultaneamente exibidos na tela podem ser correlacionados. Por exemplo, um conteúdo correlacionado pode incluir fotos tiradas em uma viagem e notas de voz e/ou de texto sobre as fotos. Uma vez que as fotos e as notas de voz e/ou texto são um conteúdo correlacionado, é preferível gerenciar integralmente estes conteúdos. Contudo, os métodos de gerenciamento de conteúdo convencionais exibem conteúdos correlacionados na tela em um estilo de layout de forma livre sem a provisão de uma informação referente a uma relação entre os conteúdos correlacionados.
SUMÁRIO DA INVENÇÃO [004] A invenção acima foi feita para se dirigir pelo menos aos problemas acima e/ou às desvantagens, e para a provisão pelo menos das vantagens descritas abaixo. Assim sendo, um aspecto da presente invenção provê um aparelho e um método para a exibição e o processamento integralmente de conteúdos correlacionados dentre os conteúdos armazenados no terminal móvel. [005] De acordo com um aspecto da presente invenção, é provido um método para processamento de conteúdo. Uma pluralidade de conteúdos é exibida. É determinado se uma entrada é recebida para movimento de um conteúdo selecionado da pluralidade de conteúdos para um conteúdo alvo da pluralidade de conteúdos. 0 conteúdo alvo é configurado como um conteúdo mestre, quando uma entrada é recebida. O conteúdo selecionado é ligado ao conteúdo mestre. Um indicador do conteúdo selecionado é exibido no conteúdo mestre. [006] De acordo com um outro aspecto da presente invenção, um método para processamento de conteúdo é provido. Um indicador de conteúdo ligado ao conteúdo mestre é exibido no conteúdo mestre. É determinado se uma entrada é recebida para separação do conteúdo do conteúdo mestre. Uma ligação entre o conteúdo e o conteúdo mestre é liberada, quando a entrada é recebida. O indicador do conteúdo é removido do conteúdo mestre. [007] De acordo com ainda um outro aspecto da presente invenção, é provido um aparelho que inclui um visor que exibe uma pluralidade de conteúdos, uma unidade de entrada que recebe uma entrada para processamento de conteúdo, e uma memória que armazena uma informação de ligação de conteúdos ligados. O aparelho também inclui uma unidade de controle que determina se uma entrada é recebida para movimento de um conteúdo selecionado da pluralidade de conteúdos para um conteúdo alvo da pluralidade de conteúdos, configura o conteúdo alvo como um conteúdo mestre, quando a entrada é recebida, liga o conteúdo selecionado ao conteúdo mestre, e exibe o conteúdo mestre com um indicador do conteúdo selecionado. [008] De acordo com um aspecto adicional da presente invenção, um artigo de fabricação para processamento de conteúdo é provido, que inclui um meio que pode ser lido em máquina que contém um ou mais programas, os quais, quando executados, implementam as etapas de: exibição de uma pluralidade de conteúdos; determinação quanto a se uma entrada é recebida para movimento de um conteúdo selecionado da pluralidade de conteúdos para um conteúdo alvo da pluralidade de conteúdos; configuração do conteúdo alvo como um conteúdo mestre, quando a entrada for recebida; ligação do conteúdo selecionado ao conteúdo mestre; e exibição de um indicador do conteúdo selecionado no conteúdo mestre.
BREVE DESCRIÇÃO DOS DESENHOS [009] Os aspectos, recursos e vantagens acima e outros da presente invenção serão mais evidentes a partir da descrição detalhada a seguir, quando tomada em conjunto com os desenhos associados, nos quais: [010] a figura 1 é um diagrama de blocos que ilustra uma configuração de um terminal móvel, de acordo com uma modalidade da presente invenção; [011] a figura 2 é um fluxograma que ilustra uma metodologia de processamento de conteúdo no terminal móvel, de acordo com uma modalidade da presente invenção; [012] a figura 3 é um diagrama que ilustra telas exibidas no terminal móvel na metodologia da figura 2, de acordo com uma modalidade da presente invenção; [013] a figura 4 é um fluxograma que ilustra uma metodologia de processamento de item de conteúdo no terminal móvel, de acordo com uma modalidade da presente invenção; [014] as figuras 5A e 5B são diagramas que ilustram telas exibidas no terminal móvel na metodologia da figura 4, de acordo com uma modalidade da presente invenção; [015] a figura 6 é um diagrama que ilustra uma configuração de uma janela de vista detalhada de conteúdo mestre para uso na metodologia de processamento de conteúdo, de acordo com uma modalidade da presente invenção; [016] a figura 7 é um fluxograma que ilustra uma metodologia para separação de conteúdo ligado do conteúdo mestre e edição do conteúdo selecionado, de acordo com uma modalidade da presente invenção; [017] a figura 8 é um fluxograma que ilustra uma metodologia de separação de conteúdo ligado a partir da figura 7, de acordo com uma modalidade da presente invenção; [018] as figuras 9A e 9B são diagramas que ilustram telas exibidas no terminal móvel na metodologia de separação de conteúdo ligado da figura 9, de acordo com uma modalidade da presente invenção; [019] a figura 10 é um fluxograma que ilustra uma metodologia de edição de conteúdo separado da figura 7, de acordo com uma modalidade da presente invenção; e [020] as figuras 11A a 11E são diagramas ilustrando telas exibidas no terminal móvel na metodologia de edição de conteúdo separado da figura 10, de acordo com uma modalidade da presente invenção.
DESCRIÇÃO DETALHADA DE MODALIDADES DA PRESENTE INVENÇÃO [021] As modalidades da presente invenção são descritas em detalhes com referência aos desenhos associados. Os mesmos componentes ou similares podem ser designados pelos mesmos números de referência ou similares, embora eles sejam ilustrados em desenhos diferentes. As descrições detalhadas de construções ou processos conhecidos na técnica podem ser omitidas, para se evitar obscurecer o assunto da presente invenção. [022] As modalidades da presente invenção proveem um aparelho e um método para exibição e processamento de uma pluralidade de conteúdos correlacionados de tipos diferentes como um conteúdo integrado. O conteúdo ao qual outros conteúdos são ligados é referido como um conteúdo mestre, e o conteúdo mestre é selecionado pelo usuário. Os conteúdos correlacionados podem ser ligados ao conteúdo mestre. O terminal móvel é capaz de prover a um visualizador, tendo uma vista lado a lado ou de portfólio, para mostrar os conteúdos em uma tela. O visualizador mostra os conteúdos na forma de miniaturas e, se uma miniatura for selecionada, uma vista detalhada do conteúdo selecionado será provida. Em uma modalidade da presente invenção, o terminal móvel é capaz de integrar um conteúdo correlacionado tendo o mesmo assunto usando um misturador de conteúdo para revisão integral dos conteúdos. O conteúdo mestre é capaz de exibir e processar vários formatos de conteúdo associados aos conteúdos correlacionados. [023] O terminal móvel vantajosamente mistura uma pluralidade de conteúdos correlacionados em um conteúdo integrado, checa um conteúdo individual sem entrar em um modo de revisão de conteúdo individual ou navegar por todos os conteúdos ligados inteiramente, e organiza os conteúdos distribuídos em grupos simplificados na tela. [024] A figura 1 é um diagrama de blocos que ilustra uma configuração do terminal móvel de acordo com uma modalidade da presente invenção. O terminal móvel pode ser concretizado como qualquer tipo de dispositivo digital, incluindo, por exemplo, um telefone móvel, tais como um smartphone, um tocador de MP3, um computador pessoal (PC) tablet e um computador de mesa. [025] Com referência à figura 1, uma unidade de comunicação 120 do terminal móvel é responsável por uma comunicação por rádio com uma estação base ou um outro terminal. A unidade de comunicação 120 pode incluir, por exemplo, um transmissor para conversão ascendente de frequência e amplificando um sinal a ser transmitido, e um receptor para amplificação de ruído baixo e uma conversão descendente de frequência de um sinal recebido. A unidade de comunicação 120 também pode incluir um modulador e um demodulador. O modulador executa uma modulação para a geração de um sinal de modulação para o transmissor, e o demodulador executar uma demodulação no sinal recebido pelo receptor. O modulador / demodulador pode modular / demodular um sinal de pelo menos um dentre evolução de longo prazo (LTE), acesso múltiplo com divisão de código de banda larga (WCDMA), sistema global para comunicação móvel (GSM), fidelidade sem fio (Wi-Fi), banda larga sem fio (WiBro), comunicação de campo próximo (NFC), e Bluetooth. Em uma modalidade da presente invenção, é assumido que a unidade de comunicação 120 inclui módulos de comunicação de LTE, Wi-Fi e Bluetooth. [026] Uma unidade de controle 100 do terminal móvel controla as operações em geral do terminal móvel. Δ unidade de controle 100 controla um modo de visualizador para exibição de uma pluralidade de conteúdos em uma única tela, liga os conteúdos selecionados ao conteúdo mestre, e exibe o conteúdo mestre com indicadores representando os conteúdos ligados. [027] Uma memória 110 do terminal móvel pode incluir uma memória de programa para o armazenamento de um sistema operacional (OS) do terminal móvel e um programa de acordo com uma modalidade da presente invenção. A memória 110 também pode incluir uma memória de dados para armazenamento de tabelas para uso na operação do terminal móvel e dados gerados pelos aplicativos rodando no terminal móvel. De acordo com uma modalidade da presente invenção, a memória 110 armazena uma informação de ligação sobre conteúdos que são integrados com o conteúdo mestre segundo o controle da unidade de controle 100. [028] Uma unidade de exibição 130 do terminal móvel exibe os aplicativos rodando atualmente e/ou conteúdos segundo o controle da unidade de controle 100. A unidade de exibição 130 pode ser concretizada como um vetor de deslocamento (LCD) ou um diodo de emissão de luz orgânico (OLED). Uma primeira unidade de entrada 140 pode ser concretizada como uma tela de toque capacitiva ou resistiva para a geração de uma informação sobre a posição de um toque (por exemplo, um toque de dedo) para a unidade de controle 100. Uma segunda unidade de entrada 150 pode incluir, por exemplo, um calço de sensor de sensor eletromagnético (EMR) para a detecção de um toque de caneta e gerar um sinal de toque correspondente para a unidade de controle 100. A unidade de exibição 130, a primeira unidade de entrada 140 e a segunda unidade de entrada 150 podem ser integradas em um único módulo. [029] No terminal móvel descrito acima, a unidade de controle 100 é capaz de controlar a unidade de exibição 130 para exibição de tipos diferentes de conteúdo. O visualizador exibe uma pluralidade de conteúdos em uma vista lado a lado. Uma entrada de usuário que seleciona e move certo conteúdo para um outro conteúdo (isto é, um conteúdo mestre), é detectada pela unidade de controle 100 através de uma dentre as primeira e segunda unidades de entrada 140 e 150. Os conteúdos selecionados são ligados ao conteúdo mestre, e um indicador dos conteúdos ligados ao conteúdo mestre é exibido no conteúdo mestre. [030] Na descrição a seguir, é assumido que o indicador é representado por um icone indicando o tipo do conteúdo. Também é assumido que a entrada de usuário é uma operação de arrastar e soltar. Especificamente, o usuário pode introduzir um toque para a seleção do conteúdo a ser integrado, e arrastar o objeto selecionado em uma posição do conteúdo mestre antes de liberar o toque. A unidade de controle 100 detecta a posição tocada para a seleção do conteúdo e move o conteúdo selecionado de acordo com a ação de arrastar. O icone do conteúdo selecionado é exibido na região de exibição do conteúdo mestre. 0 conteúdo selecionado é armazenado na memória 110 conforme ligado ao conteúdo mestre, de modo que o conteúdo ligado desapareça da tela da unidade de exibição 130. Se múltiplos conteúdos forem ligados, os icones dos conteúdos ligados ao conteúdo mestre serão gerados e exibidos sequencialmente, e a informação de conteúdo armazenada na memória 110 também será ligada sequencialmente. [031] Se o conteúdo mestre ao qual pelo menos um conteúdo é ligado for selecionado, será detectado pela unidade de controle 100 através de uma das primeira e segunda unidades de entrada 140 e 150, e a unidade de controle 100 controla a unidade de exibição 130 para exibir uma informação detalhada sobre os conteúdos ligados ao conteúdo mestre. A informação detalhada sobre os conteúdos é exibida como alinhada a partir do topo para o fundo, ou da esquerda para a direita, em série, e o usuário é capaz de selecionar um próximo conteúdo ou um conteúdo prévio para exibição da informação detalhada nele em uma vista detalhada. [032] Os conteúdos ligados ao conteúdo mestre podem ser separados do conteúdo mestre. Se o usuário selecionar um icone exibido no conteúdo mestre e arrastar e soltar o icone selecionado fora do conteúdo mestre, será detectado pela unidade de controle 100 através de uma dentre as primeira e segunda unidades de entrada 140 e 150. A unidade de controle 100 exibe uma imagem em miniatura do conteúdo correspondente ao icone selecionado na posição de soltar. A unidade de controle 100 libera a ligação entre o conteúdo correspondente e o conteúdo mestre, e controla a unidade de exibição 130, de modo que o icone do conteúdo correspondente seja removido do conteúdo mestre. [033] Conforme descrito acima, o método de processamento de conteúdo, de acordo com uma modalidade da presente invenção, liga pelo menos um conteúdo ao conteúdo mestre em resposta a uma entrada de usuário, tal como, por exemplo, uma operação de arrastar e soltar, e exibe o icone do conteúdo ligado no conteúdo mestre. Se o conteúdo mestre for selecionado (por exemplo, tocado), a unidade de controle 100 controlará a unidade de exibição 130 para exibir uma vista detalhada dos conteúdos ligados para o conteúdo mestre, de modo que o usuário possa rever os conteúdos ligados ao conteúdo mestre. A unidade de controle 100 é capaz de controlar a exibição do conteúdo ligado conforme alinhado em uma ordem de integração. A unidade de controle 100 também é capaz de exibir ícones dos conteúdos ligados conforme alinhado na ordem de integração. Por exemplo, a unidade de controle 100 é capaz de exibir ícones de tipo de arquivo de imagens em miniatura em série, empilhados da direita para a esquerda. Se o conteúdo mestre for selecionado, a unidade de controle 100 controlará a exibição de uma tela de vista detalhada dos conteúdos ligados ao conteúdo mestre. O conteúdo mestre é colocado na primeira posição (por exemplo, na posição mais no topo em um modo de retrato, e uma posição mais à esquerda em um modo de paisagem) seguido pelos conteúdos em uma ordem sequencial em que eles foram ligados (por exemplo, do topo para o fundo no modo de retrato). [034] A figura 2 é um fluxograma que ilustra a metodologia de processamento de conteúdo do terminal móvel, de acordo com uma modalidade da presente invenção. A figura 3 é um diagrama que ilustra telas exibidas no terminal móvel na metodologia da figura 2, de acordo com uma modalidade da presente invenção. [035] Com referência às figuras 2 e 3, se uma entrada de usuário for detectada, a unidade de controle 100 determinará se a entrada de usuário é para uma requisição de visualizador, na etapa 211. Especificamente, a unidade de controle 100 determina se a entrada de usuário é uma requisição para exibição de uma vista lado a lado ou de portfólio. Se a entrada de usuário não for para a requisição de visualizador, uma função correspondente à entrada de usuário será executada, na etapa 231. Se a entrada de usuário for para uma requisição de visualizador, a requisição de visualizador será executada e a unidade de exibição 130 exibirá uma pluralidade de conteúdos em uma tela de visualizador, na etapa 213. O conteúdo pode ser exibido na forma de imagens em miniatura em um modo de vista em miniatura. O conteúdo também pode ser distribuído na tela da unidade de exibição 130, de modo a ser rearranjado em resposta a uma entrada, tal como, por exemplo, o toque do usuário. O conteúdo pode ser de tipos diferentes de conteúdo. Especificamente, o conteúdo pode incluir um conteúdo de multimídia (tal como, por exemplo, um conteúdo de áudio e um conteúdo de vídeo), fotos, memorandos, documentos, etc. Uma primeira tela 310 da figura 3 exibe conteúdos, na etapa 213. O conteúdo de foto 311, o conteúdo de voz 313, o conteúdo de memorando 315, o conteúdo de música 316 e os conteúdos 317 e 318 são conteúdos de imagens em miniatura. [036] Alguns ou todos os conteúdos 311 a 318 podem ser correlacionados como tendo o mesmo assunto. É preferivel gerenciar integralmente um conteúdo correlacionado. A unidade de controle 100 configura um dos conteúdos correlacionados como um conteúdo mestre com base em uma interação de usuário, e liga o outro conteúdo correlacionado ao conteúdo mestre. O conteúdo mestre é exibido juntamente com icones dos conteúdos ligados. É assumido que a interação de usuário seja uma operação de arrastar e soltar. [037] Na etapa 215 da figura 2, é determinado se uma requisição de integração de conteúdo é detectada. Se uma requisição de integração de conteúdo não for detectada, a metodologia da figura 2 prosseguirá para a etapa 221, a qual é descrita em maiores detalhes abaixo. Na tela 310 da figura 3, se o usuário introduzir um toque para selecionar o conteúdo 313 e arrastar e soltar o conteúdo 313 sobre uma posição do conteúdo 311, a unidade de controle 100 interpretará a interação de usuário como uma requisição de integração de conteúdo, na etapa 215. [038] Se a requisição de integração de conteúdo for detectada, o conteúdo selecionado será ligado ao conteúdo mestre, na etapa 217 da figura 2. Com respeito à figura 3, a unidade de controle 100 configura o item de conteúdo 311 como o conteúdo mestre, liga o conteúdo solto 313 ao conteúdo mestre 311. Na etapa 219, um indicador de conteúdo ligado ao conteúdo mestre é exibido. Com respeito à figura 3, um ícone do conteúdo ligado 313 é exibido no conteúdo mestre 311. A unidade de controle 100 remove o conteúdo ligado 313 de sua posição original no visualizador. [039] Se o usuário introduzir um toque para selecionar o conteúdo 315 e arrastar e soltar o conteúdo selecionado 315 sobre o conteúdo mestre 311, a unidade de controle ligará o conteúdo solto 315 ao conteúdo mestre 311 e exibirá o ícone do conteúdo ligado 315 no conteúdo mestre 311 . [040] Quando uma pluralidade de conteúdos é exibida na tela da unidade de exibição 130, conforme mostrado na tela 310 da figura 3, se uma interação de usuário para ligação ao conteúdo mestre for detectada, a unidade de controle 100 ligará os conteúdos selecionados 313 e 315 ao conteúdo mestre 311 e exibirá os ícones 321 e 323 representando os respectivos conteúdos ligados 313 e 315, conforme mostrado na tela 320. Os conteúdos podem ter metadados diferentes, de acordo com o tipo de conteúdo, conforme listado abaixo na Tabela 1.
Tabela 1 [041] A unidade de controle 100 liga os conteúdos 313 e 315 ao conteúdo mestre 311 e remove os conteúdos 313 e 315 de sua localização original, conforme mostrado na tela 320 da figura 3. 0 conteúdo mestre 311 é provido com uma região de exibição de icone 325 para mostrar icones de conteúdo ligado. A unidade de controle 100 pode empilhar os icones na região de exibição de icone 325. A região de exibição de icone 325 do conteúdo mestre pode ser configurada de modo que os itens de conteúdo ligado sejam dispostos da esquerda para a direita em série, conforme mostrado na tela 320. [042] Através da metodologia da figura 2, o conteúdo mestre 311 em um estado denotado pelo número de referência 340, é atualizado com os icones de conteúdos ligados de modo a ser exibido em um estado denotado pelo número de referência 350. A unidade de controle 100 pode exibir o conteúdo mestre para ser distinto de outro conteúdo com indicadores dos tipos e número de conteúdo ligado. Quando múltiplos conteúdos são ligados, os icones correspondentes podem ser dispostos em uma ordem ligada com uma indicação do número de icones de conteúdo ligado por tipo de conteúdo. Se qualquer um dos icones exibidos na região de exibição de icone 325 for selecionado por uma entrada de toque (ou um gesto de pairar), a unidade de controle detectará a entrada por meio de uma dentre as primeira e segunda unidades de entrada 140 e 150 e exibirá uma breve informação sobre o conteúdo representado pelo icone selecionado. A breve informação do conteúdo pode ser os metadados mostrados na Tabela 1. [043] Com referência de volta à figura 2, é determinado se o visualizador está terminado, na etapa 221. Se o visualizador estiver terminado, a unidade de controle 100 terminará o procedimento de geração de conteúdo mestre. Se o visualizador não estiver terminado, a metodologia da figura 2 retornará para a etapa 213. [044] Se o usuário selecionar o conteúdo mestre configurado como descrito com referência às figuras 2 e 3, a unidade de controle 100 exibirá uma janela de vista detalhada 330 mostrando um item de conteúdo mestre 331 e itens de conteúdo ligado 333. Se um item de conteúdo for selecionado a partir da janela de vista detalhada, o controlador 100 executará um aplicativo correspondente ao item de conteúdo selecionado para tocar o conteúdo. [045] A figura 4 é um fluxograma que ilustra uma metodologia de processamento de item de conteúdo no terminal móvel de acordo com uma modalidade da presente invenção. As figuras 5A e 5B são diagramas que ilustram telas do terminal móvel exibidas na metodologia da figura 4, de acordo com uma modalidade da presente invenção. [046] Com referência às figuras 4, 5A e 5B, se uma entrada de usuário for detectada, a unidade de controle 180 determina se a entrada de usuário é uma requisição de visualizador, na etapa 411. Se a entrada de usuário não for uma requisição de visualizador, uma função correspondente da entrada de usuário será realizada, na etapa 431. Se a entrada de usuário for uma requisição de visualizador, a requisição de visualizador será executada e a unidade de exibição 130 exibirá uma pluralidade de itens de conteúdo em uma tela de visualizador, na etapa 413. [047] Na etapa 415, é determinado se uma requisição de integração de conteúdo é detectada. Se uma requisição de integração de conteúdo não for detectada, a metodologia da figura 4 prosseguirá para a etapa 421, a qual é descrita em maiores detalhes abaixo. Se uma entrada de usuário para movimento de um conteúdo for detectada pela unidade de controle 100, será determinado que uma v é detectada, e o conteúdo correspondente será ligado ao item de conteúdo mestre, na etapa 417. Um icone do conteúdo ligado é exibido na região de exibição de icone do conteúdo mestre, na etapa 419 . [048] Com referência às figuras 5A e 5B, se um conteúdo 513 for arrastado e solto sobre o conteúdo 511, quando os conteúdos forem exibidos na tela 510 da unidade de exibição 130, a unidade de controle 100 detectará a ação de arrastar e soltar como uma requisição de integração de conteúdo. A unidade de controle 100 configura o conteúdo localizado na posição de soltar como o conteúdo mestre e liga o conteúdo solto 513 ao conteúdo mestre 511. A informação ligada pode incluir um endereço do conteúdo 513 armazenado na memória 110 e os metadados, conforme listado na Tabela 1. A unidade de controle exibe um icone 521 do conteúdo 513 em uma região de exibição de icone do conteúdo mestre 511, conforme mostrado na tela 520, e remove o conteúdo 513 de sua posição original na tela da unidade de exibição 130. [049] Se o usuário arrastar e soltar um conteúdo 515 sobre o conteúdo mestre 511, a unidade de controle ligará o conteúdo solto ao conteúdo mestre 511, exibirá um icone 531 do conteúdo ligado 515 no conteúdo mestre 511, conforme mostrado na tela 530 da figura 5B, e removerá o conteúdo 515 de sua posição original na tela da unidade de exibição 130, através das etapas 413 a 419 da figura 4. [050] De modo similar, se o usuário arrastar e soltar um conteúdo 517 no conteúdo mestre 511, a unidade de controle 100 ligará o conteúdo solto 517 ao conteúdo mestre 511, exibirá um icone 541 do conteúdo ligado 517 no conteúdo mestre 511, conforme mostrado na tela 540 da figura 5B, e removerá o conteúdo 517 de sua posição original na tela da unidade de exibição 130, através das etapas 413 a 419 da figura 4. [051] Conforme descrito acima, se o usuário prover uma entrada para movimento de conteúdo, a unidade de controle 100 ligará o conteúdo correspondente ao conteúdo mestre, exibirá o ícone do conteúdo ligado no conteúdo mestre, e removerá o conteúdo ligado de sua posição original na tela da unidade de exibição 130. [052] O usuário também pode mover o conteúdo mestre. Se o usuário arrastar e soltar o conteúdo mestre sobre um outro conteúdo, a unidade de controle configurará o conteúdo no qual o conteúdo mestre foi solto como o novo conteúdo mestre e ligará o conteúdo mestre antigo ao conteúdo mestre novo. A unidade de controle 100 controla a exibição do icone do conteúdo original do conteúdo mestre antigo no conteúdo mestre novo. 0 icone do conteúdo mestre antigo pode ser exibido para ser distinto de outro icone de conteúdo único na cor e/ou no tamanho. [053] Com referência de volta à figura 4, na etapa 421, é determinado se o conteúdo mestre é selecionado. Se o conteúdo mestre não for selecionado, a metodologia prosseguirá para a etapa 425, a qual é descrita em maiores detalhes abaixo. A unidade de controle 100 detecta a seleção através de uma dentre as primeira e segunda unidades de entrada 140 e 150. Se o conteúdo mestre for selecionado, a unidade de controle 100 exibirá uma janela de vista detalhada do conteúdo mestre e dos conteúdos ligados, na etapa 423. [054] Com referência de novo às figuras 5A e 5B, um conteúdo selecionado pode ser o conteúdo mestre tendo uma pluralidade de conteúdos ligados ou um conteúdo único. Na tela 510 da figura 5A, o conteúdo 511 é na forma de um conteúdo único. Se o conteúdo 511 for selecionado, a unidade de controle 100 exibirá uma janela de vista detalhada 551 do conteúdo selecionado 511, conforme mostrado na tela 550. A janela de vista detalhada 551 mostra uma informação detalhada e metadados do conteúdo selecionado 511. Quando o conteúdo 511 é selecionado na forma de conteúdo mestre, conforme mostrado na tela 520, a unidade de controle 100 exibe a janela de vista detalhada mostrando o item de conteúdo original 551 e o item de conteúdo ligado 561, conforme mostrado na tela 560. Se o conteúdo 511, ao qual os conteúdos 513 e 515 são ligados, conforme mostrado na tela 530 da figura 5B, for selecionado, a unidade de controle 100 exibirá uma janela de vista detalhada mostrando o conteúdo original 551 e os conteúdos ligados 561 e 571, conforme mostrado na tela 570 da figura 5B. Se o conteúdo 511, ao qual os conteúdos 513, 515 e 517 forem ligados, conforme mostrado na tela 540 da figura 5B, a unidade de controle 100 exibirá uma janela de vista detalhada mostrando o conteúdo original 551 e os conteúdos ligados 561, 571 e 581, conforme mostrado na tela 580 da figura 5B. [055] Os conteúdos são ligados ao conteúdo mestre na ordem de seleção de conteúdo. A janela de vista detalhada mostra o conteúdo original do conteúdo mestre no topo da mesma e os outros conteúdos subsequentes ao conteúdo mestre dispostos na ordem ligada. Se o conteúdo mestre for selecionado, a unidade de controle 100 exibirá a janela de vista detalhada mostrando o conteúdo original do conteúdo mestre e os conteúdos ligados com base no modo de exibição da unidade de exibição 130. Em um modo de retrato, a unidade de controle 100 exibe a janela de vista detalhada na qual os conteúdos mestre e ligados são dispostos a partir do topo para o fundo na ordem ligada, conforme mostrado nas telas 550, 560, 570 e 580. O conteúdo mestre 551 é posicionado no topo da janela de vista detalhada, e os conteúdos ligados se seguem ao conteúdo mestre na ordem ligada. Em um modo de paisagem, a unidade de controle 100 exibe a janela de vista detalhada na qual os conteúdos mestre e ligados são dispostos da esquerda para a direita na ordem ligada. O conteúdo mestre é posicionado no lado mais à esquerda da janela de vista detalhada, e os conteúdos ligados se seguem ao conteúdo mestre na ordem ligada. [056] Se o usuário introduzir um comando de rolagem na tela da unidade de exibição 130, enquanto se exibe a janela de vista detalhada do conteúdo mestre, a unidade de controle 100 detectará isto através de uma dentre as primeira e segunda unidades de entrada 140 e 150 e rolará a janela de vista detalhada em uma direção vertical (ou em uma direção horizontal), de acordo com uma direção da entrada de rolagem detectada. Quando o conteúdo mestre está ligado a um outro conteúdo mestre, o usuário pode manipular comandos para a exibição da janela de vista detalhada do conteúdo mestre ligado pela seleção dele na janela de vista detalhada do outro conteúdo mestre. [057] Com referência de volta à figura 4, na etapa 425, é determinado se um conteúdo na janela de vista detalhada é selecionado. Se o usuário não selecionar o conteúdo na janela de vista detalhada, a metodologia prosseguirá para a etapa 429, a qual é descrita em maiores detalhes abaixo. Se o usuário selecionar um certo conteúdo na janela de vista detalhada do conteúdo mestre, a unidade de controle 100 executará um aplicativo correspondente ao conteúdo selecionado, na etapa 427. Especificamente, se um conteúdo for selecionado na janela de vista detalhada mostrando os conteúdos ligados, a unidade de controle 100 executará o aplicativo correspondente ao conteúdo selecionado. É determinado se a metodologia é para terminar, na etapa 429. Se a metodologia for para continuar, ela retornará para a etapa 413. Se a metodologia for para terminar, ela terminará após a etapa 429. [058] A figura 6 é um diagrama que ilustra uma configuração de uma janela de vista detalhada de conteúdo mestre par auso na metodologia de processamento de conteúdo, de acordo com uma modalidade da presente invenção. 0 conteúdo de áudio 620, o conteúdo de memorando 630, o conteúdo de música 640, o conteúdo de mapa 650 e o conteúdo de video 660 são ligados ao conteúdo mestre 610. Assim, se o conteúdo mestre 610 for selecionado os conteúdos ligados 620 a 660 serão exibidos na janela de vista detalhada, em série. O usuário navega pelos conteúdos ligados através da entrada de rolagem, conforme descrito acima. Se um dos conteúdos ligados for selecionado na janela de vista detalhada, a unidade de controle 100 executará um aplicativo correspondente ao conteúdo selecionado. De acordo com uma modalidade da presente invenção, se um conteúdo for selecionado a partir da janela de vista detalhada do conteúdo mestre, o terminal móvel chamará o aplicativo correspondente ao conteúdo selecionado e o aplicativo processará o conteúdo selecionado. [059] Conforme descrito acima, o método de processamento de conteúdo e o aparelho do terminal móvel são capazes de configurarem um dos conteúdos correlacionados como o conteúdo mestre e gerenciarem integralmente os conteúdos ligados ao conteúdo mestre. O conteúdo ligado pode ser separado do conteúdo mestre, de modo a ser editado independentemente. [060] A figura 7 é um fluxograma que ilustra uma metodologia para separação do conteúdo ligado do conteúdo mestre e edição do conteúdo separado, de acordo com uma modalidade da presente invenção. A figura 8 é um fluxograma que ilustra uma metodologia de separação de conteúdo ligado a partir da figura 7, de acordo com uma modalidade da presente invenção. As figuras 9A e 9B são diagramas que ilustram telas exibidas no terminal móvel na metodologia de separação de conteúdo da figura 8, de acordo com uma modalidade da presente invenção. A figura 10 é um fluxograma que ilustra uma metodologia de edição de conteúdo separado da figura 7, de acordo com uma modalidade da presente invenção. As figuras 11A a 11E são diagramas que ilustram telas exibidas no terminal móvel da metodologia de edição de conteúdo da figura 10, de acordo com uma modalidade da presente invenção. [061] Com referência às figuras 7, 8, 9A, 9B, 10 e 11A a 11E, a unidade de controle 100 monitora para detectar uma entrada de usuário para configuração de um conteúdo mestre. Especificamente, na etapa 711 da figura 7, é determinado se uma entrada de usuário recebida é uma requisição de integração de conteúdo mestre. Se a entrada de usuário for a requisição de integração de conteúdo mestre, a unidade de controle 100 configurará um dos conteúdos selecionados a partir de uma pluralidade de conteúdos exibida na tela como o conteúdo mestre, na etapa 713. [062] Se a entrada de usuário não for a requisição de integração de conteúdo mestre, a unidade de controle 100 determinará se a entrada de usuário é uma requisição de separação de conteúdo, na etapa 721. Se a entrada de usuário for a requisição de separação de conteúdo, a unidade de controle liberará uma ligação entre o conteúdo selecionado e o conteúdo mestre, na etapa 723, conforme descrito em detalhes abaixo com referência à figura 8. A unidade de controle 100 exibe o conteúdo separado na tela da unidade de exibição 130. [063] Com referência à figura 8, se o usuário introduzir um toque em um dos ícones exibidos no conteúdo mestre, e arrastar e soltar o ícone selecionado em qualquer posição fora do conteúdo mestre, a unidade de controle 100 determinará que esta entrada de usuário é uma requisição de separação, na etapa 811. A unidade de controle 100 libera a ligação entre o conteúdo selecionado e o conteúdo mestre, na etapa 813, e exibe o conteúdo separado em uma posição solta. A unidade de controle 100 remove a informação de conteúdo (ícone) do conteúdo de ligação liberada da região de exibição de ícone do conteúdo mestre, e rearranja os ícones remanescentes na região de exibição de ícone do conteúdo mestre, na etapa 815. [064] Com referência às figuras 9A e 9B, três conteúdos estão ligados ao conteúdo mestre 911 na tela 910. 0 conteúdo mestre 911 tem uma janela de vista detalhada 950. Se um icone 905 for arrastado e solto em uma posição fora do conteúdo mestre 911, a unidade de controle 100 liberará a ligação entre o conteúdo 913 e o conteúdo mestre 911, e removerá o ícone 905 da região de exibição de ícone do conteúdo mestre 911. A janela de vista detalhada do conteúdo 911 então é mostrada como a tela 960, e a ligação do conteúdo 913 é liberada. Na tela 920, se um ícone 903 for arrastado da região de exibição de ícone do conteúdo mestre 911 e solto em uma posição fora do contorno do conteúdo mestre 911, a unidade de controle 100 liberará a ligação entre o conteúdo 921 e o conteúdo mestre 911, e removerá o ícone 903 da região de exibição de ícone do conteúdo mestre 911. A janela de vista detalhada do conteúdo 911 é exibida conforme mostrado na tela 970. Na tela 930, um ícone 901 é arrastado a partir da região de exibição de ícone do conteúdo mestre 911 e solto em uma posição fora do conteúdo mestre 911, a unidade de controle 100 libera a ligação entre o conteúdo 931 e o conteúdo mestre 911 e remove o ícone 901 da região de exibição de ícone do conteúdo mestre 911. A janela de vista detalhada distribuição conteúdo 911 é exibida conforme mostrado na tela 980, e a ligação para o conteúdo 931 é liberada. Na tela 940, o conteúdo 911 está em um estado de um conteúdo único. [065] Na tela 910 da figura 9A, se o usuário selecionar o ícone de conteúdo 903 e arrastar e soltar o ícone selecionado 903 em uma posição, a unidade de controle 100 exibirá o conteúdo 921 correspondente ao ícone 903 na posição de soltar na tela da unidade de exibição 130 e removerá o ícone 903 da região de exibição de imagem do conteúdo mestre 911. Os ícones remanescentes na região de exibição de ícone são deslocados de modo a serem rearranjados sequencialmente. [066] Em uma modalidade da presente invenção, se o icone do conteúdo mestre o qual foi gerado automaticamente na integração dos conteúdos correlacionados for arrastado e solto em uma posição fora do contorno do conteúdo mestre, o icone de conteúdo selecionado será exibido como a imagem em miniatura do conteúdo original. Especificamente, se uma interação de usuário para separação de um icone do conteúdo mestre for detectada, a unidade de controle 100 detectará isto, exibirá o conteúdo correspondente ao icone selecionado na tela de visualizador, e liberará a ligação entre o conteúdo correspondente e o conteúdo mestre. [067] Com referência de volta à figura 7, se for determinado que a entrada de usuário não é uma requisição de separação de conteúdo na etapa 721, será determinado se o conteúdo mestre é selecionado na etapa 731. Se o conteúdo mestre for selecionado (batido), a unidade de controle 100 detectará a seleção do conteúdo mestre e exibirá a janela de vista detalhada do conteúdo mestre, na etapa 733. Na etapa 735, é determinado se um comando de edição é detectado. Se um comando de edição para edição do conteúdo mestre for detectado no estado em que a janela de vista detalhada é exibida, a unidade de controle 100 editará o conteúdo mestre de acordo com a interação de edição de usuário, na etapa 737. [068] Com referência, agora, à figura 10, o conteúdo mestre pode ser editado em um procedimento tal que, se o conteúdo mestre for selecionado, a unidade de controle 100 exiba a janela de vista detalhada do conteúdo mestre, o que mostra um conteúdo ligado a ele, na etapa 1011. Quando a janela de vista detalhada é exibida, se o usuário fizer uma entrada de rolagem ou de deslizamento, a unidade de controle 100 rolará os conteúdos listados na janela de vista detalhada, de modo que o usuário navegue pelos conteúdos para selecionar um conteúdo alvo. Na etapa 1013, é determinado se uma interação de usuário é uma interação de edição. Se a interação de usuário para edição da janela de vista detalhada do conteúdo for detectada, a unidade de controle 100 exibirá um menu de edição na etapa 1015. Quando o estado tocado na janela de vista detalhada é mantido por uma duração predeterminada (bater e segurar), a unidade de controle 100 determina que uma interação de edição é introduzida. Em uma modalidade da presente invenção, o menu de edição pode incluir pelo menos um dentre um item de menu de edição, um item de menu de favorito, um item de menu de mover, um item de menu de apagar, um item de menu de adicionar à área de trabalho, um item de menu de salvar, etc. Na etapa 1017, é determinado se um item de menu de edição de conteúdo é selecionado. Se um item de menu de edição de conteúdo for selecionado, a unidade de controle exibirá um meio de entrada (painel de entrada virtual; SIP) para edição do conteúdo, na etapa 1019. Na etapa 1021, o conteúdo é editado. Na etapa 1023, é determinado se uma edição de conteúdo está terminada. Se uma interação de usuário para terminar o processo de edição de conteúdo for recebida, a unidade de controle 100 salvará os dados de conteúdo editados, na etapa 1025. [069] Com referência às figuras 11B e 11C, se um conteúdo mestre for selecionado, a unidade de controle 100 exibirá a janela de vista detalhada mostrando os conteúdos ligados ao conteúdo mestre, conforme mostrado na tela 1131 da figura 11B. Se um gesto de rolagem ou de deslocamento for detectado, a janela de vista detalhada do conteúdo selecionado pelo usuário será exibida na tela da unidade de exibição 130, conforme mostrado na tela 1133 da figura 11B. Se a interação de edição (aqui, bater e segurar) for detectada, a unidade de controle exibirá o menu de edição, conforme mostrado na tela 1135. Se o item de menu de conteúdo de edição for selecionado (batido), conforme .mostrado na tela 1135 da figura 11B, a unidade de controle exibirá um SIP, conforme mostrado na tela 1137 da figura 11C. Se o usuário fizer uma entrada usando o SIP, a unidade de controle 100 executará uma operação de edição com os dados introduzidos pelo usuário, conforme mostrado na tela 1139. Se a edição se completar, a unidade de controle 100 armazenará o conteúdo editado na memória 110, conforme mostrado na tela 1141 da figura 11C. [070] Com referência de volta à figura 10, se for determinado que o item de menu de edição não é selecionado na etapa 1017, será determinado se um item de menu de favorito é selecionado na etapa 1031. Se o item de menu de favorito for selecionado, a unidade de controle 100 registrará o conteúdo correspondente como um conteúdo favorito, na etapa 1033. [071] Se for determinado que o item de menu de favorito não é selecionado na etapa 1031, será determinado se o item de menu de mover é selecionado na etapa 1041. Se o item de menu de mover for selecionado, a unidade de controle 100 moverá as posições de ligação dos conteúdos selecionados de acordo com a interação de usuário, na etapa 1043, e rearranjará a posição da informação de conteúdo (isto é, um icone) do conteúdo mestre. [072] Com referência, agora, às figuras 11D e 11E, se uma interação de edição (por exemplo, bater e segurar) for feita em um conteúdo especifico na janela de vista detalhada de um conteúdo, conforme mostrado na tela 1161 da figura 11D, a unidade de controle 100 exibirá um menu de edição, conforme mostrado na tela 1163 da figura 11D. Se o item de menu de mover for selecionado, a unidade de controle 100 moverá o conteúdo ligado no conteúdo mestre, na etapa 1041. 0 usuário faz uma interação (por exemplo, um deslizamento) para mover a janela de vista detalhada do conteúdo selecionado, conforme mostrado na tela 1165 da figura 11D. A unidade de controle 100 move as posições de ligação dos conteúdos, conforme mostrado na tela 1167 da figura 11E de acordo com a interação, na etapa 1043 da figura 10, rearranja os ícones na região de exibição de ícone do conteúdo mestre, na etapa 1045 da figura 10, e armazena os dados editados, conforme mostrado na tela 1169, na etapa 1047 da figura 10. [073] Se for determinado que o item de menu de mover não é selecionado na etapa 1041, será determinado se o item de menu de apagamento é selecionado na etapa 1051. Se o item de menu de apagamento for selecionado, a unidade de controle 100 apagará o conteúdo selecionado e liberará a ligação do conteúdo apagado, na etapa 1053. A informação de conteúdo (isto é, ícones) na região de exibição de ícone do conteúdo mestre é rearranjada, na etapa 1045, e os dados editados são armazenados, na etapa 1047. [074] Se for determinado que o item de menu de apagamento não é selecionado na etapa 1051, é determinado se é o item de menu de adicionar à área de trabalho é selecionado na etapa 1061. Se o item de menu de adicionar à área de trabalho for selecionado, a unidade de controle 100 adicionará o conteúdo selecionado à área de trabalho, na etapa 1063. Se for determinado que o item de menu de adicionar à área de trabalho não é selecionado na etapa 1061, a metodologia pode continuar com itens de menu adicionais que são providos no menu. [075] Conforme descrito acima, se a interação de edição for introduzida após a seleção de um conteúdo especifico a partir da janela de vista detalhada do conteúdo mestre, a unidade de controle 100 selecionará o conteúdo com a interação de edição como o conteúdo alvo de edição. Depois disso, a unidade de controle 100 edita o conteúdo selecionado (conteúdo ligado ao conteúdo mestre) usando o item de menu de edição selecionado a partir do menu de edição. Por exemplo, é possível tocar e segurar um conteúdo especifico a partir da janela de vista detalhada do conteúdo mestre e editar conteúdos individuais com as ferramentas de edição providas no menu de edição. [076] Com referência de volta à figura 7, se for determinado que a entrada de usuário não é para edição de conteúdo na etapa 735, será determinado se a entrada de usuário é para execução de conteúdo na etapa 741. Se um conteúdo selecionado for selecionado no estado aquele da janela de vista detalhada do conteúdo mestre, a unidade de controle 100 detectará a requisição de execução para o conteúdo correspondente e executará o conteúdo selecionado, na etapa 743. [077] Com referência à figura 11A, se uma interação de usuário (por exemplo, um toque) for para seleção de conteúdo ligado a partir da janela de vista detalhada do conteúdo mestre na tela 1110, a unidade de controle 100 detectará a requisição de execução para o conteúdo e executará o aplicativo (aqui, um aplicativo de memorando) correspondente ao conteúdo selecionado, conforme mostrado na tela 1113 da figura 11A, para execução do conteúdo. Se o usuário prover uma entrada para terminação do aplicativo (por exemplo, uma tecla de cancelamento), a unidade de controle 100 detectará isto e retornará para a janela de vista detalhada do conteúdo mestre, conforme mostrado na tela 1115 da figura 11A. O conteúdo pode ser executado no mesmo método descrito acima com referência à figura 6, através da metodologia da figura 4. Especificamente, o conteúdo individual ligado ao conteúdo mestre é executado com os aplicativos correspondentes ou nativos. [078] Os componentes de software incluindo instruções ou um código para execução das metodologias descritas aqui podem ser armazenados em um ou mais de dispositivos de memória associados (por exemplo, memória apenas de leitura (ROM), uma memória fixa ou removível), e, quando prontos para serem utilizados, carregados em parte ou no todo (por exemplo, em uma memória de acesso randômico (RAM)) e executados por uma unidade de processamento central (CPU). [079] Embora a invenção tenha sido mostrada e descrita com referência a certas modalidades da mesma, será entendido por aqueles versados na técnica que várias mudanças na forma e nos detalhes podem ser feitas ali, sem que se desvie do espírito e do escopo da invenção, conforme definido pelas reivindicações em apenso.

Claims (27)

1. Método para processamento de conteúdo, caracterizado pelo fato de compreender as etapas de: exibição de uma pluralidade de conteúdos; determinação quanto a se uma entrada é recebida para movimento de um conteúdo selecionado da pluralidade de conteúdos para um conteúdo alvo da pluralidade de conteúdos; configuração do conteúdo alvo como um conteúdo mestre, quando a entrada for recebida; ligação do conteúdo selecionado ao conteúdo mestre; e exibição de um indicador do conteúdo selecionado no conteúdo mestre.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de a entrada ser uma operação de arrastar e soltar, e o conteúdo alvo localizado em uma posição em que o conteúdo selecionado é arrastado e solto ser configurado como o conteúdo mestre.
3. Método, de acordo com a reivindicação 2, caracterizado pelo fato de ainda compreender: a ligação de um outro conteúdo selecionado ao conteúdo mestre, quando uma entrada for recebida para movimento do outro conteúdo selecionado para o conteúdo mestre; e a adição de um indicador do outro conteúdo selecionado ao conteúdo mestre.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de ainda compreender a remoção do conteúdo selecionado da tela, quando o conteúdo selecionado for ligado ao conteúdo mestre.
5. Método, de acordo com a reivindicação 4, caracterizado pelo fato de o indicador exibido no conteúdo mestre ser um icone, e ícones de conteúdo selecionado serem adicionados ao conteúdo mestre em sequência.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de a exibição da pluralidade de conteúdos compreender a disposição da pluralidade de conteúdos em uma vista lado a lado, a pluralidade de conteúdos sendo apresentada como imagens em miniatura.
7. Método, de acordo com a reivindicação 6, caracterizado pelo fato de ainda compreender a exibição de uma janela de vista detalhada mostrando o conteúdo mestre e o conteúdo selecionado ligado, quando o conteúdo mestre for selecionado.
8. Método, de acordo com a reivindicação 7, caracterizado pelo fato de a exibição da janela de vista detalhada compreender: a listagem do conteúdo selecionado ligado subsequente a uma posição de conteúdo mestre em um topo da janela de vista detalhada em uma ordem na qual o conteúdo selecionado ligado foi ligado ao conteúdo mestre; e a rolagem do conteúdo mestre e do conteúdo selecionado ligado através da janela de vista detalhada de acordo com uma entrada de rolagem.
9. Método, de acordo com a reivindicação 7, caracterizado pelo fato de ainda compreender, quando o conteúdo é selecionado a partir da janela de vista detalhada, a execução de um aplicativo correspondente ao conteúdo para execução do conteúdo.
10. Método, de acordo com a reivindicação 7, caracterizado pelo fato de ainda compreender: a exibição de um menu de edição, quando uma entrada de edição for detectada na janela de vista detalhada; e quando um item de menu de edição é selecionado a partir do menu de edição, a execução de uma função de edição correspondente ao item de menu de edição selecionado.
11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de o menu de edição compreender pelo menos um dentre um item de edição de dados, um item de movimento de conteúdo, um item de apagamento de conteúdo, um item de registro de favorito e um item de adição à área de trabalho.
12. Método, de acordo com a reivindicação 11, caracterizado pelo fato de ainda compreender: a exibição de um teclado, quando o item de edição de dados for selecionado; e a edição de dados em resposta a uma entrada com o teclado.
13. Método, de acordo com a reivindicação 10, caracterizado pelo fato de a entrada de edição ser uma operação de tocar e segurar executada na janela de vista detalhada.
14. Método, de acordo com a reivindicação 5, caracterizado pelo fato de ainda compreender, quando um icone é selecionado, a exibição de metadados de conteúdo representados pelo icone selecionado.
15. Método para processamento de conteúdo, caracterizado pelo fato de compreender as etapas de: exibição de um indicador de conteúdo ligado ao conteúdo mestre no conteúdo mestre; determinação quanto a se uma entrada é recebida para separação do conteúdo do conteúdo mestre; liberação de uma ligação entre o conteúdo e o conteúdo mestre, quando a entrada for recebida; e remoção do indicador do conteúdo do conteúdo mestre.
16. Método, de acordo com a reivindicação 15, caracteri zado pelo fato de a entrada ser uma operação de arrastar e soltar, e ainda compreendendo a exibição do conteúdo representado pelo indicador em uma posição de soltar.
17. Método, de acordo com a reivindicação 16, caracterizado pelo fato de o indicador exibido no conteúdo mestre ser um icone.
18. Método, de acordo com a reivindicação 17, caracterizado pelo fato de a exibição da pluralidade de conteúdos compreender a disposição da pluralidade de conteúdos em uma vista lado a lado, a pluralidade de conteúdos sendo apresentada como imagens em miniatura.
19. Aparelho, caracterizado pelo fato de compreender: um visor que exibe uma pluralidade de conteúdos; uma unidade de entrada que recebe uma entrada para processamento de conteúdo; uma memória que armazena uma informação de ligação de conteúdos ligados; uma unidade de controle que determina se uma entrada é recebida para movimento de um conteúdo selecionado da pluralidade de conteúdos para um conteúdo alvo da pluralidade de conteúdos, configura o conteúdo alvo como o conteúdo mestre, quando a entrada for recebida, liga o conteúdo selecionado ao conteúdo mestre, e exibe o conteúdo mestre com um indicador do conteúdo selecionado.
20. Terminal, de acordo com a reivindicação 19, caracterizado pelo fato de a entrada ser uma operação de arrastar e soltar, a unidade de controle configurar o conteúdo alvo localizado em uma posição em que o conteúdo selecionado é solto como o conteúdo mestre.
21. Terminal, de acordo com a reivindicação 20, caracterizado pelo fato de a unidade de controle ligar um outro conteúdo selecionado ao conteúdo mestre, quando uma entrada for recebida para movimento do outro conteúdo selecionado para o conteúdo mestre, e adicionar um indicador do outro conteúdo selecionado ao conteúdo mestre.
22. Terminal, de acordo com a reivindicação 19, caracterizado pelo fato de a unidade de controle remover o conteúdo selecionado do visor, quando o conteúdo selecionado for ligado ao conteúdo mestre.
23. Terminal, de acordo com a reivindicação 22, caracterizado pelo fato de o indicador exibido no conteúdo mestre ser um icone, e a unidade de controle empilhar os icones de conteúdo selecionado em sequência.
24. Terminal, de acordo com a reivindicação 19, caracterizado pelo fato de a unidade de controle dispor a pluralidade de conteúdos no visor em uma vista lado a lado, a pluralidade de conteúdos sendo apresentada como imagens em miniatura.
25. Terminal, de acordo com a reivindicação 24, caracterizado pelo fato de a unidade de controle controlar o visor para a exibição de uma janela de vista detalhada mostrando o conteúdo mestre e o conteúdo selecionado, quando o conteúdo mestre for selecionado.
26. Terminal, de acordo com a reivindicação 25, caracterizado pelo fato de, quando o conteúdo é selecionado a partir da janela de vista detalhada, a unidade de controle executar um aplicativo correspondente ao conteúdo para execução do conteúdo.
27. Artigo de fabricação para processamento de conteúdo, caracterizado pelo fato de compreender um meio que pode ser lido em máquina contendo um ou mais programas, os quais, quando executados, implementam as etapas de: exibição de uma pluralidade de conteúdos; determinação quanto a se uma entrada é recebida para movimento de um conteúdo selecionado da pluralidade de conteúdos para um conteúdo alvo da pluralidade de conteúdos; configuração do conteúdo alvo como um conteúdo mestre, quando a entrada for recebida; ligação do conteúdo selecionado ao conteúdo mestre; e exibição de um indicador do conteúdo selecionado no conteúdo mestre.
BRBR102013030684-3A 2012-11-30 2013-11-28 Método e aparelho para processamento de conteúdo BR102013030684A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120137841A KR20140069943A (ko) 2012-11-30 2012-11-30 휴대단말기의 컨텐츠 처리장치 및 방법

Publications (1)

Publication Number Publication Date
BR102013030684A2 true BR102013030684A2 (pt) 2015-07-28

Family

ID=49709514

Family Applications (1)

Application Number Title Priority Date Filing Date
BRBR102013030684-3A BR102013030684A2 (pt) 2012-11-30 2013-11-28 Método e aparelho para processamento de conteúdo

Country Status (11)

Country Link
US (1) US20140157166A1 (pt)
EP (1) EP2738657A3 (pt)
JP (1) JP2014110053A (pt)
KR (1) KR20140069943A (pt)
CN (1) CN103853810A (pt)
AU (1) AU2013263746A1 (pt)
BR (1) BR102013030684A2 (pt)
CA (1) CA2835469A1 (pt)
RU (1) RU2013152954A (pt)
WO (1) WO2014084621A1 (pt)
ZA (1) ZA201308967B (pt)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9723035B1 (en) 2013-04-08 2017-08-01 Amazon Technologies, Inc. Real-time meeting attendance reporting
KR102129795B1 (ko) * 2013-05-15 2020-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9461946B2 (en) * 2014-08-18 2016-10-04 Stephen B. Zutphen Synchronized single-action graphical user interfaces for assisting an individual to uniformly manage computer-implemented activities utilizing distinct software and distinct types of electronic data, and computer-implemented methods and computer-based systems utilizing such synchronized single-action graphical user interfaces
KR20160025128A (ko) 2014-08-26 2016-03-08 (주)앤드웍스 이동단말기를 이용한 개인 데이터의 시계열적 관리 서비스 제공 방법
CN104461308B (zh) * 2014-12-08 2018-04-27 广东欧珀移动通信有限公司 一种在目标区域中添加项目的方法及装置
KR20160087640A (ko) * 2015-01-14 2016-07-22 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102271741B1 (ko) * 2015-01-14 2021-07-02 삼성전자주식회사 원본 컨텐츠와 연계된 편집 영상의 생성 및 디스플레이
US10310700B2 (en) * 2015-01-21 2019-06-04 Samsung Electronics Co., Ltd. Apparatus and method for managing of content using electronic device
US11209972B2 (en) * 2015-09-02 2021-12-28 D&M Holdings, Inc. Combined tablet screen drag-and-drop interface
CN111095183B (zh) * 2017-09-06 2024-04-09 三星电子株式会社 用户界面中的语义维度
CN110489215A (zh) * 2019-06-29 2019-11-22 华为技术有限公司 一种应用程序中等待场景的处理方法和装置
WO2021112827A1 (en) * 2019-12-03 2021-06-10 Google Llc Converting static content items into interactive content items
US11157160B1 (en) * 2020-11-09 2021-10-26 Dell Products, L.P. Graphical user interface (GUI) for controlling virtual workspaces produced across information handling systems (IHSs)
CN113687753B (zh) * 2021-08-09 2024-03-15 深圳康佳电子科技有限公司 一种分屏样式配置方法、装置、智能终端及存储介质
CN115708349A (zh) * 2021-08-18 2023-02-21 北京字跳网络技术有限公司 用于多媒体资源剪辑场景的方法、装置、设备及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3337798B2 (ja) * 1993-12-24 2002-10-21 キヤノン株式会社 画像データ及び音声データを処理する装置、データ処理装置並びにデータ処理方法
US5801699A (en) * 1996-01-26 1998-09-01 International Business Machines Corporation Icon aggregation on a graphical user interface
US6784925B1 (en) * 1998-03-24 2004-08-31 Canon Kabushiki Kaisha System to manage digital camera images
JP3956553B2 (ja) * 1998-11-04 2007-08-08 富士ゼロックス株式会社 アイコン表示処理装置
US7503009B2 (en) * 2005-12-29 2009-03-10 Sap Ag Multifunctional icon in icon-driven computer system
KR100772396B1 (ko) * 2006-02-10 2007-11-01 삼성전자주식회사 데이터 객체 병합 방법 및 장치
KR101485787B1 (ko) * 2007-09-06 2015-01-23 삼성전자주식회사 단말 및 그의 컨텐츠 저장 및 실행 방법
US8266550B1 (en) * 2008-05-28 2012-09-11 Google Inc. Parallax panning of mobile device desktop
KR101531504B1 (ko) * 2008-08-26 2015-06-26 엘지전자 주식회사 이동단말기 및 그 제어 방법
JP2011009846A (ja) * 2009-06-23 2011-01-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
EP2275953B1 (en) * 2009-06-30 2018-10-24 LG Electronics Inc. Mobile terminal
JP5474479B2 (ja) * 2009-09-30 2014-04-16 株式会社日立製作所 画像付きドキュメントの表示方法
KR101714781B1 (ko) * 2009-11-17 2017-03-22 엘지전자 주식회사 컨텐츠 재생 방법
KR101622687B1 (ko) * 2010-04-12 2016-05-31 엘지전자 주식회사 이동단말기 및 그의 방송 서비스 가이드 정보를 이용한 연관 컨텐츠 제공 방법
WO2012030006A1 (ko) * 2010-09-03 2012-03-08 엘지전자 주식회사 이동 단말기 및 그의 콘텐츠 관리 방법
WO2012108697A2 (en) * 2011-02-11 2012-08-16 Samsung Electronics Co., Ltd. Operation method for memo function and portable terminal supporting the same
US9588669B2 (en) * 2011-02-17 2017-03-07 T-Mobile Usa, Inc. Sticky messages
JP6194167B2 (ja) * 2011-11-25 2017-09-06 京セラ株式会社 装置、方法、及びプログラム

Also Published As

Publication number Publication date
CA2835469A1 (en) 2014-05-30
AU2013263746A1 (en) 2014-06-19
WO2014084621A1 (en) 2014-06-05
KR20140069943A (ko) 2014-06-10
US20140157166A1 (en) 2014-06-05
RU2013152954A (ru) 2015-06-10
CN103853810A (zh) 2014-06-11
JP2014110053A (ja) 2014-06-12
EP2738657A2 (en) 2014-06-04
ZA201308967B (en) 2014-08-27
EP2738657A3 (en) 2016-08-24

Similar Documents

Publication Publication Date Title
BR102013030684A2 (pt) Método e aparelho para processamento de conteúdo
EP2592542B1 (en) User interface providing method and apparatus for mobile terminal
TWI570580B (zh) 巡覽一瀏覽器中之複數個內容項目的方法、電腦系統及電腦程式產品
EP2619643B1 (en) Method and apparatus for editing home screen in touch device
US9535503B2 (en) Methods and devices for simultaneous multi-touch input
CN105378597B (zh) 用于显示的方法及其电子装置
US20130086510A1 (en) Method and system to provide a user interface with respect to a plurality of applications
KR20130097267A (ko) 휴대 단말기의 콘텐츠 뷰 표시 방법 및 장치
KR20160065847A (ko) 자동스크롤 영역 제공 기법
KR20120121149A (ko) 터치스크린 단말기에서 아이콘 배치 방법 및 장치
EP2631823A1 (en) Method and apparatus for editing content view in a mobile device
KR20120076014A (ko) 통신 단말기의 동작 방법
KR20110014249A (ko) 카테고리별 액세스 제어 방법 및 이를 채용한 전자 장치
WO2016119453A1 (zh) 一种在文本中插入多媒体对象的方法、装置及终端
KR20120050226A (ko) 통신 단말기의 동작 방법
JP2016042253A (ja) 情報処理装置及びプログラム
CN105446575B (zh) 一种信息处理方法及电子设备
JP2013109785A (ja) 情報処理装置、情報処理方法、およびそのプログラム
KR20120081878A (ko) 통신 단말기의 동작 방법
CN103473215A (zh) 编辑对象的方法及电子设备
KR101083164B1 (ko) 이동통신단말기의 메뉴지원장치
JP2019175151A (ja) コンテンツリスト編集装置、方法、プログラム、及び記憶媒体
KR20120073928A (ko) 통신 단말기의 동작 방법
KR20120081877A (ko) 통신 단말기의 동작 방법
KR20120079694A (ko) 통신 단말기 및 그 동작 방법

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B11A Dismissal acc. art.33 of ipl - examination not requested within 36 months of filing
B11Y Definitive dismissal acc. article 33 of ipl - extension of time limit for request of examination expired