Nova estrela no Reboot Disney de Piratas das Caraíbas

Os escritores de Deadpool e Zombieland, Rhett Reese e Paul Wernick estão alegadamente em “conversas iniciais” para escrever o guião de Piratas das Caraíbas , o que significa que mesmo que isto esteja confirmado, ainda estaremos a anos não só do filme, mas também de informações mais precisas e concretas sobre isso. O que sabemos, no entanto, é que a mais recente prestação, Piratas das Caraíbas: Homens Mortos Não Contam Histórias, foi uma enorme desilusão nos EUA, arrecadando apenas 172 milhões de dólares. Isto em comparação com os outros quatro filmes anteriores, que arrecadaram uma média de 320 milhões de dólares cada um. No resto do mundo, o filme saíu-se muito melhor, arrecadando quase 800 milhões de dólares – mas ainda assim esteve quase 250 milhões atrás dos máximos da franquia. Todos os sinais apontavam para que os Piratas morressem na água.

Embora os detalhes sejam tão escassos como um pirata com uma moral inabalável, não se destina a ser um spinoff da franquia original (baseado no clássico passeio do parque temático Disney). Também não está ligado ao reboot anunciado anteriormente pelo escritor dos Piratas Ted Elliott e pelo criador de Chernobyl Craig Mazin, que também poderia ter uma protagonista feminina em Avengers: Endgame’s, Karen Gillan. Em vez disso, vai ser a sua própria história com novas personagens. A série original Piratas das Caraíbas começou com notas altas, uma aventura épica de alto mar que nos deu o Capitão Jack Sparrow, uma das personagens mais reconhecíveis da história do cinema moderno (para o bem ou para o mal). Cada filme subsequente parecia que ia degradando essa qualidade – como uma garrafa de rum cuja rolha estava um pouco solta, deixando entrar ar suficiente para o azedar.

A Disney tentou carregar no botão de reset com Piratas das Caraíbas de 2017: ´Dead Men Tell No Tales´, mas rapidamente se afundou. Mas o estúdio ainda não está pronto para largar o volante. Entretanto o Hollywood Reporter diz que a escritora de Birds of Prey Christina Hodson vai reunir-se com Robbie para um filme de Piratas das Caraíbas femininos. Além de trabalhar em Birds of Prey, Hodson também escreveu o recente filme de Bumblebee e está ligado à Batgirl de DC… e é bom sempre que isso acontece. Harley Quinn (uma personagem fictícia da DC Comics que geralmente aparece como inimiga do super-herói Batman no Universo DC) está prestes a abraçar o seu lado náutico. Um novo relatório diz que Margot Robbie vai protagonizar um filme de Piratas das Caraíbas para a Disney. E vai trazer um membro chave da tripulação de Birds of Prey para o trabalho. Já não sabemos que pessoa na Disney disse: “Talvez devêssemos dar um navio à Harley Quinn e deixá-la fazer o que quer que seja.”

Fonte: Gizmodo

Como resolver o problema atual dos dados da Inteligência Artificial

Por mais inteligente que o colega de trabalho algorítmico possa ser, ainda vai precisar de ajuda humana de vez em quando. E se isso soa ou não como uma relação de trabalho natural, o conceito de um problema de dados humanos parece certamente um passo em frente, e potencialmente uma solução para o grande problema de dados da IA.

O novo nível de interação entre humanos e IA é suscetível de jogar a favor do algoritmo: Yilmaz argumentou que o método poderia superar o medo de que alguns trabalhadores podem sentir-se na perspetiva de implantar a tecnologia no local de trabalho. A IA ativa, neste contexto, poderia fornecer uma opção mais suave pela qual o algoritmo atua como um colega de trabalho, e não como um substituto.

A IA tem um grande problema de dados. Aqui está como consertá-lo
Algoritmos supervisionados requerem muitos dados, e muitas vezes resultam em previsões tremidas. Está na hora da próxima fase da IA? A inteligência artificial tem, literalmente, um grande problema de dados – e que a crise covid-19 tornou agora impossível ignorar por mais tempo. Para empresas, governos e indivíduos, a pandemia global redefiniu efetivamente a vida “normal”; mas enquanto a maioria de nós já se ajustou à mudança, o mesmo não se pode dizer dos sistemas de IA, que baseiam as suas previsões no que o passado costumava parecer.

Falando na conferência CogX 2020, o matemático britânico David Barber afirmou: “A implementação de sistemas de IA é atualmente desajeitada. Normalmente, incia-se o processo, recolhe-se o conjunto de dados, rotula-se, treina-se o sistema e, em seguida, implemante-se. E é isso – não se revisita o sistema implementado. Mas isto não é feito da melhor forma se o ambiente está a mudar.” Barber referia-se ao machine learning supervisionado, a que chamou “paradigma clássico” de hoje em IA, e que consiste em ensinar algoritmos com exemplos. Num modelo supervisionado, um sistema de IA é alimentado por um grande conjunto de dados que já foi rotulado por humanos, e que é usado para treinar a tecnologia para reconhecer padrões e fazer previsões.

Acrescentou que um uso de alto perfil da tecnologia está nos automóveis sem condutor, onde os vídeos ainda precisam de ser segmentados e rotulados em “pedestre”, “carro”, “árvore” e noutros objetos que o carro precisa de reconhecer. Anotar milhões destes vídeos é moroso e dispendioso; por outro lado, deixar os algoritmos aprenderem e fazerem perguntas pode acelerar significativamente o processo. E, quando uma pandemia global ataca, os sistemas de IA “ativos”, deverão ser capazes de integrar novos dados em tempo real, juntamente com algumas entradas humanas, e depois adaptar-se suas previsões – em vez de esperar que grandes conjuntos de dados sejam anotados manualmente para a aprendisagem.

“Se está a desenvolver IA usando a abordagem tradicional de recolher grandes quantidades de dados e, em seguida, treinar um modelo de deep-learning, há apenas uma forma rápida a ir”, disse Barber à ZDNet. “Com o modelo tradicional, terias a sorte de ter um novo modelo a viver em produção em menos de alguns meses. Mas com aprendizagem ativa, isto pode levar apenas alguns dias no máximo.” Poderíamos treinar um algoritmo para automatizar a decisão de empréstimo num banco, por exemplo, com base em rendimentos de particulares ou pontuações de crédito. Propondo integrar o COVID-19, junto com um novo conjunto de padrões bancários, e o sistema de IA provavelmente irá baralhar-se para decidir quem recebe o dinheiro. Da mesma forma, alguns meses após a crise do covid-19, um investigador dos EUA salientou que os algoritmos, apesar de todos os dados de treino que foram alimentados, ainda assim não conseguiria “compreender” a natureza do surto ou da sua propagação por todo o mundo. Devido à falta de dados de treino sobre coronavírus passados, explica a pesquisa, a maioria das previsões geradas por ferramentas de IA foram encontrando falta de fiabilidade, e resultados muitas vezes longe da gravidade da crise.

Enquanto isso, na ´healthtech´, os fabricantes de ferramentas de saúde de IA lutaram para atualizar os seus algoritmos devido à falta de dados relevantes sobre o vírus, resultando em muitos chatbots de “symptom finder” fora das referências. Com os dados de um ambiente pré-COVID não correspondendo ao mundo real, os algoritmos supervisionados estão a ficar sem exemplos para basear as suas previsões. E para piorar as coisas, os sistemas de IA não sinalizam as suas incertezas para o seu operador humano. “A IA não lhe dirá quando na verdade não está confiante sobre a precisão da sua previsão e precisa da envolvência de um humano” disse Barber. “Há muitas incertezas nestes sistemas. Por isso, é importante que a IA possa alertar o ser humano quando não está confiante na sua decisão.”

Isto é o que Barber descreveu como uma situação de “colega de trabalho da IA”, onde humanos e máquinas interagiriam para garantir que as lacunas não ficassem por preencher. Na verdade, é um método dentro da inteligência artificial que está lentamente a emergir como um método particularmente eficiente. Apelidada de “aprendizagem ativa”, consiste em estabelecer uma relação professor-aprendizagem entre sistemas de IA e operadores humanos. Em vez de alimentar o algoritmo com um enorme conjunto de dados rotulado, e permitindo-lhe tirar conclusões – muitas vezes de forma menos transparente – a aprendizagem ativa permite que o sistema de IA faça a maior parte da rotulagem de dados por si só, e crucialmente, fazer perguntas quando tem dúvidas.

O processo envolve um pequeno conjunto de dados com rótulo humano, chamado ´a semente´, que é usado para treinar o algoritmo. O sistema de IA é então apresentado com um maior conjunto de dados não rotulados, que o algoritmo anota por si só, com base na sua aprendisagem – antes de integrar os dados recentemente rotulados de volta à semente. Quando a ferramenta não está confiante sobre um rótulo específico, pode pedir ajuda a um operador humano sob a forma de uma consulta. As escolhas feitas por especialistas humanos são então alimentados de volta ao sistema, para melhorar o processo de aprendizagem geral. O apelo imediato da aprendizagem ativa reside no volume muito menor de dados rotulados que são necessários para formar o sistema. Algoritmos supervisionados, porque eles não aprendem por si mesmos, requerem um conjunto extenso de exemplos rotulados para serem fornecidos por humanos. Isto traduz-se em processos longos e dispendiosos para rotular manualmente até milhares de milhões de pontos de dados para qualquer conjunto de dados.

Algumas plataformas, como a Amazon’s Mechanical Turk, até se especializaram em conectar organizações com um grande conjunto de mão de obra de baixo custo espalhadas pelo globo. “Turkers”, como são chamados, clicam em milhares de imagens por dia, anotando pontos de dados como solicitado, que irão para a formação de futuros algoritmos. A aprendizagem ativa, por outro lado, só requer a rotulagem de um pequeno conjunto de dados de sementes. Barber, na verdade, estima que o processo envolve anotar até dez vezes menos dados. Ele não é o único a ter apanhado esta regalia específica do método. As grandes empresas tecnológicas, especialmente, têm um forte interesse em reduzir o volume de dados rotulados que precisam para alimentar os seus algoritmos.

A unidade de IA do Facebook está fortemente assente no desenvolvimento de um modelo para uma IA que aprende, e para várias aplicações, incluindo a identificação de conteúdos nocivos. A gigante tecnológica publicou recentemente resultados que mostram que a sua equipa de IA, utilizando um método professor-aluno, tinha treinado com sucesso um algoritmo de classificação de imagem baseado numa coleção de um recorde de mil milhões de imagens não etiquetadas, usando um “conjunto relativamente menor”, de dados rotulados. Mas não se trata apenas de reduzir o processo de rotulagem de dados: a aprendizagem ativa também é mais eficiente, em comparação com a aprendizagem supervisionada. Ser capaz de perguntar ao humano acerca de dicas sobre onde se concentrar quando é confrontado com um pedaço de dados sobre os quais não tem certeza, significa que um sistema de IA “ativo” não só pode responder ao desconhecido, mas também aprender com ele.

Fonte: ZDNet

Subscribe to get access

Read moreNo caso de moderação de conteúdo, um algoritmo “ativo” tomará decisões mais informadas, uma vez que cada vez mais aprende a captar cada vez mais subtilmente formas de violação de conteúdo. Um sistema de IA “ativo” também seria muito eficiente no processamento de linguagem natural ou na imagem médica. O matemático co-fundou a Re:infer – uma empresa que aproveita a aprendizagem ativa para ajudar as empresas a entenderem melhor e automatizarem o processamento de e-mails, chamadas e conversas que recebem todos os dias de fornecedores. Tradicionalmente, a criação de um algoritmo para esta tarefa específica teria exigido a rotulagem manual de cada frase a partir dos milhares de mensagens de clientes recebido por uma determinada empresa, antes de alimentá-lo como formação para um sistema de IA. of this content when you subscribe today.

SEO Vs Estratégia Conteúdos

Adaptação, localização, produção de textos para o seu site e atividade
envie a sua consulta / pedido de informação para:
mail@promopcmkt.com

A sua estratégia analítica digital pode estar a dificultar a CX

As organizações estão a ter dificuldades em aceder à inteligência digital de uma forma significativa e eficaz.

A razão?

Demasiados recursos alocados ao ´tagging´ Os dados recolhidos raramente estão ao nível individual do cliente. Organizações focam-se em dados comportamentais vs experienciais Análise em silos, dificultando a obtenção de uma visão conjunta Organizações incapazes de processar dados em tempo real Fonte: SAS

Prémio Turing para a Pixar pelo trabalho em gráficos computacionais.

Na quarta-feira, a Associação para a Máquina de Computação, a maior sociedade mundial de profissionais da computação, entregou o Prémio Turing à Pixar pelo trabalho em gráficos computacionais tridimensionais.

pixarWin1

Muitas vezes chamado de Prémio Nobel da Computação, o Prémio Turing vem com um prémio de um milhão de dólares, que será dividido entre Dr. Hanrahan e o Dr. Catmull pioneiros do que muitas vezes é chamado de C.G.I., ou imagens geradas por computador.

O seu trabalho mudou não só os filmes de animação, mas também os efeitos especiais de Hollywood, os videojogos e a realidade virtual. Hanrahan é professor no laboratório de computação gráfica de Stanford, onde o seu trabalho incluiu a criação de código que ajudou chips gráficos especializados a melhorar a fidelidade e o poder de projetos de Hollywood, videojogos, realidade virtual e smartphones.

pixarWin2

Hanrahan diz que assistir à estreia de Toy Story em 1995 ajudou-o a entender o impacto que tal trabalho de matemática e ciências da computação nos bastidores pode ter no mundo. “Uma das razões porque ainda estou muito entusiasmado com gráficos é que realça o aspeto criativo das pessoas”.

Associação para a Máquina de Computação premeia Pixar

O grupo foi liderado por Ed Catmull, um pioneiro de gráficos de computador que se tornou o diretor de tecnologia de uma nova empresa chamada Pixar. O filme foi “Toy Story”, a longa-metragem de animação de referência lançada no outono de 1995. Na quarta-feira, a Associação para a Máquina de Computação, a maior sociedade mundial de profissionais da computação, disse que o Dr. Hanrahan e o Dr. Catmull receberiam este ano o Prémio Turing pelo seu trabalho em gráficos computacionais tridimensionais. Muitas vezes chamado de Prémio Nobel da Computação, o Prémio Turing vem com um prémio de um milhão de dólares, que será dividido pelos dois pioneiros do que muitas vezes é chamado de C.G.I., ou imagens geradas por computador.

pixarWin1

O seu trabalho mudou não só os filmes de animação, mas também os efeitos especiais de Hollywood, os videojogos e a realidade virtual. O prestigiado Prémio Turing foi para Ed Catmull e Pat Hanrahan, cujo trabalho de computação ajudou a moldar filmes, videojogos e realidade virtual. Toy Story da Pixar, lançado em 1995, foi a primeira longa-metragem totalmente animada de Hollywood. Quando Edwin Catmull chegou ao laboratório gráfico da Universidade de Utah como estudante graduado em 1970, os seus monitores monocromáticos de última geração mostraram apenas formas bloqueadas feitas de polígonos. Passou os anos seguintes a inventar técnicas matemáticas para exibir superfícies curvas, e começou a sonhar em um dia criar um filme de corpo inteiro a partir de imagens geradas por computador. “Pensei que levaria cerca de 10 anos, mas levou cerca de 20”, recorda Catmull. Toy Story, a primeira longa-metragem totalmente animada por computador, foi lançada em 1995 pelo estúdio de animação de computador Pixar, onde foi diretor técnico e mais tarde presidente.

Quarta-feira, a pesquisa pioneira de Catmull em gráficos valeu-lhe a maior honra em computação, o Prémio A.M. Turing da Associação para a Maquinaria Informática, visto como o equivalente ao campo a um Prémio Nobel. Catmull partilhou o prémio e um milhão de dólares em prémios com Patrick Hanrahan, um colega investigador de gráficos de computador que recrutou para a equipa fundadora da Pixar em 1986. A dupla foi homenageada por inventar técnicas que transformaram Hollywood e moldaram outras formas de entretenimento, como videojogos e realidade virtual. Depois de se formar na Universidade de Utah, Catmull criou um laboratório de computação gráfica no New York Institute of Technology, mas rumou à Califórnia em 1979, quando George Lucas lhe pediu para trabalhar em gráficos de computador e outras tecnologias digitais de produção de filmes na LucasFilm. Catmull, por sua vez, contratou Hanrahan para se juntar à equipa fundadora da Pixar. A empresa foi criada com a ajuda do cofundador da Apple, Steve Jobs, que forneceu o capital para comprar a tecnologia de animação informática da LucasFilm e tornou-se presidente da Pixar. Embora famosamente controlador e secreto na Apple, Jobs tomou uma abordagem diferente na Pixar. Ele ia passar pelo escritório do Hanrahan para acompanhar os últimos avanços técnicos, mas não procurou guiá-los. “Ele deixou a tecnologia a mim e às outras pessoas da Pixar”, diz Catmull, que começou como diretor técnico da Pixar e se tornou presidente em 2001. “E não teve qualquer problema em publicarmos tudo o que fizemos.” “As suas contribuições levaram não só aos filmes da Pixar, mas a toda a indústria a usar imagens geradas por computador”, diz Ravi Ramamoorthi, professor da Universidade da Califórnia em San Diego, cuja própria pesquisa gráfica ajudou a animar os alienígenas no Avatar de James Cameron e a engraxar as peles peludas na Guerra do Planeta dos Macacos, em 2017. “Hoje, qualquer pixel que se vê num filme, há uma boa hipótese de ter sido tocado ou gerado por um computador.”

pixarWin2
Catmull e Hanrahan receberam oito Óscares por ferramentas e técnicas usadas em animação computacional e efeitos especiais nos filmes da Pixar e não só, incluindo Jurassic Park, The Lord of the Rings trilogy, e as prequelas de Star Wars. As suas carreiras misturaram a investigação académica em ciências da computação com o desenvolvimento de software comercial, uma vez que trabalharam com alguns dos maiores nomes da tecnologia e do entretenimento. Na Pixar, Hanrahan liderou o trabalho numa especificação de software e linguagem chamada RenderMan, o que tornou muito mais prático gerar formas curvas com uma aparência realista e iluminação. Baseou-se em algumas das técnicas que Catmull tinha inventado durante o seu doutoramento, incluindo superfícies de subdivisão, que representam objetos curvos dividindo uma malha de polígonos em pedaços sucessivamente menores. Hanrahan ajudou a adicionar grandes novas ideias, como uma linguagem sombreada, o que tornou mais fácil especificar e alterar a forma e a aparência de objetos gerados por computador.

A Pixar lançou a RenderMan em Toy Story e os seus outros filmes e também o licenciou para outras empresas. O software é agora uma ferramenta padrão em Hollywood e foi usado em 44 dos últimos 47 filmes nomeados para um Óscar em efeitos visuais. Com o tempo, ajudou os filmes gerados por computador a amadurecer em simulação de objetos relativamente simples, como brinquedos de plástico a fenómenos físicos mais complexos, como peles ondulantes ou água salpicada. Catmull manteve-se presidente da Pixar depois de ter sido adquirida pela Disney por 7 mil milhões de dólares em 2006 e também liderou a divisão de animação da empresa até se reformar no ano passado. Ele está a aconselhar os laboratórios X da Alphabet, anteriormente conhecidos como Google X, sobre como gerir e completar projetos técnicos audaciosos. Hanrahan deixou a Pixar em 1989 e regressou à academia em Princeton, antes de se juntar a Stanford. Em 2003 fundou a empresa de análise de dados Tableau, que foi adquirida pela Salesforce por cerca de 16 mil milhões de dólares em 2019. Hoje é professor no laboratório de computação gráfica de Stanford, onde o seu trabalho incluiu a criação de código que ajudou chips gráficos especializados a melhorar a fidelidade e o poder de projetos de Hollywood, videojogos, realidade virtual e smartphones. Hanrahan diz que assistir à estreia de Toy Story em 1995 ajudou-o a entender o impacto que tal trabalho de matemática e ciências da computação nos bastidores pode ter no mundo. “Sabia que trabalhar em filmes era tecnicamente interessante e desafiante, mas foi incrível ver os sorrisos nas caras das crianças”, recorda. “Uma das razões porque ainda estou muito entusiasmado com gráficos é que realça o aspeto criativo das pessoas”.

Fonte: Wired

Construa uma nuvem privada

Construa, com os novos DS220j e DS420j NAS Synology a sua própria nuvem pessoal com até 64TB de armazenamento acessível a partir da sua rede doméstica e com um nível de entrada de 2 compartimentos projetado para utilizadores domésticos e pessoais para armazenar e partilhar fotos, vídeos e documentos. Uma unidade NAS é essencialmente um servidor conectado a rede, com a funcionalidade única de promover serviços de armazenamento de dados para outros dispositivos da rede. Estas unidades não são desenvolvidas para tarefas computacionais em geral, apesar de tecnicamente ser possível executar outros softwares nelas. Geralmente, as unidades não possuem teclado ou monitor, e são configuradas pela rede, normalmente através de um browser. O DS420j é para aqueles que querem um pouco mais de tudo. É um NAS de 4 compartimentos projetado para backup de dados domésticos, sincronização de ficheiros e partilha. É alimentado pelo mesmo realtek RTD1296 quad-core 1.4 GHz de 64 bits, tem 1GB de RAM, tem encriptação de hardware incorporada, e usa RAID 1 para proteger contra perda de dados de falha de unidade. Cada compartimento de unidade pode aceitar até 16TB de unidades (o que significa com RAID 1, a capacidade máxima da unidade será de 32TB), e é compatível com 3.5 polegadas SATA HDD, SATA HDD de 2,5 polegadas (com suporte de disco opcional) e SATA SSD de 2,5 polegadas (com suporte de disco opcional).

synology1
Muitas pessoas viram-se subitamente a trabalhar a partir de casa, e algumas pessoas repararam que isto está a colocar uma grande pressão na ligação à Internet, especialmente aqueles que precisam de uma ligação sólida para videoconferência por exemplo. Uma maneira de tirar a pressão da ligação à Internet é trazer dados da nuvem que regularmente precisa e armazená-lo localmente. E esta solução Synology com dois novos discos nos 2 compartimentos e 4 compartimentos que se encaixam não desapontam. Equipamentos NAS estão a ser usados pelo mundo corporativo há algum tempo, porém com a redução dos custos destes dispositivos e com a popularização de redes domésticas, diversos produtos NAS surgiram para o mercado pessoal. Estes dispositivos NAS de uso doméstico são baseados em processadores baratos correndo uma versão de Linux. Além do baixo custo, estes aparelhos têm baixo consumo de energia e têm uma instalação relativamente simples. Existem alternativas open source para implementações caseiras de NAS, como o FreeNAS, o Openfiler e o NASLite.

synology4
Sistemas NAS podem conter mais de um HD, podendo também contar uma tecnologia RAID (Redundant Arrays of Independent Disks), centralizando a responsabilidade de servir os arquivos numa rede e deste modo libertando recursos de outros servidores desta rede. Os protocolos utilizados pelo NAS são o NFS, popular em sistemas Unix, ou SMB/CIFS (Server Message Block/Common Internet File System) em ambientes Microsoft Windows, assim como o tradicional FTP. O NAS disponibiliza armazenamento e sistema de arquivos, contrastando com o SAN (Storage Area Network), que só realiza armazenamento e deixa ao cliente a tarefa de lidar com o sistema de arquivos. A principal distinção entre os dois sistemas de armazenamento é que o NAS fornece protocolos de arquivo, e o SAN protocolos de camada. Raramente se vê o sistema SAN a ser utilizado fora de grandes redes de computadores. Neste caso Synology, não só o hardware é sólido e fiável, como o Sistema de HardwaStation Manager (DSM) OS é simples de aprender, rápido de configurar e fácil de gerir. O caso Synology não é um caso de um monte de hardware da NAS decepcionado por um software pobre. O primeiro é o DS220j de 2 compartimentos. Este é um NAS de nível de entrada projetado para utilizadores domésticos e pessoais para armazenar e partilhar fotos, vídeos e documentos. O DS220j é alimentado por um Realtek RTD1296 quad-core 1.4 GHz de 64 bits, tem 512MB de RAM, tem encriptação de hardware incorporada e utiliza RAID 1 para proteger contra perda de dados de falha de unidade. Os dois compartimentos de acionamento podem aceitar até 16TB (o que significa com RAID 1, a capacidade máxima da unidade será de 16TB), e são compatíveis com 3.5 polegadas SATA HDD, SATA HDD de 2,5 polegadas (com suporte de disco opcional) e SATA SSD de 2,5 polegadas (com suporte de disco opcional). E não nos preocupemos com o consumo de energia. Enquanto está em hibernação, a unidade consome apenas 7.88W de energia.

Fonte: ZDNet

 

À medida que o 5G chega, o maior impacto será nos negócios.

O 5G é inclinado para trazer vantagens para as empresas grandes e pequenas, embora não aconteça de um dia para o outro. Se cumprir tudo o que promete, muitos esperam que a introdução do 5G sustentasse a quarta revolução industrial – Indústria 4.0, onde tudo está conectado, em processamento e digitalizado.

5g-business

O desencadear do 5G, de facto, não tem qualquer custo: espera-se que os operadores invistam cerca de 1,1 biliões de dólares em todo o mundo nos próximos cinco anos, dos quais 80% serão dedicados às redes 5G. Como muitos outros especialistas do setor, o GSMA prevê que 2020 é o ano em que o 5G passa do hype para a realidade – mas só se os operadores de rede convencerem os clientes de que a atualização do 4G para o 5G vale o esforço.

Muitas empresas, no entanto, ainda estão relutantes em atualizar para o 5G porque não conseguem ver o que a tecnologia trará que o 4G não pode. “Embora a maioria das empresas reconheça os benefícios dos ganhos de velocidade provocados pelo 5G”, disse o GSMA, “outras melhorias (como o corte de rede, a computação e os serviços de baixa latência) não são amplamente apreciadas, com muitos a acreditarem que o 4G permanece” bom o suficiente’”.

5G2

Enquanto a Apple, a Amazon e a Alphabet adicionaram entre 100 e 200 mil milhões de dólares em receitas desde 2010, os operadores móveis têm vindo a estagnar ou a registar um crescimento muito mais lento do que antes. Para sobreviver, os fornecedores de rede terão de encontrar fontes de receita fora dos seus serviços de telecomunicações. Propõe-se agora investigar campos como televisão paga, meios de comunicação e entretenimento ou publicidade.

À medida que o 5G chega, o maior impacto será nos negócios

 

Muitos utilizadores desconhecem o potencial real do 5G. A maioria dos inquiridos disse esperar que a tecnologia proporcione uma melhor velocidade de dados móveis, enquanto apenas cerca de um terço reconheceu que o 5G poderia trazer “novos serviços inovadores”. O 5G é inclinado para trazer vantagens para as empresas grandes e pequenas, embora não aconteça de um dia para o outro.

Se cumprir tudo o que promete, muitos esperam que a introdução do 5G sustentasse a quarta revolução industrial – Indústria 4.0, onde tudo está conectado, em processamento e digitalizado. Isto é definido para transformar e avançar muitas indústrias existentes, bem como criar novas. A falta de consciência do público não é o único obstáculo que está no caminho de uma conectividade mais rápida; a análise do GSMA salientou que os desafios persistem ao nível da implantação em si. O desencadear do 5G, de facto, não tem qualquer custo: espera-se que os operadores invistam cerca de 1,1 biliões de dólares em todo o mundo nos próximos cinco anos, dos quais 80% serão dedicados às redes 5G.

 

5g-business
À medida que o 5G chega, o maior impacto será nos negócios. Embora o 5G tenha passado do hype para a realidade, a tecnologia ainda não está perto de assumir o seu antecessor. A organização de comércio da indústria móvel GSMA divulgou a sua análise anual sobre o estado global da economia móvel e, sem surpresa, o relatório é dominado por tendências relacionadas com o 5G. Como muitos outros especialistas do setor, o GSMA prevê que 2020 é o ano em que o 5G passa do hype para a realidade – mas só se os operadores de rede convencerem os clientes de que a atualização do 4G para o 5G vale o esforço. Muitas empresas, no entanto, ainda estão relutantes em atualizar para o 5G porque não conseguem ver o que a tecnologia trará que o 4G não pode.

“Embora a maioria das empresas reconheça os benefícios dos ganhos de velocidade provocados pelo 5G”, disse o GSMA, “outras melhorias (como o corte de rede, a computação e os serviços de baixa latência) não são amplamente apreciadas, com muitos a acreditarem que o 4G permanece” bom o suficiente’”. “O objetivo final para o fabrico inteligente seria uma fábrica controlada de forma autónoma”, lê-se no relatório. Um exemplo inicial dos benefícios de fábricas mais inteligentes é a fábrica de telemóveis operada pela Changying Precision Technology Company, na cidade de Dongguan, na China. Inaugurada há alguns anos, a fábrica substituiu 90% da sua força de trabalho humana por 60 armas robóticas que funcionavam 24 horas por dia. Os resultados são convincentes: a automação levou a um aumento de produtividade de 250% e a uma queda de 80% nos defeitos.

A baixa latência e a conectividade ultrarápida irão efetivamente revolucionar os pisos de fábrica, desde a monitorização remota em tempo real de robôs e processos, até à utilização de simulações alimentadas a 5G, na realidade aumentada, para formar melhor a força de trabalho e aumentar a produtividade. Embora as estatísticas publicadas pelo GSMA mostrem que uma em cada cinco ligações móveis estará a funcionar no 5G até 2025, o que se traduzirá em 1,8 mil milhões de ligações, o relatório sublinha que “o 4G ainda é rei”. Mais de metade das ligações globais são atualmente suportadas pelo 4G, e a proporção deverá crescer para 56% até 2025. Mas, apesar dos desafios que o 5G enfrenta, o GSMA previu que a tecnologia contribuirá com 2,2 biliões de dólares para a economia global até 2034, com grandes casos de utilização a surgirem nos campos dos veículos autónomos e da produção inteligente.

A atribuição de espectro é um problema em curso na Europa, onde os operadores ainda têm de pagar enormes quantias de dinheiro para aceder a recursos limitados. Os obstáculos à política europeia podem explicar em parte as discrepâncias geográficas na adoção do 5G previstas pelo GSMA. Enquanto nos EUA e na China, estimou a organização, cerca de metade das ligações móveis a acontecer em 2025 serão 5G, a mesma estatística cai para 34% na Europa. O relatório mostrou que quase 70% dos fornecedores de rede indicaram que o acesso limitado ao espectro de radiofrequências era o maior obstáculo ao investimento previsto em rede em 5G. Os governos devem, por conseguinte, assegurar que os operadores tenham um acesso mais fácil às frequências de que necessitam para gerir as suas redes.

5G2
Para permitir resultados semelhantes numa escala maior, o GSMA salientou que os esforços terão de vir em conjunto da indústria e do governo. As políticas públicas devem ser orientadas para permitir uma implementação mais rápida e eficiente da tecnologia, por exemplo, simplificando e normalizando os procedimentos e regulamentos de planeamento para a aquisição do local. É verdade que muitas aplicações de conectividade mais rápida beneficiarão a indústria e não os consumidores, e o argumento de que os casos de utilização do 5G serão maioritariamente sobre as empresas é agora familiar. Na verdade, uma das previsões de 2025 do relatório é que “o 5G tornar-se-á a primeira geração na história do mobile a ter um impacto maior na empresa do que os consumidores”. No entanto, dificilmente se pode dizer que as receitas têm vindo a fluir ultimamente para os fornecedores de rede. Os operadores, indicou o relatório, têm-se debatido contra as gigantes tecnológicas.

Enquanto a Apple, a Amazon e a Alphabet adicionaram entre 100 e 200 mil milhões de dólares em receitas desde 2010, os operadores móveis têm vindo a estagnar ou a registar um crescimento muito mais lento do que antes. Para sobreviver, os fornecedores de rede terão de encontrar fontes de receita fora dos seus serviços de telecomunicações. O relatório sugeria investigar campos como televisão paga, meios de comunicação e entretenimento ou publicidade.

Fonte: ZDNet

A Era da Integridade Digital: Dos Dados Orientados para uma publicidade ´choice-first´

O Regulamento Geral sobre a Proteção de Dados (RGPD) (UE) 2016/679 é um regulamento do direito europeu sobre privacidade e proteção de dados pessoais, aplicável a todos os indivíduos na União Europeia e Espaço Económico Europeu que foi criado em 2018. Regulamenta também a exportação de dados pessoais para fora da UE e EEE.

Segundo um estudo publicado pelo IAPP – International Association of Privacy Professionals [12] as novas leis de proteção de dados deverão criar 75.000 novos
empregos no mundo, dos quais 28.000 na União Europeia. A necessidade de designação de um DPO – Data Protection Officer independente (ou Encarregado de Proteção
de Dados), deverá ser uma das principais fontes de demanda por novos profissionais. Grandes portais de tecnologia e negócios também divulgaram notícias sobre oportunidades de negócios a serem criadas pelas novas diretivas. O RGPD tem como objetivo dar aos cidadãos e residentes formas de controlar os seus dados pessoais e unificar o quadro regulamentar europeu, e no seguimento destas linhas orientadoras, e
escrevendo exclusivamente para a ExchangeWire, Raphael Rodier, chief revenue officer, international, na Ogury, discute como o ecossistema de publicidade digital está definido para mudar fundamentalmente de um modelo baseado em dados, para um ambiente de ´primeiro uma escolha´.

gdpr2

Como referido, durante décadas, os dados dos consumidores foram recolhidos sem consentimento para servir anúncios indesejados, intrusivos e direcionados. Não é surpresa então que a nossa pesquisa da empresa de mais de 287.000 utilizadores globais de smartphones revelou que uma esmagadora maioria (90%) de consumidores
acham anúncios direcionados irritantes. Mais dados, e segmentação mais refinada, permitir-lhe-ão fornecer anúncios relevantes que melhorem a experiência do utilizador e gerem os resultados necessários. Mas não está a funcionar assim. Os consumidores continuam frustrados com os anúncios que vêem. E com a introdução de novas leis de privacidade em todo o mundo, todos os dados que usa precisam ser compatíveis e consentidos. Caso contrário, enfrentamos riscos legais, financeiros e reputacionais.

Muitas empresas de tecnologia de anúncios estão a tentar aplicar CPMPs, a fim de contornar regulamentos de privacidade de dados, como o RGPD (Regulamento
Geral de Proteção de Dados) ou a Lei de Privacidade dos Consumidores da Califórnia (CCPA). Mas, apesar de estarem a tentar focar-se na conformidade, continuam, mais frequentemente do que não, a não oferecer aos utilizadores uma escolha justa e informada sobre a forma como partilham os seus dados. Apesar da orientação clara das autoridades de proteção de dados, 88% das implementações do CPMP continuam a negligenciar a oferta aos utilizadores de uma escolha plenamente compatível ou significativa sobre os seus dados. Para estabelecer a confiança e colocar os utilizadores no centro, as organizações precisam de abraçar um novo modelo de publicidade digital e implementar um CPMP que se baseie na clareza cristalina, no intercâmbio justo e na integridade inabalável. Garantir que os três são cumpridos é a única forma de abraçar
a era da integridade digital e evitar o tipo de publicidade fraudulenta que corrói a confiança e os resultados dos utilizadores. Desde o início, a clareza do contrato de consentimento entre consumidores e anunciantes deve ser delineada numa linguagem clara e concisa e deve oferecer três opções distintas:

1. Pague por uma subscrição que permita aos consumidores aceder a conteúdos sem anúncios e sem ter os seus dados rastreados.
2. Concordar em que os seus dados sejam recolhidos em troca de uma experiência mais personalizada, incluindo publicidade direcionada.
3. Opt-out da partilha de dados pessoais, mas receber anúncios mais irrelevantes e possivelmente prejudicar a experiência do utilizador.

É a única forma de garantir o pleno cumprimento e uma troca de justo valor. E é a única forma de recolher os dados fiáveis necessários para impulsionar a eficiência da publicidade digital.

gdpr1

Apresentando um caso concreto, a Ogury construiu o seu negócio com a firme convicção de que a escolha do utilizador deve ser colocada no centro de todas as estratégias de publicidade digital, e pode atestar que é possível respeitar os utilizadores da forma correta, para entregar resultados empresariais. Como líder em publicidade orientada para a escolha, têm confiado na recolha de consentimento e preferências dos utilizadores desde a fundação em 2014; Muito antes do RGPD entrar em vigor. Compreende-se o delicado ato de equilíbrio entre o cumprimento e o crescimento sustentado das receitas. O modelo de publicidade orientado para a escolha integra uma plataforma de gestão de consentimento e preferência sem propósito na espinha dorsal da tecnologia, para alimentar as escolhas dos utilizadores em todas as ativações publicitárias. Por conseguinte, serve apenas anúncios aos consumidores que optaram por ver e envolver-se com eles. Ao adotar este tipo de abordagem de primeira utilização, tem uma oportunidade real de envolver eficazmente os consumidores em dispositivos móveis, gerar retornos mensuráveis em todos os gastos de anúncios, e estabelecer um futuro sustentável para a publicidade digital, que se baseia na confiança.

Documentários como ‘The Great Hack’, e escândalos de alto nível como a Cambridge Analytica revelaram este facto ao mundo, deixando os consumidores irritados, cínicos e desconfiados em relação à publicidade digital. Estão cientes de que os seus dados foram recolhidos sem autorização e a confiança entre anunciantes, editores e utilizadores diminuiu. A indústria da publicidade digital enfrenta a sua maior transformação desde a criação da internet. A segurança dos dados é um novo imperativo, e é tão importante como a segurança da marca. A única maneira de garantir o sucesso é tomar uma nova abordagem, que passa de orientada a dados para a escolha em primeiro lugar. A mudança: A escolha do utilizador está a tomar o centro do palco

Mas, como é que se pode colocar a escolha do utilizador no centro da sua estratégia publicitária, sem pôr em risco o alcance ou o desempenho? Não é tão difícil como possamos pensar. E tudo começa com dados consentidos. Consentimento: Uma primeira linha vital de comunicação. Dados consentidos são dados que são recolhidos e utilizados eticamente e de forma a respeitar a privacidade e inteligência do utilizador. Isto requer
necessariamente uma plataforma de gestão de consentimento e preferência (CPMP) – uma tecnologia que recolhe e consolida as escolhas dos utilizadores em torno dos seus dados pessoais, que é administrada por editores e anunciantes nos seus próprios websites e aplicações. Não basta concentrarmo-nos em tentar ser complacente. Os utilizadores precisam de saber que lhes foi dada uma escolha e que também estão a receber valor. O Reality Report 2019 revelou que os consumidores compreendem o valor dos seus dados – quando lhes é dada uma escolha clara e justa, 71% das pessoas preferem partilhar os seus dados em vez de pagarem uma taxa monetária – sabem que o valor deve ser oferecido de forma clara e estão muito mais dispostos a pagar os seus dados.

Este tipo de compromisso em criar confiança entre anunciantes e consumidores é vital para o futuro da publicidade digital. A oportunidade: Abraçar uma era de integridade digital. A confiança dos utilizadores é uma vantagem competitiva e uma rota para um crescimento sustentável do negócio – e o futuro pertence àqueles que respondem à
mudança vital que está a transformar a publicidade digital. À medida que a indústria entra nesta nova era de integridade digital, não deve entendê-la como algo definido para o dificultar, mas vê-la como uma oportunidade para colocar os utilizadores no centro da sua estratégia de publicidade digital para impulsionar o sucesso a longo prazo.

Fonte: Exchangewire