PS5 com “loucas velocidades de dados”

PS5 foi construída para lidar com “loucas velocidades de dados. Parece que a Sony fez um controlador SSD personalizado para lidar com as incríveis velocidades de dados da PS5”, disse o iFixit

O iFixit elogiou o enorme ventilador da PS5, múltiplos tubos de calor que se sobrepõem “como um intercâmbio de autoestradas”, e portas de poeira a vácuo.

“Quando se trata de falar de uma fácil manutenção do hardware de arrefecimento da sua consola, pode dizer-se que somos grandes fãs. A PS5 implementa arrefecimento ‘omnidirecional’, com esta espessa gaiola de esquilo de 120 mm a puxar ar fresco de ambos os lados.”

Fonte: C|Net

Como resolver o problema atual dos dados da Inteligência Artificial

Por mais inteligente que o colega de trabalho algorítmico possa ser, ainda vai precisar de ajuda humana de vez em quando. E se isso soa ou não como uma relação de trabalho natural, o conceito de um problema de dados humanos parece certamente um passo em frente, e potencialmente uma solução para o grande problema de dados da IA.

O novo nível de interação entre humanos e IA é suscetível de jogar a favor do algoritmo: Yilmaz argumentou que o método poderia superar o medo de que alguns trabalhadores podem sentir-se na perspetiva de implantar a tecnologia no local de trabalho. A IA ativa, neste contexto, poderia fornecer uma opção mais suave pela qual o algoritmo atua como um colega de trabalho, e não como um substituto.

A IA tem um grande problema de dados. Aqui está como consertá-lo
Algoritmos supervisionados requerem muitos dados, e muitas vezes resultam em previsões tremidas. Está na hora da próxima fase da IA? A inteligência artificial tem, literalmente, um grande problema de dados – e que a crise covid-19 tornou agora impossível ignorar por mais tempo. Para empresas, governos e indivíduos, a pandemia global redefiniu efetivamente a vida “normal”; mas enquanto a maioria de nós já se ajustou à mudança, o mesmo não se pode dizer dos sistemas de IA, que baseiam as suas previsões no que o passado costumava parecer.

Falando na conferência CogX 2020, o matemático britânico David Barber afirmou: “A implementação de sistemas de IA é atualmente desajeitada. Normalmente, incia-se o processo, recolhe-se o conjunto de dados, rotula-se, treina-se o sistema e, em seguida, implemante-se. E é isso – não se revisita o sistema implementado. Mas isto não é feito da melhor forma se o ambiente está a mudar.” Barber referia-se ao machine learning supervisionado, a que chamou “paradigma clássico” de hoje em IA, e que consiste em ensinar algoritmos com exemplos. Num modelo supervisionado, um sistema de IA é alimentado por um grande conjunto de dados que já foi rotulado por humanos, e que é usado para treinar a tecnologia para reconhecer padrões e fazer previsões.

Acrescentou que um uso de alto perfil da tecnologia está nos automóveis sem condutor, onde os vídeos ainda precisam de ser segmentados e rotulados em “pedestre”, “carro”, “árvore” e noutros objetos que o carro precisa de reconhecer. Anotar milhões destes vídeos é moroso e dispendioso; por outro lado, deixar os algoritmos aprenderem e fazerem perguntas pode acelerar significativamente o processo. E, quando uma pandemia global ataca, os sistemas de IA “ativos”, deverão ser capazes de integrar novos dados em tempo real, juntamente com algumas entradas humanas, e depois adaptar-se suas previsões – em vez de esperar que grandes conjuntos de dados sejam anotados manualmente para a aprendisagem.

“Se está a desenvolver IA usando a abordagem tradicional de recolher grandes quantidades de dados e, em seguida, treinar um modelo de deep-learning, há apenas uma forma rápida a ir”, disse Barber à ZDNet. “Com o modelo tradicional, terias a sorte de ter um novo modelo a viver em produção em menos de alguns meses. Mas com aprendizagem ativa, isto pode levar apenas alguns dias no máximo.” Poderíamos treinar um algoritmo para automatizar a decisão de empréstimo num banco, por exemplo, com base em rendimentos de particulares ou pontuações de crédito. Propondo integrar o COVID-19, junto com um novo conjunto de padrões bancários, e o sistema de IA provavelmente irá baralhar-se para decidir quem recebe o dinheiro. Da mesma forma, alguns meses após a crise do covid-19, um investigador dos EUA salientou que os algoritmos, apesar de todos os dados de treino que foram alimentados, ainda assim não conseguiria “compreender” a natureza do surto ou da sua propagação por todo o mundo. Devido à falta de dados de treino sobre coronavírus passados, explica a pesquisa, a maioria das previsões geradas por ferramentas de IA foram encontrando falta de fiabilidade, e resultados muitas vezes longe da gravidade da crise.

Enquanto isso, na ´healthtech´, os fabricantes de ferramentas de saúde de IA lutaram para atualizar os seus algoritmos devido à falta de dados relevantes sobre o vírus, resultando em muitos chatbots de “symptom finder” fora das referências. Com os dados de um ambiente pré-COVID não correspondendo ao mundo real, os algoritmos supervisionados estão a ficar sem exemplos para basear as suas previsões. E para piorar as coisas, os sistemas de IA não sinalizam as suas incertezas para o seu operador humano. “A IA não lhe dirá quando na verdade não está confiante sobre a precisão da sua previsão e precisa da envolvência de um humano” disse Barber. “Há muitas incertezas nestes sistemas. Por isso, é importante que a IA possa alertar o ser humano quando não está confiante na sua decisão.”

Isto é o que Barber descreveu como uma situação de “colega de trabalho da IA”, onde humanos e máquinas interagiriam para garantir que as lacunas não ficassem por preencher. Na verdade, é um método dentro da inteligência artificial que está lentamente a emergir como um método particularmente eficiente. Apelidada de “aprendizagem ativa”, consiste em estabelecer uma relação professor-aprendizagem entre sistemas de IA e operadores humanos. Em vez de alimentar o algoritmo com um enorme conjunto de dados rotulado, e permitindo-lhe tirar conclusões – muitas vezes de forma menos transparente – a aprendizagem ativa permite que o sistema de IA faça a maior parte da rotulagem de dados por si só, e crucialmente, fazer perguntas quando tem dúvidas.

O processo envolve um pequeno conjunto de dados com rótulo humano, chamado ´a semente´, que é usado para treinar o algoritmo. O sistema de IA é então apresentado com um maior conjunto de dados não rotulados, que o algoritmo anota por si só, com base na sua aprendisagem – antes de integrar os dados recentemente rotulados de volta à semente. Quando a ferramenta não está confiante sobre um rótulo específico, pode pedir ajuda a um operador humano sob a forma de uma consulta. As escolhas feitas por especialistas humanos são então alimentados de volta ao sistema, para melhorar o processo de aprendizagem geral. O apelo imediato da aprendizagem ativa reside no volume muito menor de dados rotulados que são necessários para formar o sistema. Algoritmos supervisionados, porque eles não aprendem por si mesmos, requerem um conjunto extenso de exemplos rotulados para serem fornecidos por humanos. Isto traduz-se em processos longos e dispendiosos para rotular manualmente até milhares de milhões de pontos de dados para qualquer conjunto de dados.

Algumas plataformas, como a Amazon’s Mechanical Turk, até se especializaram em conectar organizações com um grande conjunto de mão de obra de baixo custo espalhadas pelo globo. “Turkers”, como são chamados, clicam em milhares de imagens por dia, anotando pontos de dados como solicitado, que irão para a formação de futuros algoritmos. A aprendizagem ativa, por outro lado, só requer a rotulagem de um pequeno conjunto de dados de sementes. Barber, na verdade, estima que o processo envolve anotar até dez vezes menos dados. Ele não é o único a ter apanhado esta regalia específica do método. As grandes empresas tecnológicas, especialmente, têm um forte interesse em reduzir o volume de dados rotulados que precisam para alimentar os seus algoritmos.

A unidade de IA do Facebook está fortemente assente no desenvolvimento de um modelo para uma IA que aprende, e para várias aplicações, incluindo a identificação de conteúdos nocivos. A gigante tecnológica publicou recentemente resultados que mostram que a sua equipa de IA, utilizando um método professor-aluno, tinha treinado com sucesso um algoritmo de classificação de imagem baseado numa coleção de um recorde de mil milhões de imagens não etiquetadas, usando um “conjunto relativamente menor”, de dados rotulados. Mas não se trata apenas de reduzir o processo de rotulagem de dados: a aprendizagem ativa também é mais eficiente, em comparação com a aprendizagem supervisionada. Ser capaz de perguntar ao humano acerca de dicas sobre onde se concentrar quando é confrontado com um pedaço de dados sobre os quais não tem certeza, significa que um sistema de IA “ativo” não só pode responder ao desconhecido, mas também aprender com ele.

Fonte: ZDNet

A Era da Integridade Digital: Dos Dados Orientados para uma publicidade ´choice-first´

O Regulamento Geral sobre a Proteção de Dados (RGPD) (UE) 2016/679 é um regulamento do direito europeu sobre privacidade e proteção de dados pessoais, aplicável a todos os indivíduos na União Europeia e Espaço Económico Europeu que foi criado em 2018. Regulamenta também a exportação de dados pessoais para fora da UE e EEE.

Segundo um estudo publicado pelo IAPP – International Association of Privacy Professionals [12] as novas leis de proteção de dados deverão criar 75.000 novos
empregos no mundo, dos quais 28.000 na União Europeia. A necessidade de designação de um DPO – Data Protection Officer independente (ou Encarregado de Proteção
de Dados), deverá ser uma das principais fontes de demanda por novos profissionais. Grandes portais de tecnologia e negócios também divulgaram notícias sobre oportunidades de negócios a serem criadas pelas novas diretivas. O RGPD tem como objetivo dar aos cidadãos e residentes formas de controlar os seus dados pessoais e unificar o quadro regulamentar europeu, e no seguimento destas linhas orientadoras, e
escrevendo exclusivamente para a ExchangeWire, Raphael Rodier, chief revenue officer, international, na Ogury, discute como o ecossistema de publicidade digital está definido para mudar fundamentalmente de um modelo baseado em dados, para um ambiente de ´primeiro uma escolha´.

gdpr2

Como referido, durante décadas, os dados dos consumidores foram recolhidos sem consentimento para servir anúncios indesejados, intrusivos e direcionados. Não é surpresa então que a nossa pesquisa da empresa de mais de 287.000 utilizadores globais de smartphones revelou que uma esmagadora maioria (90%) de consumidores
acham anúncios direcionados irritantes. Mais dados, e segmentação mais refinada, permitir-lhe-ão fornecer anúncios relevantes que melhorem a experiência do utilizador e gerem os resultados necessários. Mas não está a funcionar assim. Os consumidores continuam frustrados com os anúncios que vêem. E com a introdução de novas leis de privacidade em todo o mundo, todos os dados que usa precisam ser compatíveis e consentidos. Caso contrário, enfrentamos riscos legais, financeiros e reputacionais.

Muitas empresas de tecnologia de anúncios estão a tentar aplicar CPMPs, a fim de contornar regulamentos de privacidade de dados, como o RGPD (Regulamento
Geral de Proteção de Dados) ou a Lei de Privacidade dos Consumidores da Califórnia (CCPA). Mas, apesar de estarem a tentar focar-se na conformidade, continuam, mais frequentemente do que não, a não oferecer aos utilizadores uma escolha justa e informada sobre a forma como partilham os seus dados. Apesar da orientação clara das autoridades de proteção de dados, 88% das implementações do CPMP continuam a negligenciar a oferta aos utilizadores de uma escolha plenamente compatível ou significativa sobre os seus dados. Para estabelecer a confiança e colocar os utilizadores no centro, as organizações precisam de abraçar um novo modelo de publicidade digital e implementar um CPMP que se baseie na clareza cristalina, no intercâmbio justo e na integridade inabalável. Garantir que os três são cumpridos é a única forma de abraçar
a era da integridade digital e evitar o tipo de publicidade fraudulenta que corrói a confiança e os resultados dos utilizadores. Desde o início, a clareza do contrato de consentimento entre consumidores e anunciantes deve ser delineada numa linguagem clara e concisa e deve oferecer três opções distintas:

1. Pague por uma subscrição que permita aos consumidores aceder a conteúdos sem anúncios e sem ter os seus dados rastreados.
2. Concordar em que os seus dados sejam recolhidos em troca de uma experiência mais personalizada, incluindo publicidade direcionada.
3. Opt-out da partilha de dados pessoais, mas receber anúncios mais irrelevantes e possivelmente prejudicar a experiência do utilizador.

É a única forma de garantir o pleno cumprimento e uma troca de justo valor. E é a única forma de recolher os dados fiáveis necessários para impulsionar a eficiência da publicidade digital.

gdpr1

Apresentando um caso concreto, a Ogury construiu o seu negócio com a firme convicção de que a escolha do utilizador deve ser colocada no centro de todas as estratégias de publicidade digital, e pode atestar que é possível respeitar os utilizadores da forma correta, para entregar resultados empresariais. Como líder em publicidade orientada para a escolha, têm confiado na recolha de consentimento e preferências dos utilizadores desde a fundação em 2014; Muito antes do RGPD entrar em vigor. Compreende-se o delicado ato de equilíbrio entre o cumprimento e o crescimento sustentado das receitas. O modelo de publicidade orientado para a escolha integra uma plataforma de gestão de consentimento e preferência sem propósito na espinha dorsal da tecnologia, para alimentar as escolhas dos utilizadores em todas as ativações publicitárias. Por conseguinte, serve apenas anúncios aos consumidores que optaram por ver e envolver-se com eles. Ao adotar este tipo de abordagem de primeira utilização, tem uma oportunidade real de envolver eficazmente os consumidores em dispositivos móveis, gerar retornos mensuráveis em todos os gastos de anúncios, e estabelecer um futuro sustentável para a publicidade digital, que se baseia na confiança.

Documentários como ‘The Great Hack’, e escândalos de alto nível como a Cambridge Analytica revelaram este facto ao mundo, deixando os consumidores irritados, cínicos e desconfiados em relação à publicidade digital. Estão cientes de que os seus dados foram recolhidos sem autorização e a confiança entre anunciantes, editores e utilizadores diminuiu. A indústria da publicidade digital enfrenta a sua maior transformação desde a criação da internet. A segurança dos dados é um novo imperativo, e é tão importante como a segurança da marca. A única maneira de garantir o sucesso é tomar uma nova abordagem, que passa de orientada a dados para a escolha em primeiro lugar. A mudança: A escolha do utilizador está a tomar o centro do palco

Mas, como é que se pode colocar a escolha do utilizador no centro da sua estratégia publicitária, sem pôr em risco o alcance ou o desempenho? Não é tão difícil como possamos pensar. E tudo começa com dados consentidos. Consentimento: Uma primeira linha vital de comunicação. Dados consentidos são dados que são recolhidos e utilizados eticamente e de forma a respeitar a privacidade e inteligência do utilizador. Isto requer
necessariamente uma plataforma de gestão de consentimento e preferência (CPMP) – uma tecnologia que recolhe e consolida as escolhas dos utilizadores em torno dos seus dados pessoais, que é administrada por editores e anunciantes nos seus próprios websites e aplicações. Não basta concentrarmo-nos em tentar ser complacente. Os utilizadores precisam de saber que lhes foi dada uma escolha e que também estão a receber valor. O Reality Report 2019 revelou que os consumidores compreendem o valor dos seus dados – quando lhes é dada uma escolha clara e justa, 71% das pessoas preferem partilhar os seus dados em vez de pagarem uma taxa monetária – sabem que o valor deve ser oferecido de forma clara e estão muito mais dispostos a pagar os seus dados.

Este tipo de compromisso em criar confiança entre anunciantes e consumidores é vital para o futuro da publicidade digital. A oportunidade: Abraçar uma era de integridade digital. A confiança dos utilizadores é uma vantagem competitiva e uma rota para um crescimento sustentável do negócio – e o futuro pertence àqueles que respondem à
mudança vital que está a transformar a publicidade digital. À medida que a indústria entra nesta nova era de integridade digital, não deve entendê-la como algo definido para o dificultar, mas vê-la como uma oportunidade para colocar os utilizadores no centro da sua estratégia de publicidade digital para impulsionar o sucesso a longo prazo.

Fonte: Exchangewire

Estratégia da gestão de Dados > Privacidade e riscos na segurança

Forrester Research 2020
Enquanto o interesse em big data diminuiu ao longo do último dois anos, estratégia de dados empresariais continua a ser uma iniciativa de topo para executivos e irá continuar em 2020.  Sem surpresa, obter dados certos é um multifacetado exercício — desde investimentos tecnológicos a talentos recrutamento e gestão, governação e processo
re-engenharia.
neste contexto, o papel do CISO é ´chave´ pois um oficial chefe de segurança da informação (CISO) é o executivo de alto nível dentro de uma organização responsável por estabelecer e manter o visão, estratégia e programa da empresa para garantir ativos de informação e tecnologias estão adequadamente protegidas.
dataStratgy
A literacia de dados, também, será uma prioridade, com 40% das empresas em lançamento de programas de literacia de dados para todos numa organização.
Empresas que procuram empurrar mais para a nuvem e explorar a computação também estão a vislumbrar uma nova realidade onde o custo transacional do processamento de dados e movimento vai superar o armazenamento. As novas tecnologias em 2020 estarão sob foco, tais como reconhecimento facial, dados de vídeo, visão computacional, dados de imagem, software de gestão de privacidade, partes interessadas precisam de como uma máquina tomar uma decisão, bem como todo o desafio sobre algoritmos não transparentes e violações do RGPD.

É fundamental para desbloquear a transformação digital de uma empresa – e necessário para tomar vantagem da IA e da aprendizagem automática. 2020 será um ano de despertar para muitas empresas, como o custo total de obter dados errados tornar-se-ão evidentes. 
dataAI
Mas três dinâmicas estão a convergir e em 2020 irão persistir:
1. A importância dos dados e o poder de uma empresa ser orientada por insights estão a promover os danos com o fator de violações de dados.
2. A adoção de tecnologias emergentes como a internet das coisas está a criar uma superfície de ataque maior que é muitas vezes construído com apenas alguns controlos de segurança, expondo empresas de formas nunca antes vistas.
3. A infeliz realidade virá à luz que o mal forças podem adotar tecnologias como AI e aprendizagem automática mais rápido do que os líderes de segurança.
Forrester Research 2020

Estratégia da gestão de Dados

Estratégia da gestão de Dados
Privacidade e riscos na segurança
Enquanto o interesse em big data diminuiu ao longo dos últimos dois anos
a estratégia de dados empresariais continua a ser
uma iniciativa de topo para executivos
e irá continuar em 2020.
A literacia de dados, também, será uma prioridade
com 40% das empresas em lançamento de programas de literacia de dados para todos numa organização.
by Forrester Research, 2020