quinta-feira, 29 de fevereiro de 2024

Arrendar uma casa em Cascais já custa, em média, mais de 3.000 euros por mês

 
Portugal atravessa atualmente uma grave crise na habitação, e os números cada vez mais revelam a discrepância entre o poder de compra dos portugueses e do valor das casas para arrendamento.

De acordo com o barómetro relativo à evolução dos preços médios anunciados de arrendamento e venda, em Lisboa, do Imovirtual, em fevereiro de 2023, em comparação com o período homólogo do ano anterior, no que respeita aos imóveis para arrendar, verifica-se um aumento na renda média de 37%, estando 350 euros mais caro.

Apesar de se verificar uma ligeira estabilização dos valores médios, em fevereiro houve um aumento (+8%), fixando-se agora em 1.300 euros, comparado com o mês passado. Ler mais

Portugal é o quinto país mais perigoso da Europa para conduzir

 Estudo internacional sobre segurança rodoviária coloca Roménia, Sérvia e Bulgária no topo da lista da sinistralidade. Portugal fecha o sinistro Top 5, enquanto a Noruega está no polo oposto: é o país mais seguro para conduzir. 

Um estudo da Vignetteswitzerland.com analisou os dados mais recentes do Conselho Europeu de Segurança nos Transportes para concluir que países tiveram o maior número de mortes nas estradas por milhão de habitantes. E concluiu que a Roménia é estatisticamente o país mais perigoso da Europa para conduzir: o país teve 85,81 mortes por milhão de habitantes em acidentes de viação. Mais: estes números terríveis revelam uma queda de 10,26% em relação a 2012, altura em que o país atingiu 95,62 mortes por milhão de habitantes.

A Sérvia ocupa o segundo lugar na lista, com o país a registar 82,65 mortes nas estradas por milhão de habitantes. Em comparação com os dados de 2012, este valor representa uma queda de 13% em relação a 95,01 mortes nas estradas por milhão de habitantes de então. Ler mais

 

Se o bem for a reparar...

SISTEMAS DE INTELIGÊNCIA ARTIFICIAL RISCO INACEITÁVEL (I)


DA PROPOSTA ORIGINAL

Da Proposta inicial de Regulamento Europeu, em fase de acerto e publicação, avultam como proibidas as seguintes práticas de inteligência artificial:

§  A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa para distorcer substancialmente o seu comportamento de uma forma tal que cause ou seja susceptível de causar danos físicos ou psicológicos a essa ou a outra pessoa;

 §  A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore quaisquer vulnerabilidades de um grupo específico de pessoas associadas à sua idade ou deficiência física ou mental, a fim de distorcer substancialmente o comportamento de pessoa pertencente a um tal grupo de forma que cause ou seja susceptível de causar danos físicos ou psicológicos a essa ou a outra pessoa;

 §  A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA por autoridades públicas ou em seu nome para efeitos de avaliação ou classificação da credibilidade de pessoas singulares durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas ou previsíveis, em que a classificação social conduz a uma das seguintes situações ou a ambas:

 

o   tratamento prejudicial ou desfavorável de determinadas pessoas singulares ou de grupos inteiros em contextos sociais não relacionados com os contextos em que os dados foram originalmente gerados ou recolhidos,

 

o   tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos inteiros que é injustificado e desproporcionado face ao seu comportamento social ou à gravidade do mesmo;

 

§  A utilização de sistemas de identificação biométrica à distância em «tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública, salvo se essa utilização for estritamente necessária para alcançar um dos seguintes objectivos:

 

o   a investigação selectiva de potenciais vítimas específicas de crimes, nomeadamente crianças desaparecidas,

 

o   a prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas singulares ou de um ataque terrorista,

 

o   a detecção, localização, identificação ou instauração de acção penal relativamente a um infractor ou suspeito de uma infracção penal (…) punível no Estado-Membro em causa com pena ou medida de segurança privativas de liberdade de duração máxima não inferior a três anos e como tal definidas pela legislação de um tal Estado-Membro.

A utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública que vise alcançar um dos objectivos precedentemente enunciados deve ter em conta os seguintes elementos:

§  A natureza da situação que origina a possível utilização, em especial a gravidade, a probabilidade e a magnitude dos prejuízos causados na ausência da utilização do sistema;

 

§  As consequências da utilização do sistema para os direitos e as liberdades de todas as pessoas afectadas, em especial a gravidade, a probabilidade e a magnitude dessas consequências.

Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública que vise alcançar um dos objectivos +precedentemente definidos deve observar salvaguardas e condições necessárias e proporcionadas em relação a tal utilização, nomeadamente no respeitante a limitações temporais, geográficas e das pessoas visadas.

 

No tocante a um qualquer sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública,  cada uma das suas  utilizações específicas está sujeita a autorização prévia concedida por uma autoridade judiciária ou por uma autoridade administrativa independente do Estado-Membro no qual a utilização terá lugar após apresentação de um pedido fundamentado em conformidade com as regras de execução previstas no direito nacional.

Contudo, numa situação de urgência devidamente justificada, a utilização do sistema pode ser iniciada sem uma autorização que poderá ser solicitada apenas durante ou após a sua utilização.

A autoridade judiciária ou administrativa competente apenas deve conceder a autorização se considerar, com base em dados objectivos ou indícios claros que lhe tenham sido apresentados, que a utilização do sistema de identificação biométrica à distância «em tempo real» em apreço é necessária e proporcionada para alcançar um dos objectivos precedentemente definidos, conforme identificado no pedido. Ao decidir sobre o pedido, a autoridade judiciária ou administrativa competente tem em conta as salvaguardas supra mencionadas.

Um Estado-Membro pode decidir prever a possibilidade de autorizar total ou parcialmente a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública dentro dos limites e sob as condições enumeradas precedentemente.

 Se assim for, o Estado-Membro estabelece na sua legislação nacional as regras pormenorizadas aplicáveis ao pedido, à emissão e ao exercício das autorizações exigíveis, bem como à supervisão das mesmas.

Tais regras especificarão igualmente em relação a que objectivos enumerados, em que se incluem as infracções penais emolduradas, as autoridades competentes podem ser autorizadas a usar esses sistemas para efeitos de manutenção da ordem pública.

 

(OBS.: O Parlamento Europeu introduziu, na concertação a que chegou internamente a 14 de Junho de 2023, um sem-número de alterações que se considerarão em apontamento posterior).

PROPOSTA DE REGULAMENTO DA INTELIGÊNCIA ARTIFICIAL

 


SISTEMAS DE RISCO INACEITÁVEL

(II)

 

Eis o texto saído do Parlamento Europeu, em 14 de Junho de 2023, após a aprovação dos eurodeputados intervenientes:

TÍTULO II

PRÁTICAS DE INTELIGÊNCIA ARTIFICIAL PROIBIDAS

 

Artigo 5.º

 

1. Estão proibidas as seguintes práticas de inteligência artificial:

a) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa ou técnicas manifestamente de manipulação ou enganadoras, com o objectivo ou o efeito de distorcer substancialmente o comportamento de uma pessoa ou grupo de pessoas prejudicando consideravelmente a sua capacidade de tomar uma decisão informada e, dessa forma, levando a pessoa a tomar uma decisão que, caso contrário, não tomaria, de uma forma que cause ou seja susceptível de causar danos a essa ou a outra pessoa, ou a um grupo de pessoas;

A proibição de sistemas de IA que utilizem as técnicas subliminares a que se refere o primeiro parágrafo não se aplica a sistemas de IA concebidos para serem utilizados para fins terapêuticos aprovados com base no consentimento informado específico das pessoas que lhes são expostas ou, se for caso disso, do seu tutor legal;

b)  A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore quaisquer vulnerabilidades de uma pessoa ou de um grupo específico de pessoas, incluindo as suas características conhecidas ou previstas da personalidade ou da situação social ou económica, a sua idade ou capacidade mental, com o objectivo ou o efeito de distorcer substancialmente o comportamento da pessoa ou de uma pessoa pertencente a esse grupo de uma forma que cause ou seja susceptível de causar danos significativos a essa ou a outra pessoa;

b-A) A colocação no mercado, a colocação em serviço ou a utilização de sistemas de categorização biométrica, que categorizam as pessoas singulares de acordo com atributos ou características sensíveis ou protegidos, ou com base nesses atributos ou características inferidos.

Esta proibição não se aplica a sistemas de IA concebidos para serem utilizados para fins terapêuticos aprovados com base no consentimento informado específico das pessoas que lhes são expostas ou, se for caso disso, do seu tutor legal.

c) A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para efeitos de avaliação ou de classificação social de pessoas singulares ou de grupos de pessoas durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas, inferidas ou previsíveis, em que a classificação social conduz a uma das seguintes situações ou a ambas:

i) tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos inteiros das mesmas em contextos sociais não relacionados com os contextos nos quais os dados foram originalmente gerados ou recolhidos,

ii) tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos inteiros das mesmas que é injustificado e desproporcionado face ao seu comportamento social ou à gravidade do mesmo;

d)  A utilização de sistemas de identificação biométrica à distância em «tempo real» em espaços acessíveis ao público;

ADITAMENTOS:

d-A) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA para a realização de avaliações de risco de pessoas singulares ou de grupos de pessoas, a fim de avaliar o risco de uma pessoa singular poder cometer, ou voltar a cometer uma infracção, ou para prever a ocorrência ou a recorrência de uma infracção penal ou administrativa real ou potencial com base na definição do perfil de uma pessoa singular ou na avaliação de traços e características de personalidade, incluindo na localização da pessoa, ou no comportamento criminal passado de pessoas singulares ou de grupos de pessoas singulares;

d-B) A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA que criem ou expandam bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais a partir da Internet ou de imagens de CCTV;

d-C) A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para inferir emoções de uma pessoa singular nos domínios da aplicação da lei e da gestão das fronteiras, no local de trabalho e nos estabelecimentos de ensino.

d-D) A colocação em serviço ou a utilização de sistemas de IA para a análise de vídeos de espaços acessíveis ao público através de sistemas de identificação biométrica à distância «em diferido», a menos que estejam sujeitos a uma autorização prejudicial em conformidade com a legislação da União e sejam estritamente necessários para a pesquisa precisa associada a uma infracção penal grave específica, tal como definida no artigo 83.º, n.º 1, do TFUE, que já tenha ocorrido para efeitos de aplicação da lei.

ADITAMENTO:

1-A. O presente artigo não afecta as proibições aplicáveis quando uma prática de inteligência artificial viola outra legislação da UE, incluindo o acervo da UE em matéria de protecção de dados, de não discriminação e da concorrência;

 

2. SUPRIMIDO

 

3. SUPRIMIDO

 

4.SUPRIMIDO

Canais digitais avançam com processo contra OpenAI por uso não autorizado de jornalismo

 

Três meios de comunicação digitais juntaram-se à luta contra o uso não autorizado dos seus artigos jornalísticos pela Inteligência Artificial, avançando esta quarta-feira com um processo nos EUA por violação de direitos de autor contra o proprietário do ChatGPT.

The Intercept, Raw Story e AlterNet sublinham que milhares das suas histórias foram utilizadas pela OpenAI para treinar ‘chatbots’ a responder a perguntas feitas pelos utilizadores, aproveitando, desta forma, o seu material jornalístico sem autorização, pagamento ou crédito.

A OpenAI, responsável pelo ChatGPT, tecnologia baseada em inteligência artificial (IA), com sede em São Francisco, Estados Unidos, não respondeu imediatamente a um pedido de comentário, noticiou a agência Associated Press (AP). Ler mais

Associações de consumidores acusam Meta de violar leis europeias

 

Associações de consumidores de oito países europeus acusaram hoje a Meta de não cumprir a legislação da União Europeia (UE) sobre dados pessoais e publicidade direccionada, num novo sistema de assinaturas pagas proposto pela tecnológica norte-americana.

As organizações de Espanha, República Checa, Dinamarca, Grécia, França, Eslováquia, Eslovénia, Países Baixos e Noruega apresentaram, de forma coordenada, queixas às respectivas autoridades nacionais de protecção de dados.

A Associação dos Consumidores Europeus (BEUC, na sigla em francês), que coordenou a campanha, disse que o novo sistema é "uma cortina de fumo destinada a desviar a atenção do consumidor do tratamento ilícito dos seus dados pessoais".

Desde Novembro que a Meta oferece aos utilizadores europeus do Facebook e do Instagram a escolha entre continuar a utilizar as redes sociais de forma gratuita, concordando em disponibilizar dados pessoais, ou pagar uma subscrição para não verem mais anúncios.

Num comunicado, a BEUC disse que a Meta pode concluir, pela forma como interagem com as plataformas da empresa, a orientação sexual ou ideologia política dos utilizadores, para lhes oferecer publicidade personalizada.

A BEUC é composta por 45 organizações de 32 países.

"A exploração massiva da vida privada de centenas de milhões de consumidores europeus para fins comerciais não respeita vários princípios fundamentais" do Regulamento Europeu de Protecção de Dados (GDPR), alertou a associação.

A BEUC defendeu que o tratamento dos dados pessoais não é transparente, uma vez que os utilizadores do Facebook e Instagram desconhecem o verdadeiro alcance e as finalidades para que são usados.

A associação acusou ainda a Meta de utilizar a sua posição dominante no mercado para obrigar os utilizadores a permitir a utilização dos seus dados, "alterando frequentemente a base jurídica, de forma a restringir o exercício dos direitos dos interessados".

A BEUC lembrou que tanto o Facebook como o Instagram têm mais de 250 milhões de utilizadores na UE, mais do dobro de outras plataformas como o Twitter, a chinesa TikTok ou o Snapchat. Ou seja, defendeu a associação, os europeus não têm uma rede social alternativa onde possam comunicar com amigos e familiares.

A decisão sobre das queixas das associações de consumidores será centralizada e deverá, em princípio, caber à autoridade de protecção de dados da Irlanda, país onde está estabelecida a sede europeia da Meta.

Há anos que a UE luta contra o rastreamento de utilizadores da Internet sem o seu consentimento, primeiro com o GDPR, de 2016, e depois com o Regulamento dos Mercados Digitais, que entrou em vigor no verão de 2023.

A Meta tem até 06 de Março para cumprir as novas obrigações e a empresa apresentou esta proposta aos reguladores em Setembro

 

Isto é o Povo a Falar

Ouvir