Intelligenza Artificiale

338 readers
1 users here now

L'intelligenza artificiale è una delle rivoluzioni digitali più dirompenti degli ultimi anni. Questa è la comunità in cui parlarne.

Regole

👉 Il rispetto reciproco è fondamentale per creare un luogo di confronto sereno e piacevole.

👉 No fake news, pubblicità, link di affiliazione e paywall.

👉 Nessuna forma di discriminazione sarà tollerata.

👉 In aggiunta a queste regole, agite sempre in concordanza con la guida all’utilizzo di Feddit.

founded 1 year ago
MODERATORS
1
 
 

#Grok il nuovo generatore di immagini di #X disponibile in una nuova versione da metà agosto, ha almeno il 35% di probabilità in più rispetto ai concorrenti di produrre immagini fuorvianti o false, per assenza di misure di sicurezza.
Elon Musk, lo ha definito “l’ #AI più divertente del mondo”.
@aitech
Su https://www.newsguardtech.com/it/special-reports/il-nuovo-generatore-di-immagini-di-grok-puo-essere-un-diffusore-di-misinformazione/

2
 
 

Questa settimana in AI: l'AI sta rapidamente diventando una commodity

Sia Google che OpenAI hanno tagliato i prezzi dei loro LLM più economici. Google ha ridotto il prezzo di input per Gemini 1.5 Flash (il costo per far elaborare il testo al modello) del 78% e il prezzo di output (il costo per far generare il testo al modello) del 71%
OpenAI, nel frattempo, ha ridotto il prezzo di input per GPT-4o della metà e il prezzo di output di un terzo.

@aitech

https://techcrunch.com/2024/08/28/this-week-in-ai-ai-is-rapidly-being-commoditized/

3
 
 

Il disegno di legge sull’IA della California può migliorare la regolamentazione anche in UE, affermano gli esperti

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Gli esperti ritengono che un controverso disegno di legge della California che regolamenta i

4
 
 

La I^ parte è qui: poliverso.org/display/0477a01e…

Immagine/foto

L’AI Toolkit offre una prospettiva equilibrata sull’innovazione responsabile dell’AI fondata sui diritti umani, sull’etica e su solidi principi di polizia consolidati, il tutto contestualizzato attraverso esempi pratici di casi d’uso specifici delle forze dell’ordine.
All'interno del toolkit AI
L’AI Toolkit contiene sette risorse progettate per fornire al personale delle forze dell’ordine le conoscenze e gli strumenti necessari per affrontare le complessità dell’AI e garantirne un utilizzo responsabile nelle attività di polizia. Queste risorse sono integrate con un FILE README, che funge da introduzione all'AI Toolkit, spiegando come esplorarlo e ottenere il massimo dai suoi contenuti.
Il Toolkit AI comprende le seguenti risorse:
• Documenti di orientamento primari
• Strumenti pratici
• Documento giustificativo
• Introduzione all’innovazione responsabile dell’AI
• Principi per l’innovazione responsabile dell’AI
• Roadmap organizzativa
• Questionario di valutazione della preparazione organizzativa
• Questionario sulla valutazione del rischio
• Quaderno di esercizi sull'innovazione responsabile dell'intelligenza artificiale in azione
• Libro di riferimento tecnico
A chi è rivolto il toolkit AI?
L’AI Toolkit è stato creato principalmente per il personale delle forze dell’ordine locali, regionali e nazionali. È adatto sia agli ufficiali che ai civili in diversi dipartimenti e unità, tra cui:
• utenti finali dei sistemi di IA nelle unità operative
• personale nei team di innovazione
• responsabili legali e degli appalti
• il capo della polizia e la loro leadership esecutiva.
Tuttavia, molti altri soggetti interessati non appartenenti alle forze dell’ordine potrebbero trovare utile l’AI Toolkit. Ad esempio, gli sviluppatori di tecnologia nel settore privato o nel mondo accademico, la società civile, il pubblico in generale e altri attori della giustizia penale come magistratura, pubblici ministeri e avvocati possono utilizzare l'AI Toolkit per migliorare la loro conoscenza e consapevolezza sui temi dell'AI responsabile innovazione nelle forze dell’ordine.
Il toolkit AI crea nuovi obblighi?
L'AI Toolkit non è destinato a creare obblighi vincolanti o a limitare o indebolire gli obblighi vincolanti di qualsiasi agenzia ai sensi del diritto nazionale o internazionale. Piuttosto, l’AI Toolkit fornisce indicazioni, considerazioni e raccomandazioni da seguire volontariamente.
L’AI Toolkit non mira a sostituire o integrare alcuna delle strategie, politiche o procedure di gestione già in atto nelle forze dell’ordine. Al contrario, integra i processi e le procedure istituzionali e organizzativi esistenti. È particolarmente utile se utilizzato insieme ad altri strumenti di gestione pertinenti come la gestione dei progetti, l'analisi dei rischi e dei bisogni, la protezione e valutazione dei dati o l'analisi rischi-benefici.
A quali sistemi di intelligenza artificiale si applica l’AI Toolkit?
Le forze dell’ordine utilizzano i sistemi di intelligenza artificiale in molti modi diversi, alcuni più propensi a sollevare problemi rispetto ad altri. Ad esempio, le agenzie potrebbero adottare software con componenti di intelligenza artificiale come filtri antispam per e-mail o app di navigazione. Questi sistemi generalmente non sono stati prodotti o utilizzati esclusivamente in un contesto di applicazione della legge e talvolta sono ampiamente adottati nella società. L’AI Toolkit si applica in questi casi?
Data la loro natura, i principi fondamentali per l’innovazione responsabile dell’AI si applicano a tutti gli usi dei sistemi di AI e in tutte le fasi del ciclo di vita. Si tratta di principi generali progettati per essere adattabili a diversi contesti, indipendentemente dalla natura del caso d'uso stesso o dal fatto che sia stato sviluppato appositamente per il contesto delle forze dell'ordine. Rispettarli contribuirà a promuovere buone pratiche poiché le agenzie sfruttano il potenziale positivo dell’utilizzo dei sistemi di intelligenza artificiale.
Per determinare se si applicano le linee guida, le raccomandazioni e le considerazioni contenute nel resto dell’AI Toolkit, le agenzie dovrebbero considerare le seguenti tre domande:
• l’uso del sistema di intelligenza artificiale riguarda l’esecuzione delle funzioni principali delle forze dell’ordine, vale a dire proteggere la comunità, prevenire e indagare sulla criminalità e garantire la giustizia?
• sono stati identificati rischi medi, alti o estremamente elevati relativi al sistema di AI dopo aver completato il questionario di valutazione dei rischi?
• ci sono altri potenziali effetti sui diritti umani che richiedono di prendere in considerazione l’applicazione completa dell’AI Toolkit?
Se la risposta a una qualsiasi di queste tre domande è sì, le agenzie sono incoraggiate a prendere in considerazione le linee guida, le raccomandazioni e le considerazioni dell’AI Toolkit nella misura più ampia possibile.

#AITOOLKIT #INTERPOL #UNICRI #artificialintelligence #AI
@aitech

I link per approfondire e scaricare i manuali:
ai-lawenforcement.org/node/118
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…

5
 
 

I CEO di Meta e Spotify rosicano per la regolamentazione dell'intelligenza artificiale nell'UE

"Nel breve termine, ritardare l'uso di dati che vengono usati di routine in altre regioni significa che i modelli di intelligenza artificiale più potenti non potranno (sfruttare? 🙊) riflettere la conoscenza collettiva, la cultura e le lingue dell'Europa, e gli europei non potranno usare i prodotti di intelligenza artificiale più recenti"

@aitech

https://techcrunch.com/2024/08/23/meta-and-spotify-ceos-criticize-ai-regulation-in-the-eu/

6
7
 
 

Le aziende stanno facendo AI-washing? Il fondatore di Rippling, Parker Conrad, pensa che sia spesso così

"Ci sono un sacco di cose davvero inconsistenti nel mondo dell'IA", ha detto Conrad, aggiungendo che "non si può dire che l'IA non sarà trasformativa. Ci sono un sacco di capacità che sono davvero importanti. È solo che non sono rimasto impressionato da molte di quelle che ho visto"

@aitech

https://techcrunch.com/2024/08/20/is-your-company-ai-washing-rippling-founder-parker-conrad-thinks-it-might-be/

8
9
 
 

Le persone diffidano dell'intelligenza artificiale generativa in ambiti in cui può apportare un valore enorme, e si fidano troppo quando la tecnologia non è competente

@aitech

Un esperimento scientifico, il primo nel suo genere, ha scoperto che le persone diffidano dell'intelligenza artificiale generativa in ambiti in cui può apportare un valore enorme, e si fidano troppo quando la tecnologia non è competente.

  • Circa il 90% dei partecipanti ha migliorato le proprie prestazioni quando ha utilizzato GenAI per l'ideazione creativa. Le persone hanno ottenuto risultati migliori quando non hanno tentato di modificare l'output di GPT-4.
  • Quando lavoravano alla risoluzione di problemi aziendali, un compito al di fuori delle competenze attuali dello strumento, molti partecipanti hanno preso per oro colato l'output fuorviante di GPT-4. Le loro prestazioni erano peggiori del 23% rispetto a coloro che non utilizzavano affatto lo strumento.
  • L'adozione dell'AI generativa è un enorme sforzo di gestione del cambiamento. Il compito del leader è aiutare le persone a usare la nuova tecnologia nel modo giusto, per i compiti giusti e ad adattarsi e regolarsi continuamente di fronte alla frontiera in continua espansione della GenAI.

L'articolo completo di François Candelon , Lisa Krayer , Saran Rajendran e David Zuluaga Martínez è stato pubblicato sul sito del Boston Consulting Group

10
 
 

X ha ricevuto nove reclami per la protezione dei dati ed ha annunciato che sospenderà in parte l’addestramento dell’IA

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Lunedì 12 agosto, X (ex Twitter) ha ricevuto nove reclami in materia di protezione dei

11
 
 

I chatbot basati sull’intelligenza artificiale non sono facilissimi da promuovere

#UnoTech

@aitech

https://www.ilpost.it/2024/08/08/spot-pubblicita-chatbot-google-meta/

12
 
 

Le industrie del settore tecnologico chiedono a Bruxelles di prorogare il termine per contribuire all’AI Code of Practice

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Un gruppo di 11 associazioni industriali del settore Hi-Tech ha chiesto alla

13
 
 

La Commissione europea va avanti con il progetto per creazione di “Fabbriche di intelligenza artificiale”

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
La Commissione europea ha iniziato a portare avanti gli sforzi per agevolare la creazione di centri dati per

14
 
 

UE: entra in vigore la legislazione europea sull’intelligenza artificiale

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
È entrata ufficialmente in vigore giovedì (primo agosto) il regolamento europeo sull’intelligenza artificiale (IA), il primo atto legislativo comprensivo sull’intelligenza

15
 
 

Le difficoltà dell’intelligenza artificiale con la matematica sono peraltro utili a capire meglio in cosa sia differente dall’informatica, e per quali scopi sia stata pensata e sviluppata fin dall’inizio. I sistemi di intelligenza possono fare calcoli sulla base dei dati utilizzati per addestrarli, in sostanza, e sono ottimizzati per determinare le probabilità di un certo output a partire da determinati input. I risultati possono variare, come nel linguaggio umano, ma questo significa che possono anche essere sbagliati, se la richiesta è eseguire calcoli basati non su probabilità ma su regole precise e procedure logiche.

16
 
 

Forwarded from Feddit

Il Parlamento europeo istituisce un gruppo di lavoro trasversale per monitorare l’attuazione della legge sull’AI
feddit.it/post/9627886

Il nuovo post di informapirata è su feddit.it/c/aitech

Il Parlamento europeo istituisce un gruppo di lavoro trasversale per monitorare l’attuazione della legge sull’AI

L’articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy
Due commissioni del Parlamento europeo hanno istituito un gruppo di lavoro congiunto per monitorare

feddit.it/post/9627886
Il Parlamento europeo istituisce un gruppo di lavoro trasversale per monitorare l’attuazione della legge sull’AI - Feddit.it - feddit.it
Il Parlamento europeo istituisce un gruppo di lavoro trasversale per monitorare l’attuazione della legge sull’AI [euractiv.it/section/digitale/n…


t.me/ppInforma/8455

17
 
 

Forwarded from Feddit

Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell'intelligenza artificiale
feddit.it/post/9617708

Il nuovo post di informapirata è su feddit.it/c/aitech

Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell’intelligenza artificiale

Le trappole del copyright sono state utilizzate nel corso della storia, ma ora potrebbero rivelarsi uno strumento in una delle più grandi battaglie nell’ambito dell’intelligenza artificiale.

technologyreview.com/2024/07/2…

feddit.it/post/9617708
Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell'intelligenza artificiale… - feddit.it
Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell’intelligenza artificiale Le trappole del copyright sono state utilizzate nel corso della storia, ma ora potrebbero rivelarsi uno strumento in una…


t.me/ppInforma/8453

18
 
 

Il Parlamento europeo istituisce un gruppo di lavoro trasversale per monitorare l’attuazione della legge sull’AI

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Due commissioni del Parlamento europeo hanno istituito un gruppo di lavoro congiunto per monitorare

19
1
submitted 1 month ago* (last edited 1 month ago) by [email protected] to c/[email protected]
 
 

in English (the original article is in English too):
a specially designed traps can mark data for further detection in using data in AI training.
despite I hate pyton, but the implementation of the algorithm can be rewritten in normal languages and it can also be used in copyleft protection against AI. this may be a tool to fight it down.

@[email protected]:

Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell'intelligenza artificiale

Le trappole del copyright sono state utilizzate nel corso della storia, ma ora potrebbero rivelarsi uno strumento in una delle più grandi battaglie nell'ambito dell'intelligenza artificiale.

@aitech

www.technologyreview.com/2024/…

#down with ai #traps

20
 
 

Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell'intelligenza artificiale

Le trappole del copyright sono state utilizzate nel corso della storia, ma ora potrebbero rivelarsi uno strumento in una delle più grandi battaglie nell'ambito dell'intelligenza artificiale.

@aitech

https://www.technologyreview.com/2024/07/25/1095347/a-new-tool-for-copyright-holders-can-show-if-their-work-is-in-ai-training-data/

21
 
 

Meta rilascia il modello di IA aperta più potente di sempre, forse l’ultimo ad essere rilasciato in Europa

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Meta ha rilasciato Llama 3.1, il modello di intelligenza artificiale open source (AI) più performante finora,

22
 
 

Stati Uniti, Regno Unito e Unione europea si confrontano sulla concorrenza nello sviluppo dell’IA

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Le autorità per la concorrenza di Regno Unito, Stati Uniti e Unione europea hanno specificato i principi comuni di concorrenza

23
 
 

È un problema di cui purtroppo non si parla molto. Google, per esempio, potrebbe non riuscire a raggiungere la neutralità climatica entro il 2030 proprio per via di questi strumenti.

Gli strumenti di intelligenza artificiale generativa sono ormai parte della nostra vita quotidiana online, ma il prezzo in termini di stress sulle reti elettriche e impatto idrico è sempre più salato

In questo momento è impossibile non imbattersi nell’intelligenza artificiale online. Negli Stati Uniti, un riassunto generato dall'AI può apparire casualmente in cima ai risultati di una ricerca su Google. Ma può anche capitare che Meta vi inviti a provare la sua AI mentre siete su Facebook, per non parlare di quell'onnipresente emoji delle stelline che continua a perseguitarci.

Questa corsa ad aggiungere l'intelligenza artificiale al maggior numero possibile di interazioni online può essere fatta risalire al lancio di ChatGPT da parte di OpenAI alla fine del 2022. Per la Silicon Valley l'intelligenza artificiale generativa è presto diventata un'ossessione e, quasi due anni dopo, gli strumenti di AI alimentati da modelli linguistici di grandi dimensioni permeano l'esperienza di qualsiasi utente online.

L’epoca dell'iperconsumo

Uno sfortunato effetto collaterale di questa proliferazione è rappresentato dal fatto che i processi informatici necessari per sostenere i sistemi di AI generativa richiedono molte più risorse. Su internet siamo entrati nell'era dell'iperconsumo, un periodo definito dalla diffusione di un nuovo tipo di sistemi informatici che richiedono quantità eccessive di elettricità e acqua per essere costruiti e poter funzionare.

"Gli algoritmi che sostengono qualsiasi modello di intelligenza artificiale generativa sono fondamentalmente molto, molto diversi da quelli tradizionali che si usano per la ricerca su Google o per le email – afferma Sajjad Moazeni, ricercatore dell'Università di Washington –. I servizi di base erano molto leggeri dal punto di vista della quantità di dati che dovevano fare avanti e indietro tra i processori". Per fare un raffronto, Moazeni stima che dal punto di vista computazionale le applicazioni di AI generativa siano da 100 a 1000 volte più esigenti.

L'enorme fabbisogno energetico per l'addestramento e l'implementazione della tecnologia è ormai di dominio pubblico, da quando l'anno scorso un esperto dopo l'altro ha previsto un aumento della domanda di energia da parte dei data center in cui le aziende lavorano alle applicazioni di AI. Nemmeno a farlo apposta, Google ha recentemente smesso di considerarsi neutrale dal punto di vista delle emissioni di anidride carbonica e Microsoft potrebbe accantonare i suoi obiettivi di sostenibilità a favore della corsa alla costruzione di tool più grandi e performanti.

"L'impronta di CO2 e il consumo di energia andranno di pari passo con la potenza di calcolo, perché fondamentalmente questi data center vengono alimentati in modo proporzionale alla quantità di calcoli effettuati", afferma Junchen Jiang, ricercatore dell'Università di Chicago. In sostanza, più un modello di intelligenza artificiale è grande, più avrà bisogno di potenza di calcolo. E i nuovi modelli di frontiera stanno diventando giganteschi.

Anche se il consumo totale di energia di Google è raddoppiato dal 2019 al 2023, Corina Standiford, portavoce dell'azienda, ha dichiarato che non sarebbe corretto affermare che le esigenze energetiche di Big G hanno avuto un'impennata durante la corsa all'AI: "È estremamente impegnativo ridurre le emissioni dei nostri fornitori, che costituiscono il 75% della nostra impronta di CO2", ha dichiarato in un'email a Wired US. Tra i fornitori a cui fa riferimento l'azienda ci sono i produttori di server, apparecchiature di rete e altre infrastrutture tecniche per i data center: un processo ad alta intensità energetica necessario per creare le parti fisiche necessarie allo sviluppo dei nuovi modelli di AI.

Nonostante il trend sia in aumento, il fabbisogno energetico dei data center rappresenta ancora una piccola percentuale della quantità di energia utilizzata complessivamente dagli esseri umani. Fengqi You, ricercatore dell'università Cornell, sottolinea per esempio che raffinerie di petrolio, edifici e trasporti continuano ad avere un impatto maggiore: "Questi settori consumano molta più energia rispetto ai centri dati per l'AI", afferma. Ciò detto, l'impronta energetica del settore potrebbe continuare a crescere nel prossimo futuro, man mano che gli strumenti di genAI verranno integrati in più angoli di internet e adottati da un numero maggiore di utenti online.

Continua su Wired

24
 
 

Slop è il nuovo termine per descrivere contenuti non richiesti generati dalle intelligenze artificiali

https://prealpinux.com/2024/07/21/slop-il-nuovo.html

#UnoTech

@aitech

25
 
 

Video YouTube | Video Invidious

Un divertente video satirico sull'AI:

Il Governo™ ha realizzato uno spot sulla minaccia esistenziale che l'IA rappresenta per l'umanità, ed è sorprendentemente onesto e informativo.

view more: next ›