Economia
"‘Ballerina Cappuccina’ e i Brain rot italiani: dietro i meme virali, messaggi molto pericolosi. Ecco come proteggere i minori"
Dall’educazione digitale all’introduzione di nuove regole di controllo, come le piattaforme digitali si stanno muovendo per tutelare i minori. L'intervista all’avvocato di 42 Law Firm, Nicole Monte

Brainrot, il marciume digitale che inganna bambini e adulti: dietro i video virali si nascondono i nuovi pericoli del web
Nel 2025 è esplosa una nuova mania sui social, soprattutto su TikTok: si chiama Brain Rot. Video brevissimi, caotici, assurdi. Al centro ci sono personaggi cartoon generati dall’intelligenza artificiale: “Ballerina Cappuccina”, “Tralalero Tralalà”, “Bombardiro Crocodilo”, mix improbabili di animali, oggetti e umani che si muovono in scenari surreali. Il nome, tradotto più o meno, significa "marciume cerebrale". E rende bene l’idea.
Il problema diventa ancora più serio quando il Brain Rot si intreccia con razzismo o black humor su tragedie reali. Per molti ragazzi, però, rappresenta anche un nuovo modo di comunicare, un nuovo linguaggio: più è incomprensibile agli adulti, più diventa attraente. Il rischio è che, dietro questi cartoni demenziali, si nascondano messaggi ben più pericolosi, spesso difficili da intercettare anche per chi dovrebbe vigilare.
Pertanto Meta ha proposto nuove regole vincolanti per app store e sistemi operativi, invitandoli a integrare strumenti in grado di limitare l’esposizione dei minori a questi contenuti. Ma quanto è realistico (e giusto) tutto questo? E soprattutto, regolamentare il Brain Rot servirà davvero a proteggere i minori? Ne abbiamo parlato con l’avvocato Nicole Monte dello studio legale 42 Law Firm.
Come si possono regolamentare al meglio questi contenuti generati dall'IA?
Parliamo di una nuova ondata di cartoni animati con personaggi bizzarri e surreali. Il problema è che, nel corso della diffusione, questi video hanno cominciato a veicolare anche messaggi più violenti, misogini e discriminatori, diventando potenzialmente molto pericolosi. Chi li guarda, spesso senza nemmeno rendersene conto, finisce per canticchiare canzoni o meme che in realtà trasmettono contenuti sbagliati. E questo riguarda anche i bambini: proprio perché si presentano come cartoni animati, sono diventati virali soprattutto su TikTok, una piattaforma molto frequentata dai minori.
Siamo partiti da qui per arrivare alla campagna lanciata da Meta, che pone l’attenzione sulla necessità di verificare l’età degli utenti tramite Apple Store, Google Store e gli altri app store dei vari sistemi operativi. Per gli account dei minori di 18 anni, ad esempio, sono stati introdotti sistemi che limitano l’utilizzo dopo un certo numero di ore, facendo riferimento ai parametri sul tempo massimo di esposizione agli schermi. Alcuni contenuti, inoltre, non vengono nemmeno mostrati ai minori, proprio per proteggerli. Meta, insomma, sta lavorando per tutelare i più giovani, anche in risposta a quanto stabilito dal Digital Services Act (DSEI), in vigore da due anni, che obbliga le piattaforme a garantire una particolare attenzione e sistemi di verifica più rigidi sui contenuti destinati ai minori.
Video brevi, surreali, spesso insensati, eppure virali: dal punto di vista legale, cosa distingue un contenuto “scemo” da uno pericoloso? Esiste un criterio giuridico?
E' proprio qui che nasce la difficoltà con il Brain Rot. Gli utenti utilizzano spesso dei veri e propri "scudi" per nascondere i messaggi pericolosi dietro a un’apparente innocenza. Uno di questi è il cosiddetto irony field: si usa l’ironia per camuffare contenuti violenti o discriminatori, rendendoli più difficili da individuare. Un altro meccanismo, più semplice ma molto diffuso, riguarda il linguaggio d’odio: per aggirare i filtri automatici, si usano vari espedienti come sostituire lettere con numeri o simboli (per esempio la “E” o la “T” al posto del “4”), oppure si manipola la punteggiatura per riuscire comunque a scrivere insulti espliciti, come “coglione”, senza far scattare il rilevamento automatico.
Il digitale, insomma, è pieno di questi stratagemmi pensati per eludere i sistemi di controllo delle intelligenze artificiali, che altrimenti rimuoverebbero automaticamente molti di questi contenuti. Sulle parolacce più dirette, ormai, le IA di Meta, Google e delle altre piattaforme riescono a intervenire quasi in tempo reale. Ma il vero problema sorge quando i messaggi offensivi o violenti vengono mascherati dietro a linguaggi in codice, difficili da interpretare anche per chi deve controllare.
Come può un genitore capire se un cartone animato è davvero pericoloso? E perché questi video finiscono per essere indirizzati ai minori? A che cosa cosa punto l'umano che li crea con l'IA?
Secondo me, qui è stato usato il linguaggio dei cartoni animati proprio per renderli virali e, allo stesso tempo, mascherare il tutto come se fosse un contenuto leggero e quasi banale. Ma in realtà, dietro a questa apparenza, spesso si veicolano altri tipi di messaggi. Non sempre l’obiettivo è direttamente quello di raggiungere i minori: spesso chi li crea pensa semplicemente “faccio questa cosa assurda, diventa virale e basta”. Lo fa con leggerezza, per goliardia, senza fermarsi a riflettere sulle conseguenze. Pensiamo, ad esempio, ai fenomeni come i deep nude o il revenge porn: chi crea questi contenuti spesso non si rende conto dell’impatto e dei rischi che possono avere sugli altri. È questo il vero grande pericolo del digitale: la mancanza di consapevolezza e di educazione all’uso responsabile delle tecnologie. Da un lato, insomma, c’è la ricerca spasmodica di viralità, il bisogno di creare qualcosa che faccia numeri sui social. Dall’altro, c’è una totale mancanza di educazione digitale di base.
Come si sta muovendo l’Unione Europea su questi temi?
La Francia ha già approvato una legge, sui siti porno, che stabilisce che la semplice autocertificazione "Ho più di 18 anni" non è più sufficiente per verificare l’età. E anche l’Unione Europea sta lavorando su strumenti più efficaci. In particolare, si sta discutendo di un’app ufficiale, promossa direttamente dalla Commissione Europea, che funzioni in modo simile allo SPID: un sistema centralizzato di certificazione dell’identità. In pratica, chiunque si iscrive a una piattaforma, per esempio Meta, invierebbe in automatico una richiesta di verifica a questa app europea per controllare l’età dell’utente. Un processo che richiederebbe pochi secondi, ma molto più sicuro perché protetto da norme condivise.
Non c’è però il rischio che, vietando questi contenuti, si ottenga l’effetto contrario, cioè renderli ancora più attraenti?
Sì, questo rischio esiste. È un po' come succedeva con il proibizionismo: più vietavi qualcosa, più diventava desiderabile. Pensiamo al tabacco o all’alcol: prima venivano proibiti, poi si è passati a legalizzarli e regolamentarli. Oggi, per esempio, il fumo è in calo rispetto agli anni ‘90, proprio grazie a politiche di regolamentazione controllata. Le sigarette di contrabbando esistono ancora, certo, ma sono un fenomeno marginale. Alla fine si è trovato un equilibrio tra il controllo statale e la libertà di scelta. Secondo me, lo stesso vale per i contenuti digitali. È possibile che, di fronte al divieto, molti utenti , soprattutto i più giovani, siano ancora più spinti a cercare questi contenuti perché diventano quasi “misteriosi” o proibiti.
Oggi chiunque ha la possibilità di produrre contenuti e renderli potenzialmente virali, anche senza avere una reale intenzione o consapevolezza di ciò che sta creando. Da questo punto di vista, credo che l’Unione Europea stia facendo un lavoro virtuoso, cercando di intervenire man mano su ogni nuovo fenomeno digitale, per regolamentarlo prima che sfugga di mano. È vero, alcuni pensano che il rischio sia quello di normare troppo, e che così si finisca per frenare l’innovazione. Altri, invece, sottolineano come in alcuni Paesi si faccia ancora troppo poco. Nel mondo digitale, la sfida vera è proprio questa: arrivare ad avere un unico ente regolatore, un legislatore centralizzato, che possa stabilire regole chiare e valide per tutti, a cui le piattaforme e gli utenti possano fare riferimento in modo uniforme.