Apples Siri sta origliando la tua conversazione Come disattivare questo minaccia alla privacy? (05.17.24)

Gli assistenti vocali hanno dimostrato di essere programmi preziosi. Con l'aiuto di questi strumenti, puoi porre una domanda al tuo telefono, parlare con il tuo sistema di altoparlanti o persino lasciare che ti ricordi dove hai parcheggiato. Per quanto utili, ascoltano anche le tue conversazioni. E se hai Siri sul tuo dispositivo Apple, dovresti essere ancora più preoccupato.

Siri intercetta le tue conversazioni

Per quanto Apple abbia la reputazione di dare priorità alla privacy degli utenti, nulla le impedisce di utilizzare i dati degli utenti per scopi interni. È emerso che gli utenti Apple sono a rischio a causa delle intercettazioni di Siri. Secondo un rapporto del Guardian, le conversazioni di Siri vengono esaminate da appaltatori Apple.

Il notiziario con sede nel Regno Unito ha inoltre rivelato che l'assistente vocale può attivarsi in modo casuale. Pertanto, potrebbe raccogliere informazioni sensibili, come incontri sessuali, affari e conversazioni con un medico, a tua insaputa.

Un informatore, che è un ex appaltatore dell'azienda tecnologica, ha detto al Guardian che ci sono diversi casi di registrazioni, con conversazioni private. Ciò che è ancora più minaccioso è che queste registrazioni possono essere accompagnate da dati dell'utente, inclusi dettagli di contatto, posizione e dati dell'app.

Risposta di Apple

Apple ha risposto a queste affermazioni, ma non lo dice esplicitamente ha impegnato gli umani ad ascoltare le conversazioni registrate. In una dichiarazione a The Guardian, il gigante della tecnologia ammette che solo l'1% delle registrazioni viene monitorato per aiutare l'azienda a migliorare Siri e la dettatura. Ha inoltre sottolineato che non memorizza dati con nomi o dettagli ID Apple, che potrebbero facilmente riconoscere una persona.

Anche con questa spiegazione, molti si chiedono ancora come Apple abbia consentito a terzi di accedere ai dati dei consumatori. Considerando che ci sono circa mezzo miliardo di dispositivi abilitati Siri in uso, l'1% non è un numero piccolo.

Ironia della sorte, Apple ha ripetutamente criticato il sistema operativo Android sulla privacy e apparentemente sta facendo lo stesso con il suo assistente virtuale Siri. Inoltre, la società ha ripetutamente affermato che il suo modello di business è diverso da quello delle aziende tecnologiche che si affidano ai dati dei consumatori per prosperare.

Siri non è l'unico assistente vocale in ascolto

Siri di Apple è solo uno degli assistenti vocali che hanno umani che ascoltano conversazioni registrate. Altri assistenti virtuali e app che potrebbero registrare le tue conversazioni includono:

  • Assistente Google

    Il rapporto del Guardian ha fatto eco a un'esposizione simile riportata da VRT NWS poche settimane fa. L'emittente belga ha rivelato che le registrazioni dell'Assistente Google sono state esposte al mondo intero.

    Come Apple, Google insiste sul fatto che i dati raccolti dal suo assistente virtuale siano utili per lo sviluppo dell'intelligenza del suo chatbot AI.

  • Alexa

    La maggior parte delle persone sa già che gli Alexa di Amazon sono sempre in ascolto. Alexa di solito si attiva quando rileva una delle sue parole chiave, tra cui Amazon, Alexa, Echo e Computer.

  • Facebook

    A volte, l'app di Facebook richiede l'accesso al tuo microfono, poiché ha bisogno di registrare la tua voce quando vai in diretta. Ma alcune persone sono spaventate dalla possibilità che Facebook ascolti le loro conversazioni.

    Facebook ha respinto qualsiasi pretesa di ascolto di conversazioni private. Poiché non ci sono prove per giustificare questa paura, non puoi lasciare che l'app interrompa le tue discussioni. In ogni caso, puoi interrompere il legame tra il tuo microfono e l'app.

  • Impedire agli assistenti vocali di intercettare

    Sfortunatamente, molte persone abilitano questi assistenti vocali sui loro telefoni o computer senza aggiungere alcun controllo per la privacy . Questo stato di cose ci porta alla domanda: puoi impedire a Siri di origliare?

    Purtroppo, controllare Siri non è così semplice come controllare i dispositivi Amazon Echo e Google Home. Mentre Google e Amazon consentono ai propri utenti di rinunciare ad alcuni usi delle loro conversazioni registrate, Apple non ha un'opzione di protezione della privacy simile. Quindi, ci sono abbastanza motivi per preoccuparsi del sistema Apple.

    La pervasività di questo sistema mette a rischio molti utenti Apple a causa delle intercettazioni di Siri. C'è anche il problema delle attivazioni casuali di Siri. Fortunatamente, puoi disabilitare completamente questo assistente vocale.

    Cosa fare per le intercettazioni di Siri?

    Se sei preoccupato per il rischio per la privacy rappresentato dall'attuale rivelazione, segui i suggerimenti seguenti per impedire a Siri di intercettare.

    Ma prima di procedere, ti consigliamo di scansionare il tuo Mac alla ricerca di spazzatura, come dati ridondanti che potrebbero essere stati raccolti da Siri. L'utilizzo di uno strumento come Outbyte MacRepair non solo eseguirà la scansione del tuo sistema, ma lo pulirà anche e ottimizzerà il tuo Mac per ottenere le massime prestazioni.

    Come disabilitare Siri sui dispositivi iOS:
  • Vai a Impostazioni.
  • Scorri verso il basso e fai clic su Siri & Cerca.
  • Vai alla sezione Chiedi a Siri, quindi disattiva l'impostazione Ascolta "Ehi Siri".
  • Se viene visualizzato un popup, conferma la tua azione.
  • Come disattivare Siri su Mac:
  • Tocca il menu Apple e scegli Preferenze di Sistema
  • Cerca Siri nel pannello delle preferenze e fai clic su di esso.
  • Deseleziona la casella di controllo accanto a Abilita Chiedi a Siri< opzione /strong>.
  • Cioè. L'utilizzo di Siri di Apple potrebbe non significare che sei a serio rischio di violazione della privacy. Ma potrebbe essere il momento di valutare se stai rinunciando a più privacy del necessario.


    Video Youtube: Apples Siri sta origliando la tua conversazione Come disattivare questo minaccia alla privacy?

    05, 2024