La plataforma de mensajería WhatsApp anunció el lanzamiento de nuevas cuentas administradas por padres o tutores, una función diseñada para brindar mayor seguridad a preadolescentes y permitir un control más estricto sobre su uso de la aplicación. Esta herramienta comenzará a implementarse a nivel global en los próximos meses.
La iniciativa responde a una creciente preocupación por la seguridad digital de los menores. Estas cuentas estarán configuradas con ajustes más restrictivos desde el inicio, limitando la experiencia a funciones básicas como mensajes y llamadas, con el objetivo de ofrecer un entorno más seguro durante las primeras interacciones en plataformas de mensajería.
Para su funcionamiento, las cuentas deberán ser creadas y gestionadas directamente por los padres o tutores, y permanecerán vinculadas a sus propios perfiles dentro de la aplicación, propiedad de Meta. El proceso de configuración requerirá que ambos dispositivos —el del adulto y el del menor— estén físicamente juntos, lo que garantiza un control inicial supervisado.
Una vez activada la cuenta, los adultos podrán decidir quién puede comunicarse con el menor, así como autorizar o rechazar su participación en grupos. También tendrán la posibilidad de revisar solicitudes de mensajes provenientes de contactos desconocidos y gestionar las configuraciones de privacidad.
Para reforzar la seguridad, todos los controles estarán protegidos mediante un PIN exclusivo para padres, lo que impide que los menores modifiquen los ajustes sin autorización. Esto permite adaptar el uso de la aplicación según las necesidades de cada familia, manteniendo un equilibrio entre autonomía y supervisión.
A pesar de estos controles, la compañía ha subrayado que la privacidad de las conversaciones se mantiene intacta. Gracias al cifrado de extremo a extremo, los mensajes y llamadas continúan siendo inaccesibles incluso para la propia plataforma, lo que garantiza la confidencialidad de las comunicaciones.
El lanzamiento de estas cuentas se da en un contexto más amplio de medidas impulsadas por Meta para fortalecer la seguridad de los menores en sus plataformas. Recientemente, la red social Instagram anunció que comenzará a notificar a los padres si detecta que sus hijos buscan de forma reiterada contenido relacionado con autolesiones o suicidio, una función que inicialmente estará disponible en países como Estados Unidos, Reino Unido, Australia y Canadá.
Con estas acciones, la compañía busca responder a las demandas de familias y expertos que exigen entornos digitales más seguros para niños y adolescentes. Además, ha señalado que recogerá opiniones de los usuarios durante la implementación para continuar mejorando la experiencia y reforzar la protección en línea.
La introducción de estas cuentas marca un paso importante hacia una mayor regulación del uso de aplicaciones de mensajería por parte de menores, en un momento en que la tecnología forma parte esencial de su vida cotidiana.
