Expertos
en seguridad de internet quieren renovar la protección en la red
tras las revelaciones de que la Agencia de Seguridad Nacional (NSA)
estadounidense ha desarrollado la capacidad de burlar la codificación
que resguarda a millones de páginas.
Pero
reconocieron que la tarea no es fácil, en parte porque la seguridad
en internet ha recaído en gran medida en brillantes científicos del
Gobierno que ahora parecen sospechosos para muchos.
Los
tecnólogos dicen que se sienten traicionados por el hecho de que la
NSA, que ha contribuido a desarrollar algunos importantes estándares
de seguridad, esté intentando asegurarse de que sean lo
suficientemente débiles como para que la agencia los pueda vulnerar.
Algunos
dicen estar estupefactos por el hecho de que el Gobierno de Estados
Unidos valore tanto su capacidad de vigilancia como para querer
reducir la seguridad de todos.
"Tenemos
la suposición de que podrían usar su capacidad para hacer unos
bajos estándares, pero eso dejaría sin seguridad a todo el mundo en
Estados Unidos", dijo, Matthew Green, profesor de criptografía
de la Universidad Johns Hopkins.
"Pensábamos
que nunca estarían tan locos como para disparar contra el suelo que
nos mantiene en pie, y ahora no estamos tan seguros", dijo. El
jefe del grupo de voluntarios a cargo de las normas tecnológicas
fundamentales de internet dijo a Reuters que el panel intensificará
su trabajo para que la codificación se añada al tráfico normal de
la red y para fortalecer el denominado estrato seguro que protege a
bancos, el correo electrónico y a otras páginas que comienzan con
"Https".
Otros
expertos coincidieron al responder sobre las informaciones de prensa
basadas en los documentos del ex analista de la NSA Edward Snowden
que mostraban que la NSA había manipulado esos estándares.
Los
documentos que obtuvieron The Guardian, The New York Times y otros
medios muestran
que
la agencia trabajó para introducir vulnerabilidades en las
herramientas de codificación comercial, influyó de forma encubierta
en otros diseños para que permitieran accesos en el futuro y
debilitó los estándares de todo el sector para beneficio de la
agencia.
Junto
con otras técnicas, esos esfuerzos llevaron a la NSA a decir
internamente que tenía la capacidad de acceder a muchas formas de
tráfico de internet que se habían considerado seguras, entre ellas
al menos algunas redes privadas virtuales, que crean redes seguras en
internet, y el nivel general de seguridad para sitios web empleados
por la banca o el comercio online.
La
oficina del director de Inteligencia Nacional dijo el viernes que la
NSA "no estaría haciendo su trabajo" si no tratara de
contrarrestar el uso del codificado por parte de adversarios como
"terroristas, ciberdelincuentes, traficantes de personas y
otros".
Green
y otros dijeron que una gran cantidad de protocolos de seguridad se
necesitaban escribir "desde cero" sin la ayuda del
Gobierno.
Vint
Cerf, autor de algunos de los principales protocolos de internet,
dijo que no sabía si la NSA había causado mucho daño, subrayando
que la incertidumbre sobre las nuevas informaciones en torno al uso
que la NSA ha dado a sus capacidades.
"Existía
una tensión entre la misión de vigilar y la de proteger las
comunicaciones, y esa tensión se resolvió hace algún tiempo a
favor de la protección al menos para las comunicaciones
estadounidenses", dijo Cerf.
El empleador de Cerf,
Google, confirmó que está codificando los datos entre sus centros,
un proceso que se aceleró tras salir a la luz los documentos de
Snowden en junio.
El
autor Bruce Schneier, una de las figuras más admiradas en la
criptografía moderna, escribió en una columna en el Guardian que la
NSA "ha minado un contrato social fundamental", y que los
ingenieros del mundo tenían "la obligación moral" de
recuperar internet.
Fuente : rebelion
No hay comentarios.:
Publicar un comentario
gracias por comentar: