Mostrando entradas con la etiqueta Pérdida de datos. Mostrar todas las entradas
Mostrando entradas con la etiqueta Pérdida de datos. Mostrar todas las entradas

Evita la pérdida de información por malware

>>  domingo, 17 de junio de 2018

5 consejos para prevenir la pérdida de datos provocada por el malware
https://www.redeszone.net/

Existen muchas variedades de malware que pueden comprometer el buen funcionamiento de nuestro equipo. La variedad es tan amplia como las opciones que encontramos para proteger los sistemas. Pero quizás el problema más grave al que se enfrentan los usuarios son aquellas amenazas que pueden poner en riesgo los datos. Con esto hablamos de todos los archivos de un equipo, de toda una unidad. En este artículo vamos a dar algunos consejos para mitigar el problema el malware que puede borrar todos nuestros datos. Hace un mes hablamos de StalinLocker, un malware que podía borrar un disco en cuestión de minutos.
Evitar la pérdida de datos por el malware

Como el caso de StalinLocker, por desgracia hay muchos más. Programas maliciosos configurados para vaciar un equipo. También el caso del ransomware, ideados para secuestrar los archivos y pedir un rescate a cambio. Este, de hecho, fue uno de los principales problemas de ciberseguridad durante 2017.

Pero los usuarios podemos realizar diferentes acciones para proteger nuestro equipo y mitigar este problema. Por ello vamos a dar algunos consejos para poner en práctica. Además, no solamente pueden protegernos algunos de ellos de una pérdida de datos en caso de algún tipo de malware, sino también algún problema de hardware o pérdida de dispositivo.

No hay nada peor que la entrada de cualquier tipo de malware que haga imposible trabajar en un equipo y obligue a formatear. Todos nuestros datos en peligro.
Crear copias de seguridad

Lo primero y más importante es crear copias de seguridad. Es la manera más eficaz de proteger nuestros datos. En caso de un eventual ataque, tendremos una copia de todos nuestros archivos en otro dispositivo. Existen muchas opciones. Básicamente tenemos que elegir entre crear una copia física o en la nube.

Es el primer escudo frente al ransomware, aunque lógicamente no puede evitar la amenaza en sí. Es importante ya que de esta manera si hay algún virus que borre nuestro equipo, esos archivos estarán guardados en otro lugar y el daño puede ser menor.
Programas y herramientas de seguridad

Contar con programas y herramientas de seguridad es muy importante. En este caso sí puede protegernos del malware. Es importante contar con un buen antivirus que detecte posibles amenazas que pongan en riesgo nuestros archivos.

Además, estos programas deben estar actualizados a la última versión. De esta manera haremos frente a los problemas más recientes.
Consejos frente al malware
Tener cuidado al navegar

Cuando hablamos de malware, una de las fuentes de entradas más frecuentes es a la hora de navegar. Hay que tener mucho cuidado de las descargas, especialmente. Siempre hay que descargar los programas de sitios y fuentes oficiales. Es frecuente que en páginas de terceros puedan entrar aplicaciones modificadas y que puedan comprometer nuestros sistemas.

Dentro de estos programas dañinos se encuentran algunas variedades de malware que pueden comprometer nuestros datos. Por tanto, tener mucho al navegar y al descargar es uno de los pilares de evitar archivos dañinos que puedan provocar un borrado de disco y comprometer nuestros datos.
Mantener nuestro equipo actualizado

Anteriormente mencionamos que debemos de contar con programas antivirus actualizados. Lo mismo ocurre con el propio sistema. En ocasiones surgen vulnerabilidades que pueden provocar la pérdida de datos si son explotadas. Existen variedades de malware que aprovechan estos errores para penetrar en un equipo.

Manteniendo las actualizaciones e instalando los parches de seguridad que van apareciendo, podemos evitar problemas de este tipo. Es otra de las acciones más importantes que podemos hacer para evitar el borrado de datos por culpa del malware.
Sentido común

Quizás lo más importante de todo. Hay que tener sentido común con e-mails fraudulentos que recibamos, páginas malintencionadas o programas que instalemos. Hay que observar siempre muy bien la fuente de procedencia, así como aspectos generales.

Gran parte del malware requiere de la interacción del usuario. Es por ello que el sentido común se convierte en algo básico para prevenir.

Read more...

En riesgo futuro de archivos digitales en la red, podrián desaparecer por una fuerte pulsación electromagnética

>>  jueves, 30 de abril de 2015

Tres soluciones para evitar una "era oscura digital"
http://www.cooperativa.cl/ 30/04/2015

  • Analistas temen que la transformación digital esté poniendo en riesgo a la historia.
  • Una fuerte pulsación electromagnética podría hacer desaparecer los miles de millones de datos que hay en la red.


En el pasado el hombre escribió sobre piedra, pergaminos, vitela... prácticamente sobre cualquier elemento que llegara a sus manos. Y algunos de esos documentos físicos, como las pínturas en cuevas, duraron decenas de miles de años.

Pero desde 1980 nuestras vidas se han ido digitalizando a una velocidad vertiginosa y ahora la mayoría de nuestras fotos, videos, investigaciones y escritos están almacenados en nuestras perecederas computadoras o en centros de datos distribuidos por todo el mundo.

En otras palabras, la Historia se ha mudado a internet. Y algunos analistas digitales temen que esta transformación esté poniendo en riesgo su futuro.

El pasado mes de febrero el apodado "padre de internet", Vint Cerf, advirtió que si se pierden estos datos podríamos entrar en una "era oscura digital".

Trillones de gigabytes de información digital de una importancia crucial para los futuros archivistas e historiadores perviven bajo una amenaza potencial de pérdida, por la corrupción de los archivos, el robo, la obsolescencia e incluso los desastres naturales y los causados por el hombre.

¿Cómo se puede evitar esa potencial "era oscura digital"? Aquí te presentamos tres vías de solución que la industria ya está desarrollando a largo plazo.
subir "Rayos X" de los archivos

El propio Cerf propuso que se haga una suerte de "retrato digital" de los contenidos, la aplicación y el sistema operativo con el que se procesó.

Así, se crearía una réplica de cada pieza de software y hardware que se haya producido, y se almacenaría de la misma manera que lo hacen los museos, para que nunca se vuelvan obsoletos.

La universidad de Carnegie Mellon, en Estados Unidos, ya ha puesto en práctica un proyecto que sigue esa línea de trabajo, llamado Olive.

Esta solución requiere que la información quede preservada digitalmente en una especie de máquinas virtuales almacenadas en la nube.
subir Almacenamiento masivo y barato

Pero hay algunos analistas que creen que la industria de la tecnología creará sus propias soluciones impulsada principalmente por la fuerza del mercado.

Uno de ellos es Jeremy Burton, presidente de producto y marketing en EMC, una compañía que ayudó a digitalizar unos 82.000 manuscritos en la biblioteca del Vaticano.

Burton cree que cada vez será más común disponer de unos estándares de almacenamiento de datos de dimensiones industriales, a medida que la capacidad de almacenamiento se va haciendo más accesible.

Por ejemplo, hace 10 años almacenar datos habría costado unos US$45 por gigabyte. Mientras que ahora cuesta unos céntimos, comenta Burton.

"Seguro que vamos a ver un aumento de los servicios de almacenamiento digital", dice.

"Hay una nueva generación de gente que está creciendo y espera tener acceso a cualquier información que quieran -no sólo a datos recientes, sino a todos los datos".
subir Almacenamiento "a prueba de bombas"

La seguridad es un factor esencial para cualquier solución.

Un pulso electromagnético causado por una gran explosión nuclear, por ejemplo,podría acabar con redes enteras de electricidad y potencialmente parar a la civilización.

El año pasado el multimillonario gestor de fondos de cobertura (hedge funds) Paul Singer le adivirtió a sus inversores que un pulso electromagnético, denominado EMP por sus siglas en inglés, era "la amenaza más significativa" para Estados Unidos y sus aliados.

Y en un mundo digital cada vez más interconectado, también se podría llegar a ese punto catastrófico a causa de un malware particularmente agresivo o a través de una ciberguerra a nivel estatal.

Para contrarrestar estas amenazas cada vez son más comunes los centros de datos a prueba de bombas, protegidos con sofisticados sistemas de seguridad físicos y cibernéticos.

Grandes compañías e instituciones con un interés específico en la protección de datos y en su accesibilidad a largo plazo ya están invirtiendo en estos centros, a medida que toman consciencia de las amenazas.

Entre ellas están bancos, compañías de seguros y gobiernos.

Pero aún queda mucho por hacer.

Como civilización, sólo ahora estamos empezando a imaginar las devastadoras consecuencias que podría acarrear la pérdida masiva de información.


Read more...

Investigación de EMC: impacto monetario de la pérdida de datos y el tiempo de inactividad no planificado en las empresas

>>  jueves, 4 de diciembre de 2014

El volumen de datos perdidos durante un incidente está creciendo exponencialmente
http://cso.computerworld.es/ 03/12/2014

Según datos de EMC, la pérdida de datos y el tiempo de inactividad les costaron a las empresas 1,7 billones de dólares en el último año. La mitad de las organizaciones carece de un plan de recuperación de desastres para big data, la nube híbrida o la tecnología móvil.
seguridad_datos_perdida
Una nueva investigación de EMC destaca el inmenso impacto monetario que tienen la pérdida de datos y el tiempo de inactividad no planificado en las empresas de todo el mundo. No en vano, la compañía cifra en 1,7 billones de dólares el coste que ello ha supuesto para las empresas en los últimos doce meses. Además, dicho estudio revela que la pérdida de datos creció un 400% desde 2012, pese a lo cual, un 71% de las organizaciones desconfían de su capacidad de recuperacióndespués de una interrupción.

La encuesta realizada por Vanson Bourne a 3.300 responsables de TI de empresas medianas y grandes de todo el mundo, señala que, si bien está disminuyendo la cantidad total de incidentes depérdida de datos, el volumen de datos perdidos durante un incidente está creciendo exponencialmente. Así, un 64% de las empresas encuestadas experimentó pérdida de datos o tiempo de inactividad en los últimos 12 meses. De media, cada empresa experimentó más de tres días laborables (25 horas) de tiempo inactivo, lo que para el 36% se tradujo en una pérdida de ingresos, mientras que un 34% sufrió demoras en el desarrollo de productos.

En lo que respecta a tendencias como big data, la tecnología móvil y la nube híbrida, el 51% de los negocios carece de un plan de recuperación de desastres para cualquiera de estos ambientes, y solo un 6 % tiene un plan para los tres. Además, el 62% de los encuestados consideran big data, la tecnología móvil y la nube híbrida como “difíciles” de proteger.

A la hora de clasificar a las empresas en una de cuatro categorías según su grado de madurez en términos de protección de datos, el 87% se encuentra en las dos categorías más bajas, y sólo un 13% está a la vanguardia. Entre estas últimas destacan las empresas chinas.

Autor: Hilda Gómez

Read more...

Temor empresarial a la pérdida de datos

>>  miércoles, 8 de octubre de 2014

Los empresarios se muestran preocupados ante la pérdida de datos
http://www.siliconweek.es/ 08/10/2014


De hecho, según un informe de Kaspersky Lab y B2B International, los empresarios sitúan la “información de operaciones internas” y la “propiedad intelectual” como los dos tipos de datos no financieros que tienen más miedo a perder.


Una preocupación lógica si se tiene en cuenta que el 21% de las empresas españolas sufrió alguna pérdida de propiedad intelectual durante el año pasado.

Por su parte, a la pregunta de cuál ha sido la principal causa de la pérdida de datos, el 23% de los empresarios españoles señala al malware como el mayor responsable de los últimos 12 meses en empresas españolas.

No obstante, tampoco hay que olvidase de otros incidentes que llevaron a la pérdida de información, como las intrusiones en la red (8%), las vulnerabilidades en el software (8%), la información filtrada de dispositivos móviles (5%) y los ataques dirigidos (5%).

Curiosamente, aquellas compañías dedicadas a la fabricación situaron los datos e información de los clientes en el último lugar en su ranking de información que temen perder, posiblemente porque en sus instalaciones no suelen almacenar este tipo de archivos.

Read more...

Puntos de restauración de Windows son una copia exacta del sistema operativo. ¡Que bien!

>>  jueves, 22 de agosto de 2013

Arregla Windows usando los puntos de restauración
http://bitelia.com/ 22/08/2013

Perder tus archivos y documentos, así como la configuración de Windows, es algo que a todos nos ha pasado en alguna ocasión, y es algo nada placentero y que con el tiempo comprendemos que podríamos haber evitado. Hace años, era necesario contar con programas especializados en realizar copias de seguridad, pero en la actualidad, el propio sistema operativo cuenta con su propia herramienta especializada en esta tarea, prevenir la pérdida de datos en caso que Windows o nuestro ordenador falle. Las versiones más recientes de Windows cuentan principalmente con dos herramientas enfocadas a prevenir la pérdida de archivos: por un lado, el gestor de copias de seguridad y, por el otro, los puntos de restauración de Windows, menos visibles pero no menos importantes.

Los puntos de restauración de Windows son una copia exacta del sistema operativo. Básicamente incluye su configuración y el estado de las preferencias de los programas, librerías y demás archivos de Windows. Su utilidad, como indica su nombre, es poder restaurar el estado de Windows en caso que ocurra un percance, como que el ordenador se infecte por un virus o se eliminen ciertos archivos imprescindibles para el buen funcionamiento del sistema. Es importante tener en cuenta que los puntos de restauración están enfocados a Windows, no a tus archivos personales, por lo que si quieres proteger tus documentos, imágenes y vídeos, tendrás que usar la herramienta de copia de seguridad de Windows o alguna herramienta de backup. Lo mismo ocurre con programas de terceros y sus respectivas configuraciones.

Por defecto, Windows crea puntos de restauración automáticamente, pero tú puedes crear tus propios puntos de restauración, en especial antes de realizar una tarea o acción que pueda resultar potencialmente dañina para Windows, como instalar un programa o desinstalar cierto componente del sistema.
puntos de restauración


La forma más rápida de configurar los puntos de restauración de Windows es ir a "Equipo > Propiedades > Protección del sistema". Por defecto, está activado, pudiendo desactivarlo si quieres, aunque no es recomendable, pues no molesta ni causa perjuicio al rendimiento de Windows. Básicamente, lo que puedes configurar es el tamaño de disco máximo reservado a los puntos de restauración y eliminar los puntos de restauración ya existentes. En caso que quieras acceder a los puntos de restauración, necesitarás una herramienta como System Restore Manager.

Desde ese mismo menú tendrás también la posibilidad de crear un nuevo punto de restauración. Tan sólo tendrás que añadir una descripción, como por ejemplo "Punto antes de instalar X programa". El proceso es relativamente rápido y muestra una barra de progreso. Cuando termine, verás el mensaje "El punto de restauración se creó correctamente".


¿Qué ocurre si necesitas restaurar el sistema usando un punto de restauración? Volviendo a la misma ventana de antes, tendrás que hacer clic en el botón "Restaurar sistema...". Aunque puede variar de una versión a otra de Windows, básicamente, el sistema te pregunta si quieres restaurar la copia recomendada u otro punto de restauración. Si eliges la primera opción, antes podrás echar un vistazo a los programas de terceros, para saber si serán restaurados correctamente o no. En concreto, desde "Detectar programas afectados", se te mostrará la lista de programas y controladores que serán eliminados y los que serán restaurados, para hacerte una idea y tomar precauciones antes de restaurar el sistema. En caso de escoger un punto de restauración manualmente, tendrás la misma opción de detectar programas afectados.

Como podrás comprobar, los puntos de restauración son una buena solución para recuperar la estabilidad de Windows en caso que deje de funcionar como el primer día. Por desgracia, el cambio no afecta a tus datos, así que recuerda realizar una copia de seguridad de ellos. Por otro lado, es una pena que esta función esté tanoculta y muestre tan poca información de los puntos de restauración creados y de su contenido. En cualquier caso, te salvarán de más de un embrollo.

Autor: José María López

Read more...

Pérdida de archivos: Archivos del primer Kingdom Hearts

>>  miércoles, 26 de junio de 2013

Los datos originales del primer 'Kingdom Hearts' se perdieron, afirma en una entrevista Tetsuya Nomura
http://www.siliconera.com/ 26/06/2013
'Kingdom Hearts HD 1.5 ReMIX' se muestra en un vídeo gameplay de 20 minutos


Kingdom Hearts HD 1.5 ReMIX


Square Enix ha publicado un vídeo con más de 20 minutos dedicados a 'Kingdom Hearts HD 1.5 ReMIX'. En él podéis ver mucho gameplay comentado por los presentadores (no recomendado si no habéis jugado el primer 'Kingdom Hearts'), así como una preview del libro de arte que vendrá con la edición limitada.

Además, durante una entrevista interna de la compañía, Tetsuya Nomura desveló que los datos originales de 'Kingdom Hearts' se perdieron, así que han tenido que investigar y fijarse en su propios juegos para recrear todo desde cero en alta definición. Esto ha supuesto una gran cantidad de tiempo y trabajo, por lo que hacerlo no ha sido nada fácil.

'Kingdom Hearts HD 1.5 ReMIX' saldrá a la venta el 13 de septiembre en Europa (día 10 en Norteamérica) para PlayStation 3.
Fuente | Siliconera
Square Enix perdió los archivos del primer Kingdom Hearts, lo que dificultó su remake http://www.teknoconsolas.es/ 26/06/2013
Tetsuya Nomura, director de la conocida franquicia Kingdom Hearts, ha hablado recientemente sobre lo que espera a los fans de la saga y ha dado un curioso detalle desconocido hasta la fecha.

Cuando Square Enix se quiso poner manos a la obra con Kingdom Hearts HD 1.5 ReMIX, remake de la saga con motivo del 10º aniversario, se dieron cuenta de que habían perdido los archivos del primer Kingdom Hearts, lo que les llevó a tener que rehacer los gráficos por completo.

En cuanto a Kingdom Hearts III, Nomura ha afirmado que sus personajes favoritos son Xehanort y Ansem y ha dicho que la entrega incluirá personajes de Final Fantasy. Además, ha dejado caer la posibilidad de que Mickey sea personaje jugable.
Autor: Antonio Velázquez

Read more...

Alzheimer digital: perdida de memoria almacenada en formatos tecnologicos pronto obsoletos

>>  viernes, 31 de mayo de 2013

Alarma a Unesco 'alzheimer digital'
http://educacionadebate.org/ 31/05/2013

La UNESCO calcula que 80 por ciento de los 200 millones de horas resguardadas en los archivos de televisión del mundo desaparecerán para [...]

La NASA perdió las grabaciones de Neil Armstrong cuando pisó la Luna en 1969. Tampoco pudo consultar imágenes del amartizaje de la sonda Mars Viking en 1976 porque estaban archivadas en tecnología caduca. Hubo que recurrir a la “ingeniería inversa” para construir dispositivos apropiados que permitieran recuperar la información del Planeta Rojo.

La UNESCO calcula que 80 por ciento de los 200 millones de horas resguardadas en los archivos de televisión del mundo desaparecerán para 2015.

Afrontamos el riesgo de un “alzheimer digital”, previene Janis Karklins, responsable de Comunicación e Información de la UNESCO.

La pérdida de memoria almacenada en formatos tecnológicos pronto obsoletos, y por lo mismo inaccesibles, anticipa una oscura era digital que alarma no sólo a Karklins, sino al organismo en su conjunto, promotor del congreso más ambicioso en la historia sobre este tema, que reunirá en Marsella, el próximo octubre, a cientos de especialistas de campos tan diversos como la ciencia, la industria, la política, la educación, la ingeniería, la arqueología, el cine o la informática.

Es la segunda reunión internacional convocada por la UNESCO en un año; la anterior fue una conferencia en Vancouver, Canadá, en septiembre de 2012.

Jamie Schlese, investigador de la Universidad Americana de Washington, advirtió en Vancouver que la memoria cultural puede perderse por permanecer en plataformas de corporaciones privadas, como Facebook, Twitter, Instagram y Youtube.

Recuerda que tras la tragedia de Virginia Tech en 2007 – cuando un hombre mató a 32 estudiantes del Instituto Politécnico y Universidad Estatal de Virginia–, personas no ligadas a los fallecidos o a las familias de estos produjeron materiales, difundidos en Youtube, que honraban la memoria de las víctimas. Son obras incluso de arte, dice, que muestran una respuesta social, pública, depositada sin embargo en una empresa que no persigue la preservación patrimonial.

Las movilizaciones en Túnez y Egipto que precipitaron la caída de regímenes dictatoriales entre 2011 y 2013 –durante la denominada “Primavera árabe”– conjugaron las acciones callejeras con la propagación de tuits ahora desaparecidos.

Los investigadores Hany M. SalahEldeen y Michael L. Nelson, adscritos a la Universidad de Cornell, descubrieron que 11 por ciento de la información compartida en las redes sociales desaparece en un año, y 0.02 por ciento continúa eliminándose cada día.

Para su estudio escogieron seis acontecimientos producidos entre junio de 2009 y marzo de 2012: el brote del virus H1N1, la muerte de Michael Jackson, las elecciones iraníes, el Premio Nobel de la Paz a Barack Obama, la revolución egipcia y las revueltas en Siria.

“El problema con los materiales que nacen digitales es la permanencia. Su función es, ciertamente, proporcionar información actualizada, pero ¿cuando quieres consultar cinco años atrás, dónde buscas?”, cuestiona Rosa María Fernández, especialista del Instituto de Investigaciones Bibliotecológicas y de la Información (IIBI) de la UNAM y presidenta del comité mexicano del programa Memoria del Mundo de la UNESCO.

Juan Voutssas, también investigador del IIBI y autor de Cómo proteger el patrimonio digital en México, señala que en 2012 se generó casi un zettabyte de información.

“Estamos hablando de un 1 con 21 ceros de bytes. Son mil trillones de bytes, y es sólo un año, no la información acumulada en la historia de la humanidad. Si no hay un modo de acomodarlo, indizarlo y recuperarlo, ese material está perdido”.

Voutssas aclara que debe distinguirse entre la información digitalizada, es decir la proveniente de soportes tradicionales, como el papel, y la que nació digital.

“El material digital tiene que preservarse desde el primer día. De otra manera ¿cómo garantizar su autenticidad e integridad? Desde el primer día tienen que seguirse las reglas, establecer quién lo creó, cuándo, dónde, quién puede modificarlo, por qué…”

Estos elementos se han denominado “metadatos” y son primordiales en la conservación de los acervos digitales, puntualiza.

“Mucha gente cree que la preservación es un problema tecnológico meramente, un problema de soportes. No es cierto. Los soportes forman parte del problema, pero en la inmensa mayoría de los casos es un problema de método: 80 por ciento es método, 20 por ciento tecnología”.

Sin un almacenamiento adecuado de estos archivos, agrega, se pierde la memoria de las instituciones y de los países, además de fallar la fiscalización hacia las acciones de los gobiernos.

La Ley Federal de Transparencia y Acceso a la información, de 2002, y la Ley Federal de Archivos, publicada el año pasado, aumentaron en México la atención a los archivos digitales, pero ni este País ni ningún otro tienen suficientes profesionales para la preservación de los mismos, señala Voutssas.

Por eso la británica Anne Thurston, directora de la Fundación Internacional de Gestión de Documentos, insiste en la vulnerabilidad de este patrimonio.

“Los archivos digitales son sumamente frágiles y pueden perderse fácilmente, borrarse, corromperse o alterarse. Si ocurriera alguna catástrofe y no se hubieran tomado todas las precauciones necesarias para protegerlos, las consecuencias serían nefastas para la transparencia y responsabilidad de los gobiernos, las oportunidades económicas, los derechos de los ciudadanos y la preservación del conocimiento. Si bien es frecuente que los documentos en papel se roben o se quemen durante las guerras, muchos documentos originales sobreviven; puede que esto no suceda con los archivos digitales”.

Alerta mundial
En la declaración de Vancouver, la UNESCO insta a los países miembros a:

-Desarrollar políticas públicas que garanticen la preservación del patrimonio digital.
-Desarrollar marcos legales para preservarlo y hacerlo accesible.
-Crear estrategias que garanticen archivos gubernamentales veraces y confiables.
-Impulsar candidaturas de acervos digitales para el programa Memoria del Mundo de la UNESCO.

Consulta gratuita
El Instituto de Investigaciones Bibliotecológicas y de la Información (IIBI) de la UNAM dispone de un sitio en su página de internet (http://iibi.unam.mx/archivistica/) dedicado a la preservación de archivos digitales institucionales, con diversos materiales, por ejemplo glosario, normativas, así como libros gratuitos y descargables. Uno de ellos es “Preservación del patrimonio documental digital en México”, del investigador Juan Voutssas, quien también publicó, hace unas semanas “Cómo preservar mi patrimonio digital personal”, que puede leerse en http://iibi.unam.mx/opLibros.html

El especialista advierte que los acervos personales –con fotos, música, grabaciones de imágenes y tareas, entre muchos otros materiales– enfrentan un riesgo mayor de pérdida porque sus propietarios desconocen las técnicas de preservación.

Publicó Reforma.

Read more...

CONFERENCIA: LEY DE ARCHIVOS RETOS Y OPORTUNIDADES

>>  lunes, 29 de octubre de 2012

Directora del AGN:‘Falta conciencia por el valor de los documentos’
http://www.vanguardia.com.mx/27/10/2012
La funcionaria presentó la conferencia “Ley General de Archivos, retos y oportunidades”.
Conferencia. La funcionaria presentó la conferencia “Ley General de Archivos, retos y oportunidades”. Foto: Vanguardia-Francisco Rodríguez
TORREÓN.- Aurora Gómez Galvarriato,directora del Archivo General de la Nación (AGN), consideró que existe una falta de conciencia en el país y en los gobiernos por el valor de los documentos, pues dijo que se piensa en los archivos como cajas que hay que arrumbar y no como información valiosa. 

Aseguró que todos los días se pierden en el país documentos tanto históricos como los que se están construyendo hoy que tendrían que ser resguardados para que en el futuro se puedan consultar. 

Atribuyó, entre muchos factores, a la falta deorganización como generador de grandes pérdidas; a que el gobierno acumula los documentos en bodegas infinitas donde se deterioran los archivos; a que se le destinan pocos recursos y se contrata gente de niveles profesionales bajos.

“Deben pasar de estar en las direcciones de recursos materiales a formar parte de las áreas o comités de información donde se pueda sistematizar. Deben modernizarse. Sale más caro para el país no tener la información.

Nos llaman de algún municipio que están tirando el archivo municipal o de una fábrica antigua que nos dicen que están quemando el archivo, esto pasa todos los días”, narró Aurora Gómez, quien estuvo en Torreón para dictar la conferencia “Ley General de Archivos, retos y oportunidades”, en el cierre de la Semana Estatal de la Transparencia del ICAI.

La también doctora en Historia por Harvard apuntó que también existe una cultura patrimonial de los documentos públicos, pues dijo que el funcionario cree que se puede llevar todo cuando sale de su gestión, lo que esfuma el rastro tanto para la eficacia del gobierno como para la rendición de cuentas.

Sin embargo, en la nueva Ley Federal de Archivos ya está considerada como una falta administrativa grave el extraer documentos que no son suyos.

Falta por explorar el AGN

Para la Directora del Archivo General de la Nación, aún existe una gran cantidad de documentos en la institución que no se conoce y no se han explorado.

Ejemplificó que en 2002 llegó el Archivo que era de la Policía Federal de Seguridad e Investigaciones Políticas y Sociales, documentos que albergan mucha información y de donde pudieran surgir grandes trabajos.

“Hay fondos que no están organizados y que se han estudiado muy poco. Lo que es un hecho es que del Archivo General de la Nación, por ejemplo, el libro sobre la Nueva España fue hecho con documentos de ese archivo. La mayoría de los libros de historia han sido hechos en parte con material del Archivo. Sí ha producido obras importantes y un conocimiento importante”, afirmó Aurora Gómez.

RESGUARDO
Nos llaman de algún municipio que están tirando el archivo municipal o de una fábrica antigua que nos dicen que están quemando el archivo, esto pasa todos los días”.

Aurora Gómez Galvarriato, directora del Archivo General de la Nación.
Fuente: Francisco Rodríguez
mb
Ven rezago en archivos locales
http://www.elsiglodetorreon.com.mx /29/2012


El principal reto en materia de transparencia está en los estados y municipios, donde no existe el hábito de archivar los documentos oficiales, dijo Aurora Gómez Galvarriato, directora del Archivo General de la Nación, en su participación durante la clausura de la Semana Estatal de Transparencia 2012 en la Universidad Tecnológica de Torreón.

En la conferencia titulada "Ley General de Archivos, Retos y Oportunidades", Gómez Galvarriato, citó la importancia de la Ley General de Archivos, la cual tiene el objetivo de fortalecer los archivos para preservarlos como evidencia histórica y regular la gestión de la información pública.

Al ser cuestionada sobre la posición de México, en términos de transparencia, dijo que el país está avanzando paulatinamente desde 2002, cuando se concretó la Ley

Read more...

PERDIDA DE DATOS Y SU RECUPERACION EN DISCOS DUROS Y ENTORNOS VIRTUALES

>>  martes, 27 de diciembre de 2011

N. Green, Kroll Ontrack: “El error humano es la mayor causa de pérdida de datos en entornos virtualizados”
Entrevistamos a Nicholas Green, director de la empresa de recuperación de datos Kroll Ontrack. Si queréis conocer de cerca las tendencias en nube y seguridad, y los riesgos de la pérdida de datos, no dejéis de leer. 
La información es poder y su pérdida constituye un verdadero quebradero de cabeza para las empresas. Desde los discos duros hasta los entornos virtualizados,  el proceso de almacenaje de datos se ha vuelto mucho más complejo. Las nuevas tecnologías han traído ventajas competitivas debajo del brazo y también riesgos, para los que las compañías no siempre están preparadas. Errores humanos, desinformación y falta de control provocada entre otras razones por la deslocalización -debido a la adopción del cloud computing-, son algunas de las amenazas más comunes.
En este contexto, se podría decir que la industria de recuperación de datos tiene un enorme camino por recorrer. Para conocerla más de cerca y hablar sobre las nuevas tendencias en nube y externalización de documentos, hemos entrevistado a Nicholas Green, director de Kroll Ontrack, empresa pionera del sector.
Cuéntenos,  ¿cómo y por qué nació Kroll Ontrack- teniendo en cuenta lo específico de un sector como este?
Empezamos recuperando datos del disco duro de una fábrica de camiones de Estados Unidos hace 25 años. Fue una cosa de amigos, como quien dice. Conociendo los soportes y con un poco de ingeniería inversa logramos solucionar el problema. Desde ahí los discos duros se fueron complicando y el sector profesionalizándose. Prácticamente creamos esta industria y a lo largo de este tiempo nos hemos ido adecuando a las nuevas tecnologías que han ido saliendo.
Actualmente siguen siendo pioneros, pero no los únicos. ¿Cuál diría que es su principal valor diferenciador?
Sin duda que nuestras técnicas – de recuperación de datos- son sólo nuestras y no las compartimos con otras compañías. Esto nos da cierta ventaja competitiva técnica, sobre todo en recuperación a distancia y recuperación de máquinas virtuales.
 ¿Cuándo aterrizaron en España?
Estamos en España desde hace diez años y contamos con laboratorio de cámara limpia desde hace cinco, lo que nos da la posibilidad de realizar servicios de recuperación de datos físicamente aquí. Estas cámaras limpias son espacios libres de polvo en los que se pueden abrir discos duros con el fin de revisar los mecanismos y extraer los datos.
 ¿Cuáles son las principales causas de la pérdida de datos?
Las cifras son muy distintas si comparamos las máquinas tradicionales- discos duros- con las virtuales- cloud computing. En los discos duros y en los servidores aproximadamente un 26% de las pérdidas son causadas por error humano, mientras que en los sistemas virtuales la cifra asciende a un 65%.
En cuanto a las causas físicas: un pico de tensión, catástrofes naturales o falta de mantenimiento se encuentran las más comunes.
Por su parte, los discos virtuales suelen aquejarse de problemas con el software o corrupción de archivos. Las empresas no están acostumbradas a gestionar esta clase de entornos. ¿Quién se ocupa de la gestión, mantenimiento y borrado? Esto se presta a confusión y errores.
Ante un panorama como este, ¿hay muchas empresas que aboguen por un plan de mantenimiento o la mayoría contrata esta clase de servicios sólo en caso de necesidad?
 Nosotros principalmente trabajamos ad hoc. Cuando surge un problema concreto y nos llaman y acudimos.
Todas las empresas tienen por ley un documento de seguridad para proteger los datos de carácter personal, pero más allá de esto deberían de contar un plan de actuación en caso de desastre. De hecho existen grandes compañías que tienen por ejemplo bloques vacíos  listos por si pasase algo en sus centrales.
 Tenemos muchas historias de empresas que en casos como de pérdida han intentado solucionarlo con su proveedor de hardware. Este no ha sabido orientarles y han perdido días – y en estos casos el tiempo es oro- en encontrar una compañía como la nuestra.             Por todo ello, deberían de seguir planes de continuidad e incluir compañías como la nuestra en sus planes de negocios.
Y, ¿esto es rentable para todo tipo de empresas o sólo para las más grandes?
No hay una respuesta universal, cada uno tiene que evaluarlo. No se trata del tamaño de la empresa necesariamente, sino del valor de los datos. Igual una empresa de 25 personas ha perdido su raid por ejemplo con la base de datos SQL, dónde tienen su CRM. Sin embargo, en una empresa grande puede que lo único que se pierda sean días de trabajo. No se puede comparar.  En ambos casos habría que evaluar si merece la pena.
Desde Kroll Ontrack, en función de la complejidad  del trabajo y la urgencia que nos demandan evaluamos el servicio que vamos a dar. Necesitamos montar un equipo de trabajo y en 24 horas lo podemos tener listo.
¿Existen protocolos de actuación estándar por parte de las compañías?
No. Es un mercado que trabaja mucho en la confianza de las empresas, nuestros clientes se fían de nuestra reputación, pero está muy disperso y no hay un cuerpo regulador.
Hay mucha diferencia en calidad entre un proveedor y otro. Es duro orientar a los clientes.  A veces se dejan guiar por cualquier página web que dice todo lo contrario de lo que hay que hacer.  Hay que tener mucho cuidado.
Y, ¿alguna pauta a seguir en caso de la pérdida de datos?
En cuanto a las pautas, muy sencillo, apagar todo y no entrar en estado de pánico. Ayer estaba  revisando unos casos de Estados Unidos: un empleado entró en pánico al cambiar un disco de raid, se puso nervioso, se equivocó y los datos con los que se empezó a reconstruir eran datos equivocados.
 Hablando de cloud computing concretamente, ¿cómo se realiza la recuperación de datos?
Hablando exclusivamente de nube, nosotros tenemos acuerdos con algunos proveedores, pero sobre todo trabajamos con el usuario final. A veces, no sabemos ni que estamos trabajando en nube aunque parezca extraño decirlo. Tenemos una tecnología robot patentada  y lo que nos permite es transformar nuestrasherramientas de reparación de estructuras en herramientas que se pueden usar en laboratorio y también remotamente. Establecemos una conexión con dónde están los datos y hacemos la reparación. Buscamos fragmentos en la base de datos y lo reconstruimos.
Al final la nube es almacenamiento. Si tenemos las herramientas para trabajar bien y a distancia podemos trabajar discos, máquinas virtuales.  En centros de datos se usa mucho para optimizar el espacio. El cloud entraña sus riesgos.
 ¿Cuáles son los objetivos de Kroll Ontrack para 2012?
Seguir en la vanguardia, siendo el número uno en capacidades técnicas. Tenemos un equipo en I+D en Estados Unidos, pero trabajamos con todas las oficinas para encontrar nuevas técnicas, posibilidades y herramientas.
Actualmente estamos dedicando muchísimos recursos a dos temas: virtualización y  en el lado del hardware,memoria flash y memoria sólida. Esas son las dos áreas en las que estamos haciendo nuevas inversiones, aunque seguimos manteniéndonos al día con los discos duros. Ahí está el futuro.
El caso de  flash memory es muy complicado ya que hay muchas empresas haciéndolo,  pero no existen estándares de algoritmos, son todos distintos. Uno a uno es muy laborioso y no va a salir rentable, así que lo que estamos haciendo es investigar para hacer un código para cada fabricante.
En cuanto a visión de recuperación de datos. Nosotros tenemos nuestros propios centros de datos por motivos de seguridad. Somos la empresa que más petabytes mueve de entornos jurídicos y eso necesita mucha seguridad.
 Díganos, que tendencias considera queseguirá el cloud computing el próximo año y a que retos cree que se enfrenta en España
Yo creo que hay miedo al cloud a pesar de que la mayoría de las incidencias se deben al error humano. Y el caso es que llevamos usándolo desde hace muchos años. La gente está hablando mucho del entorno jurídico y del cumplimiento de normas: ¿dónde están mis datos?, ¿quién lo guarda?, ¿por qué ahora, si llevamos usando cloud más de 5 años? Es necesario un marco regulador.
Las empresas tienen que tener sus protocolos internos y mirar su proveedor con lupa para saber dónde están sus datos. Si se guardan  en un formato que se pueda explorar de forma rápida, especialmente si son copias de seguridad, si pueden tener acceso al dato X en cuanto lo necesiten, etc. Existe un área muy gris ahí. Se está publicando mucho sobre dónde están mis datos, están seguros. La gente necesita un poco más de transparencia.
Se habla también de consolidación en muchos de los pequeños operadores, pero con el tiempo probablemente desaparecerán y quedarán unos cuentos grandes. Esto será debido a las SLA, service level agreement: dónde están mis datos, cómo hacéis copias de seguridad, cómo elimináis mis datos y si yo tengo un problema con el hardware cómo lo vas a solucionar para recuperar los datos. La gente tiene que mirar muy cuidadosamente lo que le ofrecen en caso de desastre. Los datos también están esparcidos por seguridad. Pero aun así existe un vacío legal.

Read more...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP