miércoles, 4 de noviembre de 2015

CURANDO CONTENIDOS



La curación de contenido es el arte para seleccionar información relevante, para ello es necesario tener objetivos claros para filtrar esa información.

¿Cuáles son las fases del proceso de curación de contenidos?
Agregación: consiste en reunir la información más relevante sobre un tema específico en una misma localización. Esta localización es lo que llamamos repositorios. Aquellos repositorios que te recomiendo son: evernote e Intelligent watcher.
Destilación: se trata de filtrar los contenidos e ir aplicando la técnica del embudo de información para realizar un formato más simple, donde sólo las ideas más importantes son compartidas.
Elevación: es la manera en la que la curación de contenidos identifica tendencias en pequeñas piezas de información compartidas Online.
Mashup: consiste en la mezcla de contenidos curados para crear un nuevo punto de vista. Es la base del proceso creativo e indispensable para la innovación.
Cronología: se busca establecer relaciones causa efecto. Se reúne información histórica organizada sobre la base de tiempo para mostrar la evolución de un tema en particular y se exponen las relaciones causa efecto para identificar patrones generando alertas tempranas.
Las fases 1 y 2 se centran en la productividad y eficiencia del tratamiento de información.
Herramientas de curación de contenidos?
Las herramientas de curación de contenidos web ofrecen un nuevo modo de organizar y de seguir los contenidos más interesantes en Internet. Estas redes editoriales participativas se apoyan en los usuarios "expertos" de un tema, que escogen las informaciones más interesantes antes de difundirlas en las comunidades de lectores y de interactuar con ellas. Además del seguimiento de informaciones, estas herramientas permiten a los profesionales ocupar nuevos espacios de expresión, ganar visibilidad, cuidar su e-reputación o incluso enriquecer su agenda de direcciones. Entre las herramientas se tienen Pearltrees, Parper.li y Scoop.it: tres herramientas de curación de contenidos web que responden a necesidades muy variadas para los adeptos de las herramientas web 2.0. He desarrollado una curación de contenido sobre metodología de la Investigación, utilizando la herramienta scoop.it. La experiencia es muy interesante y la herramienta muy versátil.
http://www.scoop.it/t/metodologia-de-la-investigacion-by-marisol-salazar/curate

viernes, 30 de octubre de 2015

GOOGLE ACADÉMICO

La mayoría de los recursos disponibles en la Web para realizar nuestros trabajos de investigación,  afortunadamente desarrollan una serie de manuales de uso y/o sistemas de ayuda que orientan al investigador en el uso eficiente de las herramientas propuestas.
En caso de las búsquedas  de información google académico, tiene la ventana “Acerca de google académico” en ella se explica

¿Qué es el Google Académico?

Características de Google Académico: 

·  Buscar en diversas fuentes desde un solo sitio
·  Encontrar documentos académicos, resúmenes y citas
·  Localizar documentos académicos completos a través de tu biblioteca o en la red
· Obtener información acerca de documentos académicos clave en un campo de investigación

¿Cómo se clasifican los artículos?
Aquí se explica cómo organizan según la relevancia, y de allí surgen algunas sugerencias para los investigadores al momento de realizar su publicación en la WEB.
Además de la orientación antes descrita para la realización de búsquedas, incluye sugerencias para la búsqueda avanzada, asistencias a bibliotecas, asistencias para editores, pone a la disposición contactarlos, enlaces a bibliotecas.
Al abrir cada una de las sugerencias se obtienen ventanas con las ayudas específicas.
Encontrar los contenidos que se requieren en nuestra investigación exige un trabajo previo, el de conocer que es lo que buscamos, identificar las palabras claves relacionadas con el tema, autores que han escrito sobre el tema, es el saber preguntar.

A continuación se tiene un video donde se muestra como se hace la búsqueda en Google Académico.


BUSCADORES ESPECIALIZADOS

Es importante considerar que existe una diversa gama de buscadores especializados, estas herramientas restringen la búsqueda en la web a aquellos recursos que cumplen una serie de requisitos: tipo de documento (libros, artículos, etc.), materia (ciencia, humanidades, etc.) o nivel de la información (documentación de carácter científico y académico). Suelen estar mantenidos por expertos en las distintas disciplinas, por lo que la información que recopilan suele ser más rigurosa y fiable. Entre los que caben destacar Dialnet, Jurn, Youtube Education, Mendeley, entre otros. A continuación se presenta algunas caracteristicas de los buscadores mencionados.


Uno de nuestros retos es iniciar los ejercicios prácticos de búsquedas de acuerdo a lo pautado en este curso "Buscando Tesoros en la WEB”. Para realizar esta actividad busqué un tema de interés: Analisis Espacial y Ordenación territorial, como frase exacta seleccioné ordenación espacial, con al menos "ordenación espacial" "planificación espacial" sin autores específicos ni años, consirando que es una primera búsqueda exploratoria.  A continuación se presenta la ventana. 


En la siguiente ventana se puede observar que se obtuvieron un total de 797 resultados. 




lunes, 19 de octubre de 2015

Características de la WEB superficial y la WEB profunda

Evolución de la WEB

Sus inicios se remonta a 1945 cuando Vannevar Bush, director de la oficina de desarrollo e investigación científica en estados unidos escribió el artículo "as we may think", donde mostraba su preocupación por la gran cantidad de información que existía y que se estaba generando, todo esto junto a la cantidad de tiempo limitado y los ineficientes sistemas de búsqueda.

Así mismo, basándose en la tecnología existente detalló un dispositivo general, al que denominó "memex", y que permitiría almacenar  información en microfilmes, consultarlos rápidamente y crear vínculos entre los documentos para recordar otros que tuvieran información relacionada.(1).

En los años 60 Douglas Engelbart propuso el nls (online system), un entorno de trabajo por computadora que permitía el almacenamiento de publicaciones con catálogos e índices de búsqueda. En 1965 Ted Nelson acuña el término hipertexto.

En  1989 por Tim Berners-Lee inventa la web. El objetivo de WEB era servir como herramienta de comunicación entre los científicos nucleares. Tim Berners-Lee había experimentado con hipertexto desde 1980, año en que programó "enquire", un programa para almacenar piezas de información y enlazarlas entre ellas, se ejecutaba en un entorno multiusuario que permitía acceder a varias personas a los mismos datos. Esta propuesta fue aprobada en septiembre de 1990, a finales de este año el primer browser de la historia, WORLD WIDE WEB, ya tenía forma. En la figura se puede observar la  línea del tiempo.
Que significa el término WEB?

WEB es un vocablo inglés que significa “red”, “telaraña” o “malla”. El concepto se utiliza en el ámbito tecnológico para nombrar a una red informática y, en general, a Internet (en este caso, suele escribirse como Web, con la W mayúscula). Es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto

Tipos de WEB

De acuerdo a la accesibilidad de la información se puede a hablar de la Web superficial y Web profunda. La primera es la que acceso a través de buscadores, conocida por la mayoría de usuarios de Internet, anteriormente se describieron las herramientas, técnicas y métodos utilizadas para la búsqueda  de información.



La web profunda (deep web, invisible web, hidden web) hace referencia a toda aquella información generada y la cual no se tiene disponible, por cuanto la misma no está indexada por las arañas de los motores de búsqueda de Internet
Las principales razones por las cuales los buscadores son incapaces de indexar en la web profunda son:
  • Páginas protegidas con contraseñas
  • Bases de datos de bibliotecas y universidades
  • Documentos en formatos no indexables  como por ejemplo .pdf, .doc, .xls, .ppt, etc.
  • Enciclopedias, diccionarios, revistas
  • Enlaces generados mediante JavaScript o Flash.
  • Contenidos que usan protocolos diferentes a HTTP o HTTPS.
  • Contenidos no enlazados.
  • Contenido que varía según el dispositivo que accede.
  • Contenido dinámico generado como respuesta a un formulario.
  • Restricciones de acceso a documentos mediante robots.txt o captchas.
  • Información a la que sólo se puede acceder consultando bases de datos.


Uno de los datos más curiosos respecto a la Internet invisible es que los contenidos de la Biblioteca del Congreso de los Estados Unidos, la más grande del mundo, así como el Diccionario de la Real Academia de la Lengua Española (RAE), no son indexables, lo que significa que son únicamente accesibles desde los buscadores de cada uno de estos portales, convirtiéndolos así en parte de la Internet profunda, aun cuando el propósito de ambos sitios es promover el acceso a la información que alojan. (2)

Clasificación de la WEB profunda
  1. Web opaca
  2. Web Privada
  3. Web Propietaria
  4. Web realmente invisible

 Definiciones (3)

Bibliografía

http://www.startup10.com/que-es-la-web-profunda-o-deep-web/#sthash.4MUzgWj7.dpuf

jueves, 15 de octubre de 2015

Búsqueda Avanzada

Cada minuto cantidades masivas de datos son generados desde teléfonos, sitios web y aplicaciones  a  través de Internet. Para 2014 se calcula que cada día Google procesa cerca de 25 petabytes (un millón de gigabytes) de datos y Facebook comparte más de 10 millones de fotografías. En el caso de Youtube se sube una hora de vídeo cada segundo.

Como consecuencia la información que hay en Internet es muy grande y cada día aumenta en tamaño lo que genera un problema muy grave: ¿Cómo una persona o una empresa puede encontrar la información que necesita entre tanta información disponible? Cuantiosas empresas invierten mucho dinero para aparecer en la primera página de resultados, hay gente especializada en ello que son contratadas por las empresas. 

Por la razones antes expuesta no siempre toda la data está disponible, existen personas que publica material muy interesante que desconoce las técnicas posicionadoras en buscadores y sus obras se encuentran en los resultados más profundos de la búsqueda.

Por ello para buscar información en Internet, se  requiere disponer de técnicas, herramientas y mecanismos que permitan el acceso al mayor volumen de información disponible.

Cabe destacar que la realización de cursos en estas áreas del conocimiento, orientadas  al desarrollo de competencias en la gestión de información son vitales en el desempeño profesional, por ende capacitar a los docentes como agentes multiplicadores debe ser una de las estrategias fundamentales del nuevo modelo de aprendizaje.

En la siguiente entrada se puede consultar el volumen de información que se genera minutos:


Fuente:
http://pennystocks.la/internet-in-real-time/

martes, 6 de octubre de 2015

Herramientas de búsqueda en la red


En la reflexión de infoxicación se disertó sobre la abundancia de la información en la WEB, a continuación se describirán algunas herramientas que apoyan el uso eficiente de la misma.

Internet es un gran depósito documental integrado por información de muy diversa índole: información académica, investigaciones científicas, estadísticas, bases de datos referenciales, información financiera actualizada, actas de congresos, leyes, noticias de actualidad, directorios e informes de empresas e instituciones, etc. El volumen de información crece a cada instante por lo que se considera que la información más reciente suele estar en la RED. Una de las estrategias de gestión de estos recursos, es el uso de herramientas de búsquedas de información de óptima calidad.

Existen diferentes buscadores en internet, estas herramientas de busqueda estan conformadas por buscadores, metabuscadores, directorios, guias temáticas, software especializados.



lunes, 28 de septiembre de 2015

Reflexión: Infoxicación

Convertir este post a PDFLa infoxicación es un término desconocido por muchos pero que seguro muchos la padecen. Este post tiene por objetivo informarnos acerca de esta nueva contaminación, que […]
Fuente: http://informatizarte.com.ar/blog/?p=1216

Infoxicación o sobreabundancia de información

Algo que sin duda me ha llamado la atención en mi incursión en los cursos relacionados con el aprendizaje de las TICs ha sido el cúmulo de nuevos términos (neologismos) que se utilizan en este  campo, netiqueta, gamificación y muchas otras más, surgen a partir de la masificación de las tecnologías, acceso información en línea, vetc.
Este término Infoxicación fue introducido por A. Cornella, es un síndrome de los internautas que siempre están abiertos a recibir información; información que no tienen tiempo para revisar, como plantea el autor, saltas de un tema otro sin profundizar en ninguno. En su blogs  Cornella  introduce otros términos como “working interruptus”(http://alfonscornella.com/thought/infoxicacion/). Caracteriza igualmente a los que sufren este síndrome como aquellos que siguen todos los link que reciben para estar informados, quizás porque no aplican los controles de calidad que les permita seleccionar la información pertinente de acuerdo a su interés.
La infoxicación, a diferencia de muchos otros términos en el campo de las TICs, es un acrónimo por lo que te orienta en su significado, info de información y xicación de intoxicación, una redundancia de información que intoxica, que se vuelve poco aprovechable, que te agobia.
Como se puede ver, a partir de la misma definición del término se pueden establecer las estrategias a seguir para combatir este síndrome.  Lo primero es identificar que padeces de Infoxicación; sufres el síndrome cuando no puedes leer y entender lo que lees, cuando todo lo que te parece interesante lo reenvías a tus contactos, lo compartes en las redes o simplemente comienzas a guardarlo. Esta sensación de tener tanto pero no tener tiempo para leerla, entenderla y obtener conocimiento; conocer su calidad, organizarla o integrarla genera en el investigador angustia y frustración, es el síntoma que orienta sobre el padecimiento de este "síndrome".


Para palear esta situación muchos autores recomiendan aplicar métodos de búsqueda  que filtren de manera ordenada el volumen desordenado de datos. En este sentido el curso "Buscando Tesoros en la Red" nos orientará en el manejo de esta situación.
Referencias:


sábado, 26 de septiembre de 2015

Presentación

Hola, estimados todos,  mi nombre es Marisol Salazar, soy geógrafa y  doy clases en la Universidad Central de Venezuela. Dentro de mis actividades académicas tengo la investigación, y de allí la imperiosa necesidad de aprender a buscar los tesoros de la red. Espero aprender mucho de las búsqueda, organización y gestión de información en la red. Saludos cordiales