Repositorios públicos para publicar: la crisis de las revistas clásicas

Para publicar un artículo, los investigadores envían su manuscrito a una revista, y la revista solicita la verificación a “expertos”.  El objetivo es garantizar que los documentos estén de acuerdo con el método científico, verificar que los documentos sean buena Ciencia.  Este fue y es el camino. Sin embargo, el fenómeno de preimpresión (preprint) está surgiendo con fuerza.

Por otro lado, durante la pandemia, la cantidad de manuscritos que buscan una revista ha sido increíble.  Debido a que todos estos artículos tienen un período de interés muy corto, las revistas han tenido que publicar muy rápido.  En este sentido, las revistas han necesitado revisores rápidos.  Las consecuencias han sido:

– Hubo una carga tan grande para cada revisor que es difícil aceptar que todos se hicieron correctamente.  Entonces, las revisiones son poco sospechosas.

– Algunas revistas decidieron publicar inicialmente, verificando más tarde.  La consecuencia de ambas decisiones ha sido que algunos documentos fueron retirados unos días después de su publicación.

– Muchos investigadores tomaron la decisión de publicar directamente en repositorios públicos (por ejemplo, arXive).

La principal crítica con respecto a las preimpresiones en los repositorios públicos es que no hay ningún filtro para diferenciar los papers buenos de los malos.  Sin embargo, eso no es verdad.  mientras que la evaluación de las revistas tradicionales involucra revisiones de dos o tres revisores solamente, el repositorio público favorece la evaluación, crítica, revisión y debate constantes y públicos.  En este sentido, publicar en repositorios públicos es mejor para la “Ciencia”: comunicación pública y escrutinio continuo.

Orígenes de la teoría de la complejidad

Se pueden indentifcar tres fases o generaciones en el desarrollo de la teoría de la complejidad (Alhadeff-Jones, 2008):
1º.- En esta primera generación se centró en el fenómneo de “complejidad organizada”. Se trata de la habilidad del sistema para aboserver energía o información integrarla en la organización del propio sistema. Es lo que ocurre, por ejemplo, con el proceso de feedback en cibernética.
2º.- Se centró en comprender los comportamientos no lineales y dinámicos.
3º.- En esta tercera generación se desarrolló el concepto de “sistema adaptativo complejo para deseignar a todos aquello sistemas compuestos de multiples uniades interactuando entre sí, cuyo cotrol está distribuido.

A lo largo del desarrollo de la teoría de la complejidad ha quedado patente las diferencias con sistemas que pueden ser “complicados” pero no complejos:

  • Complicado es todo sistema compuesto de unidades que pueden actuar unas sobre otras pero cuyo resultado o comportamiento final es la suma sus partes. En este sentido, el sistema puede ser descompuesto en sus partes, y el propio sistema es resultado de la suma de estas partes. Por ejemplo, un motor de un coche, o un horno.
  • Complejo es todo sistema compuesto de múltiples unidades que interaccionan entre sí, y cuyo comportamiento final es resultado de la interacción, siendo distinto a la simple suma de los elementos. Estos sistemas pueden ser descompuestos en partes, pero el análisis de las partes no explicaría el comportamiento global del sistema. Dicho de otra forma, el sistema es cualitativamente distinto a la suma de las partes.

 

En Educación, algunos de los campos que se están estudiando desde la perspectiva de la teoría de la complejidad son: el desarrollo del curriculum, el cambio en las organizaciones y las políticas educativas, la interdisciplinariedad, y las implicaciones éticas. Para más información al respecto, se pueden consultar las siguientes referencias:

  • Byrne, D. S. (2005). Complexity, configuration and cases. MyScienceWork. Recuperado a partir de https://www.mysciencework.com/publication/show/ab585aa3b9be112e767a7eebe2eef693
  • Davis, B., & Sumara, D. J. (2006). Complexity and Education: Inquiries Into Learning, Teaching, and Research. Mahwah, N.J: Routledge.
  • Osberg D & Biesta GJJ (2007). Beyond Presence: Epistemological and pedagogical implications of ‘strong’ emergence, Interchange, 38 (1), pp. 31-51.
  • Osberg, D., & Biesta, G. (2008). The emergent curriculum: navigating a complex course between unguided learning and planned enculturation. Journal of Curriculum Studies, 40(3), 313-328. https://doi.org/10.1080/00220270701610746.

Referencias
Alhadeff-Jones, M. (2008), Threee generations of complexity theoris: nuances and ambiguities. Educational Philosophy and Theory 40(1): 66-82.

Teoría de la complejidad

La teoría de la complejidad no es en sí una teoría, sino un conjunto de teorías procedentes de distintos campos científicos: evolución, matemáticas, cibernética, etc. A pesar de la diversidad de fuentes y teorías, el cuerpo básico de la idea de complejidad está siendo desarrollada con éxito en las Ciencias Sociales.

De forma resumida, la teoría de la complejidad en el ámbito social se basa en dos premisas:

  • Personas y contextos donde se desarrolla el comportamiento social son inseparables, formando un sistema global.
  • Los cambios emergen por interacción de todos los elementos del sistema.

Estas dos premisas tienen consecuencias directas. Por ejemplo, las persona aprende por interacción con el medio, pero al mismo tiempo el contexto evoluciona (podría decirse que la organización social aprende) por la compleja interacción con el individuo. De hecho, sería casi imposible establecer un momento de inicio del aprendizaje en un sentido o en otro para la globalidad del grupo social, lo que impide establecer lineas causales claras.

Desde este punto de vista, las relaciones entre los elementos del sistema (objetos o individuos) son los actores que provocan la evolución del propio sistema, y no tanto dichos elementos en sí. Esta evolución o cambio emerge de la interacción compleja.

Para concluir, hacer hincapié de nuevo, en las dos premisas básicas de la teoría: globalidad (como sistema complejo tomado en su totalidad), así como el verbo emerger (por el que el sistema evoluciona desde la interacción compleja del propio sistema).

Gobierno del Big Data

La gestión del Big Data está etrechamente vinculada a la gorbernalidad de las tecnologías de la informacion (TI’s). Por gobierno, gobernanza o gobernabilidad (depende del autor) de las TI’s se puede entender el sistema organizativo que trata de dirigir, monitorizar, valorar y controlar dichas tecnologías para enfocarlas a una estrategia eficiente de negocio o productividad.

Para normalizar esta gestión de las TI’s han surgido varias iniciativas de estandarización. A continuación se destacan solamente dos:

  • Control Objectives for Information and related Technology (COBIT): se trata de un marco de referencia en el ámbito empresarial para el gobierno de las TI’s desarrollado por ISACA.
  • La ISO_38500 ISO 38500: se trata de un estandar europeo que define los siguientes elementos del buen gobierno: responsabilidad, estrategia, adquisición, rendimiento, conformidad, y comportamiento humano. En la figura siguiente se muestran las tareas principales que deben realizar la dirección institucional para gobernar las TIC (fuente: ISACA).

Modelo de gobierno de las TIC

En el Big Data el gobierno sería el conjunto de políticas que establecen la gestión de los datos. Estas políticas deben diseñarse teniendo en cuenta no solamente la cantidad de datos a gestionar, sino también la corta vida útil que pueden tener muchos de ellos.

Otro elemento importante, quizás más que el anterior, es la confiabilidad de los datos. Para más información sobre este particular puede consultarse el post de Barranco Fragoso.

Big Data e Inteligencia del Negocio

 

Inteligencia del negocio

La inteligencia del negocio (IN), denominada en Inglés como Business Intelligence (BI) hace referencia al conjunto de recursos tecnológicos y sistemas de información sobre los que tomar decisiones para la empresa o la institución (Joyanes, 2014).
Las aplicaciones de la IN suelen ser de tres tipos:
* Análisis multidimensional (OLAP).
* Minería de datos.
* Sistemas de apoyo a la decisión (DSS).

 

Big Data. Perfil profesional

 

Perfil del analista Big Data

El analista Big Data debe ser un profesional que integre conocimientos sobre estadística, matemáticas, informática, así como sobre el sector de negocio donde trabaje su empresa o institución, y además, debe tener la capacidad de detectar patrones y tendencias en los datos en tiempo real así como ser capaz de transmitir los resultados de forma comprensible a los demás.
No obstante, este perfil profesional está aún por desarrollar y definir exactamente. Un de los factores más importantes que impulsará este desarrolló es la aparición de programas formativos específicos. Actualmente, el número de cursos, expertos universitarios, maestrías, masters y doctorados va en aumento. En el post de este enlace, tomado del blog , se ofrece un listados de oferta formativa sobre Big Data (ENLACE; consultado en septiembre de 2015).

 

Pensamiento visual

 

¿Qué es el “pensamiento visual”?

El cerebro humano realiza gran parte del procesamiento de la información a través de imágenes. Por tal motivo, la utilización de gráficos, dibujos, fotografías, imágenes, croquis, etc., suponen un gran recurso para trabajar conceptos, comprender ideas, presentar ideas. etc.

Por tal motivo, muchos educadores, investigadores, inventores, etc., recurren a la utilización de dibujos para apoyar su proceso cognitivo así como para comunicar sus conclusiones. En este sentido, El “pensamiento visual” es una expresión que hace referencia a la utilización de gráficos e imágenes para optimizar el procesamiento cognitivo de la información.
Leer más “Pensamiento visual”

Conetivismo o la forma de confundir Churras con Merinas

Crítica a la enfoque del conectivismo

El colectivismo es una de esas teorías sobre aprendizaje que se han puesto de moda. En 2004, George Siemens la expone como una alternativa que supera a otras teorías de aprendizaje (cognitivismo, constructivismo, etc.) especialmente en la sociedad del conocimiento.
Según Siemens (2004) el aprendizaje es un proceso que ocurre en ambientes difusos de elementos cambiantes, que no se encuentran bajo un control total de la persona. Entiende el aprendizaje de distintas formas, entre ellas como un conocimiento aplicable, y en este sentido, defiende que puede estar fuera de las personas (en organizaciones, en computadoras, en bases de datos, distribuido por la red, etc.).
Según los especialistas, Siemens ha construido su propuesta en base la integración de varias corrientes teóricas y teorías propiamente dichas. Así, se encuentran vinculaciones con la teoría del Caos, la teoría de la Complejidad, la idea de entidades autoorganizadas, etc.
Desde el respeto y la admiración profesional, mi opinión es que esta teoría es en realidad, una mezcolanza teórica que confunde “churras con merinas“.

Leer más “Conetivismo o la forma de confundir Churras con Merinas”

Divulgación de la innovación educativa: como dar visibilidad a su trabajo.

El blog de Angel Fidalgo sobre Innovación Educativa, ha publicado este post sobre divulgación.

Divulgación de la innovación educativa: como dar visibilidad a su trabajo..

 

A partir del post se despreden dos ideas relacionadas con al ámbito de las revistas:

– Las revistas no son actualmente, el medio más rápido y “eficiente” de dar a conocer lo que se hace en el ámbito académico y científico.

– Los nuevos sistemas de información deberán encontrar un medio para garantizar la calidad de lo que se publica.