Varios autores

El Diseño y la Arquitectura frente a los desafíos emergentes y futuros


Скачать книгу

en los procesos creativos que posteriormente permitan la aparición de propuestas didácticas.

      Metodología

      Esta investigación, enmarcada en el paradigma interpretativo, se define como cualitativa, no experimental, transversal y exploratoria, según las descripciones de Hernández, Fernández y Baptista (2006), y propone una metodología que se apoya en tres métodos: por un lado, para la recolección de datos, el caso de estudio; por otro, para las etapas de recolección, análisis, codificación y evaluación de la información, la teoría fundamentada y la minería de datos, tal y como lo muestra la siguiente figura.

      Figura 1 Métodos e instrumentos de investigación.

image

      Fuente: Elaboración propia.

      Recolección de datos

      Método: caso de estudio

      Para la recolección de datos se hace uso de los casos de estudio que, según Marrelli, son un método en que “información descriptiva profunda sobre entidades específicas o casos es recolectada, organizada, interpretada y presentada en un formato narrativo” (2007, pág. 39). Para Marrelli, los estudios de caso ofrecen perspectivas ricas y profundas que pueden llevar al entendimiento de distintas variables, problemas y fenómenos, además de ofrecer una interacción única con los participantes. Sin embargo, una serie de decisiones deben tomarse para enmarcar el estudio antes de empezar la recolección de datos, que para el autor se divide en la definición de unidades de análisis, la selección de los casos, el enfoque del estudio, el período de tiempo, las fuentes de información y el método de recolección.

      Definición de casos

      Tipo de estudio: colectivo.

      Tipo de caso: instrumental.

      Período de tiempo: 18 semanas.

      Población: 882.

      Muestra: según la teoría estadística, la muestra ideal sería de 205 estudiantes (1), con un nivel de confiabilidad de 95% y un margen de error aceptado del 6%. Sin embargo, ya que la muestra depende del método (teoría fundamentada), se va a empezar con una población menor. Según Thomson (2011), en la teoría fundamentada una muestra apropiada responde al concepto de “saturación teórica”, que se consigue cuando no hay nueva información relevante y las categorías y sus relaciones están bien desarrolladas, así que el estudio partió con una muestra n = 52 (2), manteniendo la confiabilidad y con un margen de error del 13,47%. De ser necesario, se expandirá la muestra hasta que la recolección no muestre nuevos datos.

image

      N = 882 (población total), Z = 95% (nivel de confianza), p = 0,5 (proporción esperada), q = 1-p (probabilidad de fracaso), d = 6% (error aceptado).

image

      N = 882 (población total), Z = 95% (nivel de confianza), p = 0,5 (proporción esperada), q = 1-p (probabilidad de fracaso), d = 13,47% (error aceptado).

      Muestreo: aleatorio estratificado proporcional (nh = (Nh÷N)×n).

      Estrato I → nh = 13 estudiantes (Proyectos 1 y 2).

      Estrato II → nh = 10 estudiantes (Proyectos 3 y 4).

      Estrato III → nh = 10 estudiantes (estudiantes en los semestres V y VI, en cualquiera de los Proyectos activos).

      Estrato IV → nh = 10 estudiantes (estudiantes en los semestres VII y VIII, en cualquiera de los Proyectos activos).

      Estrato V → nh = 9 estudiantes (estudiantes en Trabajo de Grado).

      Método de recolección: observación participante, entrevistas abiertas a profundidad, encuestas y tests de personalidad y creatividad.

      Análisis y codificación de datos

      Minería de datos y teoría fundamentada

      La minería de datos es el proceso de extracción de patrones de un conjunto de datos, es decir, “el proceso de extraer información previamente desconocida, válida y procesable de grandes bases de datos” (Barclay, 2015, pág. 192) para su uso en la toma de decisiones. Sin embargo, la minería de datos es solo una etapa en el proceso de extracción de conocimiento a partir de datos, que consta de varios pasos y tiene muchos puntos de encuentro con la teoría fundamentada (que es el método principal). La teoría fundamentada fue propuesta a finales de los sesenta por Glaser y Strauss e “intenta desarrollar interpretaciones del mundo de los sujetos en función de sus propias interpretaciones, teniendo como objeto de investigación la acción humana” (San Martín, 2014, pág. 107). Esta metodología supone un interés por entender los significados sociales que comparten un grupo y trata de explicarlos a la luz de las relaciones que hay entre los integrantes de dicho grupo y otros; es decir, fundamentalmente se ocupa de actores y relaciones (Caballero, 1991).

      Por su parte, tanto el proceso de extracción de conocimiento a partir de datos como la teoría fundamentada tienen una relación muy cercana con los datos (en el primero, como algo que debe ser minado en búsqueda de asociaciones, y en la segunda como la base para desarrollar teorías). Lo cierto es que ambas aproximaciones se adhieren al principio de análisis de datos como actividad central del desarrollo teórico y permiten que el investigador les dé sentido a grandes cantidades de datos sin usar estrategias preconcebidas para la clasificación y descomposición (Bryant, 2017), razón por la cual fueron escogidas como métodos para este estudio. Ahora, en términos generales, los pasos para el desarrollo de una teoría fundamentada son tres, y los pasos de análisis, codificación y emergencia teórica se triangularán con la minería de datos a modo de comprobación para verificar que se están obteniendo los mismos resultados.

      La recolección de datos de un grupo-muestra que pueda evidenciar el fenómeno investigado (método de recolección: estudio de caso)

      Una vez recogidos los datos, se desarrolla un análisis sistemático de estos a través de una codificación que pretende conceptualizar los significados contenidos en los datos mediante la codificación abierta, la axial y —posteriormente— la codificación selectiva, cuyo nivel de abstracción permite la aparición de un núcleo teórico. Paralelamente, se empieza la minería de datos en la búsqueda de patrones y evaluación de resultados. Finalmente se espera la emergencia de la teoría a partir de la saturación teórica. Es decir, una vez los datos dejan de mostrar nuevas relaciones o empiezan a tornarse repetitivos. Junto con la emergencia teórica se evalúan los patrones e interpretaciones, lo que resulta en la aparición de nuevo conocimiento.

      Software

      En el caso de la teoría fundamentada, San Martín (2014) recomienda para la codificación de datos el uso de un caqdas (Computer Assisted Qualitative Data Software), particularmente Aquad, NVivo, Hipersearch o Atlas.ti, y argumenta ventajas en términos de tiempo, búsqueda, exposición de datos e inclusividad, pues estos admiten la incorporación de datos obtenidos desde diferentes fuentes (entrevistas, notas, encuestas, libros, etc.).

      Estos programas, particularmente Atlas.ti y N-Vivo, se caracterizan por sus posibilidades gráficas y esquemas relacionales, que permiten el trabajo con los conceptos y sus relaciones, lo que da estructura a la teoría.