La estructura del relato audiovisual


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

Desde la antigüedad, se ha establecido un paradigma que rige la estructura básica de cualquier narración, la estructura en tres actos; planteamiento, desarrollo y conclusión, así pues, a lo largo del tiempo se ha mantenido y tanto la narrativa literaria, como la audiovisual, han adoptado la estructura del relato audiovisual. Esta narrativa audiovisual se encuentra en el cine, pero también en los videojuegos, los cuales se diferencian del género narrativo cinematográfico debido a su interactividad; es decir, la capacidad del público para tomar cierto número de decisiones durante el desarrollo del “relato”.

Estos nuevos medios han hecho que la estructura clásica se haya modificado un poco con el objetivo de adaptarse a las nuevas tecnologías; esta narrativa audiovisual se ha visto influenciada la una por la otra, la industria de los videojuegos ha experimentado grandes cambios a lo largo de sus más de cuarenta años de historia, tanto tecnológicos como narrativos. El cine ha sido sin duda el medio que más ha influido en la maduración del videojuego como producto audiovisual.

Ha pasado de ser un entretenimiento simple caracterizado por su narrativa primitiva y mecánicas de juego sencillas, a ser considerado una nueva disciplina artística que consigue transmitir emociones y hacer reflexionar al jugador a través de las historias que narran, añadiendo el factor de la interactividad. Como, en sus inicios, el videojuego no fue creado con la intención de contar historias, de narrar una sucesión de hechos que van tomando forma según se avanza.

Además, en la cual el jugador es partícipe directo, si no que estos son creados con el objetivo de entretener a un público, mayoritariamente niños, adolescentes, con juegos de acción rápida, mecánicas de juego simples y una sucesión de niveles.

La industria del videojuego

Hoy día el videojuego ya no es solamente un producto para niños o para adolescentes, hoy el público objetivo de un videojuego es mucho más amplio. La industria no es ajena a este fenómeno, hasta tal punto que en los últimos años los videojuegos han dado un viraje adoptando en ocasiones una nueva nomenclatura: ocio interactivo. Un término que se queda corto. Esto dado que la palabra ‘ocio’ nos remite a un factor de puro entretenimiento, cuando los videojuegos no son solo un entretenimiento.

Del mismo modo que hay películas con diversos géneros, esos mismos u otros géneros, también existen en el videojuego; como por ejemplo desarrollos terapéuticos, serious game, educativos, simuladores, de ayuda, etc. Uno de los elementos más importantes que se han adoptado del género cinematográfico a los videojuegos ha sido la guionización. En los últimos años, la importancia del guion en el videojuego ha ganado mucho peso, y ahora las compañías contratan a equipos de los mejores guionistas de la industria cinematográfica para que creen las historias de sus videojuegos.

El público es más exigente que en 1986, cuando The Legend of Zelda triunfó enormemente. Por eso hoy en día existen juegos con guiones incluso más extensos que los de muchas superproducciones de Hollywood. Este el caso de Red Dead Redemption 2 (2018), con más de dos mil páginas de guion y una historia de alrededor de 60 horas de duración; aunque no es el único que maneja estas enormes cantidades de guionización. La cuarta entrega de la saga estrella de Konami, Metal Gear Solid 4 (2008) también posee alrededor de mil páginas de guion.

La estructura del relato

Cuando se habla del relato en los videojuegos, la mayor diferencia sé que encuentra con respecto a la literatura y la narrativa tradicional es la narrativa no lineal de sus guiones, es decir, no es la norma contar la historia de manera cronológica. El camino para cumplir nuestros objetivos en esos videojuegos no es exactamente igual para todos los jugadores. Por lo tanto, la interacción nos permite “contaminar” la historia propuesta por el autor.

Si se observa en la esencia del medio en sí misma, de hecho, eso se aplica en absolutamente todos los videojuegos. Esto porque a diferencia que, en una película, que una vez se ponga se reproducirá hasta el final, haya alguien o no al otro lado de la pantalla. En el videojuego, se necesita de un jugador para llegar a los títulos de crédito, por tanto, la narrativa no lineal salpica en múltiples formas a juego y jugador. Además de que los desarrolladores se aprovechan de ella para contar historias con métodos menos tradicionales. Rompiendo el trinomio de planteamiento, nudo y desenlace y apoyándose en la agencia del jugador para descubrir las cosas por sí mismo.

El relato video lúdico, es decir el relacionado con los videojuegos, tiene características formales únicas y específicas. La narrativa proposicional existente y usualmente llevada a cabo para crear historias a partir de reglas concebidas por y para el género. Esta hace que se deban tener en cuenta algunos conceptos propios del texto no lineal si se quieren simular nuevas y originales propuestas en el videojuego. Relato jugable concepto de llave, el relato video lúdico, es el relato por el que el receptor es capaz de transformar el mensaje. Sin embargo, los creadores, diseñadores y guionistas de videojuegos deben plantear un entramado que otorgue a los jugadores esa capacidad retro narrativa.

Género, formato y tono

Steve Ince en “Escribiendo para videojuegos” (2006) señala que existen términos tomados de otros medios y que se han adaptado a este, como el de “género”. Es allí donde, en los videojuegos, se refiere al tipo de juego que se está presentando. Así mismo, hay una gran variedad de estos, que a continuación se verá. El género del videojuego está definido por el estilo de juego; todos los jugadores necesitan saber que el juego contiene la jugabilidad que más les gusta.

Por lo que es imprescindible definir este aspecto en un momento temprano de producción. Se puede dividir estos géneros de muchas maneras, pero se verá bastante completa, en la que se basa Scott Rogers (2010). Así, separándolos en seis grandes grupos: acción, aventura, juego de rol, simulaciones, estrategia y multijugadores.

Acción

  1. Acción-aventura: mezclan la recolección de objetos con la solución de acertijos e historias de larga resolución.
  2. Acción-arcade: Cualquier juego que presente una jugabilidad rápida, donde debes recolectar puntos y tienen una duración de juego corta.
  3. Plataforma: Un jugador que salta de un lado a otro entre los distintos niveles. También puede disparar o pelear.
  4. Cautelosos: Juegos donde lo principal es evitar a los enemigos más que enfrentarlos.
  5. Pelea: Dos o más oponentes se enfrentan en la arena.
  6. Destrúyelos a por completo: Batallas contra cientos de enemigos a la vez.

Composición en el videojuego

Si se habla de composición, lo primero que puede llegar a la cabeza del lector es el diseño. Sin embargo, esto va mucho más allá cuando de videojuegos se trata, ya que de aquí parten diferentes puntos que harán de esta obra un éxito. En cuenta al relato y la trama de un videojuego, esta tiene gran amplitud teniendo en cuenta los múltiples aspectos que harán de un videojuego inmersivo y atrapante para el jugador. Para dominar este campo, se hace necesario que el profesional cuente con los conocimientos indicados y pertinentes, en muchos casos, adquiridos mediante la especialización académica.

TECH Universidad Tecnológica actualmente hace parte de las mejores instituciones educativas que imparten educación en modalidad virtual. Esto, acompañado de su amplio portafolio educativo, le ha permitido posicionarse como una de las mejores universidad digitales. En el caso de su Facultad de Videojuegos, destacan posgrados tales como el Máster en Programación para Videojuegos y el Máster en Arte para Videojuegos. Por otra parte, para aquellos que buscan dominar el campo de la conformación de un videojuego en 3D, no cabe duda que su mejor elección será tomar el Máster en Animación 3D y Realidad Virtual para Videojuegos.

Características espectrales


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

En la historia se han estudiado los procesos aleatorios en el dominio temporal, mediante las características estadísticas, autocorrelación, correlación cruzada, covarianza, entre otras, pero no se han tenido en cuenta las características espectrales y es lo que se pretende en este texto. Es decir, el objetivo principal de este tema es analizar los procesos aleatorios en el dominio frecuencial.

Recordar que un proceso aleatorio es una función que se le asigna a cada posible resultado de un experimento aleatorio. Refiere a funciones que toman valores aleatorios, estas funciones están definidas entre dos espacios, el espacio conjunto de índices y el espacio de estados. A un proceso aleatorio se le denomina también proceso estocástico y puede ser visto también como una variable que cambia su valor aleatoriamente con el transcurso del tiempo.

Una variable aleatoria es función de los posibles resultados de un experimento, entonces un proceso aleatorio puede definirse también como una variable aleatoria que es función de los posibles resultados del experimento, además, es función del tiempo. Durante el análisis de los procesos aleatorios en el dominio frecuencial tiene gran relevancia la transformada de Fourier, por lo que se recomienda el estudio de las transformadas de Fourier para un mejor entendimiento del artículo.

Espectro de densidad de potencia

La transformada de Fourier de una señal determinista incluye las propiedades espectrales de dicha señal. Las notaciones de la señal y su respectiva transformada son: Señal: x(t) Transformada de Fourier: X(ω) La transformada de Fourier viene dada por las siguientes expresiones: XT (ω)=∫-T xT (t) e-jωt dt; XT (ω)=x(t) e-jωt dt En el intervalo de (-T, T) la energía contenida en la señal x(t) se denota como E(T) y su expresión es: E(T)=∫-T x2 T (t)dt; E(T)=∫-T x2 (t)dt.

Este término es un espectro de densidad de potencia, pero no es el adecuado para el proceso aleatorio, porque no representa la potencia de una función muestra completa. Por otro lado, la potencia media de la señal es solamente la potencia de una función muestra, por tanto, no representa a un proceso. Para obtener un espectro de densidad de potencia adecuado para un proceso aleatorio se debe calcular el límite cuando T tiende a infinito y tomar el valor esperado de la expresión.

Las propiedades del espectro de densidad de potencia son:

  • Primera propiedad: IXX (ω)≥0
  • Segunda propiedad: IXX (-ω)=IXX (ω)
  • Tercera propiedad: IXX (ω) es real
  • Cuarta propiedad: ∫-∞ IXX (ω) dω=A{E[X2 (t)]}
  • Quinta propiedad: IXX(ω)=ω2 IXX(ω) La quinta propiedad indica que el espectro de densidad de potencia de la derivada X (t)= es ω2 veces mayor que el espectro de potencia de X(t).
  • Sexta propiedad: ∫-∞ IXX (ω) ejωτ dω=A[RXX (t,t+τ)]

Relaciones entre el espectro de potencia y la autocorrelación

En la expresión (7.18) se expresó que la transformada inversa de Fourier del espectro de densidad de potencia es el promedio temporal de la función de autocorrelación, recordar: ∫-∞ IXX (ω) ejωτ dω=A[RXX (t,t+τ)] Para el caso en que el proceso X(t) sea estacionario en sentido amplio, se tiene que: A[RXX (t,t+τ)]=RXX (τ) IXX (ω)=∫-∞ RXX (τ)e-jωτ dτ RXX (τ)= ∫-∞ IXX (ω) ejωτ dω Las expresiones y se denominan “Relaciones de Wiener-Khintchine”, este nombre debido al matemático americano Norbert Wiener (1894-1964) y al matemático ruso A.I. Khintchine (1894-1959).

Las relaciones de Wiener-Khintchine conforman el vínculo básico entre la descripción en el dominio del tiempo de los procesos y su descripción en el dominio frecuencial, es decir, relacionan la función de correlación y el espectro de potencia. El conocimiento del espectro de potencia de un proceso permite recuperar por completo la función de autocorrelación cuando X(t) es al menos un proceso estacionario en sentido amplio, a partir de la expresión. En el caso de un proceso no estacionario, solo puede recuperarse el promedio temporal de la función de autocorrelación.

Espectro de densidad de potencia cruzada y sus propiedades

Si se considera un proceso aleatorio real W(t) como la suma de dos procesos aleatorios reales X(t) y Y(t): W(t)=X(t)+Y(t) La función de autocorrelación del proceso aleatorio real W(t) es:

RWW (t,t+τ)=E[W(t)W(t+τ)] =E{[X(t)+Y(t)][X(t+τ)+Y(t+τ)]} =RXX (t,t+τ)+RYY (t,t+τ)+RXY (t,t+τ)+RYX (t,t+τ)

Si se toma el promedio temporal a ambos lados de la expresión y se halla la transformada de Fourier de la expresión resultante se obtiene: IWW (ω)=IXX (ω)+IYY (ω)+F{A[RXY (t,t+τ)]}+F{A[RYX (t,t+τ)]} F{∙} representa la transformada de Fourier IWW (ω); este término representa simplemente el espectro de potencia de W(t) IXX (ω); el término representa el espectro de potencia de X(t) IYY (ω); este término representa el espectro de potencia de Y(t) F{A[RXY (t,t+τ)]} espectro de densidad de potencia cruzada F{A[RYX (t,t+τ)]} espectro de densidad de potencia cruzada.

Estos últimos dos términos que constituyen los espectros de densidad de potencia cruzada se definirán durante el desarrollo de este apartado. Para dos procesos aleatorios reales X(t) y Y(t) se definen las siguientes funciones muestra truncadas: xT (t) función muestra truncada de X(t).

Caracterización del ruido a través de su espectro de densidad de potencia

En algunos problemas de la práctica es apropiado y ventajoso caracterizar el ruido mediante su espectro de densidad de potencia. Tomando como base el espectro de potencia, se pueden definir dos tipos de ruido, el ruido blanco y el ruido coloreado, que se definirán en este apartado. Una función muestra n(t) de un proceso aleatorio de ruido estacionario en sentido amplio N(t) se denomina ruido blanco si el espectro de densidad de potencia de N(t) es una constante a todas las frecuencias. El ruido blanco debe su nombre a la analogía con la luz blanca que contiene todas las frecuencias del espectro visible.

No obstante, hay un tipo de ruido que se aproxima al ruido blanco y es el ruido térmico generado por la agitación térmica de los electrones en un conductor eléctrico. Este ruido térmico, a muy altas frecuencias, tiene un espectro de potencia constante y luego decrece. A una temperatura T=290K, aproximadamente, a la temperatura ambiente la función expresada en permanecer por encima de 0,9 para frecuencias de hasta 10-12 Hz ó 100 GHz. Por ello, Peebles asegura que el ruido térmico tiene un espectro prácticamente plano para todas las frecuencias utilizadas en sistemas de radio, microondas u ondas milimétricas.

Las telecomunicaciones en el mundo moderno

En el mundo actual las telecomunicaciones son utilizadas en diversidad de campos. Esto ha permitido que se establezcan redes para múltiples usos, mejorando así los procesos en muchos ámbitos. La inmediatez, la facilidad y la efectividad son características propias de estos procesos, siendo los mismos los pilares del profesional de ello. Por esto, se hace necesario que la figura a cargo de ello tenga pleno conocimiento y dominio de las herramientas que le permitirá ejecutar sus tareas de manera optimizada.

TECH Universidad Tecnológica actualmente desarrolla un amplio portafolio educativo enfocado en la alta calidad y el éxito laboral de su alumnado. En el caso de su Facultad de Informática se encuentran posgrados tales como el Máster en Industria 4.0 y Transformación Digital y el Máster en Ingeniería de Software y Sistemas de Información. Sin embargo, para aquellos profesionales que buscan dominar el ámbito de las redes y la comunicación, no cabe duda que su mejor decisión será tomar el Máster en Tecnología Específica de Telecomunicación.

Desarrollo de aplicaciones e interfaz gráfica en .NET


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

Un Framework consta de una serie de estructuras y tecnologías definidas que facilitan, fundamentalmente, la programación. Cuando se habla de desarrollo de aplicaciones e interfaz gráfica en .NET, se está hablando de ese conjunto de estructuras y tecnologías que Microsoft proporciona para una programación más sencilla orientada a redes e internet, independientemente de la plataforma de hardware utilizada. Hoy en día, hay más de 20 lenguajes de programación para programar. NET, pero C # y Visual Basic son los más populares (no existe un lenguaje de programación. NET nativo).

Otros lenguajes de programación que soportan .NET son: Delphi (Object Pascal), C ++, F #, Python, J # Fortran, Perl, Prolog. Además, muchas herramientas usan. Net Framework para desarrollar aplicaciones móviles como Xamarin, que permite a los desarrolladores escribir código en C # bajo una extensión. Net Framework y hacer que se traduzca para que funcione en dispositivos Android, IOS o Windows. .NET es una plataforma de desarrollo gratuita de código abierto para compilar muchos tipos de aplicaciones como las siguientes:

  • Aplicaciones web, API web y microservicios
  • Funciones sin servidor en la nube
  • Aplicaciones nativas de la nube
  • Aplicaciones móviles
  • Las aplicaciones de escritorio
  • Windows WPF
  • Windows Forms
  • Plataforma universal de Windows (UWP)
  • Juegos
  • Internet de las cosas (IoT)
  • Aprendizaje automático
  • Aplicaciones de consola
  • Servicios de Windows

Comparte la funcionalidad entre diferentes aplicaciones y tipos de aplicación mediante bibliotecas de clases. Con .NET, el código y los archivos del proyecto tienen el mismo aspecto, con independencia del tipo de aplicación que compile. Con cada aplicación tiene acceso a las mismas funcionalidades de tiempo de ejecución, API y lenguaje.

Multiplataforma

Puede crear aplicaciones .NET para muchos sistemas operativos, entre los que se incluyen los siguientes:

  • Windows
  • macOS
  • Linux
  • Android
  • iOS
  • tvOS
  • watchOS

Las arquitecturas de procesador compatibles incluyen las siguientes:

  • x64
  • x86
  • ARM32
  • ARM64

.NET permite usar funcionalidades específicas de la plataforma, como las API del sistema operativo. Algunos ejemplos son Windows Forms y WPF en Windows, y los enlaces nativos a cada plataforma móvil desde Xamarin.

Desarrollo de aplicaciones e interfaz gráfica en .NET: soporte técnico

  • Microsoft admite .NET en Windows, macOS y Linux. Se actualiza de forma periódica por motivos de seguridad y calidad, el segundo martes de cada mes.
  • Las distribuciones binarias de .NET de Microsoft se compilan y prueban en servidores mantenidos por Microsoft en Azure y siguen los procedimientos de seguridad e ingeniería de Microsoft.
  • Red Hat admite .NET en Red Hat Enterprise Linux (RHEL). Red Hat y Microsoft colaboran para asegurarse de que .NET Core funciona bien en RHEL.
  • Tizen admite .NET en las plataformas Tizen.

Ventajas del uso de .NET framework

  • .NET Framework es una tecnología que admite la creación y ejecución de servicios web y aplicaciones Windows.
  • Proporciona un entorno de programación orientada a objetos coherente en el que el código de los objetos se pueda almacenar y ejecutar de forma local, pero distribuida en internet o ejecutar de forma remota.
  • Proporciona un entorno de ejecución de código que:
    • Minimiza los conflictos de implementación de software y control de versiones.
    • Fomenta la ejecución segura de código, incluso del creado por terceros desconocidos o que no son de plena confianza.
    • Elimina los problemas de rendimiento de los entornos con scripts o interpretados.
  • Ofrece al desarrollador una experiencia coherente entre tipos de aplicaciones muy diferentes como las basadas en Windows o en web.
  • Basa toda la comunicación en estándares del sector para garantizar que el código basado en .NET Framework se integre con otro código.

Componentes de la plataforma de desarrollo .NET

.NET Framework es un entorno de ejecución administrado para Windows que proporciona diversos servicios a las aplicaciones en ejecución. Consta de dos componentes principales:

  • Common Language Runtime (CLR), que es el motor de ejecución que controla las aplicaciones en ejecución.
  • Biblioteca de clases de .NET Framework, que proporciona una biblioteca de código probado y reutilizable al que pueden llamar los desarrolladores desde sus propias aplicaciones. Los servicios que ofrece .NET Framework a las aplicaciones en ejecución son los siguientes;
  • Administración de la memoria. En muchos lenguajes de programación, los programadores son responsables de asignar y liberar memoria, así como de administrar la vida útil de los objetos. En las aplicaciones de .NET Framework, CLR proporciona estos servicios en nombre de la aplicación.
  • Sistema de tipos comunes. En los lenguajes de programación tradicionales, el compilador define los tipos básicos, lo que complica la interoperabilidad entre lenguajes. que tienen como destino .NET Framework.
  • Biblioteca de clases extensa. En lugar de tener que escribir cantidades extensas de código para controlar operaciones usuales de programación de bajo nivel, los programadores usan una biblioteca de tipos accesible en todo momento y sus miembros desde la biblioteca de clases de .NET Framework.
  • Marcos y tecnologías de desarrollo. .NET Framework incluye bibliotecas para determinadas áreas de desarrollo de aplicaciones como ASP.NET para aplicaciones web, ADO.NET para el acceso a los datos, Windows Communication Foundation para las aplicaciones orientadas a servicios y Windows Presentation Foundation para las aplicaciones de escritorio de Windows.
  • Interoperabilidad de lenguajes. Los compiladores de lenguajes, cuya plataforma de destino es .NET Framework emiten un código intermedio denominado Lenguaje Intermedio Común (CIL) que, a su vez, se compila en tiempo de ejecución a través de Common Language Runtime.

Implementaciones de .NET

Cada implementación de .NET incluye los siguientes componentes:

  • Uno o varios entornos de ejecución. Ejemplos: CLR de .NET Framework, CLR de .NET 5.
  • Una biblioteca de clases. Ejemplos: biblioteca de clases base de .NET Framework, biblioteca de clases base de .NET 5.
  • Opcionalmente, uno o varios marcos de trabajo de la aplicación. Ejemplos: ASP.NET, Windows Forms y Windows Presentation Foundation (WPF) se incluyen en .NET Framework y .NET 5.
  • Opcionalmente, herramientas de desarrollo. Algunas herramientas de desarrollo se comparten entre varias implementaciones. Microsoft admite cuatro implementaciones de .NET:
    • .NET 5 (y .NET Core) y versiones posteriores
    • .NET Framework
    • Mono
    • UWP

Visual Studio .NET 2002

En esta versión se produjo un cambio sustancial, puesto que supuso la introducción de la plataforma .NET de Microsoft. .NET es una plataforma de ejecución intermedia multilenguaje, de forma que los programas desarrollados en .NET no se compilan en lenguaje máquina, sino en un lenguaje intermedio (CIL – Common Intermediate Language) denominado Microsoft Intermediate Language (MSIL).

En una aplicación MSIL, el código no se convierte a lenguaje máquina hasta que se ejecuta, de manera que el código puede ser independiente de la plataforma (al menos de las soportadas al presente por .NET). Las plataformas han de tener una implementación de Infraestructura de Lenguaje Común (CLI) para poder ejecutar programas MSIL. Actualmente, se pueden ejecutar programas MSIL en Linux y Mac OS X usando implementaciones de .NET que no son de Microsoft, tales como Mono y DotGNU.

Desarrollo y programación en el mundo moderno

En la actualidad el desarrollo de aplicaciones hace parte de como se desarrollan y se establecen diferentes métodos para estructurar programas y páginas web. Esto en un principio no tuvo tanto impacto como lo tiene hoy en día. Además de la gran cantidad de plataformas y de funcionalidades que se les ha dado a las mismas, hoy en día son utilizadas en gran cantidad de ámbitos, mejorando la efectividad por ejemplo de diversos campos laborales.

TECH Universidad Tecnológica actualmente se posiciona como la mayor universidad virtual del mundo gracias a su amplio portafolio educativo. Ejemplo claro de ello sucede en su Facultad de Informática donde se encuentran posgrados tales como el Máster en Tecnología Específica de Telecomunicación y el Máster en Industria 4.0 y Transformación Digital. Sin embargo, para aquellos profesionales que buscan dominar el campo del software, no cabe duda que su mejor elección será tomar el Máster en Ingeniería de Software y Sistemas de Información.

Anatomía en la neuropsicología


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

En particular en la anatomía en la neuropsicología y dentro del proceso central del sistema nervioso, como responsable de las funciones de todo el organismo, tanto de supervivencia (el control del ritmo cardiaco, metabolismo, homeostasis y respiración, entre otras), como de diversos procesos adaptativos (el aprendizaje, la memoria o el lenguaje, por mencionar solo algunos)

Está formado por dos divisiones principales:

  • Sistema nervioso central (SNC), Está formado por el encéfalo y la médula espinal. Recibe la información y la procesa para controlar las funciones corporales. – Cerebro. – Médula Espinal.
  • Sistema nervioso periférico (SNP), Está integrado por el conjunto de nervios que sale del encéfalo (nervios craneales) y de la médula (nervios raquídeos).
  • El sistema Nervioso Somático Enerva músculos lisos y estriados. Control voluntario.
    • Nervios Craneales
    • Nervios Espinales.
  • Sistema Nervioso Autonómico (SNA) Enerva músculo liso. Opera bajo el nivel de conciencia. Control involuntario. Mantiene la homeostasis.
    • Sistema Nervioso Simpático.
    • Sistema Nervioso Parasimpático.

A nivel funcional, ambos están íntimamente relacionados. Las neuronas del SNP, localizadas en los ganglios, recogen información a través de los receptores sensoriales de lo que ocurre en el cuerpo y en el entorno, y la transmiten a las neuronas del SNC. Aunque hay algunas excepciones, la información llega a las neuronas de la médula espinal y del tronco del encéfalo, a través de los nervios espinales y los nervios craneales respectivamente.

Las neuronas de la médula espinal y del tronco del encéfalo establecen contactos con las de otras zonas del SNC para procesar la información recibida. Finalmente, la información queda almacenada o se emite una respuesta. Para emitir una respuesta, las neuronas del SNC dan órdenes que a través del SNP llegan a los órganos efectores (músculos y glándulas).

Sistema nervioso central & sistema nervioso autónomo

El sistema nervioso autónomo o vegetativo difiere del sistema nervioso somático o voluntario, en varios aspectos: controla los órganos destinados a la nutrición, ejerciendo una actividad que escapa casi totalmente al control de la voluntad; dispone de vías y centros nerviosos propios, situados tanto en el SNC (médula espinal, tallo cerebral e hipotálamo) como en la parte periférica, con las cadenas láterovertebrales. El SNV tiene dos circuitos con los que ejerce su funcionalidad, y que pueden diferenciarse tanto en su organización anatómica como en los neurotransmisores que utiliza para activar sus vías nerviosas.

El sistema simpático está activado fundamentalmente por la noradrenalina en la unión neurovisceral, y el sistema parasimpático se activa a través de la acetilcolina; en las uniones ganglionares. Además, ambas partes ejercen funciones antagónicas, estimuladoras o inhibidoras, es decir, cuando se activa el simpático se inhibe el parasimpático y viceversa. En su conjunto, controlan el mantenimiento de la constancia del medio interno. Los centros vegetativos del SNC se sitúan desde el diencéfalo hasta la mitad inferior de la médula espinal, alrededor del conducto ependimario. En el diencéfalo, se encuentra los centros hipotalámicos, alrededor del tercer ventrículo.

La neurona

El sistema nervioso central tiene en su constitución varios tipos de células, las neuronas suponen la mitad del volumen total del SNC, la glía, que es importante en la constitución del tejido encefálico, ejerciendo de barrera hematoencefálica, aislando al cerebro del resto del organismo. La neurona es la célula principal, quizás, se puede decir; que es la unidad elemental de la comunicación del sistema.

Las glías dan soporte a las neuronas, protegiéndolas y nutriéndolas, siendo como unas especies de guías que las mantienen en su posición. En las glías se encuentra varios tipos: los astrocitos tienen forma de estrella y sirven como barrenderos, ya que limpian los desechos del medio. Además, producen unas sustancias que alimentan a la neurona, son las responsables de que el calcio extracelular este siempre presente, el calcio extracelular es indispensable para el impulso nervioso.

Los otros tipos de glías son los oligodendrocitos, son fundamentales para generar la vaina de mielina de los axones, ya que la capa de mielina no es otra cosa que capas superpuestas de la membrana del oligodendrocito, estos también recubren los ventrículos y los canales por donde circula el LCR.

Sistema nervioso periférico

El sistema nervioso periférico está diferenciado por los ganglios raquídeos, los nervios espinales y los pares craneales. Los haces de fibras nerviosas que son producto de las reuniones de los axones de las neuronas del SNC son realmente los pares craneales y los nervios espinales. Los ganglios raquídeos se forman a través de la aglomeración de los somas de las neuronas somatosensoriales, situándose en la parte dorsal de la columna vertebral, pero fuera del canal raquídeo. La parte periférica del SNV está compuesta por fibras nerviosas preganglionares, los ganglios, las fibras posganglionares y los órganos efectores.

El tronco simpático paravertebral es una cadena de ganglios paravertebrales unidos entre sí mediante fibras interganglionares que se extiende desde la base del cráneo hasta el coxis. Los ganglios son masas de células nerviosas que se unen a las raíces espinales por dos ramas: el ramo comunicante de los nervios espinales, o ramo blanco, compuesto por fibras mielínicas, y el ramo comunicante del sistema nervioso vegetativo, o ramo gris, formado por fibras amielínicas. Los circuitos simpáticos motores o eferentes están compuestos por dos neuronas:

  • La primera neurona (neurona preganglionar), mielinizada, se sitúa en los centros vegetativos de la sustancia gris de la médula y su axón atraviesa el asta anterior, incorporándose al nervio espinal, desde donde se dirige, por el remo comunicante blanco, al ganglio espinal.
  • La segunda neurona (neurona posganglionar) es amielínica y su situación varía según el destino de la fibra. En las fibras somáticas (piloerección, sudoración, vaso motricidad periférica) se encuentra en uno de los ganglios latero vertebrales, pero no precisamente en el más próximo (puede ser subyacente o suprayacente).

Vías aferentes o sensitivas

Transmiten la sensibilidad visceral y vascular y son el origen de los circuitos reflejos simpáticos. Hay unos circuitos cortos, que van de la víscera al ganglio periférico, donde conecta con las vías motoras; los circuitos largos alcanzan la cadena paravertebral y la atraviesan, se incorporan al nervio espinal por el ramo blanco y alcanzan, a través de la raíz posterior, el ganglio espinal donde conectan con la segunda neurona, cuyo axón se incorpora a las vías medulares de la sensibilidad general.

Otras fibras encuentran su segunda neurona en los núcleos viscero-sensitivos periependimarios. La parte parasimpática del SNV es agonista del sistema simpático en los órganos que inerva. Se encuentra dividido en dos porciones: craneal y sacra. Los centros craneales del sistema parasimpático se corresponden con los del sistema simpático.

Sistema nervioso motor & sistema nervioso vegetativo

Está formado por los nervios craneales y espinales, que conducen impulsos nerviosos desde el sistema nervioso central hasta la musculatura estriada, provocando los movimientos voluntarios, y a su vez transmite información sensitiva desde el resto del cuerpo al sistema nervioso central. Pares craneales: 12 pares de nervios craneales. Se originan en el cerebro e inervan los órganos sensoriales, músculos y glándulas de la cabeza como también la mayoría de los órganos internos.

Se clasifican en sensoriales, motores y mixtos. El Sistema Nervioso Somático nos permite interaccionar con el mundo que nos rodea. Las fibras aferentes llevan información al SNC de los cambios que detectan los receptores localizados en la piel, los músculos esqueléticos y los órganos de los sentidos.

Aplicación de las neurociencias

Dentro del proceso educativo se deben aplicar tantas estrategias como sea posible para un adecuado procedimiento de transmisión de conocimiento. Esto permitirá que el profesional haga uso de las herramientas que domina de forma óptima. Sin embargo, para ello, la especialización juega un papel crucial, siendo esta la base del conocimiento y su pilar principal para ejercer sus funciones de manera íntegra.

TECH Universidad Tecnológica oferta una gran cantidad de programas para su alumnado profesional. Este portafolio de especializaciones ha sido creado cuidadosamente de la mano de su equipo de expertos en diferentes campos. En el caso de su Facultad de Educación, se encuentran posgrados tales como el Máster en Digital Teaching and Learning y el Máster en Coaching Educativo. Sin embargo, para aquellos profesionales interesados en dominar el campo de las neurociencias, no cabe duda que su elección debería inclinarse por el Máster en Neuropsicología Clínica para Docentes.

Clasificación de las quemaduras


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

Tener claridad sobre la clasificación de las quemaduras es importante para dar un correcto tratamiento médico al paciente quemado. El mero conocimiento del tipo de quemadura que ha sufrido el paciente es fundamental para un manejo inicial idóneo. También puede ser crucial en la decisión sobre la derivación a un centro para ser valorado por un especialista o directamente a una unidad de quemados. En este artículo veremos la fisiopatología de las quemaduras y su clasificación.

Fisiopatología de las quemaduras

Localmente, las quemaduras causan necrosis por coagulación de la epidermis y los tejidos subyacentes. La profundidad de la lesión depende de la temperatura a la que se expuso la piel, del calor específico del agente causal y de la duración de la exposición. Las quemaduras se dividen en cinco categorías según la causa y la profundidad de la lesión.

Las causas son lesiones por llama (fuego), líquidos a elevada temperatura (escaldadura), contacto con objetos muy fríos o muy calientes, sustancias químicas y conducción de electricidad. Las tres primeras causan lesión celular por la transferencia de energía, que induce necrosis por coagulación. Las quemaduras químicas y eléctricas producen lesión directa a las membranas celulares, además de la transferencia de calor, y son capaces de provocar necrosis por coagulación o colicuación.

La piel, que es el órgano de mayor tamaño del cuerpo humano, constituye una barrera sólida a la transferencia de energía a tejidos más profundos. De esta manera, confina buena parte de la lesión a esta capa. Sin embargo, una vez eliminado el foco causal, la reacción de los tejidos locales puede causar lesiones en capas más profundas.

El área de lesión cutánea o superficial se ha dividido en tres zonas: zona de coagulación, zona de estasis y zona de hiperemia. El área necrótica de la quemadura donde las células han sido dañadas se denomina zona de coagulación. Este tejido presenta un daño irreversible en el momento de la lesión.

El área alrededor de la zona necrótica tiene un grado moderado de lesión, con menor perfusión tisular. Se denomina zona de estasis y, según el ambiente de la herida, puede sobrevivir o transformarse en necrosis por coagulación. La zona de estasis se asocia con lesión vascular y extravasación de sangre.

Clasificación de las quemaduras según su profundidad

Uno de los criterios más importantes que definen la gravedad de las quemaduras es la profundidad de las mismas. Históricamente, se ha clasificado la profundidad de las quemaduras en grados, clasificación que aún hoy sigue siendo la más extendida. De esta forma se definen cuatro grados.

Quemaduras de primer grado

Las quemaduras de primer grado son las que involucran solo la epidermis. Aparentemente, la piel se aprecia enrojecida, aunque su estructura está intacta y no se evidencian ampollas. Clínicamente, se pueden manifestar desde irritación ligera a dolor profundo, y se pasa por prurito. Generalmente, se produce edema leve. De entre las causas destacan las quemaduras solares por luz ultravioleta y “flash” eléctricos.

Transcurridas 24-36 horas del daño, las quemaduras de primer grado pueden formar ampollas y posteriormente se descaman entre los días 5 y 10. Curan de manera espontánea, generalmente sin cicatrices.

Quemaduras de segundo grado

Se le llaman quemaduras de segundo grado a aquellas que afectan a la epidermis y dermis, y se incluyen los folículos y glándulas de la misma. En general son quemaduras dolorosas, con importante edema y que en ocasiones generan ampollas desde el inicio. Pueden requerir tratamiento quirúrgico de desbridamiento y posterior cobertura.

Las quemaduras de segundo grado, en algunos casos, pueden profundizar por hipoperfusión secundaria al edema durante la fase de reanimación, de manera que se conviertan en quemaduras de tercer grado.

Quemaduras de tercer grado

Son aquellas que provocan una lesión completa de la dermis y además se extienden al tejido subdérmico. Por lo general, tienen aspecto seco, no edematoso y blanquecino. Típicamente, no son dolorosas en las fases más iniciales por destrucción de las terminaciones nerviosas.

En caso de afectación circunferencial, se puede ver comprometido el retorno venoso distal y la elasticidad de los tejidos. Esto puede provocar síndrome compartimental, alteraciones de la expansión torácica que dificulten la ventilación e hipertensión intraabdominal (en estos casos suelen requerir escarofasciotomías emergentes).

Quemaduras de cuarto grado

Las quemaduras de cuarto grado se extienden a lo largo del tejido subcutáneo e involucran tejidos adyacentes, ya bien sea fascia, músculo o hueso. En general, son causadas por contacto directo con metales fundidos, fuego o típicamente quemaduras eléctricas de alto voltaje.

Otra clasificación de las quemaduras

Una clasificación más práctica es aquella que divide las quemaduras en superficiales y profundas.

Quemaduras superficiales

En general, se consideran superficiales las quemaduras de primer y segundo grado (de espesor parcial) aquellas que afectan a la epidermis y dermis papilar. Estas quemaduras, al respetar los folículos, glándulas sudoríparas y sebáceas, tienen la capacidad de cicatrizar y reepitelizar de forma espontánea, por lo que no es necesario el tratamiento quirúrgico.

Quemaduras profundas

Se incluyen como quemaduras profundas las de tercer y cuarto grado. Al ser quemaduras de espesor total, se anula la capacidad de cicatrización espontánea y en caso de que esta ocurra, se genera tejido inestable, cicatrices hipertróficas y retracciones. Por tanto, requieren tratamiento quirúrgico. Sin embargo, a pesar de la gran extensión y correspondencia con la anatomía normal de la piel, la clasificación por grados no refleja de manera fiel la gravedad de la lesión.

De esta manera, en los centros especializados es de vital importancia conocer la posibilidad de reepitelización o necesidad de tratamiento quirúrgico de las distintas lesiones, de manera que en los últimos años se ha venido acuñando una nueva clasificación que separa a las antiguas quemaduras de segundo grado en dos niveles de profundidad.

Nueva clasificación

  • Quemaduras epidérmicas: (quemaduras de primer grado).
  • Quemaduras dérmicas: (quemaduras de segundo grado).
    • Quemaduras dérmico-superficiales (o quemaduras superficiales de espesor parcial): afectan a la epidermis y dermis papilar (respeta los folículos y glándulas). Son dolorosas al tacto y en general forman ampollas. Típicamente, tienen aspecto enrojecido desde el inicio. La cicatrización se produce de manera espontánea (normalmente en 14-21 días) y, por tanto, no es necesario el tratamiento quirúrgico.
    • Quemaduras dérmico-profundas (o quemaduras profundas de espesor parcial): son quemaduras dérmicas (segundo grado) que se extienden hasta la dermis reticular y afectan así a los folículos, glándulas sebáceas y sudoríparas, lo que les hace perder la capacidad de reepitelización espontánea. No suelen formar ampollas, suelen tener aspecto rojizo y muy exudativo (húmedas) y por lo general son dolorosas. Además, presentan pérdida del folículo pilosebáceo y en general requieren tratamiento quirúrgico, pues o bien no son capaces de reepitelizar de manera espontáneo o bien lo hacen a base de tejido cicatricial disfuncional.
  • Quemaduras subdérmicas: (quemaduras de espesor total, de tercer grado).

Lo más frecuente es que en una misma quemadura se encuentren con zonas de distinta profundidad en función del daño inicial.

Tratamiento clínico de pacientes quemados

Dentro de la clasificación de las quemaduras, cualquiera de estas debe tener un correcto diagnóstico y tratamiento para el paciente afectado. Normalmente se precisa un tratamiento clínico multidisciplinar que incluye distintas áreas médicas. Por esta razón, un médico especializado en quemaduras es altamente valorado en los equipos que tratan estas afecciones. Desde TECH Universidad Tecnológica hemos preparado para ti el Máster en Grandes Quemados, que te brindará la capacitación más completa y actualizada en este ámbito desde la comodidad de tu casa.

En la facultad de medicina más grande del mundo tenemos otros programas de alto nivel académico como el Máster en Cuidados Paliativos, que te dará las claves para dar una atención y acompañamiento óptimos a los pacientes terminales. También te ofrecemos el Máster en Ecografía Clínica para Emergencias y Cuidados Críticos, que te especializará en las últimas técnicas ecográficas para el uso óptimo en este tipo de pacientes.

Género y Desarrollo


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

En las últimas décadas, especialmente desde la IV Conferencia Mundial de la Mujer celebrada en Beijing en 1995, han surgido grandes avances nacionales e internacionales para impulsar y dar fuerza a la igualdad de género. La relación entre género y desarrollo afecta todas las disciplinas profesionales, entre ellas la medicina. En el año 2000, la Declaración del Milenio puso de manifiesto en uno de sus objetivos (ODM3) el trabajo por la igualdad de género y el empoderamiento de las mujeres. Declaraba firmemente asumir el compromiso de promover la igualdad entre hombres y mujeres, y la autonomía de la mujer como medios eficaces para combatir la pobreza, el hambre y las enfermedades. Con ello se estimula un desarrollo verdaderamente sostenible.

Concepto de enfoque de género

En primer lugar, se deben conocer las diferencias conceptuales entre sexo y género. Según publicó la Guía de la AECID sobre transversalización de género de la Cooperación Española, Manuales de Cooperación 2015:

  • Sexo: hace referencia a las diferencias físicas, biológicas y corporales entre mujeres y hombres con las que se nace y que son inmodificables naturalmente. De acuerdo al sexo, se organiza a las personas en dos categorías: mujeres y hombres. A partir de ellas se construye la identidad de género femenina, masculina u otras identidades de género en transformación.
  • Género: hace referencia al conjunto de características psicológicas, sociales, políticas y culturales asignadas a las personas que condicionan un amplio ámbito de las relaciones existentes entre mujeres y hombres, así como de los comportamientos individuales de ambos sexos.

Según el MAEC (2004), la distinción de género se encuentra en la base del enfoque de género. Esta herramienta permite:

  • Evaluar en qué medida las necesidades y prioridades de las mujeres, como de los hombres, se reflejan en la acción de desarrollo.
  • Evaluar si se necesitan cambios adicionales para hacer posible que las mujeres participen y se beneficien de la acción.
  • Evaluar si existen oportunidades para evitar o reducir los desequilibrios de género implicados en la acción de desarrollo.

Género y Cooperación Internacional para el Desarrollo

La primera Estrategia de Género en el Desarrollo de la Cooperación Española, elaborada en 2007, fue un instrumento importante para cumplir con los objetivos propuestos en cuanto a igualdad en cooperación definidos en el Plan Director de la Cooperación Española II y III. Desde este momento, la Agencia Española de Cooperación para el Desarrollo comienza a transversalizar el enfoque de género en todas sus actuaciones de desarrollo.

Este fue el comienzo del Plan de Actuación de Género y Desarrollo de la AECID, que fomentó la promoción de un nuevo concepto de desarrollo en el que destaca la promoción de igualdad efectiva entre hombres y mujeres a través de actuaciones basadas en el empoderamiento y la construcción de la autonomía real de las mujeres. La estrategia de género desarrollada y la adquisición de este nuevo paradigma toma como referentes principales tres importantes compromisos muy implicados con la Cooperación Internacional:

  • La Declaración y Plataforma de Acción de Beijing (1995), clave de los avances realizados en la última década.
  • Los Objetivos de Desarrollo del Milenio (ODM), suscritos en la Cumbre del Milenio de Naciones Unidas (2000) en cumplimiento de la Agenda Internacional contra la pobreza.
  • La Convención para la Eliminación de todas las Formas de Discriminación contra la Mujer CEDAW (1979).

Líneas de trabajo

Se desarrollan principalmente 7 líneas de trabajo que guiarán el compromiso del enfoque de género en la CID, como muestra el Plan de Actuación Sectorial de Género y Desarrollo, vinculado al III Plan Director de la AECID y el Ministerio de Exterior y Cooperación:

  1. La participación política de las mujeres con énfasis en el apoyo a los mecanismos nacionales de igualdad, la mejora del acceso de las mujeres al sistema de justicia, el apoyo a las políticas de género a nivel local. Una atención especial al fortalecimiento de las organizaciones de mujeres y colectivos feministas.
  2. La lucha contra la violencia de género: fomentando la sensibilización y prevención, desarrollando redes de atención a las víctimas de violencia de género, desarrollando e implementando marcos legislativos que garanticen sus derechos y apoyando a las organizaciones de mujeres y colectivos feministas que trabajan en esta materia.
  3. Los derechos sexuales y reproductivos: concentrándose en la protección y garantía de estos derechos, la salud sexual y reproductiva y el apoyo a las organizaciones de mujeres y colectivos feministas que trabajen en materia de identidad sexual y por la defensa de los derechos sexuales y reproductivos.
  4. Mujer y construcción de paz: destacando el trabajo en el desarrollo de sistemas de alerta temprana, la protección y acción humanitaria en conflictos y desastres, y la incorporación del enfoque de género a los procesos de justicia transicional, desarme, movilización y reinserción.
  5. Los derechos económicos y laborales de las mujeres: con atención especial a las iniciativas productivas de las mujeres en el desarrollo rural, el uso, acceso y tenencia de los medios de producción por parte de las mujeres, los presupuestos sensibles al género a nivel nacional y local, el acceso a crédito de las mujeres, incluyendo aquellas que trabajan en la economía informal y, en general, la garantía de la igualdad en el acceso, permanencia y promoción en el empleo.
  6. La transversalización del enfoque de género: identificando acciones para garantizar la planificación y programación con enfoque de género y para la inclusión del enfoque de género en las intervenciones de las diferentes unidades de la AECID.
  7. La institucionalización del enfoque de género: promoviendo la creación y/o fortalecimiento de unidades de género en las OTC, la formación y sensibilización de recursos humanos (sede y terreno) en género y desarrollo, la mejora del sistema de información y estadística del sector de género y desarrollo, la promoción y creación de espacios de coordinación para la coherencia de género entre las diferentes unidades de la AECID y la inclusión del enfoque de género en las estrategias de comunicación y educación para el desarrollo de la AECID.

Otras líneas de acción

  • Mujeres y educación: centrando los esfuerzos en la promoción de políticas educativas nacionales y regionales encaminadas a asegurar el acceso, permanencia y finalización de las niñas y mujeres en todos los niveles educativos, el apoyo a propuestas de formación profesional específica a mujeres en oficios no tradicionales y el fortalecimiento de las instituciones con competencias educativas para la promoción de modelos de educación no sexista.
  • Género y cultura: garantizando la inclusión del enfoque de género en la Dirección de Relaciones Culturales y Científicas, elaborando directrices para la transversalización del género en la programación de centros culturales, apoyando la difusión del Programa de Cooperación Interuniversitaria (PCI) entre centros de investigación y cátedras de género de las universidades europeas y promoviendo el instrumento de becas para la formación de personal especializado en Género y Desarrollo, vinculado a los sectores de intervención.

Cooperación Internacional para el Desarrollo desde la Medicina

Uno de los ejes fundamentales en la Cooperación Internacional para el Desarrollo es la medicina. Esto se debe a que gran parte de los países del mundo aún no cuenta con una cobertura sanitaria suficiente para asegurar la salud de su población. Si estás interesado en integrar a tu vida profesional los conocimientos en este tema, en TECH Universidad Tecnológica hemos diseñado el Máster en Cooperación Internacional para el Desarrollo. Este programa, enfocado en la medicina, llevará tus capacidades profesionales al siguiente nivel.

En nuestra oferta académica también podrás encontrar programas de alto nivel como el Máster en Gestión Clínica, Dirección Médica y Asistencial, y el Máster en Dirección de Hospitales y Servicios de Salud. Estudiando con nosotros podrás disfrutar de contenidos diseñados por prestigiosos profesionales en cada área desde la comodidad de tu casa.

Estructura ósea de la región orbitaria


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

La región orbitaria del rostro contiene diversas estructuras anatómicas, como la ósea, la muscular, la palpebral o la nerviosa. El conocimiento de la anatomía de la región orbitaria lleva al médico a dar un diagnóstico y un tratamiento adecuado en cada una de sus partes. En el caso de la cirugía estética, se deben considerar las variables étnicas, de género y de edad para lograr un resultado cosmético y preciso. En este artículo veremos la estructura ósea de la región orbitaria.

Anatomía de la región orbitaria

Las órbitas son dos cavidades extensas y profundas que se encuentran entre la cara y el cráneo. Son destinadas a alojar los globos oculares y sus principales anexos. Están situadas simétricamente a cada lado de la línea media, por debajo de la cavidad craneal y por encima del seno maxilar. Las órbitas están separadas de las fosas nasales por las masas laterales del etmoides y el unguis. Se observa una órbita izquierda y una derecha.

Cada una de las cavidades orbitarias tiene la forma de una pirámide cuadrangular hueca cuya base se dirige hacia delante y el vértice hacia atrás. El eje mayor de la órbita es oblicuo hacia atrás y hacia adentro, prolongándose hacia el occipital, con una profundidad más o menos de 45 mm. Se encuentra por detrás y por debajo del esfenoides. El ancho de la base es en término medio de unos 40 mm y su altura es aproximadamente de 35 mm. La medida que separa a ambas órbitas, al nivel de la base, es por término medio de 25 mm.

Estructura ósea

Para el estudio más detallado de la cavidad orbitaria, se ha de considerar:

  • La base, que corresponde a su parte anterior.
  • El vértice, situado en su parte posterior.
  • Las cuatro paredes.
  • Los cuatro bordes o ángulos.

Base orbitaria

La base la órbita, también llamada reborde orbitario, está constituida:

  • Superiormente, por el arco orbitario del frontal y por las dos apófisis orbitarias del mismo hueso.
  • Lateralmente, por el borde superointerno del hueso malar.
  • Inferiormente, por el borde malar en su mitad externa y por el maxilar superior en la mitad interna.
  • Medialmente, por la cresta lagrimal anterior. La escotadura o agujero supraorbitario se encuentra situado a 3 cm aproximadamente de la línea media y está convertida, muy frecuentemente, en un verdadero agujero.

Vértice de la órbita

El vértice de la órbita corresponde a la porción más interna y ancha de la hendidura esfenoidal. Se encuentra en este punto un surco estrecho cuyo labio anterior sobresale y se convierte en el llamado tubérculo infraóptico, más o menos desarrollado según los sujetos. En el surco y en el tubérculo se inserta el tendón o anillo de Zinn.

Pared externa

Es la pared más gruesa y resistente de las cuatro, y corresponde a la fosa temporal. Está formada por la cara anterior del ala mayor del esfenoides, por la apófisis orbitaria del hueso malar y también por la parte más externa de la bóveda orbitaria del frontal. Es regularmente plana.

Pared interna

Está formada por la apófisis ascendente del maxilar superior, el unguis, el hueso plano del etmoides y la parte anterior de la cara lateral del cuerpo esfenoides. Se distingue un canal siempre muy marcado, el canal lacrimonasal, que se encuentra en la parte más anterior, inmediatamente detrás de la apófisis ascendente del maxilar superior.

Pared inferior, piso o suelo de la órbita

Está constituida por la cara orbitaria de la apófisis piramidal del maxilar superior. Hacia adelante y hacia fuera, por la cara interna de la apófisis orbitaria del hueso malar. Hacia atrás, por la carilla superior de la superficie no articular de la apófisis orbitaria del palatino. Se encuentra en esta pared el canal infraorbitario o suborbitario, el cual después de un trayecto de unos 2 cm se transforma en un conducto completo. Este, conforme se ha comprobado en todos los casos estudiados, viene a abrirse en la cara por el agujero suborbitario.

Pared superior o bóveda orbitaria

Está formada hacia delante por la lámina horizontal del frontal y hacia atrás por el ala menor del esfenoides. Es muy gruesa en la parte anterior cerca del reborde orbitario.

Borde superoexterno

Este borde se confunde por delante con la fosita lagrimal. Más adentro se encuentra la sutura frontoesfenoidal (que tiene la forma de una coma con la extremidad gruesa posterointerna) y la terminación o cola de la hendidura esfenoidal, cuya parte interna más ancha, o cabeza, constituye el vértice de la órbita. Por la hendidura esfenoidal pasan las venas oftálmicas y los nervios de la órbita, con excepción del nervio óptico.

Borde superointerno

En el borde superointerno se encuentran sucesivamente, procediendo de delante atrás, las diversas suturas del hueso frontal con la apófisis ascendente del maxilar superior, con el unguis y con el hueso plano del etmoides. En esta última sutura, sutura frontoetmoidal, se encuentran los dos orificios orbitarios de los conductos etmoidales u orbitarios internos. Estos comunican, por otra parte, con los canales olfatorios, y dan paso de la siguiente manera:

  • El posterior, a la arteria etmoidal posterior y a un pequeño filete nervioso.
  • El anterior a la arteria etmoidal anterior, así como al filete etmoidal del nervio nasal.

Por último, un orifico redondo, el agujero o conducto óptico, termina este borde por la parte posterior. Este conducto lo recorren el nervio óptico y la arteria oftálmica.

Borde inferointerno

El borde inferointerno forma un ángulo muy obtuso. En ciertos sujetos está casi borrado. En este caso, la órbita representa una pirámide más bien triangular que cuadrangular. Este borde empieza por delante a nivel del orificio del conducto nasal, y a partir de este punto se encuentran:

  • La sutura del unguis con el maxilar superior.
  • La sutura del hueso plano del etmoides también con el maxilar superior.
  • Y la sutura del cuerpo del esfenoides con la apófisis orbitaria del palatino.

Borde inferoexterno

Está formado en su cuarta parte anterior por la apófisis orbitaria del hueso malar. En sus tres cuartos posteriores se encuentra la hendidura esfenomaxilar. Más ancha por delante que por atrás, la hendidura esta militada por el ala mayor del esfenoides hacia arriba y por el maxilar superior hacia abajo. Su extremo anterior tiene por arriba el borde posterior de la apófisis orbitaria del malar y por abajo un gancho óseo, la espina malar, que se desprende de la apófisis piramidal del maxilar.

Musculatura de la región orbitaria

El músculo orbicular de los parpados está conformado por tres porciones: pretarsal, preseptal y orbitaria. Se encuentra encima del reborde orbitario y es el constrictor primario de los párpados. Está inervado por el nervio facial. Las fibras pretarsales se encuentran sobre la región de la placa tarsal y son responsables del parpadeo involuntario. Las fibras preseptales recubren el tabique orbitario y ayudan con el parpadeo voluntario e involuntario. Las fibras orbitales se superponen a los bordes orbitales. Producen cierre voluntario y contundente de los párpados.

Cirugía periorbitaria

Hay distintos motivos por los que realizar procedimientos quirúrgicos que involucren la región orbitaria y periorbitaria. Uno de ellos es la cirugía estética, para lograr resultados cosméticos que el paciente requiera. Si deseas profundizar en conocimientos médicos y quirúrgicos en el marco de la cirugía estética, desde TECH Universidad Tecnológica, tenemos el programa para ti. Se trata del Máster en Cirugía Plástica Estética, que podrás cursar 100 % desde casa con la última metodología de e-learning y diversos contenidos multimedia.

También te ofrecemos otros de nuestros programas relacionados, como el Máster en Cirugía Oral y Maxilofacial, enfocado en los procedimientos quirúrgicos especializados de esta región. Por otro lado, el Máster en Cirugía Plástica Reconstructiva posee un enfoque funcional, y te brindará los conocimientos más actualizados y las mejores técnicas para integrar en tu práctica profesional cotidiana.

Estenosis de unión pieloureteral


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

La estenosis de unión pieloureteral u obstrucción de la unión pieloureteral (EPU) es una malformación común del tracto urinario en los niños. A menudo, es detectada en el período prenatal. El diagnóstico se realiza mediante un empeoramiento de la hidronefrosis en la ecografía (sin dilatación ureteral) y un patrón obstructivo en el renograma diurético MAG-3 con lavado de furosemida. El tratamiento puede ser llevado a cabo con cirugía mínimamente invasiva, que reduce los riesgos y mejora el pronóstico del paciente.

Opciones quirúrgicas

Las indicaciones para la cirugía son:

  • Función renal diferencial <40 %.
  • Aumento de hidronefrosis.
  • Empeoramiento con adelgazamiento del parénquima renal.
  • Pérdida de función renal >10 % durante la vigilancia expectante o infecciones urinarias febriles de repetición.

La pieloplastia abierta de Anderson-Hydes todavía se considera el “gold standard” para el tratamiento de la obstrucción de la unión pieloureteral (con una tasa de éxito superior al 94 %). Sin embargo, publicaciones recientes informan de una eficacia cada vez mayor de los enfoques mínimamente invasivos. Las ventajas de estas técnicas (reducción del dolor posoperatorio, duración de la estancia hospitalaria, mejor estética, entre otras), junto con la eficacia y seguridad, las están haciendo consideradas como la primera opción terapéutica en muchos casos.

Los instrumentos cada vez más pequeños y la mejor técnica de los últimos años están haciendo del abordaje endourológico un tratamiento seguro y eficaz, como se ha descrito en otras patologías urológicas (megauréter obstructivo primario, estenosis pieloureteral secundaria, entre otros). No obstante, el papel en la EPU primaria se ha cuestionado debido a la discrepancia en las tasas de éxito y los resultados publicados.

Preparación preoperatoria

Se administra profilaxis antibiótica preoperatoria, habitualmente amoxicilina-ácido clavulánico 30 mg/ kg o un antibiótico específico según el urocultivo del paciente. Los pacientes reciben anestesia general con mascarilla laríngea.

Posición del paciente

La intervención se realiza con el paciente en posición de litotomía. En el caso de lactantes o niños pequeños < de 12 – 15 kg, el periné del paciente se lleva al borde de la mesa y se colocan rodillos bajo las rodillas flexionadas para colocar las piernas, sin necesidad de utilizar perneras.  El cirujano y el ayudante se colocan al borde de la cama con acceso a la uretra. El monitor de cistoscopia se coloca en el lado derecho de la mesa y la pantalla de fluoroscopia en la cabeza del paciente. El arco en C de fluoroscopia se introduce desde el lado izquierdo del paciente.

Instrumentación

La cistoscopia se realiza con un cistoscopio compacto de 9,5 Fr con un canal de instrumentación de 5 Fr. Para realizar la pielografía retrógrada se necesita un catéter ureteral de 4 Fr y contraste radiológico. Para tutorizar el uréter hasta la pelvis renal, se utilizan alambres guía hidrófilos (0,014” Choice PT™, punta en J, Boston Scientific; o 0,018” Radiofocus® Terumo). En caso de dificultad se opta por una guía hidrófila de 0,035”, ya que viaja con mayor facilidad en dirección retrógrada dentro de la luz ureteral. 

No obstante, hay que tener en cuenta que sobre esta guía no ascienden los balones de dilatación que se suelen emplear y, por tanto, es preciso ascender un tutor ureteral sobre ella hasta la pelvis renal y proceder a cambiarla por otra de menor calibre.

Sobre la guía, se asciende retrógradamente el catéter balón de alta presión. Estos balones son de bajo perfil 3 Fr y presentan diferente diámetro nominal (de 5 a 7 mm) según el peso del paciente (5 mm en pacientes <6 kg, 6 mm en 6 – 10 kg, y 7 mm en> 10 kg) y 2 cm de longitud (RX Muso™, Terumo) o 4 cm de longitud (Rx Senri™, Terumo). 

En caso de ser necesario, se puede necesitar emplear un Cutting Balloon™ (Boston Scientific, Natick, MA, EE. UU), que es un balón de dilatación con cuatro microcuchillas, lo que combina una miotomía de 4 cortes microquirúrgicos con la dilatación circunferencial del balón.

Técnica quirúrgica

El primer paso es realizar la cistoscopia e introducir el tutor ureteral de 4 Fr en el uréter indicado. A continuación, se realiza la pielografía retrógrada y, posteriormente, se asciende a través del tutor ureteral una guía hidrófila hasta la pelvis renal (0,014” o 0,018”). En caso de dificultad, se prefiere utilizar una guía de 0,035” que asciende mejor.

Bajo control fluoroscópico, se inserta el catéter balón de alta presión sobre la guía y se ubica en la unión pieloureteral. El balón se infla con contraste radiológico a la presión nominal (14 – 16 atm) mediante una bomba de presión hasta que se vence por completo la estenosis; es decir, hasta que desaparece la imagen del reloj de arena en la radioscopia.

Después de la dilatación retrógrada se coloca un catéter ureteral doble J entre la pelvis renal y la vejiga y se deja la sonda vesical transuretral que se retira al día siguiente de la intervención si no existen complicaciones. A las 4 – 6 semanas de la dilatación se lleva a cabo la retirada del catéter doble J en el quirófano mediante cistoscopia. En este procedimiento, la unión pieloureteral se evalúa (calibración) mediante el inflado de un catéter balón a baja presión (6 – 8 atm) en la unión pieloureteral, para así comprobar la ausencia de estenosis residual. Se trata de un procedimiento ambulatorio.

Si presenta una estenosis residual durante la calibración de la UPU, se realiza una nueva dilatación completa mediante balón de alta presión, colocando en esta ocasión un doble J con una sutura de Prolene 4/0 adherida a la punta distal y exteriorizada fuera del paciente (transuretral) que se retirará una semana después en consulta externa, tirando de la sutura. 

Control posoperatorio

La alimentación oral se inicia tan pronto como el paciente se recupera del procedimiento anestésico. Para la intervención inicial, los requerimientos analgésicos se limitan a fármacos no opioides por vía intravenosa durante las primeras 24 horas, siendo dados de alta con profilaxis antibiótica y analgesia oral si precisa. La sonda vesical se retira entre 18 – 20 horas después de la cirugía y se da de alta al paciente después de observar una micción espontánea. El procedimiento de «calibración» y retirada de catéter doble J se realiza en régimen de hospital de día. 

Tras el alta, el seguimiento consiste en revisión clínica periódica y ecografía renal a los 3, 6 y 12 meses del posoperatorio. El diámetro anteroposterior de la pelvis renal (APD y diámetro máximo de pelvis en vista coronal), la relación pelvis/ cortical (relación entre APD y grosor cortical mínimo) y el porcentaje de mejoría de la APD son los principales parámetros utilizados para predecir el resultado. El renograma diurético MAG-3 posoperatorio se realiza solo si se tienen factores de mala evolución a los 6 meses posoperatorios atendiendo a los parámetros ecográficos.

Cirugía pediátrica mínimamente invasiva

En el marco de la estenosis de unión pieloureteral, se han desarrollado en los últimos años grandes avances en la cirugía pediátrica. Estos avances han reducido los riesgos y las complicaciones quirúrgicas con cirugías mínimamente invasivas. Si te interesa adquirir los conocimientos más completos y actualizados en este tema, desde TECH Universidad Tecnológica tenemos para ti el Máster en Cirugía Mínimamente Invasiva en Pediatría. Con este programa podrás conocer las técnicas e instrumentos más novedosos de la materia de manera 100 % online.

En la universidad más grande del mundo contamos con otros programas que pueden ser de tu interés profesional, como el Máster en Cirugía Plástica Reconstructiva o el Máster en Cirugía Mínimamente Invasiva en Ginecología. Cursando un Máster con nosotros, lograrás potenciar tu perfil profesional de una manera cómoda, flexible y científicamente rigurosa.

Situación actual en la transformación digital


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

Para conocer el estado de madurez de la situación actual en la transformación digital, se recomienda consultar dos tipos de información para darse una idea sobre este. De esta forma se sugiere, por un lado, investigar el Índice de Economía y Sociedad Digital (DESI) y, por el otro lado, consultar los informes del estado de las tendencias tecnológicas que acompañan el fenómeno de la transformación digital.

La determinación de la etapa de madurez de las diversas tecnologías que acompañan a la digitalización es de vital importancia. Esto para conocer el estado o la etapa en la que esta se encuentra. Una de las herramientas que se pueden utilizar es el ciclo de madurez que plantea Gartner para los distintos tipos de tecnologías. Sin duda, es muy recomendable seguir este tipo de información, pues resulta muy útil para estar al día de las nuevas tecnológicas que están apareciendo; su evolución, aceptación, consolidación y las tendencias que depara el futuro en esta materia.

Gartnet Hype Cycle

Un hiperciclo o ciclo de sobre expectación es una herramienta utilizada para representar, de un modo gráfico y resumido, la evolución. Misma que sigue una nueva tecnología desde su lanzamiento hasta su fase de maduración. El término fue acuñado por la consultora tecnológica Gartner; la cual representa una buena fuente de información sobre la industria de las tecnologías de la información mundial. Desde hace varios años, Gartner viene desarrollando un método mediante el cual busca medir el nivel de expectativa existente sobre diferentes innovaciones. Esto para contrastarlo contra los factores de tiempo y desarrollo que las influencian. De esta forma, el ciclo de sobreexpectación se divide en cinco fases:

  1. Lanzamiento (Innovation Trigger): la primera fase de un ciclo es el «lanzamiento»; una presentación del producto o cualquier otro evento que genera gran interés y presencia en los medios.
  2. Pico de expectativas sobredimensionadas (Peak of Inflated of Expectations): en la siguiente fase, el impacto en los medios genera normalmente un entusiasmo y expectativas poco realistas. Es posible que algunas experiencias pioneras en la aplicación de la tecnología se lleven a cabo con éxito, pero habitualmente hay más fracasos que éxitos.
  3. Abismo de desilusión (Trough Disillusionment): las tecnologías entran en el abismo de desilusión porque no cumplen las expectativas inicialmente creadas.
  4. Rampa de consolidación (Slope of Enlightenment): aunque la prensa haya dejado de cubrir noticias relacionadas con la tecnología, algunas empresas siguen. Esto a través de la «pendiente de la iluminación», experimentando con la tecnología para entender los beneficios que puede proporcionar su aplicación práctica.
  5. Meseta de productividad (Plateau of Productivity): una tecnología llega a esta fase, cuando sus beneficios están ampliamente demostrados y aceptados. La tecnología se vuelve cada vez más estable y evoluciona en segunda y tercera generación.

Las tendencias tecnológicas principales de Gartner para el 2021

Es evidente que la situación actual, desde cualquier punto de vista que sea empleado (económico, social, tecnológico, etc.), está influenciado enormemente por la pandemia mundial que se ha desatado. El desarrollo de ciertas tecnologías y las tendencias que se están definiendo con relación a esta materia, no son una excepción; esto ya que se relacionan con varias consecuencias derivadas de la Covid-19.

Por ejemplo, seguramente en los puestos de trabajo se podrá ver cómo los sistemas de visión computarizada velarán por la salud de los empleados. Esto desde el cumplimiento de los protocolos de seguridad, como lo es llevar mascarilla para poder acceder a algunas dependencias. Asimismo, se incorporarán cada vez más sensores que puedan captar datos e información sobre el comportamiento de las personas. Todo ello para, a partir de esta información, definir las acciones a realizar.

La recopilación y el uso de estos datos para establecer e impulsar comportamientos humanos se ha denominado “Internet de Comportamiento” o, por su nombre en inglés, “Internet of Behavior” (IoB). Como consecuencia de la Covid-19 y de la evolución del IoB, las tendencias de la anualidad 2021 se enmarcan en tres temas principales que se podrían definir de la siguiente forma:

La centralidad de las personas

Poner a las personas en el centro, bien sean empleados, clientes o usuarios finales, es la base principal de los desarrollos tecnológicos que actualmente se viven, ya que se convierten en el centro de todos los negocios y necesitan procesos digitalizados para funcionar en el entorno actual.

Independencia de la ubicación

La Covid-19 ha cambiado la visión de donde los empleados, clientes o proveedores pueden ubicarse o estar físicamente. Un ejemplo de ello es el teletrabajo, modalidad a la que millones de trabajadores se han visto obligados a asumir en muchos casos y que hasta ese momento no era planteado como una posibilidad eficaz. Además, la independencia de la ubicación física para la realización del trabajo o cualquier otra actividad, requiere un cambio tecnológico para apoyar esta nueva versión del negocio.

Entrega resiliente

Ya sea una pandemia o una recesión, las crisis y los escenarios cambiantes existen y afectan periódicamente a todas las organizaciones. Aquellas que tienen sistemas robustos que lo soportan y que saben adaptarse con flexibilidad en los entornos cambiantes, son capaces de sobrevivir, por lo tanto, esta capacidad de resiliencia es cada vez más valorada y medida por las entidades y organizaciones.

Situación actual en la transformación digital: internet del Comportamiento (IoC) o Internet of Behavior (IoB)

Como ha sido mencionado anteriormente, recoger información sobre el comportamiento humano y usarlo para cambiarlo o modificarlo en búsqueda de un objetivo de eficiencia, corresponde a una de las tendencias tecnológicas actuales, puesto que, con el paso del tiempo, se incorporan cada vez más los dispositivos y sensores que pueden monitorizar las conductas en los diferentes aspectos de la actividad diaria.

Por ejemplo, en el manejo de vehículos comerciales se pueden monitorizar los comportamientos de conducción, el tipo de frenado que realiza el conductor o, incluso, si este efectúa algún giro agresivo con ayuda de los sensores telemáticos. A partir de esta información, se pueden crear programas o sesiones de mejorar del rendimiento, el enrutamiento y la seguridad del conductor. El ecosistema del IoB puede recopilar, combinar y procesar datos de muchas fuentes, como lo son:

  • Datos de clientes
  • Datos de ciudadanos procesados por organismos del sector público y del gobierno
  • Redes sociales
  • Otros

Como los anteriores son datos relativos a las personas y su comportamiento, el IoB tiene unas implicaciones éticas y sociales dependiendo de los objetivos que se busquen con el uso de la información. Además, se debe tener presente la legislación relativa a la protección de datos personales.

Estrategia de la “experiencia total”

La experiencia total combina los conceptos relacionados con la experiencia del cliente, del empleado y del usuario para transformar el modelo del negocio. De esta forma, se entiende por experiencia, lo bien o mal que el cliente, el usuario o el empleado se ha sentido con el uso de un producto o servicio. El objetivo es mejorar la experiencia y la satisfacción general de todos los stake holders desde una visión integral. Vincular estrechamente todas estas experiencias, en lugar de mejorar de manera individual cada una de ellas, produce efectos diferenciadores en un modelo de negocio, creando ventajas competitivas respecto a la competencia.

El proceso de cambio en la era moderna

El ser humano siempre tiende a la evolución y al progreso. Esto se debe al análisis de sus necesidades y en el cómo se pueden mejorar o facilitar algunos procesos en el mismo. Por ello, se hace necesario que exista la figura de profesionales en este ámbito, de manera que sean ellos quienes dominen y complementen el campo con sus conocimientos. Esto asegurará que el proceso de cambio se ejecute de manera progresiva sin afectar la vida diaria.

TECH Universidad Tecnológica actualmente se posiciona como la mayor universidad digital del mundo. En el caso de su Facultad de Informática se han desarrollado posgrados tales como el Máster en Ingeniería de Software y Sistemas de Información y el Máster en Tecnología Específica de Telecomunicación. Por otra parte, para aquellos profesionales que buscan dominar el campo de la tecnología en la vida actual, no cabe duda que su mejor elección será tomar el Máster en Industria 4.0 y Transformación Digital.

Cuerpo y cerebro


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

Al contrario de lo que se pensaba, el cuerpo y el cerebro desempeñan un papel crucial en los procesos cognitivos. El sentido común sugiere que cuerpo y mente deben interactuar. Incluso, en el ámbito neurocientífico, Antonio Damásio defiende que existe un lazo entre el cuerpo y el cerebro. Las percepciones, los pensamientos, los deseos y las emociones afectan directamente al cuerpo y a la forma de actuar.

Sin embargo, los científicos siguen buscando la relación entre los estados cerebrales y mentales. Las recientes investigaciones proponen que el movimiento constituye una estupenda herramienta para mantener la salud física, pero también la mental. El cerebro forma parte del cuerpo, ambos se van integrando íntimamente, a través de circuitos químicos y neuronales, en el proceso de desarrollo.

Según Damásio, “el cuerpo proporciona una base referencial para la mente”. A nivel biológico, el ejercicio físico tiene un impacto muy positivo en el funcionamiento del hipocampo, en la liberación de neurotransmisores y en el desarrollo de las funciones ejecutivas. Además, la gestualidad corporal puede contribuir al aprendizaje en otros contextos. A modo general, se puede establecer una ruta que conecta la mente con el cuerpo, y que se representaría de la siguiente manera:

  1. Pensamientos.
  2. Emociones.
  3. Acciones.
  4. Resultados.

El cerebro social

La mente no se concibe separada del cerebro, y tampoco puede considerarse separada del cuerpo y del entorno (físico y social). “Todos los aspectos de la mente y la conducta, tanto individual como social, deberían estudiarse desde el punto de vista de la biología evolutiva”. Antonio Damásio La mente se encuentra constituida, por una parte, cognitiva (pensamiento, percepción, memoria, inteligencia) y, por otra parte, afectiva (sentimientos, creencias, deseos, emociones).

Además, el conjunto mente-cuerpo también interactúa constante y activamente con su entorno, tanto físico como social y cultural. Son inseparables e interdependientes. Esa dicotomía es la que pretende romper el campo de la neurociencia. Pero, ¿por qué se tiene esa necesidad de comunicarse e interactuar con los demás? Para poder relacionarse con el entorno, se necesitan funciones específicas, como la alerta, la atención, la motivación, la regulación emocional, el lenguaje, el autocontrol, etc. Y todo esto es posible gracias a la corteza prefrontal, la corteza cingular, la amígdala, la corteza dorso lateral y la corteza asociativa parietal.

Todo esto ha dado lugar a despertar el interés por su estudio, surgiendo así la disciplina Neurociencia Social, que hace referencia al estudio interdisciplinario de los procesos neurobiológicos de multinivel, y que permite interactuar con el mundo social. Algunos de estos estudios ya se han tratado anteriormente, refieren a la teoría de la mente (la manera de percibirse en relación con los demás) y las neuronas espejo. Principalmente, el cerebro social tiene dos funciones:

  • Aprender del entorno.
  • Controlar el comportamiento social.

Ser seres sociales es intrínseco a la naturaleza humana

el cerebro se desarrolla en contacto con otros cerebros. Pero a nivel evolutivo y biológico, esta necesidad de vivir en sociedad está asociada a la necesidad de sobrevivir, adaptarse al medio, y a desarrollarse y ubicarse en ese medio social. Entre las herramientas que utiliza el cerebro para relacionarse socialmente se encuentran el lenguaje, los movimientos y los comportamientos. Todo esto se hace a través de dos vías:

  • La vía primitiva: es una imitación de lo que se observa.
  • La vía avanzada: surgen formas de imitación más sutiles y complejas.

Pero ¿cómo se percibe y se entiende a los demás? La cognición social involucra todo un conjunto de sistemas neurocognitivos. Sin embargo, el proceso comienza en la percepción de los rostros (expresiones y microexpresiones), movimientos y acciones de los demás. El sistema visual tiene varias regiones especializadas donde se analizan diferentes aspectos del procesamiento facial, y tiene dos componentes distintos: por un lado, percibe estados emocionales y la intención, y, por otro lado, reconoce e identifica el rostro de un individuo.

Uno de los psicólogos pioneros en el estudio del lenguaje no verbal y, en especial, de las microexpresiones, es el norteamericano Paul Ekman. También conocido por haber participado en el desarrollo de la serie “Lie to me” y la famosa película animada “Inside Out”. Una microexpresión es una expresión facial realizada de manera involuntaria y automática. A través de ellas es posible conocer el estado emocional de las personas. Según Ekman y otros investigadores, las microexpresiones son innatas, universales y son representaciones de las emociones básicas.

¿Cómo se prepara al cerebro para el aprendizaje?

A lo largo de los temas anteriores, se ha intentado acercar a todos los aspectos que se conoce inciden de manera directa en el aprendizaje, con la finalidad de marcar pautas para potenciar ese aprendizaje (aprender y enseñar) de una manera más efectiva. A continuación, se resumen algunos puntos de interés que hay que recordar:

  • El cerebro aprende mediante imágenes: hay que olvidar las clases magistrales. Todos los recursos visuales (imágenes, mapas conceptuales, material audiovisual) van a ejercer una estimulación en el cerebro, propiciando una participación directa en el aprendizaje.
  • El cerebro es interactivo: para conectar con las emociones es imprescindible el uso de las TIC como medio de estimulación y complementación del aprendizaje.
  • El cerebro necesita emoción: la emoción y la cognición están estrechamente relacionadas. Es importante conseguir llegar a la parte emocional y conectar con los alumnos, para que la información permanezca más tiempo y el aprendizaje sea eficaz.
  • El cerebro es social: hay que favorecer el trabajo cooperativo, favoreciendo la empatía y el desarrollo de las habilidades sociales. La escuela ha de fomentar la colaboración de toda la comunidad.
  • El cerebro es natural: el alumno tiene que ser un agente activo en su aprendizaje, por lo tanto, se necesita movimiento, manipular y crear en un entorno estimulador.
  • El cerebro necesita estar sano: es fundamental una buena alimentación y el descanso.

Sin embargo, el cerebro, al igual que el cuerpo, necesita entrenar y generar hábitos que se repitan de manera automática cada vez que se necesiten. Pero, ¿qué es un hábito? Según la Real Academia de la lengua española, hábito (del lat. Habitus) es un modo especial de proceder o conducirse, adquirido por repetición de actos iguales o semejantes, u originado por tendencias instintivas.

Alimentación

Algunos estudios sobre nutrición han concluido que ingerir ciertos alimentos, además de ayudar a mantener el cuerpo en condiciones óptimas, incide en la mejora de la salud cerebral. En este caso, se podría decir que comer bien es lo mismo que pensar bien. La alimentación es importante para la función cerebral, ya que, de acuerdo a los nutrientes que el cerebro reciba, va a repercutir en la actividad cerebral y cognitiva.

Además, al igual que ocurre con el ejercicio físico, una adecuada alimentación también influye de manera positiva en el estado de ánimo y en otras habilidades cognitivas (memoria, concentración, razonamiento, etc.). El cerebro es un órgano muy exigente, por lo que necesita aproximadamente el 20% de energía que se ingiere. Su principal fuente de energía es la glucosa, que es la que proviene de alimentos como legumbres, frutas, vegetales o lácteos. Pero, además, necesita otros nutrientes esenciales, como son las vitaminas (la vitamina C ayuda en el desempeño cognitivo), minerales, proteínas, etc.

El proceso de guía en educación

Dentro de la educación se deben tener diferentes factores de afección en cuenta que hacen parte de la adecuada dirección que debe brindar el profesional. Por esta razón, a mayor cantidad de herramientas que el profesional conozca y domine, mucho mejor será el resultado de enseñanza. Para ello, sin embargo, el mismo debe conocer diversidad de información y para ello, la especialización académica juega un papel importante.

TECH Universidad Tecnológica hace parte de las mejores instituciones que ofertan institución digital. Esto se ha logrado mediante el diseño y desarrollo de un amplio portafolio educativo, donde cada programa se ha enfocado a la alta calidad educativa. En el caso de su Facultad de Educación, destacan especializaciones tales como el Máster en Flipped Classroom y el Máster en Investigación en Educación. Sin embargo, para aquellos profesionales que buscan dominar el campo del liderazgo en la enseñanza, no cabe duda que su mejor elección será tomar el Máster en Coaching Educativo.