Captura óptica de movimiento


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

Los sistemas de captura óptica de movimiento, proporcionan una base sólida para el análisis biomecánico de la técnica deportiva y para el entrenamiento. Este análisis es ampliamente utilizado en disciplinas como la medicina deportiva o la podología clínica. La adición de un software sofisticado con la capacidad de captura en tiempo real ha transformado estos sistemas de la mera coordinación de sistemas de adquisición a herramientas para el técnico y científico del deporte, las cuales pueden utilizar regularmente para vigilar y mejorar las técnicas de los deportistas. Además, pueden determinar el potencial de una lesión y hacer modificaciones, incluso antes de ésta.

Cuantificación del movimiento en deportistas

Hoy en día hay muchas tecnologías disponibles que se utilizan para cuantificar el movimiento de los deportistas. Sin embargo, las recientes innovaciones en sistemas de captura óptica de movimiento han añadido capacidades sin precedentes, permitiendo que el mismo programa sea utilizado:

  • Por los entrenadores, conforme a la respuesta técnica de sus atletas.
  • Por los médicos, para evaluar la recuperación de las lesiones.
  • Por los ingenieros, para evaluar cómo interactúan los atletas con los implementos suministrados.
  • Por los investigadores, para estudiar la biomecánica de los movimientos complejos, así como las acciones de fuerza y de alta velocidad.

Metodología de captura óptica tridimensional (3D)

Muchos sistemas de captura de movimiento miden el movimiento global humano, incluyendo la fotogrametría (Bergemann, 1974; Marzan & Karara, 1975; Miller & Petak, 1973; Shapiro, 1978), los sistemas optoeléctricos (Greaves, 1983; Scheirman, 1992), el campo magnético (Luo, Niebur & An, 1996), acelerometría (Frisch, 1989; Breniere & Dietrich, 1992; Lafortune, Henning & el Valiant, 1995) o la goniometría (Chao, Laughman, Schneider & Stauffer, 1983; Strathy, Chao & Laughman, 1983). Cada uno de estos diferentes métodos tiene sus propios beneficios y deficiencias. Sin embargo, en la última década, los métodos de optoeléctricos emergieron como la herramienta preferida para medir el movimiento humano. Los factores responsables de esta preferencia han sido, en gran medida, la excepcional exactitud de la medida y una amplia gama aceptable de equipos de captura de imagen.

En la actualidad, las tecnologías optoeléctricas capturan el movimiento con chips especializados de alta resolución y usan los procesadores dentro de la cámara para identificar los marcadores reflectivos y calcular sus posiciones en la imagen. Estos marcadores pueden ser discos, hemisferios o esferas que están cubiertas con retro-revestimientos reflectivos. En estas tecnologías se hace uso de LED infrarrojos, que son registrados por cámaras y que contrastan con el fondo, permitiéndole al sistema detectar sus posiciones en tiempo real. Las aplicaciones típicas implican cuatro o más cámaras que cubren todo el espacio en el que la acción va a llevarse a cabo, desde uno a cientos de retro-marcadores reflectivos se colocan sobre el sujeto en los sitios de interés para ser rastreados.

Funcionamiento

Las coordenadas 2D se pasan a la computadora, normalmente a través de un Gigabit Ethernet, donde el software del ordenador determina en tiempo real las coordenadas 3D de los marcadores de datos de dos o más cámaras. Hay una rica historia de la utilización de métodos ópticos para cuantificar el movimiento humano. El método de cámara fija que ha sido más comúnmente utilizado es la transformación lineal directa (TLD o DLT en inglés), que ha sido descrita por Abdel-Aziz & Karara (1971), Van Gheluwe (1978) y Walton (1981). El método se basa en la condición de que existe una relación colineal entre el punto en el espacio, el centro de la perspectiva de la lente de la cámara y la posición de la imagen.

Captura del movimiento

Una vez que se calibran las cámaras, el sistema está listo para capturar los datos de los marcadores colocados en el deportista. Sofisticadas rutinas o plantillas son utilizadas para crear trayectorias de los marcadores en un sistema de referencia cuadro a cuadro en el tiempo y resolver las oclusiones posibles.

Los softwares ópticos pueden trabajar en tiempo real, permitiendo la visualización inmediata de los datos, o en modo diferido, grabando el movimiento para su posterior análisis. Los datos se pueden mostrar de acuerdo a como se recolecten: marcador de datos en 3D, los datos analógicos y las imágenes de vídeo de referencia, así como el estado actual del sistema.

El operador puede ver los datos reconstruidos en un área de trabajo 3D tal como se produce el movimiento, o ver movimientos almacenados con fines de revisión. El sistema Nexus está diseñado para ser fácil de integrar. El diseño modular de los componentes le da una arquitectura totalmente graduable, hecho que permite agregar más capacidad cuando sea necesario.

Por ejemplo, un sistema de captura óptica con tres cámaras ha sido utilizado para rastrear los movimientos de las extremidades durante un salto vertical. Por el contrario, los biomecánicos normalmente utilizan ocho cámaras en el análisis del pateo, o hasta 20 cámaras para evaluar el rendimiento de los deportistas durante maniobras de cambio de dirección.

También es posible la integración de vídeo digital de referencia para los propósitos cualitativos. Cuando una cámara de vídeo está conectada al PC, esta puede ser reconocida automáticamente y está disponible de inmediato para la captura de vídeo. Además, la información 3D puede ser superpuesta a la imagen de vídeo. Este dispositivo es especialmente útil para la visualización de las variables no cinemáticas de los deportistas (por ejemplo, las fuerzas y presiones), junto con su video.

Opciones de cálculo

Otros componentes de software suministran los cálculos para establecer los puntos virtuales, que son como los centros articulares que se calculan a partir de dos a cuatro marcadores de seguimiento. Estos puntos pueden ser calculados como una distancia fija de los marcadores de seguimiento o como una proporción. Por ejemplo, el centro de la articulación de la rodilla puede ser calculado como una distancia fija de una tríada de marcadores situado en la pierna o en el punto medio entre los marcadores en los cóndilos medial y lateral. Una vez localizadas las articulaciones, se pueden hacer cálculos segmentarios que pueden incluir ángulos simples, velocidades y aceleraciones. Usando estos de una manera más compleja, es posible medir completamente los movimientos en seis grados de libertad, tales como la energía mecánica y el momento angular.

Retroalimentación en tiempo real

Muchas aplicaciones requieren información en tiempo real con una demora muy mínima. Los entrenadores usan retroalimentaciones en tiempo real con los atletas para ayudarles a recuperar más rápidamente su ritmo de marcha. Se utilizan las retroalimentaciones para analizar si ciertas posiciones corporales y los ángulos se han alcanzado y para crear una imagen digital espejo en 3D con el objeto de verla.

Los sistemas ópticos pueden generar automáticamente las instrucciones verbales o el estímulo, dependiendo de cómo el operador establece los criterios de la retroalimentación. Además, la pantalla se puede configurar para que el deportista pueda ver sus movimientos como una animación en 3D destacando las partes del cuerpo de su interés y así fomentar su foco de atención.

Monitorización podológica

La captura óptica de movimiento ha adquirido gran importancia en el estudio y la monitorización del pie desde la medicina deportiva y la podología clínica. Sus diversos usos hacen de esta técnica una herramienta importante para podólogos. Si deseas ahondar en las últimas actualizaciones en podología, como avances clínicos, técnicos y científicos, en TECH Universidad Tecnológica tenemos un programa para ti. Se trata del Máster en Podología Clínica Avanzada. Con él, podrás implementar estos avances en tu práctica profesional del día a día.

Si prefieres incursionar en otras especialidades, puede ser de tu interés el Máster en Medicina Estética, que abarca uno de los sectores más demandados en la actualidad. Por otra parte, el Máster en Ecografía Musculoesquelética en Medicina Rehabilitadora te permitirá desempeñarte con experticia en las distintas técnicas ecográficas para su uso diagnóstico.

Autolisis celular


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

La autolisis celular es un proceso de destrucción celular de singular trascendencia en la demolición del organismo. Este proceso, cuyo conocimiento es esencial para procedimientos de medicina legal, encuentra su origen en el cese de las funciones celulares que se da con la muerte. El proceso de autolisis es más o menos rápido e intenso en función de las características de cada tejido. En este artículo veremos las manifestaciones más relevantes de la autólisis.

Principales manifestaciones de la autólisis

Alteraciones metabólicas

La primera alteración que se produce con la hipoxia, es la suspensión de la respiración aeróbica (fosforilación oxidativa) a nivel de las mitocondrias. La fosforilación oxidativa cesa al disminuir la tensión de oxígeno intracelular y por lo tanto disminuye los niveles de ATP. La disminución de ATP produce aumento del AMP, que estimula la fosfofructoquinasa con un aumento de la glicolisis anaeróbica.

Cierta cantidad de ATP es producido así a través de la metabolización del glucógeno, que rápidamente disminuye su concentración en la célula. Igualmente, la glicólisis anaeróbica provoca la disminución del pH. El pH ácido produce una rápida alteración de la cromatina, que se vuelve de tipo grumoso. Uno de los más importantes efectos de la caída del ATP se muestra sobre las membranas, causando edema celular.

En el compartimento intracelular, se encuentra el Na+ en bajas concentraciones. Al cesar la bomba de sodio, empieza a entrar a la célula y consigo el agua, dilatando las mitocondrias, el retículo endoplásmico y el aparato de Golgi. Todo ello conduce a la formación de vacuolas. La aparición de vacuolas intracitoplásmicas y el edema mitocondrial hace un gran daño a través de la formación de flóculos densos de proteínas. Cuando disminuye el pH se produce la desnaturalización de las proteínas y la ruptura de las membranas lisosomales con salida de enzimas al citosol.

Alteraciones estructurales por daño nuclear

  • Picnosis: disminución de tamaño nuclear con aumento de la basofilia nuclear. El núcleo se torna oscuro, pequeño y redondo. No se distingue el patrón normal de distribución de la cromatina. Los cambios principales son despolimerización del ADN y disminución del agua intranuclear.
  • Cariorrexis: en esta fase el núcleo aumenta su tamaño. La cromatina empieza a extenderse agrupándose alrededor de la membrana nuclear.
  • Cariolisis: es la parte final. Vía mediante la cual el núcleo desaparece en el citoplasma.

Alteraciones estructurales por daño de la membrana celular

  • Pérdida de fosfolípidos: están en constante renovación. Su remoción la realizan fosfolipasas endógenas, que son altamente dependientes de la concentración del calcio.
  • Alteraciones del citoesqueleto: daño causado por la acción de las proteasas sobre los filamentos intermedios.
  • Productos de degradación de lípidos: en especial la presencia de acylcarnitina, lisofosfolípidos y ácidos grasos libres no esterificados. Estos compuestos producen alteraciones de la permeabilidad y por otro lado poseen una acción detergente sobre las membranas.

Daño citoplasmático

Las alteraciones citoplasmáticas van desde una inicial pérdida de la afinidad tintorial con colorantes vitales, pasando por una homogeneización, hasta alcanzar un aspecto granular eosinófilo. Estas alteraciones dependen de las características morfológicas de las células. Los cambios que puede hacer la autolisis en el cadáver pueden verse durante el examen interno o el examen externo.

Examen interno

Sangre, encéfalo, timo

  • Sangre: aquí ocurre la pérdida de fosfolípidos. Se ha mostrado una de las vías de daño en la membrana. Se realiza una salida de la hemoglobina al suero, que aparece tintado de rojo.
  • Encéfalo: como ya se sabe, las células cerebrales son increíblemente activas y dependientes del oxígeno y, después de estar 3 minutos sin oxígeno, se dañan de manera irreversible. La célula cerebral, a la misma vez, escasea de depósitos de glucógeno, por lo que el metabolismo anaerobio post vital no puede tener lugar. Estos hechos justifican que:
    • Las enfermedades degenerativas cerebrales tendrán como consecuencia una menor autolisis local.
    • Por el deterioro del tejido cerebral y su menor metabolismo, la intensidad de la autolisis cerebral es inversamente proporcional a la edad del fallecido.
    • La autolisis cerebral en recién nacidos bien desarrollados y niños pequeños sea muy precoz.
  • Timo:  tiene una función inmunogénica que se basa en la transformación de glóbulos blancos en células T. Su mayor grado de actividad enzimática se alcanza hacia los seis meses de edad y después va disminuyendo.

Hígado, páncreas, estómago

  • Hígado:  este es también asiento de intensos fenómenos autolíticos por su intensa actividad metabólica. En estudios por microscopía de transmisión electrónica, se ha podido ver que a la media hora después del fallecimiento ya pueden verse los primeros cambios, tanto en el retículo endoplásmico como en el núcleo. En las cinco primeras horas después de la muerte, se han podido comprobar cambios seriados, por lo que podría ser un gran dato para el establecimiento de la data de la muerte.
  • Glándulas suprarrenales: la distinta composición celular de las capas medular y cortical de las glándulas suprarrenales hace que la autolisis se implante en dos momentos diferentes. La autolisis aparece antes en la médula suprarrenal que, en la corteza, ya que la médula suprarrenal formada por tejido nervioso tiene una gran actividad enzimática y muy baja resistencia a la privación de oxígeno.
  • Páncreas: los fenómenos autolíticos se manifiestan de forma muy intensa y precoz por el alto contenido de enzimas del páncreas.
  • Estómago e intestinos: tienen una especial trascendencia la aparición de la autolisis en estos puntos. La ruptura de las barreras de separación entre la luz del tubo digestivo y sus paredes, así como las existentes entre las paredes vasculares y las intestinales, permitirá que la flora microbiana se distribuya por el organismo para producir la putrefacción.

Examen externo

La posibilidad de vencer la rigidez cadavérica es la manifestación externa de la autolisis con mayor interés médico-forense. Es la primera manifestación que puede verse en el comienzo de la destrucción cadavérica. La rigidez se presenta en dos fases:

  • Instauración.
  • Estado (firme establecimiento de los puentes actina-miosina).

Para vencer el estado de rigidez que alcanza el cadáver sin producir roturas tendinosas, suceden los fenómenos autolíticos. Estos afectan las estructuras intimas de las células musculares, provocan la desnaturalización proteica y un ablandamiento generalizado de la musculatura.

Cronología

Es complicado establecer una cronología de la muerte que sea fiable. Se trata de reacciones enzimáticas y, por lo tanto, van a estar condicionadas por algunos factores, tanto externos como internos. El lisosoma es una vesícula membranosa que contiene enzimas hidrolíticas para la digestión intracelular controlada de macromoléculas. La autolisis corre a cargo fundamentalmente de estos lisosomas.

Hasta ahora se conocen unos 40 enzimas lisosómicas. Todas son enzimas hidrolíticas, como proteasas, nucleasas, glucosidasas, lipasas, fosfolipasas, fosfatasas y sulfatasas. Lo más importante es que son hidrolasas ácidas, con una actividad óptima cerca del pH.

Conocimientos avanzados en medicina forense

Los conocimientos sobre autolisis, así como los de putrefacción, son primordiales a la hora de hacer una valoración forense. Esto es debido a que el profesional puede relacionar el estado de putrefacción de un cadáver con una fecha determinada de desaparición. En TECH Universidad Tecnológica hemos diseñado el Máster en Medicina Legal y Forense, un programa completo y actualizado que te brindará las herramientas para desempeñarte profesionalmente en esta rama.

También tenemos para ti distintos programas posgraduales, como el Máster en Psicología Forense y Psicodiagnóstico, que te permitirá integrar a las valoraciones médicas el factor psicológico. El Máster en Peritaje Médico y Valoración del Daño Corporal, por otra parte, te generará una sensación de seguridad en el desempeño de la práctica profesional en este ámbito.

Causas de deformaciones angulares en MMII


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

Las alteraciones del eje de miembros inferiores (MMII), suponen un elevado número de consultas pediátricas. Los padres se suelen preocupar en la consulta pediátrica de que su hijo tiene las piernas “torcidas”. Las deformidades en el plano coronal de los MMII pueden ser genu varo o genu valgo. La mayoría son procesos fisiológicos que se corrigen espontáneamente con el crecimiento del niño. Sin embargo, hay que tener en cuenta determinadas patologías que pueden ser las causas de deformaciones angulares en MMII.

Causas fisiológicas

Existen variaciones fisiológicas consideradas normales en el alineamiento angular de los MMII. Son moderadas, generalmente bilaterales y simétricas. La edad del paciente es un dato fundamental.

Los recién nacidos presentan un arqueamiento en “O” (genu varo) de 10º a 15º, que aumenta con la carga cuando el niño comienza a deambular, ocurriendo alrededor de los 18 meses como máximo. A partir de esta edad, las piernas comienzan a cambiar a posición neutra, para después pasar a una angulación en “X” (genu valgo) que va aumentando con la edad, siendo máxima hacia los 3-4 años de vida. Posteriormente, el valgo de miembros inferiores va disminuyendo y alrededor de los 6 u 8 años se alcanza el alineamiento definitivo de los miembros inferiores, con un genu valgo fisiológico de 5º-7º.

Asociación familiar

Se consideran patológicas las alteraciones angulares en el plano frontal, que se encuentran ± 2 desviaciones estándar (DE) de la media de los valores normales. Hay familias con tendencia a presentar una morfología característica de sus MMII, bien en valgo o varo dentro de la media de los valores normales. En estos casos, los estudios radiográficos no son patológicos. Los pacientes con genu valgo suelen asociar sobrepeso, siendo el aumento del diámetro de los muslos lo que condicionan la deformidad aparente de valgo.

Displasias óseas

Los pacientes pueden presentar displasias óseas como la displasia espondiloepifisaria, la acondroplasia o la hipoacondroplasia. Son pacientes con rasgos clínicos característicos como frente abombada, talla baja y alteraciones de la columna. Se asocian con mayor frecuencia deformidades en varo de MMII.

Mucopolisacaridosis

Son síndromes metabólicos con alteración de las enzimas lisosomales. Los pacientes presentan talla baja, características especiales como visceromegalias, alteraciones cardiacas, inestabilidad C1-C2 y síndrome del túnel del carpo. Es frecuente que asocien genu valgo.

Enfermedades neuromusculares

Las deformidades en el plano coronal son frecuentes en pacientes con diplejia espástica o enfermedad de Duchenne.

Enfermedades reumáticas

La artritis idiopática juvenil puede dar lugar a lesiones osteoarticulares que alteran el eje de los MMII.

Enfermedades metabólicas

Entre las enfermedades metabólicas que causan deformaciones angulares en MMII, fundamentalmente se encuentran el raquitismo carencial por déficit de vitamina D y el raquitismo hipofosfatémico ligado al cromosoma X. Los pacientes presentan talla baja, genu varo llamativo, con afectación tanto del fémur como de la tibia. En ocasiones, también pueden presentar genu valgo.

El diagnóstico se realiza mediante estudio de laboratorio (calcio, fósforo, PTH, vitamina D, fosfatasa alcalina) y radiográfico (fisis ensanchadas, metáfisis en copa, disminución de la densidad mineral ósea, líneas de Looser, que son pseudofracturas en las zonas de compresión del hueso tanto en fémur como en tibia). La deformidad de miembros inferiores se corrige generalmente con el tratamiento médico. Solo en casos severos que no responden al tratamiento se recomienda la cirugía.

Defecto fibrocartilaginoso focal

Entre las causas de deformaciones angulares encontramos el defecto fibrocartilaginoso focal. Es una enfermedad rara, de causa desconocida. Produce una alteración ósea cercana a la fisis del fémur distal (más frecuente) o tibia proximal que actúa como una hemiepifisiodesis, dando lugar a una deformidad en varo o valgo. Afecta con más frecuencia a niños por debajo de los 2 años. El diagnóstico es radiográfico: en la radiografía aparece una lesión radiolucente rodeada de una zona de esclerosis desde la fisis extendiéndose hasta la diáfisis. No lesiona la fisis de crecimiento. En general, el tratamiento es la observación, ya que existe un alto número de correcciones espontáneas, sobre todo, en niños pequeños. En casos de progresión, se puede resecar la banda de tejido anómalo en la zona.

Secuelas de infecciones osteoarticulares

Los pacientes con artritis sépticas u osteomielitis previas, pueden tener lesiones fisarias que producen un puente óseo. El diagnóstico se realiza mediante resonancia magnética. Como consecuencia, aparece un crecimiento asimétrico del hueso y una deformidad angular. Si el puente óseo es pequeño y el niño tiene más de dos años de remanente de crecimiento, está indicado realizar una desepifisiodesis mediante la resección del puente óseo e interposición de grasa.

Secuelas de fracturas

Las secuelas de las fracturas pueden lesionar la fisis, dando lugar a una hemiepifisiodesis o producir consolidaciones inadecuadas del miembro. Existe un tipo de fractura metafisaria de tibia (la fractura de Cozen) de escasa importancia inicial, que puede evolucionar a genu valgo. Este fenómeno es muy raro, aunque es preciso informar a los padres de esta posibilidad. Si ocurre, lo habitual es la resolución espontánea con el crecimiento.

Enfermedades tumorales

Los pacientes pueden padecer enfermedades tumorales como la encondromatosis múltiple (enfermedad de Ollier y Maffucci), que comprende un grupo heterogéneo de síndromes congénitos en los que aparecen encondromas múltiples. En la radiografía se objetivan lesiones líticas con calcificaciones en su interior. Se producen alteraciones óseas unilaterales que dan como resultado deformidades angulares tanto en varo, como en valgo. Los pacientes pueden también padecer osteocondromatosis múltiple, enfermedad genética que produce multitud de osteocondromas que condicionan deformidad del eje de miembros inferiores, normalmente genu valgo.

Enfermedad de Blount o tibias varas

Esta enfermedad produce un genu varo progresivo centrado en la zona proximal de la tibia.

Evaluación clínica

Lo habitual es que el diagnóstico se realice mediante la exploración física, siendo rara la necesidad de realizar pruebas complementarias.

  • Se debe explorar la marcha del niño y recoger si existe alguna alteración. Además, se debe realizar la exploración en decúbito supino. Las deformidades rígidas se mantienen en decúbito, sin carga.
  • Se debe valorar la simetría entre ambos miembros inferiores, comprobar si la deformidad es bilateral o unilateral (ocurre en problemas fisarios como fracturas o infecciones previas). En caso de bilateralidad, hay que considerar si es simétrica o no. Por regla general, las asimetrías se relacionan con patología subyacente.
  • Se debe localizar la zona de mayor deformidad y verificar si:
    • Afecta al fémur, tibia o ambas.
    • Afecta la diáfisis o metáfisis.
    • Existe afectación de más de un plano en el hueso: el antero-posterior (valgo-varo) y el sagital (antecurvatum-recurvatum).
  • Se debe explorar el rango de movilidad articular y el perfil torsional. En decúbito supino, se valora la movilidad de las caderas, las rodillas y los tobillos. Los niños con genu valgo aumentado presentan mayor riesgo de inestabilidad rotuliana y dolor anterior de rodilla. En decúbito prono, se valora el perfil torsional, se miden las rotaciones interna y externa de caderas, la anteversión femoral (AVF) y el ángulo muslo-pie. Una AVF aumentada produce un genu valgo aparente, el cual se atribuye a la rotación interna del fémur distal.
  • Se debe realizar la exploración del pie, los pies planos valgos intensos empeoran la posición en valgo de los miembros inferiores.
  • Se debe valorar si existe hiperlaxitud. El aumento de laxitud articular acentúa las deformidades de MMII. Se realiza mediante la escala de Beighton. Para el diagnóstico de hiperlaxitud, se necesita una puntuación de ≥ 4 de un total de 9 puntos, considerando 1 punto por cada zona hipermóvil en ambos lados del hemicuerpo.

Tratamiento ortopédico

Cualesquiera que sean las causas de deformaciones angulares en MMII, la ortopedia infantil ha avanzado lo suficiente para que todas sean tratables y exitosas. En TECH Universidad Tecnológica hemos diseñado, de la mano de reconocidos profesionales, el Máster en Ortopedia Infantil. Con él podrás adquirir un nivel superior y actualizado de conocimientos en la materia y darás una atención óptima a los pacientes.

En el campo de la pediatría, contamos con el Máster en Cirugía Mínimamente Invasiva en Pediatría y el Máster en Pediatría Hospitalaria. Estos programas, entre muchos otros, los puedes cursar de manera 100 % online compaginando sin problemas tu carrera profesional y los estudios.

Radiación en las células


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

La humanidad siempre ha recibido cierto nivel de radiaciones ionizantes naturales denominadas radiación de fondo, procedentes de materiales radiactivos del suelo, rayos cósmicos o incluso alimentos. Pero existen otros orígenes de radiación artificial, cada vez más frecuentes en relación con los avances tecnológicos y particularmente en el entorno sanitario, como es el caso de la otorrinolaringología. Ello puede condicionar cierto nivel de riesgo que exige, en primer lugar, valoraciones sobre la pertinencia de asumir esos riesgos y, en segundo lugar, generar las medidas adecuadas de protección para la población y para el personal expuesto. En este artículo veremos cómo funciona la radiación en las células.

Interacción de la radiación en las células

Actualmente, las radiaciones ionizantes se encuentran dentro de múltiples aplicaciones en beneficio de las personas, pero tienen sus riesgos. Por lo que se debe conocer cómo interacciona esta radiación con la materia biológica. Los efectos biológicos de las radiaciones ionizantes derivan del efecto que estas producen en la estructura química de las células, fundamentalmente en la molécula de ADN (ácido desoxirribonucleico).

Las trayectorias de radiación pueden depositar energía directamente en el ADN (efecto directo) o pueden ionizar otras moléculas de la célula, especialmente las moléculas de agua, para formar radicales libres que pueden dañar al ADN (efecto indirecto). Dentro de la célula los efectos indirectos ocurren en distancias muy cortas, del orden de pocos nanómetros, ya que la distancia de difusión de los radicales está limitada por su reactividad. Se estima que cerca del 35% ocurre de manera directa y el 65% tiene un componente indirecto, en cuanto a radiaciones de baja transferencia lineal de energía (tipo rayos-X o rayos-gamma).

Las lesiones que la radiación puede inducir en el ADN son muy diversas, entre ellas se pueden mencionar las roturas de una o de las dos cadenas (roturas sencillas o dobles), recombinaciones, sustituciones de bases, deleciones, etc. En algunos casos, estos cambios en la estructura del ADN se traducen en aberraciones cromosómicas, lesiones que pueden ser utilizadas como parámetros para la medida de la dosis absorbida (dosimetría biológica).

Radiosensibilidad

Poco después del descubrimiento de los rayos X, se observó que su efecto es más importante sobre las células tumorales que sobre tejidos normales. Esta especial radiosensibilidad se basa más en características de las células y menos de la radiación. Dicha relación depende del grado de diferenciación celular.

Cuando una célula expuesta a una radiación puede sufrir un daño severo que les conducirá a la citólisis o bien sufrir daños menos severos, subletales, que, si bien no provocan la muerte de la célula, sí alteran su composición genética (ADN) causando mutaciones. Ello depende de factores físicos como la dosis, la tasa de dosis y el tipo de radiación. Pero también existen factores químicos como ciertas sustancias que modifican la radiosensibilidad (de gran utilidad en radioterapia) y los factores biológicos. Lo más importante es la fase del ciclo celular en que esté la célula en el momento de la irradiación junto con la eficacia de los mecanismos de reparación nuclear.

Factores físicos que influyen en la respuesta celular frente a la radiación

  • Transferencia lineal de energía de la radiación: el daño celular producido a la misma dosis de radiación es directamente dependiente de la transferencia lineal de energía (LET) de la radiación incidente. Cuanto mayor sea esta, el daño en el ADN es más complejo y los mecanismos de reparación celular no pueden solucionarlo. Radiaciones de alta LET causan, a una misma dosis de radiación, mayor muerte reproductiva en la población de células irradiadas que la misma dosis de radiación de baja LET.
  • Tasa de dosis: en caso de radiación de baja LET, las tasas altas de dosis causan más daño celular que las tasas menores, en que el sistema de reparación celular es más eficiente para reparar el daño de las lesiones del DNA.

Factores biológicos que influyen en la respuesta celular frente a la radiación

  • Ciclo celular: la radiosensibilidad celular es más alta durante la fase de división celular, en concreto en las fases G1 y M (mitosis) y menor en S (síntesis del ADN).
  • Mecanismos de reparación: cuando se produce un daño potencialmente letal, si la célula es capaz de repararlo podrá sobrevivir. Dicha reparación es especialmente eficaz cuando las células se encuentran en estado de reposo proliferativo. Una célula irradiada en fase proliferativa resulta menos eficaz para reparar un daño potencialmente letal y aunque se repare la mayor parte del daño producido por radiación ionizante, puede quedar un daño remanente para la célula y su “descendencia” no reparado o mal reparado, siendo el resultado en estos casos una línea celular viable pero modificada genéticamente o la muerte celular.

Agentes químicos que influyen en la respuesta celular frente a la radiación

  • Radiosensibilizadores: son productos que aumentan la sensibilidad de las células al daño por la radiación. Entre estos productos, uno de los más eficaces es el oxígeno molecular.
  • Radioprotectores: al contrario de los productos descritos anteriormente, otras sustancias actúan secuestrando radicales libres, con lo que reducen la acción indirecta de la radiación.

Efectos biológicos radioinducidos

Se pueden encontrar diversas formas de clasificar estos efectos de daño producido por la radiación en las células, pero la más interesante es dividirlos en efectos biológicos estocásticos y deterministas. Puede suceder, que la irradiación de un organismo cause la muerte de un número de células suficientemente elevado en un órgano o tejido concreto que tenga como consecuencia la pérdida de función del mismo. Por ejemplo, si la irradiación destruye el tejido hematopoyético a una dosis concreta, causa una alteración secundaria del recuento hemático. Este efecto se conoce como determinista.

La gravedad de los efectos deterministas es directamente proporcional a la dosis de radiación recibida, siempre y cuando esta sea mayor que la dosis umbral, dosis que establece el límite entre la aparición o no del efecto. En general, cada efecto tiene un cierto umbral de dosis definido. Estos efectos suceden tras exposición a dosis relativamente altas, poniéndose de manifiesto a medio-corto plazo.

En otras ocasiones las células irradiadas del organismo no llegan a morir, pero pueden producirse mutaciones en el material genético. Esto condiciona efectos que no son determinados por la dosis, sino por un componente de azar, por lo que se llaman efectos estocásticos. Los efectos estocásticos ocurren tras la exposición a dosis moderadas y bajas de radiación y se ponen de manifiesto a medio-largo plazo. La gravedad de los efectos estocásticos no es proporcional a la dosis recibida, pero sí la probabilidad de que tenga lugar el efecto. Aunque siguen existiendo discrepancias al respecto, para la estimación de riesgos de efectos estocásticos se considera que no existe dosis umbral para su aparición.

De manera clásica, se ha hablado del daño genético inducido por la exposición a radiación, pero surgen otras cuestiones como son la respuesta adaptativa y el daño no dirigido a la genética nuclear.

Protección radiológica en otorrinolaringología

En el campo médico hay un mayor riesgo de radiación en las células debido a distintos procedimientos clínicos. El caso de la otorrinolaringología no es distinto, de modo que debe pensarse en un sistema de protección radiológica que reduzca el riesgo de radiación en el paciente al mínimo. Si deseas conocer más al respecto, y profundizar en las últimas novedades científicas de la especialidad, en TECH Universidad Tecnológica tenemos para ti el Máster en Actualización en Otorrinolaringología. Con este programa lograrás ser un profesional experto y altamente capacitado en esta disciplina.

Dentro de los programas relacionados podrás encontrar el Máster en Actualización de Técnicas Diagnósticas y Terapéuticas en Radiología, que te permitirá conocer nuevas técnicas e indicaciones para implementarlas en los procesos radiológicos. También encontrarás el Máster en Medicina Nuclear, un programa que te pone al tanto de las últimas soluciones que ofrece la medicina nuclear para tratar y diagnosticar numerosas patologías.

Cirugía urológica según enfermedad


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

Cuando se habla de cirugía urológica según enfermedad, existen algunos aspectos concretos que tienen un impacto directo en la calidad de vida de los pacientes y que se pueden considerar secuelas funcionales. Dentro de este grupo se podrían incluir todos aquellos pacientes que corren riesgo de desarrollar insuficiencia renal e incluso de requerir diálisis. Del mismo modo, se podría incluir en este apartado a todos los pacientes que, por diversos motivos, requerirán de una derivación urinaria definitiva (Bricker, enterocistoplastia, etc.). Sin embargo, de forma general, se entiende por secuelas funcionales, aquellas que tienen un impacto directo sobre la función eréctil y sobre la continencia urinaria. Los tratamientos quirúrgicos que pueden tener un impacto a este nivel, son:

  • Prostatectomía radical.
  • Cistoprostatectomía radical.
  • Penectomía parcial/total.

Cáncer de pene

El tratamiento estándar del cáncer de pene se lleva a cabo a través de cirugía exerética, y salvo casos seleccionados, el tratamiento más frecuente es la penectomía parcial. Fruto de este procedimiento, se produce un impacto directo en la calidad miccional y en la función eréctil de estos pacientes. En los casos de penectomía total es obvio que no hay función eréctil residual. Por otro lado, desde el punto de vista miccional, el mayor problema estará relacionado con las estenosis del neomeato uretral en el periné.

Cuando se realiza una penectomía parcial, el impacto sobre la calidad miccional dependerá de dos factores fundamentales:

Longitud del muñón peneano

A mayor resección del cuerpo del pene, mayores dificultades para proyectar el chorro micional. Puede ser aún mayor si se asocian problemas prostáticos, como es habitual en el rango de edad. Por tanto, siempre se realizará una penectomía parcial si se garantiza una función miccional adecuada y, en cualquier caso, se dedicará todo el esfuerzo en ubicar el neomeato en el lugar más funcional posible.

Neomeato uretral

Un problema que puede presentarse siempre que se realiza una penectomía parcial o total es la estenosis del neomeato uretral. Se debe ser exquisito con la reconstrucción del neomeato puesto que de esto depende en gran medida la calidad de vida del paciente, especialmente en los casos de penectomía total y uretrostomía perineal.

Cáncer de próstata

Excluyendo los tumores de piel, el cáncer de próstata es hoy en día el cáncer más común en el ser humano. Se diagnostican a lo largo del mundo más de 660.000 nuevos casos cada año, lo que constituye el 10 % de los nuevos cánceres del varón. El cáncer de próstata es el cáncer más numeroso diagnosticado en el hombre, con 382.000 nuevos casos en Europa durante el año 2008 (22,2 % del total), seguido por el cáncer de pulmón (17 %) y el colorrectal (13,5 %). El cáncer de próstata constituye la tercera causa de muerte en hombres (89.000/9,3 %) precedido del cáncer de pulmón (26,6 %) y del colorrectal (11,5 %).  En España, la incidencia del cáncer de próstata ha variado pasando del 1,3 % antes de 1990 hasta el 7,3% durante el periodo 1975-2004.

En el 2008 se estimó que la incidencia de cáncer de próstata en los Estados Unidos fue de 186.300 nuevos casos, lo que corresponde al 25 % de todos los cánceres en el varón, seguido del cáncer de pulmón que supone el 15 %. Según dicha estimación, el cáncer de próstata en este país tiene una tasa de mortalidad de 28.660 casos al año, que corresponde al 10 % de todas las muertes por cáncer en el hombre, tan solo precedido del cáncer de pulmón, que constituye el 31%. Se estima que en USA, en el año 2025, serán 350.000 casos de cáncer de próstata y 300.000 de cáncer de pulmón.

Desde el desarrollo de la prostatectomía radical, existe un creciente interés por parte del urólogo en compensar los efectos deletéreos de la cirugía radical en el tratamiento del cáncer de próstata. A saber: incontinencia urinaria y disfunción eréctil.

Posibles efectos de la cirugía

Tras prostatectomía radical por adenocarcinoma de próstata, las tasas de incontinencia publicadas varían del 5% al 60%. Las políticas de screening y diagnóstico precoz del cáncer de próstata desarrolladas en las últimas décadas con el advenimiento del PSA (Antígeno Prostático Específico), han convertido a la prostatectomía radical en uno de los procedimientos más frecuentes en la especialidad de urología.

Con el refinamiento de la técnica quirúrgica descrita por Walsh y Mostwin, los resultados en términos de potencia sexual mejoraron ostensiblemente. No obstante, los procedimientos quirúrgicos más exigentes que mejoran los resultados funcionales consiguieron una popularización dentro de la comunidad urológica limitada. Las grandes series compuestas de grandes series personales, alcanzan tasas de preservación de la potencia tras cirugía radical de próstata del 70 al 86%. Sin embargo, las tasas medias de preservación en la comunidad urológica oscilan entre del 21 y el 50%. Esta situación se mantiene hoy en día a pesar del renovado interés por la función eréctil tras prostatectomía radical, gracias al advenimiento de la cirugía laparoscópica.

Solo una técnica depurada de preservación de erectores gracias a una constatada experiencia del cirujano, permite una mayor preservación de la potencia sexual, así como una mayor tasa de continencia urinaria. Al realizar el tratamiento de la disfunción eréctil tras cirugía radical de próstata, se deben definir dos situaciones distintas:

  • Tratamiento de la disfunción eréctil.
  • Rehabilitación de la función eréctil.

Cáncer de vejiga

En el marco de la cirugía urológica según enfermedad, el tratamiento de elección del cáncer vesical músculo invasivo es la cistoprostatectomía radical y derivación urinaria. Como consecuencia de este tratamiento radical, la norma suele ser la disfunción eréctil. En los casos en los que se realiza una neovejiga, la continencia urinaria constituye el principal factor de impacto en la calidad de vida de estos pacientes.

Cuando se busca una mejoría en la calidad de vida de estos pacientes, que son sometidos a una intervención quirúrgica que puede calificarse de mutilante, todo gesto por mejorar este objetivo es importante. Se han descrito factores que pueden influir en estos resultados:

  • Longitud del manguito uretral.
  • Conservación del suelo pelviano.
  • Edad del paciente.

De todos los factores descritos el más importante es la edad del paciente, por lo que habrá que tenerlo muy en cuenta a la hora de asentar indicaciones. Con la llegada de la cirugía laparoscópica se han descrito variantes técnicas para mejorar estos resultados.

Las técnicas de conservación de erectores también se pueden aplicar en estos pacientes con el mismo objetivo de mejorar tanto la continencia urinaria como conservar la función eréctil. Quizá, la variación técnica más importante en este sentido haya sido la conservación de la cápsula prostática, que, por un lado, mejora ostensiblemente los resultados de conservación de la función eréctil al no dañar los haces neurovasculares, y, por otro, garantiza prácticamente la continencia urinaria diurna suponiendo una enorme mejora en la continencia nocturna de los pacientes con neovejiga.

Avances en el tratamiento urooncológico

Así como en el caso de la prostatectomía radical, la urooncología ha logrado grandes avances en técnicas, tratamientos y cirugía urológica según enfermedad presentada, lo que mejora el pronóstico de los pacientes. Los índices de padecimiento de estas enfermedades van en aumento, lo que implica una necesidad de profesionales especializados en esta área. Por esta razón, en TECH Universidad Tecnológica hemos creado el Máster en Urooncología, un programa completo, actualizado y con cada vez más vigencia, que te permitirá potenciar tu perfil profesional.

También contamos con el Máster en Oncología Médica, uno de los ámbitos médicos que más rápido se actualizan y se solicitan. Otro de nuestros programas, el Máster en Psicooncología, te permitirá dar una atención eficaz y personalizada al paciente oncológico desde una óptica multidisciplinar.

Historia de la retina


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

En el campo de la oftalmología, en particular en el estudio y la cirugía de la retina, es fundamental conocer el desarrollo histórico de la comprensión de la retina, sus patologías y tratamientos. Así que en este artículo daremos una revisión a la historia de la retina desde la antigüedad hasta nuestros días.

Exploración histórica de la retina

El término retina

El término retina viene de la palabra latina rete, que significa red. Este término nace del médico griego de la Escuela de Alejandría Herófilo de Calcedonia, quien comparaba la retina con una «red que rodea al pescado», idea que Galeno copió y tradujo al latín. Avicenas aceptó el concepto llamándolo rescheth (parecido a una red) comparándolo con el hecho de que la retina rodea al vítreo y al cristalino como una red rodea a los peces recién pescados.

La palabra «retina» ha sido usada hasta la actualidad en el idioma inglés y en todas las lenguas romances. Es curioso que en otros idiomas como el alemán o el ruso se empleen, asimismo, palabras derivadas de “red”. Durante la Antigüedad se consideraba que el receptor visual de las imágenes era el cristalino y que la retina era solo una membrana rica en vasos sanguíneos que lo alimentaba y que, además, transportaba el «espíritu visual» hacia el nervio óptico. Los esquemas del ojo que ofrecieron Demócrito, Aristóteles, Celso o Galeno en la Edad Antigua y aquellos autores, generalmente árabes (Rhazes, Avicenas y Alhacen, entre otros), que durante la Edad Media se centraron en el cristalino, al que solían colocar en el centro del globo ocular.

Interés histórico por el estudio de la retina

El interés por la retina era relativamente pequeño, aunque a Galeno le llamó la atención sus semejanzas con el tejido cerebral y a Averroes que el fotorreceptor fuera la retina y no el cristalino. Las ideas de este último no fueron seguidas por nadie. De este modo, en la Edad Moderna, estudiosos de la anatomía ocular como Leonardo Da Vinci, Vesalio o incluso Chistofurus Scheiner −quien mostró el mejor esquema ocular hasta aquel momento−, siguieron considerando el cristalino como órgano receptor. En la primera década del siglo XVII, Kepler demostró a través de sus estudios ópticos, que las imágenes se forman en la retina, por lo que esta debía ser el tejido fotorreceptor. 

En la segunda mitad de siglo XVII, Guillermo Briggs encontró una estructura fibrosa en la retina y sugirió la teoría de que los rayos de luz producen un movimiento vibratorio de las fibras que, a través del nervio óptico, transmite las imágenes al cerebro. Ya en 1684, Leeuwenhoek, por medio de un microscopio que él mismo había fabricado, describió formaciones globulares, probablemente los conos y bastones, en la retina de la rana. Aun así, ni Kepler, ni Briggs ni Leeuwenhoek tuvieron seguidores.

A principios del siglo XVIII, Morgagni planteó que las fibras del nervio óptico eran precedidas por las de la retina. Este concepto lo apoyaría Zinn a mediados del mismo siglo, al encontrar, además de las fibras radiales, células globulares y una red fibrilar de sostén. A finales del siglo, Buzzi en Milán y Soemmerring en Gottingen, por separado, describen la fóvea: el primero la describió como un punto adelgazado y el segundo como un agujero rodeado por un reborde amarillo y sin vasos, al que supuso como responsable de la mancha ciega descrita por Mariotte en 1668.

Historia de la retina desde el siglo XIX

Ya en 1835, el alemán Gottfried Treviranus, gracias a la fijación alcohólica, fue capaz de dibujar los primeros esquemas de cortes transversales de la retina. Mostró un complejo sistema de capas al que, sin embargo, malinterpretó, cometiendo muchos errores como confundir las células ganglionares con los fotorreceptores. Usando ácido crómico como fijador, Kolliker y Muller describieron por primera vez la estratificación esencial de la retina, su sistema de sostén y la prueba de que los conos y bastones son los fotorreceptores. No obstante, pensaban que las fibras cruzaban todo el espesor de la retina desde estos y continuaban por el nervio óptico sin interrupción.

Por su parte, el sistema de tinción ideado por Golgi (1873) le permitió separar una neurona de otra, pero no individualizar las fibras nerviosas que, con dicha tinción, formaban una red interconectada en todo el sistema nervioso y, por tanto, en la retina. La teoría neuro-sincitial de Golgi fue seguida por muchos autores, incluso hasta después de la muerte de Ramón y Cajal en 1934. En 1889, este último presentó en el Congreso de la Sociedad Anatómica de Berlín, los estudios que demostraban su teoría de la despolarización dinámica de la neurona, formulada dos años después: el impulso nervioso sigue la dirección dendrita, cuerpo de la neurona, axón, dendrita o cuerpo de la siguiente neurona, conectando una neurona con otra a través de sinapsis. Ramón y Cajal también estudió la retina e identificó las clásicas 10 capas.

Los trabajos del croata Stephen Polyak (1941-1957) con retinas de primates y humanos, llevaron prácticamente a la concepción actual de esta, solo mejorada por las observaciones con microscopio electrónico.

Tratamiento por vitrectomía

Desde que Von Graefe extrajera un cuerpo extraño con unas pinzas a través de pars plana y cortase membranas vítreas con agujas de discisión, los autores que actuaron de una u otra forma sobre el vítreo han sido muchos. Lo mismo que hizo Von Graefe lo hicieron Bull (1888), Michaelson (1960) y Dodo (1964).

La época moderna de la cirugía vítrea se inicia con Kasner, quien desarrolló la vitrectomía «a cielo abierto» como consecuencia de sus observaciones en traumatismos oculares. Observó que el ojo tolera bien la pérdida parcial del vítreo y su sustitución por suero fisiológico. También pudo saber que la incarceración del vítreo en la herida después de un traumatismo, la cirugía de la catarata o una queratoplastia son responsables de complicaciones como inflamación, desviaciones pupilares, desprendimiento de retina o edema macular.

Tratamiento por láser

Ya en la Antigüedad Clásica se conocía el efecto nocivo que podía tener la luz solar sobre los ojos. Sócrates aconsejaba observar los eclipses solares cuando se reflejan en un estanque. Bonetus describió por primera vez un escotoma central originado por mirar un eclipse. Deutschmann, en 1882, mediante espejos y lupas, produjo lesiones de retinitis en la retina de algunos conejos.

En 1949, Meyer−Schwickerath fabrica un instrumento con un telescopio y un oftalmoscopio de imagen invertida (espejo cóncavo), con el que consigue fotocoagular retinas humanas al concentrar la luz solar. Mayer fracasó con los arcos de carbono, pero fue capaz de fabricar el primer fotocoagulador de arco de xenón −montado en un oftalmoscopio de imagen recta− en 1956. Los impactos que originaba eran muy grandes, lo que favorecía a la retina periférica, pero no tanto la mácula. Este tipo de fotocoaguladores de xenón se usaron hasta finales de los años 70 y principios de los 80 para hacer panfotocoagulaciones, sellar desgarros o tratar lesiones vasculares, coriorretinitis o tumores en la periferia.

Tratamiento quirúrgico de la retina

En el desarrollo reciente de la historia de la retina, se han encontrado novedosas formas de tratamiento quirúrgico como vitrectomías sin sutura o cirugías por láseres subumbrales. Estas técnicas se acompañan de hallazgos médicos y una mejor comprensión de las estructuras del ojo. En TECH Universidad Tecnológica hemos diseñado el Máster en Patología y Cirugía de la Mácula, Retina y Vítreo. Un programa de primer nivel que te permitirá actualizar tus conocimientos en la materia e implementarlos en tu práctica diaria.

En la universidad con mayor oferta de posgrado digital del mundo te ofrecemos el Máster en Oftalmología Clínica, que pone a tu alcance los diagnósticos y tratamientos descubiertos más recientemente. También, el Máster en Neurooftalmología, un programa único que te permitirá ahondar en la relación entre neurología y oftalmología, ampliará tu área de abordaje médico.

Regulación de la ingesta


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

Aunque se está lejos aún de conocer a la perfección la complejidad de los mecanismos que controlan la regulación de la ingesta y el balance energético, la identificación creciente de nuevas moléculas implicadas y un mejor conocimiento de sus acciones, puede ayudar a entender mejor las patologías como la obesidad e implementar así su intervención en campos como la nutrición deportiva. En este artículo trataremos el marco general de la ingesta y su regulación.

Hambre, apetito y saciedad

El hambre, el apetito y la saciedad son tres conceptos que juegan un papel fundamental en la regulación de la alimentación.

Hambre

El hambre es el deseo y necesidad de ingerir alimento, sin que este deseo sea discriminatorio. Se trata de una necesidad fisiológica de supervivencia, pudiendo aparecer contracciones de estómago después de horas de ayuno que en ocasiones pueden ser dolorosas. Se han propuesto distintas teorías en torno a cómo se origina la sensación de hambre:

  • La teoría de la contracción de estómago propuesta por Cannon y Washburn, plantea que la sensación de hambre aparece cuando se contrae el estómago.
  • La teoría glucostática de Mayer, sugiere que la sensación de hambre se inicia cuando bajan los niveles de glucosa en la sangre y termina cuando aumenta la glucemia.
  • La teoría lipostática de Kennedy, sugiere que son las señales que provienen del tejido adiposo las que controlan la alimentación y mantienen el peso corporal, ya que estas son detectadas por receptores hipotalámicos.
  • La teoría aminostática propone que es el déficit de aminoácidos en la sangre el que origina la sensación de hambre.
  • La teoría de la producción de calor postula que se siente hambre cuando la temperatura corporal baja.

Apetito

El apetito se define como un antojo o elección de comer un determinado alimento.  La presentación de los alimentos, la oportunidad para ingerirlos, la textura o el olor entre otros pueden generar la sensación de apetito que se da en base a conductas aprendidas.

Saciedad

La saciedad es un estado de inhibición de la sensación de hambre. La llegada de alimentos al tracto gastrointestinal produce señales mecánicas como la distensión del estómago y señales químicas que, a través de receptores (osmorreceptores y quimiorreceptores), generan un potencial de acción. Este potencial de acción se conduce a través de vías que llevan al nervio vago hasta el núcleo del tracto solitario (área del tallo encefálico) y al núcleo ventromedial, para producir el efecto de saciedad.

Los nutrientes circulantes y sus niveles de oxidación también influyen en la saciedad. Las proteínas son los nutrientes con mayor efecto de saciedad. Esto se debe en parte a la capacidad de estimular la secreción de CCK. Por otro lado, los lípidos tienen un efecto muy pobre sobre ella. Los carbohidratos incrementan la saciedad a corto plazo, no solo por la distensión gástrica y la estimulación de receptores en el intestino, sino porque la liberación de insulina dependiente de glucosa inhibe a los péptidos orexígenos hipotalámicos.

El hipotálamo en la regulación de la ingesta

El hipotálamo es una pequeña región anatómica del cerebro situada debajo del tálamo. Se trata de una estructura muy heterogénea en la que se localizan diferentes núcleos implicados en la regulación de distintas funciones como la memoria y la homeostasis del organismo. La anatomía de estos núcleos es muy compleja debido a la gran cantidad de ellos. Destacan el núcleo arcuato (ARC), el núcleo paraventricular (NPV), el núcleo ventromedial, el núcleo dorsomedial (NDM) y el área hipotalámica lateral. Estos núcleos reciben e integran multitud de señales provenientes del sistema nervioso y de origen periférico que regulan el hambre y la saciedad. Estas señales nerviosas y de tipo hormonal procedentes del aparato digestivo y del tejido adiposo regulan la ingesta en base a las necesidades del organismo.

En 1951, se observó en roedores, que las lesiones en el hipotálamo ventromedial producían hiperfagia y obesidad, por lo que esta zona recibió el nombre de “centro de la saciedad”. Por otro lado, las lesiones laterales provocaban afagia y pérdida de peso, por lo que se pensó que esta zona del hipotálamo era la encargada de provocar el hambre y por eso se la llamó “centro del hambre”. Actualmente se sabe que esta versión es demasiado simplista, ya que también existen otras zonas cerebrales además de estas como la corteza cerebral y el tallo cerebral, que, junto a señales químicas, péptidos y hormonas, juegan un papel decisivo en la regulación de la ingesta y del balance energético.

Por tanto, se puede decir que la homeostasis corporal depende de una regulación central a través de regiones hipotalámicas y regiones no hipotalámicas como el núcleo del tracto solitario y también de un control periférico, que, a través de señales procedentes del sistema gastrointestinal y endocrino, entre otros, informan al sistema nervioso central de las reservas energéticas del organismo.

Hormonas informativas del estado nutricional

Insulina

Es una hormona secretada por las células β del páncreas, que tiene un papel fundamental en el metabolismo. Sus niveles circulantes son proporcionales al volumen de tejido adiposo como ocurre con la leptina, por lo que al igual que esta interviene en el control hipostático de la ingesta. La insulina tiene un papel complejo ya que, por un lado, estimula la actividad de señales de saciedad como la CCK y por otro, atraviesa la barrera hematoencefálica inhibiendo la expresión del NPY produciendo un efecto anorexígeno. También favorece el aprovechamiento de los nutrientes y la deposición de grasa en el tejido adiposo.

Leptina

La leptina es una adipocina que reduce la ingesta de alimentos e incrementa el gasto energético, informando al hipotálamo de las reservas grasas. Aunque esta proteína es producida principalmente en el tejido adiposo, también se ha identificado en lugares como la placenta, el estómago o el cerebro. Los niveles circulantes de leptina son directamente proporcionales a los depósitos de grasa corporal y reflejan el balance energético, de manera que las células de tejido adiposo sintetizan y secretan leptina en relación con los almacenes de grasa corporal.

La leptina segregada por el tejido adiposo atraviesa la barrera hematoencefálica para actuar como una señal indicadora de las reservas energéticas, interactuando con su receptor especifico en el hipotálamo a nivel del núcleo arcuato donde inhibe la síntesis y liberación de los péptidos orexígenos AGRP y NPY, mientras que estimula la síntesis y liberación de péptidos anorexígenos como el CART y POMC. Por lo tanto, presenta un efecto inhibidor del apetito y desempeña un papel importante en la regulación de la ingesta, estableciendo una relación entre el cerebro y el metabolismo energético.

Hoy día se sabe que la leptina no solo participa en el control de la alimentación y del gasto energético, sino que también participa en la reproducción, en la función inmune o el tono vascular, entre otros. La secreción de leptina tiene un ritmo biológico circadiano, alcanzando su secreción máxima durante la noche y mínima por la mañana.

El caso de la nutrición deportiva

Comprender a fondo los conceptos relativos a la regulación de la alimentación y el balance nutricional ofrece distintos usos médicos, entre ellos, la atención a pacientes deportistas para potenciar su rendimiento. Si quieres explorar a profundidad los conocimientos actualizados en la materia, en TECH Universidad Tecnológica tenemos para ti el Máster en Nutrición Deportiva en Medicina. Este programa te permitirá guiar al deportista de manera óptima en materia nutricional.

Entre los programas de nuestra oferta podrás encontrar el Máster en Nutrición Deportiva Terapéutica y el Máster en Microbiota Humana. Nuestros Programas son 100 % virtuales y aprovechan las tecnologías más avanzadas en e-learning y entornos de aprendizaje remoto. Con ello podrás darle un equilibrio a tu vida personal, laboral y académica.

Microbiota intestinal


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

La microbiota intestinal humana normal tiene funciones metabólicas y nutricionales, de protección antimicrobiana o de mantenimiento en la integridad de la mucosa intestinal y regulación de la respuesta inmune. Por lo tanto, su estudio es fundamental en el contexto de la medicina y la nutrición clínica. Cualquier pérdida de equilibrio en la microbiota, desencadenará una serie de efectos nocivos que culminarán en el desarrollo de diversas patologías.

Microorganismos en el tracto gastrointestinal

El tracto gastrointestinal (GI) de los seres humanos y otros mamíferos, es un órgano complejo cuya función principal consiste en la absorción de los diferentes nutrientes, así como proteger de amenazas provenientes del exterior. Desde la boca hasta el ano, más de 10 trillones de microorganismos habitan normalmente en el tracto GI de cada ser humano.

El tracto GI posee una microbiota autóctona, que varía mucho entre individuos, pero no tanto dentro de un sujeto a lo largo del tiempo. Esta variación depende de cada región anatómica específica y puede verse afectada por la edad, la alimentación y el consumo de antibióticos. Gran parte de los microorganismos se encuentran de forma permanente en el intestino humano y son denominados nativos o indígenas. Otros solo aparecen de forma transitoria. El ser humano nace estéril y adquiere la colonización bacteriana inmediatamente después del nacimiento, fundamentalmente a partir de la madre y el entorno ambiental. Estas bacterias se ingieren continuamente del ambiente, fundamentalmente a partir de los alimentos.

La colonización de las áreas anatómicas depende de diferentes condiciones fisicoquímicas locales como el pH, la temperatura, la humedad y los niveles de oxígeno. La relación de los microorganismos con el huésped es simbiótica y puede ser de tres tipos:

  • Comensalismo: los microorganismos utilizan el ambiente del huésped para obtener nutrientes. Normalmente son inofensivos, pero pueden convertirse en perjudiciales si las condiciones medioambientales cambian de alguna forma.
  • Mutualismo: tanto los microorganismos como el huésped resultan beneficiados.
  • Parasitismo: este tipo de relación simbiótica es beneficiosa sólo para el parásito, y resulta perjudicial para el huésped.

Microbiota como superorganismo

El estómago y el duodeno contienen un número más reducido de microorganismos, habitualmente menos de 103 células bacterianas por gramo de contenido.  Las secreciones ácidas, biliares y pancreáticas destruyen la mayor parte de los microorganismos ingeridos y el peristaltismo dificulta la colonización del intestino delgado. El número de bacterias aumenta progresivamente a lo largo del yeyuno e íleon, desde alrededor de 104 en el yeyuno hasta 107 por gramo en el íleon, con un predominio de aerobios gramnegativos y algunos anaerobios obligados. En el colon, el tiempo de tránsito es lento (de 2 a 4 días), lo que permite a los microorganismos proliferar. El colon está fundamentalmente poblado de anaerobios y los recuentos de bacterias alcanzan alrededor de 1011 unidades formadoras de colonias por gramo de contenido.

Hoy en día, la microbiota GI se considera un sistema biológico dentro del cuerpo humano, utilizando el término “superorganismo” para definir la sólida asociación entre los tejidos y los millones de microorganismos que habitan en ellos. Las funciones del tracto GI relativas a la nutrición y la defensa dependen no solo de las estructuras propias (barrera mucosa, glándulas secretoras, sistema inmune de las mucosas), sino también de la presencia y actividad de los microorganismos que colonizan el intestino. La microbiota es un órgano perfectamente integrado en la fisiología del individuo, capaz de colaborar en el mantenimiento de la homeostasis del ser humano en relación al medio externo.

Concepto de microbiota

En los últimos años, la investigación biomédica ha avanzado en el conocimiento de la microbiota intestinal (flora intestinal hasta 2014). El término microbiota hace referencia a la comunidad de microorganismos vivos residentes en un nicho ecológico determinado como el intestino grueso o colon humano. La microbiota residente en el intestino es una de las comunidades más densamente pobladas. En el intestino grueso de los mamíferos la cifra de microorganismos se eleva a 1012-1014. Este número es mayor, incluso, que el de células humanas.

El microbioma es el conjunto formado por los microorganismos, sus genes y sus metabolitos en un nicho ecológico. El microbioma humano se refiere a la población total de microorganismos con sus genes y metabolitos que colonizan el cuerpo humano, incluyendo el tracto GI, el genitourinario, la cavidad oral, la nasofaringe, el tracto respiratorio y la piel.

Proyecto del Microbioma Humano

El Proyecto del Microbioma Humano ha identificado aproximadamente al 30 % de la microbiota intestinal, junto con el proyecto Metagenómica del Tracto Intestinal Humano en Europa. Muchos otros grupos trabajan activamente para identificar todos los genes de la microbiota.

  • El Metagenoma es todo el material genético presente en una muestra ambiental, en este caso, el conjunto del genoma humano y bacteriano (microbiano, en general).
  • Los patobiontes son los microbios endógenos benignos que tienen la capacidad, en condiciones de un ecosistema alterado (disbiosis), de provocar determinadas patologías.
  • Holobionte, también llamado superorganismo, hace referencia a la totalidad de organismos en un ecosistema dado (en este caso, los seres humanos y el ecosistema microbiano). Los seres humanos son, de hecho, superorganismos gobernados, en parte gracias a los microorganismos que hospedan.
  • Las alteraciones de la microbiota intestinal y la respuesta adversa del huésped a estos cambios, se ha denominado disbiosis.

Microbiota intestinal

La mayoría de las bacterias, más del 90 %, residen en el colon. Se estima que el volumen de bacterias residentes allí es de unas 1011 por gramo. Considerando que el volumen del colon es de unos 0,4kg (400g), se concluye que hay en torno a 3,8 x 1013 (38 billones) de bacterias en el colon en un “hombre de referencia”, entendiendo por este a un varón de entre 20 y 30 años, con un peso en torno a los 70 kg y una altura de unos 170 cm. No parece que, de niño a anciano, las concentraciones bacterianas del colon se modifiquen de forma significativa a lo largo del tiempo.

En cuanto al número de células humanas, se ha estimado de forma global que en un hombre adulto estándar existen unas 3 x 1013, unos 30 billones, el 84% de las cuales (25 x 1012) son eritrocitos. Podría pensarse que el hombre es un transportador de bacterias. Con estos números, la ratio entre bacterias y células humanas es de aproximadamente 1,3 (en un varón de 70kg), es decir, casi 1:1.  Por otro lado, se ha estimado que la masa/peso total de las bacterias del colon es, aproximadamente, la mitad del peso de este, esto es, unos 200g (entre 50 y 100g en peso seco), considerando que el colon tiene un peso próximo a los 400g. Dicho representa un 0,3 % del peso corporal total.

El estudio del microbioma ha presentado varias dificultades en el pasado: no todos los microorganismos son fáciles de cultivar, por lo tanto, proporcionan una visión sesgada de la microbiota fecal.  Sin embargo, la aparición de las técnicas modernas de estudio del material genético ha revolucionado el conocimiento del microbioma.

Estudios avanzados en microbiota humana

La microbiota intestinal y el ser humano conviven en un estado de perfecta relación simbiótica y equilibrada. Si por algún motivo este equilibrio se rompe, podría ser el punto de partida en el desarrollo de una gran variedad de estados patológicos. Por esta razón, en TECH Universidad Tecnológica te ofrecemos el Máster en Microbiota Humana. Se trata de un programa completo y actualizado, que te permitirá profundizar en la comprensión de esta parte tan importante para lograr la salud del ser humano.

Entre los programas relacionados puedes encontrar el Máster en Nutrición Clínica en Medicina, con el que aprenderás a dar atención de primer nivel al paciente a través de su estudio alimentario. También encontrarás el Máster en Nutrición Genómica y de Precisión, un programa enfocado los últimos avances de la nutrigenómica, una de las especialidades más recientes y cada vez más populares de la medicina.

La enfermedad de Alzheimer y demencia


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

La enfermedad de Alzheimer es el tipo más común de demencia. Ambos conceptos están íntimamente ligados, tanto en su concepto como en su desarrollo histórico. Para dar una mejor aproximación a ambos conceptos, es necesario revisar sus orígenes, sus características y el desarrollo de los mismos desde la literatura especializada. De este modo se podrá dar un tratamiento clínico más acertado.

Concepto de enfermedad de Alzheimer

Origen del concepto

En 1906, Alois Alzheimer describe las características clínicas y anatomopatológicas de una paciente, Auguste D, que a los 51 años desarrolló un cuadro clínico progresivo que incluía deterioro de la memoria, desorientación temporo-espacial, afasia, apraxia, agnosia, delirio celotípico e incapacidad para la realización de las actividades de la vida diaria. Tras cinco años de evolución y tras permanecer ingresada en el Institución para enfermos mentales y epilépticos de Frankfurt, la paciente fallece. Alois Alzheimer lo describía así:

«[…] cambios desde hace medio año, delirio celotípico, disminución de la memoria muchas veces para preparar la comida. Divaga por la casa sin sentido. Miedo a personas muy conocidas. Esconde todo tipo de objetos que luego no es capaz de encontrar […]. Hablando emplea parafasias y palifrasias. Al escribir omite letras y sílabas».

El cuadro fue publicado en 1910 por Emil Kraepelin, durante la octava edición del Kompendium der Psychiatrie, quien lo definió como una demencia presenil degenerativa y le acuñó el término «enfermedad de Alzheimer». Se trataba por tanto de un caso de senium praecox, senilidad precoz o demencia precoz, por lo que Kraepelin restringía la enfermedad a los casos que se iniciaban antes de los 65 años de edad. En aquel entonces, los trastornos cognitivos seniles eran atribuidos a factores esencialmente vasculares. Se consideraba que se producían como consecuencia de la arteriosclerosis (endurecimiento de las arterias), que provocaba alteraciones en la oxigenación del cerebro.

Desarrollo del concepto de la enfermedad

Desde el caso inicial de 1906, el concepto de enfermedad de Alzheimer ha sufrido cambios y se ha ido modificado progresivamente. En 1955, sir Martin Roth publicó una investigación fundamental para el estudio científico de la demencia, en la que se establecían las semejanzas entre la demencia senil y la presenil (es decir, anterior a los 65 años). Más tarde, el grupo de Roth hizo una nueva aportación al demostrar la relación existente entre la gravedad de la demencia y el número de placas seniles y ovillos neurofibrilares presente en determinadas áreas cerebrales. Estos mismos autores demostraron la relación entre el volumen del tejido cerebral lesionado (infartado) y la intensidad de la demencia vascular.

En 1978, Katzman y sus colaboradores, insistieron en la importancia de evitar la distinción entre demencia senil y demencia presenil. En 1984, aparecen los primeros criterios de consenso para el diagnóstico de la enfermedad de Alzheimer (EA), conocidos como criterios NINCDS/ADRDA y se introducen por primera vez los conceptos de enfermedad de Alzheimer «probable», «posible» y «definitiva» (McKhan y colaboradores, 1984). Posteriormente, en 1985, el National Institute of Aging crea los diez primeros centros de investigación sobre la enfermedad de Alzheimer en Estados Unidos, y poco después se crea el CERAD (Consortium to Establish a Registry for Alzheimer Disease), que estableció también criterios de trabajo. Esta sistematización de criterios de trabajo ha permitido mejorar notablemente la fiabilidad de los diagnósticos clínicos.

Origen del término y definición de demencia

El término demencia deriva de la raíz latina mens-mentis que significa inteligencia, entendimiento o espíritu, por lo que el término dementia/amentia significa “ausencia o privación de mente, inteligencia o espíritu”. La existencia de esta ambigüedad etimológica a nivel de la raíz mens, dio lugar a diversas, e incluso opuestas consideraciones acerca de su significado, cuya amplitud conceptual ha variado desde el sentido más filosófico de J.C. Heinroth, quien la definió como “perturbación del alma.”, hasta la tendencia más cerebral y organicista representada por T. Sydenham, G. Morgagni, J.E. Esquirol y otros.

Este último en su libro Des maladies mentales considerées sous les raptors medical, hygiénique et medico-legal (París, 1838) definió la demencia como: “Afección cerebral, normalmente sin fiebre y crónica, caracterizada por un debilitamiento de la sensibilidad, de la inteligencia y de la voluntad; siendo los signos de esta enfermedad incoherencia de las ideas y la falta de espontaneidad intelectual y moral”.

Entre las definiciones más actuales, están las siguientes:

  • “Deterioro persistente y adquirido de las funciones intelectuales con compromiso de al menos tres de las siguientes esferas de la actividad mental: lenguaje, memoria, habilidades visuoespaciales, emoción o personalidad y cognición” (Cumming, 1980).
  • “Declinar de la memoria y otras funciones cognitivas en comparación con el nivel funcional previo del paciente determinado por una historia de declinar funcional y por anomalías notadas a partir del examen clínico y test neuropsicológicos” (McKhann, 1984).
  • “Síndrome orgánico adquirido que ocasiona, en un paciente consciente, un deterioro persistente, global y severo de las funciones intelectuales, de al menos 6 meses de evaluación, que repercute sobre las actividades socio-laborales del paciente” (Pérez Trullén, 1995).

Características de la demencia

La demencia no es una enfermedad ni un síntoma, es un síndrome clínico: un conjunto de síntomas y signos de etiología orgánica. Es decir, la demencia es una afectación más o menos difusa a nivel bioquímico, fisiológico y morfológico en determinadas estructuras cerebrales, que perjudica las funciones cognitivas y altera las capacidades funcionales del sujeto, pero no afecta su nivel de conciencia.

Tres son las denominadas funciones cognitivas:

  • Funciones cognitivas fundamentales: memoria inmediata, reciente, remota, episódica, semántica, atención y concentración. Se implican en ellas las estructuras del tronco (sistema reticular ascendente), el sistema hipocámpico-límbico y los circuitos frontosubcorticales cingular y órbitofrontal.
  • Funciones cognitivas instrumentales: lenguaje, praxias (idemotoras, constructivas, manuales), gnosias y cálculo. Se implican en estas funciones la región neocortical parietal, frontal y temporal.
  • Funciones cognitivas ejecutivas: programación, planificación y ejecución de nuestras conductas. Están localizadas en los circuitos dorsolateral, orbitofrontal y cingular anterior.

La demencia clínica, se caracteriza por ser un proceso progresivo de deterioro cognitivo y funcional de inicio insidioso al que en el trascurso del tiempo pueden asociarse alteraciones psicóticas y de la conducta. Con la progresión del cuadro clínico, las actividades básicas como comer o vestirse pasan de una afectación ligera a una afectación total, haciendo que el paciente sea completamente dependiente. Existen diversos sistemas de clasificación de las demencias. Los más utilizados son aquellos que, siguiendo criterios etiopatológicos, las relacionan con la localización de las alteraciones patológicas a nivel cortical, subcortical y de modo mixto.

Actualización en demencias

El avance en la comprensión de las causas y el manejo clínico de las demencias ha aumentado considerablemente en los últimos años. Se han producido grandes cambios técnicos, científicos y médicos que permiten hoy en día ofrecer un tratamiento integral, especializado y multidisciplinario al paciente de la enfermedad de Alzheimer u otras demencias. En TECH Universidad Tecnológica hemos preparado el Máster en Demencias, un programa completo y actualizado que te permitirá las herramientas para dominar el aprendizaje de este tipo de enfermedades neurodegenerativas desde una óptica actual y multifocal.

Si deseas ofrecer un cuidado integral y personalizado a las enfermedades neurodegenerativas en general, desde las bases genéticas a las proteómicas, contamos con el Máster en Enfermedades Neurodegenerativas. Por otro lado, si deseas estar al tanto del crecimiento exponencial en el diagnóstico y tratamiento neurológico, te ofrecemos el Máster en Actualización en Neurología.

Función de la Unidad de Sueño


Warning: strpos() expects parameter 1 to be string, array given in /home/site/wwwroot/wp-content/themes/twentynineteen-child/functions.php on line 163

Una unidad de sueño se define como una entidad, generalmente multidisciplinar, formada por personal técnico y de enfermería especializado y equipos médicos y no médicos (como psicólogos), cuyo objetivo es el diagnóstico y el tratamiento de los trastornos de sueño, así como su seguimiento y control. La unidad de sueño está estructurada con una forma de trabajo en red, conformado por múltiples especialistas enfocados en la atención global del paciente con trastorno de sueño-vigilia.

¿Para qué existen las Unidades de Sueño?

Durante mucho tiempo, las unidades de sueño han funcionado como un conjunto de especialistas relacionados con patología del sueño, que trabajaban de forma individual en cuanto a la especialidad médica implicada. Cabe destacar la actividad en este campo de especialistas en neumología, neurofisiología clínica, neurología, otorrinolaringología, pediatría, cirugía maxilofacial, psiquiatría, psicología e incluso odontología. Este concepto ha cambiado en los últimos años, pudiendo afirmar, que en general, se ha convertido en modelo de trabajo multidisciplinar.

Una unidad de medicina del sueño debe estar integrada en una red en donde intervienen diferentes eslabones sanitarios: desde los médicos de atención primaria hasta los especialistas extrahospitalarios, desde los centros locales a los de referencia. Es decir, cuando una enfermedad es tan prevalente como lo son muchos de los trastornos de sueño, todos los niveles asistenciales deben estar implicados, todos ellos con sus derechos y deberes por el beneficio del paciente, siendo el paciente el eje central del trabajo en red.

En muchos hospitales, dicha forma de trabajo puede estar definida por una vía clínica. Las vías clínicas son planes asistenciales que se aplican a enfermos con una determinada patología que presenta un curso clínico predecible. Las vías clínicas (clinical o critical pathways) también se denominan mapas de cuidados (care maps), guías prácticas, protocolos de atención (care protocols) atención coordinada, vías de atención integrada (integrated care pathways), vías de atención multidisciplinaria (multidisciplinary pathways of care), programas de atención colaborativa, vías de alta anticipada (anticipated recovery pathways), o vías de atención o gestión de casos clínicos.

Vías clínicas

Una vía clínica permite integrar las herramientas para la sistematización de procesos asistenciales en sanidad como las guías clínicas, los protocolos, o los procedimientos normalizados de trabajo. Por eso son fundamentales para disminuir la variabilidad en la práctica clínica.

Las vías coordinan y ensamblan todas las dimensiones de la calidad asistencial: tanto los aspectos relevantes para profesionales sanitarios (calidad científico-técnica, optimización de la atención y coordinación entre profesionales sanitarios) como los aspectos que valoran los enfermos (información, participación y ajuste de las expectativas), así como los aspectos importantes para los gestores (eficiencia, evaluación continua y gestión de costes). Esta es una forma de adaptar las guías de práctica clínica o los protocolos a la práctica real. Es decir, las vías clínicas son la versión operacional de las guías clínicas.

En los últimos años, diferentes sociedades científicas han desarrollado un nuevo enfoque en relación con a la forma de proceder con los trastornos del sueño. En este enfoque se afirma que «El sueño entra en una nueva dimensión». Desarrollado a partir del año 2018, es un proyecto necesario y pionero hasta la fecha, cuyos ejes principales pueden resumirse en cuatro aspectos:

  • Optimiza procedimientos.
  • Impulsa el trabajo en red colaborativa.
  • Define el mejor uso de las técnicas de información y comunicación (TIC) que incluyen la telemedicina.
  • Considera el sueño como uno de los pilares de la salud, pudiendo, en un sentido amplio, actuar sobre el primero para mejorar esta última.

Implementación del nuevo enfoque

Cada unidad de sueño debería tomar nota de estos ejes principales y adaptarlos a sus medios, a su centro de trabajo y a su entorno sanitario (público, privado, concertado mixto…). Por un lado, es preciso optimizar los métodos diagnósticos implementando, cuando así sea posible, el uso de sistemas simplificados de diagnóstico como polígrafos respiratorios de diversa complejidad, actigrafía, etc. Incluso, dependiendo del nivel, pueden implementarse supersimplificados (pulsioximetría), que permitan diagnosticar al máximo número de paciente. Ello permite reservar las pruebas más completas como la polisomnografía (PSG) para pacientes que así las requieran, con el propósito de ser más eficientes, minimizar listas de espera y gastos sanitarios superfluos.

Por otro lado, se debe impulsar el trabajo colaborativo añadiendo diferentes especialidades que se han integrado recientemente al abordaje de la patología del sueño, por ejemplo, odontólogos y cirujanos orales en cuanto a terapias de avance mandibular. Cada unidad debe realizar también un esfuerzo por actualizar su organización al trabajo en equipo entre el personal sanitario, los técnicos, las empresas suministradoras de terapias respiratorias en domicilio (TRD) y las empresas de mantenimiento de aparataje y de material consumible del mismo.

La patología del sueño es una oportunidad para poner en marcha proyectos de tele monitorización útiles para, por ejemplo, disminuir el número de visitas presenciales a las unidades, además de poder detectar con mayor inmediatez a pacientes que incumplan su terapia. Por último, las unidades de sueño deben ser parte activa, más allá del día a día de la actividad asistencial, en tareas de divulgación en todos los formatos existentes para promocionar la adecuada de la higiene de sueño como base fundamental para promover la salud y trasmitir la importancia que los efectos de los trastornos de sueño producen sobre la misma.

Acreditación de centros y profesionales

Los trastornos del sueño forman parte de un grupo de enfermedades que, por su creciente prevalencia y sus consecuencias sociosanitarias, se consideran cada vez más seriamente como un problema de Salud Pública. Estudios recientes, muestran prevalencias de estos trastornos que rondan cifras de 31 % en mayores de 15 años, con importante impacto negativo en su calidad de vida. Pese a ello, sorprende que menos de la mitad de estos sujetos hayan buscado ayuda médica, bien porque no son conscientes de que la necesitan o bien porque no saben dónde acudir.

Dichos datos concuerdan con la mayoría de estudios que afirman que, pese a la gran prevalencia de trastornos de sueño en la población, estos están infradiagnosticados con enorme variabilidad dependiendo de continentes, zonas geográficas o centros de referencia. En esta situación, es sumamente importante que los diferentes centros de medicina del sueño, cada uno en la medida de sus posibilidades, se organicen de manera activa, a la vez que exista una unificación de criterios de diagnóstico, seguimiento y tratamiento de los muy diferentes perfiles de pacientes que acuden a los mismos.

La acreditación, tanto de Centros de Medicina del Sueño como del personal que trabaja en ellos, es una de las herramientas esenciales para asegurar y mejorar el cuidado de los pacientes afectados por este tipo de trastornos. Se trata de una serie de procedimientos unificados y estandarizados entre diversos países que regulan todos los aspectos de logística, material, espacios, requisitos tecnológicos, indicaciones clínicas, seguimiento del paciente, capacidad de trabajo, etc., que los centros y su personal deben cumplir para conseguir un determinado nivel de acreditación.

Acreditación posgradual en Medicina del Sueño

Como hemos visto, gran parte del éxito de una unidad de sueño es la acreditación y la capacidad de los profesionales encargados. En TECH Universidad Tecnológica, la universidad virtual más grande del mundo, tenemos para ti el Máster en Medicina del Sueño. Con este programa podrás acceder a los conocimientos más completos y actualizados de esta especialidad, y así podrás llevar tu calidad profesional al siguiente nivel.

Entre los programas que ofertamos puedes encontrar el Máster en Actualización en Diagnóstico y Tratamiento Neurofisiológico, que te trae los avances exponenciales que la neurofisiología clínica ha experimentado en los últimos años. También podrás encontrar el Máster en Neuropsicología Clínica, centrado en el tratamiento clínico de pacientes con enfermedades neurodegenerativas como el Parkinson o el Alzheimer.