-Histórico
Vol 19 [2012]
Vol 18 [2011]
Vol 17 [2010]
Vol 16 [2009]
Vol 15 [2008]
Vol 14 [2007]
Vol 13 [2006]
Vol 12 [2005]
Vol 11 [2004]
Vol 9 [2002]
Vol 8 [2001]
Vol 7 [2000]
Vol 6 [1999]
-- > Num 6 [Nov]
-- Num 5 [Ago]
-- Num 4 [Jul]
-- Num 3 [May]
-- Num 2 [Feb]
-- Num 1 [Ene]
Vol 5 [1998]
-- Directorio de Autores
 
Portada > Vol 6 > Num 6 > Articulo 357    
     
Editorial  

 

Más sobre la analgesia epidural obstétrica.

Autores: Torres López , A ;

Codigo de referencia de este contenido:
Torres López , A ; :Más sobre la analgesia epidural obstétrica. Rev Soc Esp Dolor 6 (1999);6 :403 - 405
 

 

_Servicios

 

El artículo de revisión, escrito por un experto en la materia, debe proporcionar una síntesis fiable y accesible de los conocimientos actuales. Por desgracia, éste no es siempre el caso. En 1987, Mulrow destacó los defectos de la revisión narrativa convencional y de la forma en que se resumían sus conclusiones (Mulrow, 1987). En un artículo posterior, Mulrow tachó las revisiones tradicionales de “poco serias, sesgadas y sujetas a las impresiones idiosincráticas de cada revisor” (Mulrow, 1994).

La revisión sistemática es la respuesta a los posibles sesgos de la revisión narrativa. Presenta tres características principales. La más importante es el enorme esfuerzo que tiene que realizarse para localizar todos los informes originales que existan sobre el tema de interés. Se busca en las bases de datos de estudios publicados (p. ej., Medline, Psychlit), se consultan también las referencias citadas y, en ocasiones, se realiza una búsqueda manual en algunas revistas seleccionadas. El objetivo es asegurar que no se pierda nada de interés. En muchos casos, esta búsqueda revela que los resultados de algunos estudios han sido publicados por duplicado (Trainer y cols., 1997), de manera que tiene que realizarse una cuidadosa selección de los estudios. Seguidamente, los trabajos publicados se someten a una evaluación crítica para determinar la relevancia y la calidad de la investigación. Esta tarea no es nada sencilla. Los distintos diseños de los estudios se ordenan según una jerarquía de evidencias, con los ensayos aleatorios controlados en primer lugar, seguidos por los estudios de observación (primero estudios de cohortes, luego estudios de casos y controles). Los artículos de opinión de expertos, los estudios descriptivos y los informes ad hoc reciben menos peso en esta evaluación. Pero incluso dentro de un mismo tipo de diseño, la calidad puede variar, y se utilizan listas de comprobación de puntos clave (p. ej., Crombie, 1996) para realizar una evaluación más detallada de la calidad. Finalmente, se extraen conclusiones basándose en una síntesis de los estudios que cumplen ciertas normas de calidad.

En teoría, la revisión sistemática debe proporcionar un resumen fiable y objetivo de los conocimientos actuales. No obstante, algunos autores han manifestado sus dudas acerca de estas revisiones (Anónimo, 1995; Evans, 1995; Shuchman, 1996). En parte, estas críticas se centran en el carácter autoritario de las revisiones: si en una revisión se dice que un tratamiento es eficaz para una enfermedad, entonces todo el mundo debería utilizar dicho tratamiento con todos los pacientes que sufran esa enfermedad. ¿Pero podría estar equivocada la revisión? Todas las actividades humanas son falibles; existe la posibilidad de que, en ocasiones, la revisión esté equivocada. Por tanto, la cuestión clave es: ¿cómo saber si una revisión está equivocada?

Existen dos casos en los que una revisión puede estar equivocada. El primero de ellos es cuando la calidad de la revisión es mala. Hace ya tiempo se reconoció que no todas las revisiones sistemáticas se realizan correctamente (Sacks y cols., 1987). Este problema puede ser especialmente acusado en la investigación del dolor y un estudio reciente ha concluido que, cuando se evalúan intervenciones analgésicas, “el noventa por ciento de los metaanálisis presentan defectos metodológicos que pueden limitar su validez” (Jadad y McQuay, 1996).

El segundo problema de las revisiones sistemáticas es el sesgo de la publicación. Los estudios que obtienen resultados estadísticamente significativos tienen más probabilidades de ser publicados que los estudios que no los obtienen (Begg y Berlin, 1988; Easterbrook y cols., 1991). La gravedad de este problema es tal que más de 100 revistas médicas han declarado recientemente una amnistía para los ensayos clínicos no publicados (Smith y Roberts, 1997) en un intento de localizar los estudios que faltan. El problema es que los estudios que sugieren que un tratamiento es beneficioso tienen más probabilidades de ser publicados que los que demuestran que un tratamiento no produce ningún beneficio o incluso causa algún daño. De esta forma, la revisión sistemática de los estudios publicados daría lugar a una evaluación excesivamente optimista del beneficio de un tratamiento. Por ello, en todas las revisiones sistemáticas tiene que evaluarse cuidadosamente el esfuerzo que se ha realizado para localizar estudios no publicados y, en caso de que no se haya realizado ningún esfuerzo en este sentido, las conclusiones de la revisión tendrán que considerarse con más reservas.

La comparación de los resultados de revisiones sistemáticas con los resultados de grandes ensayos aleatorios permite estimar la frecuencia con que las revisiones pueden estar equivocadas. Se considera que el ensayo aleatorio es la mejor forma de evaluar la eficacia de un tratamiento. Desde luego, este tipo de ensayos se ven menos afectados por algunos de los problemas que plantean las revisiones sistemáticas, como el sesgo de la publicación y la heterogeneidad del diseño de los estudios. Dos estudios han comparado los grandes ensayos y las revisiones sistemáticas. Cappelleri y sus colaboradores (Cappelleri y cols., 1996), en un estudio de 79 revisiones, demostraron que, en más del 80% de los casos, sus conclusiones coincidían con las de los grandes ensayos clínicos. En otro estudio más pequeño se obtuvo un 65% de concordancia (LeLorier y cols., 1997). Estos estudios ayudan a situar las revisiones sistemáticas en su contexto: es posible que no siempre sean correctas, pero ofrecen una buena orientación en la mayoría de los casos. Además, puesto que las revisiones sistemáticas son un desarrollo reciente, cabe esperar que estos problemas iniciales se identifiquen y resuelvan, siguiendo una curva de aprendizaje similar a la observada cuando se introducen nuevas tecnologías médicas (Hatlie, 1993). Ya se han producido importantes avances metodológicos, como los métodos estadísticos para identificar la heterogeneidad entre estudios (Friedenreich, 1993; L’Abbé y cols., 1987) y una técnica gráfica para detectar el sesgo de la publicación (Egger y cols., 1997). En el futuro, la calidad de las revisiones sistemáticas debería mejorar a medida que siga perfeccionándose la metodología y se adquiera más experiencia en su uso.

En el presente artículo se han comentado algunas de las dificultades que plantean las revisiones sistemáticas. Sin embargo, estos problemas no deben exagerarse. La revisión sistemática supone un importante avance frente al anterior método de los artículos de revisión. Es la única que puede proporcionarnos un resumen objetivo y fiable de la investigación actual. Con todo, los resultados de una única revisión no deben considerarse fiables al cien por cien. Las revisiones sistemáticas proporcionan una buena evaluación de las evidencias disponibles, pero no se publican con un certificado de garantía. Siempre existirá la necesidad de las destrezas tradicionales, el sentido común y el juicio clínico para interpretar los resultados de una revisión.

B I B L I O G R A F Í A

Anonymous. Evidence-based medicille, in its place, Lancet, 346 (1995) 785.

Begg, C.B. and Berlin, J.A. Puhlication bias: a problem in interpreting the medical literature, J. R. Statist. Soc. A 151 (1988) 419-4 6 3 .

Cappelleri, J.C., Ionnidis, J.P.A., Schmid. C.H.. de Ferranti, S.D., Aubert, M., Chalmers, T.C. and Lau, J. Large trials vs meta-analysis ol smalller trials: how do their results compare? J. Am. Med. Assoc., 276 (1996) 1332- 1 3 3 8 .

Crombie, I. The Poeket Guide to Critical Appraisal, BMJ Publishing Group, London, 1996.

Easterbrook, P.J., Berlin, J.A., Gopalan, R. and Mathews, D.R., Publication bias in published rese-arch, Lancet, 337 (1991) 867- 8 7 2 .

E g g e r, M., Smith, G., Schneider, M. and Minder, C. Bias in meta-analysis detected by a simple, grap-hical test, Br. Med. J., 315 (1997) 629- ( 3 4 .

Evans, J.G. Evidence-based medicine and evidence-biased medieine, Age Aging, 24 (1995) 461- 4 6 3 .

Friedenreich, C.M. Methods ror pooled analysis of epidemiologic studies, Epidemiology, 4 (1993) 2 9 5-3 0 2 .

Hatlie, M.J., Climbing ‘the learning curve’: new technologies, emelging obligations, J. Am. Med. A s-soc., 270 (1993) 1364- 1 3 6 5 .

Jadad, A.R. and McQuay, H.J. Meta-analyses to evaluate analgesic interventions: a systematic quali-tative review of their methodology, J. Clin. Epidemiol., 49 (1996) 235- 2 4 3 .

L’Abbé, K.A., Detsky, A.S. and O’Rourke, K. Meta-analysis in clinical research, Ann. Intern. Med., 107 (1987) 224- 2 3 3 .

L e L o r i e r, J., Gregoire, G., Benhaddad, A., Lapierre, J. and Derderian, F. Discrepancies between me-t a-analyses and subsequent large randomised, controlled trials, N. Engl. J. Med., 337 (1997) 5 3 6-5 4 2 .

M u l r o w, C. Rationale ror systematic reviews, Br. Med. J., 309 (1994) 597- 5 9 9 .

M u l r o w, C.D. The medical review article: state of the science, Ann. Intern. Med., 106 (1987) 4 8 5-4 8 8 .

Sacks, H., Berrier, J., Reitman, D., A n c o n a-Berk, V. and Chalmers, T. Meta-analyses of randomised controlled trials, N. Engl. J. Med., 316 (1987) 450- 4 5 5 .

Shuchman, M. Evidence-based medicine debated, Lancet. 347 (1996) 1396.

Smith, R. and Roberts, I. An amnesty for unpublished trials. Br. Med. J., 315 (1997) 622.

Tr a m è r, M.R., Reynolds, D.J.M., Moore, R.A. and McQuay, H.A. Impact of covert duplicate publica-tion on meta-analysis: a ease study, Br. Med. J., 315 (1997) 635- 6 4 0 .

 

Descargar articulo pdf

 

 

 
 

© 2007 Sociedad Española del Dolor (SED) – Creado por CYCVISION. Usabilidad y Rentabilidad