Модель распространения ошибок здравоохранения - Healthcare error proliferation model

В модель распространения ошибок в здравоохранении является адаптацией произведения Джеймса Ризона Модель швейцарского сыра предназначен для иллюстрации сложность присуще современному здравоохранение системы доставки и объяснение человеческой ошибки в этих системы. Модель распространения ошибок в здравоохранении[1] объясняет этиологию ошибки и последовательность событий, которые обычно приводят к неблагоприятным исходам. Эта модель подчеркивает роль организационной и внешней культуры в выявлении, предотвращении, смягчении и построении защиты.

Вступление

Системы здравоохранения сложный в том, что они разнообразны как по структуре (например, медпункты, аптеки, отделения неотложной помощи, операционные), так и по профессиональному составу (например, медсестры, врачи, фармацевты, администраторы, терапевты) и состоят из множества взаимосвязанных элементов с адаптивный тенденции в том, что у них есть способность меняться и учиться на опыте. Период, термин сложные адаптивные системы (CAS) была создана на междисциплинарной Институт Санта-Фе (SFI), автор: Джон Х. Холланд, и Мюррей Гелл-Манн. Впоследствии такие ученые, как Рут А. Андерсон, Рубин МакДэниелс и Поль Сильерс распространили теорию и исследования CAS на социальные науки, такие как образование и здравоохранение.

Обзор модели

Модель распространения ошибок в здравоохранении (HEPM) адаптирует швейцарскую модель сыра.[2] сложности систем оказания медицинских услуг и интегрированных организаций. Модель швейцарского сыра сравнивает сложную адаптивную систему с ломтиками швейцарского сыра с множеством отверстий, расположенными бок о бок.[2][3] Ломтики сыра называют защитными слоями, чтобы описать их роль и функцию в качестве системного местоположения, оснащенного функциями, способными перехватывать и отражать опасности. Слои представляют собой отдельные местоположения или уровни организации, потенциально заполненные ошибками, допускающими прогрессирование ошибок. Четыре уровня включают: 1) организационное лидерство, 2) рискованный надзор, 3) ситуации с небезопасными действиями и 4) небезопасное исполнение.

HEPM изображает больницы как имеющие несколько оперативных защитных слоев, оснащенных основными элементами, необходимыми для поддержания ключевых защитных баррикад (Cook & O'Connor, 2005; Reason, 2000). Изучая атрибуты защитных слоев, предполагаемые места отказа, можно выявить этиологию несчастных случаев (Leape et al., 1995). Эксперты обсудили важность изучения этих слоев в контексте сложной адаптивной системы здравоохранения (Kohn et al., 2000; Wiegmann & Shappell, 2003) и с учетом психологической безопасности клиницистов. Следовательно, эта модель расширяет основополагающую работу Reason.

Модель включает комплексную адаптивную систему здравоохранения в качестве ключевой характеристики. Для сложных адаптивных систем характерно самоорганизация, поскольку различные агенты спонтанно взаимодействуют в нелинейных отношениях.[4][5] где профессионалы действуют как обработчики информации (Cilliers, 1998; McDaniel & Driebe, 2001) и эволюционируют вместе с окружающей средой (Casti, 1997). Специалисты здравоохранения действуют в системе как различные субъекты в сложной среде, используя различные методы для обработки информации (Coleman, 1999) и решения системных проблем внутри и между организационными уровнями (McDaniel & Driebe, 2001).

Определения

Комплексная адаптивная система здравоохранения (CAHS) - это предприятие по оказанию медицинской помощи, в котором различные клинические и административные агенты действуют спонтанно, взаимодействуют в нелинейных сетях, где агенты и пациенты являются обработчиками информации и активно развиваются вместе со своей средой с целью создания безопасных и надежных ориентированные на пациента результаты.[6]

Смотрите также

Цитаты

  1. ^ Пальмиери, П. А., ДеЛусия, П. Р., Отт, Т. Е., Петерсон, Л. Т., и Грин, А. (2008). «Анатомия и физиология ошибки в неблагоприятных медицинских событиях». У Э. Форда; Г. Сэвидж (ред.). Достижения в управлении здравоохранением. 7. Изумрудная издательская группа. С. 33–68. Дои:10.1016 / S1474-8231 (08) 07003-1.CS1 maint: несколько имен: список авторов (связь)
  2. ^ а б Причина, Дж. Т. (1990). Человеческая ошибка. Издательство Кембриджского университета. ISBN  0-521-31419-4.
  3. ^ Причина, Дж. Т. (2000). «Человеческая ошибка: модели и управление». Британский медицинский журнал. 320 (7237): 768–70. Дои:10.1136 / bmj.320.7237.768. ЧВК  1117770. PMID  10720363.
  4. ^ Андерсон, Р. А., Иссел, М. Л., и МакДэниел, Р. Р. (2003). «Дома престарелых как сложные адаптивные системы: взаимосвязь между практикой управления и результатами проживания». Медсестринские исследования. 52 (1): 12–21. Дои:10.1097/00006199-200301000-00003. ЧВК  1993902. PMID  12552171.CS1 maint: несколько имен: список авторов (связь)
  5. ^ Cilliers, P. (1998). Сложность и постмодернизм: понимание сложных систем. Нью-Йорк: Рутледгель. ISBN  978-0-415-15286-0.
  6. ^ Пальмиери, П. А., ДеЛусия, П. Р., Отт, Т. Е., Петерсон, Л. Т., и Грин, А. (2008). «Анатомия и физиология ошибки в неблагоприятных медицинских событиях». Достижения в управлении здравоохранением. Достижения в управлении здравоохранением. 7: 33–68. Дои:10.1016 / S1474-8231 (08) 07003-1. ISBN  978-1-84663-954-8.CS1 maint: несколько имен: список авторов (связь)

Рекомендации

Статьи

  • Андерсон, Р. А., Иссел, М. Л., и МакДэниел, Р. Р. (2003). Дома престарелых как сложные адаптивные системы: взаимосвязь между практикой управления и результатами проживания. Медсестринское дело, 52 (1): 12-21.
  • Берта, В. Б. и Бейкер, Р. (2004). Факторы, влияющие на передачу и сохранение передового опыта по сокращению ошибок в больницах. Обзор управления здравоохранением, 29 (2): 90-97.
  • Чили, Дж. Р. (2002). Приглашение к катастрофе: уроки новейших технологий. Нью-Йорк: Издательство HarperCollins.
  • Коулман, Х. Дж. (1999). Что способствует самоорганизации в бизнесе. Появление, 1 (1): 33-48.
  • Кук Р. И., Рендер М. и Вудс Д. Д. (2000). Пробелы в непрерывности лечения и прогрессе в обеспечении безопасности пациентов. Британский медицинский журнал, 320 (7237): 791-794.
  • Лип, Л.Л., Бейтс, Д.У., Каллен, Д.Д., Купер, Дж., Демонако, Х.Дж., Галливан, Т., Р., Х., Айвз, Дж., Лэрд, Н., Лаффел, Г., Немескал, Р. ., Петерсон, Л.А., Портер, К., Серви, Д., Ши, Б.Ф., Смолл, С.Д., Свитцер, Б.Дж., Томпсон, Б.Т., и ван дер Влит, М. (1995). Системный анализ нежелательных лекарственных явлений. Исследовательская группа профилактики ADE. Журнал Американской медицинской ассоциации, 274 (1): 35-43.
  • Лип, Л. Л. и Бервик, Д. М. (2005). Пять лет спустя после «Человеку свойственно ошибаться»: что мы узнали? Журнал Американской медицинской ассоциации, 293 (19): 2384-2390.
  • Ледук, П. А., Раш, К. Э. и Мэннинг, М. С. (2005). Человеческий фактор в авариях с БПЛА, Технология специальных операций, Интернет-издание, т. 3.
  • Леонард М. Л., Франкель А. и Симмондс Т. (2004). Обеспечение безопасного и надежного здравоохранения: стратегии и решения. Чикаго: Пресса Управления здравоохранения.
  • Расмуссен, Дж. (1990). Роль ошибки в организации поведения. Эргономика, 33: 1185-1199.
  • Расмуссен, Дж. (1999). Концепция человеческой ошибки: полезно ли это для разработки безопасных систем в здравоохранении? В C. Vincent & B. deMoll (Eds.), Риск и безопасность в медицине: 31-47. Лондон: Эльзевьер.
  • Reason, J. T. & Mycielska, K. (1982). Рассеянный? Психология умственных промахов и бытовых ошибок. Энглвуд Клиффс, Нью-Джерси: Prentice-Hall Inc.
  • Причина, Дж. Т. (1990). Человеческая ошибка. Нью-Йорк: Издательство Кембриджского университета.
  • Причина, Дж. Т. (1997). Управление рисками организационных аварий. Олдершот: Издательство Ashgate.
  • Причина, Дж. Т. (1998). Управление рисками организационных аварий. Олдершот, Англия: Ашгейт.
  • Причина, Дж. Т. (2000). Человеческая ошибка: модели и менеджмент. Британский медицинский журнал, 320, 768-770.
  • Причина, Дж. Т., Карти, Дж., И де Леваль, М. Р. (2001). Диагностика синдрома уязвимой системы: необходимое условие для эффективного управления рисками. Качество в здравоохранении, 10 (S2): 21-25.
  • Причина, Дж. Т. и Хоббс, А. (2003). Управление ошибкой обслуживания: практическое руководство. Олдершот, Англия: Ашгейт.
  • Робертс, К. (1990). Некоторые характеристики одного типа организации высокой надежности. Организационная наука, 1 (2): 160-176.
  • Робертс, К. Х. (2002). Системы высокой надежности. Отчет комитета института медицины о стандартах данных по безопасности пациентов 23 сентября 2003 г.

Книги

Cilliers, P. (1998) Сложность и постмодернизм: понимание сложных систем. Нью-Йорк: Рутледж. (ISBN  978-0415152860)

Другая литература

Теория сложности

  • Голландия, Дж. Х. (1992). Адаптация в естественных и искусственных системах. Кембридж, Массачусетс: MIT Press. (ISBN  978-0262581110)
  • Холланд, Дж. Х. (1995). Скрытый порядок: как адаптация увеличивает сложность. Чтение, MA: Helix Books. (ISBN  978-0201442304)
  • Холланд, Дж. Х. (1998). Возникновение: от хаоса к порядку. Ридинг, Массачусетс: Эддисон-Уэсли. (ISBN  978-0738201429)
  • Уолдроп, М. М. (1990). Сложность: развивающаяся наука на грани порядка и хаоса. Нью-Йорк: Саймон и Шустер (ISBN  978-0671767891)