AI 의료기기 리콜 사태, 상장기업이 주범이었다
FDA 승인 AI 의료기기 182건 리콜 분석 결과, 92%가 상장기업 제품
투자 압력에 쫓긴 섣부른 출시, 임상 검증 없이 시장 진출한 제품 대부분
미국 의료계에 AI 열풍이 불고 있다. FDA 승인을 받은 AI 기반 의료기기가 2023년 700개 미만에서 2025년 8월 기준 1,247개로 거의 두 배 가까이 급증했다. 최근 조사에 따르면 233개 의료 시스템 경영진의 88%가 이미 AI를 도입해 사용 중이라고 답했을 정도다. 그러나 이 화려한 성장 뒤에는 우려스러운 그림자가 드리워져 있었다.
충격적 발견: 상장기업 제품의 높은 리콜률
8월 22일 JAMA에 발표된 연구서한이 의료계에 충격을 안겼다. FDA 데이터를 분석한 결과, 2024년 11월까지 단 60개의 AI 의료기기에서 무려 182건의 리콜 사건이 발생했다는 것이다. 더욱 놀라운 점은 리콜된 제품의 92%가 상장기업에서 나왔다는 사실이다. 반면 비상장기업의 리콜률은 53%에 그쳤다.
이 연구를 주도한 존스홉킨스대학 케리 경영대학원의 다이 팅롱 교수는 "정말 예상 밖의 결과였다"며 "우리는 상장기업이 더 나은 위험 관리 시스템을 갖추고 있을 것으로 예상했다"고 털어놨다. 대체 무엇이 이런 역설적인 결과를 낳은 것일까.
투자자의 압박: 빠른 출시냐, 안전성이냐
연구진은 이 현상의 핵심 원인으로 '투자 압력'을 지목했다. 다이 교수는 "투자자들은 해마다 새로운 AI 기기가 FDA 승인을 받고 시장에 출시되는 것을 보고 싶어한다"며 "이런 압력 자체가 리콜 증가에 기여했을 가능성이 크다"고 분석했다.
실제로 리콜 원인을 들여다보면 문제의 심각성이 드러난다. 진단이나 측정 오류가 109건으로 가장 많았고, 기능 지연 44건, 물리적 위험 14건, 생화학적 위험 13건 순이었다. 다이 교수는 "잘못된 진단은 곧 잘못된 치료로 이어진다. 전체 의료 서비스 체계가 위험에 빠질 수 있다"고 경고했다.
임상 검증의 사각지대: 97%가 검증 없이 출시
더 충격적인 사실이 있다. 리콜된 기기 대부분이 제대로 된 임상 검증 없이 시장에 나왔다는 점이다. 비상장기업 제품의 40%, 대형 상장기업 제품의 78%, 그리고 소규모 상장기업 제품의 경우 무려 97%가 임상 검증을 거치지 않았다.
이는 FDA의 510(k) 승인 제도의 맹점과 관련이 있다. 이 경로는 새 기기가 기존 승인 기기와 "실질적으로 동등"하다는 것만 증명하면 되며, 별도의 임상 데이터 제출이 의무사항이 아니다. 빠른 시장 진입을 원하는 기업들이 이 길을 선호하는 이유다.
실험실과 현실의 간극: 실제 성능은 더 떨어져
2025년 3월 Healthcare 저널에 실린 리뷰는 더 암울한 현실을 보여준다. 강력한 시판 전 임상 데이터를 보유한 AI 프로그램조차도 실제 다양한 임상 환경에서는 "빈번하게" 성능이 저하된다는 것이다. 보고된 성능과 실제 성능 사이에는 상당한 격차가 존재한다.
다이 교수는 "사용자 입장에서는 이 차이를 반드시 이해해야 한다"며 "화려한 마케팅 자료의 수치와 실제 병원에서의 성능은 다를 수 있다"고 강조했다.
'인공'이 아닌 '증강' 지능으로: AMA의 신중한 접근
이런 우려를 반영하듯 미국의사협회(AMA)는 '인공지능(Artificial Intelligence)' 대신 '증강지능(Augmented Intelligence)'이라는 용어를 사용한다. AI가 의사를 대체하는 것이 아니라 보조하는 도구임을 명확히 한 것이다. AMA 가이드라인은 "AI가 독립적으로 의사결정을 하거나 인간 의료진의 감독 없이 작동해서는 안 된다"고 못박고 있다.
규제 강화 움직임: FDA의 새로운 가이드라인
보건복지부는 "환자들이 안전하고 효과적인 의료기기에 접근할 수 있도록 보장하는 데 전념하고 있다"는 입장을 밝혔다. FDA는 2025년 1월, AI 의료기기를 위한 구체적인 가이드라인 초안을 발표했다. 안전성과 효과성 입증에 필요한 데이터와 문서 요건을 명시한 것이다.
그러나 이미 시장에 나온 수많은 AI 기기들, 특히 충분한 검증 없이 출시된 제품들을 어떻게 관리할 것인가는 여전히 숙제로 남아있다.
나가며: 혁신과 안전 사이에서
AI 의료기기 시장의 급성장은 분명 의료계에 새로운 가능성을 열어주고 있다. 그러나 이번 연구가 보여준 리콜 패턴, 특히 상장기업들이 투자 압력에 쫓겨 안전성을 소홀히 하는 경향은 심각한 경종을 울린다.
의료 AI는 환자의 생명과 직결된다. 실리콘밸리의 '빨리 실패하고 빨리 배우라(Fail Fast, Learn Fast)'는 모토가 의료 분야에서는 통하지 않는다. 한 번의 실패가 돌이킬 수 없는 결과를 낳을 수 있기 때문이다.
의료기관들은 AI 기기 도입 시 FDA 승인 여부만 볼 것이 아니라 실제 임상 검증 데이터를 꼼꼼히 살펴야 한다. 규제 당국은 510(k) 경로의 허점을 보완하고, 시판 후 모니터링을 강화해야 한다. 그리고 무엇보다 기업들, 특히 상장기업들은 단기 실적 압박에서 벗어나 환자 안전을 최우선에 두는 장기적 관점을 가져야 한다.
AI가 의료의 미래인 것은 분명하다. 그러나 그 미래는 '빠른 혁신'이 아니라 '안전한 혁신' 위에 세워져야 한다. 182건의 리콜 사태가 우리에게 던지는 메시지는 명확하다. 생명을 다루는 기술에는 더 높은 기준이 필요하다는 것이다.
Over 90% of Recalled AI Medical Devices Come from Public Companies
Analysis of 182 FDA-Approved AI Device Recalls Reveals Troubling Pattern
Rush to Market Under Investor Pressure Leads to Inadequate Clinical Validation
The AI Healthcare Boom and Its Shadow
The American healthcare system is experiencing an AI revolution. FDA-cleared artificial intelligence-enabled medical devices have nearly doubled from fewer than 700 in 2023 to 1,247 as of August 28, 2025. A recent survey reveals that 88% of 233 health system executives report their organizations are already using AI. Yet beneath this spectacular growth lies a troubling shadow.
The Shocking Discovery: Public Companies Lead in Recalls
A research letter published in JAMA on August 22 sent shockwaves through the medical community. Analysis of FDA data revealed that by November 2024, just 60 AI-enabled devices had accumulated 182 recall events. More startling was the pattern: approximately 92% of recalled devices came from publicly traded companies, compared to just 53% from private companies.
"That was really something we were surprised by," says Tinglong Dai, Bernard T. Ferrari Professor at Johns Hopkins University Carey Business School and one of the paper's authors. "We were thinking public companies probably have better risk management."
The Pressure Cooker: Speed vs. Safety
The research team points to investor pressure as the key culprit. "Investors want to see year after year you have new AI devices cleared by the FDA, you have AI devices being rolled out among healthcare providers," Dai explains. "The pressure itself might have contributed to the recalls."
The breakdown of recall causes reveals the severity of the issue: 109 recalls were due to diagnostic or measurement errors, 44 for functionality delays, 14 for physical hazards, and 13 for biochemical hazards. "If you have a misdiagnosis, obviously the entire healthcare delivery could be subject to risk because wrong diagnosis means that you could also have the wrong treatment," Dai warns.
The Clinical Validation Gap: 97% Released Without Proper Testing
Perhaps most alarming is that the majority of recalled devices weren't clinically validated before approval. The numbers are staggering: 40% of private company devices, 78% of established public company devices, and a whopping 97% of smaller public company devices lacked clinical validation before hitting the market.
This stems from the FDA's 510(k) clearance pathway, which approves devices if they prove "substantial equivalence" to previously cleared devices. Unlike other approval processes, clinical data is typically not required—a shortcut favored by companies eager for rapid market entry.
Laboratory Promise vs. Real-World Performance
A March 2025 review in the journal Healthcare paints an even grimmer picture. Even AI programs with strong premarket clinical data "frequently" perform worse in diverse real-world clinical settings. The gap between advertised performance and actual clinical performance can be substantial.
"From the user's perspective, I think it's extremely important to understand the difference between reported performance and real-world performance," Dai emphasizes. "The glossy marketing materials may not reflect what happens in actual hospital settings."
'Augmented' Not 'Artificial': The AMA's Cautious Stance
Reflecting these concerns, the American Medical Association deliberately uses the term "augmented intelligence" rather than "artificial intelligence." This linguistic choice clarifies that AI should assist, not replace, human physicians. AMA guidelines explicitly state that AI should not make independent decisions or operate without human healthcare professional oversight.
Regulatory Response: FDA's New Guidelines
The Department of Health and Human Services maintains it "remains committed to ensuring patients have access to safe and effective medical devices, including those enabled with AI." In January 2025, the FDA released draft guidance specifically for AI-enabled devices, outlining required data and documentation to demonstrate safety and effectiveness.
However, managing the numerous AI devices already on the market—particularly those released without adequate validation—remains an ongoing challenge.
The Path Forward: Balancing Innovation and Safety
The explosive growth of AI medical devices undoubtedly opens new possibilities in healthcare. However, the recall patterns revealed by this research—particularly the tendency of public companies to compromise safety under investor pressure—sound a serious alarm.
Medical AI directly impacts patient lives. Silicon Valley's "fail fast, learn fast" mantra doesn't apply in healthcare, where a single failure can have irreversible consequences.
Healthcare institutions must look beyond FDA clearance when adopting AI devices, scrutinizing actual clinical validation data. Regulators need to address the 510(k) pathway's shortcomings and strengthen post-market surveillance. Most importantly, companies—especially public ones—must prioritize patient safety over quarterly earnings.
Conclusion: The True Cost of Rushing Innovation
AI is undoubtedly the future of medicine. But that future must be built on safe innovation, not fast innovation. The message from 182 recall events is clear: technologies dealing with human life require higher standards.
As healthcare systems continue their AI adoption journey, they must remember that in medicine, being first to market means nothing if patients pay the price. The real winners in healthcare AI won't be those who moved fastest, but those who moved most carefully.
The data suggests we're at a critical juncture. Will the industry learn from these early warning signs, or will the pressure for rapid returns continue to compromise patient safety? The answer will shape not just the future of medical AI, but the trust patients place in increasingly automated healthcare systems.
For now, one thing is certain: when it comes to medical AI, the old medical maxim still applies—first, do no harm. Even if investors are watching.