Study reveals stark divide in how Democrats and Republicans cite science
국내에서 비슷하게 해보면 결과가 나오기는 할까?
미국 정책 문서 25년치를 분석한 결과, 민주당과 공화당이 의회 위원회와 싱크탱크에서 인용하는 과학 연구들 사이에 겹치는 부분이 거의 없는 것으로 드러나, 공통된 사실관계에 대한 우려가 커지고 있다.
Study reveals stark divide in how Democrats and Republicans cite science
국내에서 비슷하게 해보면 결과가 나오기는 할까?
미국 정책 문서 25년치를 분석한 결과, 민주당과 공화당이 의회 위원회와 싱크탱크에서 인용하는 과학 연구들 사이에 겹치는 부분이 거의 없는 것으로 드러나, 공통된 사실관계에 대한 우려가 커지고 있다.
What if news avoiders are right, and you don’t need journalism?
언론인 교육 과정에서는 우리 사회에 언론이 필요하다고 강조하지만, 현재 우리가 접하고 있는 언론이 정말로 필요한 것인지 묻는 것은 타당한 질문입니다.
전 세계 많은 사람들이 오늘날의 저널리즘이 필요한지 묻는 대신, 필요하지 않다는 것을 보여주고 있습니다. 최신 디지털 뉴스 보고서 에 따르면 40%가 “요즘 뉴스를 자주 또는 가끔 피한다”고 답했습니다 (미국 42%, 영국 46%, 기타 일부 국가에서는 60% 이상).
전통적인 저널리즘은 청중의 필요와 감정, 그리고 뉴스가 그들의 삶에서 어떤 역할을 해야 하는지를 고려하지 못하는 경우가 너무나 많습니다. 기자들은 사람들이 그 정보를 가지고 “무엇을 해야 하는지”에 대해서는 신경 쓰지 않고 단순히 “무슨 일이 일어났는지”만 보도합니다.
Chatbots are minding babies
Axios
AI 상호작용이 영유아에게 중요한 인간 상호작용과 활동을 밀어낼 수 있다. 또 AI 도구가 일부 아이들에게 도움이 되더라도, 그 이득이 기존 교육 격차를 더 심화시킬 수 있다는 우려도 있다. 콜린스는 “우리를 인간답게 만드는 한 가지는, 어린 아이든 더 큰 아이든, 비언어적 의사소통의 전 범위”라며 “미묘한 표정과 몸짓 같은 것들이 화면 앞에서는 빠진다”고 말했다.
Content and Community
Ben Thompson
오래된 이야기이기도 하고 뻔한 말이기도 하지만, 저작권 소송에서 출판사는 분리하며 새로운 시장에서도 기존 출판이 주인공이 되기는 어렵다고 언급한다. 결론은 공유된 기준을 만드는 역할을 할 수 있다는 점을 언급함
그러므로 AI 시대의 출판사에게 해답은 콘텐츠 통합 플랫폼 시대와 다를 바 없습니다. 바로 독자와 직접적인 연결고리를 구축하는 것입니다. 이는 더 나아가 사용자당 수익을 극대화하는 비즈니스 모델, 즉 구독 모델을 의미합니다 (이 사이트를 비롯한 점점 더 많은 사이트들이 구독 모델을 기반으로 하고 있습니다) .
하지만 제가 흥미롭게 생각하는 것은 미래로 되돌아갈 가능성입니다. 과거에는 출판이 국가를 형성했지만, 이제 출판의 새로운 기회는 공동체를 만드는 것입니다. 특히 오늘날의 인공지능은 이러한 역할에 근본적으로 적합하지 않습니다. LLM(Learning Leadership Machine)이 생성하는 모든 콘텐츠는 개인 맞춤형입니다. 당신이 묻는 질문과 인공지능이 답하는 내용은 제가 묻는 질문과 제가 받는 답변과 다릅니다. 이는 일을 처리하는 데는 유용하지만, 공통의 기반을 만드는 데는 도움이 되지 않습니다.
AI error rates, validation and leverage
Benedict Evans
내 생각과 같은 내용. AI를 연구에 활용하는 경우에도 비슷한 접근을 할 수 있을텐데 이러한 고민 없이 사용되는 경향이 있는 듯. 레버리지라는 관점에 더 초점 맞추어야한다는 말도 인상적이다. 즉, LLM이 회계를 할 수 있는지 질문이 말하는 것처럼 ‘대체’에 초점을 맞추는 것보다 ‘주니어+모델+검증’처럼 조직 내 역할 재배치가 더 현실적인 시나리오일 수 있다고 말한다.
어떤 질문들은 ‘틀린 답’이 거의 없고 ‘정답’도 사실상 없다. 더 낫거나 덜 낫기만 있다. 기존의 결정론적 소프트웨어는 이런 문제를 잘 못 다루지만, 생성형 AI는 매우 잘한다.
반대로, 답이 이진적으로 맞거나 틀릴 수 있는 질문들이 있고, 여기서는 생성형 AI의 오류율이 문제가 된다. 이 경우 답을 단어 단위, 줄 단위로 검증해야 한다.
Accenture and WPP have discussed potential M&A deal
campaign
Campaign은 두 회사 간에 고위급 접촉이 있었던 것으로 파악했습니다.
Accenture는 ‘주니어-중급 인력의 시간 판매’ 비중이 큰 반복 작업이 줄어들며 인력 기반 수익모델이 압박받고, WPP는 카피·디자인·영상·미디어 플래닝 등 크리에이티브·운영이 AI로 대체되며 에이전시 가치사슬이 압박받는 상황.
Netflix uses generative AI in one of its shows for first time
The Guardian
넷플릭스의 SF 시리즈, 엘 에테르나우타(El Eternauta, 영원한별)에서 생성형 AI를 활용했다는 내용
“AI 기반 도구를 사용하여 놀라운 속도로 멋진 결과를 얻을 수 있었고, 실제로 해당 VFX 시퀀스는 기존 VFX 도구 및 워크플로를 사용했을 때보다 10배 더 빠르게 완성되었습니다.”라고 그는 말했다.
그는 AI 도구를 사용함으로써 넷플릭스가 대규모 예산이 투입되는 일반적인 작품보다 훨씬 낮은 비용으로 해당 프로그램을 제작할 수 있었다고 말했다.
사란도스는 “인공지능을 활용하지 않은 특수효과 비용은 그 예산으로는 도저히 감당할 수 없었을 것”이라고 말했다.
Teens flock to companion bots
Axios

대부분의 청소년은 여전히 봇보다 사람을 선호한다. AI 동반자 이용자의 80%는 실제 친구들과 더 많은 시간을 보낸다고 말한다. 절반 이상(67%)은 AI와의 대화가 인간과의 대화보다 덜 만족스럽다고 답한다. 청소년의 절반(50%)은 AI 동반자가 제공하는 정보나 조언을 신뢰하지 않는다고 한다.
일부 청소년은 AI 동반자와의 대화에서 연습한 사회적 기술을 현실에서 적용했다고 말했다. 이들은 해당 도구가 대화를 시작하는 법, 갈등을 해결하는 법, 감정을 표현하는 법을 가르쳐줬다고 했다.
하지만 일부(25%)는 AI 동반자에게 자신의 실명, 위치, 개인적 비밀을 공유했다고도 보고했다. 청소년의 거의 4분의 1(23%)은 AI 동반자를 “상당히” 또는 “완전히” 신뢰한다고 답했는데, 이는 챗봇이 잘못된 정보를 만들어내는 경향이 잘 알려져 있음에도 그렇다.
The Labor Market Effects of Generative Artificial Intelligence
미국에서 현재까지 직장에서 LLM을 얼마나 활용하고 있는지에 대한 연구. 약 45%가 LLM을 전혀 활용하고 있다고 답했으며, 그중 3분의 1은 평일에 매일 사용한다고 답함. DAU는 13~14%
우리는 생성형 AI가 노동시장에 미치는 경제적 효과를 측정하기 위해 새로운 설문 조사를 개발했다. 분석 결과, 대규모 언어모델(LLM)과 같은 생성형 AI 도구는 주로 젊은 층, 높은 교육 수준을 가진 개인, 높은 소득 계층, 그리고 고객 서비스·마케팅·정보기술과 같은 특정 산업 종사자들에서 가장 많이 사용되고 있었다. 미국 노동자의 LLM 도입률은 2024년 12월 기준 30.1%에서 2025년 9월 기준 36.7%로 빠르게 증가했으며, 선진국 가운데 미국의 도입률이 여전히 가장 높았다. 생성형 AI 노출이 여러 노동시장 결과에 미치는 영향을 추정한 결과, 2022년 11월 ChatGPT 공개 이후 AI 노출도가 높은 직업군에서 임금에 미미한 영향이 나타났으나, 구인 건수나 전체 고용에는 유의한 효과가 관찰되지 않았다.
Chain-of-Thought Is Not Explainability
추론 모델이 결론에 도달하는 방식을 보여주기 위해 생성하는 ‘생각의 사슬’은 실제로는 실제 상황을 처리하는 방식이 아닐 수도 있다는 연구
Chain-of-thought(CoT)는 언어모델이 최종 답변을 생성하기 전에 여러 단계의 추론 과정을 언어적으로 서술하도록 하는 기법이다. 이는 과제 수행 성능을 종종 향상시키고 모델의 추론을 투명하게 보여주는 듯한 인상을 주지만, 우리는 CoT가 실제로는 오해를 불러일으킬 수 있으며 신뢰할 수 있는 해석가능성의 필요조건도 충분조건도 아니라고 주장한다. 우리는 CoT의 충실성을, 인간이 이해할 수 있을 뿐 아니라 모델의 내부적 추론을 실제로 반영하여 책임 있는 활용을 뒷받침하는지를 기준으로 검토하며, 기존 연구의 증거를 종합한다. 분석 결과, 언어로 표현된 추론 과정은 실제 모델 내부에서 결정을 이끄는 계산과 자주 불일치하며, 모델이 결론에 이르는 방식을 잘못 보여주는 경우가 많다. 그럼에도 불구하고 의료, 법률, 자율 시스템과 같은 고위험 분야에서 CoT 의존은 증가하고 있으며, 우리가 검토한 최근 CoT 중심 연구 1,000편 중 약 25%는 CoT를 해석가능성 기법으로 명시적으로 활용하고 있다. 이에 기반해 세 가지 제안을 제시한다. (i) 추가 검증 없이 CoT를 해석가능성의 충분조건으로 간주하는 것을 피하되, CoT가 제공하는 의사소통상의 이점은 계속 활용할 것, (ii) 다운스트림 의사결정을 위해 CoT 충실성을 평가하는 엄격한 방법을 도입할 것, (iii) 모델 내부에 근거한 설명을 확보하기 위해 activation patching, 반사실적 개입, verifier 모델 등 인과적 검증 기법을 개발할 것.