医業情報ダイジェストの4月15日号に記事を掲載いただいた。
医業情報ダイジェスト/保険薬局情報ダイジェスト | 医業情報ダイジェスト/記事詳細
1.データから考える医療経営
後発医薬品の使用割合による報酬設定の意義低下
キーワード:OTC類似薬/医療財源/保険診療
![]() |
昨年、猛暑の中、訪れた吉野ケ里遺跡 |
医業情報ダイジェストの4月15日号に記事を掲載いただいた。
医業情報ダイジェスト/保険薬局情報ダイジェスト | 医業情報ダイジェスト/記事詳細
1.データから考える医療経営
後発医薬品の使用割合による報酬設定の意義低下
キーワード:OTC類似薬/医療財源/保険診療
![]() |
昨年、猛暑の中、訪れた吉野ケ里遺跡 |
業務とは関係ないのだが、先日、住民票の写しを取りに行ったら10円だった。
![]() |
2月から5月まで証明書コンビニ交付サービスの手数料を引き下げます! | 世田谷区公式ホームページ |
窓口の混雑緩和のため、令和7年2月1日土曜日から令和7年5月31日土曜日までの間、住民票の写し、印鑑登録証明書、特別区民税・都民税 課税・納税証明書の証明書コンビニ交付サービスの手数料を10円に引き下げます。ただし、サービスのご利用にはマイナンバーカードが必要です。
正常分娩は自費なのだから、採算が合うように、1分娩50万円ではなく、100万、200万取ればいい・・・とはならない。住民は「50万円も維持」で「体制も維持」を希望する。
それでは病院経営は厳しくなるばかりだ。
という観点で病院広報を考えたら、貢献できることは色々あるだろうし、色々取り組んでいる話を聞きたいし・・・と考えている。
背景には膨大なデータがあるのだけど、原稿・グラフにしてしまうと、ほんのわずかなボリュームに。分析の試行錯誤も含めると、相当時間がかかってしまったのが、今回のCBnewsの記事。
高齢化でも7対1を維持するには - CBnewsマネジメント
しかも、元々、記事を書き始めるときに用意していたデータ・分析結果は、今回の記事にまとめきれなくなってしまったので、まったく使っていない(記事の最後の一文で少しだけ匂わせたが)。
原稿を書きながら、あの内容を足そうか、この内容を削ろうか・・・と色々試行錯誤したのに、この程度の文章なのか?と呆れられそうだが、これが実力なのでお許しを。
余談だが、近所にできるスーパーがスタッフを募集している。
![]() |
時給1,350円で募集中(東京都の最低賃金は1,163円) |
マックもできるらしいのだがそちらは1,200円だそうだ。
今回のように、1本の原稿を書くのに何日もかかるのならば、同じ時間、スーパーで働いた方が・・・。
納得感が薄いような。もちろん制度的にはあっているのだが。
公平性を念頭に置いた制度であるとは言え、全国一律のシンプルな点数にしても良かったのでは、と思うことも。
その検証を行ったのが、今回のCBnewsに掲載いただいた記事。
大幅な引き上げが望まれる看護職員処遇改善評価料 - CBnewsマネジメント
一昨年度、昨年度も、この分析を用いて、クライアント向けに情報提供と何らかの取り組み議論を行ってきた。ただ、全数で時系列の分析をしたことはなかったので、今回はその点が新しい。その分析で見えてきたことは、昨今、病院で看護師確保が厳しくなっていることの示唆。
看護師・看護補助者に限らず、人材確保が厳しい。新しい人材が入ってくる新年度。その人材が辞めないように、そして今いる人材も辞めないように、病院は相当努力をしている。弊社としては、何らかの支援ができないか、特にデータ分析からできることはないか、さらに追求していきたい。
![]() |
近所の公園の桜は満開に |
令和5年度のDPCの退院患者調査が公表された。
令和5年度DPC導入の影響評価に係る調査「退院患者調査」の結果報告について|厚生労働省
ファイルをダウンロードするのは恒例行事。
10年前は、ぽちぽちリンクをクリックして、1つ1つファイル名を変えていた。
5年くらい前からは、pythonのプログラムで、URL取得・ファイルダウンロード・ファイル名変更を行うようにした。
今年も、そのプログラムで作業は終わったのだが、生成AIで、同じような依頼をしたら、ものの10秒でプログラムが出てきた。「ファイル名から括弧書きのファイルサイズを除いて」などの改良を少しだけ追加でお願いしただけだ。
import os
import re
import requests
from bs4 import BeautifulSoup
from urllib.parse import urljoin
# 対象のURL
base_url = 'https://www.mhlw.go.jp/stf/shingi2/newpage_00137.html'
# 保存先ディレクトリ
download_dir = 'downloaded_files'
os.makedirs(download_dir, exist_ok=True)
# ファイル名の特殊文字と不要な情報を削除する関数
def sanitize_filename(text):
# [***KB] や [***MB] の表記を削除(全角・半角両方対応)
text = re.sub(r'[\[[].*?(KB|MB)[\]]]', '', text)
# ファイル名に使えない文字を削除
text = re.sub(r'[\\/*?:"<>|]', '', text)
return text.strip() # 前後の空白を削除
# ウェブページを取得
response = requests.get(base_url)
response.raise_for_status()
# BeautifulSoupで解析
soup = BeautifulSoup(response.content, 'html.parser')
# PDFなどのリンクを抽出してダウンロード
for link in soup.find_all('a', href=True):
href = link['href']
link_text = link.get_text(strip=True) # リンクテキストを取得
if not link_text:
continue # テキストがないリンクはスキップ
file_ext = os.path.splitext(href)[-1] # ファイルの拡張子を取得
if file_ext.lower() in ['.pdf', '.xlsx', '.xls', '.docx', '.zip']: # 必要な拡張子のみ処理
file_url = urljoin(base_url, href)
safe_filename = sanitize_filename(link_text) + file_ext # 安全なファイル名を作成
file_path = os.path.join(download_dir, safe_filename)
# ファイルをダウンロードして保存
with requests.get(file_url, stream=True) as file_response:
file_response.raise_for_status()
with open(file_path, 'wb') as file:
for chunk in file_response.iter_content(chunk_size=8192):
file.write(chunk)
print(f'{file_path} をダウンロードしました。')
動作させてみたが、エラーが出ることもなく、ほぼ完璧(気がついた問題点は「(1)集計条件」のPDFはファイル名が重複して上書きされてしまうくらい)。そういうわけで、自分の仕事は無くなった。喜ぶべきか、悲しむべきか。残念ながら、自分レベルのプログラマーは、ほぼ価値がないだろう(VScodeでContinueを使って・・・といったことで業務に使うどころか、chatGPTで聞くだけで十分になっている。上のコードはchatGPTの返答)
ただコードを書くだけではほぼ価値のない世界で、いかに価値を生み出すかが勝負になったことを考えると、生半可な気持ちでは、早々に飯が食えなくなるということだろう。