2025年2月22日土曜日

2025年2月23日(日)付毎日新聞の辛口数独の解き方

 2月23日(日)付の毎日新聞に掲載されている辛口数独の解き方を説明する。唐辛子のマークが5つついており、たいへん難しい問題という表示になっている。



問題は上のようなものである。




とりあえず、簡単にわかるところだけを埋めてみる。以下のようになる。



これ以上は単純な考え方だけでは数字が埋められない。少し工夫してみる必要がある。


ここで下の図を見てもらいたい。上段2列めの9つの箱に注目する。この図で左側の3つの箱は、上段左側の9つの箱の中に「7」と「8」が含まれるので、横向きの赤い直線で示した部分には「7」と「8」が入らない。また、左側4列目には、「7」と「8」があるので、その直線上には「7」と「8」は入らない。つまり、上段2列目の赤い四角で示した2つの箱には、「7」もしくは「8」が入り、他の数は入らない。



これを利用すると、右側上段の9つの箱の一つに「9」が入ることがわかる。


この問題は、上に示したヒントを見つけるのが難しい。このヒントが見つかれば、それ以降も難しいところもあると思うが、じっくり考えれば解くことができるはずである。


2025年2月21日金曜日

サッカー なでしこジャパンの昨日2月21日の勝利

 昨日、なでしこジャパンは、SheBelievesCupで、オーストラリアと戦い、4対1で勝利しています。


短縮版での試合を見ているだけなので、状況はよく把握していないのですが、ほとんど完勝と言える内容だったようです。


特に、3点目の得点は、左サイドから中央でMF藤野あおば、FW田中美南、MF長谷川唯、再び田中と細かく繋ぎ、そして最後はMF浜野まいかがゴール前で流し込み、スローインから数えると、9人が13本のパスを一度も相手に触らせずに流し込みました。


この試合を見て気づいたのですが、長谷川唯、山下杏也加、加藤野あおばが、イギリスのマンチェスター・シティに所属している選手だったことです。私は長谷川唯選手の試合の短縮版をYoutubeでよく見ているので、びっくりしました。


その後、なでしこジャパンの今回の選手一覧を見てみたら、ほとんどが、欧州組や米国組など海外からの参加で、日本のチームに所属している選手は23名中4名だけでした。


これを見ると、実力のある選手は日本のチームには所属せず、海外に出ていく選手が多いということがわかります。


これは今まで気づかなかったので、意外でした。しかし、よく考えてみると、日本の女子のサッカーはそれほど観客数も多くないし、評価も低いので、当然の結果とも言えます。米国では、野球やフットボールが盛んですが、これらは男性のスポーツと今でも考えられているようで、女性の参加できるスポーツとしては、サッカーが注目されているようです。


日本も、女子サッカーがもっと人気が出て、盛んになると良いと思います。




2025年2月12日水曜日

ダイソーで購入した700円の「ワイヤレス静音マウス」

 ダイソーで500円(税抜き)で購入したマウスが壊れてしまいました。どうも、子供たちに使わせたときに無理な使い方をしたようで、スクロールが出来なくなってしまいました。右クリックも効かなくなりました。


無線で使用でき、充電もでき、超薄型で使いやすかったのですが。


やむなく、ダイソーにまだ販売しているか、確認しに行きました。残念ながら、500円のマウスは売っていませんでした。その代わりに、700円(税抜き)のマウスが売られていました。



外箱のタイトルは「カチカチ音がしないワイヤレス静音マウス」です。ざっと見たところ、私が使用していたマウスと変わりません。


箱のサイドには以下のような表示がされています。



無線とBluetoothの2WAYの接続が可能です。これは500円のものと違って、Bluetoothでも使えるようになっています。これで、200円の差が出たのかもしれません。


実際に箱を開けてマウスを取り出してみたら、サイズはほぼ500円のものと同じでした。



さっそく、パソコンに接続してみました。無線でもBluetoothでも、簡単に接続することができました。マウスの動きは無損の方がやや感度が良いと感じました。


このマウスは、以前使っていたマウス同様、コンパクトにできていて、持ち運びが楽です。また、薄型なのもうれしい。マウスのクリックや、スクロールなどのボタンも十分な動きをしてくれます。無線のドングルも、マウスにしまえるようになっており、なくす心配がありません。


私は脂性で、長い間使うと、マウスが汚くなって、手触りも悪くなります。だから、数年で新しいものに交換しています。だから、このくらいの安いマウスで、昨日も十分なものを提供してくれるのはありがたいです。




2025年2月9日日曜日

2025年2月10日(日)付毎日新聞の辛口数独の解き方

 2月10日(日)付の毎日新聞に掲載されている辛口数独の解き方を説明する。唐辛子のマークが5つついており、たいへん難しい問題という表示になっている。



問題は上のようなものである。




とりあえず、簡単にわかるところだけを埋めてみる。以下のようになる。



これ以上は単純な考え方だけでは数字が埋められない。少し工夫してみる必要がある。


ここで下の図を見てもらいたい。右側上段の9つの箱に注目する。この図で赤い直線で示した部分には「5」と「8」がその直線上にあるので、赤い四角で示した2つの箱のいずれかに、「5」もしくは「8」が入り、他の数は入らない。



これを利用すると、右側下段の9つの箱の一つに「4」が入ることがわかる。


それ以降も、難しいところもあると思うが、じっくり考えれば解くことができるはずである。




2025年2月4日火曜日

街歩きの計画

 10年以上前、大学時代の同期10数人と街歩きを始めました。


定年退職で時間が増えたことと、健康維持が目的です。


当初は他のグループの街歩きコースを利用していましたが、同じコースを歩く人がいるため面白みが半減することもあり、自分たちで計画を立てることに。私がなぜかその役割を引き受けることになりました。


以来、様々な街歩きコースを作成してきましたが、詳細な計画は今となっては思い出せません。時間をかけて探せば思い出すものもあると思いますが、時間がかかりそうです。


最近は、年を取ったこともあり、1~2時間程度のウォーキングを楽しんでいます。歩くのはほとんど東京都内です。


「毎日が土曜日」状態の人が多いため、通常は平日の午前中に歩き始め、昼食を共にして解散という計画にしています。


街歩きの計画作成は大変です。東京に暮らしていても知らない場所は多く、計画を作る際はほとんど行ったことがない場所になります。Googleマップと、東京近辺の散歩コースを紹介している雑誌や本が頼りです。


雑誌や本は若い人向けのコースが多く、高齢者には不向きなものがほとんどです。コースというよりは、行く場所を参考にする程度でしょうか。


行き先を欲張りすぎると距離が長くなりすぎるため、程々にしないといけません。Googleマップでコースを作成し、距離や時間を参考にコースを作り直します。大変な作業ですが、コース作りも楽しみの一つと考えています。


コロナ禍では、集団で外を歩くことに抵抗があり、街歩きは行いませんでした。昨年あたりからコロナ禍も落ち着き、運動不足解消のため活動を再開しています。


今後は機会があれば、街歩きコースをこのブログで紹介できればと思っています。




DeepSeekの開発に使用されている「蒸留」とは?そして、その動向は?

 DeeepSeekが最近話題になっています。このDeepSeekの開発に使われた手法の一つに「蒸留」という言葉があります。英語ではDistillingあるいはDistillationと表されているようです。


以前から、「大規模な機械学習モデルを小規模なモデルに圧縮する」ということに関しては、AIの分野においては、必須のものだと考えられていました。というのは、AIでの回答を得るのに、何時間もかけていてはだめで、即座に回答を抽出する必要があること、高速のエンジンや膨大なメモリ量がない場合にAIを適用する必要があるなどの理由があるからです。


従って、大規模な機械学習モデルを小規模なモデルに圧縮するアイデアは以前からありましたが、それをニューラルネットワークに本格適用したのが、ディープラーニングの父として知られるGeoffrey Hinton(ジェフリー・ヒントン)氏です。


当時米Google(グーグル)に所属していたヒントン氏らの研究チームは2015年、ニューラルネットワークが出力する確率分布を使ってモデルを圧縮する新手法を示しました。同氏は論文「Distilling the Knowledge in a Neural Network」の中で、この手法を「蒸留(Distillation)」と表現しました。


ヒントン氏が提案した手法のポイントは、AIモデルが出力する単一の「正解」のみを活用するのではなく、どの選択肢が正解らしいかを確率で示した確率分布全てを活用する点にありました。そこで、この確率分布を模倣するよう小規模モデルを学習させる手法を考案し、それを「蒸留」と命名しました。


その後、従来の蒸留手法に加え、敵対的蒸留(Adversarial Distillation)やグラフ蒸留(Graph Distillation)など、様々な手法が提案されています。


教師モデルと生徒モデルを同一のモデルとし、学習過程で教師モデルの出力を生徒モデルの学習に利用する自己蒸留(Self-Distillation)も登場しています。


また、多様な濃縮手法として、 k-means法やクラスタリングを用いた手法、教師あり学習、半教師あり学習、強化学習など、様々な学習フレームワークで深層相互学習が利用されています。


また、 複数のモデルを同時に学習させ、互いに知識を共有する深層相互学習(Deep Mutual Learning)も、モデルの精度向上に貢献しています。


蒸留の応用としては、画像認識、自然言語処理、音声認識など様々なタスクで利用されており、濃縮されたデータは、モデル学習だけでなく、データ可視化や分析にも利用されています。


今後も、より高度な蒸留・濃縮手法の開発が行われ、より効率的に知識を転送・抽出する手法や、多様なデータ形式に対応できる手法の開発が行われることが期待されます。




斎藤元彦兵庫県知事の人気は高い

 文春オンラインの記事に兵庫県の斎藤元彦知事の話で以下のようなことが書かれていました。日経の社説を引用したあとでの部分です。 「兵庫県知事についての社説は当然だが日経以外にもあり、ちょっと挙げただけでも以下のようになる。 『兵庫第三者委 知事の資質欠如は明らかだ』(読売新聞) 『...