アイソモカ

知の遊牧民の開発記録

Dakara nandatte Iunda Yo!

DIY

愚痴です。 Clubhouseとかの声出すやつで声で判断された性別に基づいた偏見みたいなこと言われてヴッッとなり咄嗟に何も言えなくて苦しむことあるね…— ピジェ/𐀠𐀋 ピージェイ (@xiPJ) January 15, 2022 先日Clubhouseで工具の話をしてて、電動ドライバドリル…

お母さん、彼女と食事に行くよ

日本語教育、第二言語としての日本語の補助教材でこの課を勉強しようとして、あーヤベッってなった話。 このブログの読者は日本語ネイティヴかネイティヴ並みに日本語を読めるひとたちだと思うので、この問題は簡単に解けるだろう。じゃあ、どうやって解くん…

なんで怒ってるか分かる?

他者の心を推論する話で思い出した、ぼくが小学校3年か4年生くらいの頃、音楽の先生が怒ったときの話。 音楽の授業で音楽室に移動して、授業の始まりのチャイムが鳴ってもみんなわちゃわちゃしてた。そうしたら音楽の先生が怒り出して、 「今日は授業はもう…

Wild mushrooms ひとり反省会

あらBさんのポッドキャストに出演させていただきました。 Ep. 43 Piijey loves themself の続きです。 Ep. 45 Wild mushroomsピージェイさん @xiPJ とクリエイティブなことがやれないときの気持ちのエネルギー不足、自転車装備、2021年の新語・しょうもない…

Does Piijey love themself!?

あらBさんのポッドキャストに出演させていただきました。話したいトピックが多くて、 AirPods Pro 充電タイムを2回取らなきゃいけないくらいの長丁場になってしまったけど、楽しかったです。申し訳なさ&感謝が過ぎる。 今日公開されたのは前編です。 Ep. 43…

派手派手しいパンツを買った

パンツの話です。下着のパンツ。 メンズのボクサーパンツやトランクスって、派手派手なやつがよくあるじゃないですか、複数の原色がガヤガヤしてる、ヴィレッジバンガードみたいなやつ。 そういうのが履きたかったんですが、股の間に凸がないので、布が余っ…

論文50本読む!じゆうちょう Advent Calendar 2021

じゆうちょう Advent Calendar 2021 - Adventarのための投稿です。「2021年にやってみた新しいこと」というお題で、研究を始めるときにやった「論文50本読む!」を紹介します。 背景 4月から情報科学博士課程の学生(D1)になりました。自然言語処理が専門です…

重箱隅突きぃ 【精神不具合記録】

ええかっこしぃ(ええ格好したがりな人)、緊張しい(緊張しがちな人)みたいに、重箱隅突きぃ(重箱の隅を突きがち)なピジェです。 もし自分が求めるほどのタスク処理能力が自分にないなら、人生をやるためにはあらゆるものを諦めるしかないのか? ぼくの…

新しいことに飛びつく自分と、日常をやりたい自分のケンカ 【精神不具合記録】

じぶんのなかの、面白そうな/新しいことにどんどん飛びついて取り入れてスケジュールをミチミチにしてしまう部分と、日常をやりながら物事にじっくり取り組みキッチリやりたい部分が、激しくケンカしてる。(さっき、後者が負けた音がした) どうやら、どっ…

擬態とジェンダー

読み始めました。面白そうな本なのにタイトルで「自分はこの『女の子』にあてはまらないのは?と躊躇ってしまうんだよな。中を見てみると、生まれた時に「女の子です」って言われた人、自分は女の子だ/かもしれない?と思う人は、あてはまるっぽいので、よ…

BERT は毎朝味噌汁を作るか 【BertForMaskedLM】

BertMaskedLMで遊んでいて「毎朝あなたのために[MASK]を作ります。」で[MASK]部分に入る語を予測したら 1位が「詩」(確率0.078)、2位が「番組」(確率0.077) …ってなってて、えーそうなん???となった。Wikipediaで学習したBERTは味噌汁作れへんねや。https…

開発記録 210916 BertJapaneseTokenizer をさわってみる

『Pytorch自然言語処理プログラミング』の1章が終わって、間を飛ばして5章をやってます。 book.impress.co.jp 東北大BERT cl-tohoku/bert-base-japanese · Hugging Face と BertJapaneseTokenizer を使って文を単語列に分割していきましょう。 ... ModuleNot…

怠け者の根性なしではなかったっぽい(精神ソフトウェア不具合対応記録)

この記事は7月上旬〜8月上旬に下書きしたものを少し編集し、8月下旬に投稿したものです。 6月末に文字通り泣きながらこの一連のツイートを書き、自分にとって自分の不得意な部分の何が問題なのか改めて考え、カウンセリングルームと精神科に行き、服薬と検査…

疑問に思ったことを聞いただけなのに、怒られがち

やっちまった。 問題点を指摘するとその人の意見に反対していると受け取られがち & 意見に反対するとその人自身を軽んじてると受け取られがち、のダブルコンボをやってしまった……— ピジェ/𐀠𐀋 ピージェイ (@xiPJ) 2020年5月5日 どうやらこのダブルコンボに、…

はじめての語用論 第1章〜第3章

文脈や場面なしにことばを理解することはできないのではないかと思い、語用論に興味を持ち、教科書を読んでいます。端的にいうと空気が読めたい。 章末の練習問題の解答を書いてみます。問題を解くと、さらさらっと読んだだけではあまり理解できていなかった…

麻辣燙(麻辣湯、まーらーたん)を食べましょう

昨年末に初めて食べてから、麻辣燙が好きです。 ぼくはまだ日本でしか食べたことがないので、日本のお店の話です。 どんな食べ物? どうやって注文するの? 中国語分からないんですけど? どこにあるの? 王道鸭脖 池袋店(池袋) 無限麻辣湯 食べる薬膳スー…

開発記録 200311 Wed (データフレーム欠損位置を他のデータフレームにも反映)

自主課題(ということにしておきましょう。オシゴトでポチョポチョやっている開発で、どうするかなあと考えていて、家に帰って作った)。 課題 2つのデータフレームを比較したい。2つのデータフレームの行と列は共通だが、1つのデータフレームには欠損値が含…

開発記録 200306 Fri (お魚の本 2章, 相互情報量, 次元削減)

お魚の本 (ゼロから作る Deep Learning ② 自然言語処理編) 2.3 カウントベースの手法 を読んで書いてみる。 2.4.1~2.4.3 相互情報量、次元削減、SVD メモ:行列の大きさを得る .shape メモ:辞書のループに .items() を使う方法 count_method_small.py を実…

開発記録 200305 Thu (お魚の本 2章, カウントベース)

今日は雨が降ったり雹が降ったり晴れたり曇ったり、山みたいな天気だった。 お魚の本 (ゼロから作る Deep Learning ② 自然言語処理編) 2.3 カウントベースの手法 を読んで書いてみる。 2.3.2~2.3.6 単語の共起行列、コサイン類似度を使った類似単語のランキ…

開発記録 200304 Wed (100本ノック #073, Scikit-Learn インストールだけ / お魚の本 2章 カウントベース下準備)

言語処理100本ノック #073 準備:scikit-learn をインストール お魚の本 (ゼロから作る Deep Learning ② 自然言語処理編) 2.3 カウントベースの手法 (2.3.1 コーパスの下準備):正規表現が分からない 言語処理100本ノック #073 # 73. 学習 72で抽出した素性…

開発記録 200229 Sat (100本ノック #072, 素性抽出)

先週末は新居を探しに行ったし、今週末は引越しの見積りの人が家に来たし、内定先に色々な書類も出した。着々と準備が進んでいる気がする。準備は進んでいるものの、新しい仕事への不安もつのる。 新型肺炎の拡散防止のために日本語教室も休みになってしまい…

開発記録 200227 Thu (100本ノック #071, ストップワード)

今回はストップワードかどうかを判定するコードを書きました。さらに、実際どのような単語が多く出現しているのかも見てみました。 言語処理100本ノック #071 準備 解答 テスト出力 頻出単語を調べる コード 頻度分布

開発記録 200219 Wed (100本ノック #070, 機械学習データの整形)

第7章 後半はちょっと後回しにすることにしまして、第8章。今回は機械学習に使うデータの整形をしました。 最近、メモアプリの ”Bear” を使い始めた。オシャレでシンプルで使いやすそうだし、マークダウンで書けるのが良さそうかなと思った。 でもはてなブロ…

開発記録 200212 Wed (100本ノック #064 前半, MongoDB)

今回は MongoDB を準備して、Python から登録・検索・削除をしてみました。 あとで気づいたんですが、 #065 以降は Python ではなくMongoDB のインタラクティブシェルを使うように書いてありますね。Python でも良いかな……。 言語処理100本ノック #064 準備:…

開発記録 200211 Tue (100本ノック #061, #062, #063, LevelDB)

前回 に続き、Key-Value-Store (KVS) として LevelDB を使っていきます。前回 LevelDB チュートリアルを少し書いたので、今回はとてもスムーズにできました。 言語処理100本ノック #061: KVSの検索 解答 言語処理100本ノック #062: KVS内の反復処理 解答 言…

開発記録 200210 Mon (100本ノック #060, LevelDB)

今回から 第7章: データベース です。今回は JSON 形式のデータを読んで、Key-Value-Store (KVS) データベースを作りました。LevelDB を初めて使いました。 言語処理100本ノック #060 LevelDB の準備 解答

開発記録 200608 Sat (100本ノック #059, Stanford CoreNLP)

今日はこれの他に、地域日本語教室の支援者向け講座を聞いたり、台湾のドキュメンタリー映画「漢字」を観たりした。そろそろ花粉症の薬をもらいに耳鼻科へ行かなあかん時期やんなあ。めんどいなあ。 前回 の続きです。 言語処理100本ノック #059: S式の解析 …

開発記録 200206 Thu (100本ノック #059 途中, Stanford CoreNLP CorefAnnotator)

Stanford CoreNLP の解析結果に句構造解析の結果が入っていなかった。アノテータオプションでルールベースの共参照解析を指定することで解決した。 言語処理100本ノック #059 Stanford CoreNLP の CorefAnnotator 結果の違い Deterministic (ルールベース) …

開発記録 200205 Wed (100本ノック #048, Stanford CoreNLP)

CoreNLP 使うとき、1文しかなくてもごっつ時間かかるねんけど、なんでやろなあ。 2020/02/06 追記:アノテータオプション付けへんと、機械学習の計算ようさんしはるからや。ルールベースの共参照解析を指定すると、そないに時間かからへんで。 isomocha.hate…

開発記録 200204 Tue (100本ノック #057, Stanford CoreNLP)

読み途中の本はあるけど(「Pythonで学ぶあたらしい統計学の教科書」と「ゼロから作る Deep Learning ❷ 自然言語処理編」)、とりあえず 100本ノックを進めよう。 言語処理100本ノック #057: 係り受け解析 有向グラフ 解答 出力