<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>振り返り記事 &#8211; 塵も積もれば備忘録</title>
	<atom:link href="http://localhost/category/%E6%8C%AF%E3%82%8A%E8%BF%94%E3%82%8A%E8%A8%98%E4%BA%8B/feed?simply_static_page=2361" rel="self" type="application/rss+xml" />
	<link>/</link>
	<description>ふわふわ</description>
	<lastBuildDate>Sat, 31 Dec 2022 08:36:42 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.4.2</generator>
	<item>
		<title>2022年の個人的総括と2023年の目標</title>
		<link>/2022/12/31/2022matome.html</link>
		
		<dc:creator><![CDATA[es-key]]></dc:creator>
		<pubDate>Sat, 31 Dec 2022 08:36:42 +0000</pubDate>
				<category><![CDATA[振り返り記事]]></category>
		<guid isPermaLink="false">/?p=148</guid>

					<description><![CDATA[およそ1年ぶりの更新になります。。。 まとめ 勤務技術ブログの執筆しかやってない 何もしなくても何かをしていても時間は等&#46;&#46;&#46;]]></description>
										<content:encoded><![CDATA[<p>およそ1年ぶりの更新になります。。。</p>
<h2>まとめ</h2>
<ul>
<li>勤務技術ブログの執筆しかやってない</li>
<li>何もしなくても何かをしていても時間は等しく無くなることを実感</li>
<li>2023年やりたいこと:
<ol>
<li>DeepSpeedに詳しくなる</li>
<li>成果物までたどり着く</li>
</ol>
</li>
</ul>
<h2>2022年にやったこと</h2>
<p>昨年もやっていた、2022年に世間一般に公開した技術的な話を時系列列挙してみたいと思います。</p>
<ol>
<li>2022年1月: 勤務先ブログにて「<a href="https://tech.retrieva.jp/entry/20220128">深層学習の量子化に入門してみた 〜理論編〜</a>」を公開</li>
<li>2022年3月: 勤務先ブログにて「<a href="https://tech.retrieva.jp/entry/20220304">深層学習の量子化に入門してみた 〜BERTをDynamic Quantization〜</a>」を公開</li>
<li>2022年5月: 勤務先ブログにて「<a href="https://tech.retrieva.jp/entry/20220527">深層学習の量子化に入門してみた 〜BERTをStatic Quantization〜</a>」を公開</li>
<li>2022年7月: 勤務先ブログにて「<a href="https://tech.retrieva.jp/entry/20220704">深層学習の量子化に入門してみた 〜BERTをIntel Neural CompressorでStatic Quantization〜</a>」を公開</li>
<li>2022年12月: 勤務先ブログにて「<a href="https://tech.retrieva.jp/entry/20221201">DeepSpeed Compressionを使ってtask-specific BERTを蒸留してみた</a>」を公開</li>
</ol>
<p>勤務先で技術ブログを書く文化がなかったらどうなっていたんだろう。。。</p>
<h3>振り返り</h3>
<p>2022年は量子化とか蒸留を用いたモデルサイズ軽減にハマっていたみたいですね。<br />
昨今機械学習モデルがどんどん大きくなるので、この辺調べると面白いかなと思ってやってみたら実際面白かったので1年通して調べてたみたいな感じです。<br />
モデルサイズ軽減以外にも学習などなど様々な状況で取り回しが良さそうなDeepSpeedも面白く、まだまだ発展していくライブラリのような気がしました。<br />
来年もこの辺は調べると思います。</p>
<p>今年他にやったこととしては技術的な知識を仕入れた点とかでしょうか。<br />
<a href="https://www.amazon.co.jp/dp/4048930591
">Clean Code</a>、<a href="https://www.amazon.co.jp/dp/4798116831
">レガシーコード改善ガイド</a>、<a href="https://www.amazon.co.jp/dp/4274217884
">テスト駆動開発</a>とかは結構参考になったような気がしますが、身についたかどうかはよくわからないです。。。</p>
<p>成果物？知らないですね。。。</p>
<h3>2022年の総括</h3>
<p>2022年は良く言えば来年のために充電していた年、悪く言えば何もしていない年だったと思います。<br />
仕事終わってご飯食べてゲームして寝るだけでも一日は充実するんですね。。。</p>
<p>世間一般だとStableDiffusionとかChatGPTが話題になって、深層学習モデルが広く注目された年だったこともあり、自分もその辺でなにかしようかなとか思ったような気もしますが、逆張り気質なので結局投げるなどしてしまった記憶がちょっとありますね。。。</p>
<h2>2023年の目標</h2>
<p>2023年はとりあえず継続してDeepSpeedには詳しくなっておきたいですね。<br />
これからも継続して使うライブラリのような気がします。<br />
他にも量子化だとQATとかさわってないのでその辺はやりたいかな？</p>
<p>あとはやっぱり何か外に共有したい、とかが目標になるのかなと思います。<br />
個人的に技術記事とか成果物とかって興味持った事柄を触っていると勝手に生えてくるものかと思っていたのですが、（少なくとも自分は）そうではなさそうなので、強い意志をもって成果物を生み出せるように活動していきたいと思います。</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>2021年の個人的総括と2022年の目標</title>
		<link>/2021/12/30/2021matome.html</link>
		
		<dc:creator><![CDATA[es-key]]></dc:creator>
		<pubDate>Thu, 30 Dec 2021 08:04:54 +0000</pubDate>
				<category><![CDATA[振り返り記事]]></category>
		<guid isPermaLink="false">/?p=83</guid>

					<description><![CDATA[年の瀬ということで、2021年にやったことの振り返りと2022年でやりたいことをまとめようと思います。 まとめ やったこ&#46;&#46;&#46;]]></description>
										<content:encoded><![CDATA[<p>年の瀬ということで、2021年にやったことの振り返りと2022年でやりたいことをまとめようと思います。</p>
<h2>まとめ</h2>
<ul>
<li>やったことの大半は勤務先技術ブログの執筆</li>
<li>今年は研究発表ができた、来年は。。。</li>
<li>2022年やりたいこと:
<ol>
<li>来年ももう少し日本語要約を擦りたい</li>
<li>個人開発勉強する</li>
<li>GECとかもちょっとやりたい</li>
</ol>
</li>
</ul>
<h2>2021年にやったこと</h2>
<p>2021年、世間一般に公開した内容を時系列順に挙げてみようと思います。</p>
<ol>
<li>2021年1月: 勤務先技術ブログにて「<a href="https://tech.retrieva.jp/entry/2021/01/26/163641">AACL-IJCNLP2020で発表してきました</a>」を公開</li>
<li>2021年3月: 言語処理学会第27回年次大会にて「<a href="https://www.anlp.jp/proceedings/annual_meeting/2021/pdf_dir/P4-17.pdf">CSJを用いた日本語話し言葉BERTの作成</a>」を発表</li>
<li>2021年3月: 言語処理学会第27回年次大会にて「<a href="https://www.anlp.jp/proceedings/annual_meeting/2021/pdf_dir/P1-12.pdf">事前学習モデルを用いた少量データに対する日本語抽象型要約<br />
</a>」を発表</li>
<li>2021年3月: ジャーナル自然言語処理にて学会記事「<a href="https://www.jstage.jst.go.jp/article/jnlp/28/1/28_276/_article/-char/ja/">Stronger Baselines for Grammatical Error Correction Using a Pretrained Encoder-Decoder Model. の採択までの流れ記事</a>」が公開</li>
<li>2021年4月: 勤務先技術ブログにて「<a href="https://tech.retrieva.jp/entry/2021/04/01/114943">日本語話し言葉BERTを作成、公開します！</a>」を公開</li>
<li>2021年5月: 勤務先技術ブログにて「<a href="https://tech.retrieva.jp/entry/2021/05/24/091705">事前学習モデルBARTを使って日本語文書要約をやってみた</a>」を公開</li>
<li>2021年8月: 勤務先技術ブログにて「<a href="https://tech.retrieva.jp/entry/2021/08/25/185920">ACL2021のBest PaperのVOLTを日本語文書分類で試してみた結果...！</a>」を公開</li>
<li>2021年9月: 勤務先技術ブログにて「<a href="https://tech.retrieva.jp/entry/2021/09/29/160323">ラベルなしデータだけでも高い精度で文法誤り訂正ができるLM-Criticの紹介</a>」を公開</li>
<li>2021年9月: 日本語GPT-2を使ったデモアプリ「<a href="https://www.narou-generator.com/">&quot;小説家になろう&quot;っぽい小説タイトルメーカー</a>」を公開、紹介記事（Qiita）は<a href="https://qiita.com/Katsumata420/items/077de5d968eb7d600d36">こちら</a></li>
<li>2021年11月: 勤務先技術ブログにて「<a href="https://tech.retrieva.jp/entry/2021/11/24/183232">事前学習モデルT5とTransformersを使ってお手軽日本語文書要約をやってみた</a>」を公開</li>
<li>2021年12月: 個人ブログ「<a href="https://eskaylog.com/">塵も積もれば忘備録</a>」を公開</li>
</ol>
<p>勤務先の技術ブログ多いですね......</p>
<h3>2021年前半を振り返って</h3>
<p>1月から6月までを振り返ってみると、トピックとしては次の3つに分かれるみたいです。</p>
<ol>
<li>AACL-IJCNLP2020のネタ</li>
<li>言語処理学会第27回年次大会まわり</li>
<li>日本語BARTで要約</li>
</ol>
<p>1と2は2020年にやってたネタです。（何なら1は2019年終わり辺りからちょっとやってたまである）<br />
1については、学会記事なども書かせて頂いて、研究の始まりはかなりわちゃわちゃしていたような気がしますが、終わりはちゃんと振り返りまでできたような覚えがあります。<br />
学会記事を書かせて頂いて、改めて解説記事、というか論文採択までの流れを説明するのって難しいなぁと感じました。。。<br />
この学会記事シリーズは個人的に読み物としてもかなり面白く（とくに採択までの流れは普段聞けないのでおもしろい）、隙間時間にちょこちょこ読んで、勉強させていただいています。</p>
<p>2は社内でやっていた話を外に出せて良かったーという点が自分にとって大きかったと思います。<br />
日本語要約はデータ用意したから発表しちゃえ、ぐらいの気持ちだったような気が。。。<br />
思ったよりも出力する要約の抽象度が高いデータだったので、そもそもEnc-Decでできるのか不安とかもありましたが、やってみたら意外とできたこともあり、その後も割とこのデータを擦っている感じですね。</p>
<p>3からが2021年に入って始めたことになると思います。<br />
年次大会で日本語BARTを作っていただいたことを知り、動かしたいーって思って数ヶ月。<br />
動かした話を世間に公開できてよかったです。</p>
<h3>2021年後半を振り返って</h3>
<p>7月から12月までを振り返ってみると、トピックは次のようになります。</p>
<ol>
<li>最新論文で遊ぶ</li>
<li>日本語T5で要約</li>
<li>個人開発をやってみた</li>
</ol>
<p>1はただただ好奇心の産物です。<br />
日本語でやってみるとどうなるかなー？的な疑問と、実際に自分で動かしてみたい気持ちでVOLTを触ってみたとかだったと思います。<br />
LM-Criticも動かしてみたさはあったんですが、個人でやると絶対に重たいので断念、論文紹介に留めました。。。<br />
来年もこういう記事はちょこちょこ出すだろうと思います。</p>
<p>2はせっかくあるなら動かそうのやつですね。<br />
はじめてTransformersでEnc-Decやったんですが、めっちゃ簡単ですね。<br />
OpenNMT-pyとかも当時は簡単だと思ったんですが、時代が進むとどんどん楽なものが出てくるんだなと実感させられました。</p>
<p>3は昨年からやりたいなと思いつつなかなかできなかった話ですね。<br />
GPT-2デモの構成もそのうちどこかに書こうとは思うのですが、かなり簡単にできてます。<br />
実際に作業しているときもググれば無限に解決策出てくるので、本当にいい時代になったものだと思いました。</p>
<h3>2021年の総括</h3>
<p>2021年、全体的には思ったより色々できなかったなーという印象です。。。<br />
とくに個人開発周りとかはもっと色々できたかと。。。<br />
平日もうちょっと時間作れればって後悔が大きいですね。</p>
<p>日本語要約で事前学習モデルを色々検証できたのは良かったかなと思います。<br />
ひととおりはできたので、次は評価かデータセットか。<br />
もう少し触りたいですね。</p>
<p>研究的な話は2020年にやったことが外に出た印象です。<br />
来年は、、、どうなんでしょうね。。。</p>
<h2>2022年の目標</h2>
<p>2021年の振り返りから2022年の目標は次のようになるのかなと思います。</p>
<ol>
<li>日本語要約の評価ないしはデータセット</li>
<li>開発周りをもう少し勉強する</li>
<li>GECないしは校正支援まわりのなにかをやる</li>
</ol>
<p>1は色々やって技術ブログで公開とかできるとよいのかなと思います。<br />
とりあえずBERTScore触りたい触りたいめちゃくちゃ触りたい。</p>
<p>2は切実ですね。。。<br />
作りながら覚えていくのが自分の性に合っているので、そんな感じで進められるといいのかなと思います。</p>
<p>3が急に来た感じではありますが、これは<a href="https://eskaylog.com/2021/12/21/gec.html">以前の記事</a>でGECとかを考えて、自分でもなにかできたらな、みたいな気持ちが由来ですね。<br />
次の年次大会での発表を聞いて、そこから自分でもぱっとできそうな話を考えようと思ってます。</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
