Facerigの後継「Animaze」を試してみた

お疲れ様です。なつよ(夏目葉太)です。

Facerigの後継であるAnimazeを試してみました。

オンラインでの登壇やミーティングの機会が増え、使っている人も多いと思うので記事を書きました。

 

Animazeとは

Facerigの後継として2020/11/17にリリースされました。

Vtuberを実現するために使用している人も多いのではないでしょうか。

Facerig自体のサポートは2021/12/31までとアナウンスされています。

www.animaze.us

 

www.animaze.us

 

FacerigからAnimazeへの移行は必要か?

今すぐではありませんが必要です。

サポート期限(2021/12/31)を過ぎた後、Windows Updateなどによって動かなくなる可能性があります。それまでに移行すればOKなのですが、UIがかなり変わっていますので、慣れるためにも早めの準備が良さそうです。

 

自作または依頼したLive2Dモデルは移行可能か?

結論から言うと可能でした。ただし、IDの変換作業が必要です。

モデリングの段階で、新しめのLive2D Cubism Editor(4系)を使っていればそれほど難しくないと思います。

Animazeを試してみよう

我が家の環境は以下の通りです。ここにFacerigとLive2D用のモジュールを購入しています。

  • OS:Windows 10 Pro
  • PC:intelNUC(BOXNUC8I7BEH)
  • メモリ:16.0GB
  • CPU:Intel(R) Core(TM) i7-8559U CPU @ 2.70GHz (8 CPUs), ~2.7GHz
  • GPUIntel(R) Iris(R) Plus Graphics 655 

 

AnimazeはSteamで利用可能です。

store.steampowered.com

インストールしました。Facerigとは別ソフトとして動きます。

f:id:okisan2:20210108131529p:plain

完全に別ソフト扱い

デフォルトで使えるワンちゃんアバターが動いています。

f:id:okisan2:20210108131716p:plain

わんわんお

自作のLive2Dアバターを取り込んでみます。

Live2Dアバターのインポートについては以下の動画が参考になりました。

公式で日本語での記事&動画つき。ありがたいですね。

www.animaze.us

 

取り込み前作業

IDについて、2.1から3.0以降への変換が必要です。

モデリング>モデルのIDを変換 を実施後、再度moc3を書き出してください。

上の記事内の動画でも解説されています。

モデラーさんから.moc3拡張子を含むアバターのデータを受け取った方は、モデラーさんに上記の作業を実施してもらい、再度データをもらう必要があります。

IDの変換をしなくてもAnimazeでLive2Dモデルの取り込みはできますが、ラッキングしません。エラーメッセージ等出ないので引っかかる人が多いようです。ご注意を。

 

 

さあ、取り込んでみよう

Facerigだとエクスプローラーからフォルダを自分で配置する必要があったのですが、AnimazeだとGUIから直接インポートできるようになりました。やったね!

 

インポート>Live2Dのアバターをインポート

f:id:okisan2:20210108132607p:plain

モデル名.model3.jsonを指定すれば完了です。簡単!

 

自作アバターのインポートに関しては、サブスクリプションに加入するか、アバターごとにインポート料金$0.99が必要との情報がありますが、2020/12/15のアップデートで無料になったようです。やったね!(2回目)

store.steampowered.com

 

動作確認

顔のトラッキングは問題なさそうです。

作成したアニメーションが動くのかどうか試してみましょう。

(モデルにアニメーションを設定する方法についてはこちらをお読みください)

infragirl.hatenablog.jp

 

動きました!

f:id:okisan2:20210108133710g:plain

こちらのモデルは「バンザイ」「ジト目」「よだれ」を実装しているのですが、ジト目だけ動きませんね…。まばたきと口の動きはトラッキング対象なので動かないのかもしれません。こちらは継続して調査が必要ですね。

 

アニメーションを設定していないアバターの場合は、エラーメッセージ「No actions or poses available for this avatar」が表示されるようになりました。これはFacerigではなかった機能ですね。個人的に良アップデートだと思うポイントです。テストしやすいですしね。

 

配信してみよう

Facerigだと「ブロードキャストに切り替え」に該当する機能です。

「放送」ボタンを押せばOKです。これもかなり簡単になりました。

私の環境ではOBSを使用しています。

Facerigの時と同じように、「映像キャプチャデバイス」で認識されますね。ソース名はAnimaze Virtual Cameraです。

 

OBS側に「animaze FREE」のロゴが表示されるほか、Animazeの方に制限時間が表示されていますね。サブスクリプションを購入すれば消えそうです。

 

Plusのを購入してみました。サブスクリプションが「Subscribed」になりました。

時間制限が消えました。

OBS側にAnimazeのロゴが残りますが、Animaze > 全般 > Animazeのウォーターマークを非表示にする で消すことができました。

 

まとめ

Facerig -> Animazeの移行はそれほど難しくない

Live2Dモデルはモデラー側での作業が必要(ID変換、moc3再書き出し)

90分以上の配信をしたい場合はサブスクリプションが必要($9.99/年)

 

以上です。オンラインVtuber登壇したい人の参考になれば幸いです。

2020年を振り返って

お疲れ様です。

なつよ(夏目葉太)です。

2020年ももう終わりなので、振り返ってみます。

 

転職したよ

いろいろありましたが一番大きなイベントと言えば転職です。

infragirl.hatenablog.jp

 

このエントリだけアクセス数がえらいことになりました。

公開当日のアクセス解析です。1日1万アクセスはぎりぎり届きませんでした。

画像に含まれている可能性があるもの:、「アクセス解析 アクセス数 9,805 今日 10,076 今週 10,827 今月 123,344 123, 合計 日 時間 15,000 10,000 5,000 05/08 05/10 05/12 05/14 05/16 05/18 05/20」というテキスト

 

入社1か月の間は研修期間でした。

その間ラズパイを使ってpythonやgitの基本的な使い方を学んでいました。

その時に書いたブログ記事がこちらです。googleアナリティクスを見ている部署から連絡があったらしいです。たくさん見てもらってうれしいです。

顔認証系なのに顔出しをしたくないという理由から同僚に依頼しました。入社1週間で顔出しを依頼してくる後輩社員、今考えるととんでもないな。(本当にありがとうございました。)

www.creationline.com

Azure中心になったので、AZ-900を取得しました。ばんざい。

 

Live2D楽しいよ

転職のほかには、Live2Dにはまった年でもありました。

infragirl.hatenablog.jp

 

infragirl.hatenablog.jp

 

来年はLive2Dのスキルを伸ばしつつ、3Dモデリングに手を出したいなーとか思い始めています。

 

執筆も進んでいるよ

 

インフラ女子の日常の執筆ですが、進捗率としては60%ぐらいでしょうか。

残っているタスクとしては

  • 描きおろし回の作成。残り7回
  • 既出回のリマスター(vol.1~vol.13)
  • 表紙や謝辞の作成等…

もうちょっとスピードを上げたいと思いつつ、転職後の勉強もしているので

時間が足りてないです。5人ぐらいにスケールしたい。目標は2021年度中の出版です…!まじで年単位かかるんですけど執筆ってこのぐらいかかるのが普通ってことで良いんでしょうか。今日もTLに出版のお知らせが流れていくので割と焦ります。遠い目。

執筆環境に液タブとClip Studioを取り入れたことにより、作画クオリティとスピードが向上しました。

infragirl.hatenablog.jp

休職しているよ

Twitterではちょくちょく書いているのですが、11月初めから休職しています。

10月の初めから体調が悪くなりはじめ、

  • オンラインミーティングに参加しても会話に参加できなくなる。「なつよさん聞いてる~?」が頻発。ミーティングに遅刻も頻発。スタンバイしているのにzoomのリンクを押し忘れる等。
  • 寝つきが悪い+ほぼ毎晩3時~4時ごろの中途覚醒
  • 聴覚と臭覚が敏感を通し越して過敏に。戸棚から出したコップに水を入れると戸棚の味がする。特にスパイクする音全般がダメになる。(特にドアを閉める音と皿を落とす音)
  • 会話での聞き直しが増える(単語が聞き取れない)

 

原因としては、コロナ禍+転職や執筆というイベントの発生(ポジティブなイベントでもストレスになり得るとのこと)+身内のワチャワチャetcのコンボが決まってしまったようです。お医者さんの治療を受けつつカウンセリングを受けてます。

転職して半年たたないうちに休職となってしまい、会社の人に申し訳ない気持ちがすごいです。12月末現在で8割ぐらい元気になったので、お医者さんと復帰の相談をしているところです。

 

さいごに

2020年の最後は少しペースダウンとなってしまいました。お世話になった皆さん、至らない人間ではありますが来年もお付き合いいただけると嬉しいです。あとコロナ禍は早く爆発しろ!!!!!!!

【Live2D】【facerig】でコマンド入力でよだれを垂らせるようにする

おはこんばんにちは。

Live2D+facerigでコマンド入力でよだれを垂らせるようにしたので、メモがてら方法を書いていきます。

実際に使ってみるとこんな感じ。

f:id:okisan2:20201214153909g:plain

 

こちらはよだれいぬさん(@pabroff_freeze)のアイコン画像をベースに作成したアバターです。

主にtwitchで使っていただいてます。リスナーさんからもカワイイ!と好評のようで、とてもうれしいです。

www.twitch.tv

 

facerigで指定のキー(私の場合はQ)を押すとよだれが垂れて引っ込みます。

facerigのコマンド入力は、facerigのウィンドウがアクティブになっていないと受け付けないようで、最初は実行されなくて焦りました…。

 

facerigでコマンドでアバターを動かす方法してはいろいろあるみたいですが、今回はアニメーションを作ってコマンドをトリガーに再生するやり方を採用しました。

パラメータを直接実行する方法もあるみたいですが実現優先でそちらの調査まで手が回らなかったのでまた今度…。

 

違うモデルですが、Live2D+facerigでモデルを作ってみた系の記事は以下からどうぞ。

infragirl.hatenablog.jp

infragirl.hatenablog.jp

 

使用した環境は以下の通りです。

  • Windows 10 バージョン1909
  • Live2D Editor 4.0.06(有料版)
  • facerig(多分2020年12月時点の最新。ごめんバージョン調べる方法ぱっと見わからんかった。)

 

流れとしては

 

  1. よだれpsdファイルを作成する
  2. よだれパーツの動き(パラメータ)をつける
  3. よだれを出すモーション(アニメーション)を作成する
  4. facerigに組み込む

 

という感じです。

 

よだれpsdファイルを用意する

 

公式サイトを参考にしました。

docs.live2d.com

よだれのレイヤを用意します。

公式サイトによれば、元のpsdファイルによだれを追加すれば、元のpsdファイルごと差し替えてくれるらしいのですが、なぜか私の環境だとうまくいかない(後から足したpsdが1枚のパーツとして認識される)ので、よだれだけのpsdを作って、「すべてのレイヤーを新規アートメッシュとして追加」する方法を選びました。

f:id:okisan2:20201214142023p:plain

宙にうかぶよだれ

よだれパーツの動き(パラメータ)をつける

よだれパーツを「口の曲面」デフォーマに紐づけました。

f:id:okisan2:20201214143726p:plain

f:id:okisan2:20201214143801p:plain

こうすることで口の動きによだれが追随します。

f:id:okisan2:20201214144007g:plain

追随するよだれ

よだれパーツ単体に、口の開閉パラメータを動きを付けます。

そのままだと口を開けた時によだれがこんにちはしてしまうので、

口を開閉しても上唇のパーツの裏側に隠れるように調整します。

f:id:okisan2:20201214144334g:plain

ぱくぱく

最後に「よだれ」というパラメータを新規作成します。

-30.0が無よだれ状態(デフォルト)で、30.0の時が最大よだれ状態になるようにしました。

IDはfacerigに仕込むときに使用するので控えておきます。

↑今回のやり方では使用しませんでした。

f:id:okisan2:20201214144629p:plain

実際にパラメータを動かして、動きを確認してみましょう。

f:id:okisan2:20201214144920g:plain

口を開けた時の動きも確認しておきましょう。

f:id:okisan2:20201214145143g:plain

 

よだれを出すモーション(アニメーション)を作る

よだれが出る動きを作ります。

facerig上で特定のキーが入力されるのをトリガーに、あらかじめ作成したシーンが再生されるという流れです。

アニメーションの作り方はこちらを参考にしました。

www.youtube.com

 

f:id:okisan2:20201214151154g:plain

 

facerig用に組み込む

アバター全体のファイルと、モーション用のjsonをそれぞれ書き出す必要があります。まず前者からやります。

本記事では触れませんでしたが、このモデルには物理演算が設定済みなので、「物理演算設定ファイルを書き出す」にもチェックを入れておきます。あらかじめフォルダを作って、そのフォルダの配下に書き出すようにしておくとfacerigに組み込むときスムーズです。フォルダ名は必ず英語にしてくださいね。このブログ内では「yodareinu_v_1_0_2」としています。

f:id:okisan2:20201214145442p:plain

そのフォルダの配下に「Motions」というフォルダを作成します。こんな感じ。

f:id:okisan2:20201214152749p:plain

アニメーションのプロジェクトを開いて、「モーションファイル書き出し」を選択します。

f:id:okisan2:20201214153204p:plain

f:id:okisan2:20201214153338p:plain

先ほど作成したフォルダ「Motions」配下にエクスポートします。「Motions」配下にjsonファイルができていればOKです。

あとは「yodareinu_v_1_0_2」をfacerigのObjects配下に入れれば動きます。

 

さいごに

この方法を使えばほかにもいろいろな表情変化をつけられそうです!

 

intelNUC+cintiq16で作るデジ絵環境

おつかれさまです。

なつめ@なつよです。

 

intelNUCでデジタル絵環境を構成したのでメモがてら記載していきます。

 

現状、インフラ女子の日常の作画はすべてiPad Proとアイビスペイントで行っています。

クリスタのライセンスと、液タブ(cintiq 16)を持っているのですが、ほぼ活用されていない状態でした。理由としては

 

・液タブはHDMIで接続するため、デスクトップ機だとモニタが表示できなくなる(VGAかDisplay Portがあれば可能)

・液タブが重い。机の上に設置するのが面倒

iPadは思い立ったら即描ける。私の書き込みレベルであれば仕上げまで持っていける

 

約7万円を文鎮化していました。もったいない!

 intelNUCを買う前にこのようなことをつぶやいていたのですが、すっかり忘れており、フォロワーさんに「mini Display Portを使えばいいんじゃない?」と言われ、思い出しました。( ゚Д゚)

 

Thunderbolt 3 -> HDMIを変換するアダプタを購入。

余談ですが、こういう変換アダプタを買って2回失敗しているので(変換方向が逆だった)届いて実際につないでみるまでかなりドキドキしてました。商品説明の接続イメージで、パソコン側がThunderbolt 3と書いてあったので失敗ないとは思うのですが…。

 

 

こうして無事モニタと液タブが同時に使えるようになりました。

intelNUCが小さいので卓上もすっきりしてていいですね。

 

intelNUC、小さいわりにスペックも良いのでがっつりデジタル描きたい人にもありなのでは?と思っています。参考になれば。

【Live2D+facerig】髪揺れを追加しました(とりあえず揺れればいい人向け)

おはこんばんにちは。なつめ@なつよです。

Live2D+facerigによるVtuberのベースができたので、ブラッシュアップしていきます。

今回は髪揺れ機能を付けました。

手順は

 

①揺らしたいパーツにワープデフォーマの追加(フリー版だと上限あるので注意)

②揺らしたいパーツに紐づいているパラメータの調整

③物理演算の追加

 

となります。

 

以下の動画を参考にしました。

この動画の時からかなりEditorのバージョンが上がっており(動画当時:2系、現在4系)、メニュー遷移などが変わっていましたが、ワープデフォーマの追加やパラメータの調整についてはほぼ同じで、物理演算の追加方法がかなり変わっていました。

www.youtube.com

 

以下は後ろ髪の例です。

「髪揺れ 後ろ」で-1.0の時と1.0の時に大きく揺れるようにワープデフォーマを調整します。参考動画でも言われていたように、強風が吹いているんじゃないかというぐらい大げさにします。

f:id:okisan2:20200528105151p:plain

ブフォーーー

f:id:okisan2:20200528105301p:plain

ブフォーーーー

gyazo.com

パラメータを動かすとかなり動くのがわかりますでしょうか?

横髪、前髪についても同じように設定します。

 

次に物理演算を追加していきます。

ここが2系から大きく変わっていて、設定を探すのに難儀しました。

2系ではViewerを使用しますが、4系ではEditorで完結できるようになったようです。

モデリング」→「物理演算・シーンブレンド設定を開く」

 

f:id:okisan2:20200528105841p:plain

 

 

物理演算タブ状態にして

f:id:okisan2:20200528110030p:plain

グループを追加していきます。(グループ名プルダウン右の「追加」をクリック)

名前は任意のもので大丈夫です。

 

今回は以下のようにグループを作成しました。

f:id:okisan2:20200528110239p:plain

後ろ髪、前髪についてもプリセットは同じです。

これで入力設定は完了です。(かなりチューニングできますが今回はデフォルト値のままでいきます。これでもけっこういい感じに揺れますよ)

 

次に出力設定です。ここで実際に揺らすパラメータを選択します。

出力設定タブ→出力のプルダウンで実際に動かしたいパラメータを指定します。

 

f:id:okisan2:20200528110735p:plain

パラメータ調整の時点でかなり大げさな動きにしたおかげなのか、デフォルト出力でも結構動きます。あとはお好みで出力調整アップダウンしてください。

 

gyazo.com

動作確認中。かわいいですね(しつこいほどの自画自賛

頭を動かすと髪がゆらゆらします。

あとはmoc3ファイルを書き出してfacerigのフォルダに入れればオッケーです。

書き出すときに「物理演算設定ファイル(physics3.json)を書き出す」にチェックが入っているかどうかの確認を忘れずに。

f:id:okisan2:20200528112629p:plain

あとはfacerigで実際に動作するか確かめてみてください。

物理演算というと身構えてしまいますが、プリセットを利用すればかなり簡単にできました。次回は耳ピコを実装したいです。

 

Vtuberを作成しました(Live2D+facerig)

おつかれさまです。

なつめ@なつよです。

唐突ですがこれを見てください!!!!うおおおおおおおおお!!!

gyazo.com

 

かわいい!!!かわいい!!!(自画自賛

Live2Dでモデルを作成してfacerigに取り込みましたー!これでVtuberごっこができます!!!!!いえーーーーい!!!!

 

作るまでの手順をざっくりおさらいがてら書いていきます。

 

作ろうと思った経緯

楽しそうだからというだけです。以上です。

 

とりあえず何からやったの

 

湊川あい(@llminatoll)さんのnoteを見つつLive2Dの操作を覚えました。

https://note.com/llminatoll/n/na68a350223c7

 

次に、facerigを購入して、自分のパソコンで動作するか確認しました。

公式でも推奨動作環境は記載されていますが、未熟なもので実際に動かしてみるまでわからなかったのです…。(自作に詳しい方なら即わかるのでしょうか…)

store.steampowered.com

パソコンとカメラのスペックは以下の通りです。

 

OS:Windows 10 Pro

PC:intelNUC(BOXNUC8I7BEH)

メモリ:16.0GB

CPU:Intel(R) Core(TM) i7-8559U CPU @ 2.70GHz (8 CPUs), ~2.7GHz

GPUIntel(R) Iris(R) Plus Graphics 655 

※CPU、GPUはNUC購入時から変更ありません。結論を言っておくと、facerig+zoomでファンがブンブン言うので、ゲーム収録とかは厳しそうです…。

 

webカメラ:iVcam(iPhone XR

webカメラを持っている人はwebカメラを使えばいいと思います。

 

さてモデルを作るぞ

 

 

 実は今回のモデルを作るまでに、没になったPSDファイルが2つあります。

Live2Dにおけるメッシュやデフォーマの概念や操作方法がよくわかっていなかったのが原因です。動かすとガタガタで見るに堪えないものでした。

 

そこで、Live2Dの公式動画を見て操作を確認することに。

www.youtube.com

これは厳密にはfacerig用ではありませんが、きれいに瞬きのさせる方法についてはこの動画シリーズがめちゃくちゃ参考になりました。

こんどこそいけそうな気がしてきたのでモデルを作り直すことに。

 

 

 

モデル作成はiPad Pro + アイビスペイントで行い、完成したらクリスタのクラウドにアップロードしてクリスタに取り込みます。(アイビスペイントからクリスタに連携する方法については割愛)

 

これ以降の手順についてはかなりざっくり書いてます。湊川さんのnoteと公式動画を参考にしてください。

 

PCのクリスタでファイルを開き、ぱっと見おかしくなければpsdファイルをエクスポート。psdファイルをLive2D Cubism Editorに取り込みます。Live2D Cubism Editorは現時点での最新バージョン(4.0.03)を使用しました。

あとは湊川さんのnoteや公式動画を参考にしつつモデリング(ひたすらメッシュを打ち直す&調整)を行います。満足いく出来になるまでがしんどかった。

 

gyazo.com

 

瞬きすると白目が完全に消えなかったり、胴体がおかしい部分がありますが、facerigではここまで大きく動かないと思い、ひとまずこれで良しとします。

テクスチャアトラスの書き出しを行い、moc3ファイルの書き出し、facerigの取り込みまで行います。

 特にトラブルもなく無事取り込めました!

やはりfacerigだとそこまで大きく動かないので、Live2Dのテスト時の胴体のずれはそこまで気になりませんね。白目が消えない問題も大丈夫そうです。

口や目をかなり大きく開けないとアバターに反映されない問題がありましたが、facerig側でキャリブレーションすればおおむね問題なくなりました。(アドバンスUIを有効化した状態で、「表情の早い自動調整」「頭ポーズの早い自動調整」を実施。)

 

初期状態だとアバターが小さいのですが、Altキー+マウス操作で大きくしたり位置を調整できます。

今後の課題

とりあえずこのキャラクターでYoutubeやZoomがしたいです。ゲーム録画だときついけど、おしゃべりするだけならまだいけそう(パソコンのスペック的に)

iVcam経由で音声が取り込めないのと、Zoomだとなぜか相手側で画面が反転する問題を解決できたら、だれかZoomしましょう(ぼそぼそ)

 

以上です。うおおおおおお!

8年間勤めたSIerを退職します

おはこんばんにちは、なつめ@なつよです。

手短な退職エントリーです。

 

Twitterにも書いていたのですが、5月末で新卒から勤めた地元のSIerを退職することにしました。18日から有給消化中です。

 理由はいろいろあるけれどここでは書きません。書こうと思ったんですけど、8年間もいるといろんな思いが混じりすぎてまとめられなくなりました。落ち着いたらそのうち書くかも。

 

どんな仕事をしていたの

2012年に今の会社に20歳ピチピチ新卒で入社したときはピュアピュアマックスハートだったので、IT企業=プログラミングと信じて疑いませんでした。実際に配属された先では、ISPで使用するサーバの更新案件(ほぼLinux系でメールサーバ、DNSサーバ、Radiusなど)、お客様対応の後方支援、USBドングルの更新・展開、スマホMDMの導入などいろいろやりました。最低7時間寝ないと体力がもたないというのもあり、残業時間は、45時間を超えた月は数えるぐらいしかないはずです。(仕事はいくらでもあったし、管理職から「70時間やってでも終わらせなきゃいけないこともあるよね?」と言われたりしていましたが…)プログラミングはシェルスクリプトPerlぐらいで、1か月に1回書くか書かないかぐらいでした。BIND9の脆弱性に泣かされてDNS Summer DayやJANOGに行くようになったのもこの頃からです。

2019年には異動になり、お客様のシステム更新のサーバ担当になりました。

ここで初めてWindows ServerとOracleに触りました。前者はpowershellが楽しいから仲良くなりたいけど後者はまだ怖いです。というかDBが全般的に怖い。

 

ぶっちゃけどうだったの

どちらかというと弊社は安定を求めるほうで、入社時は特に気にならなかったのですが、実際にイベントや勉強会に顔を出したりするうちに、新しい技術で仕事をしてみたいという気持ちが強くなりました。

私がよく触っていたのがMRTG/Perl/freeradius/postfix/BIND9で、それをオンプレミスか社内の仮想基盤でVMで構築していました。なので、職務経歴上コンテナやメガクラウドSaaSの経験はありません…。技術は積み重ねなので、枯れた技術で理解を深めることで新しい技術にもとっつきやすくなるし、無駄ではなかったと思うのですが、さすがに「UnboundよりBIND9のほうが古くて枯れているから安定している」と真顔で上司から言われたときはさすがにどうしようかと思いました。(^_^;)

これを書いている日は2020/05/21ですが、また沢山出たみたいですね。春のBIND9祭り…。

しんどさもあったけど、弊社に勤めなかったら「インフラ女子の日常」は絶対に生まれなかったので、感慨深いものがあります。執筆活動も容認していてくれました。新卒時に内定が出たのが今の会社と、印刷屋さんの社内SEでした。後者だったらデータセンターに行っていなかったでしょう。

 

転職が決まるまで

2018年ごろから転職のことをなんとなく考え始め、転職支援サイトに登録したり、Twitterでなんとなくつぶやいたりしていました。最初にも書いた通り理由はありすぎてまとまらないので、書きませんが、同じくIT業界に勤める友人と「転職するなら30歳になる前かな」という会話はしていました。

実際に本格的に動き始めたのは2019年11月です。(転職希望えんとりというタイトルでブログをアップしたらホッテントリになってしまった頃です)フォロワーさんにうちの会社を受けてみませんかと誘っていただけたり、相談に乗っていただいたり、職務経歴書を見ていただたりで本当にありがたかったです。途中からDMはほぼ返事が返せませんでした。実際に履歴書を送って選考に進んだのは4社で、最終的に2社から内定をいただきました。

 

新しい会社は

入社は6月からです。具体的にどのような仕事になるかはまだわからないのですが、今までの仕事よりちょっと開発寄りになりそうです。つよつよな方がたくさんいらっしゃるようで、一緒に仕事できるのが楽しみです。オフィスも通勤圏内にあり(うれしい!)出社もリモートもできるカルチャーですが(うれしい!)、昨今のコロナ事情でリモート入社になりそうなのもあり、有給消化中は在宅環境を整備しています。勉強をしろ。

 

8年間使っていたPCをリニューアルしたり

卓上周りを整えたり

togetter.com

 

_人人人人人人人_
> 勉強をしろ <
 ̄Y^Y^Y^Y^Y^Y ̄

さいごに

|д゚)コレ・・・オイテオクワネ

https://www.amazon.jp/hz/wishlist/ls/18J6XF90ZUCQC?ref_=wl_share