My Japanese Episode ● かわいそう 日本に来たばかりの時、現場の同僚(山田さん)が自分のかわいい子供の写真を見せてくれた。 「かわいらしい」という意味で話したかったのですが、僕は「かわいそう〜」と言ってしまいました。 山田さん:「かわいそう?」 僕:「そう、そう、かわいそう〜」 その時なんだか雰囲気がちょっと気まずくなりました。 側にいる何か分かった中国同僚は笑い出しました。 その後、同僚が山田さんに私の言葉を 2019-03-10 Prose #Prose
EOSのDAPP開発流れ 1. コードを実行し効果を調べる ● C++等言語を開発する 2. ツールを通してコンパイルする *「ツール」:cleos、keosd、nodeos、eosiocpp ① コントラクトファイルを作成する ● eosiocpp -n hello (パス:/opt/eosio/bin/data-dir/contracts) (チェック:docker exec -it docker_nodeosd_1 2018-08-18 Blockchain #Blockchain
ETHのDAPP開発流れ 1. コードをRemixに実行し効果を調べる ● Solidity或はSerpent、Vyper等言語を開発する 2. Truffleを通してコンパイルする ● turffle compile ● turffle migrate (ganache-cli) ● turffle console (web3.jsとtruffle box) ● turffle test (JavaScriptとSoli 2018-08-08 Blockchain #Blockchain
剣道技用語-Kendo Waza Terminology 剣道の技には、ただ単に、「面、小手、突き、胴」を打っていくだけではありません。 相手がいて、相手の動きや、相手の状態に合わせて、さまざまな種類の技を仕掛けていくことになります。基本的には、大きく「仕掛け技」と「応じ技」の二つにわけられます。剣道の技の種類をメモします。 # 一 仕掛け技 仕掛け技とは、相手が動く前に自分が仕掛けることで隙を作る技のことです。 W # 2018-08-06 Kendo #Kendo
日常油画1.0 首先是整体结构绘图和背景颜色基调: David 加色彩: David 其次明暗修改: David 进一步色彩细节修改: David 完成图: David ● OpenSea链接 2017-11-30 Oils #Oils
人物油画1.0 首先是整体结构绘图和背景颜色基调: Masami 加色彩: Masami 其次明暗修改: Masami 进一步色彩细节修改: Masami 完成图: Masami ● OpenSea链接 2017-11-30 Oils #Oils
人物素描4.0 这次的素描对象是一位济南女生,原图: MC 本次作图训练右手画结构,左手调明暗,首先是整体结构绘图: MC 进一步修改: MC 其次用软性炭笔明暗修改: MC 进一步修改: MC 完成图: MC ● OpenSea链接 2017-11-30 Sketches #Sketches
人物素描3.0 这次的素描对象是一位温州女生,原图: ZYY 本次作图训练右手画结构,左手调明暗,首先是整体结构绘图: ZYY 进一步修改: ZYY 其次是明暗修改: ZYY 完成图: ZYY ● OpenSea链接 2017-11-28 Sketches #Sketches
Reinforcement Learning笔记5-Temporal Diff Bellman最优解策略 - 时间差分法(Temporal Difference) 蒙特卡洛算法需要采样完成一个轨迹之后,才能进行值估计(value estimation),这样蒙特卡洛速度很慢,主要原因在于蒙特卡洛没有充分的利用强化学习任务的 MDP 结构。但是,TD 充分利用了 “MC”和 动态规划的思想,做到了更加高效率的免模型学习。 强化学习算法可以分为在同策略(on-policy)和异策 2017-11-15 Reinforcement Learning #Reinforcement Learning
Reinforcement Learning笔记4-Monte Carlo Bellman最优解策略 - 蒙特卡罗方法(Monte Carlo Methods) 蒙特卡罗方法又叫统计模拟方法,它使用随机数(或伪随机数)来解决计算的问题,是一类重要的数值计算方法。该方法的名字来源于世界著名的赌城蒙特卡罗,而蒙特卡罗方法正是以概率为基础的方法。 一个简单的例子可以解释蒙特卡罗方法,假设我们需要计算一个不规则图形的面积,那么图形的不规则程度和分析性计算(比如积分)的复杂程度是成 2017-11-14 Reinforcement Learning #Reinforcement Learning