显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

阿弥陀佛

街树飘影未见尘 潭月潜水了无声 般若观照心空静...

 
 
 
 
 
 

四川省 成都市

 发消息  写留言

 
一直从事气象预报、服务建模实践应用。 注重气象物理场、实况场、地理信息、本体知识库、分布式气象内容管理系统建立。 对Barnes客观分析, 小波,计算神经网络、信任传播、贝叶斯推理、专家系统、网络本体语言有一定体会。 一直使用Java、Delphi、Prolog、SQL编程。
 
近期心愿潭深流水缓, 德高言语迟, 境随心转,法从心出, 知性为自然立法, 分布式地球科学内容管理。
博客等级加载中...
今日访问加载中...
总访问量加载中...
最后登录加载中...
 
 
 
 
 

日志分类

 
 
日志分类列表加载中...
 
 
 
 
 
 
 
列表加载中...
 
 
 
 
 
 我要留言
 
 
 
留言列表加载中...
 
 
 
 
 
 
 
 

[置顶] 心经

2008-5-25 11:11:33 阅读1218 评论5 252008/05 May25

观自在菩萨,行深般若波罗蜜多时,照见五蕴皆空,度一切苦厄。舍利子,色不异空,空不异色,色即是空,空即是色,受想行识, 亦复如是。舍利子,是诸法空相,不生不灭, 不垢不净,不增不减。是故空中无色,无受想行识,无眼耳鼻舌身意,无色声香味触法, 无眼界,乃至无意识界,无无明,亦无无明尽,乃至无老死,亦无老死尽。无苦集灭道, 无智亦无得,以无所得故。菩提萨陲,依般若波罗蜜多故,心无挂碍,无挂碍故,无有恐怖,远离颠倒梦想,究竟涅盘。三世诸佛, 依般若波罗蜜多故,得阿耨多罗三藐三菩提。故知般若波罗蜜多是大神咒,是大明咒, 是无上咒,是无等等咒,能除一切苦,真实不虚。故说般若波罗蜜多咒,即说咒曰:揭谛揭谛,波罗揭谛,波罗僧揭谛,菩提娑婆诃。

来自:http://baike.baidu.com/view/73651.htm

(2013-07-29 00 于成都)感悟心经:般若源于心,心静则为自在菩萨,法由心出。心静=心经。对于一个程序员,找到一个静态特征语言(如:scala,OWL),写出序为特征的静态结构程序,可以得到心经所描述的,无我的,普世的世界(仅仅是现阶段的参悟)。

(2013-10-28 于维也纳) 感悟心经:"色不异空,空不异色,色即是空,空即是色"是心经的中心思想。近期研究范畴论和scalaz,体会到:

1. 半群(semigroup)具有内生(endo)的特性,保证了类的自身衍生的能力,具有明显的“色”特征;但是,半群由于缺乏“幺”,而缺乏“基底”,使得fold,flodleft无法展开,故加入“空”,可以使群

作者  | 2008-5-25 11:11:33 | 阅读(1218) |评论(5) | 阅读全文>>

LSTMPeephole learningRate=0.04,Decay=0, MSE=0.8

2018-1-11 17:19:09 阅读4 评论0 112018/01 Jan11

l

stm.optim.Test

2018-01-11 17:16:55 INFO  ThreadPool$:79 - Set mkl threads to 1 on thread 1

2018-01-11 17:16:55 INFO  Engine$:94 - Detect bigdl.localMode is set. Run workload without spark

/tmp/model.bigdl

Sequential[dd4ef64f]{

  [input -> (1) -> (2) -> (3) -> output]

  (1): BiRecurrent[1027c434](2, Sequential[6b5bdb06]{

  [input -> (1) -> (2) -> (3) -> output]

  (1): ConcatTable[d633115] {

    input

      |`-> (1): Identity[73249f37]

       `-> (2): Identity[4c63a51a]

       ... -> output

作者  | 2018-1-11 17:19:09 | 阅读(4) |评论(0) | 阅读全文>>

LSTMPeephole test result

2018-1-10 17:13:31 阅读2 评论0 102018/01 Jan10

LSTMPeephole(learningRate=0.1,learningRateDecay=0.01)

batchSize = cores * 300

momentum = 0.9

nesterov=true

dampening=0.0

===

Epoch 78 ==> MSE=1.1305753

作者  | 2018-1-10 17:13:31 | 阅读(2) |评论(0) | 阅读全文>>

LSTMPeephole tensorboarder

2018-1-9 18:30:47 阅读2 评论0 92018/01 Jan9

1. 2小时时间差200次迭代,MSE = 4.3              (learningRate=0.03, learningRateDecay=0.003)

2. 2,4,6小时时间差100次迭代,MSE = 4.7 (learningRate=0.03, learningRateDecay=0.003)

3. 2,4,6小时时间差100次迭代,MSE = 3.987148  (learningRate=0.07, learningRateDecay=0.007)

4. 2,4,6小时时间差100次迭代,MSE =  3.761049 (learningRate=0.1, learningRateDecay=0.01)

5. 2,4,6小时时间差100次迭代,MSE = 3.4476483   (learningRate=0.2, learningRateDecay=0.02)

6. 2,4,6小时时间差100次迭代,MSE = 3.2742631  (learningRate=0.3, learningRateDecay=0.03)

7. 2,4,6小时时间差100次迭代,MSE = 3.1621227   (learningRate=0.4, learningRateDecay=0.04)

作者  | 2018-1-9 18:30:47 | 阅读(2) |评论(0) | 阅读全文>>

预报3个时次,时差2小时LSTMPeephole,MSE=469.53

2018-1-8 14:17:11 阅读1 评论0 82018/01 Jan8

结论:时差2个小时MSE(469) > 时差1个小时MSE(450) > 没有时差特征MSE(420)

时差在LSTM中不仅没有作用,反而,有可能带来副作用。

作者  | 2018-1-8 14:17:11 | 阅读(1) |评论(0) | 阅读全文>>

预报4个时次,时差1,3,6 MSE=625.65

2018-1-8 9:10:04 阅读2 评论0 82018/01 Jan8

多添加几个时差3,6收敛效果改进有限。计算速度明显变慢。

作者  | 2018-1-8 9:10:04 | 阅读(2) |评论(0) | 阅读全文>>

预报4个时次,MSE误差610, 时差特征1小时

2018-1-7 21:27:40 阅读2 评论0 72018/01 Jan7

与预报3个时次MSE=470比较,预报4个时次MSE=610,表明LSTMPeephole的预报极限是3个时次。

作者  | 2018-1-7 21:27:40 | 阅读(2) |评论(0) | 阅读全文>>

LSTMPeephole L1L2(0.12,0.12) 3 hour forecast,14 Ele,500 Iter MSE

2018-1-7 9:06:06 阅读3 评论0 72018/01 Jan7

作者  | 2018-1-7 9:06:06 | 阅读(3) |评论(0) | 阅读全文>>

GRU,LSTMPeephole学习对比

2018-1-5 17:25:00 阅读4 评论0 52018/01 Jan5

B --- GRU      null                  13minu    mse=1909

D ---- LSTM   null                  46minu     mse=991

F ----  GRU    L1L2(0.1,0.1) 12minu    mse=1090

H ---- GRU     L1(0.1)            13minu    mse=1725

J  ---- GRU     L2(0.1)            12minu    mse=1169

L ----  LSTM  L1L2(0.1,0.1)  48minu    mse=471

N ----LSTM    L1L2(0.12,0.12)45minu mse=420

作者  | 2018-1-5 17:25:00 | 阅读(4) |评论(0) | 阅读全文>>

4时次预报LSTMPeephole

2018-1-4 9:38:33 阅读2 评论0 42018/01 Jan4

-th loss = 241486.31

2-th loss = 121047.61

3-th loss = 103379.195

4-th loss = 17458.855

5-th loss = 8876.375

6-th loss = 10182.715

7-th loss = 8411.061

8-th loss = 12204.467

9-th loss = 9387.874

10-th loss = 18653.65

11-th loss = 13910.965

12-th loss = 23015.463

13-th loss = 9529.266

14-th loss = 13528.418

15-th loss = 6124.8564

16-th loss = 10759.389

17-th loss = 6846.0474

18-th loss = 15348.182

19-th loss = 7428.1836

20-th loss = 18202.814

21-th loss = 10486.912

22-th loss = 27475.195

23-th loss = 7466.3276

24-th loss = 17138.549

作者  | 2018-1-4 9:38:33 | 阅读(2) |评论(0) | 阅读全文>>

201801010800# 正在通过文件服务器方式获取 201801010800 站点数据....

201801010800# /data/calf/csv/eleh/csv0/2018/20180101/201801010800.csv 到站行:102454

201801010800# 站点预报获取成功. 花费0 秒.

201801010700# 正在通过文件服务器方式获取 201801010700 站点数据....

201801010700# /data/calf/csv/eleh/csv0/2018/20180101/201801010700.csv 到站行:102454

201801010700# 站点预报获取成功. 花费0 秒.

201801010600# 正在通过文件服务器方式获取 201801010600 站点数据....

201801010600# /data/calf/csv/eleh/csv0/2018/20180101/201801010600.csv 到站行:102454

201801010600# 站点预报获取成功. 花费0 秒.

201801010500# 正在通过文件服务器方式获取 201801010500 站点数据....

201801010500# /data/calf/csv/eleh/csv0/2018/20180101/201801010500.csv 到站行:102454

201801010500# 站点预报获取成功. 花费0 秒.

作者  | 2018-1-4 9:36:50 | 阅读(2) |评论(0) | 阅读全文>>

LSTM 10245 * 14要素,隐含14,sgd,迭代100次MSE演化

2018-1-3 10:26:54 阅读3 评论0 32018/01 Jan3

201801010800# 正在通过文件服务器方式获取 201801010800 站点数据....

201801010800# /data/calf/csv/eleh/csv0/2018/20180101/201801010800.csv 到站行:102454

201801010800# 站点预报获取成功. 花费1 秒.

201801010700# 正在通过文件服务器方式获取 201801010700 站点数据....

201801010700# /data/calf/csv/eleh/csv0/2018/20180101/201801010700.csv 到站行:102454

201801010700# 站点预报获取成功. 花费0 秒.

201801010600# 正在通过文件服务器方式获取 201801010600 站点数据....

201801010600# /data/calf/csv/eleh/csv0/2018/20180101/201801010600.csv 到站行:102454

201801010600# 站点预报获取成功. 花费0 秒.

201801010500# 正在通过文件服务器方式获取 201801010500 站点数据....

201801010500# /data/calf/csv/eleh/csv0/2018/20180101/201801010500.csv 到站行:102454

201801010500# 站点预报获取成功. 花费0 秒.

作者  | 2018-1-3 10:26:54 | 阅读(3) |评论(0) | 阅读全文>>

BigDL LSTM 建模面临的问题

2017-12-27 10:33:58 阅读6 评论0 272017/12 Dec27

1. LSTM 模型选择

2. 一维标签时序配对选择方案

3. 输入特征数据结构

4. 批次/训练样本组织

5. 能否支持二维(要素,时间)标签时序

6. 最优化模型选择

====================================

1. LSTM 模型选择

    1)标准LSTM

          测试代码

          MultiCell

    2)BinaryTreeLSTM

         

作者  | 2017-12-27 10:33:58 | 阅读(6) |评论(0) | 阅读全文>>

英特尔? 至强? 处理器 E7 v3 助力提升 Java* 应用性能

2017-12-15 21:24:55 阅读4 评论0 152017/12 Dec15

英特尔? 至强? 处理器 E7 v3 助力提升 Java* 应用性能

java -XX:+UseRTMLocking -Xms40g -Xmx40g -XX:+UseParallelGC -XX:+UseParallelOldGC  -classpath `ls ~/calf270/lib/*.jar |tr "\n" ":"` amtf.Scheduler &

作者  | 2017-12-15 21:24:55 | 阅读(4) |评论(0) | 阅读全文>>

BigDL/ModuleSerializerSpec.scala

2017-12-7 0:34:54 阅读8 评论0 72017/12 Dec7

Ref

package layers.model

import com.intel.analytics.bigdl.nn.{LSTM, Recurrent}

import com.intel.analytics.bigdl.tensor.Tensor

import scala.util.Random

object Lstm_1 {

def main(args: Array[String]): Unit = {

val lstm = Recurrent[Float]().add(LSTM(6, 4))

val input1 = Tensor[Float](Array(1, 5, 6)).apply1(_ => Random.nextFloat())

val res1 = lstm.forward(input1)

println(input1)

println("===========")

println(res1)

作者  | 2017-12-7 0:34:54 | 阅读(8) |评论(0) | 阅读全文>>

查看所有日志>>

 
 
 
 
 
 
 
日志评论
评论列表加载中...
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2018

注册 登录  
 加关注