显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

阿弥陀佛

街树飘影未见尘 潭月潜水了无声 般若观照心空静...

 
 
 
 
 
 

四川省 成都市

 发消息  写留言

 
一直从事气象预报、服务建模实践应用。 注重气象物理场、实况场、地理信息、本体知识库、分布式气象内容管理系统建立。 对Barnes客观分析, 小波,计算神经网络、信任传播、贝叶斯推理、专家系统、网络本体语言有一定体会。 一直使用Java、Delphi、Prolog、SQL编程。
 
近期心愿潭深流水缓, 德高言语迟, 境随心转,法从心出, 知性为自然立法, 分布式地球科学内容管理。
博客等级加载中...
今日访问加载中...
总访问量加载中...
最后登录加载中...
 
 
 
 
 

日志分类

 
 
日志分类列表加载中...
 
 
 
 
 
 
 
列表加载中...
 
 
 
 
 
 我要留言
 
 
 
留言列表加载中...
 
 
 
 
 
 
 
 

[置顶] 心经

2008-5-25 11:11:33 阅读1209 评论5 252008/05 May25

观自在菩萨,行深般若波罗蜜多时,照见五蕴皆空,度一切苦厄。舍利子,色不异空,空不异色,色即是空,空即是色,受想行识, 亦复如是。舍利子,是诸法空相,不生不灭, 不垢不净,不增不减。是故空中无色,无受想行识,无眼耳鼻舌身意,无色声香味触法, 无眼界,乃至无意识界,无无明,亦无无明尽,乃至无老死,亦无老死尽。无苦集灭道, 无智亦无得,以无所得故。菩提萨陲,依般若波罗蜜多故,心无挂碍,无挂碍故,无有恐怖,远离颠倒梦想,究竟涅盘。三世诸佛, 依般若波罗蜜多故,得阿耨多罗三藐三菩提。故知般若波罗蜜多是大神咒,是大明咒, 是无上咒,是无等等咒,能除一切苦,真实不虚。故说般若波罗蜜多咒,即说咒曰:揭谛揭谛,波罗揭谛,波罗僧揭谛,菩提娑婆诃。

来自:http://baike.baidu.com/view/73651.htm

(2013-07-29 00 于成都)感悟心经:般若源于心,心静则为自在菩萨,法由心出。心静=心经。对于一个程序员,找到一个静态特征语言(如:scala,OWL),写出序为特征的静态结构程序,可以得到心经所描述的,无我的,普世的世界(仅仅是现阶段的参悟)。

(2013-10-28 于维也纳) 感悟心经:"色不异空,空不异色,色即是空,空即是色"是心经的中心思想。近期研究范畴论和scalaz,体会到:

1. 半群(semigroup)具有内生(endo)的特性,保证了类的自身衍生的能力,具有明显的“色”特征;但是,半群由于缺乏“幺”,而缺乏“基底”,使得fold,flodleft无法展开,故加入“空”,可以使群

作者  | 2008-5-25 11:11:33 | 阅读(1209) |评论(5) | 阅读全文>>

Abs_1

2017-11-19 19:59:00 阅读2 评论0 192017/11 Nov19

package layers.activation

import com.intel.analytics.bigdl.nn.Abs

import com.intel.analytics.bigdl.tensor.Tensor

object Abs_1 {

def main(args: Array[String]): Unit = {

val module = new Abs[Double]()

val input = Tensor[Double](2, 1, 2)

input(Array(1, 1, 1)) = 21

input(Array(1, 1, 2)) = -29

input(Array(2, 1, 1)) = -13

input(Array(2, 1, 2)) = 27

val gradOutput = Tensor[Double](2, 1, 2)

gradOutput(Array(1, 1, 1)) = 10

gradOutput(Array(1, 1, 2)) = -23

gradOutput(Array(2, 1, 1)) = -10

gradOutput(Array(2, 1, 2)) = 23

val output = module.forward(input)

作者  | 2017-11-19 19:59:00 | 阅读(2) |评论(0) | 阅读全文>>

AbsCriterion_1

2017-11-19 19:36:27 阅读1 评论0 192017/11 Nov19

package layers.activation

import com.intel.analytics.bigdl.nn.AbsCriterion

import com.intel.analytics.bigdl.tensor.Tensor

object AbsCriterion_1 {

def main(args: Array[String]): Unit = {

val criterion = new AbsCriterion[Double]()

val input = Tensor[Double](3)

input(Array(1)) = 0.4

input(Array(2)) = 0.5

input(Array(3)) = 0.6

val target = Tensor[Double](3)

target(Array(1)) = 0

target(Array(2)) = 1

target(Array(3)) = 1

val output1 = criterion.forward(input, target)

val output2 = criterion.backward(input, target)

println("output1:",output1)

println("output2:",output2)

作者  | 2017-11-19 19:36:27 | 阅读(1) |评论(0) | 阅读全文>>

Euclidean_1

2017-11-19 17:40:58 阅读0 评论0 192017/11 Nov19

package layers.activation

import com.intel.analytics.bigdl.nn.Euclidean

import com.intel.analytics.bigdl.tensor.Tensor

import com.intel.analytics.bigdl.utils.RandomGenerator._

import scala.util.Random

object Euclidean_1 {

val seed = 100

RNG.setSeed(seed)

def main(args: Array[String]): Unit = {

val input = Tensor[Double](7).apply1(e => Random.nextDouble())

val gradOutput = Tensor[Double](7).apply1(e => Random.nextDouble())

val module = new Euclidean[Double](7, 7)

var output : Tensor[Double] = null

var gradInput : Tensor[Double] = null

var i = 0

while (i < 5) {

作者  | 2017-11-19 17:40:58 | 阅读(0) |评论(0) | 阅读全文>>

Layer Exp

2017-11-19 16:20:42 阅读0 评论0 192017/11 Nov19

package layers.activation

import com.intel.analytics.bigdl.tensor.TensorNumericMath.TensorNumeric.NumericFloat

import com.intel.analytics.bigdl.nn.{Exp, Power}

import com.intel.analytics.bigdl.tensor.Tensor

object Exp_1 {

def main(args: Array[String]): Unit = {

val layer = Exp()

val input = Tensor(3, 3).rand()

val gradOutput = Tensor(3, 3).rand()

val output = layer.forward(input)

val gradInput = layer.backward(input, gradOutput)

print(output)

print(gradInput)

}

}2017-11-19 16:16:30 INFO ThreadPool$:79 - Set mkl threads to 1 on thread 1 1.1151822 1.2747662 1.438992 2.6

作者  | 2017-11-19 16:20:42 | 阅读(0) |评论(0) | 阅读全文>>

Storage copy

2017-11-19 15:45:54 阅读0 评论0 192017/11 Nov19

object Storage_1 {

def main(args: Array[String]): Unit = {

st3

}

def st3: Unit ={

val values1 = Array(1.0, 2.0, 3.0)

val values2 = Array(4.0, 5.0, 6.0)

val storage1 = Storage(values1)

val storage2 = Storage(values2)

storage1.copy(storage2)

storage2(0) = 8.0

println("storage1.array():",storage1.array().mkString(","))

println("storage2.array():",storage2.array().mkString(","))

}(storage1.array():,4.0,5.0,6.0) (storage2.array():,8.0,5.0,6.0)

作者  | 2017-11-19 15:45:54 | 阅读(0) |评论(0) | 阅读全文>>

Storage fill

2017-11-19 12:22:38 阅读0 评论0 192017/11 Nov19

object Storage_1 {

def main(args: Array[String]): Unit = {

st2

}

def st2: Unit ={

val values = Array(1.0, 2.0, 3.0)

val storage = Storage(values)

println("storage(0):",storage(0))

println("storage.length:",storage.length)

storage(1) = 4.0

println("storage.array()(1):",storage.array()(1))

val iterator = storage.iterator

var i = 0

while (iterator.hasNext) {

val v = iterator.next()

println(s"values($i):",v)

i += 1

}

storage.resize(10)

println("storage.length:",storage.length) //should be(10)

作者  | 2017-11-19 12:22:38 | 阅读(0) |评论(0) | 阅读全文>>

Storage assign

2017-11-19 12:07:11 阅读1 评论0 192017/11 Nov19

object Storage_1 {

def main(args: Array[String]): Unit = {

st1

}

def st1: Unit ={

var i = 0

val values = Array(1.0, 2.0, 3.0)

val storage = Storage(values)

val time = System.nanoTime()

while (i < 1e8) {

storage(0) = 2.0

i += 1

}

println(s"spend time is ${(System.nanoTime() - time) / 1e6}ms")

}spend time is 200.667535ms

作者  | 2017-11-19 12:07:11 | 阅读(1) |评论(0) | 阅读全文>>

Scalar

2017-11-19 10:08:35 阅读1 评论0 192017/11 Nov19

package dat

import com.intel.analytics.bigdl.tensor.Tensor

import com.intel.analytics.bigdl.numeric.NumericFloat

object Storage_1 {

def main(args: Array[String]): Unit = {

t1

}

def t1: Unit ={

//scalar

val tensor = Tensor[Int](Array(4), Array[Int]())

println("val=",tensor.value)

println("size=",tensor.size().length)

println("nDimension=",tensor.nDimension)

println("isScalar=",tensor.isScalar)

}(val=,4) (size=,0) (nDimension=,0) (isScalar=,true)

作者  | 2017-11-19 10:08:35 | 阅读(1) |评论(0) | 阅读全文>>

Tensor setValue

2017-11-19 9:17:48 阅读2 评论0 192017/11 Nov19

package dat

import com.intel.analytics.bigdl.tensor.Tensor

import com.intel.analytics.bigdl.numeric.NumericFloat

import com.intel.analytics.bigdl.utils.T

object Tensor_1 {

def main(args: Array[String]): Unit = {

t123

}

def t123: Unit ={

val a = Array(1f,2f,3f,4f,5f,6f)

val i = Array(2,3)

val t = Tensor[Float](a,i)

t.setValue(1,1,0f)

t.setValue(2,3,5f)

println(t)

val aa = t.storage().array.grouped(3).toArray.map(f => f.mkString(",")).mkString("\n")

println(aa)

}0.0 2.0 3.0 4.0 5.0 5.0 [com.intel.analytics.bigdl.tensor.DenseTensor of

作者  | 2017-11-19 9:17:48 | 阅读(2) |评论(0) | 阅读全文>>

Tensor 赋值

2017-11-19 9:14:07 阅读1 评论0 192017/11 Nov19

package dat

import com.intel.analytics.bigdl.tensor.Tensor

import com.intel.analytics.bigdl.numeric.NumericFloat

object Storage_1 {

def main(args: Array[String]): Unit = {

t0

}

def t0: Unit = {

val ts = Tensor[Float](4,5)

var x = 1

for{

i <- 1 to 4

j <- 1 to 5

}{

ts(i)(j) = x

x += 1

}

println(ts)

}

}

1.0 2.0 3.0 4.0 5.0 6.0 7.0 8.0 9.0 10.0 11.0 12.0 13.0 14.0 15.0 16.0 17.0 18.0 19.0 20.0

作者  | 2017-11-19 9:14:07 | 阅读(1) |评论(0) | 阅读全文>>

Recurrent Neural Networks

2017-11-3 19:02:11 阅读5 评论0 32017/11 Nov3

作者  | 2017-11-3 19:02:11 | 阅读(5) |评论(0) | 阅读全文>>

再分析

2017-11-3 18:16:38 阅读11 评论0 32017/11 Nov3

作者  | 2017-11-3 18:16:38 | 阅读(11) |评论(0) | 阅读全文>>

LeNet ----- bigdl.localMode

2017-11-2 19:38:01 阅读5 评论0 22017/11 Nov2

Lenet模型理解

lenetLocal

val core_number="8"

System.setProperty("bigdl.localMode", "true")

de >System.setProperty("bigdl.coreNumber", core_number)de>

-Dbigdl.localMode=true and -Dbigdl.coreNumber=core_number when runing the program.

example code

System.setProperty("bigdl.localMode", "true")

System.setProperty("bigdl.coreNumber", (param.coreNumber.toString))

Engine.init

作者  | 2017-11-2 19:38:01 | 阅读(5) |评论(0) | 阅读全文>>

查看所有日志>>

 
 
 
 
 
 
 
日志评论
评论列表加载中...
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2017

注册 登录  
 加关注