Lisiur's Blog
GitHub: github.com/lisiur
计算机相关
谈谈我认识的函数式编程
在谈论函数式编程前,我想先聊聊编程的本质。
在我看来编程是指使用计算机解决某个或某类问题的实践过程。
这里面涉及人和机两个概念。人编写程序,计算机执行程序。懂得计算机原理的人应该都知道计算机底层只能表达 0 和 1 两种值而已。而程序却能描绘世间万物。如何把世间万物映射为0/1,亦或者如何使用 0/1 来描述世间万物,这就是编程。
编程是通过什么手段做到呢,答案是抽象
什么是抽象呢,这里引用下 SICP 的描述:
- 将若干简单认识组合成一个复杂认识,由此产生出各种复杂的认识
- 将两个认识放在一起对照,由此得到有关他们相互关系的认识
- 将有关认识与所有其他认识隔离开,这就是抽象
该描述本身就很抽象,我们可以举例具体说明下。
比如我们对狗的认识可以这么描述:
class Dog {
speak() {
console.log('wang wang')
}
breath() {
console.log('hu hu')
}
}
而对猫的认识则可以这么描述:
class Cat {
speak() {
console.log('miao miao')
}
breath() {
console.log('si si')
}
}
我们还认识树:
class Tree {
breath() {
console.log('fu fu')
}
}
我们把 Dog 和 Cat 放到一起对照,发现他们都能 speak。 由此我们得知 Dog 和 Cat 冥冥中有种关系使得彼此关联。
同时我们把 Tree 也加进来,发现 Dog 和 Cat 所具有的这种关系(都可以 speak ),是 Tree 不具有的。由此我们可以抽象出一种新的认识:Animal,而 Animal 则应该可以包含 Dog 和 Cat:
class Animal {
speak() {}
}
class Dog extends Animal {}
class Cat extends Animal {}
以此类推,我们还能发现 Dog,Cat,Tree 都可以 breath,于是我们就又能抽象出一种新的认识:Creature
class Creature {
breath() {}
}
class Animal extends Creature {
speak() {}
}
class Dog extends Animal {}
class Cat extends Animal {}
class Tree extends Creature {}
有心人可能突然发现,欸?这不是用的面向对象里的继承的思想吗?
没错,面向对象的继承正是实现抽象的手段之一,另外值得注意的是,面向对象本身这个大概念都只是实现抽象的手段之一而已。除了面向对象之外,还有其他手段实现抽象吗?答案是肯定的,那就是函数式。
函数式编程的概念由来已久,但时至今日方才渐渐被工业界广泛接受,甚至是追捧。
函数式和面向对象的区别是啥? 在我看来其最大的区别就是:面向对象早已被业界广泛采用并得到长久的发展,时至今日即使与逐渐兴起的函数式相比也是不落下风,甚至还有点小小的优势。
但俗话说一山不容二虎,函数式和面向对象到底谁才能打败对方成为最后的王者呢?我们在项目中又该如何抉择呢?
拜托,这是小孩子才有的思维,成年人当然是全要了。
二者本质上都是为了抽象,只是使用了两种不同的思路解决相同的问题罢了,而具体哪个好当然要具体问题具体分析了,只要明确了要解决的问题的特点,并且对函数式和面向对象的异同了然于胸,自然就会做出合理的选择。
函数式到底是啥呢?
在给出我对函数式的理解之前,我想先回顾下面向对象的定义,如果能有面向对象来类比着理解函数式,相信会更好理解点。
面向对象是指把对象和类作为组织代码的基本单元,那类比着,函数式则是指把函数作为组织代码的基本单元。
这么说貌似有些笼统了,一般来说并不是所有以对象和类作为组织代码的基本单元就能称之为面向对象了,必须还同时使用了封装,继承,多态三大特性。同样的,如果你的代码都是使用函数组织的,也不能就称之为函数式编程了,必须还具备一些函数式所特有的特性才行。具体是哪些特性,且听我一一道来。
我们上文曾提过,计算机内部都是 0/1 串,为了能够更好的抽象,编程语言一般都会有类型的概念。某种 0/1 串表示的是 number,而另一种 0/1 串则代表着 string。
请注意,类型这个概念则是我们一切编程的基础,也是我们对计算机的第一个抽象。(特指编程语言,忽略硬件抽象)
以 js 为例,我们知道 js 包含 number,string,boolean,undefined,null,object,symbol,bigint 等基础类型。
这些我们都能理解,这里需要着重说的是 Function 这个类型,在 js 里 Fucntion 是属于 object 的范畴的,但本身的确也算一种细化的类型。
在讨论函数式时,函数其实算作一种特殊的类型,它是一个类型的同时,也是一个类型构造器。
我们以 js 为例:
function id(a) {
return a
}
对于 id 来说它的类型是:
id :: a -> a
用大白话来说,就是给 id 任意类型的输入,都会输出相同类型的值
再来看个稍微复杂点的类型:
function C(a) {
if (!(this instanceof C)) {
return new C(a)
}
this.value = a
}
C 其实在 js 里是一个构造函数, 而构造函数一般情况下需要使用 new 来构造, 我们在定义 C 时,使用了一个小技巧,判断 this 是否为 C 的实例, 不是的话就手动返回一个 new 构造的 C, 这样的话我们就可以通过 C('value') 达到 new C('value') 的效果。
这个函数的类型是:
C :: a -> C a
即输入任意类型,都会返回被 C 包裹的相应类型。
let a = C(1) // number -> C<number>
let b = C(false) // boolean -> C<boolean>
let c = C('') // string -> C<string>
此处可以更明显的看出函数作为类型构造器的作用。
我们再来看一个稍微特殊点的函数:
// add :: (number, number)-> number
function add(a, b) {
return a + b
}
这种函数需要一次性传入两个类型,才能返回结果,我们再来看看下面的这个函数:
// add :: number -> number -> number
function add(a) {
return b => a + b
}
这个函数比较有意思,输入一个 number 类型后,返回的是另一个函数:number -> number
,
只有给返回的函数再输入一个 number 类型,才能得到最终的 number 结果:
add(1)(2) // 3
这种函数,被称之为柯里化函数。我们可以简单实现一个把任意多参数的函数转换成柯里化函数的工具函数:
function curry(fn) {
return (...args) => _curry(fn, ...args)
}
function _curry(fn, ...args) {
if (args.length >= fn.length) {
return fn(...args)
} else {
return (...restArgs) => _curry(fn, ...args, ...restArgs)
}
}
function add(a, b, c) {
return a + b + c
}
const $add = curry(add)
$add(1, 2, 3) // 6
$add(1, 2)(3) // 6
$add(1)(2)(3) // 6
柯里化函数是函数式编程里的一个重要概念。
你可能会很奇怪,curry
看似很牛逼,实际上并没有啥卵用吧,谁会闲着没事把参数拆开传呢?
别急,好戏还在后头。
跟 curry
搭配干活的是一个叫做 compose
的工具函数。compose 的作用是把形如:d => a(b(c(d)))
这样的函数转变成: d => compose(a, b, c)(d)
的调用形式。
这里值得注意的是,a/b/c 三个函数都是接收一个参数并且返回一个参数的函数。
下面我们来看下 compose
的实现:
function pipe(...fns) {
return (...args) => {
return fns.slice(1).reduce((prev, curr) => curr(prev), fns[0](...args))
}
}
function compose(...fns) {
return pipe(...fns.reverse())
}
有了 compose
我们就能这么操作:
const add = curry((a, b) => a + b)
const multi = curry((a, b) => a * b)
const addAndMulti = compose(multi(2), add(1))
addAndMulti(1) // 4
上面使用 compose
时,是从右往左算的,也就是 先 add(1)
再 multi(2)
,这与我们从左往右的思维是相背的,因此我们还可以使用 pipe
函数实现从左往右的调用顺序(之所以起名为 pipe 是因为,这样数据就会像流水一样从管道左侧流向右侧):
const addAndMulti = pipe(add(1), multi(2))
此时是不是有点明白 curyy
的作用了呢,它可以把多参数的函数转成单参数的函数。而 compose
则可以很方便的复用这些单参数函数,组合成各种不同的函数。
目前为止我们已经实现了很多的函数,但我们好像还没有仔细的想过函数的本质是什么?在我看来,在类型系统中,函数本身是一种类型,所以它可以当作参数传递给其他函数,也可以当作结果返回。同时函数又是一个类型构造器,它可以把一种类型映射成另一种类型。对于多参数的函数来说,我们可以把它柯里化,这样就变成单参数函数。
接下来我们再来看一个例子,我们首先定义一个 map
函数:
// map :: (a -> b) -> [a] -> [b]
function map(fn, list) {
return list.map(fn)
}
map
函数接受两个类型,第一个是函数 a -> b
: 能够把类型 a 映射成 类型 b 的函数;第二个是一个包含 a 类型元素的数组。而输出则是经过第一个函数映射后的新数组 [b]
这个函数貌似也没啥特殊的地方,而且内部实现也是相当简略,还不如直接调用岂不更简单,为啥还要非套一层函数呢?
别急,下面就是见证奇迹的时刻:
我们先用之前的 curry
函数把 map 柯里化一下,并引入 add
函数
const map = curry((fn, list) => list.map(fn))
const add = curry((a, b) => a + b)
现在,假设我们需要实现一个函数,该函数输入一个数组,把数组中每个值都 +1 之后再返回。
此时我们就可以这么实现:
const mapAdd = map(add(1))
mapAdd([1, 2, 3]) // [2, 3, 4]
还是继续上面的例子,这次我们不但要 +1 还要把数组反转。
const reverse = arr => arr.reverse()
const reverseMapAdd = arr => reverse( map(add(1))(arr) )
我们发现在定义 reverseMapAdd
时,必须要声明参数 arr,而定义 mapAdd
时却不需要声明参数。其实 mapAdd
的完整定义应该是这样的:
const mapAdd = arr => map(add(1))(arr)
如果我们把 map(add(1))
单独抽出来:
const _mapAdd = map(add(1))
const mapAdd = arr => _mapAdd(arr)
我们不难发现,mapAdd
其实就是 _mapAdd
本身,我们在定义 mapAdd
时根本不需要声明参数。
这种形式的函数被称为是 pointfree
的(point 即代表参数的意思),不引入参数可以使得函数更简洁明了。
这时候我们再来看下 reverseMapAdd
能不能定义成符合 pointfree
的呢?答案当然是可以的,那就是用上我们刚认识的 compose
函数:
const reverseMapAdd = compose(reverse, map(add(1)))
大家在仔细观察这个 map
函数,会发现一个很特殊的地方,那就是他的第一个参数是函数,第二个参数是数组。按照正常的思维方式,我们会把这两个参数位置换一下:
const map = function(list, fn) {
return list.map(fn)
}
因为我们在面向对象的范式中,常规的调用方式就是 对象.方法
,在面向对象的思维里,一定是先有对象,才有对象的方法调用,也就是说方法是属于对象的。
那是因为面向对象是以对象为抽象的基本单位的,所有的抽象关系都是建立在对象(类)之上,方法不过是对象所特有的行为而已。
面向对象的抽象过程就是先有各种各样的对象,然后把具有相同行为的对象归为一类,抽象出类的概念。而类与类之间则又把相似性抽象为接口或继承等关系。
但是在函数式的范式中,函数才是抽象的基本单位。函数本身是有类型的,函数类型由入参类型和出参类型共同决定,而如果函数 a 的出参类型和函数 b 的入参类型一致, 那么函数 a 和 函数 b 则是可组合的(compose)。函数式的抽象过程就是抽象出函数的组合方式。我们刚学习的 compose 就算是最基础的组合方式了。
也因此,函数式在抽象的过程中只关心函数而不在乎具体的数据,所以这也是为什么在函数式中定义的 map
函数会把函数当作第一参数,而数据放到最后了。这种定义函数的方式是函数式编程的一大特点。
给大家举了 map
的例子其实并不仅仅是为了阐述函数参数的定义习惯问题,这里面其实还隐藏着一个惊天大秘密,那就是函数式编程里大名顶顶的 functor
。
functor
中文翻译为函子,咋一听好像和函数有关系,其实他们的关系跟 Java 和 JavaScript 的关系差不多。
functor
是一个特殊的计算结构,你可以把它理解成一个盒子,这个盒子有一个任意类型的值,同时这个盒子还提供了如何把这个值映射成其他值的方法。
数组就算作是一个 functor
,数组本身是一个盒子,数组里含有一个元组值(可以把数组[1,2,3]
理解成[(1,2,3)]
),同时数组还提供了一个 map
方法可以把内部的值映射成其他值。
我们可以定义一个更加通用的 functor
:
function Box(value) {
if (!(value instanceof Box)) {
return new Box(value)
}
this.value = value
}
Box.prototype.map = function(f) {
return Box(f(this.value))
}
Box
可以理解为一个盒子,这个盒子内部保存一个值 value,同时这个盒子提供了 map
方法把盒子内部的值映射成其他值。因此 Box
就是一个标准的 functor
。
而其实我们之前定义的 map
函数的真正类型则是这样的:
// map :: Functor f => (a -> b) -> f a -> f b
function map(f, functor) {
return functor.map(f)
}
// 下面是之前的定义
// map :: (a -> b) -> [a] -> [b]
function map(fn, list) {
return list.map(fn)
}
函数本身的实现没有什么变化,但是函数的入参类型则从数组变成了更加通用的 functor
,现在 map
的适用范围则更加广泛了。
只是一个 Box
还看不出 map
的威力,我们再来看看一个新的 functor
:
const Option = {
Some(value) {
if (!(value instanceof Option.Some)) {
return new Option.Some(value)
}
this.value = value
},
None() {
if (!(value instanceof Option.None)) {
return new Option.None()
}
this.value = void 0
},
}
Option.Some.prototype.map = function(f) {
return Option.Some(f(this.value))
}
Option.None.prototype.map = function(f) {
return this
}
Option
是一个特殊的 functor
,因为它的值有两种可能,要么是 Some
要么是 None
。
Some
的 map
和 Box
一致,而 None
的 map
则什么也不做。这个 functor
的具体作用我们可以通过一个例子看下:
const {Some, None} = Option
const handler = map(add(1))
handler(Some(1)) // Some(2)
handler(None()) // None()
我们看到,handler
在接收一个 Some
时,会正常处理 add(1)
的逻辑,所以最后返回 Some(2)
;
而在接收一个 None
时,则什么也不做,继续返回 None
。
如果使用面向过程的编码方式则大致等价于:
function add(a, b) {
return a + b
}
function handler(value) {
if (value !== undefined) {
return add(1, value)
} else {
return undefined
}
}
handler(1) // 2
handler() // undefined
我们看到 Option
这个 functor
完美的把条件判断的逻辑封装起来,我们在调用 map
的过程中完全不需要考虑错误的情况如何处理,因为 map
和 Option
已经帮你处理好了。
更有意思的是,即使是多次联合操作也完全没问题。
const init = v => v >= 0 ? Some(v) : None()
const handler = compose(map(add(1)), map(add(1)), map(add(1)), init)
handler(1) // Some(4)
handler(-1) // None()
Option
可以处理两种情况,而对第二种情况(None)则是直接忽略。但有些时候我们希望第二种情况也能带上某些信息,比如异常。
异常在编码的过程中是在所难免的,而一般编程语言都会提供 try-catch
等语法结构来捕获异常,在函数式编程的世界里则完全可以使用 functor
来处理。
const Result = {
Ok() {
if (!(value instanceof Result.Ok)) {
return new Result.Ok(value)
}
this.value = value
}
Err() {
if (!(value instanceof Result.Err)) {
return new Result.Err(value)
}
this.value = value
}
}
Result.Ok.prototype.map = function(f) {
return Result.Ok(f(this.value))
}
Result.Err.prototype.map = function(f) {
return this
}
Reuslt
这个 functor
和 Option
很像,不过它的第二种情况 Err
会保存错误信息。
const {Ok, Err} = Result
const init = function(v) {
if (v >= 0) {
return Ok(v)
} else {
return Err('必须大于 0')
}
}
const handler = compose(map(add(1)), map(add(1)), map(add(1)), init)
handler(1) // Ok(4)
handler(-1) // Err('必须大于 0')
还记得我们刚刚说的函数式的抽象过程就是抽象出函数的组合方式吗,我们看看上面的handler
的定义中,
大家可以考虑下,为什么可以把众多的 map 放到一起 compose?
这是因为,map
函数保证了只要输入了一个 functor
就一定会返回一个 functor
。
所以 map
算作是我们认识的第二个抽像组合方式(compose
是第一个)。
map
很强大,但是我们发现 map
并不能改变 functor
的子类型,比如 map Ok 就一定返回 Ok,map Some 也一定返回 Some,而有时候我们需要 map Ok 时能返回 Err,map Some 时能返回 None。
我们希望有一种模式可以自由操控具体的返回类型,如果有个这个函数的话,那么它的类型大概应该是这样的:
// unknown :: Functor f => (a -> f b) -> f a -> f b
我们再拿出 map
的定义看一下:
// map :: Functor f => (a -> b) -> f a -> f b
我们发现唯一的不同就是第一个参数类型,map
是 a -> b
而我们期望的那个函数则是 a -> f b
,其实这个函数在函数式编程中早已有了一席之地,不过他的真正类型是这样的:
// chain :: Monad m => (a -> m b) -> m a -> m b
function chain(f, monad) {
return monad.chain(f)
}
大家可能会一脸懵逼,这个传说中的函数和 map
的实现貌似差不多啊,而这个 monad
又是什么鬼,和 functor
有啥关系呢?
是的,chain
表示的只是一种概念,而真正的实现在 monad
的 chain
方法里。正如同 map
也只是一个概念,不同的
functor
都会有自己的 map
实现一样。
而这个 monad
其实是和 functor
是一类的东西。它也是代表一个黑盒,内部也保存一个值,但是具有一个 chain
方法,可以把
自己映射成另一个 monad
。
我们之前介绍的 Option
其实也是一个 monad
,它的完整定义如下:
const Option = {
Some(value) {
if (!(value instanceof Option.Some)) {
return new Option.Some(value)
}
this.value = value
},
None() {
if (!(value instanceof Option.None)) {
return new Option.None()
}
this.value = void 0
},
}
Option.Some.prototype.map = function(f) {
return Option.Some(f(this.value))
}
Option.Some.prototype.chain = function(f) {
return f(this.value)
}
Option.None.prototype.map = function(f) {
return this
}
Option.None.prototype.chain = function(f) {
return this
}
我们不难发现,Some
的 map
和 chain
唯一的区别就是,map
把映射后的值再次放回 Some
中,
而 chain
却是直接返回映射后的值。
同样的 Result
其实也是 monad
:
const Result = {
Ok() {
if (!(value instanceof Result.Ok)) {
return new Result.Ok(value)
}
this.value = value
}
Err() {
if (!(value instanceof Result.Err)) {
return new Result.Err(value)
}
this.value = value
}
}
Result.Ok.prototype.map = function(f) {
return Result.Ok(f(this.value))
}
Result.Ok.prototype.chain = function(f) {
return f(this.value)
}
Result.Err.prototype.map = function(f) {
return this
}
Result.Err.prototype.chain = function(f) {
return this
}
我们将通过一个实际的例子展示 chain
的巨大威力:
假如我们要实现一个四则运算:
const lit = a => Ok(a)
const add = curry((a, b) => {
return OK(a + b)
})
const sub = curry((a, b) => {
return OK(a - b)
})
const mul = curry((a, b) => {
return Ok(a * b)
})
const div = curry((a, b) => {
if (b === 0) return Err('除数不能为 0')
return Ok(a / b)
})
const expr = compose(chain(div(1)), chain(add(1)))(lit(1)) // Ok(2)
const expr2 = compose(chain(div(0)), chain(add(1)))(lit(1)) // Err('除数不能为 0')
我们发现,compose 可以完美的把 chain 串联起来,就和串联 map 一样,这是因为 chain 一定接收一个 monad 也一定会返回一个 monad。 其实我们也可以使用链式调用:
const expr = lit(1).chain(add(1)).chain(div(1)) // Ok(2)
const expr2 = lit(1).chain(add(1)).chain(div(0)) // Err('除数不能为 0')
即使是异步也不在话下:
const validate = curry(keyword => {
if (!keyword) return Err('请输入关键词')
else return Ok(keyword)
})
const query = curry(keyword => {
return new Promise
})
假如我们要实现四则运算:
// 我们首先定义一下四则运算类型:
const Expr = {
Lit(value) {
if (!(value instanceof Expr.Lit)) {
return new Expr.Lit(value)
}
this.value = value
}
Add(expr1, expr2) {
if (!(value instanceof Expr.Lit)) {
return new Expr.Add(value)
}
this.value = [expr1, expr2]
}
Sub(expr1, expr2) {
if (!(value instanceof Expr.Lit)) {
return new Expr.Sub(value)
}
this.value = [expr1, expr2]
}
Mul(expr1, expr2) {
if (!(value instanceof Expr.Lit)) {
return new Expr.Mul(value)
}
this.value = [expr1, expr2]
}
Div(expr1, expr2) {
if (!(value instanceof Expr.Lit)) {
return new Expr.Div(value)
}
this.value = [expr1, expr2]
}
}
// 我们可以这样表达一个四则运算:
const {Lit, Add, Sub, Mul, Div} = Expr
const expr = Div(Lit(4), Lit(2)) // expr 即表示计算 4 / 2
// 下面我们要定义一个常规的 exec 函数来解析 expr
const exec = (expr) => {
if (expr instanceof Lit) {
return expr.value
} else if (expr instanceof Add) {
return exec(expr.value[0]) + exec(expr.value[1])
} else if (expr instanceof Sub) {
return exec(expr.value[0]) - exec(expr.value[1])
} else if (expr instanceof Mul) {
return exec(expr.value[0]) * exec(expr.value[1])
} else if (expr instanceof Div) {
return exec(expr.value[0]) / exec(expr.value[1])
}
}
exec(expr) // 2
// 上面的 exec 即是我们使用面向过程的方式来定义的,看似好像也是很简洁的
// 但是我们忽略一个问题,那就是被除数不能为 0。我们需要额外处理这个异常
// 所以要定义一个安全版本的 exec
const safeExec = (expr) => {
if (expr instanceof Lit) {
return expr.value
} else if (expr instanceof Add) {
return safeExec(expr.value[0]) + safeExec(expr.value[1])
} else if (expr instanceof Sub) {
return safeExec(expr.value[0]) - safeExec(expr.value[1])
} else if (expr instanceof Mul) {
return safeExec(expr.value[0]) * safeExec(expr.value[1])
} else if (expr instanceof Div) {
if safeExec(expr.value[1] === 0) {
throw new Error('除数不能为 0')
} else {
return safeExec(expr.value[0]) / safeExec(expr.value[1])
}
}
}
// 下面我们通过函数式的方式来定义:
const safeExec2 = (expr) => {
if (expr instanceof Lit) {
return Ok(expr.value)
} else if (expr instanceof Add) {
return chain(
v1 => {
chain(
safeExec2(expr.value[1])
)
}
safeExec2(expr.value[0]),
)
return Ok(add)
.ap(safeExec2(expr.value[0]))
.ap(safeExec2(expr.value[1]))
}
}
未完待续。。。
- curry
- compose
- functor
- monad
- applicative
指针是类型还是地址
编程语言中的类型系统的本质是将现实中的数据进行有意义的分类,然后做映射。
比如现实中有整数也有浮点数,对应到类型系统就是 int
和 float
等。
像 int
,float
等这些类型还有个共同特点——都是数值类型,数值类型的一个属性就是可以做四则运算,所以我们可以对同属 int
类型的变量 a
,b
做如下操作:a + b
。
我们还知道数据是存储在内存中的,而内存是有地址的。地址本质上其实就是一串数字,但是为了能够更好的区分存储了不同类型数据的地址,我们强行把地址进行了分类,即存储了整数的地址和存储了浮点数的地址,对应到类型系统就是 int*
和 float*
等。
像 int*
, float*
等这些类型还有个共同特点——都是指针类型,指针类型的一个属性就是可以使用间接运算符 * 获取其保存的地址所对应的数据(右值语义),所以我们可以对 int*
类型的变量 a
做如下操作:*a
。
从上述的对比来看,指针其实类比着数值这个层次的概念。他本身是更高层面的一种特质描述。
数值和数值类型的区别是数值是一种更笼统的描述,它描述的是一种特质(可运算的东西),而数值类型就是类型系统中int
,float
等类型的统称。
指针和指针类型的区别就是指针是一种更笼统的描述,它描述的是一种特质(可间接获取值的东西),而指针类型是类型系统中int *
,float*
等类型的统称。
而地址则只和指针类型有关系,即类型系统中的指针类型映射的是现实世界中的地址(语义上)。
总结就是,狭义上指针和指针类型其实是不同层次的描述;广义上指针可以是指针类型的简称(就好比数值和数值类型的关系,我们既可以说 1 是数值类型的数据,也可以说 1 是数值);而因为指针类型存储的就是(语义上的)地址,所以巨义上指针代表的也就是地址数据。
再总结就是,狭义上比起指针是地址,指针是类型更贴合一些;广义上只要理解了指针的本质,这些无非就是话术而已,不同的说法适用于不同的语境。
二叉树前中后序遍历的非递归实现
递归改非递归一般都会用到栈这个结构,栈的特点就是先进后出,所以说栈其实是维护了一个特定顺序的结构。
我们先定义这么一种操作:
左遍历:指从给定节点开始无限遍历其左子节点直到叶子节点为止,并将其依次压入栈中。(这样在栈中的节点就都满足一个性质:入栈时一定是先根后左,出栈时一定是先左后根)
function traversal(node) {
const stack = []
while(node) {
console.log(node) // ------> @1
stack.push(node)
node = node.left
}
while(stack.length) {
node = stack.pop()
console.log(node) // ------> @2
}
}
如果我们在入栈的时候访问节点(@1),则可以保证根->左
的顺序
如果我们在出栈的时候访问节点(@2),则可以保证左->根
的顺序
这里大家肯定会问,这个只是从根节点开始的左子节点的顺序呀,如果有右子节点怎么办呢?
我们拿先序遍历举例说明:
先序遍历要求的顺序是 根->左->右
。由前面的讨论我们已经可以做到根->左
的顺序访问了,即只要做到入栈时访问即可。
那么如果有右子节点该如何处理呢?右子节的入栈条件是什么呢?
要解决这个问题我们需要先定义好出栈的含义,首先我们可以明确的是,对于先序遍历来说,入栈时访问,因此按照我们之前的定义,根节点一定在左子节点前被访问, 而出栈的时机则是左遍历结束,因为此时对于栈顶节点来说:
- 该节点的根节点一定访问过了(入栈时)
- 该节点没有左子节点(根据左遍历的定义即可推出),或左子节点已经访问过了
而这不正是访问右子节点的前置条件吗?换句话说,直接对出栈节点的右子节点左遍历。
function traversal(node) {
const stack = []
while (stack.length > 0 || node) {
while(node) { // -----> @1
console.log(node) // 访问节点
stack.push(node)
node = node.left
}
if(stack.length) {
node = stack.pop() // 此时的栈顶节点的根和左都可以保证已经访问过
node = node.right // -----> @2
}
}
}
@1
处的 while 循环是我们定义的左遍历
,而对右节点左遍历就是把当前 node 赋值为右子节点(@2
),并跳到@1
处开始右节点的左遍历
按照上述讨论我们再来分析下中序遍历
中序遍历要求的顺序是 左->根->右
。由前面的讨论我们已经可以做到左->根
的顺序访问了,即只要做到出栈时访问即可。
我们通过入栈维护了根->左
的存储顺序,而又通过出栈获取左->根
的访问顺序。
此时出栈的时机也是左遍历结束,因为此时对于栈顶节点来说:
- 该节点左子节点一定访问过了
- 现在正好需要访问该节点,并对右子树进行左遍历
function traversal(node) {
const stack = []
while (stack.length > 0 || node) {
while(node) {
stack.push(node)
node = node.left
}
if(stack.length) {
node = stack.pop() // 此时的栈顶节点的左子树都已访问过
console.log(node) // 访问节点
node = node.right // 准备左遍历右子树
}
}
}
大家可能已经注意到,前序遍历和中序遍历的代码几乎一样,只是访问的时机不同。
最后我们再来看下后序遍历
相比于前序和中序,后序稍微复杂点。目前我们已经可以做到根->左
或者左->根
的访问顺序了,
但是后序遍历要求左->右->根
,显然我们能够参考的是之前实现的左->根
的定义,即出栈时访问。
但是后序遍历的右节点是介于左和根之间的, 这点则和中序遍历不同,因此对于出栈的处理也不同。
我们知道中序遍历中出栈的条件是左遍历结束。
但是后序遍历时,判断栈顶节点能否出栈除了左遍历结束还有两种情况需要考虑:
- 右子树还没有访问,需要先遍历右子树(不可以出栈);
- 右子树已经访问过了,可以访问该节点了(可以出栈)。
问题的关键就在于右子树有没有被访问过,因此我们需要定义一个变量保存上一个被访问的节点,以此来区分上述的两种情况。
function traversal(node) {
const stack = []
let lastVisit = null
while (stack.length > 0 || node) {
while(node) {
stack.push(node)
node = node.left
}
if(stack.length) {
node = stack[stack.length - 1] // 查看栈顶节点
if (!node.right || node.right === lastVisit) { // 栈顶节点没有右子节点或右子节点已经访问过,则可以访问该节点
node = stack.pop()
console.log(node) // 访问节点
lastVisit = node // 更新最新访问节点
node = null // node 置空跳过while循环,再次处理栈
} else {
node = node.right // 栈顶节点的右子树没有遍历,则开始遍历右子树
}
}
}
}
总结一下:
前序遍历:左遍历根节点,入栈时访问,出栈时左遍历右子节点
中序遍历:左遍历根节点,出栈时访问,出栈时左遍历右子节点
后序遍历:左遍历根节点,出栈时访问,记录上次访问的节点,出栈前判断上次访问节点是否为其右子节点,是则允许出栈,否则继续左遍历右子节点
\r 与 \n 的区别
我们都知道在 Linux 系统中使用 \n
表示下一行行首的位置,而在 Windows 中同样的含义却是使用 \r\n
表示,这是为什么呢?
\r
全称 Carriage Return
,简称 CR
,中文翻译回车
,表示输入指针回到当前行行首(注意这里和我们平时认知中的回车含义不同)
\n
全称 Line Feed
,简称 LF
,中文翻译换行
,表示输入指针换到下一行(不一定是下一行行首)
\r\n
其实就是表示两步操作,先回到行首,再往下移一行,最终的效果就是输入指针到了下一行行首。之所以这么设计,是有历史原因的,早期的打字机是机械式设备,对于可视字符由左向右依次打印,对于控制字符,则相应的做出调整。比如 \r
字符就是把打印指针移到最左侧,\n
字符就是把纸张上移一行(其实也就相当于把打印指针下移一行),而这两个字符放到一起就实现了打印机开始在下一行打印的功能。
后来计算机发展起来了,但早期的存储资源很是稀缺,而使用两个字符表示换到下一行行首有点不划算,所以 Linux 系列的操作系统决定使用 \n
这一个字符来表示这一含义。而 Windows 则保留了传统的做法。
下面有个小例子来描述 \r
的效果:
// 需要在 Terminal 终端中测试,浏览器的 Console 中没有效果
console.log("abc\rcba") // cba
因为 \r
表示回到当前行行首,所以后面的 cba
就覆盖了缓冲区中的 abc
,最终的打印结果也是 cba
。
线程池
废话不多说,先来实现个最简单的 HTTP 服务:
use std::io::Write; use std::net::{TcpListener, TcpStream}; use std::thread::sleep; use std::time::Duration; fn main() { // 监听 9090 端口 let listener = TcpListener::bind("127.0.0.1:9090").unwrap(); // 轮询连接请求 for stream in listener.incoming() { let stream = stream.unwrap(); // 处理该请求 process_stream(stream); } } fn process_stream(mut stream: TcpStream) { // 必须要读取 stream 的内容,否则多个请求同时发送会触发 ERR_CONNECTION_RESET 错误 // 我也不知道为啥 let mut buffer = [0; 1024]; stream.read(&mut buffer).unwrap() // 睡眠 200 ms sleep(Duration::from_millis(200)); let content = "hello world"; let response = format!( "HTTP/1.1 200 Ok\r\nContent-Length: {}\r\n\r\n{}", content.len(), content ); // 写入返回信息 stream.write(response.as_bytes()).unwrap(); stream.flush().unwrap() }
一个极其简陋的 HTTP 服务就搭建好了, 此时浏览器打开 http://127.0.0.1:9090
就能看到 hello world
了。
这里面需要注意的是:
for stream in listener.incoming()
是在不断监听 9090 端口是否有连接进来。process_stream
固定的睡眠 200ms 是为了模拟正常 http 请求的消耗
我们对这个最朴素的 HTTP 服务做下性能测试看看:
ab -n 100 -c 20 http://127.0.0.1:9090/
该命令测试 20 个并发下,一共发送 100 个请求的情况
测得的 QPS 是 4.9 左右,这个不难理解,每个请求因为固定睡眠 200ms 所以 1s 能处理的请求个数也只能在 4-5 之间了。
很明显现在的处理效率是不能容忍的, 而问题其实也很明显,那就是我们这个服务只有当前的一个线程来处理请求,并且在处理过程中并不能接收新的请求进来,因为 process_stream
是同步的,必须等该函数执行完才能读取下一个请求。
如何能够增加服务的吞吐量呢,最简单的方式应该就是使用多线程了。
或许我们可以这么修改:
use std::io::{Read, Write}; use std::net::{TcpListener, TcpStream}; use std::thread; use std::thread::sleep; use std::time::Duration; fn main() { let listener = TcpListener::bind("127.0.0.1:9090").unwrap(); for stream in listener.incoming() { let stream = stream.unwrap(); thread::spawn(|| { process_stream(stream); }); } } fn process_stream(mut stream: TcpStream) { // 保持不变 }
我们对于每个请求都开启一个新的线程来处理,这样 process_stream
就不会阻塞新的请求了。
同样的我们做下性能测试:
ab -n 100 -c 20 http://127.0.0.1:9090/
显示的 QPS 为 78 左右,其实理论上应该是提高 20 倍才对,毕竟我们测试的是 20 的并发,也就是说同时有 20 个线程在处理请求,但考虑到线程间切换的开销,真实提高低于 20 倍也是可以理解的。但即使是这样提升的性能也是很可观了。要知道对于现在的处理方式,并发越高,吞吐可是就越高的。
先别着急沉浸于成功的喜悦,该方法其实是有致命缺陷的,那就是我们没有对线程的个数做控制,当并发数很大时,比如十万或者百万,我们不问青红皂白的直接就开启十万或是百万的线程来处理显然是不合适的,先不考虑系统允不允许开启这么多的线程,即使只是考虑线程间的切换成本,我们也是浪费了大量的 CPU 资源。
如果我们能够限制线程并发的最大数量,是不是就能在可接受的范围内提高服务的吞吐呢?这个思路当然是没问题的,那如何才能限制线程的最大并发数呢?
答案就是线程池。
线程池只是一个形象的说法,就好比我们能够使用的线程都在池子里,想用线程了就从池子里捞一个出来用,捞完了就没了。当然,用完了还是要放回池子里的。
而我们能用的最大线程个数就是线程池初始化时所拥有的线程数。
接下来我们自己实现一个线程池看看。
先不考虑代码实现的细节,我们先来畅想下最终想要达到的效果。比如我创建一个线程池,初始化的线程个数是 4。也就是说,服务启动的时候就有 4 个线程可以处理 process_stream
工作。我们的主线程绑定端口并监听请求的到来,每来一个请求就从线程池中找一个空闲的线程来执行工作。如果线程池中所有的线程都在执行工作,则将该请求暂存下来等到有空闲的线程时再分配给它。
一图胜千言:
如图所示,我们的线程池初始时有 4 个线程可以用来处理请求。线程池中除了这四个工作线程外,还有一个单独的线程 (thread0) 用来获取需要处理的请求和空闲的工作线程,该线程同时持有一个 job_channel 和 worker_channel 的接收端,job_channel 用来从主线程接收需要处理的请求,worker_channel 用来接收当前的空闲工作线程。
我们可以看到,当前一共有 3 个请求需要处理,还有一个请求正在接收,同时 4 个工作线程都是空闲状态。
接下来, 线程0
同时拿到了请求1
和线程1
,搭配成功,并将请求1
提交给线程1
处理,此时线程1
从 ready
状态转变成running
状态。同时上一步的新请求(请求4)也进入job_channel
等待发送给线程池处理。
再然后,线程0
继续配对 请求2
和线程2
,线程2
变成running
状态。
同上,线程0
配对成功 请求3
和线程4
,线程4
变成running
状态。同时线程1
的请求处理完毕并立刻通过worker_channel
通知线程0
。
代码实现如下:
use std::io::{Read, Write}; use std::net::{TcpListener, TcpStream}; use std::thread::sleep; use std::time::Duration; fn main() { let listener = TcpListener::bind("127.0.0.1:9090").unwrap(); let pool = thread_poll::ThreadPool::new(20); for stream in listener.incoming() { let stream = stream.unwrap(); // 此处改成由线程池处理请求 pool.add_job(|| { process_stream(stream); }); } } fn process_stream(mut stream: TcpStream) { // 不变 } mod thread_poll { use std::collections::HashMap; use std::sync::mpsc; use std::thread; pub type Job = Box<dyn FnOnce() + Send + 'static>; pub struct ThreadPool { job_sender: mpsc::Sender<Job>, } impl ThreadPool { pub fn new(size: usize) -> Self { // worker_channel let (worker_sender, worker_receiver) = mpsc::channel(); // job_channel let (job_sender, job_receiver) = mpsc::channel(); let mut workers = HashMap::new(); for id in 0..size { // 初始化 size 个工作线程 let worker = Worker::new(id, worker_sender.clone()); workers.insert(id, worker); } // 线程0 thread::spawn(move || loop { // 获取可用工作线程的 id let worker_id = worker_receiver.recv().unwrap(); // 根据 id 获取对应的工作线程 let worker = workers.get(&worker_id).unwrap(); // 获取需要处理的请求 let job = job_receiver.recv().unwrap(); // 通知线程处理该请求 worker.handle_job(job); }) ThreadPool { job_sender } } pub fn add_job<F>(&self, job: F) where F: FnOnce() + Send + 'static, { let job = Box::new(job); // 主线程发送过来的请求,放到 job_channel 中 self.job_sender.send(job).unwrap(); } } pub struct Worker { pub id: usize, pub job_sender: mpsc::Sender<Job>, } impl Worker { pub fn new(id: usize, worker_sender: mpsc::Sender<usize>) -> Worker { // worker 内部创建一个 job_channel,用以通知内部线程处理请求 let (job_sender, job_receiver) = mpsc::channel::<Job>(); thread::spawn(move || loop { // 默认是空闲状态,因此把工作线程的 id 放到 worker_channel 中 worker_sender.send(id.clone()).unwrap(); // 接收需要处理的请求 let job = job_receiver.recv().unwrap(); // 处理请求 job(); }); Worker { id, job_sender } } pub fn handle_job(&self, job: Job) { // 把需要处理的请求放到 self.job_sender.send(job).unwrap(); } } }
性能测试(size = 20):
ab -n 100 -c 20 http://127.0.0.1:9090/
QPS 同样为 78 左右。
同步、异步、阻塞、非阻塞
四个概念傻傻分不清楚,经过一番查阅资料,现将当前的理解记录下来(不一定是对的)
首先需要明确的是,当我们在讨论 IO 是同步异步还是阻塞非阻塞时我们到底在讨论什么?
先说一个公认的知识点,系统IO的分类有五种:
- 阻塞IO
- 非阻塞IO
- 多路复用
- 信号驱动
- 异步IO
它们之间的关系是这样的:
在解释这几个概念之前还有两个先决知识需要了解下:系统调用和进程的生命周期
系统调用
程序在运行时,CPU 是区分内核态和用户态两种状态的,程序在用户态时可以操作自己的堆栈,但是无法操作硬件如网口,键盘等。如果程序 需要操作硬件怎么办呢?那就发起一个系统调用,系统调用会将程序从用户态切换到内核态,然后由内核操作硬件,并把结果返回给用户态的程序。
进程生命周期
进程的生命周期涉及五种状态的转换:
理解了这两个概念后就比较容易解释上述五种IO类型了:
首先系统调用的前几步大概是这样:
- 进程发起系统调用
- 程序切换到内核态,由内核去操作硬件
- 内核将从硬件获取的数据保存到内核空间
在第1步,进程发起系统调用之后,如果进程由运行态切换到阻塞态,则该系统调用是阻塞IO:
- 内核将内核空间数据拷贝到用户空间
- 进程被唤醒,开始处理该次系统调用的数据
阻塞IO因为发起系统调用时就被切换到阻塞态,其他的代码在等待系统调用直到被唤醒之前将无法执行。
在第1步,进程发起系统调用后,如果进程没有切换到阻塞态,则该系统调用是非阻塞IO:
- 进程轮询系统调用,查看数据是否准备好
- 若已经准备好,则进程切换到阻塞态,等待数据从内核拷贝到用户空间
- 进程被唤醒,开始处理该次系统调用的数据
非阻塞IO是指用户发起系统调用时,系统调用会立刻返回结果,不过该结果只是告诉你是否完成。 进程此时可以运行其他的代码,但是需要轮询去查询该次系统调用的结果,直到明确告诉进程系统调用已经结束。 此时进程就会切换到阻塞态,等待内核把数据拷贝到用户空间,等待再次被唤醒。
当进程有多个不同的系统调用时,轮询的效率很差,所以开始考虑使用额外的线程做这个轮询的事情,多个系统调用都通过这一个线程来 调用,这就是IO多路复用,算是非阻塞IO的改进版。
再后来,系统打算彻底消除轮询,使用信号量来通知进程系统调用结果,这便是信号驱动式IO:
- 内核通过信号量通知进程系统调用结束
- 进程再次发起系统调用,并切换到阻塞态
- 内核将数据拷贝到用户空间,并唤醒进程处理数据
我们发现就算是非阻塞IO(包括多路复用和信号驱动),它们只是在发起系统调用的时候没有被阻塞,但是在内核拷贝数据到用户空间的过程中还是处于阻塞状态的, 如果连拷贝数据的过程也不阻塞进程的话,那便是异步IO:
- 内核将数据拷贝到用户空间,并通知进程处理
- 进程在合适的时机处理用户空间数据
对于异步IO来说,整个系统调用的过程都不会处于阻塞状态。
既然有异步,那便有同步了,没错,阻塞/非阻塞/多路复用/信号驱动都算作同步IO。(其实可以这样理解,只要系统调用的生命周期中有需要进程处于阻塞态的时间段,就称为同步IO)
请注意,我们以上所讨论的同步/异步,阻塞/非阻塞是特指系统调用,其实如果抛开这个专有领域来看的话,同步和阻塞是同义词,异步和非阻塞也是同义词。我们知道,一般编程语言都会在系统调用之上封装自己的各种IO,比如读取文件,监听网络请求等。因为是在操作系统这个抽象之上做的更高一层的抽象,所以这种较高层次的IO抽象其实不用区分异步和非阻塞的区别,它们表示的是一种含义:那便是我在等待IO的过程中能否执行其他代码,可以的话,那么这个IO就是非阻塞的,也是异步的,不可以的话,那么这个IO就是同步的,也是阻塞的。
Node.js 宣称自己是异步非阻塞的,但是其实它在linux系统中底层是使用 epoll 作为系统调用基础,而 epoll 属于多路复用的类型,严格上来说都不能称之为异步 IO。但是如果我们从更上层的抽象来看,它所宣称的异步其实是指异步事件驱动(从运作机制,和编码方式上来看),非阻塞是指运行 js 的线程不会被阻塞,和我们上面所讨论的具体的系统调用类型倒没有太大关系。
还有一种看法是,在抛开系统调用不谈时,阻塞/非阻塞是指进程的状态,异步/非异步是指调用的IO方法会不会阻塞进程。他们其实是从两个视角描述同样的一件事。
设计模式
控制反转、依赖注入、依赖倒置原则
三个概念傻傻分不清楚,最近结合各种文章学习了下三个概念的异同,在此记录下自己的看法。
这里其实首先需要搞明白两个名词的含义:控制、依赖。
首先是依赖,这个比较简单,调用方使用被调用方的时候,被调用方就是调用方的依赖。比如:
#![allow(unused)] fn main() { struct Scrapy; impl Scrapy { fn run() { fetch(); parse(); download(); } } // 获取 html 文档 fn fetch() {} // 解析文档获取资源地址 fn parse() {} // 下载资源 fn download() {} }
上述代码中,我们实现了一个爬虫 Scrapy
,其作为调用方,在 run
函数中调用 fetch
, parse
, download
函数,
此时就可以说 Scrapy
依赖 fetch
, parse
, download
。
然后再来说说什么是控制,控制这个词的含义其实是比较宽泛的,它表明了代码执行的逻辑流程,同时也暗含了依赖关系。
还以上面的代码举例,Scrapy
就有一个控制流程 run
,它描述了需要先fetch
再parse
然后download
的流程,同时
暗含了Scrapy
依赖流程执行过程中所使用的被调用方。
理解了这两个概念后,我们就可以来深入探讨下标题中三个名词的具体含义了。
控制反转
网络上大多数的说法是:控制反转是指框架和程序员(业务代码)之间对流程控制的反转。一般情况下是程序员自己实现流程控制, 引入框架后由框架实现流程控制,程序员只要提供满足框架的依赖即可,即对代码的控制从业务方反转到框架方。
以上述代码为例,如果 Scrapy
是我们的业务代码的一部分,那就是我们作为程序员控制着Scrapy
的流程。
但如果Scrapy
不是我们业务代码的一部分的话,比如来自一个第三方库,此时Scrapy
的控制部分就不受我们掌控,我们需要给Scrapy
提供必要的依赖来执行该控制流程。
从辩证的角度来看,我这里其实还有一个相反的理解,即 Scrapy
控制了代码的执行流程,但是没有限制具体依赖。
程序员(业务代码)可以通过传递不同的依赖来控制Scrapy
的执行效果。
从这个角度来看,反而是业务方反转着控制了框架方。
从控制执行流程上来看是框架方反转控制业务方;从控制执行细节上来看是业务方反转控制框架方。其实无论是谁反转谁,都有一个必要的前提,那就是框架方的代码需要提供传递依赖的方法,否则任何控制的反转都无从说起。
依赖注入
遗憾的是我们现在的 Scrapy
并没有提供这种传递依赖的方法,它的依赖都是写死的:fetch
获取某个 url 的 html 文档,parse
以固定的逻辑解析
html 文档,download
存储在固定的位置上。此时需要 依赖注入
这个具体的编程技巧来完善Scrapy
。
依赖注入其实很简单,就是不要把依赖写死,由调用方传递依赖进来。但是传递的依赖需要满足特定的要求才行,在常规的面向对象语言中就是满足特定的接口、基类或抽象类等。在 rust 中就是满足 Trait。
#![allow(unused)] fn main() { trait Scrapyable { fn fetch(&mut self); fn parse(&mut self); fn download(&mut self); } struct Scrapy<T: Scrapyable>(T); impl<T: Scrapyable> Scrapy<T> { fn run(&mut self) { self.0.fetch(); self.0.parse(); self.0.download(); } } }
我们完善了一下 Scrapy
的实现,现在 Scrapy
已经不依赖具体的方法了,相反的,它设计了一个 Scrapyable
Trait(可以类比为 Interface 的概念),只要满足这个 trait 就可以作为依赖传递给它。
struct GoogleScrapy; impl Scrapyable for GoogleScrapy { fn fetch(&mut self) { todo!(); } fn parse(&mut self) { todo!(); } fn download(&mut self) { todo!(); } } struct BaiduScrapy; impl Scrapyable for BaiduScrapy { fn fetch(&mut self) { todo!(); } fn parse(&mut self) { todo!(); } fn download(&mut self) { todo!(); } } fn main() { let google_scrapy = Scrapy(GoogleScrapy); let baidu_scrapy = Scrapy(BaiduScrapy); google_scarpy.run() baidu_scarpy.run() }
作为业务方,我们要实现 Google 和 Baidu 两个不同的爬虫功能,此时只需要让这两个 struct 都实现 Scrapyable
trait 即可,具体细节由业务方指定,
只要将其当作依赖传递给 Scarpy
,Scrapy
就可以按照预定的流程执行。
依赖倒置原则
从名字就能看出来这是一个模式设计的指导原则,是从各种实现中提取出来的经验性总结。倒置和反转是同义,这让我们想到控制反转。
控制反转是一种比较笼统的设计思想,前文我们提到控制既表示了流程,也暗含着依赖关系。而依赖倒置原则是指
高层模块不依赖低层模块,它们共同依赖同一个抽象。抽象不要依赖具体实现细节,具体实现细节依赖抽象
,是一种更具体的指导编码的设计原则。
我们上面实现的第二版Scrapy
其实就遵从了该指导原则,Scrapy
是上层模块,它不依赖底层模块 GoogleScrapy
和BaiduScrapy
,Scarpy
和 GoogleScrapy
以及 BaiduScrapy
都依赖同一个抽象 Scrapyable
。
总结
控制反转是设计思想,依赖倒置是指导原则,依赖注入是编码技巧。Scrapy
遵从依赖倒置原则,使用依赖注入技巧,实现了控制反转。
关于抽象类和接口的思考
抽象类和接口的定义以及异同网上已经有非常详尽的讲解了,这里我不再赘述,而是尝试从另一种角度来谈谈我的理解。
我们都知道面向对象语言有三大特点:封装、继承和多态。有的人会把抽象当作其第四个特点,对此我个人并不是特别认同。
因为在我看来,抽象是一个更宽泛的概念,SICP 中对抽象有一段非常精彩的描述:
- 将若干简单认识组合为一个复合的认识,由此产生出各种复杂的认识
- 将两个认识放在一起对照,不管他们如何简单或者复杂,都不能将其合而为一,由此得到有关他们的相互关系的认识
- 将有关认识与那些在实际中和它们同在的所有其它认识隔离开,这就是抽象
这个定义初看比较晦涩难懂,我目前也未能得其精髓,只能抛砖引玉谈谈自己的理解。
所谓简单的认识就是当前对于我们来说理所当然的认识,比如我们理所当然的知道这个四条腿走路,身上长毛的是狗。
复杂的认识是我们当前所不能立即理解的认识,但是却可以通过组合来理解,比如对我来说,德牧,拉布拉多等是我所知道的狗的品种,但是显然我并不知道世界上所有的品种,但是只要我通过简单的组合(将某类狗的长相特点和狗这个概念组合)就能立即产生比狗这个概念更加复杂的新的概念,即另一种品种的狗。
虽然我已经认识了很多不同品种的狗,但是我发现并不是所有这种四条腿走路,身上长毛的是狗,还有种动物叫做猫,不管是猫本身这个概念(简单)或是不同品种的猫(复杂)都和我之前所认识的狗之间有较明显的区别,它们不能归为一类。
除了猫之外,还有其他很多不能和狗归为一类的动物存在,由此我们得出能够区分出狗的更加通用的概念,比如四条腿,会汪汪叫等,也就是狗这个抽象。
值得注意的是,抽象最终还会变成简单认识,从而周而复始的产生更上层的抽象。这是人类心智活动的特点,当然也包括编程活动。
编程本身就是对现实世界抽象的体现,所以我才在文章开始时提到并不赞同将抽象当作面向对象的一大特性,因为所有语言都可抽象。(但是面向对象语言相比过程式语言更容易做抽象倒是真的)
讲了这么多铺垫,终于要到我们今天的主角们登场了。
抽象类,是对一群类的抽象,表示这一群类都属于这个抽象类;
接口,表示具有某些特质,也是对一群类的抽象,不同的是,它表示这群类都拥有这些特质。
举个例子吧:
abstract class Animal {
abstract breath(): void;
}
interface Runnable {
run(): void
}
class Dog extends Animal implements Runnable {
breath() {}
run() {}
}
class Cat extends Animal implements Runnable {
breath() {}
run() {}
}
Animal 是一个抽象类,代表动物这个种属, 包含一个抽象方法 breath
表示动物都可以呼吸;
Runnable 是一个接口,描述可以奔跑的这个特质;
Dog 和 Cat 都继承了 Animal 这个抽象类,表示 Dog 和 Cat 都属于动物这个种类;
Dog 和 Cat 都实现了 Runnable 这个接口,表示 Dog 和 Cat 都拥有奔跑这个特质;
虽然我已经尽可能的区分了 Animal 和 Runnable 的含义,但是有些人可能还是很疑惑,因为 Animal 既然包含了 breath
方法,是不是也表明 Animal 描述可以呼吸这个特质?从这点来看,抽象类和接口岂不是差不多?
有这种疑问很正常,因为它们确实都是在干同样的一件事:抽象。他们都是对 Dog 和 Cat 做抽象,只是抽象的角度不同而已,两者之间 有些类似却也正常,但是我们主要关注的还是它们抽象的角度而非结果,这决定了我们如何才能更好的使用它,虽然条条大路通罗马,但如果选择走陆路,使用船作为交通工具实非明智之举。
说到抽象角度,我们还得从最原始的类说起。
我们都知道类包含属性和方法,属性是构成类的最基本元素,方法是类提供的操作这些属性的接口。类的属性和对外的方法是决定这个类和其他类的本质区别(说了好像等于没说)。
抽象类也是类的一种,是为了解决代码复用的问题,Dog 和 Cat 对于其相同的部分可以在抽象类 Animal 中定义,无需在每个子类中都实现一遍,此处使用普通的类当作父类理论上也是可以的,但是抽象类有工程学上的优势,比如自动检测抽象方法是否实现,以及避免实例化的误用等。
接口是对不同对象的相同特质的描述,当然一般来说这个特质只能是方法而不能是属性,这也是和抽象类最大的不同,但是大家有没有想过为什么接口不能包含对属性的描述呢?其实我们可以反向思考:如果包含了会怎么样?如果我们的 Runnable 接口除了有 run 的能力特质之外,还要有 speed 这个属性特质会怎么样呢?这样的话我们的 Dog 和 Cat 在实现这个接口时就必须定义 speed 属性,并且必须要公开该属性,我们知道一旦公开属性,就可以对该属性进行读写,这很可能不是 Dog 和 Cat 所希望提供的能力,如果 Dog 不希望外部对其 speed 进行更改,或是想通过其他属性来计算 speed 将无计可施。而方法就不同了,实现类拥有全方位定制这个方法的能力;还有一点就是,方法完全可以替代属性,只要定义对应的 get/set 方法即可。因此在接口中添加属性一是没有必要,二是对实现类的侵入性更强,不方便解耦。
在面向对象设计中,有两种方式,自底向上和自顶向下。
抽象类本质还是父类,更多解决的是抽象中的复用问题,是一个自底向上的设计思路,先有子类,然后找出共同点抽象出父类。
接口相对类来说是一个全新的概念,其解决的是行为模式抽象问题,是一种自顶向下的设计思路,先有接口,然后扩展出不同的实现类。
我们在设计的最初阶段一般会选择自顶向下的设计思路,优先定义接口,而在设计的过程中会对一些类抽象出抽象类来解决复用问题。
JavaScript 相关
JavaScript 中的编解码问题
JavaScript 提供了众多编解码方法,比如
escape
,encodeURI
,btoa
,charCodeAt
,codePointAt
等等。今天我们就来详细的捋一捋这些方法的异同和使用场景。
说到编解码不得不提到大名顶顶的 UTF-8
,这个想必每个前端都不会陌生,因为我们的 HTML 文件的 head 标签内第一行往往是这么写的:<meta charset="UTF-8">
。
这里就不详细讲解 UTF-8
的具体编码方式了,但为了方便讲解上面提到的几个方法,常见的几种编码方式之间的关系还是要简单的提一下的。
大家都知道,无论是文本,图片,视频还是可以执行的游戏在计算机看来都是由 0
和 1
组成的。在存储层面,计算机并不关心你是何种格式的文件,也不 care 你是用什么编码方式进行存储,所有格式的编码方式不过是人类为了方便统一协作而约定俗成罢了。
注意,上面提到了编码这个概念。计算机最小的存储单位是比特(bit),一个比特要么是 0,要么是 1。因为一个比特对于人类来说能表示的范围太小了,所以约定用 8 个比特来代表一个字节(byte)。计算机最早是美国人发明的,所以最早的编码方式 ASCII
也是根据英语量身定做的。早期的美国人只需要存储 a-zA-Z0-9
以及其他常见的标点符号,加起来都没超过 128 个,用一个字节表示(一个字节有 8 bit,存储的信息量是 2^8 = 256)绰绰有余。
后来随着互联网的发展,越来越多的国家参与进来,但如何编码这些国家的文字却是个大问题。因此各个国家都推出了自己的编码方案,比如中国的 GB2312
和 GBK
。显然这种方式严重影响了不同语种的人群的交流,于是全球为了统一编码共同制定了一个新的编码标准:Unicode
。Unicode
收录了几乎所有已知的字符,为了保持兼容,前 256 个字符和 ASCII
表示的含义相同。
值得注意的是,Unicode
只是给字符分配了统一的编号而已,却没有规定如何存储这些编号,于是又衍生出了不同的编码方式,比较出名的有 UTF-8
,UTF-16
和 UTF-32
。这三种编码的细节就不在这里罗嗦了,想了解的可以直接查阅 WIKI。
不过不了解细节也没关系,需要知道的是:
UTF-8
对一个字符编码时使用 1 - 4 个字节不等;UTF-16
对一个字符编码时使用 2 个或 4 个字节;UTF-32
对一个字符编码时使用 4 个字节(所以这种编码方式很少使用)。
总的而言,UTF-8
在存储空间上有不小的优势,因此被使用的越来越广泛(当然也不尽然,对于纯中文来说,UTF-16 也许会更好也说不准,但谁让计算机早期一直是欧美引领着呢,他们使用的字符用 UTF-8 效果更好)。
科普结束,下面进入正文。
JavaScript 中如何获取一个字符的 Unicode 码值?
在 ES6 之前我们只有一个方法那就是 String.prototype.charCodeAt
,我们直接看下 MDN 是如何介绍这个方法的:
charCodeAt() 方法返回 0 到 65535 之间的整数,表示给定索引处的 UTF-16 代码单元
UTF-16 编码单元匹配能用一个 UTF-16 编码单元表示的 Unicode 码点。如果 Unicode 码点不能用一个 UTF-16 编码单元表示(因为它的值大于0xFFFF),则所返回的编码单元会是这个码点代理对的第一个编码单元) 。
有点懵,对不对。这个介绍确实让人一言难尽,听我白话文给你解释一下。
charCodeAt
返回给定索引处字符在 UTF-16 编码下的 Unicode 码值。为什么要说是在 UTF-16 编码下呢,为什么不直接说是 Unicode 码值呢。这是因为该函数只能返回 0 到 65535 之间的整数,而我们之前说过,UTF-16 使用 2 个或 4 个字节来编码字符,码值为 0 - 65535 之间的字符使用 UTF-16 编码正是使用 2 个字节的情况。换句话说凡是 Unicode 码值大于 65535 的字符,其 UTF-16 的编码必定使用 4 个字节,也就是说此时 charCodeAt
只能返回前两个字节,比如大家熟知的 emoji 表情:
'🀄'.charCodeAt() // 55356
而 🀄 真实的 Unicode 码值是:126980
大家可能又会有疑问了,那 charCodeAt
为啥不返回完整的 Unicode 码值呢,搞这一出是闹哪样?不是不想,而是没赶上。JavaScript 第一版被开发出来时还没有 UTF-16 编码,它使用的是一个叫做 UCS-2 的编码方式,这种编码方式就只能表示这么多的字符,并且在一段时间内 UCS-2 和 UTF-16 表示的是同一种编码,只是后来 UTF-16 又扩充了定义,成为了 UCS-2 的超集,才造成当下的尴尬局面。
好在,ES6 引进了新的方法能够获取完整的 Unicode 码值了,那就是 codePointAt
:
'🀄'.codePointAt() // 126980
示例代码都没有给方法传 index 参数,是因为不传参时,方法内部会默认当成传 0 处理。
JavaScript 中如何对 URL 进行编码
凡是使用 JavaScript 发送过异步请求的前端应该都知道需要对 URL 进行编码,也大概率都知道应该使用 encodeURI
或者 encodeURIComponent
来编码。这里我也不详细解释两者的区别了,我们来分析下为什么要对 URL 编码。
我们先来看下 URL 是如何定义的:
[协议类型]://[访问资源需要的凭证信息]@[服务器地址]:[端口号]/[资源层级UNIX文件路径][文件名]?[查询]#[片段ID]
对于一个合法的 URL, : / @ ? # =
等字符都是具有特定分隔符的作用,为了避免歧义,其他的填充片段理应进行编码。另外 URL 还规定其必须由可打印的 ASCII 字符构成。因此我们看到,encodeURI
对除了 ; , / ? : @ & = + $ A-Z a-z 0-9 - _ . ! ~ * ' ( ) #
之外的所有字符都会进行转义编码;而 encodeURIComponent
则对除了 A-Z a-z 0-9 - _ . ! ~ * ' ( )
之外的所有字符进行转义编码。而编码的方式也很简单,那就是使用字符的 UTF-8 编码来表示。比如 中
的 UTF-8 使用 3 个字节表示 :0xE4 0xB8 0xAD
,其对应的 URL 编码则为 %E4%B8%AD
。
JavaScript 中如何获取一个字符的 UTF-8 编码
我们刚刚提到,encodeURIComponent
会对字符进行 UTF-8 编码,但可惜不是所有字符。不过莫慌,JavaScript 提供了更加强大的编码方法:TextEncoder
:
const encoder = new TextEncoder();
encoder.encode('中'); // Uint8Array(3) [228, 184, 173]
JavaScript 中如何进行 Base64 编码
这个就比较简单了: btoa
。这个函数容易和对应的解码函数:atob
搞混,其实也不难记,这里的 b 代表 binary,a 代表 ASCII。我们的变量(JavaScript 字符串)在内存中都是二进制形式保存的,所以是 binary,而 Base64 都是可打印的 ASCII 字符。所以 btoa 就是编码,而 atob 则是解码。
JavaScript 中获取对象属性的若干方法比较
对象的属性有这么几种情况:
- 是否可枚举
- 是否是 Symbol
- 是否属于自身
所以一个对象的属性的性质有 2^3 = 8 种情况。下面我们就来做个小实验:
let sa = Symbol()
let _sa = Symbol()
let a = {a: true, [sa]: true} // a 是普通属性,sa 是 Symbol 属性,默认都是可枚举的
Object.defineProperty(a, '_a', { // _a 普通不可枚举属性
enumerable: false,
value: true
})
Object.defineProperty(a, _sa, { // _sa Symbol 不可枚举属性
enumerable: false,
value: true
})
let sb = Symbol()
let _sb = Symbol()
let b = Object.create(a) // a 在 b 的原型链上
b.b = true // b 是普通可枚举属性
b[sb] = true // sb 是 Symbol 可枚举属性
Object.defineProperty(b, '_b', { // _b 是普通不可枚举属性
enumerable: false,
value: true
})
Object.defineProperty(b, _sb, { // _sb 是 Symbol 不可枚举属性
enumerable: false,
value: true
})
对于 b
来说,一共有这么几种属性:
属性 | 是否自身 | 是否 Symbol | 是否可枚举 |
---|---|---|---|
b | √ | √ | |
_b | √ | ||
sb | √ | √ | √ |
_sb | √ | √ | |
a | √ | ||
_a | |||
sa | √ | √ | |
_sa | √ |
是否 b 自有属性就看属性名里是否有 b,是否 Symbol 就看属性名里是否有 s,是否可枚举就看属性名里的 _
for (let prop in b) console.log(prop) // b, a
Object.keys(b) // b
Object.getOwnPropertyNames(b) // b, _b
Object.getOwnPropertySymbols(b) // sb, _sb
Reflect.ownKeys(b) // b, _b, sb, _sb
由此我们可以看到:
for...in
=> 获取当前对象及其原型链上所有可枚举且非Symbol属性Object.keys
=> 获取当前对象上所有可枚举且非Symbol属性Object.getOwnPropertyNames
=> 获取当前对象上所有非Symbol属性Object.getOwnPropertySymbols(b)
=> 获取当前对象上所有Symbol属性Reflect.ownKeys
=> 获取当前对象所有属性
这么来看其实还是有点绕,我这里总结一下就是:
- 在 Symbol 出现以前,只有是否可枚举,以及是否原型链的区别。
而跟原型链相关的只有
for...in
。其他的都是和自身属性相关。 - 而获取自身属性分为是否可枚举,因此有
Object.keys
获取可枚举的,Object.getOwnPropertyNames
获取所有的。 - 后面出了 Symbol 的概念,所以有了针对获取所有 Symbol 的方法就是:
Object.getOwnPropertySymbols
- 这个时候如果想获取所有自身属性的时候,就比较麻烦,所以有了
Reflect.ownKeys
这里其实有个小问题,那就是我们无法区分 Symbol 是否可枚举。
我们可以通过 {Object.keys}
/ {Object.getOwnPropertyNames} - {Object.keys}
区分 可枚举普通属性/不可枚举普通属性
而对于Symbol属性,我们只能获取所有的,无法区分是否可枚举。
所以,js还提供了一个方法 obj.propertyIsEnumerable
来判断自有属性是否可枚举。
另外还有一个更强大的方法:Object.getOwnPropertyDescriptor
能够获取自有属性的相关描述,包括是否可枚举,是否可写,是否可配置等。
情景
- 获取对象自身可枚举非 Symbol 属性:
Object.keys(b) // b
- 获取对象自身可枚举 Symbol 属性:
// 方法 1 Object.getOwnProerptySymbols(b).filter(prop => b.propertyIsEnumerable(prop)) // sb // 方法 2 Object.getOwnProerptySymbols(b).filter(prop => Object.getOwnPropertyDescriptor(b, prop).enumerable) // sb
- 获取对象自身所有可枚举属性:
Reflect.ownKeys(b).filter(prop => b.propertyIsEnumerable(prop)) // b, sb
- 获取对象自身所有属性
Reflect.ownKeys(b) // b, sb, _b, _sb
总结
- 考虑原型链时只要考虑
for...in
, 否则 - 和 Symbol 不相关时,只要考虑
Object.keys
,Object.getOwnPropertyNames
- 和 Symbol 相关时,只要考虑
Reflect.ownKeys
,Object.getOwnPropertySymbols
- 是否可枚举使用
obj.propertyIsEnumerable
或Object.getOwnPropertyDescriptor
来判断。
JavaScript 中 Fetch 返回的 Response 为什么只能被读取一次
我们在任意网站的 Console 中输入如下代码:
let promise = fetch('/')
promise.then(res => res.text())
promise.then(res => res.text())
会发现第二次对 res 调用 res.text() 时会报如下错误:
Uncaught (in promise) TypeError: Failed to execute 'text' on 'Response':
body stream already read
也就是说,fetch 返回的 response 只能被读取一次,这个应该是在设计 API 时就是这么规定的。但是我一直有个疑问,为什么要这么规定呢?很长一段时间我都是百思不得其解,最近在学习 rust 并且在补习大学已经丢掉的网络相关知识时,突然就有点明白了。可能不一定对,但我个人认为极有可能就是这样的。
我之前零星的查阅过相关资料,比较权威的 MDN 有这么一段描述:
这个很有用,因为 request 和 response bodies 只能被使用一次
(译者注:这里的意思是因为设计成了 stream 的方式,所以它们只能被读取一次)。
创建一个拷贝就可以再次使用 request/response 了,当然也可以使用不同的 init 参数。
关键就这这个译者注里(英文版的并没有这句话),他说 response 的 body 是一个 stream 所以只能被读取一次。
这是个不错的提示,现在的问题就变成了,为什么 stream 只能被读取一次呢?
又是一顿谷歌加百度,基本都是说如何解决这个问题,却没发现有说明为什么会这样。
其实关键点就在于如何理解 stream。
stream 中文翻译为流,我第一次听说这个词是在大学的计算机网络课程里,不过当时也是一脸懵逼,只是有个直观的理解就是啥东西一旦是流,就说明它更快,更好。
比如 nodejs 里通过 http 返回一个文件的内容时,最直观(LowB)的方式就是使用同步函数:
res.body = fs.readFileSync(filePath);
稍微好一点的方式是使用回调函数的方式:
fs.readFile(filePath, (err, content) => {
res.body = content;
});
而公认最佳方式就是使用流了:
res.body = fs.createReadStream(filePath)
那流到底是什么呢? 在我看来流并不是一个具体的数据类型,它是一种操作数据的范式,一种类似于接口的东西。流有如下的特点:
- 流由数据块组成
- 组成流的数据块是有序的
- 流的大小可以是不定的
正是因为这些特点,TCP 在传输的时候才会采取流的方式。比如我要传输 1G 大小的内容,显然一次 TCP 连接是无法传输这么大的数据的,他要考虑很多情况包括当前网络的带宽以及拥塞情况等,既然一次传不了,那就多传几次嘛,把 1G 分成若干个 1KB 大小的数据块,只要最终能把这些数据块按序送达即可。
其实不止是 TCP,任何需要读取或者写入数据的场景流都是不错的选择。
因为流的大小可以是不定的,所以在从流中读取数据时,一般需要指定读取多少字节,通过循环读取的方式来获取最终需要的数据,因此流在内部也要知晓下次再有人从我这读数据时应该从哪读,而最经济实惠的方式莫过于直接将已经读取过的数据直接丢弃掉。
而这才是流只能被读取一次的真正原因。
加餐环节:上述 nodejs 例子为什么第三种比第二种好,好在哪里?
第二种方式的执行流程是这样的:
- 客户端发起 HTTP 请求获取文件内容
- 进程执行读取文件的系统调用
- 内核获取文件内容后通知进程
- 进程把文件内容从内核完整的读到自己的内存中
- 进程将内存中内容拷贝给 TCP
- 文件内容经由 TCP 传输到客户端
而第三种的执行流程是这样的:
- 客户端发起 HTTP 请求获取文件内容
- 进程执行读取文件的系统调用
- 内核获取文件内容后通知进程
- 进程把文件内容通过流直接传输给 TCP
- 文件内容经由 TCP 传输到客户端
在读取超大文件时,第二种方式需要首先开辟足够大的内存来存储这个大文件,而使用流则可以直接将文件内容转交给 TCP。
无论从内存占用还是传输效率上来看流都是更佳的选择。
rust 相关
rust 实用工具手册
Vec -> Vec<&str>
#![allow(unused)] fn main() { let a = vec!["string".to_string()]; let b:Vec<&str> = a.iter().map(|s| &**s).collect(); let b:Vec<&str> = a.iter().map(std::ops::Deref::deref).collect(); let b:Vec<&str> = a.iter().map(|s| s as &str).collect(); let b:Vec<&str> = a.iter().map(|s| &s[..]).collect(); let b:Vec<&str> = a.iter().map(|s| { let s: &str = s; s }).collect(); let b:Vec<&str> = a.iter().map(|s| s.as_ref()).collect(); let b:Vec<&str> = a.iter().map(AsRef::as_ref).collect(); let b:Vec<&str> = a.iter().map(String::as_str).collect(); assert_eq(vec!["string"], b); }
Option::map vs Option::and_then
#![allow(unused)] fn main() { /// map 把 Some(T) 映射成 Some(U) /// and_then 把 Some(T) 映射成 Option(U) /// 也就是说,and_then 是 map 的超集 pub fn map<U, F>(self, f: F) -> Option<U> where F: FnOnce(T) -> U pub fn and_then<U, F>(self, f: F) -> Option<U> where F: FnOnce(T) -> Option<U>, // 下述例子使用 and_then 实现 map fn mapper(s: &str) -> i32 { s.parse().unwrap() } let v = Some("1"); let v2 = v.map(|s| mapper(s)); let v3 = v.and_then(|s| Some(mapper(s))); asset_eq!(v2, v3); }
&String vs &str
#![allow(unused)] fn main() { use std::mem::size_of; size_of::<&String>(); // 8 size_of::<&str>(); // 16 }
rust 中的 String 和 str
str
在 rust 中是一个比较特殊的类型,因为一般来说类型都会有个固定的大小,比如 u8
是 1 个字节,i32
是 4 个字节,usize
在 64 位系统上是 8 个字节。但是 str
却没有固定的大小,更准确的说在编译期 str
没有固定的大小。
为什么强调是编译期,因为在运行期 str
是有大小的,而且一般情况下 str
的大小是不变的。这听着有点绕,怎么一会儿没有固定大小,一会儿又有固定大小的。
其实很好理解,运行期所有的东西都会从各种抽象映射成一个个字节按照约定排列在内存中,在任意时刻都可以计算出任意类型或变量的大小。因此当我们说某个类型的大小是否确定时,所隐含的前置条件就是特指编译期。
那么问题来了,编译期的类型为什么会有有无固定大小之分呢?其实搞明白这点才能真正理解 str
到底是什么,以及 str
和 &str
, String
等的区别。
正如文章开始所举的例子所示,类型一般都有大小,而类型之所以会有大小是因为这方便编译器在编译的时候就能确定某个函数栈帧所需要的最大空间是多少,相当于把计算栈帧大小的工作在编译期就处理掉了,极大的提高了程序的执行效率。
那为什么又会有动态大小类型(DST)的 str
呢?我们都知道 i32
是一个 4 字节大小的类型,在栈中它的值由 4 个连续的字节构成,而 String
是一个指针,在栈中它的值由 24 个连续的字节构成(我们会在后文详细探讨),那 str
又是什么呢,它在栈中或是堆中又是以什么样的姿态所存在的呢,这困扰了我很久。凡是入门过 rust 的一般都知道我们在实际写代码时几乎用不到 str
,用的最多的是 &str
。有段时间我就一直在想,既然如此,为什么就不能将我们现在理解的 &str
当成是 str
呢,为什么非要整出一个 str
这层抽象出来呢?
首先,str
不是 rust 中唯一的 DST,除此之外还有 dyn Trait
和 [T]
等。dyn Trait
相对比较复杂我们暂且不谈,这个 [T]
在我看来和 str
比较相似。[T]
表示的是一段 T
类型的序列,具体长度不知(可以对比数组的定义看下,数组 [T; 2]
表示的是 2 个 T 组成的序列)。而 str
其实和 [u8]
比较相似,因为 str
本质也是表示一段 u8
序列,只是附带了额外的要求,那就是这些 u8
序列必须是合法的 utf-8 编码的字节序列。抛开这个限制不谈,str
本质上其实就是 [u8]
。
另外考虑到不定长这个概念,我们就会想到 Vec
。从系统编程角度来看,Vec
本质是一个指针,所以 Vec
变量是定长的,可以在栈上存储;但是从业务角度来看,Vec
表示一组可变长度的具有相同类型的数据序列。其实现的原理也很简单,那就是栈上存指针 pointer 和长度信息 len,pointer 指向堆内的某个位置,此时该 Vec 就表示从堆内 pointer 位置开始取 len 长度的字节所构成的数据序列。
我们都知道,类型在运行时可以映射为内存中的某一个或一段字节序列,比如 u8
可以映射为内存中的 1 个字节, Vec
则可以映射为内存中的 24 个字节,但是且慢,如果 Vec 只是单纯的映射为内存中的 24 个字节,那它指向堆中的那一段字节序列又算什么呢?该用什么类型来描述这段字节序列呢?
答案就是 [T]
。
对比来看,u8
可以映射为内存中的 1 个字节; i32
可以映射为内存中的 4 个字节; Vec
可以映射为内存中的 24 个字节; [T]
可以映射为内存中不定长度的可以组成若干个 T
类型数据的字节; [u8]
可以映射为内存中不定长度的可以组成若干个 u8
类型数据的字节; str
可以映射为内存中不定长度的可以组成若干个 utf-8
编码字符的字节。
所以相比于 String
这个指针类型来说,str
才是更基本的字符串类型。这也是为什么官网是这么介绍 str
的:
The str type, also called a ‘string slice’, is the most primitive string type. It is usually seen in its borrowed form, &str. It is also the type of string literals, &'static str.
str
类型,也称为字符串切片,是最基本的字符串类型。它通常以借来的形式出现。它也是字符串字面值的类型, &'static str
。
&str
从形式上看表示的是引用的概念,但却不同于一般的引用。像 &String
, &u8
, &i32
这些也都是引用,它们的大小都是 8 个字节(64位系统),代表实际数据所在的内存地址。而 &str
却是 16 个字节,除了 8 个字节代表其指向的第一个字节的地址之外,还有 8 个字节代表其所涵盖的字节长度(所以 &str
又被称为胖指针,rust 中引用也是指针的一种)。
说完 str
我们再来聊聊 String
我们在前文说过 String
的大小是 24 个字节,大家可能会有疑问,String
不是可以动态改变大小的吗,怎么会是 24 个字节呢。那是因为 String
在 rust 中本质上是一个智能指针,而指针当然是有固定大小的了,为什么是 24 个字节呢?我们可以看下 String
的定义:
#![allow(unused)] fn main() { pub struct String { vec: Vec<u8>, } pub struct Vec<T, A: Allocator = Global> { buf: RawVec<T, A>, len: usize, } pub struct RawVec<T, A: Allocator = Global> { ptr: Unique<T>, cap: usize, alloc: A, } pub struct Unique<T: ?Sized> { pointer: *const T, _marker: PhantomData<T>, } pub struct Global; pub struct PhantomData<T: ?Sized>; }
我们不难看出,在 64 位系统中:
sizeof(String)
= sizeof(Vec<u8>)
= sizeof(RawVec<u8, Global>) + sizeof(usize)
= sizeof(Unique<u8>) + sizeof(usize) + sizeof(Global) + 8 Bytes
= sizeof(*const u8) + sizeof(PhantomData<u8>) + 8 Bytes + sizeof(Global) + 8 Bytes
= 8 Bytes + 0 Bytes + 8 Bytes + 0 Bytes + 8 Bytes
= 24 Bytes
除去零大小的 PhantomData
和 Global
之外,我们可以看出 String
本质上由三个类型构成:
len: usize
-> 表示 String 所代表的字节序列长度pointer: *const u8,
-> 表示 String 所指向的堆内存地址cap: usize
-> 表示 String 的当前容量
总结一下:
str
表示一段合法的 utf-8 序列,String
表示存储在堆上的一段可以动态扩容和收缩的 utf-8 序列;str
是动态大小类型,编译期无法确定大小,因此通常通过&str
使用;&str
16 (8 * 2) 字节大小,包含一个裸指针和一个长度;String
24 (8 * 3) 字节大小,包含一个裸指针,一个长度和一个容量。String
和&str
构成比较相似,String
比&str
多了一个容量的字段,也就拥有了自动缩扩容的能力,是一个智能指针。String
拥有所指向字节的所有权,&str
则是对所指向字节的借用,一般需要配合生命周期一起使用。
Cow 的妙用
cow 的中文翻译是奶牛,显然 rust 中的 Cow 表示的不是这个意思。
Cow
是 Copy on write
的缩写,是一种智能指针,适合读多写少的场景。
直接看代码:
#![allow(unused)] fn main() { let name = String::from("lisiur"); }
name
的内存布局如下:
此时如果我们想复用 name
所指向的那块内存数据,有这么两种方式:
方式一:引用
#![allow(unused)] fn main() { let name = String::from("lisiur"); let new_name = &name; }
内存布局如下:
方式二:克隆
#![allow(unused)] fn main() { let name = String::from("lisiur"); let new_name = name.clone(); }
内存布局如下:
两种方式各有优缺点,引用是很廉价的操作,不会涉及堆内存的分配和拷贝,但是需要被借用检查限制。
克隆是很昂贵的操作,需要堆内存的分配和拷贝,但是拥有新数据的所有权,后续操作会更灵活。
一般情况下,如果获取 name
只是为了读操作的话,用引用的方式比较合适;但如果需要写操作,则必须使用克隆的方式了。
那么问题来了,如果我既有可能只有读操作,也有可能涉及写操作该怎么处理呢?这时为了顾及写操作,我们好像只能退而求其次的使用克隆的方式。 但这在读多写少的情况下存在大量不必要的内存分配。举个例子:
假设我们要对一个字符串按照空格切分,拿到切分后的第一个字符串片段,如果该字符串片段首字母小写,则将其改成大写字母并返回。
#![allow(unused)] fn main() { fn extract_return_string(s: &str) -> String { match s.find(" ") { Some(i) => { uppercase_first(&s[0..i]) } None => { uppercase_first(s) } } } fn uppercase_first(s: &str) -> String { let mut chars = s.chars(); chars.next().unwrap().to_uppercase().collect::<String>() + chars.as_str() } }
对于这种需求,函数的返回值貌似只能是 String
。但是有这么一种情况,那就是输入的 s
本身就是符合输出结果的,此时如果返回 String
势必会对 s
进行不必要的内存拷贝。如果这种情况占大多数,并且每个 s
的长度又足够大时,这种浪费就会更加明显。
此时就是 Cow
大展身手的时候了:
#![allow(unused)] fn main() { fn extract_return_cow(s: &str) -> Cow<str> { match s.find(" ") { Some(i) => { Cow::Owned((uppercase_first(&s[0..i]))) } None => { if s.starts_with(|c: char| c.is_uppercase()) { Cow::Borrowed(s) } else { Cow::Owned(uppercase_first(s)) } } } } fn uppercase_first(s: &str) -> String { let mut chars = s.chars(); chars.next().unwrap().to_uppercase().collect::<String>() + chars.as_str() } }
我们可以看到,对于包含空格的 s 或者没有首字符大写的 s 来说会进行必要的克隆操作(Cow::Owned
),而对于首字母已经大写,并且不包含空格的 s 来说,则直接借用其值(Cow::Borrowed
),避免了无谓的消耗。
我们可以简单做个测试对比下:
fn test(s: &str) { const N: usize = 10_000_000; let start = SystemTime::now(); for _i in 0..N { extract_return_string(s); } println!("{}", start.elapsed().unwrap().as_secs_f32()); let start = SystemTime::now(); for _i in 0..N { extract_return_cow(s); } println!("{}", start.elapsed().unwrap().as_secs_f32()); } fn main() { test("lisiur day"); test("Lisiur"); }
在我的机器上,对于 "lisiur day" 来说两种方法相差无几,几乎都是 0.9s 左右,而对于 "Lisiur" 来说,extract_return_string
稳定在 0.8s
左右,而 extract_return_cow
稳定在 0.3s
左右,优化效果还是很明显的。
大家可能会说,如果返回的结果后续需要进行修改怎么办呢?对于 extract_return_string
来说这很容易,因为其已经将 String 的所有权返回了,对于 extract_return_cow
来说,其有可能还只是持有 String
的引用而已。此时可以调用 to_mut
方法来保证 cow 已经持有数据的所有权(可能会发生内存拷贝)。
#![allow(unused)] fn main() { // 对于返回 String 来说,可以直接修改 let mut s = extract_return_string("Lisiur"); s.push_str(' Day'); println!("{}", s); // Lisiur Day // 对于返回 Cow 来说,可以先确保已经获取所有权 let mut s = extract_return_cow("Lisiur"); s.to_mut().push_str(' Day'); println!("{}", s); // Lisiur Day }
我们知道对于 "Lisiur" 来说,extract_return_cow
返回的是 Cow::Borrowed
,其内部存储的是一个借用值,如果我们想对该值进行加工,就需要调用 to_mut
把 Cow::Borrowed
变成 Cow::Owned
,也即此时才会发生内存拷贝。
对 Cow::Owned 调用 to_mut,不会产生副作用。
由此可见,如果后续一定会对返回值进行写操作的话,Cow 其实并没有任何优势,只是延迟了内存拷贝的时间而已。所以就如同开篇所说的那样,Cow 只适用于读多写少的场景。
AsRef vs Deref
bevy 教程
该系列是本人自学 bevy 的一些记录,适合新手向同学参考。
准备工作
新建项目
cargo new bevy-practice
添加依赖 (Cargo.toml)
[dependencies]
bevy = "0.5.0"
初始化模板 (src/main.rs)
use bevy::prelude::*; fn main() { App::build() .add_plugins(DefaultPlugins) .run(); }
运行查看效果
cargo run
不出意外,会弹出一个空的窗口。
理解 ECS
Bevy 是基于 ECS 的游戏引擎。
ECS 即表示 Entity, Component, System。
Componnet 是定义游戏世界各种概念的基本单元,比如代表玩家的 Player, 代表位置的 Position, 代表计时器的 Timer,代表窗口的 Window 等;
Entity 是游戏运行时一组相关 Component 的集合,比如描述一个玩家精灵时,需要 (Player, Position) 两个 Component 来标识;
System 定义游戏运行的规则,即 Entity 间如何交互。
下面通过一个例子来直观理解下:
use bevy::prelude::*; // Player 是一个 Component struct Player { name: String, } // Position 是一个 Component struct Position { pub x: f32, pub y: f32, } // setup_system 是一个 System fn setup_system( mut commands: Commands ) { // 生成一个 Entity commands.spawn() .insert(Player {name: "player1".to_string()}) .insert(Position {x: 0.0, y: 0.0}); // 又生成一个 Entity commands.spawn() .insert(Player {name: "player2".to_string()}) .insert(Position {x: 0.0, y: 0.0}); } // debug_system 是一个 System fn debug_system( mut user_query: Query<(&Player, &mut Position)>, ) { println!("debug_system 开始"); for (player, mut position) in user_query.iter_mut() { println!("查询到 {}, 当前位置: {},{}", player.name, position.x, position.y); println!("更新 {}", player.name); position.x += 1.0; position.y += 1.0; } println!("debug_system 结束\n\n"); } fn main() { App::build() .add_plugins(DefaultPlugins) .add_startup_system(setup_system.system()) .add_system(debug_system.system()) .run(); }
运行结果:
debug_system 开始
查询到 player1, 当前位置: 0,0
更新 player1
查询到 player2, 当前位置: 0,0
更新 player2
debug_system 结束
debug_system 开始
查询到 player1, 当前位置: 1,1
更新 player1
查询到 player2, 当前位置: 1,1
更新 player2
debug_system 结束
debug_system 开始
查询到 player1, 当前位置: 2,2
更新 player1
查询到 player2, 当前位置: 2,2
更新 player2
debug_system 结束
...
在 Bevy 中,Component 可以是任意 struct 或 enum;Entity 可以通过 Commands::spawn 生成;System 则是一些具有特殊参数的函数。
上面的例子中,Player 和 Position 都是 Component,在 setup_system 中,声明 mut commands: Commands
通过 commands 生成两个 Entity,这两个 Entity 都各自包含了 Player 和 Position 两个 Component 实例。
在 debug_system 中,我们声明了 Query 参数,Query 赋予了我们查询符合条件的 Entity 的能力,比如 Query<(&Player, &mut Position)
就表示查询同时包含 Player 和 Position 这两个 Component 的 Entity。
最后,我们使用 add_startup_system
添加 setup_system 是因为 setup_system 只需要运行一次,而通 add_system
添加 debug_system 是因为 debug_system 在游戏运行的每个物理帧都要执行。
简单来说我们可以根据下图理解 ECS:
假设我们已经有了 Player, Position, Robot 等 Component,然后通过 commands.spawn().insert(Player).insert(Position)
和 commands.spawn().insert(Player).insert(Position).insert(Robot)
生成两个 Entity。
在 System 中,我们通过 Query 可以查询不同的 Entity:
Query<&Player>
查询所有带有 Player 的 Entity (entity1,entity2)Query<(&Player, &Robot)>
查询所有同时带有 Player 和 Robot 的 Entity (entity2)Query<&Player, With<Robot>>
查询所有同时带有 Player 和 Robot 的 Entity (entity2),和上面的区别是这个只能读取 Player,不能读取 Robot,相对的查询效率更高效Query<&Player, Without<Robot>>
查询所有不带有 Robot 的 Player 的 Entity (entity1)Query<(&Player, Option<&Robot>)>
查询所有带有 Player 的 Entity,并且尝试获取该 Entity 的 Robot Component (entity1, entity2)
Query 中的 Component 前面加上 & 表示只读,加上 &mut 表示可写。
创建一个精灵
说了这么多,没有能创建一个可以操作的精灵更能直观感受 Bevy 的开发流程了。
接下来我们就尝试开发一个可以通过键盘控制的坦克。
我们先描述下需求:
- 在屏幕上绘制一个坦克
- 通过键盘控制坦克移动
- 坦克可以发射子弹
本节关注于第一个需求,即绘制一个坦克。
上一节,我们探讨了 ECS 模型,并了解了一些可以在 System 函数中声明的参数类型,包括 Commands, Query 等,接下来要再介绍几种:
Res 和 ResMut
Res 即 Resource,中文翻译为资源,在 bevy 中可以用来存储全局单例数据实体。我们可以在声明 App 时插入一个 Resource,然后在 System 中通过 Res 获取该实例(ResMut 获取该实例可变引用):
use bevy::prelude::*; struct Goals(usize); fn add_goals_system(mut goals: ResMut<Goals>) { goals.0 += 1; } fn read_goals_system(goals: Res<Goals>) { println!("{}", goals.0); } fn main() { App::build() .add_plugins(DefaultPlugins) .insert_resource(Goals(0)) .add_system(add_goals_system.system()) .add_system(read_goals_system.system()) .run(); }
值得注意的是 bevy 内置了很多 Resource ,其中就包括 WindowDescriptor
,可以通过它配置默认窗口。
比如我们想控制窗口是 500 * 500 的大小,就可以这么处理:
fn main() { App::build() .insert_resource(WindowDescriptor { width: 500., height: 500., ..Default::default() }) .add_plugins(DefaultPlugins) .run(); }
注意,WindowDescriptor 需要在 DefaultPlugins 之前,因为 DefaultPlugins 中有一个 WindowPlugin 会读取已经声明的 WindowDescriptor,如果没有则自行创建一个。因此如果我们自定义的 WindowDescriptor 放到后面的话就会错过被 WindowPlugin 读取的机会。
Assets 和 AssetServer
Assets 和 AssetServer 都是 bevy 内置的 Resource,用来处理一些特定的资源,包括图片,视频,音频,字体等。
先来看看 Assets 的使用。
use bevy::prelude::*; fn setup_system(mut commands: Commands) { commands.spawn_bundle(OrthographicCameraBundle::new_2d()); } fn add_assets_system(mut commands: Commands, mut materials: ResMut<Assets<ColorMaterial>>) { commands.spawn_bundle(SpriteBundle { material: materials.add(ColorMaterial::from(Color::GOLD)), sprite: Sprite::new(Vec2::new(10., 10.)), ..Default::default() }); } fn main() { App::build() .add_plugins(DefaultPlugins) .add_startup_system(setup_system.system()) .add_startup_system(add_assets_system.system()) .run(); }
上面的例子可以在窗口中心绘制一个 10 * 10 大小的金色方块。
其中有几点需要注意:
- setup_system 中我们添加了一个正交投影相机,否则无法显示
- add_assets_system 中的 SpriteBundle 是 bevy 内置的一个生成精灵的一组 Component 集合,包含了贴图(material),大小(sprite)以及变换(transform)等等。
- 生成的精灵使用的贴图是用
Assets<ColorMaterial>
来生成的。
再来看看 AssetServer,AssetServer 屏蔽了资源加载过程,对于同一个资源无论是加载中还是加载完成都会返回一个相同的 Handle,开发人员只需使用该 Handle 即可,无需关心是否加载完成。
use bevy::prelude::*; fn setup_system(mut commands: Commands) { commands.spawn_bundle(OrthographicCameraBundle::new_2d()); } fn add_assets_system( mut commands: Commands, asset_server: Res<AssetServer>, mut materials: ResMut<Assets<ColorMaterial>>, ) { commands.spawn_bundle(SpriteBundle { material: materials.add(asset_server.load("images/tank.png").into()), sprite: Sprite::new(Vec2::new(50., 50.)), ..Default::default() }); } fn main() { App::build() .add_plugins(DefaultPlugins) .add_startup_system(setup_system.system()) .add_startup_system(add_assets_system.system()) .run(); }
该例子可以在屏幕中央绘制一个 50 * 50 的坦克。
其中有几点需要注意:
- asset_server.load("images/tank.png") 会加载
<project_folder>/assets/images/tank.png
- asset_server.load 返回类型是
Handle<Texture>
继续调用into
可以转换成ColorMaterial
类型 - 用到的图片资源:tank.png
最终结果
结合本节所讲,可以轻松完成一个坦克的绘制:
use bevy::prelude::*; struct Tank; fn setup_system( mut commands: Commands, asset_server: Res<AssetServer>, mut materials: ResMut<Assets<ColorMaterial>>, ) { commands.spawn_bundle(OrthographicCameraBundle::new_2d()); commands .spawn_bundle(SpriteBundle { material: materials.add(asset_server.load("images/tank.png").into()), sprite: Sprite::new(Vec2::new(50., 50.)), ..Default::default() }) .insert(Tank); } fn main() { App::build() .insert_resource(WindowDescriptor { height: 500.0, width: 500.0, ..Default::default() }) .add_plugins(DefaultPlugins) .add_startup_system(setup_system.system()) .run(); }
使用键盘控制精灵
这一小节,我们尝试使用键盘控制坦克移动。
具体需求如下:
- 按键 w 控制坦克前进
- 按键 s 控制坦克后退
- 按键 a 控制坦克左转
- 按键 d 控制坦克右转
分析以下,其实我们需要处理两个问题,一个是如何让坦克变换,即改变位置,旋转等;另一个是如何接收键盘输入事件。
对坦克进行变换
在上一节中,我们实现了把坦克居中显示,但大家有没有想过为什么默认情况下坦克会居中显示呢,而且为什么又默认是炮筒朝上指的呢?
我们来回忆下生成坦克的代码:
#![allow(unused)] fn main() { commands .spawn_bundle(SpriteBundle { material: materials.add(asset_server.load("images/tank.png").into()), sprite: Sprite::new(Vec2::new(50., 50.)), ..Default::default() }) .insert(Tank); }
我们曾在前一小节提过,SpriteBundle 是 bevy 内置的一组 Component 集合,其中就包括一个叫做 Transform 的 Component,其定义如下:
#![allow(unused)] fn main() { pub struct Transform { /// Position of the entity. In 2d, the last value of the `Vec3` is used for z-ordering. pub translation: Vec3, /// Rotation of the entity. pub rotation: Quat, /// Scale of the entity. pub scale: Vec3, } }
可以看到,Transform Component 就包含了精灵的位置(translation),旋转角度(rotation),以及缩放(scale)信息。
当我们不指定 transform 时,bevy 会生成一个默认的 transform:
#![allow(unused)] fn main() { Transform { translation: Vec3::ZERO, rotation: Quat::IDENTITY, scale: Vec3::ONE, } }
可以看到,默认情况下,位置就是 Vec3::ZERO 也即 (0, 0, 0), 旋转是 Quat::IDENTITY 也即图片默认方向,缩放是 Vec3::ONE 也即默认不做缩放。
而坦克会在屏幕中间显示,是因为 bevy 的坐标系是这样的:
因此如果我们要改变坦克的位置和旋转角度时,只需要修改其对应的 transform 即可:
use bevy::prelude::*; struct Tank; fn setup_system( mut commands: Commands, asset_server: Res<AssetServer>, mut materials: ResMut<Assets<ColorMaterial>>, ) { commands.spawn_bundle(OrthographicCameraBundle::new_2d()); commands .spawn_bundle(SpriteBundle { material: materials.add(asset_server.load("images/tank.png").into()), sprite: Sprite::new(Vec2::new(50., 50.)), ..Default::default() }) .insert(Tank); } fn tank_movement_system(mut query: Query<&mut Transform, With<Tank>>) { for mut transform in query.iter_mut() { transform.translation.y += 0.1; } } fn main() { App::build() .insert_resource(WindowDescriptor { height: 500.0, width: 500.0, ..Default::default() }) .add_plugins(DefaultPlugins) .add_startup_system(setup_system.system()) .add_system(tank_movement_system.system()) .run(); }
该示例演示了如何让坦克朝着y轴方向移动。
以下几点需要注意:
Query<&mut Transform, With<Tank>>
查询同时包含 Transform 和 Tank 两个 Component 的 Entity,这里使用 With 是因为我们不需要读写 Tank 的相关信息transform.translation.y += 0.1
是让坦克在每帧都向y轴方向移动 0.1 px 的距离
而让坦克旋转的话,稍微有些麻烦,方法如下:
#![allow(unused)] fn main() { transform.rotation *= Quat::from_rotation_z(std::f32::consts::PI / 2.); }
rotation 是一个四元数,上面的效果就是逆时针旋转 90 度。
至此我们已经学习了如何对精灵进行位移和旋转,但其实我们忽略了一个问题那就是如何让坦克一直朝着自己的前方移动呢?我们上面通过修改 transform.translate.y 的值使得坦克朝着 y 轴方向移动,那是因为此时碰巧坦克的朝向就是 y 轴,当坦克向左旋转 90 度后,此时则需要 修改 transform.translate.x 的值才能使得坦克按照其自身方向前进和后退,那如果坦克旋转 30 度呢,99度呢?
此时就需要一点初中数学知识了:
我们看到旋转 α 角度后,假设我们前进一个单位的长度,其实等同于在 x 轴上位移 -sinα 的长度,在 y 轴上位移 cosα 的长度。
因此我们可以写一个 util 函数:
#![allow(unused)] fn main() { pub fn r#move(transform: &mut Transform, px: f32) { let (axis, angle) = transform.rotation.to_axis_angle(); let angle = angle * &axis.z.signum(); transform.translation.y += angle.cos() * &px; transform.translation.x -= angle.sin() * &px; } }
接收键盘输入事件
接收键盘处理事件相对要简单一些了,我们可以在 System 函数中通过声明 Res<Input<KeyCode>>
来接收键盘事件:
use bevy::prelude::*; fn keyboard_input_system(keyboard_input: Res<Input<KeyCode>>) { if keyboard_input.pressed(KeyCode::W) { println!("w"); } if keyboard_input.pressed(KeyCode::S) { println!("s"); } if keyboard_input.pressed(KeyCode::A) { println!("a"); } if keyboard_input.pressed(KeyCode::D) { println!("d"); } } fn main() { App::build() .insert_resource(WindowDescriptor { height: 500.0, width: 500.0, ..Default::default() }) .add_plugins(DefaultPlugins) .add_system(keyboard_input_system.system()) .run(); }
最终结果
整合下本节所讲的知识点,如何用键盘控制坦克实现如下:
use bevy::prelude::*; struct Tank; fn setup_system( mut commands: Commands, asset_server: Res<AssetServer>, mut materials: ResMut<Assets<ColorMaterial>>, ) { commands.spawn_bundle(OrthographicCameraBundle::new_2d()); commands .spawn_bundle(SpriteBundle { material: materials.add(asset_server.load("images/tank.png").into()), sprite: Sprite::new(Vec2::new(50., 50.)), ..Default::default() }) .insert(Tank); } fn tank_movement_system( mut query: Query<&mut Transform, With<Tank>>, keyboard_input: Res<Input<KeyCode>>, ) { for mut transform in query.iter_mut() { if keyboard_input.pressed(KeyCode::W) { r#move(&mut transform, 0.1); } if keyboard_input.pressed(KeyCode::S) { r#move(&mut transform, -0.1); } if keyboard_input.pressed(KeyCode::A) { transform.rotation *= Quat::from_rotation_z(std::f32::consts::PI / 360.); } if keyboard_input.pressed(KeyCode::D) { transform.rotation *= Quat::from_rotation_z(-std::f32::consts::PI / 360.); } } } pub fn r#move(transform: &mut Transform, px: f32) { let (axis, angle) = transform.rotation.to_axis_angle(); let angle = angle * &axis.z.signum(); transform.translation.y += angle.cos() * &px; transform.translation.x -= angle.sin() * &px; } fn main() { App::build() .insert_resource(WindowDescriptor { height: 500.0, width: 500.0, ..Default::default() }) .add_plugins(DefaultPlugins) .add_startup_system(setup_system.system()) .add_system(tank_movement_system.system()) .run(); }
最终效果如下:
动态创建与销毁精灵
本节我们来实现最后一个需求,即坦克发射子弹。
我们先明确下需求:
- 键盘按下 Space 键,坦克发射子弹
- 子弹飞行一定距离后需要被销毁
发射子弹
子弹我们可以定义一个 叫做 Bullet 的 Component,因为涉及到需要销毁子弹,所以我们需要记录子弹飞行了多少距离,或者子弹剩余多少距离可以继续飞,以此来判断是否需要将其销毁。因此我们的子弹定义如下:
#![allow(unused)] fn main() { struct Bullet { range: f32, } }
其中 range 表示子弹剩余的可飞行距离。
接下来就是实现按键 Space 创建子弹:
#![allow(unused)] fn main() { fn tank_fire_system( mut commands: Commands, mut query: Query<Tank>, keyboard_input: Res<Input<KeyCode>>, ) { for mut tank in query.iter_mut() { if keyboard_input.pressed(KeyCode::Space) { commands .spawn_bundle(SpriteBundle { material: materials.add(ColorMaterial::from(Color::GOLD).into()), sprite: Sprite::new(Vec2::new(10., 10.)), transform: transform.clone(), ..Default::default() }) .insert(Bullet { range: 250. }); } } } }
这里面值得注意的是:
- spawn_bundle 时将坦克的 transform 值直接拷贝了一份,因为我们默认子弹初始位置和方向是和坦克一致的。
让子弹飞一会
#![allow(unused)] fn main() { fn bullet_movement_system( mut commands: Commands, mut query: Query<(Entity, &mut Bullet, &mut Transform)>, ) { for (ent, mut bullet, mut transform) in query.iter_mut() { if bullet.range > 0.0 { let range = 1.; bullet.range -= range; r#move(&mut transform, range); } else { commands.entity(ent).despawn(); } } } }
这里面值得注意的是:
- Query 里加了一个 Entity 类型,通过它可以获取该 Entity
commands.entity(ent).despawn()
会将该 Entity 销毁
最终结果
use bevy::prelude::*; struct Tank; struct Bullet { range: f32, } fn setup_system( mut commands: Commands, asset_server: Res<AssetServer>, mut materials: ResMut<Assets<ColorMaterial>>, ) { commands.spawn_bundle(OrthographicCameraBundle::new_2d()); commands .spawn_bundle(SpriteBundle { material: materials.add(asset_server.load("images/tank.png").into()), sprite: Sprite::new(Vec2::new(50., 50.)), ..Default::default() }) .insert(Tank); } fn tank_movement_system( mut query: Query<&mut Transform, With<Tank>>, keyboard_input: Res<Input<KeyCode>>, ) { for mut transform in query.iter_mut() { if keyboard_input.pressed(KeyCode::W) { r#move(&mut transform, 0.5); } if keyboard_input.pressed(KeyCode::S) { r#move(&mut transform, -0.5); } if keyboard_input.pressed(KeyCode::A) { transform.rotation *= Quat::from_rotation_z(std::f32::consts::PI / 180.); } if keyboard_input.pressed(KeyCode::D) { transform.rotation *= Quat::from_rotation_z(-std::f32::consts::PI / 180.); } } } fn tank_fire_system( mut commands: Commands, query: Query<&Transform, With<Tank>>, keyboard_input: Res<Input<KeyCode>>, mut materials: ResMut<Assets<ColorMaterial>>, ) { for transform in query.iter() { if keyboard_input.pressed(KeyCode::Space) { commands .spawn_bundle(SpriteBundle { material: materials.add(ColorMaterial::from(Color::GOLD).into()), sprite: Sprite::new(Vec2::new(10., 10.)), transform: transform.clone(), ..Default::default() }) .insert(Bullet { range: 250. }); } } } fn bullet_movement_system( mut commands: Commands, mut query: Query<(Entity, &mut Bullet, &mut Transform)>, ) { for (ent, mut bullet, mut transform) in query.iter_mut() { if bullet.range > 0.0 { let range = 1.; bullet.range -= range; r#move(&mut transform, range); } else { commands.entity(ent).despawn(); } } } pub fn r#move(transform: &mut Transform, px: f32) { let (axis, angle) = transform.rotation.to_axis_angle(); let angle = angle * &axis.z.signum(); transform.translation.y += angle.cos() * &px; transform.translation.x -= angle.sin() * &px; } fn main() { App::build() .insert_resource(WindowDescriptor { height: 500.0, width: 500.0, ..Default::default() }) .add_plugins(DefaultPlugins) .add_startup_system(setup_system.system()) .add_system(tank_movement_system.system()) .add_system(tank_fire_system.system()) .add_system(bullet_movement_system.system()) .run(); }
最终效果如下:
杂项
Vim Combos
命令 | 操作 |
---|---|
前进一步 | Ctrl+i |
回退一步 | Ctrl+o |
跳转到定义 | Ctrl+] |
折叠 | zc |
打开折叠 | zo |
全选 | ggvG |
插入模式跳到行尾 | Ctrl+o A |
插入模式跳到行首 | Ctrl+o I |
幺半群
群:(G,·)
- 封闭性: 对于所有G中a, b,运算a·b的结果也在G中。
- 结合律: 对于所有G中的a, b和c,等式 (a·b)·c = a· (b·c)成立。
- 单位元: 存在G中的一个元素e,使得对于所有G中的元素a,总有等式 e·a = a·e = a 成立。
- 逆元: 对于每个G中的a,存在G中的一个元素b使得总有a·b = b·a = e,此处e为单位元。
半群:(G,·)
- 封闭性: 对于所有G中a, b,运算a·b的结果也在G中。
- 结合律: 对于所有G中的a, b和c,等式 (a·b)·c = a· (b·c)成立。
幺半群:(G,·)
- 封闭性: 对于所有G中a, b,运算a·b的结果也在G中。
- 结合律: 对于所有G中的a, b和c,等式 (a·b)·c = a· (b·c)成立。
- 单位元: 存在G中的一个元素e,使得对于所有G中的元素a,总有等式 e·a = a·e = a 成立。
Summary
TOML 简介
TOML 是什么
TOML 是由 GitHub 联合创始人 Tom Preston-Werner 等人设计的配置文件格式。
TOML 的目标
TOML的目标是成为一种最小的配置文件格式,由于明显的语义,该格式易于阅读。
TOML旨在明确地映射到哈希表。
TOML应该易于解析为多种语言的数据结构。
细则
- TOML 是大小写敏感的
- 一个 TOML 文件必须是合法的 utf-8 编码的 Unicode 文档
- 制表符(Tab 0x09)和空格(Space 0x20)都代表空白
- LF (0x0A) 或 CRLF (0x0D 0x0A) 代表换行
注释
当 #
不在字符串内时,处于其后的当前行内容将被当成注释
# 当前行都是注释
key = "value" # 这是一行结尾处的注释
another = "# 此处不是注释"
注释中不允许使用制表符以外的控制字符(U + 0000至U + 0008,U + 000A至U + 001F,U + 007F)。
键
一个键可以是不带引号的,带引号的或带点的。
裸键只能包含ASCII字母,ASCII数字,下划线和破折号(A-Za-z0-9_-)。 请注意,裸键只能由ASCII数字组成,例如 1234
,但始终被解释为字符串。
key = "value"
bare_key = "value"
bare-key = "value"
1234 = "value"
带引号的键遵循与基本字符串或文字字符串完全相同的规则,并允许您使用更广泛的键名称集。 最佳实践是使用裸键,除非绝对必要。
"127.0.0.1" = "value"
"character encoding" = "value"
"ʎǝʞ" = "value"
'key2' = "value"
'quoted "value"' = "value"
带点键是一系列带有点的裸键或带引号的键。 这允许将相似的属性分组在一起。
name = "Orange"
physical.color = "orange"
physical.shape = "round"
site."google.com" = true
等价的 JSON 描述:
{
"name": "Orange",
"physical": {
"color": "orange",
"shape": "round"
},
"site": {
"google.com": true
}
}
值
TOML 里的值必须是下面中的一种:
键/值对之后必须有换行符(或EOF)(内联表除外)
String
有四种表达字符串的方式:基本,多行基本,文字和多行文字。 所有字符串只能包含有效的UTF-8字符。
基本字符串用引号 "
括起来。除必须转义的字符外,任何Unicode字符都可以使用:引号、反斜杠和tab以外的控制字符(U+0000到U+0008, U+000A到U+001F, U+007F)。
str = "I'm a string. \"You can quote me\". Name\tJos\u00E9\nLocation\tSF."
为了方便起见,一些流行的字符有一个紧凑的转义序列。
\b - backspace (U+0008)
\t - tab (U+0009)
\n - linefeed (U+000A)
\f - form feed (U+000C)
\r - carriage return (U+000D)
\" - quote (U+0022)
\\ - backslash (U+005C)
\uXXXX - unicode (U+XXXX)
\UXXXXXXXX - unicode (U+XXXXXXXX)
多行基本字符串两边用三个引号括起来,允许换行。紧接在开始分隔符之后的换行符将被修剪。所有其他空格和换行符保持不变。
str1 = """
Roses are red
Violets are blue"""
如果要写长字符串而不引入多余的空格,可以使用“行尾反斜杠”。当一行中的最后一个非空格字符是一个未转义的\时,它将与所有的空格(包括换行符)一起被修剪,直到下一个非空格字符或结束分隔符。适用于基本字符串的所有转义序列也适用于多行基本字符串。
# The following strings are byte-for-byte equivalent:
str1 = "The quick brown fox jumps over the lazy dog."
str2 = """
The quick brown \
fox jumps over \
the lazy dog."""
str3 = """\
The quick brown \
fox jumps over \
the lazy dog.\
"""
可以在多行基本字符串的任何位置写入一个引号或两个相邻的引号。它们也可以只写在分隔符内。
str4 = """Here are two quotation marks: "". Simple enough."""
# str5 = """Here are three quotation marks: """.""" # INVALID
str5 = """Here are three quotation marks: ""\"."""
str6 = """Here are fifteen quotation marks: ""\"""\"""\"""\"""\"."""
# "This," she said, "is just a pointless statement."
str7 = """"This," she said, "is just a pointless statement.""""
文字字符串用单引号括起来。像基本字符串一样,它们必须出现在一行中
# What you see is what you get.
winpath = 'C:\Users\nodejs\templates'
winpath2 = '\\ServerX\admin$\system32\'
quoted = 'Tom "Dubs" Preston-Werner'
regex = '<\i\c*\s*>'
由于没有转义,所以无法在由单引号括起来的字符串中写入单引号。幸运的是,TOML支持文本字符串的多行版本,可以解决这个问题。
多行字面值字符串两边用三个单引号括起来,允许换行。像字面字符串一样,没有任何转义。紧接在开始分隔符之后的换行符将被修剪。分隔符之间的所有其他内容都按原样解释,不需要修改。
regex2 = '''I [dw]on't need \d{2} apples'''
lines = '''
The first newline is
trimmed in raw strings.
All other whitespace
is preserved.
'''
你可以在多行文字字符串的任何地方写上1或2个单引号,但是不允许连续使用3个或更多的单引号。
quot15 = '''Here are fifteen quotation marks: """""""""""""""'''
# apos15 = '''Here are fifteen apostrophes: '''''''''''''''''' # INVALID
apos15 = "Here are fifteen apostrophes: '''''''''''''''"
# 'That,' she said, 'is still pointless.'
str = ''''That,' she said, 'is still pointless.''''
在字面值字符串中不允许使用制表符以外的控制字符。因此,对于二进制数据,建议使用Base64或其他合适的ASCII或UTF-8编码。编码的处理将是特定于应用程序的。
Local Time
数组
数组由一对方括号包裹着一组元素组成。 元素用逗号分隔。 数组可以包含与键/值对相同的数据类型的值。 可以混合使用不同类型的值。
intergers = [1, 2, 3]
nested_arrays = [[1, 2], [3, 4]]
nested_mixed_array = [[1, 2], "1", "2"]
数组可以跨越多行。 在数组的最后一个值之后允许使用终止逗号(也称为尾随逗号)。 值,逗号和右括号之前可以有任意数量的换行符和注释。 数组值和逗号之间的缩进被视为空白并被忽略。
integers = [1, 2, 3]
integers2 = [
1,
2,
]
内联表
内联表为标准表提供了更紧凑的语法。 它们对于分组的数据特别有用,否则这些数据很快就会变得冗长。 内联表在花括号{
和}
中定义。 在大括号内,可能会出现零个或多个逗号分隔的键/值对。 键/值对的形式与标准表中的键/值对相同。 允许所有值类型,包括内联表。
内联表旨在显示在一行上。 内联表中的最后一个键/值对之后不允许使用终止逗号(也称为尾随逗号)。 花括号之间不允许使用换行符,除非它们在一个值内有效。 即使这样,还是强烈建议不要将内联表拆分为多行。 如果您发现自己被这种欲望所困扰,则意味着您应该使用标准表。
a = { b = 1, c = 2 }
等价 TOML 描述:
[a]
b = 1
c = 2
等价 JSON 描述:
{
"a": {
"b": 1,
"c": 2
}
}
注意内联表是完整且独立的,意味着你不能在内联表外对内联表做任何补充定义
a = { b = 1}
a.c = 2 # 该行是不合法的
表
表(也称为哈希表或字典)是键/值对的集合。
表由表头和键值对构成
[table]
a = 1
b = 2
等价 JSON 描述:
{
"table": {
"a": 1,
"b": 2
}
}
注意 TOML 文件本身就是一个匿名表,因此可以直接书写键值对:
a = 1
b = 2
等价 JSON 描述:
{
"a": 1,
"b": 2
}
注意:一个表的范围从表头开始到下一个表头或是文件结尾结束
表头是可以嵌套的
[a.b.c]
等价 JSON 描述:
{
"a": {
"b": {
"c": {
}
}
}
}
注意:表可以没有键值对,就如同上一个例子所示
键也是可以嵌套的
[a."b.c"]
d.e = 1
等价 JSON 描述:
{
"a": {
"b.c": {
"d": {
"e": 1
}
}
}
}
顶部匿名表也是一样的:
a.b.c = 1
等价 JSON 描述
{
"a": {
"b": {
"c": 1
}
}
}
重复定义是不合法的
# 下面重复定义了 a 表,是不合法的
[a]
b = 1
[a]
c = 1
# 下面重复定义了同一个表的字段(a.b),是不合法的
[a]
b = 1
[a.b]
c = 1
表数组
表数组使用双中括号来表示。 该标头的第一个实例定义了数组及其第一个表元素,每个后续实例在该数组中创建并定义了一个新的表元素。 这些表按遇到的顺序插入到数组中。
[[a]]
b = 1
c = 2
[[a]]
[[a]]
b = 3
c = 4
等价 JSON 描述:
{
"a": [
{ "b": 1, "c": 2 },
{},
{ "b": 3, "c": 4 }
]
}
对表数组的任何引用都指向该数组的最近定义的表元素。 这使您可以在最新表内定义子表,甚至表的子数组。
[[a]]
b = 1
[a.c]
d = 2
[[a.e]]
f = 3
[[a.e]]
g = 4
[[a]]
b = 5
[[a.e]]
h = 5
等价 JSON 描述:
{
"a": [
{
"b": 1,
"c": {
"d": 2
},
"e": [
{ "f": 3 },
{ "g": 4 }
]
},
{
"b": 5,
"e": [
{ "h": 5 }
]
}
]
}
ABNF
;; This document describes TOML's syntax, using the ABNF format (defined in
;; RFC 5234 -- https://www.ietf.org/rfc/rfc5234.txt).
;;
;; All valid TOML documents will match this description, however certain
;; invalid documents would need to be rejected as per the semantics described
;; in the supporting text description.
;; It is possible to try this grammar interactively, using instaparse.
;; http://instaparse.mojombo.com/
;;
;; To do so, in the lower right, click on Options and change `:input-format` to
;; ':abnf'. Then paste this entire ABNF document into the grammar entry box
;; (above the options). Then you can type or paste a sample TOML document into
;; the beige box on the left. Tada!
;; Overall Structure
toml = expression *( newline expression )
expression = ws [ comment ]
expression =/ ws keyval ws [ comment ]
expression =/ ws table ws [ comment ]
;; Whitespace
ws = *wschar
wschar = %x20 ; Space
wschar =/ %x09 ; Horizontal tab
;; Newline
newline = %x0A ; LF
newline =/ %x0D.0A ; CRLF
;; Comment
comment-start-symbol = %x23 ; #
non-ascii = %x80-D7FF / %xE000-10FFFF
non-eol = %x09 / %x20-7F / non-ascii
comment = comment-start-symbol *non-eol
;; Key-Value pairs
keyval = key keyval-sep val
key = simple-key / dotted-key
simple-key = quoted-key / unquoted-key
unquoted-key = 1*( ALPHA / DIGIT / %x2D / %x5F ) ; A-Z / a-z / 0-9 / - / _
quoted-key = basic-string / literal-string
dotted-key = simple-key 1*( dot-sep simple-key )
dot-sep = ws %x2E ws ; . Period
keyval-sep = ws %x3D ws ; =
val = string / boolean / array / inline-table / date-time / float / integer
;; String
string = ml-basic-string / basic-string / ml-literal-string / literal-string
;; Basic String
basic-string = quotation-mark *basic-char quotation-mark
quotation-mark = %x22 ; "
basic-char = basic-unescaped / escaped
basic-unescaped = wschar / %x21 / %x23-5B / %x5D-7E / non-ascii
escaped = escape escape-seq-char
escape = %x5C ; \
escape-seq-char = %x22 ; " quotation mark U+0022
escape-seq-char =/ %x5C ; \ reverse solidus U+005C
escape-seq-char =/ %x62 ; b backspace U+0008
escape-seq-char =/ %x66 ; f form feed U+000C
escape-seq-char =/ %x6E ; n line feed U+000A
escape-seq-char =/ %x72 ; r carriage return U+000D
escape-seq-char =/ %x74 ; t tab U+0009
escape-seq-char =/ %x75 4HEXDIG ; uXXXX U+XXXX
escape-seq-char =/ %x55 8HEXDIG ; UXXXXXXXX U+XXXXXXXX
;; Multiline Basic String
ml-basic-string = ml-basic-string-delim [ newline ] ml-basic-body
ml-basic-string-delim
ml-basic-string-delim = 3quotation-mark
ml-basic-body = *mlb-content *( mlb-quotes 1*mlb-content ) [ mlb-quotes ]
mlb-content = mlb-char / newline / mlb-escaped-nl
mlb-char = mlb-unescaped / escaped
mlb-quotes = 1*2quotation-mark
mlb-unescaped = wschar / %x21 / %x23-5B / %x5D-7E / non-ascii
mlb-escaped-nl = escape ws newline *( wschar / newline )
;; Literal String
literal-string = apostrophe *literal-char apostrophe
apostrophe = %x27 ; ' apostrophe
literal-char = %x09 / %x20-26 / %x28-7E / non-ascii
;; Multiline Literal String
ml-literal-string = ml-literal-string-delim [ newline ] ml-literal-body
ml-literal-string-delim
ml-literal-string-delim = 3apostrophe
ml-literal-body = *mll-content *( mll-quotes 1*mll-content ) [ mll-quotes ]
mll-content = mll-char / newline
mll-char = %x09 / %x20-26 / %x28-7E / non-ascii
mll-quotes = 1*2apostrophe
;; Integer
integer = dec-int / hex-int / oct-int / bin-int
minus = %x2D ; -
plus = %x2B ; +
underscore = %x5F ; _
digit1-9 = %x31-39 ; 1-9
digit0-7 = %x30-37 ; 0-7
digit0-1 = %x30-31 ; 0-1
hex-prefix = %x30.78 ; 0x
oct-prefix = %x30.6F ; 0o
bin-prefix = %x30.62 ; 0b
dec-int = [ minus / plus ] unsigned-dec-int
unsigned-dec-int = DIGIT / digit1-9 1*( DIGIT / underscore DIGIT )
hex-int = hex-prefix HEXDIG *( HEXDIG / underscore HEXDIG )
oct-int = oct-prefix digit0-7 *( digit0-7 / underscore digit0-7 )
bin-int = bin-prefix digit0-1 *( digit0-1 / underscore digit0-1 )
;; Float
float = float-int-part ( exp / frac [ exp ] )
float =/ special-float
float-int-part = dec-int
frac = decimal-point zero-prefixable-int
decimal-point = %x2E ; .
zero-prefixable-int = DIGIT *( DIGIT / underscore DIGIT )
exp = "e" float-exp-part
float-exp-part = [ minus / plus ] zero-prefixable-int
special-float = [ minus / plus ] ( inf / nan )
inf = %x69.6e.66 ; inf
nan = %x6e.61.6e ; nan
;; Boolean
boolean = true / false
true = %x74.72.75.65 ; true
false = %x66.61.6C.73.65 ; false
;; Date and Time (as defined in RFC 3339)
date-time = offset-date-time / local-date-time / local-date / local-time
date-fullyear = 4DIGIT
date-month = 2DIGIT ; 01-12
date-mday = 2DIGIT ; 01-28, 01-29, 01-30, 01-31 based on month/year
time-delim = "T" / %x20 ; T, t, or space
time-hour = 2DIGIT ; 00-23
time-minute = 2DIGIT ; 00-59
time-second = 2DIGIT ; 00-58, 00-59, 00-60 based on leap second rules
time-secfrac = "." 1*DIGIT
time-numoffset = ( "+" / "-" ) time-hour ":" time-minute
time-offset = "Z" / time-numoffset
partial-time = time-hour ":" time-minute ":" time-second [ time-secfrac ]
full-date = date-fullyear "-" date-month "-" date-mday
full-time = partial-time time-offset
;; Offset Date-Time
offset-date-time = full-date time-delim full-time
;; Local Date-Time
local-date-time = full-date time-delim partial-time
;; Local Date
local-date = full-date
;; Local Time
local-time = partial-time
;; Array
array = array-open [ array-values ] ws-comment-newline array-close
array-open = %x5B ; [
array-close = %x5D ; ]
array-values = ws-comment-newline val ws-comment-newline array-sep array-values
array-values =/ ws-comment-newline val ws-comment-newline [ array-sep ]
array-sep = %x2C ; , Comma
ws-comment-newline = *( wschar / [ comment ] newline )
;; Table
table = std-table / array-table
;; Standard Table
std-table = std-table-open key std-table-close
std-table-open = %x5B ws ; [ Left square bracket
std-table-close = ws %x5D ; ] Right square bracket
;; Inline Table
inline-table = inline-table-open [ inline-table-keyvals ] inline-table-close
inline-table-open = %x7B ws ; {
inline-table-close = ws %x7D ; }
inline-table-sep = ws %x2C ws ; , Comma
inline-table-keyvals = keyval [ inline-table-sep inline-table-keyvals ]
;; Array Table
array-table = array-table-open key array-table-close
array-table-open = %x5B.5B ws ; [[ Double left square bracket
array-table-close = ws %x5D.5D ; ]] Double right square bracket
;; Built-in ABNF terms, reproduced here for clarity
ALPHA = %x41-5A / %x61-7A ; A-Z / a-z
DIGIT = %x30-39 ; 0-9
HEXDIG = DIGIT / "A" / "B" / "C" / "D" / "E" / "F"
FAQ
与 JSON 对比
JSON 的设计目标是通用的序列化格式,因此它要保证足够的简单(语法简单)和简洁(体积小)。简单用来简化编程语言实现,简洁用来增加传递信息的密度。因此当你的目标是序列化的话,JSON 是较好的选择。
TOML 的设计目标是易读的配置文件格式,因此它的首要任务是设计明显的语义以方便人类的阅读。所以相对 JSON 而言它的语法更加丰富,而为了更易读,也相应的增加了不少冗余的表达,因此体积相对较大。
使用 JSON 作为配置文件格式?
JSON 作为配置文件格式使用,有很多缺点陈列如下:
- JSON 不支持注释;
- 对于复杂的结构定义,JSON 不易读;(想象一个多层嵌套的对象,每个对象都有多个键值对,当一屏无法展示时,将很难确定某个键的绝对路径)
- 无法原生表达日期/时间;
- 不易表达多行字符;
- 无法表达十六进制数值;
注意: JSON5 扩充了 JSON 的功能,弥补了部分上述所述的缺陷。但需要引入额外解析包,并没有大范围推广开。
但是考虑到 JS 对 JSON 有内置的支持,所以对于 JS 项目来说,使用 JSON 作为配置文件也未尝不可,但对于其他项目来说使用 TOML 作为配置文件或许是更好的选择。
使用 TOML 作为序列化格式?
相信我,一般情况下这不是明智的选择。
TOML 可以无歧义的映射成几乎所有编程语言的数据结构,但编程语言的数据结构序列化成 TOML 时将会有多种表达方式;同时 TOML 人类易读的属性也导致了序列化的文件会相对较大(有冗余的表达),并不利于不同服务间的传递。