这次要介绍几个其实很简单,但是一定要小心的返回值规则。
1.resume的参数
resume函数除了第一个参数是协同程序外,还能继续传其他参数,如下代码:
复制代码 代码如下:
local co = coroutine.create(function(name)
print(name);
end);
coroutine.resume(co, "resume param");
resume第二个参数为“resume parame”,这个参数将会传递给协同程序的函数。
输出结果如下:
复制代码 代码如下:
[LUA-print] resume param
这很简单,对吧,记住这个规则了,接下来不要混乱了。
2.resume函数的第二个返回值
还记得resume函数的两个返回值吗?一个代表协同程序是否正确执行,一个代表错误信息。
那,如果协同程序正确执行,错误信息这个返回值自然就是nil了。
然后,这里还有一个规则,那就是yield函数的参数可以传递到resume的第二个返回值里。
如下代码:
复制代码 代码如下:
local co = coroutine.create(function(name)
print(name);
coroutine.yield("yield param");
end);
local result, msg = coroutine.resume(co, "resume param");
print("msg:" .. msg);
输出结果如下:
复制代码 代码如下:
[LUA-print] resume param
[LUA-print] msg:yield param
这次我们只是加了一句yield的调用,同时yield函数我们传递了一个参数进去。
而这个函数将作为resume的第二个返回值,前提是,resume函数的第一个返回值是true。
怎么样?是不是开始有点混乱了?
没关系,接下来更加混乱。
3.yield的返回值
这次轮到yield的返回值了,来看看下面的代码:
复制代码 代码如下:
local co = coroutine.create(function(name)
for i = 1, 2, 1 do
print(name);
print("co:" .. coroutine.yield("yield param"));
end
end);
for i = 1, 2, 1 do
print("=========第" .. i .. "次执行:")
local result, msg = coroutine.resume(co, "resume param");
print("msg:" .. msg);
end
这次的协同程序会执行一个for循环,而我们也会调用两次resume函数,输出结果如下:
复制代码 代码如下:
[LUA-print] =========第1次执行:
[LUA-print] resume param
[LUA-print] msg:yield param
[LUA-print] =========第2次执行:
[LUA-print] co:resume param
[LUA-print] resume param
[LUA-print] msg:yield param
第一次执行的时候,协同程序第一次被挂起,所以yield的返回要等待第二次resume被调用时才能得到。
于是,第二次调用resume时,首先就得到了上一次yield的返回值了,这个返回值正是resume的第二个参数。
没错,resume的第二个返回值是yield的参数,而yield的返回值,是resume的第二个参数。
再简单一些,resume的返回值是yield的参数,yield的返回值是resume的参数。
同时,resume的第二个参数也能传递给协同程序的函数。
怎么样?稍微有点点混乱了吧?
没关系喇,更混乱的情况还会接着发生的,呵呵。(小若:呵呵你个头啊,我走了)
4.协同程序结束,主函数的返回值
这最后一种情况了,那就是协同程序的函数返回值,没错,它也能有返回值。
先看代码:
复制代码 代码如下:
local co = coroutine.create(function(name)
for i = 1, 2, 1 do
print(name);
print("co:" .. coroutine.yield("yield param"));
end
return "协同程序函数结束喇!"
end);
for i = 1, 3, 1 do
print("=========第" .. i .. "次执行:")
local result, msg = coroutine.resume(co, "resume param");
print("msg:" .. msg);
end
我在协同程序函数的最后加了一个返回值,仅仅是一个字符串。
而resume的调用我增加到了3次,这是因为协同程序的for循环会执行两次,也就是会调用yield两次。
所以,需要第三次执行resume函数时,第二次yield才能得到返回。
输出结果如下:
复制代码 代码如下:
[LUA-print] =========第1次执行:
[LUA-print] resume param
[LUA-print] msg:yield param
[LUA-print] =========第2次执行:
[LUA-print] co:resume param
[LUA-print] resume param
[LUA-print] msg:yield param
[LUA-print] =========第3次执行:
[LUA-print] co:resume param
[LUA-print] msg:协同程序函数结束喇!
前两次的执行结果没变,第三次就有点特别。
第三次执行resume时,首先就得到了第二次yield的返回,输出“co:resume param”。
注意一下,这里是不会继续执行print(name);这句代码的,也就是说,整个协同程序函数的for循环是不会被执行的。
这里仅仅是第二次的yield函数返回了结果,这个可不能理解错了。
最后,协同程序函数返回一个字符串,这个字符串做成为resume函数的第二个返回值。
是的,当协同程序执行完毕时,resume的第二个返回值就不再是yield的参数了。
5.结束
好了,这就是我今天不小心扫了几眼后,就不得不仔细研究的地方了。
虽然暂时还没了解这些规则的实际应用,但,这必须得记录下来,因为我很快就会混乱,到时候还得回头看这篇文章吧~
好吧,已经9点了…美好的周五晚上T_T
Lua,协同程序,返回值
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。
更新日志
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]