2023年1月

        用Stable Diffusion将歌词逐句变成图像,再用AE生成视频,好像是近期比较流行的一种玩法......试验了,有的歌词生成的图像很有创意,但很多句歌词生成的图像平平,还是需要加上一些解释性词语,比如I see green这句,加上summer forest那意境就出来了。
        用邓丽欣的《colors》小试牛刀

[button color="light" icon="" url="https://www.xiaohongshu.com/explore/63d5435d000000001d0106b4" type=""]点击在新页面看colors[/button]

        大年初二偶然望向窗外,看到金星合月。架起相机拍了几张,心想要是那个方向有焰火就好了,然后就有人放起焰火。
        大年初五和朋友出发去拍彗星,行前颇多踌躇,因为初六凌晨冷空气就要自东方压进昆明。关键时刻大叔的一句话令人下定决心:往西走,能拍到四五点,不是彩云天气说的两点变天。
        原来规划的拍星地点是绿汁观景台,到了才发现面向西方且有灯光,只能和朋友摸黑寻找新的拍星点位。经过一片废弃的厂房和生活区,终于在当地人的指点下来到了绿汁滑翔伞起飞场。朋友的瑞星600摄星镜、NEQ6和立柱是首次开光,千算万算还是漏带了鱼骨板,万幸器材正常。天北极附近导星校准困难,灵机一动扭歪导星镜指向远离天北极方向方才校准成功。另一位朋友的70SA套装则是导星不成功,排查半天是赤道仪停止了跟踪。回家后这位朋友还发现赤纬轴松旷得匪夷所思,但那是另一个故事了。我则是因为1/4的螺栓不够长,没有能够把我的6D叠加在摄星镜上,好在70SA的朋友拍完一组彗星后,好心地让我换上我的6D拍了一组,总算没有白跑一趟。
        拍下的彗星怎么处理都感觉不对头。尽管做了暗场和偏置,单反的噪点还是太多。以后还是多用冷冻CCD吧。接上车子的外放电,也不必顾虑电池耗尽的问题,还可以煮火锅呢。

_20230123205751.jpg
20230127C2022E3.jpg
20230127C2022E3_2_小.jpg

        第一次听到这首歌是看《X档案》的时候,当穆德将枪击现场偷偷带出来的笔记本电脑里的CD插入播放器时,响起的《Twilight Time》的歌声瞬间抓住了我的心。这是我第一次听这首歌,然而感觉却无比熟悉和亲切,尤其随着剧情的推进,最后女极客选择放弃生命将意识上传到网络时也是伴随着这首歌,令人五味杂陈感慨万千。
        这集留下深刻印象是因为在X档案那个时代就提出了人工智能产生意识以及将人的意识上传到网络的问题,无疑是非常超前了。要知道,那个时候《Matrix》还不知道在哪儿呢。Twilight Time这个歌名同时也是一个天文学名词,暮曙时光,指的是太阳在地平线下然而天光仍亮或天光已亮的那段时间。难怪那么亲切。
        昨天终于打起精神搜索这首歌是《X档案》哪一季哪一集里的,我找到了,第五季第十一集。再次重温,恍若昨日。

        很久以前偶遇一张感觉非常好的灯塔照片,把它打印出来夹在我的笔记本里。一直想知道这座灯塔坐落于何处,然而始终忘记去寻找,人总是把美好的东西视作理所当然。今天终于下定决心在BING上搜索,费了一番功夫终于找到:美国华盛顿的North Head灯塔。
        好奇,就找到它。

北头灯塔.jpg
northheadlighthouse.png

        我算是明白了,要真正学会做一件事,最少要重复做三次。
        M42是天文爱好者最喜欢拍的目标,因为它很亮而且很漂亮,但M42也是天文爱好者最难处理好的深空照片,因为它太亮了,要想把星云的云气充分压榨出来,星云中心就要不可避免地过曝。所以拍M42要至少拍两组不同曝光的照片,然后在后期合成,当采用LRGB合成时,意味着要有八个通道的数据需要处理,一不小心就要返工返工再返工...所以当老魏把他参团远程拍摄的M42全套数据交给我时,真是头晕啊。
        第一步:叠加。可以用DeepSkyStack,也可以用MaxIm DL(MDL),理论上后者叠加出来的图像质量要更好那么一点点,但是方便还是前者,因为要叠的通道实在太多了。用过不知多少次DSS了,仍然阴沟里翻船若干次,教训啊:一是亮场、暗场和平场一定要是同一个通道的,这次就发生RGB三个通道用了L的平场的低级错误,虽然比较了下好像没有什么不同,但是本着精益求精的原则还是不得不重新叠加了一次;二是亮场照片一定要事先人工过滤一道,叠出来拉亮了才发现若干卫星轨迹,方才想起猎户座正好在天赤道上,来来往往的人造卫星简直如过江之鲫,一不小心就会在照片上留下轨迹,有一张照片居然还有飞机的轨迹,所以一定要在预览窗口里拉伸图像,拉亮图像后要逐张人工检视每张图片是否有拉线、卫星或飞机轨迹等情况,有疵瑕的照片取消勾选,这样才能处理出高质量的原片,于是,我在这里又处理了第三次;三是5s的短曝光不需要做平场,如果做了平场反而会因为过度补偿而导致四周亮中间暗,于是我在这里做了第四次叠加。
        第二步:拉伸。就是所谓的DPP,数码冲洗的意思,把叠加完成的照片里的信息尽可能多榨出来。DSS叠加完成的图片是线性的,和人眼的特性不符,看上去就是黑漆漆一片,但其实黑漆漆的表象之下有着非常丰富的信息。DPP可以用PS也可以用MDL,但是我用PS拉伸曲线和色阶来调整总是感觉做不到位,不是把色阶拉断了就是感觉不到位,还是MDL的操作来得量化精确可操作。把叠加后的原片打开后首先拉伸预览窗口的stretch,把整张片子拉亮,把云气拉出来,再调出DPP窗口,将无云气的最暗部的数值和方差提取出来,按照数值减去五倍方差的结果填入AVG栏中,再将云气中较淡的区域的数值作为MID栏的数值,运行拉伸后观察直方图,按照直方图左边没有顶满的原则微调两个数值,就可以得到充分拉伸然而又不会造成过分饱和的图像。为了不同通道的处理尽量一致,两个点的取点位置我都记录了坐标值,各通道尽量一致,后期色彩等就会比较均衡。
        第三步:LRGB叠加。PS和MDL都能做,还是用的MDL。LRGB四个通道拉伸后的图片全部打开,然后调出color菜单下的combine color窗口,把每个通道的图片选择好,然后点击Align进行对齐。这次的图片用Auto star match是通不过的,因为不同通道之间的画面有旋转,所以校准方式要改成手动2星校准,通过手动在每张图片上标注出两颗星,来作为基准实现自动对齐,两颗校准星一颗在画面中央,另一颗在边角,这样才能准确识别旋转情况。校准完毕后按OK,回到合并色彩界面按OK,LRGB合成就完成了。
        第四步:降噪。PS和PI都能做,用的PS,按照教程将图像模式改为LAB模式,然后针对AB通道进行两次高斯模糊和渐隐高斯模糊,第一次高斯模糊半径1.5,渐隐70%,第二次高斯模糊半径4.0,渐隐50%。确实有明显的降低彩色噪声的效果。处理后将图像模式改回RGB模式。
        第五步:HDR。用的是PS的蒙版,将两张不同曝光的降噪后图片放到一张图片里,手工对齐后,拷贝亮的背景为新图层,删去原有不可编辑的背景图层,然后将暗的图片新增一个蒙版,蒙版上拷贝上亮的图层,然后进行高斯模糊,我用的是半径50,最后调整曲线和饱和度就可以了。
        这次做出来的M42云气十分充足,这些云气并不是凭空产生的,是真实的信息。我没有像它提供的处理后照片那样将HA通道压在上面,因为HA通道的星点太细,即使亮星也是如此,叠加上去后虽然减少了亮星的过曝和星芒,但却与我们目视的主观感受大相径庭。我个人是十分不喜欢仅仅出于好看的目的而做缩星等处理的,画面的真实感和整体气氛对我来说更重要。深空后期的水真是太深了!
L200-LRGB-HDR_output1小.jpg

“举头望明月,Fly Me to the Moon。”

        据说阿波罗11号降落月球时,登月舱里放的就是这首歌。假若这是事实,那就是极致的浪漫。带我飞向月球,不惧星路漫漫。

        和Disco Diffusion相比,Stable Diffusion for WebUI是一个更加容易上手的AI绘画脚本,SD与DD相比,只要将https://github.com/AUTOMATIC1111/stable-diffusion-webui 中的脚本克隆到本地,先后在命令行中运行webui-user.bat和webui.bat,即可完成python虚拟环境构建、所需模块下载安装等工作,当然,前提是本地已经安装了python3.6以上版本以及CUDA等模块。只要在stable-diffusion-webui/models/Stable-diffusion/子目录中拷贝进下载的模型,SD就可以运行了。
        SD的使用比SD更直观和简单。每次开始时先运行webui-user.bat,提示加载完成可以访问浏览器后,就可以在本地电脑的浏览器中访问http://127.0.0.1:7860进行AI绘画了,整个设置和输出界面都在网页上进行呈现,比DD在本地运行时直接操作笔记本脚本要友好许多。SD同DD一样,用文字告诉它你想生成一张什么样的照片,只不过不需要完整的一句话,只需要一个一个的关键词用逗号分隔即可,这些词叫Tag.整个运行也比DD要快许多,512*512的图片大约十余秒就可以生成一张。
        SD出来的效果和所采用的模型有很大关系。在github上发布方给出的是sd-v1-4-full-ema.ckpt 以及 sd-v1-4.ckpt两个模型,分别是4.2G和7.6G大小,用这个模型生成的是照片和绘画风格的图像,老实说不好看,而且诡异的地方很多,比如生成的人有三条腿什么的。SD的优势是二次元绘画,下载了网上泄露的二次元模型后,做出来的动画还挺有意思。加载不同的模型生成的结果截然不同,因此更换不同的模型试验可以让你玩很长的时间。但是model子目录中一次只认一个模型,因此可以把下载的所有模型拷贝进去,将想要运行的模型名称改为排序最靠前的即可识别加载。

        SD资源参考:
        模型下载: https://rentry.org/sdmodels
        SD综合信息:https://rentry.org/sdupdates
        Tag生成网站:https://wolfchen.top/tag/
                                https://aitag.top/
        Tag魔法书:https://docs.qq.com/doc/DWHl3am5Zb05QbGVs?
                        https://docs.qq.com/doc/DYVJUZU5VdXdDeWNI?
                        https://docs.qq.com/doc/DSHBGRmRUUURjVmNM
                        https://docs.qq.com/sheet/DRGR5RHVQeVhqUENG?tab=BB08J2
                        https://www.kdocs.cn/l/cvg8ccOGj5sq

下面是试验的输出画作:
Tag:a little bear,brown,qute,scarf,white snow,christmas
bear1.png
bear2.png
bear3.png
bear4.png
Tag:a bride,black and white hair,star eyes,Close-up,Immortality of Eternity, poetry, Astronomical clock,white wedding dress,forever time,
clock1.png
clock2.png
clock3.png
clock4.png
clock5.png
clock6.png