V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  featureoverload  ›  全部回复第 1 页 / 共 2 页
回复总数  26
1  2  
2023-06-25 10:10:07 +08:00
回复了 lanlanye 创建的主题 Python 一个方便使用 Function calling 的小工具
@featureoverload (没写完给发送了)

差不多思路这样就可以:

pip install fastapi; restapi = route(restapi); json.loads(restapi.xxx.json_schema());
2023-06-25 10:09:18 +08:00
回复了 lanlanye 创建的主题 Python 一个方便使用 Function calling 的小工具
@abersheeran 确实,fastapi 的 Route 类已经处理过了。pip install fastapi; restapi = route(restapi); json.loads(restapi.xxx.json_schema());
2023-05-10 09:58:34 +08:00
回复了 tanran 创建的主题 程序员 macOS 怎样快速切换到另一个应用?
不需要安装其他软件的办法。

先分类 -- 在不同应用间切换(分类不同的应用);然后再在应用内切换。

可以在设置里面,配置快捷键,应用切换的快捷键配置成 **不同应用**切换。

然后有另外一个快捷键,配置它在(当前焦点的)**应用内**切换。

-------

这样只有两个快捷键,所有 mac 都适用,不需要安装软件,只需要连续按小几下就行了。
2023-04-12 09:57:35 +08:00
回复了 ChenJHua 创建的主题 Python Python 内存优化问题
@ChenJHua “优化独立脚本重复导包的内存占用” 针对这个问题而言。

如果脚本是一次性执行的。那么可以在父进程(死循环的那个程序)

1. 先 import pymongo;
2. 然后 os.fork
3. 子进程中:import {脚本}; {脚本}.run()
4. 脚本运行完退出子进程

从 LINUX(*nix)来说,父进程和子进程的“读”内存是共享的。而 import 的包显然是用来“读”的。

所以从原理上,逻辑推导是可以做到共享的。

但是 python 不是编译的直接在 LINUX 系统上直接运行的二进制可执行程序。
而是通过 cpython 这个二进制程序解释运行的。
所以实际能不能共享父进程和子进程的内存,要看具体实现,我没有实验过。

-------------

如果是我要解决这个问题的话,我会从上面的思路做试验测试看看会不会“优化独立脚本重复导包的内存占用”。
2023-04-12 09:43:21 +08:00
回复了 ChenJHua 创建的主题 Python Python 内存优化问题
100 个“脚本程序”,600MB 内存,优化个 X 。

有用的软件,直接按 32GB ,64GB ,128GB 考虑。

没有用的软件,“过早优化是万恶之源”。
2023-04-03 19:11:19 +08:00
回复了 JasonLaw 创建的主题 Python x in 'aeiou' and y in 'aeiou',有没有更加优雅的写法?
`all([c in 'aeiou' for c in (x, y)])`
2023-03-14 09:51:51 +08:00
回复了 LeeReamond 创建的主题 Python 动态载入, import 之类的有什么轮子吗?
@LeeReamond 原本的程序(父进程)负责主 /核心逻辑,比如判断动态导入等。

在需要动态导入的时候,以及动态导入之后(使用导入的模块)做的事情,在 fork 出来的程序处理。

这样 [动态导入做的事情] 完成之后,fork 出来的程序(子进程)就让它自己结束--进程销毁;

------

这样就是“业务逻辑”和“核心逻辑”分离,包括进程内的一切变量等等。

核心逻辑控制什么时候动态导入,业务逻辑实际执行导入和业务行为。
2023-03-13 14:24:55 +08:00
回复了 LeeReamond 创建的主题 Python 动态载入, import 之类的有什么轮子吗?
@featureoverload 这种应该是最简单的机制了。

有内存数据(变量 /对象 /数据结构)交换的话,就使用 multiprocessing+importlib.import_module 可以解决。
2023-03-13 14:21:56 +08:00
回复了 LeeReamond 创建的主题 Python 动态载入, import 之类的有什么轮子吗?
不是有特殊需求的软件,就实现 os.fork+importlib.import_module 好了。这种应该是最简单的
2023-03-13 14:19:01 +08:00
回复了 Ashore 创建的主题 程序员 原来真的有领导把好心当做驴肝肺!
@passall #25 楼说就 5,6 个人,能有啥老板的老板。看过去就一个老板。
2022-11-22 17:16:12 +08:00
回复了 maclon 创建的主题 程序员 兄弟们,来吹爆东哥
某查查数据:

阿里巴巴:员工人数:5,967 ( 2021 年)
京东:员工人数:11,704 ( 2021 年)

据了解,京东快递员是直接和京东的签劳动合同。
2022-10-31 14:40:51 +08:00
回复了 mmm159357456 创建的主题 Python Python 的多层嵌套循环如何优化?
问题给的例子基本没办法优化。和是否是 Python 语言基本没啥关系。

它本身就是一个 O(na * nb * nc) 复杂度的问题(如果 na ≈ nb ≈ nc ,那么就是 O(n^3) 复杂度)。

如果真的有必要优化。

1. 寻找 na,nb,nc 里面元素的重复之处。
2. 是否有必要遍历全部,是否实际只要执行部分就 break 退出的情况
3. 使用纯 C/C++ 重写和这段代码相关的所有代码 -- 加上优化的功能,类似并行计算等等。
2022-07-18 09:38:15 +08:00
回复了 blankmiss 创建的主题 Python pycharm 自动推断 typing
不用考虑太多;只是因为你是 Python 新手。

懂的都懂。
2022-07-18 09:36:08 +08:00
回复了 Wdafff 创建的主题 程序员 打开 PC 端微信比打开个 IDEA 还要卡,是真的厉害
可以把 wechat 和 vmware 或 virtual box 对比一下。
2022-07-15 09:42:26 +08:00
回复了 coala 创建的主题 Java [ Java ] 代码质量糟糕, 是常态吗?
@featureoverload

从问题来说,代码质量糟糕在当下确实是常态。

我上一家公司代码质量很高,入职新公司加入的项目代码质量差距明显。

但是代码质量高的代价是,程序员周一提交一个 MR ,反复 code review 周五才有机会 Merge
(很多时候会往复两周)

当然,根据程序员自身水平,这个时间可长可短;通常在 三天到一周 左右。

被 code review 过的程序员,提交的 code 在三天以下被 Merge 的,
通常已经过了需要被频繁提 comment 的能力阶段了;
这时候的 code review 的时间,通常不是花在代码质量上。
2022-07-15 09:35:32 +08:00
回复了 coala 创建的主题 Java [ Java ] 代码质量糟糕, 是常态吗?
这个话题下,很多人想的理由水平也可以反映自身代码水平。

如果没有经历过好的代码质量的工作,那么建议找工作的时候多问一些问题,根据主管( CTO )回答就能推测代码质量了。
如果准备不了合适的问题,自然就陷入死循环。
2022-07-01 18:50:38 +08:00
回复了 helee9199 创建的主题 Java 请教一下大佬.我们这个情况应该如何设计
听说过动态链接库吗?(思想)
2022-06-29 09:37:30 +08:00
回复了 wdwwtzy 创建的主题 程序员 这个各大语言性能测试结果挺有意思
@featureoverload "从零文件开始 coding"
2022-06-29 09:36:47 +08:00
回复了 wdwwtzy 创建的主题 程序员 这个各大语言性能测试结果挺有意思
有没有搞一个 [各大语言在终端输出一个 "Hello World!"] 的从零文件 coding 速度排名?

我先来:

```shell
$ python3 -c "print('Hello World!')"
```
1  2  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4660 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 26ms · UTC 09:53 · PVG 17:53 · LAX 01:53 · JFK 04:53
Developed with CodeLauncher
♥ Do have faith in what you're doing.