我一直不喜欢也不擅长和不熟的人称兄道弟。
跟相熟的人在一起,可以相互卸下防备,交心地聊。就算聊不出什么东西,单单是聊,也能让人心情愉悦。
独立开发,自由职业
我一直不喜欢也不擅长和不熟的人称兄道弟。
跟相熟的人在一起,可以相互卸下防备,交心地聊。就算聊不出什么东西,单单是聊,也能让人心情愉悦。
在大部分情况下,Google 都能准确地识别源语言。而俄罗斯的用户反馈,无法正确识别俄语。测试了下,还真是。今天加把劲,增加了手动设置源语言的功能。
其实,单纯这个功能倒没什么可说的。关键在于:如何既满足边缘情况、又不影响大多数的用户。目前,整体的逻辑是这样的:
某个交互的权重、显眼程度,是和其本身的重要程度关联的。
先上图:
主要要解决的是此类问题:比如,有时会需要识别 PDF 这种排版复杂的「图片」,如果直接把整张图拿去识别,结果肯定会有很多杂音;手动去除这些杂音,也是挺花时间的。
现阶段,更好的办法是「人机配合」;即,自己挑着选中有意义的区域进行文字识别,然后把分别得到的结果拼接出来。而为了实现这一目的,iText 的连续识别、自动拼接识别结果,就会显得很方便。
今天在做 iText 的连续识别,遇到一个问题:追加内容到 NSTextView,并不能完全显示出来。
开始时,以为是追加的方式不对。后来再次确认:哪怕是直接设置字符串,如果太多,也无法显示。
以目前的理解,应该是 TextView 的 Bug;明天顺势好好学习下这个控件,消除一想到它就怕的心理恐惧。