Şu anda fotoğraf ve video çekmek için CoreImage'ı kamera beslemesine uygulayan bir iOS uygulaması geliştiriyorum ve biraz takılmaya başladım. Birden çok Çıkışlı AVCaptureSession?
Şu ana kadar ben fotoğraf çekmek için kullanıyor ve onları kurtaran, hem de CoreImage onları örnek tamponlarını almak ve işlemek için AVCaptureVideoDataOutput kullanarak ve sonra basit bir önizleme görüntülenir oldum. Ben AVCaptureVideoDataOutput onları alır almaz videoya SampleBuffers yazarak Görüntü Kaydı, uygulamaya çalışmıştır, bu (muhtemelen çünkü bittiğini diğer görüntü ilişkin işleme) çok yavaş bir kare hızı vardı .
diye merak ediyordum, bir AVCaptureVideoDataOutput ve AVCaptureMoveFileOutput aynı anda aynı AVCaptureSession oluyor olması mümkün mü?
Hızlı bir çıkış yaptım ve ek çıkışı eklediğimde AVCaptureVideoDataOutput öğemin bilgi almayı durdurduğunu keşfettim.
Çalışmayı başarabilirsem, yüksek çıkış hızlarında video kaydetmek için 2. çıkışını kullanabileceğimi ve kullanıcının kaydı durdurduktan sonra video üzerinde işlem yapabildiğimi umuyorum.
Herhangi bir yardım büyük takdir edilecektir.
mıydınız görüntüyü bir MOV/MP4'e yazmak için AVAssetWriter kullanarak? Özel bir OpenGL görüntü işleme motoru kullanıyorum ve 30 fps hızında kayıt yapıyorum. CoreImage'ın verimlilik için destekli OpenGL olacağını varsaydım. Seni tutan şeyin görüntülerin gösterildiğinden şüpheleniyorum. Görüntüleri oluşturmak için OpenGL mi kullanıyorsunuz yoksa başka bir API kullanıyor musunuz (muhtemelen CPU tabanlı)? –
uygulanabilir bir çözüm buldunuz mu? – user454083